JP6757054B2 - 皮膚組織の病理画像を用いた診断支援のためのシステム及び方法 - Google Patents

皮膚組織の病理画像を用いた診断支援のためのシステム及び方法 Download PDF

Info

Publication number
JP6757054B2
JP6757054B2 JP2019521286A JP2019521286A JP6757054B2 JP 6757054 B2 JP6757054 B2 JP 6757054B2 JP 2019521286 A JP2019521286 A JP 2019521286A JP 2019521286 A JP2019521286 A JP 2019521286A JP 6757054 B2 JP6757054 B2 JP 6757054B2
Authority
JP
Japan
Prior art keywords
distribution
cells
image showing
image
skin tissue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019521286A
Other languages
English (en)
Other versions
JPWO2018221625A1 (ja
Inventor
悠自 太田
悠自 太田
光介 志藤
光介 志藤
要 小島
要 小島
正朗 長▲崎▼
正朗 長▲崎▼
研志 山▲崎▼
研志 山▲崎▼
節也 相場
節也 相場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Original Assignee
Tohoku University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC filed Critical Tohoku University NUC
Publication of JPWO2018221625A1 publication Critical patent/JPWO2018221625A1/ja
Application granted granted Critical
Publication of JP6757054B2 publication Critical patent/JP6757054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Urology & Nephrology (AREA)
  • Medicinal Chemistry (AREA)
  • Hematology (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Food Science & Technology (AREA)
  • Biomedical Technology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Description

本発明は、皮膚組織の病理画像を用いた診断支援のための技術に関する。
ある論文には、乳がん病理組織の病理画像から、Mitosis細胞を検出するために、畳み込みニューラルネットワークを二段階用いるものが記載されている。ここでは特定の種類の細胞を検出するだけで十分であり、特定の種類の細胞の分布などをさらに考慮した上で診断するようなことは問題となっていない。
また、他の論文には、前立腺がんの病理画像から、腫瘍の部分を局所的に検出するために畳み込みニューラルネットワークを用いたものと、センチネルリンパ節における乳がんの転移箇所を局所的に検出するための畳み込みニューラルネットワークを用いたものが記載されている。この論文では、前立腺がんの病理画像における解析において、病理画像全体からがんであるかどうかを腫瘍であるかの尤度のヒストグラムの形状により、また乳がんの転移の有無については局所的に得られた転移があるかの尤度のうち最大のものをスコアすることにより判定を行っており、特定の種類の細胞の分布などを考慮した上で診断するようなことは問題となっていない。
さらに、ある文献には、腫瘍の性質の識別において、細胞核、その周辺組織等の変化が重要であることを考慮し、病理画像から細胞核、空孔、細胞質、間質等を中心とするサブイメージを抽出し、サブイメージを学習パターン及び入力パターンとして入力することにより、サブイメージに基づいて高精度に腫瘍の有無、及び腫瘍の良性・悪性を判定することが開示されている。この文献には、病理学検査において採取した組織には染色(ヘマトキシレン、エオジン等による染色)が施されるため、細胞核、その周辺組織等がそれぞれ特有の色に染色されていることを考慮して、病理画像から細胞核、空孔、細胞質、間質等を中心とするサブイメージを抽出すると同時に、細胞核の色情報を抽出し、両者を特徴候補として記憶することにより、より高い精度で腫瘍の有無、及び腫瘍の良性・悪性を判定することも開示されている。しかしながら、皮膚組織における病理画像に特徴的な要素については考慮されていない。
特開2006−153742号公報
Hao Chen, QiDou,XiWang, Jing Qin & Pheng-Ann Heng, "Mitosis Detection in Breast Cancer Histology Images via Deep Cascaded Networks", Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence (AAAI-16) Geert Litjens, Clara I. Sanchez, NadyaTimofeeva, Meyke Hermsen, Iris Nagtegaal, Iringo Kovacs, Christina Hulsbergen - van de Kaa, Peter Bult, Bram van Ginneken and Jeroen van der Laak, "Deep learning as a tool for increased accuracy and efficiency of histopathological diagnosis", Scientific Reports, 6:26286, 2016
本発明の目的は、一側面によれば、皮膚疾患の診断支援を行うための新規な技術を提供することである。
本発明の第1の診断支援システムは、(A)病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における異型細胞の分布を表す画像とを入力とする機械学習の学習済みモデルと、(B)処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における異型細胞の分布を表す第3の画像とに対する、学習済みモデルからの出力に基づき、皮膚疾患に関する出力データを生成する出力データ生成部とを有する。
本発明の第2の診断支援システムは、(A)病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における免疫細胞の分布を表す画像と、皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ非腫瘍性の複数種類の皮膚疾患の鑑別を出力とする機械学習の学習済みモデルと、(B)処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における免疫細胞の分布を表す第3の画像と、処理対象の皮膚組織における管腔を作る細胞の分布を表す第4の画像とに対する、機械学習の学習済みモデルの出力に基づき、非腫瘍性の複数種類の皮膚疾患の鑑別結果を含む出力データを生成する出力データ生成部とを有する。
図1Aは、悪性黒色腫を含む皮膚組織の病理画像の一例を示す図である。 図1Bは、色素性母斑を含む皮膚組織の病理画像の一例を示す図である。 図2は、畳み込みニューラルネットワークの一例を示す図である。 図3Aは、悪性黒色腫と分かっている皮膚組織における真皮細胞の分布を表す画像の例を示す図である。 図3Bは、悪性黒色腫と分かっている皮膚組織における表皮細胞の分布を表す画像の例を示す図である。 図3Cは、悪性黒色腫と分かっている皮膚組織における異型細胞の分布を表す画像の例を示す図である。 図4Aは、色素性母斑と分かっている皮膚組織における真皮細胞の分布を表す画像の例を示す図である。 図4Bは、色素性母斑と分かっている皮膚組織における表皮細胞の分布を表す画像の例を示す図である。 図4Cは、色素性母斑と分かっている皮膚組織における異型細胞の分布を表す画像の例を示す図である。 図5は、第1の実施の形態に係る情報処理装置の機能ブロック構成を示す図である。 図6は、第1の実施の形態に係る情報処理装置により実行される処理フローを示す図である。 図7は、分割画像を説明するための図である。 図8Aは、真皮細胞の分布の初期画像を説明するための図である。 図8Bは、表皮細胞の分布の初期画像を説明するための図である。 図8Cは、異型細胞の分布の初期画像を説明するための図である。 図9は、悪性黒色腫と分かっている皮膚組織における免疫細胞の分布を表す画像の例を示す図である。 図10は、色素性母斑と分かっている皮膚組織における免疫細胞の分布を表す画像の例を示す図である。 図11は、悪性黒色腫と分かっている皮膚組織における管腔を作る細胞の分布を表す画像の例を示す図である。 図12は、色素性母斑と分かっている皮膚組織における管腔を作る細胞の分布を表す画像の例を示す図である。 図13は、第2の実施の形態に係る情報処理装置の機能ブロック構成を示す図である。 図14は、第2の実施の形態に係る情報処理装置により実行される処理フローを示す図である。 図15Aは、鑑別対象の疾患名と腫瘍に係る異型細胞の由来となる細胞名と処理に用いられる細胞の種類との関係を表す図である。 図15Bは、鑑別対象の疾患名と腫瘍に係る異型細胞の由来となる細胞名と処理に用いられる細胞の種類との関係を表す図である。 図15Cは、鑑別対象の疾患名と腫瘍に係る異型細胞の由来となる細胞名と処理に用いられる細胞の種類との関係を表す図である。 図16は、非腫瘍性疾患名と処理に用いられる細胞の種類との関係を表す図である。
[実施の形態1]
本実施の形態では、悪性黒色腫と色素性母斑とを鑑別することを目的とする。悪性黒色腫とは、表皮に存在する色素細胞のがんである。一方、色素性母斑は、色素細胞の良性の腫瘍であり、両者の鑑別は難しい場合が多い。
図1Aは、悪性黒色腫を含む皮膚組織の病理画像の例(但し、グレースケール画像)を示す。また、図1Bは、色素性母斑を含む皮膚組織の病理画像の例(但し、グレースケール画像)を示す。このように両者の鑑別は難しい。なお、このような病理画像は、病理組織のプレパラートをスキャンしてデジタル画像にしたものである。
本実施の形態では、第1段階の処理として、このような病理画像において、皮膚組織における表皮細胞の分布と、真皮細胞の分布と、異型細胞の分布とを特定する。なお、異型細胞は、悪性黒色腫の腫瘍化した色素細胞と、良性腫瘍である色素性母斑の腫瘍化した色素細胞とのいずれかである。以下、異型細胞については、腫瘍化した又は平常ではない細胞を示すものとする。
次に、第2段階の処理として、表皮細胞の分布を表す画像(分布を表す画像をヒートマップとも呼ぶ)と、真皮細胞の分布を表す画像と、異型細胞の分布を表す画像とから、悪性黒色腫と良性腫瘍である色素性母斑とその他とを鑑別する。但し、悪性黒色腫とその他とを鑑別するようにしても良い。
本実施の形態では、表皮細胞の分布と真皮細胞の分布とに対する異型細胞の分布によって、病理組織の悪性度を推測することを意図している。すなわち、異型細胞が表皮や真皮中のどの部分にどのような分布で存在するのかを基に、病理組織の悪性度を予測することを意図する。言い換えれば、皮膚の構造を表し且つ平常時から存在する真皮細胞群や表皮細胞群などにおいて、異型細胞群がどのように入り込んでいるかを評価するものである。このような予測及び評価は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)に対して学習を行わせることによって実現する。
畳み込みニューラルネットワークは、例えば図2に示すような構造を有している。これは、よく知られているAlexNetと呼ばれる畳み込みニューラルネットワークに類似する構造を有しており、入力層と出力層との間に、畳み込み層とサブサンプリング層(プーリング層)との組み合わせを複数(図では2)セット設け、さらに2つの全結合層を追加した構成になっている。但し、畳み込みニューラルネットワークの構造には、様々なバリエーションがあり、それらを用いても良い。例えば、畳み込み層とサブサンプリング層との組み合わせの数は、増加させても良い。
上で述べたように、表皮細胞の分布を表す画像と、真皮細胞の分布を表す画像と、異型細胞の分布を表す画像とを、入力層に入力する。一方、出力層では、例えば、悪性黒色腫の尤度と、色素性母斑の尤度と、それ以外の場合の尤度とが出力される。
よく知られているように、畳み込み層には、フィルタ及び活性化関数についてパラメータがあり、サブサンプリング層にもサブサンプリングについてのパラメータがあり、全結合層にも活性化関数についてパラメータがあるので、学習によってそれらに適切な値等を設定することになる。学習のためのアルゴリズムは、既知の方法を用いる。
図3Aは、悪性黒色腫と分かっている皮膚組織における真皮細胞の分布を表す画像を示す。図3Bは、悪性黒色腫と分かっている皮膚組織における表皮細胞の分布を表す画像を示す。図3Cは、悪性黒色腫と分かっている皮膚組織における異型細胞の分布を表す画像を示す。このような画像を入力層に入力した場合に、出力層から悪性黒色腫である尤度が1という出力がなされる、ということを目的として学習が行われる。なお、これらの図中、白色の部分に、着目する細胞が存在することを示している。
一方、図4Aは、色素性母斑と分かっている皮膚組織における真皮細胞の分布を表す画像を示す。図4Bは、色素性母斑と分かっている皮膚組織における表皮細胞の分布を表す画像を示す。図4Cは、色素性母斑と分かっている皮膚組織における異型細胞の分布を表す画像を示す。このような画像を入力層に入力した場合に、出力層から色素性母斑である尤度が1という出力がなされる、ということを目的として学習が行われる。なお、これらの図中でも、白色の部分に、着目する細胞が存在することを示している。
なお、第1段階の処理においても、畳み込みニューラルネットワークを用いても良い。この場合、皮膚組織を含む病理画像の部分的な画像(おおよそ1細胞と同様の大きさを有する部分的な画像又は抽出された1細胞を含む部分的な画像)を入力とし、真皮細胞と表皮細胞と異型細胞とその他(ガラス部分その他など)との尤度を出力とする学習済みの畳み込みニューラルネットワークを用いる。但し、第1段階の処理については、領域抽出などの他の技術を用いて、病理画像から、表皮細胞の分布、真皮細胞の分布、異型細胞の分布を抽出するようにしても良い。
以下、このような処理を実施する情報処理装置の構成及び処理内容の詳細について説明する。
図5に、本実施の形態に係る情報処理装置の機能構成例を示す。
本実施の形態に係る情報処理装置は、入力部101と、病理画像格納部103と、第1前処理部105と、第1画像格納部107と、第1CNN109と、第1後処理部111と、第2画像格納部113と、第2前処理部115と、第3画像格納部117と、第2CNN119と、第2後処理部121と、結果格納部123と、第1学習処理部131と、第2学習処理部133とを有する。
入力部101は、ユーザから、処理対象の病理画像の入力を受け付け、病理画像格納部103に格納する。
上でも述べたが、病理画像は、病理組織のプレパラートをスキャンしてデジタル画像にしたものである。ここでは、例えば対物20倍に拡大してスキャンした画像であり、例えば縦横1M×1MピクセルのRGB画像である。
第1前処理部105は、第1CNN109における演算のため、1細胞程度のサイズに、病理画像格納部103に格納された病理画像を分割して、分割された病理画像(以下、分割画像と呼ぶ)を、第1画像格納部107に格納する。例えば、縦横32×32ピクセルの正方形の分割画像を生成する。
第1CNN109は、第1画像格納部107に格納されている各分割画像が、真皮細胞、表皮細胞、異型細胞、その他の細胞のいずれに該当するかを判別するように学習された畳み込みニューラルネットワークである。従って、第1CNN109は、処理に係る分割画像に対して、例えばそれぞれの尤度を出力する。
第1後処理部111は、第1CNN109からの出力に基づき、真皮細胞の分布を表す初期画像、表皮細胞の分布を表す初期画像、及び異型細胞の分布を表す初期画像を生成し、第2画像格納部113に格納する。例えば、分割画像が真皮細胞であると判別された場合には、真皮細胞の分布を表す初期画像において、その分割画像の位置の領域内における全ピクセルが「1」それ以外は「0」となるように設定される。すなわち、これらの初期画像はモノクロ画像である。このような場合、これらの初期画像のサイズは、病理画像と同じである。
第2前処理部115は、第2画像格納部113に格納された画像から、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像を生成し、第3画像格納部117に格納する。本実施の形態では、各初期画像を、第2CNN119で処理可能な画像サイズ(例えば縦横200×200ピクセル)に縮小する処理を実行する。例えば、この処理において、各ピクセルが所定階調(256階調)となるように変換する処理をも行う。すなわち、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像は、グレースケール画像である。
第2CNN119は、第3画像格納部117に格納された画像から、悪性黒色腫か否かを出力する。例えば、悪性黒色腫の尤度、色素性母斑の尤度、その他の尤度を出力する。なお、悪性黒色腫の尤度とその他の尤度を出力するようにしても良い。
第2後処理部121は、第2CNN119からの出力に基づき、鑑別結果を結果格納部123に格納し、表示装置その他の出力装置に鑑別結果を出力する。
このようにすれば、病理画像を入力すれば、自動的に、悪性黒色腫であるか否かの鑑別結果を得ることができるようになる。
本実施の形態では、表皮細胞の分布と真皮細胞の分布と異型細胞の分布とをそれぞれ別の画像として表すことで、分布間の関係を評価しやすくしている。これによって、畳み込みニューラルネットワークによる適切な鑑別を可能にしている。
なお、第1学習処理部131は、細胞の画像とその種別とを多数セット含む訓練データで、第1CNN109に対する学習処理を実行する。学習処理の方法は、従来と同じなので詳細な説明については省略する。
また、第2学習処理部133は、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像と鑑別結果とを多数セット含む訓練データで、第2CNN119に対して学習処理を実行する。学習処理の方法は、従来と同じなので詳細な説明については省略する。
次に、図6乃至図8Cを用いて、本実施の形態に係る情報処理装置の処理内容を説明する。
まず、入力部101は、ユーザから、処理対象の病理画像の入力を受け付け、病理画像格納部103に格納する(ステップS1)。表現上の問題でグレースケール画像になっているが、図1Aや図1Bに示すような画像(カラー画像)が、病理画像として入力される。入力された病理画像は、本情報処理装置の格納部、ネットワークに接続された他の装置の格納部等に格納されている場合があり、その場合には入力部101は、その格納部から読み出して病理画像格納部103に格納する。
そうすると、第1前処理部105は、病理画像格納部103に格納された処理対象の病理画像に対して、第1前処理を実行し、処理結果を第1画像格納部107に格納する(ステップS3)。この第1前処理では、図7に模式的に示すように、病理画像1001を縦横N×Nピクセルの多数の分割画像1002に分割する。Nは例えば32や64である。なお、細胞の核を認識して細胞を特定し、細胞を含む画像領域を特定する処理を行うことで、分割画像を生成しても良い。
その後、第1CNN109は、第1画像格納部107に格納されている各分割画像を読み出して、それらに対して分類処理を実行する(ステップS5)。分類処理は、処理対象の分割画像が、真皮細胞、表皮細胞、異型細胞、その他の細胞のいずれに該当するかを判別する処理であり、例えばそれぞれについての尤度を出力する。
そして、第1後処理部111は、第1CNN109からの出力に基づき、第1後処理を実行し、処理結果を第2画像格納部113に格納する(ステップS7)。第1後処理では、図8Aに模式的に示すように、真皮細胞の分布を表す初期画像において、真皮細胞と判別された分割画像の位置における領域1002a内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。同様に、図8Bに模式的に示すように、表皮細胞の分布を表す初期画像において、表皮細胞と判別された分割画像の位置における領域1002b内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。さらに、図8Cに模式的に示すように、異型細胞の分布を表す初期画像において、異型細胞と判別された分割画像の位置における領域1002c内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。
なお、このような第1後処理は一例であって、分布を表す初期画像のサイズを小さくするようにしても良い。例えば、分割画像1つにつき1ピクセルを対応付けて、分布を表す初期画像において、分割画像の位置の1ピクセルの画素値を「1」に設定するようにしても良い。このようにすれば、病理画像に対して縦も横も1/Nのサイズになる。
次に、第2前処理部115は、第2画像格納部113に格納されている画像に対して、第2前処理を実行し、処理結果を第3画像格納部117に格納する(ステップS9)。第2前処理では、画像の縮小処理を実行する。画像の縮小処理では、近隣ピクセルの画素値の平均を算出することで、縮小後のピクセルの画素値を算出する。分布を表す初期画像において画素値は「0」又は「1」であるから、平均を算出すると「0」乃至「1」の実数となる。この実数値を、例えば「0」乃至「255」のいずれかの整数となるように、線形にマップする。これによって、分布を表す初期画像(モノクロ画像)は、分布を表す画像(グレースケール画像)に変換される。なお、縮小処理において平均ではない方法を採用する場合もあるが、従来技術と同様であるからここでは詳細には述べない。
このような処理を実行することで、図3A及び図4Aに表すような真皮細胞の分布を表す画像、図3B及び図4Bに表すような表皮細胞の分布を表す画像、図3C及び図4Cに表すような異型細胞の分布を表す画像が得られるようになる。
なお、本実施の形態では、畳み込みニューラルネットワークの負荷等の問題から分布を表す初期画像に対して縮小処理を実行するようにしているが、負荷等の問題が無いのであれば、縮小せずとも良い。
そうすると、第2CNN119は、第3画像格納部117に格納されている画像を読み出して、それらに対して鑑別処理を実行する(ステップS11)。本実施の形態では、図3A乃至図3C又は図4A乃至図4Cのようなグレースケール画像群を、カラー画像の各チャネルのグレースケール画像として処理することになる。鑑別処理は、ここでは悪性黒色腫であるか否かであり、例えば、悪性黒色腫の尤度と、色素性母斑の尤度と、それ以外の尤度とが出力される。上でも述べたように、悪性黒色腫とその他との鑑別としても良い。
第2後処理部121は、第2CNN119からの出力に基づき、鑑別結果を結果格納部123に格納し、表示装置その他の出力装置に出力する(ステップS13)。出力装置は、ネットワークに接続された他の装置である場合もある。
以上のようにすれば、処理対象の皮膚組織における、表皮細胞の分布と真皮細胞の分布とに対する異型細胞の分布に基づき、病理組織の悪性度が学習されて、適切に鑑別結果が得られるようになる。
なお、検査の簡略化や患者の負担軽減も望める。
[実施の形態1の変形例A]
図3A乃至図3Cや図4A乃至図4Cのような画像における皮膚組織の輪郭や皮膚組織内におけるその他部分の分布などの補助情報が有用な場合もある。そのような場合には、病理画像を、分布を表す画像のサイズに合わせるように縮小してグレースケール画像にしたものを用いるようにしても良い。
すなわち、第2前処理部115は、病理画像格納部103から病理画像を読み出して、所定のサイズに縮小して、第3画像格納部117に格納する。
第2CNN119については、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、病理画像の縮小グレースケール画像をさらに用いて学習しておく。
そして、第2CNN119により鑑別処理を行う場合には、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、病理画像の縮小グレースケール画像を入力して、悪性黒色腫であるか否かの鑑別を実行させる。
これによって鑑別精度が向上する。
[実施の形態1の変形例B]
さらに、悪性黒色腫の進行度合いが上がると、免疫細胞が増加するという現象があることに着目すると、免疫細胞の分布を表す画像を、第2CNN119の入力としてさらに用いるようにしても良い。
すなわち、第1CNN109については、各分割画像について、真皮細胞、表皮細胞、免疫細胞、異型細胞、その他のいずれであるかという判別を行うように構成しておき、真皮細胞の画像、表皮細胞の画像、免疫細胞の画像、異型細胞の画像を用いて学習しておく。そうすれば、第1CNN109は、真皮細胞、表皮細胞、免疫細胞、異型細胞、その他のそれぞれについての尤度を出力する。
第1後処理部111は、第1CNN109からの出力に基づき、真皮細胞の分布を表す初期画像、表皮細胞の分布を表す初期画像、免疫細胞の分布を表す初期画像、異型細胞の分布を表す初期画像を生成する。免疫細胞の分布を表す初期画像は、他の分布を表す初期画像と同様に生成される。
また、第2前処理部115は、免疫細胞の分布を表す初期画像から、他の分布を表す画像と同様に、免疫細胞の分布を表す画像を生成する。悪性黒色腫と分かっている皮膚組織における免疫細胞の分布を表す画像は、例えば図9に示すような画像である。また、色素性母斑と分かっている皮膚組織における免疫細胞の分布を表す画像は、例えば図10に示すような画像である。なお、これらの図中でも、白色の部分に、着目する細胞が存在することを示している。図9の方が、異型細胞の分布との重なりが見られる。
さらに、第2CNN119については、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、免疫細胞の分布を表す画像をさらに用いて学習しておく。
そして、第2CNN119により鑑別処理を行う場合には、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、免疫細胞の分布を表す画像を入力して、悪性黒色腫と色素性母斑とその他とのいずれかであるかの鑑別を実行させる。
これによって鑑別精度が向上する。
[実施の形態1の変形例C]
さらに、悪性黒色腫の進行度合いなどを含む病状と管腔を作る細胞の分布とが関係していると推定されることがあるため、管腔を作る細胞の分布を表す画像を、第2CNN119の入力としてさらに用いるようにしても良い。
この場合には、変形例Bにおける免疫細胞に代わって管腔を作る細胞を用いるように変形する。
すなわち、第1CNN109については、各分割画像について、真皮細胞、表皮細胞、管腔を作る細胞、異型細胞、その他のいずれであるかという判別を行うように構成しておき、真皮細胞の画像、表皮細胞の画像、管腔を作る細胞の画像、異型細胞の画像を用いて学習しておく。そうすれば、第1CNN109は、真皮細胞、表皮細胞、管腔を作る細胞、異型細胞、その他のそれぞれについての尤度を出力する。
第1後処理部111は、第1CNN109からの出力に基づき、真皮細胞の分布を表す初期画像、表皮細胞の分布を表す初期画像、管腔を作る細胞の分布を表す初期画像、異型細胞の分布を表す初期画像を生成する。管腔を作る細胞の分布を表す初期画像は、他の分布を表す初期画像と同様に生成される。
また、第2前処理部115は、管腔を作る細胞の分布を表す初期画像から、他の分布を表す画像と同様に、管腔を作る細胞の分布を表す画像を生成する。悪性黒色腫と分かっている皮膚組織における管腔を作る細胞の分布を表す画像は、例えば図11に示すような画像である。また、色素性母斑と分かっている皮膚組織における管腔を作る細胞の分布を表す画像は、例えば図12に示すような画像である。なお、これらの図中でも、白色の部分に、着目する細胞が存在することを示している。図11の方が、異型細胞の分布が多い部分に隣接して多くの管腔を作る細胞が存在している。
さらに、第2CNN119については、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、管腔を作る細胞の分布を表す画像をさらに用いて学習しておく。
そして、第2CNN119により鑑別処理を行う場合には、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、管腔を作る細胞の分布を表す画像を入力して、悪性黒色腫と色素性母斑とその他とのいずれであるかの鑑別を実行させる。
これによって鑑別精度が向上する。
[実施の形態1の変形例D]
変形例A乃至Cについては、任意に組み合わせることができる。すなわち、病理画像の縮小グレースケール画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像の少なくともいずれかを用いるようにしても良い。
なお、免疫細胞については、好中球、リンパ球、マクロファージといった種類もあるので、いずれかの種類の分布を表す画像を用いるようにしても良い。
[実施の形態2]
第1の実施の形態のように悪性黒色腫の鑑別を行うだけではなく、予後予測(余命)、進行度を表す病期分類予測、特定薬剤に対する投薬効果の予測などを行うように変形してもよい。
なお、予後予測(余命)については、実数(例えば5年など)を予測しても良いし、1年未満、1年以上3年、3年から5年、5年以上といったような予め決められた余命レンジや生存率曲線で表されるような時間経過における生存確率を予測しても良い。
病期分類予測は、悪性黒色腫がどれほど悪いかを、所定数のステージで表して、そのステージを予測するものである。
投薬効果予測は、悪性黒色腫に特定の薬剤(例えば高価なニボルマブなど)を投与した場合の効果を予測するもので、効果あり又はなしを予測するものである。
このような病状に関する予測には、第1の実施の形態における主要な情報である表皮細胞の分布、真皮細胞の分布、及び異型細胞の分布は、有効である。これは、真皮細胞の分布及び表皮細胞の分布に対する異型細胞の分布、すなわち異型細胞がどのような部分にどのような分布で存在するかということは、どの程度病理組織が悪性であるかを表すからであり、悪性度が高ければ予後が悪いことが予測されるからである。
加えて、悪性黒色腫の進行度合いが上がると、免疫細胞が増加するという現象があること、管腔を作る細胞内に異型細胞が存在する場合には転移の危険性があることに着目すると、これらの免疫細胞及び管腔を作る細胞の分布についても、予後に関連する。
さらに、特定の薬剤の投薬効果には免疫細胞、特に好中球及びリンパ球が関係する可能性がある。
従って、第1の実施の形態と基本的な構成はほぼ同じだが、鑑別処理を行う第2CNN119に加えて、投薬効果予測のための畳み込みニューラルネットワークと、予後予測のための畳み込みニューラルネットワークと、病期分類予測のための畳み込みニューラルネットワークとを追加導入する。
さらに、第1CNN109についても、鑑別処理及び病状に関する予測処理で用いられる画像を生成できるように変形する。本実施の形態では、真皮細胞、表皮細胞、免疫細胞、管腔を作る細胞、その他を判別するようにする。但し、特定の薬剤に対する投薬効果予測を行う場合には、免疫細胞の種類(好中球、リンパ球、マクロファージ)をさらに判別できるようにする。
本実施の形態に係る情報処理装置の構成例を図13に示す。なお、第1の実施の形態に係る情報処理装置の構成要素と同様の機能を有する場合には、同じ参照番号を付している。
本実施の形態に係る情報処理装置は、入力部201と、病理画像格納部103と、第1前処理部105と、第1画像格納部107と、第1CNN209a及び209bと、第1後処理部211と、第2画像格納部113と、第2前処理部115と、第3画像格納部117と、第2CNN219a乃至219dと、第2後処理部221と、結果格納部123と、第1学習処理部231と、第2学習処理部233とを有する。
入力部201は、ユーザから、処理対象の病理画像の入力を受け付け、病理画像格納部103に格納する。また、入力部201は、処理内容についても指示を受け付ける。すなわち、悪性黒色腫の鑑別、予後予測(余命)、進行度を表す病期分類予測、特定薬剤に対する投薬効果の予測のうち1又は複数の処理の指定を受け付ける。
第1前処理部105の処理内容は、第1の実施の形態と同様である。
第1CNN209aは、第1画像格納部107に格納されている各分割画像が、真皮細胞、表皮細胞、免疫細胞、管腔を作る細胞、異型細胞、その他の細胞のいずれに該当するかを判別するように学習された畳み込みニューラルネットワークである。従って、第1CNN209aは、処理に係る分割画像に対して、例えばそれぞれの尤度を出力する。
第1CNN209bは、第1画像格納部107に格納されている各分割画像が、好中球、リンパ球、マクロファージ、その他の細胞のいずれに該当するかを判別するように学習された畳み込みニューラルネットワークである。従って、第1CNN209bは、処理に係る分割画像に対して、例えばそれぞれの尤度を出力する。
第1CNN209aと第1CNN209bは、例えば入力部201からの指示に応じて動作する。例えば、特定の薬剤に対する投薬効果予測を行う場合には、第1CNN209aと第1CNN209bを用いるようにする。その他の場合には、第1CNN209aのみを用いるようにする。
第1後処理部211は、第1CNN209aからの出力に基づき、真皮細胞の分布を表す初期画像、表皮細胞の分布を表す初期画像、免疫細胞の分布を表す初期画像、管腔を作る細胞の分布を表す初期画像、及び異型細胞の分布を表す初期画像を生成し、第2画像格納部113に格納する。例えば、分割画像が表皮細胞であると判別された場合には、表皮細胞の分布を表す初期画像において、その分割画像の位置の領域内における全ピクセルが「1」それ以外は「0」となるように設定される。すなわち、これらの初期画像はモノクロ画像である。このような場合、これらの初期画像のサイズは、病理画像と同じである。
同様に、第1後処理部211は、第1CNN209bからの出力に基づき、好中球の分布を表す初期画像、リンパ球の分布を表す初期画像、及びマクロファージの分布を表す初期画像を生成し、第2画像格納部113に格納する。具体的な処理内容は、第1CNN209aからの出力の場合と同様である。
第2前処理部115は、第2画像格納部113に格納された画像から、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像を生成し、第3画像格納部117に格納する。処理内容は、第1の実施の形態と同様である。なお、第1CNN209bからの出力がある場合には、第2前処理部115は、第2画像格納部113に格納された好中球の分布を表す初期画像、マクロファージの分布を表す初期画像、リンパ球の分布を表す初期画像から、好中球の分布を表す画像、マクロファージの分布を表す画像、リンパ球の分布を表す画像を生成し、第3画像格納部117に格納する。
第2CNN219aは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、悪性黒色腫と色素性母斑とその他とのいずれかを出力するように学習された畳み込みニューラルネットワークである。第2CNN219aは、第3画像格納部117に格納されている画像から、例えば悪性黒色腫の尤度、色素性母斑の尤度、その他の尤度を出力する。但し、第1の実施の形態のように、免疫細胞の分布を表す画像や管腔を作る細胞の分布を表す画像を用いずに鑑別を行っても良い。
第2CNN219bは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、予後予測(余命)の予測値(実数(年)、余命レンジ毎の尤度、又は生存率曲線で表されるような時間経過における生存確率)を出力するように学習された畳み込みニューラルネットワークである。第2CNN219bは、第3画像格納部117に格納されている画像から、予後予測の予測値を出力する。
第2CNN219cは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、病期分類予測(例えば各ステージの尤度)を出力するように学習された畳み込みニューラルネットワークである。第2CNN219cは、第3画像格納部117に格納されている画像に対する病期分類予測(例えば各ステージの尤度)を出力する。
第2CNN219dは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、好中球の分布を表す画像、マクロファージの分布を表す画像、リンパ球の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、特定の薬剤の投薬効果(例えば有りの尤度と無しの尤度)を出力するように学習された畳み込みニューラルネットワークである。第2CNN219dは、第3画像格納部117に格納されている画像から、特定の薬剤の投薬効果を出力する。
第2後処理部221は、第2CNN219aからの出力に基づき、鑑別結果を結果格納部123に格納し、表示装置その他の出力装置に鑑別結果を出力する。さらに、病状に関する予測を行うようになっている場合には、第2後処理部221は、第2CNN219b乃至219dの少なくともいずれかからの出力に基づき、病状に関する予測結果を結果格納部123に格納し、表示装置その他の出力装置に予測結果を出力する。
このようにすれば、病理画像を入力すれば、自動的に、悪性黒色腫又は色素性母斑であるか否かの鑑別結果、さらに病状に関する予測結果を得ることができるようになる。
本実施の形態では、表皮細胞の分布と真皮細胞の分布と異型細胞の分布と免疫細胞の分布と管腔を作る細胞の分布とをそれぞれ別の画像として表すことで、分布間の関係を評価しやすくしている。これによって、畳み込みニューラルネットワークによる適切な鑑別や病状に関する予測を可能にしている。
特に、免疫細胞の分布や管腔を作る細胞の分布を加えて評価することで、悪性黒色腫であった場合における腫瘍の悪性度合い、転移の可能性を評価できるようになる。また、特定の薬剤との関係が推定される免疫細胞の分布をさらに評価すれば、特定の薬剤の効果の有無を予測できるため、例えば高価な薬剤の投与の適否を判断できるようになる。
なお、第1学習処理部231は、細胞の画像とその種別とを多数セット含む訓練データで、第1CNN209a及び209bに対する学習処理を実行する。学習処理の方法は、従来と同じなので詳細な説明については省略する。
また、第2学習処理部233は、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と免疫細胞の分布を表す画像と鑑別結果とを多数セット含む訓練データで、第2CNN219aに対して学習処理を実行する。同様に、第2学習処理部233は、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と免疫細胞の分布を表す画像と、予後予測(余命)又は病期分類予測(ステージ番号など)とを多数セット含む訓練データで、第2CNN219b又は219cに対して学習処理を実行する。さらに、第2学習処理部233は、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と好中球の分布を表す画像とマクロファージの分布を表す画像とリンパ球の分布を表す画像と、特定薬剤の投薬効果(効果の有無など)とを多数セット含む訓練データで、第2CNN219dに対して学習処理を実行する。学習処理の方法は、従来と同じなので詳細な説明については省略する。
次に、図14を用いて、本実施の形態に係る情報処理装置の処理内容を説明する。
まず、入力部201は、ユーザから、処理対象の病理画像の入力を受け付け、病理画像格納部103に格納する(ステップS31)。図6のステップS1と同様である。
また、入力部201は、ユーザから、鑑別処理に加えて実行すべき病状に関する予測処理の指示の入力を受け付ける(ステップS33)。例えば、ユーザが、予後予測、病期分類予測、及び特定の薬剤の投薬効果のうち少なくともいずれかの指示を行って、当該指示を受け付ける。但し、病状に関する予測を行わないようにしても良いし、鑑別結果が悪性黒色腫ではない場合には、病状に関する予測を行わないものとする。
そうすると、第1前処理部105は、病理画像格納部103に格納された処理対象の病理画像に対して、第1前処理を実行し、処理結果を第1画像格納部107に格納する(ステップS35)。この第1前処理は、図6のステップS3と同様である。
その後、第1CNN209aは、第1画像格納部107に格納されている各分割画像を読み出して、それらに対して分類処理を実行する(ステップS37)。この分類処理は、処理対象の分割画像が、真皮細胞、表皮細胞、免疫細胞、管腔を作る細胞、異型細胞、その他の細胞のいずれに該当するかを判別する処理であり、例えばそれぞれについての尤度を出力する。
なお、特定の薬剤の投薬効果の予測を指示された場合には、入力部201は、第1CNN209bに対して処理の実行を指示する。そうすると、第1CNN209bも、第1画像格納部107に格納されている各分割画像に対して、分類処理を実行する。この分類処理は、処理対象の分割画像が、好中球、マクロファージ、リンパ球、その他の細胞のいずれに該当するかを判別する処理であり、例えばそれぞれについての尤度を出力する。
そして、第1後処理部211は、第1CNN209a及び/又は第1CNN209bからの出力に基づき、第1後処理を実行し、処理結果を第2画像格納部113に格納する(ステップS39)。
本実施の形態に係る第1後処理は、第1の実施の形態に係る第1後処理と基本的な処理は同じである。すなわち、真皮細胞の分布を表す初期画像において、真皮細胞と判別された分割画像の位置における領域内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。同様に、表皮細胞の分布を表す初期画像において、表皮細胞と判別された分割画像の位置における領域内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。さらに、異型細胞の分布を表す初期画像において、異型細胞と判別された分割画像の位置における領域内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。
さらに、免疫細胞の分布を表す初期画像において、免疫細胞と判別された分割画像の位置における領域内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。管腔を作る細胞の分布を表す初期画像において、管腔を作る細胞と判別された分割画像の位置における領域内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。
また、好中球と判別された分割画像、マクロファージと判別された分割画像、リンパ球と判別された分割画像がある場合には、それぞれについて上で述べたような処理を行って、好中球の分布を表す初期画像、マクロファージの分布を表す初期画像、リンパ球の分布を表す初期画像をも生成する。
次に、第2前処理部115は、第2画像格納部113に格納されている画像に対して、第2前処理を実行し、処理結果を第3画像格納部117に格納する(ステップS41)。第2前処理は、第1の実施の形態と同様である。
そうすると、第2CNN219aは、第3画像格納部117に格納されている画像を読み出して、それらに対して鑑別処理を実行する(ステップS43)。本実施の形態に係る鑑別処理は、免疫細胞の分布を表す画像及び管腔を作る細胞の分布を表す画像をさらに用いることを除けば、図6のステップS11と同様である。すなわち、本実施の形態では、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と免疫細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と異型細胞の分布を表す画像とを含むグレースケール画像群を、カラー画像の各チャネルのグレースケール画像として処理することになる。鑑別処理は、ここでは悪性黒色腫であるか否かであり、例えば、悪性黒色腫の尤度と、色素性母斑の尤度と、その他の尤度とが出力される。上でも述べたように、悪性黒色腫とその他との鑑別としても良い。
第2後処理部221は、第2CNN219aからの出力に基づき、鑑別結果を特定し、入力部201からの指示によって病状に関する予測を行うことになっているか判断する(ステップS45)。ユーザから鑑別処理のみを実行するように指示されている場合、鑑別結果が悪性黒色腫ではない場合には、処理はステップS49に移行する。
病状に関する予測を行う場合には、指示に応じた第2CNN219b乃至219dの少なくともいずれかは、第3画像格納部117に格納されている画像に対して、指示に応じた予測処理を実行する(ステップS47)。
具体的には、第2CNN219bは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、予後予測(余命)の予測値(実数(年)、余命レンジ毎の尤度、又は生存率曲線で表されるような時間経過における生存確率)を出力する。
第2CNN219cは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、病期分類予測(例えば各ステージの尤度)を出力する。
第2CNN219dは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、好中球の分布を表す画像、マクロファージの分布を表す画像、リンパ球の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、特定の薬剤の投薬効果(例えば有りの尤度と無しの尤度)を出力する。
第2後処理部221は、第2CNN219b乃至219dの少なくともいずれかが用いられた場合にはそれらからの出力に基づき、病状に関する予測結果を特定し、鑑別結果と共に結果格納部123に格納し、表示装置その他の出力装置に出力する(ステップS49)。出力装置は、ネットワークに接続された他の装置である場合もある。
以上のようにすれば、悪性黒色腫、色素性母斑、その他のいずれかであるという鑑別結果に加えて、病状に関する所定の予測をも併せて実行することができるようになる。
なお、第2CNN219aの処理に並行して、第2CNN219b乃至219dのうち少なくともいずれかの処理を実行するようにしても良い。
また、第2CNN219aの処理を行わずに、第2CNN219b乃至219dのうち少なくともいずれかの処理を実行するようにしても良い。例えば、悪性黒色腫であることが他の手段で分かっている場合には、病状に関する予測処理のみを行うようにしても良い。
このようにすれば、検査の簡略化や患者の負担軽減に加え、患者に対して病状に関する説明をしやすくなる。また、治療についての指針も立てやすくなる。
なお、分割細胞の分類において2つのCNNを用いる例を示したが、例えば1つのCNNで真皮細胞、表皮細胞、管腔を作る細胞、異型細胞、種類毎の免疫細胞のいずれかに分類して、後処理において、種類毎の免疫細胞の分布が不要となる場合には種類毎の免疫細胞の判別結果を統合するようにしても良い。
さらに、上では管腔を作る細胞を判別し、管腔を作る細胞の分布を表す画像を用いていたが、病状に関する予測については用いないようにしても良い場合もある。例えば、特定の薬剤の投薬効果の予測や病期分類予測については用いないようにしても良い。また、病状に関する予測についても3種類同時に行うことができるようにするのではなく、少なくとも1つのみを行うことができるように実装しても良い。
[実施の形態3]
上で述べた鑑別処理は、悪性黒色腫に着目したものであった。しかしながら、上で述べたような分布を表す画像を用いれば、他の腫瘍に係る皮膚疾患の鑑別をも行うことができる。
例えば、悪性黒色腫と、皮膚科において病理検査対象となる頻度の高い所定種類数(所定数は例えば10など比較的少数)の腫瘍に係る疾患とを鑑別できるように、畳み込みニューラルネットワークを学習させるようにしても良い。
具体的には、鑑別処理を行う畳み込みニューラルネットワークは、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と免疫細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と異型細胞の分布を表す画像とを入力とし、予め定められた複数の鑑別対象疾患及びその他のうちいずれであるかを出力するように学習される。
そして、第1の実施の形態における第2CNN119の代わりに、このような学習がなされた畳み込みニューラルネットワークを用いれば、該当する疾患又はその他という出力を得ることができるようになる。
そうすれば、より検査の簡略化や患者の負担軽減がなされるようになる。
[実施の形態4]
悪性黒色腫以外の腫瘍に係る様々な皮膚疾患の鑑別を行わせるように変形しても良い。
具体的には、図15A乃至図15Cに列挙するような腫瘍疾患に対処するように変形することができる。
図15A乃至図15Cにおいて疾患名の列には、鑑別対象となる疾患名が列挙されており、異型細胞の由来の列には、どの細胞についての異型細胞であるかを示しており、表皮細胞から免疫細胞までの列には、その疾患を鑑別するのにどの細胞の分布が必要か否か(○又は×)を示している。
例えば、図15A乃至図15Cにおいて列挙された全疾患を鑑別する場合には、分割画像の分類を行う畳み込みニューラルネットワークは、細胞の画像について、表皮細胞と真皮細胞と管腔を作る細胞と免疫細胞とに加えて、色素細胞についての異型細胞、有棘細胞についての異型細胞、アポクリン腺細胞についての異型細胞、メルケル細胞についての異型細胞、基底細胞についての異型細胞、毛包細胞についての異型細胞といったように、異型細胞の由来の列に列挙されている、異型細胞の由来となる細胞の分類ごとに異型細胞を区別して出力するように学習された畳み込みニューラルネットワークである。よって、分類を行う畳み込みニューラルネットワークは、細胞の種類又はその他(例えば、それらの尤度)を出力する。
よって、色素細胞についての異型細胞の分布を表す画像、有棘細胞についての異型細胞の分布を表す画像、アポクリン腺細胞についての異型細胞の分布を表す画像、メルケル細胞についての異型細胞の分布を表す画像、基底細胞についての異型細胞の分布を表す画像、毛包細胞についての異型細胞の分布を表す画像といったように、由来となる細胞毎に異型細胞の分布を表す画像を生成する。
そして、鑑別処理を行う畳み込みニューラルネットワークは、表皮細胞の分布を表す画像と真皮細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と免疫細胞の分布を表す画像とに加えて、由来となる細胞毎の異型細胞の分布を表す画像とを入力として、いずれかの疾患名又はその他を出力するように学習された畳み込みニューラルネットワークである。よって、鑑別処理を行う畳み込みニューラルネットワークは、それらの分布を表す画像に対して、いずれかの疾患名又はその他(例えば、それらの尤度)を出力する。
なお、図15A乃至図15Cにおいて列挙された疾患の一部について鑑別可能なように構成しても良い。例えば、色素細胞についての異型細胞と、アポクリン腺細胞についての異型細胞と、脂腺細胞についての異型細胞と、エクリン腺細胞についての異型細胞と、表皮細胞と、真皮細胞と、管腔を作る細胞と、免疫細胞とに、分割画像を分類して、悪性黒色腫と、色素性母斑と、真皮色素細胞母斑と、乳房パジェット病と、アポクリン腺癌と、乳房外パジェット病と、エクリン母斑と、エクリン汗嚢腫と、汗管腫と、エクリン汗孔腫と、皮膚混合腫瘍(エクリン型)と、エクリンらせん腫と、アポクリン母斑と、アポクリン汗嚢腫と、乳頭状汗腺腫と、乳頭状汗管嚢胞腺腫と、管状アポクリン腺腫と、乳頭腺腫と、皮膚混合腫瘍(アポクリン型)と、脂腺癌と、脂腺腺腫と、脂腺増殖症と、脂腺腫とを鑑別できるように構成しても良い。
すなわち、鑑別したい疾患について、異型細胞の由来となる細胞についての異型細胞をも分類できるようにし、それらの異型細胞の分布を表す画像をも用いて鑑別できるように畳み込みニューラルネットワークを学習させればよい。
なお、良性リンパ腫と悪性リンパ腫についてのみ鑑別する場合には、管腔を作る細胞については分類しなくても良い。
このようにすれば腫瘍にかかる疾患を自動的に鑑別できるようになる。
なお、ここでは鑑別を行ったが、第2の実施の形態のように病状に関する予測を行うようにさらに変形しても良い。
[実施の形態5]
上で述べた実施の形態では腫瘍に係る皮膚疾患について鑑別することについて述べたが、非腫瘍性疾患についても応用可能である。
例えば、図16に列挙するような疾患については、分割画像を、表皮細胞と、真皮細胞と、管腔を作る細胞と、免疫細胞とに分類して、それらの分布を表す画像を生成する。そして、それらの分布を表す画像を入力として、図16に列挙されたいずれかの疾患名又はその他を出力するように学習された畳み込みニューラルネットワークを用いて、疾患名を鑑別するようにする。
このようにすれば、非腫瘍性疾患についても自動的に鑑別できるようになる。
なお、本実施の形態でも、鑑別に加えて、第2の実施の形態のように病状に関する予測を行うようにさらに変形しても良い。
以上本発明の実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、目的に応じて、上で述べた実施の形態における任意の技術的特徴を削除したり、実施の形態を組み合わせた上で任意の技術的特徴を削除したりするようにしても良い。
上で述べた情報処理装置の機能ブロック構成は一例であって、プログラムモジュール構成とは一致しない場合もある。処理フローについても、処理結果が変わらない限り、処理順番を入れ替えたり、複数ステップを並列に実行するようにしても良い。また、CNNの出力が尤度である場合には、当該尤度を併せて出力するようにしても良い。
図5については、第1CNN109と第2CNN119とについては、CNNを前提として説明したが、CNNは、教師付き機械学習が行われた学習済みモデルの一例である。すなわち、第1CNN109は、このような学習済みモデル1000であってもよい。同様に、第2CNN119も、このような学習済みモデル2000であってもよい。なお、教師付き機械学習としては、サポートベクターマシン(Support Vector Machine)や、パーセプトロンその他のニューラルネットワークなどを採用可能である。なお、この場合、第1学習処理部131及び第2学習処理部133は、採用した機械学習のための学習処理部となる。
図13における第1CNN209a及び209bについても、図5と同様に、教師付き機械学習が行われた学習済みモデルの一例である。すなわち、第1CNN209a及び209bは、このような学習済みモデル又は学習済みモデルの集合3000であってもよい。また、第2CNN219a乃至219dも、このような学習済みモデル又は学習済みモデルの集合4000であってもよい。この場合にも、教師付き機械学習としては、サポートベクターマシン、パーセプトロンその他のニューラルネットワーク等を採用可能である。なお、この場合、第1学習処理部231及び第2学習処理部233は、採用した機械学習のための学習処理部となる。
なお、上で述べた情報処理装置は、コンピュータ装置であって、メモリとCPU(Central Processing Unit)とハードディスク・ドライブ(HDD:Hard Disk Drive)と表示装置に接続される表示制御部とリムーバブル・ディスク用のドライブ装置と入力装置とネットワークに接続するための通信制御部とがバスで接続されている。オペレーティング・システム(OS:Operating System)及び本実施例における処理を実施するためのアプリケーション・プログラムは、HDDに格納されており、CPUにより実行される際にはHDDからメモリに読み出される。CPUは、アプリケーション・プログラムの処理内容に応じて表示制御部、通信制御部、ドライブ装置を制御して、所定の動作を行わせる。また、処理途中のデータについては、主としてメモリに格納されるが、HDDに格納されるようにしてもよい。本発明の実施例では、上で述べた処理を実施するためのアプリケーション・プログラムはコンピュータ読み取り可能なリムーバブル・ディスクに格納されて頒布され、ドライブ装置からHDDにインストールされる。インターネットなどのネットワーク及び通信制御部を経由して、HDDにインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU、メモリなどのハードウエアとOS及びアプリケーション・プログラムなどのプログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。
なお、畳み込みニューラルネットワークについても、プログラムにより実装するようにしても良いし、専用の演算装置(例えばGraphics Processing Unit)をコンピュータに組み込むことで高速処理ができるようにしても良い。
以上述べた本実施の形態をまとめると以下のようになる。
第1の態様に係る疾患鑑別処理方法は、(A)皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における異型細胞の分布を表す画像とを入力とし且つ腫瘍に係る特定の皮膚疾患の鑑別を出力とする学習済みの畳み込みニューラルネットワークにより、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における異型細胞の分布を表す第3の画像とを格納する記憶装置から読み出された第1の画像と第2の画像と第3の画像とに対して所定の演算を実行する実行ステップと、(B)学習済みの畳み込みニューラルネットワークからの出力に基づき、上記特定の皮膚疾患の鑑別結果を出力するステップとを含む。
このように真皮細胞の分布と表皮細胞の分布とに対する異型細胞の分布の関係と特定の皮膚疾患の有無との対応関係を予め学習しておき、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像とを別々の画像で入力して評価すれば、腫瘍に係る特定の皮膚疾患(例えば悪性黒色腫)の鑑別を行うことができるようになる。
なお、学習済みの畳み込みニューラルネットワークは、皮膚組織のグレースケール画像と皮膚組織における免疫細胞の分布を表す画像と皮膚組織における管腔を作る細胞の分布を表す画像とのうち少なくともいずれかをさらに入力に用いて学習されており、上で述べた記憶装置が、処理対象の皮膚組織のグレースケール画像である第4の画像と処理対象の皮膚組織における免疫細胞の分布を表す第5の画像と処理対象の皮膚組織における管腔を作る細胞の分布を表す第6の画像との少なくともいずれかを格納する場合がある。そして、上で述べた実行ステップにおいて、第4の画像と第5の画像と第6の画像との少なくともいずれかを記憶装置からさらに読み出して、学習済みの畳み込みニューラルネットワークにより所定の演算を実行するようにしても良い。このようにすれば鑑別の精度が向上する。
また、第1の態様に係る疾患鑑別処理方法は、(C)処理対象の皮膚組織の画像から、第1乃至第3の画像と、第4乃至第6の画像の少なくともいずれかとを生成して記憶装置に格納するステップをさらに含むようにしても良い。このような処理については、別の畳み込みニューラルネットワークを用いても良いし、他の細胞種別判別技術を用いても良い。
第2の態様に係る病状予測処理方法は、(A)皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における異型細胞の分布を表す画像と、皮膚組織における免疫細胞の分布を表す画像とを入力とし且つ腫瘍に係る特定の皮膚疾患の病状に関する予測を出力とする学習済みの畳み込みニューラルネットワークにより、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における異型細胞の分布を表す第3の画像と、処理対象の皮膚組織における免疫細胞の分布を表す第4の画像とを格納する記憶装置から読み出した第1の画像と第2の画像と第3の画像と第4の画像とに対して所定の演算を実行する実行ステップと、(B)学習済みの畳み込みニューラルネットワークからの出力に基づき、上記特定の皮膚疾患の病状に関する予測結果を出力するステップとを含む。
このように真皮細胞の分布と表皮細胞の分布とに対する異型細胞の分布及び免疫細胞の分布の関係と腫瘍に係る特定の皮膚疾患の病状に関する判定結果との対応関係を予め学習しておき、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像と免疫細胞の分布を表す画像とを別々の画像で入力して評価すれば、腫瘍に係る特定の皮膚疾患(例えば悪性黒色腫)の病状に関する予測を行うことができるようになる。
なお、皮膚組織における免疫細胞の分布を表す画像及び第4の画像が、免疫細胞の種類毎に複数用いられるようにする場合もある。また、特定の皮膚疾患の病状に関する予測は、余命の予測と、病期分類の予測と、特定薬剤の投与効果の予測とのいずれかである場合もある。
また、上で述べた学習済みの畳み込みニューラルネットワークは、皮膚組織における管腔を作る細胞の分布を表す画像をさらに入力に用いて学習されており、上で述べた記憶装置が、処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像を格納している場合がある。その場合、上で述べた実行ステップにおいて、第5の画像を記憶装置からさらに読み出して、学習済みの畳み込みニューラルネットワークにより所定の演算を実行するようにしても良い。これにより予測の精度が向上する。
第3の態様に係る疾患鑑別処理方法は、(A)皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における異型細胞の分布を表す画像と、皮膚組織における免疫細胞の分布を表す画像と、皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ腫瘍に係る複数種類の皮膚疾患の鑑別を出力とする学習済みの畳み込みニューラルネットワークにより、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における異型細胞の分布を表す第3の画像と、処理対象の皮膚組織における免疫細胞の分布を表す第4の画像と、処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とを格納する記憶装置から読み出した第1乃至第5の画像に対して所定の演算を実行するステップと、(B)学習済みの畳み込みニューラルネットワークからの出力に基づき、複数種類の皮膚疾患の鑑別結果を出力するステップとを含む。
腫瘍に係る複数種類の皮膚疾患を鑑別できるようになる。
なお、皮膚組織における異型細胞の分布を表す画像及び第3の画像が、異型細胞の由来となる細胞毎に用意される場合もある。これによって精度を向上させることができるようになる。
第4の態様に係る疾患鑑別処理方法は、(A)皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における免疫細胞の分布を表す画像と、皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ非腫瘍性の複数種類の皮膚疾患の鑑別を出力とする学習済みの畳み込みニューラルネットワークにより、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における免疫細胞の分布を表す第3の画像と、処理対象の皮膚組織における管腔を作る細胞の分布を表す第4の画像とを格納する記憶装置から読み出した第1乃至第4の画像に対して所定の演算を実行するステップと、(B)学習済みの畳み込みニューラルネットワークからの出力に基づき、非腫瘍性の複数種類の皮膚疾患の鑑別結果を出力するステップとを含む。
第5の態様に係る診断支援システムは、(A)病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における異型細胞の分布を表す画像とを入力とする機械学習の学習済みモデルと、(B)処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における異型細胞の分布を表す第3の画像とに対する、機械学習の学習済みモデルからの出力に基づき、皮膚疾患に関する出力データを生成する出力データ生成部とを有する。
このように病理画像に含まれる皮膚組織における特定の細胞の分布を各々表す複数の画像を入力に用いる機械学習の学習済みモデルを用意すると、皮膚疾患に関する様々な出力データを生成できるようになり、精度の高い診断の支援が行えるようになる。
なお、上で述べた機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の鑑別であり、上で述べた皮膚疾患に関する出力データが、特定の皮膚疾患の鑑別結果を含む場合もある。腫瘍に係る特定の皮膚疾患の鑑別に有用である。
また、上で述べた機械学習の学習済みモデルの入力は、皮膚組織のグレースケール画像と皮膚組織における免疫細胞の分布を表す画像と皮膚組織における管腔を作る細胞の分布を表す画像とのうち少なくともいずれかをさらに含む場合がある。この場合、上で述べた出力データ生成部は、処理対象の皮膚組織のグレースケール画像である第4の画像と処理対象の皮膚組織における免疫細胞の分布を表す第5の画像と処理対象の皮膚組織における管腔を作る細胞の分布を表す第6の画像との少なくともいずれかと第1乃至第3の画像とに対する、機械学習の学習済みモデルからの出力に基づき、特定の皮膚疾患の鑑別結果を含む出力データを生成するようにしてもよい。このようにすれば鑑別の精度が向上する。
さらに、第5の態様に係る診断支援システムは、(C)処理対象の皮膚組織の画像から、第1乃至第3の画像を生成する画像生成部をさらに有するようにしてもよい。なお、画像生成部は、第4乃至第6の画像の少なくともいずれかを生成するようにしてもよい。
また、上で述べた機械学習の学習済みモデルの入力は、皮膚組織における免疫細胞の分布を表す画像をさらに含む場合もある。また、上で述べた機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の病状に関する予測である場合もある。このような場合、上で述べた出力データ生成部は、第1乃至第3の画像と処理対象の皮膚組織における免疫細胞の分布を表す第4の画像とに対する、機械学習の学習済みモデルの出力に基づき、特定の皮膚疾患の病状に関する予測結果を含む出力データを生成するようにしてもよい。例えば、第2の態様に係る病状予測処理方法と同様の効果が得られる。
なお、皮膚組織における免疫細胞の分布を表す画像及び第4の画像が、免疫細胞の種類毎に複数用いられる場合もある。また、特定の皮膚疾患の病状に関する予測は、余命の予測と、病期分類の予測と、特定薬剤の投与効果の予測とのいずれかである場合もある。
さらに、上で述べた機械学習の学習済みモデルの入力は、皮膚組織における管腔を作る細胞の分布を表す画像をさらに含むようにしてもよい。この場合、上で述べた出力データ生成部は、第1乃至第4の画像と処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とに対する、機械学習の学習済みモデルの出力に基づき、特定の皮膚疾患の病状に関する予測結果を含む出力データを生成するようにしてもよい。これにより予測の精度が向上する。
また、上で述べた機械学習の学習済みモデルの入力は、皮膚組織における免疫細胞の分布を表す画像と、皮膚組織における管腔を作る細胞の分布を表す画像とをさらに含む場合もある。また、機械学習の学習済みモデルの出力は、腫瘍に係る複数種類の皮膚疾患の鑑別である場合もある。このような場合には、上で述べた出力データ生成部は、第1乃至第3の画像と処理対象の皮膚組織における免疫細胞の分布を表す第4の画像と処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とに対する、機械学習の学習済みモデルの出力に基づき、複数種類の皮膚疾患の鑑別結果を含む出力データを生成するようにしてもよい。
なお、異型細胞の分布を表す画像及び第3の画像が、異型細胞の由来となる細胞毎に用意される場合もある。これによって精度を向上させることができるようになる。
第6の態様に係る診断支援システムは、(A)病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における免疫細胞の分布を表す画像と、皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ非腫瘍性の複数種類の皮膚疾患の鑑別を出力とする機械学習の学習済みモデルと、(B)処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における免疫細胞の分布を表す第3の画像と、処理対象の皮膚組織における管腔を作る細胞の分布を表す第4の画像とに対する、機械学習の学習済みモデルの出力に基づき、非腫瘍性の複数種類の皮膚疾患の鑑別結果を含む出力データを生成する出力データ生成部とを有する。
第5及び第6の態様に係る診断支援システムにおける機械学習の学習済みモデルは、ニューラルネットワーク(特に学習済みの畳み込みニューラルネットワーク)や、サポートベクターマシンであってもよい。
なお、本願では、システムと記した場合には、1又は複数の情報処理装置を含むものとする。すなわち、ネットワークで接続された複数の情報処理装置が連携して1つのシステムとして動作する場合や、1台の情報処理装置で動作する場合とを含むものとする。
また、上記処理を実行するためのプログラムを作成することができ、当該プログラムは、例えばフレキシブルディスク、光ディスク(CD−ROM、DVD−ROMなど)、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納される。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。

Claims (17)

  1. 病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、前記皮膚組織における表皮細胞の分布を表す画像と、前記皮膚組織における異型細胞の分布を表す画像とを入力とする機械学習の学習済みモデルと、
    処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、前記処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、前記処理対象の皮膚組織における異型細胞の分布を表す第3の画像とに対する、前記機械学習の学習済みモデルからの出力に基づき、皮膚疾患に関する出力データを生成する出力データ生成部と、
    を有する診断支援システム。
  2. 前記機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の鑑別であり、
    前記皮膚疾患に関する出力データが、前記特定の皮膚疾患の鑑別結果を含む、
    請求項1記載の診断支援システム。
  3. 前記機械学習の学習済みモデルの入力は、前記皮膚組織のグレースケール画像と前記皮膚組織における免疫細胞の分布を表す画像と前記皮膚組織における管腔を作る細胞の分布を表す画像とのうち少なくともいずれかをさらに含み、
    前記出力データ生成部は、
    前記処理対象の皮膚組織のグレースケール画像である第4の画像と前記処理対象の皮膚組織における免疫細胞の分布を表す第5の画像と前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第6の画像との少なくともいずれかと前記第1乃至第3の画像とに対する、前記機械学習の学習済みモデルからの出力に基づき、前記特定の皮膚疾患の鑑別結果を含む出力データを生成する
    請求項2記載の診断支援システム。
  4. 前記処理対象の皮膚組織の画像から、前記第1乃至第3の画像を生成する画像生成部
    をさらに有する請求項1又は2記載の診断支援システム。
  5. 前記機械学習の学習済みモデルの入力は、前記皮膚組織における免疫細胞の分布を表す画像をさらに含み、
    前記機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の病状に関する予測であり、
    前記出力データ生成部は、
    前記第1乃至第3の画像と前記処理対象の皮膚組織における免疫細胞の分布を表す第4の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記特定の皮膚疾患の病状に関する予測結果を含む出力データを生成する
    請求項1記載の診断支援システム。
  6. 前記皮膚組織における免疫細胞の分布を表す画像及び前記第4の画像が、前記免疫細胞の種類毎に複数用いられる
    請求項5記載の診断支援システム。
  7. 前記機械学習の学習済みモデルの入力は、前記皮膚組織における管腔を作る細胞の分布を表す画像をさらに含み、
    前記出力データ生成部は、
    前記第1乃至第4の画像と前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記特定の皮膚疾患の病状に関する予測結果を含む出力データを生成する
    請求項5又は6記載の診断支援システム。
  8. 前記特定の皮膚疾患の病状に関する予測は、
    余命の予測と、病期分類の予測と、特定薬剤の投与効果の予測とのいずれかである
    請求項5乃至7のいずれか1つ記載の診断支援システム。
  9. 前記機械学習の学習済みモデルの入力は、前記皮膚組織における免疫細胞の分布を表す画像と、前記皮膚組織における管腔を作る細胞の分布を表す画像とをさらに含み、
    前記機械学習の学習済みモデルの出力は、腫瘍に係る複数種類の皮膚疾患の鑑別であり、
    前記出力データ生成部は、
    前記第1乃至第3の画像と前記処理対象の皮膚組織における免疫細胞の分布を表す第4の画像と前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記複数種類の皮膚疾患の鑑別結果を含む出力データを生成する
    請求項1記載の診断支援システム。
  10. 前記皮膚組織における異型細胞の分布を表す画像及び前記第3の画像が、異型細胞の由来となる細胞毎に用意される
    請求項9記載の診断支援システム。
  11. 病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、前記皮膚組織における表皮細胞の分布を表す画像と、前記皮膚組織における免疫細胞の分布を表す画像と、前記皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ非腫瘍性の複数種類の皮膚疾患の鑑別を出力とする機械学習の学習済みモデルと、
    処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、前記処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、前記処理対象の皮膚組織における免疫細胞の分布を表す第3の画像と、前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第4の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記非腫瘍性の複数種類の皮膚疾患の鑑別結果を含む出力データを生成する出力データ生成部と、
    を有する診断支援システム。
  12. 病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、前記皮膚組織における表皮細胞の分布を表す画像と、前記皮膚組織における異型細胞の分布を表す画像とを入力とする機械学習の学習済みモデルから、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、前記処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、前記処理対象の皮膚組織における異型細胞の分布を表す第3の画像とに対する出力を取得するステップと、
    前記機械学習の学習済みモデルからの出力に基づき、皮膚疾患に関する出力データを生成するステップと、
    を含み、コンピュータにより実行される診断支援方法。
  13. 前記機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の鑑別であり、
    前記皮膚疾患に関する出力データが、前記特定の皮膚疾患の鑑別結果を含む、
    請求項12記載の診断支援方法。
  14. 前記機械学習の学習済みモデルの入力は、前記皮膚組織における免疫細胞の分布を表す画像をさらに含み、
    前記機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の病状に関する予測であり、
    前記出力データを生成するステップにおいて、
    前記第1乃至第3の画像と前記処理対象の皮膚組織における免疫細胞の分布を表す第4の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記特定の皮膚疾患の病状に関する予測結果を含む出力データを生成する
    請求項12記載の診断支援方法。
  15. 前記機械学習の学習済みモデルの入力は、前記皮膚組織における免疫細胞の分布を表す画像と、前記皮膚組織における管腔を作る細胞の分布を表す画像とをさらに含み、
    前記機械学習の学習済みモデルの出力は、腫瘍に係る複数種類の皮膚疾患の鑑別であり、
    前記出力データを生成するステップにおいて、
    前記第1乃至第3の画像と前記処理対象の皮膚組織における免疫細胞の分布を表す第4の画像と前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記複数種類の皮膚疾患の鑑別結果を含む出力データを生成する
    請求項12記載の診断支援方法。
  16. 病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、前記皮膚組織における表皮細胞の分布を表す画像と、前記皮膚組織における免疫細胞の分布を表す画像と、前記皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ非腫瘍性の複数種類の皮膚疾患の鑑別を出力とする機械学習の学習済みモデルから、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、前記処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、前記処理対象の皮膚組織における免疫細胞の分布を表す第3の画像と、前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第4の画像とに対する出力を取得するステップと、
    前記機械学習の学習済みモデルの出力に基づき、前記非腫瘍性の複数種類の皮膚疾患の鑑別結果を含む出力データを生成するステップと、
    を含み、コンピュータにより実行される診断支援方法。
  17. 請求項12乃至16の診断支援方法を1又は複数のプロセッサに実行させるための実行するプログラム。
JP2019521286A 2017-05-30 2018-05-30 皮膚組織の病理画像を用いた診断支援のためのシステム及び方法 Active JP6757054B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017106205 2017-05-30
JP2017106205 2017-05-30
PCT/JP2018/020858 WO2018221625A1 (ja) 2017-05-30 2018-05-30 皮膚組織の病理画像を用いた診断支援のためのシステム及び方法

Publications (2)

Publication Number Publication Date
JPWO2018221625A1 JPWO2018221625A1 (ja) 2020-04-02
JP6757054B2 true JP6757054B2 (ja) 2020-09-16

Family

ID=64454665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019521286A Active JP6757054B2 (ja) 2017-05-30 2018-05-30 皮膚組織の病理画像を用いた診断支援のためのシステム及び方法

Country Status (2)

Country Link
JP (1) JP6757054B2 (ja)
WO (1) WO2018221625A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020183267A1 (ja) * 2019-03-08 2020-09-17
JP7387340B2 (ja) * 2019-08-30 2023-11-28 株式会社 資生堂 生体構造識別装置、生体構造識別方法及び生体構造識別用コンピュータプログラム
CN113192077B (zh) * 2021-04-15 2022-08-02 华中科技大学 一种细胞及区域层次的病理图自动分类方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009094623A2 (en) * 2008-01-24 2009-07-30 Balter, Inc. Method for discriminating between malignant and benign tissue lesions
JP6471559B2 (ja) * 2015-03-20 2019-02-20 カシオ計算機株式会社 診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラム

Also Published As

Publication number Publication date
WO2018221625A1 (ja) 2018-12-06
JPWO2018221625A1 (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
Gecer et al. Detection and classification of cancer in whole slide breast histopathology images using deep convolutional networks
Li et al. Skin disease diagnosis with deep learning: A review
Graham et al. MILD-Net: Minimal information loss dilated network for gland instance segmentation in colon histology images
Raza et al. Micro-Net: A unified model for segmentation of various objects in microscopy images
Priego-Torres et al. Automatic segmentation of whole-slide H&E stained breast histopathology images using a deep convolutional neural network architecture
JP2021512446A (ja) 画像処理方法、電子機器および記憶媒体
JP6757054B2 (ja) 皮膚組織の病理画像を用いた診断支援のためのシステム及び方法
CN109389129A (zh) 一种图像处理方法、电子设备及存储介质
Sabouri et al. A cascade classifier for diagnosis of melanoma in clinical images
Chen et al. Automatic whole slide pathology image diagnosis framework via unit stochastic selection and attention fusion
Langer et al. Computer-aided diagnostics in digital pathology: automated evaluation of early-phase pancreatic cancer in mice
Tripathi et al. Cell nuclei classification in histopathological images using hybrid olconvnet
Wang et al. A dual-mode deep transfer learning (D2TL) system for breast cancer detection using contrast enhanced digital mammograms
Noor et al. GastroNet: A robust attention‐based deep learning and cosine similarity feature selection framework for gastrointestinal disease classification from endoscopic images
Murugesan et al. Colon cancer stage detection in colonoscopy images using YOLOv3 MSF deep learning architecture
Ahmed et al. COMA-Net: Towards generalized medical image segmentation using complementary attention guided bipolar refinement modules
Azar et al. Automated system for colon cancer detection and segmentation based on deep learning techniques
Sheeba et al. Microscopic image analysis in breast cancer detection using ensemble deep learning architectures integrated with web of things
Zheng et al. Learning how to detect: A deep reinforcement learning method for whole-slide melanoma histopathology images
Saghir et al. Skin cancer detection and classification based on differential analyzer algorithm
Naeem et al. DVFNet: A deep feature fusion-based model for the multiclassification of skin cancer utilizing dermoscopy images
Carvalho et al. Multimodal multi-tasking for skin lesion classification using deep neural networks
Nedjar et al. Exploring regions of interest: Visualizing histological image classification for breast cancer using deep learning
Yu et al. Data and knowledge co-driving for cancer subtype classification on multi-scale histopathological slides
Madapatha et al. Smart Health App for Identifying Brain Tumors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200721

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200721

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6757054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250