JP2019148473A - Method for image analysis, image analyzer, program, method for manufacturing learned deep learning algorithm, and learned deep learning algorithm - Google Patents

Method for image analysis, image analyzer, program, method for manufacturing learned deep learning algorithm, and learned deep learning algorithm Download PDF

Info

Publication number
JP2019148473A
JP2019148473A JP2018032761A JP2018032761A JP2019148473A JP 2019148473 A JP2019148473 A JP 2019148473A JP 2018032761 A JP2018032761 A JP 2018032761A JP 2018032761 A JP2018032761 A JP 2018032761A JP 2019148473 A JP2019148473 A JP 2019148473A
Authority
JP
Japan
Prior art keywords
image
region
data
analysis
tissue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018032761A
Other languages
Japanese (ja)
Other versions
JP7217589B2 (en
Inventor
陽介 関口
Yosuke Sekiguchi
陽介 関口
和巳 袴田
Kazumi Hakamada
和巳 袴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sysmex Corp
Original Assignee
Sysmex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=67850414&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2019148473(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sysmex Corp filed Critical Sysmex Corp
Priority to JP2018032761A priority Critical patent/JP7217589B2/en
Publication of JP2019148473A publication Critical patent/JP2019148473A/en
Priority to JP2023008540A priority patent/JP7458519B2/en
Application granted granted Critical
Publication of JP7217589B2 publication Critical patent/JP7217589B2/en
Priority to JP2024004675A priority patent/JP2024038396A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

To generate data showing whether the region in analysis data is a tumor region.SOLUTION: The above objective is attained by a method for image analysis which analyzes an image of a tissue using a deep learning algorithm 60 of a neutral network structure. The method for image analysis includes: generating analysis data 80 from an analysis target image 78 including the tissue to be analyzed; inputting the analysis data 80 into the deep learning algorithm 60; and generating data showing whether the region in the analysis data is a tumor region by the deep learning algorithm 60.SELECTED DRAWING: Figure 6

Description

本明細書には、画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズムが開示される。より詳細には、解析対象の組織の画像について、解析用データに含まれる領域が腫瘍領域であるか否かを示すデータを生成することを含む画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム等が開示される。   The present specification discloses an image analysis method, an image analysis device, a program, a manufacturing method of a learned deep learning algorithm, and a learned deep learning algorithm. More specifically, for an image of a tissue to be analyzed, an image analysis method, an image analysis device, a program, and a learned deep layer including generating data indicating whether or not the region included in the analysis data is a tumor region A learning algorithm manufacturing method, a learned deep learning algorithm, and the like are disclosed.

特許文献1には、病理組織画像において組織像を、正常、良性腫瘍、前癌状態および癌状態の4つのグループに分類し、判定する画像診断支援装置が開示されている。画像分類手段は、画像データから注視領域を抽出し、注視領域の特徴を示す特徴量を算出し、算出した特徴量に基づいてグループの分類を行う。特徴量は、細胞核における単位面積あたりの塊の密度、塊面積の密度、塊の面積、塊の太さ、および塊の長さなどである。画像判定手段は、このような特徴量と判定結果との関係を学習し、学習済みの学習パラメータに基づいて判定を行う。学習は、サポートベクターマシンなどの学習アルゴリズムを用いて、機械学習を実行する。   Patent Document 1 discloses an image diagnosis support apparatus that classifies and determines a tissue image in a pathological tissue image into four groups: normal, benign tumor, precancerous state, and cancerous state. The image classification means extracts a gaze area from the image data, calculates a feature amount indicating the feature of the gaze area, and classifies the group based on the calculated feature amount. The feature amount includes a density of a lump per unit area in the cell nucleus, a density of a lump area, a lump area, a lump thickness, a lump length, and the like. The image determination unit learns the relationship between the feature amount and the determination result, and performs determination based on the learned parameter that has been learned. In the learning, machine learning is performed using a learning algorithm such as a support vector machine.

特開2010−203949号公報JP 2010-203949 A

悪性腫瘍であるか否かを確定診断する際に、病理組織標本を用いた病理組織診断が行われる。また病理組織診断は、手術中に悪性腫瘍を含む組織の切除部位を決定するための術中迅速診断として行われることも少なくない。術中迅速診断は、手術中に患者の患部を切開した状態で待機させ、腫瘍が悪性であるか、切除した組織の断端に腫瘍が残っていないか、リンパ節転移があるか等の判断を病理組織診断により行うものである。術中迅速診断の結果により、待機している患者のその後の手術の方向性が決められる。   When making a definitive diagnosis as to whether or not the tumor is a malignant tumor, a histopathological diagnosis using a histopathological specimen is performed. Further, histopathological diagnosis is often performed as an intraoperative rapid diagnosis for determining the excision site of a tissue containing a malignant tumor during an operation. Intraoperative rapid diagnosis involves waiting while the affected area of the patient is incised during the operation to determine whether the tumor is malignant, whether there is no tumor at the stump of the excised tissue, or whether there is lymph node metastasis. This is performed by histopathological diagnosis. The result of the intraoperative rapid diagnosis determines the direction of the subsequent operation of the waiting patient.

病理組織診断は、医師、特に病理医が顕微鏡等により組織標本を観察して診断するが、組織標本の観察により正確な確定診断を行えるようになるためには、長い期間、熟練した病理専門医の元で、様々な症例の組織標本の観察を繰り返す必要があり、病理医の育成にも膨大な時間を要している。   The pathological diagnosis is performed by a doctor, particularly a pathologist, by observing a tissue specimen with a microscope or the like. Originally, it is necessary to repeat observation of tissue specimens of various cases, and it takes a lot of time to train pathologists.

病理医の不足は深刻であり、病理医が不足している結果、患者の悪性腫瘍の確定診断が遅れ、治療開始が遅れる、あるいは確定診断を待たずに治療を開始するという状態も危惧されている。また、通常の組織診断と術中迅速診断との両方が、少ない病理医に集中するために、一人の病理医の業務量が膨大となり、病理医自身の労務状態も問題となっている。しかし、現在のところこの問題の解消策は見つかっていない。   The shortage of pathologists is serious, and as a result of the shortage of pathologists, there is a concern that the diagnosis of the patient's malignant tumor is delayed, the start of treatment is delayed, or the treatment starts without waiting for a definitive diagnosis Yes. In addition, since both normal tissue diagnosis and intraoperative rapid diagnosis are concentrated on a small number of pathologists, the amount of work for one pathologist is enormous, and the labor status of the pathologist itself is also a problem. However, no solution to this problem has been found at present.

したがって、病理組織診断を装置がサポートできるようになることは、特にその診断が人の目による判断に近いほど、病理医不足の解消、および病理医の労務状態の改善に大きく貢献すると考えられる。   Therefore, it is considered that the fact that the apparatus can support histopathological diagnosis greatly contributes to the elimination of the shortage of pathologists and the improvement of the working conditions of the pathologists, especially when the diagnosis is closer to the judgment by human eyes.

装置が病理組織診断をサポートするという点において、上述の特許文献1に記載の発明では、機械学習による画像解析に基づいて標本組織の病理判定を行っている。この方法では、特徴量を人の手で作成する必要がある。特徴量を人の手で作成する方法には、その人の力量が画像解析の性能に大きく影響を与えるという問題がある。さらに、特許文献1に記載の発明は、顕微鏡で強拡大された組織標本の画像内の細胞核1つ1つに対して癌細胞の核であるか否かの判定を行う。したがって、標本1枚の全体について解析しようとすると長い解析時間を要するという問題がある。   In that the apparatus supports pathological diagnosis, the invention described in Patent Document 1 described above performs pathological determination of a sample tissue based on image analysis by machine learning. In this method, it is necessary to create a feature value by hand. There is a problem in the method of creating the feature quantity by hand that the ability of the person greatly affects the performance of image analysis. Furthermore, in the invention described in Patent Document 1, it is determined whether or not each cell nucleus in the tissue specimen image strongly magnified with a microscope is a cancer cell nucleus. Therefore, there is a problem that it takes a long time to analyze the entire sample.

したがって、個々の細胞について癌細胞の核であるか否かを病理医や機械学習アルゴリズムによって判定する前に、1枚の標本に含まれる組織全体を観察し、その標本のどの部位に腫瘍組織が含まれるかをスクリーニングすることは、1枚の標本に対する病理診断にかかる時間を短縮する一助となる。   Therefore, before determining whether or not each cell is the nucleus of a cancer cell by a pathologist or a machine learning algorithm, the entire tissue contained in one specimen is observed, and the tumor tissue is located in which part of the specimen. Screening for inclusion helps to reduce the time required for pathological diagnosis of one specimen.

本発明は、解析対象の組織が解析用データに含まれる領域が腫瘍領域であるか否かを示すデータを生成する画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズムを提供することを課題とする。   The present invention relates to an image analysis method, an image analysis apparatus, a program, a learned deep learning algorithm manufacturing method, and learning for generating data indicating whether or not a region included in analysis data is a tumor region. It is an object to provide a deep learning algorithm.

ある実施形態は、ニューラルネットワーク構造の深層学習アルゴリズム(60)を用いて、組織の画像を解析する画像解析方法に関する。前記画像解析方法では、解析対象の組織を含む解析対象画像(78)から解析用データ(80)を生成し、解析用データ(80)を、深層学習アルゴリズム(60)に入力し、深層学習アルゴリズム(60)によって、解析用データに含まれる領域が腫瘍領域であるか否かを示すデータを生成する。本発明によれば、解析対象の組織における解析用データに含まれる領域が腫瘍領域であるか否かを示すデータを生成することができる。   An embodiment relates to an image analysis method for analyzing an image of a tissue using a deep learning algorithm (60) having a neural network structure. In the image analysis method, the analysis data (80) is generated from the analysis target image (78) including the tissue to be analyzed, the analysis data (80) is input to the deep learning algorithm (60), and the deep learning algorithm is input. By (60), data indicating whether or not the region included in the analysis data is a tumor region is generated. According to the present invention, it is possible to generate data indicating whether or not the region included in the analysis data in the analysis target tissue is a tumor region.

前記実施形態において、好ましくは、解析用データに含まれる領域が腫瘍領域であるか否かを示すデータは、腫瘍領域の領域を示すデータである。この実施形態により、ユーザが一目で解析対象の組織における腫瘍領域を把握することができる。   In the embodiment, preferably, the data indicating whether or not the region included in the analysis data is a tumor region is data indicating the region of the tumor region. According to this embodiment, the user can grasp the tumor region in the tissue to be analyzed at a glance.

前記実施形態において、好ましくは、前記解析対象画像は、組織診断用標本の画像であり、2以上の原色を組み合わせた色相を含む。この実施形態により、病理診断を一助することができる。   In the embodiment, preferably, the analysis target image is an image of a specimen for tissue diagnosis, and includes a hue obtained by combining two or more primary colors. According to this embodiment, pathological diagnosis can be assisted.

前記実施形態において、好ましくは、前記解析対象画像は、前記解析対象の組織を3倍から20倍に拡大して撮像された画像である。前記実施形態において、解析対象画像に含まれる領域の大きさが、200μm×200μm以上400μm×400μm以下である。これらの実施形態により、より精度の高い判別を行うことができる。   In the embodiment, the analysis target image is preferably an image obtained by enlarging the analysis target tissue from 3 to 20 times. In the embodiment, the size of the region included in the analysis target image is 200 μm × 200 μm or more and 400 μm × 400 μm or less. According to these embodiments, more accurate determination can be performed.

前記実施形態において、好ましくは、解析用データに含まれる領域が腫瘍領域であるか否かを示すデータに基づいて、腫瘍細胞の領域とそれ以外の領域とを区別して提示するためのデータを生成する。この実施形態により、ユーザが一目で解析対象の組織における腫瘍領域を把握することができる。   In the embodiment, preferably, data for separately presenting the tumor cell region and other regions is generated based on data indicating whether or not the region included in the analysis data is a tumor region. To do. According to this embodiment, the user can grasp the tumor region in the tissue to be analyzed at a glance.

前記実施形態において、好ましくは、解析用データに含まれる領域が腫瘍領域であるか否かを示すデータに基づいて、腫瘍細胞の領域とそれ以外の領域との境界を示すデータを生成する。この実施形態により、ユーザが一目で解析対象の組織における腫瘍領域と非腫瘍領域の境界を把握することができる。   In the embodiment, preferably, data indicating a boundary between a tumor cell region and other regions is generated based on data indicating whether or not the region included in the analysis data is a tumor region. According to this embodiment, the user can grasp the boundary between the tumor region and the non-tumor region in the tissue to be analyzed at a glance.

前記実施形態において、好ましくは、解析用データに含まれる領域が腫瘍領域であるか否かを示すデータに基づいて、前記解析対象の組織における腫瘍領域の含有率を示すデータを生成する。この実施形態により、ユーザが解析対象の組織における腫瘍領域の含有率を把握することができる。   In the embodiment, preferably, data indicating the content rate of the tumor region in the analysis target tissue is generated based on data indicating whether or not the region included in the analysis data is a tumor region. According to this embodiment, the user can grasp the content rate of the tumor region in the tissue to be analyzed.

前記実施形態において、好ましくは、解析用データに含まれる領域が腫瘍領域であるか否かを示すデータに基づいて、前記解析対象の組織における腫瘍領域と非腫瘍領域の比率を示すデータを生成する。この実施形態により、ユーザが解析対象の組織における腫瘍領域の含有率を把握することができる。また、遺伝子検査等に使用されるサンプルが適切に採取されているか知ることができる。   In the embodiment, preferably, data indicating a ratio of a tumor region to a non-tumor region in the analysis target tissue is generated based on data indicating whether or not the region included in the analysis data is a tumor region. . According to this embodiment, the user can grasp the content rate of the tumor region in the tissue to be analyzed. In addition, it is possible to know whether a sample used for genetic testing or the like is appropriately collected.

前記実施態様により、好ましくは、1つの解析対象画像について、腫瘍領域と、非腫瘍領域と、組織を含まない領域とを区別して提示するためのデータを生成する。この実施形態により、ユーザが一目で解析対象の組織における腫瘍領域の有無を把握することができる。   According to the above embodiment, preferably, data for separately presenting a tumor region, a non-tumor region, and a region not including a tissue is generated for one analysis target image. According to this embodiment, the user can grasp at a glance whether or not there is a tumor region in the tissue to be analyzed.

前記実施形態において、好ましくは、1つの解析対象画像について所定画素数の領域毎に応じた複数の解析用データを生成する。この実施形態により、解析対象の組織の広い範囲について、精度よく解析を行うことができる。   In the embodiment, preferably, a plurality of analysis data corresponding to each region having a predetermined number of pixels is generated for one analysis target image. According to this embodiment, it is possible to accurately analyze a wide range of tissues to be analyzed.

前記実施形態において、好ましくは、深層学習アルゴリズム(60)は、入力された前記解析用データに対し前記所定画素数の領域が腫瘍領域および非腫瘍領域から選択される少なくとも一方を含むことを示すラベルを生成する。   In the embodiment, preferably, the deep learning algorithm (60) indicates that the region having the predetermined number of pixels includes at least one selected from a tumor region and a non-tumor region with respect to the input analysis data. Is generated.

前記実施形態において、好ましくは、ニューラルネットワーク(50)の入力層(50a)のノード数が、解析用データ(80)の前記所定画素数と前記組み合わせた原色の数との積に対応している。この実施形態により、精度の高い解析を行うことができる。   In the embodiment, preferably, the number of nodes in the input layer (50a) of the neural network (50) corresponds to the product of the predetermined number of pixels of the analysis data (80) and the number of combined primary colors. . According to this embodiment, a highly accurate analysis can be performed.

前記実施形態において、好ましくは、前記標本が染色された標本であり、前記解析対象画像は、前記染色された標本を顕微鏡の明視野下で撮像した画像である。この実施形態により、病理診断を一助することができる。   In the embodiment, preferably, the specimen is a stained specimen, and the analysis target image is an image obtained by imaging the stained specimen in a bright field of a microscope. According to this embodiment, pathological diagnosis can be assisted.

前記実施形態において、好ましくは、前記深層学習アルゴリズムの学習に用いられる訓練データが、個体から採取された腫瘍領域を含む組織の標本に対して明視野観察用染色を施して作製された標本の染色像を顕微鏡の明視野下で撮像した明視野画像に基づいて生成されている。この実施形態により、組織診断を一助することができる。   In the above embodiment, preferably, the training data used for the learning of the deep learning algorithm is a staining of a specimen prepared by performing staining for bright field observation on a specimen of a tissue including a tumor region collected from an individual. The image is generated based on a bright field image obtained by capturing the image under a bright field of a microscope. This embodiment can help with tissue diagnosis.

前記実施形態において、好ましくは、前記明視野観察用染色は、核染色にヘマトキシリンを用いる。より好ましくは、前記明視野観察用染色が、ヘマトキシリン・エオジン染色(HE染色)である。この実施形態により、組織診断として汎用性の高い検査を網羅することができる。   In the embodiment, preferably, the staining for bright field observation uses hematoxylin for nuclear staining. More preferably, the bright field observation staining is hematoxylin-eosin staining (HE staining). According to this embodiment, examinations with high versatility can be covered as tissue diagnosis.

前記実施形態において、好ましくは、前記訓練データが、前記明視野画像から判定された、腫瘍領域であることを示すラベル値を含む。より好ましくは、前記訓練データが、前記ラベル値を前記明視野画像の所定画素数の領域毎に含む。この実施形態により、腫瘍領域の訓練データを生成することができる。   In the embodiment, preferably, the training data includes a label value indicating a tumor region determined from the bright field image. More preferably, the training data includes the label value for each region of a predetermined number of pixels of the bright field image. According to this embodiment, training data for a tumor region can be generated.

前記実施形態において、好ましくは、前記訓練データが、前記明視野画像における所定画素数の領域毎に生成されている。この態様により、深層学習アルゴリズム(50)の学習効率を上げることができる。   In the embodiment, preferably, the training data is generated for each region having a predetermined number of pixels in the bright field image. According to this aspect, the learning efficiency of the deep learning algorithm (50) can be increased.

前記実施形態において、好ましくは、前記深層学習アルゴリズムが、前記解析用データを、前記解析対象画像に含まれる組織が腫瘍領域であることを示すクラスに分類する。   In the embodiment, preferably, the deep learning algorithm classifies the analysis data into a class indicating that a tissue included in the analysis target image is a tumor region.

前記実施形態において、好ましくは、前記ニューラルネットワーク(50)の出力層(50b)がソフトマックス関数を活性化関数とするノードである。この実施形態により、学習効率および解析精度を上げることができる。   In the embodiment, preferably, the output layer (50b) of the neural network (50) is a node having a softmax function as an activation function. According to this embodiment, learning efficiency and analysis accuracy can be increased.

前記実施形態において、好ましくは、前記深層学習アルゴリズムは、解析用データ(78)が入力される度に、前記解析対象画像に含まれる組織が腫瘍領域であることを示すデータを所定画素数の領域毎に生成する。この実施形態により、解析効率を上げることができる。   In the embodiment, it is preferable that the deep learning algorithm sets data indicating that the tissue included in the analysis target image is a tumor region every time the analysis data (78) is input to a region having a predetermined number of pixels. Generate every time. According to this embodiment, the analysis efficiency can be increased.

前記実施形態において、好ましくは、深層学習アルゴリズム(60)が、前記組織の種類に応じて生成されている。さらに、好ましくは、前記組織の種類に応じて複数の前記深層学習アルゴリズムの中から選択された、前記解析対象の組織の種類に対応する前記深層学習アルゴリズムを用いて、前記解析用データを処理する。この実施形態により、解析精度を上げることができる。   In the embodiment, the deep learning algorithm (60) is preferably generated according to the type of the tissue. Further, preferably, the analysis data is processed using the deep learning algorithm corresponding to the type of tissue to be analyzed, selected from the plurality of deep learning algorithms according to the type of tissue. . According to this embodiment, the analysis accuracy can be increased.

ある実施形態は、ニューラルネットワーク構造の深層学習アルゴリズム(60)を用いて、組織の画像を解析する画像解析装置(100)に関する。前記解析装置は、解析対象の組織を含む解析対象画像(78)から解析用データ(80)を生成し、解析用データ(80)を、深層学習アルゴリズム(50)に入力し、深層学習アルゴリズム(50)によって、前記解析用データに含まれる領域が腫瘍領域であるか否かを示すデータを生成する処理部(10)を備える。   An embodiment relates to an image analysis apparatus (100) that analyzes an image of a tissue using a deep learning algorithm (60) having a neural network structure. The analysis device generates analysis data (80) from the analysis target image (78) including the tissue to be analyzed, inputs the analysis data (80) to the deep learning algorithm (50), and inputs the deep learning algorithm ( 50), a processing unit (10) for generating data indicating whether or not the region included in the analysis data is a tumor region is provided.

ある実施形態は、ニューラルネットワーク構造の深層学習アルゴリズム(60)を用いて、組織の画像を解析するコンピュータプログラムに関する。前記コンピュータに、解析対象の組織を含む解析対象画像(78)から解析用データ(80)を生成する処理と、解析用データ(80)を、深層学習アルゴリズム(60)に入力する処理と、深層学習アルゴリズム(60)によって、前記解析用データに含まれる領域が腫瘍領域であるか否かを示すデータを生成する処理と、を実行させる。   One embodiment relates to a computer program for analyzing tissue images using a neural network structured deep learning algorithm (60). Processing for generating analysis data (80) from the analysis target image (78) including the tissue to be analyzed, processing for inputting the analysis data (80) to the deep learning algorithm (60), and A process for generating data indicating whether or not the region included in the analysis data is a tumor region is executed by a learning algorithm (60).

ある実施態様は、深層学習アルゴリズム(50)の学習に用いられる訓練データを訓練用の組織標本から取得した訓練用画像に基づいて生成するステップと、前記訓練データをニューラルネットワーク(50)に学習させる学習させるステップと、を含み、前記生成ステップは、腫瘍領域を撮像した第1の訓練用画像(70R1)に対応する第1の訓練データ(74R1)を取得する第1の取得ステップと、非腫瘍領域を撮像した第2の訓練用画像(70R2)に対応する第2の訓練データ(74R2)を取得する第2の取得ステップと、組織を含まない領域を撮像した第3の訓練用画像(70R3)に対応する第3の訓練データ(74R3)を取得する第3の取得ステップと、を含み、前記学習ステップは、前記第1の訓練データ(74R1)が、腫瘍領域であることをニューラルネットワーク(50)に学習させる第1の学習ステップと、前記第2の訓練データ(74R2)が、非腫瘍領域であることをニューラルネットワーク(50)に学習させる第2の学習ステップと、前記第3の訓練データ(74R3)が、組織を含まない領域であることをニューラルネットワーク(50)に学習させる第3の学習ステップと、を含む、学習済み深層学習アルゴリズムの生成方法に関する。好ましくは、前記第1の訓練データ(74R1)と、第2の訓練データ(74R2)と、第3の訓練データ(74R3)とをニューラルネットワーク(50)の入力層(50a)とし、腫瘍領域であることと、非腫瘍領域であることと、組織を含まない領域であることとをそれぞれ前記第1の訓練データ(74R1)と、第2の訓練データ(74R2)と、第3の訓練データ(74R3)とに対応するニューラルネットワーク(50)の出力層(50b)とする。さらに好ましくは、前記第1の取得ステップの前に、前記第1の訓練用画像(70R1)から、前記第1の訓練データ(74R1)を生成するステップと、前記第2の取得ステップの前に、前記第2の訓練用画像(70R2)から、前記第2の訓練データ(74R2)を生成するステップと、前記第3の取得ステップの前に、前記第3の訓練用画像(70R3)から、前記第3の訓練データ(74R3)を生成するステップと、をさらに含む。本実施形態によれば、解析対象の組織が、腫瘍領域および非腫瘍領域から選択される少なくとも一方を含むことを判別する、学習済み深層学習アルゴリズムの生成することができる。   One embodiment generates training data used for learning of the deep learning algorithm (50) based on a training image obtained from a tissue sample for training, and causes the neural network (50) to learn the training data. Learning, and the generating step includes a first acquisition step of acquiring first training data (74R1) corresponding to a first training image (70R1) obtained by imaging a tumor region, and a non-tumor A second acquisition step of acquiring second training data (74R2) corresponding to the second training image (70R2) that images the region, and a third training image (70R3) that images the region not including the tissue ) Acquiring third training data (74R3) corresponding to the first training data (74R3), and the learning step includes the first training data (74R3). ) Causes the neural network (50) to learn that the neural network (50) is a tumor region and the second training data (74R2) is a non-tumor region. A learned deep learning algorithm comprising: a second learning step; and a third learning step for causing the neural network (50) to learn that the third training data (74R3) is a region not including tissue. Relates to the generation method. Preferably, the first training data (74R1), the second training data (74R2), and the third training data (74R3) are used as an input layer (50a) of the neural network (50), and in the tumor region The first training data (74R1), the second training data (74R2), and the third training data (the non-tumor region and the region not including the tissue). 74R3) and the output layer (50b) of the neural network (50). More preferably, before the first acquisition step, before generating the first training data (74R1) from the first training image (70R1) and before the second acquisition step. From the second training image (70R3), the step of generating the second training data (74R2) from the second training image (70R2), and the third training image (70R3) before the third acquisition step, Generating the third training data (74R3). According to the present embodiment, it is possible to generate a learned deep learning algorithm that determines that a tissue to be analyzed includes at least one selected from a tumor region and a non-tumor region.

前記生成方法において、好ましくは、前記訓練用画像が、個体から採取された組織に対して明視野観察用染色を施して作製された標本の染色像を顕微鏡の明視野下で撮像した明視野画像である。   In the generation method, preferably, the training image is a bright field image obtained by imaging a stained image of a specimen prepared by performing staining for bright field observation on a tissue collected from an individual under a bright field of a microscope. It is.

ある実施形態は、第1の訓練データ(74R1)と、第2の訓練データ(74R2)と、第3の訓練データ(74R3)とをニューラルネットワーク(50)の入力層(50a)とし、腫瘍領域であることと、非腫瘍領域であることと、組織を含まない領域であることとをそれぞれ前記第1の訓練データ(74R1)と、第2の訓練データ(74R2)と、第3の訓練データ(74R3)とに対応するニューラルネットワーク(50)の出力層(50b)として学習させた深層学習アルゴリズムであって、前記第1の訓練データ(74R1)は、訓練用の組織の腫瘍領域を撮像した第1の訓練用画像(70R1)から生成され、前記第2の訓練データ(74R2)は、訓練用の組織の非腫瘍領域を撮像した第2の訓練用画像(70R2)から生成され、前記第3の訓練データ(74R3)は、組織を含まない領域を撮像した第3の訓練用画像(70R3)から生成される、学習済み深層学習アルゴリズム(60)である。   In one embodiment, the first training data (74R1), the second training data (74R2), and the third training data (74R3) serve as an input layer (50a) of the neural network (50), and a tumor region , A non-tumor region, and a region that does not include tissue, the first training data (74R1), the second training data (74R2), and the third training data, respectively. A deep learning algorithm learned as an output layer (50b) of a neural network (50) corresponding to (74R3), wherein the first training data (74R1) images a tumor region of a tissue for training The second training data (74R2) is generated from the first training image (70R1), and the second training data (74R2) is generated from the second training image (70R2) obtained by imaging the non-tumor region of the training tissue. Made is, the third training data (74R3) is generated from the third training image of the captured area does not include the tissue (70R3), a learned deep learning algorithm (60).

標本に含まれる組織全体を観察し、その標本のどの部位に腫瘍組織が含まれるかスクリーニングするためのデータを生成することができる。   Data for screening the whole tissue contained in the specimen and screening which part of the specimen contains the tumor tissue can be generated.

深層学習方法の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline | summary of the deep learning method. 深層学習方法の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline | summary of the deep learning method. 深層学習方法の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline | summary of the deep learning method. 訓練データの詳細を説明するための模式図である。It is a schematic diagram for demonstrating the detail of training data. 訓練データの詳細を説明するための模式図である。It is a schematic diagram for demonstrating the detail of training data. 画像解析方法の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline | summary of an image analysis method. 第1の実施形態に係る画像解析システムの概略構成図である。1 is a schematic configuration diagram of an image analysis system according to a first embodiment. ベンダ側装置100のハードウェア構成を示すブロック図である。2 is a block diagram showing a hardware configuration of a vendor-side device 100. FIG. ユーザ側装置200のハードウェア構成を示すブロック図である。3 is a block diagram showing a hardware configuration of a user side device 200. FIG. 第1の実施形態に係る深層学習装置100Aの機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of 100 A of deep learning apparatuses which concern on 1st Embodiment. 深層学習処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a deep learning process. ニューラルネットワークによる学習の詳細を説明するための模式図である。It is a schematic diagram for demonstrating the detail of the learning by a neural network. 第1の実施形態に係る画像解析装置200Aの機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of image analysis apparatus 200A which concerns on 1st Embodiment. 画像解析処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an image analysis process. 第2の実施形態に係る画像解析システムの概略構成図である。It is a schematic block diagram of the image analysis system which concerns on 2nd Embodiment. 第2の実施形態に係る統合型の画像解析装置200Bの機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of the integrated image analysis apparatus 200B which concerns on 2nd Embodiment. 第3の実施形態に係る画像解析システムの概略構成図である。It is a schematic block diagram of the image analysis system which concerns on 3rd Embodiment. 第3の実施形態に係る統合型の画像解析装置100Bの機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of the integrated image analysis apparatus 100B which concerns on 3rd Embodiment. 胃がん組織から取得された組織標本の解析結果である。(a)は、胃がん組織をHE染色して撮像した明視野画像のホールスライドイメージであり、解析対象の画像である。(b)は、ホールスライドイメージの腫瘍領域を病理医が指定し実線で囲った像である。(c)は、拡大倍率1倍の訓練用画像と解析用画像を用いた解析結果を示す。(d)は、拡大倍率5倍の訓練用画像と解析用画像を用いた解析結果を示す。(e)は、拡大倍率40倍の訓練用画像と解析用画像を用いた解析結果を示す。図19(c)から(e)において解析処理により得られた腫瘍領域を白で表示し、非腫瘍領域をグレーで示し、非組織領域を黒で示す。It is the analysis result of the tissue sample acquired from the stomach cancer tissue. (A) is a hole slide image of a bright-field image obtained by HE-staining gastric cancer tissue and is an image to be analyzed. (B) is an image in which a pathologist designates a tumor region of a hole slide image and is surrounded by a solid line. (C) shows an analysis result using an image for training and an image for analysis having a magnification of 1 ×. (D) shows the analysis result using the image for training and the image for analysis of 5 times magnification. (E) shows the analysis result using the image for training and the image for analysis of 40 times magnification. In FIGS. 19C to 19E, the tumor area obtained by the analysis process is displayed in white, the non-tumor area is shown in gray, and the non-tissue area is shown in black. 胃がん組織から取得された組織標本の解析結果である。(a)は、胃がん組織をHE染色して撮像した明視野画像のホールスライドイメージであり、解析対象の画像である。(b)は、ホールスライドイメージの腫瘍領域を病理医が指定し実線で囲った像である。(c)は、拡大倍率5倍の訓練用画像と解析用画像を用いた解析結果を示す。(d)は、拡大倍率16倍の訓練用画像と解析用画像を用いた解析結果を示す。図19(c)、(d)において解析処理により得られた腫瘍領域を白で表示し、非腫瘍領域をグレーで示し、非組織領域を黒で示す。It is the analysis result of the tissue sample acquired from the stomach cancer tissue. (A) is a hole slide image of a bright-field image obtained by HE-staining gastric cancer tissue and is an image to be analyzed. (B) is an image in which a pathologist designates a tumor region of a hole slide image and is surrounded by a solid line. (C) shows an analysis result using an image for training and an image for analysis having a magnification of 5 times. (D) shows the analysis result using the image for training and the image for analysis of 16 times magnification. In FIGS. 19C and 19D, the tumor area obtained by the analysis process is displayed in white, the non-tumor area is shown in gray, and the non-tissue area is shown in black. 組織標本の拡大倍率とウィンドウサイズの画素数による判別精度の違いを示す図である。(a)は各拡大倍率の感度、(b)は、各拡大倍率の陽性的中率を示す。(c)は、ウィンドウサイズの画素数の違いによる感度、(d)は陽性的中率の変化を示す。It is a figure which shows the difference of the discrimination precision by the magnification factor of a tissue sample, and the number of pixels of window size. (A) shows the sensitivity of each magnification, and (b) shows the positive predictive value of each magnification. (C) shows the sensitivity due to the difference in the number of pixels in the window size, and (d) shows the change in the positive predictive value.

以下、本発明の概要および実施の形態を、添付の図面を参照して詳細に説明する。なお、以下の説明および図面において、同じ符号は同じまたは類似の構成要素を示すこととし、よって、同じまたは類似の構成要素に関する説明を省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, an overview and embodiments of the invention will be described in detail with reference to the accompanying drawings. In the following description and drawings, the same reference numerals indicate the same or similar components, and thus descriptions of the same or similar components are omitted.

画像解析方法は、組織の画像を解析する。前記画像解析方法は、ニューラルネットワーク構造の、好ましくは、畳み込みニューラルネットワーク構造の深層学習アルゴリズムを用いる。前記画像解析方法は、解析用データに含まれる領域が腫瘍領域であるか否かを示すデータを生成することを含む。   The image analysis method analyzes an image of a tissue. The image analysis method uses a deep learning algorithm having a neural network structure, preferably a convolutional neural network structure. The image analysis method includes generating data indicating whether or not the region included in the analysis data is a tumor region.

本発明において、組織または細胞の画像は、組織試料の標本または細胞を含む試料の標本から取得される画像である。組織試料の標本または細胞を含む試料の標本は、個体から採取される。個体は、特に制限されないが、好ましくは哺乳類であり、より好ましくはヒトである。前記個体から試料が採取される際に、個体が生きているか死亡しているかは問わない。前記組織は、個体内に存在するものである限り、制限されない。前記個体から採取された組織としては、外科的な切除組織、生検組織等を挙げることができる。前記腫瘍は上皮性および非上皮性のいずれであってもよい。前記腫瘍として好ましくは悪性上皮性腫瘍である。悪性腫瘍は、特に制限されないが、悪性腫瘍としては、例えば、気管、気管支又は肺等から発生する呼吸器系悪性腫瘍;上咽頭、食道、胃、十二指腸、空腸、回腸、盲腸、虫垂、上行結腸、横行結腸、S状結腸、直腸又は肛門部等から発生する消化管系悪性腫瘍;肝臓癌;膵臓癌;膀胱、尿管又は腎臓から発生する泌尿器系悪性腫瘍;卵巣、卵管および子宮等から発生する女性生殖器系悪性腫瘍;乳癌;前立腺癌;皮膚癌;視床下部、下垂体、甲状腺、副甲状腺、副腎等の内分泌系悪性腫瘍;中枢神経系悪性腫瘍;骨軟部組織から発生する悪性腫瘍等の固形腫瘍が挙げられる。より好ましくは、肺癌(扁平上皮癌、小細胞癌、大細胞癌、腺癌)等の呼吸器系上皮性悪性腫瘍;胃癌、十二指腸癌、大腸癌(S状結腸癌、直腸癌等)等の消化管系上皮性悪性腫瘍;肝臓癌;膵臓癌;膀胱癌;甲状腺癌;卵巣癌;乳癌;前立腺癌を挙げることができる。最も好ましくは、胃癌である。   In the present invention, an image of a tissue or cell is an image obtained from a specimen of a tissue sample or a specimen of a sample containing cells. Samples of tissue samples or samples containing cells are taken from an individual. The individual is not particularly limited, but is preferably a mammal, more preferably a human. When a sample is collected from the individual, it does not matter whether the individual is alive or dead. The tissue is not limited as long as it exists within an individual. Examples of the tissue collected from the individual include surgically excised tissue and biopsy tissue. The tumor may be epithelial or non-epithelial. The tumor is preferably a malignant epithelial tumor. The malignant tumor is not particularly limited. Examples of the malignant tumor include respiratory malignant tumors arising from the trachea, bronchi, lungs, etc .; nasopharynx, esophagus, stomach, duodenum, jejunum, ileum, cecum, appendix, ascending colon Gastrointestinal malignant tumor arising from the transverse colon, sigmoid colon, rectum or anus; liver cancer; pancreatic cancer; urinary malignant tumor arising from the bladder, ureter or kidney; ovary, fallopian tube, uterus, etc. Female genital malignant tumors that occur; breast cancer; prostate cancer; skin cancer; endocrine malignant tumors such as the hypothalamus, pituitary gland, thyroid gland, parathyroid gland, adrenal glands; central nervous system malignant tumors; malignant tumors that arise from bone and soft tissue Solid tumors. More preferably, respiratory epithelial malignant tumors such as lung cancer (squamous cell cancer, small cell cancer, large cell cancer, adenocarcinoma); gastric cancer, duodenal cancer, colon cancer (sigmoid colon cancer, rectal cancer, etc.) Gastrointestinal epithelial malignant tumors; liver cancer; pancreatic cancer; bladder cancer; thyroid cancer; ovarian cancer; breast cancer; Most preferred is gastric cancer.

前記標本は、前記組織を顕微鏡等で観察ができるように加工した状態のもの、例えばプレパラートを意図する。前記標本は、公知の方法に従って作製することができる。例えば、組織標本の場合には、前記個体から組織を採取した後に、所定の固定液(ホルマリン固定等)で組織を固定し、その固定組織をパラフィン包埋し、パラフィン包埋組織を薄切する。薄切切片をスライドグラスにのせる。切片がのったスライドグラスに対して光学顕微鏡での観察のため、すなわち明視野観察のための染色を施し、所定の封入処理をして標本が完成する。組織標本の典型例は、組織診断用標本(病理標本)であり、染色は、へマトキシリン・エオジン(HE)染色である。   The specimen is intended to be a processed state so that the tissue can be observed with a microscope or the like, for example, a preparation. The specimen can be prepared according to a known method. For example, in the case of a tissue specimen, after the tissue is collected from the individual, the tissue is fixed with a predetermined fixing solution (formalin fixation or the like), the fixed tissue is embedded in paraffin, and the paraffin-embedded tissue is sliced. . Place thin slices on a slide glass. The slide glass on which the section is placed is stained for observation with an optical microscope, that is, for bright field observation, and a predetermined encapsulation process is performed to complete a specimen. A typical example of the tissue specimen is a specimen for tissue diagnosis (pathological specimen), and the staining is hematoxylin-eosin (HE) staining.

HE染色の核染色はヘマトキシリンである。ヘマトキシリンは、組織細胞染色において核染色剤として幅広く使用されている(例えば、免疫染色、レクチン染色、糖染色、脂肪染色、膠原線維染色等)。このため、本発明は、このようなヘマトキシリンを核染色に使う標本全般において、適用が可能である。   Nuclear staining for HE staining is hematoxylin. Hematoxylin is widely used as a nuclear stain in tissue cell staining (for example, immunostaining, lectin staining, sugar staining, fat staining, collagen fiber staining, etc.). Therefore, the present invention can be applied to all specimens using such hematoxylin for nuclear staining.

前記画像解析には、訓練用画像を用いて訓練された深層学習アルゴリズムを用いる。前記画像解析は、前記標本から取得した、解析対象の組織を含む解析対象画像から解析データを生成する。前記解析データを、前記深層学習アルゴリズムに入力し、前記解析対象画像内に存在する組織が解析用データに含まれる領域が腫瘍領域であるか否かを示すデータを生成する。解析用データに含まれる領域が腫瘍領域であるか否かを示すデータとは、判別対象にある組織に含まれる複数の注目画素を含む領域が、腫瘍組織を含む可能性および/または非腫瘍領域である可能性を示すデータである。解析用データに含まれる領域が腫瘍領域であるか否かを示すデータは、腫瘍領域を含むことと非腫瘍領域であることを区別できるラベル値、表示等であり得る。   For the image analysis, a deep learning algorithm trained using a training image is used. In the image analysis, analysis data is generated from an analysis target image including a tissue to be analyzed acquired from the specimen. The analysis data is input to the deep learning algorithm, and data indicating whether or not a region in which the tissue present in the analysis target image is included in the analysis data is a tumor region is generated. The data indicating whether or not the region included in the analysis data is a tumor region is the possibility that the region including a plurality of target pixels included in the tissue to be discriminated includes a tumor tissue and / or a non-tumor region It is data indicating the possibility of Data indicating whether or not the region included in the analysis data is a tumor region can be a label value, a display, or the like that can distinguish between including a tumor region and a non-tumor region.

前記訓練用画像は、学習対象となる標本の複数の領域から取得される。好ましくは、前記訓練用画像は、学習対象となる組織に含まれる複数の層構造から層構造ごとに腫瘍領域を含む領域、非腫瘍領域を含む領域、および組織を含まない領域より取得される。   The training image is acquired from a plurality of regions of a sample to be learned. Preferably, the training image is acquired from a plurality of layer structures included in a tissue to be learned from a region including a tumor region, a region including a non-tumor region, and a region not including a tissue for each layer structure.

例えば、第1の訓練用画像70R1は、個体から採取された組織に含まれる、腫瘍領域を含む領域から取得された画像である。この画像は、顕微鏡観察により、組織構造が認識できるように染色された標本から取得される。前記染色は、組織構造が認識できる限り制限されないが、好ましくは明視野観察用の染色である。前記明視野観察用染色は、少なくとも細胞核と細胞核以外の部位が、色相で区別可能に染色できる限り制限されない。前記標本が哺乳類の組織標本である場合には、例えば、HE染色を挙げることができる。   For example, the first training image 70R1 is an image acquired from a region including a tumor region included in a tissue collected from an individual. This image is acquired from a sample stained so that the tissue structure can be recognized by microscopic observation. The staining is not limited as long as the tissue structure can be recognized, but is preferably staining for bright field observation. The staining for bright field observation is not limited as long as at least a cell nucleus and a site other than the cell nucleus can be stained so as to be distinguishable by hue. When the specimen is a mammalian tissue specimen, for example, HE staining can be mentioned.

第1の訓練用画像70R1からは、第1の訓練データ74R1と、第1の予備訓練データ70R1Lが生成される。第1の訓練データ74R1は、第1の訓練用画像70R1に含まれる色相を原色毎に分離した単一色画像に関する情報である。第1の予備訓練データ70R1Lは、第1の訓練用画像70R1に含まれている組織の領域が、腫瘍領域を含むことを示す二値化データ(ラベル値)として生成される。第1の訓練用画像70R1に含まれる組織の領域が腫瘍領域を含むか否かは、例えば病理医等による標本観察により判定される。ここで、前記訓練用画像に含まれる組織の領域において、腫瘍細胞と、非腫瘍細胞と、細胞以外の組織の領域とが混在する場合がある。この場合、前記訓練用画像に含まれる組織の領域が、例えば前記訓練用画像に含まれる組織の領域全体の面積を100%とした際に、腫瘍細胞がその全体の面積の約10%以上、約20%以上、約30%以上、約40%以上、約50%以上、約60%以上、約70%以上、約80%以上、または約90%以上を占める場合に、腫瘍領域を含むと判定することができる。好ましくは、約40%以上、約50%以上、約60%以上、約70%以上、約80%以上、または約90%以上を占める場合に、腫瘍領域を含むと判定することができる。前記訓練用画像に含まれる組織の領域全体の面積(100%)から非腫瘍細胞および細胞以外の組織(非腫瘍領域)が占める割合を減じた値を前記腫瘍細胞が組織全体の面積を占める割合として決定してもよい。   From the first training image 70R1, first training data 74R1 and first preliminary training data 70R1L are generated. The first training data 74R1 is information relating to a single color image obtained by separating the hues included in the first training image 70R1 for each primary color. The first preliminary training data 70R1L is generated as binary data (label value) indicating that the tissue region included in the first training image 70R1 includes a tumor region. Whether or not the tissue region included in the first training image 70R1 includes a tumor region is determined by, for example, specimen observation by a pathologist or the like. Here, in the tissue region included in the training image, tumor cells, non-tumor cells, and tissue regions other than the cells may be mixed. In this case, when the area of the tissue included in the training image is 100% of the area of the entire tissue area included in the training image, for example, the tumor cells are about 10% or more of the entire area, Including tumor area when occupying about 20% or more, about 30% or more, about 40% or more, about 50% or more, about 60% or more, about 70% or more, about 80% or more, or about 90% or more Can be determined. Preferably, it can be determined to include a tumor region if it accounts for about 40% or more, about 50% or more, about 60% or more, about 70% or more, about 80% or more, or about 90% or more. Ratio in which the tumor cells occupy the entire tissue area by subtracting the ratio of non-tumor cells and tissues other than cells (non-tumor areas) from the area (100%) of the entire tissue area included in the training image May be determined as

前記訓練用画像に含まれる第2の訓練用画像70R2は、非腫瘍領域を含む組織の領域(好ましくは、非腫瘍細胞と細胞以外の組織の領域とを含む領域)から取得された画像である。この画像は、顕微鏡観察により、組織構造が認識できるように染色された標本から取得される。前記染色は、組織構造が認識できる限り制限されないが、好ましくは明視野観察用の染色である。前記明視野観察用染色は、少なくとも細胞核と細胞核以外の部位が、色相で区別可能に染色できる限り制限されない。前記標本が哺乳類の組織標本である場合には、例えば、HE染色を挙げることができる。前記染色は、第1の訓練用画像70R1を取得した標本と同じものであることが好ましい。   The second training image 70R2 included in the training image is an image acquired from a tissue region including a non-tumor region (preferably a region including non-tumor cells and a tissue region other than cells). . This image is acquired from a sample stained so that the tissue structure can be recognized by microscopic observation. The staining is not limited as long as the tissue structure can be recognized, but is preferably staining for bright field observation. The staining for bright field observation is not limited as long as at least a cell nucleus and a site other than the cell nucleus can be stained so as to be distinguishable by hue. When the specimen is a mammalian tissue specimen, for example, HE staining can be mentioned. The staining is preferably the same as the specimen from which the first training image 70R1 has been acquired.

第2の訓練用画像70R2からは、第2の訓練データ74R2と、第2の予備訓練データ70R2Lが生成される。第2の訓練データ74R2は、第2の訓練用画像70R2に含まれる色相を原色毎に分離した単一色画像に関する情報である。第2の予備訓練データ70R2Lは、第2の訓練用画像70R2に含まれている組織の領域が、非腫瘍領域を含むことを示す二値化データ(ラベル値)である。第2の訓練用画像70R2に含まれる組織の領域が非腫瘍領域を含むか否かは、例えば病理医等による標本観察により判定される。ここで、前記訓練用画像に含まれる組織の領域において、腫瘍細胞と、非腫瘍細胞と、細胞以外の組織の領域が混在する場合がある。この場合、前記訓練用画像に含まれる組織の領域が、例えば前記訓練用画像に含まれる組織の領域全体の面積を100%とした際に、非腫瘍細胞と細胞以外の組織の領域(非腫瘍領域)とが組織全体の面積の約10%以上、約20%以上、約30%以上、約40%以上、約50%以上、約60%以上、約70%以上、約80%以上、約90%以上、または100%を占める場合に、非腫瘍領域を含むと判定することができる。好ましくは、約40%以上、約50%以上、約60%以上、約70%以上、約80%以上、約90%以上、または100%を占める場合に、非腫瘍領域を含むと判定することができる。前記第2の訓練用画像70R2に含まれる組織の領域全体の面積(100%)から腫瘍領域が占める割合を減じた値を前記非腫瘍細胞と細胞以外の組織の領域とが組織全体の面積を占める割合として決定してもよい。   From the second training image 70R2, second training data 74R2 and second preliminary training data 70R2L are generated. The second training data 74R2 is information related to a single color image obtained by separating the hue included in the second training image 70R2 for each primary color. The second preliminary training data 70R2L is binarized data (label value) indicating that the tissue region included in the second training image 70R2 includes a non-tumor region. Whether or not the tissue region included in the second training image 70R2 includes a non-tumor region is determined by, for example, specimen observation by a pathologist or the like. Here, in the tissue region included in the training image, tumor cells, non-tumor cells, and tissue regions other than the cells may coexist. In this case, when the area of the tissue included in the training image is, for example, 100% of the total area of the tissue included in the training image, the tissue area other than the non-tumor cells (non-tumor) Region) is about 10% or more, about 20% or more, about 30% or more, about 40% or more, about 50% or more, about 60% or more, about 70% or more, about 80% or more, about When it occupies 90% or more, or 100%, it can be determined that a non-tumor region is included. Preferably, when it accounts for about 40% or more, about 50% or more, about 60% or more, about 70% or more, about 80% or more, about 90% or more, or 100%, it is determined to include a non-tumor region Can do. The area obtained by subtracting the ratio of the tumor area from the area (100%) of the entire tissue area included in the second training image 70R2 is the non-tumor cell and the area of the tissue other than the cells. You may determine as a ratio to occupy.

前記訓練用画像に含まれる第3の訓練用画像70R3は、第1の訓練用画像70R1、および/または第2の訓練用画像70R2を取得した標本における組織を含まない領域(非組織領域ともいう)から取得された画像である。   The third training image 70R3 included in the training image is a region (also referred to as a non-tissue region) that does not include a tissue in the specimen from which the first training image 70R1 and / or the second training image 70R2 is acquired. ).

第3訓練用画像からは、第3の訓練データ74R3と、第3の予備訓練データ70R3Lが生成される。第3の訓練データ74R3は、第3の訓練用画像70R3に含まれる色相を原色毎に分離した単一色画像に関する情報である。第3の予備訓練データ70R2Lは、第3の訓練用画像70R3に含まれている領域が、組織を含まない領域であることであることを示す二値化データ(ラベル値)である。第3の訓練用画像70R3に含まれる領域は、例えば病理医等による標本観察により判定される。ここで、前記訓練用画像には、組織の領域と背景(例えば、プレパラートのガラス部分)の領域とが混在する場合がある。この場合、前記訓練用画像に含まれる背景の領域が、例えば前記1枚の訓練用画像に含まれる領域全体の面積を100%とした際に、背景の領域が約90%以上、約91%以上、約92%以上、約93%以上、約94%以上、約95%以上、約96%以上、約97%以上、約98%以上、または約99%以上を占める場合、あるいは背景の領域が100%を占める場合に、組織を含まない領域であると判定することができる。好ましくは、背景の領域が約95%以上、約96%以上、約97%以上、約98%以上、または約99%以上を占める場合、あるいは背景の領域が100%を占める場合に、組織を含まない領域であると判定することができる。   From the third training image, third training data 74R3 and third preliminary training data 70R3L are generated. The third training data 74R3 is information related to a single color image obtained by separating the hue included in the third training image 70R3 for each primary color. The third preliminary training data 70R2L is binarized data (label value) indicating that the region included in the third training image 70R3 is a region not including a tissue. The region included in the third training image 70R3 is determined by specimen observation by a pathologist or the like, for example. Here, the training image may include a tissue region and a background region (for example, a glass portion of a preparation). In this case, when the area of the background included in the training image is, for example, 100% of the area of the entire region included in the one training image, the background region is approximately 90% or more and approximately 91%. More than about 92%, about 93% or more, about 94% or more, about 95% or more, about 96% or more, about 97% or more, about 98% or more, or about 99% or more, or background area Occupies 100%, it can be determined that the region does not include the tissue. Preferably, if the background area occupies about 95% or more, about 96% or more, about 97% or more, about 98% or more, or about 99% or more, or if the background area occupies 100% It can be determined that the area is not included.

各訓練用画像は、訓練用の組織標本を、例えば5倍から20倍に拡大した画像として取得されることが好ましい。判別精度の点から、30倍以上、特に40倍以上に拡大した画像は、訓練用画像としては不向きである。   Each training image is preferably acquired as an image obtained by enlarging a training tissue sample, for example, 5 to 20 times. From the viewpoint of discrimination accuracy, an image enlarged 30 times or more, particularly 40 times or more is unsuitable as a training image.

第1の訓練データ74R1および第1の予備訓練データ70R1Lからは腫瘍領域訓練データが生成され、第2の訓練データ74R2および第2の予備訓練データ70R2Lからは非腫瘍領域訓練データが生成され、第3の訓練データ74R3および第3の予備訓練データ70R2Lからは非組織領域訓練データが生成される。腫瘍領域訓練データ、非腫瘍領域訓練データおよび非組織領域訓練データを併せて訓練データと呼ぶことがある。   Tumor region training data is generated from the first training data 74R1 and the first preliminary training data 70R1L, and non-tumor region training data is generated from the second training data 74R2 and the second preliminary training data 70R2L. Non-tissue region training data is generated from the third training data 74R3 and the third preliminary training data 70R2L. The tumor area training data, non-tumor area training data, and non-tissue area training data may be collectively referred to as training data.

本発明の概要および実施の形態では、HE染色された組織標本を撮像した画像内に含まれる組織が腫瘍領域、非腫瘍領域および非組織領域を含むことを、深層学習アルゴリズムによって判別する場合を一例として説明する。   In the outline and the embodiment of the present invention, an example in which the deep learning algorithm determines that the tissue included in the image obtained by imaging the HE-stained tissue specimen includes a tumor region, a non-tumor region, and a non-tissue region. Will be described.

[深層学習方法および画像解析方法の概要]
はじめに、深層学習方法について説明する。
[Outline of deep learning method and image analysis method]
First, the deep learning method will be described.

・深層学習方法の概要
図1を用いて、第1の訓練データ74R1、第1の予備訓練データ70R1Lおよび腫瘍領域訓練データ75R1の概要を説明する。図1には、スライドイメージスキャナにより取得した組織標本のホールスライドイメージ70W1を使ったニューラルネットワークへの訓練データの入力例を示す。ホールスライドイメージ70W1は明視野観察用染色としてHE染色を施して作製された標本を明視野で撮像した組織標本のスライドイメージを示す。ホールスライドイメージ70W2は、病理医によりホールスライドイメージ70W1において腫瘍領域を含む部分を病理医が実線で囲って指定した画像である。ホールスライドイメージ70W3は、ホールスライドイメージ70W2を訓練用画像として分割(例えば、512分割)した像を示す。ホールスライドイメージ70W3内の記号R1で示された四角枠で囲まれた領域は、図1に示す第1の訓練用画像70R1として使用する領域を示す。記号R2で示された四角枠で囲まれた領域は、図2に示す第2の訓練用画像70R2として使用する領域を示す。記号R3で示された四角枠で囲まれた領域は、図3に示す第3の訓練用画像70R3として使用する領域を示す。第1の訓練用画像70R1が腫瘍領域を含むこと、第2の訓練用画像70R2が非腫瘍領域を含むこと、および第3の訓練用画像70R3が組織を含まない領域であることは、それぞれの訓練画像を取得する前に判定していてもよく、それぞれの訓練画像を取得してから判定してもよい。
Outline of Deep Learning Method The outline of the first training data 74R1, the first preliminary training data 70R1L, and the tumor region training data 75R1 will be described with reference to FIG. FIG. 1 shows an example of input of training data to a neural network using a hole slide image 70W1 of a tissue specimen acquired by a slide image scanner. A hole slide image 70W1 shows a slide image of a tissue specimen obtained by imaging a specimen prepared by performing HE staining as bright field observation staining in a bright field. The hole slide image 70W2 is an image specified by the pathologist enclosing the portion including the tumor region in the hole slide image 70W1 with a solid line by the pathologist. The hole slide image 70W3 indicates an image obtained by dividing the hole slide image 70W2 as a training image (for example, 512 divisions). A region surrounded by a square frame indicated by symbol R1 in the hole slide image 70W3 indicates a region used as the first training image 70R1 shown in FIG. A region surrounded by a square frame indicated by a symbol R2 indicates a region used as the second training image 70R2 illustrated in FIG. A region surrounded by a square frame indicated by a symbol R3 indicates a region used as the third training image 70R3 illustrated in FIG. The first training image 70R1 includes a tumor region, the second training image 70R2 includes a non-tumor region, and the third training image 70R3 includes a tissue-free region. You may determine before acquiring a training image, and you may determine after acquiring each training image.

図1において、第1の訓練用画像70R1は、HE染色した標本を明視野観察下で例えばカラー画像として撮像しているため、第1の訓練用画像70R1には複数の色相が含まれる。   In FIG. 1, the first training image 70R1 is obtained by capturing a HE-stained specimen as a color image, for example, under bright field observation. Therefore, the first training image 70R1 includes a plurality of hues.

第1の訓練用画像70R1は、例えば公知の光学顕微鏡、蛍光顕微鏡またはバーチャルスライドスキャナ等の画像取得装置を用いて、予め取得することができる。例示的には、本実施形態において画像取得装置から取得されるカラー撮像は、カラースペースがRGBの24ビットカラーであることが好ましい。RGBの24ビットカラーでは、赤色、緑色および青色のそれぞれの濃さ(色濃度)を、8ビット(256段階)の階調で表すことが好ましい。第1の訓練用画像70R1は、1以上の原色を含む画像であればよい。第1の訓練用画像70R1に対応して、第1の訓練データ74R1が生成される。   The first training image 70R1 can be acquired in advance using an image acquisition device such as a known optical microscope, fluorescence microscope, or virtual slide scanner. Illustratively, the color imaging acquired from the image acquisition device in the present embodiment is preferably a 24-bit color with a color space of RGB. In the RGB 24-bit color, it is preferable to express the red, green, and blue densities (color densities) with 8-bit (256 levels) gradation. The first training image 70R1 may be an image including one or more primary colors. Corresponding to the first training image 70R1, first training data 74R1 is generated.

本発明において、色相は、例示的には、光の3原色の組み合わせ、または色の3原色の組み合わせで規定される。第1の訓練データ74R1は、第1の訓練用画像70R1から生成される、第1の訓練用画像70R1に現れる色相を個々の原色に分離して原色毎に生成し、その濃度に応じた符号で表されたデータである。図1では光の3原色である赤(R)、緑(G)、青(B)の原色毎に分離した単一色の濃淡で示された画像(以下、「単一色画像」ともいう)72R1R,72R1G,72R1Bを得る。   In the present invention, the hue is illustratively defined by a combination of three primary colors of light or a combination of three primary colors. The first training data 74R1 is generated for each primary color by separating the hue appearing in the first training image 70R1 generated from the first training image 70R1 for each primary color, and a code corresponding to the density It is data represented by. In FIG. 1, an image (hereinafter also referred to as “single color image”) 72R1R represented by shades of a single color separated for each of the primary colors of light (red (R), green (G), and blue (B)). , 72R1G, 72R1B are obtained.

単一色画像72R1R,72R1G,72R1B上の各画素について各色の色濃度を符号化し、画像全体をR、G、B毎の各画像について、画素毎の色濃度に対応した符号化図(以下、「色濃度符号化図」ともいう)72R1r,72R1g,72R1bを生成する。色濃度は、各色256段階を示す数値で符号化しても良い。また、色濃度は、各色256段階を示す数値に対して、さらに前処理を行って、各画素における色濃度を例えば、値0から値7の8段階で示す数字で符号化してもよい。図1に例示的に示すR、G、B各色の単一色画像から生成された色濃度符号化図72R1r,72R1g,72R1bは、説明の便宜上、各画素における色濃度を値0から値7の8段階の符号で表している。図1に示す色濃度符号化図72R1r,72R1g,72R1bから画素毎にR、G、Bの色濃度値が組み合わされた第1の訓練データ74R1が生成される。色濃度を示す符号は、本明細書において色濃度値ともいう。また、第1の訓練データ74R1として、色濃度符号化図に替えて、各画素に対応した色濃度値の行列を生成してもよい。   The color density of each color is encoded for each pixel on the single color image 72R1R, 72R1G, 72R1B, and the entire image is encoded corresponding to the color density of each pixel for each image of R, G, B (hereinafter, “ 72R1r, 72R1g, and 72R1b are also generated. The color density may be encoded with a numerical value indicating 256 levels of each color. Further, the color density may be further pre-processed with respect to the numerical value indicating the 256 levels of each color, and the color density in each pixel may be encoded with, for example, a number indicating 8 levels from 0 to 7. Color density encoding diagrams 72R1r, 72R1g, and 72R1b generated from single color images of R, G, and B colors exemplarily shown in FIG. 1 show the color density values of 0 to 7 for each pixel for convenience of explanation. It is represented by a stage code. First training data 74R1 in which R, G, and B color density values are combined for each pixel is generated from the color density encoding diagrams 72R1r, 72R1g, and 72R1b shown in FIG. The code indicating the color density is also referred to as a color density value in this specification. In addition, instead of the color density coding diagram, a matrix of color density values corresponding to each pixel may be generated as the first training data 74R1.

図1において、第1の予備訓練データ70R1Lは、第1の訓練用画像70R1に含まれている組織が、腫瘍領域を含むことを示すデータである。例えば、第1の訓練用画像70R1は、全領域が病理医の判定により腫瘍領域であると判定されているため第1の訓練用画像70R1には、後述する所定の画素数の領域毎に腫瘍領域を含むことを示すラベル値として同じ数値、例えば「1」が付され、第1の予備訓練データ70R1Lとなる。   In FIG. 1, the first preliminary training data 70R1L is data indicating that the tissue included in the first training image 70R1 includes a tumor region. For example, since the first training image 70R1 is determined to be a tumor region by the determination of the pathologist, the first training image 70R1 includes a tumor for each region having a predetermined number of pixels to be described later. The same numerical value, for example, “1” is assigned as a label value indicating that the region is included, and the first preliminary training data 70R1L is obtained.

深層学習方法では、図1に示す第1の訓練データ74R1および第1の予備訓練データ70R1Lから腫瘍領域訓練データ75R1を生成する。そして、腫瘍領域訓練データ75R1の各画素の色濃度値データ76(第1の訓練データ74R1から得られる)を入力層50aとし、ラベル値77R1(第1の予備訓練データ70R1Lから得られる)を出力層50bとするニューラルネットワーク50に学習させる。   In the deep learning method, tumor region training data 75R1 is generated from the first training data 74R1 and the first preliminary training data 70R1L shown in FIG. Then, the color density value data 76 (obtained from the first training data 74R1) of each pixel of the tumor region training data 75R1 is used as the input layer 50a, and a label value 77R1 (obtained from the first preliminary training data 70R1L) is output. The neural network 50 as the layer 50b is trained.

次に、図2を用いて、第2の訓練データ74R2、第2の予備訓練データ70R2Lおよび非腫瘍領域訓練データ75R2の概要を説明する。図2において、ホールスライドイメージ70W1、ホールスライドイメージ70W2、およびホールスライドイメージ70W3は図1と同様であるため、第2の訓練用画像70R2には、第1の訓練用画像70R1と同様に複数の色相が含まれる。   Next, the outline of the second training data 74R2, the second preliminary training data 70R2L, and the non-tumor region training data 75R2 will be described with reference to FIG. In FIG. 2, since the hole slide image 70W1, the hole slide image 70W2, and the hole slide image 70W3 are the same as those in FIG. 1, the second training image 70R2 includes a plurality of images similar to the first training image 70R1. Hue is included.

第2の訓練用画像70R2は、腫瘍領域を含む組織に替えて非腫瘍領域含む組織を用いる以外は、第1の訓練用画像70R1と同様の方法で取得される。第2の訓練用画像70R2に対応して、第2の訓練データ74R2が生成される。   The second training image 70R2 is acquired by the same method as the first training image 70R1 except that a tissue including a non-tumor region is used instead of a tissue including a tumor region. Corresponding to the second training image 70R2, second training data 74R2 is generated.

第2の訓練データ74R2は、腫瘍領域を含む組織に替えて非腫瘍領域含む組織を用いる以外は、第1の訓練データ74R1と同様の方法で生成される。図2に示す色濃度符号化図72R2r,72R2g,72R2bから画素毎にR、G、Bの色濃度値が組み合わされた第2の訓練データ74R2が生成される。   The second training data 74R2 is generated in the same manner as the first training data 74R1, except that a tissue including a non-tumor region is used instead of a tissue including a tumor region. Second training data 74R2 in which R, G, and B color density values are combined for each pixel is generated from the color density encoding diagrams 72R2r, 72R2g, and 72R2b shown in FIG.

図2において、第2の予備訓練データ70R2Lは、第2の訓練用画像70R2が、非腫瘍領域を含むことを示すデータである。第2の訓練用画像70R2は全領域が病理医の判定により非腫瘍領域であると判定されているため、第2の訓練用画像70R2には、後述する所定の画素数の領域毎に非腫瘍領域を含むことを示すラベル値として同じ数値、例えば「2」が付され、第2の予備訓練データ70R2Lとなる。非腫瘍領域を含む領域であることを示すラベル値は、腫瘍領域を含む領域および組織を含まない領域を示すラベル値と区別できる限り制限されない。   In FIG. 2, the second preliminary training data 70R2L is data indicating that the second training image 70R2 includes a non-tumor region. Since the entire area of the second training image 70R2 is determined to be a non-tumor area by the determination of the pathologist, the second training image 70R2 includes a non-tumor for each area having a predetermined number of pixels to be described later. The same numerical value, for example, “2” is assigned as the label value indicating that the region is included, and the second preliminary training data 70R2L is obtained. The label value indicating the region including the non-tumor region is not limited as long as it can be distinguished from the label value indicating the region including the tumor region and the region not including the tissue.

深層学習方法では、図2に示す第2の訓練データ74R2および第2の予備訓練データ70R2Lから非腫瘍領域訓練データ75R2を生成する。そして、非腫瘍領域訓練データ75R2の各画素の色濃度値データ76(第2の訓練データ74R2から得られる)を入力層50aとし、ラベル値77R2(第2の予備訓練データ70R2Lから得られる)を出力層50bとするニューラルネットワーク50に学習させる。   In the deep learning method, non-tumor region training data 75R2 is generated from the second training data 74R2 and the second preliminary training data 70R2L shown in FIG. The color density value data 76 (obtained from the second training data 74R2) of each pixel of the non-tumor region training data 75R2 is used as the input layer 50a, and the label value 77R2 (obtained from the second preliminary training data 70R2L) is used. The neural network 50 serving as the output layer 50b is trained.

次に、図3を用いて、第3の訓練データ74R3、第3の予備訓練データ70R3Lおよび非組織領域訓練データ75R3の概要を説明する。図3において、ホールスライドイメージ70W1、ホールスライドイメージ70W2、およびホールスライドイメージ70W3は図1と同様であるため、第3の訓練用画像70R3には、第1の訓練用画像70R1と同様に複数の色相が含まれる。   Next, the outline of the third training data 74R3, the third preliminary training data 70R3L, and the non-tissue region training data 75R3 will be described with reference to FIG. In FIG. 3, since the hole slide image 70W1, the hole slide image 70W2, and the hole slide image 70W3 are the same as those in FIG. 1, the third training image 70R3 includes a plurality of images similar to the first training image 70R1. Hue is included.

第3の訓練用画像70R3は、腫瘍領域を含む領域に替えて組織を含まない領域を用いる以外は、第1の訓練用画像70R1と同様の方法で取得される。第3の訓練用画像70R3に対応して、第3の訓練データ74R3が生成される。   The third training image 70R3 is acquired by the same method as the first training image 70R1 except that a region not including tissue is used instead of a region including a tumor region. Corresponding to the third training image 70R3, third training data 74R3 is generated.

第3の訓練データ74R3は、腫瘍領域を含む領域に替えて組織を含まない領域を用いる以外は、第1の訓練データ74R1と同様の方法で生成される。図3に示す色濃度符号化図72R3r,72R3g,72R3bから画素毎にR、G、Bの色濃度値が組み合わされた第3の訓練データ74R3が生成される。   The third training data 74R3 is generated in the same manner as the first training data 74R1, except that a region not including tissue is used instead of a region including a tumor region. The third training data 74R3 in which R, G, and B color density values are combined for each pixel is generated from the color density encoding diagrams 72R3r, 72R3g, and 72R3b shown in FIG.

図3において、第3の予備訓練データ70R3Lは、第3の訓練用画像70R3に含まれている領域が、組織を含まない領域であることを示すデータである。第3の訓練用画像70R3は全領域が病理医の判定により非組織領域であると判定されているため、第3の訓練用画像70R3には、後述する所定の画素数の領域毎に組織を含まない領域であることを示すラベル値として同じ数値、例えば「0」が付され、第3の予備訓練データ70R3Lとなる。組織を含まない領域であることを示すラベル値は、腫瘍領域を含む領域および非腫瘍領域を含む領域を示す数値とは区別される。   In FIG. 3, the third preliminary training data 70R3L is data indicating that the region included in the third training image 70R3 is a region not including the tissue. Since all the regions of the third training image 70R3 are determined to be non-tissue regions by the pathologist's determination, the third training image 70R3 includes a tissue for each region having a predetermined number of pixels to be described later. The same numerical value, for example, “0” is added as a label value indicating that the region does not include, and the third preliminary training data 70R3L is obtained. A label value indicating that the region does not include a tissue is distinguished from a numerical value indicating a region including a tumor region and a region including a non-tumor region.

深層学習方法では、図3に示す第3の訓練データ74R3および第3の予備訓練データ70R3Lから非組織領域訓練データ75R3を生成するそして、非組織領域訓練データ75R3の各画素の色濃度値データ76(第3の訓練データ74R3から得られる)を入力層50aとし、ラベル値77R3(第3の予備訓練データ70R3Lから得られる)を出力層50bとするニューラルネットワーク50に学習させる。   In the deep learning method, the non-tissue region training data 75R3 is generated from the third training data 74R3 and the third preliminary training data 70R3L shown in FIG. 3, and the color density value data 76 of each pixel of the non-tissue region training data 75R3. The neural network 50 having the input layer 50a as the input layer 50a (obtained from the third training data 74R3) and the output layer 50b as the label value 77R3 (obtained from the third preliminary training data 70R3L) is trained.

図4(a)、(b)を参照して、腫瘍領域訓練データ75R1の生成方法を説明する。図4(a)に示す第1の訓練データ74R1は、所定の画素数の腫瘍領域の色濃度符号化図72R1r,72R1g,72R1bのそれぞれの色濃度値を組み合わせたデータである。本明細書において、第1の訓練データ74R1の各画素の位置は、便宜上列を左からl、l・・・li、行を上からm、m・・・mで表す。第1の訓練データ74R1は、図4(a)では、その画像サイズ(訓練データ1つあたりの大きさ)が説明の便宜のために簡素化されており、第1の訓練データ74R1が、縦方向9画素および横方向9画素の合計81画素を有する。すなわち、各画素の位置は、列を左からl、l・・・l、行を上からm、m・・・mで表す。図4(a)に示す3つの値が、各画素におけるR、G、B各色の色濃度値である。例示的には、3つの値は、左から、赤(R)、緑(G)および青(B)の順序で格納されている。第1の訓練データ74R1の各画素の色濃度値は便宜的に値0から値7の8段階で示されている。これは、画像の前処理の一例として、撮像された際に256段階で表されている各色の画像72R1R,72R1G,72R1Bの明るさを、8段階の色濃度値にそれぞれ変換する処理である。色濃度値は、例えば最も低い明るさ(RGBカラー256段階で表した時の輝度値が低い階調群)を色濃度値0とし、明るさの程度が高くなるに従い徐々に高い値を割り当ててゆき、最も高い明るさ(RGBカラー256段階で表した時の輝度値が高い階調群)を色濃度値7とする。 With reference to FIG. 4 (a), (b), the production | generation method of the tumor area | region training data 75R1 is demonstrated. The first training data 74R1 shown in FIG. 4A is data obtained by combining the color density values of the color density encoding diagrams 72R1r, 72R1g, and 72R1b of the tumor region having a predetermined number of pixels. In this specification, the position of each pixel of the first training data 74R1 is represented by m 1, m 2 ··· m j from above for convenience l 1 columns from the left, l 2 · · · l i, the line . In FIG. 4A, the first training data 74R1 has its image size (size per one training data) simplified for convenience of explanation, and the first training data 74R1 is It has a total of 81 pixels, 9 pixels in the direction and 9 pixels in the horizontal direction. That is, the position of each pixel represents l 1 columns from the left, l 2 · · · l 9, from the top row in m 1, m 2 ··· m 9 . The three values shown in FIG. 4A are the color density values of the R, G, and B colors in each pixel. Illustratively, the three values are stored in the order of red (R), green (G) and blue (B) from the left. For convenience, the color density value of each pixel in the first training data 74R1 is shown in 8 levels from 0 to 7. As an example of image pre-processing, the brightness of each color image 72R1R, 72R1G, 72R1B represented in 256 levels when captured is converted into 8-level color density values. As the color density value, for example, the lowest brightness (a gradation group having a low brightness value when expressed in 256 colors of RGB color) is set to a color density value 0, and a gradually higher value is assigned as the degree of brightness increases. Then, the highest brightness (a gradation group having a high luminance value when expressed in 256 steps of RGB color) is set as a color density value 7.

図1および図4(b)に示す腫瘍領域訓練データ75R1は、図4(a)に示す第1の訓練データ74R1を所定数の画素からなる領域(以下、「ウィンドウサイズ」と記載する)で切り出したデータに第1の予備訓練データ70R1Lのラベル値に対応するラベル値77R1を付したものである。ウィンドウサイズの腫瘍領域訓練データ75R1も、説明の便宜のために3×3画素(l:l,m:m)に簡素化して示すが、各画素の位置は、便宜上列を左からl、l・・・li、行を上からm、m・・・mで表す。実際の好ましいウィンドウサイズは、例示的には125×125画素(i=125、j=125)、150×150画素(i=150、j=150)、166×166画素(i=166、j=166)、180×180画素(i=180、j=180)、200×200画素(i=200、j=200)、220×220画素(i=220、j=220)、250×250画素(i=250、j=250)程度が、学習効率の点から好ましい。より好ましくは、ウィンドウサイズは200×200画素程度である。ウィンドウサイズは、たとえば60μm×60μm以上500μm×500μm以下の範囲である。好ましくは、60μm×60μm、100μm×100μm、150μm×150μm、200μm×200μm、250μm×250μm、300μm×300μm、350μm×350μm、400μm×400μm、450μm×450μm、500μm×500μmである。より好ましくは、200μm×200μm〜400μm×400μmである。例えば、図4(b)に示すように、第1の訓練データ74R1の左端から3×3画素のウィンドウW1(l:l,m:m)を設定し、第1の訓練データ74R1に対して左から右にウィンドウW1を移動させる。ウィンドウW1は(l:l,m:m)の腫瘍領域訓練データ75R1を切り出した後、第1の予備訓練データ70R1Lのラベル値に対応するラベル値77R1を腫瘍領域訓練データ75R1に付す。ウィンドウW1は点線で示す腫瘍領域訓練データ74R1の次のウィンドウ(l:l,m:m)に移動し、(l:l,m:m)をウィンドウサイズの腫瘍領域訓練データ75R1として切り出す。新たに切り出された腫瘍領域訓練データ75R1に第1の予備訓練データ70R1Lのラベル値に対応するラベル値77R1を付す。この操作を、繰り返し、複数のウィンドウサイズの腫瘍領域訓練データ75R1を第1の訓練データ74R1から切り出す。切り出したウィンドウサイズの腫瘍領域訓練データ75R1は第1の予備訓練データ70R1Lのラベル値に対応するラベル値77R1が付され図1に示すニューラルネットワーク50の学習に用いられる。 The tumor area training data 75R1 shown in FIG. 1 and FIG. 4 (b) is an area (hereinafter referred to as “window size”) composed of a predetermined number of pixels from the first training data 74R1 shown in FIG. 4 (a). The cut out data is attached with a label value 77R1 corresponding to the label value of the first preliminary training data 70R1L. The window-sized tumor region training data 75R1 is also shown in a simplified form of 3 × 3 pixels (l 1 : l 3 , m 1 : m 3 ) for convenience of explanation. from represented by l 1, l 2 ··· l i , m 1 from the top row, m 2 ··· m j. The actual preferred window size is illustratively 125 × 125 pixels (i = 125, j = 125), 150 × 150 pixels (i = 150, j = 150), 166 × 166 pixels (i = 166, j = 166), 180 × 180 pixels (i = 180, j = 180), 200 × 200 pixels (i = 200, j = 200), 220 × 220 pixels (i = 220, j = 220), 250 × 250 pixels ( i = 250, j = 250) is preferable from the viewpoint of learning efficiency. More preferably, the window size is about 200 × 200 pixels. The window size is, for example, in a range of 60 μm × 60 μm to 500 μm × 500 μm. Preferably, they are 60 micrometers x 60 micrometers, 100 micrometers x 100 micrometers, 150 micrometers x 150 micrometers, 200 micrometers x 200 micrometers, 250 micrometers x 250 micrometers, 300 micrometers x 300 micrometers, 350 micrometers x 350 micrometers, 400 micrometers x 400 micrometers, 450 micrometers x 450 micrometers, 500 micrometers x 500 micrometers. More preferably, they are 200 micrometers x 200 micrometers-400 micrometers x 400 micrometers. For example, as shown in FIG. 4B, a window W1 (l 1 : l 3 , m 1 : m 3 ) of 3 × 3 pixels is set from the left end of the first training data 74R1, and the first training data The window W1 is moved from left to right with respect to 74R1. The window W1 cuts out the tumor region training data 75R1 of (l 1 : l 3 , m 1 : m 3 ), and then converts the label value 77R1 corresponding to the label value of the first preliminary training data 70R1L to the tumor region training data 75R1. Attached. The window W1 moves to the next window (l 4 : l 6 , m 4 : m 6 ) of the tumor area training data 74R1 indicated by a dotted line, and (l 4 : l 6 , m 4 : m 6 ) is a window size tumor. Cut out as area training data 75R1. A label value 77R1 corresponding to the label value of the first preliminary training data 70R1L is attached to the newly cut out tumor region training data 75R1. This operation is repeated to cut out tumor region training data 75R1 having a plurality of window sizes from the first training data 74R1. The extracted tumor region training data 75R1 of the window size is assigned a label value 77R1 corresponding to the label value of the first preliminary training data 70R1L, and is used for learning of the neural network 50 shown in FIG.

図1に示すように、ニューラルネットワーク50の入力層50aのノード数は、入力されるウィンドウサイズの腫瘍領域訓練データ75R1の画素数と画像に含まれる原色の数(例えば光の三原色であれば、R、G、Bの3つ)との積に対応している。ウィンドウサイズの腫瘍領域訓練データ75R1の各画素の色濃度値データ76をニューラルネットワークの入力層50aとし、第1の予備訓練データ70R1Lに対応するラベル値77R1をニューラルネットワークの出力層50bとして、ニューラルネットワーク50に学習させる。各画素の色濃度値データ76は、腫瘍領域訓練データ75R1の各画素のR、G、B各色の色濃度値の集合データである。例示として、ウィンドウサイズの腫瘍領域訓練データ75R1が3×3画素である場合には、各画素についてR、G、B毎に1つずつの色濃度値が与えられるので、色濃度値データ76の色濃度値数は「27」(3×3×3=27)となり、ニューラルネットワーク50の入力層50aのノード数も「27」となる。   As shown in FIG. 1, the number of nodes of the input layer 50a of the neural network 50 is the number of pixels of the tumor area training data 75R1 of the input window size and the number of primary colors included in the image (for example, the three primary colors of light, R, G, and B). The color density value data 76 of each pixel of the tumor area training data 75R1 of the window size is used as the neural network input layer 50a, and the label value 77R1 corresponding to the first preliminary training data 70R1L is used as the neural network output layer 50b. Let 50 learn. The color density value data 76 of each pixel is set data of color density values of R, G, and B colors of each pixel of the tumor region training data 75R1. For example, if the window size tumor region training data 75R1 is 3 × 3 pixels, one color density value is given for each of R, G, and B for each pixel. The number of color density values is “27” (3 × 3 × 3 = 27), and the number of nodes in the input layer 50a of the neural network 50 is also “27”.

このように、ニューラルネットワーク50に入力するウィンドウサイズの腫瘍領域訓練データ75R1は、ユーザが作成することなく、コンピュータが自動的に作成することができる。これにより、ニューラルネットワーク50の効率的な深層学習が促進される。   In this way, the window-sized tumor region training data 75R1 input to the neural network 50 can be automatically created by the computer without being created by the user. Thereby, efficient deep learning of the neural network 50 is promoted.

図4(b)に示すように、初期状態において、ウィンドウW1は、第1の訓練データ74R1の左上角に位置している。以後、ウィンドウW1によってウィンドウサイズの腫瘍領域訓練データ75R1を切り出し、ニューラルネットワーク50の学習を行う度に、ウィンドウW1の位置を移動させる。具体的には、ウィンドウW1が第1の訓練データ74R1の例えば全ての画素を走査するように、ウィンドウW1を移動させる。これにより、第1の訓練データ74R1の全ての画素から切り出されたウィンドウサイズの腫瘍領域訓練データ75R1が、ニューラルネットワーク50の学習に用いられる。よってニューラルネットワーク50の学習の程度を向上でき、深層学習の結果、図6に示すニューラルネットワーク60構造を有する深層学習アルゴリズムが得られる。   As shown in FIG. 4B, in the initial state, the window W1 is located at the upper left corner of the first training data 74R1. Thereafter, the window-sized tumor region training data 75R1 is cut out by the window W1, and the position of the window W1 is moved each time the neural network 50 is learned. Specifically, the window W1 is moved so that the window W1 scans, for example, all the pixels of the first training data 74R1. Thereby, the tumor area training data 75R1 having a window size cut out from all the pixels of the first training data 74R1 is used for learning of the neural network 50. Therefore, the degree of learning of the neural network 50 can be improved, and as a result of deep learning, a deep learning algorithm having the structure of the neural network 60 shown in FIG. 6 is obtained.

図5(a)には、第2の訓練データ74R2を示す。第2の訓練データ74R2から非腫瘍領域訓練データ75R2を生成する方法は、第1の訓練データ74R1および第1の予備訓練データ70R1Lに替えて、第2の訓練データ74R2および第2の予備訓練データ70R2Lを使用する点を除き、腫瘍領域訓練データ75R1と同様である。非腫瘍領域訓練データ75R2に付される第2の予備訓練データ70R2Lのラベル値に対応するラベル値77R2が、図2に示す出力層50bに入力される。   FIG. 5A shows the second training data 74R2. The method of generating the non-tumor region training data 75R2 from the second training data 74R2 replaces the first training data 74R1 and the first preliminary training data 70R1L with the second training data 74R2 and the second preliminary training data. Similar to the tumor area training data 75R1, except that 70R2L is used. A label value 77R2 corresponding to the label value of the second preliminary training data 70R2L attached to the non-tumor region training data 75R2 is input to the output layer 50b shown in FIG.

図5(b)には、第3の訓練データ74R3を示す。第3の訓練データ74R3から非組織領域訓練データ75R3を生成する方法は、第1の訓練データ74R1および第1の予備訓練データ70R1Lに替えて、第3の訓練データ74R3および第3の予備訓練データ70R3Lを使用する点を除き、腫瘍領域訓練データ75R1と同様である。非組織領域訓練データ75R3に付される第3の予備訓練データ70R3Lのラベル値に対応するラベル値77R3が、図3に示す出力層50bに入力される。   FIG. 5B shows the third training data 74R3. The method for generating the non-tissue region training data 75R3 from the third training data 74R3 replaces the first training data 74R1 and the first preliminary training data 70R1L with the third training data 74R3 and the third preliminary training data. Similar to the tumor area training data 75R1, except that 70R3L is used. A label value 77R3 corresponding to the label value of the third preliminary training data 70R3L attached to the non-tissue region training data 75R3 is input to the output layer 50b shown in FIG.

各領域訓練データは、10枚以上、20枚以上、50枚以上、100枚以上の各領域の訓練用画像を使って生成することが好ましい。   Each area training data is preferably generated using 10 or more, 20 or more, 50 or more, or 100 or more areas of training images.

・画像解析方法の概要 図6に示すように、画像解析方法では、解析対象の組織を含む標本を撮像した解析対象画像(明視野画像)78から、解析用データ80を生成する。前記標本は、第1の訓練用画像と同じ染色が施されていることが好ましい。解析対象画像78も、例えば公知の顕微鏡またはバーチャルスライドスキャナ等を用いて、例えばカラー画像として取得することができる。解析対象画像78は、訓練用画像と同程度または同じ拡大倍率で取得されることが好ましい。解析対象画像(明視野画像)78は、1以上の原色を含む画像であればよい。カラーの解析対象画像78を、各画素についてR、G、B各色の色濃度値で符号化すると、画像全体をR、G、B毎に各画素における色濃度値の符号化図として表すことができる(解析用色濃度符号化図79r,79g,79b)。解析用色濃度符号化図79r,79g,79bから画素毎にR、G、Bの色濃度値が組み合わされた解析対象データ(図示せず)が生成される。図6に例示的に示すR、G、B各色の単一色画像における色濃度の符号を示す色濃度符号化図79r,79g,79bは、3原色の各画像79R,79G,79Bに代えて、値0から値7の8段階の符号で表された色濃度値を表示している。本明細書において、解析対象データの各画素の位置は、便宜上列を左からl、l・・・li、行を上からm、m・・・mで表す。 Outline of Image Analysis Method As shown in FIG. 6, in the image analysis method, analysis data 80 is generated from an analysis target image (bright field image) 78 obtained by imaging a sample including a tissue to be analyzed. The specimen is preferably stained the same as the first training image. The analysis target image 78 can also be acquired as, for example, a color image using, for example, a known microscope or virtual slide scanner. The analysis target image 78 is preferably acquired at the same magnification or the same magnification as the training image. The analysis target image (bright field image) 78 may be an image including one or more primary colors. When the color analysis target image 78 is encoded with the color density values of the R, G, and B colors for each pixel, the entire image can be represented as an encoded diagram of the color density values for each pixel for each of R, G, and B. (Analysis color density coding diagram 79r, 79g, 79b). Analysis object data (not shown) in which R, G, and B color density values are combined for each pixel is generated from the analysis color density encoding diagrams 79r, 79g, and 79b. Color density encoding diagrams 79r, 79g, and 79b showing the color density codes in the single color images of R, G, and B shown in FIG. 6 exemplarily, instead of the images 79R, 79G, and 79B of the three primary colors, A color density value represented by a code of 8 levels from 0 to 7 is displayed. In this specification, the position of each pixel of the analysis target data represents for convenience columns from left l 1, l 2 ··· l i , m 1 from the top row, m 2 ··· m j.

解析用データ80は、解析対象データを所定の画素数の領域(すなわち、上記各領域訓練データと同じウィンドウサイズ)で切り出したデータであり、解析対象画像78に含まれている組織の色濃度値を含むデータである。図6では、ウィンドウサイズの解析用データ80も、腫瘍領域訓練データ75R1、非腫瘍領域訓練データ75R2および非組織領域訓練データ75R3と同様に、説明の便宜のために3×3画素に簡素化して示すが、実際の好ましいウィンドウサイズは、腫瘍領域訓練データ75R1、非腫瘍領域訓練データ75R2および非組織領域訓練データ75R3と同様である。例えば、3×3画素のウィンドウW2を設定し、解析対象データに対してウィンドウW2を移動させる。ウィンドウW2は、解析対象データ中の所定数の画素を含んでおり、解析対象データを、各領域訓練データと同様の方法で例えば3×3画素の黒枠で示すウィンドウW2によって切り出すと、ウィンドウサイズの解析用データ80が得られる。各領域訓練データと同様の方法で、複数の解析用データ80が、解析対象データから、ウィンドウサイズに対応する所定の画素数の領域毎に生成される。解析対象データ、ウィンドウサイズの解析用データ80においても、腫瘍領域訓練データ75R1、非腫瘍領域訓練データ75R2および非組織領域訓練データ75R3と同様に、各画素について、色濃度値が赤(R)、緑(G)および青(B)の順序で格納されている。   The analysis data 80 is data obtained by cutting out the analysis target data in an area of a predetermined number of pixels (that is, the same window size as each area training data), and the tissue color density value included in the analysis target image 78. It is data including. In FIG. 6, the window size analysis data 80 is also simplified to 3 × 3 pixels for convenience of explanation, similarly to the tumor region training data 75R1, the non-tumor region training data 75R2, and the non-tissue region training data 75R3. Although shown, the actual preferred window size is similar to the tumor area training data 75R1, non-tumor area training data 75R2, and non-tissue area training data 75R3. For example, a 3 × 3 pixel window W2 is set, and the window W2 is moved with respect to the analysis target data. The window W2 includes a predetermined number of pixels in the analysis target data. When the analysis target data is cut out by the window W2 indicated by, for example, a 3 × 3 pixel black frame in the same manner as each region training data, the window size Analysis data 80 is obtained. In the same manner as each area training data, a plurality of analysis data 80 is generated for each area having a predetermined number of pixels corresponding to the window size from the analysis target data. Similarly to the tumor area training data 75R1, the non-tumor area training data 75R2, and the non-tissue area training data 75R3 in the analysis target data and window size analysis data 80, the color density value is red (R) for each pixel. They are stored in the order of green (G) and blue (B).

画像解析方法では、図1から図3に示すウィンドウサイズの腫瘍領域訓練データ75R1、非腫瘍領域訓練データ75R2および非組織領域訓練データ75R3を用いて学習させたニューラルネットワークを有する深層学習アルゴリズム60を用いて、解析用データ80を処理する。解析用データ80を処理することによって、解析対象の組織における解析用データに含まれる領域が腫瘍領域であるか否かを示すデータ83を生成する。   The image analysis method uses a deep learning algorithm 60 having a neural network trained using the window size tumor region training data 75R1, non-tumor region training data 75R2 and non-tissue region training data 75R3 shown in FIGS. Then, the analysis data 80 is processed. By processing the analysis data 80, data 83 indicating whether or not the region included in the analysis data in the analysis target tissue is a tumor region is generated.

再び図6を参照し、R、G、B各色の色濃度符号化図79r,79g,79bに基づき生成された解析対象データから切り出された解析用データ80が深層学習アルゴリズムを構成するニューラルネットワーク60に入力される。ニューラルネットワーク60の入力層60aのノード数は、入力される画素数と画像に含まれる原色の数との積に対応している。解析用データ80の各画素の色濃度値データ81を、ニューラルネットワーク60に入力すると、出力層60bからは、解析用データ80の推定値82(3値)が出力される。例えば推定値が1の場合は解析用データ80を構成する所定画素数の領域(画素領域)が腫瘍領域を含むことを示し、推定値が2の場合は前記画素領域が非腫瘍領域を含むことを示し、推定値が0の場合は前記画素領域が非組織領域であることを示す。すなわち、ニューラルネットワーク60の出力層60bから出力される推定値82は、解析対象画像の前記画素領域毎に生成されるラベル値であり、解析対象画像における解析用データに含まれる領域が腫瘍領域であるか否かを示すデータである。推定値82は、ニューラルネットワークに関する後述する説明ではクラスとも呼ばれる。ニューラルネットワーク60は、入力された解析用データ80に対し、解析用データ80に含まれる所定数の画素の色濃度値データ81に基づいて、腫瘍領域を含むことを示すラベル値、非腫瘍領域を含むことを示すラベル値、または非組織領域を示すラベル値を生成する。言い替えると、ニューラルネットワーク60は、解析用データ80を、解析対象画像に含まれる注目画素領域の状態(腫瘍化しているか、腫瘍化していないか、組織ではないか)を示すクラスに分類する。ここで、各画素の色濃度値データ81は、解析用データ80の各画素のR、G、B各色の色濃度値の集合データである。   Referring to FIG. 6 again, the neural network 60 in which the analysis data 80 cut out from the analysis target data generated based on the color density encoding diagrams 79r, 79g, and 79b of the R, G, and B colors constitutes the deep learning algorithm. Is input. The number of nodes in the input layer 60a of the neural network 60 corresponds to the product of the number of input pixels and the number of primary colors included in the image. When the color density value data 81 of each pixel of the analysis data 80 is input to the neural network 60, an estimated value 82 (three values) of the analysis data 80 is output from the output layer 60b. For example, when the estimated value is 1, it indicates that the region (pixel region) having a predetermined number of pixels constituting the analysis data 80 includes a tumor region, and when the estimated value is 2, the pixel region includes a non-tumor region. When the estimated value is 0, it indicates that the pixel area is a non-tissue area. That is, the estimated value 82 output from the output layer 60b of the neural network 60 is a label value generated for each pixel region of the analysis target image, and the region included in the analysis data in the analysis target image is a tumor region. It is data indicating whether or not there is. The estimated value 82 is also referred to as a class in the following description regarding the neural network. Based on the color density value data 81 of a predetermined number of pixels included in the analysis data 80, the neural network 60 generates a label value indicating that the tumor area is included, and a non-tumor region from the input analysis data 80. A label value indicating inclusion or a label value indicating a non-tissue region is generated. In other words, the neural network 60 classifies the analysis data 80 into a class indicating the state of the pixel region of interest included in the analysis target image (whether it is tumorized, not tumorized, or not tissue). Here, the color density value data 81 of each pixel is set data of color density values of R, G, and B colors of each pixel of the analysis data 80.

以後、ウィンドウW2が解析対象データの全ての画素を走査するように、ウィンドウW2を所定画素数の領域単位で移動させながら、解析用データ80をウィンドウサイズで切り出す。切り出された解析用データ80を、ニューラルネットワーク60に入力する。これにより、解析対象画像における組織の解析用データに含まれる領域が腫瘍領域であるか否かを示すデータに基づいて、ラベル値83を得る。図6に示す例では、ラベル値83についてさらに領域検出処理を行うことにより、領域を示す領域強調画像84を得る。領域検出処理は、具体的には、例えば推定値82に応じて各領域を検出する処理となり、実際に推定値82が「1」の画素領域を腫瘍領域と、推定値82が「2」の画素領域を非腫瘍領域と、推定値82が0の画素領域を非組織領域と判別する処理となる。領域強調画像84は、画像解析処理により検出された領域を、ラベル値83を色(腫瘍領域を白、非腫瘍領域をグレー、非組織領域を黒)で表した図である)。また、各領域を判別した後に、腫瘍領域と、それ以外の領域(すなわち、非腫瘍領域および/又は非組織領域)とを識別可能に表示装置に表示させる処理を行ってもよい。例えば、腫瘍領域を色で塗りつぶす、腫瘍領域とそれ以外の領域との間に線を描画する等の処理を行い、これらを表示装置に識別可能に表示する。また、非腫瘍領域および/又は非組織領域についても識別可能に表示装置に表示させる処理を行ってもよい。   Thereafter, the analysis data 80 is cut out by the window size while moving the window W2 in units of a predetermined number of pixels so that the window W2 scans all the pixels of the analysis target data. The extracted analysis data 80 is input to the neural network 60. Thereby, the label value 83 is obtained based on the data indicating whether or not the region included in the tissue analysis data in the analysis target image is a tumor region. In the example illustrated in FIG. 6, a region enhancement image 84 indicating a region is obtained by performing region detection processing on the label value 83. Specifically, the area detection process is, for example, a process of detecting each area in accordance with the estimated value 82. A pixel area with an estimated value 82 of “1” is actually a tumor area, and an estimated value 82 of “2”. The pixel area is determined as a non-tumor area, and the pixel area whose estimated value 82 is 0 is determined as a non-tissue area. The region-enhanced image 84 is a diagram in which the region detected by the image analysis process is represented by the label value 83 in color (tumor region is white, non-tumor region is gray, and non-tissue region is black). In addition, after each region is identified, a process of causing the display device to display a tumor region and other regions (that is, a non-tumor region and / or a non-tissue region) in a distinguishable manner may be performed. For example, processing such as painting the tumor region with a color, drawing a line between the tumor region and the other region, and the like are displayed on the display device in an identifiable manner. Moreover, you may perform the process which displays on a display device also about a non-tumor area | region and / or a non-tissue area | region so that identification is possible.

<第1の実施形態>
第1の実施形態では、上述の概要で説明した深層学習方法および画像解析方法を実施するシステムの構成について、具体的に説明する。
[構成の概要]
<First Embodiment>
In the first embodiment, the configuration of a system that implements the deep learning method and the image analysis method described in the above outline will be specifically described.
[Configuration overview]

図7を参照すると、第1の実施形態に係る画像解析システムは、深層学習装置100Aと、画像解析装置200Aとを備える。ベンダ側装置100は深層学習装置100Aとして動作し、ユーザ側装置200は画像解析装置200Aとして動作する。深層学習装置100Aは、ニューラルネットワーク50に訓練データを使って学習させ、訓練データによって訓練された深層学習アルゴリズム60をユーザに提供する。学習済みのニューラルネットワーク60から構成される深層学習アルゴリズムは、記憶媒体98またはネットワーク99を通じて、深層学習装置100Aから画像解析装置200Aに提供される。画像解析装置200Aは、学習済みのニューラルネットワーク60から構成される深層学習アルゴリズムを用いて解析対象の画像の解析を行う。   Referring to FIG. 7, the image analysis system according to the first embodiment includes a deep learning device 100A and an image analysis device 200A. The vendor-side device 100 operates as the deep learning device 100A, and the user-side device 200 operates as the image analysis device 200A. The deep learning device 100A causes the neural network 50 to learn using the training data, and provides the user with a deep learning algorithm 60 trained with the training data. The deep learning algorithm composed of the learned neural network 60 is provided from the deep learning device 100A to the image analysis device 200A through the storage medium 98 or the network 99. The image analysis apparatus 200 </ b> A analyzes an image to be analyzed using a deep learning algorithm composed of the learned neural network 60.

深層学習装置100Aは、例えば汎用コンピュータで構成されており、後述するフローチャートに基づいて、深層学習処理を行う。画像解析装置200Aは、例えば汎用コンピュータで構成されており、後述するフローチャートに基づいて、画像解析処理を行う。記憶媒体98は、例えばDVD−ROMやUSBメモリ等の、コンピュータ読み取り可能であって非一時的な有形の記憶媒体である。   The deep learning device 100A is configured by, for example, a general-purpose computer, and performs deep learning processing based on a flowchart described later. The image analysis apparatus 200A is configured by, for example, a general-purpose computer, and performs image analysis processing based on a flowchart described later. The storage medium 98 is a non-temporary tangible storage medium that can be read by a computer, such as a DVD-ROM or a USB memory.

深層学習装置100Aは撮像装置300に接続されている。撮像装置300は、撮像素子301と、蛍光顕微鏡302とを備え、ステージ309上にセットされた学習用の標本308の、明視野画像および蛍光画像を撮像する。学習用の標本308は、上述の染色が施されている。深層学習装置100Aは、撮像装置300によって撮像された訓練用画像を取得する。   The deep learning device 100A is connected to the imaging device 300. The imaging apparatus 300 includes an imaging element 301 and a fluorescence microscope 302, and captures a bright field image and a fluorescence image of a learning sample 308 set on the stage 309. The learning specimen 308 is stained as described above. The deep learning device 100 </ b> A acquires the training image captured by the imaging device 300.

画像解析装置200Aは撮像装置400に接続されている。撮像装置400は、撮像素子401と、蛍光顕微鏡402とを備え、ステージ409上にセットされた解析対象の標本408の、明視野画像を撮像する。解析対象の標本408は、上述の通り予め染色されている。画像解析装置200Aは、撮像装置400によって撮像された解析対象画像78を取得する。   The image analysis device 200A is connected to the imaging device 400. The imaging apparatus 400 includes an imaging element 401 and a fluorescence microscope 402, and captures a bright field image of the specimen 408 to be analyzed set on the stage 409. The specimen 408 to be analyzed is pre-stained as described above. The image analysis device 200 </ b> A acquires the analysis target image 78 captured by the imaging device 400.

撮像装置300,400には、標本を撮像する機能を有する、公知の蛍光顕微鏡またはバーチャルスライドスキャナ等を用いることができる。撮像装置400は、標本を撮像する機能を有する限り、光学顕微鏡であっても良い。   As the imaging devices 300 and 400, a known fluorescence microscope or virtual slide scanner having a function of imaging a specimen can be used. The imaging apparatus 400 may be an optical microscope as long as it has a function of imaging a specimen.

[ハードウェア構成]
図8を参照すると、ベンダ側装置100(100A,100B)は、処理部10(10A,10B)と、入力部16と、出力部17とを備える。
[Hardware configuration]
Referring to FIG. 8, the vendor-side device 100 (100A, 100B) includes a processing unit 10 (10A, 10B), an input unit 16, and an output unit 17.

処理部10は、後述するデータ処理を行うCPU(Central Processing Unit)11と、データ処理の作業領域に使用するメモリ12と、後述するプログラムおよび処理データを記憶する記憶部13と、各部の間でデータを伝送するバス14と、外部機器とのデータの入出力を行うインタフェース部15と、GPU(Graphics Processing Unit)19とを備えている。入力部16および出力部17は、処理部10に接続されている。例示的には、入力部16はキーボードまたはマウス等の入力装置であり、出力部17は液晶ディスプレイ等の表示装置である。GPU19は、CPU11が行う演算処理(例えば、並列演算処理)を補助するアクセラレータとして機能する。すなわち以下の説明においてCPU11が行う処理とは、CPU11がGPU19をアクセラレータとして用いて行う処理も含むことを意味する。   The processing unit 10 includes a CPU (Central Processing Unit) 11 that performs data processing, which will be described later, a memory 12 that is used as a data processing work area, a storage unit 13 that stores programs and processing data, which will be described later, and each unit. A bus 14 for transmitting data, an interface unit 15 for inputting / outputting data to / from an external device, and a GPU (Graphics Processing Unit) 19 are provided. The input unit 16 and the output unit 17 are connected to the processing unit 10. Illustratively, the input unit 16 is an input device such as a keyboard or a mouse, and the output unit 17 is a display device such as a liquid crystal display. The GPU 19 functions as an accelerator that assists arithmetic processing (for example, parallel arithmetic processing) performed by the CPU 11. That is, in the following description, the process performed by the CPU 11 means that the process performed by the CPU 11 using the GPU 19 as an accelerator is included.

また、処理部10は、以下の図10で説明する各ステップの処理を行うために、本発明に係るプログラムおよび学習前のニューラルネットワーク50を、例えば実行形式で記憶部13に予め記憶している。実行形式は、例えばプログラミング言語からコンパイラにより変換されて生成される形式である。処理部10は、記憶部13に記憶したプログラムおよび学習前のニューラルネットワーク50を使用して処理を行う。   Further, the processing unit 10 stores in advance the program according to the present invention and the neural network 50 before learning in the storage unit 13 in an execution format, for example, in order to perform the processing of each step described in FIG. 10 below. . The execution format is, for example, a format generated by being converted from a programming language by a compiler. The processing unit 10 performs processing using the program stored in the storage unit 13 and the neural network 50 before learning.

以下の説明においては、特に断らない限り、処理部10が行う処理は、記憶部13またはメモリ12に格納されたプログラムおよびニューラルネットワーク50に基づいて、CPU11が行う処理を意味する。CPU11はメモリ12を作業領域として必要なデータ(処理途中の中間データ等)を一時記憶し、記憶部13に演算結果等の長期保存するデータを適宜記憶する。   In the following description, unless otherwise specified, the processing performed by the processing unit 10 means processing performed by the CPU 11 based on the program stored in the storage unit 13 or the memory 12 and the neural network 50. The CPU 11 temporarily stores necessary data (such as intermediate data during processing) using the memory 12 as a work area, and appropriately stores data to be stored for a long period of time, such as calculation results, in the storage unit 13.

図9を参照すると、ユーザ側装置200(200A,200B,200C)は、処理部20(20A,20B,20C)と、入力部26と、出力部27とを備える。   Referring to FIG. 9, the user device 200 (200A, 200B, 200C) includes a processing unit 20 (20A, 20B, 20C), an input unit 26, and an output unit 27.

処理部20は、後述するデータ処理を行うCPU(Central Processing Unit)21と、データ処理の作業領域に使用するメモリ22と、後述するプログラムおよび処理データを記憶する記憶部23と、各部の間でデータを伝送するバス24と、外部機器とのデータの入出力を行うインタフェース部25と、GPU(Graphics Processing Unit)29とを備えている。入力部26および出力部27は、処理部20に接続されている。例示的には、入力部26はキーボードまたはマウス等の入力装置であり、出力部27は液晶ディスプレイ等の表示装置である。GPU29は、CPU21が行う演算処理(例えば、並列演算処理)を補助するアクセラレータとして機能する。すなわち以下の説明においてCPU21が行う処理とは、CPU21がGPU29をアクセラレータとして用いて行う処理も含むことを意味する。   The processing unit 20 includes a CPU (Central Processing Unit) 21 that performs data processing (to be described later), a memory 22 that is used as a data processing work area, a storage unit 23 that stores programs and processing data (to be described later), and each unit. A bus 24 for transmitting data, an interface unit 25 for inputting / outputting data to / from an external device, and a GPU (Graphics Processing Unit) 29 are provided. The input unit 26 and the output unit 27 are connected to the processing unit 20. Illustratively, the input unit 26 is an input device such as a keyboard or a mouse, and the output unit 27 is a display device such as a liquid crystal display. The GPU 29 functions as an accelerator that assists arithmetic processing (for example, parallel arithmetic processing) performed by the CPU 21. That is, in the following description, the processing performed by the CPU 21 means that the processing performed by the CPU 21 using the GPU 29 as an accelerator is included.

また、処理部20は、以下の図14で説明する各ステップの処理を行うために、本発明に係るプログラムおよび学習済みのニューラルネットワーク構造の深層学習アルゴリズム60を、例えば実行形式で記憶部23に予め記憶している。実行形式は、例えばプログラミング言語からコンパイラにより変換されて生成される形式である。処理部20は、記憶部23に記憶したプログラムおよび深層学習アルゴリズム60を使用して処理を行う。   Further, the processing unit 20 stores the program according to the present invention and the learned deep learning algorithm 60 of the neural network structure in the storage unit 23 in an execution format, for example, in order to perform the processing of each step described in FIG. 14 below. Pre-stored. The execution format is, for example, a format generated by being converted from a programming language by a compiler. The processing unit 20 performs processing using the program stored in the storage unit 23 and the deep learning algorithm 60.

以下の説明においては、特に断らない限り、処理部20が行う処理は、記憶部23またはメモリ22に格納されたプログラムおよび深層学習アルゴリズム60に基づいて、実際には処理部20のCPU21が行う処理を意味する。CPU21はメモリ22を作業領域として必要なデータ(処理途中の中間データ等)を一時記憶し、記憶部23に演算結果等の長期保存するデータを適宜記憶する。
[機能ブロックおよび処理手順]
・深層学習処理
In the following description, unless otherwise specified, the processing performed by the processing unit 20 is actually performed by the CPU 21 of the processing unit 20 based on the program stored in the storage unit 23 or the memory 22 and the deep learning algorithm 60. Means. The CPU 21 temporarily stores necessary data (such as intermediate data during processing) using the memory 22 as a work area, and appropriately stores long-term data such as calculation results in the storage unit 23.
[Function blocks and processing procedures]
・ Deep learning processing

図10を参照すると、第1の実施形態に係る深層学習装置100Aの処理部10Aは、訓練データ生成部101と、訓練データ入力部102と、アルゴリズム更新部103とを備える。これらの機能ブロックは、コンピュータに深層学習処理を実行させるプログラムを、処理部10Aの記憶部13またはメモリ12にインストールし、このプログラムをCPU11が実行することにより実現される。ウィンドウサイズデータベース104と、アルゴリズムデータベース105とは、処理部10Aの記憶部13またはメモリ12に記憶される。   Referring to FIG. 10, the processing unit 10A of the deep learning device 100A according to the first embodiment includes a training data generation unit 101, a training data input unit 102, and an algorithm update unit 103. These functional blocks are realized by installing a program for causing a computer to execute a deep learning process in the storage unit 13 or the memory 12 of the processing unit 10A and executing the program by the CPU 11. The window size database 104 and the algorithm database 105 are stored in the storage unit 13 or the memory 12 of the processing unit 10A.

学習用の標本の第1の訓練用画像70R1、第2の訓練用画像70R2、第3の訓練用画像70R3は、撮像装置300によって予め撮像され、処理部10Aの記憶部13またはメモリ12に予め記憶されていることとする。ニューラルネットワーク50は、例えば解析対象の標本が由来する組織の種別(例えば組織名)と対応付けられて、アルゴリズムデータベース105に予め格納されている。   The first training image 70R1, the second training image 70R2, and the third training image 70R3 of the learning sample are captured in advance by the imaging device 300 and stored in advance in the storage unit 13 or the memory 12 of the processing unit 10A. It shall be remembered. The neural network 50 is stored in advance in the algorithm database 105 in association with, for example, the type of organization (for example, organization name) from which the sample to be analyzed is derived.

深層学習装置100Aの処理部10Aは、図11に示す処理を行う。図10に示す各機能ブロックを用いて説明すると、ステップS10からS12、S17およびS18の処理は、訓練データ生成部101が行う。ステップS14の処理は、訓練データ入力部102が行う。ステップS15およびS16の処理は、アルゴリズム更新部103が行う。   The processing unit 10A of the deep learning device 100A performs the process shown in FIG. If it demonstrates using each functional block shown in FIG. 10, the training data generation part 101 will perform the process of step S10 to S12, S17, and S18. The training data input unit 102 performs the process of step S14. The algorithm update unit 103 performs the processes in steps S15 and S16.

以下に説明するステップS10からS18では、第1の訓練用画像70R1と、第2の訓練用画像70R2と、第3の訓練用画像70R3とを用いた深層学習処理を説明する。   In steps S10 to S18 described below, a deep learning process using the first training image 70R1, the second training image 70R2, and the third training image 70R3 will be described.

処理部10Aは、深層学習方法の概要に記載の方法に準じて、腫瘍領域訓練データ75R1、非腫瘍領域訓練データ75R2および非組織領域訓練データ75R3を生成するための深層学習処理を行う。処理部10Aは、例えば、病理医等による入力部16からの操作により、第1の訓練用画像70R1の領域を含む広い領域の画像(ホールスライドイメージ70W1)を、出力部17に表示する。判定を行う病理医等は、出力部17に表示されたホールスライドイメージ70W1の画像を目視で確認する。病理医等は、腫瘍領域を含むと判定したホールスライドイメージ70W1中の領域を、例えば入力部16を介して指定し、ホールスライドイメージ70W1に例えば赤色等の実線で囲む。病理医等は、非腫瘍領域および非組織領域についても、同様に、ホールスライドイメージ70W1中の領域について、例えば赤色とは異なる青色、緑色等の実線で囲む。処理部10Aは、ホールスライドイメージ70W1を出力部17に表示して病理医により判断してもらうことに代えて、判定済みのホールスライドイメージ70W2を、I/F部15を介して例えばネットワーク99を介して取得してもよい。病理医等は、訓練用画像として好ましい画素にホールスライドイメージ70W2を分割してもよい。   The processing unit 10A performs a deep learning process for generating the tumor region training data 75R1, the non-tumor region training data 75R2, and the non-tissue region training data 75R3 according to the method described in the outline of the deep learning method. The processing unit 10A displays, for example, a wide area image (hole slide image 70W1) including the area of the first training image 70R1 on the output unit 17 by an operation from the input unit 16 by a pathologist or the like. The pathologist or the like who makes the determination visually confirms the image of the hole slide image 70W1 displayed on the output unit 17. A pathologist or the like designates an area in the hole slide image 70W1 determined to include the tumor area via, for example, the input unit 16, and surrounds the hole slide image 70W1 with a solid line such as red. Similarly, for a non-tumor region and a non-tissue region, a pathologist or the like surrounds the region in the hole slide image 70W1 with, for example, solid lines such as blue and green different from red. Instead of displaying the hole slide image 70W1 on the output unit 17 and having the pathologist determine it, the processing unit 10A receives the determined hole slide image 70W2 via the I / F unit 15 through the network 99, for example. You may get through. A pathologist or the like may divide the hole slide image 70W2 into pixels preferable as training images.

処理部10Aは、病理医等の入力部16からの指定により、ホールスライドイメージ70W2中に赤色の実線で囲まれている領域から取得された第1の訓練用画像70R1を所定の画素数を含むように切り出す。同様に、非腫瘍領域および非組織領域と判定された部分からも、第2の訓練用画像70R2、第3の訓練用画像70R3のそれぞれを、所定の画素の領域を含むように切り出す。   The processing unit 10A includes a predetermined number of pixels for the first training image 70R1 acquired from the region surrounded by the red solid line in the hole slide image 70W2 by the designation from the input unit 16 such as a pathologist. Cut out as follows. Similarly, each of the second training image 70R2 and the third training image 70R3 is cut out from the portions determined as the non-tumor region and the non-tissue region so as to include a predetermined pixel region.

ステップS10において、処理部10Aは、切り出された第1の訓練用画像70R1からR、G、B各色の色濃度符号化図72R1r,72R1g,72R1bを生成する。色濃度符号化図72R1r,72R1g,72R1bは、第1の訓練用画像70R1の各画素のR、G、B各色の色濃度値を段階的に表す符号を各画素に付すことにより生成する。本実施形態では、色濃度値を値0から値255の256階調で表すとして各R、G、B階調画像について色濃度符号化図72R1r,72R1g,72R1bを生成する。色濃度値の割り当ては、例えば最も低い明るさを色濃度値0とし、明るさの程度が高くなるに従い徐々に高い値を割り当ててゆき、最も高い明るさを色濃度値255とする。処理部10Aは、色濃度符号化図72R1r,72R1g,72R1bから画素毎にR、G,Bの色濃度値を付した第1の訓練データ74R1を生成する。処理部10Aは、第1の訓練用画像70R1の各画素に腫瘍領域であることを示すラベル値である「1」を対応させた第1の予備訓練データ70R1Lを生成する。   In step S10, the processing unit 10A generates color density encoded diagrams 72R1r, 72R1g, and 72R1b for each color of R, G, and B from the cut out first training image 70R1. The color density encoding diagrams 72R1r, 72R1g, and 72R1b are generated by assigning to each pixel a code that represents the color density values of the R, G, and B colors of each pixel of the first training image 70R1 step by step. In the present embodiment, color density coding diagrams 72R1r, 72R1g, and 72R1b are generated for each of the R, G, and B gradation images, assuming that the color density value is expressed by 256 gradations from value 0 to value 255. For the color density value assignment, for example, the lowest brightness is set to a color density value 0, a higher value is assigned gradually as the brightness level becomes higher, and the highest brightness is set to a color density value 255. The processing unit 10A generates first training data 74R1 with R, G, and B color density values for each pixel from the color density coding diagrams 72R1r, 72R1g, and 72R1b. The processing unit 10A generates first preliminary training data 70R1L in which each pixel of the first training image 70R1 is associated with “1” that is a label value indicating a tumor region.

ステップS11において、処理部10Aは、第2の訓練用画像70R2からステップS10と同様の方法により第2の訓練データ74R2を生成する。処理部10Aは、第2の訓練用画像70R2の各画素に非腫瘍領域であることを示すラベル値である「2」を対応させた第2の予備訓練データ70R2Lを生成する。   In step S11, the processing unit 10A generates second training data 74R2 from the second training image 70R2 by the same method as in step S10. The processing unit 10A generates second preliminary training data 70R2L in which each pixel of the second training image 70R2 is associated with “2” that is a label value indicating a non-tumor region.

ステップS12において、処理部10Aは、第3の訓練用画像70R3からステップS10と同様の方法により第3の訓練データ74R3を生成する。処理部10Aは、第3の訓練用画像70R3の各画素に非組織領域であることを示すラベル値である「0」を対応させた第3の予備訓練データ70R3Lを生成する。   In step S12, the processing unit 10A generates third training data 74R3 from the third training image 70R3 by the same method as in step S10. The processing unit 10A generates third preliminary training data 70R3L in which each pixel of the third training image 70R3 is associated with “0” that is a label value indicating a non-tissue region.

ステップS10からステップS12は同時に行ってもよく、順不同であってもよい。   Step S10 to step S12 may be performed simultaneously or in any order.

ステップS13において、処理部10Aは、入力部16を通じて、深層学習装置100A側のユーザからの、学習用の組織の種別の入力を受け付ける。処理部10Aは、入力された組織の種別に基づき、ウィンドウサイズデータベース104(ウィンドウサイズDB104)を参照して、ウィンドウサイズを設定し、アルゴリズムデータベース105(アルゴリズムDB105)を参照して、学習に用いるニューラルネットワーク50を設定する。ウィンドウサイズは例えば200×200画素とする。ウィンドウサイズは、1回の入力時にニューラルネットワーク50に入力する訓練データの単位であり、ウィンドウサイズの各領域に対応する訓練データの画素数と画像に含まれる色の原色の数との積が、入力層50aのノード数に対応している。ウィンドウサイズは組織の種別と対応付けられて、ウィンドウサイズデータベース104内に予め記憶されている。   In step S <b> 13, the processing unit 10 </ b> A receives an input of a learning tissue type from the user on the deep learning device 100 </ b> A side through the input unit 16. The processing unit 10A refers to the window size database 104 (window size DB 104) based on the input organization type, sets the window size, refers to the algorithm database 105 (algorithm DB 105), and uses the neural network for learning. Set up the network 50. The window size is, for example, 200 × 200 pixels. The window size is a unit of training data input to the neural network 50 at one input, and the product of the number of pixels of the training data corresponding to each region of the window size and the number of primary colors included in the image, This corresponds to the number of nodes in the input layer 50a. The window size is associated with the organization type and stored in advance in the window size database 104.

ステップS14において、処理部10Aは、各領域に対応する訓練データから、ウィンドウサイズの腫瘍領域訓練データ75R1、非腫瘍領域訓練データ75R2および非組織領域訓練データ75R3を生成する。具体的には、上述の「深層学習方法の概要」において、図4(a)、(b)を参照して説明したように、第1の訓練データ74R1および第1の予備訓練データ70R1Lから、ウィンドウW1によってウィンドウサイズの腫瘍領域訓練データ75R1を作成する。処理部10Aは、第2の訓練データ74R2および第2の予備訓練データ70R2Lから、ウィンドウサイズの非腫瘍領域訓練データ75R2を生成する。具体的には、上述の「深層学習方法の概要」において、図4(a)、(b)および図5(a)を参照して説明したように、第2の訓練データ74R2および第2の予備訓練データ70R2Lから、ウィンドウW1によってウィンドウサイズの非腫瘍領域訓練データ75R2を作成する。処理部10Aは、第3の訓練データ74R3および第3の予備訓練データ70R3Lから、ウィンドウサイズの非組織領域訓練データ75R3を生成する。具体的には、上述の「深層学習方法の概要」において、図4(a)、(b)および図5(b)を参照して説明したように、第3の訓練データ74R3および第3の予備訓練データ70R3Lから、ウィンドウW1によってウィンドウサイズの非組織領域訓練データ75R3を作成する。   In step S14, the processing unit 10A generates window-sized tumor region training data 75R1, non-tumor region training data 75R2, and non-tissue region training data 75R3 from the training data corresponding to each region. Specifically, in the above-mentioned “Outline of Deep Learning Method”, as described with reference to FIGS. 4A and 4B, from the first training data 74R1 and the first preliminary training data 70R1L, The window size tumor area training data 75R1 is created by the window W1. The processing unit 10A generates non-tumor region training data 75R2 having a window size from the second training data 74R2 and the second preliminary training data 70R2L. Specifically, as described with reference to FIGS. 4A, 4B, and 5A in the above-described “Outline of Deep Learning Method”, the second training data 74R2 and the second training data 74R2 From the preliminary training data 70R2L, window size non-tumor region training data 75R2 is created by the window W1. The processing unit 10A generates non-tissue region training data 75R3 having a window size from the third training data 74R3 and the third preliminary training data 70R3L. Specifically, as described with reference to FIGS. 4A, 4B, and 5B in the above-mentioned “Outline of Deep Learning Method”, the third training data 74R3 and the third training data 74R3 From the preliminary training data 70R3L, window size non-tissue region training data 75R3 is created by the window W1.

図11に示すステップS15において、処理部10Aは、ウィンドウサイズの腫瘍領域訓練データ75R1、非腫瘍領域訓練データ75R2および非組織領域訓練データ75R3を用いて、ニューラルネットワーク50を学習させる。ニューラルネットワーク50の学習結果は、ウィンドウサイズの腫瘍領域訓練データ75R1、非腫瘍領域訓練データ75R2および非組織領域訓練データ75R3を用いてニューラルネットワーク50を学習させる度に蓄積される。   In step S15 shown in FIG. 11, the processing unit 10A causes the neural network 50 to learn using the window-sized tumor region training data 75R1, non-tumor region training data 75R2, and non-tissue region training data 75R3. The learning result of the neural network 50 is accumulated every time the neural network 50 is learned using the window size tumor region training data 75R1, non-tumor region training data 75R2, and non-tissue region training data 75R3.

実施形態に係る画像解析方法では、畳み込みニューラルネットワークを使用しており、確率的勾配降下法を用いるため、ステップS16において、処理部10Aは、予め定められた所定の試行回数分の学習結果が蓄積されているか否かを判断する。学習結果が所定の試行回数分蓄積されている場合、処理部10AはステップS17の処理を行い、学習結果が所定の試行回数分蓄積されていない場合、処理部10AはステップS18の処理を行う。   In the image analysis method according to the embodiment, a convolutional neural network is used, and the stochastic gradient descent method is used. Therefore, in step S16, the processing unit 10A accumulates learning results for a predetermined number of trials. It is judged whether it is done. When the learning result is accumulated for the predetermined number of trials, the processing unit 10A performs the process of step S17. When the learning result is not accumulated for the predetermined number of trials, the processing unit 10A performs the process of step S18.

学習結果が所定の試行回数分蓄積されている場合、ステップS17において、処理部10Aは、ステップS15において蓄積しておいた学習結果を用いて、ニューラルネットワーク50の結合重みwを更新する。実施形態に係る画像解析方法では、確率的勾配降下法を用いるため、所定の試行回数分の学習結果が蓄積した段階で、ニューラルネットワーク50の結合重みwを更新する。結合重みwを更新する処理は、具体的には、後述の(式11)および(式12)に示される、勾配降下法による計算を実施する処理である。   When learning results are accumulated for a predetermined number of trials, in step S17, the processing unit 10A updates the connection weight w of the neural network 50 using the learning results accumulated in step S15. In the image analysis method according to the embodiment, since the stochastic gradient descent method is used, the connection weight w of the neural network 50 is updated when the learning results for a predetermined number of trials are accumulated. Specifically, the process of updating the connection weight w is a process of performing calculation by the gradient descent method shown in (Expression 11) and (Expression 12) described later.

ステップS17において、処理部10Aは、第1の訓練データ74R1、第2の訓練データ74R2および第3の訓練データ74R3のそれぞれについて各領域訓練データ内の規定数の画素を処理したか否かを判断する。各領域訓練データの規定数の画素について、ステップS15からステップS17の一連の処理がなされている場合は、深層学習処理を終了する。ニューラルネットワークの学習は、必ずしも各訓練データ内の全ての画素に対して行う必要は無く、処理部10Aは、各訓練データ内の一部の画素、すなわち規定数の画素に対して処理をし学習を行うことができる。規定数の画素は、各領域訓練データ内の全ての画素であってもよい。   In step S <b> 17, the processing unit 10 </ b> A determines whether or not a predetermined number of pixels in each area training data has been processed for each of the first training data 74 </ b> R <b> 1, the second training data 74 </ b> R <b> 2, and the third training data 74 </ b> R <b> 3. To do. When the series of processing from step S15 to step S17 is performed for the prescribed number of pixels of each area training data, the deep learning process is terminated. The learning of the neural network does not necessarily have to be performed for all the pixels in each training data, and the processing unit 10A learns by processing a part of the pixels in each training data, that is, a prescribed number of pixels. It can be performed. The prescribed number of pixels may be all the pixels in each area training data.

各領域訓練データ内の規定数の画素が処理されていない場合は、処理部10Aは、ステップS19において、図4(b)に示すように、第1の訓練データ74R1内、第2の訓練データ74R2内または第3の訓練データ74R3内において、ウィンドウの位置を移動させる。その後、処理部10Aは、移動後の新たなウィンドウ位置において、ステップS14からステップS16の一連の処理を行う。すなわち、処理部10Aは、ステップS14において、移動後の新たなウィンドウ位置において第1の訓練データ74R1、第2の訓練データ74R2および第3の訓練データ74R3のそれぞれについてウィンドウサイズの各領域訓練データ75R1,75R2,75R3を切り出し、各領域を示すラベル値を付す。引き続き、処理部10Aは、ステップS15において、新たに切り出したウィンドウサイズの各領域訓練データ75R1,75R2,75R3を用いて、ニューラルネットワーク50を学習させる。ステップS16において、所定の試行回数分の学習結果が蓄積されている場合は、処理部10Aは、ステップS17において、ニューラルネットワーク50の結合重みwを更新する。このようなウィンドウサイズ毎のニューラルネットワーク50の学習を、第1の訓練データ74R1、第2の訓練データ74R2および第3の訓練データ74R3のそれぞれについて規定数の画素に対して行う。   When the prescribed number of pixels in each area training data is not processed, the processing unit 10A, as shown in FIG. 4B, the second training data in the first training data 74R1 in step S19. The position of the window is moved in 74R2 or in the third training data 74R3. Thereafter, the processing unit 10A performs a series of processes from step S14 to step S16 at the new window position after the movement. That is, in step S14, the processing unit 10A sets each region size training data 75R1 of the window size for each of the first training data 74R1, the second training data 74R2, and the third training data 74R3 at the new window position after the movement. , 75R2 and 75R3, and label values indicating the respective regions are attached. Subsequently, in step S15, the processing unit 10A causes the neural network 50 to learn using the area training data 75R1, 75R2, and 75R3 of the newly cut window size. If learning results for a predetermined number of trials are accumulated in step S16, the processing unit 10A updates the connection weight w of the neural network 50 in step S17. Such learning of the neural network 50 for each window size is performed on a prescribed number of pixels for each of the first training data 74R1, the second training data 74R2, and the third training data 74R3.

以上説明した、ステップS10からS19の深層学習処理を、さらに別途取得された第1の訓練用画像70R1と、第2の訓練用画像70R2と、第3の訓練用画像70R3に対して繰り返し行うことにより、ニューラルネットワーク50の学習の程度を向上させる。これにより、図5に示すニューラルネットワーク構造の深層学習アルゴリズム60を得る。   The above-described deep learning process in steps S10 to S19 is repeated for the first training image 70R1, the second training image 70R2, and the third training image 70R3 that are separately acquired. Thus, the degree of learning of the neural network 50 is improved. Thereby, the deep learning algorithm 60 having the neural network structure shown in FIG. 5 is obtained.

・ニューラルネットワークの構造
図12(a)に示すように、第1の実施形態では、深層学習タイプのニューラルネットワークを用いる。深層学習タイプのニューラルネットワークは、図12に示すニューラルネットワーク50のように、入力層50aと、出力層50bと、入力層50aおよび出力層50bの間の中間層50cとを備え、中間層50cが複数の層で構成されている。中間層50cを構成する層の数は、例えば5層以上とすることができる。
-Neural Network Structure As shown in FIG. 12A, in the first embodiment, a deep learning type neural network is used. As in the neural network 50 shown in FIG. 12, the deep learning type neural network includes an input layer 50a, an output layer 50b, and an intermediate layer 50c between the input layer 50a and the output layer 50b. It consists of multiple layers. The number of layers constituting the intermediate layer 50c can be, for example, five or more.

ニューラルネットワーク50では、層状に配置された複数のノード89が、層間において結合されている。これにより、情報が入力側の層50aから出力側の層50bに、図中矢印Dに示す一方向のみに伝播する。本実施形態では、入力層50aのノード数は、入力される画像の画素数すなわち図3(c)に示すウィンドウW1の画素数と各画素に含まれる色の原色の数との積に対応している。入力層50aに画像の画素データ(色濃度値)を入力することができるので、ユーザは入力画像から特徴量を別途算出することなく、入力画像を入力層50aに入力することができる。
・各ノードにおける演算
In the neural network 50, a plurality of nodes 89 arranged in layers are coupled between layers. As a result, information propagates from the input side layer 50a to the output side layer 50b only in one direction indicated by an arrow D in the figure. In the present embodiment, the number of nodes of the input layer 50a corresponds to the product of the number of pixels of the input image, that is, the number of pixels of the window W1 shown in FIG. 3C and the number of primary colors included in each pixel. ing. Since the pixel data (color density value) of the image can be input to the input layer 50a, the user can input the input image to the input layer 50a without separately calculating the feature amount from the input image.
・ Operations at each node

図12(b)は、各ノードにおける演算を示す模式図である。各ノード89では、複数の入力を受け取り、1つの出力(z)を計算する。図12(b)に示す例の場合、ノード89は4つの入力を受け取る。ノード89が受け取る総入力(u)は、以下の(式1)で表される。   FIG. 12B is a schematic diagram showing the calculation at each node. Each node 89 receives a plurality of inputs and calculates one output (z). In the example shown in FIG. 12B, the node 89 receives four inputs. The total input (u) received by the node 89 is expressed by the following (Equation 1).

各入力には、それぞれ異なる重みが掛けられる。(式1)中、bはバイアスと呼ばれる値である。ノードの出力(z)は、(式1)で表される総入力(u)に対する所定の関数fの出力となり、以下の(式2)で表される。関数fは活性化関数と呼ばれる。   Each input is given a different weight. In (Expression 1), b is a value called a bias. The output (z) of the node is an output of a predetermined function f with respect to the total input (u) represented by (Expression 1), and is expressed by the following (Expression 2). The function f is called an activation function.

図12(c)は、ノード間の演算を示す模式図である。ニューラルネットワーク50では、(式1)で表される総入力(u)に対して、(式2)で表される結果(z)を出力するノードが層状に並べられている。前の層のノードの出力が、次の層のノードの入力となる。図12(c)に示す例では、図中左側の層のノード89aの出力が、図中右側の層のノード89bの入力となる。右側の層の各ノード89bは、それぞれ、左側の層のノード89aからの出力を受け取る。左側の層の各ノード89aと右側の層の各ノード89bとの間の各結合には、異なる重みが掛けられる。左側の層の複数のノード89aのそれぞれの出力をx〜xとすると、右側の層の3つのノード89bのそれぞれに対する入力は、以下の(式3−1)〜(式3−3)で表される。 FIG. 12C is a schematic diagram illustrating computation between nodes. In the neural network 50, nodes that output the result (z) represented by (Expression 2) are arranged in layers with respect to the total input (u) represented by (Expression 1). The output of the node of the previous layer becomes the input of the node of the next layer. In the example shown in FIG. 12C, the output of the node 89a in the left layer in the drawing becomes the input of the node 89b in the right layer in the drawing. Each node 89b in the right layer receives the output from the node 89a in the left layer. Each connection between each node 89a in the left layer and each node 89b in the right layer is given a different weight. When the respective outputs of the plurality of nodes 89a on the left side of the layers and x 1 ~x 4, inputs to each of the three nodes 89b of the right side layer, the following equation (3-1) to (Equation 3-3) It is represented by

これら(式3−1)〜(式3−3)を一般化すると、(式3−4)となる。ここで、i=1,・・・I、j=1,・・・Jである。   When these (Formula 3-1) to (Formula 3-3) are generalized, (Formula 3-4) is obtained. Here, i = 1,... I, j = 1,.

(式3−4)を活性化関数に適用すると出力が得られる。出力は以下の(式4)で表される。 Applying (Equation 3-4) to the activation function gives an output. The output is expressed by the following (Equation 4).

・活性化関数
実施形態に係る画像解析方法では、活性化関数として、正規化線形関数(rectified linear unit function)を用いる。正規化線形関数は以下の(式5)で表される。
-Activation function In the image analysis method according to the embodiment, a normalized linear unit function is used as the activation function. The normalized linear function is expressed by the following (Formula 5).

(式5)は、z=uの線形関数のうち、u<0の部分をu=0とする関数である。図12(c)に示す例では、j=1のノードの出力は、(式5)により、以下の式で表される。   (Expression 5) is a function that sets u = 0 for a portion of u <0 in a linear function of z = u. In the example shown in FIG. 12C, the output of the node with j = 1 is expressed by the following equation using (Equation 5).

・ニューラルネットワークの学習
ニューラルネットワークを用いて表現される関数をy(x:w)とおくと、関数y(x:w)は、ニューラルネットワークのパラメータwを変化させると変化する。入力xに対してニューラルネットワークがより好適なパラメータwを選択するように、関数y(x:w)を調整することを、ニューラルネットワークの学習と呼ぶ。ニューラルネットワークを用いて表現される関数の入力と出力との組が複数与えられているとする。ある入力xに対する望ましい出力をdとすると、入出力の組は、{(x,d),(x,d),・・・,(x,d)}と与えられる。(x,d)で表される各組の集合を、訓練データと呼ぶ。具体的には、図3(b)に示す、R、G、B各色の単一色画像における画素毎の色濃度値と真値像のラベルとの組、の集合が、図3(a)に示す訓練データである。
-Learning of a neural network If a function expressed using a neural network is set to y (x: w), the function y (x: w) will change if the parameter w of a neural network is changed. Adjusting the function y (x: w) so that the neural network selects a more suitable parameter w for the input x is called neural network learning. Assume that a plurality of pairs of input and output of a function expressed using a neural network are given. If a desired output for a certain input x is d, an input / output set is given as {(x 1 , d 1 ), (x 2 , d 2 ),..., (X n , d n )}. A set of each group represented by (x, d) is called training data. Specifically, a set of a set of color density values for each pixel and a label of a true value image in a single color image of each of R, G, and B shown in FIG. 3B is shown in FIG. It is the training data shown.

ニューラルネットワークの学習とは、どのような入出力の組(x,d)に対しても、入力xを与えたときのニューラルネットワークの出力y(x:w)が、出力dになるべく近づくように重みwを調整することを意味する。誤差関数(error function)とは、ニューラルネットワークを用いて表現される関数と訓練データとの近さ Neural network learning means that for any input / output pair (x n , d n ), the output y (x n : w) of the neural network when the input x n is given is the output d n. This means that the weight w is adjusted so as to be as close as possible. The error function is the proximity between the function expressed using a neural network and the training data.

を測る尺度である。誤差関数は損失関数(loss function)とも呼ばれる。実施形態に係る画像解析方法において用いる誤差関数E(w)は、以下の(式6)で表される。(式6)は交差エントロピー(cross entropy)と呼ばれる。 It is a scale to measure. The error function is also called a loss function. The error function E (w) used in the image analysis method according to the embodiment is expressed by the following (formula 6). (Equation 6) is called cross entropy.

(式6)の交差エントロピーの算出方法を説明する。実施形態に係る画像解析方法において用いるニューラルネットワーク50の出力層50bでは、すなわちニューラルネットワークの最終層では、入力xを内容に応じて有限個のクラスに分類するための活性化関数を用いる。活性化関数はソフトマックス関数(softmax function)と呼ばれ、以下の(式7)で表される。なお、出力層50bには、クラス数kと同数のノードが並べられているとする。出力層Lの各ノードk(k=1,・・・K)の総入力uは、前層L−1の出力から、u (L)で与えられるとする。これにより、出力層のk番目のノードの出力は以下の(式7)で表される。 The calculation method of the cross entropy of (Formula 6) is demonstrated. In the output layer 50b of the neural network 50 used in the image analysis method according to the embodiment, that is, in the final layer of the neural network, an activation function for classifying the input x into a finite number of classes according to the contents is used. The activation function is called a softmax function and is expressed by the following (Equation 7). It is assumed that the same number of nodes as the number of classes k are arranged in the output layer 50b. It is assumed that the total input u of each node k (k = 1,... K) of the output layer L is given by u k (L) from the output of the previous layer L-1. Thereby, the output of the k-th node of the output layer is expressed by the following (formula 7).

(式7)がソフトマックス関数である。(式7)で決まる出力y,・・・,yの総和は常に1となる。 (Equation 7) is a softmax function. The sum of the outputs y 1 ,..., Y K determined by (Equation 7) is always 1.

各クラスをC,・・・,Cと表すと、出力層Lのノードkの出力yk(すなわちu (L))は、与えられた入力xがクラスCkに属する確率を表す。以下の(式8)を参照されたい。入力xは、(式8)で表される確率が最大になるクラスに分類される。 If each class is represented as C 1 ,..., C K , the output y k (ie, u k (L) ) of the node k in the output layer L represents the probability that the given input x belongs to the class C k. . See (Equation 8) below. The input x is classified into a class having the maximum probability represented by (Equation 8).

ニューラルネットワークの学習では、ニューラルネットワークで表される関数を、各クラスの事後確率(posterior probability)のモデルとみなし、そのような確率モデルの下で、訓練データに対する重みwの尤度(likelihood)を評価し、尤度を最大化するような重みwを選択する。   In neural network learning, the function represented by the neural network is regarded as a model of the posterior probability of each class, and the likelihood (likelihood) of the weight w for the training data under such a probability model. Evaluate and select a weight w that maximizes the likelihood.

(式7)のソフトマックス関数による目標出力dを、出力が正解のクラスである場合のみ1とし、出力がそれ以外の場合は0になるとする。目標出力をd=[dn1,・・・,dnK]というベクトル形式で表すと、例えば入力xの正解クラスがCである場合、目標出力dn3のみが1となり、それ以外の目標出力は0となる。このように符号化すると、事後分布(posterior)は以下の(式9)で表される。 The target output d n by softmax function (Equation 7), the output is only 1 if a class of correct, the output is to be a 0 otherwise. When the target output is expressed in a vector format of d n = [d n1 ,..., D nK ], for example, when the correct class of the input x n is C 3 , only the target output d n3 becomes 1, and the others The target output is zero. When encoded in this way, the posterior distribution (posterior) is expressed by the following (Equation 9).

訓練データ{(x,d)}(n=1,・・・,N)に対する重みwの尤度L(w)は、以下の(式10)で表される。尤度L(w)の対数をとり符号を反転すると、(式6)の誤差関数が導出される。 The likelihood L (w) of the weight w for the training data {(x n , d n )} (n = 1,..., N) is expressed by the following (Equation 10). When the logarithm of the likelihood L (w) is taken and the sign is inverted, the error function of (Expression 6) is derived.

学習は、訓練データを基に計算される誤差関数E(w)を、ニューラルネットワークのパラメータwについて最小化することを意味する。実施形態に係る画像解析方法では、誤差関数E(w)は(式6)で表される。   Learning means that the error function E (w) calculated based on the training data is minimized with respect to the parameter w of the neural network. In the image analysis method according to the embodiment, the error function E (w) is expressed by (Expression 6).

誤差関数E(w)をパラメータwについて最小化することは、関数E(w)の局所的な極小点を求めることと同じ意味である。パラメータwはノード間の結合の重みである。重みwの極小点は、任意の初期値を出発点として、パラメータwを繰り返し更新する反復計算によって求められる。このような計算の一例には、勾配降下法(gradient descent method)がある。
勾配降下法では、次の(式11)で表されるベクトルを用いる。
Minimizing the error function E (w) with respect to the parameter w is equivalent to finding the local minimum of the function E (w). The parameter w is a connection weight between nodes. The minimum point of the weight w is obtained by iterative calculation in which the parameter w is repeatedly updated with an arbitrary initial value as a starting point. An example of such a calculation is the gradient descent method.
In the gradient descent method, a vector represented by the following (formula 11) is used.

勾配降下法では、現在のパラメータwの値を負の勾配方向(すなわち−∇E)に移動させる処理を何度も繰り返す。現在の重みをw(t)とし、移動後の重みをw(t+1)とすると、勾配降下法による演算は、以下の(式12)で表される。値tは、パラメータwを移動させた回数を意味する。 In the gradient descent method, the process of moving the value of the current parameter w in the negative gradient direction (that is, −∇E) is repeated many times. When the current weight is w (t) and the weight after movement is w (t + 1) , the calculation by the gradient descent method is expressed by the following (Equation 12). The value t means the number of times the parameter w has been moved.

記号
は、パラメータwの更新量の大きさを決める定数であり、学習係数と呼ばれる。(式12)で表される演算を繰り返すことにより、値tの増加に伴って誤差関数E(w(t))が減少し、パラメータwは極小点に到達する。
symbol
Is a constant that determines the amount of update of the parameter w and is called a learning coefficient. By repeating the calculation represented by (Expression 12), the error function E (w (t) ) decreases as the value t increases, and the parameter w reaches the minimum point.

なお、(式12)による演算は、全ての訓練データ(n=1,・・・,N)に対して実施してもよく、一部の訓練データのみに対して実施してもよい。一部の訓練データのみに対して行う勾配降下法は、確率的勾配降下法(stochastic gradient descent)と呼ばれる。実施形態に係る画像解析方法では、確率的勾配降下法を用いる。   The calculation according to (Equation 12) may be performed on all training data (n = 1,..., N), or may be performed only on a part of the training data. The gradient descent method performed only on a part of the training data is called stochastic gradient descent. In the image analysis method according to the embodiment, the stochastic gradient descent method is used.

・画像解析処理
図13を参照すると、第1の実施形態に係る画像解析装置200Aの処理部20Aは、解析用データ生成部201と、解析用データ入力部202と、解析部203と、領域検出部204とを備える。これらの機能ブロックは、本発明に係るコンピュータに画像解析処理を実行させるプログラムを、処理部20Aの記憶部23またはメモリ22にインストールし、このプログラムをCPU21が実行することにより実現される。ウィンドウサイズデータベース104と、アルゴリズムデータベース105とは、記憶媒体98またはネットワーク99を通じて深層学習装置100Aから提供され、処理部20Aの記憶部23またはメモリ22に記憶される。
Image Analysis Processing Referring to FIG. 13, the processing unit 20A of the image analysis apparatus 200A according to the first embodiment includes an analysis data generation unit 201, an analysis data input unit 202, an analysis unit 203, and a region detection. Unit 204. These functional blocks are realized by installing a program that causes a computer according to the present invention to execute an image analysis process in the storage unit 23 or the memory 22 of the processing unit 20A and executing the program by the CPU 21. The window size database 104 and the algorithm database 105 are provided from the deep learning device 100A through the storage medium 98 or the network 99, and are stored in the storage unit 23 or the memory 22 of the processing unit 20A.

解析対象の組織の解析対象画像78は、撮像装置400によって予め撮像され、処理部20Aの記憶部23またはメモリ22に予め記憶されていることとする。学習済みの結合重みwを含む深層学習アルゴリズム60は、解析対象の組織の標本が由来する組織の種類と対応付けられてアルゴリズムデータベース105に格納されており、コンピュータに画像解析処理を実行させるプログラムの一部であるプログラムモジュールとして機能する。すなわち、深層学習アルゴリズム60は、CPUおよびメモリを備えるコンピュータにて用いられ、解析対象の組織において各領域を示すデータを出力するという、使用目的に応じた特有の情報の演算または加工を実行するよう、コンピュータを機能させる。具体的には、処理部20AのCPU21は、記憶部23またはメモリ22に記憶された深層学習アルゴリズム60に規定されているアルゴリズムに従って、学習済みの結合重みwに基づくニューラルネットワーク60の演算を行う。処理部20AのCPU21は、入力層60aに入力された、解析対象の組織を撮像した解析対象画像78に対して演算を行い、出力層60bから、解析対象の組織において各領域を示すデータである3値画像83を出力する。   Assume that the analysis target image 78 of the analysis target tissue is captured in advance by the imaging device 400 and stored in advance in the storage unit 23 or the memory 22 of the processing unit 20A. The deep learning algorithm 60 including the learned connection weight w is stored in the algorithm database 105 in association with the tissue type from which the tissue sample to be analyzed is derived, and is a program that causes the computer to execute image analysis processing. Functions as part of a program module. In other words, the deep learning algorithm 60 is used in a computer having a CPU and a memory, and executes calculation or processing of specific information according to the purpose of use, such as outputting data indicating each region in the tissue to be analyzed. Make the computer work. Specifically, the CPU 21 of the processing unit 20A performs the calculation of the neural network 60 based on the learned connection weight w according to the algorithm defined in the deep learning algorithm 60 stored in the storage unit 23 or the memory 22. The CPU 21 of the processing unit 20A performs calculation on the analysis target image 78 obtained by imaging the analysis target tissue and is input to the input layer 60a, and is data indicating each region in the analysis target tissue from the output layer 60b. A ternary image 83 is output.

図14を参照すると、画像解析装置200Aの処理部20Aは、図13に示す処理を行う。図13に示す各機能ブロックを用いて説明すると、ステップS21およびS22の処理は、解析用データ生成部201が行う。ステップS23,S24,S26およびS27の処理は、解析用データ入力部202が行う。ステップS25およびS28の処理は、解析部203が行う。ステップS29の処理は、領域検出部204が行う。   Referring to FIG. 14, the processing unit 20A of the image analysis apparatus 200A performs the process shown in FIG. If it demonstrates using each functional block shown in FIG. 13, the data generation part 201 for an analysis will perform the process of step S21 and S22. The processing of steps S23, S24, S26 and S27 is performed by the analysis data input unit 202. The processing of steps S25 and S28 is performed by the analysis unit 203. The region detection unit 204 performs the process in step S29.

ステップS21において、処理部20Aは、例えば、ユーザ等が入力部26から入力した処理開始の指令により、入力された解析対象画像78からR、G、B各色の色濃度符号化図79r,79g,79bを生成する。色濃度符号化図79r,79g,79bから画素毎にR、G、B各色の色濃度値を組み合わせた解析対象データが生成される。色濃度符号化図79r,79g,79bの生成方法は、図11に示す深層学習処理時におけるステップS10での生成方法と同様である。   In step S21, the processing unit 20A, for example, in response to a processing start command input from the input unit 26 by the user or the like, from the input analysis target image 78, color density encoding diagrams 79r, 79g, 79g, 79g, 79b is generated. Data to be analyzed is generated by combining color density values of R, G, and B colors for each pixel from the color density encoding diagrams 79r, 79g, and 79b. The generation method of the color density encoding diagrams 79r, 79g, and 79b is the same as the generation method in step S10 in the deep learning process shown in FIG.

図14に示すステップS22において、処理部20Aは、入力部26を通じて、解析条件として、画像解析装置200A側のユーザからの、組織の種別の入力を受け付ける。処理部20Aは、入力された組織の種別に基づき、ウィンドウサイズデータベース104およびアルゴリズムデータベース105を参照して、解析に用いるウィンドウサイズを設定し、解析に用いる深層学習アルゴリズム60を取得する。ウィンドウサイズは、1回の入力時にニューラルネットワーク60に入力する解析用データの単位であり、ウィンドウサイズの解析用データ80の画素数と画像に含まれる色の原色の数との積が、入力層60aのノード数に対応している。ウィンドウサイズは組織の種別と対応付けられて、ウィンドウサイズデータベース104内に予め記憶されている。ウィンドウサイズは、図6に示すウィンドウW2のように、例えば3×3画素である。深層学習アルゴリズム60も、組織の種別と対応付けられて、図13に示すアルゴリズムデータベース105内に予め記憶されている。   In step S22 illustrated in FIG. 14, the processing unit 20A accepts an input of a tissue type from the user on the image analysis apparatus 200A side as an analysis condition through the input unit 26. The processing unit 20A refers to the window size database 104 and the algorithm database 105 based on the input tissue type, sets the window size used for the analysis, and acquires the deep learning algorithm 60 used for the analysis. The window size is a unit of analysis data input to the neural network 60 at the time of one input, and the product of the number of pixels of the window size analysis data 80 and the number of primary colors included in the image is the input layer. This corresponds to the number of nodes 60a. The window size is associated with the organization type and stored in advance in the window size database 104. The window size is, for example, 3 × 3 pixels like the window W2 shown in FIG. The deep learning algorithm 60 is also stored in advance in the algorithm database 105 shown in FIG. 13 in association with the type of organization.

図14に示すステップS23において、処理部20Aは、色濃度符号化図79r,79g,79bから画素毎にR、G、B各色の色濃度値を組み合わせた解析対象データを生成し、さらにウィンドウサイズの解析用データ80を生成する。   In step S23 shown in FIG. 14, the processing unit 20A generates analysis target data combining color density values of R, G, and B colors for each pixel from the color density encoding diagrams 79r, 79g, and 79b, and further displays the window size. The analysis data 80 is generated.

ステップS24において、処理部20Aは、図5に示す解析用データ80を、深層学習アルゴリズム60に入力する。ウィンドウの初期位置は、深層学習処理時におけるステップS14と同様に、例えばウィンドウ内の3×3画素に位置する画素が、解析対象データの左上角に対応する位置である。処理部20Aは、ウィンドウサイズの解析用データ80に含まれる、3×3画素×3原色の合計27個の色濃度値のデータ81を入力層60aに入力すると、深層学習アルゴリズム60は、出力層60bに判別結果82を出力する。   In step S <b> 24, the processing unit 20 </ b> A inputs the analysis data 80 shown in FIG. 5 to the deep learning algorithm 60. The initial position of the window is, for example, a pixel located at 3 × 3 pixels in the window corresponding to the upper left corner of the analysis target data, as in step S14 during the deep learning process. When the processing unit 20A inputs the data 81 of the total 27 color density values of 3 × 3 pixels × 3 primary colors included in the window size analysis data 80 to the input layer 60a, the deep learning algorithm 60 The discrimination result 82 is output to 60b.

図14に示すステップS25において、処理部20Aは、図5に示す出力層60bに出力される判別結果82を記憶する。判別結果82は、解析対象データの各画素領域についての推定値(0、1、2の3値のいずれか)である。   In step S25 illustrated in FIG. 14, the processing unit 20A stores the determination result 82 output to the output layer 60b illustrated in FIG. The discrimination result 82 is an estimated value (any one of three values 0, 1, and 2) for each pixel region of the analysis target data.

図14に示すステップS26において、処理部20Aは、入力画像内の全ての画素を処理したか否かを判断する。入力画像は、図6に示す色濃度符号化図79r,79g,79bであり、解析対象データ内の全ての画素について、図14に示すステップS23からステップS25の一連の処理がなされている場合は、ステップS28の処理を行う。   In step S <b> 26 shown in FIG. 14, the processing unit 20 </ b> A determines whether all the pixels in the input image have been processed. The input image is the color density encoding diagram 79r, 79g, 79b shown in FIG. 6, and when a series of processing from step S23 to step S25 shown in FIG. The process of step S28 is performed.

解析対象データ内の全ての画素が処理されていない場合は、処理部20Aは、ステップS27において、深層学習処理時におけるステップS20と同様に、図5に示す色濃度符号化図79r,79g,79b内において、ウィンドウW2を所定の画素数の単位で移動させる。その後、処理部20Aは、移動後の新たなウィンドウW2の位置において、ステップS23からステップS25の一連の処理を行う。処理部20Aは、ステップS25において、移動後の新たなウィンドウ位置に対応する、判別結果82を記憶する。このようなウィンドウサイズ毎の判別結果82の記憶を、解析対象画像内の全ての画素に対して行うことにより、解析結果の3値画像83が得られる。解析結果の3値画像83の画像サイズは、解析対象画像の画像サイズと同じである。ここで、3値画像83には、推定値の値2、値1および値0が各画素に付された数値データであってもよく、推定値の値2、値1および値0に代えて、例えば値2、値1および値0のそれぞれに対応付けた表示色で示した画像であっても良い。   When all the pixels in the analysis target data have not been processed, the processing unit 20A, in step S27, similarly to step S20 during the deep learning process, the color density encoding diagrams 79r, 79g, and 79b shown in FIG. The window W2 is moved in units of a predetermined number of pixels. Thereafter, the processing unit 20A performs a series of processing from step S23 to step S25 at the position of the new window W2 after movement. In step S25, the processing unit 20A stores the determination result 82 corresponding to the new window position after the movement. By storing the determination result 82 for each window size for all the pixels in the analysis target image, an analysis result ternary image 83 is obtained. The image size of the ternary image 83 as the analysis result is the same as the image size of the analysis target image. Here, the ternary image 83 may be numerical data in which the estimated value 2, 1, and 0 are assigned to each pixel, and instead of the estimated value 2, 2, 1 and 0. For example, an image indicated by display colors associated with value 2, value 1, and value 0 may be used.

図14に示すステップS28では、処理部20Aは、解析結果の3値画像83を出力部27に出力する。   In step S <b> 28 illustrated in FIG. 14, the processing unit 20 </ b> A outputs the ternary image 83 of the analysis result to the output unit 27.

ステップS29では、ステップS28に引き続き、処理部20Aは、解析結果の3値画像83についてさらに、領域検出処理を行う。3値画像83において、腫瘍領域と、非腫瘍領域と、非組織領域とは、3値で区別して表されている。   In step S29, following step S28, the processing unit 20A further performs a region detection process on the ternary image 83 as the analysis result. In the ternary image 83, the tumor area, the non-tumor area, and the non-tissue area are represented by ternary values.

任意ではあるが、処理部20Aは、得られた各領域を、解析対象の解析対象画像78に重ねることにより、領域強調画像84を作成する。処理部20Aは、作成した領域強調画像84を出力部27に出力し、画像解析処理を終了する。   Although optional, the processing unit 20A creates the region-enhanced image 84 by superimposing the obtained regions on the analysis target image 78 to be analyzed. The processing unit 20A outputs the created region emphasized image 84 to the output unit 27, and ends the image analysis process.

任意ではあるが、処理部20Aは、解析対象画像78に含まれる組織において、腫瘍領域がどの程度含まれているか算出してもよい。例えば、解析対象画像78に含まれる組織に該当する画素数、すなわち腫瘍領域および非腫瘍領域と判定された画素数の合計(組織領域総画素数)を100%とした場合に、腫瘍領域と判定された画素数が何%を占めるかを算出することにより、腫瘍領域の含有率を算出することができる。また、総画素数から腫瘍領域と判定された画素数を減じることにより、または組織領域総画素数)を100%とした場合に、非腫瘍領域と判定された画素数が何%を占めるかを算出することにより、非腫瘍領域の含有率を算出することができる。そして、腫瘍領域の含有率と非腫瘍領域の含有率との比率を算出してもよい。前記算出された値は、出力部27に出力されてもよい。また、算出された値は、領域強調画像84と共に出力部27に出力されてもよい。   Although optional, the processing unit 20A may calculate how much a tumor region is included in the tissue included in the analysis target image 78. For example, when the number of pixels corresponding to the tissue included in the analysis target image 78, that is, the total number of pixels determined as a tumor region and a non-tumor region (total number of pixels in the tissue region) is 100%, it is determined as a tumor region. By calculating how many percent of the number of pixels is occupied, the content rate of the tumor region can be calculated. In addition, by subtracting the number of pixels determined to be a tumor area from the total number of pixels or assuming that the total number of pixels in a tissue area is 100%, the percentage of pixels determined to be a non-tumor area By calculating, the content rate of the non-tumor region can be calculated. And you may calculate the ratio of the content rate of a tumor area | region, and the content rate of a non-tumor area | region. The calculated value may be output to the output unit 27. In addition, the calculated value may be output to the output unit 27 together with the region emphasized image 84.

このように腫瘍領域の含有率を算出することは、がん組織の遺伝子解析等に用いられる組織が検査に適した腫瘍組織を含んでいるかスクリーニングする上で有用である。   The calculation of the content of the tumor region in this way is useful for screening whether a tissue used for genetic analysis or the like of a cancer tissue contains a tumor tissue suitable for the examination.

以上、画像解析装置200Aのユーザは、解析対象の組織の解析対象画像78を画像解析装置200Aに入力することにより、解析結果として、3値画像83を取得することができる。3値画像83は、解析対象の標本における、腫瘍領域と、非腫瘍領域と、非組織領域とを表しており、ユーザは、解析対象の標本において、各領域を判別することが可能となる。   As described above, the user of the image analysis device 200A can acquire the ternary image 83 as the analysis result by inputting the analysis target image 78 of the tissue to be analyzed to the image analysis device 200A. The ternary image 83 represents a tumor region, a non-tumor region, and a non-tissue region in a sample to be analyzed, and the user can discriminate each region in the sample to be analyzed.

さらに、画像解析装置200Aのユーザは、解析結果として、領域強調画像84を取得することができる。領域強調画像84は、例えば、解析対象の解析対象画像78に、各領域を色で塗りつぶすことにより生成される。また、別の態様では、各領域の境界線を重ねることにより生成されている。これにより、ユーザは、解析対象の組織において、各領域を一目で把握することが可能となる。   Furthermore, the user of the image analysis device 200A can acquire the region emphasized image 84 as the analysis result. The region-enhanced image 84 is generated by, for example, painting each region with a color on the analysis target image 78 to be analyzed. Moreover, in another aspect, it is produced | generated by overlapping the boundary line of each area | region. As a result, the user can grasp each region at a glance in the analysis target organization.

解析対象の標本において腫瘍領域、および/または非腫瘍領域を示すことは、組織診断に先立って解析対象組織における腫瘍領域をスクリーニングし、標本観察効率を上げる一助となる。   Displaying a tumor region and / or a non-tumor region in a specimen to be analyzed helps to increase the efficiency of specimen observation by screening the tumor area in the tissue to be analyzed prior to tissue diagnosis.

<第2の実施形態>
以下、第1の実施形態に係る画像解析システムと相違する点について、第2の実施形態に係る画像解析システムを説明する。
<Second Embodiment>
Hereinafter, the image analysis system according to the second embodiment will be described with respect to differences from the image analysis system according to the first embodiment.

[構成の概要]
図15を参照すると、第2の実施形態に係る画像解析システムは、ユーザ側装置200を備え、ユーザ側装置200が、統合型の画像解析装置200Bとして動作する。画像解析装置200Bは、例えば汎用コンピュータで構成されており、第1の実施形態において説明した深層学習処理および画像解析処理の両方の処理を行う。つまり、第2の実施形態に係る画像解析システムは、ユーザ側で深層学習および画像解析を行う、スタンドアロン型のシステムである。第2の実施形態に係る画像解析システムは、ユーザ側に設置された統合型の画像解析装置200Bが、第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aの両方の機能を担う点において、第1の実施形態に係る画像解析システムと異なる。
[Configuration overview]
Referring to FIG. 15, the image analysis system according to the second embodiment includes a user device 200, and the user device 200 operates as an integrated image analysis device 200B. The image analysis apparatus 200B is configured by a general-purpose computer, for example, and performs both the deep learning process and the image analysis process described in the first embodiment. That is, the image analysis system according to the second embodiment is a stand-alone system that performs deep learning and image analysis on the user side. In the image analysis system according to the second embodiment, the integrated image analysis device 200B installed on the user side functions as both the deep learning device 100A and the image analysis device 200A according to the first embodiment. However, it differs from the image analysis system according to the first embodiment.

画像解析装置200Bは撮像装置400に接続されている。撮像装置400は、深層学習処理時には、学習用の組織の訓練用画像を取得し、画像解析処理時には、解析対象の組織の解析対象画像78を取得する。   The image analysis device 200B is connected to the imaging device 400. The imaging device 400 acquires a training image of a learning tissue during the deep learning process, and acquires an analysis target image 78 of the analysis target tissue during the image analysis processing.

[ハードウェア構成]
画像解析装置200Bのハードウェア構成は、図9に示すユーザ側装置200のハードウェア構成と同様である。
[Hardware configuration]
The hardware configuration of the image analysis device 200B is the same as the hardware configuration of the user side device 200 shown in FIG.

[機能ブロックおよび処理手順]
図16を参照すると、第2の実施形態に係る画像解析装置200Bの処理部20Bは、訓練データ生成部101と、訓練データ入力部102と、アルゴリズム更新部103と、解析用データ生成部201と、解析用データ入力部202と、解析部203と、領域検出部204とを備える。これらの機能ブロックは、コンピュータに深層学習処理および画像解析処理を実行させるプログラムを、処理部20Bの記憶部23またはメモリ22にインストールし、このプログラムをCPU21が実行することにより実現される。ウィンドウサイズデータベース104と、アルゴリズムデータベース105とは、処理部20Bの記憶部23またはメモリ22に記憶され、どちらも深層学習時および画像解析処理時に共通して使用される。学習済みのニューラルネットワーク60は、組織の種別または細胞を含む試料の種別と対応付けられて、アルゴリズムデータベース105に予め格納されており、深層学習処理により結合重みwが更新されて、深層学習アルゴリズム60として、アルゴリズムデータベース105に格納される。なお、訓練用画像である第1の訓練用画像70R1、第2の訓練用画像70R2、第3の訓練用画像70R3は、撮像装置400によって予め撮像され、処理部20Bの記憶部23またはメモリ22に予め記憶されていることとする。解析対象の標本の解析対象画像78も、撮像装置400によって予め撮像され、処理部20Bの記憶部23またはメモリ22に予め記憶されていることとする。
[Function blocks and processing procedures]
Referring to FIG. 16, the processing unit 20B of the image analysis apparatus 200B according to the second embodiment includes a training data generation unit 101, a training data input unit 102, an algorithm update unit 103, an analysis data generation unit 201, and the like. , An analysis data input unit 202, an analysis unit 203, and a region detection unit 204. These functional blocks are realized by installing a program for causing a computer to execute a deep learning process and an image analysis process in the storage unit 23 or the memory 22 of the processing unit 20B and executing the program by the CPU 21. The window size database 104 and the algorithm database 105 are stored in the storage unit 23 or the memory 22 of the processing unit 20B, and both are commonly used during deep learning and image analysis processing. The learned neural network 60 is stored in advance in the algorithm database 105 in association with the type of tissue or the type of sample including cells, and the connection weight w is updated by the deep learning process, and the deep learning algorithm 60 is updated. Is stored in the algorithm database 105. Note that the first training image 70R1, the second training image 70R2, and the third training image 70R3, which are training images, are captured in advance by the imaging device 400 and stored in the storage unit 23 or the memory 22 of the processing unit 20B. In advance. The analysis target image 78 of the sample to be analyzed is also captured in advance by the imaging device 400 and is stored in advance in the storage unit 23 or the memory 22 of the processing unit 20B.

画像解析装置200Bの処理部20Bは、深層学習処理時には、図11に示す処理を行い、画像解析処理時には、図14に示す処理を行う。図16に示す各機能ブロックを用いて説明すると、深層学習処理時には、ステップS10からS12、S14、S18およびS19の処理は、訓練データ生成部101が行う。ステップS13の処理は、訓練データ入力部102が行う。ステップS16およびS17の処理は、アルゴリズム更新部103が行う。画像解析処理時には、ステップS21およびS22の処理は、解析用データ生成部201が行う。ステップS23,S24,S26およびS27の処理は、解析用データ入力部202が行う。ステップS25およびS28の処理は、解析部203が行う。ステップS29の処理は、領域検出部204が行う。   The processing unit 20B of the image analysis device 200B performs the process illustrated in FIG. 11 during the deep learning process, and performs the process illustrated in FIG. 14 during the image analysis process. If it demonstrates using each functional block shown in FIG. 16, the training data generation part 101 will perform the process of step S10 to S12, S14, S18, and S19 at the time of a deep learning process. The training data input unit 102 performs the process of step S13. The algorithm update unit 103 performs the processes in steps S16 and S17. During the image analysis process, the analysis data generation unit 201 performs the processes of steps S21 and S22. The processing of steps S23, S24, S26 and S27 is performed by the analysis data input unit 202. The processing of steps S25 and S28 is performed by the analysis unit 203. The region detection unit 204 performs the process in step S29.

第2の実施形態に係る画像解析装置200Bが行う深層学習処理の手順および画像解析処理の手順は、第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aがそれぞれ行う手順と同様である。なお、第2の実施形態に係る画像解析装置200Bは、次の点において第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aと異なる。   The procedures of the deep learning process and the image analysis process performed by the image analysis device 200B according to the second embodiment are the same as the procedures performed by the deep learning device 100A and the image analysis device 200A according to the first embodiment, respectively. . The image analysis device 200B according to the second embodiment is different from the deep learning device 100A and the image analysis device 200A according to the first embodiment in the following points.

深層学習処理時のステップS13において、処理部20Bは、入力部26を通じて、画像解析装置200Bのユーザからの、学習用の組織の種別の入力を受け付ける。処理部20Bは、入力された組織の種別に基づき、ウィンドウサイズデータベース104を参照して、ウィンドウサイズを設定し、アルゴリズムデータベース105を参照して、学習に用いるニューラルネットワーク50を設定する。   In step S <b> 13 during the deep learning process, the processing unit 20 </ b> B receives an input of the type of organization for learning from the user of the image analysis device 200 </ b> B through the input unit 26. The processing unit 20B refers to the window size database 104 based on the input tissue type, sets the window size, and refers to the algorithm database 105 to set the neural network 50 used for learning.

以上、画像解析装置200Bのユーザは、解析対象画像78を画像解析装置200Bに入力することにより、解析結果として、3値画像83を取得することができる。さらに、画像解析装置200Bのユーザは、解析結果として、領域強調画像84を取得することができる。   As described above, the user of the image analysis device 200B can acquire the ternary image 83 as the analysis result by inputting the analysis target image 78 to the image analysis device 200B. Furthermore, the user of the image analysis device 200B can acquire the region emphasized image 84 as the analysis result.

第2の実施形態に係る画像解析装置200Bによると、ユーザは、自身が選択した種類の組織を、学習用の組織として用いることができる。これは、ニューラルネットワーク50の学習がベンダ側任せではなく、ユーザ自身がニューラルネットワーク50の学習の程度を向上できることを意味する。   According to the image analysis apparatus 200B according to the second embodiment, the user can use the type of tissue selected by the user as a learning organization. This means that learning of the neural network 50 is not left to the vendor, and the user himself can improve the degree of learning of the neural network 50.

<第3の実施形態>
以下、第2の実施形態に係る画像解析システムと相違する点について、第3の実施形態に係る画像解析システムを説明する。
<Third Embodiment>
Hereinafter, the image analysis system according to the third embodiment will be described with respect to differences from the image analysis system according to the second embodiment.

[構成の概要]
図17を参照すると、第3の実施形態に係る画像解析システムは、ベンダ側装置100と、ユーザ側装置200とを備える。ベンダ側装置100は統合型の画像解析装置100Bとして動作し、ユーザ側装置200は端末装置200Cとして動作する。画像解析装置100Bは、例えば汎用コンピュータで構成されており、第1の実施形態において説明した深層学習処理および画像解析処理の両方の処理を行う、クラウドサーバ側の装置である。端末装置200Cは、例えば汎用コンピュータで構成されており、ネットワーク99を通じて、解析対象の画像を画像解析装置100Bに送信し、ネットワーク99を通じて、解析結果の画像を画像解析装置100Bから受信する、ユーザ側の端末装置である。
[Configuration overview]
Referring to FIG. 17, the image analysis system according to the third embodiment includes a vendor-side device 100 and a user-side device 200. The vendor apparatus 100 operates as an integrated image analysis apparatus 100B, and the user apparatus 200 operates as a terminal apparatus 200C. The image analysis apparatus 100B is configured by, for example, a general-purpose computer, and is an apparatus on the cloud server side that performs both the deep learning process and the image analysis process described in the first embodiment. The terminal device 200C is configured by a general-purpose computer, for example, and transmits an analysis target image to the image analysis device 100B via the network 99, and receives an analysis result image from the image analysis device 100B via the network 99. Terminal device.

第3の実施形態に係る画像解析システムは、ベンダ側に設置された統合型の画像解析装置100Bが、第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aの両方の機能を担う点において、第2の実施形態に係る画像解析システムと同様である。一方、第3の実施形態に係る画像解析システムは、端末装置200Cを備え、解析対象の画像の入力インタフェースと、解析結果の画像の出力インタフェースとをユーザ側の端末装置200Cに提供する点において、第2の実施形態に係る画像解析システムと異なる。つまり、第3の実施形態に係る画像解析システムは、深層学習処理および画像解析処理を行うベンダ側が、解析対象の画像および解析結果の画像の入出力インタフェースをユーザ側に提供する、クラウドサービス型のシステムである。   In the image analysis system according to the third embodiment, the integrated image analysis device 100B installed on the vendor side has the functions of both the deep learning device 100A and the image analysis device 200A according to the first embodiment. FIG. 5 is the same as the image analysis system according to the second embodiment. On the other hand, the image analysis system according to the third embodiment includes a terminal device 200C, and provides an input interface for an image to be analyzed and an output interface for an image of an analysis result to the terminal device 200C on the user side. Different from the image analysis system according to the second embodiment. That is, the image analysis system according to the third embodiment is a cloud service type in which the vendor side that performs the deep learning process and the image analysis process provides an input / output interface of the analysis target image and the analysis result image to the user side. System.

画像解析装置100Bは撮像装置300に接続されており、撮像装置300によって撮像される、学習用の組織の訓練用画像を取得する。   The image analysis apparatus 100 </ b> B is connected to the imaging apparatus 300, and acquires a training image of a learning tissue that is captured by the imaging apparatus 300.

端末装置200Cは撮像装置400に接続されており、撮像装置400によって撮像される、解析対象の組織の解析対象画像78を取得する。   The terminal device 200 </ b> C is connected to the imaging device 400, and acquires the analysis target image 78 of the analysis target tissue imaged by the imaging device 400.

[ハードウェア構成]
画像解析装置100Bのハードウェア構成は、図7に示すベンダ側装置100のハードウェア構成と同様である。端末装置200Cのハードウェア構成は、図9に示すユーザ側装置200のハードウェア構成と同様である。
[Hardware configuration]
The hardware configuration of the image analysis apparatus 100B is the same as the hardware configuration of the vendor-side apparatus 100 shown in FIG. The hardware configuration of the terminal device 200C is the same as the hardware configuration of the user-side device 200 shown in FIG.

[機能ブロックおよび処理手順]
図18を参照すると、第3の実施形態に係る画像解析装置100Bの処理部10Bは、訓練データ生成部101と、訓練データ入力部102と、アルゴリズム更新部103と、解析用データ生成部201と、解析用データ入力部202と、解析部203と、領域検出部204とを備える。これらの機能ブロックは、コンピュータに深層学習処理および画像解析処理を実行させるプログラムを、処理部10Bの記憶部13またはメモリ12にインストールし、このプログラムをCPU11が実行することにより実現される。ウィンドウサイズデータベース104と、アルゴリズムデータベース105とは、処理部10Bの記憶部13またはメモリ12に記憶され、どちらも深層学習時および画像解析処理時に共通して使用される。ニューラルネットワーク50は、組織の種別と対応付けられて、アルゴリズムデータベース105に予め格納されており、深層学習処理により結合重みwが更新されて、深層学習アルゴリズム60として、アルゴリズムデータベース105に格納される。
[Function blocks and processing procedures]
Referring to FIG. 18, the processing unit 10B of the image analysis apparatus 100B according to the third embodiment includes a training data generation unit 101, a training data input unit 102, an algorithm update unit 103, an analysis data generation unit 201, and the like. , An analysis data input unit 202, an analysis unit 203, and a region detection unit 204. These functional blocks are realized by installing a program for causing a computer to execute a deep learning process and an image analysis process in the storage unit 13 or the memory 12 of the processing unit 10B and executing the program by the CPU 11. The window size database 104 and the algorithm database 105 are stored in the storage unit 13 or the memory 12 of the processing unit 10B, and both are commonly used during deep learning and image analysis processing. The neural network 50 is associated with the type of organization and stored in advance in the algorithm database 105, the connection weight w is updated by the deep learning process, and is stored in the algorithm database 105 as the deep learning algorithm 60.

なお、訓練用画像である第1の訓練用画像70R1、第2の訓練用画像70R2、第3の訓練用画像70R3は、撮像装置300によって予め撮像され、処理部10Bの記憶部13またはメモリ12に予め記憶されていることとする。解析対象の組織の解析対象画像78も、撮像装置400によって予め撮像され、端末装置200Cの処理部20Cの記憶部23またはメモリ22に予め記憶されていることとする。   Note that the first training image 70R1, the second training image 70R2, and the third training image 70R3, which are training images, are captured in advance by the imaging device 300, and are stored in the storage unit 13 or the memory 12 of the processing unit 10B. In advance. The analysis target image 78 of the analysis target tissue is also captured in advance by the imaging device 400 and is stored in advance in the storage unit 23 or the memory 22 of the processing unit 20C of the terminal device 200C.

画像解析装置100Bの処理部10Bは、深層学習処理時には、図11に示す処理を行い、画像解析処理時には、図14に示す処理を行う。図18に示す各機能ブロックを用いて説明すると、深層学習処理時には、ステップS10からS12、S14、S18およびS19の処理は、訓練データ生成部101が行う。ステップS13の処理は、訓練データ入力部102が行う。ステップS16およびS17の処理は、アルゴリズム更新部103が行う。画像解析処理時には、ステップS21およびS22の処理は、解析用データ生成部201が行う。ステップS23,S24,S26およびS27の処理は、解析用データ入力部202が行う。ステップS25およびS28の処理は、解析部203が行う。ステップS29の処理は、領域検出部204が行う。   The processing unit 10B of the image analysis apparatus 100B performs the process illustrated in FIG. 11 during the deep learning process, and performs the process illustrated in FIG. 14 during the image analysis process. If it demonstrates using each functional block shown in FIG. 18, the training data generation part 101 will perform the process of step S10 to S12, S14, S18, and S19 at the time of a deep learning process. The training data input unit 102 performs the process of step S13. The algorithm update unit 103 performs the processes in steps S16 and S17. During the image analysis process, the analysis data generation unit 201 performs the processes of steps S21 and S22. The processing of steps S23, S24, S26 and S27 is performed by the analysis data input unit 202. The processing of steps S25 and S28 is performed by the analysis unit 203. The region detection unit 204 performs the process in step S29.

第3の実施形態に係る画像解析装置100Bが行う深層学習処理の手順および画像解析処理の手順は、第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aがそれぞれ行う手順と同様である。なお、第3の実施形態に係る画像解析装置100Bは、次の4つの点において第1の実施形態に係る深層学習装置100Aおよび画像解析装置200Aと異なる。   The procedures of the deep learning process and the image analysis process performed by the image analysis device 100B according to the third embodiment are the same as the procedures performed by the deep learning device 100A and the image analysis device 200A according to the first embodiment, respectively. . The image analysis apparatus 100B according to the third embodiment is different from the deep learning apparatus 100A and the image analysis apparatus 200A according to the first embodiment in the following four points.

図14に示す画像解析処理時のステップS21において、処理部10Bは、解析対象の組織の解析対象画像78を、ユーザ側の端末装置200Cから受信し、受信した解析対象画像78からR、G、B各色の色濃度符号化図79r,79g,79bを生成する。色濃度符号化図79r,79g,79bおよび解析対象データの生成方法は、図11に示す深層学習処理時におけるステップS10での生成方法と同様である。   In step S21 at the time of the image analysis processing shown in FIG. 14, the processing unit 10B receives the analysis target image 78 of the analysis target tissue from the terminal device 200C on the user side, and R, G, and R from the received analysis target image 78. Color density encoding diagrams 79r, 79g, and 79b for each color B are generated. The method of generating the color density encoding diagrams 79r, 79g, and 79b and the analysis target data is the same as the generation method in step S10 in the deep learning process shown in FIG.

図14に示す画像解析処理時のステップS22において、処理部10Bは、端末装置200Cの入力部26を通じて、解析条件として、端末装置200Cのユーザからの、組織の種別の入力を受け付ける。処理部10Bは、入力された組織の種別に基づき、ウィンドウサイズデータベース104およびアルゴリズムデータベース105を参照して、解析に用いるウィンドウサイズを設定し、解析に用いる深層学習アルゴリズム60を取得する。   In step S22 at the time of the image analysis processing shown in FIG. 14, the processing unit 10B receives an input of the tissue type from the user of the terminal device 200C as an analysis condition through the input unit 26 of the terminal device 200C. The processing unit 10B refers to the window size database 104 and the algorithm database 105 based on the input tissue type, sets the window size used for the analysis, and acquires the deep learning algorithm 60 used for the analysis.

画像解析処理時のステップS28において、処理部10Bは、解析結果の3値画像83を、ユーザ側の端末装置200Cに送信する。ユーザ側の端末装置200Cでは、処理部20Cが、受信した解析結果の3画像83を出力部27に出力する。   In step S28 during the image analysis process, the processing unit 10B transmits the ternary image 83 of the analysis result to the terminal device 200C on the user side. In the terminal device 200C on the user side, the processing unit 20C outputs the received three images 83 of the analysis result to the output unit 27.

画像解析処理時のステップS29において、処理部10Bは、ステップS28に引き続き、解析結果の3値画像83についてさらに、核領域の検出処理を行う。任意のステップとして、処理部10Bは、得られた各領域を、解析対象の解析対象画像78に重ねることにより、領域強調画像84を作成する。処理部10Bは、作成した領域強調画像84を、ユーザ側の端末装置200Cに送信する。ユーザ側の端末装置200Cでは、処理部20Cが、受信した領域強調画像84を出力部27に出力し、画像解析処理を終了する。   In step S29 during the image analysis process, the processing unit 10B further performs a nuclear region detection process on the ternary image 83 as the analysis result, following step S28. As an optional step, the processing unit 10B creates the region-enhanced image 84 by superimposing the obtained regions on the analysis target image 78 to be analyzed. The processing unit 10B transmits the created region emphasized image 84 to the terminal device 200C on the user side. In the user-side terminal device 200C, the processing unit 20C outputs the received region-emphasized image 84 to the output unit 27, and ends the image analysis process.

以上、端末装置200Cのユーザは、解析対象の組織の解析対象画像78を画像解析装置100Bに送信することにより、解析結果として、3値画像83を取得することができる。さらに、端末装置200Cのユーザは、解析結果として、領域強調画像84を取得することができる。   As described above, the user of the terminal device 200C can acquire the ternary image 83 as the analysis result by transmitting the analysis target image 78 of the analysis target tissue to the image analysis device 100B. Furthermore, the user of the terminal device 200C can acquire the region emphasized image 84 as an analysis result.

第3の実施形態に係る画像解析装置100Bによると、ユーザは、ウィンドウサイズデータベース104およびアルゴリズムデータベース105を深層学習装置100Aから取得することなく、画像解析処理の結果を享受することができる。これにより、解析対象の組織を解析するサービスとして、腫瘍領域および/または非腫瘍領域を判別し各組織における腫瘍領域をスクリーニングするサービスを、クラウドサービスとして提供することができる。
[コンピュータプログラム]
本発明の実施形態には、前記ステップS10からS20を処理部10A,20B,10Bに実行させ、学習済み深層学習アルゴリズムの生成するコンピュータプログラムおよびその製品が含まれる。また、本発明の実施形態には、前記ステップS21からS29を処理部10A,20B,10Bに実行させ、コンピュータを個体から採取された組織の画像を解析するために機能させるコンピュータプログラムおよびその製品が含まれる。
According to the image analysis device 100B according to the third embodiment, the user can enjoy the result of the image analysis processing without acquiring the window size database 104 and the algorithm database 105 from the deep learning device 100A. Thereby, as a service for analyzing a tissue to be analyzed, a service for discriminating a tumor region and / or a non-tumor region and screening a tumor region in each tissue can be provided as a cloud service.
[Computer program]
The embodiment of the present invention includes a computer program and a product thereof that cause the processing units 10A, 20B, and 10B to execute the steps S10 to S20 to generate a learned deep learning algorithm. In addition, in the embodiment of the present invention, there is provided a computer program and a product for causing the processing units 10A, 20B, and 10B to execute the steps S21 to S29 and causing the computer to function to analyze an image of a tissue collected from an individual. included.

[その他の形態]
以上、本発明を概要および特定の実施形態によって説明したが、本発明は上記した概要および各実施形態に限定されるものではない。
[Other forms]
As described above, the present invention has been described with the outline and specific embodiments, but the present invention is not limited to the above outline and each embodiment.

上記第1から第3の実施形態では、ステップS13において、処理部10A,20B,10Bは、ウィンドウサイズデータベース104を参照して、ウィンドウサイズの画素数を設定しているが、オペレータまたはユーザがウィンドウサイズを直接設定してもよい。この場合、ウィンドウサイズデータベース104は不要となる。   In the first to third embodiments, in step S13, the processing units 10A, 20B, and 10B refer to the window size database 104 and set the number of pixels of the window size. You may set the size directly. In this case, the window size database 104 becomes unnecessary.

上記第1から第3の実施形態では、ステップS13において、処理部10A,20B,10Bは、入力された組織の種別に基づいて、ウィンドウサイズの画素数を設定しているが、組織の種別の入力に代えて、組織のサイズを入力してもよい。処理部10A,20B,10Bは、入力された組織のサイズに基づいて、ウィンドウサイズデータベース104を参照して、ウィンドウサイズの画素数を設定すればよい。ステップS22においてもステップS13と同様に、組織の種別の入力に代えて、組織のサイズを入力してもよい。処理部20A,20B,10Bは、入力された組織のサイズに基づいて、ウィンドウサイズデータベース104およびアルゴリズムデータベース105を参照して、ウィンドウサイズの画素数を設定し、ニューラルネットワーク60を取得すればよい。   In the first to third embodiments, in step S13, the processing units 10A, 20B, and 10B set the number of pixels of the window size based on the input tissue type. Instead of the input, the size of the tissue may be input. The processing units 10A, 20B, and 10B may set the number of pixels of the window size with reference to the window size database 104 based on the input tissue size. In step S22, as in step S13, the size of the tissue may be input instead of the input of the tissue type. The processing units 20A, 20B, and 10B may obtain the neural network 60 by setting the number of pixels of the window size with reference to the window size database 104 and the algorithm database 105 based on the input tissue size.

組織のサイズを入力する態様については、サイズを数値として直接入力してもよいし、例えば入力のユーザインタフェースをプルダウンメニューとして、ユーザが入力しようとするサイズに対応する、所定の数値範囲をユーザに選択させて入力してもよい。   As for the mode of inputting the size of the organization, the size may be directly input as a numerical value. For example, the user interface of the input is used as a pull-down menu, and a predetermined numerical range corresponding to the size to be input by the user is given to the user. You may select and input.

また、ステップS13およびステップS22において、組織の種別または組織のサイズに加えて、訓練用画像、および解析対象画像78を撮像した際の撮像倍率を入力してもよい。撮像倍率を入力する態様については、倍率を数値として直接入力してもよいし、例えば入力のユーザインタフェースをプルダウンメニューとして、ユーザが入力しようとする倍率に対応する、所定の数値範囲をユーザに選択させて入力してもよい。   Further, in step S13 and step S22, in addition to the type of tissue or the size of the tissue, an imaging magnification when the training image and the analysis target image 78 are captured may be input. As for the mode of inputting the imaging magnification, the magnification may be directly input as a numerical value. For example, the user can select a predetermined numerical range corresponding to the magnification to be input by the user using a pull-down menu of the input user interface. May be entered.

上記第1から第3の実施形態では、深層学習処理時および画像解析処理時において、説明の便宜のためにウィンドウサイズを3×3画素と設定しているが、ウィンドウサイズの画素数はこれに限定されない。ウィンドウサイズは、例えば組織の種別に応じて設定してもよい。この場合、ウィンドウサイズの画素数と画像に含まれる色の原色の数との積が、ニューラルネットワーク50,60の入力層50a,60aのノード数に対応していればよい。   In the first to third embodiments, the window size is set to 3 × 3 pixels for the convenience of explanation during the deep learning process and the image analysis process. It is not limited. The window size may be set according to the type of organization, for example. In this case, the product of the number of pixels of the window size and the number of primary colors included in the image only needs to correspond to the number of nodes of the input layers 50a and 60a of the neural networks 50 and 60.

上記第1から第3の実施形態では、ステップS17において、処理部10A,20B,10Bは、深層学習アルゴリズム60を、組織の種別と一対一に対応付けて、アルゴリズムデータベース105に記憶している。これに代えて、ステップS17において、処理部10A,20B,10Bは、1つの深層学習アルゴリズム60に、複数の組織の種別を対応付けて、アルゴリズムデータベース105に記憶してもよい。   In the first to third embodiments, in step S17, the processing units 10A, 20B, and 10B store the deep learning algorithm 60 in the algorithm database 105 in a one-to-one correspondence with the type of organization. Instead, in step S17, the processing units 10A, 20B, and 10B may store a plurality of tissue types in the algorithm database 105 in association with one deep learning algorithm 60.

上記第1から第3の実施形態では、色相は、光の3原色の組み合わせ、または色の3原色の組み合わせで規定されているが、色相の数は3つに限定されない。色相の数は、赤(R),緑(G),青(B)に黄(Y)を加えた4原色としても良いし、赤(R),緑(G),青(B)の3原色からいずれか1つの色相を減らした2原色としてもよい。あるいは、赤(R),緑(G),青(B)の3原色のいずれか1つ(例えば緑(G))のみの1原色としてもよい。例えば公知の顕微鏡またはバーチャルスライドスキャナ等を用いて取得される訓練用画像70R1,70R2,70R3および解析対象画像78も、赤(R),緑(G),青(B)の3原色のカラー画像に限定されず、2原色のカラー画像であってもよく、1以上の原色を含む画像であればよい。   In the first to third embodiments, the hue is defined by a combination of the three primary colors of light or a combination of the three primary colors of colors. However, the number of hues is not limited to three. The number of hues may be four primary colors obtained by adding yellow (Y) to red (R), green (G), and blue (B), or 3 colors of red (R), green (G), and blue (B). Two primary colors obtained by reducing any one hue from the primary colors may be used. Alternatively, only one of the three primary colors of red (R), green (G), and blue (B) (for example, green (G)) may be used. For example, the training images 70R1, 70R2, 70R3 and the analysis target image 78 acquired using a known microscope or virtual slide scanner are also color images of the three primary colors red (R), green (G), and blue (B). However, the present invention is not limited to this, and may be a color image of two primary colors as long as the image includes one or more primary colors.

上記第1から第3の実施形態では、ステップS10において、処理部10A,20B,10Bは、訓練用画像の各色濃度符号化図(色濃度符号化図70R1r,70R1g,70R1b、色濃度符号化図70R2r,70R2g,70R2b、色濃度符号化図70R3r,70R3g,70R3b)を各原色の8ビット(256段階)の単一色画像として生成しているが、各色濃度符号化図を作成する際の原色の階調は、8ビットに制限されない。各色濃度符号化図の階調は、スライドイメージスキャナの撮像条件に依存してもよい。例えば、1ビット以上であり2ビット、4ビット、16ビット、24ビットの画像であってもよい。同様に、ステップS21において、処理部20A,20B,10Bは、色濃度符号化図79r,79g,79b各原色の単一色画像として生成しているが、色濃度符号化図を作成する際の原色の階調は3階調に制限されない。色濃度符号化図を作成する際の原色は、8ビットに制限されない。色濃度符号化図79r,79g,79bの階調は、スライドイメージスキャナの撮像条件に依存してもよい。例えば、1ビット以上であり2ビット、4ビット、16ビット、24ビットの画像であってもよい。訓練用画像の各色濃度符号化図および色濃度符号化図79r,79g,79bの階調は、全てが同じ階調であることが好ましい。   In the first to third embodiments, in step S10, the processing units 10A, 20B, and 10B each color coding diagram (color density coding diagram 70R1r, 70R1g, 70R1b, color density coding diagram) of the training image. 70R2r, 70R2g, 70R2b, and color density coding diagrams 70R3r, 70R3g, and 70R3b) are generated as a single color image of 8 bits (256 steps) for each primary color. The gradation is not limited to 8 bits. The gradation of each color density encoding diagram may depend on the imaging conditions of the slide image scanner. For example, it may be an image of 1 bit or more and 2 bits, 4 bits, 16 bits, or 24 bits. Similarly, in step S21, the processing units 20A, 20B, and 10B are generated as single color images of the primary colors of the color density encoded diagrams 79r, 79g, and 79b, but the primary colors used when creating the color density encoded diagrams are shown. The gradation is not limited to three gradations. The primary color when creating a color density coding diagram is not limited to 8 bits. The gradations of the color density encoding diagrams 79r, 79g, and 79b may depend on the imaging conditions of the slide image scanner. For example, it may be an image of 1 bit or more and 2 bits, 4 bits, 16 bits, or 24 bits. It is preferable that the gradations of the color density coding diagrams and the color density coding diagrams 79r, 79g, and 79b of the training image are all the same.

上記第1から第3の実施形態では、ステップS10において、処理部10A,20B,10Bは、訓練用画像から、各色濃度符号化図を生成しているが、予め各画素が階調に応じて符号化された行列表を訓練用画像として用いてもよい。処理部10A,20B,10Bは、訓練用画像を各色濃度符号化図として、例えばバーチャルスライドスキャナ等から直接取得してもよい。同様に、ステップS21において、処理部20A,20B,10Bは、解析対象画像78からR、G、B各色の色濃度符号化図79r,79g,79bを生成しているが、予め各画素が階調に応じて符号化された行列表を解析用画像として用いてもよい。すなわち、処理部20A,20B,10Bは、色濃度符号化図79r,79g,79bを、例えばバーチャルスライドスキャナ等から直接取得してもよい。   In the first to third embodiments, in step S10, the processing units 10A, 20B, and 10B generate each color density coding diagram from the training image. An encoded matrix table may be used as a training image. The processing units 10A, 20B, and 10B may directly acquire the training image as each color density encoded diagram, for example, from a virtual slide scanner or the like. Similarly, in step S21, the processing units 20A, 20B, and 10B generate R, G, and B color density encoding diagrams 79r, 79g, and 79b from the analysis target image 78. A matrix table encoded according to the key may be used as the analysis image. That is, the processing units 20A, 20B, and 10B may directly acquire the color density encoding diagrams 79r, 79g, and 79b from, for example, a virtual slide scanner.

上記第1から第3の実施形態では、訓練用画像から各色濃度符号化図を生成する際のカラースペースにはRGBを用いているが、カラースペースはRGBに制限されない。RGB以外にも、YUV、CMY、およびCIE L等の種々のカラースペースを用いることができる。 In the first to third embodiments, RGB is used as the color space when generating each color density coding diagram from the training image, but the color space is not limited to RGB. In addition to RGB, various color spaces such as YUV, CMY, and CIE L * a * b * can be used.

上記第1から第3の実施形態では、各領域訓練データおよび解析用データ80において、各画素について濃度値が赤(R),緑(G),青(B)の順番で格納されているが、濃度値を格納および取り扱う順番はこれに限定されない。例えば濃度値は、青(B),緑(G),赤(R)の順番で格納されていてもよく、各領域訓練データにおける濃度値の並び順と、解析用データ80における濃度値の並び順とが同じであればよい。   In the first to third embodiments, in each area training data and analysis data 80, density values are stored in the order of red (R), green (G), and blue (B) for each pixel. The order of storing and handling density values is not limited to this. For example, the density values may be stored in the order of blue (B), green (G), and red (R), the order of density values in each area training data, and the density value in analysis data 80. The order may be the same.

上記第1から第3の実施形態では、処理部10A,10Bは一体の装置として実現されているが、処理部10A,10Bは一体の装置である必要はなく、CPU11、メモリ12、記憶部13等が別所に配置され、これらがネットワークで接続されていてもよい。処理部10A,10Bと、入力部16と、出力部17とについても、一ヶ所に配置される必要は必ずしもなく、それぞれ別所に配置されて互いにネットワークで通信可能に接続されていてもよい。処理部20A,20B,20Cについても処理部10A,10Bと同様である。   In the first to third embodiments, the processing units 10A and 10B are realized as an integrated device, but the processing units 10A and 10B do not have to be an integrated device, and the CPU 11, the memory 12, and the storage unit 13 Etc. may be arranged in different places, and these may be connected via a network. The processing units 10A and 10B, the input unit 16, and the output unit 17 are not necessarily arranged in one place, and may be arranged in different places and connected to each other via a network. The processing units 20A, 20B, and 20C are the same as the processing units 10A and 10B.

上記第1から第3の実施形態では、訓練データ生成部101、訓練データ入力部102、アルゴリズム更新部103、解析用データ生成部201、解析用データ入力部202、解析部203および領域検出部204の各機能ブロックは、単一のCPU11または単一のCPU21において実行されているが、これら各機能ブロックは単一のCPUにおいて実行される必要は必ずしもなく、複数のCPUで分散して実行されてもよい。また、これら各機能ブロックは、複数のGPUで分散して実行されてもよいし、複数のCPUと複数のGPUとで分散して実行されてもよい。   In the first to third embodiments, the training data generation unit 101, the training data input unit 102, the algorithm update unit 103, the analysis data generation unit 201, the analysis data input unit 202, the analysis unit 203, and the region detection unit 204 Each functional block is executed by a single CPU 11 or a single CPU 21, but these functional blocks do not necessarily need to be executed by a single CPU, and are distributed and executed by a plurality of CPUs. Also good. Each of these functional blocks may be distributed and executed by a plurality of GPUs, or may be distributed and executed by a plurality of CPUs and a plurality of GPUs.

上記第2および第3の実施形態では、図11および図14で説明する各ステップの処理を行うためのプログラムを記憶部13,23に予め記憶している。これに代えて、プログラムは、例えばDVD−ROMやUSBメモリ等の、コンピュータ読み取り可能であって非一時的な有形の記憶媒体98から処理部10B,20Bにインストールしてもよい。または、処理部10B,20Bをネットワーク99と接続し、ネットワーク99を介して例えば外部のサーバ(図示せず)からプログラムをダウンロードしてインストールしてもよい。   In the second and third embodiments, a program for performing the processing of each step described with reference to FIGS. 11 and 14 is stored in the storage units 13 and 23 in advance. Alternatively, the program may be installed in the processing units 10B and 20B from a computer-readable non-temporary tangible storage medium 98 such as a DVD-ROM or a USB memory. Alternatively, the processing units 10B and 20B may be connected to the network 99, and the program may be downloaded and installed from, for example, an external server (not shown) via the network 99.

上記第1から第3の実施形態では、入力部16,26はキーボードまたはマウス等の入力装置であり、出力部17,27は液晶ディスプレイ等の表示装置として実現されている。これに代えて、入力部16、26と出力部17、27とを一体化してタッチパネル式の表示装置として実現してもよい。または、出力部17,27をプリンター等で構成し、解析結果の3値画像83または領域強調画像84を印刷して出力してもよい。   In the first to third embodiments, the input units 16 and 26 are input devices such as a keyboard or a mouse, and the output units 17 and 27 are realized as display devices such as a liquid crystal display. Alternatively, the input units 16 and 26 and the output units 17 and 27 may be integrated to be realized as a touch panel display device. Alternatively, the output units 17 and 27 may be configured by a printer or the like, and the ternary image 83 or the region emphasized image 84 as an analysis result may be printed and output.

上記第1から第3の実施形態では、撮像装置300は、深層学習装置100Aまたは画像解析装置100Bと直接接続されているが、撮像装置300は、ネットワーク99を介して深層学習装置100Aまたは画像解析装置100Bと接続されていてもよい。撮像装置400についても同様に、撮像装置400は、画像解析装置200Aまたは画像解析装置200Bと直接接続されているが、撮像装置400は、ネットワーク99を介して画像解析装置200Aまたは画像解析装置200Bと接続されていてもよい。   In the first to third embodiments, the imaging device 300 is directly connected to the deep learning device 100A or the image analysis device 100B, but the imaging device 300 is connected to the deep learning device 100A or the image analysis via the network 99. It may be connected to the device 100B. Similarly for the imaging device 400, the imaging device 400 is directly connected to the image analysis device 200A or the image analysis device 200B. However, the imaging device 400 is connected to the image analysis device 200A or the image analysis device 200B via the network 99. It may be connected.

<学習済み深層学習アルゴリズムの検証>
上記第2の実施形態に示すスタンドアロン型のシステムにて、深層学習処理および画像解析処理を行った。学習の対象とする組織として、腫瘍領域と正常領域を含むヒト胃がん組織を用いた。学習済みの深層学習アルゴリズムを作成するにあたり、組織標本の拡大倍率を1倍、3倍、5倍、10倍、20倍、および40倍と変化させて訓練用画像を撮像し、異なる拡大倍率の訓練用画像を用いた訓練データをニューラルネットワークに学習させ、解析結果の正確性を確認した。
学習データおよび解析データの詳細は、次の通りであった。
学習データ:106枚のホールスライドイメージ
検証用解析データ:45枚のホールスライドイメージ
<Verification of learned deep learning algorithm>
The deep learning process and the image analysis process were performed in the stand-alone system shown in the second embodiment. As a tissue to be learned, human stomach cancer tissue including a tumor region and a normal region was used. In creating a deep learning algorithm that has already been trained, change the magnification of the tissue sample to 1x, 3x, 5x, 10x, 20x, and 40x, and take training images. Training data using training images was learned by a neural network, and the accuracy of the analysis results was confirmed.
The details of learning data and analysis data were as follows.
Learning data: 106 hole slide images Analysis data for verification: 45 hole slide images

[訓練データの作成および学習]
HE染色した胃がん組織の明視野画像のホールスライドイメージを、バーチャルスライドスキャナ(NanoZoomer-XR、(Hamamatsu Photonics;スキャン分解能:20倍モードスキャン時0.46 μm/pixel、40倍モードスキャン時0.23 μm/pixel))を用いてカラー撮像した。撮像倍率は1倍、3倍、5倍、10倍、20倍、および40倍とした。学習対象の組織を含むホールスライドイメージ上で、病理医が腫瘍領域、非腫瘍領域、および非組織領域を指定した。各領域が指定されたホールスライドイメージを上記の条件で分割し、訓練用画像とした。個々の訓練用画像について腫瘍領域であるか、非腫瘍領域であるか、非組織領域であるかを決定した。その際、腫瘍領域と非腫瘍領域が混在する組織の領域については、訓練用画像内の組織領域に該当する画素数のうち、腫瘍領域と指定された画素数が50%以上を占める場合には腫瘍領域とした。また、訓練用画像内の組織領域に該当する画素数のうち、非腫瘍領域と指定された画素数が占める割合が100%の場合には非腫瘍領域とした。非組織領域と組織領域が混在する訓練用画像については、組織領域が訓練用画像の画素数の0%である場合に非組織領域とし、それ以外は組織領域とした。腫瘍領域、非腫瘍領域、非組織領域と判定されたそれぞれの訓練用画像の各画素について、各領域を区別するラベル値(腫瘍領域は「1」、非腫瘍領域は「2」、非組織領域は「0」)を付与し、第1の予備訓練データ70R1L、第2の予備訓練データ70R2Lおよび第3の予備訓練データ70R2Lを生成した。腫瘍領域と判定された訓練用画像を第1の訓練用画像とし、非腫瘍領域と判定された訓練用画像を第2の訓練用画像70R2とし、非組織領域と判定された訓練用画像を第3の訓練用画像70R3とした。各訓練用画像についてR、G、B各色の色濃度値を8ビットで階調化して、R、G、B各色の色濃度符号化図を生成し、作成したR、G、B各色の色濃度符号化図を組み合わせて第1の訓練データ74R1、第2の訓練データ74R2、第3の訓練データ74R3のそれぞれを生成した。
[Create and learn training data]
A virtual slide scanner (NanoZoomer-XR, (Hamamatsu Photonics; scan resolution: 0.46 μm / pixel at 20x mode scan, 0.23 μm / pixel at 40x mode scan) ) Was used for color imaging. The imaging magnification was 1 ×, 3 ×, 5 ×, 10 ×, 20 ×, and 40 ×. A pathologist designated a tumor area, a non-tumor area, and a non-tissue area on a hole slide image including a tissue to be learned. A hole slide image in which each region was designated was divided under the above conditions to obtain a training image. It was determined for each training image whether it was a tumor area, a non-tumor area or a non-tissue area. At that time, for a tissue region in which a tumor region and a non-tumor region are mixed, out of the number of pixels corresponding to the tissue region in the training image, the number of pixels designated as a tumor region occupies 50% or more. Tumor area. In addition, when the ratio of the number of pixels designated as the non-tumor region out of the number of pixels corresponding to the tissue region in the training image is 100%, the non-tumor region is determined. A training image in which a non-tissue region and a tissue region are mixed is defined as a non-tissue region when the tissue region is 0% of the number of pixels of the training image, and the rest is a tissue region. For each pixel of each training image determined to be a tumor area, a non-tumor area, or a non-tissue area, a label value that distinguishes each area ("1" for a tumor area, "2" for a non-tumor area, Was assigned “0”), and the first preliminary training data 70R1L, the second preliminary training data 70R2L, and the third preliminary training data 70R2L were generated. The training image determined as the tumor region is the first training image, the training image determined as the non-tumor region is the second training image 70R2, and the training image determined as the non-tissue region is the first training image. 3 training images 70R3. For each training image, the color density value of each color of R, G, B is gradationized by 8 bits to generate a color density coding diagram of each color of R, G, B, and the color of each created R, G, B color Each of the first training data 74R1, the second training data 74R2, and the third training data 74R3 is generated by combining the density coding diagrams.

その後、第1の訓練データ74R1と第1の予備訓練データ70R1Lとを組み合わせて腫瘍領域訓練データを作成した。第2の訓練データ74R2と第2の予備訓練データ70R2Lとを組み合わせて非腫瘍領域訓練データを作成した。第3の訓練データ74R3と第3の予備訓練データ70R2Lとを組み合わせて非組織領域訓練データを作成した。作成した各領域訓練データを200×200画素のウィンドウサイズに分割し、分割したウィンドウサイズの訓練データを入力層として、ニューラルネットワークを学習させた。   Thereafter, tumor region training data was created by combining the first training data 74R1 and the first preliminary training data 70R1L. Non-tumor region training data was created by combining the second training data 74R2 and the second preliminary training data 70R2L. The non-tissue region training data was created by combining the third training data 74R3 and the third preliminary training data 70R2L. Each created region training data was divided into a window size of 200 × 200 pixels, and a neural network was trained using the training data having the divided window size as an input layer.

各領域訓練データは組織標本の拡大倍率毎に生成し、拡大倍率毎にニューラルネットワークを学習させた。   Each area training data was generated for each magnification of the tissue sample, and a neural network was trained for each magnification.

[解析対象画像の作成]
訓練データと同様に、HE染色したヒト胃がん組織の明視野画像のホールスライドイメージを、バーチャルスライドスキャナを用いてカラー撮像し解析用画像を得た。撮像倍率は1倍、3倍、5倍、10倍、20倍、および40倍とした。その後、撮像した解析用画像をもとにR、G、B各色の色濃度符号化図を作成し、作成したR、G、B各色の色濃度符号化図を組み合わせて解析対象データを生成した。解析対象データは、拡大倍率毎に生成した。
[Create analysis target image]
Similar to the training data, a hole slide image of a bright field image of HE-stained human gastric cancer tissue was color-imaged using a virtual slide scanner to obtain an image for analysis. The imaging magnification was 1 ×, 3 ×, 5 ×, 10 ×, 20 ×, and 40 ×. After that, based on the captured analysis image, a color density coding diagram for each of the R, G, and B colors is created, and analysis target data is generated by combining the created color density coding diagrams for each of the R, G, and B colors. . The analysis target data was generated for each enlargement magnification.

[解析結果]
解析対象データから200×200画素のウィンドウサイズの解析用データを作成し、解析用データを、拡大倍率に対応した学習済みのニューラルネットワークに入力した。ニューラルネットワークから出力される解析結果をもとに、腫瘍領域と、非腫瘍領域と、非組織領域(背景)とに分類し、解析処理により得られた腫瘍領域を白で表示し、非腫瘍領域をグレーで表示し、非組織領域を黒で表示するように処理した。解析結果を図19に示す。
[Analysis result]
Analysis data having a window size of 200 × 200 pixels was created from the analysis target data, and the analysis data was input to a learned neural network corresponding to the magnification. Based on the analysis result output from the neural network, it is classified into tumor area, non-tumor area, and non-tissue area (background), and the tumor area obtained by the analysis process is displayed in white. Was displayed in gray, and the non-tissue region was displayed in black. The analysis result is shown in FIG.

図19中、(a)は、胃がん組織をHE染色して撮像した明視野画像のホールスライドイメージであり、解析対象の画像である。(b)は、ホールスライドイメージの腫瘍領域を病理医が指定し実線で囲った像である。(c)は、拡大倍率1倍の訓練用画像と解析用画像を用いた解析結果を示す。病理医が指定した各領域を正確に示すことはできなかった。(d)は、拡大倍率5倍の訓練用画像と解析用画像を用いた解析結果を示す。病理医が指定した腫瘍領域を腫瘍領域として概ね判別することができた。また、病理医が指定した非腫瘍領域を非腫瘍領域として概ね判別することができた。病理医が指定した非組織領域を非組織領域として概ね判別することができた。(e)は、拡大倍率40倍の訓練用画像と解析用画像を用いた解析結果を示す。病理医が指定した腫瘍領域を腫瘍領域としてある程度判別することができた。しかし、病理医が非腫瘍領域と指定した領域において、腫瘍領域と判定される領域が増えており、非腫瘍領域を腫瘍領域と誤判定する割合が高くなっていた。   In FIG. 19, (a) is a hole slide image of a bright field image obtained by HE-staining gastric cancer tissue and is an image to be analyzed. (B) is an image in which a pathologist designates a tumor region of a hole slide image and is surrounded by a solid line. (C) shows an analysis result using an image for training and an image for analysis having a magnification of 1 ×. Each area designated by the pathologist could not be accurately shown. (D) shows the analysis result using the image for training and the image for analysis of 5 times magnification. The tumor area designated by the pathologist was generally discriminated as the tumor area. In addition, the non-tumor area designated by the pathologist could be generally discriminated as a non-tumor area. The non-tissue area designated by the pathologist could be generally discriminated as a non-tissue area. (E) shows the analysis result using the image for training and the image for analysis of 40 times magnification. The tumor area designated by the pathologist could be identified to some extent as a tumor area. However, in the region designated by the pathologist as a non-tumor region, the number of regions determined to be tumor regions has increased, and the rate of erroneously determining non-tumor regions as tumor regions has increased.

以上の結果から、訓練用画像および解析用画像を取得する際の拡大倍率は低すぎても高すぎても誤判定の原因となることが示された。   From the above results, it has been shown that the enlargement magnification when acquiring the training image and the analysis image is too low or too high can cause erroneous determination.

図20中、(a)は、図19とは異なる胃がん組織をHE染色して撮像した明視野画像のホールスライドイメージであり、解析対象の画像である。(b)は、ホールスライドイメージの腫瘍領域を病理医が指定し実線で囲った像である。(c)は、拡大倍率5倍の訓練用画像と解析用画像を用いた解析結果を示す。病理医が指定した腫瘍領域を腫瘍領域として概ね判別することができた。また、病理医が指定した非腫瘍領域を非腫瘍領域として概ね判別することができた。病理医が指定した非組織領域を非組織領域として概ね判別することができた。(d)は、拡大倍率20倍の訓練用画像と解析用画像を用いた解析結果を示す。拡大倍率5倍の場合と同様に、病理医が指定した各領域を概ね判別することができた。   In FIG. 20, (a) is a hole slide image of a bright-field image obtained by HE staining a gastric cancer tissue different from that in FIG. 19, and is an image to be analyzed. (B) is an image in which a pathologist designates a tumor region of a hole slide image and is surrounded by a solid line. (C) shows an analysis result using an image for training and an image for analysis having a magnification of 5 times. The tumor area designated by the pathologist was generally discriminated as the tumor area. In addition, the non-tumor area designated by the pathologist could be generally discriminated as a non-tumor area. The non-tissue area designated by the pathologist could be generally discriminated as a non-tissue area. (D) shows the analysis result using the image for training and the image for analysis of 20 times magnification. As in the case of an enlargement magnification of 5 times, each region designated by the pathologist could be roughly discriminated.

拡大倍率5倍の解析用画像について、下式にしたがって、ホールスライドイメージ1枚に存在する組織領域における腫瘍領域の含有率を算出した。   For the analysis image with a magnification of 5 times, the content of the tumor region in the tissue region present in one hole slide image was calculated according to the following formula.

腫瘍領域の含有率(%)={[腫瘍領域と判定された画素数]/[(腫瘍領域と判定された画素数)+(非腫瘍領域と判定された画素数)]}×100   Content ratio (%) of tumor region = {[number of pixels determined to be a tumor region] / [(number of pixels determined to be a tumor region) + (number of pixels determined to be a non-tumor region)]} × 100

腫瘍領域の含有率は54.5%であった。   The content of the tumor area was 54.5%.

また、図21に各拡大倍率の感度(a)および陽性的中率(b)を示す。この結果から、訓練用画像および解析用画像を取得する際の組織標本の拡大倍率は、5から20倍が適切であると考えられた。また、図21にウィンドウサイズの画素数の違いによる感度(c)および陽性的中率(d)の変化を示す。解析用画像は拡大倍率5倍で撮像した。ウィンドウサイズの画素数は、125×125画素から200×200画素が好ましいと考えられた。   FIG. 21 shows sensitivity (a) and positive predictive value (b) at each magnification. From this result, it was considered that 5 to 20 times was appropriate as the magnification of the tissue specimen when acquiring the training image and the analysis image. FIG. 21 shows changes in sensitivity (c) and positive predictive value (d) due to differences in the number of pixels in the window size. The analysis image was taken at a magnification of 5 times. The number of pixels of the window size was considered to be preferably 125 × 125 pixels to 200 × 200 pixels.

今回1枚のホールスライドイメージの解析時間は、数分〜30分程度であった。   This time, the analysis time for one hole slide image was several minutes to 30 minutes.

10(10A,10B) 処理部
20(20A,20B,20C) 処理部
11,21 CPU
12,22 メモリ
13,23 記録部
14,24 バス
15,25 インタフェース部
16,26 入力部
17,27 出力部
19,29 GPU
50 ニューラルネットワーク(深層学習アルゴリズム)
50a 入力層
50b 出力層
50c 中間層
60 学習済みのニューラルネットワーク(学習済みの深層学習アルゴリズム)
60a 入力層
60b 出力層
60c 中間層
70W1 ホールスライドイメージ
70W2 ホールスライドイメージ
70W3 ホールスライドイメージ
70R1L 第1の予備訓練データ
70R2L 第2の予備訓練データ
70R3L 第3の予備訓練データ
72R1r,72R1g,72R1b 色濃度符号化図
72R2r,72R2g,72R2b 色濃度符号化図
72R3r,72R3g,72R3b 色濃度符号化図
74R1,74R2,74R3 訓練データ
75R1,75R2, 75R3 ウィンドウサイズの訓練データ
76 色濃度値
77R1,77R2,77R3 真値像のラベル値
78 解析対象の明視野画像
79r,79g,79b 解析対象の色濃度符号化図
80 解析用データ
81 色濃度値
82 判別結果(画素の推定値)
83 解析結果の3値画像
84 領域強調画像
89(89a,89b) ノード
98 記録媒体
99 ネットワーク
100 ベンダ側装置
100A 深層学習装置
100B 統合型の画像解析装置
101 訓練データ生成部
102 訓練データ入力部
103 アルゴリズム更新部
104 ウィンドウサイズデータベース
105 アルゴリズムデータベース
200 ユーザ側装置
200A 画像解析装置
200B 統合型の画像解析装置
200C 端末装置
201 解析用データ生成部
202 解析用データ入力部
203 解析部
204 領域検出部
300,400 撮像装置
301,401 撮像素子
308,408 試料組織
309,409 ステージ
W1 ウィンドウ
W2 ウィンドウ
10 (10A, 10B) Processing unit 20 (20A, 20B, 20C) Processing unit 11, 21 CPU
12, 22 Memory 13, 23 Recording unit 14, 24 Bus 15, 25 Interface unit 16, 26 Input unit 17, 27 Output unit 19, 29 GPU
50 Neural network (deep learning algorithm)
50a input layer 50b output layer 50c intermediate layer 60 learned neural network (learned deep learning algorithm)
60a Input layer 60b Output layer 60c Intermediate layer 70W1 Hole slide image 70W2 Hole slide image 70W3 Hole slide image 70R1L First preliminary training data 70R2L Second preliminary training data 70R3L Third preliminary training data 72R1r, 72R1g, 72R1b Color density code 72R2r, 72R2g, 72R2b Color density coding diagram 72R3r, 72R3g, 72R3b Color density coding diagram 74R1, 74R2, 74R3 Training data 75R1, 75R2, 75R3 Training data for window size 76 Color density value 77R1, 77R2, 77R3 True value Image label value 78 Bright field images 79r, 79g, 79b to be analyzed Color density encoding chart 80 to be analyzed 80 Analysis data 81 Color density value 82 Discrimination result (pixel estimated value)
83 Three-value image of analysis result 84 Area-enhanced image 89 (89a, 89b) Node 98 Recording medium 99 Network 100 Vendor side device 100A Deep learning device 100B Integrated image analysis device 101 Training data generation unit 102 Training data input unit 103 Algorithm Update unit 104 Window size database 105 Algorithm database 200 User side device 200A Image analysis device 200B Integrated image analysis device 200C Terminal device 201 Analysis data generation unit 202 Analysis data input unit 203 Analysis unit 204 Area detection unit 300, 400 Apparatus 301, 401 Image sensor 308, 408 Sample structure 309, 409 Stage W1 Window W2 Window

Claims (32)

ニューラルネットワーク構造の深層学習アルゴリズムを用いて、組織の画像を解析する画像解析方法であって、
解析対象の組織を含む解析対象画像から解析用データを生成し、
前記解析用データを、前記深層学習アルゴリズムに入力し、
前記深層学習アルゴリズムによって、前記解析用データに含まれる領域が腫瘍領域であるか否かを示すデータを生成する、
ことを含む、画像解析方法。
An image analysis method for analyzing an image of a tissue using a deep learning algorithm having a neural network structure,
Generate analysis data from the analysis target image including the analysis target tissue,
The analysis data is input to the deep learning algorithm,
The deep learning algorithm generates data indicating whether the region included in the analysis data is a tumor region,
An image analysis method.
さらに、前記深層学習アルゴリズムによって、
前記解析用データに含まれる領域が非腫瘍領域であることを示すデータを生成する、
請求項1の画像解析方法。
Furthermore, by the deep learning algorithm,
Generating data indicating that the region included in the analysis data is a non-tumor region;
The image analysis method according to claim 1.
さらに、前記深層学習アルゴリズムによって、前記解析用データに含まれる領域が組織を含まない領域であることを示すデータを生成する、
請求項1または2の画像解析方法。
Further, the deep learning algorithm generates data indicating that the region included in the analysis data is a region that does not include tissue.
The image analysis method according to claim 1 or 2.
前記解析対象画像が、組織診断用標本の画像であり、前記解析対象画像が2以上の原色を組み合わせた色相を含む、
請求項1乃至3のいずれか1項の画像解析方法。
The analysis target image is an image of a tissue diagnostic specimen, and the analysis target image includes a hue obtained by combining two or more primary colors;
The image analysis method according to claim 1.
前記解析対象画像が、前記解析対象の組織を3倍から20倍に拡大して撮像された画像である、
請求項1乃至4のいずれか1項の画像解析方法。
The analysis target image is an image obtained by enlarging the analysis target tissue from 3 times to 20 times,
The image analysis method according to claim 1.
前記解析対象画像に含まれる領域の大きさが、200μm×200μm以上400μm×400μm以下である、
請求項1乃至5のいずれか1項の画像解析方法。
The size of the region included in the analysis target image is 200 μm × 200 μm or more and 400 μm × 400 μm or less.
The image analysis method according to claim 1.
前記解析用データに含まれる領域が腫瘍領域であるか否かを示すデータに基づいて、腫瘍細胞の領域とそれ以外の領域とを区別して提示するためのデータを生成する、
請求項1乃至6のいずれか1項の画像解析方法。
Based on the data indicating whether the region included in the analysis data is a tumor region, to generate data for distinguishing and presenting the region of the tumor cell and other regions,
The image analysis method according to claim 1.
前記解析用データに含まれる領域が腫瘍領域であるか否かを示すデータに基づいて、腫瘍細胞の領域とそれ以外の領域との境界を示すデータを生成する、
請求項1乃至6のいずれか1項の画像解析方法。
Based on the data indicating whether the region included in the analysis data is a tumor region, to generate data indicating the boundary between the region of the tumor cell and the other region,
The image analysis method according to claim 1.
前記解析用データに含まれる領域が腫瘍領域であるか否かを示すデータに基づいて、前記解析対象の組織における腫瘍領域の含有率を示すデータを生成する、
請求項1乃至6のいずれか1項の画像解析方法。
Based on the data indicating whether the region included in the analysis data is a tumor region, to generate data indicating the content of the tumor region in the tissue to be analyzed,
The image analysis method according to claim 1.
前記解析用データに含まれる領域が腫瘍領域であるか否かを示すデータに基づいて、前記解析対象の組織における腫瘍領域と非腫瘍領域の比率を示すデータを生成する、
請求項1乃至6のいずれか1項の画像解析方法。
Based on the data indicating whether or not the region included in the analysis data is a tumor region, to generate data indicating the ratio of the tumor region and the non-tumor region in the tissue to be analyzed,
The image analysis method according to claim 1.
1つの解析対象画像について所定画素数の領域毎に応じた複数の前記解析用データを生成する、
請求項1乃至10のいずれか1項の画像解析方法。
Generating a plurality of data for analysis corresponding to each region of a predetermined number of pixels for one analysis target image;
The image analysis method according to claim 1.
さらに、1つの解析対象画像について、腫瘍領域と、非腫瘍領域と、組織を含まない領域とを区別して提示するためのデータを生成する、請求項1乃至11のいずれか1項の画像解析方法。   The image analysis method according to any one of claims 1 to 11, further comprising: generating data for distinguishing and presenting a tumor region, a non-tumor region, and a region not including a tissue for one analysis target image. . 前記ニューラルネットワークの入力層のノード数が、前記解析用データの前記所定画素数と前記組み合わせた原色の数との積に対応している、
請求項1乃至12のいずれか1項の画像解析方法。
The number of nodes in the input layer of the neural network corresponds to the product of the predetermined number of pixels of the analysis data and the number of combined primary colors.
The image analysis method according to claim 1.
前記標本が染色された標本であり、前記解析対象画像は、前記染色された標本を顕微鏡の明視野下で撮像した画像である、
請求項4乃至13のいずれか1項の画像解析方法。
The specimen is a stained specimen, and the analysis target image is an image obtained by imaging the stained specimen in a bright field of a microscope.
The image analysis method according to claim 4.
前記深層学習アルゴリズムの学習に用いられる訓練データが、個体から採取された腫瘍領域を含む組織の標本に対して明視野観察用染色を施して作製された標本の染色像を顕微鏡の明視野下で撮像した明視野画像に基づいて生成されている、
請求項1乃至14のいずれか1項の画像解析方法。
The training data used for the learning of the deep learning algorithm is a stained image of a specimen prepared by performing staining for bright field observation on a tissue specimen including a tumor region collected from an individual under a bright field of a microscope. Generated based on the captured bright field image,
The image analysis method according to claim 1.
前記明視野観察用染色は、核染色にヘマトキシリンを用いる、
請求項15の画像解析方法。
The staining for bright field observation uses hematoxylin for nuclear staining,
The image analysis method according to claim 15.
前記明視野観察用染色が、ヘマトキシリン・エオジン染色である、
請求項15の画像解析方法。
The bright field observation staining is hematoxylin-eosin staining,
The image analysis method according to claim 15.
前記訓練データが、前記明視野画像から判定された、腫瘍領域であることを示すラベル値を含む、
請求項15乃至17のいずれか1項の画像解析方法。
The training data includes a label value determined from the bright field image indicating a tumor region;
The image analysis method according to claim 15.
前記訓練データが、前記ラベル値を前記明視野画像の所定画素数の領域毎に含む、
請求項18の画像解析方法。
The training data includes the label value for each region of a predetermined number of pixels of the bright field image.
The image analysis method according to claim 18.
前記訓練データが、前記明視野画像における所定画素数の領域毎に生成されている、
請求項15乃至19のいずれか1項の画像解析方法。
The training data is generated for each region of a predetermined number of pixels in the bright field image,
The image analysis method according to claim 15.
前記深層学習アルゴリズムが、前記解析用データを、前記解析対象画像に含まれる組織が腫瘍領域であることを示すクラスに分類する、
請求項1乃至20のいずれか1項の画像解析方法。
The deep learning algorithm classifies the analysis data into a class indicating that the tissue included in the analysis target image is a tumor region.
The image analysis method according to claim 1.
前記ニューラルネットワークの出力層がソフトマックス関数を活性化関数とするノードである、
請求項1乃至21のいずれか1項の画像解析方法。
The output layer of the neural network is a node having a softmax function as an activation function.
The image analysis method according to any one of claims 1 to 21.
前記深層学習アルゴリズムは、前記解析用データが入力される度に、前記前記所定の領域が腫瘍領域を含むか否かを示すデータを所定画素数の領域毎に生成する、
請求項1乃至22のいずれか1項の画像解析方法。
The deep learning algorithm generates data indicating whether or not the predetermined region includes a tumor region for each region of a predetermined number of pixels each time the analysis data is input.
The image analysis method according to any one of claims 1 to 22.
前記深層学習アルゴリズムが、前記組織の種類に応じて生成されている、
請求項1乃至23のいずれか1項の画像解析方法。
The deep learning algorithm is generated according to the type of the tissue;
The image analysis method according to any one of claims 1 to 23.
さらに、前記組織の種類に応じて複数の前記深層学習アルゴリズムの中から選択された、前記解析対象の組織の種類に対応する前記深層学習アルゴリズムを用いて、前記解析用データを処理する、
請求項24の画像解析方法。
Furthermore, the analysis data is processed using the deep learning algorithm corresponding to the type of tissue to be analyzed, selected from among the plurality of deep learning algorithms according to the type of the tissue,
The image analysis method according to claim 24.
ニューラルネットワーク構造の深層学習アルゴリズムを用いて、組織の画像を解析する画像解析装置であって、
解析対象の組織を含む解析対象画像から解析用データを生成し、
前記解析用データを、前記深層学習アルゴリズムに入力し、
前記深層学習アルゴリズムによって、前記解析用データに含まれる領域が腫瘍領域であるか否かを示すデータを生成する処理部、
を備える画像解析装置。
An image analysis device that analyzes an image of a tissue using a deep learning algorithm having a neural network structure,
Generate analysis data from the analysis target image including the analysis target tissue,
The analysis data is input to the deep learning algorithm,
A processing unit that generates data indicating whether or not the region included in the analysis data is a tumor region by the deep learning algorithm,
An image analysis apparatus comprising:
ニューラルネットワーク構造の深層学習アルゴリズムを用いて、組織の画像を解析するコンピュータプログラムであって、
コンピュータに、
解析対象の組織を含む解析対象画像から解析用データを生成する処理と、
前記解析用データを、前記深層学習アルゴリズムに入力する処理と、
前記深層学習アルゴリズムによって、前記解析用データに含まれる領域が腫瘍領域であるか否かを示すデータを生成する処理と、
を実行させるプログラム。
A computer program for analyzing an image of a tissue using a neural network structure deep learning algorithm,
On the computer,
Processing for generating analysis data from the analysis target image including the tissue to be analyzed;
Processing for inputting the analysis data to the deep learning algorithm;
Processing to generate data indicating whether or not the region included in the analysis data is a tumor region by the deep learning algorithm;
A program that executes
深層学習アルゴリズムの学習に用いられる訓練データを訓練用の組織標本から取得した訓練用画像に基づいて生成するステップと、前記訓練データをニューラルネットワークに学習させるステップと、を含み、
前記生成ステップは、
腫瘍領域を撮像した第1の訓練用画像に対応する第1の訓練データを取得する第1の取得ステップと、
非腫瘍領域を撮像した第2の訓練用画像に対応する第2の訓練データを取得する第2の取得ステップと、
組織を含まない領域を撮像した第3の訓練用画像に対応する第3の訓練データを取得する第3の取得ステップと、
を含み、
前記学習ステップは、
前記第1の訓練データが、腫瘍領域であることをニューラルネットワークに学習させる第1の学習ステップと、
前記第2の訓練データが、非腫瘍領域であることをニューラルネットワークに学習させる第2の学習ステップと、
前記第3の訓練データが、組織を含まない領域であることをニューラルネットワークに学習させる第3の学習ステップと、
を含む、
学習済み深層学習アルゴリズムの生成方法。
Generating training data used for learning of a deep learning algorithm based on a training image acquired from a tissue sample for training; and causing the neural network to learn the training data,
The generating step includes
A first acquisition step of acquiring first training data corresponding to a first training image obtained by imaging a tumor region;
A second acquisition step of acquiring second training data corresponding to a second training image obtained by imaging a non-tumor region;
A third acquisition step of acquiring third training data corresponding to a third training image obtained by imaging a region not including a tissue;
Including
The learning step includes
A first learning step for causing the neural network to learn that the first training data is a tumor region;
A second learning step for causing the neural network to learn that the second training data is a non-tumor region;
A third learning step for causing the neural network to learn that the third training data is a region not including tissue;
including,
How to generate a trained deep learning algorithm.
前記第1の訓練データと、第2の訓練データと、第3の訓練データとをニューラルネットワークの入力層とし、腫瘍領域であることと、非腫瘍領域であることと、組織を含まない領域であることとをそれぞれ前記第1の訓練データと、第2の訓練データと、第3の訓練データとに対応するニューラルネットワークの出力層とする、
請求項28の学習済み深層学習アルゴリズムの生成方法。
The first training data, the second training data, and the third training data are used as an input layer of a neural network, and are a tumor region, a non-tumor region, and a region not including a tissue. A neural network output layer corresponding to the first training data, the second training data, and the third training data, respectively.
The method for generating a learned deep learning algorithm according to claim 28.
前記第1の取得ステップの前に、前記第1の訓練用画像から、前記第1の訓練データを生成するステップと、
前記第2の取得ステップの前に、前記第2の訓練用画像から、前記第2の訓練データを生成するステップと、
前記第3の取得ステップの前に、前記第3の訓練用画像から、前記第3の訓練データを生成するステップと、
をさらに含む、
請求項28または29の学習済み深層学習アルゴリズムの製造方法。
Generating the first training data from the first training image before the first obtaining step;
Generating the second training data from the second training image before the second obtaining step;
Generating the third training data from the third training image before the third obtaining step;
Further including
30. A method of manufacturing the learned deep learning algorithm of claim 28 or 29.
前記訓練用画像が、個体から採取された組織に対して明視野観察用染色を施して作製された標本の染色像を顕微鏡の明視野下で撮像した明視野画像である、
請求項28乃至30のいずれか1項の学習済み深層学習アルゴリズムの生成方法。
The training image is a bright-field image obtained by capturing a stained image of a specimen prepared by performing bright-field observation staining on a tissue collected from an individual under a bright field of a microscope.
A method for generating a learned deep learning algorithm according to any one of claims 28 to 30.
第1の訓練データと、第2の訓練データと、第3の訓練データとをニューラルネットワークの入力層とし、腫瘍領域であることと、非腫瘍領域であることと、組織を含まない領域であることとをそれぞれ前記第1の訓練データと、第2の訓練データと、第3の訓練データとに対応するニューラルネットワークの出力層として学習させた深層学習アルゴリズムであって、
前記第1の訓練データは、訓練用の組織の腫瘍領域を撮像した第1の訓練用画像から生成され、
前記第2の訓練データは、訓練用の組織の非腫瘍領域を撮像した第2の訓練用画像から生成され、
前記第3の訓練データは、組織を含まない領域を撮像した第3の訓練用画像から生成される、
学習済み深層学習アルゴリズム。
The first training data, the second training data, and the third training data are input layers of the neural network, and are a tumor region, a non-tumor region, and a region that does not include tissue. A deep learning algorithm that learns as an output layer of a neural network corresponding to the first training data, the second training data, and the third training data, respectively,
The first training data is generated from a first training image obtained by imaging a tumor region of training tissue;
The second training data is generated from a second training image obtained by imaging a non-tumor region of training tissue;
The third training data is generated from a third training image obtained by imaging a region not including tissue.
Trained deep learning algorithm.
JP2018032761A 2018-02-27 2018-02-27 Image analysis method, image analysis device, program, method for manufacturing trained deep learning algorithm, and trained deep learning algorithm Active JP7217589B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018032761A JP7217589B2 (en) 2018-02-27 2018-02-27 Image analysis method, image analysis device, program, method for manufacturing trained deep learning algorithm, and trained deep learning algorithm
JP2023008540A JP7458519B2 (en) 2018-02-27 2023-01-24 Image analysis method, image analysis device, program, method for producing trained deep learning algorithm, and trained deep learning algorithm
JP2024004675A JP2024038396A (en) 2018-02-27 2024-01-16 Image analysis method, image analysis device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018032761A JP7217589B2 (en) 2018-02-27 2018-02-27 Image analysis method, image analysis device, program, method for manufacturing trained deep learning algorithm, and trained deep learning algorithm

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023008540A Division JP7458519B2 (en) 2018-02-27 2023-01-24 Image analysis method, image analysis device, program, method for producing trained deep learning algorithm, and trained deep learning algorithm

Publications (2)

Publication Number Publication Date
JP2019148473A true JP2019148473A (en) 2019-09-05
JP7217589B2 JP7217589B2 (en) 2023-02-03

Family

ID=67850414

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018032761A Active JP7217589B2 (en) 2018-02-27 2018-02-27 Image analysis method, image analysis device, program, method for manufacturing trained deep learning algorithm, and trained deep learning algorithm
JP2023008540A Active JP7458519B2 (en) 2018-02-27 2023-01-24 Image analysis method, image analysis device, program, method for producing trained deep learning algorithm, and trained deep learning algorithm
JP2024004675A Pending JP2024038396A (en) 2018-02-27 2024-01-16 Image analysis method, image analysis device, and program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023008540A Active JP7458519B2 (en) 2018-02-27 2023-01-24 Image analysis method, image analysis device, program, method for producing trained deep learning algorithm, and trained deep learning algorithm
JP2024004675A Pending JP2024038396A (en) 2018-02-27 2024-01-16 Image analysis method, image analysis device, and program

Country Status (1)

Country Link
JP (3) JP7217589B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112019827A (en) * 2020-09-02 2020-12-01 上海网达软件股份有限公司 Method, device, equipment and storage medium for enhancing video image color
JP2021053256A (en) * 2019-10-01 2021-04-08 キヤノンメディカルシステムズ株式会社 Image processing device, medical image diagnostic device and image processing program
KR102250219B1 (en) * 2020-09-15 2021-05-11 주식회사 아이도트 Ultrasound diagnostic system
WO2021187699A1 (en) * 2020-03-19 2021-09-23 주식회사 아이도트 Carotid ultrasound diagnosis system
KR20210118285A (en) * 2020-03-19 2021-09-30 주식회사 아이도트 Method for diagnosing the carotid artery
KR102316525B1 (en) * 2021-03-08 2021-10-22 주식회사 딥바이오 Method for training artificial neural network for detecting prostate cancer from TURP pathological image, and computing system performing the same
KR102354476B1 (en) * 2021-03-15 2022-01-21 주식회사 딥바이오 Providing method and system for diagnosing lesions of bladder
WO2022049663A1 (en) * 2020-09-02 2022-03-10 オリンパス株式会社 Program, information storage medium, and processing system
WO2022065798A1 (en) * 2020-09-28 2022-03-31 주식회사 딥바이오 Pathological image analysis result output method and computing system for performing same
KR20220075142A (en) * 2020-11-27 2022-06-07 (의) 삼성의료재단 Measurement method of intima-media thickness of artery and device therefore
WO2022139321A1 (en) * 2020-12-24 2022-06-30 (주)제이엘케이 Artificial-intelligence-based prostate cancer pathology image report system
KR102485414B1 (en) * 2021-12-13 2023-01-06 주식회사 딥바이오 Method for training artificial neural network providing result of diagnosis for pathological specimen, and computing system performing the same
JP2023176256A (en) * 2022-05-31 2023-12-13 楽天グループ株式会社 Method, computer system, and computer-readable medium for predicting data from image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010203949A (en) * 2009-03-04 2010-09-16 Nec Corp System, method and program for diagnostic imaging support, and storage medium therefor
JP2011527178A (en) * 2008-07-03 2011-10-27 エヌイーシー ラボラトリーズ アメリカ インク Epithelial layer detector and related method
JP2012073179A (en) * 2010-09-29 2012-04-12 Dainippon Screen Mfg Co Ltd Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support and recording medium with control program recorded thereon
JP2017045430A (en) * 2015-08-28 2017-03-02 パナソニックIpマネジメント株式会社 Image processing device, image processing system, image processing method and program
WO2017201540A1 (en) * 2016-05-20 2017-11-23 Techcyte, Inc. Machine learning classification of particles or substances in digital microscopy images
WO2018018160A1 (en) * 2016-07-29 2018-02-01 Novadaq Technologies ULC Methods and systems for characterizing tissue of a subject utilizing machine learning
JP2019095212A (en) * 2017-11-17 2019-06-20 国立研究開発法人国立がん研究センター Image analysis method, image analysis device, program, manufacturing method of learned deep-layer learning algorithm, and learned deep-layer learning algorithm

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2467401A1 (en) * 2001-11-16 2003-05-30 Yuan Yan Chen Pausible neural network with supervised and unsupervised cluster analysis
EP3100205B1 (en) * 2014-01-28 2021-03-10 Ventana Medical Systems, Inc. Adaptive classification for whole slide tissue segmentation
JP6629762B2 (en) * 2014-05-23 2020-01-15 ベンタナ メディカル システムズ, インコーポレイテッド Systems and methods for detection of biological structures and / or patterns in images
WO2017150194A1 (en) * 2016-03-04 2017-09-08 コニカミノルタ株式会社 Image processing device, image processing method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011527178A (en) * 2008-07-03 2011-10-27 エヌイーシー ラボラトリーズ アメリカ インク Epithelial layer detector and related method
JP2010203949A (en) * 2009-03-04 2010-09-16 Nec Corp System, method and program for diagnostic imaging support, and storage medium therefor
JP2012073179A (en) * 2010-09-29 2012-04-12 Dainippon Screen Mfg Co Ltd Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support and recording medium with control program recorded thereon
JP2017045430A (en) * 2015-08-28 2017-03-02 パナソニックIpマネジメント株式会社 Image processing device, image processing system, image processing method and program
WO2017201540A1 (en) * 2016-05-20 2017-11-23 Techcyte, Inc. Machine learning classification of particles or substances in digital microscopy images
WO2018018160A1 (en) * 2016-07-29 2018-02-01 Novadaq Technologies ULC Methods and systems for characterizing tissue of a subject utilizing machine learning
JP2019095212A (en) * 2017-11-17 2019-06-20 国立研究開発法人国立がん研究センター Image analysis method, image analysis device, program, manufacturing method of learned deep-layer learning algorithm, and learned deep-layer learning algorithm

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CRUZ-ROA ANGEL ET AL.: "Automatic detection of invasive ductal carcinoma in whole slide images with convolutional neural net", PROCEEDINGS OF SPIE, vol. 9041, JPN7022003341, 20 March 2014 (2014-03-20), pages 904103, XP060030742, ISSN: 0004827058, DOI: 10.1117/12.2043872 *
KHOSRAVI PEGAH ET AL.: "Deep Convolutional Neural Networks Enable Discrimination of Heterogeneous Digital Pathology Images", EBIOMEDICINE, vol. 27, JPN6022029509, 28 December 2017 (2017-12-28), pages 317 - 328, ISSN: 0004827056 *
LITJENS GEERT ET AL.: "Deep learning as a tool for increased accuracy and efficiency of histopathological diagnosis", SCIENTIFIC REPORTS, vol. 6, JPN6021036445, 23 May 2016 (2016-05-23), pages 26286, ISSN: 0004596939 *
SZEGEDY CHRISTIAN ET AL.: "Rethinking the Inception Architecture for Computer Vision", 2016 IEEE CONFERENCE OF COMPUTER VISION AND PATTERN RECOGNITION, JPN6022029511, 2016, pages 2818 - 2826, XP033021462, ISSN: 0004827057, DOI: 10.1109/CVPR.2016.308 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021053256A (en) * 2019-10-01 2021-04-08 キヤノンメディカルシステムズ株式会社 Image processing device, medical image diagnostic device and image processing program
JP7350595B2 (en) 2019-10-01 2023-09-26 キヤノンメディカルシステムズ株式会社 Image processing device, medical image diagnostic device, and image processing program
WO2021187699A1 (en) * 2020-03-19 2021-09-23 주식회사 아이도트 Carotid ultrasound diagnosis system
KR20210118285A (en) * 2020-03-19 2021-09-30 주식회사 아이도트 Method for diagnosing the carotid artery
KR102408405B1 (en) 2020-03-19 2022-06-15 주식회사 아이도트 System for diagnosing the carotid artery
CN112019827A (en) * 2020-09-02 2020-12-01 上海网达软件股份有限公司 Method, device, equipment and storage medium for enhancing video image color
WO2022049663A1 (en) * 2020-09-02 2022-03-10 オリンパス株式会社 Program, information storage medium, and processing system
KR102250219B1 (en) * 2020-09-15 2021-05-11 주식회사 아이도트 Ultrasound diagnostic system
WO2022065798A1 (en) * 2020-09-28 2022-03-31 주식회사 딥바이오 Pathological image analysis result output method and computing system for performing same
KR20220075142A (en) * 2020-11-27 2022-06-07 (의) 삼성의료재단 Measurement method of intima-media thickness of artery and device therefore
KR102499143B1 (en) 2020-11-27 2023-02-14 (의)삼성의료재단 Measurement method of intima-media thickness of artery and device therefore
WO2022139321A1 (en) * 2020-12-24 2022-06-30 (주)제이엘케이 Artificial-intelligence-based prostate cancer pathology image report system
WO2022191539A1 (en) * 2021-03-08 2022-09-15 주식회사 딥바이오 Method for training artificial neural network having use for detecting prostate cancer from turp pathological images, and computing system performing same
KR102316525B1 (en) * 2021-03-08 2021-10-22 주식회사 딥바이오 Method for training artificial neural network for detecting prostate cancer from TURP pathological image, and computing system performing the same
KR102354476B1 (en) * 2021-03-15 2022-01-21 주식회사 딥바이오 Providing method and system for diagnosing lesions of bladder
WO2022197044A1 (en) * 2021-03-15 2022-09-22 주식회사 딥바이오 Bladder lesion diagnosis method using neural network, and system thereof
KR102485414B1 (en) * 2021-12-13 2023-01-06 주식회사 딥바이오 Method for training artificial neural network providing result of diagnosis for pathological specimen, and computing system performing the same
WO2023113414A1 (en) * 2021-12-13 2023-06-22 주식회사 딥바이오 Method for training artificial neural network providing determination result of pathology specimen, and computing system performing same
JP2023176256A (en) * 2022-05-31 2023-12-13 楽天グループ株式会社 Method, computer system, and computer-readable medium for predicting data from image

Also Published As

Publication number Publication date
JP2024038396A (en) 2024-03-19
JP7217589B2 (en) 2023-02-03
JP2023065352A (en) 2023-05-12
JP7458519B2 (en) 2024-03-29

Similar Documents

Publication Publication Date Title
JP7458519B2 (en) Image analysis method, image analysis device, program, method for producing trained deep learning algorithm, and trained deep learning algorithm
US11842556B2 (en) Image analysis method, apparatus, program, and learned deep learning algorithm
JP7076698B2 (en) Image analysis method, image analysis device, program, learned deep learning algorithm manufacturing method and learned deep learning algorithm
JP7137935B2 (en) Image analysis method, image analysis device, program, method for manufacturing trained deep learning algorithm, and trained deep learning algorithm
JP6799146B2 (en) Digital pathology system and related workflows to provide visualized slide-wide image analysis
JP6192747B2 (en) Machine learning system based on tissue objects for automatic scoring of digital hall slides
US20050265588A1 (en) Method and system for digital image based flourescent in situ hybridization (FISH) analysis
RU2690224C2 (en) Image processing and analysis device
WO2017221592A1 (en) Image processing device, image processing method, and image processing program
CN111656393A (en) Histological image analysis
CN110838094B (en) Pathological section dyeing style conversion method and electronic equipment
Shakhawat et al. Automatic grading of invasive breast cancer patients for the decision of therapeutic plan
JPWO2018128091A1 (en) Image analysis program and image analysis method
JP7496389B2 (en) Image analysis method, device, program, and method for manufacturing trained deep learning algorithm
JP5910637B2 (en) Biological image analysis system, biological image analysis method, and biological image analysis program
US20210366107A1 (en) Sensitivity analysis for digital pathology
Dubey et al. Pathology for gastrointestinal and hepatobiliary cancers using artificial intelligence

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230124

R150 Certificate of patent or registration of utility model

Ref document number: 7217589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150