JP2022126373A - Information processing device, information processing method, computer program, and medical diagnostic system - Google Patents

Information processing device, information processing method, computer program, and medical diagnostic system Download PDF

Info

Publication number
JP2022126373A
JP2022126373A JP2021024406A JP2021024406A JP2022126373A JP 2022126373 A JP2022126373 A JP 2022126373A JP 2021024406 A JP2021024406 A JP 2021024406A JP 2021024406 A JP2021024406 A JP 2021024406A JP 2022126373 A JP2022126373 A JP 2022126373A
Authority
JP
Japan
Prior art keywords
disease
unit
basis
inference
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021024406A
Other languages
Japanese (ja)
Inventor
健治 山根
Kenji Yamane
陶冶 寺元
Toya Teramoto
友己 小野
Tomomi Ono
雅人 石井
Masahito Ishii
由幸 小林
Yoshiyuki Kobayashi
健二 鈴木
Kenji Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2021024406A priority Critical patent/JP2022126373A/en
Priority to PCT/JP2021/048254 priority patent/WO2022176396A1/en
Publication of JP2022126373A publication Critical patent/JP2022126373A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Epidemiology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computational Linguistics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide an information processing device for supporting differential diagnosis for a medical image.SOLUTION: An information processing device for processing information on a medical image includes: an inference part for inferring a first disease that indicates a correct answer for the medical image, and a second disease which is an object of differential diagnosis related to the first disease using a learned machine learning model; and a ground calculation part for calculating each ground of the first disease and the second disease from the medical image. The inference part specifies the second disease, which is an object of the differential diagnosis related to the first disease inferred from the medical image on the basis of the differential label information indicating the disease for which differential diagnosis is to be executed for each disease.SELECTED DRAWING: Figure 1

Description

本明細書で開示する技術(以下、「本開示」とする)は、病理画像データなどの医用画像データを処理する情報処理装置及び情報処理方法、コンピュータプログラム、並びに医療診断システムに関する。 The technology disclosed in this specification (hereinafter referred to as "this disclosure") relates to an information processing apparatus and information processing method for processing medical image data such as pathological image data, a computer program, and a medical diagnosis system.

病気に罹患した患者を治療するには、病理を特定する必要がある。ここで、病理とは、病気になる理由や過程、根拠のことである。また、病理診断を行う医師を病理医と呼ぶ。病理診断は、例えば、体から採取した病変部を薄くスライスして染色などの処理を施して、顕微鏡を使って観察しながら病変の有無や病変の種類について診断する方法が一般的である。以下、本明細書では、単に「病理診断」というときは、特に言及しない限りこの診断方法を指すものとする。また、薄くスライスした病変部を顕微鏡で観察する画像のことを「病理画像」と呼び、デジタル化した病理画像を「病理画像データ」と呼ぶことにする。 To treat diseased patients, it is necessary to identify the pathology. Here, the pathology means the reason, process, and grounds for becoming ill. A doctor who performs pathological diagnosis is called a pathologist. In pathological diagnosis, for example, a thin slice of a lesion taken from the body is processed by staining or the like, and a method of diagnosing the presence or absence of a lesion and the type of lesion while observing the slice with a microscope is common. Hereinafter, the term "pathological diagnosis" in this specification refers to this diagnostic method unless otherwise specified. An image obtained by observing a thinly sliced lesion with a microscope is called a "pathological image", and a digitized pathological image is called "pathological image data".

癌などの重篤な病気の疑いがある場合には、病理診断は非常に大きな役割を担う。病理診断を利用した検査数は増加傾向にあるが、診断を担当する病理医不足が課題である。病理医不足は、病理医の労働負荷の増大や、診断結果を得るまでの期間の長期化による患者の負担増大を招来する。このため、病理画像のデジタル化と、人工知能による画像解析機能を利用した病理診断や、オンライン上での病理による遠隔診断などが検討されている。 Pathological diagnosis plays a very important role when a serious disease such as cancer is suspected. The number of examinations using pathological diagnosis is on the rise, but the problem is the shortage of pathologists in charge of diagnosis. The shortage of pathologists causes an increase in the workload of pathologists and an increase in the burden on patients due to the lengthening of the period until the diagnosis results are obtained. For this reason, digitization of pathological images, pathological diagnosis using image analysis functions by artificial intelligence, remote diagnosis based on online pathology, etc. are being considered.

医療分野においても、人工知能技術は浸透しつつある。例えば、診断対象の病理画像データから得られる画像情報と診断結果の付随した既存の病理画像情報に基づいて診断確率モデルにより疾患毎の診断確率を求めて、確率の高い疾患を絞り込む病理画像診断支援装置が提案されている(特許文献1を参照のこと)。 Artificial intelligence technology is also permeating the medical field. For example, based on image information obtained from pathological image data to be diagnosed and existing pathological image information with diagnostic results, the diagnostic probability for each disease is obtained using a diagnostic probability model, and pathological image diagnosis support for narrowing down the diseases with high probability. A device has been proposed (see Patent Document 1).

病理診断は、治療法などを大きく左右するため、医師しか行うことのできない絶対的医行為である。したがって、人工知能による病理診断は、スクリーニングによる診断工数の削減など診断を支援するツールとし、最終的には病理医が判断を下す必要がある。他方、人工知能は判断の根拠が分かりにくいことから、ブラックボックスにたとえられる。このため、病理医は、人工知能による病理診断の根拠が理解できず、診断支援ツールとして十分に活用できないことが懸念される。 Pathological diagnosis is an absolute medical practice that can only be performed by a doctor because it greatly affects treatment methods and the like. Therefore, pathological diagnosis by artificial intelligence should be used as a tool to support diagnosis, such as reducing diagnostic man-hours through screening, and the final decision should be made by the pathologist. On the other hand, artificial intelligence is likened to a black box because the grounds for its judgments are difficult to understand. For this reason, pathologists cannot understand the basis of pathological diagnosis by artificial intelligence, and there is concern that artificial intelligence cannot be fully used as a diagnostic support tool.

特開2012-179336号公報JP 2012-179336 A 特開2020-38600号公報Japanese Patent Application Laid-Open No. 2020-38600

Residuals and Influence in Regression, Cook, R.D. and Weisberg,S <https://conservancy.umn.edu/handle/11299/37076>Residuals and Influence in Regression, Cook, R.; D. and Weisberg, S <https://conservancy. umn. edu/handle/11299/37076> What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vison,NIPS 2017, Alex Kendall and Yarin Gal <https://papers.nips.cc/paper/7141-what-uncertainties-do-we-need-in-bayesian-deep-learning-for-computer-vision.pdf>What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision, NIPS 2017, Alex Kendall and Yarin Gal <https://papers. nips. cc/paper/7141-what-uncertainties-do-we-need-in-bayesian-deep-learning-for-computer-vision. pdf> Generative Adversarial Networks, Ian J. Goodfellow et al. <https://arxiv.org/abs/1406.2661>Generative Adversarial Networks, Ian J.; Goodfellow et al. <https://arxiv. org/abs/1406.2661> Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization <https://arxiv.org/abs/1610.02391>Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization <https://arxiv. org/abs/1610.02391> "Why Should I Trust You?": Explaining the Predictions of Any Classifier <https://arxiv.org/abs/1602.04938>"Why Should I Trust You?": Explaining the Predictions of Any Classifier <https://arxiv. org/abs/1602.04938> Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV) <https://arxiv.org/pdf/1711.11279.pdf>Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV) <https://arxiv. org/pdf/1711.11279. pdf>

本開示の目的は、人工知能機能を用いて医用画像データを処理する情報処理装置及び情報処理方法、コンピュータプログラム、並びに医療診断システムを提供することにある。 An object of the present disclosure is to provide an information processing apparatus and information processing method, a computer program, and a medical diagnosis system that process medical image data using artificial intelligence functions.

本開示は、上記課題を参酌してなされたものであり、その第1の側面は、医用画像に関する情報を処理する情報処理装置であって、
前記医用画像に対して正解となる第1の疾患と、前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する推論部と、
前記医用画像から前記第1の疾患の根拠及び前記第2の疾患の各根拠を計算する根拠計算部と、
を具備する情報処理装置である。
The present disclosure has been made in consideration of the above problems, and a first aspect thereof is an information processing device that processes information about medical images,
an inference unit that infers a first disease that is correct for the medical image and a second disease that is a target of differential diagnosis related to the first disease;
a basis calculation unit that calculates basis for the first disease and basis for the second disease from the medical image;
It is an information processing device comprising

前記推論部は、学習済みの機械学習モデルを用いて、前記医用画像から前記第1の疾患を推論する。前記機械学習モデルは、医用画像と正解となる疾患を組み合わせたデータセットからなる学習データを用いて学習されている。 The inference unit infers the first disease from the medical image using a trained machine learning model. The machine learning model is trained using learning data that is a data set that combines medical images and correct diseases.

前記推論部は、疾患毎に鑑別診断すべき疾患を示す鑑別ラベル情報に基づいて、医用画像から推論した第1の疾患に関連する鑑別診断の対象となる第2の疾患を特定する。 The inference unit identifies a second disease to be subjected to differential diagnosis related to the first disease inferred from the medical image based on differential label information indicating a disease to be differentially diagnosed for each disease.

前記推論部は学習済みのニューラルネットワークモデルを用いて第1の疾患及び第2の疾患を推論する。そして、前記根拠計算部は、前記ニューラルネットワークモデルが前記第1の疾患及び前記第2の疾患の各根拠をそれぞれ推論する。 The inference unit infers a first disease and a second disease using trained neural network models. The basis calculation unit causes the neural network model to infer the basis of each of the first disease and the second disease.

例えば、前記根拠計算部は、前記ニューラルネットワークモデルの出力層においてクラス分類の推論結果となるラベルから勾配を逆にたどることによって、元の医用画像のうち各クラスに影響する部分を推論する。あるいは、前記根拠計算部は、前記ニューラルネットワークモデルに入力された医用画像データの特徴量を摂動させた際の出力の変動量に基づいて、前記第1の疾患及び前記第2の疾患の各根拠をそれぞれ推論する。 For example, the basis calculation unit infers the portion of the original medical image that affects each class by tracing the gradient backward from the label that is the inference result of class classification in the output layer of the neural network model. Alternatively, the basis calculation unit calculates the basis for each of the first disease and the second disease based on an output variation amount when the feature amount of the medical image data input to the neural network model is perturbed. are inferred respectively.

また、本開示の第2の側面は、
医用画像に関する情報を処理する情報処理方法であって、
前記医用画像に対して正解となる第1の疾患を推論する第1の推論ステップと、
前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する第2の推論ステップと、
前記医用画像から前記第1の疾患の根拠を計算する第1の根拠計算ステップと、
前記医用画像から前記第2の疾患の根拠を計算する第2の根拠計算ステップと、
を有する情報処理方法である。
In addition, a second aspect of the present disclosure is
An information processing method for processing information about medical images,
a first inference step of inferring a first disease that is correct for the medical image;
a second inference step of inferring a second disease of interest for differential diagnosis associated with said first disease;
a first basis calculation step of calculating basis of the first disease from the medical image;
a second basis calculation step of calculating the basis of the second disease from the medical image;
It is an information processing method having

また、本開示の第3の側面は、
コンピュータ上で医用画像に関する情報を処理するようにコンピュータ可読形式で記述されたコンピュータプログラムであって、前記コンピュータを、
前記医用画像に対して正解となる第1の疾患と、前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する推論部、
前記医用画像から前記第1の疾患の根拠及び前記第2の疾患の各根拠を計算する根拠計算部、
として機能させるコンピュータプログラムである。
In addition, a third aspect of the present disclosure is
A computer program written in computer readable form to process information relating to medical images on a computer, said computer comprising:
an inference unit that infers a first disease that is correct for the medical image and a second disease that is a target of differential diagnosis related to the first disease;
an evidence calculation unit that calculates the evidence of the first disease and the evidence of the second disease from the medical image;
It is a computer program that functions as

本開示の第3の側面に係るコンピュータプログラムは、コンピュータ上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータプログラムを定義したものである。換言すれば、本開示の第3の側面に係るコンピュータプログラムをコンピュータにインストールすることによって、コンピュータ上では協働的作用が発揮され、本開示の第1の側面に係る情報処理装置と同様の作用効果を得ることができる。 A computer program according to a third aspect of the present disclosure defines a computer program written in a computer-readable format so as to implement predetermined processing on a computer. In other words, by installing the computer program according to the third aspect of the present disclosure on the computer, cooperative action is exhibited on the computer, and the same action as the information processing apparatus according to the first aspect of the present disclosure effect can be obtained.

また、本開示の第4の側面は、
機械学習モデルが医用画像データから疾患を推論するように前記機械学習モデルが学習を行う学習部と、
前記学習部による学習済みの前記機械学習モデルを用いて、前記医用画像に対して正解となる第1の疾患を推論するとともに、前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する推論部と、
前記医用画像から前記第1の疾患の根拠及び前記第2の疾患の各根拠を計算する根拠計算部と、
表示装置と、
前記推論部の推論結果と前記根拠計算部の計算結果を前記表示装置に提示する提示部と、
を具備する医療診断システムである。
In addition, a fourth aspect of the present disclosure is
a learning unit in which the machine learning model learns so that the machine learning model infers a disease from medical image data;
Using the machine learning model learned by the learning unit, infer a first disease that is correct for the medical image, and a second disease that is a target for differential diagnosis related to the first disease an inference unit that infers a disease;
a basis calculation unit that calculates basis for the first disease and basis for the second disease from the medical image;
a display device;
a presentation unit that presents the inference result of the inference unit and the calculation result of the basis calculation unit on the display device;
A medical diagnostic system comprising:

但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。 However, the "system" referred to here refers to a logical assembly of multiple devices (or functional modules that implement specific functions), and each device or functional module is in a single housing. It does not matter whether or not

本開示によれば、人工知能機能を用いて医用画像の鑑別診断を支援するための処理を行う情報処理装置及び情報処理方法、コンピュータプログラム、並びに医療診断システムを提供することができる。 According to the present disclosure, it is possible to provide an information processing apparatus and information processing method, a computer program, and a medical diagnosis system that perform processing for supporting differential diagnosis of medical images using an artificial intelligence function.

なお、本明細書に記載された効果は、あくまでも例示であり、本開示によりもたらされる効果はこれに限定されるものではない。また、本開示が、上記の効果以外に、さらに付加的な効果を奏する場合もある。 Note that the effects described in this specification are merely examples, and the effects provided by the present disclosure are not limited to these. In addition, the present disclosure may have additional effects in addition to the effects described above.

本開示のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。 Still other objects, features, and advantages of the present disclosure will become apparent from a more detailed description based on the embodiments described below and the accompanying drawings.

図1は、医療診断システム100の機能的構成例を示した図である。FIG. 1 is a diagram showing a functional configuration example of a medical diagnosis system 100. As shown in FIG. 図2は、学習データを構築する仕組みを模式的に示した図である。FIG. 2 is a diagram schematically showing a mechanism for constructing learning data. 図3は、データ調整装置200によるデータ調整処理を含めた医療診断システム100の動作を示した図である。FIG. 3 is a diagram showing the operation of the medical diagnostic system 100 including data adjustment processing by the data adjustment device 200. As shown in FIG. 図4は、GANを利用した追加データ生成部313の構成例を示した図である。FIG. 4 is a diagram showing a configuration example of the additional data generation unit 313 using GAN. 図5は、医療診断システム100において適用される機械学習モデル500の構成例を示した図である。FIG. 5 is a diagram showing a configuration example of a machine learning model 500 applied in the medical diagnosis system 100. As shown in FIG. 図6は、鑑別ラベル情報保持部113が保持する鑑別ラベル情報の例を示した図である。FIG. 6 is a diagram showing an example of discrimination label information held by the discrimination label information holding unit 113. As shown in FIG. 図7は、推論ラベルについて計算された根拠画像を例示した図である。FIG. 7 is a diagram exemplifying the basis image calculated for the inference label. 図8は、鑑別ラベルについて計算された根拠画像を例を示した図である。FIG. 8 is a diagram showing an example of a basis image calculated for a discrimination label. 図9は、医療診断システム100の推論フェーズにおける処理動作を示したフローチャートである。FIG. 9 is a flow chart showing processing operations in the inference phase of medical diagnostic system 100 . 図10は、情報処理装置1000の構成例を示した図である。FIG. 10 is a diagram showing a configuration example of the information processing apparatus 1000. As shown in FIG. 図11は、画面遷移例を示した図である。FIG. 11 is a diagram showing an example of screen transition. 顕微鏡システムの全体構成を概略的に示す図である。It is a figure which shows roughly the whole structure of a microscope system. 撮像方式の例を示す図である。It is a figure which shows the example of an imaging system. 撮像方式の例を示す図である。It is a figure which shows the example of an imaging system.

以下、図面を参照しながら本開示について、以下の順に従って説明する。 Hereinafter, the present disclosure will be described in the following order with reference to the drawings.

A.概要
B.システム構成
C.学習データの構築
D.機械学習モデルの構成
E.鑑別ラベル情報の構成
F.根拠計算
G.推論結果の提示
H.推論フェーズにおける動作
I.情報処理装置の構成例
J.顕微鏡システム
A. OverviewB. System configurationC. Construction of training data D. Constructing Machine Learning ModelsE. Configuration of identification label information F. Basis calculation G. Presentation of Inference ResultsH. Operations in the Inference PhaseI. Configuration Example of Information Processing ApparatusJ. microscope system

A.概要
人工知能による病理診断を、診断工数の削減など病理医の診断支援ツールとして活用することができる。病理診断は治療方法などを大きく左右する絶対的言行為であり、最終的には病理医が病理診断を行う必要がある。ところが、人工知能による病理診断の根拠が分かり難いと、病理医は最終的な病理診断に活用し難くなる。
A. Abstract Pathological diagnosis by artificial intelligence can be used as a diagnostic support tool for pathologists, such as reducing diagnostic man-hours. A pathological diagnosis is an absolute word and action that greatly influences treatment methods, etc., and ultimately a pathological diagnosis must be made by a pathologist. However, if it is difficult to understand the basis of pathological diagnosis by artificial intelligence, it becomes difficult for pathologists to use AI for the final pathological diagnosis.

また、患部の症状や検査結果から可能性のある複数の病気を比較しながら、合理的に病気を特定する「鑑別診断」という診断方法がある。病理医は、1つの病理画像データから病理診断する思考過程で、確度が最も高い疾患と、稀な(又は、2番目に確度の高い)疾患とを比較しながら、疾患を特定する。例えば、病理医が疾患A又は疾患Bのいずれであるかを迷うときには、疾患Bを否定して疾患Aであると鑑別診断する。また、癌の病理診断においては、癌のグレード(悪性度)も診断する必要があり、他のグレードを否定してあるグレーであると鑑別診断する。ところが、人工知能による病理画像の診断を行う場合、人工知能がブラックボックス化されその判断の根拠が明確でないため、病理医は人工知能の診断結果から鑑別診断を行うことが困難である。 In addition, there is a diagnostic method called "differential diagnosis" that rationally identifies a disease by comparing multiple possible diseases based on the symptoms of the affected area and test results. A pathologist identifies a disease while comparing the disease with the highest probability and the disease with the highest probability (or the disease with the second highest probability) in the thought process of making a pathological diagnosis from one pathological image data. For example, when a pathologist is uncertain as to whether the disease is disease A or disease B, he or she denies disease B and makes a differential diagnosis of disease A. In the pathological diagnosis of cancer, it is also necessary to diagnose the grade (malignancy) of the cancer, and a differential diagnosis is made as a certain gray denial of other grades. However, when diagnosing pathological images using artificial intelligence, it is difficult for a pathologist to make a differential diagnosis from the diagnosis results of artificial intelligence because artificial intelligence is a black box and the grounds for its judgment are not clear.

そこで、本開示では、人工知能を利用して病理画像データの鑑別診断を支援する医療診断システムについて提案する。本開示に係る医療診断システムは、人工知能による診断結果の根拠を提示し、さらに診断結果に対応する鑑別診断の根拠も提示する。したがって、病理医は、提示された各根拠に基づいて人工知能による診断結果及び鑑別診断を適切に評価して、高精度に(又は、自信を持って)病理診断を行うことが可能になる。 Therefore, the present disclosure proposes a medical diagnosis system that uses artificial intelligence to support differential diagnosis of pathological image data. The medical diagnosis system according to the present disclosure presents the grounds for the diagnosis results by artificial intelligence, and also presents the grounds for the differential diagnosis corresponding to the diagnosis results. Therefore, the pathologist can appropriately evaluate the artificial intelligence-based diagnosis results and differential diagnosis based on the presented grounds, and make a highly accurate (or confident) pathological diagnosis.

B.システム構成
図1には、本開示を適用した医療診断システム100の機能的構成例を模式的に示している。医療診断システム100は、人工知能機能を利用して、主に病理画像などの医用画像データの鑑別診断を実施し、又は病理医による鑑別診断の支援を行うように構成されている。人工知能機能は、具体的には、CNN(Convolutional Neural Network)などの機械学習モデルで構成される。医療診断システム100の動作は、学習フェーズと、推論フェーズに大別される。学習フェーズでは、入力データ(病理画像などの医用画像データ)と正解ラベル(正解の診断結果)を組み合わせたデータセットからなる学習データを用いて、機械学習モデルの学習を行う。また、推論フェーズでは、学習フェーズを通じて獲得された学習済みの機械学習モデルを用いて、入力データ(病理画像などの医用画像データ)の推論(病理の診断)を行う。本実施形態では、膨大量の学習データを用いてディープラーニングを行い、推論フェーズではDNN(Deep Neural Network)を用いて推論することを想定している。
B. System Configuration FIG. 1 schematically shows a functional configuration example of a medical diagnosis system 100 to which the present disclosure is applied. The medical diagnosis system 100 is configured to use artificial intelligence functions to perform differential diagnosis mainly on medical image data such as pathological images, or to assist pathologists in differential diagnosis. The artificial intelligence function specifically consists of a machine learning model such as a CNN (Convolutional Neural Network). The operation of the medical diagnostic system 100 is roughly divided into a learning phase and an inference phase. In the learning phase, a machine learning model is trained using learning data consisting of a data set combining input data (medical image data such as pathological images) and correct labels (correct diagnosis results). Also, in the inference phase, inference (diagnosis of pathology) of input data (medical image data such as pathological images) is performed using the learned machine learning model acquired through the learning phase. In this embodiment, it is assumed that deep learning is performed using a huge amount of learning data, and inference is performed using a DNN (Deep Neural Network) in the inference phase.

学習フェーズの動作は、学習データ保持部101、学習部102、及びモデルパラメータ保持部103の各機能モジュールによって実現される。 The operation of the learning phase is realized by each functional module of the learning data holding unit 101, the learning unit 102, and the model parameter holding unit 103. FIG.

学習データ保持部101は、膨大量の学習データを保持している。学習データは、デジタル化された病理画像データと、病理画像データに対して正解ラベルとなる、病理医による正確な診断結果とを組み合わせたデータセットからなる。例えば、全国又は全世界の病理医が診断した病理画像データ及び診断結果を収集して、所定フォーマットの学習データに成形して、学習データ保持部101に蓄積される。ここで、学習データは、すべての病理画像に対して正解ラベルを付けても良いし、一部の病理画像に対してラベルを付けても良い。後者の場合は、病理医は、画像の一部領域を指定して、指定した領域に対して正解ラベルを付けても良い。領域の指定方法としては、単純にグリッド状に切っても良いし、矩形、多角形、あるいは任意の形状などで領域を指定しても良い。 The learning data holding unit 101 holds a huge amount of learning data. The learning data consists of a data set combining digitized pathological image data and accurate diagnostic results by a pathologist, which are correct labels for the pathological image data. For example, pathological image data and diagnosis results diagnosed by pathologists all over the country or all over the world are collected, shaped into learning data in a predetermined format, and stored in the learning data holding unit 101 . Here, the learning data may be labeled with correct answers for all pathological images, or may be labeled with partial pathological images. In the latter case, the pathologist may designate a partial region of the image and attach a correct label to the designated region. As a method of specifying the area, the area may be simply cut into a grid shape, or may be specified with a rectangle, a polygon, or an arbitrary shape.

学習部102は、学習データ保持部101から学習データを逐次読み出して、機械学習モデルの学習を行う。機械学習モデルは、例えば、人間のニューロンを模倣した構造を持つニューラルネットワークで構成される。学習中の機械学習モデルが入力データに対して出力するラベルと正解ラベルとの誤差に基づく損失関数を計算して、損失関数が最小化するように機械学習モデルの学習処理を行う。 The learning unit 102 sequentially reads the learning data from the learning data holding unit 101 and learns the machine learning model. A machine learning model, for example, consists of a neural network with a structure that mimics human neurons. A loss function based on the error between the label output by the machine learning model for input data and the correct label is calculated, and the learning process of the machine learning model is performed so as to minimize the loss function.

例えば、取り込まれた病理画像データに対して正解ラベルとなる診断結果を出力するように、モデルパラメータを更新することによって、機械学習モデルの学習処理が行われる。モデルパラメータは、機械学習モデルの挙動を規定する変動要素であり、例えばニューラルネットワークの各ニューロンに与える重み付け係数などである。誤差逆伝播法においては、ニューラルネットワークの出力層の値と正しい診断結果(正解ラベル)との誤差に基づいて損失関数を定義して、最急降下法などを用いて損失関数が最小化するようにモデルパラメータの更新が行われる。そして、学習部102は、学習結果として得られたモデルパラメータを、モデルパラメータ保持部103に格納する。 For example, the learning process of the machine learning model is performed by updating the model parameters so as to output a diagnostic result that is a correct label for the loaded pathological image data. A model parameter is a variable element that defines the behavior of a machine learning model, such as a weighting factor given to each neuron of a neural network. In the error backpropagation method, a loss function is defined based on the error between the value of the output layer of the neural network and the correct diagnosis result (correct label), and the loss function is minimized using the steepest descent method, etc. Model parameters are updated. Then, the learning unit 102 stores model parameters obtained as learning results in the model parameter holding unit 103 .

推論フェーズの動作は、画像取込部111、推論部112、鑑別ラベル情報保持部113、根拠計算部114、及び提示処理部115の各機能モジュールによって実現される。 The operation of the inference phase is realized by each functional module of the image acquisition unit 111 , the inference unit 112 , the discrimination label information storage unit 113 , the basis calculation unit 114 , and the presentation processing unit 115 .

画像取込部111は、診断の対象となる医用画像を外部から取り込んで、推論部112に入力する。医用画像は、具体的には、病理医が顕微鏡を使って観察している病理画像を高精細にデジタル化した病理画像データである。ここで言う病理画像は、病変部などの生体由来試料を薄くスライスして染色又は標識などの処理が施された病理標本を顕微鏡で観察した画像を含む。画像取込部111は、例えば病理標本を載せたガラススライドの顕微鏡観察画像をデジタル化して取り込むWSI(Whole Slide Imaging)スキャナーである。また、画像取り込む部111は、遠隔のWSIスキャナーからネットワーク経由で病理画像データを受信する装置であってもよい。 The image fetching unit 111 fetches medical images to be diagnosed from the outside and inputs them to the inference unit 112 . A medical image is, specifically, pathological image data obtained by digitizing a pathological image observed by a pathologist using a microscope with high definition. The pathological image referred to here includes an image obtained by observing a pathological specimen obtained by thinly slicing a biological sample such as a lesion and performing processing such as staining or labeling under a microscope. The image capturing unit 111 is, for example, a WSI (Whole Slide Imaging) scanner that digitizes and captures a microscope observation image of a glass slide on which a pathological specimen is placed. Also, the image capturing unit 111 may be a device that receives pathological image data from a remote WSI scanner via a network.

推論部112は、モデルパラメータ保持部103から読み出したモデルパラメータを設定したモデルすなわち学習済みの機械学習モデルを使って、画像取込部111を介して取り込まれた病理画像データから推論した病変部の病理診断結果を、出力ラベルとして出力する。 The inference unit 112 uses a model in which the model parameters read from the model parameter storage unit 103 are set, that is, a learned machine learning model, to infer the pathological image data acquired via the image acquisition unit 111. A pathological diagnosis result is output as an output label.

鑑別ラベル情報保持部113は、推論部112が推論した診断結果に関連する鑑別診断を行うための情報を保持している。具体的には、推論部112で使用する学習済み機械学習モデルの出力ラベルとなり得る疾患毎に、鑑別診断の対処となり得る疾患を鑑別ラベルの情報を保持している。そして、鑑別ラベル情報保持部113は、推論部112の出力ラベル(診断結果)を受け取ると、その疾患に関連する疾病を特定する鑑別ラベルを返す。また、鑑別ラベル更新部116は、ユーザの入力により、又は公共データベースのデータをキュレーションして、鑑別ラベル情報保持部113に保持されている鑑別ラベル情報を更新する。例えば、病理学会の病理診断プロトコルが更新されると、ユーザが手動入力することで、推論ラベル更新と、それに対応する鑑別ラベルの更新を行うようにすればよい。これらのラベル更新作業を自動で実施するようにしてもよい。鑑別ラベル更新部116は、定期的に、病理学会の病理診断プロトコルが記載されているURL(Uniform Resource Locator)を取得して、変化があった鑑別ラベル部分を検出して、更新処理を行うようにしてもよい。 The differential label information holding unit 113 holds information for performing differential diagnosis related to the diagnostic result inferred by the inferring unit 112 . Specifically, for each disease that can be an output label of a trained machine learning model used in the inference unit 112, information of a differential label for a disease that can be dealt with in differential diagnosis is stored. Upon receiving the output label (diagnosis result) from the inference unit 112, the discrimination label information storage unit 113 returns a discrimination label specifying a disease related to the disease. Further, the discrimination label updating unit 116 updates the discrimination label information held in the discrimination label information holding unit 113 by user input or by curating data in a public database. For example, when the pathological diagnosis protocol of the Society of Pathology is updated, the user may manually input to update the inference label and the corresponding differential label. These label update operations may be automatically performed. The differential label update unit 116 periodically acquires a URL (Uniform Resource Locator) in which the pathological diagnosis protocol of the Society of Pathology is described, detects a differential label portion that has changed, and performs update processing. can be

根拠計算部114は、推論部112が学習済み機械学習モデルを用いて診断した結果の根拠(すなわち、機械学習モデルが出力ラベルを判断した根拠)と、推論部112が診断結果に対応する鑑別診断を推論した場合の根拠(すなわち、機械学習モデルが鑑別ラベルを判断した場合の根拠)を計算する。 The basis calculation unit 114 calculates the basis of the result of the diagnosis made by the inference unit 112 using the learned machine learning model (that is, the basis of the judgment of the output label by the machine learning model) and the differential diagnosis corresponding to the diagnosis result of the inference unit 112. (i.e., the basis when the machine learning model determines the discriminative label) when inferring .

根拠計算部114は、例えば、Grad-CAM(Gradient-weighted Class Activation Mapping)(例えば、非特許文献4を参照のこと)、LIME(LOCAL Interpretable model-agnostic Explanations)(例えば、非特許文献5を参照のこと)、LIMEの発展形であるSHAP(SHapley Additive exPlanations)、TCAV(Testing with Concept Activation Vectors)(例えば、非特許文献6を参照のこと)などのアルゴリズムを使って、推論部112において学習済み機械学習モデルを用いた診断及び鑑別診断の各々の判断根拠を可視化した画像を算出することができる。但し、Grad-Cam、LIME/SHAP、TCAVを用いた根拠計算方法の詳細については後述に譲る。 The basis calculation unit 114, for example, Gradient-weighted Class Activation Mapping (Grad-CAM) (see, for example, Non-Patent Document 4), LIME (LOCAL Interpretable model-agnostic Explanations) (see, for example, Non-Patent Document 5 ), SHAP (SHApley Additive exPlanations), which is an advanced form of LIME, TCAV (Testing with Concept Activation Vectors) (for example, see Non-Patent Document 6), etc. Algorithms such as It is possible to calculate an image that visualizes the basis for each of the diagnosis and differential diagnosis using the machine learning model. However, the details of the basis calculation method using Grad-Cam, LIME/SHAP, and TCAV will be described later.

提示処理部115は、推論部112による病理画像データの診断結果及び鑑別診断を、各々の判断根拠とともに表示装置120に画面表示するための処理を行う。基本的には、病理画像データの診断結果及び鑑別診断の根拠として、元の病理画像のうち診断に与える影響の強い部分を示すヒートマップを重畳表示する形態で判断根拠を提示する。また、提示処理部115は、ユーザインターフェース(UI)部130を介したユーザ入力に応答して、病理画像データの診断結果及びその根拠情報と、鑑別診断及びその根拠情報とを切り替えて表示するようにしてもよい。但し、表示方法の詳細については後述に譲る。 The presentation processing unit 115 performs processing for displaying on the display device 120 the diagnosis result of the pathological image data and the differential diagnosis by the inference unit 112 together with the grounds for each judgment. Basically, as the diagnosis result of the pathological image data and the basis for the differential diagnosis, the judgment basis is presented in the form of a superimposed display of a heat map showing the portion of the original pathological image that strongly affects the diagnosis. In addition, the presentation processing unit 115 responds to a user input via the user interface (UI) unit 130 so as to switch and display the diagnosis result of the pathological image data and its base information and the differential diagnosis and its base information. can be However, the details of the display method will be given later.

表示装置120は、デジタル病理画像を用いた診断のために画像の観察に利用されるモニターであるが、病理医が直接視認することで診断を下すツールであるという観点から、光学顕微鏡におけるレンズと同様に重要であり、色再現性に優れ、画素ピッチの細かい高品質のモニターであることが好ましい。 The display device 120 is a monitor used for observing images for diagnosis using digital pathological images, but from the viewpoint that it is a tool for making a diagnosis by direct visual observation by a pathologist, it is similar to a lens in an optical microscope. Equally important, a high-quality monitor with excellent color reproducibility and a fine pixel pitch is preferable.

病理医は、表示装置120の画面上で、病理診断の対象となる病理画像データに対する診断結果及びその診断結果に関連する鑑別診断を、各々の根拠情報とともに確認することができる。したがって、病理医は、提示された各根拠に基づいて人工知能による診断結果及び鑑別診断を適切に評価して、高精度に(又は、自信を持って)病理診断を行うことが可能になる。 A pathologist can confirm the diagnosis result for the pathological image data to be pathologically diagnosed and the differential diagnosis related to the diagnosis result, together with the basis information for each, on the screen of the display device 120 . Therefore, the pathologist can appropriately evaluate the artificial intelligence-based diagnosis results and differential diagnosis based on the presented grounds, and make a highly accurate (or confident) pathological diagnosis.

また、病理医は、病理診断の対象となる病理画像データに対する診断結果及びその診断結果に関連する鑑別診断を、各々の根拠情報とともに確認した結果、推論部112における出力ラベルである診断結果ではなく、鑑別ラベルを最終的な病理診断の結果に採用することもできる。このような場合、病理医は、UI部130などを通じて最終的な診断結果を医療診断システム100に入力することができる。また、この時の病理画像データと鑑別診断を組み合わせたデータセットを新たな学習データとして学習データ保持部101に蓄積して、機械学習モデルの再学習に活用するようにしてもよい。 In addition, as a result of confirming the diagnostic results for the pathological image data to be subjected to pathological diagnosis and the differential diagnosis related to the diagnostic results together with each basis information, the pathologist confirms that the diagnostic results, which are the output labels in the inference unit 112, are not , the differential label can also be adopted in the final pathological diagnosis result. In this case, the pathologist can input the final diagnosis result to the medical diagnosis system 100 through the UI unit 130 or the like. Further, a data set obtained by combining the pathological image data and the differential diagnosis at this time may be stored as new learning data in the learning data holding unit 101 and used for re-learning of the machine learning model.

なお、学習フェーズ及び推論フェーズを、それぞれ個別の情報処理装置(パーソナルコンピュータなど)上で実現するようにしてもよい。あるいは、学習フェーズ及び推論フェーズを1台の情報処理装置上で実現するようにしてもよい。 Note that the learning phase and the inference phase may be realized on individual information processing devices (personal computers, etc.). Alternatively, the learning phase and the inference phase may be realized on one information processing device.

C.学習データ
推論部112において使用する機械学習モデルを学習するための学習データは、デジタル化された病理画像データと、病理画像データに対する正解ラベルとなる、病理医による正確な診断結果とを組み合わせたデータセットからなる。学習データは病理画像データの一部と、正解ラベルのセットにしても良い。
C. The learning data for learning the machine learning model used in the learning data inference unit 112 is a combination of digitized pathological image data and an accurate diagnosis result by a pathologist, which is a correct label for the pathological image data. consists of a set. The learning data may be part of the pathological image data and a set of correct labels.

図2には、全国又は全世界に散在する病理医が診断した病理画像データ及び診断結果を収集して、学習データを学習データ保持部101に蓄積する仕組みを模式的に示している。各病理医は、例えば特許文献2で開示される医療システムを用いて病理画像データの病理診断を行うようにしてもよい。そして、各病理医が病理診断した病理画像データ及びその診断結果の組み合わせからなるデータセットは、例えばインターネットなどの広域ネットワークを通じてクラウド上で収集される。 FIG. 2 schematically shows a mechanism for collecting pathological image data and diagnosis results diagnosed by pathologists scattered all over the country or the world and storing learning data in the learning data holding unit 101 . Each pathologist may perform pathological diagnosis of pathological image data using the medical system disclosed in Patent Document 2, for example. Then, a data set composed of combinations of pathological image data of pathological diagnosis made by each pathologist and the diagnosis results is collected on the cloud through a wide area network such as the Internet.

機械学習モデルのディープラーニングには厖大量の学習データが必要である。クラウド上で収集したデータセットをすべて学習データに活用するようにしてもよい。但し、収集したデータセットのうち、機械学習モデルの学習に寄与する度合いが低いデータセットなどの有害なデータセットの排除や機械学習モデルの不確実性の究明といったデータ調整処理をデータ調整装置200で行って、ディープラーニング用の学習データを構築するようにしてもよい。 Deep learning of machine learning models requires a huge amount of training data. All data sets collected on the cloud may be used as learning data. However, among the collected data sets, the data adjustment device 200 performs data adjustment processing such as elimination of harmful data sets, such as data sets that contribute less to the learning of the machine learning model, and investigation of the uncertainty of the machine learning model. to build training data for deep learning.

図3には、データ調整装置200によるデータ調整処理を含めた医療診断システム100の動作を概念的に示している。 FIG. 3 conceptually shows the operation of the medical diagnosis system 100 including data adjustment processing by the data adjustment device 200 .

学習データ蓄積部101には、病理医が診断した病理画像データ及び診断結果を組み合わせたデータセット302などからなる学習データが蓄積されている。学習部102は、データセット302を用いて、ニューラルネットワーク(CNNなど)で構成される機械学習モデル301の学習処理(ディープラーニング)を行う。 The learning data storage unit 101 stores learning data such as a data set 302 in which pathological image data diagnosed by a pathologist and diagnostic results are combined. The learning unit 102 uses the data set 302 to perform learning processing (deep learning) of a machine learning model 301 configured by a neural network (CNN, etc.).

学習過程における機械学習モデル301には、病理画像データなどのテストデータ(TD)が入力され、機械学習モデル301からの出力ラベル(入力された病理画像データから推論した診断結果)の正誤を判定し、誤診断であればその情報をフィードバックして、機械学習モデル301の学習を行う。 Test data (TD) such as pathological image data is input to the machine learning model 301 in the learning process, and the accuracy of the output label (diagnostic result inferred from the input pathological image data) from the machine learning model 301 is determined. If it is a misdiagnosis, the information is fed back and the machine learning model 301 learns.

データ調整装置200は、影響度評価部311と、学習状態判定部312と、追加データ生成部313を含んでいる。影響度評価部311は、ネットワークなどを通じて収集した各データセットが機械学習モデル311に与える影響度を評価する。影響度が高いデータセットは有益な学習データであるが、影響度が低いデータセットは学習データとして有害であり、取り除くようにしてもよい。また、学習状態判定部312は、機械学習モデル301の学習の状態、具体的にはディープラーニングの限界でこれ以上精度を向上できないか、又は、学習データの不足が原因で精度が出ていないか(再学習により精度をさらに向上できるか)を判定する。また、追加データ生成部313は、病理医からの新規のデータセットの収集に頼らずに、既に取得されている(学習データ蓄積部101に蓄積されている)学習データから追加の学習データを生成する。以下では、各部の処理についてさらに詳細に説明する。 The data adjustment device 200 includes an impact evaluation section 311 , a learning state determination section 312 and an additional data generation section 313 . The influence evaluation unit 311 evaluates the influence of each data set collected through a network or the like on the machine learning model 311 . A data set with a high degree of influence is useful learning data, but a data set with a low degree of influence is harmful as learning data and may be removed. In addition, the learning state determination unit 312 determines whether the learning state of the machine learning model 301, specifically, whether the accuracy cannot be improved further due to the limit of deep learning, or whether the accuracy is not obtained due to lack of learning data. Determine (whether re-learning can further improve accuracy). Further, the additional data generation unit 313 generates additional learning data from learning data that has already been acquired (stored in the learning data storage unit 101) without relying on collection of new data sets from the pathologist. do. The processing of each unit will be described in more detail below.

C-1.影響度評価
ここでは、影響度評価部311において実施される、ネットワークなどを通じて収集した各データセットが機械学習モデル301に与える影響度の評価方法について説明する。
C-1. Influence Evaluation Here, a method of evaluating the influence of each data set collected through a network or the like on the machine learning model 301, which is performed in the influence evaluation unit 311, will be described.

データセットzは、入力(病理画像データ)xに出力ラベル(診断結果)yが対応付けられたデータである。下式(1)に示すように、n個のデータセットがあることを想定する。 A data set z is data in which an output label (diagnosis result) y is associated with an input (pathological image data) x. Suppose there are n data sets, as shown in equation (1) below.

Figure 2022126373000002
Figure 2022126373000002

機械学習モデル301のモデルパラメータがθ∈Θのときに、データセットzの損失をL(z,θ)とすると、n個の全データセットにおける経験損失は下式(2)のように表すことができる。 When the model parameter of the machine learning model 301 is θεΘ, and the loss of the data set z is L(z, θ), the empirical loss in all n data sets is represented by the following formula (2). can be done.

Figure 2022126373000003
Figure 2022126373000003

機械学習モデル301の学習は、経験損失を最小化するモデルパラメータを見つけることを意味する。したがって、上式(1)に示したn個のデータセットを用いて機械学習モデル301の学習を行った結果として得られるモデルパラメータは、下式(3)のように表すことができる。但し、式(3)の左辺に示すように、パラメータ「θ」の上に「^」が付された場合、そのパラメータ「θ」の予測値を表すものとする。以下、文章中では「θ」に続けて「^」を記載した「θ^」で表記する。 Training the machine learning model 301 means finding the model parameters that minimize the experience loss. Therefore, model parameters obtained as a result of learning the machine learning model 301 using the n data sets shown in the above formula (1) can be expressed as in the following formula (3). However, as shown on the left side of the equation (3), when "^" is added above the parameter "?", it represents the predicted value of the parameter "?". Hereinafter, in the text, it is written as "θ^", which is "θ" followed by "^".

Figure 2022126373000004
Figure 2022126373000004

続いて、あるトレーニングポイントのデータセットzがない場合に機械学習モデル301の学習に与える影響について考えてみる。このトレーニングポイントのデータセットzを取り除いて学習処理を行ったときの機械学習モデル301のモデルパラメータは、下式(4)のように表すことができる。 Next, let us consider the effect on the learning of the machine learning model 301 when there is no data set z of a certain training point. The model parameters of the machine learning model 301 when learning processing is performed by removing the data set z of this training point can be expressed as in the following equation (4).

Figure 2022126373000005
Figure 2022126373000005

トレーニングポイントのデータセットzの影響度は、データセットzを取り除いたときと、データセットzを含めてn個の全データセットを用いたときにそれぞれ学習処理を行って得られるモデルパラメータの差分である。この差分は下式(5)のように表される。 The degree of influence of the training point data set z is the difference between the model parameters obtained by performing the learning process when the data set z is removed and when all n data sets including the data set z are used. be. This difference is represented by the following formula (5).

Figure 2022126373000006
Figure 2022126373000006

特定のデータポイントのデータセットzを取り除いてモデルパラメータの再学習を行うと、計算コストが非常に高い。そこで、影響度評価部311では、影響関数(Influence Functions)(非特許文献1を参照のこと)を用いて、再計算することなしにデータセットの影響度zを効果的に近似計算する。具体的には、データセットzの入力データ(画像)が微小な値εによって重み付けられたとして、パラメータの変化を計算していく。ここで、下式(6)を用いて、その左辺に示すような新たなパラメータ「θε,z^」を定義する。 Re-learning the model parameters by removing the dataset z for a particular data point is very computationally expensive. Therefore, the influence evaluation unit 311 uses influence functions (see Non-Patent Document 1) to effectively approximate the influence z of the data set without recalculation. Specifically, assuming that the input data (images) of the data set z are weighted by a small value ε, the parameter changes are calculated. Here, using the following equation (6), a new parameter “θ ε,z ̂” as shown on the left side is defined.

Figure 2022126373000007
Figure 2022126373000007

そして、データセットzに対応する影響関数は、下式(7)及び(8)を用いて表すことができる。 Then, the influence function corresponding to the data set z can be expressed using the following equations (7) and (8).

Figure 2022126373000008
Figure 2022126373000008

Figure 2022126373000009
Figure 2022126373000009

上式(7)は、データセットzに対応する影響関数であり、例えば微小な重みεに対するモデルパラメータθ^の変化量を表す。また、上式(8)は、ヘッシアン(ヘッセ行列)を示す。ここでは、正定値を持つヘッセ行列であると仮定し、逆行列も存在する。あるトレーニングポイントでデータセットzを取り除くことは、「ε=-1/n」によって重みづけられることと同じであると仮定すると、データセットzを取り除いたときのモデルパラメータの変化は、下式(9)で近似して表すことができる。 The above equation (7) is an influence function corresponding to the data set z, and represents, for example, the amount of change in the model parameter θ ̂ with respect to a minute weight ε. Also, the above equation (8) represents a Hessian (Hesse matrix). Here we assume that it is a Hessian matrix that is positive definite, and also has an inverse. Assuming that removing the dataset z at a training point is the same as being weighted by "ε = -1/n", the change in the model parameters when removing the dataset z is 9) can be approximated and expressed.

Figure 2022126373000010
Figure 2022126373000010

したがって、影響度評価部311は、再学習することなしに、データセットzの影響度を測定することができる。 Therefore, the impact evaluation unit 311 can measure the impact of the data set z without re-learning.

続いて、影響度評価部311は、下式(10-1)~(10-3)を用いて、あるテストポイントztestでの損失への影響を測定する。 Subsequently, the impact evaluation unit 311 measures the impact on loss at a certain test point z test using the following equations (10-1) to (10-3).

Figure 2022126373000011
Figure 2022126373000011

このように、あるテストポイントztestでの重み付けられたデータセットzの影響度を定式化することができる。したがって、影響度評価部311は、この演算によって機械学習モデル301におけるデータセットの影響度を測定することができる。例えば、あるデータセットがモデルの予測(損失)に与える影響は、上式(10-3)によって求めることができる。上式(10-3)の右辺は、あるデータの損失に対する勾配、ヘッシアンの逆行列、ある学習データの損失の勾配などからなる。 Thus, we can formulate the influence of a weighted data set z at some test point z test . Therefore, the impact evaluation unit 311 can measure the impact of the data set on the machine learning model 301 by this calculation. For example, the influence of a certain data set on the prediction (loss) of the model can be obtained by the above equation (10-3). The right side of the above equation (10-3) consists of the gradient for the loss of certain data, the inverse Hessian matrix, the gradient of the loss for certain learning data, and the like.

但し、このC-1項で説明した影響度の評価方法は一例であり、影響度評価部311は、その他の方法によってデータセットの影響度を測定するようにしてもよい。 However, the influence degree evaluation method described in Section C-1 is an example, and the influence degree evaluation unit 311 may measure the degree of influence of the data set by other methods.

C-2.学習状態の判定
ここでは、学習状態判定部312で行われる、機械学習モデル301の学習の状態の判定方法について説明する。
C-2. Determination of Learning State Here, a method of determining the learning state of the machine learning model 301 performed by the learning state determination unit 312 will be described.

一般的にDNNモデルの推論は高精度であるが、推論には限界がある。モデルの学習の状態、すなわち、ディープラーニングの限界でこれ以上精度を向上できないか、又は、学習データの不足が原因で精度が出ていないか(再学習により精度をさらに向上できるか)を把握することは、ディープラーニングを使いこなすうえで非常に重要である。ところが、ディープラーニングの不確実性を完全に排除することは困難である。 Although DNN model inference is generally highly accurate, inference is limited. Understand the learning state of the model, that is, whether the accuracy cannot be improved further due to the limit of deep learning, or whether the accuracy is not due to lack of training data (whether the accuracy can be further improved by re-learning). This is very important in making full use of deep learning. However, it is difficult to completely eliminate the uncertainty of deep learning.

ディープラーニングの不確実性は、偶発的な不確実性(Aleatoric uncertainty)と、認識における不確実性(Epistemic uncertainty)の2つのタイプに分けることができる。前者の偶発的な不確実性は、観測によるノイズに起因するものであり、データ不足によるものではない。例えば、隠れて見えない画像(オクルージョン)が偶発的な不確実性に該当する。マスクをした人の顔の口元は、そもそもマスクで隠れているのでデータとして観測することができない。一方、後者の認識における不確実性は、データが不足していることに起因し、データが充分に存在するとしたら認識における不確実性を改善することができる。 Uncertainty in deep learning can be divided into two types: oleatoric uncertainty and epistemic uncertainty. The former random uncertainty is due to observational noise and not to lack of data. For example, an image that is hidden and cannot be seen (occlusion) corresponds to accidental uncertainty. The mouth of the masked person's face is hidden by the mask in the first place, so it cannot be observed as data. On the other hand, the latter uncertainty in recognition is due to the lack of data, and if enough data exists, the uncertainty in recognition can be ameliorated.

学習状態判定部312は、ベイジアンディープラーニング(Bayesian Deep Learning)(例えば非特許文献2を参照のこと)を用いて、機械学習モデル301の不確実性を明らかにする。ベイジアンディープラーニングは、学習時のみならず、推論時にもドロップアウト(一部のモデルパラメータのランダムな無効化)を利用して推論結果の不確実性を判定する。具体的には、機械学習モデル301にデータ(病理画像データ)を入力すると、ドロップアウトによって欠損したニューロンを通過し、その経路の重みによって特徴付けられた出力ラベルを得ることになるが、同じデータを入力しても異なる経路を通過して出力することから、出力が分散する。出力の分散が大きいことは、機械学習モデル301の推論における不確実性が大きいことを意味し、十分な学習データで学習を行うことにより不確実性を改善することができる。 The learning state determination unit 312 clarifies the uncertainty of the machine learning model 301 using Bayesian Deep Learning (see Non-Patent Document 2, for example). Bayesian deep learning uses dropout (random invalidation of some model parameters) not only during learning but also during inference to determine the uncertainty of inference results. Specifically, when data (pathological image data) is input to the machine learning model 301, it passes through neurons that are missing due to dropout and obtains output labels characterized by the weight of the pathway, but the same data , the output is dispersed because it passes through different paths and outputs. A large output variance means a large uncertainty in the inference of the machine learning model 301, and the uncertainty can be improved by performing learning with sufficient learning data.

したがって、学習状態判定部312がベイジアンディープラーニングに基づいて学習状態を判定した結果に基づいて、学習部102は、機械学習モデル301の学習を終了したり、学習データを追加して学習を継続したりすればよい。 Therefore, based on the result of the learning state determination unit 312 determining the learning state based on Bayesian deep learning, the learning unit 102 terminates learning of the machine learning model 301 or adds learning data to continue learning. You can do it.

C-3.追加データの生成
ここでは、追加データ生成部313で行われる、既存の学習データから追加の学習データを生成する方法について説明する。追加データ生成部313は、例えば学習状態判定部312が機械学習モデル301の不確実性を判定した結果に応答して、機械学習モデル301の再学習を行うための追加の学習データの生成を行う。また、追加データ生成部313は、機械学習モデル301にテストデータ(TD)を入力した際の出力ラベルが誤判定であったことをトリガにして、追加データを生成するようにしてもよい。追加データ生成部313は、その際のテストデータに基づいて、追加データを生成するようにしてもよい。
C-3. Generating Additional Data Here, a method for generating additional learning data from existing learning data, which is performed by the additional data generating section 313, will be described. The additional data generation unit 313 generates additional learning data for re-learning the machine learning model 301, for example, in response to the result of the learning state determination unit 312 determining the uncertainty of the machine learning model 301. . Further, the additional data generation unit 313 may generate the additional data triggered by the output label being erroneously determined when the test data (TD) is input to the machine learning model 301 . The additional data generator 313 may generate additional data based on the test data at that time.

本実施形態では、追加データ生成部313はGAN(Generative Adversarial Network)アルゴリズム(例えば非特許文献3を参照のこと)を用いて追加の学習データを自動生成することを想定している。GANは、2つのネットワークを競合させて入力データの学習を深めていくアルゴリズムである。 In this embodiment, it is assumed that the additional data generation unit 313 automatically generates additional learning data using a GAN (Generative Adversarial Network) algorithm (see Non-Patent Document 3, for example). GAN is an algorithm in which two networks compete to deepen their learning of input data.

図4には、GANを利用した追加データ生成部313の構成例を示している。図4に示す追加データ生成部313は、生成器(Generator:G)401と、識別器(Discriminator:D)402を備えている。生成器401と識別器402はそれぞれニューラルネットワークモデルで構成される。 FIG. 4 shows a configuration example of the additional data generation unit 313 using GAN. The additional data generation unit 313 shown in FIG. 4 includes a generator (Generator: G) 401 and a discriminator (Discriminator: D) 402 . The generator 401 and discriminator 402 are each composed of a neural network model.

生成器401は、学習データ蓄積部101に蓄積されている病理画像データにノイズを付加して、偽の病理画像データ(Fake Data:FD)を生成する。一方、識別器402は、本物の病理画像データと生成器401が生成した病理画像データの真偽を識別する。そして、生成器401は識別器402による真偽が困難となるように、一方の識別器402は生成器401によって生成された病理画像データを正しく識別できるように、互いに競い合いながら学習することで、真偽判定不能な、すなわち新しい病理画像データが生成できるようになる。相互学習の過程は、下式(11)のように表される。 The generator 401 adds noise to the pathological image data accumulated in the learning data accumulation unit 101 to generate fake pathological image data (Fake Data: FD). On the other hand, the discriminator 402 discriminates whether the genuine pathological image data and the pathological image data generated by the generator 401 are true or false. Then, the generator 401 learns while competing with each other so that the authenticity by the classifier 402 becomes difficult, and one classifier 402 can correctly classify the pathological image data generated by the generator 401. New pathological image data that cannot be authenticated can be generated. The process of mutual learning is represented by the following formula (11).

Figure 2022126373000012
Figure 2022126373000012

上式(11)において、Gは生成器401、Dは識別器402に対応する。DはGを本物か偽物か判断し、正しくラベル付けをする確率D(x」を最大化しようと学習する。一方、GはDに自分が本物であると認識させるために、DがGを偽物であるとラベル付する確率log(1?D(G(z)))を最小化しようと学習する。Dが正しくラベル付けできた場合、D(x)の値が大きくなり、logD(x)の値も大きくなる。さらにGが偽物であることを突き止めることで、D(G(z))が小さくなる。その結果、log(1?D(G(z)))が大きくなり、Dが優勢になる。これに対し、Gが本物に近いデータを生成できた場合、G(z)の値が大きくなり、D(G(z))の値も大きくなる。さらにDが正しくラベル付けできなくなることで、D(x)の値が小さくなり、logD(x)の値も小さくなる。その結果、log(1?D(G(z)))が小さくなり、Gが優勢になる。このような動作を繰り返して、DとGを交互に更新して各々の学習を深めていくことができる。 In the above equation (11), G corresponds to the generator 401 and D corresponds to the discriminator 402 . D determines whether G is real or fake and learns to maximize the probability D(x) of correctly labeling it. It learns to minimize the probability log(1?D(G(z))) of labeling it as fake.If D is labeled correctly, the value of D(x) increases and logD(x ) also increases, and by finding that G is fake, D(G(z)) decreases, resulting in log(1?D(G(z))) increasing and D On the other hand, if G can generate realistic data, the value of G(z) will be large, and the value of D(G(z)) will also be large, and D correctly labels Not being able to do so results in a smaller value of D(x), which in turn reduces the value of logD(x), resulting in a smaller log(1?D(G(z))) and a preponderance of G. By repeating such an operation, D and G can be alternately updated to deepen each learning.

もちろん、追加データ生成部313は、GAN以外のアルゴリズムを用いて追加の学習データを生成するようにしてもよいし、新たに病理医の病理医診断結果を収集して新規の学習データを取得するようにしてもよい。 Of course, the additional data generation unit 313 may generate additional learning data using an algorithm other than GAN, or acquire new learning data by newly collecting pathologist diagnosis results. You may do so.

D.機械学習モデルの構成
上記A項で説明したように、学習部102は病理画像データから病変部の病理診断結果を推論する機械学習モデルの学習処理を行い、推論部112は、かかる学習済みの機械学習モデルを用いて、取り込まれた病理画像データから病変部の病理診断結果を推論する。図5には、医療診断システム100において適用される機械学習モデル500の構成例を概念的に示している。図示の機械学習モデル500は、多層の畳み込みニューラルネットワーク(CNN)を用いて構成される。CNNは、入力画像の特徴量を抽出する特徴量抽出部と、抽出した特徴量に基づいて入力画像に対応する出力ラベル(診断ラベル)を推論する画像分類部を含んでいる。前者の特徴量抽出部は、ニューロン間の結合の制限及びウェイト共有の手法によって入力画像の畳み込みを行ってエッジや特徴を抽出する「畳み込み層」と、画像分類に重要でない位置の情報を削除して畳み込み層が抽出した特徴にロバスト性を与える「プーリング層」を備えている。
D. Configuration of machine learning model As described in section A above, the learning unit 102 performs learning processing of a machine learning model for inferring pathological diagnosis results of lesions from pathological image data. A learning model is used to infer the pathological diagnosis result of the lesion from the loaded pathological image data. FIG. 5 conceptually shows a configuration example of a machine learning model 500 applied in the medical diagnosis system 100 . The illustrated machine learning model 500 is constructed using a multi-layer convolutional neural network (CNN). The CNN includes a feature extraction unit that extracts the feature of the input image, and an image classification unit that infers an output label (diagnostic label) corresponding to the input image based on the extracted feature. The former feature extractor consists of a "convolution layer" that extracts edges and features by convolving the input image by restricting connections between neurons and sharing weights, and removing positional information that is not important for image classification. It has a “pooling layer” that provides robustness to the features extracted by the convolutional layer.

図5中、参照番号501は、CNNへの入力データである画像(病理画像データ)を示している。参照番号502、504、506は、畳み込み層の出力を示している。参照番号503及び505は、プーリング層の出力を示している。参照番号507は、畳み込み層の出力506を1次元に並べた状態を示し、参照番号508は全結合層を示し、参照番号509はクラス分類の推論結果となる出力層を示している。 In FIG. 5, reference number 501 indicates an image (pathological image data) that is input data to the CNN. Reference numerals 502, 504, 506 indicate the outputs of the convolutional layers. Reference numerals 503 and 505 indicate the output of the pooling layer. Reference number 507 indicates a state in which the outputs 506 of the convolutional layer are arranged one-dimensionally, reference number 508 indicates a fully connected layer, and reference number 509 indicates an output layer as an inference result of class classification.

図5に示すCNNのうち、参照番号520で示す四角で囲んだ範囲は特徴量抽出部であり、入力された病理画像データの画像特徴量を取得する処理を行う。そして、参照番号530で示す四角で囲んだ範囲は画像分類部であり、画像特徴量に基づいて出力ラベルを特定する(本実施形態では、病理画像データに含まれる病変部の診断ラベルを推論する)。 In the CNN shown in FIG. 5, the area surrounded by a square indicated by reference number 520 is a feature quantity extraction unit, which performs a process of acquiring the image feature quantity of the input pathological image data. A range surrounded by a rectangle indicated by reference number 530 is an image classification unit, which specifies an output label based on the image feature amount (in this embodiment, the diagnosis label of the lesion included in the pathological image data is inferred). ).

なお、推論過程の段階(各層の処理の順番)をl、l段目の層における出力値をYlとし、l段目の層における処理をYl=Fl(Yl-1)と表す。また、1段目の層はY1=F1(X)、最終段はY=F7(Y6)とする。 Note that the stage of the inference process (the order of processing of each layer) is l, the output value in the l-th layer is Y l , and the processing in the l-th layer is expressed as Y l =F l (Y l-1 ). . Also, Y 1 =F 1 (X) for the first layer and Y=F 7 (Y 6 ) for the final layer.

E.鑑別ラベル情報の構成
推論部112は、CNN(図5を参照のこと)で構成される学習済みの機械学習モデルを使って、画像取込部111を介して取り込まれた病理画像データから病変部の病理診断結果を推論することによって、病理医による病理診断を支援する。
E. The configuration inference unit 112 for differential label information uses a trained machine learning model configured by CNN (see FIG. 5) to extract lesions from the pathological image data acquired via the image acquisition unit 111. support the pathological diagnosis by a pathologist by inferring the pathological diagnosis result of

さらに本実施形態に係る医療診断システム100では、推論部112が取り込まれた病理画像データから推論した診断結果に関連する鑑別診断を支援する。このため、鑑別ラベル情報保持部113は、推論部112が推論した診断結果に関連する鑑別診断を行うための情報を保持している。具体的には、推論部112で使用する学習済み機械学習モデルの出力ラベルとなり得る疾患(推論ラベル)毎に、関連する鑑別診断の対象となり得る疾患を鑑別ラベルの情報を保持している。そして、鑑別ラベル情報保持部113は、推論部112の出力ラベル(診断結果)を受け取ると、その疾患に関連する疾病を特定する鑑別ラベルを返す。 Furthermore, in the medical diagnosis system 100 according to the present embodiment, the inference unit 112 supports differential diagnosis related to diagnosis results inferred from the loaded pathological image data. Therefore, the differential label information holding unit 113 holds information for performing differential diagnosis related to the diagnostic result inferred by the inferring unit 112 . Specifically, for each disease (inference label) that can be the output label of the learned machine learning model used by the inference unit 112, information on the differential label of the disease that can be the target of the related differential diagnosis is held. Upon receiving the output label (diagnosis result) from the inference unit 112, the discrimination label information storage unit 113 returns a discrimination label specifying a disease related to the disease.

病理医が行う鑑別診断は、一般に、確度が最も高い疾患と、稀な(又は、2番目に確度の高い)疾患とを比較しながら、疾患を特定するという思考過程からなる。例えば、病理医は、疾患Aと、疾患Aに関連する疾患Bとを鑑別診断する場合、疾患Bを否定して疾患Aを最終的な診断結果とする。この場合、推論ラベル「疾患A」に対応する鑑別ラベルは「疾患B」である。具体的には、癌と非癌とを鑑別診断して、非癌であることを否定して最終的に癌であると診断する。この場合、推論ラベル「癌」に対応する鑑別ラベルは「非癌」である。 A pathologist's differential diagnosis generally consists of the thought process of identifying a disease while comparing the most probable disease to the rare (or second most probable) disease. For example, when a pathologist makes a differential diagnosis between a disease A and a disease B related to the disease A, the disease B is denied and the disease A is taken as the final diagnosis. In this case, the differential label corresponding to the inference label "Disease A" is "Disease B". Specifically, cancer and non-cancer are diagnosed differentially, non-cancer is denied, and finally cancer is diagnosed. In this case, the differential label corresponding to the inference label "cancer" is "non-cancer".

また、癌の病理診断においては、癌のグレード(悪性度)も診断する必要があり、他のグレードを否定してあるグレーであると鑑別診断する。したがって、鑑別ラベル情報保持部113は、癌の各グレードを推論ラベルとして、各グレードに対して鑑別診断の対象となるグレードを鑑別ラベルとして保持しておく。 In the pathological diagnosis of cancer, it is also necessary to diagnose the grade (malignancy) of the cancer, and a differential diagnosis is made as a certain gray denial of other grades. Therefore, the differential label information holding unit 113 holds each grade of cancer as an inference label, and a grade to be subjected to differential diagnosis for each grade as a differential label.

図6には、鑑別ラベル情報保持部113が保持する鑑別ラベル情報の例を示している。図示の鑑別ラベル情報は、推論部112から出力される推論ラベルに対応する鑑別ラベルを検索するためのルックアップテーブルの構造からなる。例えば、推論部112が病理画像データから癌のグレード1を推論して鑑別ラベル情報保持部113に出力すると、グレード1に関連するグレード2を鑑別ラベルとして返す。また、推論部112が癌のグレード2という診断結果を出力したときには、鑑別ラベル情報保持部113は、グレード2に関連するグレード1及びグレード3を鑑別ラベルとして返す。また、推論部112が癌のグレード3という診断結果を出力したときには、鑑別ラベル情報保持部113は、グレード2に関連するグレード2及びグレード4を鑑別ラベルとして返す。また、推論部112が癌のグレード4という診断結果を出力したときには、鑑別ラベル情報保持部113は、グレード2に関連するグレード3を鑑別ラベルとして返す。 FIG. 6 shows an example of discrimination label information held by the discrimination label information holding unit 113. As shown in FIG. The illustrated discrimination label information has a structure of a lookup table for searching for a discrimination label corresponding to the inference label output from the inference section 112 . For example, when the inference unit 112 infers cancer grade 1 from pathological image data and outputs it to the discrimination label information storage unit 113, grade 2 related to grade 1 is returned as a discrimination label. Also, when the inference unit 112 outputs a diagnosis result of cancer grade 2, the differential label information storage unit 113 returns grades 1 and 3 related to grade 2 as differential labels. Also, when the inference unit 112 outputs the diagnosis result of cancer grade 3, the differential label information storage unit 113 returns grade 2 and grade 4 related to grade 2 as differential labels. Also, when the inference unit 112 outputs a diagnosis result of cancer grade 4, the differential label information storage unit 113 returns grade 3 related to grade 2 as a differential label.

なお、図1に示したシステム構成例では、推論部112が推論した診断結果に関連する鑑別診断の情報を、鑑別ラベル情報保持部113内の鑑別ラベル情報(ルックアップテーブル)で検索するように構成されているが、鑑別ラベルを導出する方法はこれに限定されるものではない。推論部112が用いる機械学習モデル(CNN)を、推論ラベルとともに鑑別ラベルを出力するように学習しておいてもよい。 Note that in the system configuration example shown in FIG. Although configured, the method of deriving the identification label is not limited to this. A machine learning model (CNN) used by the inference unit 112 may be trained so as to output a discrimination label together with an inference label.

F.根拠計算
根拠計算部114は、推論部112から出力される推論ラベルと、その推論ラベルに対応する鑑別ラベルの各々について、推論部112が推論する根拠を計算する。根拠計算部114は、例えば、Grad-CAM、LIME/SHAP、TCAVなどのアルゴリズムを使って、推論ラベル及び鑑別ラベルの各々の判断根拠を可視化した画像を算出する。
F. The basis calculation basis calculation unit 114 calculates the basis for inference by the inference unit 112 for each of the inference label output from the inference unit 112 and the discrimination label corresponding to the inference label. The basis calculation unit 114 uses an algorithm such as Grad-CAM, LIME/SHAP, or TCAV to calculate an image that visualizes the judgment basis for each of the inference label and the discrimination label.

Grad-CAMは、出力層においてクラス分類の推論結果となるラベルから勾配を逆にたどる(クラス分類に至るまでの各特徴マップの貢献を算出し、その重みを以って逆伝播していく)方法によって、入力画像データのうちクラス分類に寄与した場所を推定するアルゴリズムであり、クラス分類に寄与した場所をヒートマップのように可視化することができる。あるいは、入力画像データの画素の位置情報を最終畳み込み層まで保持させて、最後の判別出力への位置情報の影響度を得ることで、元の入力画像のうち影響の強い部分をヒートマップ表示するようにしてもよい。 Grad-CAM traces the gradient backward from the label that is the inference result of class classification in the output layer (calculates the contribution of each feature map up to class classification, and back-propagates using that weight) The method is an algorithm for estimating the locations that contributed to class classification in the input image data, and the locations that contributed to the classification can be visualized like a heat map. Alternatively, the positional information of the pixels of the input image data is retained up to the final convolutional layer, and by obtaining the degree of influence of the positional information on the final discrimination output, the part of the original input image with strong influence is displayed as a heat map. You may do so.

CNNなどのニューラルネットワークモデルにおいて、入力画像に対して画像認識を行ってクラスcを出力した場合に、Grad-Camアルゴリズムに基づいて判断根拠を計算する方法(ヒートマップを生成する方法)について説明する。 In a neural network model such as CNN, when image recognition is performed on the input image and class c is output, a method of calculating the basis for judgment based on the Grad-Cam algorithm (a method of generating a heat map) will be explained. .

クラスcの勾配ycが特徴マップの活性化Akであると仮定すると、下式(12)に示すようにニューロンの重要度の重みが与えられる。 Assuming that the gradient y c of class c is the feature map activation A k , the neuron importance weights are given as shown in equation (12) below.

Figure 2022126373000013
Figure 2022126373000013

最終的な畳み込み層の順伝播出力にチャネル毎の重みを乗算して、活性化関数ReLUを介して、下式(13)に示すようにGrad-Camが計算される。 The forward propagation output of the final convolutional layer is multiplied by the weight for each channel, and Grad-Cam is calculated as shown in the following equation (13) via the activation function ReLU.

Figure 2022126373000014
Figure 2022126373000014

図7には、病理画像データに、推論ラベル(すなわち、推論部112による病理診断結果)として「癌グレード1」の根拠となった部分を、元の病理画像データ上にヒートマップ701で重畳表示した画像700を例示している。画像700には、診断ラベル702も併せて表示される。また、図8には、推論ラベルに関連する鑑別ラベルとしてとして「癌グレード2」の根拠となった部分を、元の病理画像データ上にヒートマップ801で重畳表示した画像800を例示している。画像800には、鑑別ラベル802も併せて表示される。病理医は、図7及び図8に示したヒートマップ表示付き病理画像データを比較しながら鑑別診断して、推論ラベル及び鑑別ラベルの各々に該当する疾病のうち一方を否定し、他方を最終的な病理診断結果として採用することができる。 In FIG. 7, the portion that is the basis of “cancer grade 1” is superimposed on the original pathological image data as an inference label (that is, the pathological diagnosis result by the inference unit 112) as a heat map 701 and displayed on the original pathological image data. An image 700 is illustrated. Image 700 also displays diagnostic labels 702 . Also, FIG. 8 illustrates an image 800 in which a portion serving as the basis for “cancer grade 2” as a differential label related to the inference label is superimposed on the original pathological image data as a heat map 801. . An identification label 802 is also displayed in the image 800 . A pathologist makes a differential diagnosis while comparing the pathological image data with heat map display shown in FIGS. can be adopted as a pathological diagnosis result.

LIMEは、特定の入力データ項目(特徴量)を変化させた際にニューラルネットワークの出力結果が反転又は大きく変動すれば、その項目を「判定における重要度が高い」と推定する。例えば、根拠計算部114は、推論部112が用いる機械学習モデルにおける推論の理由(根拠)を示すために局所近似する他のモデル(根拠用モデル)を生成する。根拠計算部114は、入力情報(病理画像データ)とその入力情報に対応する出力結果との組合せを対象に、局所的に近似する根拠用モデルを生成する。そして、根拠計算部114は、推論部112から診断ラベル及び鑑別ラベルが出力されると、根拠用モデルを用いて、診断ラベル及び鑑別ラベルの各々に関する根拠情報を生成して、図7及び図8に示したような根拠画像を同様に生成することができる。 LIME estimates that if the output result of the neural network is reversed or greatly fluctuates when a specific input data item (feature value) is changed, that item is "highly important in determination". For example, the basis calculation unit 114 generates another model (basis model) for local approximation to indicate the reason (basis) for inference in the machine learning model used by the inference unit 112 . The basis calculation unit 114 generates a basis model that locally approximates a combination of input information (pathological image data) and an output result corresponding to the input information. Then, when the diagnostic label and the differential label are output from the inference unit 112, the basis calculation unit 114 uses the basis model to generate basis information for each of the diagnostic label and the differentiation label, and can be similarly generated.

TCAVは、訓練済みモデルの予測に対するConcept(人間が簡単に理解できるような概念)の重要度を計算するアルゴリズムである。例えば、根拠計算部114は、入力情報(病理画像データ)を複製したり、変更を加えたりした複数の入力情報を生成して、根拠情報の生成対象となるモデル(説明対象モデル)に、複数の入力情報の各々を入力し、各入力情報に対応する複数の出力情報を説明対象モデルから出力させる。そして、根拠計算部114は、複数の入力情報の各々と、対応する複数の出力情報の各々との組合せ(ペア)を学習用データとして、根拠用モデルを学習して、対象入力情報を対象として別の解釈可能なモデルで局所近似する根拠用モデルを生成する。そして、根拠計算部114は、推論部112から診断ラベル及び鑑別ラベルが出力されると、根拠用モデルを用いて、診断ラベル及び鑑別ラベルの各々に関する根拠情報を生成して、図7及び図8に示したような根拠画像を同様に生成することができる。 TCAV is an algorithm that calculates the importance of Concepts (concepts that can be easily understood by humans) to the predictions of a trained model. For example, the basis calculation unit 114 generates a plurality of pieces of input information by duplicating or modifying the input information (pathological image data), and assigns a plurality of input information to a model (description target model) for which basis information is to be generated. , and output a plurality of output information corresponding to each input information from the model to be explained. Then, the basis calculation unit 114 learns a basis model using a combination (pair) of each of the plurality of input information and each of the corresponding plurality of output information as learning data, and uses the target input information as a target. Generate a rationale model that is locally approximated by another interpretable model. Then, when the diagnostic label and the differential label are output from the inference unit 112, the basis calculation unit 114 uses the basis model to generate basis information for each of the diagnostic label and the differentiation label, and can be similarly generated.

もちろん、根拠計算部114は、上述したGrad-Cam、LIME/SHAP、TCAV以外のアルゴリズムに基づいて、推論部112における診断ラベル及び鑑別ラベルの各々に関する根拠を計算するようにしてもよい。 Of course, the basis calculation unit 114 may calculate the basis for each of the diagnostic label and the differential label in the inference unit 112 based on algorithms other than Grad-Cam, LIME/SHAP, and TCAV described above.

G.推論結果の提示
推論部112からは、画像取込部111が取り込んだ病理画像データから推論される診断ラベルと、その診断ラベルに対応する鑑別ラベルが出力される。また、根拠計算部114は、診断ラベル及び鑑別ラベルの各々を推論する根拠を計算し、例えば元の病理画像データ上に根拠を示すヒートマップを重畳した画像(例えば、図7及び図8を参照のこと)が出力される。そして、提示処理部115は、推論部112及び根拠計算部114の出力を、表示装置120の画面に表示するための処理を実行する。
G. Presentation of Inference Results The inference unit 112 outputs a diagnostic label inferred from the pathological image data acquired by the image acquisition unit 111 and a discrimination label corresponding to the diagnostic label. Further, the basis calculation unit 114 calculates the basis for inferring each of the diagnostic label and the differential label. ) is output. Then, the presentation processing unit 115 executes processing for displaying the outputs of the inference unit 112 and the basis calculation unit 114 on the screen of the display device 120 .

提示処理部115は、例えば表示装置120の画面を2分割して、分割した各領域に、病理画像データの診断結果及びその根拠情報(例えば、図7を参照のこと)と、鑑別診断及びその根拠情報(例えば、図8を参照のこと)とを同時に表示するようにしてもよい。また、提示処理部115は、ユーザインターフェース(UI)部130を介したユーザ入力に応答して、病理画像データの診断結果及びその根拠情報(例えば、図7を参照のこと)と、鑑別診断及びその根拠情報(例えば、図8を参照のこと)とを切り替えて表示するようにしてもよい。 The presentation processing unit 115 divides the screen of the display device 120 into two, for example, and displays the diagnosis result of the pathological image data and its basis information (for example, see FIG. 7), the differential diagnosis and its Ground information (for example, see FIG. 8) may be displayed at the same time. In addition, the presentation processing unit 115 responds to a user input via the user interface (UI) unit 130, the diagnosis result of the pathological image data and its basis information (for example, see FIG. 7), the differential diagnosis and The basis information (for example, see FIG. 8) may be switched to be displayed.

病理医は、表示装置120の画面上で、病理画像データの診断結果及びその根拠情報(例えば、図7を参照のこと)と、鑑別診断及びその根拠情報(例えば、図8を参照のこと)とを確認して、病理画像データの鑑別診断を行うことができる。表示装置120は、デジタル病理画像を用いた診断のために画像の観察に利用されるモニターであるが、病理医が直接視認することで診断を下すツールであるという観点から、光学顕微鏡におけるレンズと同様に重要であり、色再現性に優れ、画素ピッチの細かい高品質のモニターであることが好ましい。 On the screen of the display device 120, the pathologist displays the diagnosis result of the pathological image data and its basis information (for example, see FIG. 7), and the differential diagnosis and its basis information (for example, see FIG. 8). It is possible to make a differential diagnosis of the pathological image data by confirming the The display device 120 is a monitor used for observing images for diagnosis using digital pathological images, but from the viewpoint that it is a tool for making a diagnosis by direct visual observation by a pathologist, it is similar to a lens in an optical microscope. Equally important, a high-quality monitor with excellent color reproducibility and a fine pixel pitch is preferable.

図11には、表示装置120において病理画像を表示する画面遷移例を示している。図11に示す例では、元の(すなわち、画像取込部111に取り込まれたままの)病理画像データを表示する表示モード1と、元の病理画像データに診断ラベルの根拠を表すヒートマップを重畳表示する表示モード2と、元の病理画像データに鑑別ラベルの根拠を表すヒートマップを重畳表示する表示モード3と、元の病理画像データに診断ラベル及び鑑別ラベルの各根拠を表すヒートマップを同時に重畳表示する表示モード4を有している。ユーザ(病理医など)は、UI部130を介して、表示モード1~4のいずれを画面に表示するかをメニュー選択するようにしてもよい。あるいは、トグルボタンなどを使って、表示モード1→表示モード2→表示モード3→表示モード4→表示モード1→…のように表示モードを順に切り替えるようにしてもよい。 FIG. 11 shows an example of screen transition for displaying pathological images on the display device 120 . In the example shown in FIG. 11, display mode 1 displays the original pathological image data (that is, as it is captured by the image capturing unit 111), and a heat map representing the basis of the diagnostic label is displayed on the original pathological image data. A display mode 2 for superimposed display, a display mode 3 for superimposed display of a heat map showing the basis of the differential label on the original pathological image data, and a heat map showing the basis of the diagnostic label and the differential label on the original pathological image data. It has a display mode 4 for simultaneous superimposition display. A user (such as a pathologist) may use the UI section 130 to select from a menu which of the display modes 1 to 4 is to be displayed on the screen. Alternatively, a toggle button or the like may be used to switch the display modes in order such as display mode 1→display mode 2→display mode 3→display mode 4→display mode 1→ .

H.推論フェーズにおける動作
図9には、医療診断システム100の推論フェーズにおける処理動作をフローチャートの形式で示している。
H. Operation in the Inference Phase FIG. 9 shows the processing operation in the inference phase of the medical diagnostic system 100 in the form of a flow chart.

まず、画像取込部111は、顕微鏡システム(後述)を用いて取得した病理画像データを取り込む(ステップS901)。画像取込部111は、受信した病理画像データを前処理して、推論部1112に出力する。 First, the image capturing unit 111 captures pathological image data acquired using a microscope system (described later) (step S901). The image acquisition unit 111 preprocesses the received pathological image data and outputs the preprocessed pathological image data to the inference unit 1112 .

推論部112は、学習部102による学習済みの機械学習モデルを用いて、病理画像データの画像特徴量を取得する処理を行い(ステップS902)、次いで、画像特徴量に基づいて、病理画像データに含まれる病変部の病理診断を推論して(ステップS903)、診断ラベルを出力する。 The inference unit 112 uses the machine learning model trained by the learning unit 102 to perform a process of acquiring the image feature amount of the pathological image data (step S902). A pathological diagnosis of the included lesion is inferred (step S903), and a diagnosis label is output.

推論部112は、診断ラベルを鑑別ラベル情報保持部113に照会して、鑑別ラベル情報(例えば、図6を参照のこと)から、対応する鑑別ラベルを取得する(ステップS904)。そして、推論部112は、病理画像データから推論した診断ラベルと、その診断ラベルに対応する鑑別ラベルを、根拠計算部114に出力する。 The reasoning unit 112 inquires the diagnostic label to the discrimination label information holding unit 113 and acquires the corresponding discrimination label from the discrimination label information (see FIG. 6, for example) (step S904). The inference unit 112 then outputs the diagnostic label inferred from the pathological image data and the discrimination label corresponding to the diagnostic label to the basis calculation unit 114 .

根拠計算部114は、推論部112から出力される推論ラベルと、その推論ラベルに対応する鑑別ラベルの各々について、推論部112が推論する根拠を計算する(ステップS905)。根拠計算部114は、例えばGrad-CAMアルゴリズムに基づいて、推論ラベル及び鑑別ラベルの各々の判断根拠を可視化した画像(例えば、図7及び図8を参照のこと)を算出する。 The basis calculation unit 114 calculates the basis for inference by the inference unit 112 for each of the inference label output from the inference unit 112 and the discrimination label corresponding to the inference label (step S905). The basis calculation unit 114 calculates an image (for example, see FIGS. 7 and 8) in which judgment basis for each of the inference label and the discrimination label is visualized, based on the Grad-CAM algorithm, for example.

そして、提示処理部115は、推論部112及び根拠計算部114の出力を、表示装置120の画面に表示するための処理を実行する(ステップS906)。 Then, the presentation processing unit 115 executes processing for displaying the outputs of the inference unit 112 and the basis calculation unit 114 on the screen of the display device 120 (step S906).

病理医は、表示装置120の画面上で、病理画像データの診断結果及びその根拠情報(例えば、図7を参照のこと)と、鑑別診断及びその根拠情報(例えば、図8を参照のこと)を観察して、病理画像データの鑑別診断を行う(ステップS907)。その際、病理医は、UI部130などを通じて、病理画像データの診断結果及びその根拠情報の画像と、鑑別診断及びその根拠情報の画像とを、交互に切り替えて表示させるようにすることができる。 On the screen of the display device 120, the pathologist displays the diagnosis result of the pathological image data and its basis information (for example, see FIG. 7), and the differential diagnosis and its basis information (for example, see FIG. 8). is observed to perform differential diagnosis of the pathological image data (step S907). At this time, the pathologist can alternately switch and display the image of the diagnosis result of the pathological image data and its basis information and the image of the differential diagnosis and its basis information through the UI unit 130 or the like. .

鑑別診断では、病理医は、病理画像データの診断結果及びその根拠情報(例えば、図7を参照のこと)と、鑑別診断及びその根拠情報(例えば、図8を参照のこと)とを比較し、診断ラベル又は鑑別ラベルのいずれか一方を否定して、他方を最終的な診断結果として採用する。病理医は、UI部130などを通じて診断ラベル又は鑑別ラベルのいずれか一方を選択して、最終的な診断結果を医療診断システム100に入力する。 In the differential diagnosis, the pathologist compares the diagnosis result of the pathological image data and its basis information (for example, see FIG. 7) with the differential diagnosis and its basis information (for example, see FIG. 8). , negates either the diagnostic label or the differential label and accepts the other as the final diagnosis. The pathologist selects either the diagnostic label or the differential label through the UI unit 130 or the like and inputs the final diagnosis result to the medical diagnosis system 100 .

医療診断システム100は、病理医による最終的な診断結果を出力して(ステップS908)、本処理を終了する。医療診断システム100は、病理医による最終的な診断結果を、該当する患者の電子カルテに記録する。 The medical diagnosis system 100 outputs the final diagnosis result by the pathologist (step S908), and ends this process. The medical diagnosis system 100 records the final diagnosis result by the pathologist in the corresponding patient's electronic medical record.

なお、病理医が診断ラベル及び鑑別ラベルのいずれも受け入れることができず、最終的な診断結果が得られない場合には、病理医は、該当する患者の病変部の採取やその顕微鏡観察などを再度行って、病理画像データを医療診断システム100に再入力するようにしてもよい。 If the pathologist cannot accept either the diagnostic label or the differential label and cannot obtain a final diagnosis, the pathologist should collect the relevant patient's lesion and observe it under a microscope. It may be performed again to re-input the pathological image data to the medical diagnosis system 100 .

I.情報処理装置の構成例
このI項では、医療診断システム100における学習フェーズ及び推論フェーズの一方又は両方を実現することができる情報処理装置について説明する。
I. Configuration Example of Information Processing Apparatus In this Section I, an information processing apparatus capable of realizing one or both of the learning phase and the inference phase in the medical diagnosis system 100 will be described.

図10には、情報処理装置1000の構成例を示している。情報処理装置100は、CPU(Central Processing Unit)1001と、RAM(Random Access Memory)1002と、ROM(Read Only Memory)1003と、大容量記憶装置1004と、通信インターフェース(IF)1005と、入出力インターフェース(IF)1006を備えている。情報処理装置1000の各部は、バス1010によって相互接続されている。情報処理装置1000は、例えばパーソナルコンピュータを用いて構成される。 FIG. 10 shows a configuration example of the information processing apparatus 1000. As shown in FIG. The information processing apparatus 100 includes a CPU (Central Processing Unit) 1001, a RAM (Random Access Memory) 1002, a ROM (Read Only Memory) 1003, a large-capacity storage device 1004, a communication interface (IF) 1005, and an input/output device. An interface (IF) 1006 is provided. Each unit of information processing apparatus 1000 is interconnected by bus 1010 . The information processing apparatus 1000 is configured using, for example, a personal computer.

CPU1001は、ROM1003又は大容量記憶装置1004に格納されたプログラムに基づいて動作して、各部の動作を制御する。例えば、CPU1001は、ROM1003又は大容量記憶装置1004に格納された各種プログラムをRAM1002上に展開して実行し、プログラム実行中の作業データをRAM1002に一時的に格納する。 The CPU 1001 operates based on programs stored in the ROM 1003 or the large-capacity storage device 1004 to control the operation of each unit. For example, the CPU 1001 expands and executes various programs stored in the ROM 1003 or large-capacity storage device 1004 on the RAM 1002, and temporarily stores work data in the RAM 1002 during program execution.

ROM1003は、情報処理装置1000の起動時にCPU1001によって実行されるブートプログラムや、BIOS(Basic Input Output System)などの情報処理装置1000のハードウェアに依存するプログラムやデータなどを不揮発的に格納している。 The ROM 1003 nonvolatilely stores a boot program executed by the CPU 1001 when the information processing apparatus 1000 is started, and programs and data dependent on the hardware of the information processing apparatus 1000, such as BIOS (Basic Input Output System). .

大容量記憶装置1004は、HDD(Hard Disk Drive)やSSD(Solid State Drive)のような、コンピュータが読み取り可能な記録媒体で構成される。大容量記憶装置1004は、CPU1001によって実行されるプログラムや、プログラムによって使用されるデータなどをファイル形式で不揮発的に記録している。具体的には、大容量記憶装置1004は、図1に示した医療診断システム100において、学習部102が機械学習モデルを学習するための処理動作を実現するプログラムや、学習部102によって学習が行われた機械学習モデルのモデルパラメータ(ニューロンの重み付け係数など)、推論部112が学習済み機械学習モデルを用いて病理画像データの病理診断(鑑別診断)を行うための処理動作を実現するプログラム、鑑別ラベル情報などの各データを、それぞれファイル形式で記録している。 The mass storage device 1004 is composed of a computer-readable recording medium such as a HDD (Hard Disk Drive) or an SSD (Solid State Drive). A large-capacity storage device 1004 nonvolatilely records programs executed by the CPU 1001 and data used by the programs in file format. Specifically, in the medical diagnosis system 100 shown in FIG. model parameters (e.g., neuron weighting coefficients) of the machine learning model that has been learned, a program that realizes a processing operation for the inference unit 112 to perform pathological diagnosis (differential diagnosis) of pathological image data using the learned machine learning model, differentiation Each data such as label information is recorded in a file format.

通信インターフェース1005は、情報処理装置1000が外部ネットワーク1050(例えばインターネット)と接続するためのインターフェースである。例えば、CPU1001は、通信インターフェース1005を介して、他の機器からデータを受信したり、CPU1001が生成したデータを他の機器へ送信したりする。 A communication interface 1005 is an interface for connecting the information processing apparatus 1000 to an external network 1050 (for example, the Internet). For example, the CPU 1001 receives data from another device or transmits data generated by the CPU 1001 to another device via the communication interface 1005 .

入出力インターフェース1006は、情報処理装置1000に入出力デバイス1060を接続するためのインターフェースである。例えば、CPU1001は、入出力インターフェース1006を介して、キーボードやマウスなどの入力デバイス(いずれも図示しない)からデータを受信する。また、CPU1001は、入出力インターフェース1006を介して、ディスプレイやスピーカーやプリンタなどの出力デバイス(いずれも図示しない)にデータを送信する。また、入出力インターフェース1006は、所定の記録媒体(メディア)に記録されたプログラムやデータなどのファイルを読み取るメディアインターフェースとして機能してもよい。ここで言うメディアには、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)などの光学記録媒体、MO(Magneto-Optical disk)などの光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリなどが含まれる。 The input/output interface 1006 is an interface for connecting the input/output device 1060 to the information processing apparatus 1000 . For example, the CPU 1001 receives data from input devices such as a keyboard and mouse (none of which are shown) via the input/output interface 1006 . The CPU 1001 also transmits data to an output device such as a display, speaker, or printer (none of which is shown) via the input/output interface 1006 . Also, the input/output interface 1006 may function as a media interface for reading files such as programs and data recorded on a predetermined recording medium. The media referred to here include, for example, optical recording media such as DVD (Digital Versatile Disc) and PD (Phase change rewritable disc), magneto-optical recording media such as MO (Magneto-Optical disk), tape media, magnetic recording media, or Semiconductor memory and the like are included.

例えば、情報処理装置1000が学習フェーズ及び推論フェーズにおける医療診断システム100として機能する場合、CPU1001は、RAM1002上にロードされたプログラムを実行することにより、学習部102や推論部112、根拠計算部114、提示処理部115の機能を実現する。また、大容量記憶装置1004には、学習部102が機械学習モデルを学習するための処理動作を実現するプログラムや、学習部102によって学習が行われた機械学習モデルのモデルパラメータ(ニューロンの重み付け係数など)、推論部112が学習済み機械学習モデルを用いて病理画像データの病理診断(鑑別診断)を行うための処理動作を実現するプログラム、鑑別ラベル情報などの各データが格納される。なお、CPU1001は、プログラムやデータなどのファイルを大容量記憶装置1004から読み取って実行するが、他の例として、外部ネットワーク1050を介して、他の装置(図示しない)からこれらのプログラムやデータを取得したり他の装置にデータを転送したりするようにしてもよい。 For example, when the information processing apparatus 1000 functions as the medical diagnosis system 100 in the learning phase and the inference phase, the CPU 1001 executes a program loaded on the RAM 1002 to perform , realizes the function of the presentation processing unit 115 . The large-capacity storage device 1004 also stores a program for realizing a processing operation for the learning unit 102 to learn a machine learning model, model parameters (neuron weighting coefficients) of the machine learning model learned by the learning unit 102, and so on. etc.), a program for realizing a processing operation for the inference unit 112 to perform pathological diagnosis (differential diagnosis) of pathological image data using a learned machine learning model, and various data such as differential label information. Note that the CPU 1001 reads files such as programs and data from the mass storage device 1004 and executes them. The data may be acquired or transferred to another device.

J.顕微鏡システム
本開示の顕微鏡システムの構成例を図12に示す。図12に示される顕微鏡システム5000は、顕微鏡装置5100、制御部5110、及び情報処理部5120を含む。顕微鏡装置5100は、光照射部5101、光学部5102、及び信号取得部5103を備えている。顕微鏡装置5100はさらに、生体由来試料Sが配置される試料載置部5104を備えていてよい。なお、顕微鏡装置の構成は図12に示されるものに限定されず、例えば、光照射部5101は、顕微鏡装置5100の外部に存在してもよく、例えば顕微鏡装置5100に含まれない光源が光照射部5101として利用されてもよい。また、光照射部5101は、光照射部5101と光学部5102とによって試料載置部5104が挟まれるように配置されていてよく、例えば、光学部5102が存在する側に配置されてもよい。顕微鏡装置5100は、明視野観察、位相差観察、微分干渉観察、偏光観察、蛍光観察、及び暗視野観察のうちの1又は2以上で構成されてよい。
J. Microscope System FIG. 12 shows a configuration example of the microscope system of the present disclosure. A microscope system 5000 shown in FIG. 12 includes a microscope device 5100 , a control section 5110 and an information processing section 5120 . A microscope device 5100 includes a light irradiation section 5101 , an optical section 5102 , and a signal acquisition section 5103 . The microscope device 5100 may further include a sample placement section 5104 on which the biological sample S is placed. The configuration of the microscope apparatus is not limited to that shown in FIG. 12. For example, the light irradiation unit 5101 may exist outside the microscope apparatus 5100. It may be used as the unit 5101 . Further, the light irradiation section 5101 may be arranged such that the sample mounting section 5104 is sandwiched between the light irradiation section 5101 and the optical section 5102, and may be arranged on the side where the optical section 5102 exists, for example. The microscope apparatus 5100 may be configured for one or more of bright field observation, phase contrast observation, differential interference observation, polarization observation, fluorescence observation, and dark field observation.

顕微鏡システム5000は、いわゆるWSI(Whole Slide Imaging)システム又はデジタルパソロジーシステムとして構成されてよく、病理診断のために用いられうる。また、顕微鏡システム5000は、蛍光イメージングシステム、特には多重蛍光イメージングシステムとして構成されてもよい。 The microscope system 5000 may be configured as a so-called WSI (Whole Slide Imaging) system or a digital pathology system, and may be used for pathological diagnosis. Microscope system 5000 may also be configured as a fluorescence imaging system, in particular a multiplex fluorescence imaging system.

例えば、顕微鏡システム5000は、術中病理診断又は遠隔病理診断を行うために用いられてよい。当該術中病理診断では、手術が行われている間に、顕微鏡装置5100が、当該手術の対象者から取得された生体由来試料Sのデータを取得し、そして、当該データを情報処理部5120へと送信しうる。当該遠隔病理診断では、顕微鏡装置5100は、取得した生体由来試料Sのデータを、顕微鏡装置5100とは離れた場所(別の部屋又は建物など)に存在する情報処理部5120へと送信しうる。そして、これらの診断において、情報処理部5120は、当該データを受信し、出力する。出力されたデータに基づき、情報処理部5120のユーザが、病理診断を行いうる。 For example, microscope system 5000 may be used to perform intraoperative pathology or remote pathology. In the intraoperative pathological diagnosis, while the surgery is being performed, the microscope device 5100 acquires data of the biological sample S obtained from the subject of the surgery, and transfers the data to the information processing unit 5120. can send. In the remote pathological diagnosis, the microscope device 5100 can transmit the acquired data of the biological sample S to the information processing unit 5120 located in a place (another room, building, or the like) away from the microscope device 5100 . In these diagnoses, the information processing section 5120 receives and outputs the data. A user of the information processing unit 5120 can make a pathological diagnosis based on the output data.

(生体由来試料)
生体由来試料Sは、生体成分を含む試料であってよい。前記生体成分は、生体の組織、細胞、生体の液状成分(血液や尿等)、培養物、又は生細胞(心筋細胞、神経細胞、及び受精卵など)であってよい。
前記生体由来試料は、固形物であってよく、パラフィンなどの固定試薬によって固定された標本又は凍結により形成された固形物であってよい。前記生体由来試料は、当該固形物の切片でありうる。前記生体由来試料の具体的な例として、生検試料の切片を挙げることができる。
(Biological sample)
The biological sample S may be a sample containing a biological component. The biological components may be tissues, cells, liquid components of a living body (blood, urine, etc.), cultures, or living cells (cardiomyocytes, nerve cells, fertilized eggs, etc.).
The biological sample may be a solid, a specimen fixed with a fixative such as paraffin, or a solid formed by freezing. The biological sample can be a section of the solid. A specific example of the biological sample is a section of a biopsy sample.

前記生体由来試料は、染色又は標識などの処理が施されたものであってよい。当該処理は、生体成分の形態を示すための又は生体成分が有する物質(表面抗原など)を示すための染色であってよく、HE(Hematoxylin-Eosin)染色、免疫組織化学(Immunohistochemistry)染色を挙げることができる。前記生体由来試料は、1又は2以上の試薬により前記処理が施されたものであってよく、当該試薬は、蛍光色素、発色試薬、蛍光タンパク質、又は蛍光標識抗体でありうる。 The biological sample may have been subjected to processing such as staining or labeling. The treatment may be staining for indicating the morphology of biological components or for indicating substances (surface antigens, etc.) possessed by biological components, examples of which include HE (Hematoxylin-Eosin) staining and immunohistochemistry staining. be able to. The biological sample may be treated with one or more reagents, and the reagents may be fluorescent dyes, chromogenic reagents, fluorescent proteins, or fluorescently labeled antibodies.

前記標本は、人体から採取された検体または組織サンプルから病理診断または臨床検査などを目的に作製されたものであってよい。また、前記標本は、人体に限らず、動物、植物、又は他の材料に由来するものであってもよい。前記標本は、使用される組織(例えば臓器または細胞など)の種類、対象となる疾病の種類、対象者の属性(例えば、年齢、性別、血液型、または人種など)、または対象者の生活習慣(例えば、食生活、運動習慣、または喫煙習慣など)などにより性質が異なる。前記標本は、各標本それぞれ識別可能な識別情報(バーコード情報又はQRコード(商標)情報等)を付されて管理されてよい。 The specimen may be prepared from a specimen or tissue sample collected from a human body for the purpose of pathological diagnosis, clinical examination, or the like. Moreover, the specimen is not limited to the human body, and may be derived from animals, plants, or other materials. The specimen may be the type of tissue used (such as an organ or cell), the type of target disease, the subject's attributes (such as age, sex, blood type, or race), or the subject's lifestyle. The properties differ depending on habits (for example, eating habits, exercise habits, smoking habits, etc.). The specimens may be managed with identification information (bar code information, QR code (trademark) information, etc.) that allows each specimen to be identified.

(光照射部)
光照射部5101は、生体由来試料Sを照明するための光源、および光源から照射された光を標本に導く光学部である。光源は、可視光、紫外光、若しくは赤外光、又はこれらの組合せを生体由来試料に照射しうる。光源は、ハロゲンランプ、レーザ光源、LEDランプ、水銀ランプ、及びキセノンランプのうちの1又は2以上であってよい。蛍光観察における光源の種類及び/又は波長は、複数でもよく、当業者により適宜選択されてよい。光照射部は、透過型、反射型又は落射型(同軸落射型若しくは側射型)の構成を有しうる。
(light irradiation part)
The light irradiation unit 5101 is a light source for illuminating the biological sample S and an optical unit for guiding the light irradiated from the light source to the specimen. The light source may irradiate the biological sample with visible light, ultraviolet light, or infrared light, or a combination thereof. The light source may be one or more of halogen lamps, laser light sources, LED lamps, mercury lamps, and xenon lamps. A plurality of types and/or wavelengths of light sources may be used in fluorescence observation, and may be appropriately selected by those skilled in the art. The light irradiator may have a transmissive, reflective, or episcopic (coaxial or lateral) configuration.

(光学部)
光学部5102は、生体由来試料Sからの光を信号取得部5103へと導くように構成される。光学部は、顕微鏡装置5100が生体由来試料Sを観察又は撮像することを可能とするように構成されうる。
光学部5102は、対物レンズを含みうる。対物レンズの種類は、観察方式に応じて当業者により適宜選択されてよい。また、光学部は、対物レンズによって拡大された像を信号取得部に中継するためのリレーレンズを含んでもよい。光学部は、前記対物レンズ及び前記リレーレンズ以外の光学部品、接眼レンズ、位相板、及びコンデンサレンズなど、をさらに含みうる。
また、光学部5102は、生体由来試料Sからの光のうちから所定の波長を有する光を分離するように構成された波長分離部をさらに含んでよい。波長分離部は、所定の波長又は波長範囲の光を選択的に信号取得部に到達させるように構成されうる。波長分離部は、例えば、光を選択的に透過させるフィルタ、偏光板、プリズム(ウォラストンプリズム)、及び回折格子のうちの1又は2以上を含んでよい。波長分離部に含まれる光学部品は、例えば対物レンズから信号取得部までの光路上に配置されてよい。波長分離部は、蛍光観察が行われる場合、特に励起光照射部を含む場合に、顕微鏡装置内に備えられる。波長分離部は、蛍光同士を互いに分離し又は白色光と蛍光とを分離するように構成されうる。
(Optical part)
The optical section 5102 is configured to guide the light from the biological sample S to the signal acquisition section 5103 . The optical section can be configured to allow the microscope device 5100 to observe or image the biological sample S.
Optical section 5102 may include an objective lens. The type of objective lens may be appropriately selected by those skilled in the art according to the observation method. Also, the optical section may include a relay lens for relaying the image magnified by the objective lens to the signal acquisition section. The optical unit may further include optical components other than the objective lens and the relay lens, an eyepiece lens, a phase plate, a condenser lens, and the like.
In addition, the optical section 5102 may further include a wavelength separation section configured to separate light having a predetermined wavelength from the light from the biological sample S. The wavelength separation section can be configured to selectively allow light of a predetermined wavelength or wavelength range to reach the signal acquisition section. The wavelength separator may include, for example, one or more of a filter that selectively transmits light, a polarizing plate, a prism (Wollaston prism), and a diffraction grating. The optical components included in the wavelength separation section may be arranged, for example, on the optical path from the objective lens to the signal acquisition section. The wavelength separation unit is provided in the microscope apparatus when fluorescence observation is performed, particularly when an excitation light irradiation unit is included. The wavelength separator may be configured to separate fluorescent light from each other or white light and fluorescent light.

(信号取得部)
信号取得部5103は、生体由来試料Sからの光を受光し、当該光を電気信号、特にはデジタル電気信号へと変換することができるように構成されうる。信号取得部は、当該電気信号に基づき、生体由来試料Sに関するデータを取得することができるように構成されてよい。信号取得部は、生体由来試料Sの像(画像、特には静止画像、タイムラプス画像、又は動画像)のデータを取得することができるように構成されてよく、特に光学部によって拡大された画像のデータを取得するように構成されうる。信号取得部は、1次元又は2次元に並んで配列された複数の画素を備えている1つ又は複数の撮像素子、CMOS又はCCDなど、を含む。信号取得部は、低解像度画像取得用の撮像素子と高解像度画像取得用の撮像素子とを含んでよく、又は、AFなどのためのセンシング用撮像素子と観察などのための画像出力用撮像素子とを含んでもよい。撮像素子は、前記複数の画素に加え、各画素からの画素信号を用いた信号処理を行う信号処理部(CPU、DSP、及びメモリのうちの1つ、2つ、又は3つを含む)、及び、画素信号から生成された画像データ及び信号処理部により生成された処理データの出力の制御を行う出力制御部を含みうる。更には、撮像素子は、入射光を光電変換する画素の輝度変化が所定の閾値を超えたことをイベントとして検出する非同期型のイベント検出センサを含み得る。前記複数の画素、前記信号処理部、及び前記出力制御部を含む撮像素子は、好ましくは1チップの半導体装置として構成されうる。
(Signal acquisition part)
The signal acquisition unit 5103 can be configured to receive light from the biological sample S and convert the light into an electrical signal, particularly a digital electrical signal. The signal acquisition unit may be configured to acquire data on the biological sample S based on the electrical signal. The signal acquisition unit may be configured to acquire data of an image (image, particularly a still image, a time-lapse image, or a moving image) of the biological sample S, particularly an image magnified by the optical unit. It can be configured to acquire data. The signal acquisition unit includes one or more imaging elements, such as CMOS or CCD, having a plurality of pixels arranged one-dimensionally or two-dimensionally. The signal acquisition unit may include an image sensor for acquiring a low-resolution image and an image sensor for acquiring a high-resolution image, or an image sensor for sensing such as AF and an image sensor for image output for observation. and may include In addition to the plurality of pixels, the image sensor includes a signal processing unit (including one, two, or three of CPU, DSP, and memory) that performs signal processing using pixel signals from each pixel, and an output control unit for controlling output of image data generated from the pixel signals and processed data generated by the signal processing unit. Furthermore, the imaging device may include an asynchronous event detection sensor that detects, as an event, a change in brightness of a pixel that photoelectrically converts incident light exceeding a predetermined threshold. An imaging device including the plurality of pixels, the signal processing section, and the output control section may preferably be configured as a one-chip semiconductor device.

(制御部)
制御部5110は、顕微鏡装置5100による撮像を制御する。制御部5110は、撮像制御のために、光学部5102及び/又は試料載置部5104の移動を駆動して、光学部5102と試料載置部5104との間の位置関係を調節しうる。制御部5110は、光学部5102及び/又は試料載置部5104を、互いに近づく又は離れる方向(例えば対物レンズの光軸方向)に移動させうる。また、制御部5110は、光学部及び/又は試料載置部5104を、前記光軸方向と垂直な面におけるいずれかの方向に移動させてもよい。制御部5110は、撮像制御のために、光照射部5101及び/又は信号取得部5103を制御してもよい。
(control part)
The control unit 5110 controls imaging by the microscope device 5100 . The control unit 5110 can drive the movement of the optical unit 5102 and/or the sample placement unit 5104 to adjust the positional relationship between the optical unit 5102 and the sample placement unit 5104 for imaging control. The control unit 5110 can move the optical unit 5102 and/or the sample placement unit 5104 in a direction toward or away from each other (for example, the optical axis direction of the objective lens). Also, the control section 5110 may move the optical section and/or the sample mounting section 5104 in any direction on a plane perpendicular to the optical axis direction. The control unit 5110 may control the light irradiation unit 5101 and/or the signal acquisition unit 5103 for imaging control.

(試料載置部)
試料載置部5104は、生体由来試料の試料載置部5104上における位置が固定できるように構成されてよく、いわゆるステージであってよい。試料載置部5104は、生体由来試料の位置を、対物レンズの光軸方向及び/又は当該光軸方向と垂直な方向に移動させることができるように構成されうる。
(Sample placement section)
The sample mounting section 5104 may be configured such that the position of the biological sample on the sample mounting section 5104 can be fixed, and may be a so-called stage. The sample mounting section 5104 can be configured to move the position of the biological sample in the optical axis direction of the objective lens and/or in a direction perpendicular to the optical axis direction.

(情報処理部)
情報処理部5120は、顕微鏡装置5100が取得したデータ(撮像データなど)を、顕微鏡装置5100から取得しうる。情報処理部5120は、撮像データに対する画像処理を実行しうる。当該画像処理は、色分離処理を含んでよい。当該色分離処理は、撮像データから所定の波長又は波長範囲の光成分のデータを抽出して画像データを生成する処理、又は、撮像データから所定の波長又は波長範囲の光成分のデータを除去する処理などを含みうる。また、当該画像処理は、組織切片の自家蛍光成分と色素成分を分離する自家蛍光分離処理や互いに蛍光波長が異なる色素間の波長を分離する蛍光分離処理を含みうる。前記自家蛍光分離処理では、同一ないし性質が類似する前記複数の標本のうち、一方から抽出された自家蛍光シグナルを用いて他方の標本の画像情報から自家蛍光成分を除去する処理を行ってもよい。
情報処理部5120は、制御部5110に撮像制御のためのデータを送信してよく、当該データを受信した制御部5110が、当該データに従い顕微鏡装置5100による撮像を制御してもよい。
(Information processing department)
The information processing section 5120 can acquire data (such as imaging data) acquired by the microscope device 5100 from the microscope device 5100 . The information processing section 5120 can perform image processing on captured data. The image processing may include color separation processing. The color separation process is a process of extracting data of light components of a predetermined wavelength or wavelength range from the captured data to generate image data, or removing data of light components of a predetermined wavelength or wavelength range from the captured data. It can include processing and the like. Further, the image processing may include autofluorescence separation processing for separating the autofluorescence component and dye component of the tissue section, and fluorescence separation processing for separating the wavelengths between dyes having different fluorescence wavelengths. In the autofluorescence separation processing, out of the plurality of specimens having the same or similar properties, autofluorescence signals extracted from one may be used to remove autofluorescence components from image information of the other specimen. .
The information processing section 5120 may transmit data for imaging control to the control section 5110, and the control section 5110 receiving the data may control imaging by the microscope apparatus 5100 according to the data.

情報処理部5120は、汎用のコンピュータなどの情報処理装置として構成されてよく、CPU、RAM、及びROMを備えていてよい。情報処理部は、顕微鏡装置5100の筐体内に含まれていてよく、又は、当該筐体の外にあってもよい。また、情報処理部5120による各種処理又は機能は、ネットワークを介して接続されたサーバコンピュータ又はクラウドにより実現されてもよい。 The information processing section 5120 may be configured as an information processing device such as a general-purpose computer, and may include a CPU, a RAM, and a ROM. The information processing section may be included in the housing of the microscope device 5100 or may be outside the housing. Various processing or functions by the information processing section 5120 may be realized by a server computer or cloud connected via a network.

顕微鏡装置5100による生体由来試料Sの撮像の方式は、生体由来試料の種類及び撮像の目的などに応じて、当業者により適宜選択されてよい。当該撮像方式の例を以下に説明する。 A method of imaging the biological sample S by the microscope device 5100 may be appropriately selected by a person skilled in the art according to the type of the biological sample, the purpose of imaging, and the like. An example of the imaging method will be described below.

撮像方式の一つの例は以下のとおりである。顕微鏡装置5100は、まず、撮像対象領域を特定しうる。当該撮像対象領域は、生体由来試料が存在する領域全体をカバーするように特定されてよく、又は、生体由来試料のうちの目的部分(目的組織切片、目的細胞、又は目的病変部が存在する部分)をカバーするように特定されてもよい。次に、顕微鏡装置5100は、当該撮像対象領域を、所定サイズの複数の分割領域へと分割し、顕微鏡装置5100は各分割領域を順次撮像する。これにより、各分割領域の画像が取得される。
図13に示されるように、顕微鏡装置5100は、生体由来試料S全体をカバーする撮像対象領域Rを特定する。そして、顕微鏡装置5100は、撮像対象領域Rを16の分割領域へと分割する。そして、顕微鏡装置5100は分割領域R1の撮像を行い、そして次に、その分割領域R1に隣接する領域など、撮像対象領域Rに含まれる領域の内いずれか領域を撮像しうる。そして、未撮像の分割領域がなくなるまで、分割領域の撮像が行われる。なお、撮像対象領域R以外の領域についても、分割領域の撮像画像情報に基づき、撮像しても良い。
或る分割領域を撮像した後に次の分割領域を撮像するために、顕微鏡装置5100と試料載置部5104との位置関係が調整される。当該調整は、顕微鏡装置5100の移動、試料載置部5104の移動、又は、これらの両方の移動により行われてよい。この例において、各分割領域の撮像を行う撮像装置は、2次元撮像素子(エリアセンサ)又は1次元撮像素子(ラインセンサ)であってよい。信号取得部は、光学部を介して各分割領域を撮像してよい。また、各分割領域の撮像は、顕微鏡装置5100及び/又は試料載置部5104を移動させながら連続的に行われてよく、又は、各分割領域の撮像に際して顕微鏡装置5100及び/又は試料載置部5104の移動が停止されてもよい。各分割領域の一部が重なり合うように、前記撮像対象領域の分割が行われてよく、又は、重なり合わないように前記撮像対象領域の分割が行われてもよい。各分割領域は、焦点距離及び/又は露光時間などの撮像条件を変えて複数回撮像されてもよい。
また、情報処理部5120は、隣り合う複数の分割領域が合成して、より広い領域の画像データを生成しうる。当該合成処理を、撮像対象領域全体にわたって行うことで、撮像対象領域について、より広い領域の画像を取得することができる。また、分割領域の画像、または合成処理を行った画像から、より解像度の低い画像データを生成しうる。
One example of an imaging scheme is as follows. The microscope device 5100 can first identify an imaging target region. The imaging target region may be specified so as to cover the entire region where the biological sample exists, or a target portion (target tissue section, target cell, or target lesion portion) of the biological sample. ) may be specified to cover Next, the microscope device 5100 divides the imaging target region into a plurality of divided regions of a predetermined size, and the microscope device 5100 sequentially images each divided region. As a result, an image of each divided area is acquired.
As shown in FIG. 13, the microscope device 5100 identifies an imaging target region R that covers the entire biological sample S. As shown in FIG. Then, the microscope device 5100 divides the imaging target region R into 16 divided regions. Then, the microscope device 5100 can image the divided region R1, and then any region included in the imaging target region R, such as a region adjacent to the divided region R1. Then, image capturing of the divided areas is performed until there are no unimaged divided areas. Areas other than the imaging target area R may also be imaged based on the captured image information of the divided areas.
After imaging a certain divided area, the positional relationship between the microscope device 5100 and the sample mounting section 5104 is adjusted in order to image the next divided area. The adjustment may be performed by moving the microscope device 5100, moving the sample placement section 5104, or moving both of them. In this example, the image capturing device that captures each divided area may be a two-dimensional image sensor (area sensor) or a one-dimensional image sensor (line sensor). The signal acquisition section may capture an image of each divided area via the optical section. In addition, the imaging of each divided region may be performed continuously while moving the microscope device 5100 and/or the sample mounting unit 5104, or when imaging each divided region, the microscope device 5100 and/or the sample mounting unit Movement of 5104 may be stopped. The imaging target area may be divided so that the divided areas partially overlap each other, or the imaging target area may be divided so that the divided areas do not overlap. Each divided area may be imaged multiple times by changing imaging conditions such as focal length and/or exposure time.
Further, the information processing section 5120 can generate image data of a wider area by synthesizing a plurality of adjacent divided areas. By performing the synthesis processing over the entire imaging target area, it is possible to obtain an image of a wider area of the imaging target area. Also, image data with lower resolution can be generated from the image of the divided area or the image subjected to the synthesis processing.

撮像方式の他の例は以下のとおりである。顕微鏡装置5100は、まず、撮像対象領域を特定しうる。当該撮像対象領域は、生体由来試料が存在する領域全体をカバーするように特定されてよく、又は、生体由来試料のうちの目的部分(目的組織切片又は目的細胞が存在する部分)をカバーするように特定されてもよい。次に、顕微鏡装置5100は、撮像対象領域の一部の領域(「分割スキャン領域」ともいう)を、光軸と垂直な面内における一つの方向(「スキャン方向」ともいう)へスキャンして撮像する。当該分割スキャン領域のスキャンが完了したら、次に、前記スキャン領域の隣の分割スキャン領域を、スキャンする。これらのスキャン動作が、撮像対象領域全体が撮像されるまで繰り返される。
図14に示されるように、顕微鏡装置5100は、生体由来試料Sのうち、組織切片が存在する領域(グレーの部分)を撮像対象領域Saとして特定する。そして、顕微鏡装置5100は、撮像対象領域Saのうち、分割スキャン領域Rsを、Y軸方向へスキャンする。顕微鏡装置5100は、分割スキャン領域Rsのスキャンが完了したら、次に、X軸方向における隣の分割スキャン領域をスキャンする。撮像対象領域Saの全てについてスキャンが完了するまで、この動作が繰り返しされる。
各分割スキャン領域のスキャンのために、及び、或る分割スキャン領域を撮像した後に次の分割スキャン領域を撮像するために、顕微鏡装置5100と試料載置部5104との位置関係が調整される。当該調整は、顕微鏡装置5100の移動、試料載置部5104の移動、又は、これらの両方の移動により行われてよい。この例において、各分割スキャン領域の撮像を行う撮像装置は、1次元撮像素子(ラインセンサ)又は2次元撮像素子(エリアセンサ)であってよい。信号取得部は、拡大光学系を介して各分割領域を撮像してよい。また、各分割スキャン領域の撮像は、顕微鏡装置5100及び/又は試料載置部5104を移動させながら連続的に行われてよい。各分割スキャン領域の一部が重なり合うように、前記撮像対象領域の分割が行われてよく、又は、重なり合わないように前記撮像対象領域の分割が行われてもよい。各分割スキャン領域は、焦点距離及び/又は露光時間などの撮像条件を変えて複数回撮像されてもよい。
また、情報処理部5120は、隣り合う複数の分割スキャン領域が合成して、より広い領域の画像データを生成しうる。当該合成処理を、撮像対象領域全体にわたって行うことで、撮像対象領域について、より広い領域の画像を取得することができる。また、分割スキャン領域の画像、または合成処理を行った画像から、より解像度の低い画像データを生成しうる。
Other examples of imaging schemes are as follows. The microscope device 5100 can first identify an imaging target region. The imaging target region may be specified so as to cover the entire region where the biological sample exists, or the target portion (target tissue section or target cell-containing portion) of the biological sample. may be specified. Next, the microscope device 5100 scans a partial region (also referred to as a “divided scan region”) of the imaging target region in one direction (also referred to as a “scanning direction”) within a plane perpendicular to the optical axis. Take an image. After the scanning of the divided scan area is completed, the next divided scan area next to the scan area is scanned. These scanning operations are repeated until the entire imaging target area is imaged.
As shown in FIG. 14, the microscope device 5100 specifies a region (gray portion) in which a tissue section exists in the biological sample S as an imaging target region Sa. Then, the microscope device 5100 scans the divided scan area Rs in the imaging target area Sa in the Y-axis direction. After completing scanning of the divided scan region Rs, the microscope device 5100 next scans an adjacent divided scan region in the X-axis direction. This operation is repeated until scanning is completed for the entire imaging target area Sa.
The positional relationship between the microscope device 5100 and the sample placement section 5104 is adjusted for scanning each divided scan area and for imaging the next divided scan area after imaging a certain divided scan area. The adjustment may be performed by moving the microscope device 5100, moving the sample placement section 5104, or moving both of them. In this example, the imaging device that captures each divided scan area may be a one-dimensional imaging device (line sensor) or a two-dimensional imaging device (area sensor). The signal acquisition section may capture an image of each divided area via an enlarging optical system. Also, the imaging of each divided scan area may be performed continuously while moving the microscope device 5100 and/or the sample mounting section 5104 . The imaging target area may be divided so that the divided scan areas partially overlap each other, or the imaging target area may be divided so that the divided scan areas do not overlap. Each divided scan area may be imaged multiple times by changing imaging conditions such as focal length and/or exposure time.
In addition, the information processing section 5120 can generate image data of a wider area by synthesizing a plurality of adjacent divided scan areas. By performing the synthesizing process over the entire imaging target area, it is possible to obtain an image of a wider area of the imaging target area. Further, image data with lower resolution can be generated from the image of the divided scan area or the image subjected to the synthesis processing.

情報処理部5120は、基本的には、図1に示した医療診断システム100における推論モードの動作を実現した装置であり、図10に示した情報処理装置1000を用いて構成することができる。もちろん、情報処理部5120は、学習モードとして動作する機能も備え、使用する機械学習モデルの再学習又は追加学習を行うようにしてもよい。情報処理部5120は、顕微鏡装置5100で取り込んだ病理画像データから疾患を推論して、診断ラベル及び診断ラベルに対応する鑑別ラベルを出力するとともに、診断ラベル及び鑑別ラベルの各根拠を計算して、各々の根拠を表すヒートマップなどの情報を出力する。また、情報処理部5120は、UI部130に対応する入力デバイスを備え、病理医による最終的な診断(例えば、診断ラベル及び鑑別ラベルの一方の選択結果などの病理医の所見)や観察データ(例えば、「びまん性が高い」など病理画像に対する病理医のコメントなど)の入力を受け付ける。 The information processing unit 5120 is basically a device that realizes the inference mode operation in the medical diagnosis system 100 shown in FIG. 1, and can be configured using the information processing device 1000 shown in FIG. Of course, the information processing section 5120 may also have a function of operating in a learning mode, and may perform re-learning or additional learning of the machine learning model to be used. The information processing unit 5120 infers a disease from the pathological image data captured by the microscope device 5100, outputs a diagnostic label and a differential label corresponding to the diagnostic label, and calculates the grounds for each of the diagnostic label and the differential label, Output information such as a heat map that represents each basis. Further, the information processing unit 5120 includes an input device corresponding to the UI unit 130, and the final diagnosis by the pathologist (for example, the pathologist's findings such as the selection result of one of the diagnostic label and the differential label) and observation data ( For example, an input of a pathologist's comment on a pathological image such as "highly diffuse" is accepted.

情報処理部5120は、顕微鏡装置5100で取り込まれた病理画像データを大容量記憶装置1004に記録する。また、情報処理部5120は、病理画像データから推論した診断結果や、病理医による病理画像に対する所見及び観察データを、病理画像データと関連付けて記録する。情報処理部5120は、例えば電子カルテの形式で、患者毎に、血液などの検査値、病理画像データ、病理医による所見及び観察データを大容量記憶装置1004に保管するようにしてもよい。 The information processing section 5120 records the pathological image data captured by the microscope device 5100 in the mass storage device 1004 . In addition, the information processing unit 5120 records the diagnosis result inferred from the pathological image data, and the pathologist's findings and observation data on the pathological image in association with the pathological image data. The information processing unit 5120 may store test values such as blood, pathological image data, pathologist's findings and observation data for each patient in the mass storage device 1004, for example, in the form of an electronic medical record.

以上、特定の実施形態を参照しながら、本開示について詳細に説明してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。 The present disclosure has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiments without departing from the gist of the present disclosure.

本明細書では、本開示を病理画像の解析に適用した実施形態を中心に説明してきたが、本開示の要旨はこれに限定されるものではない。レントゲン画像やCT(Computed Tomography:コンピュータ断層撮影法)、MRI(Magnetic Resonance Imaging:磁気共鳴画像)、内視鏡画像などさまざまな医用画像の診断にも、同様に本開示を適用することができる。 In the present specification, an embodiment in which the present disclosure is applied to analysis of pathological images has been mainly described, but the gist of the present disclosure is not limited to this. The present disclosure can be similarly applied to diagnosis of various medical images such as X-ray images, CT (Computed Tomography), MRI (Magnetic Resonance Imaging), and endoscopic images.

要するに、例示という形態により本開示について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本開示の要旨を判断するためには、特許請求の範囲を参酌すべきである。 In short, the present disclosure has been described in the form of examples, and the contents of this specification should not be construed in a restrictive manner. In order to determine the gist of the present disclosure, the scope of the claims should be considered.

なお、本開示は、以下のような構成をとることも可能である。 It should be noted that the present disclosure can also be configured as follows.

(1)医用画像に関する情報を処理する情報処理装置であって、
前記医用画像に対して正解となる第1の疾患と、前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する推論部と、
前記医用画像から前記第1の疾患の根拠及び前記第2の疾患の各根拠を計算する根拠計算部と、
を具備する情報処理装置。
(1) An information processing device that processes information about medical images,
an inference unit that infers a first disease that is correct for the medical image and a second disease that is a target of differential diagnosis related to the first disease;
a basis calculation unit that calculates basis for the first disease and basis for the second disease from the medical image;
An information processing device comprising:

(2)前記推論部は、学習済みの機械学習モデルを用いて、前記医用画像から前記第1の疾患を推論する、
上記(1)に記載の情報処理装置。
(2) the inference unit infers the first disease from the medical image using a trained machine learning model;
The information processing apparatus according to (1) above.

(3)前記機械学習モデルは、医用画像と正解となる疾患を組み合わせたデータセットからなる学習データを用いて学習されている、
上記(2)に記載の情報処理装置。
(3) The machine learning model is learned using learning data consisting of a data set combining medical images and correct diseases.
The information processing apparatus according to (2) above.

(4)前記推論部は、疾患毎に鑑別診断すべき疾患を示す鑑別ラベル情報に基づいて、医用画像から推論した第1の疾患に関連する鑑別診断の対象となる第2の疾患を特定する、
上記(1)乃至(3)のいずれかに記載の情報処理装置。
(4) The inference unit identifies a second disease to be subjected to differential diagnosis related to the first disease inferred from the medical image based on differential label information indicating a disease to be differentially diagnosed for each disease. ,
The information processing apparatus according to any one of (1) to (3) above.

(5)前記推論部は学習済みのニューラルネットワークモデルを用いて第1の疾患及び第2の疾患を推論し、
前記根拠計算部は、前記ニューラルネットワークモデルが前記第1の疾患及び前記第2の疾患の各根拠をそれぞれ推論する、
上記(1)乃至(4)のいずれかに記載の情報処理装置。
(5) the inference unit infers a first disease and a second disease using a trained neural network model;
The basis calculation unit causes the neural network model to infer the basis of each of the first disease and the second disease.
The information processing apparatus according to any one of (1) to (4) above.

(6)前記根拠計算部は、前記ニューラルネットワークモデルの出力層においてクラス分類の推論結果となるラベルから勾配を逆にたどることによって、元の医用画像のうち各クラスに影響する部分を推論する、
上記(5)に記載の情報処理装置。
(6) The basis calculation unit infers a portion of the original medical image that affects each class by reversely tracing the gradient from the label that is the inference result of class classification in the output layer of the neural network model.
The information processing apparatus according to (5) above.

(7)前記根拠計算部は、前記ニューラルネットワークモデルに入力された医用画像データの特徴量を摂動させた際の出力の変動量に基づいて、前記第1の疾患及び前記第2の疾患の各根拠をそれぞれ推論する、
上記(5)に記載の情報処理装置。
(7) The basis calculation unit calculates each of the first disease and the second disease based on the amount of change in the output when the feature amount of the medical image data input to the neural network model is perturbed. Infer each reason,
The information processing apparatus according to (5) above.

(8)前記推論部の推論結果と前記根拠計算部の計算結果を提示する提示部をさらに備える、
上記(1)乃至(7)のいずれかに記載の情報処理装置。
(8) further comprising a presentation unit that presents the inference result of the inference unit and the calculation result of the basis calculation unit;
The information processing apparatus according to any one of (1) to (7) above.

(9)前記提示部は、前記医用画像に前記推論部の推論結果と前記根拠計算部の計算結果を重畳表示して提示する、
上記(8)に記載の情報処理装置。
(9) The presentation unit superimposes and presents the inference result of the inference unit and the calculation result of the basis calculation unit on the medical image.
The information processing apparatus according to (8) above.

(10)前記提示部は、第1の疾患を推論する根拠と第2の疾患を推論する根拠とを、ユーザ入力に基づいて切り替え表示する、
上記(8)又は(9)のいずれかに記載の情報処理装置。
(10) The presentation unit switches and displays the grounds for inferring the first disease and the grounds for inferring the second disease based on user input.
The information processing apparatus according to any one of (8) and (9) above.

(11)前記医用画像は、病変部を顕微で鏡観察した病理画像データである、
上記(1)乃至(10)のいずれかに記載の情報処理装置。
(11) The medical image is pathological image data obtained by microscopically observing a lesion.
The information processing apparatus according to any one of (1) to (10) above.

(12)医用画像に関する情報を処理する情報処理方法であって、
前記医用画像に対して正解となる第1の疾患を推論する第1の推論ステップと、
前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する第2の推論ステップと、
前記医用画像から前記第1の疾患の根拠を計算する第1の根拠計算ステップと、
前記医用画像から前記第2の疾患の根拠を計算する第2の根拠計算ステップと、
を有する情報処理方法。
(12) An information processing method for processing information about medical images,
a first inference step of inferring a first disease that is correct for the medical image;
a second inference step of inferring a second disease of interest for differential diagnosis associated with said first disease;
a first basis calculation step of calculating basis of the first disease from the medical image;
a second basis calculation step of calculating the basis of the second disease from the medical image;
An information processing method comprising:

(13)コンピュータ上で医用画像に関する情報を処理するようにコンピュータ可読形式で記述されたコンピュータプログラムであって、前記コンピュータを、
前記医用画像に対して正解となる第1の疾患と、前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する推論部、
前記医用画像から前記第1の疾患の根拠及び前記第2の疾患の各根拠を計算する根拠計算部、
として機能させるコンピュータプログラム。
(13) A computer program written in computer readable form to process information about medical images on a computer, the computer comprising:
an inference unit that infers a first disease that is correct for the medical image and a second disease that is a target of differential diagnosis related to the first disease;
an evidence calculation unit that calculates the evidence of the first disease and the evidence of the second disease from the medical image;
A computer program that acts as a

(14)機械学習モデルが医用画像データから疾患を推論するように前記機械学習モデルが学習を行う学習部と、
前記学習部による学習済みの前記機械学習モデルを用いて、前記医用画像に対して正解となる第1の疾患を推論するとともに、前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する推論部と、
前記医用画像から前記第1の疾患の根拠及び前記第2の疾患の各根拠を計算する根拠計算部と、
表示装置と、
前記推論部の推論結果と前記根拠計算部の計算結果を前記表示装置に提示する提示部と、
を具備する医療診断システム。
(14) a learning unit in which the machine learning model learns such that the machine learning model infers a disease from medical image data;
Using the machine learning model learned by the learning unit, infer a first disease that is correct for the medical image, and a second disease that is a target for differential diagnosis related to the first disease an inference unit that infers a disease;
a basis calculation unit that calculates basis for the first disease and basis for the second disease from the medical image;
a display device;
a presentation unit that presents the inference result of the inference unit and the calculation result of the basis calculation unit on the display device;
A medical diagnostic system comprising:

(15)学習済みの機械学習モデルを用いて、入力データを推論して第1のラベルを出力する推論部と、
前記第1のラベルと区別すべき第2のラベルに関する情報を保持する保持部と、
前記第1のラベル及び前記第2のラベルを前記機械学習モデルが推論する根拠を計算する計算部と、
を具備する情報処理装置。
(15) an inference unit that infers input data and outputs a first label using a trained machine learning model;
a holding unit holding information about a second label to be distinguished from the first label;
a calculation unit that calculates a basis for inferring the first label and the second label by the machine learning model;
An information processing device comprising:

100…医療診断システム、101…学習データ蓄積部
102…学習部、103…モデルパラメータ保持部
111…画像取込部、112…推論部
113…鑑別ラベル情報保持部、114…根拠計算部
115…提示処理部、116…鑑別ラベル更新部
120…表示装置、130…UI部
200…データ調整装置、301…機械学習モデル
311…影響度評価部、312…学習状態判定部
313…追加データ生成部、401…生成器、402…識別器
502、504、506…畳み込み層出力
503、505…プーリング層出力
507…畳み込み層出力、508…全結合層、509…出力層
1000…情報処理装置、1001…CPU、1002…RAM
1003…ROM、1004…大容量記憶装置
1005…通信インターフェース、1006…入出力インターフェース
1010…バス、1050…外部ネットワーク
1060…入出力デバイス
1200…DPシステム、1210…画像取込装置
1211…ガラススライド、1212…顕微鏡、1213…スライド
1220…画像表示装置、1230…診断装置、1240…診断装置
5000…顕微鏡システム、5100…顕微鏡装置
5101…光照射部、5102…光学部、5103…信号取得部
5104…試料載置部、5110…制御部、5120…情報処理部
DESCRIPTION OF SYMBOLS 100... Medical diagnosis system 101... Learning data accumulation part 102... Learning part 103... Model parameter holding part 111... Image acquisition part 112... Inference part 113... Differentiation label information holding part 114... Evidence calculation part 115... Presentation Processing unit 116 Identification label update unit 120 Display device 130 UI unit 200 Data adjustment device 301 Machine learning model 311 Influence evaluation unit 312 Learning state determination unit 313 Additional data generation unit 401 ... Generator 402 ... Discriminator 502, 504, 506 ... Convolutional layer output 503, 505 ... Pooling layer output 507 ... Convolutional layer output 508 ... Fully connected layer 509 ... Output layer 1000 ... Information processing device 1001 ... CPU, 1002 RAM
1003... ROM, 1004... Mass storage device 1005... Communication interface, 1006... Input/output interface 1010... Bus, 1050... External network 1060... Input/output device 1200... DP system, 1210... Image capture device 1211... Glass slide, 1212 ... Microscope 1213 ... Slide 1220 ... Image display device 1230 ... Diagnosis device 1240 ... Diagnosis device 5000 ... Microscope system 5100 ... Microscope device 5101 ... Light irradiation part 5102 ... Optical part 5103 ... Signal acquisition part 5104 ... Sample mount placing unit 5110 control unit 5120 information processing unit

Claims (14)

医用画像に関する情報を処理する情報処理装置であって、
前記医用画像に対して正解となる第1の疾患と、前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する推論部と、
前記医用画像から前記第1の疾患の根拠及び前記第2の疾患の各根拠を計算する根拠計算部と、
を具備する情報処理装置。
An information processing device for processing information related to medical images,
an inference unit that infers a first disease that is correct for the medical image and a second disease that is a target of differential diagnosis related to the first disease;
a basis calculation unit that calculates basis for the first disease and basis for the second disease from the medical image;
An information processing device comprising:
前記推論部は、学習済みの機械学習モデルを用いて、前記医用画像から前記第1の疾患を推論する、
請求項1に記載の情報処理装置。
The inference unit infers the first disease from the medical image using a trained machine learning model.
The information processing device according to claim 1 .
前記機械学習モデルは、医用画像と正解となる疾患を組み合わせたデータセットからなる学習データを用いて学習されている、
請求項2に記載の情報処理装置。
The machine learning model is learned using learning data consisting of a data set combining medical images and correct diseases,
The information processing apparatus according to claim 2.
前記推論部は、疾患毎に鑑別診断すべき疾患を示す鑑別ラベル情報に基づいて、医用画像から推論した第1の疾患に関連する鑑別診断の対象となる第2の疾患を特定する、
請求項1に記載の情報処理装置。
The inference unit identifies a second disease to be subjected to differential diagnosis related to the first disease inferred from the medical image based on differential label information indicating a disease to be differentially diagnosed for each disease.
The information processing device according to claim 1 .
前記推論部は学習済みのニューラルネットワークモデルを用いて第1の疾患及び第2の疾患を推論し、
前記根拠計算部は、前記ニューラルネットワークモデルが前記第1の疾患及び前記第2の疾患の各根拠をそれぞれ推論する、
請求項1に記載の情報処理装置。
The inference unit infers a first disease and a second disease using a trained neural network model,
The basis calculation unit causes the neural network model to infer the basis of each of the first disease and the second disease.
The information processing device according to claim 1 .
前記根拠計算部は、前記ニューラルネットワークモデルの出力層においてクラス分類の推論結果となるラベルから勾配を逆にたどることによって、元の医用画像のうち各クラスに影響する部分を推論する、
請求項5に記載の情報処理装置。
The basis calculation unit infers a portion of the original medical image that affects each class by reversely tracing the gradient from the label that is the inference result of class classification in the output layer of the neural network model.
The information processing device according to claim 5 .
前記根拠計算部は、前記ニューラルネットワークモデルに入力された医用画像データの特徴量を摂動させた際の出力の変動量に基づいて、前記第1の疾患及び前記第2の疾患の各根拠をそれぞれ推論する、
請求項5に記載の情報処理装置。
The basis calculation unit calculates the basis for each of the first disease and the second disease based on an output variation amount when the feature amount of the medical image data input to the neural network model is perturbed. infer,
The information processing device according to claim 5 .
前記推論部の推論結果と前記根拠計算部の計算結果を提示する提示部をさらに備える、
請求項1に記載の情報処理装置。
further comprising a presentation unit that presents the inference result of the inference unit and the calculation result of the basis calculation unit;
The information processing device according to claim 1 .
前記提示部は、前記医用画像に前記推論部の推論結果と前記根拠計算部の計算結果を重畳表示して提示する、
請求項8に記載の情報処理装置。
The presentation unit superimposes and presents the inference result of the inference unit and the calculation result of the basis calculation unit on the medical image.
The information processing apparatus according to claim 8 .
前記提示部は、第1の疾患を推論する根拠と第2の疾患を推論する根拠とを、ユーザ入力に基づいて切り替え表示する、
請求項8に記載の情報処理装置。
The presentation unit switches and displays the grounds for inferring the first disease and the grounds for inferring the second disease based on user input.
The information processing apparatus according to claim 8 .
前記医用画像は、病変部を顕微で鏡観察した病理画像データである、
請求項1に記載の情報処理装置。
The medical image is pathological image data obtained by microscopically observing a lesion,
The information processing device according to claim 1 .
医用画像に関する情報を処理する情報処理方法であって、
前記医用画像に対して正解となる第1の疾患を推論する第1の推論ステップと、
前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する第2の推論ステップと、
前記医用画像から前記第1の疾患の根拠を計算する第1の根拠計算ステップと、
前記医用画像から前記第2の疾患の根拠を計算する第2の根拠計算ステップと、
を有する情報処理方法。
An information processing method for processing information about medical images,
a first inference step of inferring a first disease that is correct for the medical image;
a second inference step of inferring a second disease of interest for differential diagnosis associated with said first disease;
a first basis calculation step of calculating basis of the first disease from the medical image;
a second basis calculation step of calculating the basis of the second disease from the medical image;
An information processing method comprising:
コンピュータ上で医用画像に関する情報を処理するようにコンピュータ可読形式で記述されたコンピュータプログラムであって、前記コンピュータを、
前記医用画像に対して正解となる第1の疾患と、前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する推論部、
前記医用画像から前記第1の疾患の根拠及び前記第2の疾患の各根拠を計算する根拠計算部、
として機能させるコンピュータプログラム。
A computer program written in computer readable form to process information relating to medical images on a computer, said computer comprising:
an inference unit that infers a first disease that is correct for the medical image and a second disease that is a target of differential diagnosis related to the first disease;
an evidence calculation unit that calculates the evidence of the first disease and the evidence of the second disease from the medical image;
A computer program that acts as a
機械学習モデルが医用画像データから疾患を推論するように前記機械学習モデルが学習を行う学習部と、
前記学習部による学習済みの前記機械学習モデルを用いて、前記医用画像に対して正解となる第1の疾患を推論するとともに、前記第1の疾患に関連する鑑別診断の対象となる第2の疾患を推論する推論部と、
前記医用画像から前記第1の疾患の根拠及び前記第2の疾患の各根拠を計算する根拠計算部と、
表示装置と、
前記推論部の推論結果と前記根拠計算部の計算結果を前記表示装置に提示する提示部と、
を具備する医療診断システム。
a learning unit in which the machine learning model learns so that the machine learning model infers a disease from medical image data;
Using the machine learning model learned by the learning unit, infer a first disease that is correct for the medical image, and a second disease that is a target for differential diagnosis related to the first disease an inference unit that infers a disease;
a basis calculation unit that calculates basis for the first disease and basis for the second disease from the medical image;
a display device;
a presentation unit that presents the inference result of the inference unit and the calculation result of the basis calculation unit on the display device;
A medical diagnostic system comprising:
JP2021024406A 2021-02-18 2021-02-18 Information processing device, information processing method, computer program, and medical diagnostic system Pending JP2022126373A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021024406A JP2022126373A (en) 2021-02-18 2021-02-18 Information processing device, information processing method, computer program, and medical diagnostic system
PCT/JP2021/048254 WO2022176396A1 (en) 2021-02-18 2021-12-24 Information processing device, information processing method, computer program, and medical diagnosis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021024406A JP2022126373A (en) 2021-02-18 2021-02-18 Information processing device, information processing method, computer program, and medical diagnostic system

Publications (1)

Publication Number Publication Date
JP2022126373A true JP2022126373A (en) 2022-08-30

Family

ID=82930682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021024406A Pending JP2022126373A (en) 2021-02-18 2021-02-18 Information processing device, information processing method, computer program, and medical diagnostic system

Country Status (2)

Country Link
JP (1) JP2022126373A (en)
WO (1) WO2022176396A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7349005B1 (en) 2022-11-08 2023-09-21 株式会社両備システムズ Program, information processing method, information processing device, and learning model generation method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115526382B (en) * 2022-09-09 2023-05-23 扬州大学 Road network level traffic flow prediction model interpretability analysis method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5337992B2 (en) * 2007-09-26 2013-11-06 富士フイルム株式会社 Medical information processing system, medical information processing method, and program
JP6818424B2 (en) * 2016-04-13 2021-01-20 キヤノン株式会社 Diagnostic support device, information processing method, diagnostic support system and program
KR102333670B1 (en) * 2018-12-06 2021-12-02 주식회사 메디웨일 Diagnostic auxiliary image providing device based on eye image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7349005B1 (en) 2022-11-08 2023-09-21 株式会社両備システムズ Program, information processing method, information processing device, and learning model generation method

Also Published As

Publication number Publication date
WO2022176396A1 (en) 2022-08-25

Similar Documents

Publication Publication Date Title
JP7217893B2 (en) System and method for optical histology analysis and remote reading
JP2022502150A (en) Devices and methods for diagnosing gastric lesions using deep learning of gastroscopy images
WO2022176396A1 (en) Information processing device, information processing method, computer program, and medical diagnosis system
AU2020411972A1 (en) Pathological diagnosis assisting method using AI, and assisting device
US20120008838A1 (en) System and method for remote melanoma screening
WO2011087807A2 (en) System and method for remote melanoma screening
Wang et al. Optical visualization of cerebral cortex by label-free multiphoton microscopy
JP2023547169A (en) Identification of autofluorescence artifacts in multiplexed immunofluorescence images
CN112200726B (en) Urinary sediment visible component detection method and system based on lensless microscopic imaging
US20240079116A1 (en) Automated segmentation of artifacts in histopathology images
Tsafas et al. Application of a deep-learning technique to non-linear images from human tissue biopsies for shedding new light on breast cancer diagnosis
CN114998644B (en) Tumor diagnosis system, construction method thereof, terminal device and storage medium
CN117095815A (en) System for predicting prostate cancer patient with homologous recombination defect based on magnetic resonance image and pathological panoramic scanning slice
WO2022190891A1 (en) Information processing system and information processing method
JP6710853B2 (en) Probe-type confocal laser microscope endoscopic image diagnosis support device
WO2022201729A1 (en) Image diagnosing system and image diagnosing method
WO2022259648A1 (en) Information processing program, information processing device, information processing method, and microscope system
WO2022201992A1 (en) Medical image analysis device, medical image analysis method, and medical image analysis system
WO2022209443A1 (en) Medical image analysis device, medical image analysis method, and medical image analysis system
WO2022202233A1 (en) Information processing device, information processing method, information processing system and conversion model
WO2023157755A1 (en) Information processing device, biological specimen analysis system, and biological specimen analysis method
Sharma Segmentation of cancer epithelium using nuclei morphology with Deep Neural Network
Thai et al. Classification of microscopic cervical blood cells using inception ResNet V2 with modified activation function
Salih et al. A Hybrid Approach to Osteosarcoma Detection Using Densenet201-SVM Model
Tursunov et al. MORPHOLOGICAL DIAGNOSIS-GOALS, OBJECTIVES, OPPORTUNITIES