JP2022050089A - Determination prediction system, determination prediction method, and determination prediction program - Google Patents
Determination prediction system, determination prediction method, and determination prediction program Download PDFInfo
- Publication number
- JP2022050089A JP2022050089A JP2020156477A JP2020156477A JP2022050089A JP 2022050089 A JP2022050089 A JP 2022050089A JP 2020156477 A JP2020156477 A JP 2020156477A JP 2020156477 A JP2020156477 A JP 2020156477A JP 2022050089 A JP2022050089 A JP 2022050089A
- Authority
- JP
- Japan
- Prior art keywords
- image
- prediction
- generated
- recorded
- division
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000011156 evaluation Methods 0.000 claims abstract description 10
- 210000000056 organ Anatomy 0.000 claims description 8
- 238000003745 diagnosis Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 201000010099 disease Diseases 0.000 abstract description 11
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 abstract description 11
- 210000004072 lung Anatomy 0.000 description 95
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 26
- 201000005202 lung cancer Diseases 0.000 description 26
- 208000020816 lung neoplasm Diseases 0.000 description 26
- 238000012545 processing Methods 0.000 description 21
- 230000002159 abnormal effect Effects 0.000 description 18
- 238000012216 screening Methods 0.000 description 11
- 238000010801 machine learning Methods 0.000 description 10
- 238000003909 pattern recognition Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000011976 chest X-ray Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、疾病についての判定を支援する判定予測システム、判定予測方法及び判定予測プログラムに関する。 The present invention relates to a judgment prediction system, a judgment prediction method, and a judgment prediction program that support judgment of a disease.
近年、コンピュータを利用して、画像を判定する技術が検討されている。最近では、医療分野においても、画像を活用した診断の支援が進められており、疾病の診断に関する判定結果とともに判定に寄与した領域を提示する情報処理装置も検討されている(例えば、特許文献1を参照。)。この文献に記載された情報処理装置は、疾病の診断基準に関する診断基準予測を出力する第1モデルに内視鏡画像を入力して、診断基準予測を出力する。この場合、診断基準予測に影響を及ぼした領域を抽出し、診断基準予測と、抽出した領域を示す指標と、疾病の状態に関する診断予測とを関連づけて出力する。 In recent years, a technique for determining an image using a computer has been studied. Recently, in the medical field as well, support for diagnosis using images is being promoted, and an information processing device that presents a region that contributes to the judgment together with the judgment result regarding the diagnosis of a disease is also being studied (for example, Patent Document 1). See.). The information processing apparatus described in this document inputs an endoscopic image into a first model that outputs a diagnostic standard prediction regarding a diagnostic standard of a disease, and outputs a diagnostic standard prediction. In this case, the region that has influenced the diagnostic criterion prediction is extracted, and the diagnostic criterion prediction, the index indicating the extracted region, and the diagnostic prediction regarding the state of the disease are output in association with each other.
しかしながら、画像によっては、高い精度で疾病を検知することが難しい場合がある。例えば、従来、胸部前面レントゲン画像は読影医が、疾病の可能性を判断している。ここで、レントゲン画像は、3次元CT画像と比較して情報が少ない2次元画像であり、画像処理技術により判定が困難な場合がある。 However, depending on the image, it may be difficult to detect the disease with high accuracy. For example, traditionally, an anterior chest X-ray image is determined by an image interpreter to determine the possibility of illness. Here, the X-ray image is a two-dimensional image having less information than the three-dimensional CT image, and it may be difficult to determine by the image processing technique.
上記課題を解決する判定予測システムは、分割予測モデル及び統合予測モデルを記録する学習結果記憶部と、画像を評価する制御部とを備える。そして、前記制御部が、元画像を分割した複数の分割画像を生成し、前記複数の分割画像に対して、前記元画像における判定結果を関連付けて記録した第1教師情報を生成し、前記第1教師情報を用いて、分割画像から前記判定結果を予測する分割予測モデルを生成して、前記学習結果記憶部に記録し、前記第1教師情報の各分割画像を前記分割予測モデルに入力して生成された特徴情報を、前記分割画像の位置に基づいてまとめた第2教師情報を生成し、前記第2教師情報を用いて、前記判定結果を予測する統合予測モデルを生成して、前記学習結果記憶部に記録し、評価対象画像を取得した場合、前記学習結果記憶部に記録された前記分割予測モデル及び前記統合予測モデルを用いて、前記判定結果を予測する。 The judgment prediction system that solves the above problems includes a learning result storage unit that records a division prediction model and an integrated prediction model, and a control unit that evaluates an image. Then, the control unit generates a plurality of divided images obtained by dividing the original image, and generates first teacher information recorded in association with the determination result in the original image with respect to the plurality of divided images, and the first teacher information is generated. Using the teacher information, a split prediction model that predicts the determination result is generated from the split image, recorded in the learning result storage unit, and each divided image of the first teacher information is input to the split prediction model. The second teacher information is generated by summarizing the feature information generated in the above process based on the position of the divided image, and the second teacher information is used to generate an integrated prediction model for predicting the determination result. When the image to be evaluated is acquired by recording in the learning result storage unit, the determination result is predicted by using the divided prediction model and the integrated prediction model recorded in the learning result storage unit.
本発明によれば、疾病についての判定を支援することができる。 According to the present invention, it is possible to support the determination of a disease.
図1~図11に従って、判定予測システム、判定予測方法及び判定予測プログラムの一実施形態を説明する。本実施形態では、肺がん検診のレントゲン画像(臓器画像)に対して検診結果を関連付けた教師データを用いて学習し、肺がんの可能性を予測するための予測モデルを生成する。そして、肺がん検診において新たなレントゲン画像を取得した場合、予測モデルを用いて、診断結果を予測する。
図1に示すように、ネットワークを介して接続されたユーザ端末10、支援サーバ20を用いる。
An embodiment of the judgment prediction system, the judgment prediction method, and the judgment prediction program will be described with reference to FIGS. 1 to 11. In this embodiment, learning is performed using teacher data in which the examination results are associated with the X-ray image (organ image) of the lung cancer examination, and a prediction model for predicting the possibility of lung cancer is generated. Then, when a new X-ray image is acquired in the lung cancer screening, the diagnosis result is predicted using the prediction model.
As shown in FIG. 1, a
(ハードウェア構成例)
図2は、ユーザ端末10、支援サーバ20等として機能する情報処理装置H10のハードウェア構成例である。
(Hardware configuration example)
FIG. 2 is a hardware configuration example of the information processing apparatus H10 that functions as a
情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶装置H14、プロセッサH15を有する。なお、このハードウェア構成は一例であり、他のハードウェアを有していてもよい。 The information processing device H10 includes a communication device H11, an input device H12, a display device H13, a storage device H14, and a processor H15. Note that this hardware configuration is an example, and may have other hardware.
通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースカードや無線インタフェース等である。 The communication device H11 is an interface that establishes a communication path with another device and executes data transmission / reception, such as a network interface card or a wireless interface.
入力装置H12は、利用者等からの入力を受け付ける装置であり、例えばマウスやキーボード等である。表示装置H13は、各種情報を表示するディスプレイやタッチパネル等である。 The input device H12 is a device that receives input from a user or the like, and is, for example, a mouse, a keyboard, or the like. The display device H13 is a display, a touch panel, or the like that displays various information.
記憶装置H14は、ユーザ端末10、支援サーバ20の各種機能を実行するためのデータや各種プログラムを格納する記憶装置(例えば、後述する教師情報記憶部23、学習結果記憶部24)である。記憶装置H14の一例としては、ROM、RAM、ハードディスク等がある。
The storage device H14 is a storage device (for example, a teacher
プロセッサH15は、記憶装置H14に記憶されるプログラムやデータを用いて、ユーザ端末10、支援サーバ20における各処理(例えば、後述する制御部21における処理)を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各種処理に対応する各種プロセスを実行する。例えば、プロセッサH15は、ユーザ端末10、支援サーバ20のアプリケーションプログラムが起動された場合、後述する各処理を実行するプロセスを動作させる。
The processor H15 controls each process (for example, a process in the
プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路:ASIC)を備えてもよい。すなわち、プロセッサH15は、(1)コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ、(2)各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路、或いは(3)それらの組み合わせ、を含む回路(circuitry)として構成し得る。プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。 The processor H15 is not limited to the one that performs software processing for all the processing executed by itself. For example, the processor H15 may include a dedicated hardware circuit (for example, an integrated circuit for a specific application: ASIC) that performs hardware processing for at least a part of the processing executed by the processor H15. That is, the processor H15 is (1) one or more processors that operate according to a computer program (software), (2) one or more dedicated hardware circuits that execute at least a part of various processes, or ( 3) It can be configured as a circuitry including a combination thereof. The processor includes a CPU and a memory such as a RAM and a ROM, and the memory stores a program code or a command configured to cause the CPU to execute a process. Memory or computer readable media includes any available medium accessible by a general purpose or dedicated computer.
(各情報処理装置の機能)
図1のユーザ端末10は、肺がん検診の担当者が利用するコンピュータ端末である。
支援サーバ20は、肺がん検診を支援するためのコンピュータシステムである。この支援サーバ20は、制御部21、画像情報記憶部22、教師情報記憶部23、学習結果記憶部24、評価対象記憶部25を備えている。
(Functions of each information processing device)
The
The
この制御部21は、後述する処理(取得段階、学習段階、予測段階等を含む処理)を行なう。このための判定予測プログラムを実行することにより、制御部21は、取得部211、学習部212、予測部213等として機能する。
The
取得部211は、学習対象や評価対象のレントゲン画像を取得する処理を実行する。取得部211は、肺野全体を含むレントゲン画像(元画像としての肺野全体画像)において、パターン認識により、左上~右下の4つの肺野領域の画像(分割肺野画像)に分割する。このパターン認識では、レントゲン画像から肺野領域の解剖学的な特徴点を検出し、その特徴点を基準として、肺野領域に応じた肺野で分割する。
The
学習部212は、教師データを用いて、肺がん検診の判定結果(陰性確率及び陽性確率)を予測するための予測モデルを生成する処理を実行する。
予測部213は、予測モデルを用いて、評価対象のレントゲン画像の読影の判定結果を予測する処理を実行する。
The
The
画像情報記憶部22には、肺がん検診において撮影されたレントゲン画像が記録される。このレントゲン画像には、検診者識別子、判定結果が関連付けられている。
検診者識別子は、このレントゲン画像を取得した肺がん検診の検診者を特定するための識別子である。
An X-ray image taken in a lung cancer screening is recorded in the image
The examiner identifier is an identifier for identifying the examiner of the lung cancer examination who acquired this X-ray image.
判定結果は、読影医による診断情報が記録される。この診断情報には、(a)異常所見の有無、(b)異常陰影の位置、(c)異常所見の内容が含まれる。ここで、(a)異常所見の有無では、「異常所見を認めない」、「肺がんの疑い」、「異常所見を認め,肺癌以外の疾患で治療を要する状態が考えられる」等の判定結果が含まれる。なお、本実施形態では、「肺がんの疑い」の有無(陽性又は陰性)を用いる場合を説明する。また、本実施形態では、(b)異常陰影の位置については、陽性と判定された場合には、異常陰影の位置に対応する肺野領域(右上、左上、右下、左下)を用いる場合を説明する。 As the judgment result, the diagnostic information by the image interpreting doctor is recorded. This diagnostic information includes (a) the presence or absence of abnormal findings, (b) the position of abnormal shadows, and (c) the contents of the abnormal findings. Here, depending on the presence or absence of (a) abnormal findings, judgment results such as "no abnormal findings", "suspected lung cancer", "abnormal findings are observed, and a condition requiring treatment for a disease other than lung cancer may be considered" are obtained. included. In this embodiment, the case where the presence or absence (positive or negative) of "suspected lung cancer" is used will be described. Further, in the present embodiment, (b) when the position of the abnormal shadow is determined to be positive, the lung field region (upper right, upper left, lower right, lower left) corresponding to the position of the abnormal shadow is used. explain.
教師情報記憶部23には、肺がん検診の判定結果(陰性確率及び陽性確率)を予測する予測モデルを生成するための学習処理に用いる教師データが記録される。本実施形態では、分割学習用教師データ及び統合学習用教師データが記録される。
In the teacher
分割学習用教師データは、肺野領域(右上肺野、左上肺野、右下肺野、左下肺野)毎に陽性判定を行なうための分割予測モデルを生成する場合に用いられる。
統合学習用教師データは、肺野毎の分割予測モデルによる予測結果を統合して判定する統合予測モデルを生成する場合に用いられる。
The teacher data for division learning is used to generate a division prediction model for making a positive judgment for each lung field region (upper right lung field, upper left lung field, lower right lung field, lower left lung field).
The teacher data for integrated learning is used to generate an integrated prediction model that integrates and judges the prediction results of the divided prediction model for each lung field.
図3に示すように、レントゲン撮影した元画像500を、分割肺野画像510(右上肺野画像511、左上肺野画像512、右下肺野画像513、左下肺野画像514)に分割する。更に、異常陰影の位置に応じて、分割肺野画像(ここでは、左下肺野画像514)に対して陽性フラグを関連付ける。一方、他の分割肺野画像に対しては、陰性フラグを関連付ける。そして、分割学習用教師データとして、教師情報記憶部23に記録する。
As shown in FIG. 3, the
学習結果記憶部24には、教師データを用いた機械学習により生成した予測モデル(肺野毎の分割予測モデル及び統合予測モデル)が記録される。
評価対象記憶部25には、評価対象のレントゲン画像、予測結果を記録する。この評価対象のレントゲン画像は、ユーザ端末10から新たに取得した場合に記録され、予測結果は、後述する予測時段階で記録される。
In the learning
An evaluation target X-ray image and a prediction result are recorded in the evaluation
次に、上記のように構成されたシステムにおいて、肺がん検診における判定を支援する処理手順を説明する。 Next, in the system configured as described above, a processing procedure for supporting a determination in lung cancer screening will be described.
(学習時処理)
図4を用いて、学習時処理を説明する。
まず、支援サーバ20の制御部21は、画像取得処理を実行する(ステップS101)。具体的には、制御部21の取得部211は、ユーザ端末10から、肺がん検診のレントゲン画像を取得する。このレントゲン画像(肺野全体画像)には、検診者識別子(匿名)、読影医による陽性判定結果が含まれる。陽性と判定した場合には、判定した肺野を特定するための情報が含まれる。取得部211は、取得した肺野全体画像を、検診者識別子、判定結果に関連付けて画像情報記憶部22に記録する。
(Processing during learning)
The learning process will be described with reference to FIG.
First, the
次に、支援サーバ20の制御部21は、画像情報記憶部22に記録された肺野全体画像毎に、分割処理を実行する(ステップS102)。具体的には、制御部21の取得部211は、肺野全体画像を、パターン認識により、肺野領域に応じて、左上肺野画像、左下肺野画像、右上肺野画像、右下肺野画像に分割する。そして、取得部211は、検診者識別子に関連付けて、左上~右下の分割肺野画像をメモリに仮記憶する。この場合、肺野全体画像において、異常陰影の位置に応じて分割肺野画像には、陽性フラグを記録する。また、他の肺野の分割肺野画像には、陰性フラグを記録する。
以上の処理を、すべての肺野全体画像について終了するまで繰り返す。
Next, the
The above process is repeated until the whole lung field image is completed.
次に、支援サーバ20の制御部21は、肺野領域毎の肺野毎の第1教師情報の生成処理を実行する(ステップS103)。具体的には、制御部21の取得部211は、メモリに仮記憶された分割肺野画像を、肺野領域毎にまとめて、分割学習用教師データ(第1教師情報)を生成する。そして、取得部211は、生成した分割学習用教師データを、左上~右下の分割肺野に関連付けて教師情報記憶部23に記録する。
Next, the
次に、支援サーバ20の制御部21は、左上~右下の分割肺野毎に、分割学習処理を実行する(ステップS104)。この処理については、図5を用いて後述する。
次に、支援サーバ20の制御部21は、統合学習処理を実行する(ステップS105)。この処理については、図7を用いて後述する。
Next, the
Next, the
(分割学習処理)
図5を用いて、分割学習処理を説明する。
まず、支援サーバ20の制御部21は、第1教師情報の取得処理を実行する(ステップS201)。具体的には、制御部21の学習部212は、教師情報記憶部23に記録されている分割学習用教師データを取得する。
(Divided learning process)
The division learning process will be described with reference to FIG.
First, the
次に、支援サーバ20の制御部21は、複数階層で特徴量マップ画像の生成処理を実行する(ステップS202)。具体的には、制御部21の学習部212は、機械学習方法として、「DenseNet」を用いる。この「DenseNet」は、畳み込み層とプーリング層の間に「Dense Block」と「Transition Layer」を交互に挟み込むネットワークで構成される。「DenseNet」を用いて、分割肺野画像を入力層として入力して、出力層において陽性・陰性を出力する予測モデル(「DenseNet」モデル)を生成する。この場合、分割画像が入力された「DenseNet」モデルにより、深度に応じて複数階層からなる中間層で特徴量マップ画像が生成される。特徴量マップ画像は、分割肺野画像に対して、階層毎に多様なフィルタをかけた画像である。更に、「DenseNet」モデルでは、各階層の特徴量マップ画像の代表値が算出される。そして、「DenseNet」モデルでは、この代表値から陽性・陰性確率を出力する階層毎の加重値(モデル内変数値)が算出される。
Next, the
次に、支援サーバ20の制御部21は、特徴量マップ画像の階層毎の代表値の取得処理を実行する(ステップS203)。具体的には、制御部21の学習部212は、「DenseNet」モデルの階層毎の各特徴量マップ画像についての代表値を取得する。本実施形態では、代表値としては、特徴量マップ画像における画像値の最大値を用いる。
Next, the
次に、支援サーバ20の制御部21は、階層毎の代表値を入力として陽性・陰性確率を出力する階層毎の加重値の取得処理を実行する(ステップS204)。具体的には、制御部21の学習部212は、「DenseNet」モデルにおいて、各階層の特徴量マップ画像の代表値を入力として、陽性及び陰性の確からしさ(確率)を算出する加重値(加重情報)を取得する。この加重値により、陽性確率及び陰性確率に影響を与える特徴量マップ画像の重み付けが行なわれる。
Next, the
図6に示すように、学習部212は、分割肺野画像510の特徴量マップ画像520の代表値(vd1~vd4)の入力に対して、陰性確率を出力する加重値(W01~W04)、陽性確率を出力する加重値(W11~W14)を算出する。この場合、各分割肺野画像510を「DenseNet」モデルに入力して、各階層の特徴量マップ画像を生成し、この特徴量マップ画像の代表値を算出する。更に、「DenseNet」モデルにより出力される陽性確率及び陰性確率を取得する。次に、学習部212は、「DenseNet」モデルから、加重値(W01~W14)を取得する。なお、図6では、4階層を想定したが、「DenseNet」モデルがn階層の場合、代表値はn個、加重値は2n個になる。
As shown in FIG. 6, the
そして、学習部212は、分割肺野識別子、階層識別子に対して、「DenseNet」モデル及び加重値を含めたネットワーク(分割予測モデル)を、学習結果記憶部24に記録する。
Then, the
(統合学習処理)
図7を用いて、統合学習処理を説明する。
ここでは、支援サーバ20の制御部21は、各検診者の肺野画像毎に、特徴量マップ画像及び加重値を用いて、ヒートマップの作成処理を実行する(ステップS301)。具体的には、制御部21の学習部212は、検診者毎に、各分割肺野画像を「DenseNet」モデルに入力して生成された各階層の特徴量マップ画像と、この階層で陽性確率を算出する加重値とを用いて、肺野領域に応じたヒートマップを作成する。
(Integrated learning process)
The integrated learning process will be described with reference to FIG. 7.
Here, the
ここでは、図8に示すように、各階層の各特徴量マップ画像520に対して、陽性確率を算出する加重値(W11~W14)を乗算することにより加重画像を生成する。更に、学習部212は、階層毎の加重画像を同じ画素位置で重ね合わせることにより、ヒートマップ600を生成する。
Here, as shown in FIG. 8, a weighted image is generated by multiplying each feature
図9は、肺野全体画像の元画像500に対して、各検診者の分割肺野画像を結合したヒートマップ600の例示である。このヒートマップ600では、複数の特徴量マップが重畳されているが、高い加重値が付与された特徴量マップ画像の特徴領域が強調されて表示される。
FIG. 9 is an example of a
次に、支援サーバ20の制御部21は、第2教師情報(統合学習用)の登録処理を実行する(ステップS302)。具体的には、制御部21の学習部212は、分割学習結果を用いて、統合学習用教師データ(第2教師情報)を生成する。ここでは、ステップS301において作成した検診者毎に取りまとめた肺野領域毎のヒートマップ及び判定結果を、統合学習用教師データとして用いる。そして、学習部212は、検診者識別子で関連付けた肺野領域毎のヒートマップ及び判定結果を、統合学習用教師データとして教師情報記憶部23に記録する。
以上の処理を、画像情報記憶部22に記録されたすべての検診者について繰り返す。
Next, the
The above processing is repeated for all the examiners recorded in the image
次に、支援サーバ20の制御部21は、統合予測モデルの作成処理を実行する(ステップS303)。具体的には、制御部21の学習部212は、機械学習により、分割学習の結果を用いて生成した統合学習用教師データにより、陰性確率及び陽性確率を予測する統合予測モデルを生成する。
Next, the
ここでは、図10に示すように、各特徴量マップ画像520の肺野領域毎の特徴量(統合入力特徴量vi1~vi4)を算出し、各統合入力特徴量を入力として、陰性確率及び陽性確率を出力する統合予測モデルを、機械学習により生成する。本実施形態では、統合入力特徴量vi1~vi4として、ステップS301において作成した肺野領域毎のヒートマップを入力として、読影医の判定結果を出力として用いた機械学習を行なう。なお、図10では、肺野画像を左上~右下に4分割したため、特徴量が4個になっているが、特徴量の数は肺野の分割数に応じて決まる。
そして、学習部212は、生成した統合予測モデルを学習結果記憶部24に記録する。
Here, as shown in FIG. 10, the feature amounts (integrated input feature amounts vi1 to vi4) for each lung field region of each feature
Then, the
(予測時処理)
次に、図11を用いて、予測時処理を説明する。
(Processing at the time of prediction)
Next, the prediction processing will be described with reference to FIG.
まず、支援サーバ20の制御部21は、画像取得処理を実行する(ステップS401)。具体的には、制御部21の取得部211は、ユーザ端末10から、新たな肺がん検診における肺野画像を取得し、評価対象記憶部25に記録する。
First, the
次に、支援サーバ20の制御部21は、ステップS102と同様に、分割処理を実行する(ステップS402)。これにより、分割肺野画像が作成される。
次に、支援サーバ20の制御部21は、分割肺野画像を用いた予測処理を実行する(ステップS403)。具体的には、制御部21の予測部213は、学習結果記憶部24に記録された分割予測モデルに、作成した分割肺野画像を入力し、分割判定結果を予測する。ここでは、分割判定結果において、分割肺野毎に、陰性確率及び陽性確率を算出する。
Next, the
Next, the
次に、支援サーバ20の制御部21は、肺野全体画像を用いた予測処理を実行する(ステップS404)。具体的には、制御部21の予測部213は、分割肺野画像を用いた予測処理(ステップS403)において生成された肺野領域毎の特徴量を、学習結果記憶部24に記録された統合予測モデルに入力して統合予測結果を算出する。本実施形態では、予測部213は、ステップS403において算出された特徴量マップに加重値を乗算したマップを重畳させたヒートマップを生成する。そして、予測部213は、学習結果記憶部24に記録された統合予測モデルに、作成したヒートマップを入力し、統合予測結果を予測する。統合判定結果としては、陰性確率、陽性確率を算出する。
Next, the
次に、支援サーバ20の制御部21は、判定結果の出力処理を実行する(ステップS405)。具体的には、制御部21の予測部213は、判定結果画面をユーザ端末10に出力する。この判定結果画面には、ステップS403及びステップS404で予測した判定結果(分割判定結果、統合判定結果)、ヒートマップを含める。
Next, the
本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態においては、支援サーバ20の制御部21は、画像取得処理を実行する(ステップS101)。これにより、読影医の判定結果を取得することができる。この画像には、骨や臓器等のように、画像上の異常判定に影響をおけるノイズも含まれるため、ノイズを考慮した機械学習を行なうことができる。
According to this embodiment, the following effects can be obtained.
(1) In the present embodiment, the
(2)本実施形態においては、支援サーバ20の制御部21は、画像情報記憶部22に記録された肺野画像毎に、分割処理(ステップS102)、肺野毎の第1教師情報の生成処理(ステップS103)、分割肺野毎に、分割学習処理(ステップS104)を実行する。これにより、分割された肺野領域における局所的な異常の有無を判定することができる。例えば、肺がんは領域毎に見え方や注意すべきポイントが異なり、領域毎に特化した学習を行なうことで、読影医に近い判定を実現できる。更に、解剖学的な位置を揃えて肺野の分割を行なった上で、機械学習を行なうことで、予測精度の向上を図ることができる。
(2) In the present embodiment, the
(3)本実施形態においては、支援サーバ20の制御部21は、「Dense Net」を用いて、複数階層で特徴量マップ画像の生成処理を実行する(ステップS202)。ここでは、「Dense Block」と「Transition Layer」を交互に挟み込むことにより、深層化した場合の勾配消失に対応することができる。そして、階層毎に多様なフィルタをかけた特徴量マップ画像を生成することができる。
(3) In the present embodiment, the
(4)本実施形態においては、支援サーバ20の制御部21は、特徴量マップ画像及び加重値を用いてヒートマップの作成処理(ステップS301)、第2教師情報(統合学習用)の登録処理(ステップS302)、統合予測モデルの作成処理(ステップS303)を実行する。分割された領域での判定を、全体を通じて調整することができる。例えば、人体に左右対称に配置されている臓器において異常を検知した場合、異常領域の左右の配置状況に応じて、判定を調整する予測モデルを生成することができる。具体的には、左上肺側に異常と疑われる箇所を検出した場合、右上肺側と比較し、左右差を確認して、右側の同じような箇所の有無により、陰性確率及び陽性確率を算出することができる。ここで、右側に同じような箇所を検出した場合には異常ではない可能性がある。
(4) In the present embodiment, the
(5)本実施形態においては、支援サーバ20の制御部21は、画像取得処理(ステップS401)、分割肺野画像を用いた予測処理(ステップS403)、肺野全体画像を用いた予測処理(ステップS404)を実行する。これにより、診断の質の向上、読影医の負担軽減、医師の労働時間の短縮を図ることができる。この結果、医師の負担を、一次読影から二次読影等の業務にシフトさせることができ、比較読影の質の向上を図ることができる。また、肺がん検診の読影をシステム化することにより、専門性の高い読影医の偏在による地方格差の解消に寄与できる。
(5) In the present embodiment, the
(6)本実施形態においては、支援サーバ20の制御部21は、判定結果の出力処理を実行する(ステップS405)。この場合、ヒートマップ等を出力することで、異常等の判別の特徴となりうる対象を可視化することができる。
(6) In the present embodiment, the
本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、肺がん検診のレントゲン画像において、肺がんの検出に適用する。適用対象の疾病は、肺がんに限定されない。肺以外の臓器(例えば、対称に近い形状の脳や腎臓等)に適用することも可能である。
・上記実施形態では、肺がんの陽性・陰性確率を予測する。予測対象は、陽性・陰性の2種類に限定されるものではない。例えば、診断情報の(a)異常所見の有無において、「異常所見を認めない」、「肺がんの疑い」、「異常所見を認め,肺癌以外の疾患で治療を要する状態が考えられる」等の判定結果をそれぞれ個別に予測するようにしてもよい。この場合に、それぞれの判定結果を含めた第1、第2教師情報を生成し、分割予測モデル及び統合予測モデルにより、「異常所見を認めない」の確率、「肺がんの疑い」の確率、「異常所見を認め,肺癌以外の疾患で治療を要する状態が考えられる」の確率を予測する。
This embodiment can be modified and implemented as follows. The present embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.
-In the above embodiment, it is applied to the detection of lung cancer in the X-ray image of lung cancer screening. The applicable diseases are not limited to lung cancer. It can also be applied to organs other than the lungs (for example, the brain and kidneys having a shape close to symmetry).
-In the above embodiment, the positive / negative probability of lung cancer is predicted. The prediction target is not limited to two types, positive and negative. For example, in the presence or absence of (a) abnormal findings in the diagnostic information, judgments such as "no abnormal findings", "suspected lung cancer", "abnormal findings are found, and a condition requiring treatment for a disease other than lung cancer is considered". The results may be predicted individually. In this case, the first and second teacher information including the respective judgment results are generated, and the probability of "no abnormal findings", the probability of "suspected lung cancer", and the probability of "suspicion of lung cancer" are obtained by the split prediction model and the integrated prediction model. Predict the probability of "abnormal findings and possible conditions requiring treatment for diseases other than lung cancer."
・上記実施形態では、機械学習の手法として「Dense Net」を用いる。機械学習の手法としては、「Dense Net」に限定されるものではなく、例えば、「Residual Network(ResNet)」を用いてもよい。
・上記実施形態では、支援サーバ20の制御部21は、統合予測モデルの作成処理を実行する(ステップS303)。この場合、統合入力特徴量として、肺野領域毎のヒートマップを用いる。統合入力特徴量は、ヒートマップそのものに限定されるものではない。
-In the above embodiment, "Dense Net" is used as a machine learning method. The machine learning method is not limited to "Dense Net", and for example, "Residual Network (ResNet)" may be used.
-In the above embodiment, the
例えば、図12に示すように、肺野領域毎のヒートマップ600、及び分割予測モデルで算出した陽性確率及び陰性確率を、統合入力特徴量として用いてもよい。
また、図13に示すように、肺野領域毎の各特徴量マップ画像520に、加重値(W11~W14)を乗算した画像群530を、統合入力特徴量として用いてもよい。この場合、すべての特徴量マップ画像を用いる必要はなく、加重値が基準値以上の特徴量マップ画像を特定して用いてもよい。
For example, as shown in FIG. 12, the
Further, as shown in FIG. 13, an
また、図14に示すように、肺野領域毎の各特徴量マップ画像520に加重値(W11~W14)を乗算した画像群530と、陽性確率及び陰性確率とを、統合入力特徴量として用いてもよい。この場合も、すべての特徴量マップ画像を用いる必要はなく、加重値が基準値以上の特徴量マップ画像を特定して用いてもよい。
Further, as shown in FIG. 14, an
・上記実施形態では、取得部211は、レントゲン画像(肺野全体画像)において、パターン認識により、左上~右下の4つ肺野画像に分割する。このパターン認識では、レントゲン画像から肺野領域の解剖学的な特徴点を検出し、その特徴点を基準として、肺野領域を分割する。分割方法は、特徴点を用いる場合に限定されるものではない。例えば、機械学習により、臓器の形状を認識させて各肺野領域を分割するようにしてもよい。
-In the above embodiment, the
・上記実施形態では、支援サーバ20の制御部21は、分割処理を実行する(ステップS102)。ここでは、制御部21の取得部211は、肺野全体画像を、パターン認識により、左上肺野画像、左下肺野画像、右上肺野画像、右下肺野画像に分割する。ここで、分割数は4つに限定されない。また、肺野の形状を平均形状に位置が合うように変形させ、位置合わせした画像から肺野領域を分割するようにしてもよい。
-In the above embodiment, the
10…ユーザ端末、20…支援サーバ、21…制御部、211…取得部、212…学習部、213…予測部、22…画像情報記憶部、23…教師情報記憶部、24…学習結果記憶部、25…評価対象記憶部。 10 ... user terminal, 20 ... support server, 21 ... control unit, 211 ... acquisition unit, 212 ... learning unit, 213 ... prediction unit, 22 ... image information storage unit, 23 ... teacher information storage unit, 24 ... learning result storage unit , 25 ... Evaluation target storage unit.
Claims (8)
画像を評価する制御部とを備え、判定結果を予測する判定予測システムであって、
前記制御部が、
元画像を分割した複数の分割画像を生成し、
前記複数の分割画像に対して、前記元画像における判定結果を関連付けて記録した第1教師情報を生成し、
前記第1教師情報を用いて、分割画像から前記判定結果を予測する分割予測モデルを生成して、前記学習結果記憶部に記録し、
前記第1教師情報の各分割画像を前記分割予測モデルに入力して生成された特徴情報を、前記分割画像の位置に基づいてまとめた第2教師情報を生成し、
前記第2教師情報を用いて、前記判定結果を予測する統合予測モデルを生成して、前記学習結果記憶部に記録し、
評価対象画像を取得した場合、前記学習結果記憶部に記録された前記分割予測モデル及び前記統合予測モデルを用いて、前記判定結果を予測することを特徴とする判定予測システム。 A learning result storage unit that records split prediction models and integrated prediction models,
It is a judgment prediction system that has a control unit for evaluating images and predicts judgment results.
The control unit
Generate multiple split images by splitting the original image,
The first teacher information recorded by associating the determination result in the original image with the plurality of divided images is generated.
Using the first teacher information, a division prediction model that predicts the determination result from the division image is generated, recorded in the learning result storage unit, and recorded.
The second teacher information is generated by inputting each divided image of the first teacher information into the divided prediction model and summarizing the feature information generated based on the position of the divided image.
Using the second teacher information, an integrated prediction model for predicting the determination result is generated, recorded in the learning result storage unit, and recorded.
A judgment prediction system characterized in that when an evaluation target image is acquired, the judgment result is predicted using the division prediction model and the integrated prediction model recorded in the learning result storage unit.
前記特徴量マップ画像を、前記判定結果に結びつける加重情報を算出し、
前記加重情報を用いて、前記第2教師情報を生成することを特徴とする請求項3に記載の判定予測システム。 The control unit
Weighted information that links the feature amount map image to the determination result is calculated.
The determination prediction system according to claim 3, wherein the second teacher information is generated by using the weighted information.
前記元画像及び前記評価対象画像として、臓器を撮影した臓器画像を用い、
前記判定結果として、前記臓器画像に関する診断結果を用いることを特徴とする請求項1~5の何れか一項に記載の判定予測システム。 The control unit
As the original image and the evaluation target image, an organ image obtained by photographing an organ is used.
The determination prediction system according to any one of claims 1 to 5, wherein the diagnosis result relating to the organ image is used as the determination result.
画像を評価する制御部とを備えた判定予測システムを用いて、判定結果を予測する方法であって、
前記制御部が、
元画像を分割した複数の分割画像を生成し、
前記複数の分割画像に対して、前記元画像における判定結果を関連付けて記録した第1教師情報を生成し、
前記第1教師情報を用いて、分割画像から前記判定結果を予測する分割予測モデルを生成して、前記学習結果記憶部に記録し、
前記第1教師情報の各分割画像を前記分割予測モデルに入力して生成された特徴情報を、前記分割画像の位置に基づいてまとめた第2教師情報を生成し、
前記第2教師情報を用いて、前記判定結果を予測する統合予測モデルを生成して、前記学習結果記憶部に記録し、
評価対象画像を取得した場合、前記学習結果記憶部に記録された前記分割予測モデル及び前記統合予測モデルを用いて、前記判定結果を予測することを特徴とする判定予測方法。 A learning result storage unit that records split prediction models and integrated prediction models,
It is a method of predicting a judgment result by using a judgment prediction system equipped with a control unit for evaluating an image.
The control unit
Generate multiple split images by splitting the original image,
The first teacher information recorded by associating the determination result in the original image with the plurality of divided images is generated.
Using the first teacher information, a division prediction model that predicts the determination result from the division image is generated, recorded in the learning result storage unit, and recorded.
The second teacher information is generated by inputting each divided image of the first teacher information into the divided prediction model and summarizing the feature information generated based on the position of the divided image.
Using the second teacher information, an integrated prediction model for predicting the determination result is generated, recorded in the learning result storage unit, and recorded.
A determination prediction method characterized in that when an evaluation target image is acquired, the determination result is predicted using the division prediction model and the integrated prediction model recorded in the learning result storage unit.
分割予測モデルと、前記分割予測モデルからの出力が入力されるように結合された統合予測モデルとから構成され、
元画像を分割した複数の分割画像を生成し、
前記複数の分割画像に対して、前記元画像における判定結果を関連付けて記録した第1教師情報を生成し、
前記第1教師情報を用いて、分割画像から前記判定結果を予測するように生成された分割予測モデルと、
前記第1教師情報の各分割画像を前記分割予測モデルに入力して生成された特徴情報を、前記分割画像の位置に基づいてまとめた第2教師情報を生成し、
前記第2教師情報を用いて、前記判定結果を予測するように生成された統合予測モデルとを含み、
評価対象画像を取得した場合、前記分割予測モデル及び前記統合予測モデルを用いて、前記判定結果を予測する手段として機能させるための判定予測プログラム。 It is a judgment prediction program for making a computer function so as to output a judgment result based on an image.
It consists of a split predictive model and an integrated predictive model that is combined so that the output from the split predictive model is input.
Generate multiple split images by splitting the original image,
The first teacher information recorded by associating the determination result in the original image with the plurality of divided images is generated.
A division prediction model generated so as to predict the determination result from the division image using the first teacher information, and
The second teacher information is generated by inputting each divided image of the first teacher information into the divided prediction model and summarizing the feature information generated based on the position of the divided image.
Including an integrated prediction model generated to predict the determination result using the second teacher information.
A judgment prediction program for functioning as a means for predicting the judgment result by using the division prediction model and the integrated prediction model when the evaluation target image is acquired.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020156477A JP2022050089A (en) | 2020-09-17 | 2020-09-17 | Determination prediction system, determination prediction method, and determination prediction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020156477A JP2022050089A (en) | 2020-09-17 | 2020-09-17 | Determination prediction system, determination prediction method, and determination prediction program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022050089A true JP2022050089A (en) | 2022-03-30 |
Family
ID=80854210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020156477A Pending JP2022050089A (en) | 2020-09-17 | 2020-09-17 | Determination prediction system, determination prediction method, and determination prediction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022050089A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024048509A1 (en) * | 2022-08-30 | 2024-03-07 | 株式会社Preferred Networks | Pathological condition evaluation device |
-
2020
- 2020-09-17 JP JP2020156477A patent/JP2022050089A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024048509A1 (en) * | 2022-08-30 | 2024-03-07 | 株式会社Preferred Networks | Pathological condition evaluation device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10249042B2 (en) | Method and apparatus for providing medical information service on basis of disease model | |
KR101874348B1 (en) | Method for facilitating dignosis of subject based on chest posteroanterior view thereof, and apparatus using the same | |
JP5643304B2 (en) | Computer-aided lung nodule detection system and method and chest image segmentation system and method in chest tomosynthesis imaging | |
CN102985940B (en) | Read shadow entrusting system, read shadow commission mediating device and read shadow evaluation of result method | |
CN112561908B (en) | Mammary gland image focus matching method, device and storage medium | |
KR20150073628A (en) | System and method for adapting diagnosis model of computer aided diagnosis | |
CN105339982B (en) | Lung measurement | |
CN108257111A (en) | Automated image in x-ray imaging is examined | |
JP2007172604A (en) | Method and apparatus for selecting computer-assisted algorithm based on protocol and/or parameter of acquisition system | |
CN112819818A (en) | Image recognition module training method and device | |
Akpinar et al. | Chest X-ray abnormality detection based on SqueezeNet | |
CN104217423B (en) | Select automatically generating for image data set | |
US11935234B2 (en) | Method for detecting abnormality, non-transitory computer-readable recording medium storing program for detecting abnormality, abnormality detection apparatus, server apparatus, and method for processing information | |
JP2022050089A (en) | Determination prediction system, determination prediction method, and determination prediction program | |
JP7413295B2 (en) | Image processing device, image processing method and program | |
EP3629931B1 (en) | Heatmap and atlas | |
US11995834B2 (en) | Method and system for the automated determination of examination results in an image sequence | |
KR102062386B1 (en) | Bone suppression system of x-ray image using deep running | |
JP2021019677A (en) | Teacher image generation program, teacher image generation method, and teacher image generation system | |
Kim et al. | AI-based computer-aided diagnostic system of chest digital tomography synthesis: Demonstrating comparative advantage with X-ray-based AI systems | |
EP2178046A2 (en) | Multi-image correlation | |
CN103020466B (en) | A kind of computer diagnosis method and electronic equipment | |
JP2010005109A (en) | Image forming device, program, and image forming method | |
JP2017000675A (en) | Medical image processing apparatus and X-ray imaging apparatus | |
Bhatia et al. | Automated quantification of inflamed lung regions in chest CT by UNET++ and SegCaps: a comparative analysis in COVID-19 cases |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20201112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230816 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240604 |