JP2022050089A - Determination prediction system, determination prediction method, and determination prediction program - Google Patents

Determination prediction system, determination prediction method, and determination prediction program Download PDF

Info

Publication number
JP2022050089A
JP2022050089A JP2020156477A JP2020156477A JP2022050089A JP 2022050089 A JP2022050089 A JP 2022050089A JP 2020156477 A JP2020156477 A JP 2020156477A JP 2020156477 A JP2020156477 A JP 2020156477A JP 2022050089 A JP2022050089 A JP 2022050089A
Authority
JP
Japan
Prior art keywords
image
prediction
generated
recorded
division
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020156477A
Other languages
Japanese (ja)
Inventor
弘行 鈴木
Hiroyuki Suzuki
光徳 樋口
Mitsunori Higuchi
毅 永田
Takeshi Nagata
碧 佐野
Akira Sano
耕平 岩渕
Kohei Iwabuchi
学 山崎
Manabu Yamazaki
貴之 井高
Takayuki Idaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fukushima Medical University PUC
Mizuho Research and Technologies Ltd
Original Assignee
Fukushima Medical University PUC
Mizuho Research and Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fukushima Medical University PUC, Mizuho Research and Technologies Ltd filed Critical Fukushima Medical University PUC
Priority to JP2020156477A priority Critical patent/JP2022050089A/en
Publication of JP2022050089A publication Critical patent/JP2022050089A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

To provide a determination prediction system, determination prediction method, determination prediction program for supporting determination on diseases.SOLUTION: In a determination prediction system, a control section 21 of a support server performs: generating a plurality of division images obtained by dividing an original image; generating division prediction models for predicting a determination result from the division images with the use of first teacher information recorded by association with a determination result in the original image with respect to the plurality of division images; recording the models in a learning result storage section 24; generating second teacher information obtained by summarizing feature information which is generated by inputting the respective division images of the first teacher information to the division prediction models, based on the positions of the division images; generating an integrated prediction model for predicting a determination result with the use of the second teacher information; and recording the model in the learning result storage section 24. When an evaluation object image is acquired, the control section 21 predicts a determination result with the use of the division prediction models and the integrated prediction model recorded in the learning result storage section 24.SELECTED DRAWING: Figure 1

Description

本発明は、疾病についての判定を支援する判定予測システム、判定予測方法及び判定予測プログラムに関する。 The present invention relates to a judgment prediction system, a judgment prediction method, and a judgment prediction program that support judgment of a disease.

近年、コンピュータを利用して、画像を判定する技術が検討されている。最近では、医療分野においても、画像を活用した診断の支援が進められており、疾病の診断に関する判定結果とともに判定に寄与した領域を提示する情報処理装置も検討されている(例えば、特許文献1を参照。)。この文献に記載された情報処理装置は、疾病の診断基準に関する診断基準予測を出力する第1モデルに内視鏡画像を入力して、診断基準予測を出力する。この場合、診断基準予測に影響を及ぼした領域を抽出し、診断基準予測と、抽出した領域を示す指標と、疾病の状態に関する診断予測とを関連づけて出力する。 In recent years, a technique for determining an image using a computer has been studied. Recently, in the medical field as well, support for diagnosis using images is being promoted, and an information processing device that presents a region that contributes to the judgment together with the judgment result regarding the diagnosis of a disease is also being studied (for example, Patent Document 1). See.). The information processing apparatus described in this document inputs an endoscopic image into a first model that outputs a diagnostic standard prediction regarding a diagnostic standard of a disease, and outputs a diagnostic standard prediction. In this case, the region that has influenced the diagnostic criterion prediction is extracted, and the diagnostic criterion prediction, the index indicating the extracted region, and the diagnostic prediction regarding the state of the disease are output in association with each other.

特開2020-89712号公報Japanese Unexamined Patent Publication No. 2020-89712

しかしながら、画像によっては、高い精度で疾病を検知することが難しい場合がある。例えば、従来、胸部前面レントゲン画像は読影医が、疾病の可能性を判断している。ここで、レントゲン画像は、3次元CT画像と比較して情報が少ない2次元画像であり、画像処理技術により判定が困難な場合がある。 However, depending on the image, it may be difficult to detect the disease with high accuracy. For example, traditionally, an anterior chest X-ray image is determined by an image interpreter to determine the possibility of illness. Here, the X-ray image is a two-dimensional image having less information than the three-dimensional CT image, and it may be difficult to determine by the image processing technique.

上記課題を解決する判定予測システムは、分割予測モデル及び統合予測モデルを記録する学習結果記憶部と、画像を評価する制御部とを備える。そして、前記制御部が、元画像を分割した複数の分割画像を生成し、前記複数の分割画像に対して、前記元画像における判定結果を関連付けて記録した第1教師情報を生成し、前記第1教師情報を用いて、分割画像から前記判定結果を予測する分割予測モデルを生成して、前記学習結果記憶部に記録し、前記第1教師情報の各分割画像を前記分割予測モデルに入力して生成された特徴情報を、前記分割画像の位置に基づいてまとめた第2教師情報を生成し、前記第2教師情報を用いて、前記判定結果を予測する統合予測モデルを生成して、前記学習結果記憶部に記録し、評価対象画像を取得した場合、前記学習結果記憶部に記録された前記分割予測モデル及び前記統合予測モデルを用いて、前記判定結果を予測する。 The judgment prediction system that solves the above problems includes a learning result storage unit that records a division prediction model and an integrated prediction model, and a control unit that evaluates an image. Then, the control unit generates a plurality of divided images obtained by dividing the original image, and generates first teacher information recorded in association with the determination result in the original image with respect to the plurality of divided images, and the first teacher information is generated. Using the teacher information, a split prediction model that predicts the determination result is generated from the split image, recorded in the learning result storage unit, and each divided image of the first teacher information is input to the split prediction model. The second teacher information is generated by summarizing the feature information generated in the above process based on the position of the divided image, and the second teacher information is used to generate an integrated prediction model for predicting the determination result. When the image to be evaluated is acquired by recording in the learning result storage unit, the determination result is predicted by using the divided prediction model and the integrated prediction model recorded in the learning result storage unit.

本発明によれば、疾病についての判定を支援することができる。 According to the present invention, it is possible to support the determination of a disease.

実施形態の判定予測システムの説明図。Explanatory drawing of the judgment prediction system of embodiment. 実施形態のハードウェア構成の説明図。An explanatory diagram of a hardware configuration of an embodiment. 実施形態の画像分割の説明図。Explanatory drawing of image segmentation of embodiment. 実施形態の学習時処理手順の説明図。The explanatory diagram of the processing procedure at the time of learning of an embodiment. 実施形態の分割学習処理手順の説明図。Explanatory drawing of the division learning processing procedure of an embodiment. 実施形態の分割予測モデルの説明図。Explanatory drawing of the division prediction model of an embodiment. 実施形態の統合学習処理手順の説明図。An explanatory diagram of the integrated learning processing procedure of the embodiment. 実施形態のヒートマップの作成の説明図。An explanatory diagram of creating a heat map of an embodiment. 実施形態のヒートマップの説明図。Explanatory drawing of the heat map of an embodiment. 実施形態の統合予測モデルの説明図。Explanatory drawing of the integrated prediction model of an embodiment. 実施形態の予測時処理手順の説明図。Explanatory drawing of the processing procedure at the time of prediction of an embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of another embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of another embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of another embodiment.

図1~図11に従って、判定予測システム、判定予測方法及び判定予測プログラムの一実施形態を説明する。本実施形態では、肺がん検診のレントゲン画像(臓器画像)に対して検診結果を関連付けた教師データを用いて学習し、肺がんの可能性を予測するための予測モデルを生成する。そして、肺がん検診において新たなレントゲン画像を取得した場合、予測モデルを用いて、診断結果を予測する。
図1に示すように、ネットワークを介して接続されたユーザ端末10、支援サーバ20を用いる。
An embodiment of the judgment prediction system, the judgment prediction method, and the judgment prediction program will be described with reference to FIGS. 1 to 11. In this embodiment, learning is performed using teacher data in which the examination results are associated with the X-ray image (organ image) of the lung cancer examination, and a prediction model for predicting the possibility of lung cancer is generated. Then, when a new X-ray image is acquired in the lung cancer screening, the diagnosis result is predicted using the prediction model.
As shown in FIG. 1, a user terminal 10 and a support server 20 connected via a network are used.

(ハードウェア構成例)
図2は、ユーザ端末10、支援サーバ20等として機能する情報処理装置H10のハードウェア構成例である。
(Hardware configuration example)
FIG. 2 is a hardware configuration example of the information processing apparatus H10 that functions as a user terminal 10, a support server 20, and the like.

情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶装置H14、プロセッサH15を有する。なお、このハードウェア構成は一例であり、他のハードウェアを有していてもよい。 The information processing device H10 includes a communication device H11, an input device H12, a display device H13, a storage device H14, and a processor H15. Note that this hardware configuration is an example, and may have other hardware.

通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースカードや無線インタフェース等である。 The communication device H11 is an interface that establishes a communication path with another device and executes data transmission / reception, such as a network interface card or a wireless interface.

入力装置H12は、利用者等からの入力を受け付ける装置であり、例えばマウスやキーボード等である。表示装置H13は、各種情報を表示するディスプレイやタッチパネル等である。 The input device H12 is a device that receives input from a user or the like, and is, for example, a mouse, a keyboard, or the like. The display device H13 is a display, a touch panel, or the like that displays various information.

記憶装置H14は、ユーザ端末10、支援サーバ20の各種機能を実行するためのデータや各種プログラムを格納する記憶装置(例えば、後述する教師情報記憶部23、学習結果記憶部24)である。記憶装置H14の一例としては、ROM、RAM、ハードディスク等がある。 The storage device H14 is a storage device (for example, a teacher information storage unit 23 and a learning result storage unit 24, which will be described later) for storing data and various programs for executing various functions of the user terminal 10 and the support server 20. An example of the storage device H14 is a ROM, RAM, hard disk, or the like.

プロセッサH15は、記憶装置H14に記憶されるプログラムやデータを用いて、ユーザ端末10、支援サーバ20における各処理(例えば、後述する制御部21における処理)を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各種処理に対応する各種プロセスを実行する。例えば、プロセッサH15は、ユーザ端末10、支援サーバ20のアプリケーションプログラムが起動された場合、後述する各処理を実行するプロセスを動作させる。 The processor H15 controls each process (for example, a process in the control unit 21 described later) in the user terminal 10 and the support server 20 by using the programs and data stored in the storage device H14. Examples of the processor H15 include a CPU, an MPU, and the like. The processor H15 expands a program stored in a ROM or the like into a RAM and executes various processes corresponding to various processes. For example, when the application program of the user terminal 10 and the support server 20 is started, the processor H15 operates a process for executing each process described later.

プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路:ASIC)を備えてもよい。すなわち、プロセッサH15は、(1)コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ、(2)各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路、或いは(3)それらの組み合わせ、を含む回路(circuitry)として構成し得る。プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。 The processor H15 is not limited to the one that performs software processing for all the processing executed by itself. For example, the processor H15 may include a dedicated hardware circuit (for example, an integrated circuit for a specific application: ASIC) that performs hardware processing for at least a part of the processing executed by the processor H15. That is, the processor H15 is (1) one or more processors that operate according to a computer program (software), (2) one or more dedicated hardware circuits that execute at least a part of various processes, or ( 3) It can be configured as a circuitry including a combination thereof. The processor includes a CPU and a memory such as a RAM and a ROM, and the memory stores a program code or a command configured to cause the CPU to execute a process. Memory or computer readable media includes any available medium accessible by a general purpose or dedicated computer.

(各情報処理装置の機能)
図1のユーザ端末10は、肺がん検診の担当者が利用するコンピュータ端末である。
支援サーバ20は、肺がん検診を支援するためのコンピュータシステムである。この支援サーバ20は、制御部21、画像情報記憶部22、教師情報記憶部23、学習結果記憶部24、評価対象記憶部25を備えている。
(Functions of each information processing device)
The user terminal 10 in FIG. 1 is a computer terminal used by a person in charge of lung cancer screening.
The support server 20 is a computer system for supporting lung cancer screening. The support server 20 includes a control unit 21, an image information storage unit 22, a teacher information storage unit 23, a learning result storage unit 24, and an evaluation target storage unit 25.

この制御部21は、後述する処理(取得段階、学習段階、予測段階等を含む処理)を行なう。このための判定予測プログラムを実行することにより、制御部21は、取得部211、学習部212、予測部213等として機能する。 The control unit 21 performs a process described later (a process including an acquisition stage, a learning stage, a prediction stage, and the like). By executing the determination prediction program for this purpose, the control unit 21 functions as an acquisition unit 211, a learning unit 212, a prediction unit 213, and the like.

取得部211は、学習対象や評価対象のレントゲン画像を取得する処理を実行する。取得部211は、肺野全体を含むレントゲン画像(元画像としての肺野全体画像)において、パターン認識により、左上~右下の4つの肺野領域の画像(分割肺野画像)に分割する。このパターン認識では、レントゲン画像から肺野領域の解剖学的な特徴点を検出し、その特徴点を基準として、肺野領域に応じた肺野で分割する。 The acquisition unit 211 executes a process of acquiring an X-ray image to be learned or evaluated. The acquisition unit 211 divides the roentgen image including the entire lung field (the entire lung field image as the original image) into four lung field region images (divided lung field images) from the upper left to the lower right by pattern recognition. In this pattern recognition, the anatomical feature points of the lung field region are detected from the X-ray image, and the lung fields are divided according to the lung field region based on the feature points.

学習部212は、教師データを用いて、肺がん検診の判定結果(陰性確率及び陽性確率)を予測するための予測モデルを生成する処理を実行する。
予測部213は、予測モデルを用いて、評価対象のレントゲン画像の読影の判定結果を予測する処理を実行する。
The learning unit 212 executes a process of generating a prediction model for predicting the determination result (negative probability and positive probability) of lung cancer screening using the teacher data.
The prediction unit 213 executes a process of predicting the determination result of interpretation of the X-ray image to be evaluated by using the prediction model.

画像情報記憶部22には、肺がん検診において撮影されたレントゲン画像が記録される。このレントゲン画像には、検診者識別子、判定結果が関連付けられている。
検診者識別子は、このレントゲン画像を取得した肺がん検診の検診者を特定するための識別子である。
An X-ray image taken in a lung cancer screening is recorded in the image information storage unit 22. The X-ray image is associated with the examiner's identifier and the determination result.
The examiner identifier is an identifier for identifying the examiner of the lung cancer examination who acquired this X-ray image.

判定結果は、読影医による診断情報が記録される。この診断情報には、(a)異常所見の有無、(b)異常陰影の位置、(c)異常所見の内容が含まれる。ここで、(a)異常所見の有無では、「異常所見を認めない」、「肺がんの疑い」、「異常所見を認め,肺癌以外の疾患で治療を要する状態が考えられる」等の判定結果が含まれる。なお、本実施形態では、「肺がんの疑い」の有無(陽性又は陰性)を用いる場合を説明する。また、本実施形態では、(b)異常陰影の位置については、陽性と判定された場合には、異常陰影の位置に対応する肺野領域(右上、左上、右下、左下)を用いる場合を説明する。 As the judgment result, the diagnostic information by the image interpreting doctor is recorded. This diagnostic information includes (a) the presence or absence of abnormal findings, (b) the position of abnormal shadows, and (c) the contents of the abnormal findings. Here, depending on the presence or absence of (a) abnormal findings, judgment results such as "no abnormal findings", "suspected lung cancer", "abnormal findings are observed, and a condition requiring treatment for a disease other than lung cancer may be considered" are obtained. included. In this embodiment, the case where the presence or absence (positive or negative) of "suspected lung cancer" is used will be described. Further, in the present embodiment, (b) when the position of the abnormal shadow is determined to be positive, the lung field region (upper right, upper left, lower right, lower left) corresponding to the position of the abnormal shadow is used. explain.

教師情報記憶部23には、肺がん検診の判定結果(陰性確率及び陽性確率)を予測する予測モデルを生成するための学習処理に用いる教師データが記録される。本実施形態では、分割学習用教師データ及び統合学習用教師データが記録される。 In the teacher information storage unit 23, teacher data used for learning processing for generating a prediction model for predicting a determination result (negative probability and positive probability) of lung cancer screening is recorded. In this embodiment, teacher data for split learning and teacher data for integrated learning are recorded.

分割学習用教師データは、肺野領域(右上肺野、左上肺野、右下肺野、左下肺野)毎に陽性判定を行なうための分割予測モデルを生成する場合に用いられる。
統合学習用教師データは、肺野毎の分割予測モデルによる予測結果を統合して判定する統合予測モデルを生成する場合に用いられる。
The teacher data for division learning is used to generate a division prediction model for making a positive judgment for each lung field region (upper right lung field, upper left lung field, lower right lung field, lower left lung field).
The teacher data for integrated learning is used to generate an integrated prediction model that integrates and judges the prediction results of the divided prediction model for each lung field.

図3に示すように、レントゲン撮影した元画像500を、分割肺野画像510(右上肺野画像511、左上肺野画像512、右下肺野画像513、左下肺野画像514)に分割する。更に、異常陰影の位置に応じて、分割肺野画像(ここでは、左下肺野画像514)に対して陽性フラグを関連付ける。一方、他の分割肺野画像に対しては、陰性フラグを関連付ける。そして、分割学習用教師データとして、教師情報記憶部23に記録する。 As shown in FIG. 3, the original image 500 taken by roentgen is divided into divided lung field images 510 (upper right lung field image 511, upper left lung field image 512, lower right lung field image 513, lower left lung field image 514). Further, depending on the position of the abnormal shadow, a positive flag is associated with the divided lung field image (here, the lower left lung field image 514). On the other hand, a negative flag is associated with other divided lung field images. Then, it is recorded in the teacher information storage unit 23 as the teacher data for divided learning.

学習結果記憶部24には、教師データを用いた機械学習により生成した予測モデル(肺野毎の分割予測モデル及び統合予測モデル)が記録される。
評価対象記憶部25には、評価対象のレントゲン画像、予測結果を記録する。この評価対象のレントゲン画像は、ユーザ端末10から新たに取得した場合に記録され、予測結果は、後述する予測時段階で記録される。
In the learning result storage unit 24, a prediction model (a split prediction model for each lung field and an integrated prediction model) generated by machine learning using teacher data is recorded.
An evaluation target X-ray image and a prediction result are recorded in the evaluation target storage unit 25. The X-ray image to be evaluated is recorded when it is newly acquired from the user terminal 10, and the prediction result is recorded at the prediction time stage described later.

次に、上記のように構成されたシステムにおいて、肺がん検診における判定を支援する処理手順を説明する。 Next, in the system configured as described above, a processing procedure for supporting a determination in lung cancer screening will be described.

(学習時処理)
図4を用いて、学習時処理を説明する。
まず、支援サーバ20の制御部21は、画像取得処理を実行する(ステップS101)。具体的には、制御部21の取得部211は、ユーザ端末10から、肺がん検診のレントゲン画像を取得する。このレントゲン画像(肺野全体画像)には、検診者識別子(匿名)、読影医による陽性判定結果が含まれる。陽性と判定した場合には、判定した肺野を特定するための情報が含まれる。取得部211は、取得した肺野全体画像を、検診者識別子、判定結果に関連付けて画像情報記憶部22に記録する。
(Processing during learning)
The learning process will be described with reference to FIG.
First, the control unit 21 of the support server 20 executes the image acquisition process (step S101). Specifically, the acquisition unit 211 of the control unit 21 acquires an X-ray image of lung cancer screening from the user terminal 10. This X-ray image (whole lung field image) includes a examiner's identifier (anonymous) and a positive judgment result by an image interpreter. If it is determined to be positive, information for identifying the determined lung field is included. The acquisition unit 211 records the acquired whole lung field image in the image information storage unit 22 in association with the examiner identifier and the determination result.

次に、支援サーバ20の制御部21は、画像情報記憶部22に記録された肺野全体画像毎に、分割処理を実行する(ステップS102)。具体的には、制御部21の取得部211は、肺野全体画像を、パターン認識により、肺野領域に応じて、左上肺野画像、左下肺野画像、右上肺野画像、右下肺野画像に分割する。そして、取得部211は、検診者識別子に関連付けて、左上~右下の分割肺野画像をメモリに仮記憶する。この場合、肺野全体画像において、異常陰影の位置に応じて分割肺野画像には、陽性フラグを記録する。また、他の肺野の分割肺野画像には、陰性フラグを記録する。
以上の処理を、すべての肺野全体画像について終了するまで繰り返す。
Next, the control unit 21 of the support server 20 executes a division process for each image of the entire lung field recorded in the image information storage unit 22 (step S102). Specifically, the acquisition unit 211 of the control unit 21 obtains the entire lung field image by pattern recognition, depending on the lung field region, the upper left lung field image, the lower left lung field image, the upper right lung field image, and the lower right lung field. Divide into images. Then, the acquisition unit 211 temporarily stores the divided lung field image from the upper left to the lower right in the memory in association with the examiner identifier. In this case, in the whole lung field image, a positive flag is recorded in the divided lung field image according to the position of the abnormal shadow. In addition, a negative flag is recorded in the divided lung field images of other lung fields.
The above process is repeated until the whole lung field image is completed.

次に、支援サーバ20の制御部21は、肺野領域毎の肺野毎の第1教師情報の生成処理を実行する(ステップS103)。具体的には、制御部21の取得部211は、メモリに仮記憶された分割肺野画像を、肺野領域毎にまとめて、分割学習用教師データ(第1教師情報)を生成する。そして、取得部211は、生成した分割学習用教師データを、左上~右下の分割肺野に関連付けて教師情報記憶部23に記録する。 Next, the control unit 21 of the support server 20 executes a process of generating first teacher information for each lung field for each lung field region (step S103). Specifically, the acquisition unit 211 of the control unit 21 collects the divided lung field images temporarily stored in the memory for each lung field region and generates teacher data for division learning (first teacher information). Then, the acquisition unit 211 records the generated teacher data for division learning in the teacher information storage unit 23 in association with the division lung field from the upper left to the lower right.

次に、支援サーバ20の制御部21は、左上~右下の分割肺野毎に、分割学習処理を実行する(ステップS104)。この処理については、図5を用いて後述する。
次に、支援サーバ20の制御部21は、統合学習処理を実行する(ステップS105)。この処理については、図7を用いて後述する。
Next, the control unit 21 of the support server 20 executes the division learning process for each division lung field from the upper left to the lower right (step S104). This process will be described later with reference to FIG.
Next, the control unit 21 of the support server 20 executes the integrated learning process (step S105). This process will be described later with reference to FIG. 7.

(分割学習処理)
図5を用いて、分割学習処理を説明する。
まず、支援サーバ20の制御部21は、第1教師情報の取得処理を実行する(ステップS201)。具体的には、制御部21の学習部212は、教師情報記憶部23に記録されている分割学習用教師データを取得する。
(Divided learning process)
The division learning process will be described with reference to FIG.
First, the control unit 21 of the support server 20 executes the acquisition process of the first teacher information (step S201). Specifically, the learning unit 212 of the control unit 21 acquires the divided learning teacher data recorded in the teacher information storage unit 23.

次に、支援サーバ20の制御部21は、複数階層で特徴量マップ画像の生成処理を実行する(ステップS202)。具体的には、制御部21の学習部212は、機械学習方法として、「DenseNet」を用いる。この「DenseNet」は、畳み込み層とプーリング層の間に「Dense Block」と「Transition Layer」を交互に挟み込むネットワークで構成される。「DenseNet」を用いて、分割肺野画像を入力層として入力して、出力層において陽性・陰性を出力する予測モデル(「DenseNet」モデル)を生成する。この場合、分割画像が入力された「DenseNet」モデルにより、深度に応じて複数階層からなる中間層で特徴量マップ画像が生成される。特徴量マップ画像は、分割肺野画像に対して、階層毎に多様なフィルタをかけた画像である。更に、「DenseNet」モデルでは、各階層の特徴量マップ画像の代表値が算出される。そして、「DenseNet」モデルでは、この代表値から陽性・陰性確率を出力する階層毎の加重値(モデル内変数値)が算出される。 Next, the control unit 21 of the support server 20 executes a feature amount map image generation process in a plurality of layers (step S202). Specifically, the learning unit 212 of the control unit 21 uses "DenseNet" as the machine learning method. This "Dense Net" is composed of a network in which "Dense Block" and "Transition Layer" are alternately sandwiched between a convolution layer and a pooling layer. Using "DenseNet", a divided lung field image is input as an input layer, and a predictive model ("DenseNet" model) that outputs positive / negative in the output layer is generated. In this case, the "DenseNet" model in which the divided image is input generates a feature map image in an intermediate layer composed of a plurality of layers according to the depth. The feature map image is an image obtained by applying various filters to each layer of the divided lung field image. Further, in the "DenseNet" model, the representative value of the feature amount map image of each layer is calculated. Then, in the "DenseNet" model, a weighted value (variable value in the model) for each layer that outputs a positive / negative probability is calculated from this representative value.

次に、支援サーバ20の制御部21は、特徴量マップ画像の階層毎の代表値の取得処理を実行する(ステップS203)。具体的には、制御部21の学習部212は、「DenseNet」モデルの階層毎の各特徴量マップ画像についての代表値を取得する。本実施形態では、代表値としては、特徴量マップ画像における画像値の最大値を用いる。 Next, the control unit 21 of the support server 20 executes the acquisition process of the representative value for each layer of the feature amount map image (step S203). Specifically, the learning unit 212 of the control unit 21 acquires representative values for each feature amount map image for each layer of the “DenseNet” model. In the present embodiment, the maximum value of the image value in the feature amount map image is used as the representative value.

次に、支援サーバ20の制御部21は、階層毎の代表値を入力として陽性・陰性確率を出力する階層毎の加重値の取得処理を実行する(ステップS204)。具体的には、制御部21の学習部212は、「DenseNet」モデルにおいて、各階層の特徴量マップ画像の代表値を入力として、陽性及び陰性の確からしさ(確率)を算出する加重値(加重情報)を取得する。この加重値により、陽性確率及び陰性確率に影響を与える特徴量マップ画像の重み付けが行なわれる。 Next, the control unit 21 of the support server 20 executes a weighted value acquisition process for each layer that outputs a positive / negative probability by inputting a representative value for each layer (step S204). Specifically, the learning unit 212 of the control unit 21 inputs a representative value of the feature amount map image of each layer in the "DenseNet" model, and calculates a positive and negative probability (probability) by a weighted value (weighted). Information) is acquired. This weighted value weights the feature map image that affects the positive and negative probabilities.

図6に示すように、学習部212は、分割肺野画像510の特徴量マップ画像520の代表値(vd1~vd4)の入力に対して、陰性確率を出力する加重値(W01~W04)、陽性確率を出力する加重値(W11~W14)を算出する。この場合、各分割肺野画像510を「DenseNet」モデルに入力して、各階層の特徴量マップ画像を生成し、この特徴量マップ画像の代表値を算出する。更に、「DenseNet」モデルにより出力される陽性確率及び陰性確率を取得する。次に、学習部212は、「DenseNet」モデルから、加重値(W01~W14)を取得する。なお、図6では、4階層を想定したが、「DenseNet」モデルがn階層の場合、代表値はn個、加重値は2n個になる。 As shown in FIG. 6, the learning unit 212 outputs a negative probability to the input of the representative values (vd1 to vd4) of the feature amount map image 520 of the divided lung field image 510, weighted values (W01 to W04). A weighted value (W11 to W14) that outputs a positive probability is calculated. In this case, each divided lung field image 510 is input to the "DenseNet" model to generate a feature amount map image of each layer, and a representative value of this feature amount map image is calculated. In addition, the positive and negative probabilities output by the "DenseNet" model are acquired. Next, the learning unit 212 acquires weighted values (W01 to W14) from the “DenseNet” model. In FIG. 6, four layers are assumed, but when the "DenseNet" model has n layers, the number of representative values is n and the number of weighted values is 2n.

そして、学習部212は、分割肺野識別子、階層識別子に対して、「DenseNet」モデル及び加重値を含めたネットワーク(分割予測モデル)を、学習結果記憶部24に記録する。 Then, the learning unit 212 records in the learning result storage unit 24 a network (division prediction model) including the “DenseNet” model and the weighted value for the divided lung field identifier and the hierarchical identifier.

(統合学習処理)
図7を用いて、統合学習処理を説明する。
ここでは、支援サーバ20の制御部21は、各検診者の肺野画像毎に、特徴量マップ画像及び加重値を用いて、ヒートマップの作成処理を実行する(ステップS301)。具体的には、制御部21の学習部212は、検診者毎に、各分割肺野画像を「DenseNet」モデルに入力して生成された各階層の特徴量マップ画像と、この階層で陽性確率を算出する加重値とを用いて、肺野領域に応じたヒートマップを作成する。
(Integrated learning process)
The integrated learning process will be described with reference to FIG. 7.
Here, the control unit 21 of the support server 20 executes a heat map creation process using the feature amount map image and the weighted value for each lung field image of each examiner (step S301). Specifically, the learning unit 212 of the control unit 21 inputs each divided lung field image into the "DenseNet" model for each examiner, and the feature amount map image of each layer generated, and the positive probability in this layer. Use the weighted value to calculate the heat map according to the lung field region.

ここでは、図8に示すように、各階層の各特徴量マップ画像520に対して、陽性確率を算出する加重値(W11~W14)を乗算することにより加重画像を生成する。更に、学習部212は、階層毎の加重画像を同じ画素位置で重ね合わせることにより、ヒートマップ600を生成する。 Here, as shown in FIG. 8, a weighted image is generated by multiplying each feature amount map image 520 of each layer by a weighted value (W11 to W14) for calculating a positive probability. Further, the learning unit 212 generates the heat map 600 by superimposing the weighted images for each layer at the same pixel position.

図9は、肺野全体画像の元画像500に対して、各検診者の分割肺野画像を結合したヒートマップ600の例示である。このヒートマップ600では、複数の特徴量マップが重畳されているが、高い加重値が付与された特徴量マップ画像の特徴領域が強調されて表示される。 FIG. 9 is an example of a heat map 600 in which the divided lung field images of each examiner are combined with the original image 500 of the entire lung field image. In this heat map 600, a plurality of feature amount maps are superimposed, but the feature area of the feature amount map image to which a high weighted value is given is emphasized and displayed.

次に、支援サーバ20の制御部21は、第2教師情報(統合学習用)の登録処理を実行する(ステップS302)。具体的には、制御部21の学習部212は、分割学習結果を用いて、統合学習用教師データ(第2教師情報)を生成する。ここでは、ステップS301において作成した検診者毎に取りまとめた肺野領域毎のヒートマップ及び判定結果を、統合学習用教師データとして用いる。そして、学習部212は、検診者識別子で関連付けた肺野領域毎のヒートマップ及び判定結果を、統合学習用教師データとして教師情報記憶部23に記録する。
以上の処理を、画像情報記憶部22に記録されたすべての検診者について繰り返す。
Next, the control unit 21 of the support server 20 executes the registration process of the second teacher information (for integrated learning) (step S302). Specifically, the learning unit 212 of the control unit 21 generates teacher data for integrated learning (second teacher information) using the divided learning result. Here, the heat map for each lung field region and the determination result prepared for each examiner created in step S301 are used as teacher data for integrated learning. Then, the learning unit 212 records the heat map and the determination result for each lung field region associated with the examiner identifier in the teacher information storage unit 23 as integrated learning teacher data.
The above processing is repeated for all the examiners recorded in the image information storage unit 22.

次に、支援サーバ20の制御部21は、統合予測モデルの作成処理を実行する(ステップS303)。具体的には、制御部21の学習部212は、機械学習により、分割学習の結果を用いて生成した統合学習用教師データにより、陰性確率及び陽性確率を予測する統合予測モデルを生成する。 Next, the control unit 21 of the support server 20 executes the process of creating the integrated prediction model (step S303). Specifically, the learning unit 212 of the control unit 21 generates an integrated prediction model that predicts the negative probability and the positive probability from the teacher data for integrated learning generated by using the result of the division learning by machine learning.

ここでは、図10に示すように、各特徴量マップ画像520の肺野領域毎の特徴量(統合入力特徴量vi1~vi4)を算出し、各統合入力特徴量を入力として、陰性確率及び陽性確率を出力する統合予測モデルを、機械学習により生成する。本実施形態では、統合入力特徴量vi1~vi4として、ステップS301において作成した肺野領域毎のヒートマップを入力として、読影医の判定結果を出力として用いた機械学習を行なう。なお、図10では、肺野画像を左上~右下に4分割したため、特徴量が4個になっているが、特徴量の数は肺野の分割数に応じて決まる。
そして、学習部212は、生成した統合予測モデルを学習結果記憶部24に記録する。
Here, as shown in FIG. 10, the feature amounts (integrated input feature amounts vi1 to vi4) for each lung field region of each feature amount map image 520 are calculated, and each integrated input feature amount is used as an input to obtain a negative probability and a positive value. An integrated prediction model that outputs probabilities is generated by machine learning. In the present embodiment, machine learning is performed using the heat map for each lung field region created in step S301 as the input and the judgment result of the image interpreter as the output as the integrated input feature quantities vi1 to vi4. In FIG. 10, since the lung field image is divided into four from the upper left to the lower right, the feature amount is four, but the number of feature amounts is determined according to the number of divisions of the lung field.
Then, the learning unit 212 records the generated integrated prediction model in the learning result storage unit 24.

(予測時処理)
次に、図11を用いて、予測時処理を説明する。
(Processing at the time of prediction)
Next, the prediction processing will be described with reference to FIG.

まず、支援サーバ20の制御部21は、画像取得処理を実行する(ステップS401)。具体的には、制御部21の取得部211は、ユーザ端末10から、新たな肺がん検診における肺野画像を取得し、評価対象記憶部25に記録する。 First, the control unit 21 of the support server 20 executes the image acquisition process (step S401). Specifically, the acquisition unit 211 of the control unit 21 acquires a lung field image in a new lung cancer screening from the user terminal 10 and records it in the evaluation target storage unit 25.

次に、支援サーバ20の制御部21は、ステップS102と同様に、分割処理を実行する(ステップS402)。これにより、分割肺野画像が作成される。
次に、支援サーバ20の制御部21は、分割肺野画像を用いた予測処理を実行する(ステップS403)。具体的には、制御部21の予測部213は、学習結果記憶部24に記録された分割予測モデルに、作成した分割肺野画像を入力し、分割判定結果を予測する。ここでは、分割判定結果において、分割肺野毎に、陰性確率及び陽性確率を算出する。
Next, the control unit 21 of the support server 20 executes the division process in the same manner as in step S102 (step S402). This creates a split lung field image.
Next, the control unit 21 of the support server 20 executes a prediction process using the divided lung field image (step S403). Specifically, the prediction unit 213 of the control unit 21 inputs the created divided lung field image into the division prediction model recorded in the learning result storage unit 24, and predicts the division determination result. Here, in the division determination result, the negative probability and the positive probability are calculated for each divided lung field.

次に、支援サーバ20の制御部21は、肺野全体画像を用いた予測処理を実行する(ステップS404)。具体的には、制御部21の予測部213は、分割肺野画像を用いた予測処理(ステップS403)において生成された肺野領域毎の特徴量を、学習結果記憶部24に記録された統合予測モデルに入力して統合予測結果を算出する。本実施形態では、予測部213は、ステップS403において算出された特徴量マップに加重値を乗算したマップを重畳させたヒートマップを生成する。そして、予測部213は、学習結果記憶部24に記録された統合予測モデルに、作成したヒートマップを入力し、統合予測結果を予測する。統合判定結果としては、陰性確率、陽性確率を算出する。 Next, the control unit 21 of the support server 20 executes a prediction process using the entire lung field image (step S404). Specifically, the prediction unit 213 of the control unit 21 integrates the feature quantities for each lung field region generated in the prediction process (step S403) using the divided lung field image recorded in the learning result storage unit 24. Input to the prediction model to calculate the integrated prediction result. In the present embodiment, the prediction unit 213 generates a heat map in which a map obtained by multiplying the feature amount map calculated in step S403 by a weighted value is superimposed. Then, the prediction unit 213 inputs the created heat map into the integrated prediction model recorded in the learning result storage unit 24, and predicts the integrated prediction result. As the integrated determination result, the negative probability and the positive probability are calculated.

次に、支援サーバ20の制御部21は、判定結果の出力処理を実行する(ステップS405)。具体的には、制御部21の予測部213は、判定結果画面をユーザ端末10に出力する。この判定結果画面には、ステップS403及びステップS404で予測した判定結果(分割判定結果、統合判定結果)、ヒートマップを含める。 Next, the control unit 21 of the support server 20 executes the output processing of the determination result (step S405). Specifically, the prediction unit 213 of the control unit 21 outputs the determination result screen to the user terminal 10. The determination result screen includes the determination results (division determination result, integration determination result) predicted in steps S403 and S404, and the heat map.

本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態においては、支援サーバ20の制御部21は、画像取得処理を実行する(ステップS101)。これにより、読影医の判定結果を取得することができる。この画像には、骨や臓器等のように、画像上の異常判定に影響をおけるノイズも含まれるため、ノイズを考慮した機械学習を行なうことができる。
According to this embodiment, the following effects can be obtained.
(1) In the present embodiment, the control unit 21 of the support server 20 executes the image acquisition process (step S101). As a result, the determination result of the image interpreting doctor can be obtained. Since this image also includes noise that affects the determination of abnormalities on the image, such as bones and organs, machine learning can be performed in consideration of the noise.

(2)本実施形態においては、支援サーバ20の制御部21は、画像情報記憶部22に記録された肺野画像毎に、分割処理(ステップS102)、肺野毎の第1教師情報の生成処理(ステップS103)、分割肺野毎に、分割学習処理(ステップS104)を実行する。これにより、分割された肺野領域における局所的な異常の有無を判定することができる。例えば、肺がんは領域毎に見え方や注意すべきポイントが異なり、領域毎に特化した学習を行なうことで、読影医に近い判定を実現できる。更に、解剖学的な位置を揃えて肺野の分割を行なった上で、機械学習を行なうことで、予測精度の向上を図ることができる。 (2) In the present embodiment, the control unit 21 of the support server 20 performs division processing (step S102) for each lung field image recorded in the image information storage unit 22 and generates first teacher information for each lung field. The processing (step S103) and the division learning process (step S104) are executed for each divided lung field. This makes it possible to determine the presence or absence of local abnormalities in the divided lung field region. For example, lung cancer has different appearances and points to be noted for each area, and by performing specialized learning for each area, it is possible to realize a judgment close to that of an image interpreter. Furthermore, it is possible to improve the prediction accuracy by performing machine learning after dividing the lung field by aligning the anatomical positions.

(3)本実施形態においては、支援サーバ20の制御部21は、「Dense Net」を用いて、複数階層で特徴量マップ画像の生成処理を実行する(ステップS202)。ここでは、「Dense Block」と「Transition Layer」を交互に挟み込むことにより、深層化した場合の勾配消失に対応することができる。そして、階層毎に多様なフィルタをかけた特徴量マップ画像を生成することができる。 (3) In the present embodiment, the control unit 21 of the support server 20 executes the feature amount map image generation process in a plurality of layers using the “Dense Net” (step S202). Here, by alternately sandwiching the "Dense Block" and the "Transition Layer", it is possible to deal with the disappearance of the gradient when the layer is deepened. Then, it is possible to generate a feature map image with various filters applied to each layer.

(4)本実施形態においては、支援サーバ20の制御部21は、特徴量マップ画像及び加重値を用いてヒートマップの作成処理(ステップS301)、第2教師情報(統合学習用)の登録処理(ステップS302)、統合予測モデルの作成処理(ステップS303)を実行する。分割された領域での判定を、全体を通じて調整することができる。例えば、人体に左右対称に配置されている臓器において異常を検知した場合、異常領域の左右の配置状況に応じて、判定を調整する予測モデルを生成することができる。具体的には、左上肺側に異常と疑われる箇所を検出した場合、右上肺側と比較し、左右差を確認して、右側の同じような箇所の有無により、陰性確率及び陽性確率を算出することができる。ここで、右側に同じような箇所を検出した場合には異常ではない可能性がある。 (4) In the present embodiment, the control unit 21 of the support server 20 creates a heat map using the feature map image and the weighted value (step S301), and registers the second teacher information (for integrated learning). (Step S302), the process of creating the integrated prediction model (step S303) is executed. The judgment in the divided area can be adjusted throughout. For example, when an abnormality is detected in an organ that is symmetrically arranged on the human body, a predictive model that adjusts the judgment can be generated according to the left-right arrangement of the abnormal region. Specifically, when a part suspected to be abnormal is detected on the upper left lung side, the difference between the left and right is confirmed by comparing with the upper right lung side, and the negative probability and the positive probability are calculated based on the presence or absence of a similar part on the right side. can do. Here, if a similar part is detected on the right side, it may not be abnormal.

(5)本実施形態においては、支援サーバ20の制御部21は、画像取得処理(ステップS401)、分割肺野画像を用いた予測処理(ステップS403)、肺野全体画像を用いた予測処理(ステップS404)を実行する。これにより、診断の質の向上、読影医の負担軽減、医師の労働時間の短縮を図ることができる。この結果、医師の負担を、一次読影から二次読影等の業務にシフトさせることができ、比較読影の質の向上を図ることができる。また、肺がん検診の読影をシステム化することにより、専門性の高い読影医の偏在による地方格差の解消に寄与できる。 (5) In the present embodiment, the control unit 21 of the support server 20 has an image acquisition process (step S401), a prediction process using a divided lung field image (step S403), and a prediction process using an entire lung field image (step S403). Step S404) is executed. As a result, it is possible to improve the quality of diagnosis, reduce the burden on the interpreting doctor, and shorten the working hours of the doctor. As a result, the burden on the doctor can be shifted from the primary interpretation to the secondary interpretation, and the quality of the comparative interpretation can be improved. In addition, by systematizing the interpretation of lung cancer screening, it is possible to contribute to the elimination of regional disparities due to the uneven distribution of highly specialized interpretation doctors.

(6)本実施形態においては、支援サーバ20の制御部21は、判定結果の出力処理を実行する(ステップS405)。この場合、ヒートマップ等を出力することで、異常等の判別の特徴となりうる対象を可視化することができる。 (6) In the present embodiment, the control unit 21 of the support server 20 executes the output processing of the determination result (step S405). In this case, by outputting a heat map or the like, it is possible to visualize an object that can be a feature of discrimination such as an abnormality.

本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、肺がん検診のレントゲン画像において、肺がんの検出に適用する。適用対象の疾病は、肺がんに限定されない。肺以外の臓器(例えば、対称に近い形状の脳や腎臓等)に適用することも可能である。
・上記実施形態では、肺がんの陽性・陰性確率を予測する。予測対象は、陽性・陰性の2種類に限定されるものではない。例えば、診断情報の(a)異常所見の有無において、「異常所見を認めない」、「肺がんの疑い」、「異常所見を認め,肺癌以外の疾患で治療を要する状態が考えられる」等の判定結果をそれぞれ個別に予測するようにしてもよい。この場合に、それぞれの判定結果を含めた第1、第2教師情報を生成し、分割予測モデル及び統合予測モデルにより、「異常所見を認めない」の確率、「肺がんの疑い」の確率、「異常所見を認め,肺癌以外の疾患で治療を要する状態が考えられる」の確率を予測する。
This embodiment can be modified and implemented as follows. The present embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.
-In the above embodiment, it is applied to the detection of lung cancer in the X-ray image of lung cancer screening. The applicable diseases are not limited to lung cancer. It can also be applied to organs other than the lungs (for example, the brain and kidneys having a shape close to symmetry).
-In the above embodiment, the positive / negative probability of lung cancer is predicted. The prediction target is not limited to two types, positive and negative. For example, in the presence or absence of (a) abnormal findings in the diagnostic information, judgments such as "no abnormal findings", "suspected lung cancer", "abnormal findings are found, and a condition requiring treatment for a disease other than lung cancer is considered". The results may be predicted individually. In this case, the first and second teacher information including the respective judgment results are generated, and the probability of "no abnormal findings", the probability of "suspected lung cancer", and the probability of "suspicion of lung cancer" are obtained by the split prediction model and the integrated prediction model. Predict the probability of "abnormal findings and possible conditions requiring treatment for diseases other than lung cancer."

・上記実施形態では、機械学習の手法として「Dense Net」を用いる。機械学習の手法としては、「Dense Net」に限定されるものではなく、例えば、「Residual Network(ResNet)」を用いてもよい。
・上記実施形態では、支援サーバ20の制御部21は、統合予測モデルの作成処理を実行する(ステップS303)。この場合、統合入力特徴量として、肺野領域毎のヒートマップを用いる。統合入力特徴量は、ヒートマップそのものに限定されるものではない。
-In the above embodiment, "Dense Net" is used as a machine learning method. The machine learning method is not limited to "Dense Net", and for example, "Residual Network (ResNet)" may be used.
-In the above embodiment, the control unit 21 of the support server 20 executes the process of creating the integrated prediction model (step S303). In this case, a heat map for each lung field region is used as the integrated input feature amount. The integrated input features are not limited to the heat map itself.

例えば、図12に示すように、肺野領域毎のヒートマップ600、及び分割予測モデルで算出した陽性確率及び陰性確率を、統合入力特徴量として用いてもよい。
また、図13に示すように、肺野領域毎の各特徴量マップ画像520に、加重値(W11~W14)を乗算した画像群530を、統合入力特徴量として用いてもよい。この場合、すべての特徴量マップ画像を用いる必要はなく、加重値が基準値以上の特徴量マップ画像を特定して用いてもよい。
For example, as shown in FIG. 12, the heat map 600 for each lung field region and the positive and negative probabilities calculated by the split prediction model may be used as the integrated input feature amount.
Further, as shown in FIG. 13, an image group 530 obtained by multiplying each feature amount map image 520 for each lung field region by a weighted value (W11 to W14) may be used as an integrated input feature amount. In this case, it is not necessary to use all the feature amount map images, and the feature amount map image whose weight value is equal to or larger than the reference value may be specified and used.

また、図14に示すように、肺野領域毎の各特徴量マップ画像520に加重値(W11~W14)を乗算した画像群530と、陽性確率及び陰性確率とを、統合入力特徴量として用いてもよい。この場合も、すべての特徴量マップ画像を用いる必要はなく、加重値が基準値以上の特徴量マップ画像を特定して用いてもよい。 Further, as shown in FIG. 14, an image group 530 obtained by multiplying each feature amount map image 520 for each lung field region by a weighted value (W11 to W14), and a positive probability and a negative probability are used as integrated input feature amounts. You may. In this case as well, it is not necessary to use all the feature amount map images, and the feature amount map image whose weight value is equal to or larger than the reference value may be specified and used.

・上記実施形態では、取得部211は、レントゲン画像(肺野全体画像)において、パターン認識により、左上~右下の4つ肺野画像に分割する。このパターン認識では、レントゲン画像から肺野領域の解剖学的な特徴点を検出し、その特徴点を基準として、肺野領域を分割する。分割方法は、特徴点を用いる場合に限定されるものではない。例えば、機械学習により、臓器の形状を認識させて各肺野領域を分割するようにしてもよい。 -In the above embodiment, the acquisition unit 211 divides the X-ray image (the entire lung field image) into four lung field images from the upper left to the lower right by pattern recognition. In this pattern recognition, the anatomical feature points of the lung field region are detected from the X-ray image, and the lung field region is divided based on the feature points. The division method is not limited to the case of using feature points. For example, machine learning may be used to recognize the shape of an organ and divide each lung field region.

・上記実施形態では、支援サーバ20の制御部21は、分割処理を実行する(ステップS102)。ここでは、制御部21の取得部211は、肺野全体画像を、パターン認識により、左上肺野画像、左下肺野画像、右上肺野画像、右下肺野画像に分割する。ここで、分割数は4つに限定されない。また、肺野の形状を平均形状に位置が合うように変形させ、位置合わせした画像から肺野領域を分割するようにしてもよい。 -In the above embodiment, the control unit 21 of the support server 20 executes the division process (step S102). Here, the acquisition unit 211 of the control unit 21 divides the entire lung field image into an upper left lung field image, a lower left lung field image, an upper right lung field image, and a lower right lung field image by pattern recognition. Here, the number of divisions is not limited to four. Further, the shape of the lung field may be deformed so as to be aligned with the average shape, and the lung field region may be divided from the aligned image.

10…ユーザ端末、20…支援サーバ、21…制御部、211…取得部、212…学習部、213…予測部、22…画像情報記憶部、23…教師情報記憶部、24…学習結果記憶部、25…評価対象記憶部。 10 ... user terminal, 20 ... support server, 21 ... control unit, 211 ... acquisition unit, 212 ... learning unit, 213 ... prediction unit, 22 ... image information storage unit, 23 ... teacher information storage unit, 24 ... learning result storage unit , 25 ... Evaluation target storage unit.

Claims (8)

分割予測モデル及び統合予測モデルを記録する学習結果記憶部と、
画像を評価する制御部とを備え、判定結果を予測する判定予測システムであって、
前記制御部が、
元画像を分割した複数の分割画像を生成し、
前記複数の分割画像に対して、前記元画像における判定結果を関連付けて記録した第1教師情報を生成し、
前記第1教師情報を用いて、分割画像から前記判定結果を予測する分割予測モデルを生成して、前記学習結果記憶部に記録し、
前記第1教師情報の各分割画像を前記分割予測モデルに入力して生成された特徴情報を、前記分割画像の位置に基づいてまとめた第2教師情報を生成し、
前記第2教師情報を用いて、前記判定結果を予測する統合予測モデルを生成して、前記学習結果記憶部に記録し、
評価対象画像を取得した場合、前記学習結果記憶部に記録された前記分割予測モデル及び前記統合予測モデルを用いて、前記判定結果を予測することを特徴とする判定予測システム。
A learning result storage unit that records split prediction models and integrated prediction models,
It is a judgment prediction system that has a control unit for evaluating images and predicts judgment results.
The control unit
Generate multiple split images by splitting the original image,
The first teacher information recorded by associating the determination result in the original image with the plurality of divided images is generated.
Using the first teacher information, a division prediction model that predicts the determination result from the division image is generated, recorded in the learning result storage unit, and recorded.
The second teacher information is generated by inputting each divided image of the first teacher information into the divided prediction model and summarizing the feature information generated based on the position of the divided image.
Using the second teacher information, an integrated prediction model for predicting the determination result is generated, recorded in the learning result storage unit, and recorded.
A judgment prediction system characterized in that when an evaluation target image is acquired, the judgment result is predicted using the division prediction model and the integrated prediction model recorded in the learning result storage unit.
前記制御部が、前記第2教師情報の生成において、前記分割予測モデルの入力層から出力層までの中間層で生成される特徴情報を用いることを特徴とする請求項1に記載の判定予測システム。 The determination prediction system according to claim 1, wherein the control unit uses the feature information generated in the intermediate layer from the input layer to the output layer of the division prediction model in the generation of the second teacher information. .. 前記制御部が、前記中間層で生成される複数の特徴量マップ画像を取得することを特徴とする請求項2に記載の判定予測システム。 The determination prediction system according to claim 2, wherein the control unit acquires a plurality of feature amount map images generated in the intermediate layer. 前記制御部が、
前記特徴量マップ画像を、前記判定結果に結びつける加重情報を算出し、
前記加重情報を用いて、前記第2教師情報を生成することを特徴とする請求項3に記載の判定予測システム。
The control unit
Weighted information that links the feature amount map image to the determination result is calculated.
The determination prediction system according to claim 3, wherein the second teacher information is generated by using the weighted information.
前記制御部が、前記特徴量マップ画像と前記加重情報とを用いてヒートマップを生成することを特徴とする請求項4に記載の判定予測システム。 The determination prediction system according to claim 4, wherein the control unit generates a heat map using the feature amount map image and the weighted information. 前記制御部が、
前記元画像及び前記評価対象画像として、臓器を撮影した臓器画像を用い、
前記判定結果として、前記臓器画像に関する診断結果を用いることを特徴とする請求項1~5の何れか一項に記載の判定予測システム。
The control unit
As the original image and the evaluation target image, an organ image obtained by photographing an organ is used.
The determination prediction system according to any one of claims 1 to 5, wherein the diagnosis result relating to the organ image is used as the determination result.
分割予測モデル及び統合予測モデルを記録する学習結果記憶部と、
画像を評価する制御部とを備えた判定予測システムを用いて、判定結果を予測する方法であって、
前記制御部が、
元画像を分割した複数の分割画像を生成し、
前記複数の分割画像に対して、前記元画像における判定結果を関連付けて記録した第1教師情報を生成し、
前記第1教師情報を用いて、分割画像から前記判定結果を予測する分割予測モデルを生成して、前記学習結果記憶部に記録し、
前記第1教師情報の各分割画像を前記分割予測モデルに入力して生成された特徴情報を、前記分割画像の位置に基づいてまとめた第2教師情報を生成し、
前記第2教師情報を用いて、前記判定結果を予測する統合予測モデルを生成して、前記学習結果記憶部に記録し、
評価対象画像を取得した場合、前記学習結果記憶部に記録された前記分割予測モデル及び前記統合予測モデルを用いて、前記判定結果を予測することを特徴とする判定予測方法。
A learning result storage unit that records split prediction models and integrated prediction models,
It is a method of predicting a judgment result by using a judgment prediction system equipped with a control unit for evaluating an image.
The control unit
Generate multiple split images by splitting the original image,
The first teacher information recorded by associating the determination result in the original image with the plurality of divided images is generated.
Using the first teacher information, a division prediction model that predicts the determination result from the division image is generated, recorded in the learning result storage unit, and recorded.
The second teacher information is generated by inputting each divided image of the first teacher information into the divided prediction model and summarizing the feature information generated based on the position of the divided image.
Using the second teacher information, an integrated prediction model for predicting the determination result is generated, recorded in the learning result storage unit, and recorded.
A determination prediction method characterized in that when an evaluation target image is acquired, the determination result is predicted using the division prediction model and the integrated prediction model recorded in the learning result storage unit.
画像に基づいて判定結果を出力するように、コンピュータを機能させるための判定予測プログラムであって、
分割予測モデルと、前記分割予測モデルからの出力が入力されるように結合された統合予測モデルとから構成され、
元画像を分割した複数の分割画像を生成し、
前記複数の分割画像に対して、前記元画像における判定結果を関連付けて記録した第1教師情報を生成し、
前記第1教師情報を用いて、分割画像から前記判定結果を予測するように生成された分割予測モデルと、
前記第1教師情報の各分割画像を前記分割予測モデルに入力して生成された特徴情報を、前記分割画像の位置に基づいてまとめた第2教師情報を生成し、
前記第2教師情報を用いて、前記判定結果を予測するように生成された統合予測モデルとを含み、
評価対象画像を取得した場合、前記分割予測モデル及び前記統合予測モデルを用いて、前記判定結果を予測する手段として機能させるための判定予測プログラム。
It is a judgment prediction program for making a computer function so as to output a judgment result based on an image.
It consists of a split predictive model and an integrated predictive model that is combined so that the output from the split predictive model is input.
Generate multiple split images by splitting the original image,
The first teacher information recorded by associating the determination result in the original image with the plurality of divided images is generated.
A division prediction model generated so as to predict the determination result from the division image using the first teacher information, and
The second teacher information is generated by inputting each divided image of the first teacher information into the divided prediction model and summarizing the feature information generated based on the position of the divided image.
Including an integrated prediction model generated to predict the determination result using the second teacher information.
A judgment prediction program for functioning as a means for predicting the judgment result by using the division prediction model and the integrated prediction model when the evaluation target image is acquired.
JP2020156477A 2020-09-17 2020-09-17 Determination prediction system, determination prediction method, and determination prediction program Pending JP2022050089A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020156477A JP2022050089A (en) 2020-09-17 2020-09-17 Determination prediction system, determination prediction method, and determination prediction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020156477A JP2022050089A (en) 2020-09-17 2020-09-17 Determination prediction system, determination prediction method, and determination prediction program

Publications (1)

Publication Number Publication Date
JP2022050089A true JP2022050089A (en) 2022-03-30

Family

ID=80854210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020156477A Pending JP2022050089A (en) 2020-09-17 2020-09-17 Determination prediction system, determination prediction method, and determination prediction program

Country Status (1)

Country Link
JP (1) JP2022050089A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048509A1 (en) * 2022-08-30 2024-03-07 株式会社Preferred Networks Pathological condition evaluation device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048509A1 (en) * 2022-08-30 2024-03-07 株式会社Preferred Networks Pathological condition evaluation device

Similar Documents

Publication Publication Date Title
US10249042B2 (en) Method and apparatus for providing medical information service on basis of disease model
KR101874348B1 (en) Method for facilitating dignosis of subject based on chest posteroanterior view thereof, and apparatus using the same
JP5643304B2 (en) Computer-aided lung nodule detection system and method and chest image segmentation system and method in chest tomosynthesis imaging
CN102985940B (en) Read shadow entrusting system, read shadow commission mediating device and read shadow evaluation of result method
CN112561908B (en) Mammary gland image focus matching method, device and storage medium
KR20150073628A (en) System and method for adapting diagnosis model of computer aided diagnosis
CN105339982B (en) Lung measurement
CN108257111A (en) Automated image in x-ray imaging is examined
JP2007172604A (en) Method and apparatus for selecting computer-assisted algorithm based on protocol and/or parameter of acquisition system
CN112819818A (en) Image recognition module training method and device
Akpinar et al. Chest X-ray abnormality detection based on SqueezeNet
CN104217423B (en) Select automatically generating for image data set
US11935234B2 (en) Method for detecting abnormality, non-transitory computer-readable recording medium storing program for detecting abnormality, abnormality detection apparatus, server apparatus, and method for processing information
JP2022050089A (en) Determination prediction system, determination prediction method, and determination prediction program
JP7413295B2 (en) Image processing device, image processing method and program
EP3629931B1 (en) Heatmap and atlas
US11995834B2 (en) Method and system for the automated determination of examination results in an image sequence
KR102062386B1 (en) Bone suppression system of x-ray image using deep running
JP2021019677A (en) Teacher image generation program, teacher image generation method, and teacher image generation system
Kim et al. AI-based computer-aided diagnostic system of chest digital tomography synthesis: Demonstrating comparative advantage with X-ray-based AI systems
EP2178046A2 (en) Multi-image correlation
CN103020466B (en) A kind of computer diagnosis method and electronic equipment
JP2010005109A (en) Image forming device, program, and image forming method
JP2017000675A (en) Medical image processing apparatus and X-ray imaging apparatus
Bhatia et al. Automated quantification of inflamed lung regions in chest CT by UNET++ and SegCaps: a comparative analysis in COVID-19 cases

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20201112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240604