JP7407618B2 - information processing system - Google Patents

information processing system Download PDF

Info

Publication number
JP7407618B2
JP7407618B2 JP2020029830A JP2020029830A JP7407618B2 JP 7407618 B2 JP7407618 B2 JP 7407618B2 JP 2020029830 A JP2020029830 A JP 2020029830A JP 2020029830 A JP2020029830 A JP 2020029830A JP 7407618 B2 JP7407618 B2 JP 7407618B2
Authority
JP
Japan
Prior art keywords
data
contrast
mri
model
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020029830A
Other languages
Japanese (ja)
Other versions
JP2021132769A (en
Inventor
謙一 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2020029830A priority Critical patent/JP7407618B2/en
Publication of JP2021132769A publication Critical patent/JP2021132769A/en
Application granted granted Critical
Publication of JP7407618B2 publication Critical patent/JP7407618B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)

Description

本発明は、情報処理システムに関する。 The present invention relates to an information processing system.

従来より、MRI(Magnetic Resonance Imaging)によるスクリーニングが行われている(例えば特許文献1参照)。
例えば、BRCA1/2遺伝子変異を持つ女性は、乳癌の発症リスクが高いと言われている。このため、乳癌のハイリスクグループに対して、乳癌検診として乳房のMRIによるスクリーニングが勧められている。この乳房のMRIでは、乳癌検診の対象者(被験者)に対して、造影剤が用いられている。
Conventionally, screening using MRI (Magnetic Resonance Imaging) has been performed (for example, see Patent Document 1).
For example, women with BRCA1/2 gene mutations are said to have a high risk of developing breast cancer. For this reason, breast MRI screening is recommended for breast cancer screening for high-risk groups of breast cancer. In this breast MRI, a contrast agent is used for a subject (subject) for breast cancer screening.

特開2006-247113号公報JP2006-247113A

しかしながら、乳癌検診の対象者にとって、乳房のMRIが毎年行われる毎に造影剤が用いられることは、アレルギー、ガドリニウムの脳沈着、経済的負担、時間的負担等のデメリットが存在する。
このため、造影剤を用いない単純MRIでも同様の所見が得られるならば、乳癌検診の対象者はもとより医療機関への負担も軽減すると推定される。
即ち、造影剤を用いない単純MRIでも、造影剤を用いた場合と同様の所見が得られる技術の確立の要求がなされているが、このような要求に対して、特許文献1を含め従来の技術では応えられていない状況である。
However, for those undergoing breast cancer screening, using a contrast agent every year when breast MRI is performed has disadvantages such as allergies, brain deposition of gadolinium, financial burden, and time burden.
Therefore, if similar findings can be obtained by simple MRI without using a contrast agent, it is estimated that the burden on not only breast cancer screening candidates but also medical institutions will be reduced.
In other words, there is a demand for the establishment of a technology that can obtain findings similar to those obtained using a contrast medium even with simple MRI without using a contrast medium. This is a situation that cannot be met with technology.

本願発明はこのような状況に鑑みてなされたものであり、造影剤を用いない単純MRIでも、造影剤を用いた場合と同様の所見が得られる技術の確立を目的とする。 The present invention has been made in view of this situation, and aims to establish a technique that allows simple MRI without using a contrast agent to obtain findings similar to those obtained using a contrast agent.

上記目的を達成するため、本発明の一態様の情報処理システムは、
機械学習によりモデルを生成又は更新する第1情報処理装置と、当該モデルを使用する情報処理を実行する第2情報処理装置とを含む情報処理システムであって、
前記第1情報処理装置は、
造影剤を使用しない対象物に対して実際にMRIが行われた結果得られる第1種画像データと、造影剤を使用した同一の前記対象物に対して実際にMRIが行われた結果得られる第2種画像データとの組を学習データとして用いて、所定の機械学習を実行することで、前記第1種画像データが入力された場合に前記第2種画像データと等価な第3種画像データを出力するモデルを生成又は更新するモデル生成更新手段
を備え、
前記第2情報処理装置は、
処理対象の前記第1種画像データを取得する取得手段と、
前記取得手段により取得された前記第1種画像データと、前記第1情報処理装置により生成された前記モデルとに基づいて、前記第3種画像データを生成する生成手段と、
を備える。
To achieve the above object, an information processing system according to one embodiment of the present invention includes:
An information processing system including a first information processing device that generates or updates a model by machine learning, and a second information processing device that executes information processing using the model,
The first information processing device includes:
Type 1 image data obtained as a result of actually performing MRI on an object without using a contrast agent, and type 1 image data obtained as a result of actually performing MRI on the same object using a contrast agent. By performing predetermined machine learning using a set with the second type image data as learning data, when the first type image data is input, a third type image equivalent to the second type image data is generated. Model generation/update means for generating or updating a model that outputs data;
The second information processing device includes:
acquisition means for acquiring the first type image data to be processed;
generation means for generating the third type image data based on the first type image data acquired by the acquisition means and the model generated by the first information processing device;
Equipped with.

本発明によれば、造影剤を用いない単純MRIでも、造影剤を用いた場合と同様の所見を得ることが可能になる。 According to the present invention, it is possible to obtain findings similar to those obtained using a contrast agent even by simple MRI without using a contrast agent.

本発明の第1実施形態にかかる情報処理システムの構成の例を示す図である。1 is a diagram showing an example of the configuration of an information processing system according to a first embodiment of the present invention. 図1の情報処理システムのうち、本発明の情報処理装置の第1実施形態に係る学習装置のハードウェア構成の一例を示すブロック図である。2 is a block diagram showing an example of the hardware configuration of a learning device according to a first embodiment of the information processing device of the present invention in the information processing system of FIG. 1. FIG. 第1実施形態の図1の情報処理システム、即ち図2の学習装置及び造影MRI装置の機能的構成の一例を示す機能ブロック図である。2 is a functional block diagram showing an example of the functional configuration of the information processing system of FIG. 1 of the first embodiment, that is, the learning device and contrast MRI device of FIG. 2. FIG. 図3の学習装置により生成又は更新される「造影MRI画像生成モデル」の一例を示す図である。4 is a diagram showing an example of a "contrast MRI image generation model" generated or updated by the learning device of FIG. 3. FIG. 第1実施形態の訓練データにより生成又は更新される図3のモデルの概要を示す図である。FIG. 4 is a diagram showing an overview of the model of FIG. 3 that is generated or updated using training data of the first embodiment. 第2実施形態の図1の情報処理システム、即ち図2の学習装置及び造影MRI装置の機能的構成の一例を示す機能ブロック図である。FIG. 2 is a functional block diagram showing an example of the functional configuration of the information processing system of FIG. 1 of the second embodiment, that is, the learning device and contrast MRI device of FIG. 2; 第2実施形態の訓練データにより生成又は更新される図3のモデルの概要を示す図である。FIG. 4 is a diagram showing an overview of the model in FIG. 3 that is generated or updated using training data according to the second embodiment. 第2実施形態の図6の造影MRI生成装置により生成された造影MRI画像等価データの評価結果を示す図である。FIG. 7 is a diagram showing evaluation results of contrast-enhanced MRI image equivalent data generated by the contrast-enhanced MRI generating apparatus of FIG. 6 of the second embodiment. 第1実施形態の図3の造影MRI生成装置により生成された造影MRI画像データの一例を示す図である。4 is a diagram showing an example of contrast-enhanced MRI image data generated by the contrast-enhanced MRI generating apparatus of FIG. 3 of the first embodiment. FIG.

以下、本発明の実施形態について、図面を用いて説明する。 Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の第1実施形態にかかる情報処理システムの構成の例を示す図である。
図1に示す情報処理システムは、学習装置1と、造影MRI生成装置2と、モデルDB3とを含むように構成される。
FIG. 1 is a diagram showing an example of the configuration of an information processing system according to a first embodiment of the present invention.
The information processing system shown in FIG. 1 is configured to include a learning device 1, a contrast MRI generating device 2, and a model DB 3.

学習装置1は、乳癌検診にて行われる乳房のMRIの画像のデータついて機械学習を行う。 The learning device 1 performs machine learning on data of breast MRI images performed during breast cancer screening.

具体的には例えば、乳癌の患者に対して、造影剤を使用しないで実際に撮像されたMRIの画像のデータと、造影剤を使用して実際に撮像されたMRIの画像のデータとの組が、学習用データとして学習装置1に入力される。
なお以下、学習用データのうち、造影剤を使用しないで実際に撮像されたMRIの画像のデータを、「学習用MRI画像データ」と呼ぶ。また、学習用データのうち、造影剤を使用して実際に撮像されたMRIの画像のデータを、「学習用造影MRI画像データ」と呼ぶ。
Specifically, for example, a combination of MRI image data actually taken without using a contrast agent and MRI image data actually taken with a contrast agent for a breast cancer patient. is input to the learning device 1 as learning data.
Hereinafter, among the learning data, data of MRI images actually captured without using a contrast agent will be referred to as "learning MRI image data." Further, among the learning data, data of an MRI image actually captured using a contrast agent is referred to as "contrast MRI image data for learning."

学習装置1は、多数の学習用データを用いて機械学習をすることで、次のようなモデルを生成することができる。
ここで、乳癌検診として造影剤が用いられずに乳房MRIによるスクリーニングが行われた者に対して撮像されたMRIの画像のデータを「MRI画像データ」と呼ぶ。このMRI画像データが入力されると、造影剤を使用して撮像されたMRIの画像と等価な画像のデータ(以下、「造影MRI画像等価データ」と呼ぶ)が出力されるモデルが、学習装置1により生成又は更新される。なお、以下、このようなモデルを、「造影MRI画像生成モデル」と呼ぶ。
学習装置1により生成された「造影MRI画像生成モデル」は、モデルDB3に格納される。
学習装置1の機能的構成や処理の詳細については、図3以降の図面を参照して後述する。
The learning device 1 can generate the following model by performing machine learning using a large amount of learning data.
Here, data of an MRI image taken of a person who underwent breast MRI screening without using a contrast medium for breast cancer screening is referred to as "MRI image data." When this MRI image data is input, a model that outputs image data equivalent to an MRI image captured using a contrast agent (hereinafter referred to as "contrast MRI image equivalent data") is created in the learning device. 1 is generated or updated. Note that such a model will hereinafter be referred to as a "contrast MRI image generation model."
The "contrast MRI image generation model" generated by the learning device 1 is stored in the model DB3.
Details of the functional configuration and processing of the learning device 1 will be described later with reference to the drawings from FIG. 3 onwards.

造影MRI生成装置2は、「造影MRI画像生成モデル」をモデルDB3から取得する。造影MRI生成装置2は、MRI画像データを入力して、「造影MRI画像生成モデル」を用いて造影MRI画像等価データを生成する。造影MRI生成装置2は、この造影MRI画像等価データを出力データとして出力する。
造影MRI生成装置2の機能的構成や処理の詳細については、図3以降の図面を参照して後述する。
The contrast-enhanced MRI generation device 2 acquires the "contrast-enhanced MRI image generation model" from the model DB3. The contrast-enhanced MRI generation device 2 receives MRI image data and generates contrast-enhanced MRI image equivalent data using a "contrast MRI image generation model." The contrast-enhanced MRI generation device 2 outputs this contrast-enhanced MRI image equivalent data as output data.
The functional configuration and processing details of the contrast MRI generating device 2 will be described later with reference to the drawings from FIG. 3 onwards.

造影MRI生成装置2から出力データとして出力された造影MRI画像等価データは、造影MRI生成装置2に入力されたMRI画像データと共に、フィードバック用のデータ(以下、「FBデータ」と呼ぶ)として学習装置1に入力される。
学習装置1は、FBデータを用いて再学習をすることで、「造影MRI画像生成モデル」を更新して、モデルDB3に格納する。
The contrast-enhanced MRI image equivalent data output as output data from the contrast-enhanced MRI generator 2 is used as feedback data (hereinafter referred to as "FB data") in the learning device along with the MRI image data input to the contrast-enhanced MRI generator 2. 1 is input.
The learning device 1 updates the "contrast MRI image generation model" by performing relearning using the FB data, and stores it in the model DB3.

図2は、図1の情報処理システムのうち、本発明の情報処理装置の第1実施形態に係る学習装置のハードウェア構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of the hardware configuration of a learning device according to the first embodiment of the information processing device of the present invention in the information processing system of FIG.

学習装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。 The learning device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input/output interface 15, an output section 16, and an input section 17. , a storage section 18 , a communication section 19 , and a drive 20 .

CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to programs recorded in the ROM 12 or programs loaded into the RAM 13 from the storage section 18 .
The RAM 13 also appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19、及びドライブ20が接続されている。
出力部16は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
入力部17は、キーボードやマウス等で構成され、ユーザの指示操作に応じて各種情報を入力する。
記憶部18は、ハードディスク等で構成され、各種情報のデータを記憶する。
The CPU 11, ROM 12, and RAM 13 are interconnected via a bus 14. An input/output interface 15 is also connected to this bus 14 . An output section 16 , an input section 17 , a storage section 18 , a communication section 19 , and a drive 20 are connected to the input/output interface 15 .
The output unit 16 is composed of a display, a speaker, etc., and outputs images and sounds.
The input unit 17 is composed of a keyboard, a mouse, etc., and inputs various information according to user's instruction operations.
The storage unit 18 is composed of a hard disk or the like, and stores data of various information.

通信部19は、ネットワークを介して他の対象(例えば図1のモデルDB3)との間で行う通信を制御する。
ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア30が適宜装着される。ドライブ20によってリムーバブルメディア30から読み出されたプログラムや画像データは、必要に応じて記憶部18にインストールされる。また、リムーバブルメディア30は、記憶部18に記憶されている各種データ(例えば画像データ等)も、記憶部18と同様に記憶することができる。
The communication unit 19 controls communication with other objects (for example, the model DB 3 in FIG. 1) via the network.
A removable medium 30, such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, is appropriately installed in the drive 20. Programs and image data read from the removable medium 30 by the drive 20 are installed in the storage unit 18 as necessary. Further, the removable medium 30 can also store various data (for example, image data, etc.) stored in the storage section 18 in the same way as the storage section 18 .

なお、図示はしないが、図1の情報処理システムの造影MRI生成装置2は、図2に示すハードウェア構成と基本的に同様の構成を有している。従って、造影MRI生成装置2のハードウェア構成の説明は省略する。
また、説明の便宜上、学習装置1は、造影MRI生成装置2とは別途設けるものとしたが、特にこれに限定されず、学習装置1と造影MRI生成装置2との各機能を1台の情報処理装置に集約してもよい。
Although not shown, the contrast MRI generating apparatus 2 of the information processing system in FIG. 1 has basically the same hardware configuration as the one shown in FIG. 2. Therefore, a description of the hardware configuration of the contrast MRI generating apparatus 2 will be omitted.
Further, for convenience of explanation, the learning device 1 is provided separately from the contrast-enhanced MRI generating device 2; however, the present invention is not particularly limited to this, and each function of the learning device 1 and the contrast-enhanced MRI generating device 2 is integrated into one information It may be integrated into a processing device.

図3は、第1実施形態の図1の情報処理システム、即ち図2の学習装置及び造影MRI装置の機能的構成の一例を示す機能ブロック図である。 FIG. 3 is a functional block diagram showing an example of the functional configuration of the information processing system of FIG. 1 of the first embodiment, that is, the learning device and contrast MRI device of FIG. 2.

まず、第1実施形態の学習装置1の機能的構成について説明する。
第1実施形態の学習装置1においては、MRI画像取得部51と、造影MRI画像取得部52と、カラー画像生成部53と、学習データ生成部54と、モデル生成更新部55と、FBデータ取得部56とが機能する。
First, the functional configuration of the learning device 1 of the first embodiment will be explained.
In the learning device 1 of the first embodiment, an MRI image acquisition section 51, a contrast MRI image acquisition section 52, a color image generation section 53, a learning data generation section 54, a model generation update section 55, and an FB data acquisition section The section 56 functions.

MRI画像取得部51は、乳癌患者についての学習用MRI画像データを取得する。
造影MRI画像取得部52は、同一乳癌患者についての学習用造影MRI画像データを取得する。
The MRI image acquisition unit 51 acquires learning MRI image data about breast cancer patients.
The contrast-enhanced MRI image acquisition unit 52 acquires learning contrast-enhanced MRI image data for the same breast cancer patient.

ここで一例として、原発性乳癌と診断された症例の造影MRI画像26819枚のうち、脂肪抑制T1強調画像のデータ(以下、「T1データ」と呼ぶ)、脂肪抑制T2画像のデータ(以下、「T2データ」と呼ぶ)、及び拡散強調画像DWIのデータ(以下、「DWIデータ」と呼ぶ)、並びに造影早期相画像(早期相)のデータの切断面が全て一致している3040枚の画像(760スライス分)が学習用データとして、学習装置1に対して入力されたものとする。ここで、切断面の一致とは、ずれ幅が1mm以下のことをいう。
即ち切断面が全て一致している、T1データ、T2データ、及びDWIデータ、並びに早期相のデータが、1組の学習用データとして用いられたものとする。この場合、1組の学習用データのうち、T1データ、T2データ、及びDWIデータが、学習用MRI画像データとしてMRI画像取得部51により取得される。一方、当該1組の学習用データのうち、早期相のデータが、学習用造影MRI画像データとして造影MRI画像取得部52に取得される。
なお以下、以上の3040枚の画像(760スライス分)を学習用データとして、「本例の学習用データ」と呼ぶ。
Here, as an example, out of 26,819 contrast-enhanced MRI images of a case diagnosed with primary breast cancer, data on fat-suppressed T1-weighted images (hereinafter referred to as "T1 data") and data on fat-suppressed T2 images (hereinafter referred to as " 3040 images (hereinafter referred to as "T2 data"), diffusion weighted image DWI data (hereinafter referred to as "DWI data"), and contrast-enhanced early phase image (early phase) data in which the cut planes all coincided. 760 slices) is input to the learning device 1 as learning data. Here, matching of the cut planes means that the deviation width is 1 mm or less.
That is, it is assumed that T1 data, T2 data, DWI data, and early phase data, all of which have matching cut planes, are used as a set of learning data. In this case, among the set of learning data, T1 data, T2 data, and DWI data are acquired by the MRI image acquisition unit 51 as learning MRI image data. On the other hand, among the set of learning data, early phase data is acquired by the contrast MRI image acquisition unit 52 as learning contrast MRI image data.
Note that the above 3040 images (760 slices) are hereinafter referred to as "learning data of this example" as learning data.

なお、本実施形態では、乳癌の検出に適用されるため、造影早期相画像(早期相)のデータが用いられたが、手術前に抗癌剤が投与された後のMRI画像については、遅延相が用いられる。
即ち、本例では説明の便宜上早期相が用いられるものとするが、実際には、早期相に限定されず、造影画像のデータが用いられれば足りる。
In this embodiment, data of contrast-enhanced early phase images (early phase) was used since it is applied to the detection of breast cancer. However, for MRI images after anticancer drugs are administered before surgery, delayed phase data is used. used.
That is, in this example, the early phase is used for convenience of explanation, but in reality, it is not limited to the early phase, and it is sufficient to use contrast image data.

カラー画像生成部53については後述するが、学習データ生成部54は、本例の学習用データに基づいて、訓練データ(教師画像ありで学習する場合には教師データとの組)を学習データとして生成する。
本実施形態では後述するように、「造影MRI画像生成モデル」として、畳み込みニューラルネットワークが採用されている。従って、学習用MRI画像データ(T1データ、T2データ、及びDWIデータ)に基づいて後述するカラー画像生成部53により生成されるデータが訓練データとして、学習用造影MRI画像データ(早期相のデータ)が教師データとして、学習データ生成部54により夫々生成される。
The color image generation unit 53 will be described later, but the learning data generation unit 54 generates training data (in the case of learning with a teacher image, a set with the teacher data) as learning data based on the learning data of this example. generate.
In this embodiment, as will be described later, a convolutional neural network is employed as the "contrast MRI image generation model." Therefore, the data generated by the color image generation unit 53, which will be described later, based on the learning MRI image data (T1 data, T2 data, and DWI data) is used as the training data, which is the learning contrast-enhanced MRI image data (early phase data). are respectively generated as teacher data by the learning data generation unit 54.

モデル生成更新部55は、学習データ生成部54から出力された学習データを用いて機械学習を実行することで、「造影MRI画像生成モデル」を生成又は更新する。 The model generation/update unit 55 generates or updates a “contrast MRI image generation model” by performing machine learning using the learning data output from the learning data generation unit 54 .

ここで、「造影MRI画像生成モデル」は、何らかの学習データ(教師あり又は教師なしの何れも可能)を用いる任意の手法の機械学習により生成又は更新が可能であれば足りるが、本実施形態では図4に示すモデルMが採用されるものとする。 Here, it is sufficient that the "contrast MRI image generation model" can be generated or updated by any method of machine learning using some learning data (supervised or unsupervised); however, in this embodiment, It is assumed that model M shown in FIG. 4 is adopted.

図4は、図3の学習装置により生成又は更新される「造影MRI画像生成モデル」の一例を示している。
図4に示すモデルMは、人工知能のConvolutional Autoencoderの手法を用いて、T1データ、T2データ、及びDWIデータ(学習データ)から造影MRI画像等価データ(早期相のデータ)を推定するように学習された結果として、再生又は更新される「造影MRI画像生成モデル」の一例である。
このモデルMは、通常の畳み込みニューラルネットワークで画像データが圧縮された後に、当該画像データのサイズが元のサイズに戻されるものである。
モデル生成更新部55は、元画像データ(学習データ)が修正された画像データを、造影MRI画像等価データ(早期相のデータ)として出力するように、画像内の特徴を捉えた情報を抽出して、機械学習を実行する。
ここで、モデル生成更新部55による機械学習で用いられるアルゴリズムは、特に限定されないが、本実施形態では、代表的なアルゴリズムであるU-Netをベースとしたものが採用されるものとする。
また、モデル生成更新部55は、画像の類似度を評価する最小二乗法(MSE)を用いて、訓練データが早期相のデータに近づくように機械学習を実行する。
また、画像の劣化度合いを評価する手法として、本実施形態ではピーク信号対雑音比(PSNR)を計測する手法が採用されている(後述の図8参照)。
FIG. 4 shows an example of a "contrast MRI image generation model" generated or updated by the learning device of FIG. 3.
Model M shown in Fig. 4 uses the artificial intelligence Convolutional Autoencoder method to learn to estimate contrast-enhanced MRI image equivalent data (early phase data) from T1 data, T2 data, and DWI data (learning data). This is an example of a "contrast-enhanced MRI image generation model" that is reproduced or updated as a result.
In this model M, after image data is compressed using a normal convolutional neural network, the size of the image data is returned to the original size.
The model generation/updating unit 55 extracts information that captures the features within the image so that the image data obtained by correcting the original image data (learning data) is output as contrast-enhanced MRI image equivalent data (early phase data). and execute machine learning.
Here, the algorithm used in machine learning by the model generation/updating unit 55 is not particularly limited, but in this embodiment, one based on U-Net, which is a typical algorithm, is adopted.
Furthermore, the model generation/updating unit 55 uses the least squares method (MSE) to evaluate the similarity of images to perform machine learning so that the training data approaches early phase data.
Furthermore, as a method for evaluating the degree of image deterioration, this embodiment employs a method of measuring the peak signal-to-noise ratio (PSNR) (see FIG. 8, which will be described later).

このような図4に示すモデルMを「造影MRI画像生成モデル」として生成又は更新する機械学習に用いられる訓練データは、上述したように、T1データ、T2データ、及びDWIデータである。
ここで、T1データ、T2データ、及びDWIデータの夫々を別々の画像データとして、3枚の画像データを訓練データとして用いることもできる。
ここで、一般的なカラーの画像データは、1画素毎に3要素の画素値を有する構成、例えばRGB(赤、緑、青)の夫々の画素値を有する構成をとっている。
これに対して、MRI画像データ、即ち、T1データ、T2データ、及びDWIデータの夫々は、グレースケールの画像データ、即ち1画素毎に1要素の画素値(輝度値)を有する構成をとっている。
そこで、第1実施形態の学習装置1には、図3のカラー画像生成部53が設けられている。即ち、カラー画像生成部53は、学習用MRI画像データを構成する、T1データ、T2データ、及びDWIデータの各画素値の夫々を、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てることで、1枚の仮のカラー画像のデータを訓練データとして生成している。
つまり、第1実施形態では、R,G,Bの夫々に対してT1,T2,DWIの夫々が割り当てられた仮のカラーの画像データが訓練データとして、図3のモデルMを生成又は更新するための機械学習が実行されている。
As described above, training data used for machine learning to generate or update the model M shown in FIG. 4 as a "contrast MRI image generation model" is T1 data, T2 data, and DWI data.
Here, each of the T1 data, T2 data, and DWI data can be used as separate image data, and the three image data can be used as training data.
Here, general color image data has a configuration in which each pixel has pixel values of three elements, for example, a configuration in which each pixel has RGB (red, green, blue) pixel values.
On the other hand, each of the MRI image data, that is, T1 data, T2 data, and DWI data, is configured as grayscale image data, that is, each pixel has one element of pixel value (luminance value). There is.
Therefore, the learning device 1 of the first embodiment is provided with the color image generation section 53 shown in FIG. 3. That is, the color image generation unit 53 converts each pixel value of T1 data, T2 data, and DWI data that constitute the learning MRI image data into each pixel value of three elements of color image data (for example, R, By assigning the data to each of the G and B pixel values, data of one temporary color image is generated as training data.
That is, in the first embodiment, the model M in FIG. 3 is generated or updated using temporary color image data in which T1, T2, and DWI are assigned to each of R, G, and B as training data. Machine learning is being performed.

図5は、第1実施形態の訓練データにより生成又は更新される図3のモデルの概要を示している。
なお、後述する第2実施形態でも図3のモデルMが「造影MRI画像生成モデル」として採用されているが、訓練データが第1実施形態と第2実施形態とでは異なる。
そこで、第1実施形態の訓練データ、即ちR,G,Bの夫々に対してT1,T2,DWIの夫々が割り当てられた仮のカラーの画像データが用いられて生成又は更新される図3のモデルMを、図5に示すように(後述する第2実施形態のものと区別すべく)「モデルM1」と呼ぶ。
つまり、図5に示すように、入力されたMRI画像データ、即ち、T1データIT1、T2データIT2、及びDWIデータIDWIの各画素値の夫々が、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てられることで、1枚の仮のカラー画像のデータが生成される。この仮のカラー画像のデータが入力されると、造影MRI画像等価データOutが出力されるモデルM1が、「造影MRI画像生成モデル」として第1実施形態では採用されている。
FIG. 5 shows an overview of the model of FIG. 3 that is generated or updated using the training data of the first embodiment.
Although the model M in FIG. 3 is employed as a "contrast MRI image generation model" in the second embodiment described later, the training data is different between the first embodiment and the second embodiment.
Therefore, the training data of the first embodiment, that is, the temporary color image data in which T1, T2, and DWI are assigned to each of R, G, and B, is used to generate or update the image shown in FIG. As shown in FIG. 5, the model M is called "model M1" (to distinguish it from that of the second embodiment described later).
That is, as shown in FIG. 5, each pixel value of input MRI image data, that is, T1 data IT1, T2 data IT2, and DWI data IDWI, is changed to each pixel value of three elements of color image data ( For example, each pixel value of R, G, and B is assigned to each pixel value, thereby generating data for one temporary color image. In the first embodiment, a model M1 that outputs contrast-enhanced MRI image equivalent data Out when data of this temporary color image is input is employed as a "contrast-enhanced MRI image generation model."

図3に戻り、FBデータ取得部56は、上述したFBデータを取得する。
モデル生成更新部55は、このFBデータを用いて機械学習(再学習)を実行することで、「造影MRI画像生成モデル」を更新することができる。
なお、この再学習の際には、FBデータを構成するMRI画像データ、即ち、T1データIT1、T2データIT2、DWIデータIDWIの各画素値の夫々が、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てられることで、1枚の仮のカラー画像のデータが生成される。
この仮のカラー画像のデータ、及び造影MRI画像データ(本例では早期相のデータ)の4枚の画像データを用いての学習、又は仮のカラー画像のデータ、及び造影MRI画像等価データの4枚の画像データを用いての再学習が実行される。
Returning to FIG. 3, the FB data acquisition unit 56 acquires the above-mentioned FB data.
The model generation/update unit 55 can update the "contrast MRI image generation model" by performing machine learning (relearning) using this FB data.
Note that during this relearning, each pixel value of the MRI image data constituting the FB data, that is, T1 data IT1, T2 data IT2, and DWI data IDWI, is changed to each pixel value of the three elements of color image data. By assigning each value (for example, each pixel value of R, G, and B), data of one temporary color image is generated.
Learning using four image data of this provisional color image data and contrast-enhanced MRI image data (early phase data in this example), or provisional color image data and four contrast-enhanced MRI image equivalent data. Re-learning is performed using the image data of 2 images.

以上、第1実施形態の学習装置1の機能的構成について説明した。
次に、第1実施形態の造影MRI生成装置2の機能的構成について説明する。
The functional configuration of the learning device 1 of the first embodiment has been described above.
Next, the functional configuration of the contrast MRI generating apparatus 2 of the first embodiment will be described.

第1実施形態の造影MRI生成装置2においては、MRI画像取得部61と、カラー画像生成部62と、造影MRI生成部63とが機能する。 In the contrast-enhanced MRI generation device 2 of the first embodiment, an MRI image acquisition section 61, a color image generation section 62, and a contrast-enhanced MRI generation section 63 function.

本実施形態では、乳癌検診として造影剤が用いられずに乳房MRIによるスクリーニングが行われた者についてのMRI画像データ(T1データ、T2データ、及びDWIデータ)が、造影MRI生成装置2に入力される。
MRI画像取得部61は、そのMRI画像データを取得する。
In this embodiment, MRI image data (T1 data, T2 data, and DWI data) of a person who underwent breast MRI screening without using a contrast agent for breast cancer screening is input to the contrast MRI generation device 2. Ru.
The MRI image acquisition unit 61 acquires the MRI image data.

カラー画像生成部62は、MRI画像データを構成する、T1データ、T2データ、及びDWIデータの各画素値の夫々を、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てることで、1枚の仮のカラー画像のデータ(以下、「カラーMRI画像データ」と呼ぶ)を生成する。
つまり、第1実施形態では、R,G,Bの夫々に対してT1,T2,DWIの夫々が割り当てられた仮のカラーの画像データが、カラーMRI画像データである。このカラーMRI画像データが、造影MRI画像データの生成の元になるデータ、即ち、「造影MRI画像生成モデル」の入力データとして採用されている。
The color image generation unit 62 converts each pixel value of T1 data, T2 data, and DWI data constituting the MRI image data into pixel values of three elements of color image data (for example, R, G, and B). By assigning the color image data to each pixel value (each pixel value), one temporary color image data (hereinafter referred to as "color MRI image data") is generated.
That is, in the first embodiment, temporary color image data in which T1, T2, and DWI are assigned to each of R, G, and B is color MRI image data. This color MRI image data is used as the source data for generating contrast-enhanced MRI image data, that is, as input data for a "contrast-enhanced MRI image generation model."

造影MRI生成部63は、「造影MRI画像生成モデル」として図5のモデルM1を取得する。また、造影MRI生成部63は、「造影MRI画像生成モデル」に対する入力データとして、カラー画像生成部62により生成されたカラーMRI画像データを取得する。そして、造影MRI生成部63は、このカラーMRI画像データを「造影MRI画像生成モデル」に入力することで造影MRI画像等価データを生成して、出力する。 The contrast-enhanced MRI generation unit 63 acquires the model M1 in FIG. 5 as a "contrast-enhanced MRI image generation model." Further, the contrast MRI generation unit 63 acquires the color MRI image data generated by the color image generation unit 62 as input data to the “contrast MRI image generation model”. Then, the contrast-enhanced MRI generation unit 63 inputs this color MRI image data into a "contrast-enhanced MRI image generation model" to generate contrast-enhanced MRI image equivalent data and outputs it.

以上、図1乃至図5を参照して、本発明の第1実施形態にかかる情報処理システムについて説明した。
次に、図6以降の図面を参照して、本発明の第2実施形態にかかる情報処理システムについて説明する。
The information processing system according to the first embodiment of the present invention has been described above with reference to FIGS. 1 to 5.
Next, an information processing system according to a second embodiment of the present invention will be described with reference to the drawings from FIG. 6 onwards.

第2実施形態にかかる情報処理システムのハードウェア構成は、第1実施形態にかかるものと同様である。
即ち、第2実施形態にかかる情報処理システムは、図1と同様の構成を取ることができる。
また、第2実施形態の情報処理システムを構成する学習装置1及び造影MRI生成装置2の夫々は、図2と同様の構成を取ることができる。
ここで、第2実施形態でも第1実施形態と同様に説明の便宜上、学習装置1は、造影MRI生成装置2とは別途設けるものとしたが、特にこれに限定されず、学習装置1と造影MRI生成装置2との各機能を1台の情報処理装置に集約してもよい。
以上のことより、第2実施形態にかかる情報処理システムのハードウェア構成については、その説明は省略する。
The hardware configuration of the information processing system according to the second embodiment is the same as that according to the first embodiment.
That is, the information processing system according to the second embodiment can have a configuration similar to that in FIG. 1.
Further, each of the learning device 1 and the contrast MRI generating device 2 that constitute the information processing system of the second embodiment can have the same configuration as in FIG. 2 .
Here, in the second embodiment, as in the first embodiment, for convenience of explanation, the learning device 1 is provided separately from the contrast-enhanced MRI generating device 2, but the learning device 1 and the contrast-enhanced MRI generator 2 are not particularly limited to this. Each function of the MRI generation device 2 may be integrated into one information processing device.
Based on the above, description of the hardware configuration of the information processing system according to the second embodiment will be omitted.

図6は、第2実施形態の図1の情報処理システム、即ち図2の学習装置及び造影MRI装置の機能的構成の一例を示す機能ブロック図である。 FIG. 6 is a functional block diagram showing an example of the functional configuration of the information processing system of FIG. 1 of the second embodiment, that is, the learning device and contrast MRI device of FIG. 2.

まず、第2実施形態の学習装置1の機能的構成について説明する。
第2実施形態の学習装置1においては、MRI画像取得部151と、カラー画像生成部153と、学習データ生成部154と、モデル生成更新部155と、FBデータ取得部156とが機能する。
First, the functional configuration of the learning device 1 of the second embodiment will be explained.
In the learning device 1 of the second embodiment, an MRI image acquisition section 151, a color image generation section 153, a learning data generation section 154, a model generation/update section 155, and an FB data acquisition section 156 function.

第2実施形態における、MRI画像取得部151、カラー画像生成部153及び、学習データ生成部154乃至FBデータ取得部156の夫々は、第1実施形態における、MRI画像取得部51、カラー画像生成部53及び、学習データ生成部54乃至FBデータ取得部56の夫々と基本的に同様の機能と構成を有している。
即ち、学習装置1の機能的構成についての第1実施形態と第2実施形態との差は、第1実施形態では造影MRI画像取得部52が設けられていたのに対して、第2実施形態ではそのような機能ブロックが設けられていない点である。
換言すると、第1実施形態と第2実施形態との差は、「造影MRI画像生成モデル」の生成又は更新を行うための機械学習に用いられる学習データの形態が異なる点である。
即ち、第1実施形態の機械学習時においては、MRI画像データ、及び造影MRI画像データが学習データとして用いられた。
これに対して、第2実施形態の機械学習時においては、MRI画像データ、及び造影MRI等価画像データが学習データとして用いられる。
The MRI image acquisition unit 151, color image generation unit 153, and learning data generation unit 154 to FB data acquisition unit 156 in the second embodiment are respectively the MRI image acquisition unit 51, color image generation unit, and color image generation unit in the first embodiment. 53 and the learning data generation section 54 to the FB data acquisition section 56, respectively, and have basically the same functions and configurations.
That is, the difference between the first embodiment and the second embodiment regarding the functional configuration of the learning device 1 is that the contrast MRI image acquisition unit 52 is provided in the first embodiment, whereas the contrast MRI image acquisition unit 52 is provided in the second embodiment. However, such a functional block is not provided.
In other words, the difference between the first embodiment and the second embodiment is that the format of learning data used for machine learning for generating or updating the "contrast MRI image generation model" is different.
That is, during machine learning in the first embodiment, MRI image data and contrast-enhanced MRI image data were used as learning data.
On the other hand, during machine learning in the second embodiment, MRI image data and contrast-enhanced MRI equivalent image data are used as learning data.

したがって、以下、第2実施形態の学習装置1の機能的構成の説明としては、第1実施形態との差異点、即ち訓練データの形態に関する点のみを説明し、それ以外は省略するものとする。 Therefore, in the following explanation of the functional configuration of the learning device 1 of the second embodiment, only the differences from the first embodiment, that is, the points related to the format of training data, will be explained, and the rest will be omitted. .

図7は、第2実施形態の訓練データにより生成又は更新される図5のモデルの概要を示している。
なお、第2実施形態の訓練データにより生成又は更新される図5のモデルMを、図7に示すように(上述した第1実施形態のものと区別すべく)「モデルM2」と呼ぶ。
第2実施形態では、カラー画像生成部153は、MRI画像取得部151により取得されたMRI画像データ(T1データIT1、T2データIT2、及びDWIデータIDWI)の各画素値の夫々を、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てることで、1枚のカラーMRI画像データを生成する。
モデル生成更新部155は、カラーMRI画像データと、当該カラーMRI画像データから得られる造影MRI画像等価データOutを用いて機械学習を実行する。これにより、乳癌検診として造影剤が用いられずに乳房MRIによるスクリーニングが行われた者についてのMRI画像データが与えられた場合において、当該MRI画像データが入力されるとそのうちT1データIT1、T2データIT2、及びDWIデータIDWIが利用され、造影MRI画像等価データOutが出力される。その結果として、モデルM2が、「造影MRI画像生成モデル」として生成又は更新される。
FIG. 7 shows an overview of the model of FIG. 5 that is generated or updated using the training data of the second embodiment.
Note that the model M in FIG. 5 that is generated or updated using the training data of the second embodiment is referred to as a "model M2" as shown in FIG. 7 (to distinguish it from that of the first embodiment described above).
In the second embodiment, the color image generation unit 153 converts each pixel value of the MRI image data (T1 data IT1, T2 data IT2, and DWI data IDWI) acquired by the MRI image acquisition unit 151 into a color image. One sheet of color MRI image data is generated by assigning each pixel value of three elements of data (for example, each pixel value of R, G, and B).
The model generation/updating unit 155 executes machine learning using the color MRI image data and the contrast-enhanced MRI image equivalent data Out obtained from the color MRI image data. As a result, when MRI image data of a person who was screened by breast MRI without using a contrast agent for breast cancer screening is given, when the MRI image data is input, T1 data IT1, T2 data IT2 and DWI data IDWI are used, and contrast MRI image equivalent data Out is output. As a result, model M2 is generated or updated as a "contrast MRI image generation model."

以下、「造影MRI画像生成モデル」としての第2実施形態のモデルM2について、第1実施形態のモデルM1(図5)との比較という観点で、さらに説明する。
第2実施形態のモデルM2の出力データとしての造影MRI画像等価データは、第1実施形態のモデルM1の出力データとしての造影MRI画像等価データと比較すると、高解像度のデータである。
これは、次の理由による。即ち、早期相のデータは、T1データIT1に造影効果を伴った画像データである。このことを考慮して、T1データIT1を入力層から出力層まで繋ぐショートカットをつくることによって得られた「造影MRI画像生成モデル」が、第2実施形態のモデルM2である。このようなショートカットにより高解像度が得られることになる。
即ち、モデル生成更新部155は、画像データそのものではなく、差分である造影効果のみを学習するような機械学習を実行することで、第2実施形態のモデルM2を生成又は更新する。
Hereinafter, the model M2 of the second embodiment as a "contrast MRI image generation model" will be further explained from the perspective of comparison with the model M1 of the first embodiment (FIG. 5).
The contrast-enhanced MRI image equivalent data as the output data of the model M2 of the second embodiment is higher resolution data when compared with the contrast-enhanced MRI image equivalent data as the output data of the model M1 of the first embodiment.
This is due to the following reason. That is, the early phase data is image data with a contrast effect added to the T1 data IT1. Taking this into consideration, the "contrast MRI image generation model" obtained by creating a shortcut to connect the T1 data IT1 from the input layer to the output layer is the model M2 of the second embodiment. Such shortcuts will result in higher resolution.
That is, the model generation/update unit 155 generates or updates the model M2 of the second embodiment by executing machine learning that learns only the contrast effect, which is the difference, instead of the image data itself.

以上、第2実施形態の学習装置1の機能的構成について説明した。
次に、第2実施形態の造影MRI生成装置2の機能的構成について説明する。
The functional configuration of the learning device 1 of the second embodiment has been described above.
Next, the functional configuration of the contrast MRI generating apparatus 2 of the second embodiment will be described.

第2実施形態の造影MRI生成装置2においては、図6に示すように、MRI画像取得部161と、カラー画像生成部162と、造影MRI生成部163とが機能する。 In the contrast-enhanced MRI generation device 2 of the second embodiment, as shown in FIG. 6, an MRI image acquisition section 161, a color image generation section 162, and a contrast-enhanced MRI generation section 163 function.

第2実施形態では、第1実施形態と同様に、乳癌検診として造影剤が用いられずに乳房MRIによるスクリーニングが行われた者についてのMRI画像データ(T1データ、T2データ、及びDWIデータ)が、造影MRI生成装置2に入力される。
MRI画像取得部161は、そのMRI画像データを取得する。
In the second embodiment, similarly to the first embodiment, MRI image data (T1 data, T2 data, and DWI data) of breast cancer screening performed by breast MRI without using a contrast agent is , is input to the contrast MRI generating device 2.
The MRI image acquisition unit 161 acquires the MRI image data.

カラー画像生成部162は、MRI画像取得部161により取得されたMRI画像データを構成する、T1データ、T2データ、及びDWIデータの各画素値の夫々を、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てることで、1枚のカラーMRI画像データを生成する。 The color image generation unit 162 converts each pixel value of the T1 data, T2 data, and DWI data that constitute the MRI image data acquired by the MRI image acquisition unit 161 into each pixel of three elements of the color image data. By assigning each value (for example, each pixel value of R, G, and B), one sheet of color MRI image data is generated.

造影MRI生成部163は、「造影MRI画像生成モデル」として図7のモデルM2を取得する。また、造影MRI生成部163は、「造影MRI画像生成モデル」に対する入力データとして、カラー画像生成部162により生成されたカラーMRI画像データを取得する。そして、造影MRI生成部163は、このカラーMRI画像データを「造影MRI画像生成モデル」に入力することで、造影MRI画像等価データを出力する。 The contrast-enhanced MRI generation unit 163 acquires the model M2 in FIG. 7 as a "contrast-enhanced MRI image generation model." Further, the contrast MRI generation unit 163 obtains the color MRI image data generated by the color image generation unit 162 as input data to the “contrast MRI image generation model”. Then, the contrast-enhanced MRI generation unit 163 outputs contrast-enhanced MRI image equivalent data by inputting this color MRI image data into the "contrast-enhanced MRI image generation model."

図8は、このような第2実施形態の造影MRI生成装置により生成された造影MRI画像等価データの評価結果を示している。
図8(A)は、第2実施形態の造影MRI生成装置2により生成された造影MRI画像等価データについてのMSE(Mean Squared Error)の結果を示している。MSEの値は0が理想であり、値が小さいほどよい。評価結果として得られたMSEの値は264と好適な値まで減少していることがわかる。
図8(B)は、第2実施形態の造影MRI生成装置2により生成された造影MRI画像等価データについてのPSNR(Peak Signal-to-Noise Ratio)を示している。PSNRの値は、30乃至50dBが標準であり、50乃至65dBが良好と言われている。評価結果として得られたPSNRの値は、55.1dBであり、良好であることがわかる。
FIG. 8 shows evaluation results of contrast-enhanced MRI image equivalent data generated by the contrast-enhanced MRI generating apparatus of the second embodiment.
FIG. 8(A) shows the result of MSE (Mean Squared Error) for the contrast-enhanced MRI image equivalent data generated by the contrast-enhanced MRI generating apparatus 2 of the second embodiment. Ideally, the value of MSE is 0, and the smaller the value, the better. It can be seen that the MSE value obtained as the evaluation result has decreased to 264, which is a suitable value.
FIG. 8(B) shows the PSNR (Peak Signal-to-Noise Ratio) of the contrast-enhanced MRI image equivalent data generated by the contrast-enhanced MRI generating apparatus 2 of the second embodiment. The standard PSNR value is 30 to 50 dB, and 50 to 65 dB is said to be good. It can be seen that the PSNR value obtained as the evaluation result is 55.1 dB, which is good.

図9は、第1実施形態の造影MRI生成装置により生成された造影MRI画像データの一例を示している。
図9(A)は、MRI画像データ(造影剤を使用しないでMRIが行われた結果として得られた画像データ)から得られたT1データIT1(図9(A)では「T1強調画像」と表示)である。
図9(B)は、学習用MRI画像データが第1実施形態のモデルM1(図5)に入力された場合における、造影MRI生成部63から得られた造影MRI画像等価データ(図9(B)では「生成画像」と表示)である。
図9(C)は、造影剤を使用してMRIが行われた際に実際に撮像された画像のデータ(図9(C)では「造影画像(早期相)」と表示)である。
図9(B)のモデルM2により得られた造影MRI画像等価データ(図9(B)では「生成画像」と表示)には、図9(C)の実際の画像のデータ(図9(C)では造影画像(早期相))と比較するに、実際の早期層のように乳癌の部分のみを強調する画像が第1実施形態の造影MRI生成装置2により得られたことがわかる。
FIG. 9 shows an example of contrast-enhanced MRI image data generated by the contrast-enhanced MRI generating apparatus of the first embodiment.
FIG. 9(A) shows T1 data IT1 (called "T1-weighted image" in FIG. 9(A)) obtained from MRI image data (image data obtained as a result of MRI performed without using a contrast agent). display).
FIG. 9B shows contrast-enhanced MRI image equivalent data (FIG. 9B ) is displayed as "generated image").
FIG. 9(C) is data of an image actually captured when MRI was performed using a contrast agent (indicated as "contrast image (early phase)" in FIG. 9(C)).
The contrast-enhanced MRI image equivalent data (displayed as "generated image" in FIG. 9(B)) obtained by model M2 in FIG. 9(B) includes the actual image data in FIG. When compared with the contrast-enhanced image (early phase) in ), it can be seen that the contrast-enhanced MRI generating apparatus 2 of the first embodiment has obtained an image that emphasizes only the breast cancer part like the actual early stage layer.

以上のような第1実施形態又は第2実施形態の情報処理システムを適用することで、次のような効果を奏することができる。
先ず、乳癌検診の対象者(被検者)側の効果としては、例えば次の第1乃至第4の効果が挙げられる。即ち、第1の効果は、造影剤によるアレルギーの回避が図れるという効果である。第2の効果は、ガドリニウム造影剤の脳沈着による副作用の回避が図れるという効果である。第3の効果は、経済的負担の軽減、時間的負担の軽減が図れるという効果である。第4の効果は、検査の簡略化による検査機会が増加するという効果である。
次に、医療機関側の効果としては、例えば次の第5乃至第9の効果が挙げられる。第5の効果は、アレルギーに対する緊急対応リスクの回避が図れるという効果である。第6の効果は、検査時間短縮による他被検者への機器リソースの再配分、検査回数の増加による増収が図られるという効果である。第7の効果は、PACSサーバに保存する画像データの軽量化が図られると共に、コスト軽減が図られるという効果である。
そして、現場へのインパクトという点での効果としては、例えば次の第8及び第9の効果が挙げられる。第8の効果は、新たな機器設備は不要であり導入が容易であるという効果である。第9の効果は、乳癌検診だけでなく、あらゆるMRI検査に応用可能であるという効果である。
By applying the information processing system of the first embodiment or the second embodiment as described above, the following effects can be achieved.
First, the effects on the subject (subject) of breast cancer screening include, for example, the following first to fourth effects. That is, the first effect is that allergy caused by the contrast medium can be avoided. The second effect is that side effects caused by gadolinium contrast agent deposition in the brain can be avoided. The third effect is that the economic burden and time burden can be reduced. The fourth effect is that inspection opportunities are increased due to the simplification of inspection.
Next, the effects on the medical institution side include, for example, the following fifth to ninth effects. The fifth effect is that the risk of emergency response to allergies can be avoided. The sixth effect is that equipment resources can be reallocated to other subjects by shortening the testing time, and revenue can be increased by increasing the number of tests. The seventh effect is that the weight of the image data stored in the PACS server can be reduced and the cost can be reduced.
Examples of effects in terms of impact on the field include the following eighth and ninth effects. The eighth effect is that new equipment is not required and introduction is easy. The ninth effect is that it can be applied not only to breast cancer screening but also to all MRI examinations.

以上本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での、変形、改良等は本発明に含まれるものである。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and modifications, improvements, etc. are included in the present invention as long as the purpose of the present invention can be achieved. It is.

例えば、上述の実施形態において、機械学習により得られるモデルは、乳癌に関する(造影剤を使用しないで得られた)MRI画像データから造影MRI画像等価データを生成するものであったが、特にこれに限定されない。
例えば、細胞の検査時において細胞を着色した画像のデータを用いることがあるが、細胞を着色しない画像のデータから細胞を着色したのと等価な画像のデータを生成するモデルを、機械学習により生成又は更新してもよい。
また例えば、破壊検査と非破壊検査とがあるような対象物が存在するが、非破壊検査により得られた画像のデータから破壊検査による得られるのと等価な画像のデータを生成するモデルを、機械学習により生成又は更新してもよい。
For example, in the embodiment described above, the model obtained by machine learning was to generate contrast-enhanced MRI image equivalent data from MRI image data (obtained without using a contrast agent) regarding breast cancer; Not limited.
For example, when inspecting cells, we sometimes use image data with colored cells, but we use machine learning to create a model that generates image data equivalent to colored cells from image data without colored cells. Or you may update it.
For example, there are objects that can be inspected both destructively and non-destructively, and a model that generates image data equivalent to that obtained by destructive inspection from image data obtained by non-destructive inspection. It may be generated or updated by machine learning.

また例えば、ショートカットにより高解像度が得られるモデルは、上述の実施形態では第2実施形態のモデルM2とされたが、モデルM1とすることも可能である。 Further, for example, the model that can obtain high resolution by shortcuts is the model M2 of the second embodiment in the above-described embodiment, but it can also be the model M1.

また例えば、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3及び図6の機能的構成は例示に過ぎず、特に限定されない。
即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3及び図6の例に限定されない。また、機能ブロックの存在場所も、図3及び図6に特に限定されず、任意でよい。
Further, for example, the series of processes described above can be executed by hardware or by software.
In other words, the functional configurations in FIGS. 3 and 6 are merely examples and are not particularly limited.
In other words, it is sufficient that the information processing system is equipped with a function that can execute the above-mentioned series of processes as a whole, and what kind of functional blocks are used to realize this function is particularly explained in the examples of FIGS. 3 and 6. Not limited. Furthermore, the locations of the functional blocks are not particularly limited to those shown in FIGS. 3 and 6, and may be arbitrary.

また例えば、一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
Further, for example, when a series of processes is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer built into dedicated hardware.
Further, the computer may be a computer that can execute various functions by installing various programs, such as a server, a general-purpose smartphone, or a personal computer.

また例えば、このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。 For example, a recording medium containing such a program may not only be a removable medium (not shown) distributed separately from the device itself to provide the program to the user, but also a recording medium that is pre-installed in the device body. It consists of recording media etc. provided to users.

なお、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。 Note that in this specification, the term "system" refers to an overall device composed of a plurality of devices, a plurality of means, and the like.

以上を換言すると、本発明が適用される情報処理システムは、次のような構成を有する各種各様の実施形態を取ることができる。
即ち、本発明が適用される情報処理システムは、
機械学習によりモデルを生成又は更新する第1情報処理装置(例えば図1の学習装置1)と、当該モデルを使用する情報処理を実行する第2情報処理装置(例えば図1の造影MRI生成装置2)とを含む情報処理システムであって、
前記第1情報処理装置は、
造影剤を使用しない対象物に対して実際にMRIが行われた結果得られる第1種画像データ(例えば学習用MRI画像データ)と、造影剤を使用した同一の前記対象物に対して実際にMRIが行われた結果得られる第2種画像データ(例えば学習用造影MRI画像データ)との組を学習データとして用いて、所定の機械学習を実行することで、前記第1種画像データが入力された場合に前記第2種画像データと等価な第3種画像データ(例えば造影MRI画像等価データ)を出力するモデルを生成又は更新するモデル生成更新手段(例えば図3のモデル生成更新部55や図6のモデル生成更新部55)
を備え、
前記第2情報処理装置は、
処理対象の前記第1種画像データを取得する取得手段(例えば図3のMRI画像取得部61や図6のMRI画像取得部161)と、
前記取得手段により取得された前記第1種画像データと、前記第1情報処理装置により生成された前記モデルとに基づいて、前記第3種画像データ(例えば造影MRI画像等価データ)を生成する生成手段と、
を備える。
これにより、造影剤を用いない単純MRIでも、造影剤を用いた場合と同様の所見が得られる技術の確立が容易に実現可能になる。
In other words, the information processing system to which the present invention is applied can take various embodiments having the following configurations.
That is, the information processing system to which the present invention is applied,
A first information processing device that generates or updates a model by machine learning (for example, the learning device 1 in FIG. 1), and a second information processing device that executes information processing using the model (for example, the contrast MRI generation device 2 in FIG. 1). ), the information processing system comprising:
The first information processing device includes:
Type 1 image data obtained as a result of actually performing MRI on an object that does not use a contrast agent (for example, MRI image data for learning), and type 1 image data obtained as a result of actually performing MRI on an object that does not use a contrast agent, and type 1 image data that is actually obtained on the same object that uses a contrast agent. By performing predetermined machine learning using a set with type 2 image data (for example, contrast-enhanced MRI image data for learning) obtained as a result of MRI as learning data, the type 1 image data is input. Model generation/update means (for example, model generation/update unit 55 in FIG. 3 or Model generation update unit 55 in FIG. 6)
Equipped with
The second information processing device includes:
an acquisition unit (for example, the MRI image acquisition unit 61 in FIG. 3 or the MRI image acquisition unit 161 in FIG. 6) that acquires the first type image data to be processed;
generating the third type image data (for example, contrast-enhanced MRI image equivalent data) based on the first type image data acquired by the acquisition means and the model generated by the first information processing device; means and
Equipped with.
As a result, it becomes possible to easily establish a technique that allows simple MRI without using a contrast agent to obtain findings similar to those obtained using a contrast agent.

1・・・学習装置、2・・・造影MRI生成装置、3・・・モデルDB、11・・・CPU、51・・・MRI画像取得部、52・・・造影MRI画像取得部、53・・・カラー画像生成部、54・・・学習データ生成部、55・・・モデル生成更新部、56・・・FBデータ取得部、61・・・MRI画像取得部、62・・・カラー画像生成部、63・・・造影MRI生成部、151・・・MRI画像取得部、153・・・カラー画像生成部、154・・・学習データ生成部、155・・・モデル生成更新部、156・・・FBデータ取得部、161・・・MRI画像取得部、162・・・カラー画像生成部、163・・・造影MRI生成部 DESCRIPTION OF SYMBOLS 1... Learning device, 2... Contrast MRI generation device, 3... Model DB, 11... CPU, 51... MRI image acquisition part, 52... Contrast MRI image acquisition part, 53. ...Color image generation unit, 54...Learning data generation unit, 55...Model generation update unit, 56...FB data acquisition unit, 61...MRI image acquisition unit, 62...Color image generation 63... Contrast MRI generation unit, 151... MRI image acquisition unit, 153... Color image generation unit, 154... Learning data generation unit, 155... Model generation update unit, 156...・FB data acquisition unit, 161... MRI image acquisition unit, 162... Color image generation unit, 163... Contrast MRI generation unit

Claims (1)

機械学習によりモデルを生成又は更新する第1情報処理装置と、当該モデルを使用する情報処理を実行する第2情報処理装置とを含む情報処理システムであって、
前記第1情報処理装置は、
造影剤を使用しない対象物に対して実際にMRIが行われた結果得られる、脂肪抑制T1強調画像のT1データ、脂肪抑制T2画像のT2データ、及び拡散強調画像DWIのDWIデータを含む第1種画像データを学習データとして用いて、Convolutional Autoencoderの手法にしたがった所定の機械学習を実行することで、前記第1種画像データが入力された場合に、造影剤を使用した同一の前記対象物に対して実際にMRIが行われた結果得られる第2種画像データと等価な第3種画像データであって、前記T1データに造影効果を伴った画像データである前記第3種画像データを出力するモデルであって、前記T1データを入力層から出力層まで繋ぐショートカットをつくることによって前記造影効果のみの前記機械学習の結果として得られたモデルを生成又は更新するモデル生成更新手段
を備え、
前記第2情報処理装置は、
処理対象の前記第1種画像データを取得する取得手段と、
前記取得手段により取得された前記第1種画像データと、前記第1情報処理装置により生成された前記モデルとに基づいて、前記第3種画像データを生成する生成手段と、
を備える情報処理システム。
An information processing system including a first information processing device that generates or updates a model by machine learning, and a second information processing device that executes information processing using the model,
The first information processing device includes:
A first image containing T1 data of a fat-suppressed T1-weighted image, T2 data of a fat-suppressed T2 image, and DWI data of a diffusion-weighted image DWI obtained as a result of actually performing MRI on an object that does not use a contrast agent. By executing a predetermined machine learning according to the Convolutional Autoencoder method using the seed image data as learning data, when the first type image data is input , the same object using a contrast agent is detected. The third type image data is equivalent to the second type image data obtained as a result of actually performing MRI on an object, and is image data with a contrast effect added to the T1 data. a model that outputs the T1 data, the model generating and updating means generating or updating a model obtained as a result of the machine learning of only the contrast effect by creating a shortcut to connect the T1 data from the input layer to the output layer. ,
The second information processing device includes:
acquisition means for acquiring the first type image data to be processed;
generation means for generating the third type image data based on the first type image data acquired by the acquisition means and the model generated by the first information processing device;
An information processing system equipped with.
JP2020029830A 2020-02-25 2020-02-25 information processing system Active JP7407618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020029830A JP7407618B2 (en) 2020-02-25 2020-02-25 information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020029830A JP7407618B2 (en) 2020-02-25 2020-02-25 information processing system

Publications (2)

Publication Number Publication Date
JP2021132769A JP2021132769A (en) 2021-09-13
JP7407618B2 true JP7407618B2 (en) 2024-01-04

Family

ID=77662032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020029830A Active JP7407618B2 (en) 2020-02-25 2020-02-25 information processing system

Country Status (1)

Country Link
JP (1) JP7407618B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007503629A (en) 2003-08-22 2007-02-22 セメイオン Neural network for processing a data array having existing phase information such as an image and method of using the network
US20190122348A1 (en) 2017-10-20 2019-04-25 Imaging Biometrics, Llc Simulated Post-Contrast T1-Weighted Magnetic Resonance Imaging
JP2019180637A (en) 2018-04-05 2019-10-24 株式会社日立製作所 Medical image diagnosis support apparatus, and magnetic resonance imaging apparatus
JP2019216848A (en) 2018-06-15 2019-12-26 キヤノン株式会社 Medical image processing apparatus, medical image processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007503629A (en) 2003-08-22 2007-02-22 セメイオン Neural network for processing a data array having existing phase information such as an image and method of using the network
US20190122348A1 (en) 2017-10-20 2019-04-25 Imaging Biometrics, Llc Simulated Post-Contrast T1-Weighted Magnetic Resonance Imaging
JP2019180637A (en) 2018-04-05 2019-10-24 株式会社日立製作所 Medical image diagnosis support apparatus, and magnetic resonance imaging apparatus
JP2019216848A (en) 2018-06-15 2019-12-26 キヤノン株式会社 Medical image processing apparatus, medical image processing method, and program

Also Published As

Publication number Publication date
JP2021132769A (en) 2021-09-13

Similar Documents

Publication Publication Date Title
Fahmy et al. Automated cardiac MR scar quantification in hypertrophic cardiomyopathy using deep convolutional neural networks
De Leener et al. SCT: Spinal Cord Toolbox, an open-source software for processing spinal cord MRI data
Biffi et al. Learning interpretable anatomical features through deep generative models: Application to cardiac remodeling
Rousseau et al. A non-local approach for image super-resolution using intermodality priors
Yu et al. Weighted graph regularized sparse brain network construction for MCI identification
US20190213779A1 (en) Apparatus and method for producing three-dimensional models from magnetic resonance imaging
McCormick et al. Deciding what is possible and impossible following hippocampal damage in humans
Lau et al. Scargan: chained generative adversarial networks to simulate pathological tissue on cardiovascular mr scans
JP7324195B2 (en) Optimizing Positron Emission Tomography System Design Using Deep Imaging
US11302440B2 (en) Accelerating human understanding of medical images by dynamic image alteration
Van Der Geest et al. Evaluation of a new method for automated detection of left ventricular boundaries in time series of magnetic resonance images using an active appearance motion model
Capaldi et al. Pulmonary ventilation maps generated with free-breathing proton MRI and a deep convolutional neural network
Ferreira et al. Automating in vivo cardiac diffusion tensor postprocessing with deep learning–based segmentation
US20230394652A1 (en) Sequential out of distribution detection for medical imaging
Jimeno et al. ArtifactID: Identifying artifacts in low-field MRI of the brain using deep learning
Lei et al. Artifact-and content-specific quality assessment for MRI with image rulers
Ghanbari et al. AI cardiac MRI scar analysis aids prediction of major arrhythmic events in the multicenter DERIVATE registry
Yang et al. Generative Adversarial Networks (GAN) Powered Fast Magnetic Resonance Imaging--Mini Review, Comparison and Perspectives
Bartoli et al. Deep learning–based automated segmentation of left ventricular trabeculations and myocardium on cardiac MR images: a feasibility study
Gonzales et al. MOCOnet: robust motion correction of cardiovascular magnetic resonance T1 mapping using convolutional neural networks
Ferreira et al. Accelerating Cardiac Diffusion Tensor Imaging With a U‐Net Based Model: Toward Single Breath‐Hold
El-Rewaidy et al. Characterization of interstitial diffuse fibrosis patterns using texture analysis of myocardial native T1 mapping
Papandrianos et al. Exploring classification of SPECT MPI images applying convolutional neural networks
Garcia et al. Aortic and mitral flow quantification using dynamic valve tracking and machine learning: Prospective study assessing static and dynamic plane repeatability, variability and agreement
Guo et al. Cine and late gadolinium enhancement MRI registration and automated myocardial infarct heterogeneity quantification

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231219

R150 Certificate of patent or registration of utility model

Ref document number: 7407618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150