JP7407618B2 - information processing system - Google Patents
information processing system Download PDFInfo
- Publication number
- JP7407618B2 JP7407618B2 JP2020029830A JP2020029830A JP7407618B2 JP 7407618 B2 JP7407618 B2 JP 7407618B2 JP 2020029830 A JP2020029830 A JP 2020029830A JP 2020029830 A JP2020029830 A JP 2020029830A JP 7407618 B2 JP7407618 B2 JP 7407618B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- contrast
- mri
- model
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 48
- 239000002872 contrast media Substances 0.000 claims description 32
- 238000010801 machine learning Methods 0.000 claims description 25
- 230000000694 effects Effects 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 13
- 238000002595 magnetic resonance imaging Methods 0.000 description 195
- 206010006187 Breast cancer Diseases 0.000 description 20
- 208000026310 Breast neoplasm Diseases 0.000 description 19
- 238000012216 screening Methods 0.000 description 15
- 238000012549 training Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 210000000481 breast Anatomy 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 206010020751 Hypersensitivity Diseases 0.000 description 3
- 230000007815 allergy Effects 0.000 description 3
- 229910052688 Gadolinium Inorganic materials 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000008021 deposition Effects 0.000 description 2
- 230000001066 destructive effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- UIWYJDYFSGRHKR-UHFFFAOYSA-N gadolinium atom Chemical group [Gd] UIWYJDYFSGRHKR-UHFFFAOYSA-N 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 108091007743 BRCA1/2 Proteins 0.000 description 1
- 206010064571 Gene mutation Diseases 0.000 description 1
- 208000026935 allergic disease Diseases 0.000 description 1
- 239000002246 antineoplastic agent Substances 0.000 description 1
- 229940041181 antineoplastic drug Drugs 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
Images
Landscapes
- Magnetic Resonance Imaging Apparatus (AREA)
Description
本発明は、情報処理システムに関する。 The present invention relates to an information processing system.
従来より、MRI(Magnetic Resonance Imaging)によるスクリーニングが行われている(例えば特許文献1参照)。
例えば、BRCA1/2遺伝子変異を持つ女性は、乳癌の発症リスクが高いと言われている。このため、乳癌のハイリスクグループに対して、乳癌検診として乳房のMRIによるスクリーニングが勧められている。この乳房のMRIでは、乳癌検診の対象者(被験者)に対して、造影剤が用いられている。
Conventionally, screening using MRI (Magnetic Resonance Imaging) has been performed (for example, see Patent Document 1).
For example, women with BRCA1/2 gene mutations are said to have a high risk of developing breast cancer. For this reason, breast MRI screening is recommended for breast cancer screening for high-risk groups of breast cancer. In this breast MRI, a contrast agent is used for a subject (subject) for breast cancer screening.
しかしながら、乳癌検診の対象者にとって、乳房のMRIが毎年行われる毎に造影剤が用いられることは、アレルギー、ガドリニウムの脳沈着、経済的負担、時間的負担等のデメリットが存在する。
このため、造影剤を用いない単純MRIでも同様の所見が得られるならば、乳癌検診の対象者はもとより医療機関への負担も軽減すると推定される。
即ち、造影剤を用いない単純MRIでも、造影剤を用いた場合と同様の所見が得られる技術の確立の要求がなされているが、このような要求に対して、特許文献1を含め従来の技術では応えられていない状況である。
However, for those undergoing breast cancer screening, using a contrast agent every year when breast MRI is performed has disadvantages such as allergies, brain deposition of gadolinium, financial burden, and time burden.
Therefore, if similar findings can be obtained by simple MRI without using a contrast agent, it is estimated that the burden on not only breast cancer screening candidates but also medical institutions will be reduced.
In other words, there is a demand for the establishment of a technology that can obtain findings similar to those obtained using a contrast medium even with simple MRI without using a contrast medium. This is a situation that cannot be met with technology.
本願発明はこのような状況に鑑みてなされたものであり、造影剤を用いない単純MRIでも、造影剤を用いた場合と同様の所見が得られる技術の確立を目的とする。 The present invention has been made in view of this situation, and aims to establish a technique that allows simple MRI without using a contrast agent to obtain findings similar to those obtained using a contrast agent.
上記目的を達成するため、本発明の一態様の情報処理システムは、
機械学習によりモデルを生成又は更新する第1情報処理装置と、当該モデルを使用する情報処理を実行する第2情報処理装置とを含む情報処理システムであって、
前記第1情報処理装置は、
造影剤を使用しない対象物に対して実際にMRIが行われた結果得られる第1種画像データと、造影剤を使用した同一の前記対象物に対して実際にMRIが行われた結果得られる第2種画像データとの組を学習データとして用いて、所定の機械学習を実行することで、前記第1種画像データが入力された場合に前記第2種画像データと等価な第3種画像データを出力するモデルを生成又は更新するモデル生成更新手段
を備え、
前記第2情報処理装置は、
処理対象の前記第1種画像データを取得する取得手段と、
前記取得手段により取得された前記第1種画像データと、前記第1情報処理装置により生成された前記モデルとに基づいて、前記第3種画像データを生成する生成手段と、
を備える。
To achieve the above object, an information processing system according to one embodiment of the present invention includes:
An information processing system including a first information processing device that generates or updates a model by machine learning, and a second information processing device that executes information processing using the model,
The first information processing device includes:
The second information processing device includes:
acquisition means for acquiring the first type image data to be processed;
generation means for generating the third type image data based on the first type image data acquired by the acquisition means and the model generated by the first information processing device;
Equipped with.
本発明によれば、造影剤を用いない単純MRIでも、造影剤を用いた場合と同様の所見を得ることが可能になる。 According to the present invention, it is possible to obtain findings similar to those obtained using a contrast agent even by simple MRI without using a contrast agent.
以下、本発明の実施形態について、図面を用いて説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の第1実施形態にかかる情報処理システムの構成の例を示す図である。
図1に示す情報処理システムは、学習装置1と、造影MRI生成装置2と、モデルDB3とを含むように構成される。
FIG. 1 is a diagram showing an example of the configuration of an information processing system according to a first embodiment of the present invention.
The information processing system shown in FIG. 1 is configured to include a
学習装置1は、乳癌検診にて行われる乳房のMRIの画像のデータついて機械学習を行う。
The
具体的には例えば、乳癌の患者に対して、造影剤を使用しないで実際に撮像されたMRIの画像のデータと、造影剤を使用して実際に撮像されたMRIの画像のデータとの組が、学習用データとして学習装置1に入力される。
なお以下、学習用データのうち、造影剤を使用しないで実際に撮像されたMRIの画像のデータを、「学習用MRI画像データ」と呼ぶ。また、学習用データのうち、造影剤を使用して実際に撮像されたMRIの画像のデータを、「学習用造影MRI画像データ」と呼ぶ。
Specifically, for example, a combination of MRI image data actually taken without using a contrast agent and MRI image data actually taken with a contrast agent for a breast cancer patient. is input to the
Hereinafter, among the learning data, data of MRI images actually captured without using a contrast agent will be referred to as "learning MRI image data." Further, among the learning data, data of an MRI image actually captured using a contrast agent is referred to as "contrast MRI image data for learning."
学習装置1は、多数の学習用データを用いて機械学習をすることで、次のようなモデルを生成することができる。
ここで、乳癌検診として造影剤が用いられずに乳房MRIによるスクリーニングが行われた者に対して撮像されたMRIの画像のデータを「MRI画像データ」と呼ぶ。このMRI画像データが入力されると、造影剤を使用して撮像されたMRIの画像と等価な画像のデータ(以下、「造影MRI画像等価データ」と呼ぶ)が出力されるモデルが、学習装置1により生成又は更新される。なお、以下、このようなモデルを、「造影MRI画像生成モデル」と呼ぶ。
学習装置1により生成された「造影MRI画像生成モデル」は、モデルDB3に格納される。
学習装置1の機能的構成や処理の詳細については、図3以降の図面を参照して後述する。
The
Here, data of an MRI image taken of a person who underwent breast MRI screening without using a contrast medium for breast cancer screening is referred to as "MRI image data." When this MRI image data is input, a model that outputs image data equivalent to an MRI image captured using a contrast agent (hereinafter referred to as "contrast MRI image equivalent data") is created in the learning device. 1 is generated or updated. Note that such a model will hereinafter be referred to as a "contrast MRI image generation model."
The "contrast MRI image generation model" generated by the
Details of the functional configuration and processing of the
造影MRI生成装置2は、「造影MRI画像生成モデル」をモデルDB3から取得する。造影MRI生成装置2は、MRI画像データを入力して、「造影MRI画像生成モデル」を用いて造影MRI画像等価データを生成する。造影MRI生成装置2は、この造影MRI画像等価データを出力データとして出力する。
造影MRI生成装置2の機能的構成や処理の詳細については、図3以降の図面を参照して後述する。
The contrast-enhanced
The functional configuration and processing details of the contrast
造影MRI生成装置2から出力データとして出力された造影MRI画像等価データは、造影MRI生成装置2に入力されたMRI画像データと共に、フィードバック用のデータ(以下、「FBデータ」と呼ぶ)として学習装置1に入力される。
学習装置1は、FBデータを用いて再学習をすることで、「造影MRI画像生成モデル」を更新して、モデルDB3に格納する。
The contrast-enhanced MRI image equivalent data output as output data from the contrast-enhanced
The
図2は、図1の情報処理システムのうち、本発明の情報処理装置の第1実施形態に係る学習装置のハードウェア構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of the hardware configuration of a learning device according to the first embodiment of the information processing device of the present invention in the information processing system of FIG.
学習装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。
The
CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The
The
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19、及びドライブ20が接続されている。
出力部16は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
入力部17は、キーボードやマウス等で構成され、ユーザの指示操作に応じて各種情報を入力する。
記憶部18は、ハードディスク等で構成され、各種情報のデータを記憶する。
The
The
The
The
通信部19は、ネットワークを介して他の対象(例えば図1のモデルDB3)との間で行う通信を制御する。
ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア30が適宜装着される。ドライブ20によってリムーバブルメディア30から読み出されたプログラムや画像データは、必要に応じて記憶部18にインストールされる。また、リムーバブルメディア30は、記憶部18に記憶されている各種データ(例えば画像データ等)も、記憶部18と同様に記憶することができる。
The
A
なお、図示はしないが、図1の情報処理システムの造影MRI生成装置2は、図2に示すハードウェア構成と基本的に同様の構成を有している。従って、造影MRI生成装置2のハードウェア構成の説明は省略する。
また、説明の便宜上、学習装置1は、造影MRI生成装置2とは別途設けるものとしたが、特にこれに限定されず、学習装置1と造影MRI生成装置2との各機能を1台の情報処理装置に集約してもよい。
Although not shown, the contrast
Further, for convenience of explanation, the
図3は、第1実施形態の図1の情報処理システム、即ち図2の学習装置及び造影MRI装置の機能的構成の一例を示す機能ブロック図である。 FIG. 3 is a functional block diagram showing an example of the functional configuration of the information processing system of FIG. 1 of the first embodiment, that is, the learning device and contrast MRI device of FIG. 2.
まず、第1実施形態の学習装置1の機能的構成について説明する。
第1実施形態の学習装置1においては、MRI画像取得部51と、造影MRI画像取得部52と、カラー画像生成部53と、学習データ生成部54と、モデル生成更新部55と、FBデータ取得部56とが機能する。
First, the functional configuration of the
In the
MRI画像取得部51は、乳癌患者についての学習用MRI画像データを取得する。
造影MRI画像取得部52は、同一乳癌患者についての学習用造影MRI画像データを取得する。
The MRI
The contrast-enhanced MRI
ここで一例として、原発性乳癌と診断された症例の造影MRI画像26819枚のうち、脂肪抑制T1強調画像のデータ(以下、「T1データ」と呼ぶ)、脂肪抑制T2画像のデータ(以下、「T2データ」と呼ぶ)、及び拡散強調画像DWIのデータ(以下、「DWIデータ」と呼ぶ)、並びに造影早期相画像(早期相)のデータの切断面が全て一致している3040枚の画像(760スライス分)が学習用データとして、学習装置1に対して入力されたものとする。ここで、切断面の一致とは、ずれ幅が1mm以下のことをいう。
即ち切断面が全て一致している、T1データ、T2データ、及びDWIデータ、並びに早期相のデータが、1組の学習用データとして用いられたものとする。この場合、1組の学習用データのうち、T1データ、T2データ、及びDWIデータが、学習用MRI画像データとしてMRI画像取得部51により取得される。一方、当該1組の学習用データのうち、早期相のデータが、学習用造影MRI画像データとして造影MRI画像取得部52に取得される。
なお以下、以上の3040枚の画像(760スライス分)を学習用データとして、「本例の学習用データ」と呼ぶ。
Here, as an example, out of 26,819 contrast-enhanced MRI images of a case diagnosed with primary breast cancer, data on fat-suppressed T1-weighted images (hereinafter referred to as "T1 data") and data on fat-suppressed T2 images (hereinafter referred to as " 3040 images (hereinafter referred to as "T2 data"), diffusion weighted image DWI data (hereinafter referred to as "DWI data"), and contrast-enhanced early phase image (early phase) data in which the cut planes all coincided. 760 slices) is input to the
That is, it is assumed that T1 data, T2 data, DWI data, and early phase data, all of which have matching cut planes, are used as a set of learning data. In this case, among the set of learning data, T1 data, T2 data, and DWI data are acquired by the MRI
Note that the above 3040 images (760 slices) are hereinafter referred to as "learning data of this example" as learning data.
なお、本実施形態では、乳癌の検出に適用されるため、造影早期相画像(早期相)のデータが用いられたが、手術前に抗癌剤が投与された後のMRI画像については、遅延相が用いられる。
即ち、本例では説明の便宜上早期相が用いられるものとするが、実際には、早期相に限定されず、造影画像のデータが用いられれば足りる。
In this embodiment, data of contrast-enhanced early phase images (early phase) was used since it is applied to the detection of breast cancer. However, for MRI images after anticancer drugs are administered before surgery, delayed phase data is used. used.
That is, in this example, the early phase is used for convenience of explanation, but in reality, it is not limited to the early phase, and it is sufficient to use contrast image data.
カラー画像生成部53については後述するが、学習データ生成部54は、本例の学習用データに基づいて、訓練データ(教師画像ありで学習する場合には教師データとの組)を学習データとして生成する。
本実施形態では後述するように、「造影MRI画像生成モデル」として、畳み込みニューラルネットワークが採用されている。従って、学習用MRI画像データ(T1データ、T2データ、及びDWIデータ)に基づいて後述するカラー画像生成部53により生成されるデータが訓練データとして、学習用造影MRI画像データ(早期相のデータ)が教師データとして、学習データ生成部54により夫々生成される。
The color
In this embodiment, as will be described later, a convolutional neural network is employed as the "contrast MRI image generation model." Therefore, the data generated by the color
モデル生成更新部55は、学習データ生成部54から出力された学習データを用いて機械学習を実行することで、「造影MRI画像生成モデル」を生成又は更新する。
The model generation/
ここで、「造影MRI画像生成モデル」は、何らかの学習データ(教師あり又は教師なしの何れも可能)を用いる任意の手法の機械学習により生成又は更新が可能であれば足りるが、本実施形態では図4に示すモデルMが採用されるものとする。 Here, it is sufficient that the "contrast MRI image generation model" can be generated or updated by any method of machine learning using some learning data (supervised or unsupervised); however, in this embodiment, It is assumed that model M shown in FIG. 4 is adopted.
図4は、図3の学習装置により生成又は更新される「造影MRI画像生成モデル」の一例を示している。
図4に示すモデルMは、人工知能のConvolutional Autoencoderの手法を用いて、T1データ、T2データ、及びDWIデータ(学習データ)から造影MRI画像等価データ(早期相のデータ)を推定するように学習された結果として、再生又は更新される「造影MRI画像生成モデル」の一例である。
このモデルMは、通常の畳み込みニューラルネットワークで画像データが圧縮された後に、当該画像データのサイズが元のサイズに戻されるものである。
モデル生成更新部55は、元画像データ(学習データ)が修正された画像データを、造影MRI画像等価データ(早期相のデータ)として出力するように、画像内の特徴を捉えた情報を抽出して、機械学習を実行する。
ここで、モデル生成更新部55による機械学習で用いられるアルゴリズムは、特に限定されないが、本実施形態では、代表的なアルゴリズムであるU-Netをベースとしたものが採用されるものとする。
また、モデル生成更新部55は、画像の類似度を評価する最小二乗法(MSE)を用いて、訓練データが早期相のデータに近づくように機械学習を実行する。
また、画像の劣化度合いを評価する手法として、本実施形態ではピーク信号対雑音比(PSNR)を計測する手法が採用されている(後述の図8参照)。
FIG. 4 shows an example of a "contrast MRI image generation model" generated or updated by the learning device of FIG. 3.
Model M shown in Fig. 4 uses the artificial intelligence Convolutional Autoencoder method to learn to estimate contrast-enhanced MRI image equivalent data (early phase data) from T1 data, T2 data, and DWI data (learning data). This is an example of a "contrast-enhanced MRI image generation model" that is reproduced or updated as a result.
In this model M, after image data is compressed using a normal convolutional neural network, the size of the image data is returned to the original size.
The model generation/updating
Here, the algorithm used in machine learning by the model generation/updating
Furthermore, the model generation/updating
Furthermore, as a method for evaluating the degree of image deterioration, this embodiment employs a method of measuring the peak signal-to-noise ratio (PSNR) (see FIG. 8, which will be described later).
このような図4に示すモデルMを「造影MRI画像生成モデル」として生成又は更新する機械学習に用いられる訓練データは、上述したように、T1データ、T2データ、及びDWIデータである。
ここで、T1データ、T2データ、及びDWIデータの夫々を別々の画像データとして、3枚の画像データを訓練データとして用いることもできる。
ここで、一般的なカラーの画像データは、1画素毎に3要素の画素値を有する構成、例えばRGB(赤、緑、青)の夫々の画素値を有する構成をとっている。
これに対して、MRI画像データ、即ち、T1データ、T2データ、及びDWIデータの夫々は、グレースケールの画像データ、即ち1画素毎に1要素の画素値(輝度値)を有する構成をとっている。
そこで、第1実施形態の学習装置1には、図3のカラー画像生成部53が設けられている。即ち、カラー画像生成部53は、学習用MRI画像データを構成する、T1データ、T2データ、及びDWIデータの各画素値の夫々を、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てることで、1枚の仮のカラー画像のデータを訓練データとして生成している。
つまり、第1実施形態では、R,G,Bの夫々に対してT1,T2,DWIの夫々が割り当てられた仮のカラーの画像データが訓練データとして、図3のモデルMを生成又は更新するための機械学習が実行されている。
As described above, training data used for machine learning to generate or update the model M shown in FIG. 4 as a "contrast MRI image generation model" is T1 data, T2 data, and DWI data.
Here, each of the T1 data, T2 data, and DWI data can be used as separate image data, and the three image data can be used as training data.
Here, general color image data has a configuration in which each pixel has pixel values of three elements, for example, a configuration in which each pixel has RGB (red, green, blue) pixel values.
On the other hand, each of the MRI image data, that is, T1 data, T2 data, and DWI data, is configured as grayscale image data, that is, each pixel has one element of pixel value (luminance value). There is.
Therefore, the
That is, in the first embodiment, the model M in FIG. 3 is generated or updated using temporary color image data in which T1, T2, and DWI are assigned to each of R, G, and B as training data. Machine learning is being performed.
図5は、第1実施形態の訓練データにより生成又は更新される図3のモデルの概要を示している。
なお、後述する第2実施形態でも図3のモデルMが「造影MRI画像生成モデル」として採用されているが、訓練データが第1実施形態と第2実施形態とでは異なる。
そこで、第1実施形態の訓練データ、即ちR,G,Bの夫々に対してT1,T2,DWIの夫々が割り当てられた仮のカラーの画像データが用いられて生成又は更新される図3のモデルMを、図5に示すように(後述する第2実施形態のものと区別すべく)「モデルM1」と呼ぶ。
つまり、図5に示すように、入力されたMRI画像データ、即ち、T1データIT1、T2データIT2、及びDWIデータIDWIの各画素値の夫々が、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てられることで、1枚の仮のカラー画像のデータが生成される。この仮のカラー画像のデータが入力されると、造影MRI画像等価データOutが出力されるモデルM1が、「造影MRI画像生成モデル」として第1実施形態では採用されている。
FIG. 5 shows an overview of the model of FIG. 3 that is generated or updated using the training data of the first embodiment.
Although the model M in FIG. 3 is employed as a "contrast MRI image generation model" in the second embodiment described later, the training data is different between the first embodiment and the second embodiment.
Therefore, the training data of the first embodiment, that is, the temporary color image data in which T1, T2, and DWI are assigned to each of R, G, and B, is used to generate or update the image shown in FIG. As shown in FIG. 5, the model M is called "model M1" (to distinguish it from that of the second embodiment described later).
That is, as shown in FIG. 5, each pixel value of input MRI image data, that is, T1 data IT1, T2 data IT2, and DWI data IDWI, is changed to each pixel value of three elements of color image data ( For example, each pixel value of R, G, and B is assigned to each pixel value, thereby generating data for one temporary color image. In the first embodiment, a model M1 that outputs contrast-enhanced MRI image equivalent data Out when data of this temporary color image is input is employed as a "contrast-enhanced MRI image generation model."
図3に戻り、FBデータ取得部56は、上述したFBデータを取得する。
モデル生成更新部55は、このFBデータを用いて機械学習(再学習)を実行することで、「造影MRI画像生成モデル」を更新することができる。
なお、この再学習の際には、FBデータを構成するMRI画像データ、即ち、T1データIT1、T2データIT2、DWIデータIDWIの各画素値の夫々が、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てられることで、1枚の仮のカラー画像のデータが生成される。
この仮のカラー画像のデータ、及び造影MRI画像データ(本例では早期相のデータ)の4枚の画像データを用いての学習、又は仮のカラー画像のデータ、及び造影MRI画像等価データの4枚の画像データを用いての再学習が実行される。
Returning to FIG. 3, the FB
The model generation/
Note that during this relearning, each pixel value of the MRI image data constituting the FB data, that is, T1 data IT1, T2 data IT2, and DWI data IDWI, is changed to each pixel value of the three elements of color image data. By assigning each value (for example, each pixel value of R, G, and B), data of one temporary color image is generated.
Learning using four image data of this provisional color image data and contrast-enhanced MRI image data (early phase data in this example), or provisional color image data and four contrast-enhanced MRI image equivalent data. Re-learning is performed using the image data of 2 images.
以上、第1実施形態の学習装置1の機能的構成について説明した。
次に、第1実施形態の造影MRI生成装置2の機能的構成について説明する。
The functional configuration of the
Next, the functional configuration of the contrast
第1実施形態の造影MRI生成装置2においては、MRI画像取得部61と、カラー画像生成部62と、造影MRI生成部63とが機能する。
In the contrast-enhanced
本実施形態では、乳癌検診として造影剤が用いられずに乳房MRIによるスクリーニングが行われた者についてのMRI画像データ(T1データ、T2データ、及びDWIデータ)が、造影MRI生成装置2に入力される。
MRI画像取得部61は、そのMRI画像データを取得する。
In this embodiment, MRI image data (T1 data, T2 data, and DWI data) of a person who underwent breast MRI screening without using a contrast agent for breast cancer screening is input to the contrast
The MRI
カラー画像生成部62は、MRI画像データを構成する、T1データ、T2データ、及びDWIデータの各画素値の夫々を、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てることで、1枚の仮のカラー画像のデータ(以下、「カラーMRI画像データ」と呼ぶ)を生成する。
つまり、第1実施形態では、R,G,Bの夫々に対してT1,T2,DWIの夫々が割り当てられた仮のカラーの画像データが、カラーMRI画像データである。このカラーMRI画像データが、造影MRI画像データの生成の元になるデータ、即ち、「造影MRI画像生成モデル」の入力データとして採用されている。
The color
That is, in the first embodiment, temporary color image data in which T1, T2, and DWI are assigned to each of R, G, and B is color MRI image data. This color MRI image data is used as the source data for generating contrast-enhanced MRI image data, that is, as input data for a "contrast-enhanced MRI image generation model."
造影MRI生成部63は、「造影MRI画像生成モデル」として図5のモデルM1を取得する。また、造影MRI生成部63は、「造影MRI画像生成モデル」に対する入力データとして、カラー画像生成部62により生成されたカラーMRI画像データを取得する。そして、造影MRI生成部63は、このカラーMRI画像データを「造影MRI画像生成モデル」に入力することで造影MRI画像等価データを生成して、出力する。
The contrast-enhanced
以上、図1乃至図5を参照して、本発明の第1実施形態にかかる情報処理システムについて説明した。
次に、図6以降の図面を参照して、本発明の第2実施形態にかかる情報処理システムについて説明する。
The information processing system according to the first embodiment of the present invention has been described above with reference to FIGS. 1 to 5.
Next, an information processing system according to a second embodiment of the present invention will be described with reference to the drawings from FIG. 6 onwards.
第2実施形態にかかる情報処理システムのハードウェア構成は、第1実施形態にかかるものと同様である。
即ち、第2実施形態にかかる情報処理システムは、図1と同様の構成を取ることができる。
また、第2実施形態の情報処理システムを構成する学習装置1及び造影MRI生成装置2の夫々は、図2と同様の構成を取ることができる。
ここで、第2実施形態でも第1実施形態と同様に説明の便宜上、学習装置1は、造影MRI生成装置2とは別途設けるものとしたが、特にこれに限定されず、学習装置1と造影MRI生成装置2との各機能を1台の情報処理装置に集約してもよい。
以上のことより、第2実施形態にかかる情報処理システムのハードウェア構成については、その説明は省略する。
The hardware configuration of the information processing system according to the second embodiment is the same as that according to the first embodiment.
That is, the information processing system according to the second embodiment can have a configuration similar to that in FIG. 1.
Further, each of the
Here, in the second embodiment, as in the first embodiment, for convenience of explanation, the
Based on the above, description of the hardware configuration of the information processing system according to the second embodiment will be omitted.
図6は、第2実施形態の図1の情報処理システム、即ち図2の学習装置及び造影MRI装置の機能的構成の一例を示す機能ブロック図である。 FIG. 6 is a functional block diagram showing an example of the functional configuration of the information processing system of FIG. 1 of the second embodiment, that is, the learning device and contrast MRI device of FIG. 2.
まず、第2実施形態の学習装置1の機能的構成について説明する。
第2実施形態の学習装置1においては、MRI画像取得部151と、カラー画像生成部153と、学習データ生成部154と、モデル生成更新部155と、FBデータ取得部156とが機能する。
First, the functional configuration of the
In the
第2実施形態における、MRI画像取得部151、カラー画像生成部153及び、学習データ生成部154乃至FBデータ取得部156の夫々は、第1実施形態における、MRI画像取得部51、カラー画像生成部53及び、学習データ生成部54乃至FBデータ取得部56の夫々と基本的に同様の機能と構成を有している。
即ち、学習装置1の機能的構成についての第1実施形態と第2実施形態との差は、第1実施形態では造影MRI画像取得部52が設けられていたのに対して、第2実施形態ではそのような機能ブロックが設けられていない点である。
換言すると、第1実施形態と第2実施形態との差は、「造影MRI画像生成モデル」の生成又は更新を行うための機械学習に用いられる学習データの形態が異なる点である。
即ち、第1実施形態の機械学習時においては、MRI画像データ、及び造影MRI画像データが学習データとして用いられた。
これに対して、第2実施形態の機械学習時においては、MRI画像データ、及び造影MRI等価画像データが学習データとして用いられる。
The MRI
That is, the difference between the first embodiment and the second embodiment regarding the functional configuration of the
In other words, the difference between the first embodiment and the second embodiment is that the format of learning data used for machine learning for generating or updating the "contrast MRI image generation model" is different.
That is, during machine learning in the first embodiment, MRI image data and contrast-enhanced MRI image data were used as learning data.
On the other hand, during machine learning in the second embodiment, MRI image data and contrast-enhanced MRI equivalent image data are used as learning data.
したがって、以下、第2実施形態の学習装置1の機能的構成の説明としては、第1実施形態との差異点、即ち訓練データの形態に関する点のみを説明し、それ以外は省略するものとする。
Therefore, in the following explanation of the functional configuration of the
図7は、第2実施形態の訓練データにより生成又は更新される図5のモデルの概要を示している。
なお、第2実施形態の訓練データにより生成又は更新される図5のモデルMを、図7に示すように(上述した第1実施形態のものと区別すべく)「モデルM2」と呼ぶ。
第2実施形態では、カラー画像生成部153は、MRI画像取得部151により取得されたMRI画像データ(T1データIT1、T2データIT2、及びDWIデータIDWI)の各画素値の夫々を、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てることで、1枚のカラーMRI画像データを生成する。
モデル生成更新部155は、カラーMRI画像データと、当該カラーMRI画像データから得られる造影MRI画像等価データOutを用いて機械学習を実行する。これにより、乳癌検診として造影剤が用いられずに乳房MRIによるスクリーニングが行われた者についてのMRI画像データが与えられた場合において、当該MRI画像データが入力されるとそのうちT1データIT1、T2データIT2、及びDWIデータIDWIが利用され、造影MRI画像等価データOutが出力される。その結果として、モデルM2が、「造影MRI画像生成モデル」として生成又は更新される。
FIG. 7 shows an overview of the model of FIG. 5 that is generated or updated using the training data of the second embodiment.
Note that the model M in FIG. 5 that is generated or updated using the training data of the second embodiment is referred to as a "model M2" as shown in FIG. 7 (to distinguish it from that of the first embodiment described above).
In the second embodiment, the color
The model generation/updating
以下、「造影MRI画像生成モデル」としての第2実施形態のモデルM2について、第1実施形態のモデルM1(図5)との比較という観点で、さらに説明する。
第2実施形態のモデルM2の出力データとしての造影MRI画像等価データは、第1実施形態のモデルM1の出力データとしての造影MRI画像等価データと比較すると、高解像度のデータである。
これは、次の理由による。即ち、早期相のデータは、T1データIT1に造影効果を伴った画像データである。このことを考慮して、T1データIT1を入力層から出力層まで繋ぐショートカットをつくることによって得られた「造影MRI画像生成モデル」が、第2実施形態のモデルM2である。このようなショートカットにより高解像度が得られることになる。
即ち、モデル生成更新部155は、画像データそのものではなく、差分である造影効果のみを学習するような機械学習を実行することで、第2実施形態のモデルM2を生成又は更新する。
Hereinafter, the model M2 of the second embodiment as a "contrast MRI image generation model" will be further explained from the perspective of comparison with the model M1 of the first embodiment (FIG. 5).
The contrast-enhanced MRI image equivalent data as the output data of the model M2 of the second embodiment is higher resolution data when compared with the contrast-enhanced MRI image equivalent data as the output data of the model M1 of the first embodiment.
This is due to the following reason. That is, the early phase data is image data with a contrast effect added to the T1 data IT1. Taking this into consideration, the "contrast MRI image generation model" obtained by creating a shortcut to connect the T1 data IT1 from the input layer to the output layer is the model M2 of the second embodiment. Such shortcuts will result in higher resolution.
That is, the model generation/
以上、第2実施形態の学習装置1の機能的構成について説明した。
次に、第2実施形態の造影MRI生成装置2の機能的構成について説明する。
The functional configuration of the
Next, the functional configuration of the contrast
第2実施形態の造影MRI生成装置2においては、図6に示すように、MRI画像取得部161と、カラー画像生成部162と、造影MRI生成部163とが機能する。
In the contrast-enhanced
第2実施形態では、第1実施形態と同様に、乳癌検診として造影剤が用いられずに乳房MRIによるスクリーニングが行われた者についてのMRI画像データ(T1データ、T2データ、及びDWIデータ)が、造影MRI生成装置2に入力される。
MRI画像取得部161は、そのMRI画像データを取得する。
In the second embodiment, similarly to the first embodiment, MRI image data (T1 data, T2 data, and DWI data) of breast cancer screening performed by breast MRI without using a contrast agent is , is input to the contrast
The MRI
カラー画像生成部162は、MRI画像取得部161により取得されたMRI画像データを構成する、T1データ、T2データ、及びDWIデータの各画素値の夫々を、カラーの画像データの3要素の各画素値(例えばR,G,Bの各画素値)の夫々に割り当てることで、1枚のカラーMRI画像データを生成する。
The color
造影MRI生成部163は、「造影MRI画像生成モデル」として図7のモデルM2を取得する。また、造影MRI生成部163は、「造影MRI画像生成モデル」に対する入力データとして、カラー画像生成部162により生成されたカラーMRI画像データを取得する。そして、造影MRI生成部163は、このカラーMRI画像データを「造影MRI画像生成モデル」に入力することで、造影MRI画像等価データを出力する。
The contrast-enhanced
図8は、このような第2実施形態の造影MRI生成装置により生成された造影MRI画像等価データの評価結果を示している。
図8(A)は、第2実施形態の造影MRI生成装置2により生成された造影MRI画像等価データについてのMSE(Mean Squared Error)の結果を示している。MSEの値は0が理想であり、値が小さいほどよい。評価結果として得られたMSEの値は264と好適な値まで減少していることがわかる。
図8(B)は、第2実施形態の造影MRI生成装置2により生成された造影MRI画像等価データについてのPSNR(Peak Signal-to-Noise Ratio)を示している。PSNRの値は、30乃至50dBが標準であり、50乃至65dBが良好と言われている。評価結果として得られたPSNRの値は、55.1dBであり、良好であることがわかる。
FIG. 8 shows evaluation results of contrast-enhanced MRI image equivalent data generated by the contrast-enhanced MRI generating apparatus of the second embodiment.
FIG. 8(A) shows the result of MSE (Mean Squared Error) for the contrast-enhanced MRI image equivalent data generated by the contrast-enhanced
FIG. 8(B) shows the PSNR (Peak Signal-to-Noise Ratio) of the contrast-enhanced MRI image equivalent data generated by the contrast-enhanced
図9は、第1実施形態の造影MRI生成装置により生成された造影MRI画像データの一例を示している。
図9(A)は、MRI画像データ(造影剤を使用しないでMRIが行われた結果として得られた画像データ)から得られたT1データIT1(図9(A)では「T1強調画像」と表示)である。
図9(B)は、学習用MRI画像データが第1実施形態のモデルM1(図5)に入力された場合における、造影MRI生成部63から得られた造影MRI画像等価データ(図9(B)では「生成画像」と表示)である。
図9(C)は、造影剤を使用してMRIが行われた際に実際に撮像された画像のデータ(図9(C)では「造影画像(早期相)」と表示)である。
図9(B)のモデルM2により得られた造影MRI画像等価データ(図9(B)では「生成画像」と表示)には、図9(C)の実際の画像のデータ(図9(C)では造影画像(早期相))と比較するに、実際の早期層のように乳癌の部分のみを強調する画像が第1実施形態の造影MRI生成装置2により得られたことがわかる。
FIG. 9 shows an example of contrast-enhanced MRI image data generated by the contrast-enhanced MRI generating apparatus of the first embodiment.
FIG. 9(A) shows T1 data IT1 (called "T1-weighted image" in FIG. 9(A)) obtained from MRI image data (image data obtained as a result of MRI performed without using a contrast agent). display).
FIG. 9B shows contrast-enhanced MRI image equivalent data (FIG. 9B ) is displayed as "generated image").
FIG. 9(C) is data of an image actually captured when MRI was performed using a contrast agent (indicated as "contrast image (early phase)" in FIG. 9(C)).
The contrast-enhanced MRI image equivalent data (displayed as "generated image" in FIG. 9(B)) obtained by model M2 in FIG. 9(B) includes the actual image data in FIG. When compared with the contrast-enhanced image (early phase) in ), it can be seen that the contrast-enhanced
以上のような第1実施形態又は第2実施形態の情報処理システムを適用することで、次のような効果を奏することができる。
先ず、乳癌検診の対象者(被検者)側の効果としては、例えば次の第1乃至第4の効果が挙げられる。即ち、第1の効果は、造影剤によるアレルギーの回避が図れるという効果である。第2の効果は、ガドリニウム造影剤の脳沈着による副作用の回避が図れるという効果である。第3の効果は、経済的負担の軽減、時間的負担の軽減が図れるという効果である。第4の効果は、検査の簡略化による検査機会が増加するという効果である。
次に、医療機関側の効果としては、例えば次の第5乃至第9の効果が挙げられる。第5の効果は、アレルギーに対する緊急対応リスクの回避が図れるという効果である。第6の効果は、検査時間短縮による他被検者への機器リソースの再配分、検査回数の増加による増収が図られるという効果である。第7の効果は、PACSサーバに保存する画像データの軽量化が図られると共に、コスト軽減が図られるという効果である。
そして、現場へのインパクトという点での効果としては、例えば次の第8及び第9の効果が挙げられる。第8の効果は、新たな機器設備は不要であり導入が容易であるという効果である。第9の効果は、乳癌検診だけでなく、あらゆるMRI検査に応用可能であるという効果である。
By applying the information processing system of the first embodiment or the second embodiment as described above, the following effects can be achieved.
First, the effects on the subject (subject) of breast cancer screening include, for example, the following first to fourth effects. That is, the first effect is that allergy caused by the contrast medium can be avoided. The second effect is that side effects caused by gadolinium contrast agent deposition in the brain can be avoided. The third effect is that the economic burden and time burden can be reduced. The fourth effect is that inspection opportunities are increased due to the simplification of inspection.
Next, the effects on the medical institution side include, for example, the following fifth to ninth effects. The fifth effect is that the risk of emergency response to allergies can be avoided. The sixth effect is that equipment resources can be reallocated to other subjects by shortening the testing time, and revenue can be increased by increasing the number of tests. The seventh effect is that the weight of the image data stored in the PACS server can be reduced and the cost can be reduced.
Examples of effects in terms of impact on the field include the following eighth and ninth effects. The eighth effect is that new equipment is not required and introduction is easy. The ninth effect is that it can be applied not only to breast cancer screening but also to all MRI examinations.
以上本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での、変形、改良等は本発明に含まれるものである。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and modifications, improvements, etc. are included in the present invention as long as the purpose of the present invention can be achieved. It is.
例えば、上述の実施形態において、機械学習により得られるモデルは、乳癌に関する(造影剤を使用しないで得られた)MRI画像データから造影MRI画像等価データを生成するものであったが、特にこれに限定されない。
例えば、細胞の検査時において細胞を着色した画像のデータを用いることがあるが、細胞を着色しない画像のデータから細胞を着色したのと等価な画像のデータを生成するモデルを、機械学習により生成又は更新してもよい。
また例えば、破壊検査と非破壊検査とがあるような対象物が存在するが、非破壊検査により得られた画像のデータから破壊検査による得られるのと等価な画像のデータを生成するモデルを、機械学習により生成又は更新してもよい。
For example, in the embodiment described above, the model obtained by machine learning was to generate contrast-enhanced MRI image equivalent data from MRI image data (obtained without using a contrast agent) regarding breast cancer; Not limited.
For example, when inspecting cells, we sometimes use image data with colored cells, but we use machine learning to create a model that generates image data equivalent to colored cells from image data without colored cells. Or you may update it.
For example, there are objects that can be inspected both destructively and non-destructively, and a model that generates image data equivalent to that obtained by destructive inspection from image data obtained by non-destructive inspection. It may be generated or updated by machine learning.
また例えば、ショートカットにより高解像度が得られるモデルは、上述の実施形態では第2実施形態のモデルM2とされたが、モデルM1とすることも可能である。 Further, for example, the model that can obtain high resolution by shortcuts is the model M2 of the second embodiment in the above-described embodiment, but it can also be the model M1.
また例えば、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3及び図6の機能的構成は例示に過ぎず、特に限定されない。
即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3及び図6の例に限定されない。また、機能ブロックの存在場所も、図3及び図6に特に限定されず、任意でよい。
Further, for example, the series of processes described above can be executed by hardware or by software.
In other words, the functional configurations in FIGS. 3 and 6 are merely examples and are not particularly limited.
In other words, it is sufficient that the information processing system is equipped with a function that can execute the above-mentioned series of processes as a whole, and what kind of functional blocks are used to realize this function is particularly explained in the examples of FIGS. 3 and 6. Not limited. Furthermore, the locations of the functional blocks are not particularly limited to those shown in FIGS. 3 and 6, and may be arbitrary.
また例えば、一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
Further, for example, when a series of processes is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer built into dedicated hardware.
Further, the computer may be a computer that can execute various functions by installing various programs, such as a server, a general-purpose smartphone, or a personal computer.
また例えば、このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。 For example, a recording medium containing such a program may not only be a removable medium (not shown) distributed separately from the device itself to provide the program to the user, but also a recording medium that is pre-installed in the device body. It consists of recording media etc. provided to users.
なお、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。 Note that in this specification, the term "system" refers to an overall device composed of a plurality of devices, a plurality of means, and the like.
以上を換言すると、本発明が適用される情報処理システムは、次のような構成を有する各種各様の実施形態を取ることができる。
即ち、本発明が適用される情報処理システムは、
機械学習によりモデルを生成又は更新する第1情報処理装置(例えば図1の学習装置1)と、当該モデルを使用する情報処理を実行する第2情報処理装置(例えば図1の造影MRI生成装置2)とを含む情報処理システムであって、
前記第1情報処理装置は、
造影剤を使用しない対象物に対して実際にMRIが行われた結果得られる第1種画像データ(例えば学習用MRI画像データ)と、造影剤を使用した同一の前記対象物に対して実際にMRIが行われた結果得られる第2種画像データ(例えば学習用造影MRI画像データ)との組を学習データとして用いて、所定の機械学習を実行することで、前記第1種画像データが入力された場合に前記第2種画像データと等価な第3種画像データ(例えば造影MRI画像等価データ)を出力するモデルを生成又は更新するモデル生成更新手段(例えば図3のモデル生成更新部55や図6のモデル生成更新部55)
を備え、
前記第2情報処理装置は、
処理対象の前記第1種画像データを取得する取得手段(例えば図3のMRI画像取得部61や図6のMRI画像取得部161)と、
前記取得手段により取得された前記第1種画像データと、前記第1情報処理装置により生成された前記モデルとに基づいて、前記第3種画像データ(例えば造影MRI画像等価データ)を生成する生成手段と、
を備える。
これにより、造影剤を用いない単純MRIでも、造影剤を用いた場合と同様の所見が得られる技術の確立が容易に実現可能になる。
In other words, the information processing system to which the present invention is applied can take various embodiments having the following configurations.
That is, the information processing system to which the present invention is applied,
A first information processing device that generates or updates a model by machine learning (for example, the
The first information processing device includes:
Equipped with
The second information processing device includes:
an acquisition unit (for example, the MRI
generating the third type image data (for example, contrast-enhanced MRI image equivalent data) based on the first type image data acquired by the acquisition means and the model generated by the first information processing device; means and
Equipped with.
As a result, it becomes possible to easily establish a technique that allows simple MRI without using a contrast agent to obtain findings similar to those obtained using a contrast agent.
1・・・学習装置、2・・・造影MRI生成装置、3・・・モデルDB、11・・・CPU、51・・・MRI画像取得部、52・・・造影MRI画像取得部、53・・・カラー画像生成部、54・・・学習データ生成部、55・・・モデル生成更新部、56・・・FBデータ取得部、61・・・MRI画像取得部、62・・・カラー画像生成部、63・・・造影MRI生成部、151・・・MRI画像取得部、153・・・カラー画像生成部、154・・・学習データ生成部、155・・・モデル生成更新部、156・・・FBデータ取得部、161・・・MRI画像取得部、162・・・カラー画像生成部、163・・・造影MRI生成部
DESCRIPTION OF
Claims (1)
前記第1情報処理装置は、
造影剤を使用しない対象物に対して実際にMRIが行われた結果得られる、脂肪抑制T1強調画像のT1データ、脂肪抑制T2画像のT2データ、及び拡散強調画像DWIのDWIデータを含む第1種画像データを学習データとして用いて、Convolutional Autoencoderの手法にしたがった所定の機械学習を実行することで、前記第1種画像データが入力された場合に、造影剤を使用した同一の前記対象物に対して実際にMRIが行われた結果得られる第2種画像データと等価な第3種画像データであって、前記T1データに造影効果を伴った画像データである前記第3種画像データを出力するモデルであって、前記T1データを入力層から出力層まで繋ぐショートカットをつくることによって前記造影効果のみの前記機械学習の結果として得られたモデルを生成又は更新するモデル生成更新手段
を備え、
前記第2情報処理装置は、
処理対象の前記第1種画像データを取得する取得手段と、
前記取得手段により取得された前記第1種画像データと、前記第1情報処理装置により生成された前記モデルとに基づいて、前記第3種画像データを生成する生成手段と、
を備える情報処理システム。 An information processing system including a first information processing device that generates or updates a model by machine learning, and a second information processing device that executes information processing using the model,
The first information processing device includes:
A first image containing T1 data of a fat-suppressed T1-weighted image, T2 data of a fat-suppressed T2 image, and DWI data of a diffusion-weighted image DWI obtained as a result of actually performing MRI on an object that does not use a contrast agent. By executing a predetermined machine learning according to the Convolutional Autoencoder method using the seed image data as learning data, when the first type image data is input , the same object using a contrast agent is detected. The third type image data is equivalent to the second type image data obtained as a result of actually performing MRI on an object, and is image data with a contrast effect added to the T1 data. a model that outputs the T1 data, the model generating and updating means generating or updating a model obtained as a result of the machine learning of only the contrast effect by creating a shortcut to connect the T1 data from the input layer to the output layer. ,
The second information processing device includes:
acquisition means for acquiring the first type image data to be processed;
generation means for generating the third type image data based on the first type image data acquired by the acquisition means and the model generated by the first information processing device;
An information processing system equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020029830A JP7407618B2 (en) | 2020-02-25 | 2020-02-25 | information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020029830A JP7407618B2 (en) | 2020-02-25 | 2020-02-25 | information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021132769A JP2021132769A (en) | 2021-09-13 |
JP7407618B2 true JP7407618B2 (en) | 2024-01-04 |
Family
ID=77662032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020029830A Active JP7407618B2 (en) | 2020-02-25 | 2020-02-25 | information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7407618B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007503629A (en) | 2003-08-22 | 2007-02-22 | セメイオン | Neural network for processing a data array having existing phase information such as an image and method of using the network |
US20190122348A1 (en) | 2017-10-20 | 2019-04-25 | Imaging Biometrics, Llc | Simulated Post-Contrast T1-Weighted Magnetic Resonance Imaging |
JP2019180637A (en) | 2018-04-05 | 2019-10-24 | 株式会社日立製作所 | Medical image diagnosis support apparatus, and magnetic resonance imaging apparatus |
JP2019216848A (en) | 2018-06-15 | 2019-12-26 | キヤノン株式会社 | Medical image processing apparatus, medical image processing method, and program |
-
2020
- 2020-02-25 JP JP2020029830A patent/JP7407618B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007503629A (en) | 2003-08-22 | 2007-02-22 | セメイオン | Neural network for processing a data array having existing phase information such as an image and method of using the network |
US20190122348A1 (en) | 2017-10-20 | 2019-04-25 | Imaging Biometrics, Llc | Simulated Post-Contrast T1-Weighted Magnetic Resonance Imaging |
JP2019180637A (en) | 2018-04-05 | 2019-10-24 | 株式会社日立製作所 | Medical image diagnosis support apparatus, and magnetic resonance imaging apparatus |
JP2019216848A (en) | 2018-06-15 | 2019-12-26 | キヤノン株式会社 | Medical image processing apparatus, medical image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021132769A (en) | 2021-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fahmy et al. | Automated cardiac MR scar quantification in hypertrophic cardiomyopathy using deep convolutional neural networks | |
De Leener et al. | SCT: Spinal Cord Toolbox, an open-source software for processing spinal cord MRI data | |
KR102698916B1 (en) | Systems, methods and computer-accessible media for ultrasound analysis | |
Yu et al. | Weighted graph regularized sparse brain network construction for MCI identification | |
Rousseau et al. | A non-local approach for image super-resolution using intermodality priors | |
JP7324195B2 (en) | Optimizing Positron Emission Tomography System Design Using Deep Imaging | |
McCormick et al. | Deciding what is possible and impossible following hippocampal damage in humans | |
Lau et al. | Scargan: chained generative adversarial networks to simulate pathological tissue on cardiovascular mr scans | |
Van Der Geest et al. | Evaluation of a new method for automated detection of left ventricular boundaries in time series of magnetic resonance images using an active appearance motion model | |
Ferreira et al. | Automating in vivo cardiac diffusion tensor postprocessing with deep learning–based segmentation | |
Ghanbari et al. | AI cardiac MRI scar analysis aids prediction of major arrhythmic events in the multicenter DERIVATE registry | |
Capaldi et al. | Pulmonary ventilation maps generated with free-breathing proton MRI and a deep convolutional neural network | |
Jimeno et al. | ArtifactID: Identifying artifacts in low-field MRI of the brain using deep learning | |
WO2022078922A1 (en) | Sequential out of distribution detection for medical imaging | |
Gonzales et al. | MOCOnet: robust motion correction of cardiovascular magnetic resonance T1 mapping using convolutional neural networks | |
Yang et al. | Generative Adversarial Networks (GAN) Powered Fast Magnetic Resonance Imaging--Mini Review, Comparison and Perspectives | |
Lella et al. | Ensembling complex network ‘perspectives’ for mild cognitive impairment detection with artificial neural networks | |
Guo et al. | Cine and late gadolinium enhancement MRI registration and automated myocardial infarct heterogeneity quantification | |
Penso et al. | Cardiovascular magnetic resonance images with susceptibility artifacts: artificial intelligence with spatial-attention for ventricular volumes and mass assessment | |
Ferreira et al. | Accelerating Cardiac Diffusion Tensor Imaging With a U‐Net Based Model: Toward Single Breath‐Hold | |
Wang et al. | Colorizing Grayscale CT images of human lungs using deep learning methods | |
El-Rewaidy et al. | Characterization of interstitial diffuse fibrosis patterns using texture analysis of myocardial native T1 mapping | |
Papandrianos et al. | Exploring classification of SPECT MPI images applying convolutional neural networks | |
KR20240027714A (en) | Method and program to evaluate accompanying clinical dementia grade and its future outcomes using predicted age differences | |
Wang et al. | Deep learning for discrimination of hypertrophic cardiomyopathy and hypertensive heart disease on MRI native T1 maps |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20230209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7407618 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |