JP2020006163A - Medical information processing device, method and program - Google Patents

Medical information processing device, method and program Download PDF

Info

Publication number
JP2020006163A
JP2020006163A JP2019116625A JP2019116625A JP2020006163A JP 2020006163 A JP2020006163 A JP 2020006163A JP 2019116625 A JP2019116625 A JP 2019116625A JP 2019116625 A JP2019116625 A JP 2019116625A JP 2020006163 A JP2020006163 A JP 2020006163A
Authority
JP
Japan
Prior art keywords
data
medical
collection
information processing
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019116625A
Other languages
Japanese (ja)
Other versions
JP7355532B2 (en
Inventor
竹島 秀則
Hidenori Takeshima
秀則 竹島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to US16/452,818 priority Critical patent/US11493585B2/en
Publication of JP2020006163A publication Critical patent/JP2020006163A/en
Priority to US17/955,076 priority patent/US20230021786A1/en
Application granted granted Critical
Publication of JP7355532B2 publication Critical patent/JP7355532B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

To provide a medical information processing device that can segment a flood map readily and accurately, and to provide a method and a program.SOLUTION: A medical information processing device 50 includes: a first acquisition unit for acquiring medical information on a subject; a second acquisition unit for acquiring numerical data which are digitized conditions for collecting medical data; and a generation unit that applies a machine learning model to input data including the numerical data and medical data to generate output data on the basis of the medical data.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、医用情報処理装置、方法及びプログラムに関する。   Embodiments of the present invention relate to a medical information processing apparatus, method, and program.

医用画像データやその生データ等の医用データを用いた機械学習において、一部が欠損した医用データから元データを復元するために、多くの学習データから学習した深層ニューラルネットワーク(DNN:Deep Neural Network)を適用する手法がある。例えば、磁気共鳴イメージング(MRI:Magnetic Resonance Imaging)において、カーテシアン収集によりアンダーサンプリングされたk空間データにDNNを適用して欠損部分が復元されたk空間データを生成し、復元後のk空間データに基づいて再構成画像を得る手法がある。また、アンダーサンプリングされたk空間データにDNNを適用して直接復元画像を得る方法がある。   In machine learning using medical data such as medical image data and its raw data, a deep neural network (DNN: Deep Neural Network) learned from a large amount of learning data in order to restore original data from medical data with a part lost ). For example, in magnetic resonance imaging (MRI), DNN is applied to k-space data undersampled by Cartesian acquisition to generate k-space data in which a defective portion is restored, and k-space data after restoration is generated. There is a method of obtaining a reconstructed image based on the image. There is also a method of directly obtaining a restored image by applying DNN to the undersampled k-space data.

米国特許出願公開第2015/0276953号明細書U.S. Patent Application Publication No. 2015/0276953 米国特許第9672617号明細書U.S. Pat.No.9672617 米国特許第9668699号明細書U.S. Patent No. 9686699

本発明が解決しようとする課題は、フラッドマップの区分けを簡便且つ正確に行うことである。   The problem to be solved by the present invention is to easily and accurately classify a flood map.

実施形態に係る医用情報処理装置は、被検体に関する医用データを取得する第1取得部と、前記医用データの収集条件を数値化した数値データを取得する第2取得部と、前記数値データと前記医用データとを含む入力データに機械学習モデルを適用して、前記医用データに基づく出力データを生成する生成部と、を具備する。   The medical information processing apparatus according to the embodiment includes: a first acquisition unit that acquires medical data regarding a subject; a second acquisition unit that acquires numerical data obtained by digitizing the medical data collection conditions; A generating unit that applies a machine learning model to input data including medical data and generates output data based on the medical data.

図1は、本実施形態に係る医用情報処理装置を実装する磁気共鳴イメージング装置の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of a magnetic resonance imaging apparatus that mounts the medical information processing apparatus according to the present embodiment. 図2は、図1の処理回路によるMR撮像の典型的な流れを示す図である。FIG. 2 is a diagram showing a typical flow of MR imaging by the processing circuit of FIG. 図3は、図2のステップS2及びS3におけるマスクデータの生成処理を模式的に示す図である。FIG. 3 is a diagram schematically showing the mask data generation processing in steps S2 and S3 in FIG. 図4は、本実施形態に係る第1のDNN再構成の流れを模式的に示す図である。FIG. 4 is a diagram schematically illustrating a flow of the first DNN reconfiguration according to the present embodiment. 図5は、本実施形態に係る第2のDNN再構成の流れを模式的に示す図である。FIG. 5 is a diagram schematically illustrating a flow of the second DNN reconfiguration according to the present embodiment. 図6は、本実施形態に係る第3のDNN再構成の流れを模式的に示す図である。FIG. 6 is a diagram schematically illustrating the flow of the third DNN reconfiguration according to the present embodiment. 図7は、本実施形態に係るモデル学習装置の構成を示す図である。FIG. 7 is a diagram illustrating a configuration of the model learning device according to the present embodiment. 図8は、図7の学習サンプル生成機能による処理を模式的に示す図である。FIG. 8 is a diagram schematically showing processing by the learning sample generation function of FIG. 図9は、本実施形態に係る医用情報処理装置の他の構成を示す図である。FIG. 9 is a diagram illustrating another configuration of the medical information processing apparatus according to the present embodiment. 図10は、本実施形態に係る数値データを模式的に示す図である。FIG. 10 is a diagram schematically illustrating numerical data according to the present embodiment. 図11は、図10の数値データの機械学習モデルへの入力を模式的に示す図である。FIG. 11 is a diagram schematically showing the input of the numerical data of FIG. 10 to the machine learning model. 図12は、他の数値データの機械学習モデルへの入力を模式的に示す図である。FIG. 12 is a diagram schematically illustrating input of other numerical data to the machine learning model. 図13は、他の数値データの機械学習モデルへの入力を模式的に示す図である。FIG. 13 is a diagram schematically showing input of other numerical data to the machine learning model. 図14は、他の数値データを模式的に示す図である。FIG. 14 is a diagram schematically showing other numerical data. 図15は、本実施形態に係る機械学習モデルのネットワーク構造を模式的に示す図である。FIG. 15 is a diagram schematically illustrating a network structure of the machine learning model according to the present embodiment. 図16は、本実施形態に係る他の機械学習モデルのネットワーク構造を模式的に示す図である。FIG. 16 is a diagram schematically illustrating a network structure of another machine learning model according to the present embodiment. 図17は、複数のCNNを有する機械学習モデルの入出力を模式的に示す図である。FIG. 17 is a diagram schematically illustrating input and output of a machine learning model having a plurality of CNNs.

以下、図面を参照しながら本実施形態に係る医用情報処理装置、方法及びプログラムを説明する。   Hereinafter, the medical information processing apparatus, method, and program according to the present embodiment will be described with reference to the drawings.

本実施形態に係る医用情報処理装置は、医用情報を処理する処理回路を実装する装置である。本実施形態に係る医用情報処理装置は、例えば、医用画像診断装置に搭載されたコンピュータにより実現される。本実施形態に係る医用画像診断装置としては、磁気共鳴イメージング装置(MRI装置)、X線コンピュータ断層撮影装置(CT装置)、X線診断装置、PET(Positron Emission Tomography)装置、SPECT装置(Single Photon Emission CT)装置及び超音波診断装置等の単一モダリティ装置であっても良いし、PET/CT装置、SPECT/CT装置、PET/MRI装置、SPECT/MRI装置等の複合モダリティ装置であっても良い。他の例として、本実施形態に係る医用情報処理装置は、医用画像診断装置にケーブルやネットワーク等を介して通信可能に接続されたコンピュータであっても良いし、当該医用画像診断装置とは独立のコンピュータであっても良い。以下、本実施形態に係る医用情報処理装置は、磁気共鳴イメージング装置に実装されるものとする。   The medical information processing apparatus according to the present embodiment is an apparatus that mounts a processing circuit that processes medical information. The medical information processing apparatus according to the present embodiment is realized by, for example, a computer mounted on a medical image diagnostic apparatus. The medical image diagnostic apparatus according to the present embodiment includes a magnetic resonance imaging apparatus (MRI apparatus), an X-ray computed tomography apparatus (CT apparatus), an X-ray diagnostic apparatus, a PET (Positron Emission Tomography) apparatus, and a SPECT apparatus (Single Photon). Emission CT) and a single modality device such as an ultrasonic diagnostic device, or a composite modality device such as a PET / CT device, a SPECT / CT device, a PET / MRI device, and a SPECT / MRI device. good. As another example, the medical information processing apparatus according to the present embodiment may be a computer communicably connected to the medical image diagnostic apparatus via a cable, a network, or the like, or may be independent of the medical image diagnostic apparatus. Computer may be used. Hereinafter, the medical information processing apparatus according to the present embodiment is mounted on a magnetic resonance imaging apparatus.

図1は、本実施形態に係る医用情報処理装置50を実装する磁気共鳴イメージング装置1の構成を示す図である。図1に示すように、磁気共鳴イメージング装置1は、架台11、寝台13、傾斜磁場電源21、送信回路23、受信回路25、寝台駆動装置27、シーケンス制御回路29及び医用情報処理装置50を有する。   FIG. 1 is a diagram illustrating a configuration of a magnetic resonance imaging apparatus 1 on which a medical information processing apparatus 50 according to the present embodiment is mounted. As shown in FIG. 1, the magnetic resonance imaging apparatus 1 includes a gantry 11, a bed 13, a gradient magnetic field power supply 21, a transmission circuit 23, a reception circuit 25, a bed driving apparatus 27, a sequence control circuit 29, and a medical information processing apparatus 50. .

架台11は、静磁場磁石41と傾斜磁場コイル43とを有する。静磁場磁石41と傾斜磁場コイル43とは架台11の筐体に収容されている。架台11の筐体には中空形状を有するボアが形成されている。架台11のボア内には送信コイル45と受信コイル47とが配置される。   The gantry 11 has a static magnetic field magnet 41 and a gradient magnetic field coil 43. The static magnetic field magnet 41 and the gradient magnetic field coil 43 are housed in a housing of the gantry 11. The housing of the gantry 11 has a hollow bore. A transmission coil 45 and a reception coil 47 are arranged in the bore of the gantry 11.

静磁場磁石41は、中空の略円筒形状を有し、略円筒内部に静磁場を発生する。静磁場磁石41としては、例えば、永久磁石、超伝導磁石または常伝導磁石等が使用される。ここで、静磁場磁石41の中心軸をZ軸に規定し、Z軸に対して鉛直に直交する軸をY軸に規定し、Z軸に水平に直交する軸をX軸に規定する。X軸、Y軸及びZ軸は、直交3次元座標系を構成する。   The static magnetic field magnet 41 has a hollow, substantially cylindrical shape, and generates a static magnetic field inside the substantially cylindrical portion. As the static magnetic field magnet 41, for example, a permanent magnet, a superconducting magnet, a normal conducting magnet, or the like is used. Here, the center axis of the static magnetic field magnet 41 is defined as the Z axis, an axis perpendicular to the Z axis is defined as the Y axis, and an axis horizontally orthogonal to the Z axis is defined as the X axis. The X axis, the Y axis, and the Z axis constitute an orthogonal three-dimensional coordinate system.

傾斜磁場コイル43は、静磁場磁石41の内側に取り付けられ、中空の略円筒形状に形成されたコイルユニットである。傾斜磁場コイル43は、傾斜磁場電源21からの電流の供給を受けて傾斜磁場を発生する。より詳細には、傾斜磁場コイル43は、互いに直交するX軸、Y軸、Z軸に対応する3つのコイルを有する。当該3つのコイルは、X軸、Y軸、Z軸の各軸に沿って磁場強度が変化する傾斜磁場を形成する。X軸、Y軸、Z軸の各軸に沿う傾斜磁場は合成されて互いに直交するスライス選択傾斜磁場Gs、位相エンコード傾斜磁場Gp及び周波数エンコード傾斜磁場Grが所望の方向に形成される。スライス選択傾斜磁場Gsは、任意に撮像断面を決めるために利用される。位相エンコード傾斜磁場Gpは、空間的位置に応じてMR信号の位相を変化させるために利用される。周波数エンコード傾斜磁場Grは、空間的位置に応じてMR信号の周波数を変化させるために利用される。なお、以下の説明においてスライス選択傾斜磁場Gsの傾斜方向はZ軸、位相エンコード傾斜磁場Gpの傾斜方向はY軸、周波数エンコード傾斜磁場Grの傾斜方向はX軸であるとする。   The gradient magnetic field coil 43 is a coil unit attached to the inside of the static magnetic field magnet 41 and formed in a hollow substantially cylindrical shape. The gradient magnetic field coil 43 receives a current supplied from the gradient magnetic field power supply 21 and generates a gradient magnetic field. More specifically, the gradient magnetic field coil 43 has three coils corresponding to the X axis, the Y axis, and the Z axis that are orthogonal to each other. The three coils form a gradient magnetic field in which the magnetic field strength changes along each of the X, Y, and Z axes. The gradient magnetic fields along the X-axis, the Y-axis, and the Z-axis are combined to form a slice selection gradient magnetic field Gs, a phase encoding gradient magnetic field Gp, and a frequency encoding gradient magnetic field Gr, which are orthogonal to each other, in desired directions. The slice selection gradient magnetic field Gs is used to arbitrarily determine an imaging section. The phase encoding gradient magnetic field Gp is used to change the phase of the MR signal according to the spatial position. The frequency encoding gradient magnetic field Gr is used to change the frequency of the MR signal according to the spatial position. In the following description, it is assumed that the gradient direction of the slice selection gradient magnetic field Gs is the Z axis, the gradient direction of the phase encoding gradient magnetic field Gp is the Y axis, and the gradient direction of the frequency encoding gradient magnetic field Gr is the X axis.

傾斜磁場電源21は、シーケンス制御回路29からのシーケンス制御信号に従い傾斜磁場コイル43に電流を供給する。傾斜磁場電源21は、傾斜磁場コイル43に電流を供給することにより、X軸、Y軸及びZ軸の各軸に沿う傾斜磁場を傾斜磁場コイル43により発生させる。当該傾斜磁場は、静磁場磁石41により形成された静磁場に重畳されて被検体Pに印加される。   The gradient power supply 21 supplies a current to the gradient coil 43 according to a sequence control signal from the sequence control circuit 29. The gradient magnetic field power supply 21 supplies a current to the gradient magnetic field coil 43 to cause the gradient magnetic field coil 43 to generate a gradient magnetic field along each of the X-axis, the Y-axis, and the Z-axis. The gradient magnetic field is superimposed on the static magnetic field formed by the static magnetic field magnet 41 and applied to the subject P.

送信コイル45は、例えば、傾斜磁場コイル43の内側に配置され、送信回路23から電流の供給を受けて高周波磁場パルス(以下、RF磁場パルスと呼ぶ)を発生する。   The transmission coil 45 is arranged, for example, inside the gradient magnetic field coil 43, and receives a current from the transmission circuit 23 to generate a high-frequency magnetic field pulse (hereinafter, referred to as an RF magnetic field pulse).

送信回路23は、被検体P内に存在する対象プロトンを励起するためのRF磁場パルスを送信コイル45を介して被検体Pに印加するために、送信コイル45に電流を供給する。RF磁場パルスは、対象プロトンに固有の共鳴周波数で振動し、対象プロトンを励起させる。励起された対象プロトンから磁気共鳴信号(以下、MR信号と呼ぶ)が発生され、受信コイル47により検出される。送信コイル45は、例えば、全身用コイル(WBコイル)である。全身用コイルは、送受信コイルとして使用されても良い。   The transmission circuit 23 supplies a current to the transmission coil 45 in order to apply an RF magnetic field pulse for exciting target protons present in the object P to the object P via the transmission coil 45. The RF magnetic field pulse oscillates at a resonance frequency specific to the target proton and excites the target proton. A magnetic resonance signal (hereinafter, referred to as an MR signal) is generated from the excited target protons and detected by the receiving coil 47. The transmission coil 45 is, for example, a whole-body coil (WB coil). The whole-body coil may be used as a transmitting / receiving coil.

受信コイル47は、RF磁場パルスの作用を受けて被検体P内に存在する対象プロトンから発せられるMR信号を受信する。受信コイル47は、MR信号を受信可能な複数の受信コイルエレメントを有する。受信されたMR信号は、有線又は無線を介して受信回路25に供給される。図1に図示しないが、受信コイル47は、並列的に実装された複数の受信チャネルを有している。受信チャネルは、MR信号を受信する受信コイルエレメント及びMR信号を増幅する増幅器等を有している。MR信号は、受信チャネル毎に出力される。受信チャネルの総数と受信コイルエレメントの総数とは同一であっても良いし、受信チャネルの総数が受信コイルエレメントの総数に比して多くても良いし、少なくても良い。   The receiving coil 47 receives an MR signal emitted from a target proton existing in the subject P under the action of the RF magnetic field pulse. The receiving coil 47 has a plurality of receiving coil elements that can receive the MR signal. The received MR signal is supplied to the receiving circuit 25 via a wire or wirelessly. Although not shown in FIG. 1, the receiving coil 47 has a plurality of receiving channels mounted in parallel. The receiving channel has a receiving coil element for receiving the MR signal, an amplifier for amplifying the MR signal, and the like. The MR signal is output for each reception channel. The total number of receiving channels and the total number of receiving coil elements may be the same, or the total number of receiving channels may be larger or smaller than the total number of receiving coil elements.

受信回路25は、励起された対象プロトンから発生されるMR信号を受信コイル47を介して受信する。受信回路25は、受信されたMR信号を信号処理してデジタルのMR信号を発生する。デジタルのMR信号は、空間周波数により規定されるk空間にて表現することができる。よって、以下、デジタルのMR信号をk空間データと呼ぶことにする。k空間データは、画像再構成に供される生データの一種である。k空間データは、有線又は無線を介して医用情報処理装置50に供給される。   The receiving circuit 25 receives the MR signal generated from the excited target proton via the receiving coil 47. The receiving circuit 25 processes the received MR signal to generate a digital MR signal. Digital MR signals can be represented in k-space defined by the spatial frequency. Therefore, the digital MR signal is hereinafter referred to as k-space data. The k-space data is a type of raw data used for image reconstruction. The k-space data is supplied to the medical information processing device 50 via a wire or wirelessly.

なお、上記の送信コイル45と受信コイル47とは一例に過ぎない。送信コイル45と受信コイル47との代わりに、送信機能と受信機能とを備えた送受信コイルが用いられても良い。また、送信コイル45、受信コイル47及び送受信コイルが組み合わされても良い。   Note that the transmission coil 45 and the reception coil 47 are merely examples. Instead of the transmission coil 45 and the reception coil 47, a transmission / reception coil having a transmission function and a reception function may be used. Further, the transmission coil 45, the reception coil 47, and the transmission / reception coil may be combined.

架台11に隣接して寝台13が設置される。寝台13は、天板131と基台133とを有する。天板131には被検体Pが載置される。基台133は、天板131をX軸、Y軸、Z軸各々に沿ってスライド可能に支持する。基台133には寝台駆動装置27が収容される。寝台駆動装置27は、シーケンス制御回路29からの制御を受けて天板131を移動する。寝台駆動装置27は、例えば、サーボモータやステッピングモータ等の如何なるモータ等を含んでも良い。   A bed 13 is installed adjacent to the gantry 11. The bed 13 has a top plate 131 and a base 133. The subject P is placed on the top 131. The base 133 supports the top plate 131 so as to be slidable along each of the X axis, the Y axis, and the Z axis. The bed 133 accommodates the bed driving device 27. The couch driving device 27 moves the table 131 under the control of the sequence control circuit 29. The couch driving device 27 may include, for example, any motor such as a servo motor and a stepping motor.

シーケンス制御回路29は、ハードウェア資源として、CPU(Central Processing Unit)あるいはMPU(Micro Processing Unit)のプロセッサとROM(Read Only Memory)やRAM(Random Access Memory)等のメモリとを有する。シーケンス制御回路29は、処理回路51の撮像プロトコル設定機能511により決定された撮像プロトコルに基づいて傾斜磁場電源21、送信回路23及び受信回路25を同期的に制御し、当該撮像プロトコルに応じたパルスシーケンスを実行して被検体PをMR撮像し、被検体Pに関するk空間データを収集する。   The sequence control circuit 29 has, as hardware resources, a processor of a CPU (Central Processing Unit) or MPU (Micro Processing Unit) and a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The sequence control circuit 29 synchronously controls the gradient magnetic field power supply 21, the transmission circuit 23, and the reception circuit 25 based on the imaging protocol determined by the imaging protocol setting function 511 of the processing circuit 51, and outputs a pulse corresponding to the imaging protocol. By executing the sequence, the subject P is subjected to MR imaging, and k-space data relating to the subject P is collected.

図1に示すように、医用情報処理装置50は、処理回路51、メモリ52、ディスプレイ53、入力インタフェース54及び通信インタフェース55を有するコンピュータ装置である。   As shown in FIG. 1, the medical information processing apparatus 50 is a computer device having a processing circuit 51, a memory 52, a display 53, an input interface 54, and a communication interface 55.

処理回路51は、ハードウェア資源として、CPUやGPU(Graphics Processing Unit)、MPU等のプロセッサとROMやRAM等のメモリとを有する。処理回路51は、磁気共鳴イメージング装置1の中枢として機能する。例えば、処理回路51は、各種プログラムの実行により撮像プロトコル設定機能511、マスクデータ取得機能512、生データ取得機能513、画像生成機能514、画像処理機能515、表示制御機能516を有する。   The processing circuit 51 has, as hardware resources, a processor such as a CPU, a GPU (Graphics Processing Unit), and an MPU, and a memory such as a ROM and a RAM. The processing circuit 51 functions as a center of the magnetic resonance imaging apparatus 1. For example, the processing circuit 51 has an imaging protocol setting function 511, a mask data acquisition function 512, a raw data acquisition function 513, an image generation function 514, an image processing function 515, and a display control function 516 by executing various programs.

撮像プロトコル設定機能511において処理回路51は、対象のMR撮像に関する撮像プロトコルを、入力インタフェース54を介したユーザ指示又は自動的に設定する。撮像プロトコルは、一のMR撮像に関する各種の撮像パラメータの集合である。本実施形態に係る撮像パラメータとして、撮像時間やk空間充填方式の種類、パルスシーケンスの種類、TR、TE等のMR撮像を行うために直接又は間接に設定される種々の撮像パラメータが適用可能である。   In the imaging protocol setting function 511, the processing circuit 51 sets an imaging protocol relating to MR imaging of a target by a user instruction via the input interface 54 or automatically. The imaging protocol is a set of various imaging parameters related to one MR imaging. As the imaging parameters according to the present embodiment, various imaging parameters set directly or indirectly for performing MR imaging such as imaging time, type of k-space filling method, type of pulse sequence, TR, and TE can be applied. is there.

マスクデータ取得機能512において処理回路51は、対象のMR撮像に関するマスクデータを取得する。マスクデータは、要素数が有限の複数のデータ収集軌跡の候補に対して対象撮像における収集回数及び/又は収集方向に応じた数値が割り当てられたデータである。データ収集軌跡は、k空間上における生データの収集軌跡を意味し、k空間充填方式の種類に関係する。例えば、k空間充填方式がラディアル法である場合、データ収集軌跡は、k空間の中心を通る一般のライン(スポーク)である。k空間充填方式がスパイラル法あるいは可変密度スパイラル法である場合、データ収集軌跡は、k空間の中心から外周へ向かう渦巻き型の曲線である。マスクデータの取得は、処理回路51によるマスクデータの生成、複数のマスクデータの中から任意の一のマスクデータの選択、他装置からのマスクデータの受信、転送又は伝送等の処理を含むものとする。   In the mask data acquisition function 512, the processing circuit 51 acquires mask data relating to MR imaging of the target. The mask data is data in which a plurality of data collection trajectory candidates having a finite number of elements are assigned numerical values according to the number of times of acquisition and / or the direction of acquisition in target imaging. The data collection trajectory refers to a raw data collection trajectory on the k-space, and is related to the type of the k-space filling method. For example, when the k-space filling method is the radial method, the data collection trajectory is a general line (spoke) passing through the center of the k-space. When the k-space filling method is the spiral method or the variable density spiral method, the data collection trajectory is a spiral curve from the center of k-space toward the outer periphery. Acquisition of mask data includes processes such as generation of mask data by the processing circuit 51, selection of any one of a plurality of mask data, reception, transfer or transmission of mask data from another device.

生データ取得機能513は、k空間データを取得する。k空間データの取得は、処理回路51の制御のもとに行われるMR撮像によるk空間データの収集、複数のk空間データの中から任意の一のk空間データの選択、他装置からのk空間データの受信、転送又は伝送等の処理を含むものとする。   The raw data acquisition function 513 acquires k-space data. Acquisition of k-space data includes acquisition of k-space data by MR imaging performed under the control of the processing circuit 51, selection of any one of the k-space data from a plurality of k-space data, and acquisition of k-space data from another device. It shall include processing such as reception, transfer or transmission of spatial data.

画像生成機能514において処理回路51は、マスクデータ取得機能512により取得されたマスクデータと生データ取得機能513により取得されたk空間データとに、機械学習モデル521を利用した再構成処理を施して、被検体Pに関するMR画像を生成する。機械学習モデル521は、メモリ52に記憶されている。機械学習モデル521は、複数の調整可能な関数及びパラメータ(重み付け行列又はバイアス)の組合せにより定義されるパラメータ付き合成関数である。機械学習モデル521は、入力層、中間層及び出力層を有する多層のネットワークモデル(DNN:Deep Neural Network)により実現される。以下、機械学習モデル521を利用した再構成処理をDNN再構成と呼ぶことにする。   In the image generation function 514, the processing circuit 51 performs a reconstruction process using the machine learning model 521 on the mask data obtained by the mask data obtaining function 512 and the k-space data obtained by the raw data obtaining function 513. , An MR image of the subject P is generated. The machine learning model 521 is stored in the memory 52. The machine learning model 521 is a composite function with parameters defined by a combination of a plurality of adjustable functions and parameters (weighting matrix or bias). The machine learning model 521 is realized by a multilayer network model (DNN: Deep Neural Network) having an input layer, an intermediate layer, and an output layer. Hereinafter, the reconstruction process using the machine learning model 521 will be referred to as DNN reconstruction.

画像処理機能515において処理回路51は、MR画像に種々の画像処理を施す。例えば、処理回路51は、ボリュームレンダリングや、サーフェスレンダリング、画素値投影処理、MPR(Multi-Planer Reconstruction)処理、CPR(Curved MPR)処理等の画像処理を施す。   In the image processing function 515, the processing circuit 51 performs various image processing on the MR image. For example, the processing circuit 51 performs image processing such as volume rendering, surface rendering, pixel value projection processing, MPR (Multi-Planer Reconstruction) processing, and CPR (Curved MPR) processing.

表示制御機能516において処理回路51は、種々の情報をディスプレイ53に表示する。例えば、処理回路51は、画像生成機能514により生成されたMR画像、画像処理機能515により生成されたMR画像、撮像プロトコルの設定画面等をディスプレイ53に表示する。   In the display control function 516, the processing circuit 51 displays various information on the display 53. For example, the processing circuit 51 displays on the display 53 an MR image generated by the image generation function 514, an MR image generated by the image processing function 515, an imaging protocol setting screen, and the like.

メモリ52は、種々の情報を記憶するHDD(Hard Disk Drive)やSSD(Solid State Drive)、集積回路記憶装置等の記憶装置である。また、メモリ52は、CD−ROMドライブやDVDドライブ、フラッシュメモリ等の可搬性記憶媒体との間で種々の情報を読み書きする駆動装置等であっても良い。例えば、メモリ52は、k空間データや制御プログラム、機械学習モデル521等を記憶する。   The memory 52 is a storage device such as a hard disk drive (HDD), a solid state drive (SSD), or an integrated circuit storage device for storing various information. Further, the memory 52 may be a drive device that reads and writes various information from and to a portable storage medium such as a CD-ROM drive, a DVD drive, and a flash memory. For example, the memory 52 stores k-space data, a control program, a machine learning model 521, and the like.

ディスプレイ53は、種々の情報を表示する。例えば、ディスプレイ53は、画像生成機能514により生成されたMR画像、画像処理機能515により生成されたMR画像、撮像プロトコルの設定画面等を表示する。ディスプレイ53としては、例えば、CRTディスプレイや液晶ディスプレイ、有機ELディスプレイ、LEDディスプレイ、プラズマディスプレイ、又は当技術分野で知られている他の任意のディスプレイが適宜利用可能である。   The display 53 displays various information. For example, the display 53 displays an MR image generated by the image generation function 514, an MR image generated by the image processing function 515, an imaging protocol setting screen, and the like. As the display 53, for example, a CRT display, a liquid crystal display, an organic EL display, an LED display, a plasma display, or any other display known in the art can be appropriately used.

入力インタフェース54は、ユーザからの各種指令を受け付ける入力機器を含む。入力機器としては、キーボードやマウス、各種スイッチ、タッチスクリーン、タッチパッド等が利用可能である。なお、入力機器は、マウス、キーボードなどの物理的な操作部品を備えるものだけに限らない。例えば、磁気共鳴イメージング装置1とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、受け取った電気信号を種々の回路へ出力するような電気信号の処理回路も入力インタフェース54の例に含まれる。   The input interface 54 includes an input device that receives various commands from a user. As an input device, a keyboard, a mouse, various switches, a touch screen, a touch pad, and the like can be used. Note that the input device is not limited to one provided with physical operation components such as a mouse and a keyboard. For example, an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the magnetic resonance imaging apparatus 1 and outputs the received electric signal to various circuits is also input. It is included in the example of the interface 54.

通信インタフェース55は、LAN(Local Area Network)等を介して磁気共鳴イメージング装置1と、ワークステーションやPACS(Picture Archiving and Communication System)、HIS(Hospital Information System)、RIS(Radiology Information System)等とを接続するインタフェースである。ネットワークIFは、各種情報を接続先のワークステーション、PACS、HIS及びRISとの間で送受信する。   The communication interface 55 connects the magnetic resonance imaging apparatus 1 with a workstation, a picture archiving and communication system (PACS), a hospital information system (HIS), a radiology information system (RIS), and the like via a LAN (local area network) or the like. Interface to connect. The network IF transmits and receives various information to and from a connected workstation, PACS, HIS, and RIS.

なお、上記の構成は一例であって、これに限定されない。例えば、シーケンス制御回路29は、医用情報処理装置50に組み込まれても良い。また、シーケンス制御回路29と処理回路51とが同一の基板に実装されても良い。シーケンス制御回路29、傾斜磁場電源21、送信回路23及び受信回路25は、医用情報処理装置50とは異なる単一の制御装置に実装されても良いし、複数の装置に分散して実装されても良い。   Note that the above configuration is an example, and the present invention is not limited to this. For example, the sequence control circuit 29 may be incorporated in the medical information processing device 50. Further, the sequence control circuit 29 and the processing circuit 51 may be mounted on the same board. The sequence control circuit 29, the gradient power supply 21, the transmission circuit 23, and the reception circuit 25 may be mounted on a single control device different from the medical information processing device 50, or may be mounted separately on a plurality of devices. Is also good.

以下、本実施形態に係る磁気共鳴イメージング装置1及び医用情報処理装置50の動作例を説明する。   Hereinafter, an operation example of the magnetic resonance imaging apparatus 1 and the medical information processing apparatus 50 according to the present embodiment will be described.

図2は、処理回路51によるMR撮像の典型的な流れを示す図である。図2に示す処理は、対象となるMR撮像の撮像プロトコルの設定から開始される。   FIG. 2 is a diagram showing a typical flow of MR imaging by the processing circuit 51. The process illustrated in FIG. 2 is started from setting of an imaging protocol of a target MR imaging.

図2に示すように、処理回路51は、撮像プロトコル設定機能511を実行する(ステップS1)。ステップS1において処理回路51は、被検体Pに関する撮像プロトコルを設定する。撮像プロトコルに含まれる撮像パラメータとして、撮像時間やk空間充填方式の種類、パルスシーケンスの種類、TR、TE等が設定される。本実施形態においてk空間充填方式の種類は、ラディアル法、スパイラル法、カーテシアン法等の如何なる方式であっても良い。但し、以下の説明を具体的に行うため、k空間充填方式はラディアル法であるとする。   As shown in FIG. 2, the processing circuit 51 executes an imaging protocol setting function 511 (step S1). In step S1, the processing circuit 51 sets an imaging protocol for the subject P. As an imaging parameter included in the imaging protocol, an imaging time, a type of a k-space filling method, a type of a pulse sequence, TR, TE, and the like are set. In this embodiment, the type of the k-space filling method may be any method such as a radial method, a spiral method, and a Cartesian method. However, in order to specifically describe below, the k-space filling method is assumed to be a radial method.

ステップS1が行われると処理回路51は、マスクデータ取得機能512を実行する(ステップS2及びS3)。ステップS2及びS3において処理回路51は、対象のMR撮像に関するマスクデータを生成する。マスクデータは、要素数が有限の複数のデータ収集軌跡(スポーク)の候補に対して、対象撮像において収集する旨の数値又は収集しない旨の数値が割り当てられたデータである。換言すれば、マスクデータは、有限の要素数の候補軌跡のうちの収集対象軌跡を示すデータである。   When step S1 is performed, the processing circuit 51 executes the mask data acquisition function 512 (steps S2 and S3). In steps S2 and S3, the processing circuit 51 generates mask data related to the target MR imaging. The mask data is data in which a numerical value indicating that data is collected in target imaging or a numerical value indicating that data is not collected is assigned to a plurality of data collection trajectories (spokes) having a finite number of elements. In other words, the mask data is data indicating a trajectory to be collected among candidate trajectories having a finite number of elements.

図3は、ステップS2及びS3におけるマスクデータ91の生成処理を模式的に示す図である。図3に示すように、ラディアル法に関するデータ収集軌跡は、k空間の略中心を放射状に通過する。図3の上段に示すように、本実施形態に係るMR撮像においては予め定められた有限の要素数のデータ収集軌跡の候補(以下、候補軌跡と呼ぶ)の集合70から、収集対象のデータ収集軌跡(以下、収集対象軌跡と呼ぶ)が選択される。図3において候補軌跡は点線で示される。候補軌跡の要素数(本数)及び角度は予め設定される。候補軌跡の要素数は、当該要素数の全ての候補軌跡についてデータ収集が行われた場合、十分な画質が保証できる程度の本数に設定される。候補軌跡の要素数は、有限であることが好適である。すなわち、候補軌跡の要素数は、無理数でなければ、例えば、100万本等の多くの本数であっても良い。なお、図3は、図面の簡単のため、8本の候補軌跡を示している。   FIG. 3 is a diagram schematically illustrating the process of generating the mask data 91 in steps S2 and S3. As shown in FIG. 3, the data collection trajectory for the radial method radially passes through the approximate center of the k-space. As shown in the upper part of FIG. 3, in the MR imaging according to the present embodiment, data collection to be collected is performed from a set 70 of data collection trajectory candidates (hereinafter, referred to as candidate trajectories) having a predetermined finite number of elements. A trajectory (hereinafter, referred to as a collection target trajectory) is selected. In FIG. 3, the candidate trajectory is indicated by a dotted line. The number of elements (number) and angles of the candidate trajectory are set in advance. The number of elements of the candidate trajectory is set to such a number that sufficient image quality can be guaranteed when data collection is performed for all the candidate trajectories of the number of elements. The number of elements of the candidate trajectory is preferably finite. That is, the number of elements of the candidate trajectory may be a large number such as one million if it is not an irrational number. FIG. 3 shows eight candidate trajectories for simplicity of the drawing.

本実施形態に係る候補軌跡の角度は、基準角度、例えば、0度からの角度に規定される。隣り合う候補軌跡の角度間隔は所定の角度に設定される。具体的には、隣り合う候補軌跡の角度間隔は略等間隔に設定されると良い。このように、要素数及び角度を制限することにより、機械学習の学習データの候補軌跡の要素数及び角度も制限することが可能になる。   The angle of the candidate trajectory according to the present embodiment is defined as a reference angle, for example, an angle from 0 degrees. The angle interval between adjacent candidate trajectories is set to a predetermined angle. Specifically, it is preferable that the angular intervals between adjacent candidate trajectories are set to be substantially equal. In this way, by limiting the number of elements and the angle, it is also possible to limit the number of elements and the angle of the candidate trajectory of the learning data of the machine learning.

各候補軌跡の収集角は、基本角の倍数に設定される。すなわち、1番目のデータ収集軌跡の収集角を0度としたとき、2番目の候補軌跡の収集角=基本角、3番目の候補軌跡の収集角=「基本角×2」、4番目の候補軌跡の収集角=「基本角×3」、・・・、のように設定される。   The collection angle of each candidate trajectory is set to a multiple of the basic angle. That is, when the collection angle of the first data collection trajectory is 0 degrees, the collection angle of the second candidate trajectory = basic angle, the collection angle of the third candidate trajectory = “basic angle × 2”, the fourth candidate The collection angle of the trajectory = “basic angle × 3”,...

基本角は、要素数が有限であれば、黄金角(Golden Angle)、例えば、略111.25度の無理数に設定されても良い。例えば、要素数が1000本である場合、1番目の候補軌跡の収集角を0度、2番目の候補軌跡の収集角を黄金角、3番目の候補軌跡の収集角を「黄金角×2」、4番目の候補軌跡の収集角を「黄金角×3」、・・・、のように1000番目の候補軌跡まで設定される。   If the number of elements is finite, the basic angle may be set to a golden angle, for example, an irrational number of about 111.25 degrees. For example, when the number of elements is 1000, the collection angle of the first candidate trajectory is 0 degree, the collection angle of the second candidate trajectory is a golden angle, and the collection angle of the third candidate trajectory is “golden angle × 2”. , The collection angle of the fourth candidate trajectory is set up to the 1000th candidate trajectory, such as “golden angle × 3”.

収集角は、360度を要素数で除した値に設定されても良い。例えば、要素数が1000本である場合、基本角は、360/1000度=0.36度に設定されても良い。また、基本角は、360/1000度の倍数に設定されても良い。例えば、倍数が309である場合、基本角は、360/1000度×309=111.24度に設定されることとなる。これにより基本角を黄金角に略等しくすることができる。   The collection angle may be set to a value obtained by dividing 360 degrees by the number of elements. For example, when the number of elements is 1,000, the basic angle may be set to 360/1000 degrees = 0.36 degrees. Further, the basic angle may be set to a multiple of 360/1000 degrees. For example, when the multiple is 309, the basic angle is set to 360/1000 degrees × 309 = 111.24 degrees. Thereby, the basic angle can be made substantially equal to the golden angle.

候補軌跡には識別のため番号(以下、軌跡番号と呼ぶ)が割り振られる。軌跡番号はマスクデータの生成のために用いられる。軌跡番号の割り振りのルールは、如何なるルールでも良い。例えば、収集角の小さい又は大きい候補軌跡から順番に番号が割り振られても良いし、候補軌跡の設定順序に従い番号が割り振られても良い。   A number (hereinafter, referred to as a locus number) is assigned to the candidate locus for identification. The trajectory number is used for generating mask data. Any rule may be used for assigning the track number. For example, numbers may be assigned in order from a candidate trajectory having a small or large collection angle, or numbers may be assigned in accordance with the setting order of candidate trajectories.

まず、処理回路51は、撮像時間と候補軌跡とに基づいて収集対象軌跡を選択する(ステップS2)。例えば、処理回路51は、ステップS1において設定された撮像時間に基づいて所定のルール(以下、選択ルールと呼ぶ)に従い、集合70に含まれる候補軌跡の中から収集対象軌跡を選択する。具体的には、まず、処理回路51は、撮像時間に応じて収集対象軌跡の本数を決定する。次に処理回路51は、選択ルールに従い、決定された本数分の収集対象軌跡を集合70の中から選択する。選択ルールとしては、例えば、収集対象軌跡間の角度が略同一になるように選択することが好適である。例えば、図3の中段に示すように、8本の候補軌跡の中から略均等角度の3本の候補軌跡、すなわち、1番目、4番目及び7番目の候補軌跡が収集対象軌跡として選択される。図3において収集対象軌跡は実線で示される。   First, the processing circuit 51 selects a collection target trajectory based on the imaging time and the candidate trajectory (step S2). For example, the processing circuit 51 selects a collection target trajectory from the candidate trajectories included in the set 70 according to a predetermined rule (hereinafter, referred to as a selection rule) based on the imaging time set in step S1. Specifically, first, the processing circuit 51 determines the number of collection target trajectories according to the imaging time. Next, the processing circuit 51 selects the determined number of trajectories to be collected from the set 70 according to the selection rule. As a selection rule, for example, it is preferable to select such that the angles between the trajectories to be collected are substantially the same. For example, as shown in the middle part of FIG. 3, three candidate trajectories having substantially equal angles, that is, first, fourth, and seventh candidate trajectories are selected as collection target trajectories from eight candidate trajectories. . In FIG. 3, the collection target trajectory is indicated by a solid line.

収集対象軌跡は、スライスあるいはボリューム毎、又はフレーム毎に設定される。すなわち、収集対象軌跡は、1画像毎に設定される。ラディアル法による画像は、典型的には、800本程度のスポークにより、画質が保証される。しかしながら、本実施形態によれば、1画像につき30本から50本程度のスポークにより、同等の画質を保証することができる。これは、本実施形態に係る収集軌跡は角度間隔が略均等であることが一因である。   The collection target trajectory is set for each slice or volume, or for each frame. That is, the collection target trajectory is set for each image. The image quality of a radial image is typically guaranteed by about 800 spokes. However, according to the present embodiment, the same image quality can be guaranteed by using about 30 to 50 spokes per image. This is partly because the collection trajectories according to the present embodiment have substantially uniform angular intervals.

次に、処理回路51は、選択された収集対象軌跡に基づいてマスクデータ91を生成する(ステップS3)。図3の下段に示すように、マスクデータ91は、複数の候補軌跡に対して、選択された(すなわち、データ収集する)旨の数値又は選択されていない(すなわち、データ収集しない)旨の数値が割り当てられた数値データである。例えば、選択された旨の数値として「1」、選択されない旨の数値として「0」が割り当てられる。処理回路51は、候補軌跡毎に選択されたか否かを判定し、選択された場合「1」を割り当て、選択されていない場合「0」を割り当てる。「0」又は「1」の数値は候補軌跡の軌跡番号順に配列される。例えば、図3の場合、マスクデータ91は、1番目、4番目及び7番目の候補軌跡が選択され、2番目、3番目、5番目、6番目及び8番目の候補軌跡が選択されていないので、(1、0、0、1、0、0、1、0)となる。   Next, the processing circuit 51 generates the mask data 91 based on the selected collection target trajectory (Step S3). As shown in the lower part of FIG. 3, the mask data 91 includes a numerical value indicating that a plurality of candidate trajectories have been selected (that is, data collection) or a numerical value that has not been selected (that is, no data collection). Is the assigned numerical data. For example, “1” is assigned as a numerical value indicating selection, and “0” is assigned as a numerical value indicating no selection. The processing circuit 51 determines whether or not each candidate trajectory has been selected, assigns “1” when selected, and assigns “0” when not selected. The numerical values of “0” or “1” are arranged in the order of the trajectory numbers of the candidate trajectories. For example, in the case of FIG. 3, since the first, fourth, and seventh candidate trajectories are selected and the second, third, fifth, sixth, and eighth candidate trajectories are not selected, the mask data 91 is selected. , (1, 0, 0, 1, 0, 0, 1, 0).

ステップS3が行われると処理回路51は、生データ取得機能513を実行する(ステップS4)。ステップS4において処理回路51は、シーケンス制御回路29にMR撮像の実行を指示する。シーケンス制御回路29は、傾斜磁場電源21、送信回路23及び受信回路25を同期的に制御し、ステップS2において選択された収集対象軌跡についてMR撮像を実行し、当該収集対象軌跡に関するk空間データを収集する。収集されるk空間データは、ステップS3において生成されたマスクデータにより表される収集対象軌跡に対応するk空間データである。収集対象軌跡は要素数分の候補軌跡の中から選択されたものであるので、典型的には、ステップS4において収集されるk空間データは疎(スパース:sparse)である。   When step S3 is performed, the processing circuit 51 executes the raw data acquisition function 513 (step S4). In step S4, the processing circuit 51 instructs the sequence control circuit 29 to execute MR imaging. The sequence control circuit 29 controls the gradient magnetic field power supply 21, the transmission circuit 23, and the reception circuit 25 synchronously, executes MR imaging on the acquisition target trajectory selected in step S2, and converts k-space data related to the acquisition target trajectory into MR space. collect. The collected k-space data is k-space data corresponding to the collection target trajectory represented by the mask data generated in step S3. Since the collection target trajectory is selected from the candidate trajectories for the number of elements, the k-space data collected in step S4 is typically sparse.

ステップS4が行われると処理回路51は、画像生成機能514を実行する(ステップS5)。ステップS5において処理回路51は、ステップS3において生成されたマスクデータとステップS4において収集されたk空間データとにDNN再構成を施してMR画像を生成する。   When step S4 is performed, the processing circuit 51 executes the image generation function 514 (step S5). In step S5, the processing circuit 51 performs DNN reconstruction on the mask data generated in step S3 and the k-space data collected in step S4 to generate an MR image.

図4、図5及び図6は、本実施形態に係るDNN再構成の流れを模式的に示す図である。図4に示す第1のDNN再構成において処理回路51は、k空間データRDとマスクデータMDとに機械学習モデル521−1を適用し、当該k空間データRDに対応するMR画像RIを生成する。機械学習モデル521−1は、k空間データとマスクデータとを入力し、当該k空間データに対応するMR画像を出力するようにパラメータが学習されている。機械学習モデル521−1の構造については、特に限定されない。k空間データRDとマスクデータMDとに基づき機械学習モデル521−1により生成されるMR画像RIは、k空間データRDに対するフーリエ変換等の解析学的再構成法により生成されるMR画像に比して、k空間データRDに含まれる信号欠損に起因するアーチファクトが低減される。これは、機械学習モデル521−1がk空間データRDに加え、当該k空間データRDに対応する収集対象軌跡を示すマスクデータMDを入力に用いているからである。   FIG. 4, FIG. 5, and FIG. 6 are diagrams schematically showing the flow of the DNN reconfiguration according to the present embodiment. In the first DNN reconstruction shown in FIG. 4, the processing circuit 51 applies the machine learning model 521-1 to the k-space data RD and the mask data MD, and generates an MR image RI corresponding to the k-space data RD. . In the machine learning model 521-1, parameters are learned so that k-space data and mask data are input and an MR image corresponding to the k-space data is output. The structure of the machine learning model 521-1 is not particularly limited. The MR image RI generated by the machine learning model 521-1 based on the k-space data RD and the mask data MD is different from the MR image generated by an analytic reconstruction method such as Fourier transform on the k-space data RD. Thus, artifacts due to signal loss included in the k-space data RD are reduced. This is because the machine learning model 521-1 uses the mask data MD indicating the trajectory to be collected corresponding to the k-space data RD in addition to the k-space data RD.

なお、本実施形態に係る信号欠損は、スパースを含む、所望のk空間データに対する実際のk空間データの如何なる差異を含む概念である。例えば、信号欠損としては、スパースの他、種々の原因により生ずるノイズに起因する信号劣化、A/D変換の過程で生じる連続値から離散値への変換に起因する情報欠落等を含む。   Note that the signal loss according to the present embodiment is a concept including any difference between actual k-space data and desired k-space data, including sparse data. For example, signal loss includes signal deterioration due to noise caused by various causes other than sparseness, information loss due to conversion from a continuous value to a discrete value generated in the process of A / D conversion, and the like.

図5に示す第2のDNN再構成において処理回路51は、k空間データRDとマスクデータMDとに機械学習モデル521−2を適用し、k空間データRDに含まれる信号欠損部分が復元されたk空間データRDMを生成する。機械学習モデル521−2は、k空間データとマスクデータとを入力し、デノイズされたk空間データを出力するようにパラメータが学習されている。k空間データRDとマスクデータMDとに基づき機械学習モデル521−2により生成されるk空間データRDMは、k空間データRDに比して、k空間データRDに含まれる信号欠損に起因するアーチファクトが低減される。これは、機械学習モデル521−2がk空間データRDに加え、当該k空間データRDに対応する収集対象軌跡を示すマスクデータMDを入力に用いているからである。   In the second DNN reconstruction shown in FIG. 5, the processing circuit 51 applies the machine learning model 521-2 to the k-space data RD and the mask data MD, and the signal missing part included in the k-space data RD is restored. Generate k-space data RDM. The parameters of the machine learning model 521-2 are learned so that the k-space data and the mask data are input and the denoised k-space data is output. The k-space data RDM generated by the machine learning model 521-2 based on the k-space data RD and the mask data MD has more artifacts due to signal loss included in the k-space data RD than the k-space data RD. Reduced. This is because the machine learning model 521-2 uses the mask data MD indicating the trajectory to be collected corresponding to the k-space data RD in addition to the k-space data RD.

図5に示すように、k空間データRDMが生成された場合、処理回路51は、k空間データRDMにフーリエ変換を施して、k空間データRD又はk空間データRDMに対応するMR画像RIを生成する。MR画像RIは、信号欠損部分が復元されたk空間データRDMに対するフーリエ変換により生成されているので、信号欠損を含むk空間データRDに対するフーリエ変換により生成されるMR画像に比して、画質が良好である。   As shown in FIG. 5, when the k-space data RDM is generated, the processing circuit 51 performs a Fourier transform on the k-space data RDM to generate the k-space data RD or the MR image RI corresponding to the k-space data RDM. I do. Since the MR image RI is generated by the Fourier transform on the k-space data RDM in which the signal deficient portion is restored, the image quality is lower than that of the MR image generated by the Fourier transform on the k-space data RD including the signal deficiency. Good.

図6に示す第3のDNN再構成において処理回路51は、k空間データRDにフーリエ変換を施して、k空間データRDに対応する仮MR画像RIMを生成する。仮MR画像RIMは、信号欠損を含むk空間データRDにフーリエ変換を施して生成された再構成画像であるので、信号欠損を多く含む。   In the third DNN reconstruction shown in FIG. 6, the processing circuit 51 performs a Fourier transform on the k-space data RD to generate a temporary MR image RIM corresponding to the k-space data RD. Since the provisional MR image RIM is a reconstructed image generated by performing a Fourier transform on the k-space data RD including the signal loss, the temporary MR image RIM often includes the signal loss.

図6に示すように、仮MR画像RIMが生成された場合、処理回路51は、仮MR画像RIMとマスクデータMDとに機械学習モデル521−3を適用し、仮MR画像RIMに含まれる信号欠損部分が復元されたMR画像RIを生成する。機械学習モデル521−3は、仮MR画像RIMとマスクデータMDとを入力し、デノイズされたMR画像を出力するようにパラメータが学習されている。仮MR画像RIMとマスクデータMDとに基づき機械学習モデル521−3により生成されるMR画像RIは、仮MR画像RIMに比して、信号欠損に起因するアーチファクトが低減される。これは、機械学習モデル521−3が仮MR画像RIMに加え、当該仮MR画像RIMに用いたk空間データRDに対応する収集対象軌跡を示すマスクデータMDを入力に用いているからである。   As shown in FIG. 6, when the provisional MR image RIM is generated, the processing circuit 51 applies the machine learning model 521-3 to the provisional MR image RIM and the mask data MD, and outputs a signal included in the provisional MR image RIM. An MR image RI in which the missing part is restored is generated. The parameters of the machine learning model 521-3 are learned so that the temporary MR image RIM and the mask data MD are input and a denoised MR image is output. In the MR image RI generated by the machine learning model 521-3 based on the temporary MR image RIM and the mask data MD, artifacts due to signal loss are reduced as compared to the temporary MR image RIM. This is because the machine learning model 521-3 uses, as an input, the mask data MD indicating the acquisition target trajectory corresponding to the k-space data RD used for the temporary MR image RIM, in addition to the temporary MR image RIM.

ステップS5が行われると処理回路51は、表示制御機能516を実行する(ステップS6)。ステップS6において処理回路51は、ステップS5において生成されたMR画像をディスプレイ53に表示する。   When step S5 is performed, the processing circuit 51 executes the display control function 516 (step S6). In step S6, the processing circuit 51 displays the MR image generated in step S5 on the display 53.

以上により、処理回路51によるMR撮像が終了する。   Thus, the MR imaging by the processing circuit 51 ends.

なお、図2に示す処理の流れは一例であり、本実施形態はこれに限定されない。例えば、ステップS2において処理回路51は、撮像時間に基づいて収集対象軌跡を自動的に選択するものとした。しかしながら、本実施形態はこれに限定されない。例えば、処理回路51は、ユーザにより入力インタフェース54を介して指定された候補軌跡を収集対象軌跡として選択しても良い。この場合、例えば、処理回路51は、有限の要素数の候補軌跡を選択可能にグラフィカルに表現する模式図をディスプレイ53に表示する。模式図としては、例えば、図3の上段に示すような、k空間に配置された候補軌跡とその軌跡番号とが描出された画像が良い。ユーザは、入力インタフェース54を介して、表示された模式図に含まれる候補軌跡の中から任意の軌跡を収集対象軌跡に指定する。処理回路51は、指定された軌跡を収集対象軌跡として選択すれば良い。   Note that the processing flow illustrated in FIG. 2 is an example, and the present embodiment is not limited to this. For example, in step S2, the processing circuit 51 automatically selects the collection target trajectory based on the imaging time. However, the present embodiment is not limited to this. For example, the processing circuit 51 may select a candidate trajectory specified by the user via the input interface 54 as a trajectory to be collected. In this case, for example, the processing circuit 51 displays on the display 53 a schematic diagram that graphically represents a selectable trajectory with a finite number of elements in a selectable manner. As a schematic diagram, for example, an image in which candidate trajectories arranged in the k-space and their trajectory numbers are drawn as shown in the upper part of FIG. 3 is preferable. The user specifies an arbitrary trajectory from among the candidate trajectories included in the displayed schematic diagram as the collection target trajectory via the input interface 54. The processing circuit 51 may select the designated trajectory as the trajectory to be collected.

上記の実施例は、1画像のMR撮像のため、各収集対象軌跡について1回又は0回のデータ収集が行われることを前提としている。しかしながら、本実施形態はこれに限定されない。例えば、ある収集対象軌跡について2回以上のデータ収集が行われても良い。2回以上のデータ収集を行うことにより、当該収集対象軌跡に関するk空間データの信頼性を向上させることができる。例えば、1番目及び4番目の軌跡について2回、2番目、5番目及び7番目の軌跡について1回、3番目、6番目及び8番目の軌跡について0回のデータ収集が行われる場合、マスクデータは、(2、1、0、2、1、0、1、0)となる。   The above embodiment is based on the premise that one or zero data acquisitions are performed for each acquisition target trajectory for MR imaging of one image. However, the present embodiment is not limited to this. For example, data collection may be performed twice or more for a certain collection target trajectory. By performing data collection two or more times, it is possible to improve the reliability of k-space data relating to the trajectory to be collected. For example, if data collection is performed twice for the first and fourth trajectories, once for the second, fifth, and seventh trajectories, and zero times for the third, sixth, and eighth trajectories, the mask data Becomes (2,1,0,2,1,0,1,0).

上記実施例に係るマスクデータにおいては、データ収集軌跡毎に収集回数に応じた数値が割り当てられるとした。しかしながら、本実施形態はこれに限定されない。例えば、2回以上の収集が行われるデータ収集軌跡に数値「1」が一律に割り当てられても良い。また、0回と2回以上との場合に数値「1」が割り当てられ、1回の場合のみ数値「0」が割り当てられても良い。本実施形態に係るマスクデータには、その他の規則に従い任意の数値が割り当てられても良い。   In the mask data according to the above embodiment, a numerical value according to the number of acquisitions is assigned to each data acquisition trajectory. However, the present embodiment is not limited to this. For example, a numerical value “1” may be uniformly assigned to a data collection trajectory in which two or more collections are performed. Also, a numerical value “1” may be assigned in the case of 0 times and 2 or more times, and a numerical value “0” may be assigned only in the case of 1 time. An arbitrary numerical value may be assigned to the mask data according to the present embodiment according to other rules.

なお、本実施形態の説明ではマスクデータとして非負の値を用いたがこれに限定されず、負の値、例えば、−1を含んでも良い。   In the description of the present embodiment, a non-negative value is used as mask data. However, the present invention is not limited to this, and may include a negative value, for example, -1.

また、マスクデータの数値は収集回数に応じた値を有するものとした。しかしながら、本実施形態はこれに限定されない。例えば、ラディアル収集において同じ軌跡を正方向と負方向とで収集する場合を考える。正方向のデータ収集軌跡と負方向のデータ収集軌跡とを異なる軌跡として扱う場合、各データ収集軌跡に収集回数に応じた数値が割り当てられることとなる。正方向のデータ収集軌跡と負方向のデータ収集軌跡とに区別せず、一のデータ収集軌跡に対して、収集方向に応じた数値、又は収集回数と収集方向との組合せに応じた数値が割り当てられても良い。例えば、0度のデータ収集軌跡に対して正方向と負方向とで100回ずつ収集する場合、当該データ収集軌跡に対して、(1,0)等が割り当てられる。なお、(1,0)の「1」は正方向を示す数値の一例であり、「0」は負方向を示す数値の一例である。   Further, the numerical value of the mask data has a value corresponding to the number of times of collection. However, the present embodiment is not limited to this. For example, consider a case in which the same trajectory is collected in a positive direction and a negative direction in radial collection. When the positive data collection trajectory and the negative data collection trajectory are treated as different trajectories, a numerical value according to the number of times of collection is assigned to each data collection trajectory. A numerical value according to the collecting direction or a numerical value according to the combination of the number of times of collection and the collecting direction is assigned to one data collecting trajectory without distinguishing between the data collecting trajectory in the positive direction and the data collecting trajectory in the negative direction. You may be. For example, when data is collected 100 times in the positive and negative directions for a 0-degree data collection trajectory, (1, 0) and the like are assigned to the data collection trajectory. Note that “1” in (1, 0) is an example of a numerical value indicating a positive direction, and “0” is an example of a numerical value indicating a negative direction.

機械学習モデル521の構造は適宜設計変更可能である。例えば、第2のDNN再構成の場合、機械学習モデル521は、k空間データRDとマスクデータMDとを入力としてk空間データRDMを出力とする任意の多層ネットワーク(以下、本ネットワーク層と呼ぶ)の後続に、FFT(Fast Fourier Transfer)層を組み込んでも良い。FFT層にはk空間データが入力され、入力されたk空間データにFFTが適用され、MR画像が出力される。これにより、機械学習モデル521単独で、k空間データRDとマスクデータMDとに基づきMR画像RIを出力することができる。   The design of the structure of the machine learning model 521 can be changed as appropriate. For example, in the case of the second DNN reconstruction, the machine learning model 521 is an arbitrary multilayer network (hereinafter, referred to as the present network layer) in which the k-space data RD and the mask data MD are input and the k-space data RDM is output. , An FFT (Fast Fourier Transfer) layer may be incorporated. K-space data is input to the FFT layer, FFT is applied to the input k-space data, and an MR image is output. Thus, the machine learning model 521 alone can output the MR image RI based on the k-space data RD and the mask data MD.

また、機械学習モデル521は、本ネットワーク層とFFT層との後続にIFFT(Inverse Fast Fourier Transfer)層とを含む単位ネットワーク構造が縦続接続された連鎖構造を有しても良い。IFFT層には、MR画像が入力され、入力されたMR画像にIFFTが適用され、k空間データが出力される。連鎖構造により、信号欠損部分の復元精度を向上させることができる。   Further, the machine learning model 521 may have a chain structure in which a unit network structure including an IFFT (Inverse Fast Fourier Transfer) layer subsequent to the present network layer and the FFT layer is cascaded. An MR image is input to the IFFT layer, IFFT is applied to the input MR image, and k-space data is output. With the chain structure, it is possible to improve the restoration accuracy of the signal missing portion.

連鎖構造において、IFFT層の後段に整合層が設けられても良い。整合層には、本ネットワーク層から出力されたMR画像に基づくk空間データと、本ネットワーク層に入力された処理前のk空間データとが入力され、処理前のk空間データを利用して処理済みのk空間データに整合処理が施され、整合処理済みのk空間データが出力される。整合処理において処理済みのk空間データは、信号欠損度合い応じて処理前のk空間データが画素毎に重み付け加算される。例えば、信号欠損度合いが低いほど処理前のk空間データの画素値に高い重みが付与され、信号欠損度合いが高いほど処理前のk空間データの画素値に低い重みが付与される。これにより、処理済みのk空間データと処理前のk空間データとの整合性を確保することができる。   In the chain structure, a matching layer may be provided after the IFFT layer. The matching layer receives k-space data based on the MR image output from the present network layer and k-space data before processing input to the present network layer, and performs processing using the k-space data before processing. Matching processing is performed on the already-processed k-space data, and the matched k-space data is output. In the k-space data that has been processed in the matching processing, the k-space data before the processing is weighted and added for each pixel in accordance with the degree of signal loss. For example, the lower the degree of signal loss, the higher the weight assigned to the pixel value of the k-space data before processing, and the higher the degree of signal loss, the lower the weight given to the pixel value of the k-space data before processing. Thus, consistency between the processed k-space data and the k-space data before the processing can be ensured.

また、機械学習モデル521において、本ネットワーク層の前段に要素積計算層が設けられても良い。要素積計算層は、k空間データとマスクデータとの要素積を計算し、要素積データを出力する。本ネットワーク層は、k空間データと要素積データとを入力とし、当該k空間データの信号欠損部分が復元されたMR画像データを出力する。本ネットワーク層と要素積計算層との単位ネットワーク構造が縦続接続されても良い。   Further, in the machine learning model 521, an element product calculation layer may be provided before the present network layer. The element product calculation layer calculates an element product of the k-space data and the mask data, and outputs the element product data. The present network layer receives k-space data and element product data as input, and outputs MR image data in which a signal missing portion of the k-space data is restored. The unit network structure of the present network layer and the element product calculation layer may be cascaded.

上記の説明において、機械学習モデル521に入力されるk空間データは、MR撮像により収集されたオリジナルのk空間データであるとした。しかしながら、本実施形態はこれに限定されない。本実施形態に係るk空間データは、MR画像に順投影処理を施すことにより生成される計算上のk空間データであっても良い。また、本実施形態に係るk空間データ又はMR画像は、信号圧縮処理や解像度分解処理、信号補間処理、解像度合成処理等の任意の信号処理がなされた生データであっても良い。また、本実施形態に係る生データは、k空間データに対してリードアウト方向に関してフーリエ変換を施すことにより生成されるハイブリッドデータであっても良い。   In the above description, it is assumed that the k-space data input to the machine learning model 521 is the original k-space data collected by MR imaging. However, the present embodiment is not limited to this. The k-space data according to the present embodiment may be calculated k-space data generated by performing forward projection processing on an MR image. Further, the k-space data or the MR image according to the present embodiment may be raw data that has been subjected to any signal processing such as signal compression processing, resolution decomposition processing, signal interpolation processing, and resolution synthesis processing. Further, the raw data according to the present embodiment may be hybrid data generated by performing a Fourier transform on the k-space data in the readout direction.

次に、機械学習モデル521の学習について説明する。機械学習モデル521は、モデル学習装置により生成される。モデル学習装置は、複数の学習サンプルを含む学習データに基づいて、モデル学習プログラムに従い機械学習モデルに機械学習を行わせ、学習済みの機械学習モデル(以下、学習済みモデルと呼ぶ)を生成する。モデル学習装置は、CPU及びGPU等のプロセッサを有するワークステーション等のコンピュータである。モデル学習装置と医用情報処理装置50とはケーブル又は通信ネットワークを介して通信可能に接続されても良いし、接続されていなくても良い。また、モデル学習装置と医用情報処理装置50とが一体のコンピュータにより構成されても良い。   Next, learning of the machine learning model 521 will be described. The machine learning model 521 is generated by a model learning device. The model learning device causes a machine learning model to perform machine learning according to a model learning program based on learning data including a plurality of learning samples, and generates a learned machine learning model (hereinafter, referred to as a learned model). The model learning device is a computer such as a workstation having a processor such as a CPU and a GPU. The model learning device and the medical information processing device 50 may be communicably connected via a cable or a communication network, or may not be connected. Further, the model learning device and the medical information processing device 50 may be configured by an integrated computer.

図7は、本実施形態に係るモデル学習装置6の構成を示す図である。図7に示すように、モデル学習装置6は、処理回路61、メモリ62、入力インタフェース63、通信インタフェース64及びディスプレイ65を有する。   FIG. 7 is a diagram illustrating a configuration of the model learning device 6 according to the present embodiment. As shown in FIG. 7, the model learning device 6 includes a processing circuit 61, a memory 62, an input interface 63, a communication interface 64, and a display 65.

処理回路61は、CPUやGPU等のプロセッサを有する。当該プロセッサがメモリ62等にインストールされたモデル学習プログラムを起動することにより、学習サンプル生成機能611、学習機能612及び表示制御機能613等を実行する。なお、各機能611〜613は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより各機能611〜613を実現するものとしても構わない。   The processing circuit 61 has a processor such as a CPU and a GPU. The processor executes the learning sample generation function 611, the learning function 612, the display control function 613, and the like by activating the model learning program installed in the memory 62 or the like. The functions 611 to 613 are not limited to being realized by a single processing circuit. A processing circuit may be configured by combining a plurality of independent processors, and each processor may execute a program to realize each of the functions 611 to 613.

学習サンプル生成機能611において処理回路61は、入力データと出力データとの組合せである学習サンプルを生成する。処理回路61は、全ての候補軌跡に沿って収集されたk空間データに基づいて学習サンプルを生成する。   In the learning sample generation function 611, the processing circuit 61 generates a learning sample which is a combination of input data and output data. The processing circuit 61 generates a learning sample based on the k-space data collected along all the candidate trajectories.

学習機能612において処理回路61は、複数の学習サンプルに関する学習データに基づいて機械学習モデルにパラメータを学習させる。学習機能612によるパラメータの学習により、図1に示す学習済みの機械学習モデル521が生成される。   In the learning function 612, the processing circuit 61 causes the machine learning model to learn parameters based on learning data on a plurality of learning samples. The learned machine learning model 521 shown in FIG. 1 is generated by learning the parameters by the learning function 612.

表示制御機能613において処理回路61は、学習データや学習結果等をディスプレイ65に表示する。   In the display control function 613, the processing circuit 61 displays learning data, learning results, and the like on the display 65.

メモリ62は、種々の情報を記憶するROMやRAM、HDD、SSD、集積回路記憶装置等の記憶装置である。メモリ62は、例えば、多層化ネットワークの学習のためのモデル学習プログラムを記憶する。メモリ62は、上記記憶装置以外にも、CD、DVD、フラッシュメモリ等の可搬型記憶媒体や、RAM等の半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリ62は、モデル学習装置6にネットワークを介して接続された他のコンピュータ内にあってもよい。   The memory 62 is a storage device such as a ROM, a RAM, an HDD, an SSD, and an integrated circuit storage device for storing various information. The memory 62 stores, for example, a model learning program for learning a multilayered network. The memory 62 may be a drive device that reads and writes various information between a portable storage medium such as a CD, a DVD, and a flash memory, and a semiconductor memory element such as a RAM, in addition to the storage device. Further, the memory 62 may be in another computer connected to the model learning device 6 via a network.

入力インタフェース63は、ユーザからの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路61に出力する。具体的には、入力インタフェース63は、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等の入力機器に接続されている。入力インタフェース63は、当該入力機器への入力操作に応じた電気信号を処理回路61へ出力する。また、入力インタフェース63に接続される入力機器は、ネットワーク等を介して接続された他のコンピュータに設けられた入力機器でも良い。   The input interface 63 receives various input operations from the user, converts the received input operations into electric signals, and outputs the electric signals to the processing circuit 61. Specifically, the input interface 63 is connected to input devices such as a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touchpad, and a touch panel display. The input interface 63 outputs an electric signal corresponding to an input operation to the input device to the processing circuit 61. Further, the input device connected to the input interface 63 may be an input device provided in another computer connected via a network or the like.

通信インタフェース64は、医用情報処理装置50や医用画像診断装置、他のコンピュータとの間でデータ通信するためのインタフェースである。   The communication interface 64 is an interface for performing data communication with the medical information processing apparatus 50, the medical image diagnostic apparatus, and another computer.

ディスプレイ65は、処理回路61の表示制御機能613に従い種々の情報を表示する。例えば、ディスプレイ65は、学習データや学習結果等を表示する。また、ディスプレイ65は、ユーザからの各種操作を受け付けるためのGUI等を出力する。例えば、ディスプレイ65としては、液晶ディスプレイ、CRTディスプレイ、有機ELディスプレイ、プラズマディスプレイ又は他の任意のディスプレイが適宜使用可能である。   The display 65 displays various information according to the display control function 613 of the processing circuit 61. For example, the display 65 displays learning data, learning results, and the like. The display 65 outputs a GUI or the like for receiving various operations from the user. For example, as the display 65, a liquid crystal display, a CRT display, an organic EL display, a plasma display, or any other display can be appropriately used.

次に、本実施形態に係るモデル学習装置6による動作例について説明する。   Next, an operation example of the model learning device 6 according to the present embodiment will be described.

上記の通り、処理回路61は、全ての候補軌跡に沿って収集されたk空間データに基づいて学習サンプルを生成する。入力データ及び出力データの種類は、図4、図5及び図6に示す機械学習モデル521の型に応じて異なる。図4の機械学習モデル521−1の場合、マスクデータと信号欠損を含むk空間データとが入力データとして用いられ、信号欠損が低減されたMR画像が出力データとして用いられる。図5の機械学習モデル521−2の場合、マスクデータと信号欠損を含むk空間データとが入力データとして用いられ、信号欠損が低減されたk空間データが出力データとして用いられる。図6の機械学習モデル521−3の場合、マスクデータと信号欠損を含むMR画像とが入力データとして用いられ、信号欠損が低減されたMR画像が出力データとして用いられる。   As described above, the processing circuit 61 generates a learning sample based on the k-space data collected along all the candidate trajectories. The types of input data and output data differ depending on the type of the machine learning model 521 shown in FIGS. In the case of the machine learning model 521-1 in FIG. 4, mask data and k-space data including signal loss are used as input data, and an MR image with reduced signal loss is used as output data. In the case of the machine learning model 521-2 in FIG. 5, mask data and k-space data including signal loss are used as input data, and k-space data with reduced signal loss is used as output data. In the case of the machine learning model 521-3 in FIG. 6, the mask data and the MR image including the signal loss are used as input data, and the MR image with reduced signal loss is used as output data.

以下、機械学習モデル521の一例として、k空間データとマスクデータとを入力し、MR画像を出力するようにパラメータが学習される図4の機械学習モデル521−1を挙げて、機械学習処理について説明する。   Hereinafter, as an example of the machine learning model 521, a machine learning model 521-1 of FIG. 4 in which k-space data and mask data are input and parameters are learned so as to output an MR image will be described. explain.

図8は、学習サンプルの生成機能611による処理を模式的に示す図である。図8に示すように、フルk空間データRDFが処理回路61により取得される。フルk空間データは、有限の要素数の全ての候補軌跡についてデータ収集することにより得られたk空間データである。フルk空間データRDFは、予め磁気共鳴イメージング装置1等により収集される。   FIG. 8 is a diagram schematically illustrating processing by the learning sample generation function 611. As shown in FIG. 8, the full k-space data RDF is obtained by the processing circuit 61. The full k-space data is k-space data obtained by collecting data on all candidate trajectories having a finite number of elements. The full k-space data RDF is collected in advance by the magnetic resonance imaging apparatus 1 or the like.

図8に示すように、学習サンプル生成機能611において処理回路61は、フルk空間データRDFに対して間引き処理を施し、処理対象軌跡の全ての組合せ(以下、軌跡組合せと呼ぶ)について仮想のk空間データRD1〜RDnを生成する。例えば、処理回路61は、フルk空間データRDFに基づいて、各軌跡組合せに対応するk空間データをシミュレーションにより算出する。なお図8において、仮想のk空間データRD1〜RDnは3本の処理対象軌跡に関するk空間データを図示しているが、仮想のk空間データRD1〜RDnを構成する処理対象軌跡の本数は、フルk空間データRDFを構成する候補軌跡の本数より少ないのであれば、何本でも良い。仮想のk空間データRD1〜RDnは、機械学習モデル521−1の入力データに用いられる。   As shown in FIG. 8, in the learning sample generation function 611, the processing circuit 61 performs a thinning-out process on the full k-space data RDF, and performs virtual k processing on all combinations of processing target trajectories (hereinafter, referred to as trajectory combinations). The spatial data RD1 to RDn are generated. For example, the processing circuit 61 calculates the k-space data corresponding to each trajectory combination by simulation based on the full k-space data RDF. In FIG. 8, virtual k-space data RD1 to RDn show k-space data related to three processing target trajectories, but the number of processing target trajectories constituting virtual k-space data RD1 to RDn is full. Any number may be used as long as it is smaller than the number of candidate trajectories constituting the k-space data RDF. The virtual k-space data RD1 to RDn are used as input data of the machine learning model 521-1.

間引き処理が行われると処理回路61は、仮想のk空間データRD1〜RDn各々についてフーリエ変換を施して、当該仮想のk空間データRD1〜RDnに対応する仮想のMR画像RI1〜RInを生成する。仮想のMR画像RI1〜RInは、機械学習モデル521−1の正解MR画像として用いられる。   When the thinning processing is performed, the processing circuit 61 performs Fourier transform on each of the virtual k-space data RD1 to RDn, and generates virtual MR images RI1 to RIn corresponding to the virtual k-space data RD1 to RDn. The virtual MR images RI1 to RIn are used as correct MR images of the machine learning model 521-1.

また、処理回路61は、仮想のk空間データRD1〜RDn各々にマスクデータ変換処理を施して、当該仮想のk空間データRD1〜RDnに対応するマスクデータMD1〜MDnを生成する。具体的には、処理回路61は、まず、仮想のk空間データRD1〜RDn各々の軌跡組合せを特定する。そして処理回路61は、候補軌跡各々について、軌跡組合せに含まれる軌跡には数値「1」を割り当て、軌跡組合せに含まれない軌跡には数値「0」を割り当てる。これによりマスクデータMD1〜MDnが生成される。マスクデータMD1〜MDnは、機械学習モデル521−1の入力データに用いられる。   Further, the processing circuit 61 performs mask data conversion processing on each of the virtual k-space data RD1 to RDn to generate mask data MD1 to MDn corresponding to the virtual k-space data RD1 to RDn. Specifically, the processing circuit 61 first specifies a trajectory combination of each of the virtual k-space data RD1 to RDn. Then, for each of the candidate trajectories, the processing circuit 61 assigns a numerical value “1” to a trajectory included in the trajectory combination and assigns a numerical value “0” to a trajectory not included in the trajectory combination. Thereby, mask data MD1 to MDn are generated. The mask data MD1 to MDn are used as input data of the machine learning model 521-1.

軌跡組合せ毎にマスクデータMD1〜MDnとk空間データRD1〜RDnとMR画像RI1〜RInとが関連付けられる。軌跡組合せ毎のマスクデータMD1〜MDnとk空間データRD1〜RDnとMR画像RI1〜RInとが学習サンプルとして扱われる。軌跡組合せ毎の学習サンプルはメモリ62に記憶される。   The mask data MD1 to MDn, the k-space data RD1 to RDn, and the MR images RI1 to RIn are associated for each trajectory combination. Mask data MD1 to MDn, k-space data RD1 to RDn, and MR images RI1 to RIn for each trajectory combination are treated as learning samples. The learning sample for each trajectory combination is stored in the memory 62.

これにより、学習サンプルの生成機能611による処理が終了する。次に、学習機能612による学習処理が行われる。学習機能612において処理回路61は、軌跡組合せ毎にk空間データRD1〜RDnとマスクデータMD1〜MDnとを機械学習モデルに適用して順伝播処理を行い、MR画像(以下、推定MR画像と呼ぶ)を出力する。次に処理回路61は、推定MR結果と正解MR画像との差分(誤差)を当該機械学習モデルに適用して逆伝播処理を行い、勾配ベクトルを計算する。次に処理回路61は、勾配ベクトルに基づいて当該機械学習モデルの重み付き行列やバイアス等のパラメータを更新する。順伝播処理、逆伝播処理及びパラメータ更新処理を、学習サンプルを変更しながら繰り返すことにより、学習済みの機械学習モデル521−1が生成される。   Thus, the processing by the learning sample generation function 611 ends. Next, a learning process by the learning function 612 is performed. In the learning function 612, the processing circuit 61 performs forward propagation processing by applying the k-space data RD1 to RDn and the mask data MD1 to MDn to the machine learning model for each trajectory combination, and performs an MR image (hereinafter referred to as an estimated MR image). ) Is output. Next, the processing circuit 61 performs a back propagation process by applying a difference (error) between the estimated MR result and the correct MR image to the machine learning model, and calculates a gradient vector. Next, the processing circuit 61 updates parameters such as a weighted matrix and a bias of the machine learning model based on the gradient vector. By repeating the forward propagation process, the back propagation process, and the parameter update process while changing the learning sample, a learned machine learning model 521-1 is generated.

学習済みの機械学習モデル521−1は、メモリ62記憶される。また、学習済みの機械学習モデル521−1は、磁気共鳴イメージング装置1に通信インタフェース64を介して送信される。   The learned machine learning model 521-1 is stored in the memory 62. The learned machine learning model 521-1 is transmitted to the magnetic resonance imaging apparatus 1 via the communication interface 64.

上記の通り、本実施形態に係るk空間充填方式の種類はスパイラル法でも良い。この場合においても、ラディアル法と同様、マスクデータを生成可能である。スパイラル法に関する候補軌跡は、k空間の中心を始点とし任意の点を終点とする螺旋を描く。ラディアル法と同様、処理回路51は、複数の候補軌跡を含む集合の中から、任意の候補軌跡を収集対象軌跡として選択し、選択された収集対象軌跡に対応するマスクデータを生成する。なお、生成可能な候補軌跡は、グラディエントコイルのハードウェア性能に依存するので、対象ハードウェア毎に学習データを用意する必要がある。あるいは。複数のハードウェアに対応可能なように低いグラディエントコイルに合わせてスパイラル法の候補軌跡の集合を定めても良い。   As described above, the type of the k-space filling method according to the present embodiment may be a spiral method. Also in this case, the mask data can be generated similarly to the radial method. The candidate trajectory for the spiral method draws a spiral with the center of k-space as the starting point and an arbitrary point as the ending point. Similarly to the radial method, the processing circuit 51 selects an arbitrary candidate trajectory from a set including a plurality of candidate trajectories as a collection target trajectory, and generates mask data corresponding to the selected collection target trajectory. Since the candidate trajectory that can be generated depends on the hardware performance of the gradient coil, it is necessary to prepare learning data for each target hardware. Or. A set of candidate trajectories of the spiral method may be determined according to a low gradient coil so as to be compatible with a plurality of hardware.

上記の説明において、医用情報処理装置50は、磁気共鳴イメージング装置1に組み込まれているとした。しかしながら、本実施形態はこれに限定されない。   In the above description, the medical information processing apparatus 50 is assumed to be incorporated in the magnetic resonance imaging apparatus 1. However, the present embodiment is not limited to this.

図9は、本実施形態に係る医用情報処理装置50の他の構成を示す図である。図9に示すように、医用情報処理装置50は、磁気共鳴イメージング装置等のモダリティ装置から独立した単独のコンピュータである。図9の医用情報処理装置50は、図1の医用情報処理装置50と同様、処理回路51、メモリ52、ディスプレイ53、入力インタフェース54及び通信インタフェース55を有する。各構成の機能等は、図1と同様であるので説明は省略する。   FIG. 9 is a diagram illustrating another configuration of the medical information processing apparatus 50 according to the present embodiment. As shown in FIG. 9, the medical information processing device 50 is a single computer independent of a modality device such as a magnetic resonance imaging device. The medical information processing apparatus 50 in FIG. 9 includes a processing circuit 51, a memory 52, a display 53, an input interface 54, and a communication interface 55, similarly to the medical information processing apparatus 50 in FIG. The functions and the like of each component are the same as those in FIG.

なお、図9の医用情報処理装置50は、如何なるモダリティ装置により収集された生データでも処理可能である。例えば、生データは、X線コンピュータ断層撮影装置により収集されたサイノグラムデータでも良い。   Note that the medical information processing apparatus 50 in FIG. 9 can process raw data collected by any modality device. For example, the raw data may be sinogram data collected by an X-ray computed tomography apparatus.

上記の通り、本実施形態に係る医用情報処理装置50は、処理回路51を有する。処理回路51は、少なくともマスクデータ取得機能512、生データ取得機能513及び画像生成機能514を実現する。マスクデータ取得機能512において処理回路51は、要素数が有限の複数のデータ収集軌跡の候補に対して対象撮像における収集回数及び/又は収集方向に応じた数値が割り当てられたマスクデータを取得する。生データ取得機能513において処理回路51は、被検体Pに対する対象撮像において収集された生データを取得する。画像生成機能514において処理回路51は、取得されたマスクデータと取得された生データとに、機械学習モデル521を利用した再構成処理を施して、被検体Pに関する医用画像を生成する。   As described above, the medical information processing apparatus 50 according to the present embodiment includes the processing circuit 51. The processing circuit 51 implements at least a mask data acquisition function 512, a raw data acquisition function 513, and an image generation function 514. In the mask data acquisition function 512, the processing circuit 51 acquires mask data in which a numerical value according to the number of acquisitions and / or the direction of acquisition in target imaging is assigned to a plurality of data acquisition trajectory candidates having a finite number of elements. In the raw data acquisition function 513, the processing circuit 51 acquires raw data collected in subject imaging of the subject P. In the image generation function 514, the processing circuit 51 performs a reconstruction process using the machine learning model 521 on the obtained mask data and the obtained raw data to generate a medical image of the subject P.

上記の構成によれば、機械学習モデル521がk空間データに加え、当該k空間データに対応する収集対象軌跡を示すマスクデータを入力に用いているので、k空間データのみを入力する場合に比して、出力医用画像の画質を向上させることができる。また、候補軌跡は予め定められた有限の要素数の軌跡に制限されているので、MR撮像毎に収集対象軌跡を計算等する必要がなくなる。これに関連して、学習データに用いるデータ収集軌跡とMR撮像に用いるデータ収集軌跡とを容易に一致させることもできる。   According to the above configuration, the machine learning model 521 uses the mask data indicating the trajectory to be collected corresponding to the k-space data in addition to the k-space data. As a result, the quality of the output medical image can be improved. Further, since the candidate trajectory is limited to a trajectory having a predetermined finite number of elements, it is not necessary to calculate the trajectory to be acquired for each MR imaging. In this connection, the data collection trajectory used for learning data and the data collection trajectory used for MR imaging can be easily matched.

上記の実施形態において機械学習モデルの入力は、生データ又は医用画像等の医用データと、要素数が有限の複数のデータ収集軌跡の候補に対して対象撮像における収集回数及び/又は収集方向に応じた数値が割り当てられたマスクデータとであるとした。しかしながら、本実施形態はこれに限定されない。マスクデータの概念を、医用データの収集条件を数値化した数値データにまで拡張することが可能である。医用データの収集条件は、医用撮像の撮像プロトコルだけでなく、生データに対するデータ処理条件や医用画像に対する画像処理条件をも含む概念である。医用撮像の撮像プロトコルとしては、前述のデータ収集軌跡だけでなく、パルスシーケンスの種別、フレーム番号、k空間充填軌跡の種別を含む。   In the above embodiment, the input of the machine learning model is performed according to raw data or medical data such as medical images, and the number of collections and / or the direction of collection in candidate imaging for a plurality of data collection trajectory candidates having a finite number of elements. And the assigned mask data. However, the present embodiment is not limited to this. It is possible to extend the concept of mask data to numerical data obtained by digitizing medical data acquisition conditions. The medical data collection condition is a concept that includes not only an imaging protocol for medical imaging but also data processing conditions for raw data and image processing conditions for medical images. The imaging protocol of the medical imaging includes not only the data collection trajectory described above, but also the type of the pulse sequence, the frame number, and the type of the k-space filling trajectory.

また、上記の実施形態において機械学習モデルは、生データから医用画像へのDNN再構成に利用されるものとした。しかしながら、本実施形態はこれに限定されない。機械学習モデルの出力は医用診断に供されるデータであれば如何なるデータでもよい。例えば、機械学習モデルは、生データの欠損部分の復元、医用画像の欠損部分の復元、解剖学的組織等が区分されたセグメンテーション画像の生成、解剖学的組織等の識別結果の出力を行うものでもよい。   In the above embodiment, the machine learning model is used for DNN reconstruction from raw data to a medical image. However, the present embodiment is not limited to this. The output of the machine learning model may be any data as long as the data is used for medical diagnosis. For example, a machine learning model performs restoration of a missing portion of raw data, restoration of a missing portion of a medical image, generation of a segmentation image in which an anatomical tissue and the like are segmented, and output of an identification result of the anatomical tissue and the like. May be.

図10は、数値データ93を模式的に示す図である。図10に示す数値データ93は、パルスシーケンスの種別が数値化されたデータである。図10に示すように、数値データ93は、2以上の有限の要素数分の要素94を含む。要素数は、数値化対象の収集条件が属するカテゴリに含まれる複数の候補条件の個数に一致する。例えば、図10に示すように、数値化対象の収集条件のカテゴリがパルスシーケンスの種別である場合、候補条件としては、例えば、FSE(Fast Spin Echo)、FE(Field Echo)及びEPI(Echo Planar Imaging)の3種類が挙げられる。この場合、数値データ93は、(FSE、FE、EPI)のように表現される。   FIG. 10 is a diagram schematically showing the numerical data 93. Numerical data 93 shown in FIG. 10 is data in which the type of the pulse sequence is digitized. As shown in FIG. 10, the numerical data 93 includes two or more finite elements 94. The number of elements matches the number of the plurality of candidate conditions included in the category to which the collection condition to be digitized belongs. For example, as shown in FIG. 10, when the category of the acquisition condition to be digitized is the type of the pulse sequence, the candidate conditions include, for example, FSE (Fast Spin Echo), FE (Field Echo), and EPI (Echo Planar). Imaging). In this case, the numerical data 93 is expressed as (FSE, FE, EPI).

各要素94は、複数の候補条件について当該対象撮像の収集条件が採用しているか否かに応じた数値に対応する。例えば、要素94の値として、当該候補条件が採用する旨の第1の値と採用しない旨の第2の値との何れかが割り当てられる。この場合、数値データ93は、ワンホット・ベクトル(One-Hot Vector)と称される。第1の値と第2の値とは異なる値であれば任意の整数又は自然数でもよいが、例えば、第1の値が「1」、第2の値が「0」に設定されるものとする。   Each element 94 corresponds to a numerical value according to whether or not the acquisition condition of the target imaging is employed for a plurality of candidate conditions. For example, as the value of the element 94, one of a first value indicating that the candidate condition is adopted and a second value indicating not being adopted are assigned. In this case, the numerical data 93 is called a one-hot vector. Any integer or natural number may be used as long as the first value and the second value are different. For example, the first value is set to “1” and the second value is set to “0”. I do.

例えば、図10に示すように、対象撮像の収集条件がFSEを採用する場合、FSEに対応する要素84の値は「1」、FEに対応する要素84の値は「0」、EPIに対応する要素84の値は「0」に設定される。なお、要素数は有限又は無限の如何なる数でもよい。すなわち、候補条件数は幾つでも良い。例えば、要素数すなわち候補条件数を100万以上に設定することも可能である。   For example, as shown in FIG. 10, when the acquisition condition of the target imaging uses FSE, the value of the element 84 corresponding to FSE is “1”, the value of the element 84 corresponding to FE is “0”, and the value of EPI corresponds to EPI. The value of the element 84 is set to “0”. Note that the number of elements may be finite or infinite. That is, the number of candidate conditions may be any. For example, the number of elements, that is, the number of candidate conditions, can be set to 1,000,000 or more.

図11は、図10の数値データ93−1の機械学習モデルへの入力を模式的に示す図である。図11の上段に示すように、FSEが採用される場合、数値データ93−1のFSEに対応する要素の値は「1」、FEに対応する要素の値は「0」、EPIに対応する要素の値は「0」に設定される。当該数値データ93−1と入力医用画像101との組合せが機械学習モデルに入力される。図11の中段に示すように、FEが採用される場合、数値データ93−1のFEに対応する要素の値は「0」、FEに対応する要素の値は「1」、EPIに対応する要素の値は「0」に設定される。当該数値データ93−1と入力医用画像101との組合せが機械学習モデルに入力される。図11の下段に示すように、EPIが採用される場合、数値データ93−1のEPIに対応する要素の値は「0」、FEに対応する要素の値は「0」、EPIに対応する要素の値は「1」に設定される。当該数値データ93−1と入力医用画像101との組合せが機械学習モデルに入力される。このようにパルスシーケンスの種別を数値化した数値データ93−1を機械学習モデルの入力に加えることにより、医用画像又は生データだけでなく、パルスシーケンスの種別も考慮して出力データを生成することが可能になる。よって機械学習モデルの出力データの精度が向上する。   FIG. 11 is a diagram schematically showing the input of the numerical data 93-1 in FIG. 10 to the machine learning model. As shown in the upper part of FIG. 11, when the FSE is adopted, the value of the element corresponding to the FSE of the numerical data 93-1 is “1”, the value of the element corresponding to the FE is “0”, and the value corresponds to the EPI. The value of the element is set to “0”. The combination of the numerical data 93-1 and the input medical image 101 is input to the machine learning model. As shown in the middle part of FIG. 11, when the FE is adopted, the value of the element corresponding to the FE of the numerical data 93-1 is “0”, the value of the element corresponding to the FE is “1”, and the value corresponding to the EPI. The value of the element is set to “0”. The combination of the numerical data 93-1 and the input medical image 101 is input to the machine learning model. As shown in the lower part of FIG. 11, when the EPI is adopted, the value of the element corresponding to the EPI of the numerical data 93-1 is “0”, the value of the element corresponding to the FE is “0”, and the value of the element corresponding to the EPI is “0”. The value of the element is set to "1". The combination of the numerical data 93-1 and the input medical image 101 is input to the machine learning model. By adding the numerical data 93-1 obtained by digitizing the type of the pulse sequence to the input of the machine learning model, output data can be generated in consideration of not only the medical image or raw data but also the type of the pulse sequence. Becomes possible. Therefore, the accuracy of the output data of the machine learning model is improved.

図12は、他の数値データ93−2の機械学習モデルへの入力を模式的に示す図である。図12に示す数値データ93−2は、収集条件「黄金角フレーム番号」を数値化している。黄金角フレーム番号は、黄金角の規則に従いデータ収集軌跡の収集角が設定されたラディアル法を利用した動画撮像のフレーム番号であり、フレーム番号を当該フレームに関する基準のデータ収集軌跡の黄金角に関連付けたものである。基準のデータ収集軌跡は、当該フレームが複数のデータ収集軌跡で構成される場合、最初、最後又は中間等の任意の序列のデータ収集軌跡である。この場合、数値データ93−2は、(黄金角フレーム#1、黄金角フレーム#2、…)のように表現される。数値データ93−2の要素数は、フレーム番号の候補数に一致又は対応する。   FIG. 12 is a diagram schematically showing the input of other numerical data 93-2 to the machine learning model. Numerical data 93-2 shown in FIG. 12 digitizes the collection condition “golden frame number”. The golden corner frame number is a frame number of a moving image capturing using the radial method in which the collection angle of the data collection trajectory is set according to the rule of the golden corner, and associates the frame number with the golden angle of the reference data collection trajectory for the frame It is a thing. When the frame is composed of a plurality of data collection trajectories, the reference data collection trajectory is a data collection trajectory of an arbitrary order such as first, last, or middle. In this case, the numerical data 93-2 is expressed as (golden frame # 1, golden frame # 2,...). The number of elements of the numerical data 93-2 matches or corresponds to the number of frame number candidates.

図12の上段に示すように、入力医用画像101が黄金角フレーム#1である場合、数値データの黄金角フレーム#1に対応する要素の値は「1」、他のフレームに対応する要素の値は「0」に設定される。当該数値データ93−2と入力医用画像101との組合せが機械学習モデルに入力される。図12の中段に示すように、入力医用画像101が黄金角フレーム#2である場合、数値データの黄金角フレーム#2に対応する要素の値は「1」、他のフレームに対応する要素の値は「0」に設定される。当該数値データ93−2と入力医用画像101との組合せが機械学習モデルに入力される。このように黄金角フレーム番号を数値化した数値データを機械学習モデルの入力に加えることにより、医用画像又は生データだけでなく、黄金角フレーム番号も考慮して出力データを生成することが可能になる。よって機械学習モデルの出力データの精度が向上する。   As shown in the upper part of FIG. 12, when the input medical image 101 is the golden corner frame # 1, the value of the element corresponding to the golden corner frame # 1 of the numerical data is “1”, and the value of the element corresponding to the other frame is “1”. The value is set to “0”. The combination of the numerical data 93-2 and the input medical image 101 is input to the machine learning model. As shown in the middle part of FIG. 12, when the input medical image 101 is the golden corner frame # 2, the value of the element corresponding to the golden corner frame # 2 of the numerical data is “1”, and the value of the element corresponding to the other frame is “1”. The value is set to “0”. The combination of the numerical data 93-2 and the input medical image 101 is input to the machine learning model. By adding the numerical data obtained by digitizing the golden corner frame number to the input of the machine learning model, it is possible to generate output data in consideration of not only the medical image or raw data but also the golden corner frame number. Become. Therefore, the accuracy of the output data of the machine learning model is improved.

なお、動画撮像におけるラディアル法のデータ収集軌跡の収集角及び収集順序としては、黄金角を利用したものに限らず、反転ビットパターンを利用したものでもよいし、シーケンシャルパターンを利用したものでもよい。この場合、数値データの要素数は、反転ビットパターン又はシーケンシャルパターンの候補数に一致又は対応する。各要素の値は入力医用画像に関する反転ビットパターン又はシーケンシャルパターンが当該要素に対応する反転ビットパターン又はシーケンシャルパターンを採用しているか否かに応じて設定される。   Note that the collection angle and the collection order of the data collection trajectory of the radial method in moving image capturing are not limited to those using the golden angle, but may be those using an inverted bit pattern or those using a sequential pattern. In this case, the number of elements of the numerical data matches or corresponds to the number of candidates for the inverted bit pattern or the sequential pattern. The value of each element is set according to whether the inverted bit pattern or the sequential pattern regarding the input medical image employs the inverted bit pattern or the sequential pattern corresponding to the element.

図13は、他の数値データ93−3の機械学習モデルへの入力を模式的に示す図である。図13に示す数値データ93−3は、収集条件「疑似ランダムパターン番号」を数値化している。疑似ランダムパターン番号は、疑似ランダムカーテシアン法を利用した動画撮像の乱数パターンの番号であり、フレーム番号を当該フレームに関する乱数パターンに関連付けたものである。なお、疑似ランダムカーテシアン法は、乱数パターンに従いデータ収集軌跡が設定されたカーテシアン法を指す。この場合、数値データ93−3は、(疑似ランダムパターン#1、疑似ランダムパターン#2、…)のように表現される。数値データ93−3の要素数は乱数パターンの候補数に一致又は対応する。   FIG. 13 is a diagram schematically illustrating input of other numerical data 93-3 to the machine learning model. Numerical data 93-3 shown in FIG. 13 digitizes the collection condition “pseudo random pattern number”. The pseudo-random pattern number is the number of a random number pattern for capturing a moving image using the pseudo-random Cartesian method, and is obtained by associating a frame number with a random number pattern for the frame. The pseudo-random Cartesian method refers to a Cartesian method in which a data collection trajectory is set according to a random number pattern. In this case, the numerical data 93-3 is expressed as (pseudo-random pattern # 1, pseudo-random pattern # 2,...). The number of elements of the numerical data 93-3 matches or corresponds to the number of random number pattern candidates.

図13の上段に示すように、入力医用画像101が疑似ランダムパターン#1である場合、数値データ93−3の疑似ランダムパターン#1に対応する要素の値は「1」、他の疑似ランダムパターンに対応する要素の値は「0」に設定される。当該数値データ93−3と入力医用画像101との組合せが機械学習モデルに入力される。図13の中段に示すように、入力医用画像101が疑似ランダムパターン#2である場合、数値データ93−3の疑似ランダムパターン#2に対応する要素の値は「1」、他の疑似ランダムパターンに対応する要素の値は「0」に設定される。当該数値データ93−3と入力医用画像101との組合せが機械学習モデルに入力される。このように疑似ランダムパターン番号を数値化した数値データを機械学習モデルの入力に加えることにより、医用画像又は生データだけでなく、疑似ランダムパターン番号も考慮して出力データを生成することが可能になる。よって機械学習モデルの出力データの精度が向上する。   As shown in the upper part of FIG. 13, when the input medical image 101 is the pseudo random pattern # 1, the value of the element corresponding to the pseudo random pattern # 1 of the numerical data 93-3 is “1”, and the other pseudo random patterns Is set to “0”. The combination of the numerical data 93-3 and the input medical image 101 is input to the machine learning model. As shown in the middle part of FIG. 13, when the input medical image 101 is the pseudo random pattern # 2, the value of the element corresponding to the pseudo random pattern # 2 of the numerical data 93-3 is “1”, and the other pseudo random patterns Is set to “0”. The combination of the numerical data 93-3 and the input medical image 101 is input to the machine learning model. By adding numerical data obtained by digitizing the pseudo random pattern number to the input of the machine learning model, it is possible to generate output data in consideration of not only a medical image or raw data but also a pseudo random pattern number. Become. Therefore, the accuracy of the output data of the machine learning model is improved.

数値化対象である、動画撮像の収集条件は、上記のものに限定されず、例えば、心時相により規定されるフレーム番号でもよい。心時相により規定されるフレーム番号は、例えば、R波から次のR波までを100%としたときの、当該フレームの心時相を番号で規定したものである。   The moving image capturing conditions to be digitized are not limited to those described above, and may be, for example, a frame number defined by a cardiac phase. The frame number defined by the cardiac phase is, for example, a number that defines the cardiac phase of the frame when the period from the R wave to the next R wave is 100%.

数値化対象の収集条件は、パラレルイメージングの倍速率でもよい。この場合、数値データの要素数は倍速率の候補数に規定される。要素の値は、当該要素に対応する倍速率が、対象撮像にて採用されているか否かに応じた値を有する。パラレルイメージングに起因するアーチファクトは、倍速率に応じた特徴を有している。従ってパラレルイメージングの倍速率を数値化した数値データを機械学習モデルの入力に加えることにより、倍速率に応じた特徴を機械学習モデルが検出することができ、ひいては、機械学習モデルの出力データの精度が向上する。   The acquisition condition to be digitized may be a double speed rate of parallel imaging. In this case, the number of elements of the numerical data is defined as the number of double speed rate candidates. The value of the element has a value corresponding to whether or not the speed ratio corresponding to the element is employed in the target imaging. Artifacts caused by parallel imaging have characteristics according to the speed ratio. Therefore, by adding numerical data obtained by digitizing the speed ratio of the parallel imaging to the input of the machine learning model, the feature corresponding to the speed ratio can be detected by the machine learning model. As a result, the accuracy of the output data of the machine learning model can be improved. Is improved.

数値化対象である収集条件は、上記のものに限定されず、例えば、生データに対するデータ処理条件や医用画像に対する画像処理条件でもよい。データ処理条件又は画像処理条件としては、例えば、繰り返し演算の繰り返し数がある。繰り返し演算は、生データ又は医用画像に対し繰り返し適用されたノイズ除去処理やエッジ強調処理、平滑化処理等の演算であり、繰り返し数は当該演算を繰り返した数である。あるいは、生データから医用画像を再構成する際に、生データと再構成画像の再構成誤差を減らす演算と、当該演算を交互に実行する際に、当該演算を繰り返した数である。当該演算は、フィルタやDNN等を用いて行われる。数値データの要素数は繰り返し数の候補数に規定され、要素の値は当該要素に対応する繰り返し数だけ、対象演算が繰り返しているか否かに応じた値を有する。このように、繰り返し演算後の医用データと、繰り返し演算の繰り返し数を数値化した数値データとを機械学習モデルの入力に加えることにより、当該医用データだけでなく、繰り返し数も考慮して出力データを生成することが可能になる。よって機械学習モデルの出力データの精度が向上する。なお、繰り返し数はワンホット・ベクトルであっても良い。あるいは、最初の数回(例えば、3回)をワンホット・ベクトルの形で与え、その回数を超えた繰り返し数として与えたベクトルであってもよい。   The acquisition conditions to be digitized are not limited to the above, and may be, for example, data processing conditions for raw data or image processing conditions for medical images. The data processing condition or the image processing condition includes, for example, the number of repetitions of the repetition operation. The repetition operation is an operation such as a noise removal process, an edge enhancement process, and a smoothing process repeatedly applied to raw data or a medical image, and the number of repetitions is the number of times the operation is repeated. Alternatively, when the medical image is reconstructed from the raw data, the number of times the calculation is repeated to reduce the reconstruction error between the raw data and the reconstructed image and the number of times when the calculation is alternately performed. The calculation is performed using a filter, a DNN, or the like. The number of elements of the numerical data is defined as the number of candidates for the number of repetitions, and the element value has a value corresponding to the number of repetitions corresponding to the element, depending on whether or not the target operation is repeated. As described above, by adding the medical data after the repetition operation and the numerical data obtained by digitizing the number of repetitions of the repetition operation to the input of the machine learning model, not only the medical data but also the output data in consideration of the number of repetitions. Can be generated. Therefore, the accuracy of the output data of the machine learning model is improved. Note that the number of repetitions may be a one-hot vector. Alternatively, a vector may be provided in the form of a one-hot vector in which the first few times (for example, three times) are provided and the number of repetitions exceeding the number is given.

データ処理条件又は画像処理条件に関する数値データとしては、複数種類のデータ処理又は画像処理の採否等が数値化されたものでもよい。この場合、数値データの要素数はデータ処理又は画像処理の候補数であり、各要素の値は、個別のデータ処理又は画像処理の採否に応じた値に設定される。例えば、数値データは、(ノイズ低減、エッジ強調、セグメント処理)等に表現されるとよい。   The numerical data relating to the data processing conditions or the image processing conditions may be numerical data indicating whether or not a plurality of types of data processing or image processing are adopted. In this case, the number of elements of the numerical data is the number of candidates for data processing or image processing, and the value of each element is set to a value according to whether individual data processing or image processing is adopted. For example, the numerical data may be expressed as (noise reduction, edge enhancement, segment processing) or the like.

上記の数値データの要素数は、候補条件の数に一致するものとした。しかしながら、本実施形態はこれに限定されない。   The number of elements of the above numerical data was assumed to match the number of candidate conditions. However, the present embodiment is not limited to this.

図14は、他の数値データ93−4を模式的に示す図である。図14に示すように、数値データ93−4は、候補条件に対応する要素94と、何れの候補条件にも該当しない事に対応する要素95とを含む。要素95の値は、例えば、何れかの候補条件に該当する場合、「0」に設定され、何れかの候補条件に該当する場合、「1」に設定される。例えば、図14に示すように、数値データ93−4がパルスシーケンスを数値化したものであり、実際のMR撮像のパルスシーケンスがFSE、FE及びEPIの何れでもない場合、要素95の値は「1」に設定される。数値データ93−4に要素95を設けることにより、実際のMR撮像のパルスシーケンスが候補条件の何れにも該当しないことを機械学習モデルに対して明示することができる。   FIG. 14 is a diagram schematically showing other numerical data 93-4. As shown in FIG. 14, the numerical data 93-4 includes an element 94 corresponding to the candidate condition and an element 95 corresponding to not satisfying any of the candidate conditions. For example, the value of the element 95 is set to “0” when one of the candidate conditions is satisfied, and is set to “1” when the one of the candidate conditions is satisfied. For example, as shown in FIG. 14, when the numerical data 93-4 is obtained by digitizing the pulse sequence, and the pulse sequence of the actual MR imaging is not any of FSE, FE, and EPI, the value of the element 95 is “ 1 ". By providing the element 95 in the numerical data 93-4, it is possible to clearly indicate to the machine learning model that the pulse sequence of the actual MR imaging does not correspond to any of the candidate conditions.

上記の数値データは、パルスシーケンスの種別やフレーム番号等、一種類の収集条件を数値化したものであることを前提とした。しかしながら、本実施形態はこれに限定されない。例えば、数値データは、パルスシーケンスの種別及びフレーム番号を1列のベクトルとして表現してもよい。この場合、数値データは、具体的には、(FSE、FE、EPI、フレーム番号1、フレーム番号2、…)等により表現される。   The above numerical data is based on the premise that one type of acquisition conditions such as the type of pulse sequence and the frame number are digitized. However, the present embodiment is not limited to this. For example, in the numerical data, the type of pulse sequence and the frame number may be represented as a vector in one column. In this case, the numerical data is specifically represented by (FSE, FE, EPI, frame number 1, frame number 2, ...).

また、上記の説明において数値データの要素は、当該候補条件を採用するか否かを2値で表現するワンホット・ベクトルであるとした。しかしながら、要素は、当該候補条件の強度や方向、回数等の多段の概念を3値以上で表現するベクトルでもよい。   In the above description, the element of the numerical data is a one-hot vector that expresses in binary whether or not to adopt the candidate condition. However, the element may be a vector that expresses a multi-stage concept such as the strength, direction, and number of times of the candidate condition in three or more values.

次に、本実施形態に係る機械学習モデルのネットワーク構造について説明する。   Next, a network structure of the machine learning model according to the present embodiment will be described.

図15は、本実施形態に係る機械学習モデル521−4のネットワーク構造を模式的に示す図である。図15に示すように、機械学習モデル521−4は、例示として、ノイズを有する医用画像#1と当該医用画像に関する収集条件を数値化した数値データ#2との組合せを入力し、ノイズを有さない医用画像を出力するようにパラメータが学習されたDNNであるとする。医用画像#1と数値データ#2とはそれぞれ1セットであるとする。   FIG. 15 is a diagram schematically illustrating a network structure of the machine learning model 521-4 according to the present embodiment. As illustrated in FIG. 15, as an example, the machine learning model 521-4 receives, as an example, a combination of a medical image # 1 having noise and numerical data # 2 obtained by digitizing the acquisition conditions regarding the medical image, and has a noise. It is assumed that the parameter is a DNN for which a parameter has been learned so as to output a medical image that is not to be output. It is assumed that medical image # 1 and numerical data # 2 are each one set.

機械学習モデル521−4は、CNN層523を有する。CNN層523は、医用画像#1と数値データ#2との各々を、チャネル毎に異なる重みを乗じて加算するように構成される。例えば、医用画像#1にはチャネル数chの複数のフィルタが適用され、数値データ#2には同数chの複数のフィルタが適用される。フィルタ後の医用画像と数値データとは加算器203によりチャネル毎に加算され加算データに変換される。加算データはバイアス204によりチャネル毎に一定値が加算されバイアスデータに変換される。チャネル毎のバイアスデータがCNN層523から出力される。   The machine learning model 521-4 has a CNN layer 523. The CNN layer 523 is configured to add each of the medical image # 1 and the numerical data # 2 by multiplying the weight by a different weight for each channel. For example, a plurality of filters of the number of channels ch is applied to the medical image # 1, and a plurality of filters of the same number ch are applied to the numerical data # 2. The filtered medical image and numerical data are added by the adder 203 for each channel and converted into added data. The added data is added with a constant value for each channel by the bias 204 and is converted into bias data. Bias data for each channel is output from the CNN layer 523.

上記CNN層523のネットワーク構造は一例であり、種々の変形が可能である。例えば、CNN層523には一段のフィルタ201,202ではなく、多段のフィルタ201,202が設けられてもよい。例えば、フィルタ201のサイズは5×5、フィルタ202のサイズは1×1等に設定されればよいが、フィルタ201,202のサイズは如何なるサイズでもよい。   The network structure of the CNN layer 523 is an example, and various modifications are possible. For example, the CNN layer 523 may be provided with multi-stage filters 201 and 202 instead of the single-stage filters 201 and 202. For example, the size of the filter 201 may be set to 5 × 5, the size of the filter 202 may be set to 1 × 1, etc., but the sizes of the filters 201 and 202 may be any size.

CNN層523の後続には後置層525が設けられる。後置層525はCNN層523からの複数チャネル分のバイアスデータに演算を施して、機械学習モデル521−4の出力として、ノイズを有しない医用画像を出力する。後置層525は、少なくとも1層以上の全結合層及び出力層を有するが、これらの層に加え、1以上のCNN層やプーリング層、正規化層等の如何なる層を有してもよい。   Subsequent to the CNN layer 523, a post-layer 525 is provided. The post-layer 525 performs an operation on the bias data for a plurality of channels from the CNN layer 523 and outputs a noise-free medical image as an output of the machine learning model 521-4. The post-layer 525 has at least one or more total coupling layers and output layers, but may have any one or more layers such as one or more CNN layers, pooling layers, and normalization layers in addition to these layers.

図15に示すCNN層523の入力は1セットの医用画像と1セットの数値データであるとした。しかしながら、本実施形態はこれに限定されない。CNN層の入力は複数セットの医用画像と同セットの数値データとでもよい。   It is assumed that the input of the CNN layer 523 shown in FIG. 15 is one set of medical images and one set of numerical data. However, the present embodiment is not limited to this. The input of the CNN layer may be a plurality of sets of medical images and the same set of numerical data.

図16は、本実施形態に係る他の機械学習モデル521−5のネットワーク構造を模式的に示す図である。図16に示すように、機械学習モデル521−5は、例示として、ノイズを有する医用画像#1とノイズを有する医用画像#2と医用画像#1に関する収集条件を数値化した数値データ#3と医用画像#2に関する収集条件を数値化した数値データ#4との組合せを入力し、ノイズを有さない医用画像を出力するようにパラメータが学習されたDNNであるとする。医用画像#2は、例えば、医用画像#1のコピーや、医用画像#1に任意の画像処理を施した医用画像等、医用画像#1から派生した医用画像である。また、医用画像2は、医用画像#1と同一の収集条件により収集された別の医用画像でもよいし、別の収集条件により収集された医用画像でもよい。   FIG. 16 is a diagram schematically illustrating a network structure of another machine learning model 521-5 according to the present embodiment. As illustrated in FIG. 16, the machine learning model 521-5 includes, for example, a medical image # 1 having noise, a medical image # 2 having noise, and numerical data # 3 obtained by digitizing acquisition conditions regarding the medical image # 1. It is assumed that the DNN is a parameter that has been learned by inputting a combination with numerical data # 4 obtained by digitizing the acquisition conditions regarding medical image # 2 and outputting a medical image having no noise. The medical image # 2 is a medical image derived from the medical image # 1, such as a copy of the medical image # 1 or a medical image obtained by performing arbitrary image processing on the medical image # 1. The medical image 2 may be another medical image acquired under the same acquisition conditions as the medical image # 1, or may be a medical image acquired under another acquisition condition.

機械学習モデル521−5は、CNN層527を有する。CNN層527は、医用画像#1と医用画像#2と数値データ#3と数値データ#4との各々を、チャネル毎に異なる重みを乗じて加算するように構成される。例えば、医用画像#1にはチャネル数chの複数のフィルタ211が適用され、医用画像#2には同数chの複数のフィルタ212が適用され、数値データ#3には同数chの複数のフィルタ213が適用され、数値データ#4には同数chの複数のフィルタ214が適用される。フィルタ後の医用画像と数値データとは加算器215によりチャネル毎に加算され加算データに変換される。加算データはバイアス216によりチャネル毎に一定値が加算されバイアスデータに変換される。チャネル毎のバイアスデータがCNN層527から出力される。   The machine learning model 521-5 has a CNN layer 527. The CNN layer 527 is configured to add each of the medical image # 1, the medical image # 2, the numerical data # 3, and the numerical data # 4 by multiplying a different weight for each channel. For example, a plurality of filters 211 of the same number of channels are applied to the medical image # 1, a plurality of filters 212 of the same number of channels are applied to the medical image # 2, and a plurality of filters 213 of the same number of channels are applied to the numerical data # 3. Is applied, and a plurality of filters 214 of the same number of channels are applied to the numerical data # 4. The filtered medical image and the numerical data are added by the adder 215 for each channel and converted into added data. A constant value is added to the addition data for each channel by the bias 216 and is converted into bias data. Bias data for each channel is output from the CNN layer 527.

上記CNN層527のネットワーク構造は一例であり、種々の変形が可能である。例えば、CNN層527には一段のフィルタ211,212,213,214ではなく、多段のフィルタ211,212,213,214が設けられてもよい。   The network structure of the CNN layer 527 is an example, and various modifications are possible. For example, the CNN layer 527 may be provided with multi-stage filters 211, 212, 213, 214 instead of the single-stage filters 211, 212, 213, 214.

CNN層527の後続には後置層529が設けられる。後置層529はCNN層527からの複数チャネル分のバイアスデータに演算を施して、機械学習モデル521−5の出力として、ノイズを有しない医用画像を出力する。出力の医用画像は、医用画像#1からノイズが除去された画像等、医用画像#1に対応する医用画像である。後置層529は、少なくとも1層以上の全結合層及び出力層を有するが、これらの層に加え、1以上のCNN層やプーリング層、正規化層等の如何なる層を有してもよい。   Subsequent to the CNN layer 527, a post-layer 529 is provided. The post-layer 529 performs an operation on the bias data for a plurality of channels from the CNN layer 527 to output a noise-free medical image as an output of the machine learning model 521-5. The output medical image is a medical image corresponding to the medical image # 1, such as an image obtained by removing noise from the medical image # 1. The post-layer 529 has at least one or more total coupling layers and output layers, but in addition to these layers, may have any one or more layers such as a CNN layer, a pooling layer, and a normalization layer.

なお、複数のCNN層を有する機械学習モデルの場合、各CNN層に対して必ず数値データが入力されなければならないわけではない。   In the case of a machine learning model having a plurality of CNN layers, numerical data does not necessarily have to be input to each CNN layer.

図17は、複数のCNN層531を有する機械学習モデル521−6の入出力を模式的に示す図である。図17に示す機械学習モデル521−6は、例示として、一連の3つのCNN層531−1、CNN層531−2及びCNN層531−3を有する。CNN531−3の後続に後置層533が設けられる。CNN531−1は入力医用画像を入力し、CNN層531−2はCNN層531−1の出力データを入力し、CNN層531−3はCNN層531−2の出力データを入力する。後置層533は、CNN層531−3からの出力データが入力され、例えば、入力医用画像#1からノイズが除去された医用画像を、機械学習モデル521−6の出力として、出力する。CNN層531−1、CNN層531−2及びCNN層531−3のネットワーク構造は、同一でも異なってもよく、任意に設計されればよい。   FIG. 17 is a diagram schematically illustrating input and output of a machine learning model 521-6 having a plurality of CNN layers 531. The machine learning model 521-6 illustrated in FIG. 17 has, for example, a series of three CNN layers 531-1, a CNN layer 531-2, and a CNN layer 531-3. Subsequent to CNN 531-3, a back layer 533 is provided. The CNN 531-1 receives the input medical image, the CNN layer 531-2 receives the output data of the CNN layer 531-1, and the CNN layer 531-1-3 receives the output data of the CNN layer 531-2. The post-layer 533 receives the output data from the CNN layer 531-3 and outputs, for example, a medical image from which noise has been removed from the input medical image # 1 as an output of the machine learning model 521-6. The network structure of the CNN layer 531-1, the CNN layer 531-2, and the CNN layer 531-3 may be the same or different, and may be arbitrarily designed.

図17に示すように、3つのCNN層531−1、CNN層531−2及びCNN層531−3の全てについて数値データ#2が入力されなくてもよく、例えば、入力側に一番近いCNN層531−1に数値データ#2が入力されず、その後のCNN層531−2及びCNN層531−3に数値データ#2が入力されてもよい。これに限らず、入力側に一番近いCNN層531−1に数値データ#2が入力され、その後のCNN層531−2及びCNN層531−3に数値データ#2が入力されなくてもよい。また、CNN層531−1、CNN層531−2及びCNN層531−3の何れか1つのCNN層に数値データ#2が入力され、他のCNN層に数値データ#2が入力されなくてもよい。もちろん、CNN層531−1、CNN層531−2及びCNN層531−3の全てに数値データ#2が入力されてもよい。   As shown in FIG. 17, the numerical data # 2 may not be input to all of the three CNN layers 531-1, CNN layer 531-2, and CNN layer 531-3. For example, the CNN closest to the input side may be used. The numerical data # 2 may not be input to the layer 531-1, and the numerical data # 2 may be input to the subsequent CNN layers 531-2 and 531-3. The present invention is not limited to this, and the numerical data # 2 may be input to the CNN layer 531-1 closest to the input side, and the numerical data # 2 may not be input to the subsequent CNN layers 531-2 and 531-3. . Further, even if the numerical data # 2 is input to any one of the CNN layers 531-1, 531-2 and 531-3, and the numerical data # 2 is not input to the other CNN layers. Good. Of course, the numerical data # 2 may be input to all of the CNN layer 531-1, the CNN layer 531-2, and the CNN layer 531-3.

上記の実施形態において機械学習モデルの出力は、ノイズを有さない医用画像を出力するとした。しかしながら、機械学習モデルの出力はこれに限定されない。   In the above embodiment, the output of the machine learning model is a medical image having no noise. However, the output of the machine learning model is not limited to this.

例えば、機械学習モデルは、医用画像と数値データとから、当該医用画像のセグメンテーション結果を出力してもよい。例えば、T1強調画像又はT2強調画像の入力に対し、セグメンテーション結果として、解像学的組織や病変領域が区分された画像が出力される。病変領域としては、例えば、脳梗塞らしさや虚血らしさ、癌の疑いのある画像領域である。医用画像と数値データとから、当該医用画像の識別結果を出力してもよい。例えば、T1強調画像、T2強調画像、又はT1強調画像及びT2強調画像の組合せの入力に対し、識別結果として、脳梗塞である確率が出力される。医用画像と数値データとから、当該医用画像のセグメンテーション結果を出力してもよい。例えば、T1強調画像、T2強調画像、又はT1強調画像及びT2強調画像の組合せの入力に対し、セグメンテーション結果として、脳梗塞らしさを有する画像領域が区分された画像が出力される。   For example, the machine learning model may output a segmentation result of the medical image from the medical image and the numerical data. For example, with respect to the input of the T1-weighted image or the T2-weighted image, an image in which the resolving tissue or the lesion area is divided is output as the segmentation result. The lesion area is, for example, an image area in which cerebral infarction, ischemia, or cancer is suspected. The identification result of the medical image may be output from the medical image and the numerical data. For example, in response to an input of a T1-weighted image, a T2-weighted image, or a combination of a T1-weighted image and a T2-weighted image, a probability of cerebral infarction is output as the identification result. From the medical image and the numerical data, the segmentation result of the medical image may be output. For example, in response to an input of a T1-weighted image, a T2-weighted image, or a combination of a T1-weighted image and a T2-weighted image, an image in which an image region having a cerebral infarction-likeness is output as a segmentation result.

T1強調画像やT2強調画像のように異なる画像種の医用画像に基づいて学習を行わせた場合においても、機械学習モデルのパラメータの一部は共通化される。よって機械学習モデルは、学習の効率の低減を抑制しつつ、異なる画像種の医用画像の入力に対する汎用性を獲得することができる。   Even when learning is performed based on medical images of different image types such as T1-weighted images and T2-weighted images, some of the parameters of the machine learning model are shared. Therefore, the machine learning model can acquire versatility for input of medical images of different image types while suppressing reduction in learning efficiency.

また、機械学習モデルは、医用データと数値データとから、当該医用データの超解像データを出力してもよい。超解像データは、入力医用データに比して空間解像度が高い医用データである。医用データと数値データとを含む入力データと、教師データである超解像データとに基づいてDNNを学習させることにより当該機械学習モデルを生成することが可能である。   The machine learning model may output super-resolution data of the medical data from the medical data and the numerical data. The super-resolution data is medical data having a higher spatial resolution than the input medical data. The machine learning model can be generated by learning DNN based on input data including medical data and numerical data, and super-resolution data as teacher data.

例えば、周波数を制限したハーフフーリエ(Half-Fourier)法によりk空間データが収集された場合、当該k空間データは、一部欠落し、空間解像度が低下している。ハーフフーリエ法により収集されたk空間データと数値データとを含む入力データと、周波数制限無しのMR撮像より収集されたk空間データ(教師データ)とに基づくDNNを学習されることにより、当該機械学習モデルを生成することができる。当該機械学習モデルを用いることによりハーフフーリエ法により収集されたk空間データから、データ欠損部分が復元されたk空間データ(超解像データ)を出力することが可能になる。   For example, when k-space data is collected by the half-Fourier method with a limited frequency, the k-space data is partially missing and spatial resolution is reduced. By learning DNN based on input data including k-space data and numerical data collected by the half Fourier method and k-space data (teacher data) collected from MR imaging without frequency limitation, the machine is learned. A learning model can be generated. By using the machine learning model, it is possible to output k-space data (super-resolution data) in which a missing data portion is restored from k-space data collected by the half Fourier method.

上記に示す機械学習モデルは、モデル学習装置6により教師付機械学習を用いて生成可能である。学習サンプルは、様々な収集条件により医用データを収集することにより用意される。具体的には、学習サンプルの入力データは、ある収集条件により収集された入力医用データと、当該収集条件を数値化した数値データとを含む。学習サンプルの出力データは、当該医用データに対応し且つ機械学習モデルの目的に応じた出力医用データを含む。出力データは、例えば、機械学習モデルの目的がデノイズであれば、入力医用データに比してノイズが低減された医用データである。   The machine learning model described above can be generated by the model learning device 6 using supervised machine learning. The learning sample is prepared by collecting medical data under various collection conditions. Specifically, the input data of the learning sample includes input medical data collected under a certain collection condition and numerical data obtained by digitizing the collection condition. The output data of the learning sample includes output medical data corresponding to the medical data and corresponding to the purpose of the machine learning model. For example, if the purpose of the machine learning model is de-noise, the output data is medical data in which noise is reduced as compared to the input medical data.

学習機能612において処理回路61は、入力医用データと数値データとを機械学習モデルに適用して順伝播処理を行い、出力医用データを出力する。次に処理回路61は、推定出力医用データと正解出力医用データとの差分(誤差)を当該機械学習モデルに適用して逆伝播処理を行い、勾配ベクトルを計算する。次に処理回路61は、勾配ベクトルに基づいて当該機械学習モデルの重み付き行列やバイアス等のパラメータを更新する。順伝播処理、逆伝播処理及びパラメータ更新処理を、学習サンプルを変更しながら繰り返すことにより、学習済みの機械学習モデルが生成される。   In the learning function 612, the processing circuit 61 performs forward propagation processing by applying the input medical data and the numerical data to the machine learning model, and outputs output medical data. Next, the processing circuit 61 performs a back propagation process by applying a difference (error) between the estimated output medical data and the correct output medical data to the machine learning model, and calculates a gradient vector. Next, the processing circuit 61 updates parameters such as a weighted matrix and a bias of the machine learning model based on the gradient vector. By repeating the forward propagation process, the back propagation process, and the parameter update process while changing the learning sample, a learned machine learning model is generated.

上記の説明の通り、医用情報処理装置50は、処理回路51を有する。処理回路51は、被検体に関する医用データを取得し、医用データの収集条件を数値化した数値データを取得し、数値データと医用データとを含む入力データに機械学習モデル521を適用して、当該医用データに基づく出力データを生成する。   As described above, the medical information processing apparatus 50 includes the processing circuit 51. The processing circuit 51 obtains medical data on the subject, obtains numerical data obtained by digitizing the medical data collection conditions, applies the machine learning model 521 to input data including the numerical data and the medical data, and Generate output data based on medical data.

上記の構成によれば、機械学習モデル521が医用データに加え、当該医用データに対応する収集条件を数値化した数値データを入力に用いているので、医用データのみを入力する場合に比して、出力データの精度を向上させることができる。数値データの要素数は予め定められた候補条件の数に対応しており、また、各要素の値は当該候補条件の採否等に応じた値である。すなわち、収集条件の数値化の規則は予め定められているので、学習時や適用時において機械学習モデルが収集条件を高精度に判別することが可能である。これも出力データの精度を向上させる一要因となる。   According to the above configuration, the machine learning model 521 uses, in addition to the medical data, numerical data obtained by digitizing the acquisition conditions corresponding to the medical data for input, as compared with the case where only the medical data is input. The accuracy of output data can be improved. The number of elements of the numerical data corresponds to a predetermined number of candidate conditions, and the value of each element is a value according to whether or not the candidate condition is adopted. That is, since the rules for digitizing the collection conditions are predetermined, the machine learning model can determine the collection conditions with high accuracy at the time of learning or application. This is another factor in improving the accuracy of the output data.

以上説明した少なくとも1つの実施形態によれば、機械学習を用いた出力データの精度を向上することができる。   According to at least one embodiment described above, the accuracy of output data using machine learning can be improved.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで各機能511−516を実現する。なお、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで各機能511−516を実現する。また、プログラムを実行するのではなく、論理回路の組合せにより当該プログラムに対応する各機能511−516を実現しても良い。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1、図3及び図7における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。   The term “processor” used in the above description refers to, for example, a CPU, a GPU, or an application specific integrated circuit (ASIC), a programmable logic device (eg, a simple programmable logic device). : SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). The processor realizes each function 511 to 516 by reading and executing the program stored in the storage circuit. Instead of storing the program in the storage circuit, the program may be directly incorporated in the circuit of the processor. In this case, the processor implements the functions 511 to 516 by reading and executing a program incorporated in the circuit. Instead of executing the program, the functions 511 to 516 corresponding to the program may be realized by a combination of logic circuits. Note that each processor of the present embodiment is not limited to the case where each processor is configured as a single circuit, but may be configured as one processor by combining a plurality of independent circuits to realize its function. Good. Further, a plurality of components in FIGS. 1, 3 and 7 may be integrated into one processor to realize its function.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   While some embodiments of the invention have been described, these embodiments have been presented by way of example only, and are not intended to limit the scope of the inventions. These embodiments can be implemented in other various forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 PET装置
10 ガントリ
11 検出器リング
13 検出処理器
15 同時計数回路
17 ガンマ線検出器
19 処理回路
21 メモリ
23 重心演算機能
25 エネルギー演算機能
27 重心/結晶テーブル
30 寝台
50 医用情報処理装置(コンソール)
51 処理回路
52 ディスプレイ
53 メモリ
54 入力インタフェース
55 通信インタフェース
511 再構成機能
512 画像処理機能
513 撮像制御機能
514 フラッドマップ取得機能
515 結晶区分生成機能
516 結晶区分修正機能
517 テーブル生成機能
518 モデル更新機能
519 表示制御機能
531 機械学習モデル
DESCRIPTION OF SYMBOLS 1 PET apparatus 10 Gantry 11 Detector ring 13 Detection processor 15 Simultaneous counting circuit 17 Gamma ray detector 19 Processing circuit 21 Memory 23 Center of gravity calculation function 25 Energy calculation function 27 Center of gravity / crystal table 30 Bed 50 Medical information processing device (console)
51 processing circuit 52 display 53 memory 54 input interface 55 communication interface 511 reconstruction function 512 image processing function 513 imaging control function 514 flood map acquisition function 515 crystal section generation function 516 crystal section correction function 517 table generation function 518 model update function 519 display Control function 531 Machine learning model

Claims (23)

被検体に関する医用データを取得する第1取得部と、
前記医用データの収集条件を数値化した数値データを取得する第2取得部と、
前記数値データと前記医用データとを含む入力データに機械学習モデルを適用して、前記医用データに基づく出力データを生成する生成部と、
を具備する医用情報処理装置。
A first acquisition unit for acquiring medical data on the subject,
A second acquisition unit that acquires numerical data obtained by digitizing the medical data collection conditions;
A generator that applies a machine learning model to input data including the numerical data and the medical data, and generates output data based on the medical data,
A medical information processing apparatus comprising:
前記機械学習モデルは、前記数値データと前記医用データとを入力とし、教師データを用いて学習される、請求項1記載の医用情報処理装置。   The medical information processing apparatus according to claim 1, wherein the machine learning model receives the numerical data and the medical data as inputs and is learned using teacher data. 前記数値データは、2以上の有限の要素数分の要素を含み、
前記要素数は、前記収集条件に対応する複数の候補条件の個数に対応し、
前記要素の値は、前記複数の候補条件に対する前記収集条件の採否及び/又は値に応じた数値に対応する、
請求項1記載の医用情報処理装置。
The numerical data includes two or more finite elements,
The number of elements corresponds to the number of a plurality of candidate conditions corresponding to the collection condition,
The value of the element corresponds to a numerical value according to whether or not the collection condition is adopted for the plurality of candidate conditions and / or a value.
The medical information processing apparatus according to claim 1.
前記要素の値は、前記収集条件が採用する旨の第1の値と前記収集条件が採用しない旨の第2の値との何れかを有する、請求項3記載の医用情報処理装置。   4. The medical information processing apparatus according to claim 3, wherein the value of the element has one of a first value indicating that the collection condition adopts and a second value indicating that the collection condition does not adopt. 5. 前記数値データは、2以上の有限の要素数分の要素を含み、
前記要素数分の要素は、前記複数の候補条件に対応する第1の要素と前記複数の候補の何れにも該当しない事に対応する第2の要素とを含む、
請求項3記載の医用情報処理装置。
The numerical data includes two or more finite elements,
The elements for the number of elements include a first element corresponding to the plurality of candidate conditions and a second element corresponding to a condition that does not correspond to any of the plurality of candidates.
The medical information processing apparatus according to claim 3.
前記収集条件は、パルスシーケンスの種別、フレーム番号、k空間充填軌跡の種別、繰り返し演算の繰り返し数及び/又はパラレルイメージングの倍速率を含む、請求項1記載の医用情報処理装置。   The medical information processing apparatus according to claim 1, wherein the acquisition condition includes a type of a pulse sequence, a frame number, a type of a k-space filling trajectory, a number of repetitions of a repetition operation, and / or a double speed rate of parallel imaging. 前記生成部は、前記出力データとして、前記被検体に関する医用診断に供されるデータを生成する、請求項1記載の医用情報処理装置。   The medical information processing apparatus according to claim 1, wherein the generation unit generates, as the output data, data used for a medical diagnosis on the subject. 前記機械学習モデルは、前記数値データと前記医用データとの各々を、チャネル毎に異なる重みを乗じて加算するように構成される、請求項1記載の医用情報処理装置。   The medical information processing apparatus according to claim 1, wherein the machine learning model is configured to add each of the numerical data and the medical data by multiplying the weight by a different weight for each channel. 前記第2取得部は、前記被検体に対する医用撮像の前記収集条件を数値化した前記数値データを取得し、
前記第1取得部は、前記医用データとして、前記収集条件に従い前記医用撮像により収集された生データを取得し、
前記生成部は、前記数値データと前記生データ又は前記生データに基づく医用画像とを含む入力データに前記機械学習モデルを適用して、前記生データ又は前記医用画像に基づく前記出力データを生成する、
請求項1記載の医用情報処理装置。
The second obtaining unit obtains the numerical data obtained by digitizing the acquisition conditions of medical imaging for the subject,
The first acquisition unit acquires, as the medical data, raw data collected by the medical imaging according to the collection condition,
The generation unit applies the machine learning model to input data including the numerical data and the raw data or a medical image based on the raw data to generate the output data based on the raw data or the medical image. ,
The medical information processing apparatus according to claim 1.
前記生成部は、前記数値データと前記生データとを含む前記入力データに機械学習モデルを利用して再構成処理を施して前記被検体に関する前記画像データを生成する、請求項9記載の医用情報処理装置。   The medical information according to claim 9, wherein the generation unit performs a reconstruction process on the input data including the numerical data and the raw data using a machine learning model to generate the image data regarding the subject. Processing equipment. 前記収集条件は、データ収集軌跡各々についての収集回数及び又は収集方向であり、
前記数値データは、要素数が有限の複数のデータ収集軌跡の候補に対して対象撮像における収集回数及び/又は収集方向に応じた数値が割り当てられたマスクデータである、
請求項9記載の医用情報処理装置。
The collection conditions are the number of collections and / or the collection direction for each data collection trajectory,
The numerical data is mask data in which numerical values corresponding to the number of times of collection and / or the direction of collection in target imaging are assigned to a plurality of data collection trajectory candidates having a finite number of elements.
The medical information processing apparatus according to claim 9.
前記第2取得部は、前記複数のデータ収集軌跡の候補に対する収集回数及び/又は収集方向を、ユーザの指示に従い又は自動的に決定する、請求項11記載の医用情報処理装置。   The medical information processing apparatus according to claim 11, wherein the second acquisition unit determines the number of times of collection and / or the direction of collection for the plurality of data collection trajectory candidates in accordance with a user instruction or automatically. 前記第2取得部は、前記複数のデータ収集軌跡の候補に対する収集回数及び/又は収集方向を、前記医用撮像における撮像時間に基づいて所定のルールに従い決定する、請求項11記載の医用情報処理装置。   The medical information processing apparatus according to claim 11, wherein the second acquisition unit determines the number of times of collection and / or the direction of collection of the plurality of data collection trajectory candidates according to a predetermined rule based on an imaging time in the medical imaging. . 前記数値は、データ収集を行う旨の第1の数値とデータ収集を行わない旨の第2の数値とを含む、請求項11記載の医用情報処理装置。   The medical information processing apparatus according to claim 11, wherein the numerical value includes a first numerical value indicating that data collection is to be performed and a second numerical value indicating not performing data collection. 前記複数のデータ収集軌跡の候補の各々は、ラディアル法に関するk空間でのデータ収集軌跡であり、k空間の略中心を直線状に通過する、請求項11記載の医用情報処理装置。   The medical information processing apparatus according to claim 11, wherein each of the plurality of data collection trajectory candidates is a data collection trajectory in a k-space related to a radial method, and passes through a substantially center of the k-space in a straight line. 前記複数のデータ収集軌跡の候補間の角度間隔は、所定の角度に設定される、請求項15記載の医用情報処理装置。   The medical information processing apparatus according to claim 15, wherein an angle interval between the plurality of data collection trajectory candidates is set to a predetermined angle. 前記複数のデータ収集軌跡の候補は、360度を前記要素数で除した角度に基づく角度で略等間隔に配置される、請求項15記載の医用情報処理装置。   16. The medical information processing apparatus according to claim 15, wherein the plurality of data collection trajectory candidates are arranged at substantially equal intervals at an angle based on an angle obtained by dividing 360 degrees by the number of elements. 前記複数のデータ収集軌跡の候補の各々は、スパイラル収集に関するk空間でのデータ収集軌跡であり、k空間を渦巻き状に通過する、請求項11記載の医用情報処理装置。   12. The medical information processing apparatus according to claim 11, wherein each of the plurality of data collection trajectory candidates is a data collection trajectory in k-space related to spiral collection, and spirally passes through k-space. 前記生成部は、前記機械学習モデルを前記マスクデータと前記生データとに適用し、デノイズされた生データを前記出力データとして生成し、前記デノイズされた生データにフーリエ変換を施して前記医用画像を生成する、請求項11記載の医用情報処理装置。   The generator applies the machine learning model to the mask data and the raw data, generates denoised raw data as the output data, and performs a Fourier transform on the denoised raw data to produce the medical image. The medical information processing apparatus according to claim 11, wherein: 前記生成部は、前記生データにフーリエ変換を施して仮の医用画像を生成し、前記機械学習モデルを前記マスクデータと前記仮の医用画像とに適用し、デノイズされた医用画像を前記出力データとして出力する、請求項11記載の医用情報処理装置。   The generation unit performs a Fourier transform on the raw data to generate a temporary medical image, applies the machine learning model to the mask data and the temporary medical image, and outputs a denoised medical image to the output data. The medical information processing apparatus according to claim 11, wherein the medical information processing apparatus outputs the information. 前記被検体に磁気共鳴イメージングを施して前記医用データとしてk空間データを収集する撮像部、を更に備える請求項1記載の医用情報処理装置。   The medical information processing apparatus according to claim 1, further comprising: an imaging unit configured to perform magnetic resonance imaging on the subject and collect k-space data as the medical data. 被検体に関する医用データを取得する工程と、
前記医用データの収集条件を数値化した数値データを取得する工程と、
前記数値データと前記医用データとを含む入力データに機械学習モデルを適用して、前記医用データに基づく出力データを生成する工程と、
を具備する医用情報処理方法。
Obtaining medical data on the subject;
A step of obtaining numerical data obtained by digitizing the medical data collection conditions,
Applying a machine learning model to the input data including the numerical data and the medical data, generating output data based on the medical data,
A medical information processing method comprising:
コンピュータに、
被検体に関する医用データを取得する機能と、
前記医用データの収集条件を数値化した数値データを取得する機能と、
前記数値データと前記医用データとを含む入力データに機械学習モデルを適用して、前記医用データに基づく出力データを生成する機能と、
を実現させる医用情報処理プログラム。
On the computer,
A function of acquiring medical data on the subject;
A function of acquiring numerical data obtained by digitizing the medical data collection conditions,
A function of applying a machine learning model to the input data including the numerical data and the medical data, and generating output data based on the medical data,
Medical information processing program that realizes
JP2019116625A 2018-06-29 2019-06-24 Medical information processing device, method and program Active JP7355532B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/452,818 US11493585B2 (en) 2018-06-29 2019-06-26 Medical information processing apparatus and medical information processing method
US17/955,076 US20230021786A1 (en) 2018-06-29 2022-09-28 Medical information processing apparatus and medical information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018124088 2018-06-29
JP2018124088 2018-06-29

Publications (2)

Publication Number Publication Date
JP2020006163A true JP2020006163A (en) 2020-01-16
JP7355532B2 JP7355532B2 (en) 2023-10-03

Family

ID=69149964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019116625A Active JP7355532B2 (en) 2018-06-29 2019-06-24 Medical information processing device, method and program

Country Status (1)

Country Link
JP (1) JP7355532B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04118782A (en) * 1990-09-10 1992-04-20 Fuji Photo Film Co Ltd Radiograph reader
JP2001224576A (en) * 2000-02-18 2001-08-21 Konica Corp Image processing method and image processor
JP2006087499A (en) * 2004-09-21 2006-04-06 National Institute Of Advanced Industrial & Technology Method for creating mri data and imaging apparatus using the same
JP2009508656A (en) * 2005-09-22 2009-03-05 ウイスコンシン アラムナイ リサーチ フオンデーシヨン Diffusion tensor imaging using highly constrained image reconstruction methods
JP2011092553A (en) * 2009-10-30 2011-05-12 Toshiba Corp Magnetic resonance imaging apparatus
US20130051516A1 (en) * 2011-08-31 2013-02-28 Carestream Health, Inc. Noise suppression for low x-ray dose cone-beam image reconstruction
JP2013240571A (en) * 2012-04-27 2013-12-05 Toshiba Corp Magnetic resonance imaging apparatus and image processing apparatus
JP2014069007A (en) * 2012-10-01 2014-04-21 Toshiba Corp Magnetic resonance imaging device and image processor
US20170309019A1 (en) * 2016-04-22 2017-10-26 New York University System, method and computer-accessible medium for learning an optimized variational network for medical image reconstruction
US20180146935A1 (en) * 2016-11-25 2018-05-31 Samsung Electronics Co., Ltd. X-ray apparatus and method of acquiring medical image thereof
JP2019216848A (en) * 2018-06-15 2019-12-26 キヤノン株式会社 Medical image processing apparatus, medical image processing method, and program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04118782A (en) * 1990-09-10 1992-04-20 Fuji Photo Film Co Ltd Radiograph reader
JP2001224576A (en) * 2000-02-18 2001-08-21 Konica Corp Image processing method and image processor
JP2006087499A (en) * 2004-09-21 2006-04-06 National Institute Of Advanced Industrial & Technology Method for creating mri data and imaging apparatus using the same
JP2009508656A (en) * 2005-09-22 2009-03-05 ウイスコンシン アラムナイ リサーチ フオンデーシヨン Diffusion tensor imaging using highly constrained image reconstruction methods
JP2011092553A (en) * 2009-10-30 2011-05-12 Toshiba Corp Magnetic resonance imaging apparatus
US20130051516A1 (en) * 2011-08-31 2013-02-28 Carestream Health, Inc. Noise suppression for low x-ray dose cone-beam image reconstruction
JP2013240571A (en) * 2012-04-27 2013-12-05 Toshiba Corp Magnetic resonance imaging apparatus and image processing apparatus
JP2014069007A (en) * 2012-10-01 2014-04-21 Toshiba Corp Magnetic resonance imaging device and image processor
US20170309019A1 (en) * 2016-04-22 2017-10-26 New York University System, method and computer-accessible medium for learning an optimized variational network for medical image reconstruction
US20180146935A1 (en) * 2016-11-25 2018-05-31 Samsung Electronics Co., Ltd. X-ray apparatus and method of acquiring medical image thereof
JP2019216848A (en) * 2018-06-15 2019-12-26 キヤノン株式会社 Medical image processing apparatus, medical image processing method, and program

Also Published As

Publication number Publication date
JP7355532B2 (en) 2023-10-03

Similar Documents

Publication Publication Date Title
JP7246903B2 (en) medical signal processor
US20230021786A1 (en) Medical information processing apparatus and medical information processing method
JP7246864B2 (en) Image processing device, magnetic resonance imaging device and image processing program
JP7272818B2 (en) Data processing device, method and program
WO2020219915A1 (en) Denoising magnetic resonance images using unsupervised deep convolutional neural networks
US20160148378A1 (en) Systems and Methods for Three-Dimensional Spiral Perfusion Imaging
CN108885246A (en) For generating the diffusion MRI method of the synthesis diffusion image at high b value
CN107209238A (en) Parallel many section MR imagings with the suppression to sideband artefact
JP2018134199A (en) Medical imaging apparatus, image processing method, and program
JP2021087629A (en) Medical data processing device
JP7258540B2 (en) Data processing device, magnetic resonance imaging device, learning device and learning method
US10591563B2 (en) Magnetic resonance imaging apparatus
JP7300811B2 (en) Medical information processing apparatus, medical information processing method, and program
JP2017047027A (en) Magnetic resonance imaging apparatus and image processing apparatus
JP6647816B2 (en) Magnetic resonance imaging apparatus, image reconstruction method, and image reconstruction program
CN110522464B (en) Medical signal processing device and model learning device
JP7500794B2 (en) Image data processing device
JP7355532B2 (en) Medical information processing device, method and program
JP7334256B2 (en) Image processing device, method and program, learning device, method and program, and derived model
CN118215851A (en) Dual-domain self-supervised learning for accelerating non-Cartesian magnetic resonance imaging reconstruction
JP2019005136A (en) Magnetic resonance imaging apparatus
JP2019205542A (en) Magnetic resonance imaging apparatus, processing apparatus, and medical image processing method
JP7313804B2 (en) Magnetic resonance imaging system
US20220343565A1 (en) Reconstruction apparatus, method, and program
JP2024037537A (en) Magnetic resonance imaging apparatus, mr image reconstruction apparatus and mr image reconstruction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220425

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230921

R150 Certificate of patent or registration of utility model

Ref document number: 7355532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150