JP7242410B2 - MEDICAL IMAGE PROCESSING APPARATUS, X-RAY CT APPARATUS, AND LEARNING DATA GENERATION METHOD - Google Patents

MEDICAL IMAGE PROCESSING APPARATUS, X-RAY CT APPARATUS, AND LEARNING DATA GENERATION METHOD Download PDF

Info

Publication number
JP7242410B2
JP7242410B2 JP2019085941A JP2019085941A JP7242410B2 JP 7242410 B2 JP7242410 B2 JP 7242410B2 JP 2019085941 A JP2019085941 A JP 2019085941A JP 2019085941 A JP2019085941 A JP 2019085941A JP 7242410 B2 JP7242410 B2 JP 7242410B2
Authority
JP
Japan
Prior art keywords
image
data
learning
trained model
collection period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019085941A
Other languages
Japanese (ja)
Other versions
JP2020179031A (en
Inventor
昂彦 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2019085941A priority Critical patent/JP7242410B2/en
Publication of JP2020179031A publication Critical patent/JP2020179031A/en
Application granted granted Critical
Publication of JP7242410B2 publication Critical patent/JP7242410B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明の実施形態は、医用画像処理装置、X線CT装置及び学習用データの生成方法に関する。 The embodiments of the present invention relate to a medical image processing apparatus, an X-ray CT apparatus, and a method of generating learning data.

心臓などの動きがある臓器に対してCT(Computed Tomography)撮影を行う際に問題となるのが、臓器の動きによって生じるモーションアーチファクトである。モーションアーチファクトに対して後処理で補正を行う動き補正技術がある。 A problem in CT (Computed Tomography) imaging of moving organs such as the heart is motion artifacts caused by the movement of the organs. There are motion compensation techniques that compensate for motion artifacts in post-processing.

しかし、動き補正技術においては、目的の位相の前後の位相に関する動き情報が重要である。この前後の位相に関する動き情報を表す動きベクトルの情報が、目的画像が持っている動きベクトルの情報と異なっている場合、目的画像を適切に補正することができない。 However, in motion compensation techniques, motion information about phases before and after the target phase is important. If the motion vector information representing the motion information about the forward and backward phases is different from the motion vector information possessed by the target image, the target image cannot be corrected appropriately.

特開2018-107603号公報JP 2018-107603 A 特開2018-175227号公報JP 2018-175227 A

本発明が解決しようとする課題は、診断時の定量性を向上させることである。 The problem to be solved by the present invention is to improve the quantitativeness at the time of diagnosis.

本実施形態に係る医用画像処理装置は、取得部と、生成部とを含む。取得部は、対象物を撮影した入力画像を取得する。生成部は、異なるデータ収集期間で動きのある対象物を撮影した画像を用いて学習した学習済みモデルを用いて、前記入力画像から前記対象物の動きに起因する画像への影響を低減した補正画像を生成する。 A medical image processing apparatus according to this embodiment includes an acquisition unit and a generation unit. The acquisition unit acquires an input image of an object. The generation unit uses a trained model trained using images of a moving object photographed in different data collection periods to perform correction that reduces the influence of the input image on the image caused by the movement of the object. Generate an image.

図1は、第1の実施形態に係る医用画像処理装置を示すブロック図である。FIG. 1 is a block diagram showing a medical image processing apparatus according to the first embodiment. 図2は、学習済みモデルを生成する学習システムを示すブロック図である。FIG. 2 is a block diagram showing a learning system that generates trained models. 図3は、医用画像処理装置自身で学習済みモデルを生成する場合の医用画像処理装置を示すブロック図である。FIG. 3 is a block diagram showing a medical image processing apparatus in which a trained model is generated by the medical image processing apparatus itself. 図4は、第1の実施形態に係る学習済みモデルの学習時の概念を示す図である。FIG. 4 is a diagram illustrating the concept of learning a trained model according to the first embodiment. 図5は、ビューの回転角によって、学習用データに関するデータ収集期間の設定方法の概念を示す図である。FIG. 5 is a diagram showing the concept of how to set the data collection period for learning data according to the rotation angle of the view. 図6は、ECG信号との比較によって、学習用データに関するデータ収集期間の設定方法の概念を示す図である。FIG. 6 is a diagram showing the concept of how to set the data collection period for learning data by comparison with the ECG signal. 図7は、実施形態に係る学習用データの生成方法を示す図である。FIG. 7 is a diagram showing a method of generating learning data according to the embodiment. 図8は、第1の実施形態に係る学習済みモデルの利用例を示す図である。FIG. 8 is a diagram illustrating a usage example of a trained model according to the first embodiment. 図9は、学習済みモデルの利用例として動き指標値の算出処理を示すフローチャートである。FIG. 9 is a flow chart showing processing for calculating a motion index value as an example of using a trained model. 図10は、図9の動き指標値の算出処理に関する具体例を示す図である。FIG. 10 is a diagram showing a specific example of the motion index value calculation processing in FIG. 図11は、第2の実施形態に係る第1の学習済みモデルの学習時の一例を示す図である。FIG. 11 is a diagram illustrating an example of learning of the first trained model according to the second embodiment. 図12は、第2の実施形態に係る第2の学習済みモデルの学習時の一例を示す図である。FIG. 12 is a diagram illustrating an example of learning of the second trained model according to the second embodiment. 図13は、第2の実施形態に係る学習済みモデルの利用時の一例を示す図である。FIG. 13 is a diagram illustrating an example of using a trained model according to the second embodiment. 図14は、第3の実施形態に係る学習済みモデルの学習時の一例を示す図である。FIG. 14 is a diagram illustrating an example of a learned model during learning according to the third embodiment. 図15は、第3の実施形態に係る学習済みモデルの利用時の一例を示す図である。FIG. 15 is a diagram illustrating an example of using a trained model according to the third embodiment. 図16は、第4の実施形態に係る医用画像処理装置を含むX線CT装置を示すブロック図である。FIG. 16 is a block diagram showing an X-ray CT apparatus including a medical image processing apparatus according to the fourth embodiment.

以下、図面を参照しながら本実施形態に係わる医用画像処理装置、システムおよびプログラムについて説明する。以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。以下、一実施形態について図面を用いて説明する。 A medical image processing apparatus, system, and program according to the present embodiment will be described below with reference to the drawings. In the following embodiments, it is assumed that parts denoted by the same reference numerals perform the same operations, and overlapping descriptions will be omitted as appropriate. An embodiment will be described below with reference to the drawings.

なお、以下の本実施形態に係る医用画像処理装置は、X線CT(Computed Tomography)装置またはMRI(Magnetic Resonance Imaging)装置などの各医用画像診断装置のコンソールに含まれてもよいし、ワークステーションに含まれてもよいし、クラウドサーバなどのサーバに含まれてもよい。以下の第4の実施形態で、X線CT装置のコンソールに含まれる場合について説明する。また、以下の本実施形態では、X線CT装置により撮影した投影データおよび投影データに基づく再構成画像について処理することを想定する。 The medical image processing apparatus according to the present embodiment described below may be included in the console of each medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus or an MRI (Magnetic Resonance Imaging) apparatus, or may be included in a workstation. may be included in a server such as a cloud server. In the following fourth embodiment, the case of being included in the console of the X-ray CT apparatus will be described. In the present embodiment described below, it is assumed that projection data captured by an X-ray CT apparatus and a reconstructed image based on the projection data are processed.

(第1の実施形態)
第1の実施形態に係る医用画像処理装置について図1のブロック図を参照して説明する。
第1の実施形態に係る医用画像処理装置1は、メモリ11と、処理回路13と、入力インタフェース15と、通信インタフェース17とを含む。処理回路13は、取得機能131と、生成機能133と、画像処理機能135と、表示制御機能137とを含む。
(First embodiment)
A medical image processing apparatus according to the first embodiment will be described with reference to the block diagram of FIG.
A medical image processing apparatus 1 according to the first embodiment includes a memory 11 , a processing circuit 13 , an input interface 15 and a communication interface 17 . The processing circuit 13 includes an acquisition function 131 , a generation function 133 , an image processing function 135 and a display control function 137 .

メモリ11は、種々の情報を記憶するHDD(Hard Disk Drive)やSSD(Solid State Drive)、集積回路記憶装置等の記憶装置である。メモリ11は、HDDやSSD等以外にも、CD(Compact Disc)、DVD(Digital Versatile Disc)、フラッシュメモリ等の可搬性記憶媒体や、RAM(Random Access Memory)等の半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリの保存領域は、医用画像処理装置1内にあってもよいし、ネットワークで接続された外部記憶装置内にあってもよい。メモリ11は、学習済みモデル、各種医用データ(生データ、投影データ、サイノグラムなどの中間データなど)および各種医用画像(再構成画像、CT画像、MR画像、超音波画像、PET(positron emission tomography )画像など)を格納することを想定するが、これらの学習済みモデル、医用データ及び医用画像などは、外部に記憶されていてもよい。 The memory 11 is a storage device such as a HDD (Hard Disk Drive), an SSD (Solid State Drive), or an integrated circuit storage device that stores various information. The memory 11 can be connected to portable storage media such as CDs (Compact Discs), DVDs (Digital Versatile Discs), flash memories, semiconductor memory devices such as RAMs (Random Access Memory), etc., in addition to HDDs and SSDs. It may also be a driving device that reads and writes various information with. Moreover, the storage area of the memory may be in the medical image processing apparatus 1 or in an external storage device connected via a network. The memory 11 stores trained models, various medical data (raw data, projection data, intermediate data such as sinograms), and various medical images (reconstructed images, CT images, MR images, ultrasound images, PET (positron emission tomography) Images, etc.) are assumed to be stored, but these trained models, medical data, medical images, etc. may be stored externally.

処理回路13は、例えば、ハードウェア資源として、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサとROM(Read Only Memory)やRAM(Random Access Memory)等のメモリとを含む。また処理回路13は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)やフィールド・プログラマブル・ゲート・アレイ(Field Programmable Gate Array:FPGA)、他の複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)により実現されてもよい。処理回路13は、メモリに展開されたプログラムを実行するプロセッサにより、取得機能131、生成機能133、画像処理機能135および表示制御機能137を実行する。なお、各機能(取得機能131、生成機能133、画像処理機能135および表示制御機能137)は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路13を構成し、各プロセッサがプログラムを実行することにより各機能を実現するものとしても構わない。 The processing circuit 13 includes, for example, hardware resources such as processors such as a CPU (Central Processing Unit), MPU (Micro Processing Unit), and GPU (Graphics Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), and the like. of memory. The processing circuit 13 may also be an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or other complex programmable logic device (CPLD). , may be implemented by a Simple Programmable Logic Device (SPLD). The processing circuit 13 executes an acquisition function 131, a generation function 133, an image processing function 135, and a display control function 137 by means of a processor that executes programs developed in memory. Note that each function (acquisition function 131, generation function 133, image processing function 135, and display control function 137) is not limited to being realized by a single processing circuit. The processing circuit 13 may be configured by combining a plurality of independent processors, and each function may be implemented by executing a program by each processor.

取得機能131により処理回路13は、動きのある対象物を撮影した画像(入力画像ともいう)を取得する。動きのある対象物としては、本実施形態では、被検体の心臓、呼吸により上下動する肺野など周期的に動いているものを想定する。なお、心臓や肺のように無意識的に動作するものに加え、一定速度及び一定範囲で手または足を動かすなど、自発的に周期的動作をするものを対象物としてもよい。また、周期的動作に限らず、一定の動きであってもよい。 The acquisition function 131 causes the processing circuit 13 to acquire an image of a moving object (also referred to as an input image). In the present embodiment, the moving object is assumed to be a periodically moving object such as the subject's heart or lung fields that move up and down due to respiration. In addition to things that move unconsciously, such as the heart and lungs, objects that spontaneously and periodically move, such as moving hands or feet at a constant speed and within a certain range, may be used as objects. Further, the motion is not limited to periodic motion, and may be constant motion.

生成機能133により処理回路13は、学習済みモデルを用いて、入力画像から対象物の動きに起因する画像への影響を低減した補正画像を生成する。学習済みモデルは、動きのある対象物を異なるデータ収集期間で撮影することにより生成された2以上の画像の組を含む学習用データを用いて学習され、画像間における対象物の動き情報(方向と動き量とを含む動きベクトルなど)を学習したモデルである。学習済みモデルは、例えばメモリ11に格納される学習済みモデルを参照してもよいし、学習済みモデルが医用画像処理装置1の外部に格納され、生成機能133が参照可能な構成でもよい。 The generation function 133 causes the processing circuit 13 to generate a corrected image from the input image by using the trained model to reduce the influence on the image caused by the movement of the object. The trained model is trained using training data that includes a set of two or more images generated by photographing a moving object in different data collection periods, and information on the movement of the object between images (direction and motion amount). For the trained model, for example, a trained model stored in the memory 11 may be referenced, or the trained model may be stored outside the medical image processing apparatus 1 and can be referenced by the generation function 133 .

画像処理機能135により処理回路13は、入力画像または補正画像に対して画像処理を行う。具体的には、画像処理機能135は、入力画像または補正画像に対してフィルタ処理やアーチファクト除去処理を行う。また、画像処理機能135により処理回路13は、学習済みモデルの適用前の第1画像に、前処理としてフィルタ処理やアーチファクト除去処理を行ってもよい。 The image processing function 135 causes the processing circuit 13 to perform image processing on the input image or the corrected image. Specifically, the image processing function 135 performs filter processing and artifact removal processing on the input image or the corrected image. Further, the image processing function 135 allows the processing circuit 13 to perform filter processing and artifact removal processing as preprocessing on the first image before application of the trained model.

表示制御機能137により処理回路13は、補正画像を、ディスプレイやプロジェクタを介してスクリーンなどに表示させるように画像の出力を制御する。 With the display control function 137, the processing circuit 13 controls image output so that the corrected image is displayed on a screen or the like via a display or a projector.

入力インタフェース15は、ユーザから各種の入力操作を受け付け、受け付けた入力操作に基づく信号をメモリ11,処理回路13、通信インタフェース17などに出力する。例えば、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等が適宜、使用可能となっている。なお、本実施形態において、入力インタフェース15は、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等の物理的な操作部品を備えるものに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する信号を受け取り、この信号を処理回路13へ出力するような処理回路も入力インタフェース15の例に含まれる。 The input interface 15 receives various input operations from the user and outputs signals based on the received input operations to the memory 11, the processing circuit 13, the communication interface 17, and the like. For example, mice, keyboards, trackballs, switches, buttons, joysticks, touch pads, touch panel displays, etc. can be used as appropriate. In addition, in the present embodiment, the input interface 15 is not limited to physical operation components such as a mouse, keyboard, trackball, switch, button, joystick, touch pad, and touch panel display. For example, the input interface 15 also includes a processing circuit that receives a signal corresponding to an input operation from an external input device provided separately from the device and outputs this signal to the processing circuit 13 .

通信インタフェース17は、外部と通信するための無線又は有線のインタフェースであり、一般的なインタフェースを用いればよいため、ここでの説明は省略する。 The communication interface 17 is a wireless or wired interface for communicating with the outside, and since a general interface may be used, description thereof will be omitted here.

次に、処理回路13の生成機能133が利用する学習済みモデルを生成する学習システムについて図2を参照して説明する。
図2は、学習済みモデルを生成する学習システムの一例を示すブロック図である。図2に示される医用情報処理システムは、学習用データ生成装置20、学習用データ保管装置22と、モデル学習装置24と、医用画像診断装置26とを含む。
Next, a learning system that generates a trained model to be used by the generation function 133 of the processing circuit 13 will be described with reference to FIG.
FIG. 2 is a block diagram showing an example of a learning system that generates trained models. The medical information processing system shown in FIG. 2 includes a learning data generation device 20, a learning data storage device 22, a model learning device 24, and a medical image diagnostic device .

学習用データ生成装置20は、各種医用データおよび医用画像に基づいて、同一の対象物に対するデータ収集期間の違う少なくとも2種類の画像データの組を複数生成し、学習用データを生成する。なお、学習用データの生成方法の一例については、図7を参照して後述する。 The learning data generating device 20 generates learning data by generating a plurality of sets of at least two types of image data with different data acquisition periods for the same object based on various medical data and medical images. An example of a method of generating learning data will be described later with reference to FIG.

学習用データ保管装置22は、学習用データ生成装置30において生成された学習用データおよび複数の学習サンプルを含む学習用データを記憶する。例えば、学習用データ保管装置22は、大容量記憶装置が内蔵されたコンピュータである。また、学習用データ保管装置22は、コンピュータにケーブルや通信ネットワークを介して通信可能に接続された大容量記憶装置であってもよい。当該記憶装置としては、HDD、SSD、集積回路記憶装置等が適宜利用可能である。 The learning data storage device 22 stores learning data generated by the learning data generation device 30 and learning data including a plurality of learning samples. For example, the learning data storage device 22 is a computer with a built-in mass storage device. The learning data storage device 22 may also be a mass storage device communicatively connected to a computer via a cable or communication network. As the storage device, an HDD, an SSD, an integrated circuit storage device, or the like can be used as appropriate.

モデル学習装置24は、学習用データ保管装置22に記憶された学習用データに基づいて、モデル学習プログラムに従い機械学習モデルに機械学習を行わせることで、学習済みモデルを生成する。本実施形態で想定する機械学習としては、ニューラルネットワーク、ディープラーニング、決定木、カーネル回帰等を想定するが、これに限らず、学習用データから何らかの特徴を学習できる手法であれば、他の機械学習アルゴリズムであってもよい。モデル学習装置24は、CPU、GPU等の汎用プロセッサ、または機械学習専用に構成されたプロセッサを有するワークステーション等のコンピュータでもよい。 The model learning device 24 generates a trained model by causing the machine learning model to perform machine learning according to the model learning program based on the learning data stored in the learning data storage device 22 . As machine learning assumed in this embodiment, neural networks, deep learning, decision trees, kernel regression, etc. are assumed, but not limited to these, as long as it is a method that can learn some feature from learning data, other machines It may be a learning algorithm. The model learning device 24 may be a computer such as a workstation having a general-purpose processor such as a CPU or GPU, or a processor dedicated to machine learning.

モデル学習装置24と学習用データ保管装置22とはケーブル、又は通信ネットワークを介して通信可能に接続されてもよい。また、学習用データ保管装置22がモデル学習装置24に搭載されてもよい。これらの場合、学習用データ保管装置22からモデル学習装置24へ学習用データが供給される。なお、モデル学習装置24と学習用データ保管装置22とは通信可能に接続されてなくてもよい。この場合、学習用データが記憶された可搬型記憶媒体を介して、学習用データ保管装置22からモデル学習装置24へ学習用データが供給される。 The model learning device 24 and the learning data storage device 22 may be communicably connected via a cable or a communication network. Also, the learning data storage device 22 may be installed in the model learning device 24 . In these cases, learning data is supplied from the learning data storage device 22 to the model learning device 24 . Note that the model learning device 24 and the learning data storage device 22 do not have to be communicably connected. In this case, the learning data is supplied from the learning data storage device 22 to the model learning device 24 via a portable storage medium storing the learning data.

医用画像診断装置26は、X線診断装置、X線CT装置、磁気共鳴イメージング装置、超音波診断装置、PET装置、SPECT(Single Photon Emission Computed Tomography)装置などのいずれかを想定する。医用画像診断装置26とモデル学習装置24とはケーブル、又は通信ネットワークを介して通信可能に接続されてもよい。モデル学習装置24で生成された学習済みモデルが医用画像診断装置26へ供給され、学習済みモデルが医用画像処理装置1のメモリ11に記憶される。なお、医用画像診断装置26とモデル学習装置24とは、必ずしも通信可能に接続されてなくてもよい。この場合、学習済みモデルが記憶された可搬型記憶媒体等を介して、モデル学習装置24から医用画像診断装置26へ学習済みモデルが供給される。 The medical image diagnostic device 26 is assumed to be an X-ray diagnostic device, an X-ray CT device, a magnetic resonance imaging device, an ultrasonic diagnostic device, a PET device, a SPECT (Single Photon Emission Computed Tomography) device, or the like. The medical image diagnostic device 26 and the model learning device 24 may be communicably connected via a cable or a communication network. A trained model generated by the model learning device 24 is supplied to the medical image diagnostic device 26 , and the trained model is stored in the memory 11 of the medical image processing device 1 . Note that the medical image diagnostic apparatus 26 and the model learning apparatus 24 do not necessarily have to be communicably connected. In this case, the trained model is supplied from the model learning device 24 to the medical image diagnostic device 26 via a portable storage medium or the like storing the trained model.

なお、第1の実施形態に係る学習済みモデルは、機械学習前の多層ネットワーク(単にモデルともいう)をディープニューラルネットワーク(DNN)に代表されるニューラルネットワークで機械学習させることで生成される。なお、学習済みモデルは、パラメータ付き合成関数ではなく、ルックアップテーブル(LUT)により実現されてもよい。 Note that the trained model according to the first embodiment is generated by machine-learning a multi-layered network (also simply referred to as a model) before machine learning using a neural network represented by a deep neural network (DNN). Note that the trained model may be realized by a lookup table (LUT) instead of a synthetic function with parameters.

なお、図2のようにモデル学習装置24を別途用意せず、医用画像処理装置1が学習済みモデルを生成してもよい。 Note that the medical image processing apparatus 1 may generate a trained model without separately preparing the model learning apparatus 24 as shown in FIG.

医用画像処理装置1において学習済みモデルを生成する場合について図3のブロック図を参照して説明する。
医用画像処理装置1に係る処理回路13は、学習機能139をさらに含む。
取得機能131により処理回路13は、学習用データ保管装置22から学習用データを取得する。
学習機能139により処理回路13は、学習用データを用いて多層ネットワークを学習させて学習済みモデルを生成する。学習済みモデルの生成方法については、図4以降で説明する生成方法を用いればよい。
メモリ11は、学習機能139により生成された学習済みモデルを格納する。
A case of generating a trained model in the medical image processing apparatus 1 will be described with reference to the block diagram of FIG.
The processing circuitry 13 associated with the medical image processing apparatus 1 further includes a learning function 139 .
The acquisition function 131 allows the processing circuit 13 to acquire learning data from the learning data storage device 22 .
With the learning function 139, the processing circuit 13 uses the learning data to train the multi-layer network and generate a trained model. As for the method of generating the learned model, the generation method described with reference to FIG. 4 onwards may be used.
Memory 11 stores the trained model generated by learning function 139 .

次に、第1の実施形態に係る学習済みモデルの学習時の概念について図4を参照して説明する。図4は、学習前の多層ネットワーク40と、多層ネットワーク40に入力される学習用データとを示す。
モデル学習時には、例えば工場出荷時などにおいて、学習用データを用いて多層ネットワーク40を機械学習させればよい。また、修理時やソフトウェアのアップデート時において学習済みモデルをアップデートできるようにしてもよい。また、モデル学習時において、対象物の動きの種類が異なるものごとに、例えば被検体であれば、心臓、肺などの部位ごとに、学習済みモデルを用意することが望ましい。
Next, the concept of learning a trained model according to the first embodiment will be described with reference to FIG. FIG. 4 shows the multi-layer network 40 before learning and training data input to the multi-layer network 40 .
At the time of model learning, the multi-layer network 40 may be machine-learned using learning data, for example, at the time of shipment from the factory. Also, the learned model may be updated during repair or software update. Also, during model learning, it is desirable to prepare a trained model for each different type of movement of the object, for example, for each part of the subject, such as the heart and lungs.

多層ネットワーク40は、例えば、多層ニューラルネットワーク、畳み込みニューラルネットワークを想定するが、畳み込みネットワークから派生したResNet、DenseNetなど他のネットワーク構成を用いてもよい。また、学習させる多層ネットワーク40の構成を、GAN(Generative Adversarial Network)、DCGAN(Deep Convolutional GAN)、またはpix2pixで構成してもよい。 The multi-layer network 40 is assumed to be, for example, a multi-layer neural network or a convolutional neural network, but other network configurations such as ResNet and DenseNet derived from convolutional networks may be used. Also, the structure of the multi-layered network 40 to be learned may be configured by GAN (Generative Adversarial Network), DCGAN (Deep Convolutional GAN), or pix2pix.

学習用データは、ある対象物に対する第1のデータ収集期間で収集されたデータに基づく再構成画像を入力データとし、同一の対象物に対して第1のデータ収集期間よりも短い第2のデータ収集期間で収集されたデータに基づく再構成画像を正解データとした1組のデータを、複数用意したデータセットである。なお、学習用データとして用いられる画像を、学習画像とも呼ぶ。 The learning data is input data of a reconstructed image based on data collected in a first data collection period for a certain object, and second data shorter than the first data collection period for the same object. It is a data set prepared by preparing a plurality of sets of data in which correct data are reconstructed images based on the data collected during the collection period. An image used as learning data is also called a learning image.

図4の例では、第1のデータ収集期間がフルスキャン収集に対応するデータ収集期間(以下、便宜上フルスキャン期間という)である場合、第2のデータ収集期間は、フルスキャンよりも短い、ハーフスキャン収集に対応するデータ収集期間(以下、便宜上ハーフスキャン期間という)とする。フルスキャン収集は360度分の投影データを収集する方法であり、ハーフスキャン収集は180度+ファン角分の投影データを収集する方法である。 In the example of FIG. 4, when the first data collection period is a data collection period corresponding to full scan collection (hereinafter referred to as a full scan period for convenience), the second data collection period is half scan, which is shorter than full scan. A data collection period corresponding to scan collection (hereinafter referred to as a half-scan period for convenience). Full scan acquisition is a method of acquiring projection data for 360 degrees, and half scan acquisition is a method of acquiring projection data for 180 degrees + fan angle.

なお、第1のデータ収集期間と第2のデータ収集期間とは、互いを比較して収集期間に差分があればよいため、フルスキャン収集とハーフスキャン収集との対応関係に限られない。例えば、フルスキャン収集の代わりに200度分の投影データを収集する方法でもよいし、720度分の投影データを収集する方法であってもよい。
例えば、第1のデータ収集期間は第2のデータ収集期間よりも長ければよいため、第2のデータ収集期間がハーフスキャン期間である場合、第1のデータ収集期間として、フルスキャン収集を100%とすると70%のデータ収集期間と設定してもよい。同様に、第2のデータ収集期間も第1のデータ収集期間よりも短ければよいため、第1のデータ収集期間がフルスキャン期間であれば、1回転の30%のデータ収集期間であってもよいし、1回転の70%のデータ収集期間であってもよい。上述の学習用データで多層ネットワーク40を学習させることにより、画像に含まれる対象物の動きを学習した学習済みモデル42を生成することができる。
Note that the first data collection period and the second data collection period are not limited to the correspondence relationship between the full scan collection and the half scan collection because it is sufficient if there is a difference between the collection periods when comparing the first data collection period and the second data collection period. For example, instead of full-scan acquisition, a method of acquiring projection data for 200 degrees or a method of acquiring projection data for 720 degrees may be used.
For example, since the first data collection period only needs to be longer than the second data collection period, if the second data collection period is a half scan period, the first data collection period is set to 100% full scan collection. Then, a data collection period of 70% may be set. Similarly, the second data collection period should be shorter than the first data collection period. Alternatively, the data collection period may be 70% of one revolution. By training the multi-layer network 40 with the learning data described above, it is possible to generate a trained model 42 that has learned the movement of the object included in the image.

上述の学習用データを用いることで対象物の動きを学習できる理由は、以下の通りである。動きのある対象物を撮影する場合は、再構成画像にはモーションアーチファクトの影響が存在する。データ収集期間が短ければ、その分モーションアーチファクトの影響は少なくなる。つまり、例えば、データ収集期間が長いフルスキャン期間のデータに基づく再構成画像は、対象物の動き情報を多く保存している。一方、データ収集期間が短いハーフスキャン期間のデータに基づく再構成画像は、フルスキャン期間のデータに基づく再構成画像よりも動きの影響が少ない。
よって、第1の収集期間のデータに基づく再構成画像を入力データ(第1の学習画像)とし、第2の収集期間のデータに基づく再構成画像を正解データ(第2の学習画像)として多層ネットワークを学習させることで、再構成画像における動き情報(動きの差分)を学習させることができる。第1の実施形態では、対象物の動きを学習することができ、モーションアーチファクトの影響を学習させることができる。
なお、動き情報のみを学習できるモデルであれば、第2の学習画像を入力データと子、第1の学習画像を正解データとして多層ネットワークを学習させてもよい。
The reason why the movement of the target object can be learned by using the learning data described above is as follows. When photographing moving objects, the reconstructed image has the effect of motion artifacts. The shorter the data acquisition period, the less the effects of motion artifacts. That is, for example, a reconstructed image based on data in a full scan period with a long data collection period stores a large amount of motion information of the object. On the other hand, a reconstructed image based on data during the half-scan period, in which the data acquisition period is short, is less affected by motion than a reconstructed image based on data during the full-scan period.
Therefore, a reconstructed image based on data in the first collection period is used as input data (first learning image), and a reconstructed image based on data in the second collection period is used as correct data (second learning image). By learning the network, motion information (difference of motion) in the reconstructed image can be learned. In the first embodiment, the motion of the object can be learned, and the effects of motion artifacts can be learned.
If the model can learn only motion information, the multi-layer network may be trained using the second learning image as the input data and the first learning image as the correct data.

次に、学習用データに関するデータ収集期間の設定方法の概念について図5及び図6を参照して説明する。
図5は、対象物である被検体Pがガントリ内に存在し、第1のデータ収集期間と第2のデータ収集期間との関係を、ガントリの回転量に応じた収集期間(ビューの回転角)で示した図である。実線の矢印は、フルスキャン期間である第1のデータ収集期間50であり、破線の矢印は、ハーフスキャン期間である第2のデータ収集期間52である。
Next, the concept of how to set the data collection period for learning data will be described with reference to FIGS. 5 and 6. FIG.
FIG. 5 shows the relationship between the first data acquisition period and the second data acquisition period when the subject P, which is the target object, is present in the gantry, and the acquisition period corresponding to the rotation amount of the gantry (the rotation angle of the view). ). The solid line arrow is the first data collection period 50, which is the full scan period, and the dashed line arrow is the second data collection period 52, which is the half scan period.

学習用データにおける入力に対応する第1のデータ収集期間50と第2のデータ収集期間52との組は、再構成画像の対応付けの観点から、データ収集期間に基づく再構成画像を生成する際の心位相の中心位相を揃えたデータを用いることが望ましい。また、フルスキャンのデータ列の中から再構成に使用するデータ列を部分的に抜き出して再構成することができる。その場合、中心位相は抜き出したデータ列の中心となるため、データ列を抜き出す範囲を調整することで中心位相を任意の位置に定めることができる。よって、データ列を抜き出す範囲を調整し、第2のデータ収集期間、例えばハーフスキャン期間の中心位相に合わせればよい。 A set of the first data collection period 50 and the second data collection period 52 corresponding to the input in the learning data is used when generating a reconstructed image based on the data collection period from the viewpoint of association of reconstructed images. It is desirable to use data in which the central phases of the cardiac phases are aligned. Also, a data string used for reconstruction can be partially extracted from the full-scan data string and reconstructed. In that case, since the center phase is the center of the extracted data string, the center phase can be set at an arbitrary position by adjusting the range from which the data string is extracted. Therefore, the range from which the data string is extracted should be adjusted to match the center phase of the second data acquisition period, for example, the half-scan period.

続いて、図6は、ECG(Electrocardiogram)信号とデータ収集期間との関係を示す概念図である。
図6のように、ECG信号60のR-R間隔の60%~90%となる心位相をハーフスキャン収集した場合、R-R間隔の75%を中心位相として、第1のデータ収集期間62と第2のデータ収集期間64とが設定される。これにより結果として、学習用データとして適切な再構成画像の組を設定できる。
Next, FIG. 6 is a conceptual diagram showing the relationship between ECG (Electrocardiogram) signals and data collection periods.
As shown in FIG. 6, when half-scan acquisition is performed for a cardiac phase that is 60% to 90% of the RR interval of the ECG signal 60, the first data acquisition period 62 is set at 75% of the RR interval as the center phase. and a second data collection period 64 are set. As a result, a set of reconstructed images suitable for learning data can be set.

なお、フルスキャン収集したデータから再構成に使用するデータ列を抜き出す範囲を調整し、ハーフスキャン収集における中心位相と同じ位置をフルスキャン収集における中心位相として指定すればよい。例えば、第1のデータ収集期間としてフルスキャン収集の70%のデータ収集期間を設定する際に、第2のデータ収集期間と中心位相が揃うように70%のデータ収集期間66が抽出されればよい。 Note that the range for extracting the data string used for reconstruction from the full-scan acquired data may be adjusted, and the same position as the center phase in half-scan acquisition may be designated as the center phase in full-scan acquisition. For example, when setting a data acquisition period of 70% of full scan acquisition as the first data acquisition period, if a 70% data acquisition period 66 is extracted so that the second data acquisition period and the central phase are aligned, good.

次に、本実施形態に係る学習用データの生成方法について図7を参照して説明する。
入力データのデータ収集期間(第1のデータ収集期間)においては、フルスキャン期間からハーフスキャン期間、80%や70%のデータ収集期間を部分的に抽出して、中心位相を変えることにより複数の学習用データの組が生成されてもよい。
Next, a method of generating learning data according to this embodiment will be described with reference to FIG.
In the data collection period of the input data (first data collection period), the full scan period, half scan period, 80% or 70% data collection period is partially extracted, and by changing the center phase, a plurality of A training data set may be generated.

例えば図7では、中心位相75を揃えた、フルスキャン収集の70%のデータ収集期間である第1のデータ収集期間70-1とハーフスキャン期間である第2のデータ収集期間72-1との組が抽出され、学習用データに用いられればよい。 For example, in FIG. 7, a first data acquisition period 70-1, which is a data acquisition period of 70% of full scan acquisition, and a second data acquisition period 72-1, which is a half scan period, with the center phase 75 aligned. A pair may be extracted and used as learning data.

続いて、図7(b)では、図7(a)に示す第1のデータ収集期間70-1と第2のデータ収集期間72-1とからは、データ収集期間を少しずらして、つまり図7(b)では中心位相75を時計回りに約45度ずらして第1のデータ収集期間70-2と第2のデータ収集期間72-2との組を生成する。同様に、図7(c)では、図7(b)から中心位相75をずらして第1のデータ収集期間70-3と第2のデータ収集期間72-3との組を生成する。なお、各学習用データにおける第1のデータ収集期間と第2のデータ収集期間とは中心位相を揃える点に留意する。 Next, in FIG. 7B, the data collection period is slightly shifted from the first data collection period 70-1 and the second data collection period 72-1 shown in FIG. In 7(b), the center phase 75 is shifted clockwise by approximately 45 degrees to generate a set of a first data acquisition period 70-2 and a second data acquisition period 72-2. Similarly, in FIG. 7(c), the center phase 75 is shifted from FIG. 7(b) to generate a set of the first data acquisition period 70-3 and the second data acquisition period 72-3. Note that the center phases of the first data collection period and the second data collection period in each piece of learning data are aligned.

このように、1度フルスキャン収集したデータから、中心位相を変えながら複数の組の学習用データのデータセットをバリエーション的に生成することで、第1のデータ収集期間の撮影および第1のデータ収集期間の撮影をそれぞれ別個に行わなくても、時相が異なる学習用データを容易かつ大量に用意することができる。図7に示すような学習用データは、学習用データ生成装置20が生成してもよいし、医用画像処理装置1の学習機能139が生成してもよい。 In this way, by generating a plurality of sets of learning data data sets in variations while changing the central phase from the data acquired once in a full scan, the imaging and the first data in the first data acquisition period It is possible to easily prepare a large amount of data for learning with different time phases without having to separately take pictures during the acquisition period. The learning data shown in FIG. 7 may be generated by the learning data generation device 20 or by the learning function 139 of the medical image processing device 1 .

次に、第1の実施形態に係る学習済みモデル42の利用例について図8を参照して説明する。
学習済みモデル42の利用時には、モーションアーチファクトを含む入力画像が学習済みモデル42に入力され、モーションアーチファクトが低減された補正画像が出力される。理想的には、モーションアーチファクトを含む入力画像から、モーションアーチファクトの無い静止した補正画像が得られる。なお、学習済みモデル42の利用時における入力画像のデータ収集期間は、任意の期間でよい。学習済みモデル42では、動き情報自体が学習されているため、利用時の入力画像のデータ収集期間を、学習時の入力画像のデータ収集期間と同じにするといった制約はなく、どのようなデータ収集期間の入力画像でも当該入力画像に含まれるモーションアーチファクトを低減できる。
Next, a usage example of the trained model 42 according to the first embodiment will be described with reference to FIG.
When using the trained model 42, an input image containing motion artifacts is input to the trained model 42, and a corrected image with reduced motion artifacts is output. Ideally, an input image containing motion artifacts will result in a motion artefact-free stationary corrected image. Note that the data collection period of the input image when using the trained model 42 may be any period. In the trained model 42, since the motion information itself is learned, there is no restriction that the data collection period of the input image during use is the same as the data collection period of the input image during learning. It is also possible to reduce motion artifacts contained in the input image for a period of time.

図8のように、学習用データ用いて生成された学習済みモデルの利用例では、モーションアーチファクトを低減した画像を出力する例を示したが、これに限らず、動きに関するパラメータとして動き指標値を出力してもよい。 As shown in FIG. 8, an example of using a trained model generated using learning data shows an example of outputting an image with reduced motion artifacts. may be output.

学習済みモデルの利用例として動き指標値を算出する場合について図9のフローチャートを参照して説明する。 As an example of using the trained model, a case of calculating a motion index value will be described with reference to the flowchart of FIG.

ステップS901では、取得機能131および画像処理機能135などにより処理回路13が、1周分のデータ収集をした際に、画像再構成の中心位相の異なる複数の第2のデータ収集期間のデータ(例えば、ハーフスキャン期間のデータ)を抽出し、時系列に沿って中心位相をずらし、各中心位相に対応するデータから再構成画像を生成する。以下便宜上、各時相の画像と呼ぶ。
ステップS902では、生成機能133により処理回路13が、各時相の画像に学習済みモデルを適用し、モーションアーチファクトが低減された各時相の補正画像を生成する。
In step S901, when the processing circuit 13 acquires data for one round using the acquisition function 131 and the image processing function 135, data of a plurality of second data acquisition periods with different central phases of image reconstruction (for example, , half-scan period data) are extracted, the center phase is shifted along the time series, and a reconstructed image is generated from the data corresponding to each center phase. For the sake of convenience, these images are hereinafter referred to as images of each time phase.
In step S902, the generation function 133 causes the processing circuit 13 to apply the learned model to the image of each time phase to generate a corrected image of each time phase with reduced motion artifacts.

ステップS903では、画像処理機能135により処理回路13が、各時相にて再構成画像と補正画像とを比較する。具体的には、例えば、画素値の差分量の総和を計算することにより、各時相の動き指標値を得る。
ステップS904では、表示制御機能137により処理回路13が、各時相の動き指標値の変化をグラフ表示する。または、最も指標値の小さい時相を提示する。また、時相の提示とともに、動き指標値を提示してもよい。さらに、動き指標値の小さい時相を再構成中心とした第2のデータ収集期間に基づく画像や、当該第2のデータ収集期間の補正画像を提示してもよい。
In step S903, the image processing function 135 causes the processing circuit 13 to compare the reconstructed image and the corrected image at each time phase. Specifically, for example, the motion index value for each time phase is obtained by calculating the sum of the difference amounts of the pixel values.
In step S<b>904 , the display control function 137 causes the processing circuit 13 to graphically display changes in the motion index value for each time phase. Alternatively, the time phase with the smallest index value is presented. Also, the motion index value may be presented together with the presentation of the phase. Furthermore, an image based on the second data collection period centered on the reconstruction of the time phase with the small motion index value, or a corrected image of the second data collection period may be presented.

次に、図9の動き指標値の算出処理に関する具体例について図10を参照して説明する。
図10(a)は、学習済みモデルに入力される入力画像の元となるデータ収集期間をビュー期間で模式的に表した図である。図10(a)では、ハーフスキャン期間において、時系列に沿って所定期間ずつ中心位相をずらしたデータを4つ示す。
図10(b)は、各時相のデータ収集期間に基づいて画像再構成処理が実施されることで生成される入力画像である。
Next, a specific example of the motion index value calculation processing in FIG. 9 will be described with reference to FIG.
FIG. 10A is a diagram schematically showing a data collection period, which is the source of an input image input to a trained model, in a view period. FIG. 10A shows four pieces of data whose center phases are shifted by a predetermined period along the time series during the half-scan period.
FIG. 10(b) is an input image generated by performing image reconstruction processing based on the data acquisition period of each time phase.

図10(c)では、図10(b)に示す各入力画像に対して、学習済みモデルが適用される。
図10(d)は、各入力画像に対して学習済みモデルが適用された後の、モーションアーチファクトが低減された補正画像を示す。
図10(e)では、入力画像と補正画像とに基づいて、各時相の動き指標値を算出する。図10(e)の例では、算出された動き指標値は、横軸を時間、縦軸を動き量としたグラフにプロットされる。なお、プロットされた点を線形回帰などによりフィッティングさせる例を示すが、これに限らず、時間と動き指標値との関係性が表現されればよい。
In FIG. 10(c), the learned model is applied to each input image shown in FIG. 10(b).
FIG. 10(d) shows corrected images with reduced motion artifacts after the trained model has been applied to each input image.
In FIG. 10E, a motion index value for each time phase is calculated based on the input image and the corrected image. In the example of FIG. 10E, the calculated motion index values are plotted on a graph with the horizontal axis representing time and the vertical axis representing the amount of motion. Although an example of fitting the plotted points by linear regression or the like is shown, the present invention is not limited to this, and the relationship between time and motion index value may be expressed.

このように学習済みモデル42を利用してパラメータとして動き指標値を算出することで、モーションアーチファクトが最も低減されるデータ収集期間を判定することができる。つまり、最良のデータ収集期間を入力画像とすることで、モーションアーチファクトが最も低減された再構成画像を生成することができる。これにより、例えば、画像の位相情報を選択できるため、ステップアンドシュート方式で撮影されたマルチスライスの画像において、モーションアーチファクトを低減させつつ、各スライスで同じ中心位相をとなるような画像を作成することができる。よって、動きのある心臓などの画像についても、スライス間で位置ずれの少ない画像を作成することができる。 By calculating the motion index value as a parameter using the trained model 42 in this way, it is possible to determine the data acquisition period during which motion artifacts are most reduced. That is, by using the best data acquisition period as an input image, a reconstructed image with the most reduced motion artifacts can be generated. As a result, for example, since the phase information of the image can be selected, in the multi-slice image captured by the step-and-shoot method, while reducing motion artifacts, an image is created in which each slice has the same central phase. be able to. Therefore, it is possible to create an image with little displacement between slices, even for an image of a moving heart or the like.

なお、学習用データとして、動きの傾向について学習させてもよい。例えば、心臓と、肝臓などの腹部臓器では動きの傾向が異なるため、心臓のデータに特化してデータを学習した心臓用動き補正学習済みモデル、肝臓のデータに特化したモデル、と臓器別に学習し、個別にモデル構築を行ってもよい。心臓も心時相によって動きのパターンが異なるため、心臓の拡張期が中心位相のデータに特化して学習した心臓拡張期用モデル、収縮期モデル、と位相別に学習し、個別にモデルを構築してもよい。
これにより、似た傾向のデータに特化して学習するため、少ない学習用データでも学習済みモデルの推定精度が高く、かつ収束を早くすることができる。
In addition, you may make it learn about the tendency of a motion as data for learning. For example, since the heart and abdominal organs such as the liver have different movement tendencies, a motion-corrected trained model for the heart that has learned data specifically for the heart, and a model that has specialized for the liver data, are trained separately for each organ. model construction may be performed separately. Since the movement pattern of the heart also differs depending on the cardiac time phase, a model for diastole and a model for systole are learned for each phase, and models are constructed individually. may
As a result, data with similar tendencies are specialized for learning, so even with a small amount of learning data, the estimation accuracy of the trained model is high and convergence can be accelerated.

また、学習済みモデル42の利用時における入力画像の入力状態を、学習時の入力画像の状態に合わせてもよい。例えば、ローパスフィルタをかけたり、メタルアーチファクトを除いたりするなどの前処理後の画像で学習した場合を想定する。学習済みモデルの利用時に、メタルを含む対象物を撮影した再構成画像を入力画像とする場合は、入力画像に対してメタルアーチファクトを除去するフィルタ処理を実施した後に、学習済みモデルを適用しても良い。このようにすることで、学習済みモデルの利用時の入力画像について、より高精度にモーションアーチファクトを低減することができる。 Also, the input state of the input image when using the trained model 42 may be matched to the state of the input image during learning. For example, it is assumed that learning is performed with images after preprocessing such as applying a low-pass filter or removing metal artifacts. When using a trained model, if the input image is a reconstructed image of an object that contains metal, apply the trained model after filtering the input image to remove metal artifacts. Also good. By doing so, motion artifacts can be reduced with higher accuracy in the input image when using the trained model.

以上に示した第1の実施形態によれば、時間情報が多く保存されるデータ収集期間が長い第1のデータ収集期間に基づくデータと、データ収集期間が短い第2のデータ収集期間に基づくデータとを用いた学習済みモデルによれば、モーションアーチファクトが低減された補正画像を生成することができる。モーションアーチファクトが低減された画像により、ある時間ではどこに血管が存在するかという、時間と位置とをより正確に決定でき、狭窄部位などの血管解析における精度が向上する。結果として、診断時の定量性が向上する。 According to the first embodiment described above, data based on the first data collection period with a long data collection period in which much time information is stored and data based on the second data collection period with a short data collection period According to the trained model using and, it is possible to generate a corrected image with reduced motion artifacts. Images with reduced motion artifacts allow more accurate determination of time and location of where a vessel is at a given time, improving accuracy in vessel analysis such as stenosis. As a result, quantification at the time of diagnosis is improved.

(第2の実施形態)
第1の実施形態では、画像に含まれるモーションアーチファクトを低減するために、長いデータ収集期間に基づく再構成画像を入力画像とし、短いデータ収集期間に基づく再構成画像を正解画像としている。つまり、フルスキャン収集に基づく再構成画像に対してハーフスキャン収集に基づく再構成画像を正解画像とするため、モーションアーチファクトとの観点では、ハーフスキャン収集の方がモーションアーチファクトの影響が少ないものの、画質の観点ではフルスキャン収集よりも解像度が劣る画像が出力されうる。
(Second embodiment)
In the first embodiment, a reconstructed image based on a long data acquisition period is used as an input image, and a reconstructed image based on a short data acquisition period is used as a correct image in order to reduce motion artifacts included in the image. In other words, since the reconstructed image based on half-scan acquisition is the correct image compared to the reconstructed image based on full-scan acquisition, from the viewpoint of motion artifacts, half-scan acquisition is less affected by motion artifacts, but the image quality is improved. In terms of , an image with lower resolution than the full-scan acquisition can be output.

よって、このように学習された学習済みモデルを用いた場合、入力画像から生成される補正画像は、画像の明るさ、画像に含まれるノイズ量(またはSN比など)が、入力画像よりも劣化すると考えられる。また、モーションアーチファクトにおける動き量を学習させる場合は、同じデータ収集期間におけるモーションアーチファクト有りの画像とモーションアーチファクト無しの画像とを用いることで、より精度良くモーションアーチファクトの動き量を学習できると考えられる。 Therefore, when a trained model that has been learned in this way is used, the corrected image generated from the input image is more degraded than the input image in terms of image brightness and amount of noise (or SN ratio, etc.) included in the image. It is thought that Also, when learning the amount of motion in motion artifacts, it is believed that by using images with motion artifacts and images without motion artifacts in the same data acquisition period, the amount of motion in motion artifacts can be learned more accurately.

そこで第2の実施形態では、2つの学習済みモデルを適用することで、データ収集期間の違いに起因する画質変化を補正し、より高精度にモーションアーチファクトを低減した補正画像を生成する。 Therefore, in the second embodiment, two trained models are applied to correct the image quality change caused by the difference in the data acquisition period, and to generate a corrected image with reduced motion artifacts with higher accuracy.

まず、第2の実施形態に係る学習済みモデルの学習時の一例について図11及び図12を参照して説明する。
図11は、第1の学習済みモデルの学習時の例である。モデル学習装置24または学習機能139により処理回路13は、動きのない対象物について第1の収集期間で得られるデータに基づく再構成画像を入力画像とし、同一の対象物について第2の収集期間撮影したデータに基づく再構成画像を正解画像として、多層ネットワーク90を学習させる。例えば、フルスキャン期間に基づく再構成画像の入力に対し、ハーフスキャン期間に基づく再構成画像を正解とする学習の結果、入力画像と正解画像との間の輝度差、ノイズ量(SN比)等を学習した第1の学習済みモデル92が生成される。言い換えれば、画質補償用の学習済みモデル92が生成される。
First, an example of learning of a trained model according to the second embodiment will be described with reference to FIGS. 11 and 12. FIG.
FIG. 11 is an example of learning of the first trained model. By the model learning device 24 or the learning function 139, the processing circuit 13 uses as an input image a reconstructed image based on the data obtained in the first acquisition period for a stationary object, and the same object is photographed in the second acquisition period. The multi-layer network 90 is trained using the reconstructed image based on the obtained data as the correct image. For example, with respect to the input reconstructed image based on the full scan period, as a result of learning that the reconstructed image based on the half scan period is the correct answer, the luminance difference between the input image and the correct image, the amount of noise (SN ratio), etc. A first trained model 92 that has learned is generated. In other words, a trained model 92 for image quality compensation is generated.

次に、図12は、第2の学習済みモデルの学習時の例である。第2の学習済みモデル生成時において、モデル学習装置24または学習機能139により処理回路13は、今度は動きのある対象物について第1の収集期間撮影した投影データに基づく再構成画像に第1の学習済みモデル92を適用した画像(以下、中間画像という)を入力画像とし、同一の対象物について第2の収集期間撮影した投影データに基づく再構成画像を正解データとして、多層ネットワーク94を学習させる。図12における第1の収集期間および第2の収集期間は、第1の学習済みモデル92を生成する際の第1の収集期間および第2の収集期間と同じ長さの期間で設定されればよい。 Next, FIG. 12 is an example of learning of the second trained model. At the time of generating the second trained model, the model learning device 24 or the learning function 139 causes the processing circuit 13 to convert the reconstructed image based on the projection data captured during the first collection period to the first An image to which the trained model 92 is applied (hereinafter referred to as an intermediate image) is used as an input image, and a reconstructed image based on projection data captured during the second acquisition period of the same object is used as correct data, and the multi-layer network 94 is trained. . If the first collection period and the second collection period in FIG. 12 are set to have the same length as the first collection period and the second collection period when generating the first trained model 92, good.

中間画像の入力に対し、第2の収集期間に基づく再構成画像を正解画像とする学習の結果、モーションアーチファクトにおける動きの方向および動き量などを学習した第2の学習済みモデル96が生成される。 A second trained model 96 that has learned the direction and amount of movement in the motion artifact is generated as a result of learning that the reconstructed image based on the second acquisition period is the correct image for the input of the intermediate image. .

次に、第2の実施形態に係る学習済みモデルの利用時の一例について図13を参照して説明する。
図13に示すように、任意の収集期間のデータに基づく再構成画像が入力画像として第2の学習済みモデル96に入力され、補正画像が出力される。補正画像は、入力画像からモーションアーチファクトが低減されることに加えて、輝度の低下などの画質の劣化成分も補償される。
Next, an example of using a trained model according to the second embodiment will be described with reference to FIG.
As shown in FIG. 13, a reconstructed image based on data in an arbitrary collection period is input as an input image to the second trained model 96, and a corrected image is output. In the corrected image, motion artifacts are reduced from the input image, and image quality deterioration components such as luminance reduction are also compensated for.

以上に示した第2の実施形態によれば、画質補償用の学習済みモデルを生成し、当該第1の学習済みモデルの出力画像である中間画像を入力として動き補償用の第2の学習済みモデルを生成することで、モーションアーチファクトが低減されることに加えて、輝度の低下などの画質の劣化成分も補償した補正画像を生成することができる。 According to the second embodiment described above, a trained model for image quality compensation is generated, and an intermediate image, which is an output image of the first trained model, is input to generate a second trained model for motion compensation. By generating a model, it is possible to generate a corrected image in which motion artifacts are reduced and image quality degradation components such as luminance reduction are also compensated for.

(第3の実施形態)
第3の実施形態では、利用時に1つの学習モデルに入力するのではなく、目的に応じて学習済みモデルを用意して、それぞれの学習済みモデルを適用することで、第2の実施形態と同様にデータ収集期間の違いに起因する画質変化を補正し、所望の画像を生成することができる。
(Third Embodiment)
In the third embodiment, instead of inputting into one learning model at the time of use, trained models are prepared according to the purpose, and each trained model is applied. A desired image can be generated by correcting the image quality change caused by the difference in the data acquisition period.

第3の実施形態に係る学習済みモデルの学習時の一例について図14を参照して説明する。
第3の実施形態では2つの学習済みモデルを生成することを想定する。1つ目は、第1の実施形態と同様の動き補正用の学習済みモデル(第1の学習済みモデルともいう)である。2つ目は、画質補正用の学習済みモデル(第2の学習済みモデルともいう)である。
An example of learning of a trained model according to the third embodiment will be described with reference to FIG. 14 .
It is assumed that two trained models are generated in the third embodiment. The first is a trained model for motion correction (also referred to as a first trained model) similar to the first embodiment. The second is a trained model for image quality correction (also referred to as a second trained model).

図14に示すように、静止した、動きのない対象物をハーフスキャン期間で撮影した投影データに基づく再構成画像を入力画像とし、同一の対象物をフルスキャン期間で撮影した投影データに基づく再構成画像を正解画像として多層ネットワーク90を学習させる。当該学習では、入力データよりもデータ収集期間が長いフルスキャン収集による再構成画像のほうが解像度が高いため、フルスキャン収集よりも収集期間が短い投影データに基づく再構成画像からフルスキャン収集相当の解像度を有する画像を生成する、画質補正用の第2の学習済みモデル98を構築することができる。 As shown in FIG. 14, an input image is a reconstructed image based on projection data obtained by photographing a stationary, non-moving object during a half-scan period, and a reconstruction image is obtained based on projection data obtained by photographing the same object during a full-scan period. The multi-layer network 90 is trained using the constituent images as correct images. In this learning, the resolution of the reconstructed image obtained by full-scan acquisition, which has a longer data collection period than the input data, has a higher resolution. A second trained model 98 for image quality correction can be constructed that produces an image with .

次に、第3の実施形態に係る学習済みモデルの利用時の一例について図15を参照して説明する。
図15に示すように、生成機能133により処理回路13は、フルスキャン収集したモーションアーチファクトを有する再構成画像を入力画像とし、動き補正用の第1の学習済みモデル42を適用する。その後、当該第1の学習済みモデル42を適用した後の画像に対して、画質補正用の第2の学習済みモデル98を適用することで補正画像を生成する。
Next, an example of using a trained model according to the third embodiment will be described with reference to FIG.
As shown in FIG. 15 , the generation function 133 causes the processing circuit 13 to apply the first trained model 42 for motion compensation with the input image being a reconstructed image with motion artifacts acquired by full-scan acquisition. After that, a corrected image is generated by applying the second learned model 98 for image quality correction to the image to which the first learned model 42 has been applied.

なお、第1の学習済みモデル42と第2の学習済みモデル98とを適用する順序は、順不同であり、第2の学習済みモデル98を適用した後に、第1の学習済みモデル42を適用するようにしてもよい。 The order in which the first trained model 42 and the second trained model 98 are applied is random, and the first trained model 42 is applied after the second trained model 98 is applied. You may do so.

以上に示した第3の実施形態によれば、動き補正用の学習済みモデルと画質補正用の学習済みモデルとを生成し、入力画像に対して段階的に適用することで、モーションアーチファクトが低減され、かつフルスキャン収集に基づく再構成画像と同様の画質を有する補正画像を生成することができる。 According to the third embodiment described above, a trained model for motion correction and a trained model for image quality correction are generated and applied stepwise to the input image, thereby reducing motion artifacts. A corrected image can be generated that is corrected and has similar image quality to a reconstructed image based on a full-scan acquisition.

なお、第3の実施形態では、2種類の学習済みモデルを生成することを例に説明したが、3種類以上の学習済みモデルを生成し、各目的の補正効果を生じさせる学習済みモデルを段階的に適用するようにしてもよい。 In the third embodiment, an example of generating two types of trained models has been described. It may be applied to

(第4の実施形態)
第4の実施形態では、医用画像処理装置1を含む医用画像診断装置として、医用画像処理装置1を含むX線CT装置について図16のブロック図を参照して説明する。図1に示すX線CT装置2は、架台装置100と、寝台装置300と、X線CT装置の処理を実現するコンソール装置400とを有する。図16では説明の都合上、架台装置100を複数描画している。
(Fourth embodiment)
In the fourth embodiment, as a medical image diagnostic apparatus including the medical image processing apparatus 1, an X-ray CT apparatus including the medical image processing apparatus 1 will be described with reference to the block diagram of FIG. The X-ray CT apparatus 2 shown in FIG. 1 has a gantry apparatus 100, a bed apparatus 300, and a console apparatus 400 that realizes processing of the X-ray CT apparatus. In FIG. 16, a plurality of gantry devices 100 are depicted for convenience of explanation.

なお、本実施形態では、非チルト状態での回転フレーム130の回転軸又は寝台装置300の天板330の長手方向をZ軸方向、Z軸方向に直交し、床面に対し水平である軸方向をX軸方向、Z軸方向に直交し、床面に対し垂直である軸方向をY軸方向とそれぞれ定義するものとする。 In this embodiment, the rotation axis of the rotating frame 130 in the non-tilt state or the longitudinal direction of the top plate 330 of the bed apparatus 300 is the Z-axis direction, and the axial direction perpendicular to the Z-axis direction and horizontal to the floor surface is are defined as the X-axis direction, the axis direction perpendicular to the Z-axis direction, and the Y-axis direction as the axis direction perpendicular to the floor surface.

例えば、架台装置100及び寝台装置300はCT検査室に設置され、コンソール装置400はCT検査室に隣接する制御室に設置される。なお、コンソール装置400は、必ずしも制御室に設置されなくてもよい。例えば、コンソール装置400は、架台装置100及び寝台装置300とともに同一の部屋に設置されてもよい。いずれにしても架台装置100と、寝台装置300と、コンソール装置400とは互いに通信可能に有線または無線で接続されている。 For example, the gantry device 100 and the bed device 300 are installed in a CT examination room, and the console device 400 is installed in a control room adjacent to the CT examination room. Note that the console device 400 does not necessarily have to be installed in the control room. For example, the console device 400 may be installed in the same room together with the gantry device 100 and the bed device 300 . In any case, the gantry device 100, the bed device 300, and the console device 400 are connected by wire or wirelessly so as to be able to communicate with each other.

架台装置100は、被検体PをX線CT撮影するための構成を有するスキャン装置である。架台装置100は、X線管110と、X線検出器120と、回転フレーム130と、X線高電圧装置140と、制御装置150と、ウェッジ160と、コリメータ170と、データ収集装置180(以下、DAS(Data Acquisition System)180ともいう)とを含む。 The gantry device 100 is a scanning device having a configuration for X-ray CT imaging of the subject P. As shown in FIG. The gantry 100 includes an X-ray tube 110, an X-ray detector 120, a rotating frame 130, an X-ray high voltage device 140, a control device 150, a wedge 160, a collimator 170, and a data acquisition device 180 (hereinafter , DAS (Data Acquisition System) 180).

X線管110は、X線高電圧装置140からの高電圧の印加及びフィラメント電流の供給により、陰極(フィラメント)から陽極(ターゲット)に向けて熱電子を照射することでX線を発生する真空管である。具体的には、熱電子がターゲットに衝突することによりX線が発生される。例えば、X線管110には回転する陽極に熱電子を照射することでX線を発生させる回転陽極型のX線管がある。X線管110で発生したX線は、例えばコリメータ170を介してコーンビーム形に成形され、被検体Pに照射される。 The X-ray tube 110 is a vacuum tube that generates X-rays by irradiating thermal electrons from a cathode (filament) to an anode (target) by applying a high voltage and supplying a filament current from an X-ray high voltage device 140. is. Specifically, X-rays are generated by thermal electrons colliding with a target. For example, the X-ray tube 110 is a rotating anode type X-ray tube that generates X-rays by irradiating a rotating anode with thermal electrons. The X-rays generated by the X-ray tube 110 are shaped into a cone beam through a collimator 170, for example, and the object P is irradiated with the cone beam.

X線検出器120が、X線管110から照射され、被検体Pを通過したX線を検出し、当該X線量に対応した電気信号をDAS180へと出力する。X線検出器120は、例えば、X線管110の焦点を中心として1つの円弧に沿ってチャネル方向に複数のX線検出素子が配列された複数のX線検出素子列を有する。X線検出器120は、例えば、チャネル方向に複数のX線検出素子が配列されたX線検出素子列がスライス方向(列方向、row方向)に複数配列された列構造を有する。 The X-ray detector 120 detects X-rays emitted from the X-ray tube 110 and passing through the subject P, and outputs an electrical signal corresponding to the X-ray dose to the DAS 180 . The X-ray detector 120 has, for example, a plurality of X-ray detection element arrays in which a plurality of X-ray detection elements are arranged in the channel direction along one circular arc centered on the focal point of the X-ray tube 110 . The X-ray detector 120 has, for example, a row structure in which a plurality of X-ray detection element rows each having a plurality of X-ray detection elements arranged in the channel direction are arranged in the slice direction (row direction).

X線検出器120は、具体的には、例えば、グリッドと、シンチレータアレイと、光センサアレイとを有する間接変換型の検出器である。X線検出器120は、検出部の一例である。 Specifically, the X-ray detector 120 is, for example, an indirect conversion type detector having a grid, a scintillator array, and a photosensor array. X-ray detector 120 is an example of a detection unit.

シンチレータアレイは、複数のシンチレータを有する。シンチレータは、入射X線を当該入射X線の強度に応じた光子量の光を出力するシンチレータ結晶を有する。 The scintillator array has a plurality of scintillators. The scintillator has a scintillator crystal that outputs a photon amount of light corresponding to the intensity of incident X-rays.

グリッドは、シンチレータアレイのX線入射側の面に配置され、散乱X線を吸収する機能を有するX線遮蔽板を有する。なお、グリッドはコリメータ(1次元コリメータまたは2次元コリメータ)と呼ばれる場合もある。 The grid has an X-ray shielding plate arranged on the surface of the scintillator array on the X-ray incident side and having a function of absorbing scattered X-rays. Note that the grid may also be called a collimator (one-dimensional collimator or two-dimensional collimator).

光センサアレイは、シンチレータから受けた光を増幅して電気信号に変換する機能を有し、例えば、光電子増倍管(フォトマルチプライヤー:PMT)等の光センサを有する。 The photosensor array has a function of amplifying the light received from the scintillator and converting it into an electric signal, and has photosensors such as photomultiplier tubes (PMTs), for example.

回転フレーム130は、X線発生部(X線管110,ウェッジ160およびコリメータ170を含む)とX線検出器120とを回転軸回りに回転可能に支持する。具体的には、回転フレーム130は、X線管110とX線検出器120とを対向支持し、後述する制御装置150によってX線管110とX線検出器120とを回転させる円環状のフレームである。回転フレーム130は、アルミニウム等の金属により形成された固定フレーム(図示せず)に回転可能に支持される。詳しくは、回転フレーム130は、ベアリングを介して固定フレームの縁部に接続されている。回転フレーム130は、制御装置150の駆動機構からの動力を受けて回転軸Z回りに一定の角速度で回転する。 Rotating frame 130 rotatably supports X-ray generator (including X-ray tube 110, wedge 160 and collimator 170) and X-ray detector 120 about a rotation axis. Specifically, the rotation frame 130 is an annular frame that supports the X-ray tube 110 and the X-ray detector 120 so as to face each other and rotates the X-ray tube 110 and the X-ray detector 120 by a control device 150 described later. is. Rotating frame 130 is rotatably supported by a fixed frame (not shown) made of metal such as aluminum. Specifically, the rotating frame 130 is connected to the edges of the stationary frame via bearings. The rotating frame 130 receives power from the drive mechanism of the control device 150 and rotates around the rotation axis Z at a constant angular velocity.

なお、回転フレーム130は、X線管110とX線検出器120に加えて、X線高電圧装置140やDAS180を更に備えて支持する。このような回転フレーム130は、撮影空間をなす開口(ボア)190が形成された略円筒形状の筐体に収容されている。開口はFOVに略一致する。開口の中心軸は、回転フレーム130の回転軸Zに一致する。なお、DAS180が生成した検出データは、例えば発光ダイオード(LED)を有する送信機から光通信によって架台装置の非回転部分(例えば固定フレーム。図1での図示は省略する。)に設けられた、フォトダイオードを有する受信機(図示せず)に送信され、コンソール装置400へと転送される。なお、回転フレームから架台装置の非回転部分への検出データの送信方法は、前述の光通信に限らず、非接触型のデータ伝送であれば如何なる方式を採用しても構わない。 In addition to the X-ray tube 110 and the X-ray detector 120, the rotating frame 130 further includes an X-ray high voltage device 140 and a DAS 180 to support them. Such a rotating frame 130 is accommodated in a substantially cylindrical housing in which an opening (bore) 190 forming an imaging space is formed. The aperture approximately matches the FOV. The central axis of the opening coincides with the rotational axis Z of the rotating frame 130 . The detection data generated by the DAS 180 is provided in a non-rotating portion (for example, a fixed frame, not shown in FIG. 1) of the gantry by optical communication from a transmitter having a light emitting diode (LED), for example. It is transmitted to a receiver (not shown) having a photodiode and forwarded to console device 400 . The method of transmitting the detected data from the rotating frame to the non-rotating portion of the gantry is not limited to the optical communication described above, and any method of non-contact data transmission may be adopted.

X線高電圧装置140は、変圧器(トランス)及び整流器等の電気回路を有し、X線管110に印加する高電圧及びX線管110に供給するフィラメント電流を発生する機能を有する高電圧発生装置と、X線管110が照射するX線に応じた出力電圧の制御を行うX線制御装置とを有する。高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であっても構わない。なお、X線高電圧装置140は、後述する回転フレーム130に設けられてもよいし、架台装置100の固定フレーム(図示しない)側に設けられても構わない。 The X-ray high voltage device 140 has electric circuits such as a transformer and a rectifier, and has a function of generating a high voltage to be applied to the X-ray tube 110 and a filament current to be supplied to the X-ray tube 110. It has a generator and an X-ray control device that controls an output voltage according to the X-rays emitted by the X-ray tube 110 . The high voltage generator may be of a transformer type or an inverter type. Note that the X-ray high-voltage device 140 may be provided on a rotating frame 130 to be described later, or may be provided on a fixed frame (not shown) side of the gantry device 100 .

制御装置150は、CPUを有する処理回路と、モータ及びアクチュエータ等の駆動機構とを有する。処理回路は、ハードウェア資源として、CPUやMPU(Micro Processing Unit)等のプロセッサとROMやRAM等のメモリとを有する。また、制御装置150は、特定用途向け集積回路(ASIC)やフィールド・プログラマブル・ゲート・アレイ(FPGA)、他の複合プログラマブル論理デバイス(CPLD)、単純プログラマブル論理デバイス(SPLD)により実現されてもよい。制御装置150は、コンソール装置400からの指令に従い、X線高電圧装置140及びDAS180等を制御する。前記プロセッサは、前記メモリに保存されたプログラムを読み出して実現することで上記制御を実現する。 The control device 150 has a processing circuit having a CPU, and drive mechanisms such as motors and actuators. The processing circuit has, as hardware resources, processors such as a CPU and an MPU (Micro Processing Unit) and memories such as a ROM and a RAM. Controller 150 may also be implemented with an application specific integrated circuit (ASIC), field programmable gate array (FPGA), other complex programmable logic device (CPLD), simple programmable logic device (SPLD). . The control device 150 controls the X-ray high-voltage device 140, the DAS 180, and the like according to commands from the console device 400. FIG. The processor implements the control by reading and implementing the program stored in the memory.

また、制御装置150は、コンソール装置400若しくは架台装置100に取り付けられた、後述する入力インタフェース430からの入力信号を受けて、架台装置100及び寝台装置300の動作制御を行う機能を有する。例えば、制御装置150は、入力信号を受けて回転フレーム130を回転させる制御や、架台装置100をチルトさせる制御、及び寝台装置300及び天板330を動作させる制御を行う。なお、架台装置100をチルトさせる制御は、架台装置100に取り付けられた入力インタフェース430によって入力される傾斜角度(チルト角度)情報により、制御装置150がX軸方向に平行な軸を中心に回転フレーム130を回転させることによって実現される。また、制御装置150は架台装置100に設けられてもよいし、コンソール装置400に設けられても構わない。なお、制御装置150は、前記メモリにプログラムを保存する代わりに、前記プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、前記プロセッサは、前記回路内に組み込まれたプログラムを読み出して実行することで上記制御を実現する。 Further, the control device 150 has a function of receiving an input signal from an input interface 430 (described later) attached to the console device 400 or the gantry device 100 and performing operation control of the gantry device 100 and the bed device 300 . For example, the control device 150 receives an input signal and performs control to rotate the rotating frame 130 , control to tilt the gantry device 100 , and control to operate the bed device 300 and the tabletop 330 . The control for tilting the gantry device 100 is performed by the control device 150 rotating the frame about an axis parallel to the X-axis direction based on inclination angle (tilt angle) information input by the input interface 430 attached to the gantry device 100. It is realized by rotating 130 . Also, the control device 150 may be provided in the gantry device 100 or may be provided in the console device 400 . It should be noted that the control device 150 may be configured to directly incorporate the program into the circuitry of the processor instead of storing the program in the memory. In this case, the processor implements the above control by reading and executing a program incorporated in the circuit.

ウェッジ160は、X線管110から照射されたX線量を調節するためのフィルタである。具体的には、ウェッジ160は、X線管110から被検体Pへ照射されるX線が、予め定められた分布になるように、X線管110から照射されたX線を透過して減衰するフィルタである。例えば、ウェッジ160(ウェッジフィルタ(wedge filter)、ボウタイフィルタ(bow-tie filter))は、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したフィルタである。 Wedge 160 is a filter for adjusting the dose of X-rays emitted from X-ray tube 110 . Specifically, the wedge 160 transmits and attenuates the X-rays emitted from the X-ray tube 110 so that the X-rays emitted from the X-ray tube 110 to the subject P have a predetermined distribution. It is a filter that For example, the wedge 160 (wedge filter, bow-tie filter) is a filter machined from aluminum to have a predetermined target angle and a predetermined thickness.

コリメータ170は、ウェッジ160を透過したX線の照射範囲を絞り込むための鉛板等であり、複数の鉛板等の組み合わせによってスリットを形成する。なお、コリメータ170は、X線絞りと呼ばれる場合もある。 The collimator 170 is a lead plate or the like for narrowing down the irradiation range of the X-rays transmitted through the wedge 160, and a slit is formed by combining a plurality of lead plates or the like. Note that the collimator 170 may also be called an X-ray diaphragm.

DAS180は、例えば、検出データを生成可能な回路素子を搭載したASIC(Application Specific Integrated Circuit)により実現される。DAS180とX線検出器120とは検出器ユニットを構成する。 The DAS 180 is implemented by, for example, an ASIC (Application Specific Integrated Circuit) that includes circuit elements capable of generating detection data. DAS 180 and X-ray detector 120 constitute a detector unit.

DAS180は、X線検出器120から電気信号を読み出し、読み出した電気信号に基づいて、X線検出器120により検出されたX線の線量に関するデジタルデータである検出データを生成する。検出データは、生成元のX線検出素子のチャンネル番号、列番号、収集されたビュー(投影角度ともいう)を示すビュー番号、及び検出されたX線の線量の積分値を示すデータのセットである。 The DAS 180 reads an electrical signal from the X-ray detector 120 and generates detection data, which is digital data regarding the dose of X-rays detected by the X-ray detector 120, based on the read electrical signal. The detection data is a set of data indicating the channel number and row number of the X-ray detection element from which it was generated, the view number indicating the acquired view (also called projection angle), and the integral value of the detected X-ray dose. be.

例えば、DAS180は、検出素子各々について前置増幅器、可変増幅器、積分回路及びA/D変換器を含む。前置増幅器は、接続元の検出素子からの電気信号を所定のゲインで増幅する。可変増幅器は、前置増幅器からの電気信号を可変のゲインで増幅する。積分回路は、前置増幅器からの電気信号を、1ビュー期間に亘り積分して積分信号を生成する。積分信号の波高値は、1ビュー期間に亘り接続元の検出素子により検出されたX線の線量値に対応する。A/D変換器は、積分回路からの積分信号をアナログデジタル変換して検出データを生成する。 For example, DAS 180 includes preamplifiers, variable amplifiers, integrator circuits, and A/D converters for each sensing element. The preamplifier amplifies the electrical signal from the connected detection element with a predetermined gain. A variable amplifier amplifies the electrical signal from the preamplifier with a variable gain. An integrator circuit integrates the electrical signal from the preamplifier over one view period to generate an integrated signal. The crest value of the integral signal corresponds to the dose value of the X-rays detected by the detection element of the connection source over one view period. The A/D converter analog-to-digital converts the integration signal from the integration circuit to generate detection data.

寝台装置300は、スキャン対象の被検体Pを載置、移動させる装置であり、基台310と、寝台駆動装置320と、天板330と、支持フレーム340とを備えている。 The bed device 300 is a device for placing and moving a subject P to be scanned, and includes a base 310 , a bed driving device 320 , a top plate 330 and a support frame 340 .

基台310は、支持フレーム340を鉛直方向に移動可能に支持する筐体である。 The base 310 is a housing that supports the support frame 340 so as to be vertically movable.

寝台駆動装置320は、被検体Pが載置された天板330を天板330の長軸方向に移動するモータあるいはアクチュエータである。寝台駆動装置320は、コンソール装置400による制御、または制御装置150による制御に従い、天板330を移動する。例えば、寝台駆動装置320は、天板330に載置された被検体Pの体軸が回転フレーム130の開口の中心軸に一致するよう、天板330を被検体Pに対して直交方向に移動する。また、寝台駆動装置320は、架台装置100を用いて実行されるX線CT撮影に応じて、天板330を被検体Pの体軸方向に沿って移動してもよい。寝台駆動装置320は、制御装置150からの駆動信号のデューティ比等に応じた回転速度で駆動することにより動力を発生する。寝台駆動装置320は、例えば、ダイレクトドライブモータやサーボモータ等のモータにより実現される。 The bed driving device 320 is a motor or actuator that moves the table 330 on which the subject P is placed in the longitudinal direction of the table 330 . The bed drive device 320 moves the tabletop 330 under the control of the console device 400 or the control device 150 . For example, the bed driving device 320 moves the top plate 330 in a direction orthogonal to the subject P so that the body axis of the subject P placed on the top plate 330 coincides with the central axis of the opening of the rotation frame 130. do. In addition, the bed driving device 320 may move the top plate 330 along the body axis direction of the subject P according to the X-ray CT imaging performed using the gantry device 100 . The bed driving device 320 generates power by being driven at a rotational speed according to the duty ratio of the drive signal from the control device 150 or the like. The bed driving device 320 is realized by a motor such as a direct drive motor or a servomotor, for example.

支持フレーム340の上面に設けられた天板330は、被検体Pが載置される板である。なお、寝台駆動装置320は、天板330に加え、支持フレーム340を天板330の長軸方向に移動してもよい。 A top plate 330 provided on the upper surface of the support frame 340 is a plate on which the subject P is placed. Note that the bed driving device 320 may move the support frame 340 in addition to the top plate 330 in the longitudinal direction of the top plate 330 .

コンソール装置400は、メモリ410と、ディスプレイ420と、入力インタフェース430と、処理回路440と、上述した第1の実施形態から第3の実施形態に係る医用画像処理装置1を有する。メモリ410と、ディスプレイ420と、入力インタフェース430と、処理回路440との間のデータ通信は、バス(BUS)を介して行われる。なお、コンソール装置400は架台装置100とは別体として説明するが、架台装置100にコンソール装置400またはコンソール装置400の各構成要素の一部が含まれてもよい。 The console device 400 has a memory 410, a display 420, an input interface 430, a processing circuit 440, and the medical image processing apparatus 1 according to the first to third embodiments described above. Data communication between memory 410, display 420, input interface 430 and processing circuit 440 is performed via a bus (BUS). Although the console device 400 is described as being separate from the gantry device 100, the gantry device 100 may include the console device 400 or a part of each component of the console device 400. FIG.

メモリ410は、種々の情報を記憶するHDDやSSD、集積回路記憶装置等の記憶装置である。メモリ410は、例えば、検出データや再構成画像データを記憶する。メモリ410は、HDDやSSD等以外にも、CD、DVD、フラッシュメモリ等の可搬性記憶媒体や、RAM等の半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリ410の保存領域は、X線CT装置2内にあってもよいし、ネットワークで接続された外部記憶装置内にあってもよい。例えば、メモリ410は、CT画像や表示画像のデータを記憶する。また、メモリ410は、本実施形態に係る制御プログラムを記憶する。 The memory 410 is a storage device such as an HDD, an SSD, or an integrated circuit storage device that stores various information. The memory 410 stores, for example, detection data and reconstructed image data. The memory 410 may be a driving device that reads and writes various information from and to portable storage media such as CDs, DVDs, and flash memories, semiconductor memory devices such as RAM, and the like, in addition to HDDs and SSDs. . Also, the storage area of the memory 410 may be in the X-ray CT apparatus 2 or in an external storage device connected via a network. For example, the memory 410 stores data of CT images and display images. The memory 410 also stores a control program according to this embodiment.

ディスプレイ420は、各種の情報を表示する。例えば、ディスプレイ420は、処理回路440によって生成された医用画像(CT画像)や、操作者からの各種操作を受け付けるためのGUI(Graphical User Interface)等を出力する。例えば、ディスプレイ420としては、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイ、有機ELディスプレイ(OELD:Organic Electro Luminescence Display)、プラズマディスプレイ又は他の任意のディスプレイが、適宜、使用可能となっている。また、ディスプレイ420は、架台装置100に設けられてもよい。また、ディスプレイ420は、デスクトップ型でもよいし、コンソール装置400本体と無線通信可能なタブレット端末などで構成されることにしても構わない。 The display 420 displays various information. For example, the display 420 outputs a medical image (CT image) generated by the processing circuit 440, a GUI (Graphical User Interface) for accepting various operations from the operator, and the like. For example, the display 420 may be, for example, a liquid crystal display (LCD: Liquid Crystal Display), a CRT (Cathode Ray Tube) display, an organic EL display (OELD: Organic Electro Luminescence Display), a plasma display, or any other arbitrary display. , is enabled. Also, the display 420 may be provided on the gantry device 100 . The display 420 may be of a desktop type, or may be configured by a tablet terminal capable of wireless communication with the main body of the console device 400, or the like.

入力インタフェース430は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路440に出力する。例えば、入力インタフェース430は、検出データを収集する際の収集条件や、CT画像を再構成する際の再構成条件、CT画像から後処理画像を生成する際の画像処理条件等を操作者から受け付ける。入力インタフェース430としては、例えば、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等が適宜、使用可能となっている。なお、本実施形態において、入力インタフェース430は、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等の物理的な操作部品を備えるものに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路440へ出力する電気信号の処理回路も入力インタフェース430の例に含まれる。入力インタフェース430は、架台装置100に設けられてもよい。又、入力インタフェース430は、コンソール装置400本体と無線通信可能なタブレット端末などで構成されることにしても構わない。 The input interface 430 receives various input operations from the operator, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 440 . For example, the input interface 430 receives from the operator acquisition conditions for acquiring detection data, reconstruction conditions for reconstructing CT images, image processing conditions for generating post-processed images from CT images, and the like. . As the input interface 430, for example, a mouse, keyboard, trackball, switch, button, joystick, touch pad, touch panel display, etc. can be used as appropriate. Note that in the present embodiment, the input interface 430 is not limited to having physical operation components such as a mouse, keyboard, trackball, switch, button, joystick, touch pad, and touch panel display. For example, the input interface 430 also includes an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs the electrical signal to the processing circuit 440. . The input interface 430 may be provided in the gantry device 100 . Also, the input interface 430 may be composed of a tablet terminal or the like capable of wireless communication with the main body of the console device 400 .

処理回路440は、入力インタフェース430から出力される入力操作の電気信号に応じてX線CT装置2全体の動作を制御する。例えば、処理回路440は、ハードウェア資源として、CPUやMPU、GPU(Graphics Processing Unit)等のプロセッサとROMやRAM等のメモリとを有する。処理回路440は、メモリに展開されたプログラムを実行するプロセッサにより、システム制御機能4410、前処理機能4420、再構成処理機能4430および表示制御機能4440を実行する。なお、各機能(システム制御機能4410、前処理機能4420、再構成処理機能4430および表示制御機能4440)は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより各機能を実現するものとしても構わない。 The processing circuit 440 controls the operation of the entire X-ray CT apparatus 2 according to the electric signal of the input operation output from the input interface 430 . For example, the processing circuit 440 has processors such as a CPU, MPU, and GPU (Graphics Processing Unit) and memories such as ROM and RAM as hardware resources. The processing circuit 440 executes a system control function 4410, a preprocessing function 4420, a reconstruction processing function 4430, and a display control function 4440 by means of a processor that executes programs expanded in memory. Note that each function (system control function 4410, preprocessing function 4420, reconstruction processing function 4430, and display control function 4440) is not limited to being realized by a single processing circuit. A processing circuit may be configured by combining a plurality of independent processors, and each function may be realized by each processor executing a program.

システム制御機能4410は、入力インタフェース430を介して操作者から受け付けた入力操作に基づいて、処理回路440の各機能を制御する。具体的には、システム制御機能4410は、メモリ410に記憶されている制御プログラムを読み出して処理回路440内のメモリ上に展開し、展開された制御プログラムに従ってX線CT装置2の各部を制御する。例えば、処理回路440は、入力インタフェース430を介して操作者から受け付けた入力操作に基づいて、処理回路440の各機能を制御する。例えば、システム制御機能4410は、スキャン範囲、撮影条件等を決定するための被検体Pの2次元の位置決め画像を取得する。なお、位置決め画像は、スキャノ画像またはスカウト画像とも呼ばれる。 The system control function 4410 controls each function of the processing circuit 440 based on input operations received from the operator via the input interface 430 . Specifically, the system control function 4410 reads the control program stored in the memory 410, develops it on the memory in the processing circuit 440, and controls each part of the X-ray CT apparatus 2 according to the developed control program. . For example, the processing circuitry 440 controls each function of the processing circuitry 440 based on an input operation received from the operator via the input interface 430 . For example, the system control function 4410 acquires a two-dimensional positioning image of the subject P for determining the scan range, imaging conditions, and the like. A positioning image is also called a scanogram or a scout image.

前処理機能4420は、DAS180から出力された検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を施したデータを生成する。なお、前処理前の生データ(検出データ)及び前処理後のデータを総称して投影データと称する場合もある。 A preprocessing function 4420 generates data by performing preprocessing such as logarithmic conversion processing, offset correction processing, inter-channel sensitivity correction processing, and beam hardening correction on the detection data output from the DAS 180 . Raw data (detection data) before preprocessing and data after preprocessing may be collectively referred to as projection data.

再構成処理機能4430は、前処理機能4420にて生成された投影データに対して、フィルタ補正逆投影法(FBP法:Filtered Back Projection)や逐次近似再構成法等を用いた再構成処理を行ってCT画像データを生成する。 The reconstruction processing function 4430 performs reconstruction processing on the projection data generated by the preprocessing function 4420 using a filtered back projection (FBP) method, an iterative reconstruction method, or the like. to generate CT image data.

表示制御機能4440は、処理回路440の各機能または処理における処理途中又は処理結果の情報を表示するようにディスプレイ420を制御する処理である。 The display control function 4440 is processing for controlling the display 420 so as to display information on the progress of processing or processing results in each function or processing of the processing circuit 440 .

なお、処理回路440は、スキャン制御処理、画像処理および表示制御処理も行う。
スキャン制御処理は、X線高電圧装置140に高電圧を供給させて、X線管110にX線を照射させるなど、X線スキャンに関する各種動作を制御する処理である。
画像処理は、入力インタフェース430を介して操作者から受け付けた入力操作に基づいて、再構成処理機能4430によって生成されたCT画像データを、任意断面の断層画像データや3次元画像データに変換する処理である。なお、3次元画像データの生成は、再構成処理機能4430が直接行なっても構わない。
The processing circuit 440 also performs scan control processing, image processing, and display control processing.
The scan control process is a process of controlling various operations related to X-ray scanning, such as causing the X-ray high-voltage device 140 to supply a high voltage and causing the X-ray tube 110 to emit X-rays.
Image processing is a process of converting CT image data generated by the reconstruction processing function 4430 into tomographic image data or three-dimensional image data of an arbitrary cross section based on an input operation received from an operator via the input interface 430. is. Note that the generation of three-dimensional image data may be directly performed by the reconstruction processing function 4430 .

処理回路440は、コンソール装置400に含まれる場合に限らず、複数の医用画像診断装置にて取得されたデータに対する処理を一括して行う統合サーバに含まれてもよい。
なお、コンソール装置400は、単一のコンソールにて複数の機能を実行するものとして説明したが、複数の機能を別々のコンソールが実行することにしても構わない。
The processing circuit 440 is not limited to being included in the console device 400, and may be included in an integrated server that collectively processes data acquired by a plurality of medical image diagnostic apparatuses.
Although the console device 400 has been described as executing a plurality of functions with a single console, separate consoles may execute a plurality of functions.

なお、上述した実施形態に係る各機能は、当該処理を実行するプログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。このとき、コンピュータに当該手法を実行させることのできるプログラムは、磁気ディスク(ハードディスクなど)、光ディスク(CD-ROM、DVD、Blu-ray(登録商標)ディスクなど)、半導体メモリなどの記憶媒体に格納して頒布することも可能である。 Note that each function according to the above-described embodiment can also be realized by installing a program for executing the processing in a computer such as a workstation and deploying them on the memory. At this time, a program that can cause a computer to execute the method is stored in a storage medium such as a magnetic disk (hard disk, etc.), an optical disk (CD-ROM, DVD, Blu-ray (registered trademark) disk, etc.), a semiconductor memory, etc. It is also possible to distribute it as

上述の第1の実施形態から第3の実施形態に係る医用画像処理装置および第4の実施形態に係るX線CT装置によれば、診断時の定量性を向上させることができる。 According to the medical image processing apparatuses according to the first to third embodiments and the X-ray CT apparatus according to the fourth embodiment described above, it is possible to improve the quantitativeness at the time of diagnosis.

なお、本実施形態では、X線CT装置により撮影された投影データに基づく再構成画像を処理する場合を例に説明したが、これに限らず、X線診断装置で撮影されたX線画像、超音波診断装置で得られる超音波データから生成された超音波画像に対しても同様に学習済みモデルを生成できる。
具体的には、X線診断装置で撮影されたX線画像の場合は、対象物に対する曝射時間を制御することで、第1のデータ収集期間に基づくX線画像と第2のデータ収集期間に基づくX線画像とを生成し、上述の学習用データとすればよい。
また、超音波診断装置における超音波画像の場合は、画像一枚当たりのビーム密度の高い画像を第1のデータ収集期間に基づく超音波画像とし、ビーム密度の低い画像を第2のデータ収集期間に基づく超音波画像とした学習用データを生成すればよい。
In the present embodiment, the case of processing a reconstructed image based on projection data captured by an X-ray CT apparatus has been described as an example. A trained model can be similarly generated for an ultrasonic image generated from ultrasonic data obtained by an ultrasonic diagnostic apparatus.
Specifically, in the case of an X-ray image captured by an X-ray diagnostic apparatus, by controlling the exposure time to the object, the X-ray image based on the first data acquisition period and the second data acquisition period X-ray images based on the above may be generated and used as the above-described learning data.
In addition, in the case of ultrasonic images in an ultrasonic diagnostic apparatus, an image with a high beam density per image is an ultrasonic image based on the first data acquisition period, and an image with a low beam density is acquired during the second data acquisition period. It is sufficient to generate learning data in the form of ultrasound images based on the above.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1 医用画像処理装置
2 X線CT装置
11, 410 メモリ
13,440 処理回路
15 入力インタフェース
17 通信インタフェース
20 学習用データ生成装置
22 学習用データ保管装置
24 モデル学習装置
26 医用画像診断装置
40,90,94 多層ネットワーク
42,92,96,98 学習済みモデル
50,62,70-1~70-3 第1のデータ収集期間
52,64,72-1~72-3 第2のデータ収集期間
60 ECG信号
66 70%のデータ収集期間
75 中心位相
100 架台装置
110 X線管
120 X線検出器
130 回転フレーム
131 取得機能
133 生成機能
135 画像処理機能
137,4440 表示制御機能
139 学習機能
140 X線高電圧装置
150 制御装置
160 ウェッジ
170 コリメータ
180 データ収集装置(DAS)
190 開口
300 寝台装置
310 基台
320 寝台駆動装置
330 天板
340 支持フレーム
400 コンソール装置
411 学習済みモデル
420 ディスプレイ
430 入力インタフェース
4410 システム制御機能
4420 前処理機能
4430 再構成処理機能
1 medical image processing device 2 X-ray CT device 11, 410 memory 13, 440 processing circuit 15 input interface 17 communication interface 20 learning data generation device 22 learning data storage device 24 model learning device 26 medical image diagnosis device 40, 90, 94 multilayer network 42, 92, 96, 98 trained model 50, 62, 70-1 to 70-3 first data collection period 52, 64, 72-1 to 72-3 second data collection period 60 ECG signal 66 70% data acquisition period 75 Center phase 100 Mounting device 110 X-ray tube 120 X-ray detector 130 Rotating frame 131 Acquisition function 133 Generation function 135 Image processing function 137,4440 Display control function 139 Learning function 140 X-ray high voltage device 150 Controller 160 Wedge 170 Collimator 180 Data Acquisition System (DAS)
190 opening 300 bed device 310 base 320 bed driving device 330 top board 340 support frame 400 console device 411 trained model 420 display 430 input interface 4410 system control function 4420 preprocessing function 4430 reconstruction processing function

Claims (8)

対象物を撮影した入力画像を取得する取得部と、
動きのある対象物を第1のデータ収集期間で撮影した第1の学習画像と、前記動きのある対象物を前記第1のデータ収集期間よりも短い第2のデータ収集期間で撮影した第2の学習画像との組を用いて学習した第1の学習済みモデルを用いて、前記入力画像から前記対象物の動きに起因する画像への影響を低減した補正画像を生成する生成部と、
を具備する医用画像処理装置。
an acquisition unit that acquires an input image of an object;
A first learning image obtained by photographing a moving object in a first data collection period, and a second training image obtained by photographing the moving object in a second data collection period shorter than the first data collection period. a generation unit that generates a corrected image that reduces the effect on the image caused by the movement of the object from the input image, using the first trained model that has been trained using a set of training images;
A medical image processing apparatus comprising:
前記第1の学習画像と前記第2の学習画像との組は、それぞれのデータ収集期間における中心位相が同じである、請求項1に記載の医用画像処理装置。 2. The medical image processing apparatus according to claim 1 , wherein a set of said first training image and said second training image has the same central phase in each data acquisition period. 前記入力画像に対し、前記第1の学習済みモデルの学習に用いた画像に合わせた前処理を実行する画像処理部をさらに具備し、
前記生成部は、前記第1の学習済みモデルを用いて、前処理後の入力画像から前記補正画像を生成する、請求項1または請求項2に記載の医用画像処理装置。
further comprising an image processing unit that performs preprocessing on the input image in accordance with the image used for learning of the first trained model;
3. The medical image processing apparatus according to claim 1 , wherein the generator generates the corrected image from the preprocessed input image using the first trained model.
前記生成部は、前記入力画像または前記補正画像に対し、データ収集期間の違いに起因する画質変化の補正処理を実行する、請求項1から請求項3のいずれか1項に記載の医用画像処理装置。 4. The medical image processing according to any one of claims 1 to 3 , wherein the generation unit performs correction processing for image quality changes caused by differences in data acquisition periods on the input image or the corrected image. Device. 前記生成部は、前記動きのある対象物を前記第1のデータ収集期間で撮影した第3の学習画像に前記第1の学習済みモデルを適用して生成された中間画像と、前記動きのある対象物を前記第2のデータ収集期間で撮影した第4の学習画像との組を用いて第2のモデルを学習することで生成される第2の学習済みモデルを用いて、前記入力画像から前記補正画像を生成する、請求項1に記載の医用画像処理装置。 The generating unit generates an intermediate image generated by applying the first trained model to a third learning image obtained by photographing the moving object in the first data collection period, and the moving object. Using a second trained model generated by learning a second model using a set of fourth learning images of the object captured in the second data collection period, from the input image 2. The medical image processing apparatus according to claim 1, which generates the corrected image. 記生成部は、前記第1の学習済みモデルと、前記動きのある対象物を前記第1のデータ収集期間で撮影した第3の学習画像と前記動きのある対象物を前記第2のデータ収集期間で撮影した第4の学習画像との組を用いて第2のモデルを学習することで生成される第2の学習済みモデルとをそれぞれ用いて、前記入力画像から前記補正画像を生成する、請求項1に記載の医用画像処理装置。 The generation unit converts the first trained model, the third learning image obtained by photographing the moving object in the first data collection period, and the moving object into the second data. generating the corrected image from the input image by using a second trained model generated by learning the second model using a set of fourth learning images taken during the acquisition period; The medical image processing apparatus according to claim 1. X線管と、
前記X線管から照射されて対象物を透過したX線を検出する検出器と、
前記検出器からの出力に基づいて対象物に関する入力画像を再構成する再構成部と、
動きのある対象物を第1のデータ収集期間で撮影した第1の学習画像と、前記動きのある対象物を前記第1のデータ収集期間よりも短い第2のデータ収集期間で撮影した第2の学習画像との組を用いて学習した学習済みモデルを用いて、前記入力画像から前記対象物の動きに起因する画像への影響を低減した補正画像を生成する生成部と、
を具備するX線CT装置。
an x-ray tube;
a detector for detecting X-rays emitted from the X-ray tube and transmitted through an object;
a reconstruction unit that reconstructs an input image of an object based on the output from the detector;
A first learning image obtained by photographing a moving object in a first data collection period, and a second training image obtained by photographing the moving object in a second data collection period shorter than the first data collection period. a generation unit that generates a corrected image that reduces the effect on the image caused by the movement of the object from the input image, using the trained model that has been trained using the set of training images;
An X-ray CT apparatus comprising:
対象物を第1のデータ収集期間撮影することにより得られる第1のデータを取得し、
前記第1のデータ収集期間よりも短い第2のデータ収集期間に対応する第2のデータについて、画像再構成の中心となる中心位相を変えながら、各時相の第2のデータを抽出し、
前記時相ごとに、中心位相が同一となる前記第1のデータに基づく再構成画像と前記第2のデータに基づく再構成画像との組を学習用データとして生成する、学習用データの生成方法。
Acquiring first data obtained by photographing an object for a first data collection period;
For the second data corresponding to a second data acquisition period shorter than the first data acquisition period, while changing the center phase that is the center of image reconstruction, extract the second data of each time phase,
A method of generating learning data, wherein a set of a reconstructed image based on the first data and a reconstructed image based on the second data having the same center phase is generated as learning data for each time phase. .
JP2019085941A 2019-04-26 2019-04-26 MEDICAL IMAGE PROCESSING APPARATUS, X-RAY CT APPARATUS, AND LEARNING DATA GENERATION METHOD Active JP7242410B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019085941A JP7242410B2 (en) 2019-04-26 2019-04-26 MEDICAL IMAGE PROCESSING APPARATUS, X-RAY CT APPARATUS, AND LEARNING DATA GENERATION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019085941A JP7242410B2 (en) 2019-04-26 2019-04-26 MEDICAL IMAGE PROCESSING APPARATUS, X-RAY CT APPARATUS, AND LEARNING DATA GENERATION METHOD

Publications (2)

Publication Number Publication Date
JP2020179031A JP2020179031A (en) 2020-11-05
JP7242410B2 true JP7242410B2 (en) 2023-03-20

Family

ID=73022849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019085941A Active JP7242410B2 (en) 2019-04-26 2019-04-26 MEDICAL IMAGE PROCESSING APPARATUS, X-RAY CT APPARATUS, AND LEARNING DATA GENERATION METHOD

Country Status (1)

Country Link
JP (1) JP7242410B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7487159B2 (en) * 2021-10-12 2024-05-20 キヤノン株式会社 Medical image processing device, medical image processing method and program
KR102486818B1 (en) * 2022-01-04 2023-01-10 주식회사 클라리파이 Motion compensation processing apparatus and method of medical images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130571A1 (en) 2017-10-27 2019-05-02 Siemens Healthcare Gmbh Method and system for compensating for motion artifacts by means of machine learning
JP2019534763A (en) 2016-09-06 2019-12-05 エレクタ、インク.Elekta, Inc. Neural network for generating synthetic medical images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019534763A (en) 2016-09-06 2019-12-05 エレクタ、インク.Elekta, Inc. Neural network for generating synthetic medical images
US20190130571A1 (en) 2017-10-27 2019-05-02 Siemens Healthcare Gmbh Method and system for compensating for motion artifacts by means of machine learning

Also Published As

Publication number Publication date
JP2020179031A (en) 2020-11-05

Similar Documents

Publication Publication Date Title
US9237874B2 (en) Method and system for non-invasive imaging of a target region
US11244480B2 (en) Medical information processing apparatus
US11200709B2 (en) Radiation image diagnostic apparatus and medical image processing apparatus
JP7242288B2 (en) Medical image diagnosis device and model learning device
JP7348376B2 (en) Medical processing equipment, X-ray CT system and processing program
JP2013198724A (en) X-ray ct device and control program thereof
JP7242410B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, X-RAY CT APPARATUS, AND LEARNING DATA GENERATION METHOD
US7502439B2 (en) Radiographic apparatus and method of using the same
US11241212B2 (en) Medical apparatus
JP7224829B2 (en) Medical image processing apparatus and method
JP7313818B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSTIC APPARATUS, AND MEDICAL IMAGE PROCESSING METHOD
JP7461102B2 (en) Medical image processing equipment and X-ray CT equipment
JP7462433B2 (en) Medical diagnostic system, medical diagnostic device, and medical information processing device
JP7334088B2 (en) Medical information processing apparatus, medical information processing program, and X-ray CT apparatus
JP7418950B2 (en) X-ray CT device, imaging planning device, and X-ray CT imaging method
JP7055709B2 (en) X-ray CT device and imaging planning device
JP7320934B2 (en) MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
JP7242255B2 (en) X-ray CT device and detector unit
JP7224880B2 (en) X-ray equipment
US20230000456A1 (en) X-ray diagnosis apparatus and x-ray diagnosis method
JP7510775B2 (en) Medical image processing device and medical image diagnostic device
JP2022071921A (en) X-ray ct apparatus
JP2020089594A (en) Medical image processing system, medical image processing device, and medical image processing method
JP2016220967A (en) X-ray ct apparatus, radiation diagnostic apparatus, and image processing apparatus
JP2022178846A (en) Medical information processing method, medical information processing device, and medical image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150