JP2021010623A - X-ray ct system and medical processing device - Google Patents

X-ray ct system and medical processing device Download PDF

Info

Publication number
JP2021010623A
JP2021010623A JP2019126659A JP2019126659A JP2021010623A JP 2021010623 A JP2021010623 A JP 2021010623A JP 2019126659 A JP2019126659 A JP 2019126659A JP 2019126659 A JP2019126659 A JP 2019126659A JP 2021010623 A JP2021010623 A JP 2021010623A
Authority
JP
Japan
Prior art keywords
image data
data set
projection data
scan
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019126659A
Other languages
Japanese (ja)
Other versions
JP7362322B2 (en
Inventor
ベーレカー アクシャイ プラブ
Prabhu Verleker Akshay
ベーレカー アクシャイ プラブ
博基 田口
Hiromoto Taguchi
博基 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2019126659A priority Critical patent/JP7362322B2/en
Publication of JP2021010623A publication Critical patent/JP2021010623A/en
Application granted granted Critical
Publication of JP7362322B2 publication Critical patent/JP7362322B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To generate high quality CT image data.SOLUTION: An X-ray CT system includes a scan part and a processing part. After collecting a first projection data set by radiating an X-ray in a first range along a body axial direction of a subject, the scan part collects a second projection data set by radiating an X-ray in a second range narrower than the first range along the body axial direction. On the basis of at least a part of the first projection data set or first image data based on the at least a part of the first projection data set, and the second projection data set or second image data based on the second projection data set, the processing part generates a third projection data set or third image data by inputting the first projection data set or the first image data, and the second projection data set or the second image data into a learned model that generates the third projection data set or the third image data of higher quality than the second production data set or the second image data.SELECTED DRAWING: Figure 3

Description

本発明の実施形態は、X線CTシステム及び医用処理装置に関する。 Embodiments of the present invention relate to X-ray CT systems and medical processing devices.

X線CT(Computed Tomography)スキャナにより収集されるCT画像データには、種々の要因により、ノイズや画像アーチファクトが含まれてしまう場合がある。具体的には、被検体の体動や、X線管からの出力のゆらぎ、被検体の体厚等に応じたX線の減衰といった要因により、投影データが欠損したり投影データにノイズが含まれたりすることによって、再構成されるCT画像データにノイズや画像アーチファクトが含まれてしまう場合がある。 The CT image data collected by the X-ray CT (Computed Tomography) scanner may include noise and image artifacts due to various factors. Specifically, projection data is lost or noise is included in the projection data due to factors such as the body movement of the subject, fluctuations in the output from the X-ray tube, and attenuation of X-rays according to the body thickness of the subject. The reconstructed CT image data may contain noise and image artifacts due to the loss.

CT画像データの質を向上させるため、再構成処理に使用する投影データセットや再構成されたCT画像データを、AI(Artificial Intelligence)によって補正することが提案されている。ここで、AIによる補正を適切に行なうためには、より多くの情報に基づく学習が行われていることが好ましい。 In order to improve the quality of CT image data, it has been proposed to correct the projection data set used for the reconstruction process and the reconstructed CT image data by AI (Artificial Intelligence). Here, in order to properly perform the correction by AI, it is preferable that learning based on more information is performed.

特開2012−130667号公報Japanese Unexamined Patent Publication No. 2012-130667 国際公開第2017/141958号International Publication No. 2017/141958 特開2017−86903号公報JP-A-2017-86903

本発明が解決しようとする課題は、質の高いCT画像データを生成することである。 The problem to be solved by the present invention is to generate high quality CT image data.

実施形態のX線CTシステムは、スキャン部と、処理部とを備える。スキャン部は、被検体の体軸方向に沿った第1の範囲にX線を照射することで第1投影データセットを収集する第1スキャンを実行し、前記第1スキャンの後で、前記体軸方向に沿った、前記第1の範囲より狭い第2の範囲にX線を照射することで第2投影データセットを収集する第2スキャンを実行する。処理部は、前記第1投影データセットの少なくとも一部又は前記第1投影データセットの少なくとも一部に基づく第1画像データと、前記第2投影データセット又は前記第2投影データセットに基づく第2画像データと、に基づいて、前記第2投影データセット又は前記第2画像データより質が高い、第3投影データセット又は第3画像データを生成する学習済みモデルに対して、前記第1投影データセット又は前記第1画像データと、前記第2投影データセット又は前記第2画像データを入力することにより、前記第3投影データセット又は前記第3画像データを生成する。 The X-ray CT system of the embodiment includes a scanning unit and a processing unit. The scanning unit executes a first scan for collecting a first projection data set by irradiating a first range along the body axis direction of the subject with X-rays, and after the first scan, the body. A second scan is performed to collect the second projection data set by irradiating a second area along the axial direction, which is narrower than the first area, with X-rays. The processing unit has a first image data based on at least a part of the first projection data set or at least a part of the first projection data set, and a second based on the second projection data set or the second projection data set. The first projection data for a trained model that generates the third projection data set or the third image data, which is of higher quality than the second projection data set or the second image data, based on the image data. By inputting the set or the first image data and the second projection data set or the second image data, the third projection data set or the third image data is generated.

図1は、第1の実施形態に係るX線CTシステムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of the X-ray CT system according to the first embodiment. 図2は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。FIG. 2 is a diagram for explaining a trained model generation process according to the first embodiment. 図3は、第1の実施形態に係る学習済みモデルの使用例を示す図である。FIG. 3 is a diagram showing a usage example of the trained model according to the first embodiment. 図4は、第1の実施形態に係るX線CTシステムの処理の一連の流れを説明するためのフローチャートである。FIG. 4 is a flowchart for explaining a series of processes of the X-ray CT system according to the first embodiment. 図5は、第3の実施形態に係る医用情報処理システムの構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the configuration of the medical information processing system according to the third embodiment.

以下、添付図面を参照して、X線CTシステム及び医用処理装置の実施形態について詳細に説明する。なお、本願に係るX線CTシステム及び医用処理装置は、以下に示す実施形態によって限定されるものではない。 Hereinafter, embodiments of the X-ray CT system and the medical processing apparatus will be described in detail with reference to the accompanying drawings. The X-ray CT system and the medical processing apparatus according to the present application are not limited to the embodiments shown below.

(第1の実施形態)
まず、図1を参照しながら、第1の実施形態に係るX線CTシステム10の構成について説明する。図1は、第1の実施形態に係るX線CTシステム10の構成の一例を示すブロック図である。図1に示すように、X線CTシステム10は、架台装置110と、寝台装置130と、コンソール装置140とを有する。なお、X線CTシステム10は、X線CT装置又はX線CTスキャナとも呼ばれる。
(First Embodiment)
First, the configuration of the X-ray CT system 10 according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing an example of the configuration of the X-ray CT system 10 according to the first embodiment. As shown in FIG. 1, the X-ray CT system 10 includes a gantry device 110, a sleeper device 130, and a console device 140. The X-ray CT system 10 is also called an X-ray CT apparatus or an X-ray CT scanner.

図1においては、非チルト状態での回転フレーム113の回転軸又は寝台装置130の天板133の長手方向をZ軸方向とする。また、Z軸方向に直交し、床面に対し水平である軸方向をX軸方向とする。また、Z軸方向に直交し、床面に対し垂直である軸方向をY軸方向とする。なお、図1は、説明のために架台装置110を複数方向から描画したものであり、X線CTシステム10が架台装置110を1つ有する場合を示す。 In FIG. 1, the rotation axis of the rotation frame 113 in the non-tilt state or the longitudinal direction of the top plate 133 of the sleeper device 130 is the Z-axis direction. Further, the axial direction orthogonal to the Z-axis direction and horizontal to the floor surface is defined as the X-axis direction. Further, the axial direction orthogonal to the Z-axis direction and perpendicular to the floor surface is defined as the Y-axis direction. Note that FIG. 1 is a drawing of the gantry device 110 from a plurality of directions for the sake of explanation, and shows a case where the X-ray CT system 10 has one gantry device 110.

架台装置110は、X線管111と、X線検出器112と、回転フレーム113と、X線高電圧装置114と、制御装置115と、ウェッジ116と、コリメータ117と、DAS118とを有する。 The gantry device 110 includes an X-ray tube 111, an X-ray detector 112, a rotating frame 113, an X-ray high voltage device 114, a control device 115, a wedge 116, a collimator 117, and a DAS 118.

X線管111は、熱電子を発生する陰極(フィラメント)と、熱電子の衝突を受けてX線を発生する陽極(ターゲット)とを有する真空管である。X線管111は、X線高電圧装置114からの高電圧の印加により、陰極から陽極に向けて熱電子を照射することで、被検体P1に対し照射するX線を発生する。 The X-ray tube 111 is a vacuum tube having a cathode (filament) that generates thermoelectrons and an anode (target) that generates X-rays upon collision of thermions. The X-ray tube 111 generates X-rays to irradiate the subject P1 by irradiating thermions from the cathode toward the anode by applying a high voltage from the X-ray high voltage device 114.

X線検出器112は、X線管111から照射されて被検体P1を通過したX線を検出し、検出したX線量に対応した信号をDAS118へと出力する。X線検出器112は、例えば、X線管111の焦点を中心とした1つの円弧に沿ってチャンネル方向(チャネル方向)に複数の検出素子が配列された複数の検出素子列を有する。X線検出器112は、例えば、チャネル方向に複数の検出素子が配列された検出素子列が列方向(スライス方向、row方向)に複数配列された構造を有する。 The X-ray detector 112 detects the X-rays irradiated from the X-ray tube 111 and passed through the subject P1, and outputs a signal corresponding to the detected X-ray dose to the DAS 118. The X-ray detector 112 has, for example, a plurality of detection element sequences in which a plurality of detection elements are arranged in a channel direction (channel direction) along one arc centered on the focal point of the X-ray tube 111. The X-ray detector 112 has, for example, a structure in which a plurality of detection element sequences in which a plurality of detection elements are arranged in the channel direction are arranged in a row direction (slice direction, row direction).

例えば、X線検出器112は、グリッドと、シンチレータアレイと、光センサアレイとを有する間接変換型の検出器である。シンチレータアレイは、複数のシンチレータを有する。シンチレータは入射X線量に応じた光子量の光を出力するシンチレータ結晶を有する。グリッドは、シンチレータアレイのX線入射側の面に配置され、散乱X線を吸収するX線遮蔽板を有する。なお、グリッドはコリメータ(1次元コリメータ又は2次元コリメータ)と呼ばれる場合もある。光センサアレイは、シンチレータからの光量に応じた電気信号に変換する機能を有し、例えば、フォトダイオード等の光センサを有する。なお、X線検出器112は、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。 For example, the X-ray detector 112 is an indirect conversion type detector having a grid, a scintillator array, and an optical sensor array. The scintillator array has a plurality of scintillators. The scintillator has a scintillator crystal that outputs a photon amount of light according to the incident X dose. The grid is arranged on the surface of the scintillator array on the X-ray incident side and has an X-ray shield plate that absorbs scattered X-rays. The grid may also be called a collimator (one-dimensional collimator or two-dimensional collimator). The optical sensor array has a function of converting into an electric signal according to the amount of light from the scintillator, and has, for example, an optical sensor such as a photodiode. The X-ray detector 112 may be a direct conversion type detector having a semiconductor element that converts incident X-rays into an electric signal.

回転フレーム113は、X線管111とX線検出器112とを対向支持し、制御装置115によってX線管111とX線検出器112とを回転させる円環状のフレームである。例えば、回転フレーム113は、アルミニウムを材料とした鋳物である。なお、回転フレーム113は、X線管111及びX線検出器112に加えて、X線高電圧装置114やウェッジ116、コリメータ117、DAS118等を更に支持することもできる。更に、回転フレーム113は、図1において図示しない種々の構成を更に支持することもできる。以下では、架台装置110において、回転フレーム113、及び、回転フレーム113と共に回転移動する部分を、回転部とも記載する。 The rotating frame 113 is an annular frame that supports the X-ray tube 111 and the X-ray detector 112 so as to face each other, and rotates the X-ray tube 111 and the X-ray detector 112 by the control device 115. For example, the rotating frame 113 is a casting made of aluminum. In addition to the X-ray tube 111 and the X-ray detector 112, the rotating frame 113 can further support an X-ray high voltage device 114, a wedge 116, a collimator 117, a DAS 118, and the like. Further, the rotating frame 113 can further support various configurations (not shown in FIG. 1). In the following, in the gantry device 110, the rotating frame 113 and the portion that rotates and moves together with the rotating frame 113 are also referred to as a rotating portion.

X線高電圧装置114は、変圧器(トランス)及び整流器等の電気回路を有し、X線管111に印加する高電圧を発生する高電圧発生装置と、X線管111が発生するX線に応じた出力電圧の制御を行なうX線制御装置とを有する。高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であってもよい。なお、X線高電圧装置114は、回転フレーム113に設けられてもよいし、図示しない固定フレームに設けられても構わない。 The X-ray high-voltage device 114 has an electric circuit such as a transformer and a rectifier, and has a high-voltage generator that generates a high voltage applied to the X-ray tube 111 and an X-ray that is generated by the X-ray tube 111. It has an X-ray control device that controls the output voltage according to the above. The high voltage generator may be a transformer type or an inverter type. The X-ray high voltage device 114 may be provided on the rotating frame 113, or may be provided on a fixed frame (not shown).

制御装置115は、CPU(Central Processing Unit)等を有する処理回路と、モータ及びアクチュエータ等の駆動機構とを有する。制御装置115は、入力インターフェース143からの入力信号を受けて、架台装置110及び寝台装置130の動作制御を行なう。例えば、制御装置115は、回転フレーム113の回転や架台装置110のチルト、寝台装置130の動作等について制御を行なう。一例を挙げると、制御装置115は、架台装置110をチルトさせる制御として、入力された傾斜角度(チルト角度)情報により、X軸方向に平行な軸を中心に回転フレーム113を回転させる。なお、制御装置115は架台装置110に設けられてもよいし、コンソール装置140に設けられてもよい。 The control device 115 includes a processing circuit having a CPU (Central Processing Unit) and the like, and a drive mechanism such as a motor and an actuator. The control device 115 receives the input signal from the input interface 143 and controls the operation of the gantry device 110 and the sleeper device 130. For example, the control device 115 controls the rotation of the rotating frame 113, the tilt of the gantry device 110, the operation of the sleeper device 130, and the like. As an example, the control device 115 rotates the rotating frame 113 about an axis parallel to the X-axis direction based on the input tilt angle (tilt angle) information as a control for tilting the gantry device 110. The control device 115 may be provided in the gantry device 110 or in the console device 140.

ウェッジ116は、X線管111から照射されたX線量を調節するためのX線フィルタである。具体的には、ウェッジ116は、X線管111から被検体P1へ照射されるX線が予め定められた分布になるように、X線管111から照射されたX線を減衰させるX線フィルタである。例えば、ウェッジ116は、ウェッジフィルタ(wedge filter)やボウタイフィルタ(bow−tie filter)であり、所定のターゲット角度や所定の厚みとなるようにアルミニウム等を加工して作製される。 The wedge 116 is an X-ray filter for adjusting the X-ray dose emitted from the X-ray tube 111. Specifically, the wedge 116 is an X-ray filter that attenuates the X-rays emitted from the X-ray tube 111 so that the X-rays emitted from the X-ray tube 111 to the subject P1 have a predetermined distribution. Is. For example, the wedge 116 is a wedge filter or a bow-tie filter, and is manufactured by processing aluminum or the like so as to have a predetermined target angle and a predetermined thickness.

コリメータ117は、ウェッジ116を透過したX線の照射範囲を絞り込むための鉛板等であり、複数の鉛板等の組み合わせによってスリットを形成する。なお、コリメータ117は、X線絞りと呼ばれる場合もある。また、図1においては、X線管111とコリメータ117との間にウェッジ116が配置される場合を示すが、X線管111とウェッジ116との間にコリメータ117が配置される場合であってもよい。この場合、ウェッジ116は、X線管111から照射され、コリメータ117により照射範囲が制限されたX線を透過して減衰させる。 The collimator 117 is a lead plate or the like for narrowing the irradiation range of X-rays transmitted through the wedge 116, and a slit is formed by a combination of a plurality of lead plates or the like. The collimator 117 may be called an X-ray diaphragm. Further, in FIG. 1, the case where the wedge 116 is arranged between the X-ray tube 111 and the collimator 117 is shown, but the case where the collimator 117 is arranged between the X-ray tube 111 and the wedge 116. May be good. In this case, the wedge 116 is irradiated from the X-ray tube 111, and the X-ray whose irradiation range is limited by the collimator 117 is transmitted and attenuated.

DAS118は、X線検出器112が有する各検出素子によって検出されるX線の信号を収集する。例えば、DAS118は、各検出素子から出力される電気信号に対して増幅処理を行なう増幅器と、電気信号をデジタル信号に変換するA/D変換器とを有し、検出データを生成する。DAS118は、例えば、プロセッサにより実現される。 The DAS 118 collects X-ray signals detected by each detection element included in the X-ray detector 112. For example, the DAS 118 has an amplifier that amplifies an electric signal output from each detection element and an A / D converter that converts the electric signal into a digital signal, and generates detection data. DAS118 is realized by, for example, a processor.

DAS118が生成したデータは、回転フレーム113に設けられた発光ダイオード(Light Emitting Diode:LED)を有する送信機から、光通信によって、架台装置110の非回転部分(例えば、固定フレーム等。図1での図示は省略している)に設けられた、フォトダイオードを有する受信機に送信され、コンソール装置140へと転送される。ここで、非回転部分とは、例えば、回転フレーム113を回転可能に支持する固定フレーム等である。なお、回転フレーム113から架台装置110の非回転部分へのデータの送信方法は、光通信に限らず、非接触型の如何なるデータ伝送方式を採用してもよいし、接触型のデータ伝送方式を採用しても構わない。 The data generated by the DAS 118 is transmitted from a transmitter having a light emitting diode (LED) provided on the rotating frame 113 by optical communication to a non-rotating portion (for example, a fixed frame, etc.) of the gantry device 110. Is transmitted to a receiver having a light diode provided in (not shown in the above) and transferred to the console device 140. Here, the non-rotating portion is, for example, a fixed frame that rotatably supports the rotating frame 113. The method of transmitting data from the rotating frame 113 to the non-rotating portion of the gantry device 110 is not limited to optical communication, and any non-contact data transmission method may be adopted, and the contact-type data transmission method may be used. You may adopt it.

寝台装置130は、スキャン対象の被検体P1を載置、移動させる装置であり、基台131と、寝台駆動装置132と、天板133と、支持フレーム134とを有する。基台131は、支持フレーム134を鉛直方向に移動可能に支持する筐体である。寝台駆動装置132は、被検体P1が載置された天板133を、天板133の長軸方向に移動する駆動機構であり、モータ及びアクチュエータ等を含む。支持フレーム134の上面に設けられた天板133は、被検体P1が載置される板である。なお、寝台駆動装置132は、天板133に加え、支持フレーム134を天板133の長軸方向に移動してもよい。 The sleeper device 130 is a device for placing and moving the subject P1 to be scanned, and has a base 131, a sleeper drive device 132, a top plate 133, and a support frame 134. The base 131 is a housing that supports the support frame 134 so as to be movable in the vertical direction. The sleeper drive device 132 is a drive mechanism for moving the top plate 133 on which the subject P1 is placed in the long axis direction of the top plate 133, and includes a motor, an actuator, and the like. The top plate 133 provided on the upper surface of the support frame 134 is a plate on which the subject P1 is placed. In addition to the top plate 133, the sleeper drive device 132 may move the support frame 134 in the long axis direction of the top plate 133.

コンソール装置140は、メモリ141と、ディスプレイ142と、入力インターフェース143と、処理回路144とを有する。なお、コンソール装置140は架台装置110とは別体として説明するが、架台装置110にコンソール装置140又はコンソール装置140の各構成要素の一部が含まれてもよい。 The console device 140 has a memory 141, a display 142, an input interface 143, and a processing circuit 144. Although the console device 140 will be described as a separate body from the gantry device 110, the gantry device 110 may include a part of each component of the console device 140 or the console device 140.

メモリ141は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ141は、被検体P1に対するスキャンを実行することで収集される各種のデータを記憶する。また、例えば、メモリ141は、X線CTシステム10に含まれる回路がその機能を実現するためのプログラムを記憶する。なお、メモリ141は、X線CTシステム10とネットワークを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The memory 141 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like. For example, the memory 141 stores various data collected by performing a scan on the subject P1. Further, for example, the memory 141 stores a program for the circuit included in the X-ray CT system 10 to realize its function. The memory 141 may be realized by a server group (cloud) connected to the X-ray CT system 10 via a network.

ディスプレイ142は、各種の情報を表示する。例えば、ディスプレイ142は、処理回路144により生成された表示用のCT画像を表示したり、ユーザからの各種操作を受け付けるためのGUI(Graphical User Interface)等を表示したりする。例えば、ディスプレイ142は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。ディスプレイ142は、デスクトップ型でもよいし、コンソール装置140本体と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 142 displays various information. For example, the display 142 displays a CT image for display generated by the processing circuit 144, and displays a GUI (Graphical User Interface) or the like for receiving various operations from the user. For example, the display 142 is a liquid crystal display or a CRT (Cathode Ray Tube) display. The display 142 may be a desktop type, or may be composed of a tablet terminal or the like capable of wireless communication with the console device 140 main body.

入力インターフェース143は、ユーザからの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路144に出力する。例えば、入力インターフェース143は、CT画像データを再構成する際の再構成条件や、CT画像データから表示用のCT画像を生成する際の画像処理条件等をユーザから受け付ける。例えば、入力インターフェース143は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース143は、架台装置110に設けられてもよい。また、入力インターフェース143は、コンソール装置140本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース143は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、コンソール装置140とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路144へ出力する電気信号の処理回路も入力インターフェース143の例に含まれる。 The input interface 143 receives various input operations from the user, converts the received input operations into an electric signal, and outputs the received input operations to the processing circuit 144. For example, the input interface 143 receives from the user reconstruction conditions for reconstructing CT image data, image processing conditions for generating a CT image for display from CT image data, and the like. For example, the input interface 143 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad for performing input operations by touching an operation surface, a touch screen in which a display screen and a touch pad are integrated, and an optical sensor. It is realized by the non-contact input circuit, voice input circuit, etc. used. The input interface 143 may be provided on the gantry device 110. Further, the input interface 143 may be composed of a tablet terminal or the like capable of wireless communication with the console device 140 main body. Further, the input interface 143 is not limited to the one provided with physical operating parts such as a mouse and a keyboard. For example, an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the console device 140 and outputs the electric signal to the processing circuit 144 is also an example of the input interface 143. included.

処理回路144は、スキャン機能144a、処理機能144b、及び制御機能144cを実行することで、X線CTシステム10全体の動作を制御する。なお、スキャン機能144aは、スキャン部の一例である。また、処理機能144bは、処理部の一例である。 The processing circuit 144 controls the operation of the entire X-ray CT system 10 by executing the scanning function 144a, the processing function 144b, and the control function 144c. The scanning function 144a is an example of a scanning unit. The processing function 144b is an example of a processing unit.

例えば、処理回路144は、スキャン機能144aに相当するプログラムをメモリ141から読み出して実行することにより、被検体P1に対するスキャンを実行する。例えば、スキャン機能144aは、被検体P1に対して、位置決め撮影や本スキャンといった各種のスキャンを実行する。 For example, the processing circuit 144 executes a scan on the subject P1 by reading a program corresponding to the scan function 144a from the memory 141 and executing the program. For example, the scan function 144a executes various scans such as positioning imaging and main scan on the subject P1.

ここで、位置決め撮影については、2次元で実行されてもよいし、3次元で実行されてもよい。本実施形態では一例として、2次元の位置決め撮影を実行する場合について説明する。この場合、スキャン機能144aは、X線管111の位置を被検体P1の周囲で回転させないで、X線管111の位置及び被検体P1の少なくともいずれかを被検体P1の体軸方向(図1に示すZ軸方向)に沿って移動させながら、位置決め撮影を実行する。 Here, the positioning imaging may be performed in two dimensions or in three dimensions. In this embodiment, a case of performing two-dimensional positioning imaging will be described as an example. In this case, the scanning function 144a does not rotate the position of the X-ray tube 111 around the subject P1, but at least one of the position of the X-ray tube 111 and the subject P1 is in the body axis direction of the subject P1 (FIG. 1). Positioning imaging is performed while moving along the Z-axis direction shown in (1).

例えば、スキャン機能144aは、X線管111の位置を所定の回転角度に固定し、天板133をZ軸方向に移動させながら、X線管111から被検体P1に対してX線を照射させる。また、スキャン機能144aによって位置決め撮影が実行される間、DAS118は、X線検出器112における各検出素子からX線の信号を収集し、検出データを生成する。また、スキャン機能144aは、DAS118から出力された検出データに対して前処理を施す。例えば、スキャン機能144aは、DAS118から出力された検出データに対して、対数変換処理やオフセット補正処理、チャンネル間の感度補正処理、ビームハードニング補正等の前処理を施す。なお、前処理を施した後のデータについては生データとも記載する。また、前処理を施す前の検出データ及び前処理を施した後の生データを総称して、投影データとも記載する。 For example, the scan function 144a fixes the position of the X-ray tube 111 at a predetermined rotation angle, and irradiates the subject P1 with X-rays from the X-ray tube 111 while moving the top plate 133 in the Z-axis direction. .. Further, while the positioning imaging is executed by the scan function 144a, the DAS 118 collects X-ray signals from each detection element in the X-ray detector 112 and generates detection data. Further, the scan function 144a performs preprocessing on the detection data output from DAS118. For example, the scan function 144a performs preprocessing such as logarithmic conversion processing, offset correction processing, sensitivity correction processing between channels, and beam hardening correction on the detection data output from DAS118. The data after pretreatment is also described as raw data. In addition, the detection data before the pretreatment and the raw data after the pretreatment are collectively referred to as projection data.

即ち、スキャン機能144aは、X線管111の位置を所定の回転角度に固定し、天板133をZ軸方向に移動させながら、X線管111から被検体P1に対してX線を照射させることで、被検体P1の体軸方向における複数の位置それぞれについて投影データを収集する。以下では、複数の投影データをまとめて、投影データセットとも記載する。即ち、スキャン機能144aは、位置決め撮影を実行することにより、投影データセットを収集する。 That is, the scanning function 144a fixes the position of the X-ray tube 111 at a predetermined rotation angle, and irradiates the subject P1 with X-rays from the X-ray tube 111 while moving the top plate 133 in the Z-axis direction. As a result, projection data is collected for each of the plurality of positions of the subject P1 in the body axis direction. In the following, a plurality of projection data will be collectively referred to as a projection data set. That is, the scan function 144a collects the projection data set by performing positioning imaging.

また、処理回路144は、処理機能144bに相当するプログラムをメモリ141から読み出して実行することにより、スキャン結果に基づいて画像データを生成する。例えば、処理機能144bは、位置決め撮影により収集された投影データセットに基づいて位置決め画像データを生成する。なお、位置決め画像データは、スキャノ画像データやスカウト画像データと呼ばれる場合もある。 Further, the processing circuit 144 generates image data based on the scan result by reading the program corresponding to the processing function 144b from the memory 141 and executing the program. For example, the processing function 144b generates positioning image data based on the projection data set collected by the positioning imaging. The positioning image data may be referred to as a scanno image data or a scout image data.

また、本スキャンについては、例えば、コンベンショナルスキャンの方式で実行されてもよいし、ヘリカルスキャンの方式で実行されてもよいし、ステップアンドシュート方式で実行されてもよい。 Further, the main scan may be executed by, for example, a conventional scan method, a helical scan method, or a step-and-shoot method.

コンベンショナルスキャンの方式で本スキャンを実行する場合、スキャン機能144aは、X線管111の位置及び被検体P1を体軸方向に沿って移動させないで、X線管111の位置を被検体P1の周囲で回転させながら、本スキャンを実行する。例えば、スキャン機能144aは、天板133を停止させた状態で、X線管111を被検体P1の周囲で回転させながら、X線管111から被検体P1に対してX線を照射させる。 When the main scan is executed by the conventional scan method, the scan function 144a does not move the position of the X-ray tube 111 and the subject P1 along the body axis direction, and moves the position of the X-ray tube 111 around the subject P1. Perform this scan while rotating with. For example, the scanning function 144a irradiates the subject P1 with X-rays from the X-ray tube 111 while rotating the X-ray tube 111 around the subject P1 with the top plate 133 stopped.

また、ヘリカルスキャンの方式で本スキャンを実行する場合、スキャン機能144aは、X線管111の位置及び被検体P1を体軸方向に沿って移動させるとともに、X線管111の位置を被検体P1の周囲で回転させながら、本スキャンを実行する。例えば、スキャン機能144aは、天板133をZ軸方向に移動させるとともに、X線管111を被検体P1の周囲で回転させながら、X線管111から被検体P1に対してX線を照射させる。 When the main scan is executed by the helical scan method, the scan function 144a moves the position of the X-ray tube 111 and the subject P1 along the body axis direction, and moves the position of the X-ray tube 111 to the subject P1. Perform this scan while rotating around the. For example, the scanning function 144a causes the top plate 133 to move in the Z-axis direction and irradiates the subject P1 with X-rays from the X-ray tube 111 while rotating the X-ray tube 111 around the subject P1. ..

ステップアンドシュート方式で本スキャンを実行する場合、スキャン機能144aは、まず、X線管111の位置及び被検体P1を体軸方向に沿って移動させないで、X線管111の位置を被検体P1の周囲で回転させながら、本スキャンを実行する。例えば、スキャン機能144aは、天板133を停止させた状態で、X線管111を被検体P1の周囲で回転させながら、X線管111から被検体P1に対してX線を照射させる。次に、スキャン機能144aは、X線管111からのX線の照射を停止させた状態で、天板133をZ軸方向に移動させる。そして、スキャン機能144aは、天板133を停止させた状態で、X線管111を被検体P1の周囲で回転させながら、X線管111から被検体P1に対してX線を再度照射させる。 When the main scan is executed by the step-and-shoot method, the scan function 144a first moves the position of the X-ray tube 111 and the subject P1 along the body axis direction, and first shifts the position of the X-ray tube 111 to the subject P1. Perform this scan while rotating around the. For example, the scanning function 144a irradiates the subject P1 with X-rays from the X-ray tube 111 while rotating the X-ray tube 111 around the subject P1 with the top plate 133 stopped. Next, the scanning function 144a moves the top plate 133 in the Z-axis direction in a state where the irradiation of X-rays from the X-ray tube 111 is stopped. Then, the scanning function 144a re-irradiates the subject P1 with X-rays from the X-ray tube 111 while rotating the X-ray tube 111 around the subject P1 with the top plate 133 stopped.

スキャン機能144aによって本スキャンが実行される間、DAS118は、X線検出器112における各検出素子からX線の信号を収集し、検出データを生成する。また、スキャン機能144aは、DAS118から出力された検出データに対して、対数変換処理やオフセット補正処理、チャンネル間の感度補正処理、ビームハードニング補正等の前処理を施す。 While this scan is performed by the scan function 144a, the DAS 118 collects X-ray signals from each detection element in the X-ray detector 112 and generates detection data. Further, the scan function 144a performs preprocessing such as logarithmic conversion processing, offset correction processing, sensitivity correction processing between channels, and beam hardening correction on the detection data output from DAS118.

即ち、スキャン機能144aは、X線管111の位置を被検体P1の周囲で回転させながらX線を被検体P1に照射することで、複数の照射方向(ビュー)のそれぞれについて投影データを収集する。即ち、スキャン機能144aは、本スキャンを実行することにより、投影データセットを収集する。 That is, the scan function 144a collects projection data for each of a plurality of irradiation directions (views) by irradiating the subject P1 with X-rays while rotating the position of the X-ray tube 111 around the subject P1. .. That is, the scan function 144a collects the projection data set by executing the main scan.

また、処理機能144bは、本スキャンにより収集された投影データセットに基づいて、CT画像データ(ボリュームデータ)を生成する。例えば、処理機能144bは、投影データセットに基づいて、フィルタ補正逆投影法や逐次近似再構成法、逐次近似応用再構成法等を用いた再構成処理を行なうことにより、CT画像データを生成する。また、処理機能144bは、AIによる再構成処理を行なってCT画像データを生成することもできる。例えば、処理機能144bは、DLR(Deep Learning Reconstruction)法により、CT画像データを生成する。 In addition, the processing function 144b generates CT image data (volume data) based on the projection data set collected by this scan. For example, the processing function 144b generates CT image data by performing reconstruction processing using a filter correction back projection method, a successive approximation reconstruction method, a successive approximation applied reconstruction method, or the like based on a projection data set. .. In addition, the processing function 144b can also generate CT image data by performing reconstruction processing by AI. For example, the processing function 144b generates CT image data by a DLR (Deep Learning Reconnection) method.

ここで、処理機能144bは、CT画像データについての補正を行なう。具体的には、処理機能144bは、学習済みモデルM1に対して、位置決め撮影により収集された位置決め画像データ及び本スキャンにより収集されたCT画像データを入力することにより、CT画像データについて補正を行なう。なお、学習済みモデルM1を用いた補正については後述する。 Here, the processing function 144b corrects the CT image data. Specifically, the processing function 144b corrects the CT image data by inputting the positioning image data collected by the positioning imaging and the CT image data collected by the main scan into the trained model M1. .. The correction using the trained model M1 will be described later.

また、処理回路144は、制御機能144cに対応するプログラムをメモリ141から読み出して実行することにより、ディスプレイ142における表示の制御を行なう。例えば、制御機能144cは、処理機能144bにより生成された位置決め画像データやCT画像データを、公知の方法により表示用画像に変換する。一例を挙げると、制御機能144cは、入力インターフェース143を介してユーザから受け付けた入力操作等に基づいて、CT画像データを任意断面の断層像データや3次元画像データ等に変換する。そして、制御機能144cは、変換した表示用画像をディスプレイ142に表示させる。また、制御機能144cは、ネットワークを介して各種のデータを送信する。一例を挙げると、制御機能144cは、処理機能144bにより生成された位置決め画像データやCT画像データを、図示しない画像保管装置に送信して保管させる。 Further, the processing circuit 144 controls the display on the display 142 by reading the program corresponding to the control function 144c from the memory 141 and executing the program. For example, the control function 144c converts the positioning image data and the CT image data generated by the processing function 144b into a display image by a known method. As an example, the control function 144c converts CT image data into tomographic image data of an arbitrary cross section, three-dimensional image data, or the like based on an input operation or the like received from a user via the input interface 143. Then, the control function 144c causes the converted display image to be displayed on the display 142. Further, the control function 144c transmits various data via the network. As an example, the control function 144c transmits the positioning image data and the CT image data generated by the processing function 144b to an image storage device (not shown) for storage.

図1に示すX線CTシステム10においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ141へ記憶されている。処理回路144は、メモリ141からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、プログラムを読み出した状態の処理回路144は、読み出したプログラムに対応する機能を有することとなる。 In the X-ray CT system 10 shown in FIG. 1, each processing function is stored in the memory 141 in the form of a program that can be executed by a computer. The processing circuit 144 is a processor that realizes a function corresponding to each program by reading a program from the memory 141 and executing the program. In other words, the processing circuit 144 in the state where the program is read has a function corresponding to the read program.

なお、図1においては単一の処理回路144にて、スキャン機能144a、処理機能144b、及び制御機能144cが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路144を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路144が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 Although it has been described in FIG. 1 that the scan function 144a, the processing function 144b, and the control function 144c are realized by a single processing circuit 144, the processing circuit 144 is configured by combining a plurality of independent processors. , Each processor may realize the function by executing the program. Further, each processing function of the processing circuit 144 may be appropriately distributed or integrated into a single or a plurality of processing circuits.

また、処理回路144は、ネットワークを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路144は、メモリ141から各機能に対応するプログラムを読み出して実行するとともに、X線CTシステム10とネットワークを介して接続されたサーバ群(クラウド)を計算資源として利用することにより、図1に示す各機能を実現する。 Further, the processing circuit 144 may realize the function by utilizing the processor of the external device connected via the network. For example, the processing circuit 144 reads a program corresponding to each function from the memory 141 and executes it, and also uses a server group (cloud) connected to the X-ray CT system 10 via a network as a computational resource. Each function shown in FIG. 1 is realized.

以上、X線CTシステム10の構成例について説明した。かかる構成の下、X線CTシステム10における処理回路144は、以下詳細に説明する処理によって、CT画像データの質を向上させる。 The configuration example of the X-ray CT system 10 has been described above. Under such a configuration, the processing circuit 144 in the X-ray CT system 10 improves the quality of CT image data by the processing described in detail below.

まず、処理機能144bは、学習済みモデルM1を生成してメモリ141に格納する。即ち、処理機能144bは、被検体P1に対する位置決め撮影及び本スキャンに先立って、学習済みモデルM1の生成処理を行なう。以下、処理機能144bによる学習済みモデルM1の生成処理について、図2を用いて説明する。図2は、第1の実施形態に係る学習済みモデルM1の生成処理について説明するための図である。 First, the processing function 144b generates the trained model M1 and stores it in the memory 141. That is, the processing function 144b performs the generation processing of the trained model M1 prior to the positioning imaging and the main scan of the subject P1. Hereinafter, the process of generating the trained model M1 by the processing function 144b will be described with reference to FIG. FIG. 2 is a diagram for explaining the generation process of the trained model M1 according to the first embodiment.

図2に示す画像データC11、画像データC12及び画像データC13は、被検体P1や、被検体P1と異なる被検体P2、人体を模したファントム等をスキャンすることで収集された画像データである。画像データC11、画像データC12及び画像データC13は、X線CTシステム10において収集された画像データであってもよいし、他のシステムにおいて収集された画像データであってもよい。なお、以下では一例として、X線CTシステム10において被検体P2をスキャンすることにより、画像データC11、画像データC12及び画像データC13を収集するものとして説明する。 The image data C11, the image data C12, and the image data C13 shown in FIG. 2 are image data collected by scanning the subject P1, the subject P2 different from the subject P1, the phantom imitating the human body, and the like. The image data C11, the image data C12, and the image data C13 may be the image data collected by the X-ray CT system 10 or the image data collected by another system. In the following, as an example, the image data C11, the image data C12, and the image data C13 will be collected by scanning the subject P2 with the X-ray CT system 10.

例えば、X線CTシステム10は、被検体P2についてスキャンA11を実行することで、画像データC11を収集する。一例を挙げると、まず、スキャン機能144aは、X線管111の位置を所定の回転角度に固定し、天板133をZ軸方向に移動させながら、X線管111から被検体P2に対してX線を照射させることで、被検体P2の体軸方向における複数の位置それぞれについて投影データを収集する。以下、スキャンA11により収集された複数の投影データを、投影データセットB11と記載する。そして、処理機能144bは、収集された投影データセットB11に基づいて、図2に示す画像データC11を生成する。即ち、画像データC11は、2次元のスキャンにより収集された2次元画像データである。一例を挙げると、画像データC11は、被検体P2に対する検査において、位置決め撮影により収集された位置決め画像データである。 For example, the X-ray CT system 10 collects image data C11 by performing scan A11 on the subject P2. As an example, first, the scanning function 144a fixes the position of the X-ray tube 111 at a predetermined rotation angle, and moves the top plate 133 in the Z-axis direction from the X-ray tube 111 to the subject P2. By irradiating with X-rays, projection data is collected for each of a plurality of positions of the subject P2 in the body axis direction. Hereinafter, the plurality of projection data collected by the scan A11 will be referred to as a projection data set B11. Then, the processing function 144b generates the image data C11 shown in FIG. 2 based on the collected projection data set B11. That is, the image data C11 is two-dimensional image data collected by a two-dimensional scan. As an example, the image data C11 is the positioning image data collected by the positioning imaging in the inspection of the subject P2.

また、例えば、X線CTシステム10は、被検体P2についてスキャンA12を実行することで、画像データC12を収集する。一例を挙げると、まず、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1のX線を被検体P2に照射することで、複数のビューのそれぞれについて投影データを収集する。以下、スキャンA12により収集された複数の投影データを、投影データセットB12と記載する。そして、処理機能144bは、収集された投影データセットB12に基づく再構成処理を実行することにより、図2に示す画像データC12を生成する。即ち、画像データC12は、3次元のスキャンにより収集された3次元画像データである。一例を挙げると、画像データC12は、被検体P2に対する検査において、本スキャンにより収集されたCT画像データである。 Further, for example, the X-ray CT system 10 collects image data C12 by executing scan A12 on the subject P2. As an example, first, the scan function 144a irradiates the subject P2 with X-rays having a dose of X1 while rotating the X-ray tube 111 around the subject P2 to project data for each of the plurality of views. To collect. Hereinafter, the plurality of projection data collected by the scan A12 will be referred to as a projection data set B12. Then, the processing function 144b generates the image data C12 shown in FIG. 2 by executing the reconstruction process based on the collected projection data set B12. That is, the image data C12 is three-dimensional image data collected by a three-dimensional scan. As an example, the image data C12 is the CT image data collected by this scan in the test for the subject P2.

また、例えば、X線CTシステム10は、被検体P2についてスキャンA13を実行することで、画像データC13を収集する。一例を挙げると、まず、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X2のX線を被検体P2に照射することで、複数のビューのそれぞれについて投影データを収集する。ここで、線量X2は、線量X1よりも高い線量である。以下、スキャンA13により収集された複数の投影データを、投影データセットB13と記載する。そして、処理機能144bは、収集された投影データセットB13に基づく再構成処理を実行することにより、図2に示す画像データC13を生成する。即ち、画像データC13は、3次元のスキャンにより収集された3次元画像データである。一例を挙げると、画像データC13は、被検体P2に対する検査において、本スキャンにより収集されたCT画像データである。 Further, for example, the X-ray CT system 10 collects image data C13 by executing scan A13 on the subject P2. As an example, first, the scan function 144a irradiates the subject P2 with X-rays having a dose of X2 while rotating the X-ray tube 111 around the subject P2, thereby projecting data for each of the plurality of views. To collect. Here, the dose X2 is a higher dose than the dose X1. Hereinafter, the plurality of projection data collected by the scan A13 will be referred to as a projection data set B13. Then, the processing function 144b generates the image data C13 shown in FIG. 2 by executing the reconstruction process based on the collected projection data set B13. That is, the image data C13 is three-dimensional image data collected by a three-dimensional scan. As an example, the image data C13 is the CT image data collected by this scan in the test for the subject P2.

また、画像データC13は、画像データC12と比較して、高線量のX線を用いて収集された画像データである。即ち、画像データC13は、高線量のX線を用いて収集された質の高い画像データである。例えば、画像データC13においては、画像データC12と比較して、アーチファクトやノイズが低減されている。 Further, the image data C13 is image data collected by using a high dose of X-rays as compared with the image data C12. That is, the image data C13 is high quality image data collected by using a high dose of X-rays. For example, in the image data C13, artifacts and noise are reduced as compared with the image data C12.

処理機能144bは、図2に示す画像データC11及び画像データC12を入力側データ、画像データC13を出力側データとした機械学習を実行することにより、学習済みモデルM1を生成する。ここで、学習済みモデルM1は、例えば、ニューラルネットワーク(Neural Network)により構成することができる。 The processing function 144b generates the trained model M1 by executing machine learning using the image data C11 and the image data C12 shown in FIG. 2 as input side data and the image data C13 as output side data. Here, the trained model M1 can be configured by, for example, a neural network (Neural Network).

ニューラルネットワークとは、層状に並べた隣接層間が結合した構造を有し、情報が入力層側から出力層側に伝播するネットワークである。例えば、処理機能144bは、画像データC11、画像データC12及び画像データC13を用いて多層のニューラルネットワークについて深層学習(ディープラーニング)を実行することで、学習済みモデルM1を生成する。なお、多層のニューラルネットワークは、例えば、入力層と、複数の中間層(隠れ層)と、出力層とにより構成される。 A neural network is a network that has a structure in which adjacent layers arranged in layers are connected and information propagates from the input layer side to the output layer side. For example, the processing function 144b generates a trained model M1 by performing deep learning on a multi-layer neural network using image data C11, image data C12, and image data C13. The multi-layer neural network is composed of, for example, an input layer, a plurality of intermediate layers (hidden layers), and an output layer.

一例を挙げると、処理機能144bは、画像データC11及び画像データC12を入力側データとして、ニューラルネットワークに入力する。ここで、ニューラルネットワークにおいては、入力層側から出力層側に向かって一方向に隣接層間でのみ結合しながら情報が伝播し、出力層からは、画像データC13を推定した画像データが出力される。即ち、ニューラルネットワークにおいては、画像データC12の質を向上させる処理が行われ、出力層からは、画像データC12より質の高い画像データC13を推定した画像データが出力される。なお、入力層側から出力層側に向かって一方向に情報が伝播するニューラルネットワークについては、畳み込みニューラルネットワーク(CNN:Convlutional Neural Network)とも呼ばれる。 As an example, the processing function 144b inputs the image data C11 and the image data C12 as input side data to the neural network. Here, in the neural network, information is propagated while being coupled only between adjacent layers in one direction from the input layer side to the output layer side, and the image data estimated from the image data C13 is output from the output layer. .. That is, in the neural network, processing for improving the quality of the image data C12 is performed, and the image data in which the image data C13 having a higher quality than the image data C12 is estimated is output from the output layer. A neural network in which information propagates in one direction from the input layer side to the output layer side is also called a convolutional neural network (CNN).

処理機能144bは、入力側データを入力した際にニューラルネットワークが好ましい結果を出力することができるよう、ニューラルネットワークのパラメータを調整することで、学習済みモデルM1を生成する。例えば、処理機能144bは、画像データ間の近さを表す関数(誤差関数)を用いて、ニューラルネットワークのパラメータを調整する。 The processing function 144b generates the trained model M1 by adjusting the parameters of the neural network so that the neural network can output a preferable result when the input side data is input. For example, the processing function 144b adjusts the parameters of the neural network by using a function (error function) representing the proximity between the image data.

一例を挙げると、処理機能144bは、画像データC13と、ニューラルネットワークが推定した画像データとの間の近さを示す誤差関数E1を算出する。また、処理機能144bは、画像データC11と、ニューラルネットワークが推定した画像データとの間の整合性を示す誤差関数E2を算出する。例えば、処理機能144bは、ニューラルネットワークが推定した画像データを、画像データC11を収集した際のX線照射方向に応じて順投影することで、2次元の画像データC14を生成する。また、処理機能144bは、生成した画像データC14と画像データC11とについて、画像データ間の近さを示す誤差関数E2を算出する。 As an example, the processing function 144b calculates an error function E1 indicating the proximity between the image data C13 and the image data estimated by the neural network. Further, the processing function 144b calculates an error function E2 indicating consistency between the image data C11 and the image data estimated by the neural network. For example, the processing function 144b generates two-dimensional image data C14 by forward-projecting the image data estimated by the neural network according to the X-ray irradiation direction when the image data C11 is collected. Further, the processing function 144b calculates an error function E2 indicating the proximity between the image data for the generated image data C14 and the image data C11.

更に、処理機能144bは、算出した誤差関数が極小となるように、ニューラルネットワークのパラメータを調整する。例えば、処理機能144bは、誤差関数E1と誤差関数E2との和が極小となるように、ニューラルネットワークのパラメータを調整する。これにより、処理機能144bは、2次元の画像データ及び3次元の画像データの入力を受け付けて、入力された3次元の画像データの質を向上させるように機能付けられた学習済みモデルM1を生成する。また、処理機能144bは、生成した学習済みモデルM1を、メモリ141に記憶させる。 Further, the processing function 144b adjusts the parameters of the neural network so that the calculated error function becomes the minimum. For example, the processing function 144b adjusts the parameters of the neural network so that the sum of the error function E1 and the error function E2 is minimized. As a result, the processing function 144b accepts the input of the two-dimensional image data and the three-dimensional image data, and generates a trained model M1 functionalized to improve the quality of the input three-dimensional image data. To do. Further, the processing function 144b stores the generated trained model M1 in the memory 141.

そして、被検体P1に対するスキャンが実行された際、処理機能144bは、メモリ141から学習済みモデルM1を読み出し、読み出した学習済みモデルM1を用いて、被検体P1から収集されたCT画像データの質を向上させる。以下、被検体P1に対して実行されるスキャン、及び、学習済みモデルM1を用いたCT画像データの補正処理について、図3を用いて説明する。図3は、第1の実施形態に係る学習済みモデルM1の使用例を示す図である。 Then, when the scan for the subject P1 is executed, the processing function 144b reads the learned model M1 from the memory 141, and the quality of the CT image data collected from the subject P1 is used by using the read learned model M1. To improve. Hereinafter, the scan performed on the subject P1 and the correction processing of the CT image data using the trained model M1 will be described with reference to FIG. FIG. 3 is a diagram showing a usage example of the trained model M1 according to the first embodiment.

まず、スキャン機能144aは、スキャンA21を実行する。具体的には、スキャン機能144aは、図3に示すように、X線管111の位置を被検体P1の周囲で回転させないで、X線管111の位置を被検体P1に対して相対的に移動させながら、被検体P1に対してX線を照射させる。これにより、スキャン機能144aは、被検体P1の体軸方向に沿った範囲R1にX線を照射して、投影データセットB21を収集する。例えば、スキャン機能144aは、X線管111の位置を所定の回転角度に固定し、天板133をZ軸方向に移動させて、投影データセットB21を収集する。また、処理機能144bは、スキャンA21により収集された投影データセットB21に基づいて、2次元の画像データC21を生成する。 First, the scan function 144a executes the scan A21. Specifically, as shown in FIG. 3, the scanning function 144a does not rotate the position of the X-ray tube 111 around the subject P1, but makes the position of the X-ray tube 111 relative to the subject P1. The subject P1 is irradiated with X-rays while being moved. As a result, the scanning function 144a irradiates the range R1 along the body axis direction of the subject P1 with X-rays and collects the projection data set B21. For example, the scanning function 144a fixes the position of the X-ray tube 111 at a predetermined rotation angle, moves the top plate 133 in the Z-axis direction, and collects the projection data set B21. Further, the processing function 144b generates two-dimensional image data C21 based on the projection data set B21 collected by the scan A21.

なお、スキャンA21は、第1スキャンの一例である。また、範囲R1は、第1の範囲の一例である。また、投影データセットB21は、第1投影データセットの一例である。また、画像データC21は、第1画像データの一例である。処理機能144bは、投影データセットB21の全部を用いて画像データC21を生成してもよいし、投影データセットB21の一部を用いて画像データC21を生成してもよい。 The scan A21 is an example of the first scan. The range R1 is an example of the first range. The projection data set B21 is an example of the first projection data set. Further, the image data C21 is an example of the first image data. The processing function 144b may generate the image data C21 by using the entire projection data set B21, or may generate the image data C21 by using a part of the projection data set B21.

次に、制御機能144cは、画像データC21に基づく参照画像をディスプレイ142に表示させる。また、制御機能144cは、参照画像を参照したユーザからの入力操作を受け付けることで、スキャンA22のスキャン範囲である範囲R2を設定する。なお、スキャンA22は、第2スキャンの一例である。また、範囲R2は、第2の範囲の一例である。 Next, the control function 144c causes the display 142 to display a reference image based on the image data C21. Further, the control function 144c sets the range R2, which is the scan range of the scan A22, by accepting an input operation from the user who has referred to the reference image. The scan A22 is an example of the second scan. The range R2 is an example of the second range.

上述したように、範囲R2は、投影データセットB21の少なくとも一部に基づいて生成され、ディスプレイ142に表示された位置決め画像データに対する操作により設定される。即ち、スキャンA21は、範囲R2を設定するための位置決め撮影である。従って、スキャンA21の範囲R1は、診断対象の臓器等を含むように、比較的広域に設定されることが好ましい。範囲R2は、範囲R1において設定されるものであるため、通常は図3に示すように、範囲R1より狭い範囲となる。 As described above, the range R2 is generated based on at least a portion of the projection data set B21 and is set by manipulating the positioning image data displayed on the display 142. That is, the scan A21 is a positioning image for setting the range R2. Therefore, the range R1 of the scan A21 is preferably set to a relatively wide area so as to include the organ to be diagnosed and the like. Since the range R2 is set in the range R1, it is usually narrower than the range R1 as shown in FIG.

次に、スキャン機能144aは、参照画像に設定された範囲R2に対して、スキャンA22を実行する。具体的には、スキャン機能144aは、図3に示すように、X線管111の位置を被検体P1の周囲で回転させながら、被検体P1に対してX線を照射させる。これにより、スキャン機能144aは、被検体P1の体軸方向に沿った範囲R2にX線を照射して、投影データセットB22を収集する。例えば、スキャン機能144aは、コンベンショナルスキャン、ヘリカルスキャン、ステップアンドシュートといった方式のスキャンを実行することで、投影データセットB22を収集する。なお、投影データセットB22は、第2投影データセットの一例である。 Next, the scan function 144a executes the scan A22 with respect to the range R2 set in the reference image. Specifically, as shown in FIG. 3, the scanning function 144a irradiates the subject P1 with X-rays while rotating the position of the X-ray tube 111 around the subject P1. As a result, the scanning function 144a irradiates the range R2 along the body axis direction of the subject P1 with X-rays and collects the projection data set B22. For example, the scan function 144a collects the projection data set B22 by performing a conventional scan, a helical scan, a step-and-shoot scan, or the like. The projection data set B22 is an example of the second projection data set.

また、処理機能144bは、スキャンA22により収集された投影データセットB22に基づいて、3次元の画像データC22を生成する。なお、画像データC22は、第2画像データの一例である。例えば、処理機能144bは、投影データセットB22に基づいて、フィルタ補正逆投影法や逐次近似再構成法、逐次近似応用再構成法、DLR法といった再構成処理を実行することにより、3次元の画像データC22を再構成する。即ち、スキャンA22は、CT画像データ(ボリュームデータ)を収集するための本スキャンである。 Further, the processing function 144b generates three-dimensional image data C22 based on the projection data set B22 collected by the scan A22. The image data C22 is an example of the second image data. For example, the processing function 144b executes reconstruction processing such as a filter correction back projection method, a successive approximation reconstruction method, a successive approximation applied reconstruction method, and a DLR method based on the projection data set B22, thereby performing a three-dimensional image. Data C22 is reconstructed. That is, the scan A22 is a main scan for collecting CT image data (volume data).

なお、スキャン機能144aは、被検体P1の心拍又は呼吸の周期に応じて、スキャンA21とスキャンA22とを同期させて実行することとしてもよい。即ち、スキャン機能144aは、心拍又は呼吸による周期的な動きによってスキャンA21とスキャンA22との間の位置ずれが生じないように、スキャンA21とスキャンA22とを同期させて実行することとしてもよい。 The scan function 144a may be executed in synchronization with the scan A21 and the scan A22 according to the heartbeat or the respiratory cycle of the subject P1. That is, the scan function 144a may be executed in synchronization with the scan A21 and the scan A22 so that the position shift between the scan A21 and the scan A22 does not occur due to the periodic movement due to the heartbeat or the respiration.

例えば、スキャン機能144aは、スキャンA21及びスキャンA22と並行して、被検体P1の心電波形を取得する。例えば、スキャン機能144aは、被検体P1に装着した心電計により、被検体P1の心電波形を取得する。そして、スキャン機能144aは、スキャンA21における心電波形に対して、スキャンA22における心電波形の位相が一致するように、スキャンA22を実行する。 For example, the scan function 144a acquires the electrocardiographic waveform of the subject P1 in parallel with the scan A21 and the scan A22. For example, the scan function 144a acquires the electrocardiographic waveform of the subject P1 by an electrocardiograph attached to the subject P1. Then, the scan function 144a executes the scan A22 so that the phase of the electrocardiographic waveform in the scan A22 matches the electrocardiographic waveform in the scan A21.

また、例えば、スキャン機能144aは、スキャンA21及びスキャンA22と並行して、被検体P1の呼吸波形を取得する。例えば、スキャン機能144aは、呼吸センサにより被検体P1の呼吸波形を取得する。一例を挙げると、スキャン機能144aは、呼吸センサとして、レーザ発生器と受光器を用いて呼吸波形を取得する。具体的には、スキャン機能144aは、被検体P1の腹部表面からの反射光の信号を処理し、レーザ照射から反射光受光までの時間又は反射光信号の位相変化に基づいて、レーザ発生器と被検体の腹部表面との間の距離をリアルタイムに繰り返し演算することで、呼吸波形を取得する。なお、呼吸センサの例はこれに限定されるものではなく、スキャン機能144aは、例えば、被検体P1の腹部に装着された圧力センサや、被検体P1を撮影する光学カメラ等により、呼吸波形を取得することとしても構わない。そして、スキャン機能144aは、スキャンA21における呼吸波形に対して、スキャンA22における呼吸波形の位相が一致するように、スキャンA22を実行する。 Further, for example, the scan function 144a acquires the respiratory waveform of the subject P1 in parallel with the scan A21 and the scan A22. For example, the scan function 144a acquires the respiratory waveform of the subject P1 by the respiratory sensor. As an example, the scan function 144a acquires a respiration waveform using a laser generator and a receiver as a respiration sensor. Specifically, the scan function 144a processes the signal of the reflected light from the abdominal surface of the subject P1 and uses the laser generator and the laser generator based on the time from the laser irradiation to the reception of the reflected light or the phase change of the reflected light signal. The respiratory waveform is acquired by repeatedly calculating the distance from the abdominal surface of the subject in real time. The example of the respiration sensor is not limited to this, and the scan function 144a uses, for example, a pressure sensor attached to the abdomen of the subject P1 or an optical camera for photographing the subject P1 to capture the respiration waveform. It does not matter if it is acquired. Then, the scan function 144a executes the scan A22 so that the phase of the respiratory waveform in the scan A22 matches the respiratory waveform in the scan A21.

また、処理機能144bは、スキャンA21により収集された投影データセットB21と、スキャンA22により収集された投影データセットB22との位置合わせを行なうこととしてもよい。或いは、処理機能144bは、スキャンA21により収集された画像データC21と、スキャンA22により収集された画像データC22との位置合わせを行なうこととしてもよい。これにより、処理機能144bは、スキャンA21とスキャンA22との間に生じる被検体P1の体動等の影響を低減することができる。 Further, the processing function 144b may align the projection data set B21 collected by the scan A21 with the projection data set B22 collected by the scan A22. Alternatively, the processing function 144b may align the image data C21 collected by the scan A21 with the image data C22 collected by the scan A22. As a result, the processing function 144b can reduce the influence of the body movement of the subject P1 that occurs between the scan A21 and the scan A22.

次に、処理機能144bは、画像データC22の質を評価する。例えば、処理機能144bは、画像データC22について信号雑音比(signal−noise ratio)を算出し、信号雑音比を閾値と比較することで、画像データC22の質を評価する。また、例えば、制御機能144cは、画像データC22に基づいて表示用画像を生成し、ディスプレイ142に表示させる。そして、処理機能144bは、表示用画像を参照したユーザから、画像データC22の質について評価の入力を受け付ける。 Next, the processing function 144b evaluates the quality of the image data C22. For example, the processing function 144b evaluates the quality of the image data C22 by calculating the signal-to-noise ratio (signal-noise ratio) for the image data C22 and comparing the signal-to-noise ratio with the threshold value. Further, for example, the control function 144c generates a display image based on the image data C22 and displays it on the display 142. Then, the processing function 144b accepts an input for evaluation regarding the quality of the image data C22 from the user who has referred to the display image.

次に、処理機能144bは、画像データC22の質の評価結果に応じて、画像データC22の補正処理を行なうか否かを判定する。即ち、画像データC22の質が十分に高い場合には、処理機能144bは、後述する補正処理を省略して、処理を終了することとしても構わない。なお、以下では、画像データC22の補正処理を行なう場合について説明する。 Next, the processing function 144b determines whether or not to perform the correction processing of the image data C22 according to the evaluation result of the quality of the image data C22. That is, when the quality of the image data C22 is sufficiently high, the processing function 144b may omit the correction processing described later and end the processing. In the following, a case where the correction processing of the image data C22 is performed will be described.

画像データC22の補正処理を行なう場合、処理機能144bは、メモリ141から読み出した学習済みモデルM1に対して、画像データC21と画像データC22とを入力する。これによって、学習済みモデルM1は、図3に示すように、画像データC22より質が高い画像データC23を出力する。即ち、学習済みモデルM1は、画像データC21との整合性を維持しつつ画像データC22を補正することで、図3に示す画像データC23を生成する。なお、画像データC23は、第3画像データの一例である。 When performing the correction processing of the image data C22, the processing function 144b inputs the image data C21 and the image data C22 to the trained model M1 read from the memory 141. As a result, the trained model M1 outputs image data C23 having a higher quality than the image data C22, as shown in FIG. That is, the trained model M1 generates the image data C23 shown in FIG. 3 by correcting the image data C22 while maintaining consistency with the image data C21. The image data C23 is an example of the third image data.

なお、処理機能144bは、学習済みモデルM1に対して、画像データC21の全部を入力してもよいし、一部のみを入力してもよい。例えば、処理機能144bは、画像データC21のうち、範囲R2に含まれる部分のみを学習済みモデルM1に入力してもよい。換言すると、処理機能144bは、範囲R1から収集された投影データセットB21の少なくとも一部に基づく画像データC21を学習済みモデルM1に入力する。 The processing function 144b may input all of the image data C21 or only a part of the trained model M1. For example, the processing function 144b may input only the portion of the image data C21 included in the range R2 into the trained model M1. In other words, the processing function 144b inputs image data C21 based on at least a part of the projection data set B21 collected from the range R1 into the trained model M1.

そして、制御機能144cは、画像データC23に基づく表示用画像をディスプレイ142に表示させる。例えば、制御機能144cは、まず、画像データC23に対するレンダリング処理を実行する。ここで、レンダリング処理の例としては、断面再構成法(MPR:Multi Planar Reconstruction)により、画像データC23から任意断面の2次元画像を生成する処理が挙げられる。また、レンダリング処理の他の例としては、ボリュームレンダリング(Volume Rendering)処理や、最大値投影法(MIP:Maximum Intensity Projection)により、画像データC23から、3次元の情報を反映した2次元画像を生成する処理が挙げられる。そして、制御機能144cは、レンダリング処理により生成した表示用画像をディスプレイ142に表示させる。 Then, the control function 144c causes the display 142 to display a display image based on the image data C23. For example, the control function 144c first executes a rendering process for the image data C23. Here, as an example of the rendering process, there is a process of generating a two-dimensional image of an arbitrary cross section from the image data C23 by the cross section reconstruction method (MPR: Multi Planar Reconnection). In addition, as another example of the rendering process, a two-dimensional image reflecting three-dimensional information is generated from the image data C23 by a volume rendering process or a maximum value projection method (MIP). Processing to be done is mentioned. Then, the control function 144c causes the display 142 to display the display image generated by the rendering process.

次に、X線CTシステム10による処理の手順の一例を、図4を用いて説明する。図4は、第1の実施形態に係るX線CTシステム10の処理の一連の流れを説明するためのフローチャートである。 Next, an example of the processing procedure by the X-ray CT system 10 will be described with reference to FIG. FIG. 4 is a flowchart for explaining a series of processes of the X-ray CT system 10 according to the first embodiment.

ステップS101及びステップS106は、スキャン機能144aに対応する。ステップS102、ステップS107、ステップS108、ステップS109、ステップS110及びステップS111は、処理機能144bに対応する。ステップS103、ステップS104、ステップS105及びステップS112は、制御機能144cに対応する。 Step S101 and step S106 correspond to the scanning function 144a. Step S102, step S107, step S108, step S109, step S110 and step S111 correspond to the processing function 144b. Step S103, step S104, step S105 and step S112 correspond to the control function 144c.

まず、処理回路144は、被検体P1に対してスキャンA21を実行し、投影データセットB21を収集する(ステップS101)。次に、処理回路144は、投影データセットB21に基づいて画像データC21を生成する(ステップS102)。次に、処理回路144は、画像データC21に対するレンダリング処理を行なうことで参照画像を生成し(ステップS103)、生成した参照画像をディスプレイ142に表示させる(ステップS104)。 First, the processing circuit 144 executes the scan A21 on the subject P1 and collects the projection data set B21 (step S101). Next, the processing circuit 144 generates image data C21 based on the projection data set B21 (step S102). Next, the processing circuit 144 generates a reference image by performing rendering processing on the image data C21 (step S103), and displays the generated reference image on the display 142 (step S104).

ここで、処理回路144は、参照画像を参照したユーザによりスキャン範囲が設定されたか否かを判定し(ステップS105)、スキャン範囲が設定されていない場合には待機状態となる(ステップS105否定)。一方で、スキャン範囲が設定された場合(ステップS105肯定)、処理回路144は、参照画像に設定されたスキャン範囲に対してスキャンA22を実行し、投影データセットB22を収集する(ステップS106)。次に、処理回路144は、投影データセットB22に基づいて画像データC22を生成する(ステップS107)。 Here, the processing circuit 144 determines whether or not the scan range has been set by the user who referred to the reference image (step S105), and if the scan range has not been set, the processing circuit 144 enters a standby state (step S105 negative). .. On the other hand, when the scan range is set (step S105 affirmative), the processing circuit 144 executes the scan A22 for the scan range set in the reference image and collects the projection data set B22 (step S106). Next, the processing circuit 144 generates image data C22 based on the projection data set B22 (step S107).

次に、処理回路144は、画像データC22の質を評価し(ステップS108)、評価結果に応じて、画像データC22について補正処理を行なうか否かを判定する(ステップS109)。補正処理を行なう場合(ステップS109肯定)、処理回路144は、学習済みモデルM1に対して画像データC21及び画像データC22を入力し(ステップS110)、画像データC23を生成する(ステップS111)。 Next, the processing circuit 144 evaluates the quality of the image data C22 (step S108), and determines whether or not to perform correction processing on the image data C22 according to the evaluation result (step S109). When performing the correction process (affirmation in step S109), the processing circuit 144 inputs the image data C21 and the image data C22 to the trained model M1 (step S110), and generates the image data C23 (step S111).

そして、処理回路144は、表示用画像を生成してディスプレイ142に表示させ(ステップS112)、処理を終了する。なお、画像データC23を生成していた場合、処理回路144は、ステップS112において、画像データC23に基づく表示用画像をディスプレイ142に表示させる。一方で、補正処理を行なわなかった場合(ステップS109否定)、処理回路144は、ステップS112において、画像データC22に基づく表示用画像をディスプレイ142に表示させる。 Then, the processing circuit 144 generates a display image and displays it on the display 142 (step S112), and ends the processing. When the image data C23 has been generated, the processing circuit 144 causes the display 142 to display the display image based on the image data C23 in step S112. On the other hand, when the correction process is not performed (denial in step S109), the processing circuit 144 causes the display 142 to display the display image based on the image data C22 in step S112.

なお、上述したステップS108及びステップS109については省略してもよい。即ち、処理回路144は、画像データC22の質に関わらず、学習済みモデルM1に対して画像データC21及び画像データC22を入力し、画像データC23を生成することとしても構わない。 The above-mentioned steps S108 and S109 may be omitted. That is, regardless of the quality of the image data C22, the processing circuit 144 may input the image data C21 and the image data C22 to the trained model M1 to generate the image data C23.

上述したように、第1の実施形態によれば、スキャン機能144aは、被検体P1の体軸方向に沿った範囲R1にX線を照射することで投影データセットB21を収集するスキャンA21を実行する。また、スキャン機能144aは、スキャンA21の後で、被検体P1の体軸方向に沿った範囲R2にX線を照射することで投影データセットB22を収集するスキャンA22を実行する。また、処理機能144bは学習済みモデルM1に対して、投影データセットB21の少なくとも一部に基づく画像データC21と、投影データセットB22に基づく画像データC22とを入力することにより、画像データC22より質が高い画像データC23を生成する。即ち、第1の実施形態に係るX線CTシステム10は、画像データC22より質の高いCT画像データである、画像データC23を生成することができる。 As described above, according to the first embodiment, the scan function 144a executes the scan A21 for collecting the projection data set B21 by irradiating the range R1 along the body axis direction of the subject P1 with X-rays. To do. Further, the scan function 144a executes the scan A22 for collecting the projection data set B22 by irradiating the range R2 along the body axis direction of the subject P1 with X-rays after the scan A21. Further, the processing function 144b is better than the image data C22 by inputting the image data C21 based on at least a part of the projection data set B21 and the image data C22 based on the projection data set B22 to the trained model M1. Generates image data C23 with a high value. That is, the X-ray CT system 10 according to the first embodiment can generate image data C23, which is CT image data of higher quality than image data C22.

特に、X線CTシステム10は、画像データC22のみならず、画像データC21に基づいて、画像データC23を生成する。即ち、X線CTシステム10においては、画像データC21から解剖学的な追加の情報を得ることができるため、画像データC22のみを使用する場合と比較してより適切な補正処理を行ない、画像データC23の質を更に向上させることができる。 In particular, the X-ray CT system 10 generates image data C23 based on image data C21 as well as image data C22. That is, in the X-ray CT system 10, since additional anatomical information can be obtained from the image data C21, more appropriate correction processing is performed as compared with the case where only the image data C22 is used, and the image data. The quality of C23 can be further improved.

また、X線CTシステム10は、スキャンA21の結果に基づいて、スキャンA22における範囲R2を設定するとともに、CT画像データの質を向上させる。即ち、X線CTシステム10は、スキャンA21による被検体P1の被ばくをより有意義なものとすることができる。なお、スキャンA21は、スキャンA22における範囲R2を設定するための位置決め撮影である。即ち、スキャンA21は、通常の処理フローにおいてスキャンA22の前に実行されるものであり、処理フローを複雑化させるものではない。 Further, the X-ray CT system 10 sets the range R2 in the scan A22 based on the result of the scan A21 and improves the quality of the CT image data. That is, the X-ray CT system 10 can make the exposure of the subject P1 by the scan A21 more meaningful. The scan A21 is a positioning image for setting the range R2 in the scan A22. That is, the scan A21 is executed before the scan A22 in the normal processing flow, and does not complicate the processing flow.

(第2の実施形態)
上述した第1の実施形態では、学習済みモデルM1に対して画像データC21及び画像データC22を入力することで、質の高いCT画像データを生成する場合について説明した。これに対し、第2の実施形態では、後述する学習済みモデルM2に対して投影データセットB21及び投影データセットB22を入力することで、質の高いCT画像データを生成する場合について説明する。
(Second Embodiment)
In the first embodiment described above, a case where high-quality CT image data is generated by inputting image data C21 and image data C22 into the trained model M1 has been described. On the other hand, in the second embodiment, a case where high quality CT image data is generated by inputting the projection data set B21 and the projection data set B22 into the trained model M2 described later will be described.

第2の実施形態に係るX線CTシステム10は、図1に示した第1の実施形態に係るX線CTシステム10と同様の構成を有する。以下、第1の実施形態において説明した点については図1と同一の符号を付し、説明を省略する。 The X-ray CT system 10 according to the second embodiment has the same configuration as the X-ray CT system 10 according to the first embodiment shown in FIG. Hereinafter, the points described in the first embodiment are designated by the same reference numerals as those in FIG. 1, and the description thereof will be omitted.

まず、処理機能144bは、学習済みモデルM2を生成してメモリ141に格納する。例えば、処理機能144bは、学習済みモデルM2の生成に用いる学習データとして、投影データセットB11、投影データセットB12及び投影データセットB13を取得する。 First, the processing function 144b generates the trained model M2 and stores it in the memory 141. For example, the processing function 144b acquires the projection data set B11, the projection data set B12, and the projection data set B13 as training data used to generate the trained model M2.

例えば、スキャン機能144aは、X線管111の位置を所定の回転角度に固定し、天板133をZ軸方向に移動させながらX線管111からのX線を被検体P2に照射することで、投影データセットB11を収集する。また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1のX線を被検体P2に照射することで、投影データセットB12を収集する。また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1よりも高い線量X2のX線を被検体P2に照射することで、投影データセットB13を収集する。即ち、投影データセットB13は、投影データセットB12より質の高い投影データセットである。 For example, the scan function 144a fixes the position of the X-ray tube 111 at a predetermined rotation angle, and irradiates the subject P2 with X-rays from the X-ray tube 111 while moving the top plate 133 in the Z-axis direction. , Collect projection data set B11. Further, the scan function 144a collects the projection data set B12 by irradiating the subject P2 with X-rays having a dose of X1 while rotating the X-ray tube 111 around the subject P2. Further, the scan function 144a collects the projection data set B13 by irradiating the subject P2 with X-rays having a dose X2 higher than the dose X1 while rotating the X-ray tube 111 around the subject P2. That is, the projection data set B13 is a higher quality projection data set than the projection data set B12.

そして、処理機能144bは、投影データセットB11及び投影データセットB12を入力側データ、投影データセットB13を出力側データとした機械学習を実行することにより、学習済みモデルM2を生成する。ここで、学習済みモデルM2は、例えば、ニューラルネットワークにより構成することができる。例えば、処理機能144bは、投影データセットB11、投影データセットB12及び投影データセットB13を用いて多層のニューラルネットワークについて深層学習を実行することで、学習済みモデルM2を生成する。 Then, the processing function 144b generates the trained model M2 by executing machine learning using the projection data set B11 and the projection data set B12 as input side data and the projection data set B13 as output side data. Here, the trained model M2 can be configured by, for example, a neural network. For example, the processing function 144b generates a trained model M2 by performing deep learning on a multi-layer neural network using the projection data set B11, the projection data set B12, and the projection data set B13.

一例を挙げると、処理機能144bは、投影データセットB11及び投影データセットB12を入力側データとして、ニューラルネットワークに入力する。ここで、ニューラルネットワークにおいては、入力層側から出力層側に向かって一方向に隣接層間でのみ結合しながら情報が伝播し、出力層からは、投影データセットB13を推定した投影データセットが出力される。即ち、ニューラルネットワークにおいては、投影データセットB12の質を向上させる処理が行われ、出力層からは、投影データセットB12より質の高い投影データセットB13を推定した投影データセットが出力される。 As an example, the processing function 144b inputs the projection data set B11 and the projection data set B12 as input side data to the neural network. Here, in the neural network, information propagates while being coupled only between adjacent layers in one direction from the input layer side to the output layer side, and the projection data set estimated from the projection data set B13 is output from the output layer. Will be done. That is, in the neural network, processing for improving the quality of the projection data set B12 is performed, and the projection data set that estimates the projection data set B13 having a higher quality than the projection data set B12 is output from the output layer.

処理機能144bは、入力側データを入力した際にニューラルネットワークが好ましい結果を出力することができるよう、ニューラルネットワークのパラメータを調整することで、学習済みモデルM2を生成する。例えば、処理機能144bは、投影データセット間の近さを表す誤差関数を用いて、ニューラルネットワークのパラメータを調整する。 The processing function 144b generates the trained model M2 by adjusting the parameters of the neural network so that the neural network can output a preferable result when the input side data is input. For example, the processing function 144b adjusts the parameters of the neural network using an error function that represents the proximity between the projected datasets.

一例を挙げると、処理機能144bは、投影データセットB13と、ニューラルネットワークが推定した投影データセットとの間の近さを示す誤差関数E3を算出する。また、処理機能144bは、投影データセットB11と、ニューラルネットワークが推定した画像データとの間の整合性を示す誤差関数E4を算出する。そして、処理機能144bは、算出した誤差関数が極小となるように、ニューラルネットワークのパラメータを調整する。例えば、処理機能144bは、誤差関数E3と誤差関数E4との和が極小となるように、ニューラルネットワークのパラメータを調整する。これにより、処理機能144bは、2次元の投影データセット及び3次元の投影データセットの入力を受け付けて、入力された3次元の投影データセットの質を向上させるように機能付けられた学習済みモデルM2を生成する。また、処理機能144bは、生成した学習済みモデルM2を、メモリ141に記憶させる。 As an example, the processing function 144b calculates an error function E3 indicating the proximity between the projection data set B13 and the projection data set estimated by the neural network. The processing function 144b also calculates an error function E4 that indicates the consistency between the projection data set B11 and the image data estimated by the neural network. Then, the processing function 144b adjusts the parameters of the neural network so that the calculated error function becomes the minimum. For example, the processing function 144b adjusts the parameters of the neural network so that the sum of the error function E3 and the error function E4 is minimized. As a result, the processing function 144b is a trained model functionalized to accept the input of the 2D projection data set and the 3D projection data set and improve the quality of the input 3D projection data set. Generate M2. Further, the processing function 144b stores the generated trained model M2 in the memory 141.

そして、被検体P1に対するスキャンが実行された際、処理機能144bは、メモリ141から学習済みモデルM2を読み出し、読み出した学習済みモデルM2を用いて、被検体P1から収集された投影データセットの質を向上させ、ひいては投影データセットに基づくCT画像データの質を向上させる。 Then, when the scan for the subject P1 is executed, the processing function 144b reads the trained model M2 from the memory 141, and the quality of the projection data set collected from the subject P1 is used by using the read trained model M2. And thus the quality of CT image data based on the projection dataset.

例えば、スキャン機能144aは、まず、図3に示したスキャンA21を実行し、投影データセットB21を収集する。また、処理機能144bは、スキャンA21により収集された投影データセットB21に基づいて、画像データC21を生成する。次に、制御機能144cは、画像データC21に基づく参照画像を参照したユーザからの入力操作を受け付けることで、スキャンA22のスキャン範囲である範囲R2を設定する。次に、スキャン機能144aは、参照画像に設定された範囲R2に対してスキャンA22を実行し、投影データセットB22を収集する。 For example, the scan function 144a first executes the scan A21 shown in FIG. 3 and collects the projection data set B21. The processing function 144b also generates image data C21 based on the projection data set B21 collected by scan A21. Next, the control function 144c sets the range R2, which is the scan range of the scan A22, by accepting an input operation from the user who has referred to the reference image based on the image data C21. Next, the scan function 144a executes the scan A22 on the range R2 set in the reference image and collects the projection data set B22.

次に、処理機能144bは、投影データセットB22の質を評価する。例えば、処理機能144bは、投影データセットB22について信号雑音比を算出し、信号雑音比を閾値と比較することで、投影データセットB22の質を評価する。また、例えば、制御機能144cは、投影データセットB22に基づく画像(例えば、サイノグラム等)をディスプレイ142に表示させる。そして、処理機能144bは、投影データセットB22に基づく画像を参照したユーザから、投影データセットB22の質について評価の入力を受け付ける。 The processing function 144b then evaluates the quality of the projection data set B22. For example, the processing function 144b evaluates the quality of the projection data set B22 by calculating the signal-to-noise ratio for the projection data set B22 and comparing the signal-to-noise ratio with the threshold value. Further, for example, the control function 144c causes the display 142 to display an image (for example, a synogram) based on the projection data set B22. Then, the processing function 144b accepts an input for evaluation of the quality of the projection data set B22 from the user who has referred to the image based on the projection data set B22.

次に、処理機能144bは、投影データセットB22の質の評価結果に応じて、投影データセットB22の補正処理を行なうか否かを判定する。即ち、投影データセットB22の質が十分に高い場合には、処理機能144bは、後述する補正処理を省略しても構わない。この場合、処理機能144bは、投影データセットB22に基づいて、質の高い画像データC22を再構成することができる。なお、投影データセットB22の補正処理を行なうか否かを判定する処理については、適宜省略することとして構わない。 Next, the processing function 144b determines whether or not to perform the correction processing of the projection data set B22 according to the evaluation result of the quality of the projection data set B22. That is, when the quality of the projection data set B22 is sufficiently high, the processing function 144b may omit the correction processing described later. In this case, the processing function 144b can reconstruct the high quality image data C22 based on the projection data set B22. The process of determining whether or not to perform the correction process of the projection data set B22 may be omitted as appropriate.

投影データセットB22の補正処理を行なう場合、処理機能144bは、メモリ141から読み出した学習済みモデルM2に対して、投影データセットB21と投影データセットB22とを入力する。これによって、学習済みモデルM2は、投影データセットB22より質が高い投影データセットB23を出力する。即ち、学習済みモデルM2は、投影データセットB21との整合性を維持しつつ投影データセットB22を補正することで、投影データセットB23を生成する。なお、投影データセットB23は、第3投影データセットの一例である。 When performing the correction processing of the projection data set B22, the processing function 144b inputs the projection data set B21 and the projection data set B22 to the trained model M2 read from the memory 141. As a result, the trained model M2 outputs a projection data set B23 having a higher quality than the projection data set B22. That is, the trained model M2 generates the projection data set B23 by correcting the projection data set B22 while maintaining consistency with the projection data set B21. The projection data set B23 is an example of the third projection data set.

なお、処理機能144bは、学習済みモデルM2に対して、投影データセットB21の全部を入力してもよいし、一部のみを入力してもよい。例えば、処理機能144bは、投影データセットB21のうち、範囲R2に含まれる部分のみを学習済みモデルM2に入力してもよい。換言すると、処理機能144bは、範囲R1から収集された投影データセットB21の少なくとも一部を学習済みモデルM2に入力する。 The processing function 144b may input the entire projection data set B21 or only a part of the trained model M2. For example, the processing function 144b may input only the portion of the projection data set B21 included in the range R2 into the trained model M2. In other words, the processing function 144b inputs at least a part of the projection data set B21 collected from the range R1 into the trained model M2.

また、処理機能144bは、学習済みモデルM2を用いて生成された投影データセットB23に基づいて、3次元の画像データC24を生成する。例えば、処理機能144bは、投影データセットB23に基づいて、フィルタ補正逆投影法や逐次近似再構成法、逐次近似応用再構成法、DLR法といった再構成処理を実行することにより、3次元の画像データC24を再構成する。ここで、画像データC24は、質の高い投影データセットB23に基づいて生成されるものであり、投影データセットB22に基づいて生成される画像データC22等と比較して質の高いCT画像データである。また、制御機能144cは、画像データC24に基づいて表示用画像を生成し、ディスプレイ142に表示させる。 Further, the processing function 144b generates three-dimensional image data C24 based on the projection data set B23 generated by using the trained model M2. For example, the processing function 144b executes reconstruction processing such as a filter correction back projection method, a successive approximation reconstruction method, a successive approximation applied reconstruction method, and a DLR method based on the projection data set B23, thereby performing a three-dimensional image. Data C24 is reconstructed. Here, the image data C24 is generated based on the high-quality projection data set B23, and is a high-quality CT image data as compared with the image data C22 and the like generated based on the projection data set B22. is there. Further, the control function 144c generates a display image based on the image data C24 and displays it on the display 142.

上述したように、第2の実施形態によれば、スキャン機能144aは、被検体P1の体軸方向に沿った範囲R1にX線を照射することで投影データセットB21を収集するスキャンA21を実行する。また、スキャン機能144aは、スキャンA21の後で、被検体P1の体軸方向に沿った範囲R2にX線を照射することで投影データセットB22を収集するスキャンA22を実行する。また、処理機能144bは学習済みモデルM1に対して、投影データセットB21の少なくとも一部と、投影データセットB22とを入力することにより、投影データセットB22より質が高い投影データセットB23を生成する。そして、第2の実施形態に係るX線CTシステム10は、投影データセットB23に基づいて、質の高いCT画像データである、画像データC24を生成することができる。 As described above, according to the second embodiment, the scan function 144a executes the scan A21 for collecting the projection data set B21 by irradiating the range R1 along the body axis direction of the subject P1 with X-rays. To do. Further, the scan function 144a executes the scan A22 for collecting the projection data set B22 by irradiating the range R2 along the body axis direction of the subject P1 with X-rays after the scan A21. Further, the processing function 144b generates a projection data set B23 having a higher quality than the projection data set B22 by inputting at least a part of the projection data set B21 and the projection data set B22 to the trained model M1. .. Then, the X-ray CT system 10 according to the second embodiment can generate image data C24, which is high-quality CT image data, based on the projection data set B23.

特に、X線CTシステム10は、投影データセットB22のみならず、投影データセットB21に基づいて、投影データセットB23を生成する。即ち、X線CTシステム10においては、投影データセットB21から解剖学的な追加の情報を得ることができるため、投影データセットB22のみを使用する場合と比較してより適切な補正処理を行ない、投影データセットB23の質を更に向上させることができる。ひいては、X線CTシステム10は、投影データセットB23に基づく画像データC24の質を更に向上させることができる。 In particular, the X-ray CT system 10 generates a projection data set B23 based on the projection data set B21 as well as the projection data set B22. That is, in the X-ray CT system 10, since additional anatomical information can be obtained from the projection data set B21, more appropriate correction processing is performed as compared with the case where only the projection data set B22 is used. The quality of the projection data set B23 can be further improved. As a result, the X-ray CT system 10 can further improve the quality of the image data C24 based on the projection data set B23.

(第3の実施形態)
さて、これまで第1〜第2の実施形態について説明したが、上述した実施形態以外にも、種々の異なる形態にて実施されてよいものである。
(Third Embodiment)
By the way, although the first and second embodiments have been described so far, various different embodiments may be implemented in addition to the above-described embodiments.

例えば、これまで、スキャンA22のスキャン範囲である範囲R2をユーザが設定するものとして説明したが、実施形態はこれに限定されるものではない。例えば、制御機能144cは、画像データC21、又は画像データC21に基づいて生成した参照画像を解析し、診断対象の臓器等を抽出することで、範囲R2を自動設定してもよい。 For example, the user has been described as setting the range R2 which is the scan range of the scan A22, but the embodiment is not limited to this. For example, the control function 144c may automatically set the range R2 by analyzing the image data C21 or the reference image generated based on the image data C21 and extracting the organ or the like to be diagnosed.

また、上述した実施形態では、位置決め撮影を2次元で実行する場合について説明した。しかしながら実施形態はこれに限定されるものではなく、X線CTシステム10は、位置決め撮影を3次元で実行する場合であっても構わない。 Further, in the above-described embodiment, the case where the positioning imaging is performed in two dimensions has been described. However, the embodiment is not limited to this, and the X-ray CT system 10 may be a case where positioning imaging is performed in three dimensions.

位置決め撮影を3次元で実行する場合、処理機能144bは、まず、2次元の位置決め画像データに代えて3次元の位置決め画像データを使用した機械学習を実行し、学習済みモデルを生成する。例えば、処理機能144bは、被検体P2について3次元の位置決め撮影を実行することにより収集された画像データC15と、図2に示した画像データC12及び画像データC13とを学習データとした機械学習を実行することにより、学習済みモデルM3を生成する。 When the positioning imaging is executed in three dimensions, the processing function 144b first executes machine learning using the three-dimensional positioning image data instead of the two-dimensional positioning image data to generate a trained model. For example, the processing function 144b performs machine learning using the image data C15 collected by performing three-dimensional positioning imaging on the subject P2 and the image data C12 and the image data C13 shown in FIG. 2 as training data. By executing it, a trained model M3 is generated.

例えば、X線CTシステム10は、被検体P2についてスキャンA15を実行することで、画像データC15を収集する。一例を挙げると、まず、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、X線管111から被検体P2に対してX線を照射することで、複数のビューのそれぞれについて投影データを収集する。以下、スキャンA15により収集された複数の投影データを、投影データセットB15と記載する。そして、処理機能144bは、収集された投影データセットB15に基づく再構成処理を実行することにより、画像データC15を生成する。即ち、画像データC15は、3次元のスキャンにより収集された3次元画像データである。例えば、画像データC15は、スキャンA12やスキャンA13のスキャン範囲を設定するための位置決め画像データである。 For example, the X-ray CT system 10 collects image data C15 by performing scan A15 on subject P2. As an example, first, the scan function 144a irradiates the subject P2 with X-rays from the X-ray tube 111 while rotating the X-ray tube 111 around the subject P2, thereby displaying a plurality of views. Collect projection data for each. Hereinafter, the plurality of projection data collected by the scan A15 will be referred to as a projection data set B15. Then, the processing function 144b generates the image data C15 by executing the reconstruction process based on the collected projection data set B15. That is, the image data C15 is three-dimensional image data collected by a three-dimensional scan. For example, the image data C15 is positioning image data for setting the scan range of the scan A12 and the scan A13.

また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1のX線を被検体P2に照射することでスキャンA12を実行し、投影データセットB12を収集する。また、処理機能144bは、投影データセットB12に基づく再構成処理を実行することにより、画像データC12を生成する。また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1よりも高い線量X2のX線を被検体P2に照射することでスキャンA13を実行し、投影データセットB13を収集する。また、処理機能144bは、投影データセットB13に基づく再構成処理を実行することにより、画像データC13を生成する。即ち、画像データC13は、画像データC12より質の高い画像データである。 Further, the scan function 144a executes the scan A12 by irradiating the subject P2 with X-rays having a dose of X1 while rotating the X-ray tube 111 around the subject P2, and collects the projection data set B12. Further, the processing function 144b generates the image data C12 by executing the reconstruction process based on the projection data set B12. Further, the scan function 144a executes the scan A13 by irradiating the subject P2 with X-rays having a dose X2 higher than the dose X1 while rotating the X-ray tube 111 around the subject P2, and the projection data set. Collect B13. Further, the processing function 144b generates the image data C13 by executing the reconstruction process based on the projection data set B13. That is, the image data C13 is higher quality image data than the image data C12.

そして、処理機能144bは、画像データC15及び画像データC12を入力側データ、画像データC13を出力側データとした機械学習を実行することにより、学習済みモデルM3を生成する。ここで、学習済みモデルM3は、例えば、ニューラルネットワークにより構成することができる。例えば、処理機能144bは、画像データC15、画像データC12及び画像データC13を用いて多層のニューラルネットワークについて深層学習を実行することで、学習済みモデルM3を生成する。 Then, the processing function 144b generates the trained model M3 by executing machine learning with the image data C15 and the image data C12 as the input side data and the image data C13 as the output side data. Here, the trained model M3 can be configured by, for example, a neural network. For example, the processing function 144b generates a trained model M3 by performing deep learning on a multi-layer neural network using image data C15, image data C12, and image data C13.

一例を挙げると、処理機能144bは、画像データC15及び画像データC12を入力側データとして、ニューラルネットワークに入力する。ここで、ニューラルネットワークにおいては、入力層側から出力層側に向かって一方向に隣接層間でのみ結合しながら情報が伝播し、出力層からは、画像データC13を推定した画像データが出力される。即ち、ニューラルネットワークにおいては、画像データC12の質を向上させる処理が行われ、出力層からは、画像データC12より質の高い画像データC13を推定した画像データが出力される。 As an example, the processing function 144b inputs the image data C15 and the image data C12 as input side data to the neural network. Here, in the neural network, information is propagated while being coupled only between adjacent layers in one direction from the input layer side to the output layer side, and the image data estimated from the image data C13 is output from the output layer. .. That is, in the neural network, processing for improving the quality of the image data C12 is performed, and the image data in which the image data C13 having a higher quality than the image data C12 is estimated is output from the output layer.

処理機能144bは、入力側データを入力した際にニューラルネットワークが好ましい結果を出力することができるよう、ニューラルネットワークのパラメータを調整することで、学習済みモデルM3を生成する。例えば、処理機能144bは、画像データ間の近さを表す誤差関数を用いて、ニューラルネットワークのパラメータを調整する。 The processing function 144b generates the trained model M3 by adjusting the parameters of the neural network so that the neural network can output a preferable result when the input side data is input. For example, the processing function 144b adjusts the parameters of the neural network by using an error function representing the proximity between the image data.

一例を挙げると、処理機能144bは、画像データC13と、ニューラルネットワークが推定した画像データとの間の近さを示す誤差関数E5を算出する。また、処理機能144bは、画像データC15と、ニューラルネットワークが推定した画像データとの間の近さを示す誤差関数E6を算出する。そして、処理機能144bは、算出した誤差関数が極小となるように、ニューラルネットワークのパラメータを調整する。例えば、処理機能144bは、誤差関数E5と誤差関数E6との和が極小となるように、ニューラルネットワークのパラメータを調整する。これにより、処理機能144bは、3次元の位置決め撮影で収集された第1画像データ及び3次元の本スキャンで収集された第2画像データの入力を受け付けて、入力された第2画像データの質を向上させるように機能付けられた学習済みモデルM3を生成する。また、処理機能144bは、生成した学習済みモデルM3を、メモリ141に記憶させる。 As an example, the processing function 144b calculates an error function E5 indicating the proximity between the image data C13 and the image data estimated by the neural network. Further, the processing function 144b calculates an error function E6 indicating the closeness between the image data C15 and the image data estimated by the neural network. Then, the processing function 144b adjusts the parameters of the neural network so that the calculated error function becomes the minimum. For example, the processing function 144b adjusts the parameters of the neural network so that the sum of the error function E5 and the error function E6 is minimized. As a result, the processing function 144b accepts the input of the first image data collected in the three-dimensional positioning imaging and the second image data collected in the three-dimensional main scan, and the quality of the input second image data. Generates a trained model M3 that is functionalized to improve. Further, the processing function 144b stores the generated trained model M3 in the memory 141.

そして、被検体P1に対するスキャンが実行された際、処理機能144bは、メモリ141から学習済みモデルM3を読み出し、読み出した学習済みモデルM3を用いて、被検体P1から収集されたCT画像データの質を向上させる。 Then, when the scan for the subject P1 is executed, the processing function 144b reads the learned model M3 from the memory 141, and the quality of the CT image data collected from the subject P1 is used by using the read learned model M3. To improve.

例えば、スキャン機能144aは、まず、被検体P1についてスキャンA25を実行することで、画像データC25を収集する。一例を挙げると、まず、スキャン機能144aは、X線管111を被検体P1の周囲で回転させながら、X線管111から被検体P1に対してX線を照射することで、複数のビューのそれぞれについて投影データを収集する。以下、スキャンA25により収集された複数の投影データを、投影データセットB25と記載する。例えば、スキャン機能144aは、図3に示した範囲R1にX線を照射することで、投影データセットB25を収集する。そして、処理機能144bは、収集された投影データセットB25に基づく再構成処理を実行することにより、画像データC25を生成する。即ち、画像データC25は、3次元のスキャンにより収集された3次元画像データである。 For example, the scan function 144a first collects image data C25 by executing scan A25 on the subject P1. As an example, first, the scanning function 144a irradiates the subject P1 with X-rays from the X-ray tube 111 while rotating the X-ray tube 111 around the subject P1 to obtain a plurality of views. Collect projection data for each. Hereinafter, the plurality of projection data collected by the scan A25 will be referred to as a projection data set B25. For example, the scan function 144a collects the projection data set B25 by irradiating the range R1 shown in FIG. 3 with X-rays. Then, the processing function 144b generates the image data C25 by executing the reconstruction process based on the collected projection data set B25. That is, the image data C25 is three-dimensional image data collected by a three-dimensional scan.

なお、スキャンA25は、第1スキャンの一例である。また、投影データセットB25は、第1投影データセットの一例である。また、画像データC25は、第1画像データの一例である。 The scan A25 is an example of the first scan. The projection data set B25 is an example of the first projection data set. Further, the image data C25 is an example of the first image data.

次に、制御機能144cは、画像データC25に基づく参照画像を参照したユーザからの入力操作を受け付けることで、スキャンA22のスキャン範囲である範囲R2を設定する。即ち、画像データC25は、スキャンA22のスキャン範囲を設定するための位置決め画像データである。次に、スキャン機能144aは、参照画像に設定された範囲R2に対してスキャンA22を実行し、投影データセットB22を収集する。また、処理機能144bは、投影データセットB22に基づいて画像データC22を生成する。 Next, the control function 144c sets the range R2, which is the scan range of the scan A22, by accepting an input operation from the user who has referred to the reference image based on the image data C25. That is, the image data C25 is positioning image data for setting the scan range of the scan A22. Next, the scan function 144a executes the scan A22 on the range R2 set in the reference image and collects the projection data set B22. In addition, the processing function 144b generates image data C22 based on the projection data set B22.

次に、処理機能144bは、画像データC22の質を評価する。次に、処理機能144bは、画像データC22の質の評価結果に応じて、画像データC22の補正処理を行なうか否かを判定する。即ち、画像データC22の質が十分に高い場合には、処理機能144bは、後述する補正処理を省略しても構わない。なお、画像データC22の補正処理を行なうか否かを判定する処理については、適宜省略することとして構わない。 Next, the processing function 144b evaluates the quality of the image data C22. Next, the processing function 144b determines whether or not to perform the correction processing of the image data C22 according to the evaluation result of the quality of the image data C22. That is, when the quality of the image data C22 is sufficiently high, the processing function 144b may omit the correction processing described later. The process of determining whether or not to perform the correction process of the image data C22 may be omitted as appropriate.

画像データC22の補正処理を行なう場合、処理機能144bは、メモリ141から読み出した学習済みモデルM3に対して、画像データC25と画像データC22とを入力する。これによって、学習済みモデルM3は、画像データC22より質が高い画像データC26を出力する。即ち、学習済みモデルM3は、画像データC25との整合性を維持しつつ画像データC22を補正することで、画像データC26を生成する。なお、画像データC26は、第3画像データの一例である。 When performing the correction processing of the image data C22, the processing function 144b inputs the image data C25 and the image data C22 to the trained model M3 read from the memory 141. As a result, the trained model M3 outputs the image data C26 having a higher quality than the image data C22. That is, the trained model M3 generates the image data C26 by correcting the image data C22 while maintaining the consistency with the image data C25. The image data C26 is an example of the third image data.

なお、処理機能144bは、学習済みモデルM3に対して、画像データC25の全部を入力してもよいし、一部のみを入力してもよい。例えば、処理機能144bは、画像データC25のうち、範囲R2に含まれる部分のみを学習済みモデルM3に入力してもよい。換言すると、処理機能144bは、範囲R1から収集された投影データセットB25の少なくとも一部に基づく画像データC25を学習済みモデルM3に入力する。 The processing function 144b may input all of the image data C25 or only a part of the trained model M3. For example, the processing function 144b may input only the portion of the image data C25 included in the range R2 into the trained model M3. In other words, the processing function 144b inputs image data C25 based on at least a part of the projection data set B25 collected from the range R1 into the trained model M3.

別の例を挙げると、処理機能144bは、被検体P2について3次元の位置決め撮影を実行することにより収集された投影データセットB15と、投影データセットB12及び投影データセットB13とを学習データとした機械学習を実行することにより、学習済みモデルM4を生成する。 To give another example, the processing function 144b uses the projection data set B15, the projection data set B12, and the projection data set B13 collected by performing three-dimensional positioning imaging on the subject P2 as training data. The trained model M4 is generated by executing machine learning.

例えば、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、X線を被検体P2に照射することでスキャンA15を実行し、投影データセットB15を収集する。また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1のX線を被検体P2に照射することでスキャンA12を実行し、投影データセットB12を収集する。また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1よりも高い線量X2のX線を被検体P2に照射することでスキャンA13を実行し、投影データセットB13を収集する。即ち、投影データセットB13は、投影データセットB12より質の高い投影データセットである。 For example, the scan function 144a executes the scan A15 by irradiating the subject P2 with X-rays while rotating the X-ray tube 111 around the subject P2, and collects the projection data set B15. Further, the scan function 144a executes the scan A12 by irradiating the subject P2 with X-rays having a dose of X1 while rotating the X-ray tube 111 around the subject P2, and collects the projection data set B12. Further, the scan function 144a executes the scan A13 by irradiating the subject P2 with X-rays having a dose X2 higher than the dose X1 while rotating the X-ray tube 111 around the subject P2, and the projection data set. Collect B13. That is, the projection data set B13 is a higher quality projection data set than the projection data set B12.

そして、処理機能144bは、投影データセットB15及び投影データセットB12を入力側データ、投影データセットB13を出力側データとした機械学習を実行することにより、学習済みモデルM4を生成する。ここで、学習済みモデルM4は、例えば、ニューラルネットワークにより構成することができる。例えば、処理機能144bは、投影データセットB15、投影データセットB12及び投影データセットB13を用いて多層のニューラルネットワークについて深層学習を実行することで、学習済みモデルM4を生成する。 Then, the processing function 144b generates the trained model M4 by executing machine learning using the projection data set B15 and the projection data set B12 as input side data and the projection data set B13 as output side data. Here, the trained model M4 can be configured by, for example, a neural network. For example, the processing function 144b generates a trained model M4 by performing deep learning on a multi-layer neural network using the projection data set B15, the projection data set B12, and the projection data set B13.

一例を挙げると、処理機能144bは、投影データセットB15及び投影データセットB12を入力側データとして、ニューラルネットワークに入力する。ここで、ニューラルネットワークにおいては、入力層側から出力層側に向かって一方向に隣接層間でのみ結合しながら情報が伝播し、出力層からは、投影データセットB13を推定した投影データセットが出力される。即ち、ニューラルネットワークにおいては、投影データセットB12の質を向上させる処理が行われ、出力層からは、投影データセットB12より質の高い投影データセットB13を推定した投影データセットが出力される。 As an example, the processing function 144b inputs the projection data set B15 and the projection data set B12 as input side data to the neural network. Here, in the neural network, information propagates while being coupled only between adjacent layers in one direction from the input layer side to the output layer side, and the projection data set estimated from the projection data set B13 is output from the output layer. Will be done. That is, in the neural network, processing for improving the quality of the projection data set B12 is performed, and the projection data set that estimates the projection data set B13 having a higher quality than the projection data set B12 is output from the output layer.

処理機能144bは、入力側データを入力した際にニューラルネットワークが好ましい結果を出力することができるよう、ニューラルネットワークのパラメータを調整することで、学習済みモデルM4を生成する。例えば、処理機能144bは、投影データセット間の近さを表す誤差関数を用いて、ニューラルネットワークのパラメータを調整する。 The processing function 144b generates the trained model M4 by adjusting the parameters of the neural network so that the neural network can output a preferable result when the input side data is input. For example, the processing function 144b adjusts the parameters of the neural network using an error function that represents the proximity between the projected datasets.

一例を挙げると、処理機能144bは、投影データセットB13と、ニューラルネットワークが推定した投影データセットとの間の近さを示す誤差関数E7を算出する。また、処理機能144bは、投影データセットB15と、ニューラルネットワークが推定した画像データとの間の近さを示す誤差関数E8を算出する。そして、処理機能144bは、算出した誤差関数が極小となるように、ニューラルネットワークのパラメータを調整する。例えば、処理機能144bは、誤差関数E7と誤差関数E8との和が極小となるように、ニューラルネットワークのパラメータを調整する。これにより、処理機能144bは、3次元の位置決め撮影で収集された第1投影データセット及び3次元の本スキャンで収集された第2投影データセットの入力を受け付けて、入力された第2投影データセットの質を向上させるように機能付けられた学習済みモデルM4を生成する。また、処理機能144bは、生成した学習済みモデルM4を、メモリ141に記憶させる。 As an example, the processing function 144b calculates an error function E7 indicating the proximity between the projection data set B13 and the projection data set estimated by the neural network. In addition, the processing function 144b calculates an error function E8 indicating the proximity between the projection data set B15 and the image data estimated by the neural network. Then, the processing function 144b adjusts the parameters of the neural network so that the calculated error function becomes the minimum. For example, the processing function 144b adjusts the parameters of the neural network so that the sum of the error function E7 and the error function E8 is minimized. As a result, the processing function 144b receives the input of the first projection data set collected in the three-dimensional positioning imaging and the second projection data set collected in the three-dimensional main scan, and the input second projection data. Generate a trained model M4 that is functionalized to improve the quality of the set. Further, the processing function 144b stores the generated trained model M4 in the memory 141.

そして、被検体P1に対するスキャンが実行された際、処理機能144bは、メモリ141から学習済みモデルM4を読み出し、読み出した学習済みモデルM4を用いて、被検体P1から収集された投影データセットの質を向上させ、ひいては投影データセットに基づくCT画像データの質を向上させる。 Then, when the scan for the subject P1 is executed, the processing function 144b reads the trained model M4 from the memory 141, and the quality of the projection data set collected from the subject P1 is used by using the read trained model M4. And thus the quality of CT image data based on the projection dataset.

例えば、スキャン機能144aは、まず、被検体P1についてスキャンA25を実行することで、投影データセットB25を収集する。例えば、スキャン機能144aは、図3に示した範囲R1にX線を照射することで、投影データセットB25を収集する。また、処理機能144bは、収集された投影データセットB25に基づく再構成処理を実行することにより、画像データC25を生成する。 For example, the scan function 144a first collects the projection data set B25 by performing scan A25 on subject P1. For example, the scan function 144a collects the projection data set B25 by irradiating the range R1 shown in FIG. 3 with X-rays. In addition, the processing function 144b generates image data C25 by executing a reconstruction process based on the collected projection data set B25.

次に、制御機能144cは、画像データC25に基づく参照画像を参照したユーザからの入力操作を受け付けることで、スキャンA22のスキャン範囲である範囲R2を設定する。次に、スキャン機能144aは、参照画像に設定された範囲R2に対してスキャンA22を実行し、投影データセットB22を収集する。 Next, the control function 144c sets the range R2, which is the scan range of the scan A22, by accepting an input operation from the user who has referred to the reference image based on the image data C25. Next, the scan function 144a executes the scan A22 on the range R2 set in the reference image and collects the projection data set B22.

次に、処理機能144bは、投影データセットB22の質を評価する。また、処理機能144bは、投影データセットB22の質の評価結果に応じて、投影データセットB22の補正処理を行なうか否かを判定する。即ち、投影データセットB22の質が十分に高い場合には、処理機能144bは、後述する補正処理を省略しても構わない。この場合、処理機能144bは、投影データセットB22に基づいて、質の高い画像データC22を再構成することができる。なお、投影データセットB22の補正処理を行なうか否かを判定する処理については、適宜省略することとして構わない。 The processing function 144b then evaluates the quality of the projection data set B22. Further, the processing function 144b determines whether or not to perform the correction processing of the projection data set B22 according to the evaluation result of the quality of the projection data set B22. That is, when the quality of the projection data set B22 is sufficiently high, the processing function 144b may omit the correction processing described later. In this case, the processing function 144b can reconstruct the high quality image data C22 based on the projection data set B22. The process of determining whether or not to perform the correction process of the projection data set B22 may be omitted as appropriate.

投影データセットB22の補正処理を行なう場合、処理機能144bは、メモリ141から読み出した学習済みモデルM4に対して、投影データセットB25と投影データセットB22とを入力する。これによって、学習済みモデルM4は、投影データセットB22より質が高い投影データセットB26を出力する。即ち、学習済みモデルM4は、投影データセットB25との整合性を維持しつつ投影データセットB22を補正することで、投影データセットB26を生成する。なお、投影データセットB26は、第3投影データセットの一例である。また、処理機能144bは、学習済みモデルM4を用いて生成された投影データセットB26に基づいて、質の高いCT画像データである画像データC27を再構成する。 When performing the correction processing of the projection data set B22, the processing function 144b inputs the projection data set B25 and the projection data set B22 to the trained model M4 read from the memory 141. As a result, the trained model M4 outputs a projection data set B26 having a higher quality than the projection data set B22. That is, the trained model M4 generates the projection data set B26 by correcting the projection data set B22 while maintaining consistency with the projection data set B25. The projection data set B26 is an example of the third projection data set. Further, the processing function 144b reconstructs the image data C27, which is high-quality CT image data, based on the projection data set B26 generated by using the trained model M4.

なお、処理機能144bは、学習済みモデルM4に対して、投影データセットB25の全部を入力してもよいし、一部のみを入力してもよい。例えば、処理機能144bは、投影データセットB25のうち、範囲R2に含まれる部分のみを学習済みモデルM4に入力してもよい。換言すると、処理機能144bは、範囲R1から収集された投影データセットB25の少なくとも一部を学習済みモデルM4に入力する。 The processing function 144b may input the entire projection data set B25 or only a part of the trained model M4. For example, the processing function 144b may input only the portion of the projection data set B25 included in the range R2 into the trained model M4. In other words, the processing function 144b inputs at least a part of the projection data set B25 collected from the range R1 into the trained model M4.

また、学習済みモデルM1〜M4がニューラルネットワークにより構成されるものとして説明したが、処理機能144bは、ニューラルネットワーク以外の機械学習手法により、学習済みモデルM1〜M4を生成してもよい。また、処理機能144bが学習済みモデルM1〜M4を生成するものとして説明したが、学習済みモデルM1〜M4は、他の装置において生成されるものであっても構わない。 Further, although the trained models M1 to M4 have been described as being configured by the neural network, the processing function 144b may generate the trained models M1 to M4 by a machine learning method other than the neural network. Further, although the processing function 144b has been described as generating the trained models M1 to M4, the trained models M1 to M4 may be generated by another device.

また、投影データセット又はCT画像データの補正処理をX線CTシステム10が実行するものとして説明したが、実施形態はこれに限定されるものではない。例えば、補正処理は、X線CTシステム10と異なる他の装置において実行されても構わない。以下、この点について、図5に示す医用情報処理システム1を例として説明する。図5は、第5の実施形態に係る医用情報処理システム1の構成の一例を示すブロック図である。医用情報処理システム1には、X線CTシステム10、及び、補正処理を実行する医用処理装置20が含まれる。 Further, although the X-ray CT system 10 has been described as performing the correction processing of the projection data set or the CT image data, the embodiment is not limited to this. For example, the correction process may be executed in another device different from the X-ray CT system 10. Hereinafter, this point will be described by taking the medical information processing system 1 shown in FIG. 5 as an example. FIG. 5 is a block diagram showing an example of the configuration of the medical information processing system 1 according to the fifth embodiment. The medical information processing system 1 includes an X-ray CT system 10 and a medical processing device 20 that executes correction processing.

図5に示すように、X線CTシステム10と医用処理装置20とは、ネットワークNWを介して相互に接続される。ここで、ネットワークNWを介して接続可能であれば、X線CTシステム10及び医用処理装置20が設置される場所は任意である。例えば、医用処理装置20は、X線CTシステム10と異なる病院に設置されてもよい。即ち、ネットワークNWは、院内で閉じたローカルネットワークにより構成されてもよいし、インターネットを介したネットワークでもよい。また、図5においてはX線CTシステム10を1つ示すが、医用情報処理システム1は複数のX線CTシステム10を含んでもよい。 As shown in FIG. 5, the X-ray CT system 10 and the medical processing device 20 are connected to each other via a network NW. Here, the place where the X-ray CT system 10 and the medical processing device 20 are installed is arbitrary as long as it can be connected via the network NW. For example, the medical processing device 20 may be installed in a hospital different from the X-ray CT system 10. That is, the network NW may be configured by a local network closed in the hospital, or may be a network via the Internet. Further, although one X-ray CT system 10 is shown in FIG. 5, the medical information processing system 1 may include a plurality of X-ray CT systems 10.

医用処理装置20は、ワークステーション等のコンピュータ機器によって実現される。例えば、医用処理装置20は、図5に示すように、メモリ21と、ディスプレイ22と、入力インターフェース23と、処理回路24とを有する。 The medical processing device 20 is realized by a computer device such as a workstation. For example, the medical processing apparatus 20 has a memory 21, a display 22, an input interface 23, and a processing circuit 24, as shown in FIG.

メモリ21は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ21は、X線CTシステム10から送信された各種のデータを記憶する。また、例えば、メモリ21は、医用処理装置20に含まれる回路がその機能を実現するためのプログラムを記憶する。なお、メモリ21は、医用処理装置20とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The memory 21 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, a hard disk, an optical disk, or the like. For example, the memory 21 stores various data transmitted from the X-ray CT system 10. Further, for example, the memory 21 stores a program for the circuit included in the medical processing device 20 to realize its function. The memory 21 may be realized by a server group (cloud) connected to the medical processing device 20 via the network NW.

ディスプレイ22は、各種の情報を表示する。例えば、ディスプレイ22は、処理回路24により生成された表示用のCT画像を表示したり、ユーザからの各種操作を受け付けるためのGUI等を表示したりする。例えば、ディスプレイ22は、液晶ディスプレイやCRTディスプレイである。ディスプレイ22は、デスクトップ型でもよいし、医用処理装置20本体と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 22 displays various information. For example, the display 22 displays a CT image for display generated by the processing circuit 24, and displays a GUI or the like for receiving various operations from the user. For example, the display 22 is a liquid crystal display or a CRT display. The display 22 may be a desktop type, or may be composed of a tablet terminal or the like capable of wireless communication with the main body of the medical processing device 20.

入力インターフェース23は、ユーザからの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路24に出力する。例えば、入力インターフェース23は、CT画像データを再構成する際の再構成条件や、CT画像データから表示用のCT画像を生成する際の画像処理条件等をユーザから受け付ける。例えば、入力インターフェース23は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース23は、医用処理装置20本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース23は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、医用処理装置20とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路24へ出力する電気信号の処理回路も入力インターフェース23の例に含まれる。 The input interface 23 receives various input operations from the user, converts the received input operations into electric signals, and outputs the received input operations to the processing circuit 24. For example, the input interface 23 receives from the user reconstruction conditions for reconstructing CT image data, image processing conditions for generating a CT image for display from CT image data, and the like. For example, the input interface 23 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad for performing input operations by touching an operation surface, a touch screen in which a display screen and a touch pad are integrated, and an optical sensor. It is realized by the non-contact input circuit, voice input circuit, etc. used. The input interface 23 may be composed of a tablet terminal or the like capable of wireless communication with the main body of the medical processing device 20. Further, the input interface 23 is not limited to one provided with physical operation parts such as a mouse and a keyboard. For example, an example of the input interface 23 is an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the medical processing device 20 and outputs the electric signal to the processing circuit 24. include.

処理回路24は、処理機能24a及び制御機能24bを実行することで、医用処理装置20全体の動作を制御する。なお、処理機能24aは、処理部の一例である。処理回路24による処理については後述する。 The processing circuit 24 controls the operation of the entire medical processing device 20 by executing the processing function 24a and the control function 24b. The processing function 24a is an example of a processing unit. The processing by the processing circuit 24 will be described later.

図5に示す医用処理装置20においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ21へ記憶されている。処理回路24は、メモリ21からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、プログラムを読み出した状態の処理回路24は、読み出したプログラムに対応する機能を有することとなる。 In the medical processing device 20 shown in FIG. 5, each processing function is stored in the memory 21 in the form of a program that can be executed by a computer. The processing circuit 24 is a processor that realizes a function corresponding to each program by reading a program from the memory 21 and executing the program. In other words, the processing circuit 24 in the state where the program is read has a function corresponding to the read program.

なお、図5においては単一の処理回路24にて、処理機能24a及び制御機能24bが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路24を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路24が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 Although it has been described in FIG. 5 that the processing function 24a and the control function 24b are realized by a single processing circuit 24, a plurality of independent processors are combined to form the processing circuit 24, and each processor is programmed. The function may be realized by executing. Further, each processing function of the processing circuit 24 may be realized by being appropriately distributed or integrated into a single or a plurality of processing circuits.

また、処理回路24は、ネットワークNWを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路24は、メモリ21から各機能に対応するプログラムを読み出して実行するとともに、医用処理装置20とネットワークNWを介して接続されたサーバ群(クラウド)を計算資源として利用することにより、図5に示す各機能を実現する。 Further, the processing circuit 24 may realize the function by utilizing the processor of the external device connected via the network NW. For example, the processing circuit 24 reads a program corresponding to each function from the memory 21 and executes it, and also uses a server group (cloud) connected to the medical processing device 20 via a network NW as a computational resource. Each function shown in FIG. 5 is realized.

例えば、まず、X線CTシステム10におけるスキャン機能144aは、被検体P1の体軸方向に沿った範囲R1にX線を照射することで、第1投影データセットを収集する第1スキャンを実行する。また、スキャン機能144aは、第1スキャンの後で、被検体P1の体軸方向に沿った、範囲R1より狭い範囲R2にX線を照射することで、第2投影データセットを収集する第2スキャンを実行する。 For example, first, the scan function 144a in the X-ray CT system 10 executes a first scan for collecting a first projection data set by irradiating a range R1 along the body axis direction of the subject P1 with X-rays. .. Further, the scan function 144a collects the second projection data set by irradiating the range R2 narrower than the range R1 along the body axis direction of the subject P1 with X-rays after the first scan. Perform a scan.

また、処理機能144bは、第1投影データセットの少なくとも一部に基づく第1画像データと、第2投影データセットに基づく第2画像データとを生成する。次に、制御機能144cは、ネットワークNWを介して、第1画像データ及び第2画像データを医用処理装置20に送信する。或いは、制御機能144cは、第1投影データセット及び第2投影データセットを医用処理装置20に送信する。次に、処理機能24aは、第1投影データセットの少なくとも一部に基づく第1画像データと、第2投影データセットに基づく第2画像データとを生成する。 The processing function 144b also generates first image data based on at least a part of the first projection data set and second image data based on the second projection data set. Next, the control function 144c transmits the first image data and the second image data to the medical processing device 20 via the network NW. Alternatively, the control function 144c transmits the first projection data set and the second projection data set to the medical processing apparatus 20. Next, the processing function 24a generates first image data based on at least a part of the first projection data set and second image data based on the second projection data set.

そして、処理機能24aは、第2画像データについての補正処理を実行する。例えば、処理機能24aは、第1画像データと第2画像データとを、上述した学習済みモデルM1又は学習済みモデルM3に入力することにより、第2画像データより質が高い第3画像データを生成する。なお、処理機能24aは、補正処理に先立って第2画像データの質を評価し、評価結果に応じて第3画像データの生成を行なうか否かを判定することとしても構わない。 Then, the processing function 24a executes the correction processing for the second image data. For example, the processing function 24a generates third image data having a higher quality than the second image data by inputting the first image data and the second image data into the trained model M1 or the trained model M3 described above. To do. The processing function 24a may evaluate the quality of the second image data prior to the correction processing and determine whether or not to generate the third image data according to the evaluation result.

別の例を挙げると、制御機能144cは、第1投影データセット及び第2投影データセットを医用処理装置20に送信する。そして、処理機能24aは、第2投影データセットについての補正処理を実行する。例えば、処理機能24aは、第1投影データセットの少なくとも一部と第2投影データセットとを、上述した学習済みモデルM2又は学習済みモデルM4に入力することにより、第2投影データセットより質が高い第3投影データセットを生成する。なお、処理機能24aは、補正処理に先立って第2投影データセットの質を評価し、評価結果に応じて第3投影データセットの生成を行なうか否かを判定することとしても構わない。 To give another example, the control function 144c transmits the first projection data set and the second projection data set to the medical processing apparatus 20. Then, the processing function 24a executes the correction processing for the second projection data set. For example, the processing function 24a inputs at least a part of the first projection data set and the second projection data set into the trained model M2 or the trained model M4 described above, so that the quality is higher than that of the second projection data set. Generate a high third projection dataset. The processing function 24a may evaluate the quality of the second projection data set prior to the correction processing and determine whether or not to generate the third projection data set according to the evaluation result.

そして、処理機能24aは、第3投影データセットに基づいて、第2投影データセットに基づくCT画像データよりも質の高い、第3画像データを再構成する。或いは、制御機能24bは、ネットワークNWを介して、第3投影データセットをX線CTシステム10に送信する。この場合、処理機能144bは、第3投影データセットに基づいて第3画像データを再構成する。 Then, the processing function 24a reconstructs the third image data, which is higher in quality than the CT image data based on the second projection data set, based on the third projection data set. Alternatively, the control function 24b transmits the third projection data set to the X-ray CT system 10 via the network NW. In this case, the processing function 144b reconstructs the third image data based on the third projection data set.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU(Graphics Processing Unit)、あるいは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ141又はメモリ21に保存されたプログラムを読み出し実行することで機能を実現する。 The term "processor" used in the above description refers to, for example, a CPU, a GPU (Graphics Processing Unit), an integrated circuit for a specific application (Application Specific Integrated Circuit: ASIC), a programmable logic device (for example, a simple programmable logic device (for example, a simple programmable logic device)). It means a circuit such as a Simple Programmable Logic Device (SPLD), a composite programmable logic device (Complex Programmable Logic Device: CPLD), and a field programmable gate array (Field Programmable Gate Array: FPGA). The processor realizes the function by reading and executing the program stored in the memory 141 or the memory 21.

なお、図1においては、単一のメモリ141が処理回路144の各処理機能に対応するプログラムを記憶するものとして説明した。また、図5においては、単一のメモリ21が処理回路24の各処理機能に対応するプログラムを記憶するものとして説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、複数のメモリ141を分散して配置し、処理回路144は、個別のメモリ141から対応するプログラムを読み出す構成としても構わない。同様に、複数のメモリ21を分散して配置し、処理回路24は、個別のメモリ21から対応するプログラムを読み出す構成としても構わない。また、メモリ141又はメモリ21にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。 Note that, in FIG. 1, a single memory 141 has been described as storing a program corresponding to each processing function of the processing circuit 144. Further, in FIG. 5, it has been described that a single memory 21 stores a program corresponding to each processing function of the processing circuit 24. However, the embodiment is not limited to this. For example, a plurality of memories 141 may be distributed and arranged, and the processing circuit 144 may be configured to read a corresponding program from the individual memories 141. Similarly, a plurality of memories 21 may be distributed and arranged, and the processing circuit 24 may be configured to read a corresponding program from the individual memories 21. Further, instead of storing the program in the memory 141 or the memory 21, the program may be directly incorporated in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program embedded in the circuit.

上述した実施形態に係る各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。即ち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されうる。 Each component of each device according to the above-described embodiment is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed in arbitrary units according to various loads and usage conditions. It can be integrated and configured. Further, each processing function performed by each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

また、上述した実施形態で説明した処理方法は、予め用意された処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD等のコンピュータで読み取り可能な非一過性の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Further, the processing method described in the above-described embodiment can be realized by executing a processing program prepared in advance on a computer such as a personal computer or a workstation. This processing program can be distributed via a network such as the Internet. Further, this processing program is recorded on a non-transient recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, or DVD that can be read by a computer, and is executed by being read from the recording medium by the computer. You can also do it.

以上説明した少なくとも1つの実施形態によれば、質の高いCT画像データを生成することができる。 According to at least one embodiment described above, high quality CT image data can be generated.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.

1 医用情報処理システム
10 X線CTシステム
110 架台装置
140 コンソール装置
144 処理回路
144a スキャン機能
144b 処理機能
144c 制御機能
20 医用処理装置
24 処理回路
24a 処理機能
24b 制御機能
1 Medical information processing system 10 X-ray CT system 110 Standing device 140 Console device 144 Processing circuit 144a Scan function 144b Processing function 144c Control function 20 Medical processing device 24 Processing circuit 24a Processing function 24b Control function

Claims (7)

被検体の体軸方向に沿った第1の範囲にX線を照射することで第1投影データセットを収集する第1スキャンを実行し、前記第1スキャンの後で、前記体軸方向に沿った、前記第1の範囲より狭い第2の範囲にX線を照射することで第2投影データセットを収集する第2スキャンを実行するスキャン部と、
前記第1投影データセットの少なくとも一部又は前記第1投影データセットの少なくとも一部に基づく第1画像データと、前記第2投影データセット又は前記第2投影データセットに基づく第2画像データと、に基づいて、前記第2投影データセット又は前記第2画像データより質が高い、第3投影データセット又は第3画像データを生成する学習済みモデルに対して、前記第1投影データセット又は前記第1画像データと、前記第2投影データセット又は前記第2画像データを入力することにより、前記第3投影データセット又は前記第3画像データを生成する処理部と、
を備えた、X線CTシステム。
A first scan is performed to collect the first projection data set by irradiating the first area along the body axis direction of the subject with X-rays, and after the first scan, along the body axis direction. In addition, a scanning unit that executes a second scan that collects a second projection data set by irradiating a second range narrower than the first range with X-rays.
The first image data based on at least a part of the first projection data set or at least a part of the first projection data set, and the second image data based on the second projection data set or the second projection data set. For a trained model that produces a third projection data set or a third image data that is of higher quality than the second projection data set or the second image data, the first projection data set or the first A processing unit that generates the third projection data set or the third image data by inputting one image data and the second projection data set or the second image data.
X-ray CT system equipped with.
前記スキャン部は、X線を発生するX線管の位置及び前記被検体の少なくともいずれかを前記体軸方向に沿って移動させながら前記第1投影データセットを収集し、前記X線管の位置を前記被検体の周囲で回転させながら前記第2投影データセットを収集する、請求項1に記載のX線CTシステム。 The scanning unit collects the first projection data set while moving at least one of the position of the X-ray tube that generates X-rays and the subject along the body axis direction, and the position of the X-ray tube. The X-ray CT system according to claim 1, wherein the second projection data set is collected while rotating the subject around the subject. 前記スキャン部は、前記X線管の位置を前記被検体の周囲で回転させないで、前記第1投影データセットを収集する、請求項2に記載のX線CTシステム。 The X-ray CT system according to claim 2, wherein the scanning unit collects the first projection data set without rotating the position of the X-ray tube around the subject. 前記スキャン部は、前記X線管の位置及び前記被検体を前記体軸方向に沿って移動させないで前記第2投影データセットを収集する、請求項2又は3に記載のX線CTシステム。 The X-ray CT system according to claim 2 or 3, wherein the scanning unit collects the second projection data set without moving the position of the X-ray tube and the subject along the body axis direction. 前記処理部は、前記第2投影データセット又は前記第2画像データの質を評価し、評価結果に応じて前記第3投影データセット又は前記第3画像データの生成を行なうか否かを判定する、請求項1〜4のいずれか一項に記載のX線CTシステム。 The processing unit evaluates the quality of the second projection data set or the second image data, and determines whether or not to generate the third projection data set or the third image data according to the evaluation result. , The X-ray CT system according to any one of claims 1 to 4. 前記第2の範囲は、前記第1投影データセットの少なくとも一部に基づいて生成され、表示部に表示された位置決め画像データに対する操作により設定される、請求項1〜5のいずれか一項に記載のX線CTシステム。 The second range is defined in any one of claims 1 to 5, which is generated based on at least a part of the first projection data set and is set by an operation on the positioning image data displayed on the display unit. The described X-ray CT system. 被検体の体軸方向に沿った第1の範囲にX線を照射する第1スキャンにより収集された第1投影データセットの少なくとも一部又は前記第1投影データセットの少なくとも一部に基づく第1画像データと、前記体軸方向に沿った前記第1の範囲より狭い第2の範囲にX線を照射する第2スキャンにより前記第1スキャンの後に収集された第2投影データセット又は前記第2投影データセットに基づく第2画像データと、に基づいて、前記第2投影データセット又は前記第2画像データより質が高い、第3投影データセット又は第3画像データを生成する学習済みモデルに対して、前記第1投影データセット又は前記第1画像データと、前記第2投影データセット又は前記第2画像データを入力することにより、前記第3投影データセット又は前記第3画像データを生成する処理部
を備えた、医用処理装置。
A first based on at least a portion of the first projection data set or at least a portion of the first projection data set collected by a first scan that irradiates a first area along the body axis of the subject with X-rays. The second projection data set or the second scan collected after the first scan by irradiating the image data with X-rays into a second range narrower than the first range along the body axis direction. For a second image data based on a projection data set and a trained model that produces a third projection data set or a third image data of higher quality than the second projection data set or the second image data based on. The process of generating the third projection data set or the third image data by inputting the first projection data set or the first image data and the second projection data set or the second image data. A medical processing device equipped with a part.
JP2019126659A 2019-07-08 2019-07-08 X-ray CT system and medical processing equipment Active JP7362322B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019126659A JP7362322B2 (en) 2019-07-08 2019-07-08 X-ray CT system and medical processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019126659A JP7362322B2 (en) 2019-07-08 2019-07-08 X-ray CT system and medical processing equipment

Publications (2)

Publication Number Publication Date
JP2021010623A true JP2021010623A (en) 2021-02-04
JP7362322B2 JP7362322B2 (en) 2023-10-17

Family

ID=74227058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019126659A Active JP7362322B2 (en) 2019-07-08 2019-07-08 X-ray CT system and medical processing equipment

Country Status (1)

Country Link
JP (1) JP7362322B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022140410A (en) * 2021-03-12 2022-09-26 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. Processing device for obtaining gap filler sinogram information, computer tomograph, method and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005028114A (en) * 2003-06-18 2005-02-03 Canon Inc Radiation photographing apparatus and radiation photographing method
JP2005095397A (en) * 2003-09-25 2005-04-14 Ge Medical Systems Global Technology Co Llc Method of correcting scattered x-ray component, program therefor, and x-ray ct system
WO2018126396A1 (en) * 2017-01-05 2018-07-12 General Electric Company Deep learning based estimation of data for use in tomographic reconstruction
JP2019069145A (en) * 2017-10-06 2019-05-09 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing system
US20190142357A1 (en) * 2017-11-14 2019-05-16 General Electric Company Systems and methods for improving image quality with three-dimensional scout

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005028114A (en) * 2003-06-18 2005-02-03 Canon Inc Radiation photographing apparatus and radiation photographing method
JP2005095397A (en) * 2003-09-25 2005-04-14 Ge Medical Systems Global Technology Co Llc Method of correcting scattered x-ray component, program therefor, and x-ray ct system
WO2018126396A1 (en) * 2017-01-05 2018-07-12 General Electric Company Deep learning based estimation of data for use in tomographic reconstruction
JP2020506742A (en) * 2017-01-05 2020-03-05 ゼネラル・エレクトリック・カンパニイ Deep learning-based estimation of data for use in tomographic reconstruction
JP2019069145A (en) * 2017-10-06 2019-05-09 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing system
US20190142357A1 (en) * 2017-11-14 2019-05-16 General Electric Company Systems and methods for improving image quality with three-dimensional scout

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022140410A (en) * 2021-03-12 2022-09-26 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. Processing device for obtaining gap filler sinogram information, computer tomograph, method and computer program
JP7318045B2 (en) 2021-03-12 2023-07-31 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. Processing device, computed tomography apparatus, method, and computer program for obtaining gap filler sinogram information

Also Published As

Publication number Publication date
JP7362322B2 (en) 2023-10-17

Similar Documents

Publication Publication Date Title
US11207041B2 (en) X-ray CT system and medical processing apparatus
JP7353965B2 (en) Medical image diagnosis system and trained model generation method
JP7553672B2 (en) Medical processing device, X-ray CT system and processing program
JP7467253B2 (en) X-ray CT system and medical processing equipment
US11241212B2 (en) Medical apparatus
JP7362322B2 (en) X-ray CT system and medical processing equipment
JP7353882B2 (en) X-ray CT system and medical processing equipment
JP7313818B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSTIC APPARATUS, AND MEDICAL IMAGE PROCESSING METHOD
JP7321846B2 (en) X-ray CT system and medical processing equipment
JP2022013679A (en) Medical image processing method, medical image processing apparatus and x-ray ct apparatus
JP7301607B2 (en) Radiological diagnostic equipment
US20240062371A1 (en) Information processing method, medical image diagnostic apparatus, and information processing system including deep learning for optimal cardiac phase selection
JP2020096693A (en) X-ray CT system and processing program
US11404159B2 (en) Medical information processing system and medical information processing apparatus
US20220375086A1 (en) Medical information processing method, medical information processing apparatus, and medical image processing apparatus
JP7320934B2 (en) MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
JP7144292B2 (en) MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
JP2023071179A (en) Medical image processing apparatus, x-ray ct apparatus, medical image processing method and program
JP2021013489A (en) X-ray ct system and medical processing apparatus
JP2021074378A (en) Medical processing system and program
JP7098292B2 (en) X-ray CT device
JP2024008043A (en) X-ray ct apparatus and scan condition determination method
JP2024124758A (en) Nuclear medicine diagnosis device, control method and program
JP2023104733A (en) Medical image display device, medical image display method, and program
JP2022172743A (en) Medical image processing device, medical image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231004

R150 Certificate of patent or registration of utility model

Ref document number: 7362322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150