JP7362322B2 - X-ray CT system and medical processing equipment - Google Patents

X-ray CT system and medical processing equipment Download PDF

Info

Publication number
JP7362322B2
JP7362322B2 JP2019126659A JP2019126659A JP7362322B2 JP 7362322 B2 JP7362322 B2 JP 7362322B2 JP 2019126659 A JP2019126659 A JP 2019126659A JP 2019126659 A JP2019126659 A JP 2019126659A JP 7362322 B2 JP7362322 B2 JP 7362322B2
Authority
JP
Japan
Prior art keywords
image data
scan
data set
projection data
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019126659A
Other languages
Japanese (ja)
Other versions
JP2021010623A (en
Inventor
ベーレカー アクシャイ プラブ
博基 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2019126659A priority Critical patent/JP7362322B2/en
Publication of JP2021010623A publication Critical patent/JP2021010623A/en
Application granted granted Critical
Publication of JP7362322B2 publication Critical patent/JP7362322B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、X線CTシステム及び医用処理装置に関する。 Embodiments of the present invention relate to an X-ray CT system and a medical processing device.

X線CT(Computed Tomography)スキャナにより収集されるCT画像データには、種々の要因により、ノイズや画像アーチファクトが含まれてしまう場合がある。具体的には、被検体の体動や、X線管からの出力のゆらぎ、被検体の体厚等に応じたX線の減衰といった要因により、投影データが欠損したり投影データにノイズが含まれたりすることによって、再構成されるCT画像データにノイズや画像アーチファクトが含まれてしまう場合がある。 CT image data collected by an X-ray CT (Computed Tomography) scanner may contain noise and image artifacts due to various factors. Specifically, projection data may be missing or contain noise due to factors such as body movements of the subject, fluctuations in the output from the X-ray tube, and attenuation of X-rays depending on the body thickness of the subject. The reconstructed CT image data may contain noise and image artifacts.

CT画像データの質を向上させるため、再構成処理に使用する投影データセットや再構成されたCT画像データを、AI(Artificial Intelligence)によって補正することが提案されている。ここで、AIによる補正を適切に行なうためには、より多くの情報に基づく学習が行われていることが好ましい。 In order to improve the quality of CT image data, it has been proposed to correct projection data sets used for reconstruction processing and reconstructed CT image data using AI (Artificial Intelligence). Here, in order to appropriately perform the correction by AI, it is preferable that learning is performed based on more information.

特開2012-130667号公報Japanese Patent Application Publication No. 2012-130667 国際公開第2017/141958号International Publication No. 2017/141958 特開2017-86903号公報JP 2017-86903 Publication

本発明が解決しようとする課題は、質の高いCT画像データを生成することである。 The problem to be solved by the present invention is to generate high quality CT image data.

実施形態のX線CTシステムは、スキャン部と、処理部とを備える。スキャン部は、被検体の体軸方向に沿った第1の範囲にX線を照射することで第1投影データセットを収集する第1スキャンを実行し、前記第1スキャンの後で、前記体軸方向に沿った、前記第1の範囲より狭い第2の範囲にX線を照射することで第2投影データセットを収集する第2スキャンを実行する。処理部は、前記第1投影データセットの少なくとも一部又は前記第1投影データセットの少なくとも一部に基づく第1画像データと、前記第2投影データセット又は前記第2投影データセットに基づく第2画像データと、に基づいて、前記第2投影データセット又は前記第2画像データより質が高い、第3投影データセット又は第3画像データを生成する学習済みモデルに対して、前記第1投影データセット又は前記第1画像データと、前記第2投影データセット又は前記第2画像データを入力することにより、前記第3投影データセット又は前記第3画像データを生成する。 The X-ray CT system of the embodiment includes a scanning section and a processing section. The scanning unit executes a first scan to collect a first projection data set by irradiating a first range along the body axis direction of the subject, and after the first scan, A second scan is performed in which a second projection data set is acquired by irradiating a second range along the axial direction that is narrower than the first range. The processing unit includes at least a portion of the first projection data set or first image data based on at least a portion of the first projection data set, and a second projection data set or second image data based on the second projection data set. the first projection data for a trained model that generates a third projection data set or third image data having a higher quality than the second projection data set or the second image data based on the image data; The third projection data set or the third image data is generated by inputting the set or the first image data and the second projection data set or the second image data.

図1は、第1の実施形態に係るX線CTシステムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of an X-ray CT system according to the first embodiment. 図2は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。FIG. 2 is a diagram for explaining the trained model generation process according to the first embodiment. 図3は、第1の実施形態に係る学習済みモデルの使用例を示す図である。FIG. 3 is a diagram illustrating an example of use of the learned model according to the first embodiment. 図4は、第1の実施形態に係るX線CTシステムの処理の一連の流れを説明するためのフローチャートである。FIG. 4 is a flowchart for explaining a series of processing steps of the X-ray CT system according to the first embodiment. 図5は、第3の実施形態に係る医用情報処理システムの構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the configuration of a medical information processing system according to the third embodiment.

以下、添付図面を参照して、X線CTシステム及び医用処理装置の実施形態について詳細に説明する。なお、本願に係るX線CTシステム及び医用処理装置は、以下に示す実施形態によって限定されるものではない。 Hereinafter, embodiments of an X-ray CT system and a medical processing device will be described in detail with reference to the accompanying drawings. Note that the X-ray CT system and medical processing apparatus according to the present application are not limited to the embodiments described below.

(第1の実施形態)
まず、図1を参照しながら、第1の実施形態に係るX線CTシステム10の構成について説明する。図1は、第1の実施形態に係るX線CTシステム10の構成の一例を示すブロック図である。図1に示すように、X線CTシステム10は、架台装置110と、寝台装置130と、コンソール装置140とを有する。なお、X線CTシステム10は、X線CT装置又はX線CTスキャナとも呼ばれる。
(First embodiment)
First, the configuration of an X-ray CT system 10 according to a first embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing an example of the configuration of an X-ray CT system 10 according to the first embodiment. As shown in FIG. 1, the X-ray CT system 10 includes a gantry device 110, a bed device 130, and a console device 140. Note that the X-ray CT system 10 is also called an X-ray CT device or an X-ray CT scanner.

図1においては、非チルト状態での回転フレーム113の回転軸又は寝台装置130の天板133の長手方向をZ軸方向とする。また、Z軸方向に直交し、床面に対し水平である軸方向をX軸方向とする。また、Z軸方向に直交し、床面に対し垂直である軸方向をY軸方向とする。なお、図1は、説明のために架台装置110を複数方向から描画したものであり、X線CTシステム10が架台装置110を1つ有する場合を示す。 In FIG. 1, the rotation axis of the rotation frame 113 in a non-tilted state or the longitudinal direction of the top plate 133 of the bed device 130 is defined as the Z-axis direction. Further, the axial direction that is orthogonal to the Z-axis direction and horizontal to the floor surface is defined as the X-axis direction. Further, the axial direction that is orthogonal to the Z-axis direction and perpendicular to the floor surface is defined as the Y-axis direction. Note that FIG. 1 depicts the gantry device 110 from multiple directions for explanation, and shows a case where the X-ray CT system 10 has one gantry device 110.

架台装置110は、X線管111と、X線検出器112と、回転フレーム113と、X線高電圧装置114と、制御装置115と、ウェッジ116と、コリメータ117と、DAS118とを有する。 The gantry device 110 includes an X-ray tube 111, an X-ray detector 112, a rotating frame 113, an X-ray high voltage device 114, a control device 115, a wedge 116, a collimator 117, and a DAS 118.

X線管111は、熱電子を発生する陰極(フィラメント)と、熱電子の衝突を受けてX線を発生する陽極(ターゲット)とを有する真空管である。X線管111は、X線高電圧装置114からの高電圧の印加により、陰極から陽極に向けて熱電子を照射することで、被検体P1に対し照射するX線を発生する。 The X-ray tube 111 is a vacuum tube that has a cathode (filament) that generates thermoelectrons and an anode (target) that generates X-rays upon collision with the thermoelectrons. The X-ray tube 111 generates X-rays to irradiate the subject P1 by irradiating thermoelectrons from the cathode to the anode by applying a high voltage from the X-ray high voltage device 114.

X線検出器112は、X線管111から照射されて被検体P1を通過したX線を検出し、検出したX線量に対応した信号をDAS118へと出力する。X線検出器112は、例えば、X線管111の焦点を中心とした1つの円弧に沿ってチャンネル方向(チャネル方向)に複数の検出素子が配列された複数の検出素子列を有する。X線検出器112は、例えば、チャネル方向に複数の検出素子が配列された検出素子列が列方向(スライス方向、row方向)に複数配列された構造を有する。 The X-ray detector 112 detects the X-rays emitted from the X-ray tube 111 and passed through the subject P1, and outputs a signal corresponding to the detected X-ray dose to the DAS 118. The X-ray detector 112 has, for example, a plurality of detection element rows in which a plurality of detection elements are arranged in the channel direction along one circular arc centered on the focal point of the X-ray tube 111. The X-ray detector 112 has, for example, a structure in which a plurality of detection element rows in which a plurality of detection elements are arranged in a channel direction are arranged in a column direction (slice direction, row direction).

例えば、X線検出器112は、グリッドと、シンチレータアレイと、光センサアレイとを有する間接変換型の検出器である。シンチレータアレイは、複数のシンチレータを有する。シンチレータは入射X線量に応じた光子量の光を出力するシンチレータ結晶を有する。グリッドは、シンチレータアレイのX線入射側の面に配置され、散乱X線を吸収するX線遮蔽板を有する。なお、グリッドはコリメータ(1次元コリメータ又は2次元コリメータ)と呼ばれる場合もある。光センサアレイは、シンチレータからの光量に応じた電気信号に変換する機能を有し、例えば、フォトダイオード等の光センサを有する。なお、X線検出器112は、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。 For example, the X-ray detector 112 is an indirect conversion type detector that includes a grid, a scintillator array, and a photosensor array. A scintillator array has multiple scintillators. The scintillator has a scintillator crystal that outputs light with an amount of photons corresponding to the amount of incident X-rays. The grid is disposed on the X-ray incident side of the scintillator array and has an X-ray shielding plate that absorbs scattered X-rays. Note that the grid is sometimes called a collimator (one-dimensional collimator or two-dimensional collimator). The optical sensor array has a function of converting into an electrical signal according to the amount of light from the scintillator, and includes optical sensors such as photodiodes, for example. Note that the X-ray detector 112 may be a direct conversion type detector that includes a semiconductor element that converts incident X-rays into electrical signals.

回転フレーム113は、X線管111とX線検出器112とを対向支持し、制御装置115によってX線管111とX線検出器112とを回転させる円環状のフレームである。例えば、回転フレーム113は、アルミニウムを材料とした鋳物である。なお、回転フレーム113は、X線管111及びX線検出器112に加えて、X線高電圧装置114やウェッジ116、コリメータ117、DAS118等を更に支持することもできる。更に、回転フレーム113は、図1において図示しない種々の構成を更に支持することもできる。以下では、架台装置110において、回転フレーム113、及び、回転フレーム113と共に回転移動する部分を、回転部とも記載する。 The rotating frame 113 is an annular frame that supports the X-ray tube 111 and the X-ray detector 112 facing each other, and allows the X-ray tube 111 and the X-ray detector 112 to be rotated by the control device 115. For example, the rotating frame 113 is cast from aluminum. Note that, in addition to the X-ray tube 111 and the X-ray detector 112, the rotating frame 113 can also support an X-ray high voltage device 114, a wedge 116, a collimator 117, a DAS 118, and the like. Furthermore, the rotating frame 113 may further support various configurations not shown in FIG. Below, in the gantry device 110, the rotating frame 113 and a portion that rotates and moves together with the rotating frame 113 will also be referred to as a rotating section.

X線高電圧装置114は、変圧器(トランス)及び整流器等の電気回路を有し、X線管111に印加する高電圧を発生する高電圧発生装置と、X線管111が発生するX線に応じた出力電圧の制御を行なうX線制御装置とを有する。高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であってもよい。なお、X線高電圧装置114は、回転フレーム113に設けられてもよいし、図示しない固定フレームに設けられても構わない。 The X-ray high-voltage device 114 includes an electric circuit such as a transformer and a rectifier, and includes a high-voltage generator that generates a high voltage to be applied to the X-ray tube 111 and a high-voltage generator that generates the and an X-ray control device that controls the output voltage according to the output voltage. The high voltage generator may be of a transformer type or an inverter type. Note that the X-ray high voltage device 114 may be provided on the rotating frame 113 or may be provided on a fixed frame (not shown).

制御装置115は、CPU(Central Processing Unit)等を有する処理回路と、モータ及びアクチュエータ等の駆動機構とを有する。制御装置115は、入力インターフェース143からの入力信号を受けて、架台装置110及び寝台装置130の動作制御を行なう。例えば、制御装置115は、回転フレーム113の回転や架台装置110のチルト、寝台装置130の動作等について制御を行なう。一例を挙げると、制御装置115は、架台装置110をチルトさせる制御として、入力された傾斜角度(チルト角度)情報により、X軸方向に平行な軸を中心に回転フレーム113を回転させる。なお、制御装置115は架台装置110に設けられてもよいし、コンソール装置140に設けられてもよい。 The control device 115 includes a processing circuit including a CPU (Central Processing Unit), and a drive mechanism such as a motor and an actuator. The control device 115 receives input signals from the input interface 143 and controls the operations of the gantry device 110 and the bed device 130. For example, the control device 115 controls the rotation of the rotating frame 113, the tilt of the gantry device 110, the operation of the bed device 130, and the like. For example, as a control for tilting the gantry device 110, the control device 115 rotates the rotation frame 113 about an axis parallel to the X-axis direction based on input inclination angle (tilt angle) information. Note that the control device 115 may be provided on the gantry device 110 or may be provided on the console device 140.

ウェッジ116は、X線管111から照射されたX線量を調節するためのX線フィルタである。具体的には、ウェッジ116は、X線管111から被検体P1へ照射されるX線が予め定められた分布になるように、X線管111から照射されたX線を減衰させるX線フィルタである。例えば、ウェッジ116は、ウェッジフィルタ(wedge filter)やボウタイフィルタ(bow-tie filter)であり、所定のターゲット角度や所定の厚みとなるようにアルミニウム等を加工して作製される。 The wedge 116 is an X-ray filter for adjusting the amount of X-rays irradiated from the X-ray tube 111. Specifically, the wedge 116 is an X-ray filter that attenuates the X-rays emitted from the X-ray tube 111 so that the X-rays emitted from the X-ray tube 111 to the subject P1 have a predetermined distribution. It is. For example, the wedge 116 is a wedge filter or a bow-tie filter, and is manufactured by processing aluminum or the like to have a predetermined target angle and a predetermined thickness.

コリメータ117は、ウェッジ116を透過したX線の照射範囲を絞り込むための鉛板等であり、複数の鉛板等の組み合わせによってスリットを形成する。なお、コリメータ117は、X線絞りと呼ばれる場合もある。また、図1においては、X線管111とコリメータ117との間にウェッジ116が配置される場合を示すが、X線管111とウェッジ116との間にコリメータ117が配置される場合であってもよい。この場合、ウェッジ116は、X線管111から照射され、コリメータ117により照射範囲が制限されたX線を透過して減衰させる。 The collimator 117 is a lead plate or the like for narrowing down the irradiation range of the X-rays transmitted through the wedge 116, and forms a slit by combining a plurality of lead plates or the like. Note that the collimator 117 is sometimes called an X-ray diaphragm. Furthermore, although FIG. 1 shows a case where the wedge 116 is arranged between the X-ray tube 111 and the collimator 117, it is also the case where the collimator 117 is arranged between the X-ray tube 111 and the wedge 116. Good too. In this case, the wedge 116 transmits and attenuates the X-rays irradiated from the X-ray tube 111 and whose irradiation range is limited by the collimator 117.

DAS118は、X線検出器112が有する各検出素子によって検出されるX線の信号を収集する。例えば、DAS118は、各検出素子から出力される電気信号に対して増幅処理を行なう増幅器と、電気信号をデジタル信号に変換するA/D変換器とを有し、検出データを生成する。DAS118は、例えば、プロセッサにより実現される。 DAS 118 collects X-ray signals detected by each detection element included in X-ray detector 112. For example, the DAS 118 includes an amplifier that performs amplification processing on the electrical signal output from each detection element and an A/D converter that converts the electrical signal into a digital signal, and generates detection data. DAS 118 is realized by a processor, for example.

DAS118が生成したデータは、回転フレーム113に設けられた発光ダイオード(Light Emitting Diode:LED)を有する送信機から、光通信によって、架台装置110の非回転部分(例えば、固定フレーム等。図1での図示は省略している)に設けられた、フォトダイオードを有する受信機に送信され、コンソール装置140へと転送される。ここで、非回転部分とは、例えば、回転フレーム113を回転可能に支持する固定フレーム等である。なお、回転フレーム113から架台装置110の非回転部分へのデータの送信方法は、光通信に限らず、非接触型の如何なるデータ伝送方式を採用してもよいし、接触型のデータ伝送方式を採用しても構わない。 The data generated by the DAS 118 is transmitted from a transmitter having a light emitting diode (LED) provided in the rotating frame 113 to a non-rotating portion of the gantry device 110 (for example, a fixed frame, etc. in FIG. 1) by optical communication. (not shown), which has a photodiode, and is transferred to the console device 140. Here, the non-rotating portion is, for example, a fixed frame that rotatably supports the rotating frame 113. Note that the method of transmitting data from the rotating frame 113 to the non-rotating part of the gantry device 110 is not limited to optical communication, but any non-contact data transmission method may be used, or a contact data transmission method may be used. I don't mind if you hire me.

寝台装置130は、スキャン対象の被検体P1を載置、移動させる装置であり、基台131と、寝台駆動装置132と、天板133と、支持フレーム134とを有する。基台131は、支持フレーム134を鉛直方向に移動可能に支持する筐体である。寝台駆動装置132は、被検体P1が載置された天板133を、天板133の長軸方向に移動する駆動機構であり、モータ及びアクチュエータ等を含む。支持フレーム134の上面に設けられた天板133は、被検体P1が載置される板である。なお、寝台駆動装置132は、天板133に加え、支持フレーム134を天板133の長軸方向に移動してもよい。 The bed device 130 is a device on which the subject P1 to be scanned is placed and moved, and includes a base 131, a bed driving device 132, a top plate 133, and a support frame 134. The base 131 is a casing that supports the support frame 134 so as to be movable in the vertical direction. The bed driving device 132 is a drive mechanism that moves the top plate 133 on which the subject P1 is placed in the longitudinal direction of the top plate 133, and includes a motor, an actuator, and the like. The top plate 133 provided on the upper surface of the support frame 134 is a plate on which the subject P1 is placed. In addition to the top plate 133, the bed driving device 132 may move the support frame 134 in the longitudinal direction of the top plate 133.

コンソール装置140は、メモリ141と、ディスプレイ142と、入力インターフェース143と、処理回路144とを有する。なお、コンソール装置140は架台装置110とは別体として説明するが、架台装置110にコンソール装置140又はコンソール装置140の各構成要素の一部が含まれてもよい。 Console device 140 has memory 141 , display 142 , input interface 143 , and processing circuit 144 . Note that although the console device 140 will be described as being separate from the gantry device 110, the gantry device 110 may include the console device 140 or a part of each component of the console device 140.

メモリ141は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ141は、被検体P1に対するスキャンを実行することで収集される各種のデータを記憶する。また、例えば、メモリ141は、X線CTシステム10に含まれる回路がその機能を実現するためのプログラムを記憶する。なお、メモリ141は、X線CTシステム10とネットワークを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The memory 141 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like. For example, the memory 141 stores various data collected by performing a scan on the subject P1. Further, for example, the memory 141 stores programs for the circuits included in the X-ray CT system 10 to realize their functions. Note that the memory 141 may be realized by a server group (cloud) connected to the X-ray CT system 10 via a network.

ディスプレイ142は、各種の情報を表示する。例えば、ディスプレイ142は、処理回路144により生成された表示用のCT画像を表示したり、ユーザからの各種操作を受け付けるためのGUI(Graphical User Interface)等を表示したりする。例えば、ディスプレイ142は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。ディスプレイ142は、デスクトップ型でもよいし、コンソール装置140本体と無線通信可能なタブレット端末等で構成されることにしても構わない。 Display 142 displays various information. For example, the display 142 displays a CT image for display generated by the processing circuit 144, a GUI (Graphical User Interface), etc. for accepting various operations from the user. For example, the display 142 is a liquid crystal display or a CRT (Cathode Ray Tube) display. The display 142 may be of a desktop type, or may be composed of a tablet terminal or the like that can communicate wirelessly with the main body of the console device 140.

入力インターフェース143は、ユーザからの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路144に出力する。例えば、入力インターフェース143は、CT画像データを再構成する際の再構成条件や、CT画像データから表示用のCT画像を生成する際の画像処理条件等をユーザから受け付ける。例えば、入力インターフェース143は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース143は、架台装置110に設けられてもよい。また、入力インターフェース143は、コンソール装置140本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース143は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、コンソール装置140とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路144へ出力する電気信号の処理回路も入力インターフェース143の例に含まれる。 The input interface 143 accepts various input operations from the user, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 144 . For example, the input interface 143 receives from the user reconstruction conditions when reconstructing CT image data, image processing conditions when generating a CT image for display from CT image data, and the like. For example, the input interface 143 may include a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touchpad that performs input operations by touching the operation surface, a touchscreen that integrates a display screen and a touchpad, and an optical sensor. This is realized by using a non-contact input circuit, a voice input circuit, etc. Note that the input interface 143 may be provided in the gantry device 110. Furthermore, the input interface 143 may be configured with a tablet terminal or the like that can communicate wirelessly with the main body of the console device 140. Further, the input interface 143 is not limited to one that includes physical operation parts such as a mouse and a keyboard. For example, an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the console device 140 and outputs this electric signal to the processing circuit 144 is also an example of the input interface 143. included.

処理回路144は、スキャン機能144a、処理機能144b、及び制御機能144cを実行することで、X線CTシステム10全体の動作を制御する。なお、スキャン機能144aは、スキャン部の一例である。また、処理機能144bは、処理部の一例である。 The processing circuit 144 controls the overall operation of the X-ray CT system 10 by executing a scanning function 144a, a processing function 144b, and a control function 144c. Note that the scan function 144a is an example of a scan unit. Further, the processing function 144b is an example of a processing unit.

例えば、処理回路144は、スキャン機能144aに相当するプログラムをメモリ141から読み出して実行することにより、被検体P1に対するスキャンを実行する。例えば、スキャン機能144aは、被検体P1に対して、位置決め撮影や本スキャンといった各種のスキャンを実行する。 For example, the processing circuit 144 reads a program corresponding to the scan function 144a from the memory 141 and executes it, thereby executing a scan on the subject P1. For example, the scan function 144a executes various scans such as positioning imaging and main scan on the subject P1.

ここで、位置決め撮影については、2次元で実行されてもよいし、3次元で実行されてもよい。本実施形態では一例として、2次元の位置決め撮影を実行する場合について説明する。この場合、スキャン機能144aは、X線管111の位置を被検体P1の周囲で回転させないで、X線管111の位置及び被検体P1の少なくともいずれかを被検体P1の体軸方向(図1に示すZ軸方向)に沿って移動させながら、位置決め撮影を実行する。 Here, positioning imaging may be performed in two dimensions or three dimensions. In this embodiment, as an example, a case will be described in which two-dimensional positioning imaging is performed. In this case, the scan function 144a does not rotate the position of the X-ray tube 111 around the subject P1, and moves the position of the X-ray tube 111 and/or the subject P1 in the body axis direction of the subject P1 (Fig. Positioning photographing is performed while moving along the Z-axis direction shown in FIG.

例えば、スキャン機能144aは、X線管111の位置を所定の回転角度に固定し、天板133をZ軸方向に移動させながら、X線管111から被検体P1に対してX線を照射させる。また、スキャン機能144aによって位置決め撮影が実行される間、DAS118は、X線検出器112における各検出素子からX線の信号を収集し、検出データを生成する。また、スキャン機能144aは、DAS118から出力された検出データに対して前処理を施す。例えば、スキャン機能144aは、DAS118から出力された検出データに対して、対数変換処理やオフセット補正処理、チャンネル間の感度補正処理、ビームハードニング補正等の前処理を施す。なお、前処理を施した後のデータについては生データとも記載する。また、前処理を施す前の検出データ及び前処理を施した後の生データを総称して、投影データとも記載する。 For example, the scan function 144a fixes the position of the X-ray tube 111 at a predetermined rotation angle, moves the top plate 133 in the Z-axis direction, and causes the X-ray tube 111 to irradiate the subject P1 with X-rays. . Further, while positioning imaging is executed by the scan function 144a, the DAS 118 collects X-ray signals from each detection element in the X-ray detector 112, and generates detection data. Further, the scan function 144a performs preprocessing on the detection data output from the DAS 118. For example, the scan function 144a performs preprocessing such as logarithmic conversion processing, offset correction processing, inter-channel sensitivity correction processing, and beam hardening correction on the detection data output from the DAS 118. Note that data after preprocessing is also referred to as raw data. In addition, detection data before preprocessing and raw data after preprocessing are collectively referred to as projection data.

即ち、スキャン機能144aは、X線管111の位置を所定の回転角度に固定し、天板133をZ軸方向に移動させながら、X線管111から被検体P1に対してX線を照射させることで、被検体P1の体軸方向における複数の位置それぞれについて投影データを収集する。以下では、複数の投影データをまとめて、投影データセットとも記載する。即ち、スキャン機能144aは、位置決め撮影を実行することにより、投影データセットを収集する。 That is, the scan function 144a fixes the position of the X-ray tube 111 at a predetermined rotation angle, moves the top plate 133 in the Z-axis direction, and causes the X-ray tube 111 to irradiate the subject P1 with X-rays. In this way, projection data is collected for each of a plurality of positions in the body axis direction of the subject P1. Below, a plurality of projection data are collectively referred to as a projection data set. That is, the scan function 144a collects a projection data set by performing positioning imaging.

また、処理回路144は、処理機能144bに相当するプログラムをメモリ141から読み出して実行することにより、スキャン結果に基づいて画像データを生成する。例えば、処理機能144bは、位置決め撮影により収集された投影データセットに基づいて位置決め画像データを生成する。なお、位置決め画像データは、スキャノ画像データやスカウト画像データと呼ばれる場合もある。 Furthermore, the processing circuit 144 generates image data based on the scan result by reading out and executing a program corresponding to the processing function 144b from the memory 141. For example, the processing function 144b generates positioning image data based on a projection data set collected by positioning photography. Note that the positioning image data is sometimes called scano image data or scout image data.

また、本スキャンについては、例えば、コンベンショナルスキャンの方式で実行されてもよいし、ヘリカルスキャンの方式で実行されてもよいし、ステップアンドシュート方式で実行されてもよい。 Further, the main scan may be executed using, for example, a conventional scan method, a helical scan method, or a step-and-shoot method.

コンベンショナルスキャンの方式で本スキャンを実行する場合、スキャン機能144aは、X線管111の位置及び被検体P1を体軸方向に沿って移動させないで、X線管111の位置を被検体P1の周囲で回転させながら、本スキャンを実行する。例えば、スキャン機能144aは、天板133を停止させた状態で、X線管111を被検体P1の周囲で回転させながら、X線管111から被検体P1に対してX線を照射させる。 When performing the main scan using the conventional scan method, the scan function 144a changes the position of the X-ray tube 111 around the subject P1 without moving the position of the X-ray tube 111 and the subject P1 along the body axis direction. Execute the main scan while rotating with . For example, the scan function 144a causes the X-ray tube 111 to irradiate the subject P1 with X-rays while rotating the X-ray tube 111 around the subject P1 with the top plate 133 stopped.

また、ヘリカルスキャンの方式で本スキャンを実行する場合、スキャン機能144aは、X線管111の位置及び被検体P1を体軸方向に沿って移動させるとともに、X線管111の位置を被検体P1の周囲で回転させながら、本スキャンを実行する。例えば、スキャン機能144aは、天板133をZ軸方向に移動させるとともに、X線管111を被検体P1の周囲で回転させながら、X線管111から被検体P1に対してX線を照射させる。 Furthermore, when performing the main scan using a helical scan method, the scan function 144a moves the position of the X-ray tube 111 and the subject P1 along the body axis direction, and also moves the position of the X-ray tube 111 to the subject P1. Execute the main scan while rotating around the . For example, the scan function 144a moves the top plate 133 in the Z-axis direction, rotates the X-ray tube 111 around the subject P1, and irradiates the subject P1 with X-rays from the X-ray tube 111. .

ステップアンドシュート方式で本スキャンを実行する場合、スキャン機能144aは、まず、X線管111の位置及び被検体P1を体軸方向に沿って移動させないで、X線管111の位置を被検体P1の周囲で回転させながら、本スキャンを実行する。例えば、スキャン機能144aは、天板133を停止させた状態で、X線管111を被検体P1の周囲で回転させながら、X線管111から被検体P1に対してX線を照射させる。次に、スキャン機能144aは、X線管111からのX線の照射を停止させた状態で、天板133をZ軸方向に移動させる。そして、スキャン機能144aは、天板133を停止させた状態で、X線管111を被検体P1の周囲で回転させながら、X線管111から被検体P1に対してX線を再度照射させる。 When performing the main scan using the step-and-shoot method, the scan function 144a first changes the position of the X-ray tube 111 to the subject P1 without moving the position of the X-ray tube 111 and the subject P1 along the body axis direction. Execute the main scan while rotating around the . For example, the scan function 144a causes the X-ray tube 111 to irradiate the subject P1 with X-rays while rotating the X-ray tube 111 around the subject P1 with the top plate 133 stopped. Next, the scan function 144a moves the top plate 133 in the Z-axis direction while stopping the irradiation of X-rays from the X-ray tube 111. Then, the scan function 144a causes the X-ray tube 111 to irradiate the subject P1 with X-rays again while rotating the X-ray tube 111 around the subject P1 with the top plate 133 stopped.

スキャン機能144aによって本スキャンが実行される間、DAS118は、X線検出器112における各検出素子からX線の信号を収集し、検出データを生成する。また、スキャン機能144aは、DAS118から出力された検出データに対して、対数変換処理やオフセット補正処理、チャンネル間の感度補正処理、ビームハードニング補正等の前処理を施す。 While the main scan is executed by the scan function 144a, the DAS 118 collects X-ray signals from each detection element in the X-ray detector 112 and generates detection data. Further, the scan function 144a performs preprocessing such as logarithmic conversion processing, offset correction processing, inter-channel sensitivity correction processing, and beam hardening correction on the detection data output from the DAS 118.

即ち、スキャン機能144aは、X線管111の位置を被検体P1の周囲で回転させながらX線を被検体P1に照射することで、複数の照射方向(ビュー)のそれぞれについて投影データを収集する。即ち、スキャン機能144aは、本スキャンを実行することにより、投影データセットを収集する。 That is, the scan function 144a collects projection data for each of a plurality of irradiation directions (views) by irradiating the subject P1 with X-rays while rotating the position of the X-ray tube 111 around the subject P1. . That is, the scan function 144a collects a projection data set by executing the main scan.

また、処理機能144bは、本スキャンにより収集された投影データセットに基づいて、CT画像データ(ボリュームデータ)を生成する。例えば、処理機能144bは、投影データセットに基づいて、フィルタ補正逆投影法や逐次近似再構成法、逐次近似応用再構成法等を用いた再構成処理を行なうことにより、CT画像データを生成する。また、処理機能144bは、AIによる再構成処理を行なってCT画像データを生成することもできる。例えば、処理機能144bは、DLR(Deep Learning Reconstruction)法により、CT画像データを生成する。 Furthermore, the processing function 144b generates CT image data (volume data) based on the projection data set collected by the main scan. For example, the processing function 144b generates CT image data by performing reconstruction processing using a filtered back projection method, a successive approximation reconstruction method, a successive approximation applied reconstruction method, etc. based on the projection data set. . Furthermore, the processing function 144b can also generate CT image data by performing reconstruction processing using AI. For example, the processing function 144b generates CT image data using a DLR (Deep Learning Reconstruction) method.

ここで、処理機能144bは、CT画像データについての補正を行なう。具体的には、処理機能144bは、学習済みモデルM1に対して、位置決め撮影により収集された位置決め画像データ及び本スキャンにより収集されたCT画像データを入力することにより、CT画像データについて補正を行なう。なお、学習済みモデルM1を用いた補正については後述する。 Here, the processing function 144b performs correction on the CT image data. Specifically, the processing function 144b corrects the CT image data by inputting the positioning image data collected through positioning imaging and the CT image data collected through the main scan to the trained model M1. . Note that correction using the learned model M1 will be described later.

また、処理回路144は、制御機能144cに対応するプログラムをメモリ141から読み出して実行することにより、ディスプレイ142における表示の制御を行なう。例えば、制御機能144cは、処理機能144bにより生成された位置決め画像データやCT画像データを、公知の方法により表示用画像に変換する。一例を挙げると、制御機能144cは、入力インターフェース143を介してユーザから受け付けた入力操作等に基づいて、CT画像データを任意断面の断層像データや3次元画像データ等に変換する。そして、制御機能144cは、変換した表示用画像をディスプレイ142に表示させる。また、制御機能144cは、ネットワークを介して各種のデータを送信する。一例を挙げると、制御機能144cは、処理機能144bにより生成された位置決め画像データやCT画像データを、図示しない画像保管装置に送信して保管させる。 Furthermore, the processing circuit 144 controls the display on the display 142 by reading a program corresponding to the control function 144c from the memory 141 and executing it. For example, the control function 144c converts the positioning image data and CT image data generated by the processing function 144b into a display image using a known method. For example, the control function 144c converts CT image data into tomographic image data of an arbitrary cross section, three-dimensional image data, etc. based on input operations received from the user via the input interface 143. The control function 144c then causes the display 142 to display the converted display image. The control function 144c also transmits various data via the network. For example, the control function 144c transmits the positioning image data and CT image data generated by the processing function 144b to an image storage device (not shown) and stores them.

図1に示すX線CTシステム10においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ141へ記憶されている。処理回路144は、メモリ141からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、プログラムを読み出した状態の処理回路144は、読み出したプログラムに対応する機能を有することとなる。 In the X-ray CT system 10 shown in FIG. 1, each processing function is stored in the memory 141 in the form of a computer-executable program. The processing circuit 144 is a processor that reads programs from the memory 141 and executes them to implement functions corresponding to each program. In other words, the processing circuit 144 in a state where the program has been read has a function corresponding to the read program.

なお、図1においては単一の処理回路144にて、スキャン機能144a、処理機能144b、及び制御機能144cが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路144を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路144が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 Although the scanning function 144a, the processing function 144b, and the control function 144c are realized in the single processing circuit 144 in FIG. 1, the processing circuit 144 may be configured by combining a plurality of independent processors. , functions may be realized by each processor executing a program. Further, each processing function of the processing circuit 144 may be appropriately distributed or integrated into a single processing circuit or a plurality of processing circuits.

また、処理回路144は、ネットワークを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路144は、メモリ141から各機能に対応するプログラムを読み出して実行するとともに、X線CTシステム10とネットワークを介して接続されたサーバ群(クラウド)を計算資源として利用することにより、図1に示す各機能を実現する。 Furthermore, the processing circuit 144 may implement its functions using a processor of an external device connected via a network. For example, the processing circuit 144 reads and executes a program corresponding to each function from the memory 141, and uses a server group (cloud) connected to the X-ray CT system 10 via a network as a computational resource. Each function shown in FIG. 1 is realized.

以上、X線CTシステム10の構成例について説明した。かかる構成の下、X線CTシステム10における処理回路144は、以下詳細に説明する処理によって、CT画像データの質を向上させる。 The configuration example of the X-ray CT system 10 has been described above. Under such a configuration, the processing circuit 144 in the X-ray CT system 10 improves the quality of CT image data through processing described in detail below.

まず、処理機能144bは、学習済みモデルM1を生成してメモリ141に格納する。即ち、処理機能144bは、被検体P1に対する位置決め撮影及び本スキャンに先立って、学習済みモデルM1の生成処理を行なう。以下、処理機能144bによる学習済みモデルM1の生成処理について、図2を用いて説明する。図2は、第1の実施形態に係る学習済みモデルM1の生成処理について説明するための図である。 First, the processing function 144b generates a learned model M1 and stores it in the memory 141. That is, the processing function 144b performs a process of generating the learned model M1 prior to positioning and photographing the subject P1 and performing the main scan. Hereinafter, the generation process of the learned model M1 by the processing function 144b will be explained using FIG. 2. FIG. 2 is a diagram for explaining the generation process of the trained model M1 according to the first embodiment.

図2に示す画像データC11、画像データC12及び画像データC13は、被検体P1や、被検体P1と異なる被検体P2、人体を模したファントム等をスキャンすることで収集された画像データである。画像データC11、画像データC12及び画像データC13は、X線CTシステム10において収集された画像データであってもよいし、他のシステムにおいて収集された画像データであってもよい。なお、以下では一例として、X線CTシステム10において被検体P2をスキャンすることにより、画像データC11、画像データC12及び画像データC13を収集するものとして説明する。 Image data C11, image data C12, and image data C13 shown in FIG. 2 are image data collected by scanning the subject P1, a subject P2 different from the subject P1, a phantom imitating a human body, and the like. The image data C11, the image data C12, and the image data C13 may be image data collected in the X-ray CT system 10, or may be image data collected in another system. Note that, as an example, the following description assumes that the image data C11, the image data C12, and the image data C13 are collected by scanning the subject P2 in the X-ray CT system 10.

例えば、X線CTシステム10は、被検体P2についてスキャンA11を実行することで、画像データC11を収集する。一例を挙げると、まず、スキャン機能144aは、X線管111の位置を所定の回転角度に固定し、天板133をZ軸方向に移動させながら、X線管111から被検体P2に対してX線を照射させることで、被検体P2の体軸方向における複数の位置それぞれについて投影データを収集する。以下、スキャンA11により収集された複数の投影データを、投影データセットB11と記載する。そして、処理機能144bは、収集された投影データセットB11に基づいて、図2に示す画像データC11を生成する。即ち、画像データC11は、2次元のスキャンにより収集された2次元画像データである。一例を挙げると、画像データC11は、被検体P2に対する検査において、位置決め撮影により収集された位置決め画像データである。 For example, the X-ray CT system 10 collects image data C11 by performing a scan A11 on the subject P2. For example, first, the scan function 144a fixes the position of the X-ray tube 111 at a predetermined rotation angle, moves the top plate 133 in the Z-axis direction, and scans the subject P2 from the X-ray tube 111. By irradiating X-rays, projection data is collected for each of a plurality of positions in the body axis direction of the subject P2. Hereinafter, the plurality of projection data collected by scan A11 will be referred to as projection data set B11. The processing function 144b then generates image data C11 shown in FIG. 2 based on the collected projection data set B11. That is, the image data C11 is two-dimensional image data collected by two-dimensional scanning. To give an example, the image data C11 is positioning image data collected by positioning imaging during the examination of the subject P2.

また、例えば、X線CTシステム10は、被検体P2についてスキャンA12を実行することで、画像データC12を収集する。一例を挙げると、まず、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1のX線を被検体P2に照射することで、複数のビューのそれぞれについて投影データを収集する。以下、スキャンA12により収集された複数の投影データを、投影データセットB12と記載する。そして、処理機能144bは、収集された投影データセットB12に基づく再構成処理を実行することにより、図2に示す画像データC12を生成する。即ち、画像データC12は、3次元のスキャンにより収集された3次元画像データである。一例を挙げると、画像データC12は、被検体P2に対する検査において、本スキャンにより収集されたCT画像データである。 Further, for example, the X-ray CT system 10 collects image data C12 by performing a scan A12 on the subject P2. For example, first, the scan function 144a rotates the X-ray tube 111 around the subject P2 and irradiates the subject P2 with X-rays at a dose of X1, thereby generating projection data for each of a plurality of views. Collect. Hereinafter, the plurality of projection data collected by scan A12 will be referred to as projection data set B12. Then, the processing function 144b generates image data C12 shown in FIG. 2 by executing a reconstruction process based on the collected projection data set B12. That is, the image data C12 is three-dimensional image data collected by three-dimensional scanning. For example, the image data C12 is CT image data collected through a main scan in the examination of the subject P2.

また、例えば、X線CTシステム10は、被検体P2についてスキャンA13を実行することで、画像データC13を収集する。一例を挙げると、まず、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X2のX線を被検体P2に照射することで、複数のビューのそれぞれについて投影データを収集する。ここで、線量X2は、線量X1よりも高い線量である。以下、スキャンA13により収集された複数の投影データを、投影データセットB13と記載する。そして、処理機能144bは、収集された投影データセットB13に基づく再構成処理を実行することにより、図2に示す画像データC13を生成する。即ち、画像データC13は、3次元のスキャンにより収集された3次元画像データである。一例を挙げると、画像データC13は、被検体P2に対する検査において、本スキャンにより収集されたCT画像データである。 Further, for example, the X-ray CT system 10 collects image data C13 by performing a scan A13 on the subject P2. For example, first, the scan function 144a rotates the X-ray tube 111 around the subject P2 and irradiates the subject P2 with X-rays at a dose of X2, thereby generating projection data for each of a plurality of views. Collect. Here, the dose X2 is higher than the dose X1. Hereinafter, the plurality of projection data collected by scan A13 will be referred to as projection data set B13. Then, the processing function 144b generates image data C13 shown in FIG. 2 by executing a reconstruction process based on the collected projection data set B13. That is, the image data C13 is three-dimensional image data collected by three-dimensional scanning. For example, the image data C13 is CT image data collected by the main scan in the examination of the subject P2.

また、画像データC13は、画像データC12と比較して、高線量のX線を用いて収集された画像データである。即ち、画像データC13は、高線量のX線を用いて収集された質の高い画像データである。例えば、画像データC13においては、画像データC12と比較して、アーチファクトやノイズが低減されている。 Furthermore, the image data C13 is image data collected using a higher dose of X-rays than the image data C12. That is, the image data C13 is high-quality image data collected using high-dose X-rays. For example, in image data C13, artifacts and noise are reduced compared to image data C12.

処理機能144bは、図2に示す画像データC11及び画像データC12を入力側データ、画像データC13を出力側データとした機械学習を実行することにより、学習済みモデルM1を生成する。ここで、学習済みモデルM1は、例えば、ニューラルネットワーク(Neural Network)により構成することができる。 The processing function 144b generates the learned model M1 by executing machine learning using the image data C11 and image data C12 shown in FIG. 2 as input data and the image data C13 as output data. Here, the learned model M1 can be configured by, for example, a neural network.

ニューラルネットワークとは、層状に並べた隣接層間が結合した構造を有し、情報が入力層側から出力層側に伝播するネットワークである。例えば、処理機能144bは、画像データC11、画像データC12及び画像データC13を用いて多層のニューラルネットワークについて深層学習(ディープラーニング)を実行することで、学習済みモデルM1を生成する。なお、多層のニューラルネットワークは、例えば、入力層と、複数の中間層(隠れ層)と、出力層とにより構成される。 A neural network is a network that has a structure in which adjacent layers arranged in a layered manner are connected, and information is propagated from the input layer side to the output layer side. For example, the processing function 144b generates the trained model M1 by performing deep learning on a multilayer neural network using the image data C11, image data C12, and image data C13. Note that a multilayer neural network includes, for example, an input layer, a plurality of intermediate layers (hidden layers), and an output layer.

一例を挙げると、処理機能144bは、画像データC11及び画像データC12を入力側データとして、ニューラルネットワークに入力する。ここで、ニューラルネットワークにおいては、入力層側から出力層側に向かって一方向に隣接層間でのみ結合しながら情報が伝播し、出力層からは、画像データC13を推定した画像データが出力される。即ち、ニューラルネットワークにおいては、画像データC12の質を向上させる処理が行われ、出力層からは、画像データC12より質の高い画像データC13を推定した画像データが出力される。なお、入力層側から出力層側に向かって一方向に情報が伝播するニューラルネットワークについては、畳み込みニューラルネットワーク(CNN:Convlutional Neural Network)とも呼ばれる。 For example, the processing function 144b inputs the image data C11 and the image data C12 to the neural network as input data. Here, in the neural network, information is propagated in one direction from the input layer side to the output layer side while connecting only between adjacent layers, and the output layer outputs image data obtained by estimating the image data C13. . That is, in the neural network, processing is performed to improve the quality of the image data C12, and the output layer outputs image data in which image data C13, which is higher in quality than the image data C12, is estimated. Note that a neural network in which information propagates in one direction from the input layer side to the output layer side is also called a convolutional neural network (CNN).

処理機能144bは、入力側データを入力した際にニューラルネットワークが好ましい結果を出力することができるよう、ニューラルネットワークのパラメータを調整することで、学習済みモデルM1を生成する。例えば、処理機能144bは、画像データ間の近さを表す関数(誤差関数)を用いて、ニューラルネットワークのパラメータを調整する。 The processing function 144b generates the learned model M1 by adjusting the parameters of the neural network so that the neural network can output a preferable result when input data is input. For example, the processing function 144b adjusts the parameters of the neural network using a function (error function) representing the closeness between image data.

一例を挙げると、処理機能144bは、画像データC13と、ニューラルネットワークが推定した画像データとの間の近さを示す誤差関数E1を算出する。また、処理機能144bは、画像データC11と、ニューラルネットワークが推定した画像データとの間の整合性を示す誤差関数E2を算出する。例えば、処理機能144bは、ニューラルネットワークが推定した画像データを、画像データC11を収集した際のX線照射方向に応じて順投影することで、2次元の画像データC14を生成する。また、処理機能144bは、生成した画像データC14と画像データC11とについて、画像データ間の近さを示す誤差関数E2を算出する。 For example, the processing function 144b calculates an error function E1 indicating the closeness between the image data C13 and the image data estimated by the neural network. Furthermore, the processing function 144b calculates an error function E2 that indicates the consistency between the image data C11 and the image data estimated by the neural network. For example, the processing function 144b generates two-dimensional image data C14 by forward projecting the image data estimated by the neural network according to the X-ray irradiation direction when the image data C11 was collected. Furthermore, the processing function 144b calculates an error function E2 indicating the closeness between the generated image data C14 and image data C11.

更に、処理機能144bは、算出した誤差関数が極小となるように、ニューラルネットワークのパラメータを調整する。例えば、処理機能144bは、誤差関数E1と誤差関数E2との和が極小となるように、ニューラルネットワークのパラメータを調整する。これにより、処理機能144bは、2次元の画像データ及び3次元の画像データの入力を受け付けて、入力された3次元の画像データの質を向上させるように機能付けられた学習済みモデルM1を生成する。また、処理機能144bは、生成した学習済みモデルM1を、メモリ141に記憶させる。 Furthermore, the processing function 144b adjusts the parameters of the neural network so that the calculated error function becomes minimum. For example, the processing function 144b adjusts the parameters of the neural network so that the sum of the error function E1 and the error function E2 becomes minimum. Thereby, the processing function 144b receives input of two-dimensional image data and three-dimensional image data, and generates a trained model M1 equipped with a function to improve the quality of the input three-dimensional image data. do. Furthermore, the processing function 144b stores the generated trained model M1 in the memory 141.

そして、被検体P1に対するスキャンが実行された際、処理機能144bは、メモリ141から学習済みモデルM1を読み出し、読み出した学習済みモデルM1を用いて、被検体P1から収集されたCT画像データの質を向上させる。以下、被検体P1に対して実行されるスキャン、及び、学習済みモデルM1を用いたCT画像データの補正処理について、図3を用いて説明する。図3は、第1の実施形態に係る学習済みモデルM1の使用例を示す図である。 Then, when the scan for the subject P1 is executed, the processing function 144b reads out the learned model M1 from the memory 141, and uses the read out learned model M1 to improve the quality of the CT image data collected from the subject P1. improve. The scan performed on the subject P1 and the correction process of CT image data using the learned model M1 will be described below with reference to FIG. FIG. 3 is a diagram showing an example of how the trained model M1 according to the first embodiment is used.

まず、スキャン機能144aは、スキャンA21を実行する。具体的には、スキャン機能144aは、図3に示すように、X線管111の位置を被検体P1の周囲で回転させないで、X線管111の位置を被検体P1に対して相対的に移動させながら、被検体P1に対してX線を照射させる。これにより、スキャン機能144aは、被検体P1の体軸方向に沿った範囲R1にX線を照射して、投影データセットB21を収集する。例えば、スキャン機能144aは、X線管111の位置を所定の回転角度に固定し、天板133をZ軸方向に移動させて、投影データセットB21を収集する。また、処理機能144bは、スキャンA21により収集された投影データセットB21に基づいて、2次元の画像データC21を生成する。 First, the scan function 144a executes scan A21. Specifically, as shown in FIG. 3, the scan function 144a changes the position of the X-ray tube 111 relative to the subject P1 without rotating the position of the X-ray tube 111 around the subject P1. While moving, the subject P1 is irradiated with X-rays. Thereby, the scan function 144a irradiates the range R1 along the body axis direction of the subject P1 with X-rays and collects the projection data set B21. For example, the scan function 144a fixes the position of the X-ray tube 111 at a predetermined rotation angle, moves the top plate 133 in the Z-axis direction, and collects the projection data set B21. Furthermore, the processing function 144b generates two-dimensional image data C21 based on the projection data set B21 collected by the scan A21.

なお、スキャンA21は、第1スキャンの一例である。また、範囲R1は、第1の範囲の一例である。また、投影データセットB21は、第1投影データセットの一例である。また、画像データC21は、第1画像データの一例である。処理機能144bは、投影データセットB21の全部を用いて画像データC21を生成してもよいし、投影データセットB21の一部を用いて画像データC21を生成してもよい。 Note that scan A21 is an example of the first scan. Furthermore, range R1 is an example of a first range. Furthermore, the projection data set B21 is an example of the first projection data set. Further, the image data C21 is an example of first image data. The processing function 144b may generate the image data C21 using the entire projection data set B21, or may generate the image data C21 using a part of the projection data set B21.

次に、制御機能144cは、画像データC21に基づく参照画像をディスプレイ142に表示させる。また、制御機能144cは、参照画像を参照したユーザからの入力操作を受け付けることで、スキャンA22のスキャン範囲である範囲R2を設定する。なお、スキャンA22は、第2スキャンの一例である。また、範囲R2は、第2の範囲の一例である。 Next, the control function 144c causes the display 142 to display a reference image based on the image data C21. Further, the control function 144c sets a range R2, which is the scan range of the scan A22, by accepting an input operation from a user who has referred to the reference image. Note that scan A22 is an example of the second scan. Furthermore, range R2 is an example of a second range.

上述したように、範囲R2は、投影データセットB21の少なくとも一部に基づいて生成され、ディスプレイ142に表示された位置決め画像データに対する操作により設定される。即ち、スキャンA21は、範囲R2を設定するための位置決め撮影である。従って、スキャンA21の範囲R1は、診断対象の臓器等を含むように、比較的広域に設定されることが好ましい。範囲R2は、範囲R1において設定されるものであるため、通常は図3に示すように、範囲R1より狭い範囲となる。 As described above, the range R2 is generated based on at least a portion of the projection data set B21 and is set by operating the positioning image data displayed on the display 142. That is, scan A21 is positioning photographing for setting range R2. Therefore, it is preferable that the range R1 of the scan A21 is set to be relatively wide so as to include the organ to be diagnosed. Since range R2 is set within range R1, it is usually narrower than range R1, as shown in FIG.

次に、スキャン機能144aは、参照画像に設定された範囲R2に対して、スキャンA22を実行する。具体的には、スキャン機能144aは、図3に示すように、X線管111の位置を被検体P1の周囲で回転させながら、被検体P1に対してX線を照射させる。これにより、スキャン機能144aは、被検体P1の体軸方向に沿った範囲R2にX線を照射して、投影データセットB22を収集する。例えば、スキャン機能144aは、コンベンショナルスキャン、ヘリカルスキャン、ステップアンドシュートといった方式のスキャンを実行することで、投影データセットB22を収集する。なお、投影データセットB22は、第2投影データセットの一例である。 Next, the scan function 144a performs a scan A22 on the range R2 set as the reference image. Specifically, as shown in FIG. 3, the scan function 144a irradiates the subject P1 with X-rays while rotating the position of the X-ray tube 111 around the subject P1. Thereby, the scan function 144a irradiates the range R2 along the body axis direction of the subject P1 with X-rays and collects the projection data set B22. For example, the scan function 144a collects the projection data set B22 by performing a conventional scan, a helical scan, or a step-and-shoot scan. Note that the projection data set B22 is an example of the second projection data set.

また、処理機能144bは、スキャンA22により収集された投影データセットB22に基づいて、3次元の画像データC22を生成する。なお、画像データC22は、第2画像データの一例である。例えば、処理機能144bは、投影データセットB22に基づいて、フィルタ補正逆投影法や逐次近似再構成法、逐次近似応用再構成法、DLR法といった再構成処理を実行することにより、3次元の画像データC22を再構成する。即ち、スキャンA22は、CT画像データ(ボリュームデータ)を収集するための本スキャンである。 Furthermore, the processing function 144b generates three-dimensional image data C22 based on the projection data set B22 collected by scan A22. Note that the image data C22 is an example of second image data. For example, the processing function 144b performs reconstruction processing such as a filtered back projection method, a successive approximation reconstruction method, a successive approximation applied reconstruction method, and a DLR method based on the projection data set B22, thereby creating a three-dimensional image. Data C22 is reconstructed. That is, scan A22 is a main scan for collecting CT image data (volume data).

なお、スキャン機能144aは、被検体P1の心拍又は呼吸の周期に応じて、スキャンA21とスキャンA22とを同期させて実行することとしてもよい。即ち、スキャン機能144aは、心拍又は呼吸による周期的な動きによってスキャンA21とスキャンA22との間の位置ずれが生じないように、スキャンA21とスキャンA22とを同期させて実行することとしてもよい。 Note that the scan function 144a may execute the scan A21 and the scan A22 in synchronization according to the heartbeat or breathing cycle of the subject P1. That is, the scan function 144a may execute scan A21 and scan A22 in synchronization so that positional deviation between scan A21 and scan A22 does not occur due to periodic movements due to heartbeat or respiration.

例えば、スキャン機能144aは、スキャンA21及びスキャンA22と並行して、被検体P1の心電波形を取得する。例えば、スキャン機能144aは、被検体P1に装着した心電計により、被検体P1の心電波形を取得する。そして、スキャン機能144aは、スキャンA21における心電波形に対して、スキャンA22における心電波形の位相が一致するように、スキャンA22を実行する。 For example, the scan function 144a acquires the electrocardiographic waveform of the subject P1 in parallel with scan A21 and scan A22. For example, the scan function 144a acquires an electrocardiographic waveform of the subject P1 using an electrocardiograph attached to the subject P1. Then, the scan function 144a executes scan A22 such that the phase of the electrocardiographic waveform in scan A22 matches the phase of the electrocardiographic waveform in scan A21.

また、例えば、スキャン機能144aは、スキャンA21及びスキャンA22と並行して、被検体P1の呼吸波形を取得する。例えば、スキャン機能144aは、呼吸センサにより被検体P1の呼吸波形を取得する。一例を挙げると、スキャン機能144aは、呼吸センサとして、レーザ発生器と受光器を用いて呼吸波形を取得する。具体的には、スキャン機能144aは、被検体P1の腹部表面からの反射光の信号を処理し、レーザ照射から反射光受光までの時間又は反射光信号の位相変化に基づいて、レーザ発生器と被検体の腹部表面との間の距離をリアルタイムに繰り返し演算することで、呼吸波形を取得する。なお、呼吸センサの例はこれに限定されるものではなく、スキャン機能144aは、例えば、被検体P1の腹部に装着された圧力センサや、被検体P1を撮影する光学カメラ等により、呼吸波形を取得することとしても構わない。そして、スキャン機能144aは、スキャンA21における呼吸波形に対して、スキャンA22における呼吸波形の位相が一致するように、スキャンA22を実行する。 Further, for example, the scan function 144a acquires the respiratory waveform of the subject P1 in parallel with the scan A21 and the scan A22. For example, the scan function 144a acquires the respiratory waveform of the subject P1 using a respiratory sensor. For example, the scan function 144a acquires a respiratory waveform using a laser generator and a light receiver as a respiratory sensor. Specifically, the scan function 144a processes the reflected light signal from the abdominal surface of the subject P1, and uses the laser generator and the A respiratory waveform is obtained by repeatedly calculating the distance to the subject's abdominal surface in real time. Note that the example of the respiratory sensor is not limited to this, and the scan function 144a may detect the respiratory waveform using, for example, a pressure sensor attached to the abdomen of the subject P1 or an optical camera that photographs the subject P1. It is okay to obtain it. Then, the scan function 144a executes scan A22 such that the phase of the respiratory waveform in scan A22 matches the phase of the respiratory waveform in scan A21.

また、処理機能144bは、スキャンA21により収集された投影データセットB21と、スキャンA22により収集された投影データセットB22との位置合わせを行なうこととしてもよい。或いは、処理機能144bは、スキャンA21により収集された画像データC21と、スキャンA22により収集された画像データC22との位置合わせを行なうこととしてもよい。これにより、処理機能144bは、スキャンA21とスキャンA22との間に生じる被検体P1の体動等の影響を低減することができる。 Furthermore, the processing function 144b may align the projection data set B21 collected by scan A21 and the projection data set B22 collected by scan A22. Alternatively, the processing function 144b may align the image data C21 collected by scan A21 and the image data C22 collected by scan A22. Thereby, the processing function 144b can reduce the influence of the body movement of the subject P1 that occurs between the scan A21 and the scan A22.

次に、処理機能144bは、画像データC22の質を評価する。例えば、処理機能144bは、画像データC22について信号雑音比(signal-noise ratio)を算出し、信号雑音比を閾値と比較することで、画像データC22の質を評価する。また、例えば、制御機能144cは、画像データC22に基づいて表示用画像を生成し、ディスプレイ142に表示させる。そして、処理機能144bは、表示用画像を参照したユーザから、画像データC22の質について評価の入力を受け付ける。 Next, the processing function 144b evaluates the quality of the image data C22. For example, the processing function 144b evaluates the quality of the image data C22 by calculating a signal-to-noise ratio for the image data C22 and comparing the signal-to-noise ratio with a threshold value. Further, for example, the control function 144c generates a display image based on the image data C22, and causes the display 142 to display the generated image. Then, the processing function 144b receives an input of evaluation regarding the quality of the image data C22 from the user who has referred to the display image.

次に、処理機能144bは、画像データC22の質の評価結果に応じて、画像データC22の補正処理を行なうか否かを判定する。即ち、画像データC22の質が十分に高い場合には、処理機能144bは、後述する補正処理を省略して、処理を終了することとしても構わない。なお、以下では、画像データC22の補正処理を行なう場合について説明する。 Next, the processing function 144b determines whether or not to perform correction processing on the image data C22, depending on the evaluation result of the quality of the image data C22. That is, if the quality of the image data C22 is sufficiently high, the processing function 144b may omit the correction processing described later and terminate the processing. Note that below, a case will be described in which correction processing is performed on the image data C22.

画像データC22の補正処理を行なう場合、処理機能144bは、メモリ141から読み出した学習済みモデルM1に対して、画像データC21と画像データC22とを入力する。これによって、学習済みモデルM1は、図3に示すように、画像データC22より質が高い画像データC23を出力する。即ち、学習済みモデルM1は、画像データC21との整合性を維持しつつ画像データC22を補正することで、図3に示す画像データC23を生成する。なお、画像データC23は、第3画像データの一例である。 When performing correction processing on the image data C22, the processing function 144b inputs the image data C21 and the image data C22 to the learned model M1 read from the memory 141. As a result, the trained model M1 outputs image data C23 having higher quality than the image data C22, as shown in FIG. That is, the learned model M1 generates the image data C23 shown in FIG. 3 by correcting the image data C22 while maintaining consistency with the image data C21. Note that the image data C23 is an example of third image data.

なお、処理機能144bは、学習済みモデルM1に対して、画像データC21の全部を入力してもよいし、一部のみを入力してもよい。例えば、処理機能144bは、画像データC21のうち、範囲R2に含まれる部分のみを学習済みモデルM1に入力してもよい。換言すると、処理機能144bは、範囲R1から収集された投影データセットB21の少なくとも一部に基づく画像データC21を学習済みモデルM1に入力する。 Note that the processing function 144b may input all or only a part of the image data C21 to the learned model M1. For example, the processing function 144b may input only the portion included in the range R2 of the image data C21 to the trained model M1. In other words, the processing function 144b inputs the image data C21 based on at least a portion of the projection data set B21 collected from the range R1 into the trained model M1.

そして、制御機能144cは、画像データC23に基づく表示用画像をディスプレイ142に表示させる。例えば、制御機能144cは、まず、画像データC23に対するレンダリング処理を実行する。ここで、レンダリング処理の例としては、断面再構成法(MPR:Multi Planar Reconstruction)により、画像データC23から任意断面の2次元画像を生成する処理が挙げられる。また、レンダリング処理の他の例としては、ボリュームレンダリング(Volume Rendering)処理や、最大値投影法(MIP:Maximum Intensity Projection)により、画像データC23から、3次元の情報を反映した2次元画像を生成する処理が挙げられる。そして、制御機能144cは、レンダリング処理により生成した表示用画像をディスプレイ142に表示させる。 The control function 144c then causes the display 142 to display a display image based on the image data C23. For example, the control function 144c first performs rendering processing on the image data C23. Here, an example of the rendering process is a process of generating a two-dimensional image of an arbitrary cross section from the image data C23 using a cross-sectional reconstruction method (MPR: Multi Planar Reconstruction). Further, as another example of rendering processing, a two-dimensional image reflecting three-dimensional information is generated from the image data C23 by volume rendering processing or maximum intensity projection (MIP). An example of this is the process of The control function 144c then causes the display 142 to display the display image generated by the rendering process.

次に、X線CTシステム10による処理の手順の一例を、図4を用いて説明する。図4は、第1の実施形態に係るX線CTシステム10の処理の一連の流れを説明するためのフローチャートである。 Next, an example of a processing procedure by the X-ray CT system 10 will be described using FIG. 4. FIG. 4 is a flowchart for explaining a series of processing steps of the X-ray CT system 10 according to the first embodiment.

ステップS101及びステップS106は、スキャン機能144aに対応する。ステップS102、ステップS107、ステップS108、ステップS109、ステップS110及びステップS111は、処理機能144bに対応する。ステップS103、ステップS104、ステップS105及びステップS112は、制御機能144cに対応する。 Step S101 and step S106 correspond to the scan function 144a. Step S102, step S107, step S108, step S109, step S110, and step S111 correspond to the processing function 144b. Step S103, step S104, step S105, and step S112 correspond to the control function 144c.

まず、処理回路144は、被検体P1に対してスキャンA21を実行し、投影データセットB21を収集する(ステップS101)。次に、処理回路144は、投影データセットB21に基づいて画像データC21を生成する(ステップS102)。次に、処理回路144は、画像データC21に対するレンダリング処理を行なうことで参照画像を生成し(ステップS103)、生成した参照画像をディスプレイ142に表示させる(ステップS104)。 First, the processing circuit 144 executes a scan A21 on the subject P1 and collects a projection data set B21 (step S101). Next, the processing circuit 144 generates image data C21 based on the projection data set B21 (step S102). Next, the processing circuit 144 generates a reference image by performing rendering processing on the image data C21 (step S103), and displays the generated reference image on the display 142 (step S104).

ここで、処理回路144は、参照画像を参照したユーザによりスキャン範囲が設定されたか否かを判定し(ステップS105)、スキャン範囲が設定されていない場合には待機状態となる(ステップS105否定)。一方で、スキャン範囲が設定された場合(ステップS105肯定)、処理回路144は、参照画像に設定されたスキャン範囲に対してスキャンA22を実行し、投影データセットB22を収集する(ステップS106)。次に、処理回路144は、投影データセットB22に基づいて画像データC22を生成する(ステップS107)。 Here, the processing circuit 144 determines whether or not a scan range has been set by the user who referred to the reference image (step S105), and if the scan range has not been set, the processing circuit 144 enters a standby state (step S105 negative). . On the other hand, if the scan range has been set (Yes in step S105), the processing circuit 144 executes scan A22 on the scan range set in the reference image and collects projection data set B22 (step S106). Next, the processing circuit 144 generates image data C22 based on the projection data set B22 (step S107).

次に、処理回路144は、画像データC22の質を評価し(ステップS108)、評価結果に応じて、画像データC22について補正処理を行なうか否かを判定する(ステップS109)。補正処理を行なう場合(ステップS109肯定)、処理回路144は、学習済みモデルM1に対して画像データC21及び画像データC22を入力し(ステップS110)、画像データC23を生成する(ステップS111)。 Next, the processing circuit 144 evaluates the quality of the image data C22 (step S108), and determines whether or not to perform correction processing on the image data C22 according to the evaluation result (step S109). When performing the correction process (Yes at step S109), the processing circuit 144 inputs the image data C21 and the image data C22 to the learned model M1 (step S110), and generates the image data C23 (step S111).

そして、処理回路144は、表示用画像を生成してディスプレイ142に表示させ(ステップS112)、処理を終了する。なお、画像データC23を生成していた場合、処理回路144は、ステップS112において、画像データC23に基づく表示用画像をディスプレイ142に表示させる。一方で、補正処理を行なわなかった場合(ステップS109否定)、処理回路144は、ステップS112において、画像データC22に基づく表示用画像をディスプレイ142に表示させる。 Then, the processing circuit 144 generates a display image and displays it on the display 142 (step S112), and ends the process. Note that if the image data C23 has been generated, the processing circuit 144 causes the display 142 to display a display image based on the image data C23 in step S112. On the other hand, if the correction process is not performed (No in step S109), the processing circuit 144 causes the display 142 to display a display image based on the image data C22 in step S112.

なお、上述したステップS108及びステップS109については省略してもよい。即ち、処理回路144は、画像データC22の質に関わらず、学習済みモデルM1に対して画像データC21及び画像データC22を入力し、画像データC23を生成することとしても構わない。 Note that Step S108 and Step S109 described above may be omitted. That is, the processing circuit 144 may input the image data C21 and the image data C22 to the learned model M1 and generate the image data C23, regardless of the quality of the image data C22.

上述したように、第1の実施形態によれば、スキャン機能144aは、被検体P1の体軸方向に沿った範囲R1にX線を照射することで投影データセットB21を収集するスキャンA21を実行する。また、スキャン機能144aは、スキャンA21の後で、被検体P1の体軸方向に沿った範囲R2にX線を照射することで投影データセットB22を収集するスキャンA22を実行する。また、処理機能144bは学習済みモデルM1に対して、投影データセットB21の少なくとも一部に基づく画像データC21と、投影データセットB22に基づく画像データC22とを入力することにより、画像データC22より質が高い画像データC23を生成する。即ち、第1の実施形態に係るX線CTシステム10は、画像データC22より質の高いCT画像データである、画像データC23を生成することができる。 As described above, according to the first embodiment, the scan function 144a executes the scan A21 to collect the projection data set B21 by irradiating the range R1 along the body axis direction of the subject P1 with X-rays. do. Further, after the scan A21, the scan function 144a executes a scan A22 that collects a projection data set B22 by irradiating a range R2 along the body axis direction of the subject P1 with X-rays. Furthermore, the processing function 144b inputs image data C21 based on at least a part of the projection data set B21 and image data C22 based on the projection data set B22 to the trained model M1, thereby improving the quality of the image data C22. image data C23 with a high value is generated. That is, the X-ray CT system 10 according to the first embodiment can generate image data C23, which is CT image data of higher quality than image data C22.

特に、X線CTシステム10は、画像データC22のみならず、画像データC21に基づいて、画像データC23を生成する。即ち、X線CTシステム10においては、画像データC21から解剖学的な追加の情報を得ることができるため、画像データC22のみを使用する場合と比較してより適切な補正処理を行ない、画像データC23の質を更に向上させることができる。 In particular, the X-ray CT system 10 generates image data C23 based not only on the image data C22 but also on the image data C21. That is, in the X-ray CT system 10, since additional anatomical information can be obtained from the image data C21, more appropriate correction processing is performed compared to the case where only the image data C22 is used, and the image data The quality of C23 can be further improved.

また、X線CTシステム10は、スキャンA21の結果に基づいて、スキャンA22における範囲R2を設定するとともに、CT画像データの質を向上させる。即ち、X線CTシステム10は、スキャンA21による被検体P1の被ばくをより有意義なものとすることができる。なお、スキャンA21は、スキャンA22における範囲R2を設定するための位置決め撮影である。即ち、スキャンA21は、通常の処理フローにおいてスキャンA22の前に実行されるものであり、処理フローを複雑化させるものではない。 Further, the X-ray CT system 10 sets the range R2 in the scan A22 based on the result of the scan A21, and improves the quality of the CT image data. That is, the X-ray CT system 10 can make the exposure of the subject P1 due to the scan A21 more meaningful. Note that scan A21 is positioning imaging for setting range R2 in scan A22. That is, scan A21 is executed before scan A22 in the normal processing flow, and does not complicate the processing flow.

(第2の実施形態)
上述した第1の実施形態では、学習済みモデルM1に対して画像データC21及び画像データC22を入力することで、質の高いCT画像データを生成する場合について説明した。これに対し、第2の実施形態では、後述する学習済みモデルM2に対して投影データセットB21及び投影データセットB22を入力することで、質の高いCT画像データを生成する場合について説明する。
(Second embodiment)
In the first embodiment described above, a case has been described in which high-quality CT image data is generated by inputting the image data C21 and the image data C22 to the trained model M1. In contrast, in the second embodiment, a case will be described in which high-quality CT image data is generated by inputting a projection data set B21 and a projection data set B22 to a learned model M2, which will be described later.

第2の実施形態に係るX線CTシステム10は、図1に示した第1の実施形態に係るX線CTシステム10と同様の構成を有する。以下、第1の実施形態において説明した点については図1と同一の符号を付し、説明を省略する。 The X-ray CT system 10 according to the second embodiment has the same configuration as the X-ray CT system 10 according to the first embodiment shown in FIG. Hereinafter, the same reference numerals as in FIG. 1 will be given to the points explained in the first embodiment, and the explanation will be omitted.

まず、処理機能144bは、学習済みモデルM2を生成してメモリ141に格納する。例えば、処理機能144bは、学習済みモデルM2の生成に用いる学習データとして、投影データセットB11、投影データセットB12及び投影データセットB13を取得する。 First, the processing function 144b generates a learned model M2 and stores it in the memory 141. For example, the processing function 144b acquires the projection data set B11, the projection data set B12, and the projection data set B13 as learning data used to generate the learned model M2.

例えば、スキャン機能144aは、X線管111の位置を所定の回転角度に固定し、天板133をZ軸方向に移動させながらX線管111からのX線を被検体P2に照射することで、投影データセットB11を収集する。また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1のX線を被検体P2に照射することで、投影データセットB12を収集する。また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1よりも高い線量X2のX線を被検体P2に照射することで、投影データセットB13を収集する。即ち、投影データセットB13は、投影データセットB12より質の高い投影データセットである。 For example, the scan function 144a fixes the position of the X-ray tube 111 at a predetermined rotation angle and irradiates the subject P2 with X-rays from the X-ray tube 111 while moving the top plate 133 in the Z-axis direction. , collects a projection data set B11. Furthermore, the scan function 144a collects a projection data set B12 by irradiating the subject P2 with X-rays having a dose of X1 while rotating the X-ray tube 111 around the subject P2. Furthermore, the scan function 144a collects the projection data set B13 by irradiating the subject P2 with X-rays at a dose X2 higher than the dose X1 while rotating the X-ray tube 111 around the subject P2. That is, the projection data set B13 is a projection data set of higher quality than the projection data set B12.

そして、処理機能144bは、投影データセットB11及び投影データセットB12を入力側データ、投影データセットB13を出力側データとした機械学習を実行することにより、学習済みモデルM2を生成する。ここで、学習済みモデルM2は、例えば、ニューラルネットワークにより構成することができる。例えば、処理機能144bは、投影データセットB11、投影データセットB12及び投影データセットB13を用いて多層のニューラルネットワークについて深層学習を実行することで、学習済みモデルM2を生成する。 Then, the processing function 144b generates the learned model M2 by executing machine learning using the projection data set B11 and the projection data set B12 as input data and the projection data set B13 as output data. Here, the learned model M2 can be configured by, for example, a neural network. For example, the processing function 144b generates the trained model M2 by performing deep learning on a multilayer neural network using the projection data set B11, the projection data set B12, and the projection data set B13.

一例を挙げると、処理機能144bは、投影データセットB11及び投影データセットB12を入力側データとして、ニューラルネットワークに入力する。ここで、ニューラルネットワークにおいては、入力層側から出力層側に向かって一方向に隣接層間でのみ結合しながら情報が伝播し、出力層からは、投影データセットB13を推定した投影データセットが出力される。即ち、ニューラルネットワークにおいては、投影データセットB12の質を向上させる処理が行われ、出力層からは、投影データセットB12より質の高い投影データセットB13を推定した投影データセットが出力される。 For example, the processing function 144b inputs the projection data set B11 and the projection data set B12 as input side data to the neural network. Here, in the neural network, information is propagated in one direction from the input layer side to the output layer side while connecting only between adjacent layers, and the output layer outputs a projection dataset that estimates the projection dataset B13. be done. That is, in the neural network, processing is performed to improve the quality of the projection data set B12, and the output layer outputs a projection data set in which the projection data set B13, which is higher in quality than the projection data set B12, is estimated.

処理機能144bは、入力側データを入力した際にニューラルネットワークが好ましい結果を出力することができるよう、ニューラルネットワークのパラメータを調整することで、学習済みモデルM2を生成する。例えば、処理機能144bは、投影データセット間の近さを表す誤差関数を用いて、ニューラルネットワークのパラメータを調整する。 The processing function 144b generates the trained model M2 by adjusting the parameters of the neural network so that the neural network can output a preferable result when input side data is input. For example, processing function 144b adjusts the parameters of the neural network using an error function that represents the closeness between the projection data sets.

一例を挙げると、処理機能144bは、投影データセットB13と、ニューラルネットワークが推定した投影データセットとの間の近さを示す誤差関数E3を算出する。また、処理機能144bは、投影データセットB11と、ニューラルネットワークが推定した画像データとの間の整合性を示す誤差関数E4を算出する。そして、処理機能144bは、算出した誤差関数が極小となるように、ニューラルネットワークのパラメータを調整する。例えば、処理機能144bは、誤差関数E3と誤差関数E4との和が極小となるように、ニューラルネットワークのパラメータを調整する。これにより、処理機能144bは、2次元の投影データセット及び3次元の投影データセットの入力を受け付けて、入力された3次元の投影データセットの質を向上させるように機能付けられた学習済みモデルM2を生成する。また、処理機能144bは、生成した学習済みモデルM2を、メモリ141に記憶させる。 As an example, the processing function 144b calculates an error function E3 indicating the closeness between the projection data set B13 and the projection data set estimated by the neural network. The processing function 144b also calculates an error function E4 that indicates the consistency between the projection data set B11 and the image data estimated by the neural network. Then, the processing function 144b adjusts the parameters of the neural network so that the calculated error function becomes minimum. For example, the processing function 144b adjusts the parameters of the neural network so that the sum of the error function E3 and the error function E4 becomes minimum. Thereby, the processing function 144b accepts input of a two-dimensional projection data set and a three-dimensional projection data set, and a trained model equipped with a function to improve the quality of the input three-dimensional projection data set. Generate M2. Furthermore, the processing function 144b stores the generated learned model M2 in the memory 141.

そして、被検体P1に対するスキャンが実行された際、処理機能144bは、メモリ141から学習済みモデルM2を読み出し、読み出した学習済みモデルM2を用いて、被検体P1から収集された投影データセットの質を向上させ、ひいては投影データセットに基づくCT画像データの質を向上させる。 Then, when the scan for the subject P1 is executed, the processing function 144b reads out the learned model M2 from the memory 141, and uses the read out learned model M2 to improve the quality of the projection data set collected from the subject P1. and thus improve the quality of CT image data based on projection data sets.

例えば、スキャン機能144aは、まず、図3に示したスキャンA21を実行し、投影データセットB21を収集する。また、処理機能144bは、スキャンA21により収集された投影データセットB21に基づいて、画像データC21を生成する。次に、制御機能144cは、画像データC21に基づく参照画像を参照したユーザからの入力操作を受け付けることで、スキャンA22のスキャン範囲である範囲R2を設定する。次に、スキャン機能144aは、参照画像に設定された範囲R2に対してスキャンA22を実行し、投影データセットB22を収集する。 For example, the scan function 144a first executes the scan A21 shown in FIG. 3 and collects the projection data set B21. Furthermore, the processing function 144b generates image data C21 based on the projection data set B21 collected by scan A21. Next, the control function 144c sets a range R2, which is the scan range of the scan A22, by accepting an input operation from the user who referred to the reference image based on the image data C21. Next, the scan function 144a executes a scan A22 on the range R2 set in the reference image, and collects a projection data set B22.

次に、処理機能144bは、投影データセットB22の質を評価する。例えば、処理機能144bは、投影データセットB22について信号雑音比を算出し、信号雑音比を閾値と比較することで、投影データセットB22の質を評価する。また、例えば、制御機能144cは、投影データセットB22に基づく画像(例えば、サイノグラム等)をディスプレイ142に表示させる。そして、処理機能144bは、投影データセットB22に基づく画像を参照したユーザから、投影データセットB22の質について評価の入力を受け付ける。 Processing function 144b then evaluates the quality of projection data set B22. For example, processing function 144b evaluates the quality of projection dataset B22 by calculating a signal-to-noise ratio for projection dataset B22 and comparing the signal-to-noise ratio with a threshold. Further, for example, the control function 144c causes the display 142 to display an image (for example, a sinogram, etc.) based on the projection data set B22. The processing function 144b then receives an input of evaluation regarding the quality of the projection data set B22 from the user who has viewed the image based on the projection data set B22.

次に、処理機能144bは、投影データセットB22の質の評価結果に応じて、投影データセットB22の補正処理を行なうか否かを判定する。即ち、投影データセットB22の質が十分に高い場合には、処理機能144bは、後述する補正処理を省略しても構わない。この場合、処理機能144bは、投影データセットB22に基づいて、質の高い画像データC22を再構成することができる。なお、投影データセットB22の補正処理を行なうか否かを判定する処理については、適宜省略することとして構わない。 Next, the processing function 144b determines whether or not to perform correction processing on the projection data set B22, depending on the evaluation result of the quality of the projection data set B22. That is, if the quality of the projection data set B22 is sufficiently high, the processing function 144b may omit the correction processing described later. In this case, the processing function 144b can reconstruct high quality image data C22 based on the projection data set B22. Note that the process of determining whether or not to perform the correction process on the projection data set B22 may be omitted as appropriate.

投影データセットB22の補正処理を行なう場合、処理機能144bは、メモリ141から読み出した学習済みモデルM2に対して、投影データセットB21と投影データセットB22とを入力する。これによって、学習済みモデルM2は、投影データセットB22より質が高い投影データセットB23を出力する。即ち、学習済みモデルM2は、投影データセットB21との整合性を維持しつつ投影データセットB22を補正することで、投影データセットB23を生成する。なお、投影データセットB23は、第3投影データセットの一例である。 When performing correction processing on the projection data set B22, the processing function 144b inputs the projection data set B21 and the projection data set B22 to the learned model M2 read from the memory 141. As a result, the trained model M2 outputs a projection data set B23 having higher quality than the projection data set B22. That is, the learned model M2 generates the projection data set B23 by correcting the projection data set B22 while maintaining consistency with the projection data set B21. Note that the projection data set B23 is an example of the third projection data set.

なお、処理機能144bは、学習済みモデルM2に対して、投影データセットB21の全部を入力してもよいし、一部のみを入力してもよい。例えば、処理機能144bは、投影データセットB21のうち、範囲R2に含まれる部分のみを学習済みモデルM2に入力してもよい。換言すると、処理機能144bは、範囲R1から収集された投影データセットB21の少なくとも一部を学習済みモデルM2に入力する。 Note that the processing function 144b may input the entire projection data set B21 to the learned model M2, or may input only a part of it. For example, the processing function 144b may input only the portion included in the range R2 of the projection data set B21 to the learned model M2. In other words, the processing function 144b inputs at least a portion of the projection data set B21 collected from the range R1 to the learned model M2.

また、処理機能144bは、学習済みモデルM2を用いて生成された投影データセットB23に基づいて、3次元の画像データC24を生成する。例えば、処理機能144bは、投影データセットB23に基づいて、フィルタ補正逆投影法や逐次近似再構成法、逐次近似応用再構成法、DLR法といった再構成処理を実行することにより、3次元の画像データC24を再構成する。ここで、画像データC24は、質の高い投影データセットB23に基づいて生成されるものであり、投影データセットB22に基づいて生成される画像データC22等と比較して質の高いCT画像データである。また、制御機能144cは、画像データC24に基づいて表示用画像を生成し、ディスプレイ142に表示させる。 Furthermore, the processing function 144b generates three-dimensional image data C24 based on the projection data set B23 generated using the learned model M2. For example, the processing function 144b performs reconstruction processing such as a filtered back projection method, a successive approximation reconstruction method, a successive approximation applied reconstruction method, and a DLR method based on the projection data set B23, thereby creating a three-dimensional image. Data C24 is reconstructed. Here, the image data C24 is generated based on the high quality projection data set B23, and is higher quality CT image data than the image data C22 etc. generated based on the projection data set B22. be. Furthermore, the control function 144c generates a display image based on the image data C24, and causes the display 142 to display the generated image.

上述したように、第2の実施形態によれば、スキャン機能144aは、被検体P1の体軸方向に沿った範囲R1にX線を照射することで投影データセットB21を収集するスキャンA21を実行する。また、スキャン機能144aは、スキャンA21の後で、被検体P1の体軸方向に沿った範囲R2にX線を照射することで投影データセットB22を収集するスキャンA22を実行する。また、処理機能144bは学習済みモデルM1に対して、投影データセットB21の少なくとも一部と、投影データセットB22とを入力することにより、投影データセットB22より質が高い投影データセットB23を生成する。そして、第2の実施形態に係るX線CTシステム10は、投影データセットB23に基づいて、質の高いCT画像データである、画像データC24を生成することができる。 As described above, according to the second embodiment, the scan function 144a executes the scan A21 to collect the projection data set B21 by irradiating the range R1 along the body axis direction of the subject P1 with X-rays. do. Further, after the scan A21, the scan function 144a executes a scan A22 that collects a projection data set B22 by irradiating a range R2 along the body axis direction of the subject P1 with X-rays. Furthermore, the processing function 144b generates a projection data set B23 having higher quality than the projection data set B22 by inputting at least a part of the projection data set B21 and the projection data set B22 to the learned model M1. . The X-ray CT system 10 according to the second embodiment can generate image data C24, which is high-quality CT image data, based on the projection data set B23.

特に、X線CTシステム10は、投影データセットB22のみならず、投影データセットB21に基づいて、投影データセットB23を生成する。即ち、X線CTシステム10においては、投影データセットB21から解剖学的な追加の情報を得ることができるため、投影データセットB22のみを使用する場合と比較してより適切な補正処理を行ない、投影データセットB23の質を更に向上させることができる。ひいては、X線CTシステム10は、投影データセットB23に基づく画像データC24の質を更に向上させることができる。 In particular, the X-ray CT system 10 generates the projection data set B23 based not only on the projection data set B22 but also on the projection data set B21. That is, in the X-ray CT system 10, since additional anatomical information can be obtained from the projection data set B21, more appropriate correction processing can be performed compared to the case where only the projection data set B22 is used. The quality of the projection data set B23 can be further improved. As a result, the X-ray CT system 10 can further improve the quality of the image data C24 based on the projection data set B23.

(第3の実施形態)
さて、これまで第1~第2の実施形態について説明したが、上述した実施形態以外にも、種々の異なる形態にて実施されてよいものである。
(Third embodiment)
Although the first and second embodiments have been described so far, the present invention may be implemented in various different forms in addition to the above-described embodiments.

例えば、これまで、スキャンA22のスキャン範囲である範囲R2をユーザが設定するものとして説明したが、実施形態はこれに限定されるものではない。例えば、制御機能144cは、画像データC21、又は画像データC21に基づいて生成した参照画像を解析し、診断対象の臓器等を抽出することで、範囲R2を自動設定してもよい。 For example, although the description has been made so far that the range R2, which is the scan range of the scan A22, is set by the user, the embodiment is not limited to this. For example, the control function 144c may automatically set the range R2 by analyzing the image data C21 or a reference image generated based on the image data C21 and extracting an organ to be diagnosed.

また、上述した実施形態では、位置決め撮影を2次元で実行する場合について説明した。しかしながら実施形態はこれに限定されるものではなく、X線CTシステム10は、位置決め撮影を3次元で実行する場合であっても構わない。 Furthermore, in the embodiments described above, a case has been described in which positioning imaging is performed in two dimensions. However, the embodiment is not limited to this, and the X-ray CT system 10 may perform positioning imaging in three dimensions.

位置決め撮影を3次元で実行する場合、処理機能144bは、まず、2次元の位置決め画像データに代えて3次元の位置決め画像データを使用した機械学習を実行し、学習済みモデルを生成する。例えば、処理機能144bは、被検体P2について3次元の位置決め撮影を実行することにより収集された画像データC15と、図2に示した画像データC12及び画像データC13とを学習データとした機械学習を実行することにより、学習済みモデルM3を生成する。 When performing positioning photography in three dimensions, the processing function 144b first performs machine learning using three-dimensional positioning image data instead of two-dimensional positioning image data to generate a learned model. For example, the processing function 144b performs machine learning using the image data C15 collected by performing three-dimensional positioning imaging for the subject P2 and the image data C12 and image data C13 shown in FIG. 2 as learning data. By executing this, a learned model M3 is generated.

例えば、X線CTシステム10は、被検体P2についてスキャンA15を実行することで、画像データC15を収集する。一例を挙げると、まず、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、X線管111から被検体P2に対してX線を照射することで、複数のビューのそれぞれについて投影データを収集する。以下、スキャンA15により収集された複数の投影データを、投影データセットB15と記載する。そして、処理機能144bは、収集された投影データセットB15に基づく再構成処理を実行することにより、画像データC15を生成する。即ち、画像データC15は、3次元のスキャンにより収集された3次元画像データである。例えば、画像データC15は、スキャンA12やスキャンA13のスキャン範囲を設定するための位置決め画像データである。 For example, the X-ray CT system 10 collects image data C15 by performing a scan A15 on the subject P2. To give an example, first, the scan function 144a rotates the X-ray tube 111 around the subject P2 and irradiates X-rays from the X-ray tube 111 to the subject P2, thereby generating multiple views. Collect projection data for each. Hereinafter, the plurality of projection data collected by scan A15 will be referred to as projection data set B15. Then, the processing function 144b generates image data C15 by executing a reconstruction process based on the collected projection data set B15. That is, the image data C15 is three-dimensional image data collected by three-dimensional scanning. For example, the image data C15 is positioning image data for setting the scan range of scan A12 and scan A13.

また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1のX線を被検体P2に照射することでスキャンA12を実行し、投影データセットB12を収集する。また、処理機能144bは、投影データセットB12に基づく再構成処理を実行することにより、画像データC12を生成する。また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1よりも高い線量X2のX線を被検体P2に照射することでスキャンA13を実行し、投影データセットB13を収集する。また、処理機能144bは、投影データセットB13に基づく再構成処理を実行することにより、画像データC13を生成する。即ち、画像データC13は、画像データC12より質の高い画像データである。 Furthermore, the scan function 144a executes a scan A12 by irradiating the subject P2 with X-rays at a dose of X1 while rotating the X-ray tube 111 around the subject P2, and collects a projection data set B12. Furthermore, the processing function 144b generates image data C12 by executing a reconstruction process based on the projection data set B12. In addition, the scan function 144a executes a scan A13 by irradiating the subject P2 with X-rays at a dose X2 higher than the dose X1 while rotating the X-ray tube 111 around the subject P2, and sets the projection data. Collect B13. Furthermore, the processing function 144b generates image data C13 by executing a reconstruction process based on the projection data set B13. That is, the image data C13 is image data of higher quality than the image data C12.

そして、処理機能144bは、画像データC15及び画像データC12を入力側データ、画像データC13を出力側データとした機械学習を実行することにより、学習済みモデルM3を生成する。ここで、学習済みモデルM3は、例えば、ニューラルネットワークにより構成することができる。例えば、処理機能144bは、画像データC15、画像データC12及び画像データC13を用いて多層のニューラルネットワークについて深層学習を実行することで、学習済みモデルM3を生成する。 Then, the processing function 144b generates a learned model M3 by executing machine learning using the image data C15 and the image data C12 as input side data and the image data C13 as output side data. Here, the trained model M3 can be configured by, for example, a neural network. For example, the processing function 144b generates the trained model M3 by performing deep learning on a multilayer neural network using the image data C15, image data C12, and image data C13.

一例を挙げると、処理機能144bは、画像データC15及び画像データC12を入力側データとして、ニューラルネットワークに入力する。ここで、ニューラルネットワークにおいては、入力層側から出力層側に向かって一方向に隣接層間でのみ結合しながら情報が伝播し、出力層からは、画像データC13を推定した画像データが出力される。即ち、ニューラルネットワークにおいては、画像データC12の質を向上させる処理が行われ、出力層からは、画像データC12より質の高い画像データC13を推定した画像データが出力される。 For example, the processing function 144b inputs the image data C15 and the image data C12 as input data to the neural network. Here, in the neural network, information is propagated in one direction from the input layer side to the output layer side while connecting only between adjacent layers, and the output layer outputs image data obtained by estimating the image data C13. . That is, in the neural network, processing is performed to improve the quality of the image data C12, and the output layer outputs image data in which image data C13, which is higher in quality than the image data C12, is estimated.

処理機能144bは、入力側データを入力した際にニューラルネットワークが好ましい結果を出力することができるよう、ニューラルネットワークのパラメータを調整することで、学習済みモデルM3を生成する。例えば、処理機能144bは、画像データ間の近さを表す誤差関数を用いて、ニューラルネットワークのパラメータを調整する。 The processing function 144b generates a learned model M3 by adjusting the parameters of the neural network so that the neural network can output a preferable result when input data is input. For example, the processing function 144b adjusts the parameters of the neural network using an error function representing the closeness between image data.

一例を挙げると、処理機能144bは、画像データC13と、ニューラルネットワークが推定した画像データとの間の近さを示す誤差関数E5を算出する。また、処理機能144bは、画像データC15と、ニューラルネットワークが推定した画像データとの間の近さを示す誤差関数E6を算出する。そして、処理機能144bは、算出した誤差関数が極小となるように、ニューラルネットワークのパラメータを調整する。例えば、処理機能144bは、誤差関数E5と誤差関数E6との和が極小となるように、ニューラルネットワークのパラメータを調整する。これにより、処理機能144bは、3次元の位置決め撮影で収集された第1画像データ及び3次元の本スキャンで収集された第2画像データの入力を受け付けて、入力された第2画像データの質を向上させるように機能付けられた学習済みモデルM3を生成する。また、処理機能144bは、生成した学習済みモデルM3を、メモリ141に記憶させる。 For example, the processing function 144b calculates an error function E5 indicating the closeness between the image data C13 and the image data estimated by the neural network. Furthermore, the processing function 144b calculates an error function E6 indicating the closeness between the image data C15 and the image data estimated by the neural network. Then, the processing function 144b adjusts the parameters of the neural network so that the calculated error function becomes minimum. For example, the processing function 144b adjusts the parameters of the neural network so that the sum of the error function E5 and the error function E6 becomes minimum. Thereby, the processing function 144b accepts the input of the first image data collected by three-dimensional positioning photography and the second image data collected by three-dimensional main scanning, and improves the quality of the input second image data. A trained model M3 that is functionalized to improve the performance is generated. Furthermore, the processing function 144b stores the generated trained model M3 in the memory 141.

そして、被検体P1に対するスキャンが実行された際、処理機能144bは、メモリ141から学習済みモデルM3を読み出し、読み出した学習済みモデルM3を用いて、被検体P1から収集されたCT画像データの質を向上させる。 Then, when the scan for the subject P1 is executed, the processing function 144b reads out the learned model M3 from the memory 141, and uses the read out learned model M3 to improve the quality of the CT image data collected from the subject P1. improve.

例えば、スキャン機能144aは、まず、被検体P1についてスキャンA25を実行することで、画像データC25を収集する。一例を挙げると、まず、スキャン機能144aは、X線管111を被検体P1の周囲で回転させながら、X線管111から被検体P1に対してX線を照射することで、複数のビューのそれぞれについて投影データを収集する。以下、スキャンA25により収集された複数の投影データを、投影データセットB25と記載する。例えば、スキャン機能144aは、図3に示した範囲R1にX線を照射することで、投影データセットB25を収集する。そして、処理機能144bは、収集された投影データセットB25に基づく再構成処理を実行することにより、画像データC25を生成する。即ち、画像データC25は、3次元のスキャンにより収集された3次元画像データである。 For example, the scan function 144a first collects image data C25 by performing a scan A25 on the subject P1. To give an example, first, the scan function 144a rotates the X-ray tube 111 around the subject P1 and irradiates the subject P1 with X-rays from the X-ray tube 111, thereby generating multiple views. Collect projection data for each. Hereinafter, the plurality of projection data collected by scan A25 will be referred to as projection data set B25. For example, the scan function 144a collects the projection data set B25 by irradiating the range R1 shown in FIG. 3 with X-rays. Then, the processing function 144b generates image data C25 by executing a reconstruction process based on the collected projection data set B25. That is, the image data C25 is three-dimensional image data collected by three-dimensional scanning.

なお、スキャンA25は、第1スキャンの一例である。また、投影データセットB25は、第1投影データセットの一例である。また、画像データC25は、第1画像データの一例である。 Note that scan A25 is an example of the first scan. Further, the projection data set B25 is an example of the first projection data set. Further, the image data C25 is an example of first image data.

次に、制御機能144cは、画像データC25に基づく参照画像を参照したユーザからの入力操作を受け付けることで、スキャンA22のスキャン範囲である範囲R2を設定する。即ち、画像データC25は、スキャンA22のスキャン範囲を設定するための位置決め画像データである。次に、スキャン機能144aは、参照画像に設定された範囲R2に対してスキャンA22を実行し、投影データセットB22を収集する。また、処理機能144bは、投影データセットB22に基づいて画像データC22を生成する。 Next, the control function 144c sets a range R2, which is the scan range of the scan A22, by accepting an input operation from the user who referred to the reference image based on the image data C25. That is, the image data C25 is positioning image data for setting the scan range of the scan A22. Next, the scan function 144a executes a scan A22 on the range R2 set in the reference image, and collects a projection data set B22. Furthermore, the processing function 144b generates image data C22 based on the projection data set B22.

次に、処理機能144bは、画像データC22の質を評価する。次に、処理機能144bは、画像データC22の質の評価結果に応じて、画像データC22の補正処理を行なうか否かを判定する。即ち、画像データC22の質が十分に高い場合には、処理機能144bは、後述する補正処理を省略しても構わない。なお、画像データC22の補正処理を行なうか否かを判定する処理については、適宜省略することとして構わない。 Next, the processing function 144b evaluates the quality of the image data C22. Next, the processing function 144b determines whether or not to perform correction processing on the image data C22, depending on the evaluation result of the quality of the image data C22. That is, if the quality of the image data C22 is sufficiently high, the processing function 144b may omit the correction processing described later. Note that the process of determining whether or not to perform correction processing on the image data C22 may be omitted as appropriate.

画像データC22の補正処理を行なう場合、処理機能144bは、メモリ141から読み出した学習済みモデルM3に対して、画像データC25と画像データC22とを入力する。これによって、学習済みモデルM3は、画像データC22より質が高い画像データC26を出力する。即ち、学習済みモデルM3は、画像データC25との整合性を維持しつつ画像データC22を補正することで、画像データC26を生成する。なお、画像データC26は、第3画像データの一例である。 When performing correction processing on the image data C22, the processing function 144b inputs the image data C25 and the image data C22 to the learned model M3 read out from the memory 141. As a result, the trained model M3 outputs image data C26 having higher quality than the image data C22. That is, the trained model M3 generates the image data C26 by correcting the image data C22 while maintaining consistency with the image data C25. Note that the image data C26 is an example of third image data.

なお、処理機能144bは、学習済みモデルM3に対して、画像データC25の全部を入力してもよいし、一部のみを入力してもよい。例えば、処理機能144bは、画像データC25のうち、範囲R2に含まれる部分のみを学習済みモデルM3に入力してもよい。換言すると、処理機能144bは、範囲R1から収集された投影データセットB25の少なくとも一部に基づく画像データC25を学習済みモデルM3に入力する。 Note that the processing function 144b may input all of the image data C25 or only a portion of the image data C25 to the trained model M3. For example, the processing function 144b may input only the portion included in the range R2 of the image data C25 to the trained model M3. In other words, the processing function 144b inputs the image data C25 based on at least a portion of the projection data set B25 collected from the range R1 into the trained model M3.

別の例を挙げると、処理機能144bは、被検体P2について3次元の位置決め撮影を実行することにより収集された投影データセットB15と、投影データセットB12及び投影データセットB13とを学習データとした機械学習を実行することにより、学習済みモデルM4を生成する。 To give another example, the processing function 144b uses the projection data set B15 collected by performing three-dimensional positioning imaging for the subject P2, the projection data set B12, and the projection data set B13 as learning data. A learned model M4 is generated by executing machine learning.

例えば、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、X線を被検体P2に照射することでスキャンA15を実行し、投影データセットB15を収集する。また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1のX線を被検体P2に照射することでスキャンA12を実行し、投影データセットB12を収集する。また、スキャン機能144aは、X線管111を被検体P2の周囲で回転させながら、線量X1よりも高い線量X2のX線を被検体P2に照射することでスキャンA13を実行し、投影データセットB13を収集する。即ち、投影データセットB13は、投影データセットB12より質の高い投影データセットである。 For example, the scan function 144a executes a scan A15 by irradiating the subject P2 with X-rays while rotating the X-ray tube 111 around the subject P2, and collects a projection data set B15. Furthermore, the scan function 144a executes a scan A12 by irradiating the subject P2 with X-rays at a dose of X1 while rotating the X-ray tube 111 around the subject P2, and collects a projection data set B12. In addition, the scan function 144a executes a scan A13 by irradiating the subject P2 with X-rays at a dose X2 higher than the dose X1 while rotating the X-ray tube 111 around the subject P2, and sets the projection data. Collect B13. That is, the projection data set B13 is a projection data set of higher quality than the projection data set B12.

そして、処理機能144bは、投影データセットB15及び投影データセットB12を入力側データ、投影データセットB13を出力側データとした機械学習を実行することにより、学習済みモデルM4を生成する。ここで、学習済みモデルM4は、例えば、ニューラルネットワークにより構成することができる。例えば、処理機能144bは、投影データセットB15、投影データセットB12及び投影データセットB13を用いて多層のニューラルネットワークについて深層学習を実行することで、学習済みモデルM4を生成する。 Then, the processing function 144b generates a learned model M4 by executing machine learning using the projection data set B15 and the projection data set B12 as input data and the projection data set B13 as output data. Here, the learned model M4 can be configured by, for example, a neural network. For example, the processing function 144b generates the trained model M4 by performing deep learning on a multilayer neural network using the projection data set B15, the projection data set B12, and the projection data set B13.

一例を挙げると、処理機能144bは、投影データセットB15及び投影データセットB12を入力側データとして、ニューラルネットワークに入力する。ここで、ニューラルネットワークにおいては、入力層側から出力層側に向かって一方向に隣接層間でのみ結合しながら情報が伝播し、出力層からは、投影データセットB13を推定した投影データセットが出力される。即ち、ニューラルネットワークにおいては、投影データセットB12の質を向上させる処理が行われ、出力層からは、投影データセットB12より質の高い投影データセットB13を推定した投影データセットが出力される。 For example, the processing function 144b inputs the projection data set B15 and the projection data set B12 as input data to the neural network. Here, in the neural network, information is propagated in one direction from the input layer side to the output layer side while connecting only between adjacent layers, and the output layer outputs a projection dataset that estimates the projection dataset B13. be done. That is, in the neural network, a process is performed to improve the quality of the projection data set B12, and the output layer outputs a projection data set in which the projection data set B13, which is higher in quality than the projection data set B12, is estimated.

処理機能144bは、入力側データを入力した際にニューラルネットワークが好ましい結果を出力することができるよう、ニューラルネットワークのパラメータを調整することで、学習済みモデルM4を生成する。例えば、処理機能144bは、投影データセット間の近さを表す誤差関数を用いて、ニューラルネットワークのパラメータを調整する。 The processing function 144b generates a learned model M4 by adjusting the parameters of the neural network so that the neural network can output a preferable result when input data is input. For example, processing function 144b adjusts the parameters of the neural network using an error function that represents the closeness between the projection data sets.

一例を挙げると、処理機能144bは、投影データセットB13と、ニューラルネットワークが推定した投影データセットとの間の近さを示す誤差関数E7を算出する。また、処理機能144bは、投影データセットB15と、ニューラルネットワークが推定した画像データとの間の近さを示す誤差関数E8を算出する。そして、処理機能144bは、算出した誤差関数が極小となるように、ニューラルネットワークのパラメータを調整する。例えば、処理機能144bは、誤差関数E7と誤差関数E8との和が極小となるように、ニューラルネットワークのパラメータを調整する。これにより、処理機能144bは、3次元の位置決め撮影で収集された第1投影データセット及び3次元の本スキャンで収集された第2投影データセットの入力を受け付けて、入力された第2投影データセットの質を向上させるように機能付けられた学習済みモデルM4を生成する。また、処理機能144bは、生成した学習済みモデルM4を、メモリ141に記憶させる。 As an example, the processing function 144b calculates an error function E7 indicating the closeness between the projection data set B13 and the projection data set estimated by the neural network. Furthermore, the processing function 144b calculates an error function E8 indicating the closeness between the projection data set B15 and the image data estimated by the neural network. Then, the processing function 144b adjusts the parameters of the neural network so that the calculated error function becomes minimum. For example, the processing function 144b adjusts the parameters of the neural network so that the sum of the error function E7 and the error function E8 becomes minimum. Thereby, the processing function 144b receives the input of the first projection data set collected in the three-dimensional positioning imaging and the second projection data set collected in the three-dimensional main scan, and the processing function 144b receives the input second projection data set. Generate a trained model M4 that is functionalized to improve the quality of the set. Furthermore, the processing function 144b stores the generated trained model M4 in the memory 141.

そして、被検体P1に対するスキャンが実行された際、処理機能144bは、メモリ141から学習済みモデルM4を読み出し、読み出した学習済みモデルM4を用いて、被検体P1から収集された投影データセットの質を向上させ、ひいては投影データセットに基づくCT画像データの質を向上させる。 Then, when the scan for the subject P1 is executed, the processing function 144b reads out the learned model M4 from the memory 141, and uses the read out learned model M4 to improve the quality of the projection data set collected from the subject P1. and thus improve the quality of CT image data based on projection data sets.

例えば、スキャン機能144aは、まず、被検体P1についてスキャンA25を実行することで、投影データセットB25を収集する。例えば、スキャン機能144aは、図3に示した範囲R1にX線を照射することで、投影データセットB25を収集する。また、処理機能144bは、収集された投影データセットB25に基づく再構成処理を実行することにより、画像データC25を生成する。 For example, the scan function 144a first collects a projection data set B25 by performing a scan A25 on the subject P1. For example, the scan function 144a collects the projection data set B25 by irradiating the range R1 shown in FIG. 3 with X-rays. Furthermore, the processing function 144b generates image data C25 by executing a reconstruction process based on the collected projection data set B25.

次に、制御機能144cは、画像データC25に基づく参照画像を参照したユーザからの入力操作を受け付けることで、スキャンA22のスキャン範囲である範囲R2を設定する。次に、スキャン機能144aは、参照画像に設定された範囲R2に対してスキャンA22を実行し、投影データセットB22を収集する。 Next, the control function 144c sets a range R2, which is the scan range of the scan A22, by accepting an input operation from the user who referred to the reference image based on the image data C25. Next, the scan function 144a executes a scan A22 on the range R2 set in the reference image, and collects a projection data set B22.

次に、処理機能144bは、投影データセットB22の質を評価する。また、処理機能144bは、投影データセットB22の質の評価結果に応じて、投影データセットB22の補正処理を行なうか否かを判定する。即ち、投影データセットB22の質が十分に高い場合には、処理機能144bは、後述する補正処理を省略しても構わない。この場合、処理機能144bは、投影データセットB22に基づいて、質の高い画像データC22を再構成することができる。なお、投影データセットB22の補正処理を行なうか否かを判定する処理については、適宜省略することとして構わない。 Processing function 144b then evaluates the quality of projection data set B22. Furthermore, the processing function 144b determines whether or not to perform correction processing on the projection data set B22, depending on the evaluation result of the quality of the projection data set B22. That is, if the quality of the projection data set B22 is sufficiently high, the processing function 144b may omit the correction processing described later. In this case, the processing function 144b can reconstruct high quality image data C22 based on the projection data set B22. Note that the process of determining whether or not to perform the correction process on the projection data set B22 may be omitted as appropriate.

投影データセットB22の補正処理を行なう場合、処理機能144bは、メモリ141から読み出した学習済みモデルM4に対して、投影データセットB25と投影データセットB22とを入力する。これによって、学習済みモデルM4は、投影データセットB22より質が高い投影データセットB26を出力する。即ち、学習済みモデルM4は、投影データセットB25との整合性を維持しつつ投影データセットB22を補正することで、投影データセットB26を生成する。なお、投影データセットB26は、第3投影データセットの一例である。また、処理機能144bは、学習済みモデルM4を用いて生成された投影データセットB26に基づいて、質の高いCT画像データである画像データC27を再構成する。 When performing correction processing on the projection data set B22, the processing function 144b inputs the projection data set B25 and the projection data set B22 to the trained model M4 read from the memory 141. As a result, the learned model M4 outputs a projection data set B26 having higher quality than the projection data set B22. That is, the learned model M4 generates the projection data set B26 by correcting the projection data set B22 while maintaining consistency with the projection data set B25. Note that the projection data set B26 is an example of the third projection data set. Furthermore, the processing function 144b reconstructs image data C27, which is high-quality CT image data, based on the projection data set B26 generated using the learned model M4.

なお、処理機能144bは、学習済みモデルM4に対して、投影データセットB25の全部を入力してもよいし、一部のみを入力してもよい。例えば、処理機能144bは、投影データセットB25のうち、範囲R2に含まれる部分のみを学習済みモデルM4に入力してもよい。換言すると、処理機能144bは、範囲R1から収集された投影データセットB25の少なくとも一部を学習済みモデルM4に入力する。 Note that the processing function 144b may input the entire projection data set B25 to the trained model M4, or may input only a part of it. For example, the processing function 144b may input only the portion included in the range R2 of the projection data set B25 to the learned model M4. In other words, the processing function 144b inputs at least a portion of the projection data set B25 collected from the range R1 to the learned model M4.

また、学習済みモデルM1~M4がニューラルネットワークにより構成されるものとして説明したが、処理機能144bは、ニューラルネットワーク以外の機械学習手法により、学習済みモデルM1~M4を生成してもよい。また、処理機能144bが学習済みモデルM1~M4を生成するものとして説明したが、学習済みモデルM1~M4は、他の装置において生成されるものであっても構わない。 Further, although the learned models M1 to M4 have been described as being configured by neural networks, the processing function 144b may generate the learned models M1 to M4 by a machine learning method other than the neural network. Furthermore, although the processing function 144b has been described as generating the learned models M1 to M4, the learned models M1 to M4 may be generated by other devices.

また、投影データセット又はCT画像データの補正処理をX線CTシステム10が実行するものとして説明したが、実施形態はこれに限定されるものではない。例えば、補正処理は、X線CTシステム10と異なる他の装置において実行されても構わない。以下、この点について、図5に示す医用情報処理システム1を例として説明する。図5は、第5の実施形態に係る医用情報処理システム1の構成の一例を示すブロック図である。医用情報処理システム1には、X線CTシステム10、及び、補正処理を実行する医用処理装置20が含まれる。 Further, although the X-ray CT system 10 has been described as executing the correction processing of the projection data set or CT image data, the embodiment is not limited to this. For example, the correction process may be executed in another device different from the X-ray CT system 10. This point will be explained below using the medical information processing system 1 shown in FIG. 5 as an example. FIG. 5 is a block diagram showing an example of the configuration of the medical information processing system 1 according to the fifth embodiment. The medical information processing system 1 includes an X-ray CT system 10 and a medical processing device 20 that performs correction processing.

図5に示すように、X線CTシステム10と医用処理装置20とは、ネットワークNWを介して相互に接続される。ここで、ネットワークNWを介して接続可能であれば、X線CTシステム10及び医用処理装置20が設置される場所は任意である。例えば、医用処理装置20は、X線CTシステム10と異なる病院に設置されてもよい。即ち、ネットワークNWは、院内で閉じたローカルネットワークにより構成されてもよいし、インターネットを介したネットワークでもよい。また、図5においてはX線CTシステム10を1つ示すが、医用情報処理システム1は複数のX線CTシステム10を含んでもよい。 As shown in FIG. 5, the X-ray CT system 10 and the medical processing device 20 are interconnected via a network NW. Here, the X-ray CT system 10 and the medical processing device 20 can be installed at any location as long as they can be connected via the network NW. For example, the medical processing device 20 may be installed in a different hospital than the X-ray CT system 10. That is, the network NW may be configured as a local network closed within the hospital, or may be a network via the Internet. Furthermore, although one X-ray CT system 10 is shown in FIG. 5, the medical information processing system 1 may include a plurality of X-ray CT systems 10.

医用処理装置20は、ワークステーション等のコンピュータ機器によって実現される。例えば、医用処理装置20は、図5に示すように、メモリ21と、ディスプレイ22と、入力インターフェース23と、処理回路24とを有する。 The medical processing device 20 is realized by computer equipment such as a workstation. For example, the medical processing device 20 includes a memory 21, a display 22, an input interface 23, and a processing circuit 24, as shown in FIG.

メモリ21は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ21は、X線CTシステム10から送信された各種のデータを記憶する。また、例えば、メモリ21は、医用処理装置20に含まれる回路がその機能を実現するためのプログラムを記憶する。なお、メモリ21は、医用処理装置20とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The memory 21 is realized by, for example, a RAM, a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. For example, the memory 21 stores various data transmitted from the X-ray CT system 10. Further, for example, the memory 21 stores a program for a circuit included in the medical processing device 20 to realize its function. Note that the memory 21 may be realized by a server group (cloud) connected to the medical processing device 20 via the network NW.

ディスプレイ22は、各種の情報を表示する。例えば、ディスプレイ22は、処理回路24により生成された表示用のCT画像を表示したり、ユーザからの各種操作を受け付けるためのGUI等を表示したりする。例えば、ディスプレイ22は、液晶ディスプレイやCRTディスプレイである。ディスプレイ22は、デスクトップ型でもよいし、医用処理装置20本体と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 22 displays various information. For example, the display 22 displays a CT image for display generated by the processing circuit 24, a GUI, etc. for accepting various operations from the user. For example, the display 22 is a liquid crystal display or a CRT display. The display 22 may be of a desktop type, or may be composed of a tablet terminal or the like that can communicate wirelessly with the main body of the medical processing device 20.

入力インターフェース23は、ユーザからの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路24に出力する。例えば、入力インターフェース23は、CT画像データを再構成する際の再構成条件や、CT画像データから表示用のCT画像を生成する際の画像処理条件等をユーザから受け付ける。例えば、入力インターフェース23は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース23は、医用処理装置20本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース23は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、医用処理装置20とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路24へ出力する電気信号の処理回路も入力インターフェース23の例に含まれる。 The input interface 23 accepts various input operations from the user, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 24 . For example, the input interface 23 receives from the user reconstruction conditions when reconstructing CT image data, image processing conditions when generating a CT image for display from CT image data, and the like. For example, the input interface 23 may include a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touchpad that performs input operations by touching the operation surface, a touchscreen that integrates a display screen and a touchpad, and an optical sensor. This is realized by using a non-contact input circuit, a voice input circuit, etc. Note that the input interface 23 may be configured with a tablet terminal or the like that can communicate wirelessly with the main body of the medical processing device 20. Furthermore, the input interface 23 is not limited to one that includes physical operating components such as a mouse and a keyboard. For example, an example of the input interface 23 is an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the medical processing device 20 and outputs this electrical signal to the processing circuit 24. include.

処理回路24は、処理機能24a及び制御機能24bを実行することで、医用処理装置20全体の動作を制御する。なお、処理機能24aは、処理部の一例である。処理回路24による処理については後述する。 The processing circuit 24 controls the overall operation of the medical processing device 20 by executing a processing function 24a and a control function 24b. Note that the processing function 24a is an example of a processing section. Processing by the processing circuit 24 will be described later.

図5に示す医用処理装置20においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ21へ記憶されている。処理回路24は、メモリ21からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、プログラムを読み出した状態の処理回路24は、読み出したプログラムに対応する機能を有することとなる。 In the medical processing device 20 shown in FIG. 5, each processing function is stored in the memory 21 in the form of a computer-executable program. The processing circuit 24 is a processor that reads programs from the memory 21 and executes them to implement functions corresponding to each program. In other words, the processing circuit 24 in a state where the program has been read has a function corresponding to the read program.

なお、図5においては単一の処理回路24にて、処理機能24a及び制御機能24bが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路24を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路24が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 Although the processing function 24a and the control function 24b are described as being implemented in a single processing circuit 24 in FIG. 5, the processing circuit 24 is configured by combining a plurality of independent processors, and each processor executes a program. The function may be realized by executing the . Further, each processing function of the processing circuit 24 may be realized by being appropriately distributed or integrated into a single or multiple processing circuits.

また、処理回路24は、ネットワークNWを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路24は、メモリ21から各機能に対応するプログラムを読み出して実行するとともに、医用処理装置20とネットワークNWを介して接続されたサーバ群(クラウド)を計算資源として利用することにより、図5に示す各機能を実現する。 Furthermore, the processing circuit 24 may realize its functions using a processor of an external device connected via the network NW. For example, the processing circuit 24 reads and executes a program corresponding to each function from the memory 21, and also uses a server group (cloud) connected to the medical processing device 20 via the network NW as a computing resource. Each function shown in FIG. 5 is realized.

例えば、まず、X線CTシステム10におけるスキャン機能144aは、被検体P1の体軸方向に沿った範囲R1にX線を照射することで、第1投影データセットを収集する第1スキャンを実行する。また、スキャン機能144aは、第1スキャンの後で、被検体P1の体軸方向に沿った、範囲R1より狭い範囲R2にX線を照射することで、第2投影データセットを収集する第2スキャンを実行する。 For example, first, the scan function 144a in the X-ray CT system 10 executes a first scan to collect a first projection data set by irradiating an X-ray to a range R1 along the body axis direction of the subject P1. . Furthermore, after the first scan, the scan function 144a performs a second projection data set that collects a second projection data set by irradiating an X-ray to a range R2 along the body axis of the subject P1, which is narrower than the range R1. Run a scan.

また、処理機能144bは、第1投影データセットの少なくとも一部に基づく第1画像データと、第2投影データセットに基づく第2画像データとを生成する。次に、制御機能144cは、ネットワークNWを介して、第1画像データ及び第2画像データを医用処理装置20に送信する。或いは、制御機能144cは、第1投影データセット及び第2投影データセットを医用処理装置20に送信する。次に、処理機能24aは、第1投影データセットの少なくとも一部に基づく第1画像データと、第2投影データセットに基づく第2画像データとを生成する。 The processing function 144b also generates first image data based on at least a portion of the first projection data set and second image data based on the second projection data set. Next, the control function 144c transmits the first image data and the second image data to the medical processing device 20 via the network NW. Alternatively, the control function 144c sends the first projection data set and the second projection data set to the medical processing device 20. The processing functionality 24a then generates first image data based at least in part on the first projection data set and second image data based on the second projection data set.

そして、処理機能24aは、第2画像データについての補正処理を実行する。例えば、処理機能24aは、第1画像データと第2画像データとを、上述した学習済みモデルM1又は学習済みモデルM3に入力することにより、第2画像データより質が高い第3画像データを生成する。なお、処理機能24aは、補正処理に先立って第2画像データの質を評価し、評価結果に応じて第3画像データの生成を行なうか否かを判定することとしても構わない。 The processing function 24a then executes correction processing on the second image data. For example, the processing function 24a generates third image data having higher quality than the second image data by inputting the first image data and the second image data to the above-mentioned trained model M1 or trained model M3. do. Note that the processing function 24a may evaluate the quality of the second image data prior to the correction process, and determine whether or not to generate the third image data according to the evaluation result.

別の例を挙げると、制御機能144cは、第1投影データセット及び第2投影データセットを医用処理装置20に送信する。そして、処理機能24aは、第2投影データセットについての補正処理を実行する。例えば、処理機能24aは、第1投影データセットの少なくとも一部と第2投影データセットとを、上述した学習済みモデルM2又は学習済みモデルM4に入力することにより、第2投影データセットより質が高い第3投影データセットを生成する。なお、処理機能24aは、補正処理に先立って第2投影データセットの質を評価し、評価結果に応じて第3投影データセットの生成を行なうか否かを判定することとしても構わない。 As another example, the control function 144c sends the first projection data set and the second projection data set to the medical processing device 20. The processing function 24a then executes a correction process on the second projection data set. For example, the processing function 24a inputs at least a portion of the first projection data set and the second projection data set to the above-mentioned trained model M2 or trained model M4, so that the quality is higher than that of the second projection data set. Generate a high third projection data set. Note that the processing function 24a may evaluate the quality of the second projection data set prior to the correction process, and determine whether or not to generate the third projection data set based on the evaluation result.

そして、処理機能24aは、第3投影データセットに基づいて、第2投影データセットに基づくCT画像データよりも質の高い、第3画像データを再構成する。或いは、制御機能24bは、ネットワークNWを介して、第3投影データセットをX線CTシステム10に送信する。この場合、処理機能144bは、第3投影データセットに基づいて第3画像データを再構成する。 The processing function 24a then reconstructs, based on the third projection data set, third image data having higher quality than the CT image data based on the second projection data set. Alternatively, the control function 24b transmits the third projection data set to the X-ray CT system 10 via the network NW. In this case, the processing function 144b reconstructs the third image data based on the third projection data set.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU(Graphics Processing Unit)、あるいは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ141又はメモリ21に保存されたプログラムを読み出し実行することで機能を実現する。 The term "processor" used in the above description refers to, for example, a CPU, a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (for example, a simple programmable logic device), or an application specific integrated circuit (ASIC). Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array :FPGA)) and other circuits. The processor realizes functions by reading and executing programs stored in the memory 141 or the memory 21.

なお、図1においては、単一のメモリ141が処理回路144の各処理機能に対応するプログラムを記憶するものとして説明した。また、図5においては、単一のメモリ21が処理回路24の各処理機能に対応するプログラムを記憶するものとして説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、複数のメモリ141を分散して配置し、処理回路144は、個別のメモリ141から対応するプログラムを読み出す構成としても構わない。同様に、複数のメモリ21を分散して配置し、処理回路24は、個別のメモリ21から対応するプログラムを読み出す構成としても構わない。また、メモリ141又はメモリ21にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。 In addition, in FIG. 1, the single memory 141 has been described as storing programs corresponding to each processing function of the processing circuit 144. Furthermore, in FIG. 5, the explanation has been made assuming that the single memory 21 stores programs corresponding to each processing function of the processing circuit 24. However, embodiments are not limited thereto. For example, a configuration may be adopted in which a plurality of memories 141 are arranged in a distributed manner, and the processing circuit 144 reads a corresponding program from each individual memory 141. Similarly, a configuration may be adopted in which a plurality of memories 21 are arranged in a distributed manner and the processing circuit 24 reads the corresponding program from each individual memory 21. Further, instead of storing the program in the memory 141 or the memory 21, the program may be directly incorporated into the circuit of the processor. In this case, the processor realizes its functions by reading and executing a program built into the circuit.

上述した実施形態に係る各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。即ち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されうる。 Each component of each device according to the embodiments described above is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device can be realized by a CPU and a program that is analyzed and executed by the CPU, or can be realized as hardware using wired logic.

また、上述した実施形態で説明した処理方法は、予め用意された処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な非一過性の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Further, the processing method described in the above embodiment can be realized by executing a processing program prepared in advance on a computer such as a personal computer or a workstation. This processing program can be distributed via a network such as the Internet. In addition, this processing program is recorded on a computer-readable non-transitory recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, DVD, etc., and is executed by being read from the recording medium by the computer. You can also.

以上説明した少なくとも1つの実施形態によれば、質の高いCT画像データを生成することができる。 According to at least one embodiment described above, high quality CT image data can be generated.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.

1 医用情報処理システム
10 X線CTシステム
110 架台装置
140 コンソール装置
144 処理回路
144a スキャン機能
144b 処理機能
144c 制御機能
20 医用処理装置
24 処理回路
24a 処理機能
24b 制御機能
1 Medical information processing system 10 X-ray CT system 110 Frame device 140 Console device 144 Processing circuit 144a Scan function 144b Processing function 144c Control function 20 Medical processing device 24 Processing circuit 24a Processing function 24b Control function

Claims (6)

X線管の位置をスキャン対象の周囲で回転させないスキャンにより収集された投影データセットに基づいて再構成された画像データである第1学習データと、前記X線管の位置を前記スキャン対象の周囲で回転させながら第1の線量で実行されるスキャンにより収集された投影データセットに基づいて再構成された画像データである第2学習データとを入力側データとし、前記X線管の位置を前記スキャン対象の周囲で回転させながら前記第1の線量よりも高い第2の線量で実行されるスキャンにより収集された投影データセットに基づいて再構成された画像データである第3学習データを出力側データとした機械学習を実行することにより学習済みモデルを生成する処理部と、
X線管の位置を被検体の周囲で回転させずに、前記被検体の体軸方向に沿った第1の範囲にX線を照射することで第1投影データセットを収集する第1スキャンを実行し、前記第1スキャンの後で、前記X線管の位置を前記被検体の周囲で回転させながら、前記体軸方向に沿った、前記第1の範囲より狭い第2の範囲にX線を照射することで第2投影データセットを収集する第2スキャンを実行するスキャン部とを備え、
前記処理部は、前記第1投影データセットの少なくとも一部に基づいて再構成された第1画像データと、前記第2投影データセットに基づいて再構成された第2画像データとを前記学習済みモデルに対して入力することにより、前記第2画像データより質が高い第3画像データを生成する、X線CTシステム。
first learning data that is image data reconstructed based on a projection data set collected by a scan in which the position of the X-ray tube is not rotated around the scan target; and second learning data, which is image data reconstructed based on the projection data set collected by the scan performed at the first dose while rotating the X-ray tube, and the position of the X-ray tube is outputting third learning data, which is image data reconstructed based on a projection data set collected by a scan performed at a second dose higher than the first dose while rotating around the scan target; a processing unit that generates a trained model by executing machine learning using the data;
A first scan in which a first projection data set is collected by irradiating a first range along the body axis of the subject with X-rays without rotating the position of the X-ray tube around the subject. After the first scan, while rotating the position of the X-ray tube around the subject, X-rays are applied to a second range narrower than the first range along the body axis direction. a scanning unit that performs a second scan that collects a second projection data set by irradiating the
The processing unit may process the first image data reconstructed based on at least a portion of the first projection data set and the second image data reconstructed based on the second projection data set into the learned data set. An X-ray CT system that generates third image data having higher quality than the second image data by inputting the data to a model.
前記スキャン部は、X線を発生するX線管の位置及び前記被検体の少なくともいずれかを前記体軸方向に沿って移動させながら前記第1投影データセットを収集する、請求項1に記載のX線CTシステム。 The scanning unit collects the first projection data set while moving at least one of a position of an X-ray tube that generates X-rays and the subject along the body axis direction. X-ray CT system. 前記スキャン部は、前記X線管の位置及び前記被検体を前記体軸方向に沿って移動させないで前記第2投影データセットを収集する、請求項2に記載のX線CTシステム。 The X-ray CT system according to claim 2, wherein the scanning unit collects the second projection data set without moving the position of the X-ray tube and the subject along the body axis direction. 前記処理部は、前記第2画像データの質を評価し、評価結果に応じて前記第3画像データの生成を行なうか否かを判定する、請求項1~3のいずれか一項に記載のX線CTシステム。 4. The processing unit according to claim 1 , wherein the processing unit evaluates the quality of the second image data and determines whether or not to generate the third image data according to the evaluation result. The X-ray CT system described. 前記第2の範囲は、前記第1投影データセットの少なくとも一部に基づいて生成され、表示部に表示された位置決め画像データに対する操作により設定される、請求項1~4のいずれか一項に記載のX線CTシステム。 The second range is generated based on at least a portion of the first projection data set and is set by an operation on positioning image data displayed on a display unit. The X-ray CT system described. X線管の位置をスキャン対象の周囲で回転させないスキャンにより収集された投影データセットに基づいて再構成された画像データである第1学習データと、前記X線管の位置を前記スキャン対象の周囲で回転させながら第1の線量で実行されるスキャンにより収集された投影データセットに基づいて再構成された画像データである第2学習データとを入力側データとし、前記X線管の位置を前記スキャン対象の周囲で回転させながら前記第1の線量よりも高い第2の線量で実行されるスキャンにより収集された投影データセットに基づいて再構成された画像データである第3学習データを出力側データとした機械学習を実行することにより学習済みモデルを生成する処理部を備え、
前記処理部は、X線管の位置を被検体の周囲で回転させずに前記被検体の体軸方向に沿った第1の範囲にX線を照射する第1スキャンにより収集された第1投影データセットの少なくとも一部に基づいて再構成された第1画像データと、前記X線管の位置を前記被検体の周囲で回転させながら前記体軸方向に沿った前記第1の範囲より狭い第2の範囲にX線を照射する第2スキャンにより前記第1スキャンの後に収集された第2投影データセットに基づいて再構成された第2画像データとを前記学習済みモデルに対して入力することにより、前記第2画像データより質が高い第3画像データを生成する、医用処理装置。
first learning data that is image data reconstructed based on a projection data set collected by a scan in which the position of the X-ray tube is not rotated around the scan target; and second learning data, which is image data reconstructed based on the projection data set collected by the scan performed at the first dose while rotating the X-ray tube, and the position of the X-ray tube is outputting third learning data, which is image data reconstructed based on a projection data set collected by a scan performed at a second dose higher than the first dose while rotating around the scan target; Equipped with a processing unit that generates a trained model by executing machine learning on the data,
The processing unit is configured to generate a first projection collected by a first scan in which a first range along the body axis of the subject is irradiated with X-rays without rotating the position of the X-ray tube around the subject. first image data reconstructed based on at least a part of the data set; and first image data narrower than the first range along the body axis direction while rotating the position of the X-ray tube around the subject. inputting second image data reconstructed based on a second projection data set collected after the first scan by a second scan in which X-rays are irradiated to a range of 2 to the learned model; A medical processing device that generates third image data having a higher quality than the second image data.
JP2019126659A 2019-07-08 2019-07-08 X-ray CT system and medical processing equipment Active JP7362322B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019126659A JP7362322B2 (en) 2019-07-08 2019-07-08 X-ray CT system and medical processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019126659A JP7362322B2 (en) 2019-07-08 2019-07-08 X-ray CT system and medical processing equipment

Publications (2)

Publication Number Publication Date
JP2021010623A JP2021010623A (en) 2021-02-04
JP7362322B2 true JP7362322B2 (en) 2023-10-17

Family

ID=74227058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019126659A Active JP7362322B2 (en) 2019-07-08 2019-07-08 X-ray CT system and medical processing equipment

Country Status (1)

Country Link
JP (1) JP7362322B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4057229A1 (en) 2021-03-12 2022-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Processing device for obtaining gap filler sinogram information, computer tomograph, method and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005028114A (en) 2003-06-18 2005-02-03 Canon Inc Radiation photographing apparatus and radiation photographing method
JP2005095397A (en) 2003-09-25 2005-04-14 Ge Medical Systems Global Technology Co Llc Method of correcting scattered x-ray component, program therefor, and x-ray ct system
WO2018126396A1 (en) 2017-01-05 2018-07-12 General Electric Company Deep learning based estimation of data for use in tomographic reconstruction
JP2019069145A (en) 2017-10-06 2019-05-09 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing system
US20190142357A1 (en) 2017-11-14 2019-05-16 General Electric Company Systems and methods for improving image quality with three-dimensional scout

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005028114A (en) 2003-06-18 2005-02-03 Canon Inc Radiation photographing apparatus and radiation photographing method
JP2005095397A (en) 2003-09-25 2005-04-14 Ge Medical Systems Global Technology Co Llc Method of correcting scattered x-ray component, program therefor, and x-ray ct system
WO2018126396A1 (en) 2017-01-05 2018-07-12 General Electric Company Deep learning based estimation of data for use in tomographic reconstruction
JP2020506742A (en) 2017-01-05 2020-03-05 ゼネラル・エレクトリック・カンパニイ Deep learning-based estimation of data for use in tomographic reconstruction
JP2019069145A (en) 2017-10-06 2019-05-09 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing system
US20190142357A1 (en) 2017-11-14 2019-05-16 General Electric Company Systems and methods for improving image quality with three-dimensional scout

Also Published As

Publication number Publication date
JP2021010623A (en) 2021-02-04

Similar Documents

Publication Publication Date Title
US11207041B2 (en) X-ray CT system and medical processing apparatus
JP7348376B2 (en) Medical processing equipment, X-ray CT system and processing program
JP7467253B2 (en) X-ray CT system and medical processing equipment
JP7353965B2 (en) Medical image diagnosis system and trained model generation method
US7502439B2 (en) Radiographic apparatus and method of using the same
JP7362322B2 (en) X-ray CT system and medical processing equipment
US11241212B2 (en) Medical apparatus
JP6466057B2 (en) Medical diagnostic imaging equipment
JP7313818B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSTIC APPARATUS, AND MEDICAL IMAGE PROCESSING METHOD
JP2022013679A (en) Medical image processing method, medical image processing apparatus and x-ray ct apparatus
JP7321846B2 (en) X-ray CT system and medical processing equipment
JP2020096693A (en) X-ray CT system and processing program
US20240062371A1 (en) Information processing method, medical image diagnostic apparatus, and information processing system including deep learning for optimal cardiac phase selection
JP7353882B2 (en) X-ray CT system and medical processing equipment
JP7320934B2 (en) MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
JP7309988B2 (en) MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
JP7301607B2 (en) Radiological diagnostic equipment
JP7426310B2 (en) X-ray computerized tomography imaging device
US20230320685A1 (en) Nuclear medicine diagnostic apparatus, nuclear medicine diagnostic method, and storage medium
JP7321798B2 (en) Reconstruction device and radiological diagnosis device
JP7144292B2 (en) MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
US20230145523A1 (en) Medical image processing apparatus, x-ray ct apparatus, medical image processing method and non-volatile storage medium storing program
JP7062514B2 (en) X-ray CT device and X-ray tube control device
JP2021074378A (en) Medical processing system and program
JP2021013489A (en) X-ray ct system and medical processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231004

R150 Certificate of patent or registration of utility model

Ref document number: 7362322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150