JP2024046604A - Medical image processing device and control method thereof, and medical image processing program - Google Patents

Medical image processing device and control method thereof, and medical image processing program Download PDF

Info

Publication number
JP2024046604A
JP2024046604A JP2023130532A JP2023130532A JP2024046604A JP 2024046604 A JP2024046604 A JP 2024046604A JP 2023130532 A JP2023130532 A JP 2023130532A JP 2023130532 A JP2023130532 A JP 2023130532A JP 2024046604 A JP2024046604 A JP 2024046604A
Authority
JP
Japan
Prior art keywords
data
image
image processing
ray
tomographic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023130532A
Other languages
Japanese (ja)
Inventor
麻紀子 上野
剛司 野田
明哉 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to PCT/JP2023/031810 priority Critical patent/WO2024062894A1/en
Publication of JP2024046604A publication Critical patent/JP2024046604A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】異なるX線検出方式で得られる医用画像の比較をより容易にする。【解決手段】医用画像処理装置は、第1のX線検出方式を用いて取得された第1のデータと、第1のX線検出方式とは異なる第2のX線検出方式を用いて取得された第2のデータと、を取得し、第1のデータもしくは第1のデータを取得するための信号を処理して第2のデータに類似させた第3のデータを生成し、第2のデータに基づくデータと第3のデータに基づくデータとを位置合わせした結果に基づいて、第1のデータに基づくデータと第2のデータに基づくデータとを位置合わせする。【選択図】 図1[Problem] To make it easier to compare medical images obtained using different X-ray detection methods. [Solution] A medical image processing device acquires first data acquired using a first X-ray detection method and second data acquired using a second X-ray detection method different from the first X-ray detection method, processes the first data or a signal for acquiring the first data to generate third data similar to the second data, and aligns data based on the first data and data based on the second data based on a result of aligning data based on the second data and data based on the third data. [Selected Figure]

Description

本開示は、医用画像処理装置およびその制御方法、医用画像処理プログラムに関する。 This disclosure relates to a medical image processing device, a control method thereof, and a medical image processing program.

一般に、積分型のX線検出方式(積分方式)のX線検出器を用いたCT装置が普及している一方、近年では、フォトンカウンティング型のX線検出方式(以下、フォトンカウンティング方式)のX線検出器を用いたCT装置の実用化も進んでいる。特許文献1には、X線検出器により検出した信号を用いて収集されたX線光子の計数データに基づく、フォトンカウンティング方式のX線CT装置が開示されている。フォトンカウンティング方式のX線CT装置は、X線検出器により検出した信号を所定の時間幅で積分して得られる積分データに基づく積分方式のX線CT装置と比較して低線量で高解像度の画像を得ることができる。 While CT devices using X-ray detectors with an integral X-ray detection method (integral method) are generally in widespread use, in recent years, CT devices using X-ray detectors with a photon-counting X-ray detection method (hereinafter referred to as photon-counting method) have also been put to practical use. Patent Document 1 discloses an X-ray CT device using a photon-counting method based on counting data of X-ray photons collected using signals detected by an X-ray detector. Compared to an X-ray CT device using an integral method based on integral data obtained by integrating signals detected by an X-ray detector over a predetermined time width, a photon-counting method X-ray CT device can obtain high-resolution images with a lower dose.

特開2020-127635号公報JP 2020-127635 A

例えば、経過観察などにおいて、過去に積分方式で取得されたCT画像と、新たにフォトンカウンティング方式で取得されたCT画像とを比較したい場合など、異なるX線検出方式で得られた医用画像を比較したい場合がある。しかしながら、フォトンカウンティング方式のCT画像と積分方式のCT画像との比較といったような、異なるX線検出方式で得られた医用画像の比較を適切に行うことは難しい。これは、2つの医用画像の差異に、画質の向上により生じる差異と、病変などの経時変化により生じる差異とが混在することなどによるものであり、両方式による画像間の位置合わせが困難になり、さらに、差異の混在により経時変化を認識することが困難になるためである。 For example, in follow-up observations, there are cases where it is necessary to compare medical images obtained using different X-ray detection methods, such as when comparing a CT image previously obtained using the integral method with a new CT image obtained using the photon counting method. However, it is difficult to properly compare medical images obtained using different X-ray detection methods, such as a CT image obtained using the photon counting method with a CT image obtained using the integral method. This is because the differences between the two medical images include a mixture of differences caused by improvements in image quality and differences caused by changes over time, such as changes in lesions, making it difficult to align the images obtained using both methods, and furthermore, the mixture of differences makes it difficult to recognize changes over time.

本明細書の開示は、異なるX線検出方式で得られる医用画像の比較をより容易にするための技術を提供する。 The disclosure herein provides techniques to make it easier to compare medical images obtained using different X-ray detection methods.

本明細書の一態様による医用画像処理装置は、第1のX線検出方式を用いて取得された第1のデータと、前記第1のX線検出方式とは異なる第2のX線検出方式を用いて取得された第2のデータと、を取得する取得手段と、
前記第1のデータもしくは前記第1のデータを取得するための信号を処理して前記第2のデータに類似させた第3のデータを生成する生成手段と、
前記第2のデータに基づくデータと前記第3のデータに基づくデータとを位置合わせした結果に基づいて、前記第1のデータに基づくデータと前記第2のデータに基づくデータとを位置合わせする位置合わせ手段と、を備える。
A medical image processing apparatus according to an aspect of the present specification includes: an acquisition means for acquiring first data acquired using a first X-ray detection method and second data acquired using a second X-ray detection method different from the first X-ray detection method;
a generating means for processing the first data or a signal for acquiring the first data to generate third data similar to the second data;
and an alignment means for aligning the data based on the first data and the data based on the second data based on a result of aligning the data based on the second data and the data based on the third data.

また、本明細書の一態様による医用画像処理装置の制御方法は、第1のX線検出方式を用いて取得された第1のデータと、前記第1のX線検出方式とは異なる第2のX線検出方式を用いて取得された第2のデータと、を取得する取得工程と、
前記第1のデータもしくは前記第1のデータを取得するための信号を処理して前記第2のデータに類似させた第3のデータを生成する生成工程と、
前記第2のデータに基づくデータと前記第3のデータに基づくデータとを位置合わせした結果に基づいて、前記第1のデータに基づくデータと前記第2のデータに基づくデータとを位置合わせする位置合わせ工程と、を備える。
Further, in a method for controlling a medical image processing apparatus according to an aspect of the present specification, first data obtained using a first X-ray detection method and second data obtained using a first X-ray detection method are used. an acquisition step of acquiring second data acquired using the X-ray detection method;
a generation step of processing the first data or a signal for acquiring the first data to generate third data similar to the second data;
A position at which data based on the first data and data based on the second data are aligned based on a result of aligning data based on the second data and data based on the third data. A matching step is provided.

また、本明細書の一態様による医用画像処理プログラムは、第1のX線検出方式を用いて取得された第1のデータと、前記第1のX線検出方式とは異なる第2のX線検出方式を用いて取得された第2のデータと、を取得する取得ステップと、
前記第1のデータもしくは前記第1のデータを取得するための信号を処理して前記第2のデータに類似させた第3のデータを生成する生成ステップと、
前記第2のデータに基づくデータと前記第3のデータに基づくデータとを位置合わせした結果に基づいて、前記第1のデータに基づくデータと前記第2のデータに基づくデータとを位置合わせする位置合わせステップと、を備える。
A medical image processing program according to an aspect of the present specification includes an acquisition step of acquiring first data acquired using a first X-ray detection method and second data acquired using a second X-ray detection method different from the first X-ray detection method;
a generating step of processing the first data or a signal for acquiring the first data to generate third data similar to the second data;
and an alignment step of aligning the data based on the first data and the data based on the second data based on a result of aligning the data based on the second data and the data based on the third data.

本明細書の開示によれば、異なるX線検出方式で得られる画像間の比較をより容易にすることができる。 According to the disclosure of this specification, it is possible to more easily compare images obtained by different X-ray detection methods.

実施形態に係るX線CT装置の構成例を示す図である。1 is a diagram showing an example of the configuration of an X-ray CT apparatus according to an embodiment; 実施形態に係るX線検出器を説明するための図である。1 is a diagram for explaining an X-ray detector according to an embodiment; 処理例1に係る医用画像処理を示すフローチャートである。5 is a flowchart showing medical image processing according to processing example 1. FIG. 処理例1に係る医用画像処理を示すフローチャートである。1 is a flowchart showing medical image processing according to a processing example 1. 処理例2に係る医用画像処理を示すフローチャートである。13 is a flowchart showing medical image processing according to a processing example 2. 処理例2に係る医用画像処理を示すフローチャートである。7 is a flowchart showing medical image processing according to processing example 2. FIG. 処理例3に係る医用画像処理を示すフローチャートである。12 is a flowchart illustrating medical image processing according to processing example 3. 処理例4に係る医用画像処理を示すフローチャートである。12 is a flowchart illustrating medical image processing according to processing example 4. 処理例4に係る学習処理を示すフローチャートである。13 is a flowchart showing a learning process according to a processing example 4. 処理例5に係る医用画像処理を示すフローチャートである。13 is a flowchart showing medical image processing according to a processing example 5. 処理例1に係る断層画像の表示例を示す図。11A and 11B are diagrams showing display examples of tomographic images according to processing example 1. 処理例1に係る断層画像の表示例を示す図。11A and 11B are diagrams showing display examples of tomographic images according to processing example 1. 処理例2に係る差分画像もしくは差分領域を示す情報の表示例を示す図である。7 is a diagram illustrating a display example of information indicating a difference image or a difference area according to Processing Example 2. FIG. 処理例2に係る差分画像もしくは差分領域を示す情報の表示例を示す図である。13A and 13B are diagrams illustrating an example of display of information indicating a difference image or a difference region according to the processing example 2. 実施形態に画像データセットの表示例を示す図である。FIG. 3 is a diagram illustrating a display example of an image data set in the embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.

以下では、本明細書に開示する医用画像処理装置、X線CT装置及び処理プログラムの実施形態について詳細に説明する。なお、本願に係る医用画像処理装置、X線CTシステム及び処理プログラムは、以下に示す実施形態によって限定されるものではない。また、以下では、放射線検出器としてX線検出器を、放射線診断装置としてX線CT装置を一例に挙げて説明する。 Below, embodiments of a medical image processing device, an X-ray CT device, and a processing program disclosed in this specification will be described in detail. Note that the medical image processing apparatus, X-ray CT system, and processing program according to the present application are not limited to the embodiments described below. Further, in the following description, an X-ray detector will be taken as an example of a radiation detector, and an X-ray CT apparatus will be taken as an example of a radiation diagnostic apparatus.

以下の実施形態で説明するX線CT装置は、フォトンカウンティングCTを実行可能な装置である。すなわち、以下で説明されるX線CT装置は、フォトンカウンティング方式のX線検出器を用いて被検体を透過したX線により生じる光子数を計数することで、SN比の高いX線CT画像データを再構成可能な装置である。また、以下の実施形態で説明するX線検出器は、X線光子をエネルギーに比例する電荷に直接変換する直接変換型の検出器である。 The X-ray CT apparatus described in the following embodiments is an apparatus capable of performing photon counting CT. In other words, the X-ray CT apparatus described below uses a photon-counting X-ray detector to count the number of photons generated by X-rays that have passed through the subject, thereby generating X-ray CT image data with a high signal-to-noise ratio. It is a reconfigurable device. Furthermore, the X-ray detector described in the following embodiments is a direct conversion type detector that directly converts X-ray photons into charges proportional to energy.

図1は、実施形態に係る、フォトンカウンティング方式のX線CT装置1の構成の一例を示す図である。図1に示すように、実施形態に係るX線CT装置1は、架台装置10と、寝台装置30と、コンソール装置40とを有する。図1において、非チルト状態での回転フレーム13の回転軸の方向、又は寝台装置30の天板33の長手方向をZ軸方向とする。また、Z軸方向に直交し、床面に対し水平である軸方向をX軸方向とする。また、Z軸方向に直交し、床面に対し垂直である軸方向をY軸方向とする。なお、図1は、説明のために架台装置10を複数方向から描画した図を含むが、実施形態のX線CT装置1は、1つの架台装置10を有しているものとする。 FIG. 1 is a diagram showing an example of the configuration of a photon counting type X-ray CT apparatus 1 according to an embodiment. As shown in FIG. 1, the X-ray CT apparatus 1 according to the embodiment includes a gantry device 10, a bed device 30, and a console device 40. In FIG. 1, the direction of the rotation axis of the rotating frame 13 in a non-tilted state or the longitudinal direction of the top plate 33 of the bed device 30 is defined as the Z-axis direction. Further, the axial direction that is orthogonal to the Z-axis direction and horizontal to the floor surface is defined as the X-axis direction. Further, the axial direction that is orthogonal to the Z-axis direction and perpendicular to the floor surface is defined as the Y-axis direction. Although FIG. 1 includes a diagram in which the gantry apparatus 10 is drawn from a plurality of directions for explanation, it is assumed that the X-ray CT apparatus 1 of the embodiment has one gantry apparatus 10.

架台装置10は、X線管11と、X線検出器12と、回転フレーム13と、X線高電圧装置14と、制御装置15と、ウェッジ16と、コリメータ17と、DAS18とを有する。なお、DASとは、Data Acquisition Systemの略である。 The gantry device 10 includes an X-ray tube 11, an X-ray detector 12, a rotating frame 13, an X-ray high voltage device 14, a control device 15, a wedge 16, a collimator 17, and a DAS 18. Note that DAS is an abbreviation for Data Acquisition System.

X線管11は、熱電子を発生する陰極(フィラメント)と、熱電子の衝突を受けてX線を発生する陽極(ターゲット)とを有する真空管である。X線管11は、X線高電圧装置14からの高電圧の印加により、陰極から陽極に向けて熱電子を照射することで、被検体Pに対し照射するX線を発生する。例えば、X線管11には、回転する陽極に熱電子を照射することでX線を発生させる回転陽極型のX線管がある。 The X-ray tube 11 is a vacuum tube that has a cathode (filament) that generates thermoelectrons and an anode (target) that generates X-rays upon collision with the thermoelectrons. The X-ray tube 11 generates X-rays to irradiate the subject P by irradiating thermoelectrons from the cathode to the anode by applying a high voltage from the X-ray high voltage device 14 . For example, the X-ray tube 11 includes a rotating anode type X-ray tube that generates X-rays by irradiating a rotating anode with thermoelectrons.

回転フレーム13は、X線管11とX線検出器12とを対向支持し、制御装置15の制御によってX線管11とX線検出器12とを回転させる円環状のフレームである。例えば、回転フレーム13は、アルミニウムを材料とした鋳物である。なお、回転フレーム13は、X線管11及びX線検出器12に加えて、X線高電圧装置14やウェッジ16、コリメータ17、DAS18等を更に支持することもできる。また、回転フレーム13は、図1において図示しない種々の構成を更に支持することもできる。 The rotating frame 13 is an annular frame that supports the X-ray tube 11 and the X-ray detector 12 facing each other and rotates the X-ray tube 11 and the X-ray detector 12 under the control of the control device 15. For example, the rotating frame 13 is cast from aluminum. Note that, in addition to the X-ray tube 11 and the X-ray detector 12, the rotating frame 13 can also support an X-ray high voltage device 14, a wedge 16, a collimator 17, a DAS 18, and the like. Additionally, the rotating frame 13 can further support various configurations not shown in FIG.

ウェッジ16は、X線管11から照射されたX線量を調節するためのフィルタである。具体的には、ウェッジ16は、X線管11から被検体Pへ照射されるX線が、予め定められた分布になるように、X線管11から照射されたX線を透過、減衰するフィルタである。例えば、ウェッジ16は、所定のターゲット角度や所定の厚みとなるようにアルミニウム等を加工したフィルタであり、ウェッジフィルタ(wedge filter)またはボウタイフィルタ(bow-tie filter)を備える。 The wedge 16 is a filter for adjusting the amount of X-rays irradiated from the X-ray tube 11. Specifically, the wedge 16 transmits and attenuates the X-rays irradiated from the X-ray tube 11 so that the X-rays irradiated from the X-ray tube 11 to the subject P have a predetermined distribution. It's a filter. For example, the wedge 16 is a filter processed from aluminum or the like to have a predetermined target angle and a predetermined thickness, and includes a wedge filter or a bow-tie filter.

コリメータ17は、ウェッジ16を透過したX線の照射範囲を絞り込む。コリメータ17は、複数の鉛板等の組み合わせによって形成されたスリットを有する。なお、コリメータ17は、X線絞りと呼ばれる場合もある。また、図1においては、X線管11とコリメータ17との間にウェッジ16が配置される場合が示されているが、X線管11とウェッジ16との間にコリメータ17が配置される構成であってもよい。この場合、ウェッジ16は、X線管11から照射され、コリメータ17により照射範囲が制限されたX線を透過、減衰させることになる。 The collimator 17 narrows down the irradiation range of the X-rays that have passed through the wedge 16. The collimator 17 has a slit formed by a combination of a plurality of lead plates and the like. Note that the collimator 17 is sometimes called an X-ray diaphragm. Furthermore, although FIG. 1 shows a case in which the wedge 16 is disposed between the X-ray tube 11 and the collimator 17, a configuration in which the collimator 17 is disposed between the X-ray tube 11 and the wedge 16 is shown. It may be. In this case, the wedge 16 transmits and attenuates the X-rays irradiated from the X-ray tube 11 and whose irradiation range is limited by the collimator 17.

X線高電圧装置14は、X線管11に印加する高電圧を発生する高電圧発生部と、X線管11が発生するX線に応じた出力電圧の制御を行うX線制御部とを有する。高電圧発生部による高電圧の発生の方式は、例えば変圧器方式であってもよいしインバータ方式であってもよい。なお、X線高電圧装置14は、回転フレーム13に設けられてもよいし、図示しない固定フレームに設けられても構わない。 The X-ray high voltage device 14 includes a high voltage generator that generates a high voltage to be applied to the X-ray tube 11, and an X-ray controller that controls the output voltage according to the X-rays generated by the X-ray tube 11. have The method of generating high voltage by the high voltage generator may be, for example, a transformer method or an inverter method. Note that the X-ray high voltage device 14 may be provided on the rotating frame 13 or may be provided on a fixed frame (not shown).

制御装置15は、CPU(Central Processing Unit)等を有する処理回路と、モータ及びアクチュエータ等の駆動機構とを有する。制御装置15は、コンソール装置40の入力インターフェース43から信号を受けて、架台装置10及び寝台装置30の動作を制御する。例えば、制御装置15は、回転フレーム13の回転、架台装置10のチルト、寝台装置30による天板33の動作、等を制御する。例えば、架台装置10のチルトを行うために、制御装置15は、入力インターフェース43から入力された傾斜角度(チルト角度)情報に従って、X軸方向に平行な軸を中心に回転フレーム13を回転させる。なお、制御装置15は架台装置10に設けられてもよいし、コンソール装置40に設けられてもよい。 The control device 15 has a processing circuit having a CPU (Central Processing Unit) and the like, and a driving mechanism such as a motor and an actuator. The control device 15 receives a signal from the input interface 43 of the console device 40 and controls the operation of the gantry device 10 and the bed device 30. For example, the control device 15 controls the rotation of the rotating frame 13, the tilt of the gantry device 10, the operation of the tabletop 33 by the bed device 30, and the like. For example, to tilt the gantry device 10, the control device 15 rotates the rotating frame 13 around an axis parallel to the X-axis direction according to the inclination angle (tilt angle) information input from the input interface 43. The control device 15 may be provided in the gantry device 10 or in the console device 40.

X線検出器12は、X線光子が入射するごとに、X線光子のエネルギー値を計測可能な信号を出力する、フォトンカウンティング方式の検出器である。X線検出器12により検出されるX線光子は、例えば、X線管11から照射され被検体Pを透過したX線光子である。X線検出器12は、X線光子が入射するごとに、1パルスの電気信号(アナログ信号)を出力する複数の検出素子を有する。例えば、X線検出器12は、X線管11の焦点を中心とする1つの円弧に沿ってチャネル方向に複数のX線検出素子(以下、単に「検出素子」とも言う)が配列されたX線検出素子列が、スライス方向に複数列配列された構造を有する。X線検出器12の検出素子は、電気信号(パルス)の数を計数することで、検出素子に入射したX線光子の数を計数することが可能である。また、この信号に対して、処理の演算処理を行なうことで、当該信号の出力を引き起こしたX線光子のエネルギー値を計測することができる。 The X-ray detector 12 is a photon-counting detector that outputs a signal capable of measuring the energy value of an X-ray photon each time an X-ray photon is incident. The X-ray photons detected by the X-ray detector 12 are, for example, X-ray photons irradiated from the X-ray tube 11 and transmitted through the subject P. The X-ray detector 12 has a plurality of detection elements that output one pulse of an electrical signal (analog signal) each time an X-ray photon is incident. For example, the X-ray detector 12 has a structure in which a plurality of X-ray detection element rows (hereinafter also simply referred to as "detection elements") are arranged in the channel direction along one arc centered on the focus of the X-ray tube 11, and multiple rows are arranged in the slice direction. The detection elements of the X-ray detector 12 can count the number of X-ray photons incident on the detection elements by counting the number of electrical signals (pulses). In addition, the energy value of the X-ray photon that caused the output of the signal can be measured by performing arithmetic processing on the signal.

図2は、本実施形態によるX線検出器12の一部の構成を示す模式図である。X線検出器12は、フォトンカウンティング方式の検出器であり、図2に示されるように、検出素子130と、検出素子130に接続されて、検出素子130が検出したX線光子を計数するASIC134とを有する。なお、ASICとは、Application Specific Integrated Circuitの略である。本実施形態のX線検出器12は、入射したX線光子を、直接、電気信号に変換する直接変換型の検出器である。図2では、X線検出器12を構成する複数の検出素子のうちの1つの検出素子が示されている。 Figure 2 is a schematic diagram showing the configuration of a portion of the X-ray detector 12 according to this embodiment. The X-ray detector 12 is a photon-counting detector, and as shown in Figure 2, has a detection element 130 and an ASIC 134 that is connected to the detection element 130 and counts the X-ray photons detected by the detection element 130. Note that ASIC is an abbreviation for Application Specific Integrated Circuit. The X-ray detector 12 of this embodiment is a direct conversion type detector that directly converts incident X-ray photons into an electrical signal. Figure 2 shows one of the multiple detection elements that make up the X-ray detector 12.

検出素子130は、半導体131と、カソード電極132と、複数のアノード電極133とを有する。ここで、半導体131は、CdTe(テルル化カドミウム:cadmium telluride)またはCdZnTe(テルル化亜鉛カドミウム:cadmium Zinc telluride)等の半導体である。また、複数のアノード電極133のそれぞれが検出画素(「画素」とも言う)に対応する。検出素子130にX線光子が入射すると 、検出素子130は、検出素子130に入射したX線を直接電荷に変換して、X線の入射位置に対応するアノード電極133からASIC134に出力する。 The detection element 130 includes a semiconductor 131, a cathode electrode 132, and a plurality of anode electrodes 133. Here, the semiconductor 131 is a semiconductor such as CdTe (cadmium telluride) or CdZnTe (cadmium zinc telluride). Furthermore, each of the plurality of anode electrodes 133 corresponds to a detection pixel (also referred to as a "pixel"). When an X-ray photon is incident on the detection element 130, the detection element 130 directly converts the incident X-ray into a charge and outputs it to the ASIC 134 from the anode electrode 133 corresponding to the incident position of the X-ray.

ASIC134は、複数のアノード電極133の各々(すなわち個々の検出画素)に対して一つずつ設けられている。ASIC134は、検出素子130が出力した電荷を弁別することで、検出素子130の検出画素ごとに、入射したX線光子の数を計数する。また、ASIC134は、個々の電荷の大きさに基づく演算処理を行なうことで、計数したX線光子のエネルギーを計測する。ASIC134は、X線光子の計数結果および/またはX線光子のエネルギーの計測結果を、デジタルデータとしてDAS18に出力する。 One ASIC 134 is provided for each of the multiple anode electrodes 133 (i.e., each detection pixel). The ASIC 134 counts the number of incident X-ray photons for each detection pixel of the detection element 130 by discriminating the charge output by the detection element 130. The ASIC 134 also measures the energy of the counted X-ray photons by performing arithmetic processing based on the magnitude of each charge. The ASIC 134 outputs the X-ray photon counting results and/or the X-ray photon energy measurement results to the DAS 18 as digital data.

ASIC134は、例えば、コンデンサ1341と、増幅回路1342と、波形整形回路1343とコンパレータ回路1344と、カウンタ1345とを有する。コンデンサ1341は、検出素子130が出力した電荷を蓄積する。増幅回路1342は検出素子130に入射したX線光子に応答してコンデンサ1341に集電される電荷を積分、増幅して電気量のパルス信号として出力する。このパルス信号の波高又は面積は、光子のエネルギーと相関性を有する。 The ASIC 134 includes, for example, a capacitor 1341, an amplifier circuit 1342, a waveform shaping circuit 1343, a comparator circuit 1344, and a counter 1345. Capacitor 1341 accumulates the charge output by detection element 130. The amplifier circuit 1342 integrates and amplifies the charge collected in the capacitor 1341 in response to the X-ray photon incident on the detection element 130, and outputs the integrated charge as a pulse signal of electrical quantity. The pulse height or area of this pulse signal has a correlation with the energy of photons.

増幅回路1342は、例えば、アンプを含む。アンプは、例えば、片線接地(シングルエンド)方式のアンプであってもよいし、差動方式のアンプであってもよい。片線接地方式のアンプである場合には、アンプは、接地されており、接地電位(グラウンド)と検出素子130が出力した電気信号が示す電位との電位差を増幅する。差動方式のアンプである場合には、アンプの正入力(+)が検出素子130と接続され、負入力(-)が接地される。差動方式のアンプは、正入力に入力される検出素子130からの電気信号が示す電位と、負入力に入力される信号が示す接地電位との電位差を増幅する。 Amplification circuit 1342 includes, for example, an amplifier. The amplifier may be, for example, a single-end type amplifier or a differential type amplifier. In the case of a single-wire grounding type amplifier, the amplifier is grounded and amplifies the potential difference between the ground potential (ground) and the potential indicated by the electrical signal output by the detection element 130. In the case of a differential amplifier, the positive input (+) of the amplifier is connected to the detection element 130, and the negative input (-) is grounded. The differential amplifier amplifies the potential difference between the potential indicated by the electrical signal from the detection element 130 input to the positive input and the ground potential indicated by the signal input to the negative input.

波形整形回路1343は、増幅回路1342から出力されるパルス信号の周波数特性を調整し、かつゲイン及びオフセットを与えることによってパルス信号の波形を整形する。コンパレータ回路1344は、入射した光子への応答パルス信号の波高又は面積を、弁別すべき複数のエネルギー帯域に対応して予め設定された閾値と比較し、閾値との比較結果を後段のカウンタ1345に出力する。カウンタ1345は、対応するエネルギー帯域毎に応答パルス信号の波形の弁別結果をカウントし、光子の計数結果をデジタルデータとしてDAS18に出力する。例えば、カウンタ1345は、複数のエネルギー帯域それぞれのX線光子の計数結果を示すデジタルデータを生成し、生成されたデジタルデータをDAS18に出力する。 The waveform shaping circuit 1343 adjusts the frequency characteristics of the pulse signal output from the amplifier circuit 1342 and shapes the waveform of the pulse signal by applying a gain and an offset. The comparator circuit 1344 compares the pulse height or area of the response pulse signal to the incident photons with a threshold value set in advance corresponding to the multiple energy bands to be discriminated, and outputs the comparison result with the threshold to the downstream counter 1345. The counter 1345 counts the discrimination result of the waveform of the response pulse signal for each corresponding energy band, and outputs the photon count result to the DAS 18 as digital data. For example, the counter 1345 generates digital data indicating the count result of X-ray photons for each of the multiple energy bands, and outputs the generated digital data to the DAS 18.

上述したような構成により、X線検出器12は、X線光子を検出してエネルギー情報を取得する。なお、上記のX線検出器12において、検出素子130のX線入射側にグリッドが設けられてもよいことは言うまでもない。また、X線検出器12は、例えば、グリッドと、シンチレータアレイと、光センサアレイとを備える間接変換型のフォトンカウンティング検出器であってもよい。シンチレータアレイは、複数のシンチレータを備え、シンチレータは入射X線エネルギーに応じた数の光を出力するシンチレータ結晶にて構成される。グリッドは、シンチレータアレイのX線入射側の面に配置され、散乱X線を吸収する機能を有するX線遮蔽板で構成される。光センサアレイは、シンチレータからの光量に応じた電気信号に変換する機能を有し、例えば、光電子増倍管等の光センサから構成される。ここで、光センサは、例えばPD(Photodiode)やAPD(Avalanche Photodiode)やSiPM(Silicon photomultipliers)などである。 With the above-mentioned configuration, the X-ray detector 12 detects X-ray photons and obtains energy information. It goes without saying that a grid may be provided on the X-ray incident side of the detection element 130 in the above-mentioned X-ray detector 12. The X-ray detector 12 may also be an indirect conversion type photon counting detector that includes, for example, a grid, a scintillator array, and a photosensor array. The scintillator array includes a plurality of scintillators, and the scintillator is composed of scintillator crystals that output a number of lights according to the incident X-ray energy. The grid is arranged on the X-ray incident side surface of the scintillator array and is composed of an X-ray shielding plate that has the function of absorbing scattered X-rays. The photosensor array has a function of converting the amount of light from the scintillator into an electrical signal according to the amount of light, and is composed of photosensors such as photomultiplier tubes. Here, the photosensor is, for example, a PD (Photodiode), an APD (Avalanche Photodiode), or a SiPM (Silicon photomultipliers).

図1に戻り、DAS18は、X線検出器12から入力された計数結果に基づいて検出データを生成する。検出データは、例えば、サイノグラムである。サイノグラムは、X線管11の各位置において検出素子130に入射したX線光子を計数処理した結果を、ビュー方向及びチャンネル方向を軸とする2次元直交座標系に並べたデータである。DAS18は、例えば、X線検出器12におけるスライス方向の列単位で、サイノグラムを生成する。ここで、計数処理の結果は、エネルギービンごとのX線の光子数を割り当てたデータである。例えば、DAS18は、X線管11から照射されて被検体Pを透過したX線に由来する光子(X線光子)を計数し、当該計数したX線光子のエネルギーを弁別して計数処理の結果とする。DAS18は、生成した検出データをコンソール装置40へ転送する。DAS18は、例えば、プロセッサーにより実現される。 Returning to FIG. 1, the DAS 18 generates detection data based on the count results input from the X-ray detector 12. The detected data is, for example, a sinogram. The sinogram is data in which the results of counting the X-ray photons incident on the detection element 130 at each position of the X-ray tube 11 are arranged in a two-dimensional orthogonal coordinate system with the view direction and channel direction as axes. The DAS 18 generates a sinogram in units of columns in the slice direction of the X-ray detector 12, for example. Here, the result of the counting process is data in which the number of X-ray photons is assigned to each energy bin. For example, the DAS 18 counts photons (X-ray photons) originating from X-rays irradiated from the X-ray tube 11 and transmitted through the subject P, discriminates the energy of the counted X-ray photons, and calculates the result of the counting process. do. The DAS 18 transfers the generated detection data to the console device 40. DAS18 is realized by a processor, for example.

DAS18が生成したデータは、回転フレーム13に設けられた発光ダイオード(LED)を有する送信機から、光通信によって、フォトダイオード(PD)を有する受信機に送信され、コンソール装置40へと転送される。受信機は、例えば、回転フレーム13を回転可能に支持する固定フレーム等の、架台装置10の非回転部分に設けられる。なお、図1では、送信機と受信機の図示は省略されている。また、回転フレーム13から架台装置10の非回転部分へのデータの送信方法は、上述の様な光通信に限られるものではない。DAS18が生成したデータの伝送には、非接触型の如何なるデータ伝送方式が採用されてもよいし、接触型のデータ伝送方式が採用されてもよい。 The data generated by the DAS 18 is transmitted by optical communication from a transmitter having a light-emitting diode (LED) provided on the rotating frame 13 to a receiver having a photodiode (PD), and then transferred to the console device 40. The receiver is provided in a non-rotating part of the gantry 10, such as a fixed frame that rotatably supports the rotating frame 13. Note that the transmitter and receiver are not shown in FIG. 1. Furthermore, the method of transmitting data from the rotating frame 13 to the non-rotating part of the gantry 10 is not limited to optical communication as described above. Any non-contact data transmission method or a contact data transmission method may be used to transmit the data generated by the DAS 18.

寝台装置30は、撮影対象の被検体Pを載置、移動させる装置であり、基台31と、寝台駆動装置32と、天板33と、支持フレーム34とを有する。基台31は、支持フレーム34を鉛直方向に移動可能に支持する筐体である。寝台駆動装置32は、被検体Pが載置された天板33を、天板33の長軸方向に移動する駆動機構であり、モータ及びアクチュエータ等を含む。支持フレーム34の上面に設けられた天板33は、被検体Pが載置される板である。なお、寝台駆動装置32は、天板33に加え、支持フレーム34を天板33の長軸方向に移動してもよい。 The bed device 30 is a device on which the subject P to be imaged is placed and moved, and has a base 31, a bed driving device 32, a top plate 33, and a support frame 34. The base 31 is a housing that supports the support frame 34 so that it can move in the vertical direction. The bed driving device 32 is a drive mechanism that moves the top plate 33 on which the subject P is placed in the longitudinal direction of the top plate 33, and includes a motor, an actuator, etc. The top plate 33, which is provided on the upper surface of the support frame 34, is a plate on which the subject P is placed. Note that the bed driving device 32 may move the support frame 34 in the longitudinal direction of the top plate 33 in addition to the top plate 33.

コンソール装置40は、メモリ41と、表示部42と、入力インターフェース43と、制御部44とを有する。なお、本実施形態では、コンソール装置40を架台装置10とは別体の構成として説明するが、架台装置10にコンソール装置40もしくはコンソール装置40の構成要素の一部が含まれてもよい。 The console device 40 has a memory 41, a display unit 42, an input interface 43, and a control unit 44. In this embodiment, the console device 40 is described as being separate from the gantry device 10, but the gantry device 10 may include the console device 40 or some of the components of the console device 40.

メモリ41は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。メモリ41は、例えば、投影データやCT画像データを記憶する。また、例えば、メモリ41は、X線CT装置1に含まれる制御部がその機能を実現するためのプログラムを記憶する。なお、メモリ41は、X線CT装置1とネットワークを介して接続されたサーバー群(クラウド)により実現されてもよい。 The memory 41 is realized, for example, by a semiconductor memory element such as a RAM (Random Access Memory), a flash memory, a hard disk, an optical disk, etc. The memory 41 stores, for example, projection data and CT image data. Also, for example, the memory 41 stores a program for enabling a control unit included in the X-ray CT device 1 to realize its functions. Note that the memory 41 may be realized by a group of servers (cloud) connected to the X-ray CT device 1 via a network.

表示部42は、各種の情報を表示する。例えば、表示部42は、制御部44によって生成された各種の画像を表示したり、ユーザから各種の操作を受け付けるためのGUI(Graphical User Interface)を表示したりする。例えば、表示部42は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。表示部42は、デスクトップ型でもよいし、コンソール装置40と無線通信が可能なタブレット端末等で構成されてもよい。なお、ユーザとは、操作者、検査者などの、X線CT装置1を使用する者である。 The display unit 42 displays various information. For example, the display unit 42 displays various images generated by the control unit 44, or displays a GUI (Graphical User Interface) for receiving various operations from the user. For example, the display unit 42 is a liquid crystal display or a CRT (Cathode Ray Tube) display. The display unit 42 may be a desktop type, or may be configured as a tablet terminal or the like capable of wireless communication with the console device 40. The user is a person who uses the X-ray CT device 1, such as an operator or an examiner.

入力インターフェース43は、ユーザから各種の入力操作を受け付けて、受け付けた入力操作を電気信号に変換して制御部44に出力する指示受付部として機能する。また、例えば、入力インターフェース43は、CT画像データを再構成する際の再構成条件や、CT画像データから後処理画像を生成する際の画像処理条件等の入力操作をユーザから受け付ける。例えば、入力インターフェース43は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力部、音声入力部等により実現され得る。なお、入力インターフェース43がタッチスクリーンである場合には、入力インターフェース43が表示部42の機能を兼ねることができる。また、入力インターフェース43は、架台装置10に設けられてもよい。また、入力インターフェース43は、コンソール装置40と無線通信が可能なタブレット端末等で構成されてもよい。また、入力インターフェース43は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、入力インターフェース43は、コンソール装置40とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御部44へ出力する処理を行う構成であってもよい。 The input interface 43 functions as an instruction receiving section that receives various input operations from the user, converts the received input operations into electrical signals, and outputs the electrical signals to the control section 44 . Furthermore, for example, the input interface 43 receives input operations from the user such as reconstruction conditions when reconstructing CT image data, image processing conditions when generating post-processed images from CT image data, and the like. For example, the input interface 43 may include a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touchpad that performs input operations by touching the operation surface, a touchscreen that integrates a display screen and a touchpad, and an optical sensor. This can be realized by using a non-contact input unit, a voice input unit, etc. Note that when the input interface 43 is a touch screen, the input interface 43 can also function as the display section 42. Further, the input interface 43 may be provided in the gantry device 10. Furthermore, the input interface 43 may be configured with a tablet terminal or the like capable of wireless communication with the console device 40. Furthermore, the input interface 43 is not limited to one that includes physical operation parts such as a mouse and a keyboard. For example, the input interface 43 is configured to receive an electrical signal corresponding to an input operation from an external input device provided separately from the console device 40, and perform processing to output this electrical signal to the control unit 44. Good too.

制御部44は、X線CT装置1の全体の動作を制御する。制御部44は、例えば、システム制御部441、前処理部442、再構成処理部443、画像処理部444、スキャン制御部445及び表示制御部446の各機能を実行する。図1に示される制御部44の各機能部が実行する機能は、例えば、コンピュータによって実行可能なプログラムの形態でメモリ41内に記録されている。制御部44は、例えば、プロセッサーであり、メモリ41から各プログラムを読み出し、実行することで読み出した各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の制御部44は、図1の制御部44内に示された各機能部を実現することとなる。なお、図1においては、システム制御部441、前処理部442、再構成処理部443、画像処理部444、スキャン制御部445及び表示制御部446の各機能が単一の制御部44によって実現される場合を示したが、本開示はこれに限られるものではない。例えば、制御部44は、複数の独立したプロセッサーを組み合わせて構成され、各プロセッサーが各プログラムを実行することにより各機能を実現するものとしても構わない。また、制御部44が有する各機能は、単一又は複数の機能部に適宜に分散又は統合されて実現されてもよい。 The control unit 44 controls the overall operation of the X-ray CT apparatus 1. The control unit 44 executes, for example, the functions of a system control unit 441, a preprocessing unit 442, a reconstruction processing unit 443, an image processing unit 444, a scan control unit 445, and a display control unit 446. The functions executed by each functional unit of the control unit 44 shown in FIG. 1 are recorded in the memory 41 in the form of a computer-executable program, for example. The control unit 44 is, for example, a processor, and implements functions corresponding to each read program by reading each program from the memory 41 and executing them. In other words, the control section 44 in a state where each program is read out realizes each functional section shown in the control section 44 of FIG. 1. Note that in FIG. 1, the functions of a system control section 441, a preprocessing section 442, a reconstruction processing section 443, an image processing section 444, a scan control section 445, and a display control section 446 are realized by a single control section 44. However, the present disclosure is not limited thereto. For example, the control unit 44 may be configured by combining a plurality of independent processors, and each processor may implement each function by executing each program. Further, each function of the control unit 44 may be realized by being appropriately distributed or integrated into a single function unit or multiple function units.

システム制御部441は、入力インターフェース43を介してユーザから受け付けた入力操作に基づいて、制御部44の各種機能を制御する。前処理部442は、DAS18から出力された検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を施して投影データを生成する。再構成処理部443は、前処理部442にて生成された投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等を用いた再構成処理を行ってCT画像データ(ボリュームデータ)を生成する。再構成処理部443は、再構成したCT画像データをメモリ41に格納する。 The system control unit 441 controls various functions of the control unit 44 based on input operations received from the user via the input interface 43. The preprocessing unit 442 performs preprocessing such as logarithmic transformation processing, offset correction processing, inter-channel sensitivity correction processing, and beam hardening correction on the detection data output from the DAS 18 to generate projection data. The reconstruction processing unit 443 performs reconstruction processing on the projection data generated by the preprocessing unit 442 using a filter correction back projection method, a successive approximation reconstruction method, etc., to obtain CT image data (volume data). generate. The reconstruction processing unit 443 stores the reconstructed CT image data in the memory 41.

ここで、フォトンカウンティング方式のX線CT装置1で得られる計数結果から生成される投影データには、被検体Pを透過することで減弱されたX線のエネルギーの情報が含まれている。このため、再構成処理部443は、例えば、特定のエネルギー成分のCT画像データを再構成することができる。また、再構成処理部443は、例えば、複数のエネルギー成分それぞれのCT画像データを再構成することができる。 Here, the projection data generated from the counting results obtained by the photon-counting X-ray CT device 1 contains information on the energy of the X-rays attenuated by passing through the subject P. Therefore, the reconstruction processing unit 443 can reconstruct CT image data of a specific energy component, for example. The reconstruction processing unit 443 can also reconstruct CT image data of each of a plurality of energy components, for example.

また、再構成処理部443は、例えば、各エネルギー成分のCT画像データの各画素にエネルギー成分に応じた色調を割り当て、エネルギー成分に応じて色分けされた複数のCT画像データを重畳した画像データを生成することができる。また、再構成処理部443は、例えば、物質固有のK吸収端を利用して、当該物質の同定が可能となる画像データを生成することができる。再構成処理部443が生成し得る他の画像データとしては、単色X線画像データや密度画像データ、実効原子番号画像データ等が挙げられる。 Furthermore, the reconstruction processing unit 443 assigns a color tone according to the energy component to each pixel of the CT image data of each energy component, and generates image data in which a plurality of CT image data color-coded according to the energy component are superimposed. can be generated. Further, the reconstruction processing unit 443 can generate image data that allows identification of the substance, for example, using the K absorption edge unique to the substance. Other image data that can be generated by the reconstruction processing unit 443 include monochromatic X-ray image data, density image data, effective atomic number image data, and the like.

CT画像データを再構成するには被検体の周囲一周、360°分の投影データが、またハーフスキャン法でも180°+ファン角度分の投影データが必要とされる。いずれの再構成方式に対しても本実施形態への適用が可能である。以下、説明を簡単にするため、X線管11とX線検出器12とが被検体の周囲を一周して撮影することにより得られる360°分の投影データを用いてCT画像データを再構成する再構成(フルスキャン再構成)方式が用いられるものとする。 To reconstruct CT image data, projection data for 360° around the subject is required, and even in the half-scan method, projection data for 180° + fan angle is required. Either reconstruction method can be applied to this embodiment. For simplicity of explanation, it is assumed below that a reconstruction (full-scan reconstruction) method is used in which CT image data is reconstructed using 360° of projection data obtained by the X-ray tube 11 and X-ray detector 12 going around the subject and capturing images.

画像処理部444は、入力インターフェース43を介して受け付けたユーザの入力操作に基づき、再構成処理部443によって生成されたCT画像データを、任意断面の断層画像や3次元画像等の画像データに変換する。画像処理部444は、変換した画像データをメモリ41に格納する。また、画像処理部444は、処理例1~5により後述される医用画像処理を行う。 The image processing unit 444 converts the CT image data generated by the reconstruction processing unit 443 into image data such as a tomographic image of an arbitrary cross section or a three-dimensional image based on the user's input operation received via the input interface 43. do. The image processing unit 444 stores the converted image data in the memory 41. Further, the image processing unit 444 performs medical image processing that will be described later using processing examples 1 to 5.

スキャン制御部445は、架台装置10で行なわれるCTスキャンを制御する。例えば、スキャン制御部445は、X線高電圧装置14、X線検出器12、制御装置15、DAS18及び寝台駆動装置32の動作を制御することで、架台装置10における計数結果の収集処理を制御する。一例を挙げると、スキャン制御部445は、位置決め画像(スキャノ画像)を収集する撮影、及び診断に用いる画像を収集する本撮影(スキャン)における投影データの収集処理をそれぞれ制御する。表示制御部446は、メモリ41が記憶する各種画像データを、表示部42に表示するように制御する。 The scan control unit 445 controls the CT scan performed by the gantry 10. For example, the scan control unit 445 controls the operation of the X-ray high voltage device 14, the X-ray detector 12, the control device 15, the DAS 18, and the bed driving device 32, thereby controlling the collection process of the counting results in the gantry 10. As an example, the scan control unit 445 controls the collection process of the projection data in the imaging for collecting positioning images (scanograms) and the main imaging (scan) for collecting images used for diagnosis. The display control unit 446 controls the various image data stored in the memory 41 to be displayed on the display unit 42.

上述した構成を備える本実施形態のX線CT装置1による、フォトンカウンティング型X線検出方式で取得された投影データに基づく断層画像と、積分型X線検出方式で取得された投影データに基づく断層画像とを表示するための処理例を、以下で説明する。なお、積分型X線検出方式とは、X線検出器により検出された信号を所定の時間幅で積分して得られる積分データに基づいてCT画像を生成するX線検出方式である。なお、以降、フォトンカウンティング型X線検出方式で取得されたデータ(ここで記載した「データ」は断層画像などの画像も含む)を、「フォトンカウンティング方式で取得された」データ、「PC型」データと称する場合がある。また、同様に、積分型X線検出方式で取得されたデータを「積分方式で取得された」データ、「積分型」データと称する場合がある。以下に説明される各処理例によれば、フォトンカウンティング方式で得られる断層画像と、積分方式で得られる断層画像との位置ずれや画質差が低減され、医療診断に好適な表示を得ることができる。 A tomographic image based on projection data acquired by the photon counting type X-ray detection method and a tomographic image based on projection data acquired by the integral type X-ray detection method by the X-ray CT apparatus 1 of the present embodiment having the above-described configuration. An example of processing for displaying an image will be described below. Note that the integral type X-ray detection method is an X-ray detection method that generates a CT image based on integral data obtained by integrating a signal detected by an X-ray detector over a predetermined time width. From now on, data acquired using the photon counting type X-ray detection method (the "data" described here includes images such as tomographic images) will be referred to as "data acquired using the photon counting method" and "PC type". Sometimes referred to as data. Similarly, data acquired by the integral type X-ray detection method may be referred to as data "obtained by the integral method" or "integral type" data. According to each processing example described below, the positional deviation and image quality difference between the tomographic image obtained by the photon counting method and the tomographic image obtained by the integral method are reduced, and it is possible to obtain a display suitable for medical diagnosis. can.

<処理例1>
処理例1では、X線CT装置1によりフォトンカウンティング方式で得られる第1のデータに基づいて取得される画像の画質と、過去の検査において積分方式で得られた第2のデータに基づいて取得される画像の画質との差を低減するように、第1のデータを取得するための信号を処理して第3のデータを生成する。生成された第3のデータは、位置合わせや読影に利用される。図3Aは、処理例1における、画像処理部444および表示制御部446による処理を説明するフローチャートである。
<Processing example 1>
In processing example 1, the image quality is acquired based on the first data obtained by the photon counting method by the X-ray CT apparatus 1, and the second data obtained by the integral method in a past examination. The third data is generated by processing the signal for acquiring the first data so as to reduce the difference in image quality between the two images. The generated third data is used for position alignment and image interpretation. FIG. 3A is a flowchart illustrating processing by the image processing unit 444 and display control unit 446 in processing example 1.

S101において、画像処理部444は、第1のX線検出方式を用いて取得された第1のデータと、第1のX線検出方式とは異なるX線検出方式である第2のX線検出方式を用いて取得された第2のデータと、を取得する。なお、本例では、第1のデータと第2のデータとは、異なる日時の検査で取得され、第1のデータは、現在の検査においてフォトンカウンティング方式のCT装置(以下、PC型CT装置)で取得された第1の投影データ(以下、PC型投影データ)である。また、第2のデータは、過去の検査において積分方式のCT装置(以下、積分型CT装置)で取得された第2の投影データ(以下、積分型投影データという)である。X線CT装置1は、PC型CT装置の例である。なお、積分型投影データは、コンソール装置40のメモリ(メモリ41であってもその他のメモリであってもよい)に記憶されたデータであっても良いし、コンソール装置40に接続されたサーバーなどの外部装置に記憶されたデータであっても良い。 In S101, the image processing unit 444 uses the first data acquired using the first X-ray detection method and the second X-ray detection method that is an X-ray detection method different from the first X-ray detection method. second data obtained using the method. In addition, in this example, the first data and the second data are acquired in examinations on different dates and times, and the first data is obtained using a photon counting type CT apparatus (hereinafter referred to as a PC-type CT apparatus) in the current examination. This is the first projection data (hereinafter referred to as PC type projection data) acquired in the above. Further, the second data is second projection data (hereinafter referred to as integral type projection data) acquired by an integral type CT apparatus (hereinafter referred to as integral type CT apparatus) in a past examination. The X-ray CT device 1 is an example of a PC-type CT device. Note that the integral projection data may be data stored in the memory of the console device 40 (which may be the memory 41 or other memory), or may be data stored in a server connected to the console device 40. It may also be data stored in an external device.

S102において、画像処理部444は、再構成処理部443を用いてPC型投影データおよび積分型投影データの各々に逆投影処理、再構成処理を行うことにより、ボリュームデータを生成する。本例では、画像処理部444は、PC型投影データと積分型投影データの各々にフィルタ補正逆投影法による再構成処理を行うことで、PC型ボリュームデータと積分型ボリュームデータとを取得する。PC型ボリュームデータは、第1のデータ(本例ではPC型投影データ)に基づくデータの一例である。また、積分型ボリュームデータは、第2のデータ(本例では積分型投影データ)に基づくデータの一例である。 In S102, the image processing unit 444 generates volume data by performing back projection processing and reconstruction processing on each of the PC type projection data and the integral type projection data using the reconstruction processing unit 443. In this example, the image processing unit 444 obtains the PC type volume data and the integral type volume data by performing reconstruction processing on each of the PC type projection data and the integral type projection data using the filtered back projection method. The PC type volume data is an example of data based on the first data (PC type projection data in this example). Further, the integral volume data is an example of data based on the second data (integral projection data in this example).

S103において、画像処理部444は、第1のデータを取得するための信号を処理して第2のデータに類似させた第3のデータを生成する。本例では、画像処理部444は、現在の検査においてX線検出器12により検出された信号(PC型投影データを取得するための信号)から、積分方式で取得される投影データに類似させた第3の投影データ(以下、疑似投影データ)を生成する。この際、画像処理部444は、データ生成部として機能する。そして、画像処理部444は、再構成処理部443を用いて疑似投影データに逆投影処理、再構成処理を行うことにより、第3のデータに基づくデータである第3のボリュームデータ(以下、疑似ボリュームデータ)を生成する。ここで、X線検出器12で検出された信号とは、DAS18から出力される検出データであり、フォトンカウンティング方式の投影データ(PC型投影データ)を生成するのに用いられる信号である。疑似ボリュームデータの生成は例えば次のように行われ得る。まず、DAS18は、フォトン数とエネルギー値の独立した情報を含む検出データを出力する。前処理部442は、検出データからフォトン数とエネルギー値とを取得し、これらの積の積分値を演算する。画像処理部444は、その積分値を用いて疑似投影データを生成し、再構成処理部443を用いてフィルタ補正逆投影法による再構成処理を行うことにより疑似ボリュームデータを生成する。こうして、積分型X線CT装置により取得されるボリュームデータに類似した、疑似ボリュームデータが生成される。なお、上記では前処理部442が積分値を計算したが、DAS18が積分値を演算し、検出データの一部として出力するようにしてもよい。 In S103, the image processing unit 444 processes the signal for acquiring the first data to generate third data similar to the second data. In this example, the image processing unit 444 generates third projection data (hereinafter, pseudo projection data) similar to the projection data acquired by the integral method from the signal (signal for acquiring PC-type projection data) detected by the X-ray detector 12 in the current examination. At this time, the image processing unit 444 functions as a data generating unit. Then, the image processing unit 444 generates third volume data (hereinafter, pseudo volume data) that is data based on the third data by performing back projection processing and reconstruction processing on the pseudo projection data using the reconstruction processing unit 443. Here, the signal detected by the X-ray detector 12 is the detection data output from the DAS 18, and is a signal used to generate projection data (PC-type projection data) of the photon counting method. The pseudo volume data can be generated, for example, as follows. First, the DAS 18 outputs detection data including independent information on the number of photons and the energy value. The preprocessing unit 442 obtains the number of photons and the energy value from the detection data, and calculates the integral value of the product of these. The image processing unit 444 generates pseudo projection data using the integral value, and generates pseudo volume data by performing reconstruction processing using the filtered back projection method using the reconstruction processing unit 443. In this way, pseudo volume data similar to volume data obtained by an integral type X-ray CT device is generated. Note that, although the preprocessing unit 442 calculates the integral value in the above, the DAS 18 may calculate the integral value and output it as part of the detection data.

S104において、画像処理部444は、第2のデータに基づくデータと第3のデータに基づくデータとを位置合わせした結果に基づいて、第1のデータに基づくデータと第2のデータに基づくデータとを位置合わせする。より具体的には、画像処理部444は、まず、S102で取得された積分型ボリュームデータと、S103で取得された疑似ボリュームデータとの位置合わせを行う。次に、画像処理部444は、その位置合わせ結果(例えば、積分型ボリュームデータと疑似ボリュームデータとの位置ずれ量)に基づいて、PC型ボリュームデータと積分型ボリュームデータとの位置合わせを行う。 In S104, the image processing unit 444 aligns the data based on the second data and the data based on the third data, and aligns the data based on the first data and the data based on the second data. Align. More specifically, the image processing unit 444 first aligns the integral volume data acquired in S102 with the pseudo volume data acquired in S103. Next, the image processing unit 444 aligns the PC volume data and the integral volume data based on the alignment result (for example, the amount of positional deviation between the integral volume data and the pseudo volume data).

2つのボリュームデータの位置合わせは、例えば次のように行われる。画像処理部444は、位置合わせ対象の2つのボリュームデータ(PC型ボリュームデータと積分型ボリュームデータ)のうちの一方のボリュームデータにおいて特徴点(複数の特徴点であることが好ましい)を抽出し、他方のボリュームデータにおいて対応する特徴点を検索する。特徴点としてはSIFT,HOG,SURF等が考えられる。また、エッジ検出処理などを行うことにより画像の特徴的な部分が特徴点として抽出されてもよい。また、対応する特徴点の検索には、テンプレートマッチング、すなわち、SSD(Sum of Squared Difference)、正規化相関等を用いることができる。そして、画像処理部444は、最小二乗法等を用いて、対応する特徴点の位置の差が最小となるように、いずれか一方のボリュームデータに対してアフィン変換を行うことにより、2つのボリュームデータの位置合わせを行う。この際、特徴点の位置が大きく異なる場合には、特徴点を格子点とした三角メッシュを形成し、各三角メッシュにアフィン変換を施す局所アフィン変換のような非線形変換を用いた位置合わせが行われても良い。非線形変換には、例えば、B-splineを用いたFree-form deformation(FFD)のようなものもある。この変換量が、上記の位置ずれ量として用いられる。 The alignment of the two volume data is performed, for example, as follows. The image processing unit 444 extracts feature points (preferably a plurality of feature points) in one of the two volume data to be aligned (PC type volume data and integral type volume data), Search for corresponding feature points in the other volume data. Possible feature points include SIFT, HOG, and SURF. Furthermore, characteristic parts of the image may be extracted as feature points by performing edge detection processing or the like. Further, template matching, that is, SSD (Sum of Squared Difference), normalized correlation, etc. can be used to search for corresponding feature points. Then, the image processing unit 444 transforms the two volumes by performing affine transformation on one of the volume data using the least squares method or the like so that the difference in the positions of corresponding feature points is minimized. Align the data. At this time, if the positions of the feature points are significantly different, a triangular mesh is formed with the feature points as lattice points, and alignment is performed using nonlinear transformation such as local affine transformation, which applies affine transformation to each triangular mesh. It's okay to be beaten. Examples of nonlinear transformation include Free-form deformation (FFD) using B-splines. This conversion amount is used as the above-mentioned positional deviation amount.

S105において、画像処理部444は、位置合わせ後のPC型ボリュームデータと積分型ボリュームデータから、同じ断面位置の断層画像を生成する。以下、PC型ボリュームデータから得られる断層画像をPC型断層画像、積分型ボリュームデータから得られる断層画像を積分型断層画像と称する。なお、断層画像を生成するための断面位置は、入力インターフェース43を介してユーザにより指定され得る。S106において、表示制御部446は、S105で生成された同一位置の断面の2つの断層画像を表示部42に表示する。 In S105, the image processing unit 444 generates a tomographic image of the same cross-sectional position from the aligned PC type volume data and integral type volume data. Hereinafter, a tomographic image obtained from the PC type volume data is referred to as a PC type tomographic image, and a tomographic image obtained from the integral type volume data is referred to as an integral type tomographic image. The cross-sectional position for generating the tomographic image can be specified by the user via the input interface 43. In S106, the display control unit 446 displays the two tomographic images of the cross-sections at the same position generated in S105 on the display unit 42.

PC型ボリュームデータと積分型ボリュームデータの同一位置の断面の断層画像を表示する際の模式図を図4A、4Bに示す。図4Aは、PC型ボリュームデータにおける所定の断面のPC型断層画像と、積分型ボリュームデータにおける当該所定の断面と同じ位置の積分型断層画像とを同時に表示する画面の例である。図4Aの画面の例では、右側にPC型断層像が、左側に積分型断層像が表示されている。このように、2つの断層画像を同時に表示する場合、2つの断層画像は左右や上下などの位置関係でもって対表示(並列表示)される。この際、2つの断層画像が同一画面に表示されても良いし、別画面に表示されても良い。また、2つの断層画像のそれぞれの表示を開始もしくは終了するタイミングは異なっていても良い。或いは、図4Bのように、2つの断層画像がページの切り替えにより個別に表示されるスタック表示としても良い。図4A、図4Bにおいて表示される2つの断層画像は、適切に位置合わせされているため、ユーザは病変などの注目部位の経時変化を容易に確認することができる。また、この時、疑似ボリュームデータの上記位置(PC型断層画像および積分型断層画像と同じ位置)の断面の断層画像(以下、疑似断層画像という)が表示されるようにしてもよい。例えば、図4Aに示すような並列表示において、PC型断層画像を疑似断層画像に置き換えて疑似断層画像と積分型断層画像を並列表示しても良い。或いは、図4Bに示すようなスタック表示(切替表示)において、PC型断層画像を疑似断層画像に置き換えて疑似断層画像と積分型断層画像を切替表示するようにしてもよい。これにより、ユーザは、類似した画質で、過去の断層画像と現在の断層画像とを比較することが可能となる。 FIGS. 4A and 4B show schematic diagrams when displaying cross-sectional images of the same position of PC type volume data and integral type volume data. FIG. 4A is an example of a screen that simultaneously displays a PC-type tomographic image of a predetermined cross-section in PC-type volume data and an integral-type tomographic image at the same position as the predetermined cross-section in integral-type volume data. In the example screen of FIG. 4A, a PC type tomographic image is displayed on the right side and an integral type tomographic image is displayed on the left side. In this way, when two tomographic images are displayed simultaneously, the two tomographic images are displayed in pairs (displayed in parallel) with a positional relationship such as horizontal or vertical. At this time, the two tomographic images may be displayed on the same screen or may be displayed on separate screens. Furthermore, the timings at which the display of the two tomographic images starts or ends may be different. Alternatively, as shown in FIG. 4B, a stack display may be used in which two tomographic images are displayed individually by switching pages. Since the two tomographic images displayed in FIGS. 4A and 4B are properly aligned, the user can easily confirm changes over time in the region of interest, such as a lesion. Further, at this time, a tomographic image (hereinafter referred to as a pseudo tomographic image) of a cross section of the pseudo volume data at the above position (same position as the PC type tomographic image and the integral type tomographic image) may be displayed. For example, in the parallel display as shown in FIG. 4A, the PC type tomographic image may be replaced with a pseudo tomographic image, and the pseudo tomographic image and the integral type tomographic image may be displayed in parallel. Alternatively, in stack display (switching display) as shown in FIG. 4B, the PC type tomographic image may be replaced with a pseudo tomographic image, and the pseudo tomographic image and the integral type tomographic image may be switched and displayed. This allows the user to compare past tomographic images and current tomographic images with similar image quality.

なお、本例では、S101で第1、第2のデータとしてPC型投影データと積分型投影データが取得され、S102で第1、第2のデータに基づくデータとしてPC型ボリュームデータと積分型ボリュームデータとが生成されるがこれに限られるものではない。本開示において「第aのデータに基づくデータ」(aは自然数)と記載する場合、「第aのデータに基づくデータ」は、第aのデータであっても良いし、第aのデータから生成されるデータであっても良い。したがって、例えば、外部から第2のデータとして積分型ボリュームデータが取得されるのであれば、S101では第1のデータであるPC型投影データのみが取得される。そして、S102では第1のデータに基づくデータとしてPC型ボリュームデータが生成されることになり、第2のデータに基づくデータには、上記で取得した積分型ボリュームデータがそのまま用いられる。また、画像処理部444が第1のデータとしてPC型ボリュームデータを、第2のデータとして積分型ボリュームデータを外部から取得するのであれば、投影データの取得、ボリュームデータの生成はスキップされる。そして、第1のデータに基づくデータは取得したPC型ボリュームデータ、第2のデータに基づくデータは取得した積分型ボリュームデータとなる。いずれの場合も、S103において、第1のデータ(PC型投影データもしくはPC型ボリュームデータ)を取得するための信号(X線検出器12により検出された信号)を処理して、積分方式で取得される投影データに類似させた第3のデータである疑似投影データが生成される。そして、生成された疑似投影データに逆投影処理、再構成処理を行って、第3のデータに基づくデータである疑似ボリュームデータが生成される。 In this example, PC type projection data and integral type projection data are acquired as first and second data in S101, and PC type volume data and integral type volume are acquired as data based on the first and second data in S102. data is generated, but is not limited to this. In this disclosure, when "data based on the a-th data" (a is a natural number) is described, "data based on the a-th data" may be the a-th data or generated from the a-th data. It may also be data that is Therefore, for example, if integral volume data is acquired from the outside as the second data, only the PC type projection data, which is the first data, is acquired in S101. Then, in S102, PC type volume data is generated as data based on the first data, and the integral type volume data acquired above is used as is as data based on the second data. Further, if the image processing unit 444 externally acquires PC type volume data as the first data and integral type volume data as the second data, acquisition of projection data and generation of volume data are skipped. The data based on the first data becomes the acquired PC type volume data, and the data based on the second data becomes the acquired integral type volume data. In either case, in S103, the signal (signal detected by the X-ray detector 12) for acquiring the first data (PC type projection data or PC type volume data) is processed and acquired using an integral method. Pseudo projection data, which is third data similar to the projected projection data, is generated. Then, back projection processing and reconstruction processing are performed on the generated pseudo projection data to generate pseudo volume data that is data based on the third data.

また、過去の検査で得られるデータが、積分型CT装置により取得された積分型断層画像のみである場合もある。この場合、積分型投影データおよび積分型ボリュームデータが得られないため、ボリュームデータでの位置合わせの代わりに、積分型断層画像の断層位置の情報などから対応するPC型断層画像を取得し、断層画像同士で位置合わせを行うことができる。したがって、第1のデータに基づくデータおよび第2のデータに基づくデータはそれぞれ、PC型断層画像および積分型断層画像となる。また、PC型断層画像と積分型断層画像の位置合わせに用いられるデータ(第3のデータに基づくデータ)として、疑似断層画像が用いられる。以下、この場合の処理を、図3Bのフローチャートを参照して説明する。 Further, there are cases in which the data obtained from past examinations is only an integral tomographic image acquired by an integral CT apparatus. In this case, since integral projection data and integral volume data cannot be obtained, instead of positioning using volume data, a corresponding PC type tomographic image is obtained from information such as the tomographic position of the integral tomographic image, and the tomographic Images can be aligned with each other. Therefore, the data based on the first data and the data based on the second data become a PC type tomographic image and an integral type tomographic image, respectively. Further, a pseudo tomographic image is used as data (data based on the third data) used for positioning the PC type tomographic image and the integral type tomographic image. The processing in this case will be described below with reference to the flowchart in FIG. 3B.

S111において、画像処理部444は、第2のデータである積分型断層画像を取得する。なお、積分型断層画像はコンソール装置40のメモリ(メモリ41であってもその他のメモリであってもよい)に記憶されていてもよいし、コンソール装置40に接続されたサーバーなどの外部装置に記憶されていてもよい。S112において、画像処理部444は、S111で取得された積分型断層画像の断層位置の情報に基づいて、積分型断層画像の断面位置に対応するPC型断層画像を第1のデータとして取得する。PC型断層画像は、上述のように、現在の検査においてX線CT装置1から得られるPC型投影データから生成されたPC型ボリュームデータより得られる。S113において、画像処理部444は、フォトンカウンティング方式の信号を処理することにより疑似ボリュームデータを生成する。この処理はS103と同様である。S114において、画像処理部444は、疑似ボリュームデータから、S112で取得されたPC型断層画像の断面位置に対応する断層画像を、疑似断層画像として取得する。S115において、画像処理部444は、S114で取得された疑似断層画像を用いてS111で取得された積分型断層画像とS112で取得されたPC型断層画像との位置合わせを行う。断層画像間の位置合わせには、例えば、上述したボリュームデータの位置合わせと同様に特徴点を抽出する方法、断層画像の一部もしくは全ての相関性を示す値を用いた方法、などを用いることができる。そして、画像処理部444は、その位置合わせ結果に基づいて、S112で取得されたPC型断層画像と、S111で取得された積分型断層画像と、の位置合わせを行う。S116において、表示制御部446は、S115で位置合わせされたPC型断層画像と積分型断層画像とを表示する。上述のS106と同様に、PC型断層画像の代わりに疑似断層画像を表示するなど疑似断層画像を用いた表示が行われてもよい。 In S111, the image processing unit 444 acquires an integral tomographic image that is second data. Note that the integral tomographic image may be stored in the memory of the console device 40 (which may be the memory 41 or another memory), or may be stored in an external device such as a server connected to the console device 40. It may be stored. In S112, the image processing unit 444 acquires a PC-type tomographic image corresponding to the cross-sectional position of the integral-type tomographic image as first data, based on the information on the tomographic position of the integral-type tomographic image acquired in S111. As described above, the PC-type tomographic image is obtained from the PC-type volume data generated from the PC-type projection data obtained from the X-ray CT apparatus 1 in the current examination. In S113, the image processing unit 444 generates pseudo volume data by processing the photon counting signal. This process is similar to S103. In S114, the image processing unit 444 acquires, as a pseudo tomographic image, a tomographic image corresponding to the cross-sectional position of the PC type tomographic image obtained in S112 from the pseudo volume data. In S115, the image processing unit 444 aligns the integral type tomographic image acquired in S111 and the PC type tomographic image acquired in S112 using the pseudo tomographic image acquired in S114. For alignment between tomographic images, for example, a method of extracting feature points in the same way as the above-mentioned alignment of volume data, a method using a value indicating the correlation of part or all of the tomographic images, etc. can be used. I can do it. Then, the image processing unit 444 aligns the PC type tomographic image acquired in S112 and the integral type tomographic image acquired in S111 based on the alignment result. In S116, the display control unit 446 displays the PC type tomographic image and the integral type tomographic image aligned in S115. Similar to S106 described above, display using a pseudo tomographic image may be performed, such as displaying a pseudo tomographic image instead of a PC type tomographic image.

<処理例2>
処理例1では、疑似投影データから生成された疑似ボリュームデータを用いて位置合わせされたPC型ボリュームデータと積分型ボリュームデータとから、所定の断面位置のPC型断層画像と積分型断層画像とを取得し、表示する例を示した。処理例2では、さらに、それら断層画像間の差分画像を生成し、差分画像もしくは差分領域を表示に用いる例を示す。図3Cは、処理例2を説明するフローチャートである。
<Processing Example 2>
In the processing example 1, a PC type tomographic image and an integral type tomographic image at a predetermined cross-sectional position are acquired and displayed from the PC type volume data and the integral type volume data aligned using the pseudo volume data generated from the pseudo projection data. In the processing example 2, a difference image between the tomographic images is further generated, and the difference image or the difference region is used for display. FIG. 3C is a flowchart for explaining the processing example 2.

S201~S205は、処理例1のS101~S105(図3A)と同様である。上述の様に、PC型断層画像は、現在の検査においてフォトンカウンティング方式で取得されたPC型投影データをもとに生成されたPC型ボリュームデータから得られる断層画像である。また、積分型断層画像は、過去検査において積分方式で取得された積分型投影データをもとに生成された積分型ボリュームデータから得られる断層画像である。 S201 to S205 are the same as S101 to S105 of Processing Example 1 (FIG. 3A). As described above, the PC-type tomographic image is a tomographic image obtained from PC-type volume data generated based on PC-type projection data acquired by the photon counting method in the current examination. Further, the integral type tomographic image is a tomographic image obtained from integral volume data generated based on integral type projection data acquired by an integral method in a past examination.

S206において、画像処理部444は、S203で生成された疑似ボリュームデータから、PC型断層画像および積分型断層画像を生成したのと同じ断面位置の断層画像(疑似断層画像)を生成する。そして、S207において、画像処理部444は、積分型CT断層画像と疑似断層画像との間の差異を表す画像を生成する。本実施形態では、差異を表す画像の一例として、積分型CT断層画像と疑似断層画像との間の差分となる領域(差分領域)を識別可能に表示した差分画像を生成する。差分画像は、例えば、図4C右側の画像のように、積分型CT断層画像と疑似断層画像の各画素値の差分を算出した画像であっても良いし、例えば、図4Dのように、差分領域を示す情報をPC型断層画像に反映した画像であっても良い。なお、差異を表す画像の他の例として、両断層画像間の各画素値の比を表す画像が生成されても良い。S208において、表示制御部446は、表示部42に、S207で生成された差分画像を表示する。この際、例えば、図4Cに示すように、PC型断層画像(図中の左側の画像)と差分画像(図中の右側の画像)とを並列表示しても良いし、図4Dに示すように差分領域を示す情報PC型断層画像に重畳表示した差分画像を表示しても良い。なお、S207において、画像処理部444は、第1の断層画像と第2の断層画像との輝度差が大きい場合には、疑似断層画像の輝度値を調整してから差分画像生成もしくは差分領域の算出を行っても良い。もちろん、S106で説明された表示(PC型断層画像、積分型断層画像、疑似断層画像の表示)が併用されてもよい。 In S206, the image processing unit 444 generates a tomographic image (pseudo tomographic image) at the same cross-sectional position as that at which the PC-type tomographic image and the integral-type tomographic image were generated from the pseudo volume data generated in S203. Then, in S207, the image processing unit 444 generates an image that represents the difference between the integral-type CT tomographic image and the pseudo tomographic image. In this embodiment, as an example of an image that represents the difference, a difference image that identifiably displays the area (difference area) that is the difference between the integral-type CT tomographic image and the pseudo tomographic image is generated. The difference image may be, for example, an image in which the difference between each pixel value of the integral-type CT tomographic image and the pseudo tomographic image is calculated, as in the image on the right side of FIG. 4C, or, for example, an image in which information indicating the difference area is reflected in the PC-type tomographic image, as in FIG. 4D. Note that, as another example of an image that represents the difference, an image that represents the ratio of each pixel value between both tomographic images may be generated. In S208, the display control unit 446 displays the difference image generated in S207 on the display unit 42. In this case, for example, as shown in FIG. 4C, the PC type tomographic image (the image on the left side of the figure) and the difference image (the image on the right side of the figure) may be displayed side by side, or as shown in FIG. 4D, the difference image may be displayed superimposed on the information PC type tomographic image showing the difference region. In addition, in S207, if the brightness difference between the first tomographic image and the second tomographic image is large, the image processing unit 444 may adjust the brightness value of the pseudo tomographic image before generating the difference image or calculating the difference region. Of course, the displays described in S106 (display of the PC type tomographic image, the integral type tomographic image, and the pseudo tomographic image) may be used in combination.

以上説明したように、処理例2では、X線検出方式の差異による影響を軽減した経時変化を示す画像を生成することが可能となる。これにより、病変などの注目領域の変化部分が抽出され、変化のない部分は差異として抽出されにくくなるため、医師や技師による診断をより容易にすることができる。 As described above, in processing example 2, it is possible to generate an image showing changes over time in which the influence of differences in X-ray detection methods is reduced. As a result, changing portions of the region of interest such as lesions are extracted, and unchanged portions are less likely to be extracted as differences, making it easier for doctors and technicians to diagnose.

なお、処理例1で述べたように、積分型CT装置により過去の検査で得られるデータが積分型断層画像のみであり、積分型投影データおよび積分型ボリュームデータが得られず、ボリュームデータでの位置合わせができない場合も想定され得る。その場合の処理を図3Dのフローチャートにより説明する。図3DのS211~S215の処理は、処理例1(図3B)のS111~S115と同様の処理である。S216において、画像処理部444は、S215で位置合わせされた疑似断層画像と積分型断層画像とから差分画像を生成する。S217において、表示制御部446は、S208と同様に、差分画像を用いた表示を行う。 As mentioned in Processing Example 1, the data obtained from past examinations using an integral CT device is only integral tomographic images, and integral projection data and integral volume data cannot be obtained. There may also be cases where alignment cannot be achieved. The processing in that case will be explained with reference to the flowchart of FIG. 3D. The processing from S211 to S215 in FIG. 3D is similar to the processing from S111 to S115 in Processing Example 1 (FIG. 3B). In S216, the image processing unit 444 generates a difference image from the pseudo tomographic image aligned in S215 and the integral tomographic image. In S217, the display control unit 446 performs display using the difference image, similar to S208.

<処理例3>
処理例3では、積分方式を用いて取得された第1のデータ(積分型断層画像)を処理して、フォトンカウンティング方式を用いて取得される第2のデータ(PC型断層画像)に画質を類似させた第3のデータ(疑似断層画像)を生成する。処理例1の図3B、処理例2の図3Dでは、ボリュームデータ同士で位置合わせができない場合に、疑似断層画像を用いて位置合わせを行う処理を説明した。これらの処理において、処理例1、2では、位置合わせまたは差分画像の生成を行うために用いられる疑似断層画像を疑似ボリュームデータから取得した。これに対し、処理例3では、PC型断層画像と積分型断層画像との位置合わせおよび差分画像の生成を行うために用いられる疑似断層画像を、積分型断層画像から生成する。より具体的には、処理例3では、過去の検査で取得された積分型断層画像の画質を画像処理により向上させて、フォトンカウンティング方式で取得される断層画像に匹敵する(類似させた)画質を有する断層画像を生成し、疑似断層画像として用いる。画像処理部444は、こうして積分型断層画像から生成された疑似断層画像を用いて、積分型断層画像とPC型断層画像との位置合わせ、差分画像の生成を行う。
<Processing example 3>
In processing example 3, the first data (integral type tomographic image) acquired using the integral method is processed to improve the image quality of the second data (PC type tomographic image) acquired using the photon counting method. Generate similar third data (pseudo tomographic image). In FIG. 3B of Processing Example 1 and FIG. 3D of Processing Example 2, the process of performing alignment using a pseudo tomographic image when volume data cannot be aligned with each other has been described. In these processes, in Processing Examples 1 and 2, a pseudo tomographic image used for alignment or generation of a difference image was obtained from pseudo volume data. On the other hand, in processing example 3, a pseudo tomographic image used to align the PC type tomographic image and the integral type tomographic image and to generate a difference image is generated from the integral type tomographic image. More specifically, in processing example 3, the image quality of integral tomographic images acquired in past examinations is improved through image processing, and the image quality is comparable (similar) to tomographic images acquired by the photon counting method. A tomographic image is generated and used as a pseudo tomographic image. The image processing unit 444 uses the pseudo tomographic image thus generated from the integral tomographic image to align the integral tomographic image and the PC tomographic image and generate a difference image.

図3Eは、処理例3による画像処理を説明するフローチャートである。S301~S302は、S111~S112(S211~S212)と同様である。S301において、画像処理部444は、第1のデータである積分型断層画像を取得する。なお、積分型断層画像はコンソール装置40のメモリ(メモリ41であってもその他のメモリであってもよい)に記憶されていてもよいし、コンソール装置40に接続されたサーバーなどの外部装置に記憶されていてもよい。S302において、画像処理部444は、S301で取得された積分型断層画像の断面位置の情報に基づいて、積分型断層画像の断面位置に対応する第2のデータであるPC型断層画像を取得する。 FIG. 3E is a flowchart illustrating image processing according to processing example 3. S301 to S302 are similar to S111 to S112 (S211 to S212). In S301, the image processing unit 444 acquires an integral tomographic image that is first data. Note that the integral tomographic image may be stored in the memory of the console device 40 (which may be the memory 41 or another memory), or may be stored in an external device such as a server connected to the console device 40. It may be stored. In S302, the image processing unit 444 acquires a PC-type tomographic image, which is second data corresponding to the cross-sectional position of the integral-type tomographic image, based on the information on the cross-sectional position of the integral-type tomographic image acquired in S301. .

S303において、画像処理部444は、S301で取得された積分型断層画像の画質(例えば、粒状性または鮮鋭性)を画像処理により向上させ、第3のデータである疑似断層画像を生成する。第3のデータである疑似断層画像は、フォトンカウンティング型X線検出方式で取得される断層画像の画質に類似させた画質を有する。例えば、画像処理部444は、S301で取得された、積分型断層画像に対して、ノイズ低減処理を行うことで画像の粒状性を改善し、画像復元処理を行うことで画像の鮮鋭性を改善して、疑似断層画像を得る。ノイズ低減処理には、例えば、ガウシアンフィルタのようなローパスフィルタといった線形フィルタ処理が用いられても良いし、イプシロンフィルタ、バイラテラルフィルタのような画像の構造保存性がある非線形フィルタ処理が用いられても良い。また、他のノイズ低減処理として、NLmeansやBM3Dのような構造保存型のノイズ低減処理が用いられてもよい。また、画像復元処理には、デコンボリューション処理が用いられ得る。デコンボリューション処理を行う場合、予め、PC型断層画像(フォトンカウンティング型X線検出方式の断層画像)と積分型断層画像(積分型X線検出方式の断層画像)のMTF(Modulation Transfer Function)を測定しておく。そして、PC型X線検出方式の断層画像のMTFに合致するように積分型断層画像に逆フィルタ処理を施して断層画像を生成する。その他の画像復元処理としては、ウイナーフィルタ処理を用いる方法がある。ウイナーフィルタ処理を用いることにより、画像の粒状性の悪化を抑制しつつ、画像復元処理を行うことができる。これにより、PC型断層画像に画質を類似させた断層画像(以下、疑似断層画像という)が取得される。なお、積分型断層画像の画質の向上(PC型断層画像の画質に類似させるための画像処理)において、粒状性と鮮鋭性の両方が改善されるようにしてもよいし、いずれか1つが改善されるようにしてもよい。 In S303, the image processing unit 444 improves the image quality (e.g., graininess or sharpness) of the integral tomographic image acquired in S301 by image processing, and generates a pseudo tomographic image, which is the third data. The pseudo tomographic image, which is the third data, has an image quality similar to that of a tomographic image acquired by a photon counting type X-ray detection method. For example, the image processing unit 444 performs noise reduction processing on the integral tomographic image acquired in S301 to improve the graininess of the image, and performs image restoration processing to improve the sharpness of the image, thereby obtaining a pseudo tomographic image. For the noise reduction processing, for example, a linear filter processing such as a low-pass filter such as a Gaussian filter may be used, or a nonlinear filter processing having image structure preservation properties such as an epsilon filter or a bilateral filter may be used. In addition, as another noise reduction processing, a structure-preserving type noise reduction processing such as NLmeans or BM3D may be used. In addition, a deconvolution processing may be used for the image restoration processing. When performing deconvolution processing, the MTF (Modulation Transfer Function) of a PC type tomographic image (a tomographic image of a photon counting type X-ray detection method) and an integral type tomographic image (a tomographic image of an integral type X-ray detection method) is measured in advance. Then, an inverse filter process is performed on the integral type tomographic image so that the MTF matches the MTF of the tomographic image of the PC type X-ray detection method to generate a tomographic image. Another image restoration process is a method using Wiener filter processing. By using Wiener filter processing, it is possible to perform image restoration processing while suppressing deterioration of the graininess of the image. This allows a tomographic image (hereinafter referred to as a pseudo tomographic image) whose image quality is similar to that of the PC type tomographic image to be obtained. Note that, in improving the image quality of the integral type tomographic image (image processing for making the image quality similar to that of the PC type tomographic image), both graininess and sharpness may be improved, or either one of them may be improved.

S304において、画像処理部444は、S303で生成された疑似断層画像(第3のデータに基づくデータ)を用いてPC型断層画像(第2のデータに基づくデータ)と積分型断層画像(第1のデータに基づくデータ)との位置合わせを行う。なお、本例においては、「第3のデータに基づくデータ」は、「第3のデータ」であり、いずれも、同じ疑似断層画像である。位置合わせ処理はS115と同様であり、例えば、処理例1で説明したボリュームデータの位置合わせと同様に特徴点を抽出する方法や相関性を示す値を用いた方法を用いて、疑似断層画像と積分型断層画像との位置合わせを行う。そして、画像処理部444は、その位置合わせ結果に基づいて、PC型断層画像と積分型断層画像との位置合わせを行う。次に、S305において、画像処理部444は、位置合わせされた疑似断層画像とPC型断層画像との差分画像を取得する。差分画像は、過去検査による積分型断層画像と、現在の検査によるPC型断層画像との差を表すものとなる。そして、S306において、表示制御部446は、位置合わせ後の、積分型断層画像とPC型断層画像、および差分画像を用いた表示を行う。表示処理は、S208、S217で説明した表示処理と同様である。また、積分型断層画像を疑似断層画像で置き換えてPC型断層画像とともに表示することにより、ユーザは、類似した画質を有する、過去の検査に基づく断層画像と現在の検査に基づく断層画像を比較することが可能となり、診断効率が向上する。 In S304, the image processing unit 444 aligns the PC type tomographic image (data based on the second data) and the integral type tomographic image (data based on the first data) using the pseudo tomographic image (data based on the third data) generated in S303. In this example, the "data based on the third data" is the "third data", and both are the same pseudo tomographic image. The alignment process is the same as S115, and for example, the pseudo tomographic image and the integral type tomographic image are aligned using a method of extracting feature points or a method using a value indicating correlation, similar to the alignment of volume data described in processing example 1. Then, the image processing unit 444 aligns the PC type tomographic image and the integral type tomographic image based on the alignment result. Next, in S305, the image processing unit 444 obtains a difference image between the aligned pseudo tomographic image and the PC type tomographic image. The difference image represents the difference between the integral type tomographic image from the past examination and the PC type tomographic image from the current examination. Then, in S306, the display control unit 446 performs display using the integral type tomographic image, the PC type tomographic image, and the difference image after alignment. The display process is similar to the display process described in S208 and S217. In addition, by replacing the integral type tomographic image with a pseudo tomographic image and displaying it together with the PC type tomographic image, the user can compare a tomographic image based on a past examination and a tomographic image based on a current examination, which have similar image quality, thereby improving diagnostic efficiency.

なお、処理例3では積分型断層画像に画像処理を行ってPC型断層画像の画質に近い疑似断層画像を生成したがこれに限られるものではない。PC型断層画像に対して、粒状性と鮮鋭性の少なくとも一方を低減する処理(例えば画像をぼかす処理)などを行って、積分方式により得られる断層画像の画質に近い疑似断層画像を生成しても良いことは明らかである。この場合、S305では、疑似断層画像と積分型断層画像との差分画像が生成されることになる。また、この場合、PC型断層画像を疑似断層画像で置き換えて積分型断層画像とともに表示することで、ユーザは、類似した画質で、過去と現在の断層画像を比較することが可能となる。 Note that in Processing Example 3, image processing is performed on the integral type tomographic image to generate a pseudo tomographic image close to the image quality of the PC type tomographic image, but the present invention is not limited to this. A process that reduces at least one of graininess and sharpness (for example, image blurring) is performed on the PC-type tomographic image to generate a pseudo tomographic image that is close to the quality of the tomographic image obtained by the integral method. It is clear that it is also good. In this case, in S305, a difference image between the pseudo tomographic image and the integral tomographic image is generated. Furthermore, in this case, by replacing the PC type tomographic image with a pseudo tomographic image and displaying it together with the integral type tomographic image, the user can compare past and current tomographic images with similar image quality.

<処理例4>
処理例3では、画像処理により、積分型断層画像の画質をPC型断層画像の画質に近づけた疑似断層画像を取得する構成を説明した。処理例4では、AIにより、積分型断層画像の画質をフォトンカウンティング方式で取得される断層画像の画質に近づけた疑似断層画像を取得する構成を説明する。より具体的には、学習済みモデルに、過去の検査で得られた積分型断層画像を入力することにより、PC型断層画像に類似する画質の疑似断層画像を得る。そして、疑似断層画像を用いてPC型断層画像と積分型断層画像との位置合わせを行い、疑似断層画像とPC型断層画像との差分画像を生成する。ここで、学習済みモデルは、積分型断層画像に類似させた疑似断層画像とPC型断層画像(フォトンカウンティング方式のCT装置から得られる断層画像)とのペアを教師データとして用いる機械学習により得られる学習モデルである。
<Processing example 4>
In Processing Example 3, a configuration was described in which a pseudo tomographic image in which the image quality of an integral type tomographic image is brought close to that of a PC type tomographic image is obtained by image processing. In processing example 4, a configuration will be described in which, using AI, a pseudo tomographic image is obtained in which the image quality of an integral type tomographic image is made close to the image quality of a tomographic image obtained by a photon counting method. More specifically, by inputting integral type tomographic images obtained in past examinations to the trained model, a pseudo tomographic image with image quality similar to a PC type tomographic image is obtained. Then, the PC type tomographic image and the integral type tomographic image are aligned using the pseudo tomographic image, and a difference image between the pseudo tomographic image and the PC type tomographic image is generated. Here, the trained model is obtained by machine learning using a pair of a pseudo tomographic image similar to an integral tomographic image and a PC type tomographic image (a tomographic image obtained from a photon counting CT device) as training data. It is a learning model.

図3Fは、処理例4による画像処理を説明するフローチャートである。S401~S402は、処理例3(図3E)のS301~302と同様である。S403において、画像処理部444は、制御部44が有する不図示である記憶部(メモリ)に記憶された学習済みモデルに、S401で取得された第1のデータである積分型断層画像を入力し、第3のデータである疑似断層画像を得る。ここで得られる疑似断層画像は、積分型断層画像の画質を、PC型断層画像の画質に類似する画質に向上させたものである。 Figure 3F is a flowchart explaining image processing according to processing example 4. S401 to S402 are similar to S301 to S302 in processing example 3 (Figure 3E). In S403, the image processing unit 444 inputs the integral type tomographic image, which is the first data acquired in S401, to a trained model stored in a storage unit (memory) (not shown) possessed by the control unit 44, and obtains a pseudo tomographic image, which is the third data. The pseudo tomographic image obtained here is an image quality improved from the integral type tomographic image to an image quality similar to that of a PC type tomographic image.

ここで、学習済みモデルの構築処理について図3Gを用いて説明する。図3Gは、処理例4における学習済みモデルの構築処理を説明するフローチャートである。S411において、画像処理部444は、PC型投影データから生成されるPC型ボリュームデータを取得する。S412において、画像処理部444は、S411で取得したPC型投影データを取得する際に検出した信号に基づいて疑似ボリュームデータ(疑似積分型ボリュームデータ)を生成する。疑似ボリュームデータの生成手順は、処理例1(図3A)のS103と同様である。すなわち、画像処理部444は、DAS18(または前処理部442)から、フォトン数とエネルギーとの積の積分値を取得して、積分型CT装置から得られる投影データに類似した疑似投影データ(疑似積分型投影データ)を取得し、疑似投影データから疑似ボリュームデータを生成する。S414において、画像処理部444は、同じ断面位置の、S411で取得されたPC型ボリュームデータから得られるPC型断層画像と疑似ボリュームデータから得られる疑似断層画像とのペアを教師データとして取得する。すなわち、PC型ボリュームデータと疑似ボリュームデータとのそれぞれから生成された、同じ断層位置の断層画像をペアとした教師データが取得される。S415において、画像処理部444は、機械学習エンジンにS414で取得された教師データを提供する(学習させる)ことにより学習済みモデルを生成する。この際、PC型ボリュームデータと疑似ボリュームデータとから、多数の断面位置で断層画像のペアを得ることで、多数の教師データを得ることができる。 Here, the construction process of the trained model will be described with reference to FIG. 3G. FIG. 3G is a flowchart for explaining the construction process of the trained model in the processing example 4. In S411, the image processing unit 444 acquires PC-type volume data generated from the PC-type projection data. In S412, the image processing unit 444 generates pseudo volume data (pseudo integral type volume data) based on the signal detected when acquiring the PC-type projection data acquired in S411. The procedure for generating the pseudo volume data is the same as S103 in the processing example 1 (FIG. 3A). That is, the image processing unit 444 acquires the integral value of the product of the number of photons and the energy from the DAS18 (or the preprocessing unit 442), acquires pseudo projection data (pseudo integral type projection data) similar to the projection data obtained from the integral type CT device, and generates pseudo volume data from the pseudo projection data. In S414, the image processing unit 444 acquires a pair of a PC-type tomographic image obtained from the PC-type volume data acquired in S411 and a pseudo tomographic image obtained from the pseudo volume data at the same cross-sectional position as training data. That is, training data is acquired in which a pair of tomographic images at the same cross-sectional position generated from each of the PC-type volume data and the pseudo volume data is acquired. In S415, the image processing unit 444 generates a trained model by providing (training) the training data acquired in S414 to the machine learning engine. At this time, a large number of training data can be obtained by obtaining pairs of tomographic images at a large number of cross-sectional positions from the PC-type volume data and the pseudo volume data.

機械学習エンジンは、畳み込み型のニューラルネットワーク(Convolutional Neural Network)による回帰型のものが望ましい。これは、一方の画像を他方の画像の画質に類似させることができるためである。また、ネットワークとしてはUnetやResidual Net、Dense Netのような既知のものを用いることができる。また、GAN(敵対的生成ネットワーク)のようなものを使用してもよい。さらに、機械学習エンジンは、誤差検出部と、更新部と、を備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、教師データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差を計算する。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 The machine learning engine is preferably a regression type using a convolutional neural network. This is because it is possible to make one image similar to the image quality of the other image. In addition, known networks such as Unet, Residual Net, and Dense Net can be used as the network. A GAN (generative adversarial network) may also be used. Furthermore, the machine learning engine may include an error detection unit and an update unit. The error detection unit obtains an error between the output data output from the output layer of the neural network according to the input data input to the input layer and the teacher data. The error detection unit uses a loss function to calculate the error between the output data from the neural network and the teacher data. In addition, the update unit updates the connection weighting coefficient between the nodes of the neural network based on the error obtained by the error detection unit so that the error is reduced. The update unit updates the connection weighting coefficient using, for example, an error backpropagation method. The error backpropagation method is a method of adjusting the connection weighting coefficient between the nodes of each neural network so that the above error is reduced.

なお、学習モデルの機械学習、学習済みモデルによる推定にはGPUを用いてもよい。GPUにより並列処理を増やすことは、より効率的な演算を可能にするため、学習モデルを用いて複数回に渡り学習を行う場合(例えば、ディープラーニング)に有効である。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理はCPUまたはGPUのみにより演算が行われても良い。また、学習済みモデルにおいて推定を行う場合も、学習させる際と同様にGPUを用いても良い。このような機械学習により、機械学習エンジンは、積分型断層画像に基づいて疑似断層画像を出力する学習済みモデルを生成する。さらに、同一部位において、ビュー数や、管電流、スライス厚などの撮影条件ごとに、学習済みモデルを生成することもできる。 Note that a GPU may be used for machine learning of a learning model and estimation using a learned model. Increasing parallel processing using the GPU enables more efficient calculations and is therefore effective when learning is performed multiple times using a learning model (for example, deep learning). Specifically, when a learning program including a learning model is executed, learning is performed by the CPU and GPU working together to perform calculations. Note that the processing of the learning section may be performed only by the CPU or GPU. Furthermore, when performing estimation using a trained model, a GPU may be used as in the case of learning. Through such machine learning, the machine learning engine generates a learned model that outputs a pseudo tomographic image based on the integral tomographic image. Furthermore, trained models can be generated for each imaging condition such as the number of views, tube current, and slice thickness for the same region.

図3Fに戻り、S404において、画像処理部444は、疑似断層画像(第3のデータに基づくデータ)を用いてPC型断層画像(第2のデータに基づくデータ)と積分型断層画像(第1のデータに基づくデータ)の位置合わせを行う。この処理は、S304と同様である。S405において、画像処理部444は、位置合わせ後の疑似断層画像とPC型断層画像との差分画像を取得する。この処理は、S305と同様である。S406において、表示制御部446は、PC型断層画像と積分型断層画像と差分画像による表示を行う。この処理は、S306と同様である。 Returning to FIG. 3F, in S404, the image processing unit 444 aligns the PC type tomographic image (data based on the second data) and the integral type tomographic image (data based on the first data) using the pseudo tomographic image (data based on the third data). This process is similar to S304. In S405, the image processing unit 444 acquires a difference image between the aligned pseudo tomographic image and the PC type tomographic image. This process is similar to S305. In S406, the display control unit 446 displays the PC type tomographic image, the integral type tomographic image, and the difference image. This process is similar to S306.

<処理例5>
処理例2~4においては、過去検査で取得された積分型断層画像と、現在の検査で取得されたPC型断層画像に対応する疑似断層画像との差分を算出することで、過去検査の積分型断層画像と現在の検査のPC型断層画像との差分領域を算出した。処理例5では、取得した積分型断層画像とPC型断層画像とのうちの一方の断層画像にROI(関心領域)を設定した場合に、他方の断層画像の同位置にROIを反映する処理を説明する。なお、ROIによって設定された領域は解析領域(解析を行う対象とする領域)としても良い。図3Hは、処理例5における画像処理部444および表示制御部446の処理を説明するフローチャートである。
<Processing example 5>
In processing examples 2 to 4, by calculating the difference between the integral type tomographic image acquired in the past examination and the pseudo tomographic image corresponding to the PC type tomographic image acquired in the current examination, the integral type of the past examination is calculated. The difference area between the PC type tomographic image and the PC type tomographic image of the current examination was calculated. In processing example 5, when an ROI (region of interest) is set in one of the acquired integral tomographic images and the PC type tomographic image, processing is performed to reflect the ROI at the same position in the other tomographic image. explain. Note that the region set by the ROI may be an analysis region (a region to be analyzed). FIG. 3H is a flowchart illustrating the processing of the image processing unit 444 and display control unit 446 in processing example 5.

S501~S506は、処理例1(図3A)のS101~S106と同様である。ここまでの処理により、疑似ボリュームデータに基づいて(第3のデータに基づくデータ)、PC型ボリュームデータ(第1のデータに基づくデータ)および積分型ボリュームデータ(第2のデータに基づくデータ)が位置合わせされる。そして、同一断面位置の位置合わせされたPC型断層画像、積分型断層画像が表示される。ユーザは、表示部42に表示されたPC型断層画像上に、腫瘍などの病変部位のサイズ等の計測を行うために、関心領域(以下、第1のROI)を設定することができる。S507において、表示制御部446は、ユーザからの指示によるこの第1のROIの設定を指示受付部である入力インターフェース43が受け付けて、表示部42に表示されているPC型断層画像上に第1のROIを示す情報(第1の領域を示す情報)を重畳表示する。なお、本例では第1のROIを示す情報として、PC型断層画像上に枠を表示する例を説明する。 S501 to S506 are the same as S101 to S106 in Processing Example 1 (FIG. 3A). Through the above processing, the PC type volume data (data based on the first data) and the integral type volume data (data based on the second data) are aligned based on the pseudo volume data (data based on the third data). Then, the aligned PC type tomographic image and the integral type tomographic image at the same cross-sectional position are displayed. The user can set a region of interest (hereinafter, the first ROI) on the PC type tomographic image displayed on the display unit 42 to measure the size of a lesion such as a tumor. In S507, the display control unit 446 receives the setting of the first ROI by the user through the input interface 43, which is the instruction receiving unit, and superimposes and displays information indicating the first ROI (information indicating the first region) on the PC type tomographic image displayed on the display unit 42. Note that in this example, an example of displaying a frame on the PC type tomographic image as information indicating the first ROI will be described.

S508において、画像処理部444がユーザにより設定されたPC型断層画像上の第1のROIに対応する、積分型断層画像上の位置を算出し、その位置に対応する積分型断層画像上の位置を算出する(対応する領域設定を行うとも表現できる)。そして、表示制御部446が第2のROIを示す情報(第1の領域に対応する第2の領域を示す情報であり、本例では枠)を積分型断層画像に重畳表示する。S503で積分型ボリュームデータとPC型ボリュームデータとは位置合わせ済みになっているため、第2のROIを設定する位置は容易に算出され得る。これにより、例えば、経過観察などにおいて、同一位置を解析して経時変化を測定することができる。第1のROIを示す情報と第2のROIを示す情報の表示例を、図5に示す。この際、例えば、積分型断層画像において既にROI(第3のROI)が設定されていた場合、既に設定されていた第3のROIを示す情報と第2のROIを示す情報とを異なる色で表示するなど、異なる表示形態で表示してもよい。このように異なる表示形態で表示すれば、過去に設定したROIと今回設定したROIとをユーザがより識別しやすくなる。また、各々のROIによって計測された計測値や解析値のグラフや数値を表示する際にも、各ROIの表示形態に対応した識別可能な表示とすることができる。さらに、手動で設定されるROIを示す情報と比較対象となる断層画像上のROIに基づいて制御部44が設定するROIを示す情報とを、異なる表示形態で表示するなど識別可能に表示しても良い。具体的には、例えば、積分型断層画像にユーザによって手動で描画されて設定されるROIに関する情報と、PC型断層画像上に設定された第1のROIに基づいて積分型断層画像に自動で設定される第2のROIに関する情報とで異なる色で表示するようにしてもよい。 In S508, the image processing unit 444 calculates the position on the integral type tomographic image corresponding to the first ROI on the PC type tomographic image set by the user, and calculates the position on the integral type tomographic image corresponding to that position (this can also be expressed as setting the corresponding region). Then, the display control unit 446 displays information indicating the second ROI (information indicating the second region corresponding to the first region, a frame in this example) superimposed on the integral type tomographic image. Since the integral type volume data and the PC type volume data have been aligned in S503, the position at which the second ROI is set can be easily calculated. This makes it possible to analyze the same position and measure changes over time, for example, in follow-up observation. A display example of the information indicating the first ROI and the information indicating the second ROI is shown in FIG. 5. At this time, for example, if an ROI (third ROI) has already been set in the integral type tomographic image, the information indicating the already set third ROI and the information indicating the second ROI may be displayed in different display forms, such as displaying them in different colors. By displaying in different display forms in this way, the user can more easily distinguish between the ROI set in the past and the ROI set this time. In addition, when displaying graphs and numerical values of the measurement values and analysis values measured by each ROI, it is possible to display them in a distinguishable manner corresponding to the display form of each ROI. Furthermore, information indicating a manually set ROI and information indicating an ROI set by the control unit 44 based on an ROI on a tomographic image to be compared may be displayed in a distinguishable manner, such as by displaying them in different display forms. Specifically, for example, information regarding an ROI that is manually drawn and set on an integral tomographic image by a user and information regarding a second ROI that is automatically set on an integral tomographic image based on a first ROI set on a PC tomographic image may be displayed in different colors.

なお、処理例5において、上記では、PC型断層画像上に設定された第1のROIに関する位置情報に基づいて積分型断層画像に第2のROIを設定したが、これに限られるものではない。例えば、第1のROIが積分型断層画像に設定され、その位置情報に基づいてPC型断層画像上に第2のROIを設定するようにしてもよい。この際、積分型断層画像上に設定された第1のROIは、過去に既に設定されている第3のROIであってもよく、そのような場合、図5に示されるように、過去検査による積分型断層画像に既に設定されている第3のROIに対応するPC型断層画像上の領域を特定し、第4のROIを示す情報として重畳表示する。また、その状態で、PC型断層画像上にユーザが新たに第1のROIを設定した場合、積分型断層画像のROIに対応する第3のROIを示す情報と、新たに設定された第1のROIを示す情報とを識別可能に表示(例えば、表示形態を互いに異ならせて表示)してもよい。 Note that in processing example 5, the second ROI is set on the integral type tomographic image based on the position information regarding the first ROI set on the PC type tomographic image, but the present invention is not limited to this. . For example, the first ROI may be set on the integral type tomographic image, and the second ROI may be set on the PC type tomographic image based on the position information. At this time, the first ROI set on the integral tomographic image may be a third ROI that has already been set in the past, and in such a case, as shown in FIG. An area on the PC-type tomographic image corresponding to the third ROI that has already been set in the integral-type tomographic image is specified and displayed in a superimposed manner as information indicating the fourth ROI. In addition, in this state, if the user newly sets a first ROI on the PC-type tomographic image, information indicating the third ROI corresponding to the ROI of the integral-type tomographic image and the newly set first ROI are added. The information indicating the ROI may be displayed in a distinguishable manner (for example, displayed in different display formats).

また、第1~第4のROIは、処理例3~4に示した位置合わせ後の断層画像間で反映させるようにしてもよい。例えば、処理例3の方法で位置合わせされた積分型断層画像とPC型断層画像において、PC型断層画像に設定された第1のROIを積分型断層画像に第2のROIとして反映させることができる。同様に、位置合わせされた積分型断層画像とPC型断層画像とにおいて、積分型断層画像に設定されていた第3のROIを、位置合わせ結果に基づいてPC型断層画像に第4のROIとして設定することができる。 Furthermore, the first to fourth ROIs may be reflected between the tomographic images after alignment shown in processing examples 3 and 4. For example, in an integral tomographic image and a PC tomographic image aligned using the method of processing example 3, it is possible to reflect the first ROI set in the PC tomographic image as a second ROI in the integral tomographic image. can. Similarly, in the aligned integral type tomographic image and PC type tomographic image, the third ROI set in the integral type tomographic image is set as the fourth ROI in the PC type tomographic image based on the alignment result. Can be set.

なお、上記処理例1~5では、経過観察を想定し、積分型CT装置から得られるデータとPC型CT装置から得られるデータとが異なる日時に取得したデータとしたが、異なる日時に取得したデータであることは必須ではない。例えば、同日に積分型CT装置とPC型CT装置で取得されたデータであってもよい。また、上記処理例において、投影データおよびボリュームデータは、CT装置によって取得されるデータのうちの一部のデータであってもよい。ボリュームデータは例えば心臓などの所定の臓器に対応した、部分ボリュームデータであってもよい。また、上記処理例1~5では、過去検査で取得した積分型CT装置から得られるデータと現在の検査で取得したPC型CT装置から得られるデータとを比較する例で説明したが、本開示はこれに限られない。例えば、過去検査で取得した積分型CT画像が、2種類以上の管電圧で撮影を行うことにより得られるデュアルエナジーCT画像であっても同様の方法で比較することができる。フォトンカウンティング方式のX線検出器12からは、前述のようにフォトンのエネルギー情報を得ることができる。従って、PC型投影データのセットを取得するための信号から、管電圧の異なる2種類のX線によりCT撮影を行って取得される機能画像に類似させた疑似的にデュアルエナジーCT画像を生成して、上記処理例1~5と同様に比較することも可能である。なお、機能画像の例としては、実効原子番号画像、仮想単色X線画像、仮想非造影画像、物質弁別画像( 造影剤、骨、水等を分離した画像)などがあげられる。 In the above processing examples 1 to 5, the data obtained from the integral CT device and the data obtained from the PC CT device are assumed to be data obtained on different dates and times, assuming follow-up observation, but it is not essential that the data be obtained on different dates and times. For example, the data may be obtained on the same day by the integral CT device and the PC CT device. In the above processing examples, the projection data and the volume data may be part of the data obtained by the CT device. The volume data may be partial volume data corresponding to a specific organ such as the heart. In the above processing examples 1 to 5, the data obtained from the integral CT device obtained in the past examination and the data obtained from the PC CT device obtained in the current examination are compared, but the present disclosure is not limited to this. For example, even if the integral CT image obtained in the past examination is a dual energy CT image obtained by performing imaging with two or more types of tube voltage, it can be compared in a similar manner. As described above, photon energy information can be obtained from the photon counting type X-ray detector 12. Therefore, it is possible to generate a pseudo dual energy CT image similar to a functional image obtained by CT imaging using two types of X-rays with different tube voltages from the signal for acquiring a set of PC-type projection data, and compare it in the same way as in the above processing examples 1 to 5. Examples of functional images include an effective atomic number image, a virtual monochromatic X-ray image, a virtual non-contrast image, and a material decomposition image (an image in which contrast agent, bone, water, etc. are separated).

また、本開示の医用画像処理装置は、処理例1~5のうちの1つの処理が可能であっても良いし、複数の処理が可能であっても良い。例えば、処理例1のS111~S114の処理と、処理例4のS401~S403の処理をユーザが選択できても良い。より具体的には、制御部44は、PC型断層画像(第1のデータ)と積分型断層画像(第2のデータ)を取得し、PC方式で検出した信号から積分型ボリュームデータに類似させた疑似ボリュームデータを取得してPC型断層画像の位置に対応する疑似断層画像(第3のデータ)を取得する第1の方法と、積分型断層画像(第2のデータ)から画像処理によってPCCT画像に類似させた疑似断層画像(第4のデータ)を取得する第2の方法と、のいずれかを選択できる。その際、ユーザが行う選択指示の操作としては、例えば、第1と第2の方法のうちの一方の方法で得られた結果を表示する画面に表示された、他方の方法へ切り替えるための切替ボタンへの操作があげられる。もちろん選択指示の操作はこれに限られるものではなく、検査結果を表示する前に、画面に表示されたボタンやプルダウンから第1の方法もしくは第2の方法を選択する操作であっても良い。なお、その後の工程である、第3のデータを用いて第1のデータに基づくデータと第2のデータに基づくデータとを位置合わせする工程は、選択した方法に基づいてS115~S116もしくはS404~S406が自動的に選択される。 Furthermore, the medical image processing apparatus of the present disclosure may be capable of performing one of processing examples 1 to 5, or may be capable of performing a plurality of processes. For example, the user may be able to select between the processing in S111 to S114 of the first processing example and the processing in S401 to S403 in the fourth processing example. More specifically, the control unit 44 acquires a PC-type tomographic image (first data) and an integral-type tomographic image (second data), and converts the signals detected by the PC method into similar to integral-type volume data. The first method is to obtain a pseudo tomographic image (third data) corresponding to the position of the PC type tomographic image by acquiring pseudo volume data, and the PCCT is performed by image processing from the integral type tomographic image (second data). Either the second method of acquiring a pseudo tomographic image (fourth data) similar to the image can be selected. At this time, the selection instruction operation performed by the user includes, for example, a switch to switch to the other method displayed on a screen displaying the results obtained by one of the first and second methods. Examples include button operations. Of course, the selection instruction operation is not limited to this, and may be an operation of selecting the first method or the second method from buttons or pull-downs displayed on the screen before displaying the test results. Note that the subsequent step of aligning the data based on the first data and the data based on the second data using the third data is performed in S115 to S116 or S404 to S404 based on the selected method. S406 is automatically selected.

以上説明したように、上記処理例1~5によれば、フォトンカウンティング型X線検出方式で取得した投影データに基づく断層画像と、積分型X線検出方式で取得した投影データに基づく断層画像との画質の差を低減することができる。このため、それら断層画像のより正確な位置合わせ、同一被検体の経時的な変化の観察などの比較の容易化が可能になり、医師や技師の負担、装置の置き換え障壁などを軽減することができる。 As described above, according to the above processing examples 1 to 5, it is possible to reduce the difference in image quality between a tomographic image based on projection data acquired using a photon-counting X-ray detection method and a tomographic image based on projection data acquired using an integral X-ray detection method. This makes it possible to more accurately align these tomographic images and facilitate comparisons such as observing changes over time in the same subject, thereby reducing the burden on doctors and technicians and barriers to replacing equipment.

また、開示の技術は、以下の処理を実行することによっても実現される。即ち、開示の技術は、上述した様々な実施形態の1以上の機能を実現するソフトウェア(医用画像処理プログラム)を、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)が医用画像処理プログラムを読み出して実行する処理でも実現可能である。コンピュータは、1つ又は複数のプロセッサー若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサー若しくは回路のネットワークを含みうる。このとき、プロセッサー又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサー又は回路は、デジタルシグナルプロセッサー(DSP)、データフロープロセッサー(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 Further, the disclosed technology is also realized by performing the following processing. That is, the disclosed technology supplies software (medical image processing program) that implements one or more functions of the various embodiments described above to a system or device via a network or a storage medium, and a computer of the system or device. It can also be realized by a process in which (or a CPU, MPU, etc.) reads and executes a medical image processing program. A computer has one or more processors or circuits and may include separate computers or a network of separate processors or circuits for reading and executing computer-executable instructions. The processor or circuit may include a central processing unit (CPU), microprocessing unit (MPU), graphics processing unit (GPU), application specific integrated circuit (ASIC), or field programmable gateway (FPGA). The processor or circuit may also include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).

本明細書の開示は、以下の医用画像処理装置、医用画像処理装置の制御方法、及び医用画像処理プログラムを含む。
(項目1)
第1のX線検出方式を用いて取得された第1のデータと、前記第1のX線検出方式とは異なる第2のX線検出方式を用いて取得された第2のデータと、を取得する取得手段と、
前記第1のデータもしくは前記第1のデータを取得するための信号を処理して前記第2のデータに類似させた第3のデータを生成する生成手段と、
前記第2のデータに基づくデータと前記第3のデータに基づくデータとを位置合わせした結果に基づいて、前記第1のデータに基づくデータと前記第2のデータに基づくデータとを位置合わせする位置合わせ手段と、を備えることを特徴とする医用画像処理装置。
(項目2)
前記第1のデータもしくは前記第1のデータを取得するための信号の処理が、前記第1のデータに基づく画像と前記第2のデータに基づく画像との画質の差を低減するための処理であることを特徴とする項目1に記載の医用画像処理装置。
(項目3)
前記第1のデータがX線検出器により検出された信号を用いて収集したX線光子の計数データに基づくデータであり、前記第2のデータがX線検出器により検出された信号を所定の時間幅で積分して得られる積分データに基づくデータであることを特徴とする項目1に記載の医用画像処理装置。
(項目4)
前記第1のデータがX線検出器により検出した信号を所定の時間幅で積分した積分データに基づくデータであり、前記第2のデータが前記X線検出器により検出した信号を用いて収集したX線光子の計数データに基づくデータであることを特徴とする項目1に記載の医用画像処理装置。
(項目5)
前記生成手段は、X線検出器により検出された前記計数データに含まれる光子の数とエネルギーとの積を積分することにより得られる積分値に基づいて前記第3のデータを生成することを特徴とする項目3に記載の医用画像処理装置。
(項目6)
前記第1のデータおよび前記第2のデータが、いずれも投影データである、もしくは、いずれもボリュームデータである、もしくは、一方が投影データであり他方がボリュームデータであることを特徴とする項目1に記載の医用画像処理装置。
(項目7)
前記第1のデータおよび前記第2のデータのうちの少なくとも一方が断層画像であることを特徴とする項目1に記載の医用画像処理装置。
(項目8)
前記生成手段は、前記第1のデータに粒状性または鮮鋭性を低減する画像処理を適用することにより前記第3のデータを生成することを特徴とする項目3に記載の医用画像処理装置。
(項目9)
前記生成手段は、前記第1のデータに対して粒状性または鮮鋭性を向上する画像処理を適用することにより前記第3のデータを生成することを特徴とする項目3に記載の医用画像処理装置。
(項目10)
前記生成手段は、前記第2のX線検出方式を用いて取得されたデータから取得される第1の画像と、前記第2のX線検出方式を用いて取得されたデータから取得され、前記第1の画像の画質を前記第1のX線検出方式を用いて取得されたデータから取得される第2の画像の画質に類似させた第3の画像とのペアを教師データとして用いた学習により得られた学習済みモデルを用いて、前記第1のデータから前記第3のデータを生成することを特徴とする項目3に記載の医用画像処理装置。
(項目11)
前記位置合わせ後の、前記第1のデータに基づくデータから取得される第1の画像と、前記第2のデータに基づくデータから取得される第2の画像とを、表示部に表示する表示制御手段をさらに備えることを特徴とする項目1乃至10のいずれか1項に記載の医用画像処理装置。
(項目12)
前記表示制御手段は、前記第1の画像と前記第2の画像とを、前記表示部に並列に表示する、または、切り替えて表示することを特徴とする項目11に記載の医用画像処理装置。
(項目13)
前記位置合わせ後の、前記第3のデータに基づくデータから取得される第3の画像と、前記位置合わせ後の前記第2のデータに基づくデータから取得される第2の画像との差異を表す画像を生成する手段をさらに備えることを特徴とする項目1乃至10のいずれか1項に記載の医用画像処理装置。
(項目14)
前記差異を表す画像は、前記第3の画像と前記第2の画像との差分領域を表す差分画像であることを特徴とする項目13に記載の医用画像処理装置。
(項目15)
前記差分画像は、前記位置合わせ後の前記第1のデータに基づくデータから取得される第1の画像、または、前記第2の画像に、前記差分領域を表す情報が重畳表示された画像であることを特徴とする項目14に記載の医用画像処理装置。
(項目16)
前記第1の画像に設定された第1の領域に対応する、前記第2の画像上の領域を、第2の領域として設定する領域設定手段を備えることを特徴とする項目11に記載の医用画像処理装置。
(項目17)
前記第1の画像上に前記第1の領域を設定する指示を受け付ける指示受付手段を備えることを特徴とする項目16に記載の医用画像処理装置。
(項目18)
前記表示制御手段が、前記第1の画像に前記第1の領域を示す情報、前記第2の画像に前記第2の領域を示す情報を各々重畳して表示することを特徴とする項目16に記載の医用画像処理装置。
(項目19)
前記表示制御手段は、前記領域設定手段によって設定される第2の領域を示す情報と、ユーザによって前記第2の画像に描画して設定される領域を示す情報と、を識別可能に表示することを特徴とする項目16に記載の医用画像処理装置。
(項目20)
前記表示制御手段は、ユーザによって前記第2の画像に描画して設定される領域が過去の検査で設定された領域であることを特徴とする項目19に記載の医用画像処理装置。
(項目21)
前記第1のデータと前記第2のデータとが、異なる日時に異なるX線検出器から取得されたデータであることを特徴とする項目1乃至10のいずれか1項に記載の医用画像処理装置。
(項目22)
前記生成手段が、前記第2のデータもしくは前記第2のデータを取得するための信号を処理して前記第1のデータに類似させた第4のデータを生成することが可能であり、
前記生成手段が、前記第3のデータおよび前記第4のデータのうちのいずれかを生成するための選択指示を受け付ける指示受付手段を有することを特徴とする項目1に記載の医用画像処理装置。
(項目23)
第1のX線検出方式を用いて取得された第1のデータと、前記第1のX線検出方式とは異なる第2のX線検出方式を用いて取得された第2のデータと、を取得する取得工程と、
前記第1のデータもしくは前記第1のデータを取得するための信号を処理して前記第2のデータに類似させた第3のデータを生成するデータ生成工程と、
前記第2のデータに基づくデータと前記第3のデータに基づくデータとを位置合わせした結果に基づいて、前記第1のデータに基づくデータと前記第2のデータに基づくデータとを位置合わせする位置合わせ工程と、を備えることを特徴とする医用画像処理装置の制御方法。
(項目24)
第1のX線検出方式を用いて取得された第1のデータと、前記第1のX線検出方式とは異なる第2のX線検出方式を用いて取得された第2のデータと、を取得する取得ステップと、
前記第1のデータもしくは前記第1のデータを取得するための信号を処理して前記第2のデータに類似させた第3のデータを生成するデータ生成ステップと、
前記第2のデータに基づくデータと前記第3のデータに基づくデータとを位置合わせした結果に基づいて、前記第1のデータに基づくデータと前記第2のデータに基づくデータとを位置合わせする位置合わせステップと、を備えることを特徴とする医用画像処理プログラム。
The disclosure of this specification includes the following medical image processing apparatus, method for controlling a medical image processing apparatus, and medical image processing program.
(Item 1)
First data acquired using a first X-ray detection method and second data acquired using a second X-ray detection method different from the first X-ray detection method. an acquisition means to acquire;
generating means for processing the first data or a signal for acquiring the first data to generate third data similar to the second data;
A position at which data based on the first data and data based on the second data are aligned based on a result of aligning data based on the second data and data based on the third data. A medical image processing device comprising: a matching means.
(Item 2)
The processing of the first data or the signal for acquiring the first data is processing for reducing a difference in image quality between an image based on the first data and an image based on the second data. The medical image processing device according to item 1, characterized in that:
(Item 3)
The first data is data based on counting data of X-ray photons collected using the signal detected by the X-ray detector, and the second data is data based on the count data of X-ray photons collected using the signal detected by the X-ray detector. The medical image processing device according to item 1, wherein the data is based on integral data obtained by integrating over a time width.
(Item 4)
The first data is data based on integral data obtained by integrating a signal detected by the X-ray detector over a predetermined time width, and the second data is collected using the signal detected by the X-ray detector. The medical image processing device according to item 1, wherein the data is based on X-ray photon count data.
(Item 5)
The generation means generates the third data based on an integral value obtained by integrating the product of the number and energy of photons included in the count data detected by the X-ray detector. The medical image processing device according to item 3.
(Item 6)
Item 1, wherein the first data and the second data are both projection data, or both are volume data, or one is projection data and the other is volume data. The medical image processing device described in .
(Item 7)
The medical image processing apparatus according to item 1, wherein at least one of the first data and the second data is a tomographic image.
(Item 8)
4. The medical image processing apparatus according to item 3, wherein the generating means generates the third data by applying image processing to reduce graininess or sharpness to the first data.
(Item 9)
The medical image processing apparatus according to item 3, wherein the generating means generates the third data by applying image processing to improve graininess or sharpness to the first data. .
(Item 10)
The generating means includes a first image acquired from data acquired using the second X-ray detection method and a first image acquired from data acquired using the second X-ray detection method; Learning using as training data a pair with a third image in which the image quality of the first image is similar to the image quality of the second image obtained from the data obtained using the first X-ray detection method. 4. The medical image processing apparatus according to item 3, wherein the third data is generated from the first data using a learned model obtained by the method.
(Item 11)
Display control for displaying, on a display unit, a first image obtained from data based on the first data and a second image obtained from data based on the second data after the alignment. The medical image processing apparatus according to any one of items 1 to 10, further comprising means.
(Item 12)
12. The medical image processing apparatus according to item 11, wherein the display control means displays the first image and the second image on the display section in parallel or in a switched manner.
(Item 13)
represents a difference between a third image obtained from data based on the third data after the alignment and a second image obtained from data based on the second data after the alignment The medical image processing apparatus according to any one of items 1 to 10, further comprising means for generating an image.
(Item 14)
14. The medical image processing apparatus according to item 13, wherein the image representing the difference is a difference image representing a difference area between the third image and the second image.
(Item 15)
The difference image is a first image obtained from data based on the first data after the alignment, or an image in which information representing the difference area is displayed superimposed on the second image. 15. The medical image processing device according to item 14.
(Item 16)
The medical device according to item 11, further comprising an area setting means for setting an area on the second image, which corresponds to a first area set in the first image, as a second area. Image processing device.
(Item 17)
17. The medical image processing apparatus according to item 16, further comprising instruction receiving means for receiving an instruction to set the first area on the first image.
(Item 18)
Item 16, wherein the display control means superimposes and displays information indicating the first area on the first image and information indicating the second area on the second image. The medical image processing device described.
(Item 19)
The display control means displays information indicating the second area set by the area setting unit and information indicating the area set by drawing on the second image by the user in a distinguishable manner. The medical image processing device according to item 16, characterized by:
(Item 20)
20. The medical image processing apparatus according to item 19, wherein the display control means draws and sets an area on the second image by the user as an area set in a past examination.
(Item 21)
The medical image processing apparatus according to any one of items 1 to 10, wherein the first data and the second data are data acquired from different X-ray detectors at different dates and times. .
(Item 22)
The generation means can process the second data or a signal for acquiring the second data to generate fourth data similar to the first data,
2. The medical image processing apparatus according to item 1, wherein the generation means includes instruction reception means for accepting a selection instruction for generating either the third data or the fourth data.
(Item 23)
First data acquired using a first X-ray detection method and second data acquired using a second X-ray detection method different from the first X-ray detection method. an acquisition process to acquire;
a data generation step of processing the first data or a signal for acquiring the first data to generate third data similar to the second data;
A position at which data based on the first data and data based on the second data are aligned based on a result of aligning data based on the second data and data based on the third data. A method for controlling a medical image processing apparatus, comprising: an alignment step.
(Item 24)
First data acquired using a first X-ray detection method and second data acquired using a second X-ray detection method different from the first X-ray detection method. an acquisition step to acquire;
a data generation step of processing the first data or a signal for acquiring the first data to generate third data similar to the second data;
A position at which data based on the first data and data based on the second data are aligned based on a result of aligning data based on the second data and data based on the third data. A medical image processing program comprising: a matching step.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.

1:X線CT装置、10:架台装置、30:寝台装置、40:コンソール装置、12:X線検出器、18:DAS,44:制御部、441:システム制御部、442:前処理部、443:再構成部、444:画像処理部、445:スキャン制御部、446:表示制御部 1: X-ray CT device, 10: gantry device, 30: bed device, 40: console device, 12: X-ray detector, 18: DAS, 44: control section, 441: system control section, 442: preprocessing section, 443: Reconstruction unit, 444: Image processing unit, 445: Scan control unit, 446: Display control unit

Claims (24)

第1のX線検出方式を用いて取得された第1のデータと、前記第1のX線検出方式とは異なる第2のX線検出方式を用いて取得された第2のデータと、を取得する取得手段と、
前記第1のデータもしくは前記第1のデータを取得するための信号を処理して前記第2のデータに類似させた第3のデータを生成する生成手段と、
前記第2のデータに基づくデータと前記第3のデータに基づくデータとを位置合わせした結果に基づいて、前記第1のデータに基づくデータと前記第2のデータに基づくデータとを位置合わせする位置合わせ手段と、を備えることを特徴とする医用画像処理装置。
an acquisition means for acquiring first data acquired using a first X-ray detection method and second data acquired using a second X-ray detection method different from the first X-ray detection method;
a generating means for processing the first data or a signal for acquiring the first data to generate third data similar to the second data;
and a registration means for registering data based on the first data and data based on the second data based on a result of registering data based on the second data and data based on the third data.
前記第1のデータもしくは前記第1のデータを取得するための信号の処理が、前記第1のデータに基づく画像と前記第2のデータに基づく画像との画質の差を低減するための処理であることを特徴とする請求項1に記載の医用画像処理装置。 The medical image processing device according to claim 1, characterized in that the processing of the first data or the signal for acquiring the first data is processing for reducing the difference in image quality between an image based on the first data and an image based on the second data. 前記第1のデータがX線検出器により検出された信号を用いて収集したX線光子の計数データに基づくデータであり、前記第2のデータがX線検出器により検出された信号を所定の時間幅で積分して得られる積分データに基づくデータであることを特徴とする請求項1に記載の医用画像処理装置。 The first data is data based on counting data of X-ray photons collected using the signal detected by the X-ray detector, and the second data is data based on the count data of X-ray photons collected using the signal detected by the X-ray detector. The medical image processing apparatus according to claim 1, wherein the data is based on integral data obtained by integrating over a time width. 前記第1のデータがX線検出器により検出した信号を所定の時間幅で積分した積分データに基づくデータであり、前記第2のデータが前記X線検出器により検出した信号を用いて収集したX線光子の計数データに基づくデータであることを特徴とする請求項1に記載の医用画像処理装置。 The first data is data based on integral data obtained by integrating a signal detected by the X-ray detector over a predetermined time width, and the second data is collected using the signal detected by the X-ray detector. The medical image processing apparatus according to claim 1, wherein the data is based on count data of X-ray photons. 前記生成手段は、X線検出器により検出された前記計数データに含まれる光子の数とエネルギーとの積を積分することにより得られる積分値に基づいて前記第3のデータを生成することを特徴とする請求項3に記載の医用画像処理装置。 The medical image processing device according to claim 3, characterized in that the generating means generates the third data based on an integral value obtained by integrating the product of the number and energy of photons contained in the count data detected by an X-ray detector. 前記第1のデータおよび前記第2のデータが、いずれも投影データである、もしくは、いずれもボリュームデータである、もしくは、一方が投影データであり他方がボリュームデータであることを特徴とする請求項1に記載の医用画像処理装置。 A claim characterized in that the first data and the second data are both projection data, or both are volume data, or one is projection data and the other is volume data. 1. The medical image processing device according to 1. 前記第1のデータおよび前記第2のデータのうちの少なくとも一方が断層画像であることを特徴とする請求項1に記載の医用画像処理装置。 The medical image processing apparatus according to claim 1, wherein at least one of the first data and the second data is a tomographic image. 前記生成手段は、前記第1のデータに粒状性または鮮鋭性を低減する画像処理を適用することにより前記第3のデータを生成することを特徴とする請求項3に記載の医用画像処理装置。 The medical image processing device according to claim 3, characterized in that the generating means generates the third data by applying image processing to the first data to reduce graininess or sharpness. 前記生成手段は、前記第1のデータに対して粒状性または鮮鋭性を向上する画像処理を適用することにより前記第3のデータを生成することを特徴とする請求項3に記載の医用画像処理装置。 4. Medical image processing according to claim 3, wherein the generating means generates the third data by applying image processing to improve graininess or sharpness to the first data. Device. 前記生成手段は、前記第2のX線検出方式を用いて取得されたデータから取得される第1の画像と、前記第2のX線検出方式を用いて取得されたデータから取得され、前記第1のX線検出方式を用いて取得されたデータから取得される第2の画像の画質に類似させた第3の画像とのペアを教師データとして用いた学習により得られた学習済みモデルを用いて、前記第1のデータから前記第3のデータを生成することを特徴とする請求項3に記載の医用画像処理装置。 The medical image processing device according to claim 3, characterized in that the generating means generates the third data from the first data using a trained model obtained by learning using as training data a pair of a first image acquired from data acquired using the second X-ray detection method and a third image acquired from data acquired using the second X-ray detection method and having image quality similar to that of the second image acquired from data acquired using the first X-ray detection method. 前記位置合わせ後の、前記第1のデータに基づくデータから取得される第1の画像と、前記第2のデータに基づくデータから取得される第2の画像とを、表示部に表示する表示制御手段をさらに備えることを特徴とする請求項1に記載の医用画像処理装置。 The medical image processing device according to claim 1, further comprising a display control means for displaying on a display unit a first image obtained from data based on the first data and a second image obtained from data based on the second data after the alignment. 前記表示制御手段は、前記第1の画像と前記第2の画像とを、前記表示部に並列表示する、または、切り替えて表示することを特徴とする請求項11に記載の医用画像処理装置。 12. The medical image processing apparatus according to claim 11, wherein the display control means displays the first image and the second image in parallel or in a switched manner on the display unit. 前記位置合わせ後の、前記第3のデータに基づくデータから取得される第3の画像と、前記位置合わせ後の前記第2のデータに基づくデータから取得される第2の画像との差異を表す画像を生成する手段をさらに備えることを特徴とする請求項1に記載の医用画像処理装置。 The medical image processing device according to claim 1, further comprising a means for generating an image representing the difference between a third image obtained from data based on the third data after the alignment and a second image obtained from data based on the second data after the alignment. 前記差異を表す画像は、前記第3の画像と前記第2の画像との差分領域を表す差分画像であることを特徴とする請求項13に記載の医用画像処理装置。 The medical image processing apparatus according to claim 13, wherein the image representing the difference is a difference image representing a difference area between the third image and the second image. 前記差分画像は、前記位置合わせ後の前記第1のデータに基づくデータから取得される第1の画像、または、前記第2の画像に、前記差分領域を表す情報が重畳表示された画像であることを特徴とする請求項14に記載の医用画像処理装置。 The medical image processing device according to claim 14, characterized in that the difference image is a first image obtained from data based on the first data after the alignment, or an image in which information representing the difference region is superimposed on the second image. 前記第1の画像に設定された第1の領域に対応する、前記第2の画像上の領域を、第2の領域として設定する領域設定手段を備えることを特徴とする請求項11に記載の医用画像処理装置。 The medical image processing device according to claim 11, further comprising a region setting means for setting, as a second region, a region on the second image that corresponds to a first region set on the first image. 前記第1の画像上に前記第1の領域を設定する指示を受け付ける指示受付手段を備えることを特徴とする請求項16に記載の医用画像処理装置。 The medical image processing device according to claim 16, further comprising an instruction receiving means for receiving an instruction to set the first region on the first image. 前記表示制御手段が、前記第1の画像に前記第1の領域を示す情報、前記第2の画像に前記第2の領域を示す情報を各々重畳して表示することを特徴とする請求項16に記載の医用画像処理装置。 The medical image processing device according to claim 16, characterized in that the display control means displays information indicating the first region on the first image and information indicating the second region on the second image by superimposing the information on the first image and the information on the second image. 前記表示制御手段は、前記領域設定手段によって設定される第2の領域を示す情報と、ユーザによって前記第2の画像に描画して設定される領域を示す情報と、を識別可能に表示することを特徴とする請求項16に記載の医用画像処理装置。 The medical image processing device according to claim 16, characterized in that the display control means displays information indicating the second region set by the region setting means and information indicating the region set by the user by drawing on the second image in a distinguishable manner. 前記表示制御手段は、ユーザによって前記第2の画像に描画して設定される領域が過去の検査で設定された領域であることを特徴とする請求項19に記載の医用画像処理装置。 The medical image processing device according to claim 19, characterized in that the display control means is characterized in that the area drawn and set by the user on the second image is an area set in a previous examination. 前記第1のデータと前記第2のデータとが、異なる日時に異なるX線検出器から取得されたデータであることを特徴とする請求項1に記載の医用画像処理装置。 The medical image processing device according to claim 1, characterized in that the first data and the second data are data acquired from different X-ray detectors at different dates and times. 前記生成手段が、前記第2のデータもしくは前記第2のデータを取得するための信号を処理して前記第1のデータに類似させた第4のデータを生成することが可能であり、
前記生成手段が、前記第3のデータおよび前記第4のデータのうちのいずれかを生成するための選択指示を受け付ける指示受付手段を有することを特徴とする請求項1に記載の医用画像処理装置。
The generation means can process the second data or a signal for acquiring the second data to generate fourth data similar to the first data,
The medical image processing apparatus according to claim 1, wherein the generation means includes instruction reception means for accepting a selection instruction for generating either the third data or the fourth data. .
第1のX線検出方式を用いて取得された第1のデータと、前記第1のX線検出方式とは異なる第2のX線検出方式を用いて取得された第2のデータと、を取得する取得工程と、
前記第1のデータもしくは前記第1のデータを取得するための信号を処理して前記第2のデータに類似させた第3のデータを生成するデータ生成工程と、
前記第2のデータに基づくデータと前記第3のデータに基づくデータとを位置合わせした結果に基づいて、前記第1のデータに基づくデータと前記第2のデータに基づくデータとを位置合わせする位置合わせ工程と、を備えることを特徴とする医用画像処理装置の制御方法。
an acquisition step of acquiring first data acquired using a first X-ray detection method and second data acquired using a second X-ray detection method different from the first X-ray detection method;
a data generating step of processing the first data or a signal for acquiring the first data to generate third data similar to the second data;
and a registration process for registering data based on the first data and data based on the second data based on a result of registering data based on the second data and data based on the third data.
第1のX線検出方式を用いて取得された第1のデータと、前記第1のX線検出方式とは異なる第2のX線検出方式を用いて取得された第2のデータと、を取得する取得ステップと、
前記第1のデータもしくは前記第1のデータを取得するための信号を処理して前記第2のデータに類似させた第3のデータを生成するデータ生成ステップと、
前記第2のデータに基づくデータと前記第3のデータに基づくデータとを位置合わせした結果に基づいて、前記第1のデータに基づくデータと前記第2のデータに基づくデータとを位置合わせする位置合わせステップと、を備えることを特徴とする医用画像処理プログラム。
an acquiring step of acquiring first data acquired using a first X-ray detection technique and second data acquired using a second X-ray detection technique different from the first X-ray detection technique;
a data generating step of processing the first data or a signal for acquiring the first data to generate third data similar to the second data;
and a registration step of aligning data based on the first data and data based on the second data based on a result of aligning data based on the second data and data based on the third data.
JP2023130532A 2022-09-22 2023-08-09 Medical image processing device and control method thereof, and medical image processing program Pending JP2024046604A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/031810 WO2024062894A1 (en) 2022-09-22 2023-08-31 Medical image processing device, method for controlling same, and medical image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022151803 2022-09-22
JP2022151803 2022-09-22

Publications (1)

Publication Number Publication Date
JP2024046604A true JP2024046604A (en) 2024-04-03

Family

ID=90481575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023130532A Pending JP2024046604A (en) 2022-09-22 2023-08-09 Medical image processing device and control method thereof, and medical image processing program

Country Status (1)

Country Link
JP (1) JP2024046604A (en)

Similar Documents

Publication Publication Date Title
JP6261915B2 (en) X-ray CT apparatus, image processing apparatus, and image processing method
CN105962959B (en) The method and filming apparatus for generating image are distributed for virtual X-ray energy of a quantum
JP2020507753A (en) Photon counting detectors that enable matching
EP3620112B1 (en) X-ray ct apparatus
JP2014239840A (en) Radiographic image diagnosis device
US20210279918A1 (en) Medical information processing apparatus, medical image diagnosis apparatus, and medical information processing method
JP2020127635A (en) Medical processing device, x-ray ct system, and processing program
CN104545972B (en) X-ray computed tomograohy apparatus, medical image-processing apparatus and method
JP7179479B2 (en) X-ray CT device
WO2024062894A1 (en) Medical image processing device, method for controlling same, and medical image processing program
JP2024046604A (en) Medical image processing device and control method thereof, and medical image processing program
US11295487B2 (en) X-ray CT apparatus, medical image processing apparatus, and X-ray CT system
JP7466401B2 (en) Medical imaging diagnostic equipment
JP2020103571A (en) Medical processing device and X-ray diagnostic system
US20230346323A1 (en) X-ray ct apparatus
WO2024048374A1 (en) Image processing device, photographing system, image processing method, and program
US11717242B2 (en) Photon counting computed tomography (CT) apparatus
US11162909B2 (en) System and method for colorizing a radiograph from cabinet X-ray systems
JP2018117779A (en) X-ray CT apparatus
JP7399720B2 (en) X-ray CT device
US20240095977A1 (en) Reconstruction device, x-ray ct apparatus, and image processing device
US20240099675A1 (en) Medical image processing device and medical image processing method
JP2024036754A (en) X-ray ct apparatus, data processing method and data processing program
JP2023074958A (en) Medical image processing device, medical image processing method, and program
JP2023055322A (en) Machine learning model evaluation device, machine learning model evaluation method, and program