JP2023074285A - Medical image processing apparatus and x-ray diagnostic apparatus - Google Patents

Medical image processing apparatus and x-ray diagnostic apparatus Download PDF

Info

Publication number
JP2023074285A
JP2023074285A JP2021187157A JP2021187157A JP2023074285A JP 2023074285 A JP2023074285 A JP 2023074285A JP 2021187157 A JP2021187157 A JP 2021187157A JP 2021187157 A JP2021187157 A JP 2021187157A JP 2023074285 A JP2023074285 A JP 2023074285A
Authority
JP
Japan
Prior art keywords
projection data
human body
data
body model
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021187157A
Other languages
Japanese (ja)
Inventor
純平 小笠原
Jumpei Ogasawara
邦夫 白石
Kunio Shiraishi
敏哉 和久
Toshiya Waku
智史 山下
Tomofumi Yamashita
泰人 早津
Yasuhito Hayatsu
智生 藤戸
Tomoki Fujito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2021187157A priority Critical patent/JP2023074285A/en
Publication of JP2023074285A publication Critical patent/JP2023074285A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To improve accuracy of truncation correction.SOLUTION: A medical image processing apparatus according to an embodiment includes an acquisition unit and a generation unit. The acquiring unit acquires a plurality of projection data sets respectively acquired by irradiating a subject with X-rays from a plurality of angles. The generation unit generates synthesized projection data by synthesizing model projection data based on human body model data having an internal structure with corresponding projection data for each of the plurality of projection data sets.SELECTED DRAWING: Figure 1

Description

本明細書及び図面に開示の実施形態は、医用画像処理装置及びX線診断装置に関する。 The embodiments disclosed in the specification and drawings relate to a medical image processing apparatus and an X-ray diagnostic apparatus.

従来、X線診断装置は、Cアームを回転させながら各角度で投影データを収集し、収集した投影データから3次元のボリュームデータを再構成するCBCT(Cone-Beam Computed Tomography)機能を有する。CBCT機能による撮影では、撮影ジオメトリ(被検体とX線管とX線検出器との位置関係)と被検体の大きさとによって、被検体が撮影視野からはみ出してしまうトランケーションが発生する場合がある。トランケーションが発生した場合、アーチファクト(辺縁近傍に発生する偽信号)や、アキシャル断面において中心に対して辺縁部の信号値が低くなるカッピング効果、アキシャル断面において中心に対して辺縁部の信号値が高くなるキャッピング効果が生じて、診断が困難となる場合がある。 Conventionally, an X-ray diagnostic apparatus has a CBCT (Cone-Beam Computed Tomography) function of collecting projection data at each angle while rotating a C-arm and reconstructing three-dimensional volume data from the collected projection data. In imaging using the CBCT function, truncation may occur in which the subject protrudes from the imaging field of view depending on the imaging geometry (the positional relationship between the subject, the X-ray tube, and the X-ray detector) and the size of the subject. When truncation occurs, artifacts (false signals generated near the edge), cupping effect in which the signal value at the edge is lower than the center in the axial cross section, and signal at the edge compared to the center in the axial cross section A high-value capping effect may occur, making diagnosis difficult.

そこで、このようなトランケーションへの対策として、視野外にはみ出した部分を推定して補正するトランケーション補正(撮影視野外の画素値を外挿する補正)が実施される。例えば、トランケーション補正の手法としては、被検体の形状(体型)と密度を想定した関数を用いて撮影視野外の画素値を推定して外挿する方法が知られている。また、トランケーションの補正量は、収集した視野内の信号値から推定する方法や、固定の幅で設定する方法などで決定される。 Therefore, as a countermeasure against such truncation, truncation correction (correction for extrapolating pixel values outside the imaging field of view) is performed to estimate and correct the portion protruding outside the field of view. For example, as a method of truncation correction, there is known a method of estimating and extrapolating pixel values outside the field of view using a function that assumes the shape (body type) and density of a subject. The truncation correction amount is determined by a method of estimating from the collected signal values within the field of view, a method of setting with a fixed width, or the like.

特表2007-521905号公報Japanese Patent Publication No. 2007-521905

本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、トランケーションの補正精度を向上させることである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 One of the problems to be solved by the embodiments disclosed in the specification and drawings is to improve the accuracy of truncation correction. However, the problems to be solved by the embodiments disclosed in this specification and drawings are not limited to the above problems. A problem corresponding to each effect of each configuration shown in the embodiments described later can be positioned as another problem.

実施形態に係る医用画像処理装置は、取得部と、生成部とを備える。取得部は、被検体に対して複数の角度からX線が照射されることでそれぞれ収集された複数の投影データを取得する。生成部は、前記複数の投影データごとに、内部構造を有する人体モデルデータに基づくモデル投影データを、対応する投影データに合成した合成投影データをそれぞれ生成する。 A medical image processing apparatus according to an embodiment includes an acquisition unit and a generation unit. The acquiring unit acquires a plurality of projection data respectively acquired by irradiating an object with X-rays from a plurality of angles. The generation unit generates synthesized projection data by synthesizing model projection data based on human body model data having an internal structure with corresponding projection data for each of the plurality of projection data.

図1は、第1の実施形態に係る医用画像処理装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example configuration of a medical image processing apparatus according to the first embodiment. 図2は、第1の実施形態に係る人体モデルを説明するための図である。FIG. 2 is a diagram for explaining the human body model according to the first embodiment. 図3は、第1の実施形態に係る抽出機能による処理を説明するための図である。FIG. 3 is a diagram for explaining processing by the extraction function according to the first embodiment. 図4は、第1の実施形態に係る抽出機能による処理の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of processing by an extraction function according to the first embodiment. 図5Aは、第1の実施形態に係る生成機能による処理の一例を説明するための図である。FIG. 5A is a diagram for explaining an example of processing by a generation function according to the first embodiment; 図5Bは、第1の実施形態に係る生成機能による処理の一例を説明するための図である。5B is a diagram for explaining an example of processing by a generation function according to the first embodiment; FIG. 図6は、第1の実施形態に係る医用画像処理装置による処理手順を示すフローチャートである。FIG. 6 is a flow chart showing processing procedures by the medical image processing apparatus according to the first embodiment. 図7Aは、第3の実施形態に係る抽出機能による処理の一例を説明するための図である。FIG. 7A is a diagram for explaining an example of processing by an extraction function according to the third embodiment; 図7Bは、第3の実施形態に係る抽出機能による処理の一例を説明するための図である。FIG. 7B is a diagram for explaining an example of processing by an extraction function according to the third embodiment; 図7Cは、第3の実施形態に係る抽出機能による処理の一例を説明するための図である。FIG. 7C is a diagram for explaining an example of processing by an extraction function according to the third embodiment; 図8は、第4の実施形態に係る抽出機能による処理の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of processing by an extraction function according to the fourth embodiment. 図9Aは、第5の実施形態に係る生成機能による処理の一例を説明するための図である。FIG. 9A is a diagram for explaining an example of processing by a generation function according to the fifth embodiment; 図9Bは、第5の実施形態に係る生成機能による処理の一例を説明するための図である。FIG. 9B is a diagram for explaining an example of processing by a generation function according to the fifth embodiment; 図10は、その他の実施形態に係るX線診断装置の構成の一例を示すブロック図である。FIG. 10 is a block diagram showing an example configuration of an X-ray diagnostic apparatus according to another embodiment.

以下、図面を参照して、医用画像処理装置及びX線診断装置の実施形態について詳細に説明する。なお、本願に係る医用画像処理装置及びX線診断装置は、以下に示す実施形態によって限定されるものではない。また、以下の説明において、同様の構成要素には共通の符号を付与するとともに、重複する説明を省略する。 Hereinafter, embodiments of a medical image processing apparatus and an X-ray diagnostic apparatus will be described in detail with reference to the drawings. The medical image processing apparatus and X-ray diagnostic apparatus according to the present application are not limited to the embodiments described below. In addition, in the following description, common reference numerals are assigned to similar components, and duplicate descriptions are omitted.

(第1の実施形態)
図1は、第1の実施形態に係る医用画像処理装置3の構成の一例を示すブロック図である。図1に示すように、医用画像処理装置3は、ネットワーク2を介してX線診断装置1に接続される。なお、図1では、ネットワーク2にX線診断装置1及び医用画像処理装置3のみが接続される場合を示しているが、実施形態はこれに限定されるものではなく、ネットワーク2にその他の装置(例えば、他の医用画像診断装置や、医用画像保管装置など)が接続される場合でもよい。
(First embodiment)
FIG. 1 is a block diagram showing an example configuration of a medical image processing apparatus 3 according to the first embodiment. As shown in FIG. 1 , the medical image processing apparatus 3 is connected to the X-ray diagnostic apparatus 1 via the network 2 . Although FIG. 1 shows a case where only the X-ray diagnostic apparatus 1 and the medical image processing apparatus 3 are connected to the network 2, the embodiment is not limited to this, and other apparatuses can be connected to the network 2. (For example, other medical image diagnostic apparatus, medical image storage apparatus, etc.) may be connected.

X線診断装置1は、被検体に対してX線を照射して、被検体を透過したX線を検出することでX線画像(投影データ)を収集する。ここで、X線診断装置1は、X線管とX線検出器を回転させながら各回転角度で被検体を撮影する回転撮影を実行することができる。すなわち、X線診断装置1は、被検体に対して複数の角度からX線を照射することで、複数のX線画像をそれぞれ収集する。この回転撮影を行うことで、各回転角度の画像を用いた3次元画像データ(ボリュームデータ)の再構成が可能である。 The X-ray diagnostic apparatus 1 acquires an X-ray image (projection data) by irradiating an object with X-rays and detecting the X-rays that have passed through the object. Here, the X-ray diagnostic apparatus 1 can perform rotational imaging in which the subject is imaged at each rotation angle while rotating the X-ray tube and the X-ray detector. That is, the X-ray diagnostic apparatus 1 collects a plurality of X-ray images by irradiating the subject with X-rays from a plurality of angles. By performing this rotation imaging, it is possible to reconstruct three-dimensional image data (volume data) using images at each rotation angle.

医用画像処理装置3は、ネットワーク2を介してX線画像を取得し、取得したX線画像に対して種々の画像処理を行う。具体的には、医用画像処理装置3は、回転撮影によって収集された複数のX線画像を取得し、取得した複数のX線画像に対して、トランケーション補正を行う。 The medical image processing apparatus 3 acquires X-ray images via the network 2 and performs various image processing on the acquired X-ray images. Specifically, the medical image processing apparatus 3 acquires a plurality of X-ray images acquired by rotational imaging, and performs truncation correction on the acquired plurality of X-ray images.

図1に示すように、医用画像処理装置3は、通信インターフェース31と、入力インターフェース32と、ディスプレイ33と、メモリ34と、処理回路35とを有する。例えば、医用画像処理装置3は、タブレット端末や、ワークステーションなどの情報処理装置によって実現される。 As shown in FIG. 1 , the medical image processing apparatus 3 has a communication interface 31 , an input interface 32 , a display 33 , a memory 34 and a processing circuit 35 . For example, the medical image processing apparatus 3 is realized by an information processing apparatus such as a tablet terminal or a workstation.

通信インターフェース31は、処理回路35に接続され、ネットワークを介して接続されたX線診断装置1等との間で行われる各種データの伝送及び通信を制御する。例えば、通信インターフェース31は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。 The communication interface 31 is connected to the processing circuit 35 and controls transmission and communication of various data with the X-ray diagnostic apparatus 1 and the like connected via the network. For example, the communication interface 31 is implemented by a network card, network adapter, NIC (Network Interface Controller), or the like.

入力インターフェース32は、種々の設定などを行うためのトラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチモニタ、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。入力インターフェース32は、処理回路35に接続されており、操作者から受け付けた入力操作を電気信号に変換して処理回路35に出力する。なお、本明細書において入力インターフェース32は、マウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する処理回路も入力インターフェースの例に含まれる。 The input interface 32 includes a trackball, a switch button, a mouse, a keyboard, a touchpad for performing input operations by touching the operation surface, a touch monitor in which the display screen and the touchpad are integrated, It is realized by a non-contact input circuit using an optical sensor, an audio input circuit, and the like. The input interface 32 is connected to the processing circuit 35 , converts an input operation received from an operator into an electric signal, and outputs the electric signal to the processing circuit 35 . It should be noted that the input interface 32 in this specification is not limited to having physical operation components such as a mouse and a keyboard. For example, an example of an input interface includes a processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs this electrical signal to a control circuit.

ディスプレイ33は、処理回路35に接続され、処理回路35から出力される各種情報及び各種画像を表示する。例えば、ディスプレイ33は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチモニタ等によって実現される。例えば、ディスプレイ33は、操作者の指示を受け付けるためのUI(User Interface)や、種々の画像、処理回路35による種々の処理結果を表示する。 The display 33 is connected to the processing circuit 35 and displays various information and various images output from the processing circuit 35 . For example, the display 33 is realized by a liquid crystal monitor, a CRT (Cathode Ray Tube) monitor, a touch monitor, or the like. For example, the display 33 displays a UI (User Interface) for receiving instructions from the operator, various images, and various processing results by the processing circuit 35 .

メモリ34は、処理回路35に接続され、各種データを記憶する。例えば、メモリ34は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。本実施形態では、メモリ34は、X線診断装置1から受信したX線画像(回転撮影によって収集された複数のX線画像)などを記憶する。また、メモリ34は、処理回路35の処理に用いられる種々の情報(人体モデルのデータ)や、処理回路35による処理結果等を記憶する。また、メモリ34は、処理回路35によって読み出されて実行される各種機能に対応するプログラムを記憶する。 The memory 34 is connected to the processing circuit 35 and stores various data. For example, the memory 34 is implemented by a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. In this embodiment, the memory 34 stores X-ray images received from the X-ray diagnostic apparatus 1 (a plurality of X-ray images acquired by rotational imaging) and the like. In addition, the memory 34 stores various information (human body model data) used for processing by the processing circuit 35, processing results by the processing circuit 35, and the like. The memory 34 also stores programs corresponding to various functions read and executed by the processing circuit 35 .

処理回路35は、入力インターフェース32を介して操作者から受け付けた入力操作に応じて、制御機能351と、抽出機能352と、生成機能353と、再構成機能354とを実行することで、医用画像処理装置3を制御する。ここで、制御機能351と、抽出機能352と、生成機能353と、再構成機能354とが実行する各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ34内に記録されている。処理回路35は、例えば、プロセッサであり、メモリ34から各プログラムを読み出し、実行することで読み出した各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路35は、図1の処理回路35内に示された各機能を有することとなる。なお、制御機能351は、取得部の一例である。また、抽出機能352は、抽出部の一例である。また、生成機能353は、生成部の一例である。また、再構成機能354は、再構成部の一例である。 The processing circuit 35 executes a control function 351, an extraction function 352, a generation function 353, and a reconstruction function 354 according to an input operation received from an operator via the input interface 32, thereby generating a medical image. It controls the processing device 3 . Each processing function executed by the control function 351, the extraction function 352, the generation function 353, and the reconstruction function 354 is recorded in the memory 34 in the form of a computer-executable program. The processing circuit 35 is, for example, a processor, and reads each program from the memory 34 and executes the read program to implement the function corresponding to the read program. In other words, the processing circuit 35 with each program read has each function shown in the processing circuit 35 of FIG. Note that the control function 351 is an example of an acquisition unit. Also, the extraction function 352 is an example of an extraction unit. Also, the generation function 353 is an example of a generation unit. Also, the reconstruction function 354 is an example of a reconstruction unit.

制御機能351は、通信インターフェース31を介したX線診断装置1とのデータの送受信や、受信したデータのメモリ34への格納、ディスプレイ33への各種情報の表示などを制御する。例えば、制御機能351は、被検体に対して複数の角度からX線が照射されることでそれぞれ収集された複数の投影データ(X線画像)を取得する。 The control function 351 controls transmission/reception of data with the X-ray diagnostic apparatus 1 via the communication interface 31, storage of received data in the memory 34, display of various information on the display 33, and the like. For example, the control function 351 acquires a plurality of projection data (X-ray images) acquired by irradiating the subject with X-rays from a plurality of angles.

抽出機能352は、複数の投影データごとに、被検体において投影データの視野範囲外となった領域を、内部構造を有する人体モデルデータから抽出する。なお、抽出機能352による処理については、後に詳述する。 The extracting function 352 extracts, from the human body model data having the internal structure, a region of the subject outside the field of view of the projection data for each of a plurality of pieces of projection data. Processing by the extraction function 352 will be described in detail later.

生成機能353は、複数の投影データごとに、内部構造を有する人体モデルデータに基づくモデル投影データを、対応する投影データに合成した合成投影データをそれぞれ生成する。具体的には、生成機能353は、複数の投影データごとに、人体モデルデータから抽出された領域を投影することによりモデル投影データを生成し、生成したモデル投影データを対応する投影データに合成した合成投影データをそれぞれ生成する。なお、生成機能353による処理については、後に詳述する。 The generation function 353 generates synthesized projection data by synthesizing model projection data based on human body model data having an internal structure with corresponding projection data for each of a plurality of pieces of projection data. Specifically, the generation function 353 generates model projection data by projecting regions extracted from the human body model data for each of a plurality of pieces of projection data, and combines the generated model projection data with the corresponding projection data. Generate synthetic projection data respectively. Processing by the generation function 353 will be described in detail later.

再構成機能354は、複数の投影データを用いて、3次元画像データ(ボリュームデータ)を再構成する。例えば、再構成機能354は、複数の投影データからそれぞれ生成された複数の合成投影データを用いて、3次元画像データを再構成する。ここで、再構成機能354は、公知の再構成手法を適宜用いることができる。例えば、再構成機能354は、フィルタ補正逆投影法(Filtered Back Projection:FBP)や逐次近似法(Iterative Reconstruction)などにより、複数の投影データから3次元画像データを再構成する。 A reconstruction function 354 reconstructs three-dimensional image data (volume data) using a plurality of projection data. For example, the reconstruction function 354 reconstructs three-dimensional image data using a plurality of synthetic projection data each generated from a plurality of projection data. Here, the reconstruction function 354 can appropriately use a known reconstruction method. For example, the reconstruction function 354 reconstructs three-dimensional image data from a plurality of projection data by Filtered Back Projection (FBP), Iterative Reconstruction, or the like.

以上、医用画像処理装置3の全体構成について説明した。かかる構成のもと、医用画像処理装置3は、処理回路35による処理によって、トランケーションの補正精度を向上させる。 The overall configuration of the medical image processing apparatus 3 has been described above. With such a configuration, the medical image processing apparatus 3 improves the correction accuracy of truncation through processing by the processing circuit 35 .

回転撮影によって収集した複数の投影データに基づいてボリュームデータを再構成するCBCT撮影では、被検体が撮影視野からはみ出してしまうトランケーションが発生した場合、アーチファクトや、カッピング効果、キャッピング効果が生じて、診断が困難となる場合があるため、撮影視野外の画素値を推定して外挿するトランケーション補正が行われている。 In CBCT imaging, in which volume data is reconstructed based on a plurality of projection data acquired by rotational imaging, if truncation occurs in which the subject protrudes from the imaging field of view, artifacts, cupping effects, and capping effects occur, making diagnosis difficult. Therefore, truncation correction is performed by estimating and extrapolating pixel values outside the field of view.

しかしながら、撮影視野の範囲内外の境界が被検体のどの部分であるか(骨ではみ出すか、軟組織ではみ出すかなど)によって、トランケーションによる影響が異なるため、トランケーションに対して一律の補正を行う一般的なトランケーション補正では、トランケーションの状態に充分に対応できず、トランケーションによる影響を適切に補正できない場合がある。 However, since the effect of truncation differs depending on which part of the subject is the boundary between the inside and outside of the imaging field of view (bone or soft tissue, etc.), it is common to perform uniform correction for truncation. A simple truncation correction may not be able to adequately respond to truncation conditions and may not be able to adequately compensate for the effects of truncation.

そこで、本実施形態に係る医用画像処理装置3では、内部構造を有する人体モデルを用いてトランケーション補正を行うことで、撮影視野の範囲内外の境界に応じた画素値を外挿することを可能にし、トランケーションの補正精度を向上させる。以下、医用画像処理装置3による処理の詳細について説明する。 Therefore, in the medical image processing apparatus 3 according to the present embodiment, by performing truncation correction using a human body model having an internal structure, it is possible to extrapolate pixel values according to the boundaries inside and outside the range of the imaging field of view. , to improve the correction accuracy of the truncation. Details of the processing by the medical image processing apparatus 3 will be described below.

ここで、まず、本実施形態に係る人体モデルのデータについて説明する。本実施形態に係る人体モデルは、人体の内部構造の情報を有するデータである。具体的には、人体モデルは、人体を構成する構成要素ごとの形状及び位置に関する情報と、構成要素に含まれる物質に関する情報とを含む。例えば、人体モデルのデータは、人体の標準的な構造を有する人体モデルが複数のボクセルに細分化された構造を有し、各ボクセルに物質に関する情報(密度などのX線減弱量に関する情報)が保持される。 First, the data of the human body model according to this embodiment will be described. The human body model according to this embodiment is data having information on the internal structure of the human body. Specifically, the human body model includes information on the shape and position of each constituent element that constitutes the human body, and information on the substance contained in the constituent element. For example, data of a human body model has a structure in which a human body model having a standard structure of the human body is subdivided into a plurality of voxels, and each voxel contains information on substances (information on X-ray attenuation such as density). retained.

図2は、第1の実施形態に係る人体モデルを説明するための図である。人体モデルは、複数のボクセルによって構成され、例えば、図2に示すように、人体内部の構造や位置の情報、及び、物質の情報が保持される。すなわち、人体モデルは、座標情報を有する各ボクセルに、部位の情報と物質の情報とが保持される。例えば、人体モデルは、図2に示すように、「頭部」、「胸部」、「腹部」、「腰」、「足」などから構成される上位層と、各上位層に含まれる部位(臓器など)から構成される下位層とを含み、下位層の各部位に相当するボクセルに物質の情報が保持されたデータとして管理される。 FIG. 2 is a diagram for explaining the human body model according to the first embodiment. The human body model is composed of a plurality of voxels, and holds information on the structure and position inside the human body and information on substances, as shown in FIG. 2, for example. That is, in the human body model, each voxel having coordinate information holds information about a part and information about a substance. For example, as shown in FIG. 2, a human body model consists of upper layers composed of "head", "chest", "abdomen", "waist", "legs", etc., and parts ( organ, etc.), and is managed as data in which material information is held in voxels corresponding to each part of the lower layer.

一例を挙げると、上位層「胸部」には、「第1肋骨」~「第12肋骨」まで分類された下位層が含まれ、各肋骨に対応するボクセルによって物質「骨」の情報が保持される。また、上位層「胸部」には、「肺野」などのその他の部位が含まれ、各部位ごとに対応するボクセルによって物質の情報(例えば、臓器/筋肉、脂肪、空気など)が保持される。これらのボクセルには、3次元空間における位置情報(座標情報)が付帯されており、人体モデルは、3次元空間におけるどの位置がどの部位に相当し、どのような物質によって構成されているかが定義されている。 For example, the upper layer ``thorax'' includes lower layers classified from ``1st rib'' to ``12th rib'', and the voxel corresponding to each rib holds the information of the material ``bone''. be. In addition, the upper layer "thorax" includes other parts such as "lung fields", and material information (eg, organs/muscles, fat, air, etc.) is held by corresponding voxels for each part. . Positional information (coordinate information) in the three-dimensional space is attached to these voxels, and the human body model defines which position corresponds to which part in the three-dimensional space and what kind of material it is composed of. It is

人体モデルでは、その他の上位層においても同様に情報が管理されており、人体の全身についての構成要素ごとの形状及び位置に関する情報と、構成要素に含まれる物質に関する情報とを含んでいる。なお、上位層に含まれる部位については、任意に分類することができるが、少なくとも、軟組織、骨、肺野などX線減弱量が大きく変化する部位が分類されていることが望ましい。また、ボクセルにおける物質の情報の保持については、例えば、各ボクセルが、物質ごとのチャンネルを有し、対応する物質のチャンネルの数値が大きくなるように管理される場合でもよい。 In the human body model, information is similarly managed in other upper layers, and includes information on the shape and position of each constituent element of the entire human body and information on substances contained in the constituent elements. The parts included in the upper layer can be arbitrarily classified, but it is desirable to classify at least parts such as soft tissues, bones, and lung fields where the amount of X-ray attenuation changes greatly. Further, with respect to retention of material information in voxels, for example, each voxel may have a channel for each material, and management may be performed so that the numerical value of the corresponding material channel is increased.

上述したように、人体モデルは、人体内部の構造や位置の情報、及び、物質の情報が保持される。ここで、人体モデルのデータは、例えば、体型(身長、体重)ごとに予め作成され、メモリ34に格納される。 As described above, the human body model holds information on the structure and position inside the human body and information on materials. Here, the human body model data is created in advance for each body type (height, weight) and stored in the memory 34, for example.

制御機能351は、入力インターフェース32を介した操作に応じて、回転撮影によって収集された複数のX線画像を取得する。例えば、制御機能351は、X線診断装置1、或いは、図示しない画像保管装置から、複数のX線画像を取得する。 The control function 351 acquires a plurality of X-ray images acquired by rotational imaging according to operations via the input interface 32 . For example, the control function 351 acquires multiple X-ray images from the X-ray diagnostic apparatus 1 or an image storage device (not shown).

抽出機能352は、制御機能351によって取得された複数のX線画像について、視野範囲外となった領域を人体モデルからそれぞれ抽出する。具体的には、抽出機能352は、各X線画像において、回転撮影における回転軸に対して直交する方向の視野範囲外となった被検体の領域を人体モデルからそれぞれ抽出する。 The extraction function 352 extracts, from the human body model, regions outside the visual field range for each of the plurality of X-ray images acquired by the control function 351 . Specifically, the extracting function 352 extracts, from the human body model, regions of the subject outside the field of view in the direction perpendicular to the axis of rotation in rotational imaging in each X-ray image.

ここで、抽出機能352は、被検体と、X線を照射するX線管と、被検体を透過したX線を検出するX線検出器との位置関係を示す撮影ジオメトリに基づいて、人体モデルのデータからX線画像の視野範囲外となった領域を抽出する。すなわち、抽出機能352は、回転撮影時の撮影ジオメトリに基づいて、視野範囲外となった領域を抽出する。 Here, the extraction function 352 extracts a human body model based on imaging geometry that indicates the positional relationship between the subject, an X-ray tube that emits X-rays, and an X-ray detector that detects X-rays that have passed through the subject. A region outside the field of view of the X-ray image is extracted from the data of . That is, the extraction function 352 extracts the area outside the field of view based on the imaging geometry during rotational imaging.

図3は、第1の実施形態に係る抽出機能352による処理を説明するための図である。例えば、抽出機能352は、図3の上段の図に示すように、まず、被検体の体型情報(身長、体重など)に基づいて、複数の人体モデルのデータから使用する人体モデルを選択する。ここで、抽出機能352は、選択した人体モデルを、被検体の体型情報に合わせて変形することで、被検体により近似した人体モデルを生成することもできる。 FIG. 3 is a diagram for explaining processing by the extraction function 352 according to the first embodiment. For example, as shown in the upper diagram of FIG. 3, the extraction function 352 first selects a human body model to be used from a plurality of human body model data based on the body type information (height, weight, etc.) of the subject. Here, the extraction function 352 can also generate a human body model that is closer to the subject by transforming the selected human body model in accordance with the body shape information of the subject.

そして、抽出機能352は、図3の下段の図に示すように、回転撮影時の寝台(天板)の位置と、X線焦点の位置と、X線検出器の位置とを含む情報を取得し、それらの位置に対して、選択した人体モデルを配置したシミュレーションモデルを生成する。すなわち、抽出機能352は、回転撮影時の実際の状態を人体モデルで再現したシミュレーションモデルを生成する。なお、人体モデルは、例えば、寝台の中心に配置され、位置関係が紐づけられる。 Then, the extraction function 352 acquires information including the position of the bed (tabletop), the position of the X-ray focal point, and the position of the X-ray detector during rotational imaging, as shown in the lower diagram of FIG. and generate a simulation model in which the selected human body model is placed at those positions. In other words, the extraction function 352 generates a simulation model that reproduces the actual state of rotation photography using a human body model. For example, the human body model is arranged in the center of the bed and is associated with the positional relationship.

ここで、上記シミュレーションモデルでは、人体モデルの形状や、内部構造の位置が正確に合わないため、抽出機能352は、実際の被検体の状態に人体モデルを合わせる修正を行ったうえで、視野範囲外となる領域を抽出する。具体的には、抽出機能352は、X線画像に含まれる被検体情報に基づいて人体モデルデータを修正し、修正後の人体モデルデータからX線画像の視野範囲外となった領域を抽出する。例えば、抽出機能352は、X線画像と、当該X線画像を収集した角度から人体モデル全体を投影したモデル投影データとの比較結果に基づいて当該人体モデルを修正し、修正後の人体モデルからX線画像の視野範囲外となった領域を抽出する。すなわち、抽出機能352は、実際に収集したX線画像と、シミュレーションで作成した画像とが一致するように、人体モデルを修正し、修正後の人体モデルから視野範囲外の領域を抽出する。 Here, in the above simulation model, the shape of the human body model and the position of the internal structure do not match exactly, so the extraction function 352 corrects the human body model to match the actual state of the subject, and then adjusts the visual field range. Extract the outer region. Specifically, the extraction function 352 corrects the human body model data based on subject information included in the X-ray image, and extracts a region outside the field of view of the X-ray image from the corrected human body model data. . For example, the extraction function 352 corrects the human body model based on the result of comparison between the X-ray image and the model projection data obtained by projecting the entire human body model from the angle at which the X-ray image was acquired, and extracts the A region outside the field of view of the X-ray image is extracted. That is, the extraction function 352 corrects the human body model so that the actually acquired X-ray image and the image created by the simulation match, and extracts a region outside the visual field range from the corrected human body model.

図4は、第1の実施形態に係る抽出機能352による処理の一例を説明するための図である。例えば、抽出機能352は、図4に示すように、回転撮影において収集されたある角度のX線画像(例えば、回転撮影開始時の角度におけるX線画像)を取得する。そして、抽出機能352は、取得したX線画像の角度と同一の角度で、シミュレーションモデルによるシミュレーション画像を生成する。すなわち、抽出機能352は、図4に示すように、人体モデルを配置したシミュレーションモデルにおいて、人体モデルに対してX線を照射した場合にX線検出器の位置に投影されるシミュレーション画像を生成する。 FIG. 4 is a diagram for explaining an example of processing by the extraction function 352 according to the first embodiment. For example, as shown in FIG. 4, the extraction function 352 acquires an X-ray image at a certain angle acquired during rotational imaging (eg, an X-ray image at the angle at which rotational imaging is started). Then, the extraction function 352 generates a simulation image based on the simulation model at the same angle as the acquired X-ray image. That is, as shown in FIG. 4, the extraction function 352 generates a simulation image projected at the position of the X-ray detector when the human body model is irradiated with X-rays in the simulation model in which the human body model is arranged. .

ここで、人体モデルには、各ボクセルに物質に関する情報(X線減弱量に関する情報)が保持されている。抽出機能352は、X線焦点からX線検出器のピクセルを結ぶX線のパス上のボクセルに保持された物質の情報に基づいて、各ピクセルにおける画素値を算出することで、シミュレーション画像を生成する。 Here, in the human body model, each voxel holds information on substances (information on X-ray attenuation). The extraction function 352 generates a simulation image by calculating the pixel value of each pixel based on the information on the substance held in the voxel on the X-ray path connecting the X-ray focus and the X-ray detector pixels. do.

そして、抽出機能352は、取得したX線画像と、生成したシミュレーション画像とを比較し、比較結果に基づいてシミュレーションモデルにおける人体モデルを修正することで、使用する人体モデルへと変形させる。すなわち、抽出機能352は、X線画像に含まれる構造と、シミュレーション画像に含まれる構造とを比較して、シミュレーション画像に含まれる構造がX線画像に含まれる構造と一致するように、シミュレーションモデル内の人体モデルの位置や形状を修正する。ここで、抽出機能352は、まず、上位層の構造から位置と形状を修正し、その後、下位層の構造の位置と形状を順に修正する。 Then, the extraction function 352 compares the acquired X-ray image with the generated simulation image, and modifies the human body model in the simulation model based on the comparison result to transform it into the human body model to be used. That is, the extraction function 352 compares the structure included in the X-ray image with the structure included in the simulation image, and extracts the structure included in the simulation model so that the structure included in the simulation image matches the structure included in the X-ray image. Modify the position and shape of the human body model in Here, the extraction function 352 first corrects the position and shape of the structure of the upper layer, and then corrects the position and shape of the structure of the lower layer in order.

抽出機能352は、上記した人体モデルの修正を、1方向、或いは、複数方向から行う。例えば、複数方向から行う場合、抽出機能352は、予め決められた複数の角度、或いは、操作者によって指定された複数の角度について、X線画像とシミュレーション画像とをそれぞれ比較し、比較結果に基づいて、それぞれの角度から人体モデルの修正を行う。 The extraction function 352 corrects the human body model described above from one direction or from multiple directions. For example, when performing from a plurality of directions, the extraction function 352 compares the X-ray image and the simulation image at a plurality of predetermined angles or a plurality of angles specified by the operator, and based on the comparison result Then, correct the human body model from each angle.

上述したように、抽出機能352は、シミュレーションモデルにおける人体モデルの位置及び形状を修正することで、回転撮影時の実際の状態を人体モデルで再現する。これにより、抽出機能352は、実際の回転撮影時に視野範囲外となった被検体の領域を、シミュレーションモデルにおいて抽出することができる。すなわち、抽出機能352は、シミュレーションモデルの人体モデルにおいて視野範囲外となる領域を、実際の回転撮影時に視野範囲外となった被検体の領域として抽出する。 As described above, the extraction function 352 corrects the position and shape of the human body model in the simulation model to reproduce the actual state at the time of rotational imaging with the human body model. As a result, the extraction function 352 can extract, in the simulation model, the region of the subject that is out of the field of view during the actual rotation imaging. That is, the extracting function 352 extracts the area outside the field of view in the human body model of the simulation model as the area of the subject outside the field of view during the actual rotation imaging.

生成機能353は、抽出機能352によって人体モデルから抽出された視野範囲外の領域に基づいて、X線画像の視野範囲外となったデータを外挿した合成X線画像(合成投影データ)を生成する。具体的には、生成機能353は、人体モデルの位置及び形状を修正した後のシミュレーションモデルの人体モデル全体を順投影することで、人体モデルにおける視野範囲外の領域を投影したシミュレーション画像(モデル投影データ)を生成し、生成したシミュレーション画像(モデル投影データ)をX線画像に合成した合成X線画像を生成する。 The generation function 353 generates a synthetic X-ray image (composite projection data) by extrapolating the data outside the visual field range of the X-ray image based on the area outside the visual field range extracted from the human body model by the extraction function 352. do. Specifically, the generating function 353 forward-projects the entire human body model of the simulation model after correcting the position and shape of the human body model, thereby projecting a simulation image (model projection data) is generated, and a synthesized X-ray image is generated by synthesizing the generated simulation image (model projection data) with the X-ray image.

図5A及び図5Bは、第1の実施形態に係る生成機能353による処理の一例を説明するための図である。ここで、図5Aは、シミュレーション画像(モデル投影データ)の生成の一例を示す。また、図5Bは、合成X線画像の生成の一例を示す。 5A and 5B are diagrams for explaining an example of processing by the generation function 353 according to the first embodiment. Here, FIG. 5A shows an example of generating a simulation image (model projection data). Also, FIG. 5B shows an example of generation of a composite X-ray image.

例えば、生成機能353は、図5Aに示すように、人体モデルを修正した後のシミュレーションモデルにおいて、人体モデル全体を投影することで、視野範囲外の領域を投影したシミュレーション画像(モデル投影データ)を生成する。人体モデルには、各ボクセルに物質に関する情報(X線減弱量に関する情報)が保持されている。すなわち、抽出機能352は、X線検出器と同一平面上に視野範囲外の領域を投影させる仮想的な検出器を設定し、X線焦点から仮想的な検出器のピクセルを結ぶX線のパス上のボクセルに保持された物質の情報に基づいて、各ピクセルにおける画素値を算出することで、シミュレーション画像(モデル投影データ)を生成する。 For example, as shown in FIG. 5A, the generation function 353 projects the entire human body model in the simulation model after correcting the human body model to generate a simulation image (model projection data) in which an area outside the visual range is projected. Generate. In the human body model, each voxel holds information on substances (information on X-ray attenuation). That is, the extraction function 352 sets a virtual detector that projects an area outside the field of view on the same plane as the X-ray detector, and an X-ray path connecting pixels of the virtual detector from the X-ray focus. A simulation image (model projection data) is generated by calculating the pixel value of each pixel based on the material information held in the upper voxels.

ここで、人体モデルを修正した後のシミュレーションモデルは、被検体が実際に回転撮影を行った状態が再現されたものであることから、人体モデルにおける視野範囲外を投影したシミュレーション画像(モデル投影データ)は、回転撮影時に被検体において視野範囲外にはみ出した構造を投影したものとなる。 Here, since the simulation model after correcting the human body model reproduces the state in which the subject was actually rotated and photographed, a simulation image projected outside the field of view of the human body model (model projection data ) is a projection of the structure protruding out of the field of view on the subject during rotational imaging.

そして、生成機能353は、生成したシミュレーション画像(モデル投影データ)を、回転撮影において収集したX線画像に合成した合成X線画像を生成する。これにより、生成機能353は、回転撮影において視野範囲外にはみ出した領域を含む合成X線画像を生成することができる。 Then, the generating function 353 generates a composite X-ray image by combining the generated simulation image (model projection data) with the X-ray image acquired in the rotation imaging. As a result, the generation function 353 can generate a composite X-ray image including a region protruding outside the field of view in rotational imaging.

図5Bは、生成機能353によって生成された合成X線画像のプロファイルを示す。ここで、図5Bにおいては、上段のX線画像(回転撮影で収集されたX線画像)における直線L1で示した位置の画素値プロファイルを示す。例えば、合成X線画像では、視野範囲における画素値が曲線L2(直線L1で示した位置の画素値)で示す値となり、視野範囲外における画素値が曲線L3(人体モデルの視野範囲外を投影することで得られた画素値)で示す値となる。図5Bに示すように、人体モデルを用いた合成X線画像では、曲線L2と曲線L3との境界が適切な値になるとともに、視野範囲外での画素値の状態が物質に応じた値を示すようになる。一方、一般的なトランケーション補正を行った場合、視野範囲外の画素値は、曲線L4で示すようなものとなる場合があり、トランケーション補正の精度に一定の限界がある。 FIG. 5B shows the composite X-ray image profile generated by the generation function 353 . Here, FIG. 5B shows the pixel value profile at the position indicated by the straight line L1 in the upper X-ray image (X-ray image acquired by rotational imaging). For example, in the composite X-ray image, the pixel values in the visual field range are the values indicated by the curve L2 (the pixel values at the positions indicated by the straight line L1), and the pixel values outside the visual field range are the values indicated by the curve L3 (projection outside the visual field range of the human body model). (pixel value obtained by As shown in FIG. 5B, in the synthesized X-ray image using the human body model, the boundary between the curve L2 and the curve L3 has an appropriate value, and the state of the pixel value outside the visual field range has a value corresponding to the material. as shown. On the other hand, when general truncation correction is performed, pixel values outside the field of view may become as indicated by curve L4, and there is a certain limit to the accuracy of truncation correction.

生成機能353は、回転撮影における角度ごとに、上記した合成X線画像を生成する。すなわち、生成機能353は、回転撮影の各角度をシミュレーションモデルで再現して、シミュレーション画像(モデル投影データ)をそれぞれ生成する。そして、生成機能353は、回転撮影によって収集された各角度のX線画像に対して、同一の角度で生成したシミュレーション画像(モデル投影データ)をそれぞれ合成することで、回転撮影における角度ごとの合成X線画像を生成する。 The generating function 353 generates the composite X-ray image described above for each angle in rotational imaging. In other words, the generation function 353 reproduces each angle of the rotation photographing in the simulation model to generate each simulation image (model projection data). Then, the generation function 353 synthesizes the simulation image (model projection data) generated at the same angle with the X-ray image at each angle acquired by the rotational imaging, thereby synthesizing the X-ray image for each angle in the rotational imaging. Generate an X-ray image.

再構成機能354は、生成機能353によって生成された角度ごとの合成X線画像を用いて、ボリュームデータを再構成する。これにより、再構成機能354は、トランケーションによる影響をより低減したボリュームデータを再構成することができる。 A reconstruction function 354 reconstructs volume data using the synthetic X-ray image for each angle generated by the generation function 353 . As a result, the reconstruction function 354 can reconstruct volume data with less influence of truncation.

図6は、第1の実施形態に係る医用画像処理装置3による処理手順を示すフローチャートである。ここで、図6におけるステップS101は、処理回路35が、制御機能351に対応するプログラムをメモリ34から読み出して実行することで実現される。また、ステップS102~S104は、処理回路35が、抽出機能352に対応するプログラムを読み出して実行することで実現される。また、ステップS105~S106は、処理回路35が、生成機能353に対応するプログラムを読み出して実行することで実現される。また、ステップS107は、処理回路35が、再構成機能354に対応するプログラムを読み出して実行することで実現される。 FIG. 6 is a flow chart showing a processing procedure by the medical image processing apparatus 3 according to the first embodiment. Here, step S101 in FIG. 6 is realized by the processing circuit 35 reading a program corresponding to the control function 351 from the memory 34 and executing it. Further, steps S102 to S104 are implemented by the processing circuit 35 reading and executing a program corresponding to the extraction function 352. FIG. Further, steps S105 and S106 are realized by the processing circuit 35 reading and executing a program corresponding to the generating function 353. FIG. Further, step S107 is realized by the processing circuit 35 reading out and executing a program corresponding to the reconstruction function 354 .

第1の実施形態に係る医用画像処理装置3においては、例えば、図6に示すように、処理回路35が、回転撮影により収集されたX線画像を取得する(ステップS101)。そして、処理回路35が、被検体情報に基づいて人体モデルを選択して(ステップS102)、選択した人体モデルを用いてシミュレーションモデルを生成する(ステップS103)。 In the medical image processing apparatus 3 according to the first embodiment, for example, as shown in FIG. 6, the processing circuit 35 acquires an X-ray image acquired by rotation imaging (step S101). Then, the processing circuit 35 selects a human body model based on the subject information (step S102), and generates a simulation model using the selected human body model (step S103).

その後、処理回路が、回転撮影によって収集されたX線画像に基づいて、シミュレーションモデルを修正して(ステップS104)、修正後のシミュレーションモデルを用いて、シミュレーション画像(モデル投影データ)を生成する(ステップS105)。 After that, the processing circuit modifies the simulation model based on the X-ray image acquired by rotational imaging (step S104), and generates a simulation image (model projection data) using the modified simulation model ( step S105).

そして、処理回路35は、生成したシミュレーション画像(モデル投影データ)を用いてトランケーション補正を行い(ステップS106)、トランケーション補正後のX線画像(合成X線画像)を用いて、ボリュームデータを再構成する(ステップS107)。 Then, the processing circuit 35 performs truncation correction using the generated simulation image (model projection data) (step S106), and reconstructs volume data using the X-ray image after truncation correction (composite X-ray image). (step S107).

上述したように、第1の実施形態によれば、制御機能351は、被検体に対して複数の角度からX線が照射されることでそれぞれ収集された複数の投影データを取得する。生成機能353は、複数の投影データごとに、内部構造を有する人体モデルデータに基づくモデル投影データを、対応する投影データに合成した合成投影データをそれぞれ生成する。したがって、第1の実施形態に係る医用画像処理装置3は、内部構造を有する人体モデルを用いた補正を行うことができ、トランケーションの補正精度を向上させることを可能にする。 As described above, according to the first embodiment, the control function 351 obtains a plurality of projection data acquired by irradiating the subject with X-rays from a plurality of angles. The generation function 353 generates synthesized projection data by synthesizing model projection data based on human body model data having an internal structure with corresponding projection data for each of a plurality of pieces of projection data. Therefore, the medical image processing apparatus 3 according to the first embodiment can perform correction using a human body model having an internal structure, making it possible to improve the correction accuracy of truncation.

また、第1の実施形態によれば、抽出機能352は、複数の投影データごとに、被検体において投影データの視野範囲外となった領域を、内部構造を有する人体モデルデータから抽出する。生成機能353は、複数の投影データごとに、人体モデルデータから抽出された領域を投影することによりモデル投影データを生成する。したがって、第1の実施形態に係る医用画像処理装置3は、精度の高いモデル投影データを生成することを可能にする。 Further, according to the first embodiment, the extraction function 352 extracts, from the human body model data having the internal structure, the region of the subject that is outside the field of view of the projection data for each of a plurality of pieces of projection data. The generation function 353 generates model projection data by projecting regions extracted from human body model data for each of a plurality of pieces of projection data. Therefore, the medical image processing apparatus 3 according to the first embodiment makes it possible to generate highly accurate model projection data.

また、第1の実施形態によれば、抽出機能352は、被検体と、X線を照射するX線管と、被検体を透過したX線を検出するX線検出器との位置関係を示す撮影ジオメトリに基づいて、人体モデルデータから投影データの視野範囲外となった領域を抽出する。したがって、第1の実施形態に係る医用画像処理装置3は、回転撮影時の状態を考慮した視野範囲外の領域を抽出することを可能にする。 Further, according to the first embodiment, the extraction function 352 indicates the positional relationship between the subject, the X-ray tube that emits X-rays, and the X-ray detector that detects the X-rays that have passed through the subject. A region outside the field of view of the projection data is extracted from the human body model data based on the imaging geometry. Therefore, the medical image processing apparatus 3 according to the first embodiment makes it possible to extract a region outside the field of view in consideration of the state during rotational imaging.

また、第1の実施形態によれば、抽出機能352は、投影データに含まれる被検体情報に基づいて人体モデルデータを修正し、修正後の人体モデルデータから投影データの視野範囲外となった領域を抽出する。したがって、第1の実施形態に係る医用画像処理装置3は、被検体の構造を考慮した視野範囲外の領域を抽出することを可能にする。 Further, according to the first embodiment, the extraction function 352 corrects the human body model data based on the subject information included in the projection data, and the corrected human body model data is outside the field of view of the projection data. Extract regions. Therefore, the medical image processing apparatus 3 according to the first embodiment makes it possible to extract a region outside the field of view considering the structure of the subject.

また、第1の実施形態によれば、抽出機能352は、投影データと、当該投影データを収集した角度から人体モデルデータ全体を投影したモデル投影データとの比較結果に基づいて当該人体モデルデータを修正し、修正後の人体モデルデータから投影データの視野範囲外となった領域を抽出する。したがって、第1の実施形態に係る医用画像処理装置3は、人体モデルに対して、回転撮影時の被検体の状態を反映させることができ、視野範囲外の領域をより正確に抽出することを可能にする。 Further, according to the first embodiment, the extraction function 352 extracts the human body model data based on the comparison result between the projection data and the model projection data obtained by projecting the entire human body model data from the angle at which the projection data was collected. After correction, the area outside the field of view of the projection data is extracted from the human body model data after correction. Therefore, the medical image processing apparatus 3 according to the first embodiment can reflect the state of the subject at the time of rotational imaging on the human body model, and can more accurately extract the area outside the visual field range. enable.

また、第1の実施形態によれば、人体モデルデータは、人体を構成する構成要素ごとの形状及び位置に関する情報と、構成要素に含まれる物質に関する情報とを含む。したがって、第1の実施形態に係る医用画像処理装置3は、視野範囲外の領域に含まれる物質に応じた画素値を用いてトランケーション補正を行う(合成X線画像を生成する)ことができ、トランケーションの補正精度を向上させることを可能にする。 Further, according to the first embodiment, the human body model data includes information on the shape and position of each constituent element that constitutes the human body, and information on the substance contained in the constituent element. Therefore, the medical image processing apparatus 3 according to the first embodiment can perform truncation correction (generate a composite X-ray image) using pixel values corresponding to substances contained in regions outside the field of view, It is possible to improve the correction accuracy of truncation.

また、第1の実施形態によれば、再構成機能354は、複数の投影データからそれぞれ生成された複数の合成投影データを用いて、3次元画像データを再構成する。したがって、第1の実施形態に係る医用画像処理装置3は、トランケーションの影響をより低減させたボリュームデータを再構成することを可能にする。 Further, according to the first embodiment, the reconstruction function 354 reconstructs three-dimensional image data using a plurality of synthetic projection data generated respectively from a plurality of projection data. Therefore, the medical image processing apparatus 3 according to the first embodiment makes it possible to reconstruct volume data in which the influence of truncation is further reduced.

(第2の実施形態)
上述した第1の実施形態では、標準の人体モデルから体型ごとの人体モデルを生成し、各ボクセルに物質に関する情報を(X線減弱量に関する情報)を保持させる場合について説明した。第2の実施形態では、CT(Computed Tomography)画像データを人体モデルとして用いる場合について説明する。すなわち、第2の実施形態に係る抽出機能352は、人体モデルデータとしてのCT画像データから、回転撮影によって収集された投影データの視野範囲外となった領域を抽出する。なお、第2の実施形態は、第1の実施形態と比較して、使用する人体モデルのみが異なる。以下、これを中心に説明する。
(Second embodiment)
In the above-described first embodiment, a case has been described in which a human body model for each body type is generated from a standard human body model, and information on substances (information on X-ray attenuation) is held in each voxel. In the second embodiment, a case where CT (Computed Tomography) image data is used as a human body model will be described. That is, the extraction function 352 according to the second embodiment extracts, from the CT image data as the human body model data, a region outside the field of view range of the projection data acquired by rotational imaging. The second embodiment differs from the first embodiment only in the human body model used. This will be mainly described below.

かかる場合には、体型ごとのCT画像データがメモリ34に格納され、抽出機能352は、被検体の体型情報に基づいて対応するCT画像データを読み出し、第1の実施形態での人体モデルと同様にシミュレーションモデルを生成して、視野範囲外の領域を抽出する。生成機能353は、CT画像データを用いたシミュレーションモデルから抽出された視野範囲外の領域を用いて、合成X線画像を生成する。 In such a case, the CT image data for each body type is stored in the memory 34, and the extraction function 352 reads the corresponding CT image data based on the body type information of the subject, and extracts the corresponding CT image data as in the human body model in the first embodiment. Generate a simulation model to extract the area outside the field of view. The generating function 353 generates a composite X-ray image using the area outside the field of view extracted from the simulation model using CT image data.

ここで、CT画像データは、X線減弱量を示す情報としてCT値を有しており、抽出機能352及び生成機能353は、CT画像データにおけるCT値を用いて各処理を実行する。なお、人体モデルとしてのCT画像データは、全身が1つのデータとして保持される場合でもよく、部位ごとにデータが分割されている場合でもよい。 Here, the CT image data has a CT value as information indicating the amount of X-ray attenuation, and the extraction function 352 and generation function 353 execute each process using the CT value in the CT image data. The CT image data as the human body model may be stored as one piece of data for the whole body, or may be divided for each part.

上述したように、第2の実施形態によれば、抽出機能352は、人体モデルデータとしてのCT画像データから投影データの視野範囲外となった領域を抽出する。したがって、第2の実施形態に係る医用画像処理装置3は、新たな人体モデルを生成することなく、人体モデルを用いたトランケーション補正を行うことができ、トランケーションの補正精度の向上を容易に実現することを可能にする。 As described above, according to the second embodiment, the extraction function 352 extracts a region outside the field of view of projection data from CT image data as human body model data. Therefore, the medical image processing apparatus 3 according to the second embodiment can perform truncation correction using a human body model without generating a new human body model, and easily realizes improvement in truncation correction accuracy. make it possible.

(第3の実施形態)
第3の実施形態では、回転撮影によって収集した複数のX線画像について、人体を構成する物質ごとにセグメンテーションを行い、セグメンテーション結果に基づいて人体モデルを修正する場合について説明する。なお、第3の実施形態は、第1の実施形態と比較して、人体モデルの修正をさらに行う点のみが異なる。以下、これを中心に説明する。
(Third embodiment)
In the third embodiment, a case will be described in which a plurality of X-ray images acquired by rotational imaging are segmented for each material that constitutes the human body, and the human body model is corrected based on the segmentation results. The third embodiment differs from the first embodiment only in that the human body model is further corrected. This will be mainly described below.

第3の実施形態に係る抽出機能352は、複数の投影データに含まれる対象物質をそれぞれ抽出し、各投影データ内の対象物質の位置に基づいて、複数の投影データを収集した収集空間における対象物質の位置を特定し、特定した位置に基づいて人体モデルデータを修正する。具体的には、抽出機能352は、X線画像における画素値に基づいて、回転撮影によって収集された複数のX線画像のそれぞれから同一の対象物質をそれぞれ抽出する。そして、抽出機能352は、抽出した対象物質のX線画像内での位置に基づいて、回転撮影時の3次元空間における対象物質の位置を特定し、特定した位置に基づいて人体モデルを修正する。 The extraction function 352 according to the third embodiment extracts target substances included in a plurality of projection data, and extracts target substances in the collection space where the plurality of projection data are collected based on the positions of the target substances in each projection data. Identify the location of the material and modify the human body model data based on the identified location. Specifically, the extracting function 352 extracts the same target substance from each of a plurality of X-ray images acquired by rotational imaging, based on pixel values in the X-ray images. Then, the extraction function 352 specifies the position of the target substance in the three-dimensional space during rotational imaging based on the extracted position of the target substance in the X-ray image, and corrects the human body model based on the specified position. .

図7A~図7Cは、第3の実施形態に係る抽出機能352による処理の一例を説明するための図である。例えば、抽出機能352は、図7Aに示すように、回転撮影によって収集された複数のX線画像について、画素値に基づいて肋骨をそれぞれ抽出する。 7A to 7C are diagrams for explaining an example of processing by the extraction function 352 according to the third embodiment. For example, as shown in FIG. 7A, the extraction function 352 extracts ribs based on pixel values from multiple X-ray images acquired by rotational imaging.

そして、抽出機能352は、図7Bの左図に示すように、複数のX線画像の画素値に基づいて、サイノグラムを生成し、サイノグラムにおけるサインカーブを抽出する。すなわち、抽出機能352は、回転撮影におけるX線画像の収集角度(ビュー方向)を第1の方向(図中のサイノグラムの縦軸)とし、回転撮影における回転軸に直交する方向を第2の方向(図中のサイノグラムの横軸)とした2次元直交座標系に、回転撮影によって得られた画素値を割り当てたサイノグラムを生成する。そして、抽出機能352は、抽出した肋骨の画素値に基づいて、画像間の同一部位を対応付け、同一部位がサイノグラム上に描くサインカーブ「rsin(φ+θ)」を抽出する。 Then, as shown in the left diagram of FIG. 7B, the extraction function 352 generates a sinogram based on the pixel values of the multiple X-ray images and extracts a sine curve in the sinogram. That is, the extraction function 352 sets the acquisition angle (view direction) of the X-ray image in rotational imaging as the first direction (vertical axis of the sinogram in the drawing), and the direction orthogonal to the rotation axis in rotational imaging as the second direction. A sinogram is generated by assigning pixel values obtained by rotational imaging to a two-dimensional orthogonal coordinate system (horizontal axis of the sinogram in the figure). Then, the extraction function 352 associates the same part between the images based on the extracted pixel values of the ribs, and extracts the sine curve "rsin(φ+θ)" drawn by the same part on the sinogram.

さらに、抽出機能352は、図7Bの右図に示すように、再構成座標系において、抽出したサインカーブに基づく肋骨の位置を算出する。 Furthermore, the extraction function 352 calculates the position of the rib based on the extracted sine curve in the reconstruction coordinate system, as shown in the right diagram of FIG. 7B.

その後、抽出機能352は、図7Cに示すように、再構成座標系において求めた肋骨の位置に合うように、シミュレーションモデルにおける人体モデルの座標変換と、人体モデルの変形とを行う。 After that, as shown in FIG. 7C, the extraction function 352 performs coordinate transformation of the human body model in the simulation model and deformation of the human body model so as to match the positions of the ribs determined in the reconstruction coordinate system.

第3の実施形態に係る抽出機能352は、第1の実施形態で説明した修正処理に加えて、上述した修正処理によりシミュレーションモデルにおける人体モデルを修正し、その後、第1の実施形態と同様に、視野範囲外の領域を抽出する。 The extraction function 352 according to the third embodiment corrects the human body model in the simulation model by the above-described correction processing in addition to the correction processing described in the first embodiment, and then, similarly to the first embodiment. , to extract regions outside the field of view.

上述したように、第3の実施形態によれば、抽出機能352は、複数の投影データに含まれる対象物質をそれぞれ抽出し、各投影データ内の対象物質の位置に基づいて、複数の投影データを収集した収集空間における対象物質の位置を特定し、特定した位置に基づいて人体モデルデータを修正する。したがって、第3の実施形態に係る医用画像処理装置3は、物質の位置に基づいて人体モデルをさらに修正することができ、トランケーションの補正精度をさらに向上させることを可能にする。 As described above, according to the third embodiment, the extraction function 352 extracts target substances included in a plurality of projection data, and based on the positions of the target substances in each projection data, the plurality of projection data. is specified, and the human body model data is corrected based on the specified position. Therefore, the medical image processing apparatus 3 according to the third embodiment can further correct the human body model based on the position of the substance, and can further improve the truncation correction accuracy.

(第4の実施形態)
第4の実施形態では、被検体の外形の情報を用いて人体モデルを修正する場合について説明する。なお、第4の実施形態は、第1の実施形態と比較して、人体モデルの修正をさらに行う点のみが異なる。以下、これを中心に説明する。
(Fourth embodiment)
In the fourth embodiment, a case will be described in which the human body model is modified using information on the external shape of the subject. The fourth embodiment differs from the first embodiment only in that the human body model is further corrected. This will be mainly described below.

第4の実施形態に係る抽出機能352は、被検体の全体を含むように同一方向から収集された複数の投影データに基づいて、人体モデルデータをさらに修正する。具体的には、抽出機能352は、被検体の外形を含むように収集されたX線画像における外形の情報を用いて、人体モデルの外形をさらに修正する。 An extraction function 352 according to the fourth embodiment further corrects the human body model data based on a plurality of projection data collected from the same direction so as to include the entire subject. Specifically, the extraction function 352 uses the contour information in the X-ray images acquired to include the contour of the subject to further modify the contour of the human body model.

図8は、第4の実施形態に係る抽出機能352による処理の一例を説明するための図である。例えば、抽出機能352は、図8の上段の図に示すように、X線管とX線検出器を保持するCアームを移動させながら収集された複数の透視画像を用いて、人体モデルの外形を修正する。ここで、透視画像の収集は、図8の下段の図に示すように、被検体の幅を包含するサイズとなる数の透視画像が収集される。 FIG. 8 is a diagram for explaining an example of processing by the extraction function 352 according to the fourth embodiment. For example, as shown in the upper diagram of FIG. 8, the extraction function 352 uses a plurality of fluoroscopic images acquired while moving the C-arm holding the X-ray tube and X-ray detector to determine the outline of the human body model. to fix. Here, as for the collection of fluoroscopic images, as shown in the lower diagram of FIG. 8, the number of fluoroscopic images having a size that covers the width of the subject is collected.

抽出機能352は、複数の透視画像が収集された際の撮影ジオメトリと、透視画像における被検体の外形(端部)の位置とから、シミュレーションモデルに配置した人体モデルの外形(端部)の位置を修正する。 The extraction function 352 extracts the position of the outer shape (end) of the human body model placed in the simulation model from the imaging geometry when a plurality of fluoroscopic images are acquired and the position of the outer shape (end) of the subject in the fluoroscopic image. to fix.

第4の実施形態に係る抽出機能352は、第1の実施形態で説明した修正処理に加えて、上述した修正処理によりシミュレーションモデルにおける人体モデルを修正し、その後、第1の実施形態と同様に、視野範囲外の領域を抽出する。 The extraction function 352 according to the fourth embodiment modifies the human body model in the simulation model by the above-described modification processing in addition to the modification processing described in the first embodiment, and then, similarly to the first embodiment, , to extract regions outside the field of view.

上述したように、第4の実施形態によれば、抽出機能352は、被検体の全体を含むように同一方向から収集された複数の投影データに基づいて、人体モデルデータをさらに修正する。したがって、第4の実施形態に係る医用画像処理装置3は、被検体の外形に基づいて人体モデルをさらに修正することができ、トランケーションの補正精度をさらに向上させることを可能にする。 As described above, according to the fourth embodiment, the extraction function 352 further modifies the human body model data based on multiple projection data collected from the same direction to include the entire subject. Therefore, the medical image processing apparatus 3 according to the fourth embodiment can further correct the human body model based on the external shape of the subject, making it possible to further improve the truncation correction accuracy.

(第5の実施形態)
第5の実施形態では、回転撮影によって収集されたX線画像の画素値に対して、人体モデルを投影した画素値を合わせる場合について説明する。なお、第5の実施形態は、第1の実施形態と比較して、生成機能353による処理内容が異なる。以下、これを中心に説明する。
(Fifth embodiment)
In the fifth embodiment, a case will be described in which the pixel values of an X-ray image acquired by rotational imaging are matched with the pixel values of a projected human body model. It should be noted that the fifth embodiment differs from the first embodiment in the content of processing by the generation function 353 . This will be mainly described below.

第5の実施形態に係る生成機能353は、投影データにおける画素値と、人体モデルデータ全体を投影したモデル投影データにおける投影データに対応する位置の画素値との比較結果に基づいて、モデル投影データ全体の画素値を修正し、モデル投影データの修正後の画素値を用いて、合成投影データを生成する。 The generation function 353 according to the fifth embodiment generates the model projection data based on the comparison result between the pixel value in the projection data and the pixel value at the position corresponding to the projection data in the model projection data obtained by projecting the entire human body model data. The overall pixel values are modified, and the modified pixel values of the model projection data are used to generate synthetic projection data.

図9A及び図9Bは、第5の実施形態に係る生成機能353による処理の一例を説明するための図である。例えば、生成機能353は、図9Aに示すように、抽出機能352によって修正されたシミュレーションモデルにおいて、人体モデル全体を投影したシミュレーション画像を生成する。すなわち、生成機能353は、図9Aのプロファイルの曲線L3に示すように、シミュレーションモデルにおける視野範囲内外の画素値を含むシミュレーション画像を生成する。 9A and 9B are diagrams for explaining an example of processing by the generation function 353 according to the fifth embodiment. For example, the generation function 353 generates a simulation image in which the entire human body model is projected in the simulation model modified by the extraction function 352, as shown in FIG. 9A. That is, the generation function 353 generates a simulation image including pixel values inside and outside the visual field range in the simulation model, as indicated by the profile curve L3 in FIG. 9A.

そして、生成機能353は、回転撮影によって収集されたX線画像の画素値と同様の画素値となるように、シミュレーション画像における画素値を修正する。例えば、生成機能353は、図9Bに示すように、人体モデル全体を投影したシミュレーション画像におけるプロファイルを示す曲線L3の値が、回転撮影で収集されたX線画像におけるプロファイルを示す曲線L2と近似するように、シミュレーション画像における画素値を修正する。 Then, the generation function 353 corrects the pixel values in the simulation image so that the pixel values are the same as the pixel values of the X-ray image acquired by rotational imaging. For example, as shown in FIG. 9B, the generating function 353 approximates the value of the curve L3 representing the profile in the simulation image in which the entire human body model is projected to the curve L2 representing the profile in the X-ray image acquired by rotation imaging. to modify the pixel values in the simulated image.

生成機能353は、上述した画素値の修正を行った後のシミュレーション画像における視野範囲外の画素値を、回転撮影で収集されたX線画像に合成した合成X線画像を生成する。 The generation function 353 generates a composite X-ray image by combining the pixel values outside the field of view in the simulation image after the pixel value correction described above with the X-ray image acquired by rotational imaging.

上述したように、第5の実施形態によれば、生成機能353は、投影データにおける画素値と、人体モデルデータ全体を投影したモデル投影データにおける投影データに対応する位置の画素値との比較結果に基づいて、モデル投影データ全体の画素値を修正し、モデル投影データの修正後の画素値を用いて、合成投影データを生成する。したがって、第5の実施形態に係る医用画像処理装置3は、回転撮影で収集されたX線画像における画素値と、人体モデルから推定した画素値とのずれを抑制することができ、トランケーションの補正精度をさらに向上させることを可能にする。 As described above, according to the fifth embodiment, the generation function 353 compares the pixel value in the projection data with the pixel value at the position corresponding to the projection data in the model projection data obtained by projecting the entire human body model data. pixel values of the entire model projection data are corrected based on, and synthetic projection data is generated using the corrected pixel values of the model projection data. Therefore, the medical image processing apparatus 3 according to the fifth embodiment can suppress the deviation between the pixel values in the X-ray image acquired by rotation imaging and the pixel values estimated from the human body model, and correct the truncation. Allows for further improvement in accuracy.

(その他の実施形態)
これまで第1~第5の実施形態について説明したが、上述した第1~第5の実施形態は、任意に組み合わせて実施することができる。
(Other embodiments)
Although the first to fifth embodiments have been described so far, the above-described first to fifth embodiments can be arbitrarily combined and carried out.

また、上述した実施形態では、医用画像処理装置3によって各種処理が実行される場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、上述した各処理がX線診断装置1によって実行される場合でもよい。 Moreover, in the above-described embodiment, the case where the medical image processing apparatus 3 executes various processes has been described. However, the embodiment is not limited to this, and each of the processes described above may be executed by the X-ray diagnostic apparatus 1 .

図10は、その他の実施形態に係るX線診断装置1の構成の一例を示すブロック図である。図10に示すように、X線診断装置1は、X線高電圧装置11と、X線管12と、X線絞り器13と、天板14と、Cアーム15と、X線検出器16と、メモリ17と、ディスプレイ18と、入力インターフェース19と、処理回路20とを備える。 FIG. 10 is a block diagram showing an example configuration of an X-ray diagnostic apparatus 1 according to another embodiment. As shown in FIG. 10, the X-ray diagnostic apparatus 1 includes an X-ray high voltage device 11, an X-ray tube 12, an X-ray restrictor 13, a top plate 14, a C-arm 15, and an X-ray detector 16. , a memory 17 , a display 18 , an input interface 19 and a processing circuit 20 .

X線高電圧装置11は、処理回路20による制御の下、X線管12に高電圧を印加する。例えば、X線高電圧装置11は、変圧器(トランス)及び整流器等の電気回路を有し、X線管12に印加する高電圧を発生する高電圧発生装置と、X線管12が照射するX線に応じた出力電圧の制御を行うX線制御装置とを有する。 The X-ray high voltage device 11 applies a high voltage to the X-ray tube 12 under the control of the processing circuit 20 . For example, the X-ray high-voltage device 11 has electric circuits such as a transformer and a rectifier, and includes a high-voltage generator that generates a high voltage to be applied to the X-ray tube 12 and a and an X-ray control device for controlling an output voltage according to X-rays.

X線管12は、熱電子を発生する陰極(フィラメント)と、熱電子の衝突を受けてX線を発生する陽極(ターゲット)とを有する真空管である。X線管12は、X線高電圧装置11から印加される高電圧を用いて、陰極から陽極に向けて熱電子を照射することにより、X線を発生する。 The X-ray tube 12 is a vacuum tube having a cathode (filament) that generates thermoelectrons and an anode (target) that generates X-rays upon collision with thermoelectrons. The X-ray tube 12 uses a high voltage applied from the X-ray high voltage device 11 to irradiate thermal electrons from the cathode to the anode, thereby generating X-rays.

X線絞り器13は、X線管12により発生されたX線の照射範囲を絞り込むX線絞りと、X線管12から曝射されたX線を調節するフィルタとを有する。 The X-ray diaphragm 13 has an X-ray diaphragm that narrows down the irradiation range of X-rays generated by the X-ray tube 12 and a filter that adjusts the X-rays emitted from the X-ray tube 12 .

X線絞り器13におけるX線絞りは、例えば、スライド可能な4枚の絞り羽根を有する。X線絞りは、絞り羽根をスライドさせることで、X線管12が発生したX線を絞り込んで被検体Pに照射させる。 The X-ray diaphragm in the X-ray diaphragm 13 has, for example, four slidable diaphragm blades. The X-ray diaphragm narrows down the X-rays generated by the X-ray tube 12 by sliding diaphragm blades, and irradiates the subject P with the X-rays.

X線絞り器13におけるフィルタは、被検体Pに対する被曝線量の低減とX線画像データの画質向上を目的として、その材質や厚みによって透過するX線の線質を変化させ、被検体Pに吸収されやすい軟線成分を低減したり、X線画像データのコントラスト低下を招く高エネルギー成分を低減したりする。また、フィルタは、その材質や厚み、位置などによってX線の線量及び照射範囲を変化させ、X線管12から被検体Pへ照射されるX線が予め定められた分布になるようにX線を減衰させる。 The filter in the X-ray restrictor 13 changes the quality of the transmitted X-rays depending on its material and thickness for the purpose of reducing the exposure dose to the subject P and improving the image quality of the X-ray image data. It reduces soft ray components that are likely to be depleted, and reduces high-energy components that cause deterioration in the contrast of X-ray image data. In addition, the filter changes the X-ray dose and irradiation range depending on its material, thickness, position, etc., and X-rays are arranged so that the X-rays irradiated from the X-ray tube 12 to the subject P have a predetermined distribution. attenuate

天板14は、被検体Pを載せるベッドであり、図示しない寝台の上に配置される。例えば、寝台は、モータ及びアクチュエータ等の駆動機構を有し、処理回路20による制御の下、駆動機構を動作させることにより、天板14の移動・傾斜を制御する。 The top board 14 is a bed on which the subject P is placed, and is arranged on a bed (not shown). For example, the bed has a drive mechanism such as a motor and an actuator, and controls the movement and inclination of the tabletop 14 by operating the drive mechanism under the control of the processing circuit 20 .

Cアーム15は、X線管12及びX線絞り器13と、X線検出器16とを、被検体Pを挟んで対向するように保持する。例えば、Cアーム15は、モータ及びアクチュエータ等の駆動機構を有し、処理回路20から受け付けた制御信号に応じて駆動電圧を駆動機構に印加することにより、X線管12及びX線絞り器13と、X線検出器16とを被検体Pに対して回転・移動させ、X線の照射位置や照射角度を制御する。 The C-arm 15 holds the X-ray tube 12, the X-ray restrictor 13, and the X-ray detector 16 so as to face each other with the subject P interposed therebetween. For example, the C-arm 15 has a driving mechanism such as a motor and an actuator, and by applying a driving voltage to the driving mechanism according to a control signal received from the processing circuit 20, the X-ray tube 12 and the X-ray diaphragm 13 are driven. , the X-ray detector 16 is rotated and moved with respect to the subject P, and the X-ray irradiation position and irradiation angle are controlled.

X線検出器16は、例えば、マトリクス状に配列された検出素子を有するX線平面検出器(Flat Panel Detector:FPD)である。X線検出器16は、X線管12から照射されて被検体Pを透過したX線を検出して、検出したX線量に対応した検出信号を処理回路20へと出力する。 The X-ray detector 16 is, for example, an X-ray flat panel detector (FPD) having detection elements arranged in a matrix. The X-ray detector 16 detects X-rays emitted from the X-ray tube 12 and transmitted through the subject P, and outputs a detection signal corresponding to the detected X-ray dose to the processing circuit 20 .

メモリ17は、例えば、RAM等の半導体メモリ素子により実現される。メモリ17は、処理回路20による処理結果を一時的に記憶する。例えば、メモリ17は、処理回路20によって収集されたX線画像データなどの各種データを受け付けて一時記憶する。また、メモリ17は、人体モデルを記憶する。また、メモリ17は、処理回路20によって読み出されて実行される各種機能に対応するプログラムを記憶する。 The memory 17 is implemented by, for example, a semiconductor memory device such as a RAM. The memory 17 temporarily stores the results of processing by the processing circuit 20 . For example, the memory 17 receives and temporarily stores various data such as X-ray image data collected by the processing circuit 20 . The memory 17 also stores a human body model. The memory 17 also stores programs corresponding to various functions read and executed by the processing circuit 20 .

ディスプレイ18は、各種の情報を表示する。例えば、ディスプレイ18は、処理回路20による制御の下、操作者の指示を受け付けるためのGUIや、各種のX線画像を表示する。また、ディスプレイ18は、処理回路20による処理結果を表示する。 The display 18 displays various information. For example, the display 18 displays a GUI for accepting operator's instructions and various X-ray images under the control of the processing circuit 20 . Also, the display 18 displays the results of processing by the processing circuit 20 .

入力インターフェース19は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路20に出力する。例えば、入力インターフェース19は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース19は、装置本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース19は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路20へ出力する電気信号の処理回路も入力インターフェース19の例に含まれる。 The input interface 19 receives various input operations from the operator, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 20 . For example, the input interface 19 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad that performs input operations by touching the operation surface, a touch screen that integrates a display screen and a touch pad, and an optical sensor. It is realized by the used non-contact input circuit, voice input circuit, or the like. Note that the input interface 19 may be composed of a tablet terminal or the like capable of wireless communication with the device main body. Moreover, the input interface 19 is not limited to those having physical operation parts such as a mouse and a keyboard. For example, the input interface 19 also includes an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs the electrical signal to the processing circuit 20. .

処理回路20は、収集機能201、制御機能202、抽出機能203、生成機能204及び再構成機能205を実行することで、X線診断装置1全体の動作を制御する。具体的には、処理回路20は、メモリ17から各種機能に相当するプログラムを実行することで、X線診断装置1の動作を制御する。 The processing circuit 20 controls the overall operation of the X-ray diagnostic apparatus 1 by executing an acquisition function 201 , a control function 202 , an extraction function 203 , a generation function 204 and a reconstruction function 205 . Specifically, the processing circuit 20 controls the operation of the X-ray diagnostic apparatus 1 by executing programs corresponding to various functions from the memory 17 .

収集機能201は、X線画像を収集する。例えば、収集機能201は、X線高電圧装置11を制御し、X線管12に印加する電圧を調整することで、被検体Pに対して照射されるX線量やオン/オフを制御する。また、収集機能201は、Cアーム15の動作を制御することで、Cアーム15を回転させたり、移動させたりする。また、例えば、収集機能201は、寝台の動作を制御することで、天板14を移動させたり、傾斜させたりする。ここで、収集機能201は、回転撮影を行うように制御することができる。 Acquisition function 201 acquires X-ray images. For example, the acquisition function 201 controls the X-ray high voltage device 11 and adjusts the voltage applied to the X-ray tube 12, thereby controlling the X-ray dose irradiated to the subject P and ON/OFF. The collection function 201 also rotates and moves the C-arm 15 by controlling the operation of the C-arm 15 . Also, for example, the collection function 201 moves or tilts the tabletop 14 by controlling the motion of the bed. Here, the collection function 201 can be controlled to perform rotational imaging.

また、収集機能201は、X線検出器16から受信した検出信号に基づいて投影データを生成し、生成した投影データをメモリ17に格納する。また、収集機能201は、メモリ17が記憶する投影データに対して各種画像処理を行なうことでX線画像を生成する。 The acquisition function 201 also generates projection data based on the detection signal received from the X-ray detector 16 and stores the generated projection data in the memory 17 . The acquisition function 201 also generates an X-ray image by performing various image processing on the projection data stored in the memory 17 .

制御機能202は、ディスプレイ18にGUIやX線画像を表示させる。例えば、制御機能202は、入力インターフェース19を介した操作に応じて、X線画像をメモリ17から読み出して、ディスプレイ18に表示させる。 A control function 202 causes the display 18 to display a GUI and an X-ray image. For example, the control function 202 reads an X-ray image from the memory 17 and displays it on the display 18 according to an operation via the input interface 19 .

抽出機能203は、上述した抽出機能352と同様の処理を実行する。また、生成機能204は、上述した生成機能353と同様の処理を実行する。また、再構成機能205は、上述した再構成機能354と同様の処理を実行する。 The extraction function 203 performs the same processing as the extraction function 352 described above. Also, the generation function 204 executes processing similar to that of the generation function 353 described above. Also, the reconstruction function 205 executes processing similar to that of the reconstruction function 354 described above.

各実施形態において説明した医用画像処理装置及びX線診断装置においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリへ記憶されている。処理回路は、メモリからプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路は、読み出したプログラムに対応する機能を有することとなる。なお、上記した各実施形態においては、各処理機能が単一の処理回路によって実現される場合を示したが、実施形態はこれに限られるものではない。例えば、処理回路は、複数の独立したプロセッサを組み合わせて構成され、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても構わない。また、処理回路が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 In the medical image processing apparatus and X-ray diagnostic apparatus described in each embodiment, each processing function is stored in memory in the form of a computer-executable program. The processing circuit is a processor that implements a function corresponding to each program by reading and executing the program from memory. In other words, the processing circuit that has read each program has a function corresponding to the read program. In each of the above-described embodiments, each processing function is realized by a single processing circuit, but the embodiments are not limited to this. For example, the processing circuit may be configured by combining a plurality of independent processors, and each processor may implement each processing function by executing each program. Moreover, each processing function of the processing circuit may be appropriately distributed or integrated in a single or a plurality of processing circuits and implemented.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、あるいは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはストレージ111に保存されたプログラムを読み出し実行することで機能を実現する。 The term "processor" used in the above description includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (e.g., Circuits such as Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA)). The processor implements functions by reading and executing programs stored in the storage 111 .

なお、上述した各実施形態においては、メモリが各処理機能に対応するプログラムを記憶するものとして説明した。しかしながら、複数のメモリを分散して配置し、処理回路、個別のメモリから対応するプログラムを読み出す構成としても構わない。また、メモリにプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。 It should be noted that in each of the above-described embodiments, the memory has been described as storing a program corresponding to each processing function. However, a configuration may be adopted in which a plurality of memories are distributed and the corresponding programs are read out from the processing circuits and individual memories. Also, instead of storing the program in the memory, the program may be configured to be directly embedded in the circuitry of the processor. In this case, the processor realizes its function by reading and executing the program embedded in the circuit.

上述した実施形態に係る各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されうる。 Each component of each device according to the above-described embodiments is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device can be implemented by a CPU and a program analyzed and executed by the CPU, or implemented as hardware based on wired logic.

また、上述した実施形態で説明した制御方法は、予め用意された制御プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この制御プログラムは、インターネット等のネットワークを介して配布することができる。また、この制御プログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な非一過性の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Moreover, the control method described in the above embodiments can be realized by executing a control program prepared in advance on a computer such as a personal computer or a work station. This control program can be distributed via a network such as the Internet. In addition, this control program is recorded on a computer-readable non-transitory recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, DVD, etc., and is executed by being read from the recording medium by a computer. You can also

以上説明した少なくとも一つの実施形態によれば、トランケーションの補正精度を向上させることができる。 According to at least one embodiment described above, it is possible to improve the correction accuracy of truncation.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations of embodiments can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1 X線診断装置
3 医用画像処理装置
20、35 処理回路
202、351 制御機能
203、352 抽出機能
204、353 生成機能
205、354 再構成機能
1 X-ray diagnostic apparatus 3 medical image processing apparatus 20, 35 processing circuit 202, 351 control function 203, 352 extraction function 204, 353 generation function 205, 354 reconstruction function

Claims (12)

被検体に対して複数の角度からX線が照射されることでそれぞれ収集された複数の投影データを取得する取得部と、
前記複数の投影データごとに、内部構造を有する人体モデルデータに基づくモデル投影データを、対応する投影データに合成した合成投影データをそれぞれ生成する生成部と、
を備える、医用画像処理装置。
an acquisition unit that acquires a plurality of projection data respectively acquired by irradiating an object with X-rays from a plurality of angles;
a generator for generating synthetic projection data by synthesizing model projection data based on human body model data having an internal structure with corresponding projection data for each of the plurality of projection data;
A medical image processing apparatus comprising:
前記複数の投影データごとに、前記被検体において投影データの視野範囲外となった領域を、前記人体モデルデータから抽出する抽出部をさらに備え、
前記生成部は、前記複数の投影データごとに、前記人体モデルデータから抽出された領域を投影することにより前記モデル投影データを生成する、請求項1に記載の医用画像処理装置。
further comprising an extraction unit for extracting, from the human body model data, a region outside the field of view of the projection data on the subject for each of the plurality of projection data;
2. The medical image processing apparatus according to claim 1, wherein the generation unit generates the model projection data by projecting regions extracted from the human body model data for each of the plurality of projection data.
前記抽出部は、前記被検体と、前記X線を照射するX線管と、前記被検体を透過したX線を検出するX線検出器との位置関係を示す撮影ジオメトリに基づいて、前記人体モデルデータから前記投影データの視野範囲外となった領域を抽出する、請求項2に記載の医用画像処理装置。 The extraction unit extracts the human body based on an imaging geometry that indicates the positional relationship among the subject, an X-ray tube that irradiates the X-ray, and an X-ray detector that detects X-rays that have passed through the subject. 3. The medical image processing apparatus according to claim 2, wherein a region outside the field of view of said projection data is extracted from model data. 前記抽出部は、前記投影データに含まれる被検体情報に基づいて前記人体モデルデータを修正し、修正後の人体モデルデータから前記投影データの視野範囲外となった領域を抽出する、請求項3に記載の医用画像処理装置。 4. The extraction unit corrects the human body model data based on subject information included in the projection data, and extracts from the corrected human body model data a region outside the visual field range of the projection data. 3. The medical image processing apparatus according to . 前記抽出部は、前記投影データと、当該投影データを収集した角度から前記人体モデルデータ全体を投影したモデル投影データとの比較結果に基づいて当該人体モデルデータを修正し、修正後の人体モデルデータから前記投影データの視野範囲外となった領域を抽出する、請求項4に記載の医用画像処理装置。 The extraction unit corrects the human body model data based on a comparison result between the projection data and model projection data obtained by projecting the entire human body model data from the angle at which the projection data was collected, and extracts the human body model data after the correction. 5. The medical image processing apparatus according to claim 4, wherein a region outside the field of view of said projection data is extracted from said projection data. 前記抽出部は、前記複数の投影データに含まれる対象物質をそれぞれ抽出し、各投影データ内の前記対象物質の位置に基づいて、前記複数の投影データを収集した収集空間における前記対象物質の位置を特定し、特定した位置に基づいて前記人体モデルデータを修正する、請求項5に記載の医用画像処理装置。 The extraction unit extracts each of the target substances included in the plurality of projection data, and based on the position of the target substance in each projection data, the position of the target substance in the collection space where the plurality of projection data were collected. and correcting the human body model data based on the identified position. 前記抽出部は、前記被検体の全体を含むように同一方向から収集された複数の投影データに基づいて、前記人体モデルデータをさらに修正する、請求項4~6のいずれか1つに記載の医用画像処理装置。 7. The human body model data according to any one of claims 4 to 6, wherein the extraction unit further corrects the human body model data based on a plurality of projection data collected from the same direction so as to include the entire subject. Medical image processing equipment. 前記生成部は、前記投影データにおける画素値と、前記人体モデルデータ全体を投影したモデル投影データにおける前記投影データに対応する位置の画素値との比較結果に基づいて、前記モデル投影データ全体の画素値を修正し、前記モデル投影データの修正後の画素値を用いて、前記合成投影データを生成する、請求項1~7のいずれか1つに記載の医用画像処理装置。 The generator generates pixel values of the entire model projection data based on comparison results between pixel values in the projection data and pixel values at positions corresponding to the projection data in the model projection data obtained by projecting the entire human body model data. 8. The medical image processing apparatus according to any one of claims 1 to 7, wherein the synthesized projection data is generated by modifying values and using the modified pixel values of the model projection data. 前記抽出部は、前記人体モデルデータとしてのCT(Computed Tomography)画像データから前記投影データの視野範囲外となった領域を抽出する、請求項2~7のいずれか1つに記載の医用画像処理装置。 8. The medical image processing according to any one of claims 2 to 7, wherein said extraction unit extracts a region outside the field of view of said projection data from CT (Computed Tomography) image data as said human body model data. Device. 前記人体モデルデータは、人体を構成する構成要素ごとの形状及び位置に関する情報と、前記構成要素に含まれる物質に関する情報とを含む、請求項1~9のいずれか1つに記載の医用画像処理装置。 The medical image processing according to any one of claims 1 to 9, wherein the human body model data includes information on the shape and position of each component that constitutes the human body, and information on substances contained in the component. Device. 前記複数の投影データからそれぞれ生成された複数の合成投影データを用いて、3次元画像データを再構成する再構成部をさらに備える、請求項1~10のいずれか1つに記載の医用画像処理装置。 The medical image processing according to any one of claims 1 to 10, further comprising a reconstruction unit that reconstructs three-dimensional image data using a plurality of synthetic projection data generated from the plurality of projection data. Device. 被検体に対して複数の角度からX線を照射することで、複数の投影データをそれぞれ収集する収集部と、
前記複数の投影データごとに、内部構造を有する人体モデルデータに基づくモデル投影データを、対応する投影データに合成した合成投影データをそれぞれ生成する生成部と、
を備える、X線診断装置。
an acquisition unit that acquires a plurality of projection data by irradiating an object with X-rays from a plurality of angles;
a generator for generating synthetic projection data by synthesizing model projection data based on human body model data having an internal structure with corresponding projection data for each of the plurality of projection data;
An X-ray diagnostic apparatus comprising:
JP2021187157A 2021-11-17 2021-11-17 Medical image processing apparatus and x-ray diagnostic apparatus Pending JP2023074285A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021187157A JP2023074285A (en) 2021-11-17 2021-11-17 Medical image processing apparatus and x-ray diagnostic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021187157A JP2023074285A (en) 2021-11-17 2021-11-17 Medical image processing apparatus and x-ray diagnostic apparatus

Publications (1)

Publication Number Publication Date
JP2023074285A true JP2023074285A (en) 2023-05-29

Family

ID=86537715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021187157A Pending JP2023074285A (en) 2021-11-17 2021-11-17 Medical image processing apparatus and x-ray diagnostic apparatus

Country Status (1)

Country Link
JP (1) JP2023074285A (en)

Similar Documents

Publication Publication Date Title
JP7271646B2 (en) X-ray computed tomography device, scan plan setting support device, medical image diagnostic system, control method and control program
US11304671B2 (en) Biopsy systems for breast computed tomography
US7142633B2 (en) Enhanced X-ray imaging system and method
EP2528040B1 (en) Analysis of corresponding radiographies
US10939887B2 (en) System and method of artifact correction in 3D imaging
EP3264985B1 (en) Tomography imaging apparatus and method of reconstructing tomography image
US20170143292A1 (en) Computed tomography apparatus and control method for the same
JP2009545358A (en) Rotating X-ray scanning planning system
EP3143936B1 (en) Iterative x-ray imaging optimization method
JP2009532161A (en) Dual spectrum x-ray tube with switching focus and filter
JP7055599B2 (en) X-ray CT device
CN111374690A (en) Medical imaging method and system
EP2713339A1 (en) Image processing device, radiographic image capturing system, image processing program and image processing method
CN117425433A (en) Artificial intelligence training using multiple motion pulse X-ray source tomosynthesis imaging systems
WO2006090321A1 (en) Determination of the coverage of a ct scan
JP6853376B2 (en) How to reconstruct a 2D image from multiple X-ray images
KR102620359B1 (en) Workstation, medical imaging apparatus comprising the same and control method for the same
JP6827761B2 (en) Medical diagnostic imaging equipment
JP2023074285A (en) Medical image processing apparatus and x-ray diagnostic apparatus
JP2021133247A (en) Methods and systems for digital mammography imaging
JP7143474B2 (en) Tomosynthesis dataset generation using pre-exposure acquisition
JP7334034B2 (en) Medical image processing device, X-ray diagnostic device and medical image processing program
JP7341667B2 (en) Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems
JP7179497B2 (en) X-ray CT apparatus and image generation method
JP6855173B2 (en) X-ray CT device