JP2023074285A - Medical image processing apparatus and x-ray diagnostic apparatus - Google Patents
Medical image processing apparatus and x-ray diagnostic apparatus Download PDFInfo
- Publication number
- JP2023074285A JP2023074285A JP2021187157A JP2021187157A JP2023074285A JP 2023074285 A JP2023074285 A JP 2023074285A JP 2021187157 A JP2021187157 A JP 2021187157A JP 2021187157 A JP2021187157 A JP 2021187157A JP 2023074285 A JP2023074285 A JP 2023074285A
- Authority
- JP
- Japan
- Prior art keywords
- projection data
- human body
- data
- body model
- ray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 140
- 238000012937 correction Methods 0.000 claims abstract description 32
- 230000001678 irradiating effect Effects 0.000 claims abstract description 8
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims description 76
- 238000003384 imaging method Methods 0.000 claims description 52
- 239000000284 extract Substances 0.000 claims description 32
- 238000002591 computed tomography Methods 0.000 claims description 15
- 239000000126 substance Substances 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 13
- 239000013076 target substance Substances 0.000 claims description 11
- 230000006870 function Effects 0.000 description 167
- 238000004088 simulation Methods 0.000 description 49
- 230000015654 memory Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 28
- 239000000463 material Substances 0.000 description 14
- 239000002131 composite material Substances 0.000 description 11
- 238000000034 method Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 239000000470 constituent Substances 0.000 description 6
- 238000007408 cone-beam computed tomography Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 210000000038 chest Anatomy 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000004872 soft tissue Anatomy 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本明細書及び図面に開示の実施形態は、医用画像処理装置及びX線診断装置に関する。 The embodiments disclosed in the specification and drawings relate to a medical image processing apparatus and an X-ray diagnostic apparatus.
従来、X線診断装置は、Cアームを回転させながら各角度で投影データを収集し、収集した投影データから3次元のボリュームデータを再構成するCBCT(Cone-Beam Computed Tomography)機能を有する。CBCT機能による撮影では、撮影ジオメトリ(被検体とX線管とX線検出器との位置関係)と被検体の大きさとによって、被検体が撮影視野からはみ出してしまうトランケーションが発生する場合がある。トランケーションが発生した場合、アーチファクト(辺縁近傍に発生する偽信号)や、アキシャル断面において中心に対して辺縁部の信号値が低くなるカッピング効果、アキシャル断面において中心に対して辺縁部の信号値が高くなるキャッピング効果が生じて、診断が困難となる場合がある。 Conventionally, an X-ray diagnostic apparatus has a CBCT (Cone-Beam Computed Tomography) function of collecting projection data at each angle while rotating a C-arm and reconstructing three-dimensional volume data from the collected projection data. In imaging using the CBCT function, truncation may occur in which the subject protrudes from the imaging field of view depending on the imaging geometry (the positional relationship between the subject, the X-ray tube, and the X-ray detector) and the size of the subject. When truncation occurs, artifacts (false signals generated near the edge), cupping effect in which the signal value at the edge is lower than the center in the axial cross section, and signal at the edge compared to the center in the axial cross section A high-value capping effect may occur, making diagnosis difficult.
そこで、このようなトランケーションへの対策として、視野外にはみ出した部分を推定して補正するトランケーション補正(撮影視野外の画素値を外挿する補正)が実施される。例えば、トランケーション補正の手法としては、被検体の形状(体型)と密度を想定した関数を用いて撮影視野外の画素値を推定して外挿する方法が知られている。また、トランケーションの補正量は、収集した視野内の信号値から推定する方法や、固定の幅で設定する方法などで決定される。 Therefore, as a countermeasure against such truncation, truncation correction (correction for extrapolating pixel values outside the imaging field of view) is performed to estimate and correct the portion protruding outside the field of view. For example, as a method of truncation correction, there is known a method of estimating and extrapolating pixel values outside the field of view using a function that assumes the shape (body type) and density of a subject. The truncation correction amount is determined by a method of estimating from the collected signal values within the field of view, a method of setting with a fixed width, or the like.
本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、トランケーションの補正精度を向上させることである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 One of the problems to be solved by the embodiments disclosed in the specification and drawings is to improve the accuracy of truncation correction. However, the problems to be solved by the embodiments disclosed in this specification and drawings are not limited to the above problems. A problem corresponding to each effect of each configuration shown in the embodiments described later can be positioned as another problem.
実施形態に係る医用画像処理装置は、取得部と、生成部とを備える。取得部は、被検体に対して複数の角度からX線が照射されることでそれぞれ収集された複数の投影データを取得する。生成部は、前記複数の投影データごとに、内部構造を有する人体モデルデータに基づくモデル投影データを、対応する投影データに合成した合成投影データをそれぞれ生成する。 A medical image processing apparatus according to an embodiment includes an acquisition unit and a generation unit. The acquiring unit acquires a plurality of projection data respectively acquired by irradiating an object with X-rays from a plurality of angles. The generation unit generates synthesized projection data by synthesizing model projection data based on human body model data having an internal structure with corresponding projection data for each of the plurality of projection data.
以下、図面を参照して、医用画像処理装置及びX線診断装置の実施形態について詳細に説明する。なお、本願に係る医用画像処理装置及びX線診断装置は、以下に示す実施形態によって限定されるものではない。また、以下の説明において、同様の構成要素には共通の符号を付与するとともに、重複する説明を省略する。 Hereinafter, embodiments of a medical image processing apparatus and an X-ray diagnostic apparatus will be described in detail with reference to the drawings. The medical image processing apparatus and X-ray diagnostic apparatus according to the present application are not limited to the embodiments described below. In addition, in the following description, common reference numerals are assigned to similar components, and duplicate descriptions are omitted.
(第1の実施形態)
図1は、第1の実施形態に係る医用画像処理装置3の構成の一例を示すブロック図である。図1に示すように、医用画像処理装置3は、ネットワーク2を介してX線診断装置1に接続される。なお、図1では、ネットワーク2にX線診断装置1及び医用画像処理装置3のみが接続される場合を示しているが、実施形態はこれに限定されるものではなく、ネットワーク2にその他の装置(例えば、他の医用画像診断装置や、医用画像保管装置など)が接続される場合でもよい。
(First embodiment)
FIG. 1 is a block diagram showing an example configuration of a medical image processing apparatus 3 according to the first embodiment. As shown in FIG. 1 , the medical image processing apparatus 3 is connected to the X-ray
X線診断装置1は、被検体に対してX線を照射して、被検体を透過したX線を検出することでX線画像(投影データ)を収集する。ここで、X線診断装置1は、X線管とX線検出器を回転させながら各回転角度で被検体を撮影する回転撮影を実行することができる。すなわち、X線診断装置1は、被検体に対して複数の角度からX線を照射することで、複数のX線画像をそれぞれ収集する。この回転撮影を行うことで、各回転角度の画像を用いた3次元画像データ(ボリュームデータ)の再構成が可能である。
The X-ray
医用画像処理装置3は、ネットワーク2を介してX線画像を取得し、取得したX線画像に対して種々の画像処理を行う。具体的には、医用画像処理装置3は、回転撮影によって収集された複数のX線画像を取得し、取得した複数のX線画像に対して、トランケーション補正を行う。 The medical image processing apparatus 3 acquires X-ray images via the network 2 and performs various image processing on the acquired X-ray images. Specifically, the medical image processing apparatus 3 acquires a plurality of X-ray images acquired by rotational imaging, and performs truncation correction on the acquired plurality of X-ray images.
図1に示すように、医用画像処理装置3は、通信インターフェース31と、入力インターフェース32と、ディスプレイ33と、メモリ34と、処理回路35とを有する。例えば、医用画像処理装置3は、タブレット端末や、ワークステーションなどの情報処理装置によって実現される。
As shown in FIG. 1 , the medical image processing apparatus 3 has a
通信インターフェース31は、処理回路35に接続され、ネットワークを介して接続されたX線診断装置1等との間で行われる各種データの伝送及び通信を制御する。例えば、通信インターフェース31は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。
The
入力インターフェース32は、種々の設定などを行うためのトラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチモニタ、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。入力インターフェース32は、処理回路35に接続されており、操作者から受け付けた入力操作を電気信号に変換して処理回路35に出力する。なお、本明細書において入力インターフェース32は、マウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する処理回路も入力インターフェースの例に含まれる。
The
ディスプレイ33は、処理回路35に接続され、処理回路35から出力される各種情報及び各種画像を表示する。例えば、ディスプレイ33は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチモニタ等によって実現される。例えば、ディスプレイ33は、操作者の指示を受け付けるためのUI(User Interface)や、種々の画像、処理回路35による種々の処理結果を表示する。
The
メモリ34は、処理回路35に接続され、各種データを記憶する。例えば、メモリ34は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。本実施形態では、メモリ34は、X線診断装置1から受信したX線画像(回転撮影によって収集された複数のX線画像)などを記憶する。また、メモリ34は、処理回路35の処理に用いられる種々の情報(人体モデルのデータ)や、処理回路35による処理結果等を記憶する。また、メモリ34は、処理回路35によって読み出されて実行される各種機能に対応するプログラムを記憶する。
The
処理回路35は、入力インターフェース32を介して操作者から受け付けた入力操作に応じて、制御機能351と、抽出機能352と、生成機能353と、再構成機能354とを実行することで、医用画像処理装置3を制御する。ここで、制御機能351と、抽出機能352と、生成機能353と、再構成機能354とが実行する各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ34内に記録されている。処理回路35は、例えば、プロセッサであり、メモリ34から各プログラムを読み出し、実行することで読み出した各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路35は、図1の処理回路35内に示された各機能を有することとなる。なお、制御機能351は、取得部の一例である。また、抽出機能352は、抽出部の一例である。また、生成機能353は、生成部の一例である。また、再構成機能354は、再構成部の一例である。
The processing circuit 35 executes a control function 351, an extraction function 352, a
制御機能351は、通信インターフェース31を介したX線診断装置1とのデータの送受信や、受信したデータのメモリ34への格納、ディスプレイ33への各種情報の表示などを制御する。例えば、制御機能351は、被検体に対して複数の角度からX線が照射されることでそれぞれ収集された複数の投影データ(X線画像)を取得する。
The control function 351 controls transmission/reception of data with the X-ray
抽出機能352は、複数の投影データごとに、被検体において投影データの視野範囲外となった領域を、内部構造を有する人体モデルデータから抽出する。なお、抽出機能352による処理については、後に詳述する。 The extracting function 352 extracts, from the human body model data having the internal structure, a region of the subject outside the field of view of the projection data for each of a plurality of pieces of projection data. Processing by the extraction function 352 will be described in detail later.
生成機能353は、複数の投影データごとに、内部構造を有する人体モデルデータに基づくモデル投影データを、対応する投影データに合成した合成投影データをそれぞれ生成する。具体的には、生成機能353は、複数の投影データごとに、人体モデルデータから抽出された領域を投影することによりモデル投影データを生成し、生成したモデル投影データを対応する投影データに合成した合成投影データをそれぞれ生成する。なお、生成機能353による処理については、後に詳述する。
The
再構成機能354は、複数の投影データを用いて、3次元画像データ(ボリュームデータ)を再構成する。例えば、再構成機能354は、複数の投影データからそれぞれ生成された複数の合成投影データを用いて、3次元画像データを再構成する。ここで、再構成機能354は、公知の再構成手法を適宜用いることができる。例えば、再構成機能354は、フィルタ補正逆投影法(Filtered Back Projection:FBP)や逐次近似法(Iterative Reconstruction)などにより、複数の投影データから3次元画像データを再構成する。
A
以上、医用画像処理装置3の全体構成について説明した。かかる構成のもと、医用画像処理装置3は、処理回路35による処理によって、トランケーションの補正精度を向上させる。 The overall configuration of the medical image processing apparatus 3 has been described above. With such a configuration, the medical image processing apparatus 3 improves the correction accuracy of truncation through processing by the processing circuit 35 .
回転撮影によって収集した複数の投影データに基づいてボリュームデータを再構成するCBCT撮影では、被検体が撮影視野からはみ出してしまうトランケーションが発生した場合、アーチファクトや、カッピング効果、キャッピング効果が生じて、診断が困難となる場合があるため、撮影視野外の画素値を推定して外挿するトランケーション補正が行われている。 In CBCT imaging, in which volume data is reconstructed based on a plurality of projection data acquired by rotational imaging, if truncation occurs in which the subject protrudes from the imaging field of view, artifacts, cupping effects, and capping effects occur, making diagnosis difficult. Therefore, truncation correction is performed by estimating and extrapolating pixel values outside the field of view.
しかしながら、撮影視野の範囲内外の境界が被検体のどの部分であるか(骨ではみ出すか、軟組織ではみ出すかなど)によって、トランケーションによる影響が異なるため、トランケーションに対して一律の補正を行う一般的なトランケーション補正では、トランケーションの状態に充分に対応できず、トランケーションによる影響を適切に補正できない場合がある。 However, since the effect of truncation differs depending on which part of the subject is the boundary between the inside and outside of the imaging field of view (bone or soft tissue, etc.), it is common to perform uniform correction for truncation. A simple truncation correction may not be able to adequately respond to truncation conditions and may not be able to adequately compensate for the effects of truncation.
そこで、本実施形態に係る医用画像処理装置3では、内部構造を有する人体モデルを用いてトランケーション補正を行うことで、撮影視野の範囲内外の境界に応じた画素値を外挿することを可能にし、トランケーションの補正精度を向上させる。以下、医用画像処理装置3による処理の詳細について説明する。 Therefore, in the medical image processing apparatus 3 according to the present embodiment, by performing truncation correction using a human body model having an internal structure, it is possible to extrapolate pixel values according to the boundaries inside and outside the range of the imaging field of view. , to improve the correction accuracy of the truncation. Details of the processing by the medical image processing apparatus 3 will be described below.
ここで、まず、本実施形態に係る人体モデルのデータについて説明する。本実施形態に係る人体モデルは、人体の内部構造の情報を有するデータである。具体的には、人体モデルは、人体を構成する構成要素ごとの形状及び位置に関する情報と、構成要素に含まれる物質に関する情報とを含む。例えば、人体モデルのデータは、人体の標準的な構造を有する人体モデルが複数のボクセルに細分化された構造を有し、各ボクセルに物質に関する情報(密度などのX線減弱量に関する情報)が保持される。 First, the data of the human body model according to this embodiment will be described. The human body model according to this embodiment is data having information on the internal structure of the human body. Specifically, the human body model includes information on the shape and position of each constituent element that constitutes the human body, and information on the substance contained in the constituent element. For example, data of a human body model has a structure in which a human body model having a standard structure of the human body is subdivided into a plurality of voxels, and each voxel contains information on substances (information on X-ray attenuation such as density). retained.
図2は、第1の実施形態に係る人体モデルを説明するための図である。人体モデルは、複数のボクセルによって構成され、例えば、図2に示すように、人体内部の構造や位置の情報、及び、物質の情報が保持される。すなわち、人体モデルは、座標情報を有する各ボクセルに、部位の情報と物質の情報とが保持される。例えば、人体モデルは、図2に示すように、「頭部」、「胸部」、「腹部」、「腰」、「足」などから構成される上位層と、各上位層に含まれる部位(臓器など)から構成される下位層とを含み、下位層の各部位に相当するボクセルに物質の情報が保持されたデータとして管理される。 FIG. 2 is a diagram for explaining the human body model according to the first embodiment. The human body model is composed of a plurality of voxels, and holds information on the structure and position inside the human body and information on substances, as shown in FIG. 2, for example. That is, in the human body model, each voxel having coordinate information holds information about a part and information about a substance. For example, as shown in FIG. 2, a human body model consists of upper layers composed of "head", "chest", "abdomen", "waist", "legs", etc., and parts ( organ, etc.), and is managed as data in which material information is held in voxels corresponding to each part of the lower layer.
一例を挙げると、上位層「胸部」には、「第1肋骨」~「第12肋骨」まで分類された下位層が含まれ、各肋骨に対応するボクセルによって物質「骨」の情報が保持される。また、上位層「胸部」には、「肺野」などのその他の部位が含まれ、各部位ごとに対応するボクセルによって物質の情報(例えば、臓器/筋肉、脂肪、空気など)が保持される。これらのボクセルには、3次元空間における位置情報(座標情報)が付帯されており、人体モデルは、3次元空間におけるどの位置がどの部位に相当し、どのような物質によって構成されているかが定義されている。 For example, the upper layer ``thorax'' includes lower layers classified from ``1st rib'' to ``12th rib'', and the voxel corresponding to each rib holds the information of the material ``bone''. be. In addition, the upper layer "thorax" includes other parts such as "lung fields", and material information (eg, organs/muscles, fat, air, etc.) is held by corresponding voxels for each part. . Positional information (coordinate information) in the three-dimensional space is attached to these voxels, and the human body model defines which position corresponds to which part in the three-dimensional space and what kind of material it is composed of. It is
人体モデルでは、その他の上位層においても同様に情報が管理されており、人体の全身についての構成要素ごとの形状及び位置に関する情報と、構成要素に含まれる物質に関する情報とを含んでいる。なお、上位層に含まれる部位については、任意に分類することができるが、少なくとも、軟組織、骨、肺野などX線減弱量が大きく変化する部位が分類されていることが望ましい。また、ボクセルにおける物質の情報の保持については、例えば、各ボクセルが、物質ごとのチャンネルを有し、対応する物質のチャンネルの数値が大きくなるように管理される場合でもよい。 In the human body model, information is similarly managed in other upper layers, and includes information on the shape and position of each constituent element of the entire human body and information on substances contained in the constituent elements. The parts included in the upper layer can be arbitrarily classified, but it is desirable to classify at least parts such as soft tissues, bones, and lung fields where the amount of X-ray attenuation changes greatly. Further, with respect to retention of material information in voxels, for example, each voxel may have a channel for each material, and management may be performed so that the numerical value of the corresponding material channel is increased.
上述したように、人体モデルは、人体内部の構造や位置の情報、及び、物質の情報が保持される。ここで、人体モデルのデータは、例えば、体型(身長、体重)ごとに予め作成され、メモリ34に格納される。
As described above, the human body model holds information on the structure and position inside the human body and information on materials. Here, the human body model data is created in advance for each body type (height, weight) and stored in the
制御機能351は、入力インターフェース32を介した操作に応じて、回転撮影によって収集された複数のX線画像を取得する。例えば、制御機能351は、X線診断装置1、或いは、図示しない画像保管装置から、複数のX線画像を取得する。
The control function 351 acquires a plurality of X-ray images acquired by rotational imaging according to operations via the
抽出機能352は、制御機能351によって取得された複数のX線画像について、視野範囲外となった領域を人体モデルからそれぞれ抽出する。具体的には、抽出機能352は、各X線画像において、回転撮影における回転軸に対して直交する方向の視野範囲外となった被検体の領域を人体モデルからそれぞれ抽出する。 The extraction function 352 extracts, from the human body model, regions outside the visual field range for each of the plurality of X-ray images acquired by the control function 351 . Specifically, the extracting function 352 extracts, from the human body model, regions of the subject outside the field of view in the direction perpendicular to the axis of rotation in rotational imaging in each X-ray image.
ここで、抽出機能352は、被検体と、X線を照射するX線管と、被検体を透過したX線を検出するX線検出器との位置関係を示す撮影ジオメトリに基づいて、人体モデルのデータからX線画像の視野範囲外となった領域を抽出する。すなわち、抽出機能352は、回転撮影時の撮影ジオメトリに基づいて、視野範囲外となった領域を抽出する。 Here, the extraction function 352 extracts a human body model based on imaging geometry that indicates the positional relationship between the subject, an X-ray tube that emits X-rays, and an X-ray detector that detects X-rays that have passed through the subject. A region outside the field of view of the X-ray image is extracted from the data of . That is, the extraction function 352 extracts the area outside the field of view based on the imaging geometry during rotational imaging.
図3は、第1の実施形態に係る抽出機能352による処理を説明するための図である。例えば、抽出機能352は、図3の上段の図に示すように、まず、被検体の体型情報(身長、体重など)に基づいて、複数の人体モデルのデータから使用する人体モデルを選択する。ここで、抽出機能352は、選択した人体モデルを、被検体の体型情報に合わせて変形することで、被検体により近似した人体モデルを生成することもできる。 FIG. 3 is a diagram for explaining processing by the extraction function 352 according to the first embodiment. For example, as shown in the upper diagram of FIG. 3, the extraction function 352 first selects a human body model to be used from a plurality of human body model data based on the body type information (height, weight, etc.) of the subject. Here, the extraction function 352 can also generate a human body model that is closer to the subject by transforming the selected human body model in accordance with the body shape information of the subject.
そして、抽出機能352は、図3の下段の図に示すように、回転撮影時の寝台(天板)の位置と、X線焦点の位置と、X線検出器の位置とを含む情報を取得し、それらの位置に対して、選択した人体モデルを配置したシミュレーションモデルを生成する。すなわち、抽出機能352は、回転撮影時の実際の状態を人体モデルで再現したシミュレーションモデルを生成する。なお、人体モデルは、例えば、寝台の中心に配置され、位置関係が紐づけられる。 Then, the extraction function 352 acquires information including the position of the bed (tabletop), the position of the X-ray focal point, and the position of the X-ray detector during rotational imaging, as shown in the lower diagram of FIG. and generate a simulation model in which the selected human body model is placed at those positions. In other words, the extraction function 352 generates a simulation model that reproduces the actual state of rotation photography using a human body model. For example, the human body model is arranged in the center of the bed and is associated with the positional relationship.
ここで、上記シミュレーションモデルでは、人体モデルの形状や、内部構造の位置が正確に合わないため、抽出機能352は、実際の被検体の状態に人体モデルを合わせる修正を行ったうえで、視野範囲外となる領域を抽出する。具体的には、抽出機能352は、X線画像に含まれる被検体情報に基づいて人体モデルデータを修正し、修正後の人体モデルデータからX線画像の視野範囲外となった領域を抽出する。例えば、抽出機能352は、X線画像と、当該X線画像を収集した角度から人体モデル全体を投影したモデル投影データとの比較結果に基づいて当該人体モデルを修正し、修正後の人体モデルからX線画像の視野範囲外となった領域を抽出する。すなわち、抽出機能352は、実際に収集したX線画像と、シミュレーションで作成した画像とが一致するように、人体モデルを修正し、修正後の人体モデルから視野範囲外の領域を抽出する。 Here, in the above simulation model, the shape of the human body model and the position of the internal structure do not match exactly, so the extraction function 352 corrects the human body model to match the actual state of the subject, and then adjusts the visual field range. Extract the outer region. Specifically, the extraction function 352 corrects the human body model data based on subject information included in the X-ray image, and extracts a region outside the field of view of the X-ray image from the corrected human body model data. . For example, the extraction function 352 corrects the human body model based on the result of comparison between the X-ray image and the model projection data obtained by projecting the entire human body model from the angle at which the X-ray image was acquired, and extracts the A region outside the field of view of the X-ray image is extracted. That is, the extraction function 352 corrects the human body model so that the actually acquired X-ray image and the image created by the simulation match, and extracts a region outside the visual field range from the corrected human body model.
図4は、第1の実施形態に係る抽出機能352による処理の一例を説明するための図である。例えば、抽出機能352は、図4に示すように、回転撮影において収集されたある角度のX線画像(例えば、回転撮影開始時の角度におけるX線画像)を取得する。そして、抽出機能352は、取得したX線画像の角度と同一の角度で、シミュレーションモデルによるシミュレーション画像を生成する。すなわち、抽出機能352は、図4に示すように、人体モデルを配置したシミュレーションモデルにおいて、人体モデルに対してX線を照射した場合にX線検出器の位置に投影されるシミュレーション画像を生成する。 FIG. 4 is a diagram for explaining an example of processing by the extraction function 352 according to the first embodiment. For example, as shown in FIG. 4, the extraction function 352 acquires an X-ray image at a certain angle acquired during rotational imaging (eg, an X-ray image at the angle at which rotational imaging is started). Then, the extraction function 352 generates a simulation image based on the simulation model at the same angle as the acquired X-ray image. That is, as shown in FIG. 4, the extraction function 352 generates a simulation image projected at the position of the X-ray detector when the human body model is irradiated with X-rays in the simulation model in which the human body model is arranged. .
ここで、人体モデルには、各ボクセルに物質に関する情報(X線減弱量に関する情報)が保持されている。抽出機能352は、X線焦点からX線検出器のピクセルを結ぶX線のパス上のボクセルに保持された物質の情報に基づいて、各ピクセルにおける画素値を算出することで、シミュレーション画像を生成する。 Here, in the human body model, each voxel holds information on substances (information on X-ray attenuation). The extraction function 352 generates a simulation image by calculating the pixel value of each pixel based on the information on the substance held in the voxel on the X-ray path connecting the X-ray focus and the X-ray detector pixels. do.
そして、抽出機能352は、取得したX線画像と、生成したシミュレーション画像とを比較し、比較結果に基づいてシミュレーションモデルにおける人体モデルを修正することで、使用する人体モデルへと変形させる。すなわち、抽出機能352は、X線画像に含まれる構造と、シミュレーション画像に含まれる構造とを比較して、シミュレーション画像に含まれる構造がX線画像に含まれる構造と一致するように、シミュレーションモデル内の人体モデルの位置や形状を修正する。ここで、抽出機能352は、まず、上位層の構造から位置と形状を修正し、その後、下位層の構造の位置と形状を順に修正する。 Then, the extraction function 352 compares the acquired X-ray image with the generated simulation image, and modifies the human body model in the simulation model based on the comparison result to transform it into the human body model to be used. That is, the extraction function 352 compares the structure included in the X-ray image with the structure included in the simulation image, and extracts the structure included in the simulation model so that the structure included in the simulation image matches the structure included in the X-ray image. Modify the position and shape of the human body model in Here, the extraction function 352 first corrects the position and shape of the structure of the upper layer, and then corrects the position and shape of the structure of the lower layer in order.
抽出機能352は、上記した人体モデルの修正を、1方向、或いは、複数方向から行う。例えば、複数方向から行う場合、抽出機能352は、予め決められた複数の角度、或いは、操作者によって指定された複数の角度について、X線画像とシミュレーション画像とをそれぞれ比較し、比較結果に基づいて、それぞれの角度から人体モデルの修正を行う。 The extraction function 352 corrects the human body model described above from one direction or from multiple directions. For example, when performing from a plurality of directions, the extraction function 352 compares the X-ray image and the simulation image at a plurality of predetermined angles or a plurality of angles specified by the operator, and based on the comparison result Then, correct the human body model from each angle.
上述したように、抽出機能352は、シミュレーションモデルにおける人体モデルの位置及び形状を修正することで、回転撮影時の実際の状態を人体モデルで再現する。これにより、抽出機能352は、実際の回転撮影時に視野範囲外となった被検体の領域を、シミュレーションモデルにおいて抽出することができる。すなわち、抽出機能352は、シミュレーションモデルの人体モデルにおいて視野範囲外となる領域を、実際の回転撮影時に視野範囲外となった被検体の領域として抽出する。 As described above, the extraction function 352 corrects the position and shape of the human body model in the simulation model to reproduce the actual state at the time of rotational imaging with the human body model. As a result, the extraction function 352 can extract, in the simulation model, the region of the subject that is out of the field of view during the actual rotation imaging. That is, the extracting function 352 extracts the area outside the field of view in the human body model of the simulation model as the area of the subject outside the field of view during the actual rotation imaging.
生成機能353は、抽出機能352によって人体モデルから抽出された視野範囲外の領域に基づいて、X線画像の視野範囲外となったデータを外挿した合成X線画像(合成投影データ)を生成する。具体的には、生成機能353は、人体モデルの位置及び形状を修正した後のシミュレーションモデルの人体モデル全体を順投影することで、人体モデルにおける視野範囲外の領域を投影したシミュレーション画像(モデル投影データ)を生成し、生成したシミュレーション画像(モデル投影データ)をX線画像に合成した合成X線画像を生成する。
The
図5A及び図5Bは、第1の実施形態に係る生成機能353による処理の一例を説明するための図である。ここで、図5Aは、シミュレーション画像(モデル投影データ)の生成の一例を示す。また、図5Bは、合成X線画像の生成の一例を示す。
5A and 5B are diagrams for explaining an example of processing by the
例えば、生成機能353は、図5Aに示すように、人体モデルを修正した後のシミュレーションモデルにおいて、人体モデル全体を投影することで、視野範囲外の領域を投影したシミュレーション画像(モデル投影データ)を生成する。人体モデルには、各ボクセルに物質に関する情報(X線減弱量に関する情報)が保持されている。すなわち、抽出機能352は、X線検出器と同一平面上に視野範囲外の領域を投影させる仮想的な検出器を設定し、X線焦点から仮想的な検出器のピクセルを結ぶX線のパス上のボクセルに保持された物質の情報に基づいて、各ピクセルにおける画素値を算出することで、シミュレーション画像(モデル投影データ)を生成する。
For example, as shown in FIG. 5A, the
ここで、人体モデルを修正した後のシミュレーションモデルは、被検体が実際に回転撮影を行った状態が再現されたものであることから、人体モデルにおける視野範囲外を投影したシミュレーション画像(モデル投影データ)は、回転撮影時に被検体において視野範囲外にはみ出した構造を投影したものとなる。 Here, since the simulation model after correcting the human body model reproduces the state in which the subject was actually rotated and photographed, a simulation image projected outside the field of view of the human body model (model projection data ) is a projection of the structure protruding out of the field of view on the subject during rotational imaging.
そして、生成機能353は、生成したシミュレーション画像(モデル投影データ)を、回転撮影において収集したX線画像に合成した合成X線画像を生成する。これにより、生成機能353は、回転撮影において視野範囲外にはみ出した領域を含む合成X線画像を生成することができる。
Then, the
図5Bは、生成機能353によって生成された合成X線画像のプロファイルを示す。ここで、図5Bにおいては、上段のX線画像(回転撮影で収集されたX線画像)における直線L1で示した位置の画素値プロファイルを示す。例えば、合成X線画像では、視野範囲における画素値が曲線L2(直線L1で示した位置の画素値)で示す値となり、視野範囲外における画素値が曲線L3(人体モデルの視野範囲外を投影することで得られた画素値)で示す値となる。図5Bに示すように、人体モデルを用いた合成X線画像では、曲線L2と曲線L3との境界が適切な値になるとともに、視野範囲外での画素値の状態が物質に応じた値を示すようになる。一方、一般的なトランケーション補正を行った場合、視野範囲外の画素値は、曲線L4で示すようなものとなる場合があり、トランケーション補正の精度に一定の限界がある。
FIG. 5B shows the composite X-ray image profile generated by the
生成機能353は、回転撮影における角度ごとに、上記した合成X線画像を生成する。すなわち、生成機能353は、回転撮影の各角度をシミュレーションモデルで再現して、シミュレーション画像(モデル投影データ)をそれぞれ生成する。そして、生成機能353は、回転撮影によって収集された各角度のX線画像に対して、同一の角度で生成したシミュレーション画像(モデル投影データ)をそれぞれ合成することで、回転撮影における角度ごとの合成X線画像を生成する。
The
再構成機能354は、生成機能353によって生成された角度ごとの合成X線画像を用いて、ボリュームデータを再構成する。これにより、再構成機能354は、トランケーションによる影響をより低減したボリュームデータを再構成することができる。
A
図6は、第1の実施形態に係る医用画像処理装置3による処理手順を示すフローチャートである。ここで、図6におけるステップS101は、処理回路35が、制御機能351に対応するプログラムをメモリ34から読み出して実行することで実現される。また、ステップS102~S104は、処理回路35が、抽出機能352に対応するプログラムを読み出して実行することで実現される。また、ステップS105~S106は、処理回路35が、生成機能353に対応するプログラムを読み出して実行することで実現される。また、ステップS107は、処理回路35が、再構成機能354に対応するプログラムを読み出して実行することで実現される。
FIG. 6 is a flow chart showing a processing procedure by the medical image processing apparatus 3 according to the first embodiment. Here, step S101 in FIG. 6 is realized by the processing circuit 35 reading a program corresponding to the control function 351 from the
第1の実施形態に係る医用画像処理装置3においては、例えば、図6に示すように、処理回路35が、回転撮影により収集されたX線画像を取得する(ステップS101)。そして、処理回路35が、被検体情報に基づいて人体モデルを選択して(ステップS102)、選択した人体モデルを用いてシミュレーションモデルを生成する(ステップS103)。 In the medical image processing apparatus 3 according to the first embodiment, for example, as shown in FIG. 6, the processing circuit 35 acquires an X-ray image acquired by rotation imaging (step S101). Then, the processing circuit 35 selects a human body model based on the subject information (step S102), and generates a simulation model using the selected human body model (step S103).
その後、処理回路が、回転撮影によって収集されたX線画像に基づいて、シミュレーションモデルを修正して(ステップS104)、修正後のシミュレーションモデルを用いて、シミュレーション画像(モデル投影データ)を生成する(ステップS105)。 After that, the processing circuit modifies the simulation model based on the X-ray image acquired by rotational imaging (step S104), and generates a simulation image (model projection data) using the modified simulation model ( step S105).
そして、処理回路35は、生成したシミュレーション画像(モデル投影データ)を用いてトランケーション補正を行い(ステップS106)、トランケーション補正後のX線画像(合成X線画像)を用いて、ボリュームデータを再構成する(ステップS107)。 Then, the processing circuit 35 performs truncation correction using the generated simulation image (model projection data) (step S106), and reconstructs volume data using the X-ray image after truncation correction (composite X-ray image). (step S107).
上述したように、第1の実施形態によれば、制御機能351は、被検体に対して複数の角度からX線が照射されることでそれぞれ収集された複数の投影データを取得する。生成機能353は、複数の投影データごとに、内部構造を有する人体モデルデータに基づくモデル投影データを、対応する投影データに合成した合成投影データをそれぞれ生成する。したがって、第1の実施形態に係る医用画像処理装置3は、内部構造を有する人体モデルを用いた補正を行うことができ、トランケーションの補正精度を向上させることを可能にする。
As described above, according to the first embodiment, the control function 351 obtains a plurality of projection data acquired by irradiating the subject with X-rays from a plurality of angles. The
また、第1の実施形態によれば、抽出機能352は、複数の投影データごとに、被検体において投影データの視野範囲外となった領域を、内部構造を有する人体モデルデータから抽出する。生成機能353は、複数の投影データごとに、人体モデルデータから抽出された領域を投影することによりモデル投影データを生成する。したがって、第1の実施形態に係る医用画像処理装置3は、精度の高いモデル投影データを生成することを可能にする。
Further, according to the first embodiment, the extraction function 352 extracts, from the human body model data having the internal structure, the region of the subject that is outside the field of view of the projection data for each of a plurality of pieces of projection data. The
また、第1の実施形態によれば、抽出機能352は、被検体と、X線を照射するX線管と、被検体を透過したX線を検出するX線検出器との位置関係を示す撮影ジオメトリに基づいて、人体モデルデータから投影データの視野範囲外となった領域を抽出する。したがって、第1の実施形態に係る医用画像処理装置3は、回転撮影時の状態を考慮した視野範囲外の領域を抽出することを可能にする。 Further, according to the first embodiment, the extraction function 352 indicates the positional relationship between the subject, the X-ray tube that emits X-rays, and the X-ray detector that detects the X-rays that have passed through the subject. A region outside the field of view of the projection data is extracted from the human body model data based on the imaging geometry. Therefore, the medical image processing apparatus 3 according to the first embodiment makes it possible to extract a region outside the field of view in consideration of the state during rotational imaging.
また、第1の実施形態によれば、抽出機能352は、投影データに含まれる被検体情報に基づいて人体モデルデータを修正し、修正後の人体モデルデータから投影データの視野範囲外となった領域を抽出する。したがって、第1の実施形態に係る医用画像処理装置3は、被検体の構造を考慮した視野範囲外の領域を抽出することを可能にする。 Further, according to the first embodiment, the extraction function 352 corrects the human body model data based on the subject information included in the projection data, and the corrected human body model data is outside the field of view of the projection data. Extract regions. Therefore, the medical image processing apparatus 3 according to the first embodiment makes it possible to extract a region outside the field of view considering the structure of the subject.
また、第1の実施形態によれば、抽出機能352は、投影データと、当該投影データを収集した角度から人体モデルデータ全体を投影したモデル投影データとの比較結果に基づいて当該人体モデルデータを修正し、修正後の人体モデルデータから投影データの視野範囲外となった領域を抽出する。したがって、第1の実施形態に係る医用画像処理装置3は、人体モデルに対して、回転撮影時の被検体の状態を反映させることができ、視野範囲外の領域をより正確に抽出することを可能にする。 Further, according to the first embodiment, the extraction function 352 extracts the human body model data based on the comparison result between the projection data and the model projection data obtained by projecting the entire human body model data from the angle at which the projection data was collected. After correction, the area outside the field of view of the projection data is extracted from the human body model data after correction. Therefore, the medical image processing apparatus 3 according to the first embodiment can reflect the state of the subject at the time of rotational imaging on the human body model, and can more accurately extract the area outside the visual field range. enable.
また、第1の実施形態によれば、人体モデルデータは、人体を構成する構成要素ごとの形状及び位置に関する情報と、構成要素に含まれる物質に関する情報とを含む。したがって、第1の実施形態に係る医用画像処理装置3は、視野範囲外の領域に含まれる物質に応じた画素値を用いてトランケーション補正を行う(合成X線画像を生成する)ことができ、トランケーションの補正精度を向上させることを可能にする。 Further, according to the first embodiment, the human body model data includes information on the shape and position of each constituent element that constitutes the human body, and information on the substance contained in the constituent element. Therefore, the medical image processing apparatus 3 according to the first embodiment can perform truncation correction (generate a composite X-ray image) using pixel values corresponding to substances contained in regions outside the field of view, It is possible to improve the correction accuracy of truncation.
また、第1の実施形態によれば、再構成機能354は、複数の投影データからそれぞれ生成された複数の合成投影データを用いて、3次元画像データを再構成する。したがって、第1の実施形態に係る医用画像処理装置3は、トランケーションの影響をより低減させたボリュームデータを再構成することを可能にする。
Further, according to the first embodiment, the
(第2の実施形態)
上述した第1の実施形態では、標準の人体モデルから体型ごとの人体モデルを生成し、各ボクセルに物質に関する情報を(X線減弱量に関する情報)を保持させる場合について説明した。第2の実施形態では、CT(Computed Tomography)画像データを人体モデルとして用いる場合について説明する。すなわち、第2の実施形態に係る抽出機能352は、人体モデルデータとしてのCT画像データから、回転撮影によって収集された投影データの視野範囲外となった領域を抽出する。なお、第2の実施形態は、第1の実施形態と比較して、使用する人体モデルのみが異なる。以下、これを中心に説明する。
(Second embodiment)
In the above-described first embodiment, a case has been described in which a human body model for each body type is generated from a standard human body model, and information on substances (information on X-ray attenuation) is held in each voxel. In the second embodiment, a case where CT (Computed Tomography) image data is used as a human body model will be described. That is, the extraction function 352 according to the second embodiment extracts, from the CT image data as the human body model data, a region outside the field of view range of the projection data acquired by rotational imaging. The second embodiment differs from the first embodiment only in the human body model used. This will be mainly described below.
かかる場合には、体型ごとのCT画像データがメモリ34に格納され、抽出機能352は、被検体の体型情報に基づいて対応するCT画像データを読み出し、第1の実施形態での人体モデルと同様にシミュレーションモデルを生成して、視野範囲外の領域を抽出する。生成機能353は、CT画像データを用いたシミュレーションモデルから抽出された視野範囲外の領域を用いて、合成X線画像を生成する。
In such a case, the CT image data for each body type is stored in the
ここで、CT画像データは、X線減弱量を示す情報としてCT値を有しており、抽出機能352及び生成機能353は、CT画像データにおけるCT値を用いて各処理を実行する。なお、人体モデルとしてのCT画像データは、全身が1つのデータとして保持される場合でもよく、部位ごとにデータが分割されている場合でもよい。
Here, the CT image data has a CT value as information indicating the amount of X-ray attenuation, and the extraction function 352 and
上述したように、第2の実施形態によれば、抽出機能352は、人体モデルデータとしてのCT画像データから投影データの視野範囲外となった領域を抽出する。したがって、第2の実施形態に係る医用画像処理装置3は、新たな人体モデルを生成することなく、人体モデルを用いたトランケーション補正を行うことができ、トランケーションの補正精度の向上を容易に実現することを可能にする。 As described above, according to the second embodiment, the extraction function 352 extracts a region outside the field of view of projection data from CT image data as human body model data. Therefore, the medical image processing apparatus 3 according to the second embodiment can perform truncation correction using a human body model without generating a new human body model, and easily realizes improvement in truncation correction accuracy. make it possible.
(第3の実施形態)
第3の実施形態では、回転撮影によって収集した複数のX線画像について、人体を構成する物質ごとにセグメンテーションを行い、セグメンテーション結果に基づいて人体モデルを修正する場合について説明する。なお、第3の実施形態は、第1の実施形態と比較して、人体モデルの修正をさらに行う点のみが異なる。以下、これを中心に説明する。
(Third embodiment)
In the third embodiment, a case will be described in which a plurality of X-ray images acquired by rotational imaging are segmented for each material that constitutes the human body, and the human body model is corrected based on the segmentation results. The third embodiment differs from the first embodiment only in that the human body model is further corrected. This will be mainly described below.
第3の実施形態に係る抽出機能352は、複数の投影データに含まれる対象物質をそれぞれ抽出し、各投影データ内の対象物質の位置に基づいて、複数の投影データを収集した収集空間における対象物質の位置を特定し、特定した位置に基づいて人体モデルデータを修正する。具体的には、抽出機能352は、X線画像における画素値に基づいて、回転撮影によって収集された複数のX線画像のそれぞれから同一の対象物質をそれぞれ抽出する。そして、抽出機能352は、抽出した対象物質のX線画像内での位置に基づいて、回転撮影時の3次元空間における対象物質の位置を特定し、特定した位置に基づいて人体モデルを修正する。 The extraction function 352 according to the third embodiment extracts target substances included in a plurality of projection data, and extracts target substances in the collection space where the plurality of projection data are collected based on the positions of the target substances in each projection data. Identify the location of the material and modify the human body model data based on the identified location. Specifically, the extracting function 352 extracts the same target substance from each of a plurality of X-ray images acquired by rotational imaging, based on pixel values in the X-ray images. Then, the extraction function 352 specifies the position of the target substance in the three-dimensional space during rotational imaging based on the extracted position of the target substance in the X-ray image, and corrects the human body model based on the specified position. .
図7A~図7Cは、第3の実施形態に係る抽出機能352による処理の一例を説明するための図である。例えば、抽出機能352は、図7Aに示すように、回転撮影によって収集された複数のX線画像について、画素値に基づいて肋骨をそれぞれ抽出する。 7A to 7C are diagrams for explaining an example of processing by the extraction function 352 according to the third embodiment. For example, as shown in FIG. 7A, the extraction function 352 extracts ribs based on pixel values from multiple X-ray images acquired by rotational imaging.
そして、抽出機能352は、図7Bの左図に示すように、複数のX線画像の画素値に基づいて、サイノグラムを生成し、サイノグラムにおけるサインカーブを抽出する。すなわち、抽出機能352は、回転撮影におけるX線画像の収集角度(ビュー方向)を第1の方向(図中のサイノグラムの縦軸)とし、回転撮影における回転軸に直交する方向を第2の方向(図中のサイノグラムの横軸)とした2次元直交座標系に、回転撮影によって得られた画素値を割り当てたサイノグラムを生成する。そして、抽出機能352は、抽出した肋骨の画素値に基づいて、画像間の同一部位を対応付け、同一部位がサイノグラム上に描くサインカーブ「rsin(φ+θ)」を抽出する。 Then, as shown in the left diagram of FIG. 7B, the extraction function 352 generates a sinogram based on the pixel values of the multiple X-ray images and extracts a sine curve in the sinogram. That is, the extraction function 352 sets the acquisition angle (view direction) of the X-ray image in rotational imaging as the first direction (vertical axis of the sinogram in the drawing), and the direction orthogonal to the rotation axis in rotational imaging as the second direction. A sinogram is generated by assigning pixel values obtained by rotational imaging to a two-dimensional orthogonal coordinate system (horizontal axis of the sinogram in the figure). Then, the extraction function 352 associates the same part between the images based on the extracted pixel values of the ribs, and extracts the sine curve "rsin(φ+θ)" drawn by the same part on the sinogram.
さらに、抽出機能352は、図7Bの右図に示すように、再構成座標系において、抽出したサインカーブに基づく肋骨の位置を算出する。 Furthermore, the extraction function 352 calculates the position of the rib based on the extracted sine curve in the reconstruction coordinate system, as shown in the right diagram of FIG. 7B.
その後、抽出機能352は、図7Cに示すように、再構成座標系において求めた肋骨の位置に合うように、シミュレーションモデルにおける人体モデルの座標変換と、人体モデルの変形とを行う。 After that, as shown in FIG. 7C, the extraction function 352 performs coordinate transformation of the human body model in the simulation model and deformation of the human body model so as to match the positions of the ribs determined in the reconstruction coordinate system.
第3の実施形態に係る抽出機能352は、第1の実施形態で説明した修正処理に加えて、上述した修正処理によりシミュレーションモデルにおける人体モデルを修正し、その後、第1の実施形態と同様に、視野範囲外の領域を抽出する。 The extraction function 352 according to the third embodiment corrects the human body model in the simulation model by the above-described correction processing in addition to the correction processing described in the first embodiment, and then, similarly to the first embodiment. , to extract regions outside the field of view.
上述したように、第3の実施形態によれば、抽出機能352は、複数の投影データに含まれる対象物質をそれぞれ抽出し、各投影データ内の対象物質の位置に基づいて、複数の投影データを収集した収集空間における対象物質の位置を特定し、特定した位置に基づいて人体モデルデータを修正する。したがって、第3の実施形態に係る医用画像処理装置3は、物質の位置に基づいて人体モデルをさらに修正することができ、トランケーションの補正精度をさらに向上させることを可能にする。 As described above, according to the third embodiment, the extraction function 352 extracts target substances included in a plurality of projection data, and based on the positions of the target substances in each projection data, the plurality of projection data. is specified, and the human body model data is corrected based on the specified position. Therefore, the medical image processing apparatus 3 according to the third embodiment can further correct the human body model based on the position of the substance, and can further improve the truncation correction accuracy.
(第4の実施形態)
第4の実施形態では、被検体の外形の情報を用いて人体モデルを修正する場合について説明する。なお、第4の実施形態は、第1の実施形態と比較して、人体モデルの修正をさらに行う点のみが異なる。以下、これを中心に説明する。
(Fourth embodiment)
In the fourth embodiment, a case will be described in which the human body model is modified using information on the external shape of the subject. The fourth embodiment differs from the first embodiment only in that the human body model is further corrected. This will be mainly described below.
第4の実施形態に係る抽出機能352は、被検体の全体を含むように同一方向から収集された複数の投影データに基づいて、人体モデルデータをさらに修正する。具体的には、抽出機能352は、被検体の外形を含むように収集されたX線画像における外形の情報を用いて、人体モデルの外形をさらに修正する。 An extraction function 352 according to the fourth embodiment further corrects the human body model data based on a plurality of projection data collected from the same direction so as to include the entire subject. Specifically, the extraction function 352 uses the contour information in the X-ray images acquired to include the contour of the subject to further modify the contour of the human body model.
図8は、第4の実施形態に係る抽出機能352による処理の一例を説明するための図である。例えば、抽出機能352は、図8の上段の図に示すように、X線管とX線検出器を保持するCアームを移動させながら収集された複数の透視画像を用いて、人体モデルの外形を修正する。ここで、透視画像の収集は、図8の下段の図に示すように、被検体の幅を包含するサイズとなる数の透視画像が収集される。 FIG. 8 is a diagram for explaining an example of processing by the extraction function 352 according to the fourth embodiment. For example, as shown in the upper diagram of FIG. 8, the extraction function 352 uses a plurality of fluoroscopic images acquired while moving the C-arm holding the X-ray tube and X-ray detector to determine the outline of the human body model. to fix. Here, as for the collection of fluoroscopic images, as shown in the lower diagram of FIG. 8, the number of fluoroscopic images having a size that covers the width of the subject is collected.
抽出機能352は、複数の透視画像が収集された際の撮影ジオメトリと、透視画像における被検体の外形(端部)の位置とから、シミュレーションモデルに配置した人体モデルの外形(端部)の位置を修正する。 The extraction function 352 extracts the position of the outer shape (end) of the human body model placed in the simulation model from the imaging geometry when a plurality of fluoroscopic images are acquired and the position of the outer shape (end) of the subject in the fluoroscopic image. to fix.
第4の実施形態に係る抽出機能352は、第1の実施形態で説明した修正処理に加えて、上述した修正処理によりシミュレーションモデルにおける人体モデルを修正し、その後、第1の実施形態と同様に、視野範囲外の領域を抽出する。 The extraction function 352 according to the fourth embodiment modifies the human body model in the simulation model by the above-described modification processing in addition to the modification processing described in the first embodiment, and then, similarly to the first embodiment, , to extract regions outside the field of view.
上述したように、第4の実施形態によれば、抽出機能352は、被検体の全体を含むように同一方向から収集された複数の投影データに基づいて、人体モデルデータをさらに修正する。したがって、第4の実施形態に係る医用画像処理装置3は、被検体の外形に基づいて人体モデルをさらに修正することができ、トランケーションの補正精度をさらに向上させることを可能にする。 As described above, according to the fourth embodiment, the extraction function 352 further modifies the human body model data based on multiple projection data collected from the same direction to include the entire subject. Therefore, the medical image processing apparatus 3 according to the fourth embodiment can further correct the human body model based on the external shape of the subject, making it possible to further improve the truncation correction accuracy.
(第5の実施形態)
第5の実施形態では、回転撮影によって収集されたX線画像の画素値に対して、人体モデルを投影した画素値を合わせる場合について説明する。なお、第5の実施形態は、第1の実施形態と比較して、生成機能353による処理内容が異なる。以下、これを中心に説明する。
(Fifth embodiment)
In the fifth embodiment, a case will be described in which the pixel values of an X-ray image acquired by rotational imaging are matched with the pixel values of a projected human body model. It should be noted that the fifth embodiment differs from the first embodiment in the content of processing by the
第5の実施形態に係る生成機能353は、投影データにおける画素値と、人体モデルデータ全体を投影したモデル投影データにおける投影データに対応する位置の画素値との比較結果に基づいて、モデル投影データ全体の画素値を修正し、モデル投影データの修正後の画素値を用いて、合成投影データを生成する。
The
図9A及び図9Bは、第5の実施形態に係る生成機能353による処理の一例を説明するための図である。例えば、生成機能353は、図9Aに示すように、抽出機能352によって修正されたシミュレーションモデルにおいて、人体モデル全体を投影したシミュレーション画像を生成する。すなわち、生成機能353は、図9Aのプロファイルの曲線L3に示すように、シミュレーションモデルにおける視野範囲内外の画素値を含むシミュレーション画像を生成する。
9A and 9B are diagrams for explaining an example of processing by the
そして、生成機能353は、回転撮影によって収集されたX線画像の画素値と同様の画素値となるように、シミュレーション画像における画素値を修正する。例えば、生成機能353は、図9Bに示すように、人体モデル全体を投影したシミュレーション画像におけるプロファイルを示す曲線L3の値が、回転撮影で収集されたX線画像におけるプロファイルを示す曲線L2と近似するように、シミュレーション画像における画素値を修正する。
Then, the
生成機能353は、上述した画素値の修正を行った後のシミュレーション画像における視野範囲外の画素値を、回転撮影で収集されたX線画像に合成した合成X線画像を生成する。
The
上述したように、第5の実施形態によれば、生成機能353は、投影データにおける画素値と、人体モデルデータ全体を投影したモデル投影データにおける投影データに対応する位置の画素値との比較結果に基づいて、モデル投影データ全体の画素値を修正し、モデル投影データの修正後の画素値を用いて、合成投影データを生成する。したがって、第5の実施形態に係る医用画像処理装置3は、回転撮影で収集されたX線画像における画素値と、人体モデルから推定した画素値とのずれを抑制することができ、トランケーションの補正精度をさらに向上させることを可能にする。
As described above, according to the fifth embodiment, the
(その他の実施形態)
これまで第1~第5の実施形態について説明したが、上述した第1~第5の実施形態は、任意に組み合わせて実施することができる。
(Other embodiments)
Although the first to fifth embodiments have been described so far, the above-described first to fifth embodiments can be arbitrarily combined and carried out.
また、上述した実施形態では、医用画像処理装置3によって各種処理が実行される場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、上述した各処理がX線診断装置1によって実行される場合でもよい。
Moreover, in the above-described embodiment, the case where the medical image processing apparatus 3 executes various processes has been described. However, the embodiment is not limited to this, and each of the processes described above may be executed by the X-ray
図10は、その他の実施形態に係るX線診断装置1の構成の一例を示すブロック図である。図10に示すように、X線診断装置1は、X線高電圧装置11と、X線管12と、X線絞り器13と、天板14と、Cアーム15と、X線検出器16と、メモリ17と、ディスプレイ18と、入力インターフェース19と、処理回路20とを備える。
FIG. 10 is a block diagram showing an example configuration of an X-ray
X線高電圧装置11は、処理回路20による制御の下、X線管12に高電圧を印加する。例えば、X線高電圧装置11は、変圧器(トランス)及び整流器等の電気回路を有し、X線管12に印加する高電圧を発生する高電圧発生装置と、X線管12が照射するX線に応じた出力電圧の制御を行うX線制御装置とを有する。
The X-ray high voltage device 11 applies a high voltage to the
X線管12は、熱電子を発生する陰極(フィラメント)と、熱電子の衝突を受けてX線を発生する陽極(ターゲット)とを有する真空管である。X線管12は、X線高電圧装置11から印加される高電圧を用いて、陰極から陽極に向けて熱電子を照射することにより、X線を発生する。
The
X線絞り器13は、X線管12により発生されたX線の照射範囲を絞り込むX線絞りと、X線管12から曝射されたX線を調節するフィルタとを有する。
The
X線絞り器13におけるX線絞りは、例えば、スライド可能な4枚の絞り羽根を有する。X線絞りは、絞り羽根をスライドさせることで、X線管12が発生したX線を絞り込んで被検体Pに照射させる。
The X-ray diaphragm in the
X線絞り器13におけるフィルタは、被検体Pに対する被曝線量の低減とX線画像データの画質向上を目的として、その材質や厚みによって透過するX線の線質を変化させ、被検体Pに吸収されやすい軟線成分を低減したり、X線画像データのコントラスト低下を招く高エネルギー成分を低減したりする。また、フィルタは、その材質や厚み、位置などによってX線の線量及び照射範囲を変化させ、X線管12から被検体Pへ照射されるX線が予め定められた分布になるようにX線を減衰させる。
The filter in the
天板14は、被検体Pを載せるベッドであり、図示しない寝台の上に配置される。例えば、寝台は、モータ及びアクチュエータ等の駆動機構を有し、処理回路20による制御の下、駆動機構を動作させることにより、天板14の移動・傾斜を制御する。
The
Cアーム15は、X線管12及びX線絞り器13と、X線検出器16とを、被検体Pを挟んで対向するように保持する。例えば、Cアーム15は、モータ及びアクチュエータ等の駆動機構を有し、処理回路20から受け付けた制御信号に応じて駆動電圧を駆動機構に印加することにより、X線管12及びX線絞り器13と、X線検出器16とを被検体Pに対して回転・移動させ、X線の照射位置や照射角度を制御する。
The C-
X線検出器16は、例えば、マトリクス状に配列された検出素子を有するX線平面検出器(Flat Panel Detector:FPD)である。X線検出器16は、X線管12から照射されて被検体Pを透過したX線を検出して、検出したX線量に対応した検出信号を処理回路20へと出力する。
The X-ray detector 16 is, for example, an X-ray flat panel detector (FPD) having detection elements arranged in a matrix. The X-ray detector 16 detects X-rays emitted from the
メモリ17は、例えば、RAM等の半導体メモリ素子により実現される。メモリ17は、処理回路20による処理結果を一時的に記憶する。例えば、メモリ17は、処理回路20によって収集されたX線画像データなどの各種データを受け付けて一時記憶する。また、メモリ17は、人体モデルを記憶する。また、メモリ17は、処理回路20によって読み出されて実行される各種機能に対応するプログラムを記憶する。
The
ディスプレイ18は、各種の情報を表示する。例えば、ディスプレイ18は、処理回路20による制御の下、操作者の指示を受け付けるためのGUIや、各種のX線画像を表示する。また、ディスプレイ18は、処理回路20による処理結果を表示する。
The display 18 displays various information. For example, the display 18 displays a GUI for accepting operator's instructions and various X-ray images under the control of the
入力インターフェース19は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路20に出力する。例えば、入力インターフェース19は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース19は、装置本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース19は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路20へ出力する電気信号の処理回路も入力インターフェース19の例に含まれる。
The
処理回路20は、収集機能201、制御機能202、抽出機能203、生成機能204及び再構成機能205を実行することで、X線診断装置1全体の動作を制御する。具体的には、処理回路20は、メモリ17から各種機能に相当するプログラムを実行することで、X線診断装置1の動作を制御する。
The
収集機能201は、X線画像を収集する。例えば、収集機能201は、X線高電圧装置11を制御し、X線管12に印加する電圧を調整することで、被検体Pに対して照射されるX線量やオン/オフを制御する。また、収集機能201は、Cアーム15の動作を制御することで、Cアーム15を回転させたり、移動させたりする。また、例えば、収集機能201は、寝台の動作を制御することで、天板14を移動させたり、傾斜させたりする。ここで、収集機能201は、回転撮影を行うように制御することができる。
また、収集機能201は、X線検出器16から受信した検出信号に基づいて投影データを生成し、生成した投影データをメモリ17に格納する。また、収集機能201は、メモリ17が記憶する投影データに対して各種画像処理を行なうことでX線画像を生成する。
The
制御機能202は、ディスプレイ18にGUIやX線画像を表示させる。例えば、制御機能202は、入力インターフェース19を介した操作に応じて、X線画像をメモリ17から読み出して、ディスプレイ18に表示させる。
A
抽出機能203は、上述した抽出機能352と同様の処理を実行する。また、生成機能204は、上述した生成機能353と同様の処理を実行する。また、再構成機能205は、上述した再構成機能354と同様の処理を実行する。
The
各実施形態において説明した医用画像処理装置及びX線診断装置においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリへ記憶されている。処理回路は、メモリからプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路は、読み出したプログラムに対応する機能を有することとなる。なお、上記した各実施形態においては、各処理機能が単一の処理回路によって実現される場合を示したが、実施形態はこれに限られるものではない。例えば、処理回路は、複数の独立したプロセッサを組み合わせて構成され、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても構わない。また、処理回路が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 In the medical image processing apparatus and X-ray diagnostic apparatus described in each embodiment, each processing function is stored in memory in the form of a computer-executable program. The processing circuit is a processor that implements a function corresponding to each program by reading and executing the program from memory. In other words, the processing circuit that has read each program has a function corresponding to the read program. In each of the above-described embodiments, each processing function is realized by a single processing circuit, but the embodiments are not limited to this. For example, the processing circuit may be configured by combining a plurality of independent processors, and each processor may implement each processing function by executing each program. Moreover, each processing function of the processing circuit may be appropriately distributed or integrated in a single or a plurality of processing circuits and implemented.
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、あるいは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはストレージ111に保存されたプログラムを読み出し実行することで機能を実現する。 The term "processor" used in the above description includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (e.g., Circuits such as Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA)). The processor implements functions by reading and executing programs stored in the storage 111 .
なお、上述した各実施形態においては、メモリが各処理機能に対応するプログラムを記憶するものとして説明した。しかしながら、複数のメモリを分散して配置し、処理回路、個別のメモリから対応するプログラムを読み出す構成としても構わない。また、メモリにプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。 It should be noted that in each of the above-described embodiments, the memory has been described as storing a program corresponding to each processing function. However, a configuration may be adopted in which a plurality of memories are distributed and the corresponding programs are read out from the processing circuits and individual memories. Also, instead of storing the program in the memory, the program may be configured to be directly embedded in the circuitry of the processor. In this case, the processor realizes its function by reading and executing the program embedded in the circuit.
上述した実施形態に係る各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されうる。 Each component of each device according to the above-described embodiments is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device can be implemented by a CPU and a program analyzed and executed by the CPU, or implemented as hardware based on wired logic.
また、上述した実施形態で説明した制御方法は、予め用意された制御プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この制御プログラムは、インターネット等のネットワークを介して配布することができる。また、この制御プログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な非一過性の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Moreover, the control method described in the above embodiments can be realized by executing a control program prepared in advance on a computer such as a personal computer or a work station. This control program can be distributed via a network such as the Internet. In addition, this control program is recorded on a computer-readable non-transitory recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, DVD, etc., and is executed by being read from the recording medium by a computer. You can also
以上説明した少なくとも一つの実施形態によれば、トランケーションの補正精度を向上させることができる。 According to at least one embodiment described above, it is possible to improve the correction accuracy of truncation.
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations of embodiments can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.
1 X線診断装置
3 医用画像処理装置
20、35 処理回路
202、351 制御機能
203、352 抽出機能
204、353 生成機能
205、354 再構成機能
1 X-ray diagnostic apparatus 3 medical
Claims (12)
前記複数の投影データごとに、内部構造を有する人体モデルデータに基づくモデル投影データを、対応する投影データに合成した合成投影データをそれぞれ生成する生成部と、
を備える、医用画像処理装置。 an acquisition unit that acquires a plurality of projection data respectively acquired by irradiating an object with X-rays from a plurality of angles;
a generator for generating synthetic projection data by synthesizing model projection data based on human body model data having an internal structure with corresponding projection data for each of the plurality of projection data;
A medical image processing apparatus comprising:
前記生成部は、前記複数の投影データごとに、前記人体モデルデータから抽出された領域を投影することにより前記モデル投影データを生成する、請求項1に記載の医用画像処理装置。 further comprising an extraction unit for extracting, from the human body model data, a region outside the field of view of the projection data on the subject for each of the plurality of projection data;
2. The medical image processing apparatus according to claim 1, wherein the generation unit generates the model projection data by projecting regions extracted from the human body model data for each of the plurality of projection data.
前記複数の投影データごとに、内部構造を有する人体モデルデータに基づくモデル投影データを、対応する投影データに合成した合成投影データをそれぞれ生成する生成部と、
を備える、X線診断装置。 an acquisition unit that acquires a plurality of projection data by irradiating an object with X-rays from a plurality of angles;
a generator for generating synthetic projection data by synthesizing model projection data based on human body model data having an internal structure with corresponding projection data for each of the plurality of projection data;
An X-ray diagnostic apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021187157A JP2023074285A (en) | 2021-11-17 | 2021-11-17 | Medical image processing apparatus and x-ray diagnostic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021187157A JP2023074285A (en) | 2021-11-17 | 2021-11-17 | Medical image processing apparatus and x-ray diagnostic apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023074285A true JP2023074285A (en) | 2023-05-29 |
Family
ID=86537715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021187157A Pending JP2023074285A (en) | 2021-11-17 | 2021-11-17 | Medical image processing apparatus and x-ray diagnostic apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023074285A (en) |
-
2021
- 2021-11-17 JP JP2021187157A patent/JP2023074285A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7271646B2 (en) | X-ray computed tomography device, scan plan setting support device, medical image diagnostic system, control method and control program | |
US11304671B2 (en) | Biopsy systems for breast computed tomography | |
US7142633B2 (en) | Enhanced X-ray imaging system and method | |
EP2528040B1 (en) | Analysis of corresponding radiographies | |
US10939887B2 (en) | System and method of artifact correction in 3D imaging | |
EP3264985B1 (en) | Tomography imaging apparatus and method of reconstructing tomography image | |
US20170143292A1 (en) | Computed tomography apparatus and control method for the same | |
JP2009545358A (en) | Rotating X-ray scanning planning system | |
EP3143936B1 (en) | Iterative x-ray imaging optimization method | |
JP2009532161A (en) | Dual spectrum x-ray tube with switching focus and filter | |
JP7055599B2 (en) | X-ray CT device | |
CN111374690A (en) | Medical imaging method and system | |
EP2713339A1 (en) | Image processing device, radiographic image capturing system, image processing program and image processing method | |
CN117425433A (en) | Artificial intelligence training using multiple motion pulse X-ray source tomosynthesis imaging systems | |
WO2006090321A1 (en) | Determination of the coverage of a ct scan | |
JP6853376B2 (en) | How to reconstruct a 2D image from multiple X-ray images | |
KR102620359B1 (en) | Workstation, medical imaging apparatus comprising the same and control method for the same | |
JP6827761B2 (en) | Medical diagnostic imaging equipment | |
JP2023074285A (en) | Medical image processing apparatus and x-ray diagnostic apparatus | |
JP2021133247A (en) | Methods and systems for digital mammography imaging | |
JP7143474B2 (en) | Tomosynthesis dataset generation using pre-exposure acquisition | |
JP7334034B2 (en) | Medical image processing device, X-ray diagnostic device and medical image processing program | |
JP7341667B2 (en) | Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems | |
JP7179497B2 (en) | X-ray CT apparatus and image generation method | |
JP6855173B2 (en) | X-ray CT device |