JP4982091B2 - Radiation tomography equipment - Google Patents

Radiation tomography equipment Download PDF

Info

Publication number
JP4982091B2
JP4982091B2 JP2006051453A JP2006051453A JP4982091B2 JP 4982091 B2 JP4982091 B2 JP 4982091B2 JP 2006051453 A JP2006051453 A JP 2006051453A JP 2006051453 A JP2006051453 A JP 2006051453A JP 4982091 B2 JP4982091 B2 JP 4982091B2
Authority
JP
Japan
Prior art keywords
image
dimensional
labeling
region
reconstruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006051453A
Other languages
Japanese (ja)
Other versions
JP2007229023A (en
Inventor
明彦 西出
靖浩 今井
誠 郷野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Medical Systems Global Technology Co LLC
Original Assignee
GE Medical Systems Global Technology Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Medical Systems Global Technology Co LLC filed Critical GE Medical Systems Global Technology Co LLC
Priority to JP2006051453A priority Critical patent/JP4982091B2/en
Publication of JP2007229023A publication Critical patent/JP2007229023A/en
Application granted granted Critical
Publication of JP4982091B2 publication Critical patent/JP4982091B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、医療用X線CT(Computed Tomography)装置などにおいて、実時間ラベリング処理、またはラベリング処理の結果に基づく画像再構成処理への画像フィードバック処理を実現する放射線断層撮影装置および画像処理装置に関する。   The present invention relates to a radiation tomography apparatus and an image processing apparatus that realize real-time labeling processing or image feedback processing to image reconstruction processing based on the result of labeling processing in a medical X-ray CT (Computed Tomography) apparatus or the like. .

従来、放射線断層撮影装置の一つであるX線CT装置は、画像再構成したスキャンの断層像における各部位、各臓器または各組織(以下、各部位と略す)を独立して扱うことができるようにラベリング処理を行う。例えば、特許文献1では、三次元のラベリング処理について開示している。この特許文献1では、図47のように、コンベンショナルスキャン(アキシャルスキャン)またはヘリカルスキャンなどによるX線CT撮影をz方向開始座標位置zsからz方向終了座標位置zeまでの範囲を時刻t1からt2までの間に行った後に、z方向に連続した断層像からなる三次元画像の連続領域番号付処理、ラベリング処理またはセグメンテーション処理(以下、ラベリング処理という)を時刻t3からt4までの間に行っていた。このため、すべての撮影が終わった後に三次元ラベリング処理の結果に基づいて再度、画像再構成を行うことは撮影後、時間が経ってからの処理であるため、診断のワークフロー上では不利・不便であった。   Conventionally, an X-ray CT apparatus, which is one of the radiation tomography apparatuses, can independently handle each part, each organ, or each tissue (hereinafter, abbreviated as each part) in a tomographic image of a reconstructed scan. The labeling process is performed as follows. For example, Patent Document 1 discloses a three-dimensional labeling process. In Patent Document 1, as shown in FIG. 47, the range from the z-direction start coordinate position zs to the z-direction end coordinate position ze for X-ray CT imaging by conventional scan (axial scan) or helical scan is from time t1 to time t2. After that, a continuous area numbering process, a labeling process, or a segmentation process (hereinafter referred to as a labeling process) of a three-dimensional image composed of tomographic images continuous in the z direction was performed from time t3 to t4. . For this reason, it is disadvantageous and inconvenient in the diagnosis workflow because it is a process that takes time after imaging to perform image reconstruction again based on the result of the 3D labeling process after all imaging is completed. Met.

また、この時に、t3<t2となることはなかった。つまり、ラベリング処理結果を画像再構成にフィードバックすることはなかった。つまり、三次元ラベリング処理の結果を画像再構成にフィードバックすること、つまり、断層像の画像再構成処理への画像フィードバック処理を実時間(リアルタイム)で行うことはできなかった。このため、各セグメント領域の画質の最適化処理には限界があった。さらに、従来の画像再構成処理、画像判定処理におけるラベリング処理では、濃淡画像から2値化を行って2値画像にした後に、ラベリング処理、再ラベリング処理を行う。さらにその後に、連続領域ごとに画像測定を行っていたので効率的ではなかった。
特開2003−141548号公報
At this time, t3 <t2 was not satisfied. That is, the labeling processing result is not fed back to the image reconstruction. That is, the result of the three-dimensional labeling process cannot be fed back to the image reconstruction, that is, the image feedback process to the tomographic image reconstruction process cannot be performed in real time. For this reason, there is a limit to the image quality optimization processing for each segment area. Further, in the labeling process in the conventional image reconstruction process and image determination process, the binarization is performed from the grayscale image to form a binary image, and then the labeling process and the relabeling process are performed. Furthermore, since image measurement was performed for each continuous area thereafter, it was not efficient.
JP 2003-141548 A

多列X線検出器を有する放射線断層撮影装置において、X線コーンビームのコーン角が大きくなるにつれ、撮影時間の短縮も進む方向である。撮影時間が短縮されても画質の妥協はされなく、むしろ画質の向上、最適化も望まれる方向である。撮影時間の短縮に伴い、ワークフロー上に望まれるのは、ハイブリッド・カーネルあるいはセグメント・ハイブリッドカーネル(Segmented Hybrid Kernel)に代表されるような、各部位ごとの画質の最適化である。つまり、各部位の領域ごとに画質が最適化されることが撮影と同時に行われることが望まれている。   In a radiation tomography apparatus having a multi-row X-ray detector, as the cone angle of the X-ray cone beam increases, the imaging time is also shortened. Even if the shooting time is shortened, the image quality is not compromised, but rather the improvement and optimization of the image quality is desired. As the imaging time is shortened, what is desired in the workflow is optimization of image quality for each part, as represented by a hybrid kernel or a segmented hybrid kernel. In other words, it is desired that the image quality is optimized for each region of the region simultaneously with the photographing.

従来の放射線断層撮影装置におけるラベリング技術としては、三次元ラベリングにおいても、まず画像再構成により三次元画像の全体が揃った後に三次元ラベリングを行っていた。(図47参照)しかし、例えば長いヘリカルスキャンの後に、三次元ラベリング処理を行っているのではワークフロー上も遅くなって律速段階となってしまう。また、三次元ラベリング処理の結果を画像再構成処理にフィードバックもかけず、いわゆる画像フィードバック処理が実時間(Real Time)で行えなくなってしまう。これは、ヘリカルスキャンのみならず、可変ピッチヘリカルスキャンまたはヘリカルシャトルスキャンまたはz方向に連続して複数のz方向座標位置でスキャンを行うアキシャルスキャンなどにおいても同様である。   As a labeling technique in a conventional radiation tomography apparatus, also in three-dimensional labeling, three-dimensional labeling is performed after the entire three-dimensional image is first prepared by image reconstruction. However, if, for example, a three-dimensional labeling process is performed after a long helical scan, the workflow is slowed down and the rate is determined. Further, the result of the three-dimensional labeling process is not fed back to the image reconstruction process, and so-called image feedback process cannot be performed in real time. This applies not only to the helical scan, but also to a variable pitch helical scan, a helical shuttle scan, or an axial scan that performs scanning at a plurality of coordinate positions in the z direction continuously in the z direction.

このため、これらの問題を解決するために、z方向に連続した断層像からなる三次元画像の局所領域において、画像再構成処理とパイプラインで、しかも画像再構成と並列処理として三次元ラベリング処理を行う必要性が出てくる。この三次元の局所領域における局所並列ラベリング処理の結果情報から、最終的な三次元ラベリング結果情報を導くには新しい技術課題がある。特に、再ラベリング処理における各連続領域の情報の編集には新しい技術課題が存在する。ラベリング処理と同時に画像特徴量の測定を行っている場合には、再ラベリング処理時の各連続領域の連続性の結果に基づいて画像特徴量の測定値の編集を行う必要がある。この点においても新規の技術課題が存在する。   Therefore, in order to solve these problems, in the local region of the three-dimensional image composed of tomographic images continuous in the z direction, the image reconstruction processing and pipeline, and the three-dimensional labeling processing as image reconstruction and parallel processing The need to do it comes out. There is a new technical problem in deriving final three-dimensional labeling result information from the result information of the local parallel labeling process in the three-dimensional local region. In particular, there is a new technical problem in editing information of each continuous area in the relabeling process. When the image feature quantity is measured simultaneously with the labeling process, it is necessary to edit the measured value of the image feature quantity based on the result of the continuity of each continuous area during the re-labeling process. There is a new technical problem in this respect as well.

また通常、三次元濃淡画像を2値化して、三次元2値画像として三次元ラベリング処理を行うが、三次元濃淡画像から直接三次元ラベリング処理を行い、三次元ラベリングと画像特徴量の測定を同時に行う処理においても、再ラベリング処理時の画像特徴量の測定結果の編集を行う必要がある。この点においても新規の技術課題が存在する。また、三次元ラベリングと同時にz方向の適応型ノイズフィルタを同時にかける場合も新しい技術課題がある。   Normally, a 3D grayscale image is binarized, and a 3D labeling process is performed as a 3D binary image. However, a 3D labeling process is performed directly from the 3D grayscale image to measure 3D labeling and image feature values. Even in the simultaneous processing, it is necessary to edit the measurement result of the image feature amount during the relabeling processing. There is a new technical problem in this respect as well. In addition, there is a new technical problem in the case where the adaptive noise filter in the z direction is applied simultaneously with the three-dimensional labeling.

そこで、本発明の目的は、多列X線検出器を有する放射線断層撮影装置の各種スキャンおよび画像処理装置における実時間ラベリング処理、またはラベリング処理の結果に基づく画像再構成処理への画像フィードバック処理を実現する放射線断層撮影装置および画像処理装置を提供することにある。   Accordingly, an object of the present invention is to perform various scans of a radiation tomography apparatus having a multi-row X-ray detector and real-time labeling processing in an image processing apparatus, or image feedback processing to image reconstruction processing based on the result of labeling processing. An object of the present invention is to provide a radiation tomography apparatus and an image processing apparatus.

以下、理解を容易にするため三次元ラベリングで説明を行う。本発明は、各種スキャンにおいて、1枚の断層像または複数枚の断層像の画像再構成が終了するとともに、これらをz方向に連続した断層像からなる三次元画像の一部として、例えば三次元ラベリングを始める。ここでは、例えば64枚の断層像の三次元ラベリングを行う。途中までは独立した三次元連続領域だったところが、z方向に三次元ラベリングを進めるにつれ、独立していると思われた三次元連続領域が接続していたことがわかる場合がある。   Hereinafter, in order to facilitate understanding, description will be made with three-dimensional labeling. According to the present invention, in various scans, image reconstruction of one tomographic image or a plurality of tomographic images is completed, and these are used as a part of a three-dimensional image composed of continuous tomographic images in the z direction, for example, three-dimensional Start labeling. Here, for example, three-dimensional labeling of 64 tomographic images is performed. Although it was an independent three-dimensional continuous region up to the middle, it may be found that as the three-dimensional labeling proceeds in the z direction, the three-dimensional continuous regions that seem to be independent are connected.

図1Aは、三次元画像の途中まで三次元ラベリング処理を行った状態を示す図で、Bは三次元画像の三次元ラベリング処理を更に進めた場合を示す。例えば、図1Aに示すように、三次元画像の途中まで三次元ラベリングを行ったところ、三次元連続領域“1”と三次元連続領域“2”は独立しており連続ではなかった。しかし、更に三次元ラベリング処理を進めて行くと、図1Bに示すように、三次元連続領域“1”と三次元連続領域“2”は、ある断層像以降において接続していたことがわかる場合がある。この時に、接続してしまった番号の異なる三次元連続領域の情報をデータベースに入れておく。つまり、再ラベリング処理は、このデータベース上の情報の処理のみとし、連続領域番号の書き換えは行わない。このような、データベース上の再ラベリング処理を行うものとする。   FIG. 1A is a diagram illustrating a state in which the 3D labeling process is performed partway through the 3D image, and B illustrates a case where the 3D labeling process of the 3D image is further advanced. For example, as shown in FIG. 1A, when three-dimensional labeling is performed to the middle of the three-dimensional image, the three-dimensional continuous region “1” and the three-dimensional continuous region “2” are independent and not continuous. However, when the three-dimensional labeling process is further advanced, as shown in FIG. 1B, it can be seen that the three-dimensional continuous region “1” and the three-dimensional continuous region “2” are connected after a certain tomographic image. There is. At this time, information of three-dimensional continuous regions having different connected numbers is stored in the database. That is, the re-labeling process is only a process of information on this database, and the continuous area number is not rewritten. It is assumed that such re-labeling processing on the database is performed.

図2は、三次元ラベリング処理と三次元再ラベリング処理のタイミングを示す図である。図2に示すように、今、256枚の断層像からなる三次元画像の三次元ラベリング処理を行うとする。このとき、三次元ラベリング処理と同時に画像特徴量の測定も同時に行う。64枚の断層像の三次元ラベリング処理が済んだところで、三次元再ラベリング処理を三次元連続情報データベース上の処理として行う。具体的には、三次元再ラベリング処理においては、画像特徴量の編集、例えば結合または合体を行う。今、時刻0から放射線断層撮影装置としてのスキャンが開始したとする。これに遅れて、時刻t3から三次元ラベリング処理を開始する。時刻t5において、64断層像分の三次元ラベリング処理を終えたと同時に再ラベリング処理を開始させる。時刻t4において、三次元ラベリング処理を終了する。これに遅れて、時刻t6において三次元再ラベリング処理を終了する。このようにして、放射線断層撮影装置の撮影と三次元ラベリング処理と三次元再ラベリング処理を並列動作させることができる。   FIG. 2 is a diagram illustrating timing of the three-dimensional labeling process and the three-dimensional relabeling process. As shown in FIG. 2, it is assumed that a three-dimensional labeling process is performed on a three-dimensional image composed of 256 tomographic images. At this time, measurement of the image feature amount is performed simultaneously with the three-dimensional labeling process. When the three-dimensional labeling process for the 64 tomographic images has been completed, the three-dimensional relabeling process is performed as a process on the three-dimensional continuous information database. Specifically, in the three-dimensional relabeling process, image feature values are edited, for example, combined or merged. Assume that scanning as a radiation tomography apparatus starts at time 0. After this, the three-dimensional labeling process starts from time t3. At time t5, the re-labeling process is started simultaneously with the completion of the three-dimensional labeling process for 64 tomographic images. At time t4, the three-dimensional labeling process ends. After this, the three-dimensional relabeling process ends at time t6. In this way, imaging of the radiation tomography apparatus, 3D labeling processing, and 3D relabeling processing can be performed in parallel.

従来の図47と比較して見ると、本発明の並列処理の理解が深まる。図3は、本発明のラベリング処理を示す図である。時刻t1から時刻t4は、図2と同じ時刻である。図3において、z方向開始座標位置zsからz方向終了座標位置zeに至る途中から三次元画像のラベリング処理を行う。このようにして、X線CT装置の撮影と三次元ラベリング処理を並列動作している。   Compared with the conventional FIG. 47, the understanding of the parallel processing of the present invention is deepened. FIG. 3 is a diagram showing the labeling process of the present invention. From time t1 to time t4 is the same time as in FIG. In FIG. 3, the labeling process of the three-dimensional image is performed from the middle from the z-direction start coordinate position zs to the z-direction end coordinate position ze. In this way, imaging of the X-ray CT apparatus and three-dimensional labeling processing are performed in parallel.

更に2値化処理を行わずに濃淡画像から直接三次元ラベリング処理および画像特徴量の測定を行うことにより、処理の高速化が実現できる。また、この際に濃淡画像において、z方向の適応型ノイズフィルタ処理も行うことで、更に処理の高速化、三次元ラベリング処理結果、画像特徴量の測定結果の安定化も実現できる。   Further, the processing speed can be increased by performing the three-dimensional labeling process and the image feature amount measurement directly from the grayscale image without performing the binarization process. At this time, the adaptive noise filter processing in the z direction is also performed on the grayscale image, so that the processing speed can be further increased, and the three-dimensional labeling processing result and the image feature value measurement result can be stabilized.

このように三次元ラベリングして抽出された各三次元連続領域の各々の画像特徴量を用いて、部位または臓器または組織(以下、総して部位という)として認識する。このように各部位として認識された三次元連続領域を各部位領域として画質を最適化する。画質を最適化するにあたっては、各部位領域ごとに画像再構成関数による最適化、画像空間における画像フィルタによる最適化を行う。   Using each image feature quantity of each three-dimensional continuous area extracted by three-dimensional labeling as described above, it is recognized as a part, an organ, or a tissue (hereinafter collectively referred to as a part). In this way, the image quality is optimized with each three-dimensional continuous region recognized as each part region. In optimizing the image quality, optimization by an image reconstruction function and optimization by an image filter in an image space are performed for each region.

このようにして、本発明は、ヘリカルスキャンなどのデータ収集に同期して画像再構成、ラベリング処理、および再ラベリング処理をパイプライン処理として行うことにより、実時間ラベリングを実現すること、または、ラベリング処理の結果に基づき、画像再構成処理へ画像フィードバックをかけることで上記課題を解決する。   In this way, the present invention realizes real-time labeling by performing image reconstruction, labeling processing, and relabeling processing as pipeline processing in synchronization with data collection such as helical scanning, or labeling. Based on the processing result, the above problem is solved by applying image feedback to the image reconstruction processing.

第1の観点の放射線断層撮影装置は、放射線を照射して被検体の所定領域を透過した投影データを収集し、断層像を表示するため画像再構成を行う。そして、画像再構成された断層像をラベリング処理するラベリング手段と、ラベリング手段により抽出された連続領域ごとに画質を最適化する画像再構成手段とを有する。
この第1の観点における放射線断層撮影装置では、各種スキャンで画像再構成された断層像をラベリング処理し、ラベリング抽出された領域ごとに画像再構成処理の再構成関数および画像空間の画像フィルタなどにより、画質を最適化することができる。
A radiation tomography apparatus according to a first aspect collects projection data irradiated with radiation and transmitted through a predetermined region of a subject, and performs image reconstruction to display a tomographic image. The image processing apparatus includes a labeling unit that performs a labeling process on the tomographic image that has been reconstructed, and an image reconstruction unit that optimizes the image quality for each continuous area extracted by the labeling unit.
In the radiation tomography apparatus according to the first aspect, tomographic images reconstructed by various scans are subjected to labeling processing, and a reconstruction function of image reconstruction processing and an image space image filter are performed for each of the extracted regions. , The image quality can be optimized.

第2の観点の放射線断層撮影装置は、放射線を照射して被検体の所定領域を透過した投影データを収集し、断層像を表示するため画像再構成を行う。そして、画像再構成された断層像をラベリング処理するラベリング手段と、ラベリング手段によりラベリング処理された連続領域の情報に基づき再ラベリング処理する再ラベリング手段と、再ラベリング手段により抽出された連続領域ごとに画質を最適化する画像再構成手段とを有する。
この第2の観点における放射線断層撮影装置では、各種スキャンにより、z方向に連続して撮影された断層像をてラベリング処理する場合、z方向に三次元ラベリングを進めて三次元連続領域を見つけて行くと、接続していたことがわかる三次元連続領域も見つかる。このため、再ラベリング処理により連続領域の接続情報を修正することで、適正にラベリング処理が行われ、三次元連続領域が正しく検出できる。これで抽出された三次元連続領域である各部位の領域ごとに画質を最適化できる。
A radiation tomography apparatus according to a second aspect collects projection data irradiated with radiation and transmitted through a predetermined region of a subject, and performs image reconstruction to display a tomographic image. For each continuous area extracted by the re-labeling means, the labeling means for labeling the tomographic image reconstructed, the re-labeling means for re-labeling based on the information of the continuous areas labeled by the labeling means, and Image reconstruction means for optimizing the image quality.
In the radiation tomography apparatus according to the second aspect, when performing a labeling process on tomographic images continuously taken in the z direction by various scans, three-dimensional labeling is advanced in the z direction to find a three-dimensional continuous region. When you go, you will also find a 3D continuous area where you can see the connection. For this reason, by correcting the connection information of the continuous area by the re-labeling process, the labeling process is appropriately performed, and the three-dimensional continuous area can be detected correctly. Thus, the image quality can be optimized for each region of each part that is the extracted three-dimensional continuous region.

第3の観点の放射線断層撮影装置は、放射線を照射して被検体の所定領域を透過した投影データを収集し、断層像を表示するため画像再構成を行う。そして、画像再構成された断層像をラベリング処理しながら、ラベリング処理された連続領域ごとの画像特徴量を求めるラベリング手段と、ラベリング手段によりラベリング処理された連続領域の情報に基づき再ラベリング処理を行い、連続領域ごとの画像特徴量を編集する再ラベリング手段と、再ラベリング手段により編集された連続領域の画質を最適化する画像再構成手段とを有する。
この第3の観点における放射線断層撮影装置では、各種スキャンにより、z方向に連続して撮影された断層像を三次元ラベリング処理を行う場合、連続領域ごとに画素を計数することで面積や体積が求められ、輪郭または表面の画素を計数することで周囲長や表面積が求められ、面積と周囲長から円形度が求められ、体積と表面積から球形度が求められる。このようにして、このラベリング処理の走査において連続領域ごとの画像特徴量が求められる。また、ラベリングされた各連続領域を再ラベリングする際に、あるz座標までは接続していない独立だった連続領域が、あるz座標において接続していることがわかり、その連続領域の編集を行う。この処理が再ラベリング処理である。この再ラベリング処理の際に、各連続領域の画像特徴量も編集(合体・結合)させる。例えば、2つの連続領域の面積や体積は2つの連続領域が編集される時には、面積値同士を加算、体積値同士を加算すれば良い。また、同様に周囲長、表面積も加算することで編集できる。また、円形度、球形度は2つの連続領域を編集した際に新しく求められた面積値、体積値、周囲長値、表面積値より新たに計算すれば良い。このように、再ラベリング処理においては、連続領域を編集させて新しい連続領域番号を付けるとともに、2つの連続領域の画像特徴量を編集することにより、編集した新たな連続領域の画像特徴量を求めることができる。
A radiation tomography apparatus according to a third aspect collects projection data irradiated with radiation and transmitted through a predetermined region of a subject, and performs image reconstruction to display a tomographic image. Then, while labeling the tomographic image that has been reconstructed, a labeling unit that obtains an image feature amount for each continuous region that has been labeled and a re-labeling process based on information on the continuous region that has been labeled by the labeling unit And a re-labeling unit that edits the image feature amount for each continuous region, and an image reconstruction unit that optimizes the image quality of the continuous region edited by the re-labeling unit.
In the radiation tomography apparatus according to the third aspect, when a three-dimensional labeling process is performed on a tomographic image continuously taken in the z direction by various scans, the area and volume are determined by counting pixels for each continuous region. The circumference or surface area is obtained by counting the pixels of the contour or the surface, the circularity is obtained from the area and the circumference, and the sphericity is obtained from the volume and the surface area. In this way, the image feature amount for each continuous region is obtained in the scanning of the labeling process. Also, when relabeling each labeled continuous region, it can be seen that an independent continuous region that is not connected up to a certain z coordinate is connected at a certain z coordinate, and that continuous region is edited. . This process is a re-labeling process. At the time of this re-labeling process, the image feature amount of each continuous area is also edited (combined / combined). For example, when two continuous areas are edited, the area values and the volume values of two continuous areas may be added to each other and the volume values may be added to each other. Similarly, editing can be performed by adding the perimeter and surface area. The circularity and the sphericity may be newly calculated from the area value, volume value, perimeter length value, and surface area value newly obtained when two continuous regions are edited. As described above, in the re-labeling process, the continuous region is edited to give a new continuous region number, and the image feature amount of the two continuous regions is edited to obtain the image feature amount of the edited new continuous region. be able to.

第4の観点の放射線断層撮影装置は、2値画像を介さず、濃淡画像である画像再構成された断層像からラベリング処理を行う。
この第4の観点における放射線断層撮影装置では、各種スキャンにより得られた断層像または三次元画像などの各画素は、X線吸収係数に比例したCT値(HU:Hounsfield
Unitとも呼ばれる)を持つ濃淡画像、濃淡三次元画像である。この時に濃淡画像を2値化しなくても、2値化閾値の範囲内か否かの判断でラベリング処理を行うことにより、2値化処理、2値化された2値画像を介さずに濃淡画像から直接ラベリング処理を行うことができる。
The radiation tomography apparatus according to the fourth aspect performs labeling processing from a tomographic image reconstructed as a grayscale image without using a binary image.
In the radiation tomography apparatus according to the fourth aspect, each pixel such as a tomographic image or a three-dimensional image obtained by various scans has a CT value (HU: Hounsfield proportional to the X-ray absorption coefficient).
A gray-scale image and a gray-scale three-dimensional image. Even if the grayscale image is not binarized at this time, by performing a labeling process by determining whether or not it is within the binarization threshold range, the binarization process is performed without using the binarized binary image. Labeling can be performed directly from the image.

第5の観点では、ラベリング手段または再ラベリング手段の少なくとも一方は、投影データの収集と同期して行う。
この第5の観点における放射線断層撮影装置では、各種スキャンにより得られたz方向に連続して撮影された断層像による三次元画像を実時間ラベリング処理するには、ラベリング処理にすぐ取りかかる必要がある。このため、投影データ後に1枚または数枚分の断層像の画像再構成が行われたら、投影データ、画像再構成に同期して1枚目の断層像画像再構成後、または所定の複数枚の断層像画像再構成後、すぐにラベリング処理に取りかかることが実時間ラベリング処理につながる。このため、スキャン中、画像再構成中に、これらに同期させてラベリング処理を行うことで実時間ラベリングが実現できる
In the fifth aspect, at least one of the labeling unit and the re-labeling unit is performed in synchronization with the collection of projection data.
In the radiation tomography apparatus according to the fifth aspect, in order to perform a real-time labeling process on a three-dimensional image of tomographic images continuously taken in the z direction obtained by various scans, it is necessary to immediately start the labeling process. . For this reason, when image reconstruction of one or several tomographic images is performed after the projection data, after reconstruction of the first tomographic image in synchronization with the projection data and image reconstruction, or a predetermined plurality of images Immediately after the reconstruction of the tomographic image, the real-time labeling process is started. Therefore, real-time labeling can be realized by performing labeling processing in synchronization with these during scanning and image reconstruction.

第6の観点の放射線断層撮影装置は、ヘリカルスキャン、可変ピッチヘリカルスキャン、ヘリカルシャトルスキャン、z方向に連続した複数の位置におけるアキシャルスキャン、またはシネスキャンの際に同期して行う。
この第6の観点における放射線断層撮影装置では、第5の観点において、z方向に連続した断層像がほぼ一定時間間隔で次々と画像再構成される場合、スキャンデータ収集や画像再構成に所定の断層像枚数分遅れて、ラベリング処理を同期させて動かすことができる。また、所定の断層像枚数分の遅れではなく、一定時間間隔の遅れで同期させても同様に実時間ラベリング処理が実現できる。
The radiation tomography apparatus according to the sixth aspect performs synchronously during a helical scan, a variable pitch helical scan, a helical shuttle scan, an axial scan at a plurality of positions continuous in the z direction, or a cine scan.
In the radiation tomography apparatus according to the sixth aspect, in the fifth aspect, when tomographic images continuous in the z direction are reconstructed one after another at substantially constant time intervals, a predetermined amount is used for scan data collection and image reconstruction. The labeling process can be synchronized and moved with a delay of the number of tomographic images. Further, the real-time labeling process can be similarly realized by synchronizing with a delay of a fixed time interval instead of a delay corresponding to a predetermined number of tomographic images.

第7の観点では、ラベリング手段は、1枚分または所定の複数枚分の断層像の画像再構成が終了後に、ラベリング処理を開始する。
この第7の観点における放射線断層撮影装置では、ラベリング処理を同期させて動かす場合は、同期遅れには少なくとも画像再構成された断層像1枚は待つ必要がある。このため、少なくとも断層像1枚分または所定の複数枚分待った後に、ラベリング処理を開始させれば実時間ラベリング処理は実現できる。
In the seventh aspect, the labeling unit starts the labeling process after the image reconstruction of one or a plurality of predetermined tomographic images is completed.
In the radiation tomography apparatus according to the seventh aspect, when synchronizing the labeling process, it is necessary to wait for at least one tomographic image reconstructed for the synchronization delay. For this reason, the real-time labeling process can be realized by starting the labeling process after waiting for at least one tomographic image or a predetermined number of sheets.

第8の観点では、再ラベリング手段は、1枚分または所定の複数枚分のラベリング処理が終了後に、再ラベリング処理を開始する。
この第8の観点における放射線断層撮影装置では、第7の観点におけるラベリング処理の後に、再ラベリング処理を行う。このラベリング処理と再ラベリング処理の間隔はある程度取る必要がある。再ラベリング処理はラベリング処理で検出された複数の三次元連続領域の接続を再ラベリング処理により修正処理を行い、修正されるべき三次元連続領域の領域番号(ラベル番号)を付け直す処理である。つまり、再ラベリング処理においてはラベリング処理で検出した接続情報をフィードバックしている。このため、ラベリング処理と再ラベリング処理の間の遅れがあまり大きくないと修正ができないことがある。このため、再ラベリング処理はラベリング処理後、断層像複数枚分の充分な遅れを取ることにより、実時間ラベリング処理において充分修正をかける余裕が得られ、より適切なラベリング処理が行える。
In the eighth aspect, the re-labeling means starts the re-labeling process after the labeling process for one sheet or a predetermined plurality of sheets is completed.
In the radiation tomography apparatus according to the eighth aspect, the relabeling process is performed after the labeling process according to the seventh aspect. It is necessary to take a certain interval between the labeling process and the relabeling process. The re-labeling process is a process for correcting the connection of a plurality of three-dimensional continuous areas detected by the labeling process by the re-labeling process and re-assigning the area number (label number) of the three-dimensional continuous area to be corrected. That is, in the re-labeling process, the connection information detected in the labeling process is fed back. For this reason, correction may not be possible unless the delay between the labeling process and the re-labeling process is too large. For this reason, in the re-labeling process, a sufficient delay can be obtained in the real-time labeling process by taking a sufficient delay for a plurality of tomographic images after the labeling process, and a more appropriate labeling process can be performed.

第9の観点では、ラベリング手段は、二次元ラベリング処理または三次元ラベリング処理または四次元ラベリング処理のうちの少なくともいずれか1つを含む。
この第9の観点における放射線断層撮影装置では、z方向に連続して撮影された断層像と三次元画像として三次元ラベリングする場合、三次元ラベリングは二次元ラベリングの情報を元にして三次元ラベリングを行う。また、ヘリカルシャトルスキャンにおいては、z方向に連続して撮影した断層像からなる三次元画像を時系列に収集することができる。つまり、四次元画像を収集することができ、この場合はデータ収集、画像再構成に同期させて四次元ラベリング処理を行うことができる。
In the ninth aspect, the labeling means includes at least one of a two-dimensional labeling process, a three-dimensional labeling process, and a four-dimensional labeling process.
In the radiation tomography apparatus according to the ninth aspect, when performing three-dimensional labeling as a three-dimensional image and a tomographic image continuously photographed in the z direction, the three-dimensional labeling is based on the information of the two-dimensional labeling. I do. Further, in the helical shuttle scan, it is possible to collect a three-dimensional image composed of tomographic images continuously taken in the z direction in time series. That is, a four-dimensional image can be collected. In this case, a four-dimensional labeling process can be performed in synchronization with data collection and image reconstruction.

第10の観点では、ラベリング手段は、断層像の各画素の画像特徴量またはその画素の近傍の画像特徴量に基づいて、ラベリング処理を行う。
この第10の観点における放射線断層撮影装置では、ラベリングする場合、断層像の画素のCT値のみを2値化または閾値条件で判断してラベリングするよりも、精度を上げるために各画素およびその周辺画素のCT値の標準偏差や、その他の画像特徴量による条件の判断で画素の連続性を判断し、ラベリング処理することもできる。これにより、より精度の高いラベリング処理が行える。
In a tenth aspect, the labeling unit performs a labeling process based on the image feature amount of each pixel of the tomographic image or an image feature amount in the vicinity of the pixel.
In the radiation tomography apparatus according to the tenth aspect, when labeling is performed, each pixel and its surroundings are improved in order to increase accuracy, rather than binarizing or labeling by determining only the CT value of the pixel of the tomographic image using a threshold condition. It is also possible to determine the continuity of the pixel based on the standard deviation of the CT value of the pixel and other conditions based on the image feature amount and perform the labeling process. Thereby, a more accurate labeling process can be performed.

第11の観点では、画像再構成手段は、ラベリング処理された領域または再ラベリング処理された領域の画像特徴量に応じて、ラベリングされた領域または再ラベリングされた領域を部位として認識し、該部位の画質を最適化する。
この第11の観点における放射線断層撮影装置では、ラベリング処理または再ラベリング処理を行う際に、画素のCT値のみならず、各画素およびその周辺画素のCT値の標準偏差や、その他の画像特徴量による条件判断で画素の連続性を判断して、部位と判断することもできる。
In an eleventh aspect, the image reconstruction unit recognizes a labeled region or a re-labeled region as a part according to an image feature amount of the labeled region or the re-labeled region, and the part Optimize image quality.
In the radiation tomography apparatus according to the eleventh aspect, when performing the labeling process or the relabeling process, not only the CT value of the pixel but also the standard deviation of the CT value of each pixel and its surrounding pixels, and other image feature quantities It is also possible to determine the region by determining the continuity of the pixels by the condition determination according to.

第12の観点では、画像特徴量は、面積、画像濃度和、周囲長、フェレ径、フェレ径比、円形度、面積率、1次モーメント、2次モーメント、楕円近似した長径・短径、体積、体積濃度和、表面積、三次元フェレ径、三次元フェレ径比、球形度、体積率、三次元1次モーメント、三次元2次モーメント、楕円体近似した径のうち少なくとも1つを含む。
この第12の観点における放射線断層撮影装置では、これらを画像特徴量として測定または編集できる。また、これらの画像特徴量と類似するものも追加することによりさらに効果が出る場合もある。また、た、これらの画像特徴量のうち余り効果のないものは削除してもよい。
In the twelfth aspect, the image feature amount includes area, image density sum, perimeter length, ferret diameter, ferret diameter ratio, circularity, area ratio, first moment, second moment, ellipse approximated major and minor diameters, volume. , Volume concentration sum, surface area, three-dimensional ferret diameter, three-dimensional ferret diameter ratio, sphericity, volume fraction, three-dimensional primary moment, three-dimensional secondary moment, and ellipsoid approximate diameter.
In the radiation tomography apparatus according to the twelfth aspect, these can be measured or edited as image feature amounts. Further, there may be a case where a further effect can be obtained by adding those similar to these image feature amounts. In addition, among these image feature amounts, those having little effect may be deleted.

第13の画像処理装置は、画像入力を行う画像入力手段と、入力された画像にラベリング処理を行いながら、ラベリング処理された連続領域の画像特徴量を求めるラベリング手段と、ラベリング手段によりラベリング処理された連続領域の情報に基づき、再ラベリング処理を行い、再ラベリング処理された連続領域ごとの画像特徴量を編集する再ラベリング手段と、再ラベリング手段により編集された連続領域の画質を最適化する画像最適化手段とを有する。
この第13の観点における画像処理装置では、三次元濃淡画像を入力した後に、その三次元濃淡画像をラベリング処理し、ラベリングされた連続領域ごとに画像の再投影処理および逆投影処理、または画像空間の画像フィルタなどにより画質を最適化できる。
The thirteenth image processing apparatus includes: an image input unit that inputs an image; a labeling unit that obtains an image feature amount of a continuous region that has been labeled while performing a labeling process on the input image; and a labeling process that is performed by the labeling unit. Based on the information of the continuous area, re-labeling processing is performed, and the image features for each re-labeled continuous area are edited, and the image that optimizes the image quality of the continuous area edited by the re-labeling means Optimization means.
In the image processing apparatus according to the thirteenth aspect, after inputting a three-dimensional grayscale image, the three-dimensional grayscale image is labeled, and image reprojection processing and backprojection processing or image space is performed for each labeled continuous region. The image quality can be optimized by the image filter.

第14の観点では、画像入力手段は濃淡画像である画像再構成された断層像を入力し、ラベリング手段は該断層像から2値画像を介さず、ラベリング処理を行う。
この第14の観点における画像処理装置では、例えば三次元濃淡画像の各画素は連続値を持った濃淡画像、濃淡三次元画像である。この時に濃淡画像を2値化しなくても、2値化閾値の範囲か否かの判断でラベリング処理を行うことにより、2値化処理および2値化された2値画像を介さずに濃淡画像から直接ラベリング処理を行うことができる。このようにして得られたラベリングされた三次元連続領域である部位の領域ごとに画質を最適化できる。
In a fourteenth aspect, the image input unit inputs a tomographic image that is a grayscale image, and the labeling unit performs a labeling process from the tomographic image without using a binary image.
In the image processing apparatus according to the fourteenth aspect, for example, each pixel of a three-dimensional gray image is a gray image or a gray three-dimensional image having a continuous value. Even if the grayscale image is not binarized at this time, the grayscale image can be obtained without performing the binarization processing and the binarized binary image by performing the labeling process by determining whether or not the binarization threshold value is within the range. The labeling process can be performed directly. The image quality can be optimized for each region of the region which is the labeled three-dimensional continuous region thus obtained.

第15の観点では、ラベリング手段または再ラベリング手段の少なくとも一方は、画像入力手段の画像入力と同期してラベリング処理または再ラベリング処理を行う。
この第15の観点における画像処理装置では、画像入力に同期して、すぐラベリング処理に取りかかることが実時間ラベリング処理につながる。このため、画像入力中に同期させてラベリング処理を行うことで実時間ラベリングが実現できる。
In the fifteenth aspect, at least one of the labeling unit or the re-labeling unit performs the labeling process or the re-labeling process in synchronization with the image input of the image input unit.
In the image processing apparatus according to the fifteenth aspect, starting the labeling process immediately in synchronization with the image input leads to the real-time labeling process. Therefore, real-time labeling can be realized by performing labeling processing in synchronization with image input.

第16の観点では、ラベリング手段は、1枚分または所定の複数枚分の断層像の画像再構成が終了後に、ラベリング処理を開始する。
この第16の観点における画像処理装置では、ラベリング処理を同期させて動かす場合は、同期遅れには少なくとも画像再構成された断層像1枚は待つ必要がある。このため、少なくとも断層像1枚分または所定の複数枚分待った後に、ラベリング処理を開始させれば実時間ラベリング処理は実現できる。
In the sixteenth aspect, the labeling unit starts the labeling process after the image reconstruction of one or a predetermined plurality of tomographic images is completed.
In the image processing apparatus according to the sixteenth aspect, when synchronizing the labeling process, it is necessary to wait for at least one tomographic image whose image has been reconstructed for the synchronization delay. For this reason, the real-time labeling process can be realized by starting the labeling process after waiting for at least one tomographic image or a predetermined number of sheets.

第17の観点では、再ラベリング手段は、1枚分または所定の複数枚分のラベリング処理が終了後に、再ラベリング処理を開始する。
この第17の観点における画像処理装置では、再ラベリング処理はラベリング処理で検出された複数の三次元連続領域の接続に基づいて再ラベリング処理時に修正処理を行い、修正されるべき三次元連続領域の領域番号(ラベル番号)を付け直す処理である。つまり、ラベリング処理で検出した接続情報を再ラベリング処理で三次元画像にフィードバックしている。再ラベリング処理はラベリング処理後、画像入力複数枚分の遅れを取ることにより実時間ラベリング処理において充分修正をかける余裕ができ、より最適なラベリング処理が行える。
In the seventeenth aspect, the re-labeling means starts the re-labeling process after the labeling process for one sheet or a predetermined plurality of sheets is completed.
In the image processing apparatus according to the seventeenth aspect, the relabeling process performs a correction process at the time of the relabeling process based on the connection of a plurality of three-dimensional continuous areas detected by the labeling process. This is a process of reassigning the area number (label number). That is, the connection information detected by the labeling process is fed back to the three-dimensional image by the relabeling process. In the re-labeling process, after the labeling process, a delay corresponding to a plurality of image inputs can be taken to allow sufficient correction in the real-time labeling process, and a more optimal labeling process can be performed.

第18の観点では、ラベリング手段は、二次元ラベリング処理または三次元ラベリング処理または四次元ラベリング処理のうちの少なくともいずれか1つを含む。
この第18の観点における画像処理装置では、z方向に連続した二次元画像からなる三次元画像を入力中に同期させて三次元ラベリング処理を行う場合、三次元ラベリングは二次元ラベリングの情報を元にして三次元ラベリングを行う。また、z方向に連続した二次元画像からなる三次元画像を時系列に続けて収集することにより四次元画像を収集することができ、この場合は四次元画像の画像入力に同期させて四次元ラベリング処理を行うことができる。
In an eighteenth aspect, the labeling means includes at least one of a two-dimensional labeling process, a three-dimensional labeling process, and a four-dimensional labeling process.
In the image processing apparatus according to the eighteenth aspect, when performing a three-dimensional labeling process by synchronizing a three-dimensional image composed of two-dimensional images continuous in the z direction during input, the three-dimensional labeling is based on the information of the two-dimensional labeling. To perform 3D labeling. In addition, it is possible to collect 4D images by collecting 3D images consisting of 2D images continuous in the z direction in time series. In this case, 4D images can be synchronized with 4D image input. Labeling can be performed.

第19の観点では、ラベリング手段は、断層像の各画素の画像特徴量またはその画素の近傍の画像特徴量に基づいて、ラベリング処理を行う。
この第19の観点における画像処理装置では、さらにラベリングの精度を上げるために、各画素およびその周辺画素の画素値の標準偏差やその他の画像特徴量による条件の判断で画素の連続性を判断してラベリング処理を行うこともできる。これにより、より精度の高いラベリング処理が行える。
In a nineteenth aspect, the labeling means performs a labeling process based on the image feature amount of each pixel of the tomographic image or an image feature amount in the vicinity of the pixel.
In the image processing apparatus according to the nineteenth aspect, in order to further improve the accuracy of labeling, pixel continuity is determined by determining the standard deviation of the pixel values of each pixel and its surrounding pixels and other conditions based on image features. Labeling can be performed. Thereby, a more accurate labeling process can be performed.

第20の観点では、画像特徴量は、面積、画像濃度和、周囲長、フェレ径、フェレ径比、円形度、面積率、1次モーメント、2次モーメント、楕円近似した長径・短径、体積、体積濃度和、表面積、三次元フェレ径、三次元フェレ径比、球形度、体積率、三次元1次モーメント、三次元2次モーメント、楕円体近似した径のうち少なくとも1つを含む。
この第20の観点における画像処理装置では、これらを画像特徴量として測定または編集できる。また、これらの画像特徴量と類似するものも追加することによりさらに効果が出る場合もある。また、た、これらの画像特徴量のうち余り効果のないものは削除してもよい。
In the twentieth aspect, the image feature amount includes area, image density sum, perimeter length, ferret diameter, ferret diameter ratio, circularity, area ratio, first moment, second moment, ellipse approximated major and minor diameters, volume. , Volume concentration sum, surface area, three-dimensional ferret diameter, three-dimensional ferret diameter ratio, sphericity, volume fraction, three-dimensional primary moment, three-dimensional secondary moment, and ellipsoid approximate diameter.
In the image processing apparatus according to the twentieth aspect, these can be measured or edited as image feature amounts. Further, there may be a case where a further effect can be obtained by adding those similar to these image feature amounts. In addition, among these image feature amounts, those having little effect may be deleted.

本発明の放射線断層撮影装置または画像処理装置によれば、実時間ラベリング処理、または実時間ラベリング処理、またはラベリング処理の結果に基づく画像再構成処理への画像フィードバック処理を実現できる効果がある。   According to the radiation tomography apparatus or the image processing apparatus of the present invention, there is an effect that the real-time labeling process, or the real-time labeling process, or the image feedback process to the image reconstruction process based on the result of the labeling process can be realized.

以下、図に示す実施の形態により本発明をさらに詳細に説明する。なお、これにより本発明が限定されるものではない。   Hereinafter, the present invention will be described in more detail with reference to embodiments shown in the drawings. Note that the present invention is not limited thereby.

<X線CT装置の全体構成>
図4は、本発明の一実施形態にかかるX線CT装置100の構成ブロック図である。このX線CT装置100は、操作コンソール1と、撮影テーブル10と、走査ガントリ20とを具備している。
<Overall configuration of X-ray CT apparatus>
FIG. 4 is a configuration block diagram of the X-ray CT apparatus 100 according to the embodiment of the present invention. The X-ray CT apparatus 100 includes an operation console 1, an imaging table 10, and a scanning gantry 20.

操作コンソール1は、操作者の入力を受け付ける入力装置2と、前処理、画像再構成処理、後処理などを実行する中央処理装置3と、走査ガントリ20で収集したX線検出器データを収集するデータ収集バッファ5と、X線検出器データを前処理して求められた投影データから画像再構成した断層像を表示するモニタ6と、プログラムやX線検出器データや投影データやX線断層像を記憶する記憶装置7とを具備している。撮影条件の入力はこの入力装置2から入力され、記憶装置7に記憶される。図5にモニタ6に表示された撮影条件入力画面13Aの例を示す。画面撮影条件入力画面13Aには、所定の入力を行うための入力ボタン13aが表示されている。図5においてはスキャンのタブが選択されている画面である。タブをP−Reconを選択すると図5の下に描かれているように入力用の表示が切り換わる。入力ボタン13aの上方には断層像13bが表示され、下方には再構成領域13cが表示されている。また、必要とあれば右上に表示されているように、生体信号を表示してもよい。   The operation console 1 collects X-ray detector data collected by the input device 2 that receives input from the operator, the central processing device 3 that executes pre-processing, image reconstruction processing, post-processing, and the like, and the scanning gantry 20. A data acquisition buffer 5, a monitor 6 for displaying a tomographic image reconstructed from projection data obtained by preprocessing the X-ray detector data, a program, X-ray detector data, projection data, and X-ray tomogram And a storage device 7 for storing. The photographing condition is input from the input device 2 and stored in the storage device 7. FIG. 5 shows an example of the photographing condition input screen 13A displayed on the monitor 6. An input button 13a for performing a predetermined input is displayed on the screen shooting condition input screen 13A. FIG. 5 shows a screen in which a scan tab is selected. When P-Recon is selected as the tab, the display for input is switched as shown in the lower part of FIG. A tomographic image 13b is displayed above the input button 13a, and a reconstruction area 13c is displayed below. If necessary, a biological signal may be displayed as displayed on the upper right.

図4に戻り、撮影テーブル10は、被検体を乗せて走査ガントリ20の開口部に出し入れするクレードル12を具備している。クレードル12は撮影テーブル10に内蔵するモータで昇降およびテーブル直線移動される。   Returning to FIG. 4, the imaging table 10 includes a cradle 12 on which a subject is placed and taken in and out of the opening of the scanning gantry 20. The cradle 12 is moved up and down and linearly moved by the motor built in the imaging table 10.

走査ガントリ20は、X線管21と、X線コントローラ22と、コリメータ23と、ビーム形成X線フィルタ28と、多列X線検出器24と、データ収集装置(DAS:Data Acquisition System)25と、被検体の体軸の回りに回転しているX線管21などを制御する回転部コントローラ26と、制御信号などを操作コンソール1や撮影テーブル10とやり取りする制御コントローラ29とを具備している。ビーム形成X線フィルタ28は撮影中心である回転中心に向かうX線の方向にはフィルタの厚さが最も薄く、周辺部に行くに従いフィルタの厚さが増し、X線をより吸収できるようになっているX線フィルタである。このため、円形または楕円形に近い断面形状の被検体の体表面の被曝を少なくできるようになっている。また、走査ガントリ傾斜コントローラ27により、走査ガントリ20はz方向の前方および後方に±約30度ほど傾斜できる。   The scanning gantry 20 includes an X-ray tube 21, an X-ray controller 22, a collimator 23, a beam forming X-ray filter 28, a multi-row X-ray detector 24, and a data acquisition device (DAS: Data Acquisition System) 25. A rotation unit controller 26 that controls the X-ray tube 21 rotating around the body axis of the subject, and a control controller 29 that exchanges control signals and the like with the operation console 1 and the imaging table 10. . The beam forming X-ray filter 28 has the thinnest filter thickness in the X-ray direction toward the center of rotation, which is the imaging center, and the filter thickness increases toward the periphery so that X-rays can be absorbed more. X-ray filter. For this reason, exposure of the body surface of the subject having a cross-sectional shape close to a circle or an ellipse can be reduced. The scanning gantry tilt controller 27 can tilt the scanning gantry 20 forward and backward in the z direction by about ± 30 degrees.

X線管21と多列X線検出器24は、回転中心ICの回りを回転する。鉛直方向をy方向とし、水平方向をx方向とし、これらに垂直なテーブルおよびクレードル進行方向をz方向とするとき、X線管21および多列X線検出器24の回転平面は、xy平面である。また、クレードル12の移動方向は、z方向である。   The X-ray tube 21 and the multi-row X-ray detector 24 rotate around the rotation center IC. When the vertical direction is the y direction, the horizontal direction is the x direction, and the table and cradle traveling direction perpendicular to these are the z direction, the rotation plane of the X-ray tube 21 and the multi-row X-ray detector 24 is the xy plane. is there. The moving direction of the cradle 12 is the z direction.

図6は、X線管21と多列X線検出器24の幾何学的配置をxy平面から見た図であり、図7は、X線管21と多列X線検出器24の幾何学的配置をyz平面から見た図である。X線管21は、コーンビームCBと呼ばれるX線ビームを発生する。X線ビームの中心軸方向がy方向に平行なときを、ビュー角度0度とする。多列X線検出器24は、z方向にJ列、例えば256列のX線検出器列を有する。また、各X線検出器列はチャネル方向にIチャネル、例えば1024チャネルのX線検出器チャネルを有する。   FIG. 6 is a diagram showing the geometric arrangement of the X-ray tube 21 and the multi-row X-ray detector 24 as viewed from the xy plane, and FIG. 7 shows the geometry of the X-ray tube 21 and the multi-row X-ray detector 24. It is the figure which looked at the target arrangement from the yz plane. The X-ray tube 21 generates an X-ray beam called a cone beam CB. When the central axis direction of the X-ray beam is parallel to the y direction, the view angle is 0 degree. The multi-row X-ray detector 24 has X-ray detector rows of J rows, for example, 256 rows in the z direction. Each X-ray detector row has I-channels, for example, 1024 channels of X-ray detector channels in the channel direction.

図6では、X線管21のX線焦点を出たX線ビームがビーム形成X線フィルタ28により、再構成領域Pの中心ではより多くのX線が、再構成領域Pの周辺部ではより少ないX線が照射される。このようにX線線量を空間的に制御した後に、再構成領域Pの内部に存在する被検体にX線が吸収され、透過したX線が多列X線検出器24でX線検出器データとして収集される。図7では、X線管21のX線焦点を出たX線ビームはX線コリメータ23により断層像のスライス厚方向に制御されて、つまり、回転中心軸ICにおいてX線ビーム幅がDとなるように制御されて、回転中心軸IC近辺に存在する被検体にX線が吸収され、透過したX線は多列X線検出器24でX線検出器データとして収集される。X線が被検体に照射されて収集された投影データは、多列X線検出器24からデータ収集装置25でA/D変換され、スリップリング30を経由してデータ収集バッファ5に入力される。データ収集バッファ5に入力されたデータは、記憶装置7のプログラムにより中央処理装置3で処理され、断層像に画像再構成されてモニタ6に表示される。なお、本実施形態では多列X線検出器24を適用した場合であるが、フラットパネルX線検出器に代表されるマトリクス構造の二次元X線エリア検出器を適用することもできるし、1列のX線検出器を適用することができる。   In FIG. 6, the X-ray beam emitted from the X-ray focal point of the X-ray tube 21 is subjected to more X-rays at the center of the reconstruction area P by the beam forming X-ray filter 28 and more at the periphery of the reconstruction area P. Less X-rays are irradiated. After the X-ray dose is thus spatially controlled, X-rays are absorbed by the subject existing inside the reconstruction region P, and the transmitted X-rays are converted into X-ray detector data by the multi-row X-ray detector 24. Collected as. In FIG. 7, the X-ray beam emitted from the X-ray focal point of the X-ray tube 21 is controlled by the X-ray collimator 23 in the slice thickness direction of the tomogram, that is, the X-ray beam width becomes D at the rotation center axis IC. Thus, X-rays are absorbed by the subject existing in the vicinity of the rotation center axis IC, and the transmitted X-rays are collected by the multi-row X-ray detector 24 as X-ray detector data. Projection data acquired by irradiating the subject with X-rays is A / D converted from the multi-row X-ray detector 24 by the data acquisition device 25 and input to the data acquisition buffer 5 via the slip ring 30. . Data input to the data collection buffer 5 is processed by the central processing unit 3 according to a program in the storage device 7, reconstructed into a tomographic image, and displayed on the monitor 6. In this embodiment, the multi-row X-ray detector 24 is applied. However, a two-dimensional X-ray area detector having a matrix structure represented by a flat panel X-ray detector can be applied. A row X-ray detector can be applied.

<X線CT装置の動作フローチャート>
図8は本実施形態のX線CT装置100の動作の概要を示すフローチャートである。
<Operation flowchart of X-ray CT apparatus>
FIG. 8 is a flowchart showing an outline of the operation of the X-ray CT apparatus 100 of the present embodiment.

ステップP1では、被検体をクレードル12に乗せ位置合わせを行う。クレードル12の上に乗せられた被検体は各部位の基準点に走査ガントリ20のスライスライト中心位置を合わせる。   In step P1, the subject is placed on the cradle 12 and aligned. The subject placed on the cradle 12 aligns the center position of the slice light of the scanning gantry 20 with the reference point of each part.

ステップP2では、スカウト像(スキャノ像、X線透視像ともいう。)収集を行う。スカウト像は被検体の体の大きさによって成人又は子供の2種類のスカウト像が撮影できるようになっており、さらに通常0度,90度で撮影することができる。部位によっては例えば頭部のように、90度スカウト像のみの場合もある。スカウト像撮影では、X線管21と多列X線検出器24とを固定させ、クレードル12を直線移動させながらX線検出器データのデータ収集動作を行う。スカウト像撮影の詳細については図10で後述する。   In step P2, a scout image (also called a scano image or a fluoroscopic image) is collected. Scout images can capture two types of scout images for adults or children depending on the size of the body of the subject, and can usually be captured at 0 degrees and 90 degrees. Depending on the part, for example, the head may be a 90-degree scout image only. In scout imaging, the X-ray tube 21 and the multi-row X-ray detector 24 are fixed, and the data collection operation of X-ray detector data is performed while the cradle 12 is moved linearly. Details of scout image shooting will be described later with reference to FIG.

ステップP3では、スカウト像上に撮影する断層像の位置、大きさを表示しながら撮影条件設定を行う。本実施形態では、コンベンショナルスキャン(アキシャルスキャン)、ヘリカルスキャン、可変ピッチヘリカルスキャン、ヘリカルシャトルスキャンなどの複数のスキャンパターンを有している。コンベンショナルスキャンとは、クレードル12をZ軸方向に所定ピッチ移動するごとにX線菅21及びX線検出部24を回転させて投影データを取得するスキャン方法である。ヘリカルスキャンとは、X線管21とX線検出部24とが回転している状態でクレードル12を所定速度で移動させ、投影データを取得するスキャン方法である。可変ピッチヘリカルスキャンとは、ヘリカルスキャンと同様にX線菅21及びX線検出部24を回転させながらクレードル12の速度を可変させて投影データを取得するスキャン方法である。ヘリカルシャトルスキャンとは、ヘリカルスキャンと同様にX線菅21及びX線検出部24を回転させながらクレードル12をZ軸方向又は−Z軸方向に往復移動させて投影データを取得するスキャン方法である。これら複数のスキャンを設定する際には1回分の全体としてのX線線量情報の表示を行う。また、シネスキャンにおいては、回転数または時間を入れるとその関心領域における入力された回転数分、または入力された時間分のX線線量情報が表示される。   In step P3, shooting conditions are set while displaying the position and size of the tomographic image to be shot on the scout image. In the present embodiment, a plurality of scan patterns such as a conventional scan (axial scan), a helical scan, a variable pitch helical scan, and a helical shuttle scan are provided. Conventional scanning is a scanning method in which projection data is acquired by rotating the X-ray rod 21 and the X-ray detector 24 each time the cradle 12 is moved by a predetermined pitch in the Z-axis direction. The helical scan is a scanning method for acquiring projection data by moving the cradle 12 at a predetermined speed while the X-ray tube 21 and the X-ray detection unit 24 are rotating. The variable pitch helical scan is a scan method in which the projection data is acquired by changing the speed of the cradle 12 while rotating the X-ray rod 21 and the X-ray detector 24 as in the helical scan. The helical shuttle scan is a scanning method for acquiring projection data by reciprocating the cradle 12 in the Z-axis direction or the −Z-axis direction while rotating the X-ray rod 21 and the X-ray detection unit 24 as in the helical scan. . When these multiple scans are set, X-ray dose information as a whole is displayed. In the cine scan, when the number of rotations or time is entered, X-ray dose information for the input number of rotations or the input time in the region of interest is displayed.

ステップP4では、断層像撮影を行う。断層像撮影およびその画像再構成の詳細については図10で後述する。ステップP5では、画像再構成された断層像を表示する。ステップP6では、z方向に連続に撮影された断層像を三次元画像として用いて、図9のように三次元画像表示を行う。   In step P4, tomographic imaging is performed. Details of tomographic imaging and image reconstruction will be described later with reference to FIG. In step P5, the tomographic image reconstructed is displayed. In Step P6, a three-dimensional image is displayed as shown in FIG. 9, using tomographic images continuously taken in the z direction as a three-dimensional image.

図9は、三次元画像表示方法にはボリュームレンダリング三次元画像表示方法40、MIP(Maximum Intensity Projection)画像表示方法41、MPR(Multi Plain Reformat)画像表示方法42を示す。各種の画像表示方法などがあるが、本発明ではどの表示方法も適用でき、診断用途により適宜使い分けることができる。   FIG. 9 shows a volume rendering 3D image display method 40, a MIP (Maximum Intensity Projection) image display method 41, and an MPR (Multi Plain Reformat) image display method 42 as the 3D image display method. Although there are various image display methods, any display method can be applied in the present invention, and can be properly used depending on the purpose of diagnosis.

<断層像撮影およびスカウト像撮影の動作フローチャート>
図10は、本発明のX線CT装置100の断層像撮影およびスカウト像撮影の動作の概略を示すフローチャートである。
<Operation flowchart of tomography and scout imaging>
FIG. 10 is a flowchart showing an outline of tomographic and scout imaging operations of the X-ray CT apparatus 100 of the present invention.

ステップS1において、ヘリカルスキャンは、X線管21と多列X線検出器24とを被検体の回りに回転させ、かつ撮影テーブル10上のクレードル12を直線移動させながらX線検出器データのデータ収集動作を行う。ビュー角度viewと、検出器列番号jと、チャネル番号iとで表わされるX線検出器データD0(view,j,i)(j=1〜ROW,i=1〜CH)にz方向位置Ztable(view)を付加させて、一定速度の範囲のデータ収集を行う。また、可変ピッチヘリカルスキャンまたはヘリカルシャトルスキャンにおいては、一定速度の範囲のデータ収集に加えて、加速時、減速時においてもデータ収集を行うものとする。また、コンベンショナルスキャン(アキシャルスキャン)またはシネスキャンでは撮影テーブル10上のクレードル12をあるz方向位置に固定させたまま、データ収集系を1回転または複数回転させてX線検出器データのデータ収集を行う。必要に応じて、次のz方向位置に移動した後に、再度データ収集系を1回転または複数回転させてX線検出器データのデータ収集を行う。また、スカウト像撮影では、X線管21と多列X線検出器24とを固定させ、撮影テーブル10上のクレードル12を直線移動させながらX線検出器データのデータ収集動作を行うものとする。   In step S1, the helical scan rotates the X-ray tube 21 and the multi-row X-ray detector 24 around the subject and moves the cradle 12 on the imaging table 10 in a straight line while the X-ray detector data data. Perform the collection operation. X-ray detector data D0 (view, j, i) (j = 1 to ROW, i = 1 to CH) represented by the view angle view, detector row number j, and channel number i, and z-direction position Ztable. (View) is added and data is collected within a certain range of speed. In the variable pitch helical scan or helical shuttle scan, in addition to collecting data in a constant speed range, data collection is also performed during acceleration and deceleration. In the conventional scan (axial scan) or cine scan, the data acquisition system is rotated one or more times while the cradle 12 on the imaging table 10 is fixed at a certain z-direction position to collect data of X-ray detector data. Do. If necessary, after moving to the next position in the z direction, the data acquisition system is rotated once or a plurality of times to collect data of X-ray detector data. In scout imaging, the X-ray tube 21 and the multi-row X-ray detector 24 are fixed, and the X-ray detector data is collected while the cradle 12 on the imaging table 10 is linearly moved. .

ステップS2では、X線検出器データD0(view,j,i)に対して前処理を行い、投影データに変換する。図11は、図10のステップS2の前処理について具体的な処理を示す。ステップT21ではオフセット補正を行い、ステップT22では対数変換を行い、ステップT23ではX線線量補正を行い、ステップT24では感度補正を行う。スカウト像撮影の場合は、前処理されたX線検出器データをチャネル方向の画素サイズおよびクレードル12の直線移動方向であるz方向の画素サイズを、モニタ6の表示画素サイズに合わせて表示すればスカウト像として完成である。   In step S2, the X-ray detector data D0 (view, j, i) is preprocessed and converted into projection data. FIG. 11 shows specific processing for the preprocessing in step S2 of FIG. In step T21, offset correction is performed, logarithmic conversion is performed in step T22, X-ray dose correction is performed in step T23, and sensitivity correction is performed in step T24. In the case of scout imaging, if preprocessed X-ray detector data is displayed in accordance with the pixel size in the channel direction and the pixel size in the z direction, which is the linear movement direction of the cradle 12, in accordance with the display pixel size of the monitor 6. Completed as a scout statue.

図10に戻り、ステップS3において、前処理された投影データD1 (view,j,i)に対して、ビームハードニング補正を行う。ステップS3のビームハードニング補正は、前処理S2のステップT24の感度補正が行われた投影データをD1(view,j,i)とし、ステップS3のビームハードニング補正の後のデータをD11(view,j,i)とすると、ビームハードニング補正は以下の(数式1)のように、例えば多項式形式で表わされる。なお、本明細書において乗算演算は、「●」で表してある。
…(数式1)
この時、検出器のj列ごとに独立したビームハードニング補正を行えるため、撮影条件で各データ収集系の管電圧が異なっていれば、列ごとの検出器のX線エネルギー特性の違いを補正できる。
Returning to FIG. 10, in step S3, beam hardening correction is performed on the preprocessed projection data D1 (view, j, i). In the beam hardening correction in step S3, the projection data subjected to the sensitivity correction in step T24 of the preprocessing S2 is D1 (view, j, i), and the data after the beam hardening correction in step S3 is D11 (view , J, i), the beam hardening correction is expressed, for example, in a polynomial form as shown in the following (Equation 1). In this specification, the multiplication operation is represented by “●”.
... (Formula 1)
At this time, independent beam hardening correction can be performed for each j column of the detector, so if the tube voltage of each data acquisition system differs depending on the imaging conditions, the difference in the X-ray energy characteristics of the detector for each column is corrected. it can.

ステップS4では、ビームハードニング補正された投影データD11(view,j,i)に対して、z方向(列方向)のフィルタをかけるzフィルタ重畳処理を行う。すなわち、各ビュー角度、各データ収集系における前処理後、ビームハードニング補正された多列X線検出器D11(view,j,i) (i=1〜CH, j=1〜ROW)の投影データに対し、列方向に例えば下記の(数式2),(数式3)に示すような、列方向フィルタサイズが5列のフィルタをかける。
(w1(i),w2(i),w3(i),w4(i),w5(i)) …(数式2)
In step S4, a z-filter convolution process for applying a filter in the z direction (column direction) is performed on the projection data D11 (view, j, i) subjected to beam hardening correction. That is, the projection of the multi-row X-ray detector D11 (view, j, i) (i = 1 to CH, j = 1 to ROW) subjected to beam hardening correction after preprocessing in each view angle and each data acquisition system. For example, a filter having a column direction filter size of 5 columns as shown in the following (Equation 2) and (Equation 3) is applied to the data in the column direction.
(W1 (i), w2 (i), w3 (i), w4 (i), w5 (i)) (Formula 2)

ただし、
…(数式3)
補正された検出器データD12(view,j,i)は以下の(数式4)のようになる。
…(数式4)
となる。なお、チャネルの最大値はCH,
列の最大値はROWとすると、
以下の(数式5),(数式6)のようになる。
…(数式5)
…(数式6)
However,
... (Formula 3)
The corrected detector data D12 (view, j, i) is expressed by the following (Formula 4).
... (Formula 4)
It becomes. The maximum channel value is CH,
If the maximum value of the column is ROW,
The following (Formula 5) and (Formula 6) are obtained.
... (Formula 5)
... (Formula 6)

また、列方向フィルタ係数をチャネルごとに変化させると画像再構成中心からの距離に応じてスライス厚を制御できる。一般的に断層像では再構成中心に比べ周辺部の方がスライス厚が厚くなる。このため、フィルタ係数を中心部と周辺部で変化させてスライス厚は周辺部でも画像再構成中心部でも一様にすることもできる。例えば、方向フィルタ係数を中心部チャンネル近辺では列方向フィルタ係数の幅を広く変化させ、周辺部チャンネル近辺では列方向フィルタ係数の幅を狭く変化させると、スライス厚は周辺部でも画像再構成中心部でも一様にすることもできる。   Further, when the column direction filter coefficient is changed for each channel, the slice thickness can be controlled according to the distance from the image reconstruction center. In general, in the tomogram, the slice thickness is thicker in the peripheral part than in the reconstruction center. For this reason, the filter coefficient can be changed between the central part and the peripheral part, and the slice thickness can be made uniform in both the peripheral part and the image reconstruction central part. For example, if the width of the column direction filter coefficient is changed widely in the vicinity of the central channel and the width of the column direction filter coefficient is changed narrow in the vicinity of the peripheral channel, the slice thickness may be changed in the central portion of the image reconstruction even in the peripheral portion. But it can be uniform.

このように、多列X線検出器24の中心部チャネルと周辺部チャネルの列方向フィルタ係数を制御してやることにより、スライス厚も中心部と周辺部で制御できる。列方向フィルタでスライス厚を弱干厚くすると、アーチファクト、ノイズともに大幅に改善される。これによりアーチファクト改善具合、ノイズ改善具合も制御できる。つまり、三次元画像再構成された断層像つまり、xy平面内の画質が制御できる。また、その他の実施形態として列方向(z方向)フィルタ係数を逆重畳(デコンボリューション)フィルタにすることにより、薄いスライス厚の断層像を実現することもできる。   In this way, by controlling the column direction filter coefficients of the central channel and the peripheral channel of the multi-row X-ray detector 24, the slice thickness can also be controlled in the central portion and the peripheral portion. When the slice thickness is slightly reduced with the row direction filter, both artifacts and noise are greatly improved. Thereby, artifact improvement and noise improvement can also be controlled. That is, it is possible to control the tomographic image reconstructed, that is, the image quality in the xy plane. As another embodiment, a thin slice thickness tomographic image can be realized by using a column direction (z direction) filter coefficient as a deconvolution filter.

ステップS5では、再構成関数重畳処理を行う。すなわち、投影データを周波数領域に変換する高速フーリエ変換(FFT:Fast Fourier Transform)をして、再構成関数を掛け、逆フーリエ変換する。再構成関数重畳処理S5では、zフィルタ重畳処理後の投影データをD12とし、再構成関数重畳処理後の投影データをD13、重畳する再構成関数をKernel(j)とすると、再構成関数重畳処理は以下の(数式7)のように表わされる。なお、本明細書において重畳(コンボリューション)演算は、「*」で表してある。
…(数式7)
つまり、再構成関数Kernel(j)は検出器のj列ごとに独立した再構成関数重畳処理を行えるため、列ごとのノイズ特性、分解能特性の違いを補正できる。
In step S5, reconstruction function superimposition processing is performed. That is, a fast Fourier transform (FFT) that transforms projection data into the frequency domain is performed, a reconstruction function is applied, and an inverse Fourier transform is performed. In the reconstruction function superimposing process S5, assuming that the projection data after the z filter convolution process is D12, the projection data after the reconstruction function convolution process is D13, and the reconstruction function to be superimposed is Kernel (j), the reconstruction function convolution process Is expressed as (Equation 7) below. In the present specification, the convolution operation is represented by “*”.
... (Formula 7)
That is, the reconstruction function Kernel (j) can perform an independent reconstruction function convolution process for each j column of the detector, so that differences in noise characteristics and resolution characteristics for each column can be corrected.

ステップS6では、再構成関数重畳処理した投影データD13(view,j,i)に対して、三次元逆投影処理を行い、逆投影データD3(x,y,z)を求める。画像再構成される画像はz軸に垂直な面、xy平面に三次元画像再構成される。以下の再構成領域Pはxy平面に平行なものとする。この三次元逆投影処理については、図12を参照して後述する。   In step S6, three-dimensional backprojection processing is performed on the projection data D13 (view, j, i) subjected to reconstruction function superimposition processing to obtain backprojection data D3 (x, y, z). The image to be reconstructed is a three-dimensional image reconstructed on a plane perpendicular to the z axis and on the xy plane. The following reconstruction area P is assumed to be parallel to the xy plane. This three-dimensional backprojection process will be described later with reference to FIG.

ステップS7では、逆投影データD3(x,y,z)に対して画像フィルタ重畳、CT値変換などの後処理を行い、断層像D31(x,y,z)を得る。後処理の画像フィルタ重畳処理では、三次元逆投影後の断層像をD31(x,y,z)とし、画像フィルタ重畳後のデータをD32(x,y,z)、断層像平面であるxy平面において重畳される二次元の画像フィルタをFilter(z)とすると、以下の(数式8)のようになる。
…(数式8)
つまり、各z座標位置の断層像ごとに独立した画像フィルタ重畳処理を行えるため、列ごとのノイズ特性、分解能特性の違いを補正できる。
In step S7, post-processing such as image filter superimposition and CT value conversion is performed on the backprojection data D3 (x, y, z) to obtain a tomographic image D31 (x, y, z). In post-processing image filter superimposition processing, a tomographic image after three-dimensional backprojection is set to D31 (x, y, z), data after image filter superimposition is D32 (x, y, z), and xy that is a tomographic image plane. If the two-dimensional image filter superimposed on the plane is Filter (z), the following (Formula 8) is obtained.
... (Formula 8)
That is, since independent image filter superimposition processing can be performed for each tomographic image at each z coordinate position, differences in noise characteristics and resolution characteristics for each column can be corrected.

また、この二次元の画像フィルタ重畳処理の後に、下記に示す画像空間z方向フィルタ重畳処理を行ってもよい。また、この画像空間z方向フィルタ重畳処理は二次元画像フィルタ重畳処理の前に行ってもよい。さらには、三次元の画像フィルタ重畳処理を行って、この二次元の画像フィルタ重畳処理と、画像空間z方向フィルタ重畳処理の両方を兼ねるような効果を出してもよい。   Further, after the two-dimensional image filter convolution process, an image space z-direction filter convolution process described below may be performed. The image space z-direction filter convolution process may be performed before the two-dimensional image filter convolution process. Furthermore, a three-dimensional image filter convolution process may be performed to produce an effect that serves as both the two-dimensional image filter convolution process and the image space z-direction filter convolution process.

画像空間z方向フィルタ重畳処理では、画像空間z方向フィルタ重畳処理された断層像をD33(x,y,z)、二次元の画像フィルタ重畳処理された断層像をD32(x,y,z)とすると、以下の(数式9)のようになる。ただし、v(i)はz方向の幅が21+1の画像空間z方向フィルタ係数で以下の(数式10)のような係数列となる。
…(数式9)
…(数式10)
In the image space z-direction filter convolution process, the tomographic image subjected to the image space z-direction filter convolution process is D33 (x, y, z), and the tomographic image subjected to the two-dimensional image filter convolution process is D32 (x, y, z). Then, the following (Formula 9) is obtained. However, v (i) is an image space z-direction filter coefficient whose width in the z direction is 21 + 1, and is a coefficient sequence as shown in the following (Equation 10).
... (Formula 9)
... (Formula 10)

なお、ヘリカルスキャンにおいては、画像空間フィルタ係数v(i)はz方向位置に依存しない画像空間z方向フィルタ係数であってよい。しかし、特にz方向に検出器幅の広い多列X線検出器24又は二次元X線エリア検出器などを用い、コンベンショナルスキャン(アキシャルスキャン)またはシネスキャンをする場合は、画像空間z方向フィルタ係数v(i)はz方向のX線検出器の列の位置に依存した画像空間z方向フィルタ係数を用いるのが好ましい。なぜなら、各断層像の列位置に依存した詳細な調整ができるので効果的であるからである。   In the helical scan, the image space filter coefficient v (i) may be an image space z-direction filter coefficient that does not depend on the z-direction position. However, when using a multi-row X-ray detector 24 or a two-dimensional X-ray area detector having a wide detector width in the z direction and performing a conventional scan (axial scan) or a cine scan, the image space z-direction filter coefficient It is preferable to use an image space z-direction filter coefficient depending on the position of the X-ray detector column in the z-direction for v (i). This is because it is effective because detailed adjustment depending on the column position of each tomographic image can be performed.

(三次元逆投影処理のフローチャート)
図12は、図11のステップS6の詳細を示したもので、三次元逆投影処理のフローチャートである。本実施形態では、画像再構成される画像はz軸に垂直な面、xy平面に三次元画像再構成される。以下の再構成領域Pはxy平面に平行なものとする。
(Three-dimensional backprojection processing flowchart)
FIG. 12 shows details of step S6 in FIG. 11, and is a flowchart of the three-dimensional backprojection process. In the present embodiment, the image to be reconstructed is reconstructed into a three-dimensional image on a plane perpendicular to the z axis and an xy plane. The following reconstruction area P is assumed to be parallel to the xy plane.

ステップS61では、断層像の画像再構成に必要な全ビュー(すなわち、360度分のビュー又は180度分+ファン角度分のビュー)中の一つのビューに着目し、再構成領域Pの各画素に対応する投影データDrを抽出する。   In step S61, each pixel in the reconstruction area P is focused on one view among all the views necessary for image reconstruction of the tomographic image (ie, a view for 360 degrees or a view for 180 degrees and a fan angle). Projection data Dr corresponding to is extracted.

ここで、図13から図15を使って、投影データDrについて説明する。図13は再構成領域上のラインをX線透過方向へ投影する状態を示す概念図であり、そのAはxy平面、Bはyz平面を示している。図14はX線検出器面に投影したラインを示す概念図である。図13に示すように、xy平面に平行な512×512画素の正方形の領域を再構成領域Pとし、y=0のx軸に平行な画素列L0,y=63の画素列L63,y=127の画素列L127,y=191の画素列L191,y=255の画素列L255,y=319の画素列L319,y=383の画素列L383,y=447の画素列L447,y=511の画素列L511を列にとる。そして、これらの画素列L0〜L511をX線透過方向に多列X線検出器24の面に投影した図14に示す如きラインT0〜T511上の投影データを抽出すれば、それらが画素列L0〜L511の投影データDr(view,x,y)となる。ただし、x,yは断層像の各画素(x,y)に対応する。   Here, the projection data Dr will be described with reference to FIGS. FIG. 13 is a conceptual diagram showing a state in which lines on the reconstruction area are projected in the X-ray transmission direction, where A indicates the xy plane and B indicates the yz plane. FIG. 14 is a conceptual diagram showing lines projected on the X-ray detector surface. As shown in FIG. 13, a 512 × 512 pixel square region parallel to the xy plane is used as a reconstruction region P, and pixel rows L0, y = 63, which are parallel to the x axis at y = 0, y = 63. 127 pixel row L127, y = 191 pixel row L191, y = 255 pixel row L255, y = 319 pixel row L319, y = 383 pixel row L383, y = 447 pixel row L447, y = 511 The pixel column L511 is taken as a column. Then, if projection data on lines T0 to T511 as shown in FIG. 14 obtained by projecting these pixel rows L0 to L511 onto the surface of the multi-row X-ray detector 24 in the X-ray transmission direction is extracted, they are extracted into the pixel row L0. To projection data Dr (view, x, y) of L511. However, x and y correspond to each pixel (x, y) of the tomographic image.

X線透過方向は、X線管21のX線焦点と各画素と多列X線検出器24との幾何学的位置によって決まるが、X線検出器データD0(view,j,i)のz座標z(view)がテーブル直線移動z方向位置Ztable(view)としてX線検出器データに添付されて判っているため、加速・減速中のX線検出器データD0(view,j,i)でもX線焦点、多列X線検出器のデータ収集幾何学系の中において、X線透過方向を正確に求めることができる。   The X-ray transmission direction is determined by the X-ray focal point of the X-ray tube 21 and the geometric position of each pixel and the multi-row X-ray detector 24, but z of the X-ray detector data D0 (view, j, i). Since the coordinate z (view) is attached to the X-ray detector data as the table linear movement z-direction position Ztable (view), the X-ray detector data D0 (view, j, i) during acceleration / deceleration is also known. In the data acquisition geometric system of the X-ray focus and multi-row X-ray detector, the X-ray transmission direction can be accurately obtained.

なお、例えば画素列L0をX線透過方向に多列X線検出器24の面に投影したラインT0のように、ラインの一部が多列X線検出器24のチャネル方向の外に出た場合は、対応する投影データDr(view,x,y)を「0」にする。また、z方向の外に出た場合は投影データDr(view,x,y)を補外して求める。   For example, a part of the line goes out of the channel direction of the multi-row X-ray detector 24, such as a line T0 in which the pixel row L0 is projected on the surface of the multi-row X-ray detector 24 in the X-ray transmission direction. In this case, the corresponding projection data Dr (view, x, y) is set to “0”. Further, if the projection is out of the z direction, the projection data Dr (view, x, y) is extrapolated.

このようにして、図15に示す再構成領域Pの各画素に対応する投影データDr(view,x,y)を抽出できる。   In this way, projection data Dr (view, x, y) corresponding to each pixel in the reconstruction area P shown in FIG. 15 can be extracted.

図12に戻り、ステップS62では、投影データDr(view,x,y)にコーンビーム再構成加重係数を乗算し、図16に示す如き投影データD2(view,x,y)を作成する。ここで、コーンビーム再構成加重係数w(i,j)は以下の通りである。ファンビーム画像再構成の場合は、一般に、view=βaでX線管21の焦点と再構成領域P上(xy平面上)の画素g(x,y)とを結ぶ直線がX線ビームの中心軸Bcに対してなす角度をγとし、その対向ビューをview=βbとするとき、以下の(数式11)のようになる。
βb=βa+180°−2γ…(数式11)
Returning to FIG. 12, in step S62, the projection data Dr (view, x, y) is multiplied by the cone beam reconstruction weighting coefficient to create projection data D2 (view, x, y) as shown in FIG. Here, the cone beam reconstruction weighting coefficient w (i, j) is as follows. In the case of fan beam image reconstruction, generally, when view = βa, a straight line connecting the focal point of the X-ray tube 21 and the pixel g (x, y) on the reconstruction area P (on the xy plane) is the center of the X-ray beam. When the angle formed with respect to the axis Bc is γ and the opposite view is view = βb, the following (Formula 11) is obtained.
βb = βa + 180 ° −2γ (Expression 11)

再構成領域P上の画素g(x,y)を通るX線ビームとその対向X線ビームが再構成平面Pとなす角度を、αa,αbとすると、これらに依存したコーンビーム再構成加重係数ωa,ωbを掛けて加算し、逆投影画素データD2(0,x,y)を求める。この場合、(数式12)のようになる。
D2(0,x,y)=ωa・D2(0,x,y)_ a+ωb・D2(0,x,y)_ b …(数式12)
ただし、D2(0,x,y)_aはビューβaの逆投影データ、D2(0,x,y)_bはビューβbの逆投影データとする。
なお、コーンビーム再構成加重係数の対向ビーム同士の和は、(数式13)のようになる。
ωa+ωb=1 …(数式13)
コーンビーム再構成加重係数ωa,ωbを掛けて加算することにより、コーン角アーチファクトを低減することができる。
If the angles formed by the X-ray beam passing through the pixel g (x, y) on the reconstruction area P and the opposite X-ray beam to the reconstruction plane P are αa and αb, the cone beam reconstruction weighting coefficient depending on these angles ωa and ωb are multiplied and added to obtain backprojected pixel data D2 (0, x, y). In this case, (Formula 12) is obtained.
D2 (0, x, y) = ωa · D2 (0, x, y) _a + ωb · D2 (0, x, y) _b (Equation 12)
However, D2 (0, x, y) _a is back projection data of the view βa, and D2 (0, x, y) _b is back projection data of the view βb.
Note that the sum of the cone beam reconstruction weighting coefficients between the opposed beams is expressed by (Equation 13).
ωa + ωb = 1 (Formula 13)
Cone angle artifacts can be reduced by multiplying and adding cone beam reconstruction weighting coefficients ωa and ωb.

例えば、コーンビーム再構成加重係数ωa,ωbは、次式により求めたものを用いることができる。なお、gaはビューβaの加重係数、gbはビューβbの加重係数である。ファンビーム角の1/2をγmaxとするとき、以下の(数式14)から(数式19)のようになる。
(例えば、q=1とする)
例えば、ga,gbの一例として、max[ ]を値の大きい方を採る関数とすると、以下の(数式20),(数式21)のようになる。
For example, the cone beam reconstruction weighting coefficients ωa and ωb can be obtained by the following equations. Note that ga is a weighting coefficient for the view βa, and gb is a weighting coefficient for the view βb. When ½ of the fan beam angle is γmax, the following (Expression 14) to (Expression 19) are obtained.
(For example, q = 1)
For example, as an example of ga and gb, when max [] is a function that takes the larger value, the following (Equation 20) and (Equation 21) are obtained.

また、ファンビーム画像再構成の場合は、更に距離係数を再構成領域P上の各画素に乗算する。距離係数はX線管21の焦点から投影データDrに対応する多列X線検出器24の検出器列j,チャネルiまでの距離をr0とし、X線管21の焦点から投影データDrに対応する再構成領域P上の画素までの距離をr1とするとき、(r1/r0)2である。また、平行ビーム画像再構成の場合は、再構成領域P上の各画素にコーンビーム再構成加重係数w(i,j)のみを乗算すればよい。   In the case of fan beam image reconstruction, each pixel on the reconstruction area P is further multiplied by a distance coefficient. The distance coefficient corresponds to the distance from the focus of the X-ray tube 21 to the detector row j and the channel i of the multi-row X-ray detector 24 corresponding to the projection data Dr, r0, and corresponds to the projection data Dr from the focus of the X-ray tube 21. (R1 / r0) 2 where r1 is the distance to the pixel on the reconstruction area P. In the case of parallel beam image reconstruction, each pixel on the reconstruction area P may be multiplied by only the cone beam reconstruction weight coefficient w (i, j).

ステップS63では、予めクリアしておいた逆投影データD3(x,y)に、投影データD2(view,x,y)を画素対応に加算する。図17が投影データD2(view,x,y)を画素対応に加算していくイメージである。ステップS64では、断層像の画像再構成に必要な全ビュー(すなわち、360度分のビュー又は「180度分+ファン角度分」のビュー)について、ステップS61〜S63を繰り返し、画像再構成に必要な全ビューを加算すると、図17の左端の逆投影データD3(x,y)を得ることができる。   In step S63, the projection data D2 (view, x, y) is added in correspondence with the pixels to the backprojection data D3 (x, y) that has been cleared in advance. FIG. 17 shows an image in which projection data D2 (view, x, y) is added in correspondence with pixels. In step S64, steps S61 to S63 are repeated for all views necessary for image reconstruction of tomographic images (that is, views for 360 degrees or “180 degrees + fan angle”), and are necessary for image reconstruction. When all the views are added, back projection data D3 (x, y) at the left end in FIG. 17 can be obtained.

以上、図12の三次元逆投影処理のフローチャートは、図13に示す再構成領域Pを正方形512×512画素として説明したものである。しかしこれに限られるものではない。図18は円形の再構成領域上のラインをX線透過方向へ投影する状態を示す概念図であり、そのAはxy平面、Bはyz平面である。この図18に示すように、再構成領域Pを512×512画素の正方形の領域とせずに、直径512画素の円形の領域としてもよい。   As described above, the flowchart of the three-dimensional backprojection process in FIG. 12 describes the reconstruction area P shown in FIG. 13 as a square 512 × 512 pixels. However, it is not limited to this. FIG. 18 is a conceptual diagram showing a state in which a line on a circular reconstruction area is projected in the X-ray transmission direction, where A is the xy plane and B is the yz plane. As shown in FIG. 18, the reconstruction area P may not be a square area of 512 × 512 pixels, but a circular area having a diameter of 512 pixels.

<連続領域のラベリングおよび部位ごとの画質の最適化>
図19は、連続領域のラベリングおよび部位ごとの画質の最適化に関する本実施形態のフローチャートである。図19に示す実施形態においては、まず、各画素または各画素の近傍領域の画像特徴量によりラベリングされた各連続領域を連続領域ごとの画像特徴量で各部位として認識させる。その後に、部位として最適な画質になるように部位ごとに最適化された再構成関数または画像空間の画像フィルタにより部位ごとに画質を最適化した例である。
<Continuous area labeling and image quality optimization for each part>
FIG. 19 is a flowchart of this embodiment regarding the labeling of continuous regions and the optimization of image quality for each part. In the embodiment shown in FIG. 19, first, each continuous region labeled by the image feature amount of each pixel or a neighboring region of each pixel is recognized as each part by the image feature amount for each continuous region. Thereafter, the image quality is optimized for each region by a reconstruction function optimized for each region or an image filter in the image space so as to obtain an optimal image quality as the region.

図10のステップS7までにおいて、1枚の二次元画像の断層像またはz方向に連続する断層像からなる三次元画像を、またはヘリカルシャトルスキャンによる時系列に連続してz方向に連続した断層像からなる四次元画像を得る。以下、三次元画像を前提に説明するが、二次元画像または四次元画像も同様な方法で適用できる。   Up to step S7 in FIG. 10, a tomographic image of one two-dimensional image or a three-dimensional image composed of tomographic images continuous in the z direction, or a tomographic image continuous in the z direction in time series by a helical shuttle scan. A four-dimensional image is obtained. The following description is based on the assumption of a three-dimensional image, but a two-dimensional image or a four-dimensional image can also be applied in the same manner.

ステップS12では、図10のステップS7までにおいて、すべての撮影領域からの画像を得る前から、三次元ラベリング処理を行う。図10のステップS7で得た三次元画像から三次元ラベリング処理により、三次元連続領域を抽出する。ラベリング処理を行う際には、CT値からなる断層像または三次元画像である濃淡画像を以下のいずれかの方法によりラベリング処理を行う。ラベリング処理および画像特徴量の抽出・測定については後述する。   In step S12, the three-dimensional labeling process is performed before obtaining the images from all the imaging regions up to step S7 in FIG. A three-dimensional continuous region is extracted from the three-dimensional image obtained in step S7 of FIG. 10 by a three-dimensional labeling process. When performing the labeling process, the tomographic image composed of CT values or the grayscale image which is a three-dimensional image is subjected to the labeling process by any of the following methods. The labeling process and image feature amount extraction / measurement will be described later.

ステップS14では、三次元ラベリング処理と同時に画像特徴量の測定を行う。そして、ステップS16では、三次元再ラベリング処理を行う。三次元再ラベリング処理を行う理由は、すべての撮影領域からの画像を得る前から三次元ラベリング処理を行っているからである。ステップS18では、三次元連続領域は結合していないかを確認する。三次元連続領域は結合していなければ、ステップS22で、一つの部位としての認識を行う。三次元連続領域は結合していれば、ステップS20で、画像特徴量を編集、すなわち、画像特徴量の合体させている。こうしてステップS22で、一つの部位としての認識を行う。   In step S14, the image feature quantity is measured simultaneously with the three-dimensional labeling process. In step S16, a three-dimensional relabeling process is performed. The reason why the three-dimensional relabeling process is performed is that the three-dimensional labeling process is performed before images from all imaging regions are obtained. In step S18, it is confirmed whether or not the three-dimensional continuous regions are combined. If the three-dimensional continuous area is not connected, recognition as one part is performed in step S22. If the three-dimensional continuous regions are combined, in step S20, the image feature amount is edited, that is, the image feature amount is merged. Thus, in step S22, recognition as one part is performed.

すなわち、ステップS12の三次元ラベリング処理およびステップS16の三次元再ラベリング処理においては、「1度三次元ラベリング処理した三次元連続領域のうちで三次元ラベリング処理を進めて行く上で、新たな三次元領域の接続が検出された場合に再ラベリング処理において、その新たな三次元領域の接続に基づく修正を行う。」という処理を行っている。   That is, in the three-dimensional labeling process in step S12 and the three-dimensional relabeling process in step S16, “a three-dimensional labeling process is performed in the three-dimensional continuous region subjected to the one-dimensional three-dimensional labeling process. When the connection of the original area is detected, the re-labeling process performs a correction based on the connection of the new three-dimensional area. "

ステップS22で、三次元連続領域が一つの部位としての認識されたため、ステップS24では、その部位に適した再構成関数による画像最適化を行う。また、ステップS26では、その部位に適した画像フィルタによる画像最適化を行う。続いて、ステップS28で後処理を行う。   In step S22, since the three-dimensional continuous region is recognized as one part, in step S24, image optimization is performed using a reconstruction function suitable for the part. In step S26, image optimization using an image filter suitable for the part is performed. Subsequently, post-processing is performed in step S28.

<ラベリング処理および画像特徴量の測定>
図19のステップS12およびステップS14のラベリング処理および画像特徴量の測定には、次のような方法がある。
<Measurement of labeling processing and image features>
There are the following methods for the labeling process and the measurement of the image feature amount in step S12 and step S14 in FIG.

<ラベリング処理1>
図20は、ラベリング処理1を示したもので、濃淡画像を2値化して2値画像を作りラベリング処理を行うフローチャートである。このラベリング処理1においては、ステップL1においてz方向に連続する断層像からなる三次元画像を濃淡画像として入力を行い、中央処理装置3のメモリバッファ(以下バッファと呼ぶ)に蓄えておく。
<Labeling process 1>
FIG. 20 shows the labeling process 1 and is a flowchart for performing the labeling process by binarizing the grayscale image to create a binary image. In this labeling process 1, in step L1, a three-dimensional image composed of tomographic images continuous in the z direction is input as a grayscale image and stored in a memory buffer (hereinafter referred to as a buffer) of the central processing unit 3.

ステップL2において、このバッファに蓄えられた濃淡三次元画像の各画素G(x,y,z)に対し、下記の(数式22)または(数式23)または(数式24)に示された条件のうちのいずれかを満たす2値化処理を行いバッファに出力する。ステップL3において、バッファに出力された2値三次元画像の各画素B(x,y,z)をバッファに蓄えておく。なお、Th1,Th2は閾値、G(x,y,z)は濃淡三次元画像のある1画素とし、B(x,y,z)は2値三次元画像のある1画素とする。
ステップL4においては、このバッファに蓄えられた2値三次元画像に対して三次元ラベリング処理を行う。
In step L2, for each pixel G (x, y, z) of the grayscale three-dimensional image stored in this buffer, the conditions shown in the following (Equation 22), (Equation 23) or (Equation 24) are satisfied. A binarization process that satisfies any one of them is performed and output to a buffer. In step L3, each pixel B (x, y, z) of the binary three-dimensional image output to the buffer is stored in the buffer. Note that Th1 and Th2 are threshold values, G (x, y, z) is one pixel with a grayscale three-dimensional image, and B (x, y, z) is one pixel with a binary three-dimensional image.
In step L4, a three-dimensional labeling process is performed on the binary three-dimensional image stored in this buffer.

<ラベリング処理2>
図21は、ラベリング処理2を示したもので、濃淡画像の連続値の画素における画素値に対し閾値で比較し、ラベリング処理を行うフローチャートである。ラベリング処理2においては、ラベリング処理1と同様にステップL11において、z方向に連続する断層像からなる三次元画像を濃淡画像として入力を行う。
<Labeling process 2>
FIG. 21 shows the labeling process 2, and is a flowchart for performing the labeling process by comparing the pixel values of the continuous pixels of the grayscale image with threshold values. In the labeling process 2, as in the labeling process 1, a three-dimensional image composed of tomographic images continuous in the z direction is input as a grayscale image in step L11.

ステップL12では、入力された濃淡三次元画像の各画素G(x,y,z)に対し、(数式25),(数式26),(数式27)に示された条件のうちのいずれかを満たす閾値処理を行い、ラベリング処理に“1”または“0”を入力する。なお、Th1,Th2は閾値、G(x,y,z)は濃淡三次元画像のある1画素とし、B(x,y,z)は2値三次元画像のある1画素とする。
ステップL13においては、閾値処理から入力された値に基づき三次元ラベリング処理を行う。
In step L12, for each pixel G (x, y, z) of the input grayscale three-dimensional image, any one of the conditions shown in (Equation 25), (Equation 26), and (Equation 27) is set. The threshold processing to satisfy is performed, and “1” or “0” is input to the labeling processing. Note that Th1 and Th2 are threshold values, G (x, y, z) is one pixel with a grayscale three-dimensional image, and B (x, y, z) is one pixel with a binary three-dimensional image.
In step L13, a three-dimensional labeling process is performed based on the value input from the threshold process.

<ラベリング処理3>
図22は、ラベリング処理3を示したフローチャートである。ラベリング処理3は、濃淡画像の連続値の注目画素における画素値および、注目画素の画像特徴量の測定値、注目画素の近傍領域の画像特徴量の測定値に対し2値化処理を行い、2値画像を作成しラベリング処理を行う。
<Labing process 3>
FIG. 22 is a flowchart showing the labeling process 3. The labeling process 3 performs a binarization process on a pixel value of a continuous pixel of interest in a grayscale image, a measured value of an image feature amount of the target pixel, and a measured value of an image feature amount of a region near the target pixel. Create a value image and perform a labeling process.

ラベリング処理3においては、ラベリング処理1と同様にステップL21において、z方向に連続な断層像からなる三次元画像を濃淡画像として入力しバッファに蓄えておく。ステップL22において、このバッファに蓄えられた濃淡三次元画像の各画素G(x,y,z)を、例えばx方向、y方向、z方向の順に注目画素として走査しながら全画素について以下の処理を行う。ステップL22の処理としては、注目画素の画像特徴量の測定値、例えば断層像におけるCT値、および注目画素の近傍領域の画像特徴量、つまり、画像特徴量または局所領域画像特徴量(以下、近傍領域の画像特徴量という。)を測定する。   In the labeling process 3, as in the labeling process 1, in step L21, a three-dimensional image composed of continuous tomographic images in the z direction is input as a grayscale image and stored in a buffer. In step L22, the following processing is performed for all pixels while scanning each pixel G (x, y, z) of the grayscale three-dimensional image stored in this buffer as a pixel of interest in the order of, for example, the x direction, the y direction, and the z direction. I do. As the processing of step L22, the measured value of the image feature amount of the target pixel, for example, the CT value in the tomographic image, and the image feature amount of the neighboring region of the target pixel, that is, the image feature amount or the local region image feature amount (hereinafter referred to as the neighborhood) This is referred to as an image feature amount of a region).

なお、三次元画像における注目画素のx方向、y方向、z方向の走査とその近傍領域の様子を図23に示す。図23においては、まずx方向に走査され、次にy方向に走査され、次にz方向に走査された注目画素とその近傍領域3×3×3画素を示す。なおここで近傍画素を3×3×3画素と定めているが、5×5×5画素でも構わない。   FIG. 23 shows the x-direction, y-direction, and z-direction scanning of the pixel of interest in the three-dimensional image and the state of the neighboring area. FIG. 23 shows a pixel of interest and its neighboring region 3 × 3 × 3 pixels that are first scanned in the x direction, then scanned in the y direction, and then scanned in the z direction. Here, the neighboring pixels are defined as 3 × 3 × 3 pixels, but may be 5 × 5 × 5 pixels.

近傍領域の画像特徴量の測定を行う際は、三次元画像G(x,y,z)に対して、例えば、以下のような近傍領域の画像特徴量を用いる。
(1) 注目画素の近傍5×5×5の標準偏差
(2) 注目画素の近傍3×3×3の平均画素値(CT値)
(3) 注目画素の近傍5×5×5の中央値
(4) 注目画素の近傍3×3×3の最大差分絶対値
注目画素をP(x,y,z)とするとき、以下の(数式28)が最大値が最大差分絶対値である。
…(数式28)
When measuring the image feature amount of the nearby region, for example, the following image feature amount of the nearby region is used for the three-dimensional image G (x, y, z).
(1) 5 × 5 × 5 standard deviation in the vicinity of the target pixel (2) 3 × 3 × 3 average pixel value (CT value) in the vicinity of the target pixel
(3) Median value of 5 × 5 × 5 in the vicinity of the target pixel (4) When the maximum difference absolute value target pixel in the vicinity 3 × 3 × 3 of the target pixel is P (x, y, z), the following ( In Equation 28), the maximum value is the maximum difference absolute value.
... (Formula 28)

ただし、a,b,c=±1とする。つまり、近傍領域3×3×3画素の範囲内にある近傍画素と注目画素との絶対値差の最大値になる。なお、近傍領域の画像特徴量は1次微分値、2次微分値などの上記以外の物を加えてもよいし、上記のものの一部を使用してもよい。
上記のような、近傍領域の画像特徴量F1(G(x,y,z)),F2(G(x,y,z)),F3(G(x,y,z)),……FN(G(x,y,z))をN種類求める。なお、近傍領域の画像特徴量の種類、近傍画素サイズの大きさ、近傍画素の次元数は本実施形態を変形しても同様の効果は得られる。特に近傍画素の次元数は三次元でなくても、二次元でも一次元でも良い。
However, a, b, c = ± 1. That is, it becomes the maximum value of the absolute value difference between the neighboring pixel within the range of the neighboring region 3 × 3 × 3 pixels and the target pixel. In addition, the thing other than the above, such as a primary differential value and a secondary differential value, may be added to the image feature amount in the vicinity region, or a part of the above may be used.
As described above, image feature values F1 (G (x, y, z)), F2 (G (x, y, z)), F3 (G (x, y, z)),... N types of (G (x, y, z)) are obtained. It should be noted that the same effect can be obtained even if the present embodiment is modified in terms of the type of image feature quantity in the neighborhood area, the size of the neighborhood pixel size, and the number of dimensions of the neighborhood pixels. In particular, the number of dimensions of neighboring pixels may not be three-dimensional, but may be two-dimensional or one-dimensional.

ステップL23では、2値化処理を行う。ステップL23において、バッファに蓄えられた濃淡三次元画像の各画素G(x,y,z)に対し、下記の(数式29)に示された条件を満たす2値化処理を行い、バッファに出力する。ステップL24において、バッファに出力された2値三次元画像の各画素B(x,y,z)をバッファに蓄えておく。   In step L23, binarization processing is performed. In step L23, the binarization process that satisfies the condition shown in the following (Equation 29) is performed on each pixel G (x, y, z) of the grayscale three-dimensional image stored in the buffer, and the result is output to the buffer. To do. In step L24, each pixel B (x, y, z) of the binary three-dimensional image output to the buffer is stored in the buffer.

また、注目画素の画像特徴量の満たすべき画像特徴量の空間領域(マハラノビス空間領域)をPR1、注目画素の画像特徴量の空間位置をR1(G(x,y,z))とする。また、注目画素の近傍領域の画像特徴量の満たすべき画像特徴量の空間領域(マハラノビス空間領域)をPR2、注目画素の近傍領域の画像特徴量の空間位置をR2(G(x,y,z))とする。   In addition, a spatial region (Mahalanobis space region) of an image feature amount that should satisfy the image feature amount of the target pixel is PR1, and a spatial position of the image feature amount of the target pixel is R1 (G (x, y, z)). Also, the image feature quantity space area (Mahalanobis space area) to be satisfied by the image feature quantity in the neighborhood area of the target pixel is PR2, and the spatial position of the image feature quantity in the neighborhood area of the target pixel is R2 (G (x, y, z )).

また、Th1,Th2は閾値、G(x,y,z)は濃淡三次元画像のある1画素とし、B(x,y,z)は2値三次元画像のある1画素とする。
…(数式29)
ステップL25においては、このバッファに蓄えられた2値三次元画像に対して三次元ラベリング処理を行う。
In addition, Th1 and Th2 are threshold values, G (x, y, z) is one pixel with a grayscale three-dimensional image, and B (x, y, z) is one pixel with a binary three-dimensional image.
... (Formula 29)
In step L25, a three-dimensional labeling process is performed on the binary three-dimensional image stored in this buffer.

<ラベリング処理4>
図24は、ラベリング処理4を示したフローチャートである。ラベリング処理4の濃淡画像の連続値の注目画素における画素値および、注目画素の画像特徴量の測定値、注目画素の近傍領域の画像特徴量の測定値に対し閾値処理を行い、ラベリング処理を行う。
<Labeling process 4>
FIG. 24 is a flowchart showing the labeling process 4. Threshold processing is performed on the pixel value of the target pixel of the continuous value of the grayscale image in the labeling process 4, the measured value of the image feature amount of the target pixel, and the measured value of the image feature amount in the vicinity region of the target pixel to perform the labeling process. .

ステップL31では、濃淡画像入力を行う。ラベリング処理2と同様に、z方向に連続な断層像からなる三次元濃淡画像として入力を行う。   In step L31, a grayscale image is input. As in the labeling process 2, input is performed as a three-dimensional gray image composed of continuous tomographic images in the z direction.

ステップL32では、注目画素の画像特徴量の測定、注目画素の近傍領域の画像特徴量の測定を行う。例えばx方向、y方向、z方向の順に注目画素として走査しながら入力された濃淡三次元画像の各画素に対して処理を行う。この際に、ラベリング処理3のステップL22と同様に注目画素の画像特徴値、および注目画素の近傍領域の画像特徴量も測定する。   In step L32, the image feature amount of the pixel of interest is measured, and the image feature amount of a region near the pixel of interest is measured. For example, processing is performed on each pixel of the grayscale three-dimensional image input while scanning as a target pixel in the order of x direction, y direction, and z direction. At this time, as in step L22 of the labeling process 3, the image feature value of the target pixel and the image feature amount in the vicinity region of the target pixel are also measured.

ステップL33では、閾値処理を行う。以下の(数式30)に示された条件を満たす画素について閾値処理を行う。なお、注目画素の画像特徴量の満たすべき画像特徴量の空間領域(マハラノビス空間領域)をPR1、注目画素の画像特徴量の空間位置をR1(G(x,y,z))とする。また、注目画素の近傍領域の画像特徴量の満たすべき画像特徴量の空間領域(マハラノビス空間領域)をPR2、注目画素の近傍領域の画像特徴量の空間位置をR2(G(x,y,z))とする。また、Th1,Th2は閾値、G(x,y,z)は濃淡三次元画像のある1画素とする。
…(数式30)
ステップL34においては、閾値処理から入力された値に基づき三次元ラベリング処理を行う。
In step L33, threshold processing is performed. Threshold processing is performed for pixels that satisfy the conditions shown in (Equation 30) below. It is assumed that the image feature amount space region (Mahalanobis space region) to be satisfied by the image feature amount of the target pixel is PR1, and the spatial position of the image feature amount of the target pixel is R1 (G (x, y, z)). Also, the image feature quantity space area (Mahalanobis space area) to be satisfied by the image feature quantity in the neighborhood area of the target pixel is PR2, and the spatial position of the image feature quantity in the neighborhood area of the target pixel is R2 (G (x, y, z )). Further, Th1 and Th2 are threshold values, and G (x, y, z) is one pixel having a grayscale three-dimensional image.
... (Formula 30)
In step L34, a three-dimensional labeling process is performed based on the value input from the threshold process.

上記のように、ラベリング処理1のステップL4、ラベリング処理2のステップL13、ラベリング処理3のステップL25、およびラベリング処理4のステップL34において、三次元ラベリング処理が行われた。図23に示すように、三次元ラベリング処理においては、2値画像から入力された各画素または閾値処理から入力された各画素をバッファに蓄えながら処理を行う。三次元ラベリング処理においては、図23に示すような注目画素を含む近傍マスク領域をx方向、次にy方向、次にz方向の順に走査して行く。   As described above, the three-dimensional labeling process is performed in step L4 of the labeling process 1, step L13 of the labeling process 2, step L25 of the labeling process 3, and step L34 of the labeling process 4. As shown in FIG. 23, in the three-dimensional labeling process, each pixel input from the binary image or each pixel input from the threshold value process is stored in a buffer. In the three-dimensional labeling process, the neighboring mask region including the target pixel as shown in FIG. 23 is scanned in the order of x direction, then y direction, and then z direction.

そして、接続情報テーブルに「z座標位置z1において三次元連続領域“1”と三次元連続領域“2”とが接続していること」を記憶させる。なお、三次元ラベリング処理において近傍画素との接続を見るのは、図25に示すような近傍マスクを用いる。図25においては26近傍(3×3×3−1=26)の近傍マスク領域を示す。近傍マスクのその他の例として近傍条件を変えた18近傍(5+8+5)の近傍マスク領域を図26A、6近傍(1+4+1)の近傍マスク領域を図26Bに示す。   Then, “the 3D continuous area“ 1 ”and the 3D continuous area“ 2 ”are connected at the z coordinate position z1” is stored in the connection information table ”. Note that a neighborhood mask as shown in FIG. 25 is used to see the connection with neighboring pixels in the three-dimensional labeling process. FIG. 25 shows a neighborhood mask area in the vicinity of 26 (3 × 3 × 3-1 = 26). As other examples of the neighborhood mask, 18 neighborhood (5 + 8 + 5) neighborhood mask regions with different neighborhood conditions are shown in FIG. 26A, and 6 neighborhood (1 + 4 + 1) neighborhood mask regions are shown in FIG. 26B.

注目画素の周囲に26近傍で考えた近傍画素において隣り合う1画素でz方向に座標が小さい方向の領域で、かつy方向に座標が小さい方向の領域で、かつx方向に座標が小さい方向の領域を満たす領域を三次元近傍マスク領域とする。注目画素をx方向、y方向、z方向に走査する際に、この三次元近傍マスクも供に走査させて、この三次元近傍マスク領域内に三次元連続領域が存在しているか否かで、三次元近傍マスク領域内で検出された三次元連続領域と接続していることを判断することができる。この処理をx方向、y方向、z方向に走査することで三次元画像内の三次元連続領域の番号付け処理が行える。以上の説明をフローチャートにすると次のとおりである。   A neighboring pixel considered in the vicinity of the target pixel in the vicinity of the pixel 26 is an area in which the coordinate is small in the z direction, the area in which the coordinate is small in the y direction, and the direction in which the coordinate is small in the x direction. A region satisfying the region is set as a three-dimensional neighborhood mask region. When scanning the pixel of interest in the x, y, and z directions, this 3D neighborhood mask is also scanned, and whether or not a 3D continuous region exists in this 3D neighborhood mask region, It can be determined that the three-dimensional continuous area detected in the three-dimensional neighborhood mask area is connected. By scanning this process in the x direction, y direction, and z direction, the numbering process of the three-dimensional continuous region in the three-dimensional image can be performed. The above description is made into a flowchart as follows.

図27は、ステップL4、ステップL13、ステップL25およびステップL34の三次元ラベリング処理のフローチャートである。
ステップM1では、x=1,y=1,z=1とする。
ステップM2では、注目画素G(x,y,z)の値を入力する。
ステップM3では、注目画素は“1”か否かを判断し、YESならばステップM4へ行き、NOならばステップM10へ行く。
ステップM4では、近傍マスク領域内に“0”以外の三次元領域番号があるかを判断し、YESならばステップM5へ行き、NOならばステップM8へ行く。
ステップM5では、2つ以上あるかを判断し、YESならばステップM6へ行き、NOならばステップM9へ行く。
ステップM6では、最も小さい三次元領域番号を注目画素に付ける。
ステップM7では、2つ以上ある三次元領域番号は接続していたとして三次元接続情報テーブルに書き込む。この後、ステップM10へ行く。
ステップM8では、最新の三次元領域番号を注目画素に付ける。この後、ステップM10へ行く。
ステップM9では、1つ存在する三次元領域番号を注目画素に付ける。この後、ステップM10へ行く。
ステップM10では、x=xeかを判断し、YESならばステップM11へ行き、NOならばステップM15へ行く。
ステップM11では、x=1とする。
ステップM12では、y=yeかを判断し、YESならばステップM13へ行き、NOならばステップM16へ行く。
ステップM13では、y=1とする。
ステップM14では、z=zeかを判断し、YESならば終了し、NOならばステップM17へ行く。
ステップM15では、x=x+1とする。この後、ステップM2へ行く。
ステップM16では、y=y+1とする。この後、ステップM2へ行く。
ステップM17では、z=z+1とする。この後、ステップM2へ行く。
FIG. 27 is a flowchart of the three-dimensional labeling process in step L4, step L13, step L25, and step L34.
In step M1, x = 1, y = 1, and z = 1.
In step M2, the value of the target pixel G (x, y, z) is input.
In Step M3, it is determined whether or not the target pixel is “1”. If YES, the process goes to Step M4, and if NO, the process goes to Step M10.
In step M4, it is determined whether there is a three-dimensional area number other than “0” in the neighborhood mask area. If YES, the process goes to step M5, and if NO, the process goes to step M8.
In Step M5, it is determined whether there are two or more. If YES, go to Step M6, and if NO, go to Step M9.
In step M6, the smallest three-dimensional area number is assigned to the target pixel.
In step M7, two or more three-dimensional area numbers are written in the three-dimensional connection information table as being connected. After this, go to step M10.
In step M8, the latest three-dimensional area number is assigned to the target pixel. After this, go to step M10.
In step M9, one existing three-dimensional region number is assigned to the target pixel. After this, go to step M10.
In step M10, it is determined whether x = xe. If YES, go to step M11, and if NO, go to step M15.
In step M11, x = 1.
In step M12, it is determined whether y = ye. If YES, go to step M13, and if NO, go to step M16.
In step M13, y = 1.
In step M14, it is determined whether z = ze. If YES, the process ends. If NO, the process goes to step M17.
In step M15, x = x + 1. After this, go to step M2.
In step M16, y = y + 1. After this, go to step M2.
In step M17, z = z + 1 is set. After this, go to step M2.

このようにして、注目画素が2値画像から入力された画素または閾値処理から入力された画素が“1”であった場合に、注目画素を含む近傍マスク領域に三次元連続領域番号がなければ新しい三次元連続領域番号を取り、三次元連続領域番号が1つある場合は注目画素にその三次元連続領域番号を割り当てる。また、三次元連続領域番号が複数ある場合は注目画素に最も番号の小さい三次元連続領域番号を割り当て、この複数の三次元連続領域番号は三次元空間で接続しているとして接続情報テーブルにその情報を書き込む。この接続情報テーブルの情報に基づいて、三次元再ラベリング処理を行う。   In this way, when the pixel of interest is a pixel input from the binary image or the pixel input from the threshold processing is “1”, there is no 3D continuous region number in the neighboring mask region including the pixel of interest. A new three-dimensional continuous region number is taken, and when there is one three-dimensional continuous region number, the three-dimensional continuous region number is assigned to the target pixel. In addition, when there are a plurality of three-dimensional continuous region numbers, the three-dimensional continuous region number having the smallest number is assigned to the pixel of interest, and the plurality of three-dimensional continuous region numbers are assumed to be connected in a three-dimensional space, and the connection information table indicates that Write information. Based on the information in the connection information table, a three-dimensional relabeling process is performed.

<再ラベリング処理および画像特徴量の編集>
以上のようにして、三次元ラベリング処理を行った後に三次元再ラベリング処理を行う。図19のステップS16における三次元再ラベリング処理には、いくつかのやり方が存在するが、その例を以下に示す。
<Re-labeling and image feature editing>
As described above, after the three-dimensional labeling process is performed, the three-dimensional relabeling process is performed. There are several methods for the three-dimensional relabeling process in step S16 in FIG.

図28は、ラベリング処理の再ラベリング処理へのフィードバックを示す図である。図28に示すように、三次元再ラベリング処理は、一定間隔だけ遅れて処理が進められる。三次元ラベリング処理をzの正方向に進めて行くと、三次元画像内におけるz座標位置z2における断層像G(z2)では三次元連続領域“1”は断面saz2で交わり、三次元連続領域“2”は断面sbz2で交わっている。更に三次元ラベリング処理をzの正の方向に進めて行くと、z座標z1における断層像G(z1)では三次元連続領域“1”は断面saz1で交わり、三次元連続領域“2”は断面sbz1で交わる。この断面saz1と断面sbz1は点Cにおいて接している。つまり、断層像G(z1)において、三次元連続領域“1”と三次元連続領域“2”は点Cにおいて接続されていることがわかる。   FIG. 28 is a diagram illustrating feedback of the labeling process to the re-labeling process. As shown in FIG. 28, the three-dimensional relabeling process proceeds with a delay of a certain interval. When the three-dimensional labeling process proceeds in the positive z direction, in the tomographic image G (z2) at the z-coordinate position z2 in the three-dimensional image, the three-dimensional continuous region “1” intersects at the cross section saz2, and the three-dimensional continuous region “ 2 ″ intersect at the cross section sbz2. When the three-dimensional labeling process further proceeds in the positive z direction, in the tomographic image G (z1) at the z coordinate z1, the three-dimensional continuous region “1” intersects with the cross section saz1, and the three-dimensional continuous region “2” has the cross section. Intersect with sbz1. The cross section saz1 and the cross section sbz1 are in contact at a point C. That is, it can be seen that the three-dimensional continuous region “1” and the three-dimensional continuous region “2” are connected at the point C in the tomographic image G (z1).

図28においては、距離(Z1−Z2)の分だけ遅れて三次元再ラベリング処理が行われる。逆に三次元再ラベリング処理から見ると、距離(Z1−Z2)の分だけz方向の先の三次元連続領域の接続情報しかわからない。このため、この距離を長く取れば取るほどz方向の先の接続情報がわかり、より精度の良い三次元再ラベリング処理が行えるが、その分、三次元再ラベリング処理の開始タイミングが遅れるため、処理全体の時間が長くなってしまう。このように、ラベリング処理における接続情報の正確さと、再ラベリング処理を含めたラベリング処理の全体の処理時間は両立しえずトレード・オフの関係になる。現実的には被検体のz方向の形状の変化に応じてラベリング処理と再ラベリング処理との距離は変化させるのが良い。つまり、部位ごとの予想される形状の変化で部位ごとにラベリング処理と再ラベリング処理との距離を定めるのが良い。三次元再ラベリング処理にもいくつかの方法がある。   In FIG. 28, the three-dimensional relabeling process is performed with a delay of the distance (Z1-Z2). On the other hand, when viewed from the three-dimensional relabeling process, only the connection information of the three-dimensional continuous area in the z direction is known by the distance (Z1-Z2). For this reason, the longer this distance is taken, the more the connection information in the z direction is known, and more accurate three-dimensional relabeling processing can be performed, but the start timing of the three-dimensional relabeling processing is delayed by that amount. The entire time will be longer. In this way, the accuracy of the connection information in the labeling process and the overall processing time of the labeling process including the re-labeling process cannot be compatible and have a trade-off relationship. Actually, it is preferable to change the distance between the labeling process and the relabeling process in accordance with the change in the shape of the subject in the z direction. That is, it is preferable to determine the distance between the labeling process and the relabeling process for each part based on the expected shape change for each part. There are several methods for 3D relabeling.

<再ラベリング処理方法1>
図29に示す三次元再ラベリング処理の例では、1度三次元ラベリング処理を行い三次元連続領域“1”と三次元連続領域“2”が接続していることを検出した場合、三次元再ラベリング処理において、三次元連続領域“2”の“2”と書き込まれた画素をすべて“1”に変換してしまう方法である。この方法によると三次元再ラベリング処理時には、三次元ラベリング処理と同等量の画素の走査およびその処理を行う必要がある。つまり、三次元画像の画素数がLX・LY・LZ画素であったとする。
<Re-labeling processing method 1>
In the example of the three-dimensional relabeling process shown in FIG. 29, when the three-dimensional labeling process is performed once and it is detected that the three-dimensional continuous area “1” and the three-dimensional continuous area “2” are connected, In the labeling process, all the pixels written as “2” in the three-dimensional continuous region “2” are converted to “1”. According to this method, at the time of the three-dimensional relabeling process, it is necessary to scan and process the same amount of pixels as the three-dimensional labeling process. That is, it is assumed that the number of pixels of the three-dimensional image is LX / LY / LZ.

この時に、三次元画像内のLX・LY・LZ画素を走査しながら三次元ラベリング処理を行うと、三次元再ラベリング処理でも三次元画像内のLX・LY・LZ画素分を走査しながら途中で接続が判明した三次元画像領域番号を接続された元の三次元画像領域番号に変換する。つまり、三次元ラベリング処理が1Tの時間がかかったとすると三次元再ラベリング処理でも1Tの時間がかかる。ただし、LXは三次元画像のx方向の画素数、LYは三次元画像のy方向の画素数、LZは三次元画像のz方向の画素数である。   At this time, if the 3D labeling process is performed while scanning the LX, LY, and LZ pixels in the 3D image, the LX, LY, and LZ pixels in the 3D image are scanned during the 3D relabeling process. The 3D image area number whose connection is found is converted into the original 3D image area number connected. In other words, if the 3D labeling process takes 1T, the 3D relabeling process also takes 1T. Here, LX is the number of pixels in the x direction of the three-dimensional image, LY is the number of pixels in the y direction of the three-dimensional image, and LZ is the number of pixels in the z direction of the three-dimensional image.

<再ラベリング処理方法2>
また、図30−1に示す三次元再ラベリング処理の例では、三次元連続領域“1”と三次元連続領域“2”の領域情報および三次元ラベリング処理と同時に測定された画像特徴量の入ったファイルを関連づけておいて、この2つの三次元連続領域は接続されていると認識しておく例である。
<Re-labeling processing method 2>
In the example of the three-dimensional relabeling process shown in FIG. 30-1, the region information of the three-dimensional continuous region “1” and the three-dimensional continuous region “2” and the image feature amount measured simultaneously with the three-dimensional labeling processing are entered. This is an example of recognizing that these two three-dimensional continuous areas are connected by associating files.

この方法によると三次元ラベリング処理時には、三次元画像内のLX・LY・LZ画素を走査しながら三次元ラベリング処理を行っていたが、三次元再ラベリング処理においては特に画素を走査しなくても処理を行える。この時の三次元再ラベリング処理のフローチャートを図31に示してある。   According to this method, during the 3D labeling process, the 3D labeling process is performed while scanning the LX, LY, and LZ pixels in the 3D image. However, in the 3D relabeling process, there is no need to scan the pixels. Can process. FIG. 31 shows a flowchart of the three-dimensional relabeling process at this time.

ステップR1においては、I=1と初期化する。
ステップR2においては、接続情報テーブルの1行目にある接続した各三次元連続領域番号を抽出する。図32に示す接続情報テーブルより、各行にある接続領域番号を抽出する。これにより、三次元ラベリング処理により得られた三次元連続領域の何番の領域と何番の領域が接続しているかがわかる。
In step R1, I is initialized to I = 1.
In step R2, each connected three-dimensional continuous area number in the first row of the connection information table is extracted. The connection area number in each row is extracted from the connection information table shown in FIG. As a result, it is possible to know what number region and what number region of the three-dimensional continuous region obtained by the three-dimensional labeling process are connected.

ステップR3においては、抽出された接続領域番号の領域情報テーブルを読み出す。接続していることが判明した複数の領域の領域情報テーブルを読み出す。図30−1に示すように、三次元連続領域“1”および三次元連続領域“2”の領域情報テーブルには連続領域番号、接続された領域番号、画像特徴量が含まれる。また、この他に三次元連続領域を構成する座標を示すラン座標(ランレングス符号化された始点とその線分の長さ、または始点と終点をもってラン座標という)情報を加えておいても良い。ラン座標情報の例を図33−1に示す。図33−1においては、各z座標位置の2値化された断層像上でのラン座標情報を示している。例えば、図33−2に示すように、z方向座標位置z=z1での三次元連続領域の一部である2値化された断層像において、y=y11のラン座標情報はラン座標始点(x座標始点)がxs11、ラン座標終点(x座標終点)がxe11であることを示している。   In step R3, the area information table of the extracted connection area number is read out. The area information tables of a plurality of areas that are found to be connected are read out. As illustrated in FIG. 30A, the region information table of the three-dimensional continuous region “1” and the three-dimensional continuous region “2” includes a continuous region number, a connected region number, and an image feature amount. In addition to this, information on run coordinates indicating the coordinates constituting the three-dimensional continuous region (the run length-coded start point and the length of the line segment, or the start point and the end point are referred to as run coordinates) may be added. . An example of run coordinate information is shown in FIG. FIG. 33A illustrates run coordinate information on a binarized tomographic image at each z coordinate position. For example, as shown in FIG. 33-2, in the binarized tomographic image that is a part of the three-dimensional continuous region at the z-direction coordinate position z = z1, the run coordinate information of y = y11 is the run coordinate start point ( The x coordinate start point is xs11 and the run coordinate end point (x coordinate end point) is xe11.

ステップR4においては、抽出された接続領域番号の三次元連続領域の領域情報テーブルを合体・組合せする。同時に画像特徴量も合体・組合せする。抽出された接続領域番号の三次元連続領域の領域情報テーブルを合体させるために、お互いの三次元連続領域の領域情報テーブルに接続された領域番号を書き込み関連づけておく。   In step R4, the region information tables of the three-dimensional continuous regions with the extracted connection region numbers are merged and combined. At the same time, the image features are combined and combined. In order to merge the region information tables of the three-dimensional continuous regions with the extracted connection region numbers, the region numbers connected to the region information tables of the three-dimensional continuous regions are written and correlated.

ステップR5においては、すべての接続情報テーブルにある接続した三次元連続領域を終了したかを判断し、YESであれば終了し、NOであればステップR6へ行き、ステップR6においては、I=I+1として、ステップR2へ進む。   In step R5, it is determined whether the connected three-dimensional continuous area in all connection information tables has been completed. If YES, the process ends. If NO, the process goes to step R6. In step R6, I = I + 1. To step R2.

このように、関連づけられた複数の三次元連続領域にまたがる画像特徴量を求める時に、この関連付けをたどりながら画像特徴量を計算しても良い。また、図30−2では三次元連続領域“1”と三次元連続領域“2”の領域情報テーブルを合体させて、新たな三次元連続領域“1”の領域情報テーブルとしている。なお、この時に画像特徴量も合体させて求めている。   As described above, when obtaining an image feature amount across a plurality of associated three-dimensional continuous regions, the image feature amount may be calculated while following this association. In FIG. 30-2, the area information tables of the three-dimensional continuous area “1” and the three-dimensional continuous area “2” are combined to form a new three-dimensional continuous area “1” area information table. At this time, the image feature amount is also obtained by combining.

具体的には、体積や表面積は2つの三次元連続領域“1”および三次元連続領域“2”の各々の加算値を求める。それを新たな三次元連続領域“1”の体積や表面積とすれば良い。また、重心位置x座標、y座標は以下の(数式31)のようにして新たな合体された三次元連続領域の重心座標(g3x,g3y)を求めることができる。なお、三次元連続領域“1”の重心座標を(g1x,g1y)とし、、三次元連続領域“2”の重心座標を(g2x,g2y)とし、三次元連続領域“1”の体積をV1、三次元連続領域“2”の体積をV2、新たに合体された三次元連続領域の体積をV3としている。
…(数式31)
このようにして、画像特徴量も含めて領域情報テーブルを合体させることもできる。また、ラン座標情報が付いている場合はラン座標情報も合体することができる。
Specifically, the volume and the surface area are obtained by adding each of two three-dimensional continuous regions “1” and three-dimensional continuous regions “2”. This may be the volume or surface area of the new three-dimensional continuous region “1”. Further, the center-of-gravity position x-coordinate and y-coordinate can obtain the center-of-gravity coordinates (g3x, g3y) of the newly combined three-dimensional continuous area as shown in the following (Equation 31). The center of gravity coordinates of the three-dimensional continuous area “1” is (g1x, g1y), the center of gravity coordinates of the three-dimensional continuous area “2” is (g2x, g2y), and the volume of the three-dimensional continuous area “1” is V1. The volume of the three-dimensional continuous region “2” is V2, and the volume of the newly merged three-dimensional continuous region is V3.
... (Formula 31)
In this way, the area information table including the image feature amount can be combined. In addition, when run coordinate information is attached, run coordinate information can also be combined.

図33−3は、ラン座標の合体の例を示した図である。なおここでは簡単に説明するため、三次元連続領域の代わりに二次元連続領域で説明を行っているが、考え方は三次元連続領域の場合も同様である。図33−3では、連続領域1のラン座標情報と連続領域2のラン座標情報がある。これらを合体する場合はy座標ごとに合体できるラン座標があるかを調べる。つまり、この場合では連続領域1と連続領域2の重なる部分があるかを調べる。つまり以下の(数式32)または(数式33)を満たす場合があるかを調べる。ただし、iは整数とする。
もしこの条件を満たす場合が見つかれば2つのラン座標情報を合体させる。図33−3の場合では、y=y6の場合にae6=bs6なのでy=y6のラン座標情報が(as6,ae6)と(bs6,be6)だったのが(as6,be6)に合体されている。
FIG. 33-3 is a diagram illustrating an example of merged run coordinates. Here, for the sake of simplicity, a description is given using a two-dimensional continuous region instead of a three-dimensional continuous region, but the same concept applies to a three-dimensional continuous region. In FIG. 33-3, there is run coordinate information of the continuous region 1 and run coordinate information of the continuous region 2. When combining these, check if there is a run coordinate that can be combined for each y coordinate. That is, in this case, it is checked whether or not there is a portion where the continuous region 1 and the continuous region 2 overlap. That is, it is examined whether or not the following (Expression 32) or (Expression 33) may be satisfied. However, i is an integer.
If it is found that this condition is met, the two run coordinate information are merged. In the case of FIG. 33-3, when y = y6 and ae6 = bs6, the run coordinate information of y = y6 was (as6, ae6) and (bs6, be6) merged into (as6, be6). Yes.

この処理をフローチャートにすると、図34のようになる。ただし、yNをy方向の最大座標とする。ステップB1では、i=1とする。ステップB2では、y=yiの座標のラン座標を読み出す。ステップB3では、(数式32)または(数式33)を満たすラン座標があるかを判断し、YESならばステップB4へ行き、NOならばステップB5へ行く。
ステップB4では、ラン座標を合体させる。ステップB5では、i=Nかを判断し、YESならば終了し、NOならばステップB6へ行く。ステップB6では、i=i+1とするとしてステップB2に戻る。
A flowchart of this process is shown in FIG. However, yN is the maximum coordinate in the y direction. In step B1, i = 1. In step B2, the run coordinates of y = yi are read. In step B3, it is determined whether or not there is a run coordinate that satisfies (Expression 32) or (Expression 33). If YES, the process goes to Step B4, and if NO, the process goes to Step B5.
In step B4, the run coordinates are merged. In step B5, it is determined whether i = N. If YES, the process ends. If NO, the process goes to step B6. In step B6, i = i + 1 is set, and the process returns to step B2.

以上のように、図19のステップS12からステップS20で、三次元ラベリング処理、三次元再ラベリング処理された三次元連続領域は、ステップS22で三次元連続領域の部位として認識される。   As described above, the three-dimensional continuous region subjected to the three-dimensional labeling process and the three-dimensional relabeling process in steps S12 to S20 in FIG. 19 is recognized as a part of the three-dimensional continuous region in step S22.

<三次元連続領域の部位認識>
図35に三次元画像の三次元連続領域認識のフローチャートを示す。
ステップD11では、各三次元連続領域の抽出を行う。三次元ラベリング(連続領域番号付)された各三次元連続領域を1つずつ抽出して、すべての三次元連続領域について以下の処理を行う。
<Recognition of part of 3D continuous area>
FIG. 35 shows a flowchart of 3D continuous area recognition of a 3D image.
In step D11, each three-dimensional continuous area is extracted. Each three-dimensional continuous area that is three-dimensionally labeled (with a continuous area number) is extracted one by one, and the following processing is performed for all three-dimensional continuous areas.

ステップD12では、各三次元連続領域の画像特徴量の測定を行う。ステップD11において抽出された三次元連続領域ごとに下記のような画像特徴量の少なくとも一つを求める。
体積(画素数)、表面積、平均画素値、画素値和(CT値和、濃度和)、画素値標準偏差、x,y,z方向フェレ径、楕円体率、球形度、xy平面面積率、yz平面面積率、xz平面面積率、三次元1次モーメント、三次元2次モーメント。
なお、各三次元連続領域の画像特徴量は上記のものの一部を用いてもよいし、さらに付け加えても同様の効果を出せる。
In step D12, the image feature amount of each three-dimensional continuous area is measured. At least one of the following image feature amounts is obtained for each three-dimensional continuous region extracted in step D11.
Volume (number of pixels), surface area, average pixel value, pixel value sum (CT value sum, density sum), pixel value standard deviation, x, y, z direction ferret diameter, ellipsoid ratio, sphericity, xy plane area ratio, yz plane area ratio, xz plane area ratio, three-dimensional first moment, three-dimensional second moment.
It should be noted that a part of the above-described image feature values of each three-dimensional continuous region may be used, or the same effect can be obtained even if added.

ステップD13では、各三次元連続領域を各部位としての認識を行う。各三次元連続領域の画像特徴量の値により、選ばれた部位ごとの条件を満たしているか判断し、どこの部位であるかを認識する。図36に各部位として認識された各領域の例を示す。   In step D13, each three-dimensional continuous area is recognized as each part. Based on the value of the image feature value of each three-dimensional continuous area, it is determined whether the condition for each selected part is satisfied, and the part is recognized. FIG. 36 shows an example of each area recognized as each part.

このようにして、三次元画像より複数の近傍領域の画像特徴量を用いて、各部位の候補領域である三次元連続領域を抽出し、その三次元連続領域としての画像特徴量から、各部位としての判断、認識が行える。なお、本実施形態においては、2値化処理するステップL2または、閾値処理を行うステップL12などにおいて、複数の画像特徴量の論理式を求めて2値化処理または閾値処理した後に、三次元ラベリング処理を行っているが、以下のようにしてもよい。   In this way, a three-dimensional continuous region that is a candidate region of each part is extracted from the three-dimensional image using image feature amounts of a plurality of neighboring regions, and each part is extracted from the image feature amount as the three-dimensional continuous region. Can be judged and recognized. In this embodiment, in step L2 for binarization processing or step L12 for threshold processing, etc., a logical expression of a plurality of image feature quantities is obtained and binarization processing or threshold processing is performed, and then three-dimensional labeling is performed. Although processing is performed, the following may be performed.

各々の近傍領域の画像特徴量を定められた閾値の範囲で2値化を行っておく。次に、各々の近傍領域画像特徴量(局所領域画像特徴量)の2値化処理または閾値処理された三次元画像に対して、三次元ラベリング処理を行って、各々の近傍領域の画像特徴量の三次元ラベリング処理された三次元連続領域間で論理式(例えば論理積)を求めてもよい。以上により、複数の近傍領域の画像特徴量による三次元画像の三次元連続領域認識が行える。通常のCT値のみを用いた三次元画像の三次元連続領域認識よりも、より精度良く正しく行える。   Binarization is performed on the image feature amount of each neighboring region within a predetermined threshold range. Next, a three-dimensional labeling process is performed on the binarized or threshold-processed three-dimensional image of each neighboring region image feature amount (local region image feature amount) to obtain an image feature amount of each neighboring region. A logical expression (for example, logical product) may be obtained between the three-dimensional continuous regions subjected to the three-dimensional labeling process. As described above, three-dimensional continuous region recognition of a three-dimensional image can be performed based on image feature amounts of a plurality of neighboring regions. This can be performed more accurately and correctly than three-dimensional continuous region recognition of a three-dimensional image using only normal CT values.

三次元連続領域として認識が行われた後は、下記に示す2つの実施形態のように各三次元連続領域の画質を最適化させる。図19におけるステップS24における再構成関数による画像最適化およびステップS28における画像フィルタによる画像最適化がこれに相当する。
実施例1 : 再構成関数および画像フィルタにより画質を最適化する実施例。
実施例2 : 再構成関数および画像フィルタにより画質を最適化し、三次元連続領域の境界を連続的に変化させる実施例。
After recognition as a three-dimensional continuous area, the image quality of each three-dimensional continuous area is optimized as in the following two embodiments. The image optimization by the reconstruction function in step S24 in FIG. 19 and the image optimization by the image filter in step S28 correspond to this.
Example 1: Example in which image quality is optimized by a reconstruction function and an image filter.
Example 2: An example in which the image quality is optimized by a reconstruction function and an image filter, and the boundary of a three-dimensional continuous region is continuously changed.

図37は、再構成関数および画像フィルタにより画質を最適化する実施例である実施例1のフローチャートを示す。本実施例1においては、ステップH1からステップH5までは図10において説明した標準的な画像再構成である。本実施例のステップH1からステップH5までは、図10において説明した標準的な画像再構成である。なお、ここでは図10のステップS3のビームハードニング補正、ステップS4のZフィルタ重畳処理は省いてあるが、ビームハードニング補正及びZフィルタ重畳処理を、図33のフローチャートに含めても良い。   FIG. 37 shows a flowchart of the first embodiment which is an embodiment in which the image quality is optimized by the reconstruction function and the image filter. In the first embodiment, steps H1 to H5 are the standard image reconstruction described in FIG. Steps H1 to H5 in this embodiment are the standard image reconstruction described in FIG. Although the beam hardening correction in step S3 and the Z filter convolution process in step S4 in FIG. 10 are omitted here, the beam hardening correction and Z filter convolution process may be included in the flowchart in FIG.

また、ステップH6の各三次元連続領域分け、およびH7の各三次元連続領域の部位としての認識は、上記説明のステップ図19のS18からステップS22までの三次元ラベリング処理、三次元再ラベリング処理、ならびに画像特徴量の測定および編集と同様で良い。ステップH8において、三次元連続領域の再構成関数重畳を行う。この場合は、図37のステップH3からステップH8へ点線で接続しているように、ステップH3で求められた高速フーリエ変換(FFT)されたX線投影データを再利用することができる。再構成ステップH9にて三次元連続領域の画像フィルタ処理を行う。図38は、各セグメント領域を最適な再構成関数及び最適な画像フィルタで断層像を画像再構成するフローチャートの一例を示す。図39に、このフローチャートの理解を助けるための概念図を示す。図39においては、肺野部を撮影した場合の例を示している。この場合は心臓、肺野、軟部組織、骨の各々のセグメント領域が存在し、各々心臓、肺野、軟部組織、骨の部位として認識されている。これを各々最適な再構成関数、最適な画像フィルタを用いて画像再構成する。心臓の部位には心臓用再構成関数と心臓用画像フィルタ、肺野の部位には肺野用再構成関数と肺野用画像フィルタ、軟部組織の部位には軟部組織用再構成関数と軟部組織用画像フィルタ、骨の部位には骨用再構成関数と骨用画像フィルタが最適とされている。   In addition, the three-dimensional continuous area division in step H6 and the recognition of each three-dimensional continuous area in H7 as a part of the three-dimensional labeling process and the three-dimensional relabeling process from step S18 to step S22 in step FIG. , And image feature value measurement and editing. In step H8, the reconstruction function is superimposed on the three-dimensional continuous region. In this case, the fast Fourier transform (FFT) X-ray projection data obtained in step H3 can be reused as if the dotted line is connected from step H3 to step H8 in FIG. In the reconstruction step H9, image filtering processing of the three-dimensional continuous area is performed. FIG. 38 shows an example of a flowchart for reconstructing a tomographic image of each segment area with an optimal reconstruction function and an optimal image filter. FIG. 39 is a conceptual diagram for helping understanding of this flowchart. FIG. 39 shows an example when the lung field is imaged. In this case, there are segment regions of the heart, lung field, soft tissue, and bone, which are recognized as the heart, lung field, soft tissue, and bone, respectively. Each of these is reconstructed using an optimum reconstruction function and an optimum image filter. Reconstruction function for the heart and image filter for heart in the region of the heart, Reconstruction function for the lung field and image filter for the lung field in the region of the lung field, Reconstruction function for the soft tissue and soft tissue in the region of the soft tissue The image reconstruction filter and the bone reconstruction function and the bone image filter are optimal for the bone region.

ステップR1では、N個のセグメント領域S1〜SNごとに最適な再構成関数K1〜KN、最適な画像フィルタF1〜FNを調べる。ステップR2では、i=1とする。ステップR3では、各セグメント領域Siを画像再構成領域として、各セグメント領域Siごとに最適な再構成関数Kiで画像再構成を行い、最適な画像フィルタFiを重畳して断層像ISiを画像再構成する。ステップR4では、i=Nかを判断し、YESであればステップR6へ行き、NOであればステップR5へ行く。ステップR5で、i=i+1とし、ステップR3へ戻ることによりステップR3からステップR5までを繰り返す。   In step R1, optimum reconstruction functions K1 to KN and optimum image filters F1 to FN are examined for each of N segment areas S1 to SN. In step R2, i = 1. In step R3, each segment area Si is used as an image reconstruction area, image reconstruction is performed with an optimum reconstruction function Ki for each segment area Si, and an optimum image filter Fi is superimposed to reconstruct a tomographic image ISi. To do. In step R4, it is determined whether i = N. If YES, the process goes to step R6, and if NO, the process goes to step R5. In step R5, i = i + 1 is set, and by returning to step R3, steps R3 to R5 are repeated.

ステップR6では、各々の三次元連続領域に最適な再構成関数Ki、最適な画像フィルタFiを用いて画像再構成された断層像Iを求める。この時に断層像Iは以下の(数式34)で表わされる。
…(数式34)
In step R6, a tomographic image I reconstructed using the optimum reconstruction function Ki and optimum image filter Fi for each three-dimensional continuous region is obtained. At this time, the tomographic image I is expressed by the following (Equation 34).
... (Formula 34)

なお、∪は論理和(OR)であるとする。つまり、図39においては、心臓のセグメント領域S1のみを心臓用再構成関数K1で画像再構成し、画像フィルタF1を重畳し、断層像IS1を求める。また、肺野のセグメント領域S2のみを肺野用再構成関数K2で画像再構成し、画像フィルタF2を重畳し、断層像IS2を求める。また、軟部組織のセグメント領域S3のみを軟部組織用再構成関数K3で画像再構成し、画像フィルタF3を重畳し、断層像IS13を求める。さらに、骨のセグメント領域S4のみを骨用再構成関数K4で画像再構成し、画像フィルタF4を重畳し、断層像IS4を求める。これらの論理和が、図39の右欄の図に示す各々のセグメント領域が最適な再構成関数および最適な画像フィルタで画像再構成された断層像Iとなる。各々のセグメント領域、つまり各部位について最適な再構成関数で画像再構成された断層像Iを以下の(数式35)により求める。
…(数式35)
Note that ∪ is a logical sum (OR). That is, in FIG. 39, only the heart segment region S1 is reconstructed with the cardiac reconstruction function K1, and the tomographic image IS1 is obtained by superimposing the image filter F1. Further, only the lung field segment region S2 is reconstructed with the lung field reconstruction function K2, and the tomographic image IS2 is obtained by superimposing the image filter F2. Also, only the soft tissue segment region S3 is reconstructed with the soft tissue reconstruction function K3, and the image filter F3 is superimposed to obtain the tomographic image IS13. Further, only the bone segment region S4 is reconstructed with the bone reconstruction function K4, and the tomographic image IS4 is obtained by superimposing the image filter F4. These logical sums become a tomographic image I in which each segment region shown in the right column of FIG. 39 is reconstructed with an optimum reconstruction function and an optimum image filter. A tomographic image I reconstructed with an optimum reconstruction function for each segment region, that is, each part is obtained by the following (Equation 35).
... (Formula 35)

実施例1の図38のステップR6における三次元連続領域の境界および境界近傍の画質を連続的に変化させる点については述べていなかった。しかし、各部位のセグメント領域は各々最適な再構成関数または最適な画像フィルタにより画質を最適化されているため、各部位のセグメント領域の境界およびその近傍において画質が不連続に変わる場合があり、画質的に不自然さが残る可能性がある。そこで、画質を連続的に変化させる必要が生じる可能性がある。   The point that the image quality of the boundary of the three-dimensional continuous region and the vicinity of the boundary in Step R6 of FIG. However, since the image quality of each segment region is optimized by an optimal reconstruction function or optimal image filter, the image quality may change discontinuously at and near the boundary of the segment region of each region, There is a possibility that unnaturalness remains in image quality. Therefore, there is a possibility that the image quality needs to be continuously changed.

実施例2においては、三次元連続領域境界の画質を連続的に変化させる実施例を示す。本実施例の全体のフローチャートは、図37の実施例1と同様である。なお、図10のステップS3のビームハードニング補正、ステップS4のzフィルタ重畳処理は省いてあるが、これらを含めても良い。   In the second embodiment, an embodiment in which the image quality at the boundary of the three-dimensional continuous region is continuously changed will be described. The overall flowchart of this embodiment is the same as that of the first embodiment shown in FIG. In addition, although the beam hardening correction | amendment of step S3 of FIG. 10 and the z filter convolution process of step S4 are omitted, these may be included.

本実施例でも実施例1と同様に、ステップH1からステップH5までは図10において説明した標準的な画像再構成である。また、ステップH6の各三次元連続領域分け、およびH7の各三次元連続領域の部位としての認識は、上記説明の図19のステップS18からステップS22までの三次元ラベリング処理、三次元再ラベリング処理、ならびに画像特徴量の測定および編集と同様で良い。ステップH8において、三次元連続領域の再構成関数重畳を行い、ステップH9にて三次元連続領域の画像フィルタ処理を行う。   In this embodiment as well, as in the first embodiment, steps H1 to H5 are the standard image reconstruction described in FIG. In addition, the three-dimensional continuous area division in step H6 and the recognition of each three-dimensional continuous area in H7 as a part of the three-dimensional labeling process and the three-dimensional relabeling process from step S18 to step S22 in FIG. , And image feature value measurement and editing. In step H8, the reconstruction function is superimposed on the three-dimensional continuous area, and in step H9, the image filter processing of the three-dimensional continuous area is performed.

図40は、三次元連続領域の境界を連続な画質で最適な再構成関数、最適な画像フィルタで断層像を画像再構成するフローチャートで、図37のステップH8の各三次元連続領域の再構成関数重畳およびステップH9の各三次元連続領域の画像フィルタ処理を示す。また、図41は、このフローチャートの理解を助けるための概念図である。   FIG. 40 is a flowchart for reconstructing a tomographic image with an optimum reconstruction function and an optimum image filter at the boundary of the three-dimensional continuous region, and reconstructing each three-dimensional continuous region at step H8 in FIG. The function superimposition and image filter processing of each three-dimensional continuous area in step H9 will be described. FIG. 41 is a conceptual diagram for helping understanding of this flowchart.

図40のステップR11では、各三次元連続領域をL画素分膨張させる。各三次元連続領域をL画素膨張させることにより、幅2L画素分化各三次元連続領域をオーバーラップさせる。   In step R11 in FIG. 40, each three-dimensional continuous region is expanded by L pixels. By expanding each three-dimensional continuous area by L pixels, each three-dimensional continuous area having a width of 2 L pixels is overlapped.

ステップR12では、N個の三次元連続領域S1〜SNごとに最適な再構成関数K1〜KN、最適な画像フィルタF1〜FNを調べる。図41においては、肺野部を撮影した場合の例を示している。この場合は心臓、肺野、軟部組織、骨の各々の三次元連続領域が存在し、各々心臓、肺野、軟部組織、骨の部位として認識されている。これを各々最適な再構成関数、最適な画像フィルタを用いて画像再構成する。   In step R12, optimum reconstruction functions K1 to KN and optimum image filters F1 to FN are examined for each of the N three-dimensional continuous regions S1 to SN. FIG. 41 shows an example when the lung field is imaged. In this case, there are three-dimensional continuous regions of the heart, lung field, soft tissue, and bone, which are recognized as the heart, lung field, soft tissue, and bone, respectively. Each of these is reconstructed using an optimum reconstruction function and an optimum image filter.

心臓の部位には心臓用再構成関数と心臓用画像フィルタ、肺野の部位には肺野用再構成関数と肺野用画像フィルタ、軟部組織の部位には軟部組織用再構成関数と軟部組織用画像フィルタ、骨の部位には骨用再構成関数と骨用画像フィルタが最適とされており、この場合には各々4種類の再構成関数と画像フィルタを用意する。
ステップR13では、i=1と初期化する。
Reconstruction function for the heart and image filter for heart in the region of the heart, Reconstruction function for the lung field and image filter for the lung field in the region of the lung field, Reconstruction function for the soft tissue and soft tissue in the region of the soft tissue The bone reconstruction function and the bone image filter are optimal for the bone image filter and the bone part. In this case, four kinds of reconstruction functions and image filters are prepared.
In step R13, i = 1 is initialized.

ステップR14では、L画素分膨張させた各三次元連続領域Siを画像再構成領域として三次元連続領域Siごとに最適な再構成関数Kiで画像再構成を行い、最適な画像フィルタFiをかけて断層像ISiを画像再構成する。
ステップR15では、i=Nかを判断し、YESであればステップR17へ行く。またNOであればステップR16へ行く。
In step R14, each three-dimensional continuous area Si expanded by L pixels is used as an image reconstruction area, image reconstruction is performed with the optimum reconstruction function Ki for each three-dimensional continuous area Si, and an optimum image filter Fi is applied. The tomographic image ISi is reconstructed.
In step R15, it is determined whether i = N. If YES, the process goes to step R17. If NO, go to step R16.

ステップR16では、i=i+1とする。ステップR13からステップR16までを繰り返す。図40のステップR11からステップR16までの処理を図37を参照すると次のようになる。ステップR12で用意された各々4種類の再構成関数および画像フィルタを用いて、心臓のセグメント領域S1のみを心臓用再構成関数K1で画像再構成し、画像フィルタF1を重畳し、断層像IS1を求める。また、肺野のセグメント領域S2のみを肺野用再構成関数K2で画像再構成し、画像フィルタF2を重畳し、断層像IS2を求める。また、軟部組織のセグメント領域S3のみを軟部組織用再構成関数K3で画像再構成し、画像フィルタF3を重畳し、断層像IS13を求める。さらに、骨のセグメント領域S4のみを骨用再構成関数K4で画像再構成し、画像フィルタF4を重畳し、断層像IS4を求める。   In step R16, i = i + 1. Steps R13 to R16 are repeated. The processing from step R11 to step R16 in FIG. 40 is as follows with reference to FIG. Using each of the four types of reconstruction functions and image filters prepared in step R12, only the cardiac segment region S1 is reconstructed with the cardiac reconstruction function K1, the image filter F1 is superimposed, and the tomographic image IS1 is superimposed. Ask. Further, only the lung field segment region S2 is reconstructed with the lung field reconstruction function K2, and the tomographic image IS2 is obtained by superimposing the image filter F2. Also, only the soft tissue segment region S3 is reconstructed with the soft tissue reconstruction function K3, and the image filter F3 is superimposed to obtain the tomographic image IS13. Further, only the bone segment region S4 is reconstructed with the bone reconstruction function K4, and the tomographic image IS4 is obtained by superimposing the image filter F4.

次に、図40のステップR17では、各々のセグメント領域に最適な再構成関数Ki最適な画像フィルタFiを用いて、画像再構成された断層像ISiに加重加算係数をかけて加重加算を行い断層像Iを求める。この時に断層像Iは以下の(数式36)で表わされる。
…(数式36)
なお、∪は論理和(OR)であり、Wiは各部位の加重加算係数である。
Next, in step R17 in FIG. 40, a weighted addition is performed by applying a weighted addition coefficient to the tomographic image ISi that has been reconstructed using the optimum image filter Fi that is the optimum reconstruction function Ki for each segment region. Find the image I. At this time, the tomographic image I is expressed by the following (Equation 36).
... (Formula 36)
Here, ∪ is a logical sum (OR), and Wi is a weighted addition coefficient for each part.

ここで、図42を使って、図40のステップR17における加重加算について説明する。図42の一番上には肺野部の断層像71が表示されている。その下に心臓部を拡大した断層像72を表示している。拡大した断層像72には、心臓のセグメント領域が実線で表示され、その心臓のセグメント領域をL画素膨張させた領域が鎖線で表示されており、また、肺野のセグメント領域が実線で表示され、その肺野のセグメント領域をL画素膨張させた領域が鎖線で表示されている。拡大した断層像を横切るプロファイルPに合わせて、拡大した断層像72の下方には、各セグメント領域と各加重加算係数とが表示されている。   Here, the weighted addition in step R17 in FIG. 40 will be described with reference to FIG. A tomographic image 71 of the lung field is displayed at the top of FIG. Below that, a tomographic image 72 in which the heart is enlarged is displayed. In the enlarged tomographic image 72, the segmental region of the heart is displayed with a solid line, the segmented region of the heart is displayed with a chain line, and the segmental region of the lung field is displayed with a solid line. A region obtained by expanding the lung field segment region by L pixels is indicated by a chain line. Each segment region and each weighted addition coefficient are displayed below the enlarged tomographic image 72 in accordance with the profile P crossing the enlarged tomographic image.

膨張させた心臓のセグメント領域と心臓の加重加算係数との関係、軟部組織のセグメント領域と軟部組織の加重加算係数との関係、膨張させた肺野のセグメント領域と肺野の加重加算係数との関係が理解できるであろう。拡大した断層像を横切るプロファイルP上において、膨張させた心臓領域に心臓用加重加算係数を乗算し、膨張させた軟部領域に軟部組織用加重加算係数を乗算し、膨張させた肺領域に肺組織用加重加算係数を乗算し、これらを加重加算することで、プロファイルP上の画質は連続的に肺野→軟部組織→心臓→軟部組織→肺野と変化して行く。この一次元のプロファイルPの線上の例を二次元の断層像、三次元の三次元画像、四次元の時系列三次元画像に拡張すれば良い。   Relationship between the segment area of the expanded heart and the weighted addition coefficient of the heart, the relationship between the segment area of the soft tissue and the weighted addition coefficient of the soft tissue, the segment area of the expanded lung field and the weighted addition coefficient of the lung field You will understand the relationship. On the profile P crossing the enlarged tomographic image, the expanded heart region is multiplied by the weighted addition coefficient for heart, the expanded soft part region is multiplied by the weighted addition coefficient for soft tissue, and the expanded lung region is lung tissue. By multiplying the weighted addition coefficients for use and weighting and adding them, the image quality on the profile P continuously changes as lung field → soft tissue → heart → soft tissue → lung field. What is necessary is just to extend the example on the line of this one-dimensional profile P to a two-dimensional tomographic image, a three-dimensional three-dimensional image, and a four-dimensional time series three-dimensional image.

つまり、図41においては、心臓の断層像IS1に心臓用の加重加算係数W1を乗算する。また、肺野の断層像IS2に肺野用の加重加算係数W2を乗算する。また、軟部組織の断層像IS13に軟部組織の加重加算係数W3を乗算する。さらに、骨の断層像IS4に骨の加重加算係数W4を乗算する。各セグメント領域の境界を連続な画質で最適な再構成関数、最適な画像フィルタで画像再構成された断層像Iは以下の(数式37)により求まる。
…(数式37)
That is, in FIG. 41, the tomographic image IS1 of the heart is multiplied by the weighted addition coefficient W1 for the heart. Further, the lung field tomographic image IS2 is multiplied by a lung field weighted addition coefficient W2. Further, the soft tissue tomographic image IS13 is multiplied by the soft tissue weighted addition coefficient W3. Further, the bone tomographic image IS4 is multiplied by the bone weighted addition coefficient W4. An optimal reconstruction function with continuous image quality at the boundary of each segment area, and a tomographic image I reconstructed with an optimal image filter are obtained by the following (Equation 37).
... (Formula 37)

なお、実施例2で用いられた膨張用三次元論理フィルタの一例を図43および図44−1、図44−2に示す。図43は、三次元論理フィルタの構造と注目画素の位置と三次元画像の走査方法を示した図である。図44−1、図44−2は、膨張用三次元論理フィルタの一例を示した図である。この膨張用三次元論理フィルタでは、注目画素が“0”の場合に注目画素の近傍画素3×3×3の中に1つでも“1”の画素が存在していたら、その注目画素を“1”にして2値の三次元領域を膨張させるように作られている。なお、注目画素は三次元領域の全画素について走査されて移動する。   An example of the expansion three-dimensional logic filter used in Example 2 is shown in FIGS. 43, 44-1, and 44-2. FIG. 43 is a diagram showing the structure of the three-dimensional logic filter, the position of the target pixel, and the scanning method of the three-dimensional image. FIGS. 44A and 44B are diagrams illustrating an example of the expansion three-dimensional logic filter. In this expansion three-dimensional logic filter, when the target pixel is “0”, if there is at least one “1” pixel in the neighboring pixels 3 × 3 × 3 of the target pixel, the target pixel is “ It is made so as to expand a binary three-dimensional region by setting it to 1 ″. Note that the target pixel is scanned and moved for all the pixels in the three-dimensional region.

実施例1,実施例2においては、三次元連続領域ごとに再構成関数および画像フィルタにより画質を最適化する例を示した。実際に被検体を撮影した際に、図2に示すデータ収集、画像再構成、三次元ラベリング、画像最適化の処理の流れがスムーズに実時間で処理されないと使用上の使い勝手がよくない。しかし、スキャンデータ収集と画像再構成処理の間には、X線投影データ(スキャンデータ)のディスクへの格納、読出し、前処理の時間がかかる。また、画像再構成処理および三次元ラベリング処理と三次元再ラベリング処理および画像最適化処理の間には、z方向にある一定距離を持った先の接続情報を見ないといけないため、ある一定距離およびある一定時間遅れを必要とする。   In the first embodiment and the second embodiment, the example in which the image quality is optimized by the reconstruction function and the image filter for each three-dimensional continuous region is shown. When the subject is actually imaged, the process of data collection, image reconstruction, three-dimensional labeling, and image optimization shown in FIG. 2 is not easy to use unless it is processed smoothly in real time. However, it takes time to store, read, and preprocess X-ray projection data (scan data) on a disk between scan data collection and image reconstruction processing. In addition, between the image reconstruction process, the 3D labeling process, the 3D relabeling process, and the image optimization process, it is necessary to see the connection information of a certain distance in the z direction. And you need a certain time delay.

図45には、本実施例1,2の処理を以下の3つに分け、その処理の行われるタイミングを示している。
1.スキャンおよびデータ収集
2.画像再構成処理および三次元ラベリング処理
3.三次元再ラベリング処理および画像最適化処理
このように処理のタイミング制御を行うことにより、実施例1,実施例2の処理は処理時間の最適化が行われる。つまり、z方向に連続した断層像からなる三次元画像の撮影に同期してパイプライン処理で三次元ラベリング処理、およびその結果に基いた三次元再ラベリング処理を行うことができる。
In FIG. 45, the processing of the first and second embodiments is divided into the following three, and the timing at which the processing is performed is shown.
1. Scan and data collection2. 2. Image reconstruction processing and three-dimensional labeling processing Three-dimensional relabeling processing and image optimization processing By performing processing timing control in this way, the processing time of the processing of the first and second embodiments is optimized. That is, it is possible to perform the three-dimensional labeling process by the pipeline process and the three-dimensional relabeling process based on the result in synchronization with the photographing of the three-dimensional image composed of the tomographic images continuous in the z direction.

また、制御の観点から考えると実施例1,実施例2の制御のフローチャートは図46のようになっている。
ステップF1のデータ収集、ステップF2の前処理、ステップF3のビームハードニング補正およびステップF4のzフィルタ重畳処理までを処理1とする。ステップF5の再構成関数重畳処理、ステップF6の三次元逆投影処理、およびステップF7の後処理までを処理2とする。さらに、ステップF8の三次元連続領域を各部位として認識し、画像再構成条件の最適化を処理3とする。すると、処理3は処理2のフィードバック処理となっている。つまり、X線CT装置100の画像再構成処理の画像フィードバック処理の形態を取っている。このように、画像フィードバック処理をかけることで画像再構成される断層像またはz方向に連続した断層像からなる三次元画像は、より良い画質に収束させることができる。
From the viewpoint of control, the control flowchart of the first and second embodiments is as shown in FIG.
Process 1 includes data collection at step F1, preprocessing at step F2, beam hardening correction at step F3, and z filter convolution process at step F4. Process 2 includes the reconstruction function convolution process in step F5, the three-dimensional backprojection process in step F6, and the post-process in step F7. Further, the three-dimensional continuous area in step F8 is recognized as each part, and optimization of the image reconstruction condition is set as process 3. Then, the process 3 is a feedback process of the process 2. That is, the image feedback process of the image reconstruction process of the X-ray CT apparatus 100 is used. Thus, a three-dimensional image composed of tomographic images reconstructed by applying image feedback processing or tomographic images continuous in the z direction can be converged to better image quality.

つまり、多列X線検出器24を有するX線CT装置100において、各種スキャンにおける実時間ラベリング処理、またはラベリング処理の結果に基づく画像再構成処理への画像フィードバック処理を実現できる効果がある。   That is, in the X-ray CT apparatus 100 having the multi-row X-ray detector 24, there is an effect that real-time labeling processing in various scans or image feedback processing to image reconstruction processing based on the result of labeling processing can be realized.

本実施形態における画像再構成法は、従来公知のフェルドカンプ法による三次元画像再構成法でもよい。さらに、他の三次元画像再構成方法でもよい。または二次元画像再構成でも良い。   The image reconstruction method in the present embodiment may be a three-dimensional image reconstruction method by a conventionally known Feldkamp method. Furthermore, other three-dimensional image reconstruction methods may be used. Alternatively, two-dimensional image reconstruction may be used.

本実施形態は、ヘリカルスキャンの場合で書かれているが、可変ピッチヘリカルスキャン、ヘリカルシャトルスキャン、z方向に連続した複数の位置におけるコンベンショナルスキャン(アキシャルスキャン)またはシネスキャンの場合も同様に効果を出すことができる。   This embodiment is written in the case of a helical scan, but the same effect is also obtained in the case of a variable pitch helical scan, a helical shuttle scan, a conventional scan (axial scan) at a plurality of positions continuous in the z direction, or a cine scan. Can be put out.

また、本実施形態は、走査ガントリ20が傾斜していない場合で書かれているが、走査ガントリ20が傾斜した、いわゆるチルト・スキャンの場合でも同様な効果を出すことができる。さらに、本実施形態は、生体信号に同期しない場合で書かれているが、生体信号、特に心拍信号に同期させても同様な効果を出すことができる。また、本実施形態では、フラットパネルX線検出器に代表されるマトリクス構造の二次元X線エリア検出器などの多列X線検出器を持ったX線CT装置について書かれているが、1列のX線検出器のX線CT装置においても同様の効果を出せる。   Although the present embodiment is written when the scanning gantry 20 is not tilted, the same effect can be obtained even in the case of so-called tilt scanning in which the scanning gantry 20 is tilted. Furthermore, although this embodiment is written in the case where it does not synchronize with a biological signal, the same effect can be produced even if it synchronizes with a biological signal, especially a heartbeat signal. In this embodiment, an X-ray CT apparatus having a multi-row X-ray detector such as a two-dimensional X-ray area detector having a matrix structure represented by a flat panel X-ray detector is described. The same effect can be obtained in the X-ray CT apparatus of the row X-ray detector.

また、本実施形態では、各列に係数の異なった列方向(z方向)フィルタを重畳することにより、画質のばらつきを調整し、各列において均一なスライス厚、アーチファクト、ノイズの画質を実現しているが、これには様々なz方向フィルタ係数が考えられるが、いずれも同様の効果を出すことができる。   Also, in this embodiment, column-direction (z-direction) filters with different coefficients are superimposed on each column to adjust image quality variation, and to achieve uniform slice thickness, artifact, and noise image quality in each column. However, various z-direction filter coefficients are conceivable for this, and any of them can produce the same effect.

本実施形態では、医用X線CT装置を元に書かれているが、産業用X線CT装置または他の装置と組み合わせたX線CT−PET装置,X線CT−SPECT装置などで利用できる。   In this embodiment, it is written based on a medical X-ray CT apparatus, but can be used in an X-ray CT-PET apparatus, an X-ray CT-SPECT apparatus, etc. combined with an industrial X-ray CT apparatus or another apparatus.

Aは、三次元画像の途中まで三次元ラベリング処理を行った場合を示す図で、Bは、三次元画像の三次元ラベリング処理を更に進めた場合を示す図である。A is a diagram showing a case where the three-dimensional labeling process is performed halfway through the three-dimensional image, and B is a diagram showing a case where the three-dimensional labeling process of the three-dimensional image is further advanced. 三次元ラベリング処理と三次元再ラベリング処理を示す図である。It is a figure which shows a three-dimensional labeling process and a three-dimensional re-labeling process. 本発明のラベリング処理を示す図である。It is a figure which shows the labeling process of this invention. 本発明の一実施形態にかかるX線CT装置を示すブロック図である。It is a block diagram which shows the X-ray CT apparatus concerning one Embodiment of this invention. X線CT装置の撮影条件入力画面を示す図である。It is a figure which shows the imaging condition input screen of a X-ray CT apparatus. X線発生装置(X線管)および多列X線検出器をxy平面で見た説明図である。It is explanatory drawing which looked at the X-ray plane of the X-ray generator (X-ray tube) and the multi-row X-ray detector. X線発生装置(X線管)および多列X線検出器をyz平面で見た説明図である。It is explanatory drawing which looked at X-ray generator (X-ray tube) and the multi-row X-ray detector in yz plane. 被検体撮影の流れを示すフローチャートである。It is a flowchart which shows the flow of subject imaging. 三次元画像表示の例を示す図である。It is a figure which shows the example of a three-dimensional image display. 本発明の一実施形態に係るX線CT装置の画像再構成の概略動作を示すフローチャートである。It is a flowchart which shows schematic operation | movement of the image reconstruction of the X-ray CT apparatus which concerns on one Embodiment of this invention. 前処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of pre-processing. 三次元画像再構成処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a three-dimensional image reconstruction process. 再構成領域上のラインをX線透過方向へ投影した状態であり、Aはxy平面、Bはyz平面を示す概念図である。It is the state which projected the line on a reconstruction area | region to the X-ray transmissive direction, A is a conceptual diagram which shows xy plane and B is yz plane. X線検出器面に投影したラインを示す概念図である。It is a conceptual diagram which shows the line projected on the X-ray detector surface. 投影データDr(view,x,y)を再構成領域上に投影した状態を示す概念図である。It is a conceptual diagram which shows the state which projected the projection data Dr (view, x, y) on the reconstruction area. 再構成領域上の各画素の逆投影画素データD2を示す概念図である。It is a conceptual diagram which shows the backprojection pixel data D2 of each pixel on a reconstruction area. 逆投影画素データD2を画素対応に全ビュー加算して逆投影データD3を得る状態を示す説明図である。It is explanatory drawing which shows the state which obtains backprojection data D3 by adding all the views to backprojection pixel data D2 corresponding to a pixel. 円形の再構成領域上のラインをX線透過方向へ投影した状態であり、Aはxy平面、Bはyz平面を示す概念図である。It is the state which projected the line on a circular reconstruction area | region to the X-ray transmissive direction, A is a conceptual diagram which shows xy plane and B shows yz plane. 連続領域のラベリングおよび部位ごとに画質を最適化するフローチャートである。It is a flowchart which optimizes an image quality for every labeling and site | part of a continuous area | region. ラベリング処理1のフローチャートである。It is a flowchart of the labeling process 1. ラベリング処理2のフローチャートである。It is a flowchart of the labeling process 2. FIG. ラベリング処理3のフローチャートである。It is a flowchart of the labeling process 3. 三次元画像の注目画素と近傍領域を示す図である。It is a figure which shows the attention pixel and neighborhood area | region of a three-dimensional image. ラベリング処理4のフローチャートである。It is a flowchart of the labeling process 4. 三次元ラベリング処理の注目画素と26近傍の近傍マスク領域を示す図である。It is a figure which shows the attention pixel and 26 vicinity mask area | region of 26 vicinity of a three-dimensional labeling process. Aは、三次元ラベリング処理の注目画素と18近傍の近傍マスク領域を示す図で、Bは、注目画素と6近傍の近傍マスク領域を示す図である。A is a diagram showing a pixel of interest and a neighborhood mask region in the vicinity of 18 in the three-dimensional labeling process, and B is a diagram showing a pixel of interest and a neighborhood mask region in the vicinity of 6. FIG. ラベリング処理の流れを示すフロ−チャートである。It is a flowchart which shows the flow of a labeling process. ラベリング処理後に、再ラベリング処理へのフィードバックを示す図である。It is a figure which shows the feedback to a re-labeling process after a labeling process. 三次元再ラベリング処理の一例を示す図である。It is a figure which shows an example of a three-dimensional relabeling process. 三次元再ラベリング処理の別例を示す図である。It is a figure which shows another example of a three-dimensional relabeling process. 三次元再ラベリング処理の別例を示し、画像特徴量を合体する図である。It is a figure which shows the other example of a three-dimensional relabeling process, and unites an image feature-value. 接続情報テーブル、接続した三次元連続領域の領域情報テーブルを用いた三次元再ラベリングを示すフローチャートである。It is a flowchart which shows the 3D re-labeling using the connection information table and the area | region information table of the connected 3D continuous area | region. 接続情報テーブルの例を示す図である。It is a figure which shows the example of a connection information table. ラン座標情報の例を示す図である。It is a figure which shows the example of run coordinate information. ラン座標の始点・終点を示す図である。It is a figure which shows the start point and end point of a run coordinate. ラン座標の合体を示す図である。It is a figure which shows merge | combination of a run coordinate. 図33−3のラン座標の合体のフロ−チャートである。FIG. 34 is a flow chart of merging of the run coordinates in FIG. 三次元画像の三次元連続領域認識のフロ−チャートである。It is a flowchart of 3D continuous area recognition of a 3D image. 各部位に認識された三次元連続領域を示す図である。It is a figure which shows the three-dimensional continuous area | region recognized by each site | part. 各三次元連続領域の画質を再構成関数および画像フィルタにより最適化する場合の処理のフローチャートである。It is a flowchart of a process in the case of optimizing the image quality of each three-dimensional continuous area | region with a reconstruction function and an image filter. 各三次元連続領域を最適な再構成関数、最適な画像フィルタで断層像を画像再構成するフロ−チャートである。10 is a flowchart for reconstructing a tomographic image with an optimal reconstruction function and an optimal image filter for each three-dimensional continuous region. 各三次元連続領域を最適な再構成関数および最適な画像フィルタで画像再構成した断層像を示す図である。It is a figure which shows the tomogram which image-reconstructed each three-dimensional continuous area | region with the optimal reconstruction function and the optimal image filter. 各三次元連続領域の境界を連続な画質で最適な再構成関数、最適な画像フィルタで断層像を画像再構成するフロ−チャートである。It is a flowchart for reconstructing a tomographic image with an optimum reconstruction function and an optimum image filter at the boundary of each three-dimensional continuous region with continuous image quality. 各三次元連続領域の境界を連続な画質で最適な再構成関数、最適な画像フィルタで画像再構成した断層像を示す図である。It is a figure which shows the tomogram which reconfigure | reconstructed the image of the boundary of each three-dimensional continuous area | region with the optimal reconstruction function and the optimal image filter by continuous image quality. 各三次元連続領域を加重加算し最適な画質で画像再構成された断層像を示す図である。It is a figure which shows the tomographic image by which each three-dimensional continuous area | region was weighted and added and image reconstruction was carried out with the optimal image quality. 三次元論理フィルタの構造と注目画素の位置と三次元画像の走査方法を示す図である。It is a figure which shows the structure of a three-dimensional logic filter, the position of a focused pixel, and the scanning method of a three-dimensional image. 膨張用三次元論理フィルタの一例を示す図である。It is a figure which shows an example of the three-dimensional logic filter for expansion | swelling. 膨張用三次元論理フィルタの一例を示す図である。It is a figure which shows an example of the three-dimensional logic filter for expansion | swelling. 各処理のタイミングの最適化の例を示す図である。It is a figure which shows the example of optimization of the timing of each process. 三次元連続領域を各部位として認識し画像再構成条件の最適化による画像フィードバックを示す図である。It is a figure which recognizes a three-dimensional continuous area | region as each site | part, and shows the image feedback by optimization of an image reconstruction condition. 従来のラベリング処理を示す図である。It is a figure which shows the conventional labeling process.

符号の説明Explanation of symbols

1 操作コンソール
2 入力装置
3 中央処理装置
5 データ収集バッファ
6 モニタ
7 記憶装置
10 撮影テーブル
12 クレードル
15 回転部
20 走査ガントリ
21 X線管
22 X線コントローラ
23 コリメータ
24 多列X線検出器
25 データ収集装置(DAS)
26 回転部コントローラ
27 走査ガントリ傾斜コントローラ
28 ビーム形成X線フィルタ
29 制御コントローラ
30 スリップリング

dP X線検出器面
P 画像再構成領域
PP 投影面
IC 回転中心(ISO)
CB X線ビーム
BC ビーム中心軸
D 回転中心軸上での多列X線検出器幅
1 Operation Console 2 Input Device 3 Central Processing Unit 5 Data Collection Buffer 6 Monitor 7 Storage Device 10 Imaging Table 12 Cradle 15 Rotating Unit 20 Scanning Gantry 21 X-ray Tube 22 X-ray Controller 23 Collimator 24 Multi-row X-ray Detector 25 Data Collection Equipment (DAS)
26 Rotating section controller 27 Scanning gantry tilt controller 28 Beam forming X-ray filter 29 Control controller 30 Slip ring

dP X-ray detector plane P Image reconstruction area PP Projection plane
IC rotation center (ISO)
CB X-ray beam
BC beam center axis
D Multi-row X-ray detector width on the rotation axis

Claims (8)

被検体の周囲から放射線を照射して被検体の所定領域を透過した投影データを収集する投影データ収集手段と、
前記投影データを用いて画像再構成を行い、前記被検体の体軸方向に連続した複数の断層像を得る画像再構成手段と
を備えた放射線断層撮影装置において、
前記画像再構成手段は、前記投影データの収集の最中に、前記複数の断層像を順次画像再構成するものであり、
前記順次行われる画像再構成の最中に、前記複数の断層像について順次ラベリング処理を行うラベリング手段
をさらに備えたことを特徴とする放射線断層撮影装置。
A projection data collecting means for collecting projection data irradiated with radiation from around the subject and transmitted through a predetermined area of the subject;
Image reconstruction means for performing image reconstruction using the projection data and obtaining a plurality of tomographic images continuous in the body axis direction of the subject;
In a radiation tomography apparatus comprising:
The image reconstruction means sequentially reconstructs the plurality of tomographic images during the collection of the projection data,
Labeling means for sequentially labeling the plurality of tomographic images during the sequential image reconstruction.
Radiation tomography apparatus characterized by further comprising a.
前記ラべリング手段は、前記順次行われるラべリング処理の最中に、連続領域の情報に基づく再ラベリング処理を行うことを特徴とする請求項1に記載の放射線断層撮影装置。The radiation tomography apparatus according to claim 1, wherein the labeling unit performs a re-labeling process based on information on continuous regions during the sequential labeling process. 前記ラベリング手段は、2値画像を介さず、濃淡画像である画像再構成された断層像からラベリング処理を行うことを特徴とする請求項1または請求項2のいずれか一項に記載の放射線断層撮影装置。 The labeling means, not through the binary image, radiological according to any one of claims 1 or claim 2, characterized in that performing the labeling process from tomogram image reconstruction is gray image Shooting device. 前記ラベリング手段は、断層像の各画素の画像特徴量またはその画素の近傍の画像特徴量に基づいて、ラベリング処理を行うことを特徴とする請求項1ないし請求項3のいずれか一項に記載の放射線断層撮影装置 4. The labeling unit according to claim 1, wherein the labeling unit performs a labeling process based on an image feature amount of each pixel of the tomographic image or an image feature amount in the vicinity of the pixel. 5. Radiation tomography equipment 前記ラべリング手段は、ラベリング処理しながら、ラベリング処理された連続領域ごとの画像特徴量を求めるものであることを特徴とする請求項1ないし請求項4のいずれか一項に記載の放射線断層撮影装置。5. The radiation tomography according to claim 1, wherein the labeling unit obtains an image feature amount for each continuous region subjected to the labeling process while performing the labeling process. Shooting device. 前記再ラべリング処理は、前記連続領域ごとの画像特徴量の編集を含むことを特徴とする請求項5に記載の放射線断層撮影装置。The radiation tomography apparatus according to claim 5, wherein the relabeling process includes editing of an image feature amount for each continuous region. 前記画像再構成手段は、ラベリング処理された領域または再ラベリング処理された領域の画像特徴量に応じて、ラベリングされた領域または再ラベリングされた領域を部位として認識し、該部位の画質を最適化する手段を含むことを特徴とする請求項5または請求項6のいずれか一項に記載の放射線断層撮影装置。 The image reconstruction unit recognizes a labeled region or a re-labeled region as a part in accordance with an image feature amount of the labeled region or the re-labeled region, and optimizes the image quality of the part. radiation tomography apparatus according to any one of claims 5 or claim 6, characterized in that it comprises means for. 前記画像特徴量は、面積、画像濃度和、周囲長、フェレ径、フェレ径比、円形度、面積率、1次モーメント、2次モーメント、楕円近似した長径・短径、体積、体積濃度和、表面積、三次元フェレ径、三次元フェレ径比、球形度、体積率、三次元1次モーメント、三次元2次モーメント、楕円体近似した径のうち少なくとも1つを含むことを特徴とする請求項5から請求項7のいずれか一項に記載の放射線断層撮影装置。 The image feature amount includes area, image density sum, perimeter length, ferret diameter, ferret diameter ratio, circularity, area ratio, first moment, second moment, ellipse approximated major axis / minor axis, volume, volume density sum, The surface area, the three-dimensional ferret diameter, the three-dimensional ferret diameter ratio, the sphericity, the volume ratio, the three-dimensional first moment, the three-dimensional second moment, and an ellipsoid approximate diameter are included. The radiation tomography apparatus according to any one of claims 5 to 7 .
JP2006051453A 2006-02-28 2006-02-28 Radiation tomography equipment Expired - Fee Related JP4982091B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006051453A JP4982091B2 (en) 2006-02-28 2006-02-28 Radiation tomography equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006051453A JP4982091B2 (en) 2006-02-28 2006-02-28 Radiation tomography equipment

Publications (2)

Publication Number Publication Date
JP2007229023A JP2007229023A (en) 2007-09-13
JP4982091B2 true JP4982091B2 (en) 2012-07-25

Family

ID=38550226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006051453A Expired - Fee Related JP4982091B2 (en) 2006-02-28 2006-02-28 Radiation tomography equipment

Country Status (1)

Country Link
JP (1) JP4982091B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009063637A (en) 2007-09-04 2009-03-26 Fujifilm Corp Optical scanning probe, optical scanning probe device, and method for controlling optical scanning probe
JP2010066157A (en) * 2008-09-11 2010-03-25 Shimadzu Corp Cone beam x-ray ct device
JP5513038B2 (en) * 2009-08-21 2014-06-04 オリンパス株式会社 3D cell image analyzer
JP5458771B2 (en) * 2009-09-24 2014-04-02 株式会社島津製作所 Radiation tomography system
KR102387928B1 (en) * 2020-07-06 2022-04-19 메디컬아이피 주식회사 Method for analyzing human tissue based on medical image and apparatus therefor
CN116993625B (en) * 2023-09-26 2023-12-15 天津市胸科医院 Bronchoscope image enhancement method and system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58125171A (en) * 1982-01-21 1983-07-26 Toshiba Corp Picture display
JPS62216078A (en) * 1986-03-18 1987-09-22 Toshiba Corp Picture displaying device
JPS6488689A (en) * 1987-09-29 1989-04-03 Toshiba Corp Three dimensional labelling device
JPH01129367A (en) * 1987-11-16 1989-05-22 Toshiba Corp Picture processor
JP2003141548A (en) * 2001-10-22 2003-05-16 Ge Medical Systems Global Technology Co Llc Three-dimensional labeling device and method
JP4565796B2 (en) * 2002-07-25 2010-10-20 株式会社日立メディコ Diagnostic imaging equipment
JP2004073432A (en) * 2002-08-15 2004-03-11 Ge Medical Systems Global Technology Co Llc X-ray ct apparatus, image processing method, and program
JP2004081046A (en) * 2002-08-23 2004-03-18 Ken Matsuura Lacing Service:Kk Handle for fishing reel
JP2005278690A (en) * 2004-03-26 2005-10-13 Hiroshima Industrial Promotion Organization Method for detecting nodular shadow from three-dimensional chest ct image using computer, apparatus therefor and computer program

Also Published As

Publication number Publication date
JP2007229023A (en) 2007-09-13

Similar Documents

Publication Publication Date Title
US8094910B2 (en) Method of reconstructing an image function from Radon data
KR101787119B1 (en) Radiation image pickup device and image pickup method by radiation, and data processing device
US7574249B2 (en) Device-less gating of physiological movement for improved image detection
JP5090680B2 (en) X-ray CT system
JP5348855B2 (en) Object image reconstruction method and apparatus for performing the method
JP4558266B2 (en) Conical beam CT scanner by image reconstruction using multiple sub-images
US6574297B2 (en) System and method for image reconstruction in a cone beam imaging system
US20070019851A1 (en) Image processing apparatus and X-ray CT apparatus
JP2007000406A (en) X-ray ct method and x-ray ct apparatus
JP4342164B2 (en) Computed tomography equipment
JP2007000408A (en) X-ray ct apparatus
JP2007236662A (en) X-ray ct system, its x-ray ct image reconstitution method and x-ray ct image photographing method
JPH08117220A (en) Radioscopic photographing method and x-ray apparatus
JP2007089674A (en) Shape of appearance measuring apparatus and x-ray ct apparatus
JP2007089673A (en) X-ray ct apparatus
JP4982091B2 (en) Radiation tomography equipment
JP2007097977A (en) X-ray ct apparatus
JP2007029735A (en) Method for compiling computer tomographic representation using ct system, and ct system
JP4777520B2 (en) Computed tomography method for forming a scanogram
JPH0767445B2 (en) X-ray CT system
CN105326524B (en) The medical imaging procedure and device of the artifact in image can be reduced
JP5214110B2 (en) X-ray CT system
JP5022612B2 (en) X-ray CT system
US7260175B2 (en) CT image producing method and X-ray CT apparatus
US20050094760A1 (en) CT image producing method and X-ray CT apparatus

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20090114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120326

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150427

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4982091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees