JP3244347B2 - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus

Info

Publication number
JP3244347B2
JP3244347B2 JP16348093A JP16348093A JP3244347B2 JP 3244347 B2 JP3244347 B2 JP 3244347B2 JP 16348093 A JP16348093 A JP 16348093A JP 16348093 A JP16348093 A JP 16348093A JP 3244347 B2 JP3244347 B2 JP 3244347B2
Authority
JP
Japan
Prior art keywords
mask
image data
processing
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP16348093A
Other languages
Japanese (ja)
Other versions
JPH0721351A (en
Inventor
雲 沈
Original Assignee
ジーイー横河メディカルシステム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジーイー横河メディカルシステム株式会社 filed Critical ジーイー横河メディカルシステム株式会社
Priority to JP16348093A priority Critical patent/JP3244347B2/en
Publication of JPH0721351A publication Critical patent/JPH0721351A/en
Application granted granted Critical
Publication of JP3244347B2 publication Critical patent/JP3244347B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は画像処理方法及び画像処
理装置における断層イメージの立体画像表示の改善に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and an image processing apparatus for improving a stereoscopic image display of a tomographic image.

【0002】[0002]

【従来の技術】近年の高速CTの普及並びにヘリカルス
キャンの実用化に伴って、三次元画像表示が注目されて
いる。ここで、ヘリカルスキャンというのは、X線管及
び検出器を含むガントリを複数回回転させ、その間に被
検体を載置したテーブルを前進もしくは後退させて、被
検体の周囲をX線でらせん状に走査する方式である。そ
して、最も簡単な三次元画像表示方法として、MIP
(Maximum Intensity Projection )処理が知られてい
る。このMIP処理というのは処理対象である全ての原
画像に対し、それぞれの観察方向上にある全てのピクセ
ルについて、一番大きな値を取り出して得られた投影画
像のことである。また、最大値に限定せず、最小値,平
均値あるいは特定値を取り出すことも考えられるので、
以下これを画像投影法またはIP(Image Projection)
法と呼ぶ。例えば、造影撮影によって、病巣部がlow de
nsity として描出されることもある。そのとき、病巣部
を抽出するために、最小値を取り出すMin_IP(Mi
nimum Intensity Projection)処理が有効である。
2. Description of the Related Art With the spread of high-speed CT and the practical use of helical scanning in recent years, attention has been paid to three-dimensional image display. Here, the helical scan means that the gantry including the X-ray tube and the detector is rotated several times, and the table on which the subject is placed is moved forward or backward during that time, and the periphery of the subject is spiraled with X-rays. This is a method of performing scanning. As the simplest 3D image display method, MIP
(Maximum Intensity Projection) processing is known. The MIP processing is a projection image obtained by taking out the largest value of all pixels in each observation direction from all original images to be processed. Also, it is possible to take out the minimum value, average value or specific value without limiting to the maximum value.
This is hereinafter referred to as image projection or IP (Image Projection).
Call the law. For example, the focus was low de
Sometimes rendered as nsity. At that time, Min_IP (Mi_IP (Mi
nimum Intensity Projection) processing is effective.

【0003】一般的な高速CTにおいて、患者一人あた
り通常数十枚〜数百枚のイメージが得られる。特に最近
はヘリカルスキャンによる肺癌集団検診が提案されてい
るが、そのときのCTの処理能力(診断に適したテーブ
ル移動速度の設定等)以上に画像の処理能力(読影効
率)が問題となることがある。IP法はこのような問題
を解決することが可能な新しい表示方法として期待され
る。
[0003] In general high-speed CT, several tens to several hundred images are usually obtained per patient. In particular, lung cancer mass screening by helical scan has recently been proposed, but image processing performance (interpretation efficiency) is more problematic than CT processing performance (setting of table moving speed suitable for diagnosis, etc.) at that time. There is. The IP method is expected as a new display method capable of solving such a problem.

【0004】また、観測方向を細かく角度で変化させる
ことによって得られた一連のIP画像を用いて、シネモ
ードにより血管の走行並びに病巣部と血管等の関係を立
体的に観測が可能になる。このような立体的な観測は腫
瘍の大きさと悪性/良性の判断等に役立つと考えられ
る。従って、IP法は高速CTにおける軸方向での連続
スキャンを行うときの一つの基本表示機能として考えら
れる。
Further, using a series of IP images obtained by finely changing the observation direction by an angle, it is possible to three-dimensionally observe the running of a blood vessel and the relationship between a lesion and a blood vessel in a cine mode. It is considered that such three-dimensional observation is useful for determining the size of the tumor and determining whether the tumor is malignant or benign. Therefore, the IP method can be considered as one basic display function when performing continuous scanning in the axial direction in high-speed CT.

【0005】また、断層イメージを取得するのに上述の
CT以外にもMRによることも考えられる。ところが、
MRアンギオは基本的に骨が映らないのに対し、CTイ
メージには骨がかなり強く映る。通常の場合、その骨が
CT MIP処理の邪魔になる。従って、CT MIP
処理においては骨を含む不要な領域の削除が前処理にお
いて極めて重要になる。
[0005] In addition to the above-mentioned CT, MR may be used to obtain a tomographic image. However,
While MR angio basically does not show bones, CT images show bones quite strongly. Normally, the bone hinders the CT MIP process. Therefore, CT MIP
In processing, the removal of unnecessary areas including bones is extremely important in preprocessing.

【0006】このような骨の削除を含む関心領域の抽出
は以下の二つの方法が考えられる。関心領域の抽出のた
めの第一の方法は、しきい値を設定することによって不
要領域を削除する方法(しきい値法)である。また、第
二の方法は、マスクによって関心領域を抽出する方法
(マスク法)である。
The following two methods can be considered for extracting a region of interest including such bone removal. A first method for extracting a region of interest is a method of setting a threshold to delete an unnecessary region (threshold method). The second method is a method of extracting a region of interest using a mask (mask method).

【0007】[0007]

【発明が解決しようとする課題】しかし、しきい値方法
によっては、不要な臓器と関心臓器とのコントラストが
付きにくい(CT値の差が小さい)ときに、関心領域の
抽出がうまく行えないことがある。例えば、造影するこ
とによって、骨と血管とのCT値がかなり近づくことが
あり、このような場合に関心領域の抽出が困難になるこ
とがある。
However, depending on the threshold value method, it is difficult to extract a region of interest when the contrast between an unnecessary organ and the organ of interest is difficult to obtain (the difference in CT value is small). There is. For example, by performing the contrast, the CT values of the bone and the blood vessel may be considerably close to each other, and in such a case, it may be difficult to extract the region of interest.

【0008】また、マスク法による処理の場合のマスク
として、主に四角や円形等の特定のパターンが使われ
る。このように、四角や円形等の特定のパターンを使っ
てマスク処理を行えば効率が良いが、不要領域を完全に
削除できなかったり、逆に観測すべき関心領域が大幅に
削除されるという不具合が生じることがある。これに対
し、イメージ上でプロットすることで適したマスクを個
々に作成することも考えられる。このような個々のイメ
ージ上でプロットする方法によれば不要領域のみを完全
に削除することが可能であるが、個々のイメージ毎に作
業する必要があり効率は非常に悪化する。従って、マス
ク法においては、効率的であってかつ正確なマスク生成
を行うことが望まれていた。
Further, a specific pattern such as a square or a circle is mainly used as a mask in the case of processing by the mask method. As described above, it is efficient to perform mask processing using a specific pattern such as a square or a circle, but the unnecessary area cannot be completely deleted, or the region of interest to be observed is significantly deleted. May occur. On the other hand, it is conceivable to individually create suitable masks by plotting on an image. According to such a method of plotting on individual images, it is possible to completely eliminate only unnecessary regions, but it is necessary to work for each individual image, and the efficiency is extremely deteriorated. Therefore, in the mask method, it has been desired to generate an efficient and accurate mask.

【0009】また、前述のMIP処理以外の三次元画像
表示方法として、複数の断層データを用いて立体画像を
生成する3D処理がある。この3D処理のためには、予
め関心領域の抽出を行った複数の断層データを用意して
おかないと、外側の骨等により所望の部位が見えなくな
ることがある。例えば、胸の断層データを用いて肺や心
臓を3D表示する場合に、肋骨が邪魔になって内部を見
ることができないことがある。
As a three-dimensional image display method other than the above-described MIP processing, there is a 3D processing for generating a three-dimensional image using a plurality of tomographic data. Unless a plurality of tomographic data from which a region of interest has been extracted are prepared in advance for the 3D processing, a desired part may not be seen due to an outer bone or the like. For example, when the lungs and the heart are displayed in 3D using the tomographic data of the chest, the ribs may hinder the user from seeing the inside.

【0010】このために、予め、複数の断層データ全て
についてマスク処理やしきい値処理を施して不要領域を
除去しておく必要がある。しかし、上述したように不要
領域を除去は作業効率や不要領域除去の正確さの点で問
題を有している。
For this purpose, it is necessary to remove unnecessary regions by performing mask processing and threshold processing on all of the plurality of tomographic data in advance. However, as described above, the removal of the unnecessary area has problems in work efficiency and the accuracy of the unnecessary area removal.

【0011】また、MIP処理,3D処理のいずれの三
次元画像表示においても、任意角度の任意の画像を表示
したいという要請があった。本発明は上記の点に鑑みて
なされたもので、その目的は、CTヘリカルスキャンや
MR等により得られた断層データに効率的なマスク処理
を施して、MIP処理や3D等による所望の三次元画像
表示を行うことが可能な画像処理方法及び画像処理装置
を実現することである。
[0011] In addition, there has been a request to display an arbitrary image at an arbitrary angle in any of three-dimensional image display of MIP processing and 3D processing. The present invention has been made in view of the above points, and an object of the present invention is to perform efficient mask processing on tomographic data obtained by CT helical scan, MR, or the like, and obtain desired three-dimensional data by MIP processing, 3D, or the like. An object of the present invention is to realize an image processing method and an image processing apparatus capable of displaying an image.

【0012】[0012]

【課題を解決するための手段】前記の課題は、複数の断
面の画像データにマスク処理を施した後に画像処理を実
行する画像処理方法において、処理すべき画像データに
対してマスク生成のための予め定められた処理を行い、
全画像データに対してのマスクを生成する工程と、生成
されたマスクを用いて全画像データに対してマスク処理
を行い、マスク処理済み画像データを生成する工程と、
マスク処理済み画像データを用いて所望の画像処理を実
行する工程とを有することを特徴とする画像処理方法に
より達成される。
SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing method for performing image processing after performing mask processing on image data of a plurality of cross-sections. Perform predetermined processing,
A step of generating a mask for all image data, a step of performing mask processing on all image data using the generated mask, and generating masked image data;
And performing a desired image processing using the masked image data.

【0013】また、処理すべき画像データを蓄積する画
像蓄積手段と、画像蓄積手段に蓄積された画像データに
対してマスク生成のための予め定められた処理を行い、
全画像データに対してのマスクを生成するマスク生成手
段と、マスク生成手段により生成されたマスクを用いて
全画像データに対してマスク処理を行い、マスク処理済
み画像データを生成するマスク処理部と、マスク処理部
でマスク処理されたマスク処理済み画像データを用いて
所望の画像処理を実行する画像処理部とを有することを
特徴とする画像処理装置により解決される。
An image storage means for storing image data to be processed, and a predetermined process for generating a mask for the image data stored in the image storage means,
Mask generating means for generating a mask for all image data, and a mask processing unit for performing mask processing on all image data using the mask generated by the mask generating means to generate masked image data And an image processing unit for performing desired image processing using the masked image data masked by the mask processing unit.

【0014】[0014]

【作用】この画像処理方法及び画像処理装置において、
マスク生成部が処理すべき画像データに対してマスク生
成のための予め定められた処理を行い、全画像データに
対してのマスクを生成し、マスク処理部がマスクを用い
て全画像データに対してマスク処理を行い、マスク処理
済み画像データを生成し、このようにして生成されたマ
スク処理済み画像データを用いて所望の画像処理を実行
する。尚、マスク処理済み画像データは不要な領域が除
去されているため、各種の画像処理を行って任意の三次
元画像を表示することができる。
In this image processing method and image processing apparatus,
The mask generation unit performs a predetermined process for generating a mask on the image data to be processed, generates a mask for all the image data, and the mask processing unit uses the mask to process the entire image data. Then, mask processing is performed to generate masked image data, and desired image processing is executed using the masked image data thus generated. Since unnecessary areas are removed from the masked image data, an arbitrary three-dimensional image can be displayed by performing various types of image processing.

【0015】[0015]

【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。図1は本発明の一実施例の画像処理方法の
概略処理工程を示す説明図である。また、図2は本発明
の一実施例の画像処理装置である。まず、図2を用いて
画像処理装置の構成を説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is an explanatory diagram showing a schematic processing step of an image processing method according to one embodiment of the present invention. FIG. 2 shows an image processing apparatus according to an embodiment of the present invention. First, the configuration of the image processing apparatus will be described with reference to FIG.

【0016】図2において、画像蓄積部1には図外の断
層撮影装置により得られたCTあるいはMRの画像デー
タが蓄積されている。画像処理装置2は画像蓄積部1に
蓄積されている画像データについて効率的なマスク処理
を施した後に所望の画像処理を実行するものであり、0
°MIP処理部3,マスク生成部4,マスク処理部5,
画像処理部6を有している。0°MIP処理部3は、処
理すべき全画像データ若しくは所定量の画像データに共
通したマスクを決定するためのデータを生成し、このデ
ータからマスク生成部4が共通したマスクを生成する。
マスク処理部5は共通したマスクを用いて全画像データ
若しくは所定量の画像データに対して効率的なマスク処
理を実行する。画像処理部6はマスク処理済みの画像デ
ータに対して所望の各種の画像処理(3D,MIP処理
等)を実行するものであり、処理結果を表示部7に表示
する。尚、制御部8は装置全体の動作を制御するもので
ある。
In FIG. 2, an image storage unit 1 stores CT or MR image data obtained by a tomography apparatus (not shown). The image processing device 2 executes a desired image process after performing an efficient mask process on the image data stored in the image storage unit 1.
° MIP processing unit 3, mask generation unit 4, mask processing unit 5,
An image processing unit 6 is provided. The 0 ° MIP processing unit 3 generates data for determining a mask common to all image data to be processed or a predetermined amount of image data, and the mask generation unit 4 generates a mask common from this data.
The mask processing unit 5 performs efficient mask processing on all image data or a predetermined amount of image data using a common mask. The image processing unit 6 performs various desired image processing (3D, MIP processing, etc.) on the masked image data, and displays the processing result on the display unit 7. The control section 8 controls the operation of the entire apparatus.

【0017】次に、本発明の実施例にかかる画像処理方
法及び画像処理装置の画像処理工程について説明する。
画像蓄積部1にはCT若しくはMRにより得られた多数
の画像データが蓄積されている。例えば、ヘリカルスキ
ャンにより得られた胸部や腹部についての数十枚の体軸
方向の断層像の一連の画像群からなる画像データが蓄積
されているとして説明を行う。
Next, an image processing method and an image processing step of an image processing apparatus according to an embodiment of the present invention will be described.
The image storage unit 1 stores a large number of image data obtained by CT or MR. For example, a description will be given on the assumption that image data including a series of several tens of tomographic images in the body axis direction of the chest and abdomen obtained by helical scan is accumulated.

【0018】このように蓄積された断層像の画像データ
のそれぞれが比較的変化の小さいもの(近接した断面)
である場合は、それぞれの画像データ同士の変化は小さ
く、不要領域は同じような位置に存在するため、全画像
データについて一枚のマスクを一括して生成するような
処理を行う。
Each of the image data of the tomographic images thus accumulated has a relatively small change (close cross section).
In the case of, since the change between the respective image data is small and the unnecessary area exists at the same position, a process of generating one mask for all the image data at once is performed.

【0019】また、画像データのそれぞれが比較的変化
の大きいものである場合は、それぞれの画像データの不
要領域が徐々にずれた位置に存在するため、一枚のマス
クで全画像データを処理しては必要な領域までもマスク
にかかることになる。そこで、変化の小さい区域毎にグ
ループとして分割して、複数枚のマスクを生成するよう
な分割処理を行う。このため、図外の操作部からの指示
に基づいて制御部8が画像処理装置2を制御する(図1
ステップ(1) )。
If each of the image data has a relatively large change, the unnecessary area of each image data is located at a position shifted gradually, so that all the image data is processed by one mask. In other words, even the necessary area is covered by the mask. Therefore, division processing is performed such that a plurality of masks are generated by dividing the area into small groups for each small change. For this reason, the control unit 8 controls the image processing apparatus 2 based on an instruction from an operation unit (not shown) (FIG. 1).
step 1) ).

【0020】まず、分割処理を行わずに一括して処理す
る場合について説明する。0°MIP処理部3は、画像
蓄積部1に蓄積されている数十枚の画像データを用いて
最大値,最小値,平均値,特定値等のMIP処理を行
う。
First, a description will be given of a case where processing is performed collectively without performing division processing. The 0 ° MIP processing unit 3 performs MIP processing such as a maximum value, a minimum value, an average value, and a specific value using dozens of image data stored in the image storage unit 1.

【0021】これにより、全画像データの骨,心臓等の
部分が重ね合わされたような画像データ(マスク生成用
データ)が生成される(図1(2) )。尚、この実施例で
は被検体がテーブル上に水平に載置されている場合を例
にしているため体軸方向の0°MIP処理を行うように
しているが、被検体がテーブル上に傾きをもって載置さ
れている場合には、0°ではなく被検体の傾きに合わせ
た傾きを持ったMIP処理を行うようにする。
As a result, image data (mask generation data) is generated such that bones, hearts and the like of all image data are superimposed (FIG. 1 (2)). In this embodiment, the case where the subject is placed horizontally on the table is taken as an example, so that the 0 ° MIP processing in the body axis direction is performed, but the subject is tilted on the table. When it is mounted, the MIP processing is performed with an inclination that matches the inclination of the subject instead of 0 °.

【0022】また、この0°MIP処理においては全画
像データを用いて処理を行ってから共通した不要領域を
除去するマスクを生成するようにしたが、全画像データ
を用いずに最初と最後の2枚の画像データを用いてMI
P処理を行い、これら2データの不要領域をカバーする
範囲のマスクを生成しても結果的に同様なマスクが得ら
れる。従って、処理時間の短縮のために、最初と最後の
2枚の画像データを用いて0°MIP処理を行うことも
可能である。
In this 0 ° MIP processing, a mask for removing a common unnecessary area is generated after performing processing using all image data. However, the first and last masks are not used without using all image data. MI using two image data
Even if the P processing is performed to generate a mask in a range covering the unnecessary area of these two data, a similar mask is obtained as a result. Therefore, in order to shorten the processing time, it is also possible to perform the 0 ° MIP processing using the first and last two pieces of image data.

【0023】図3及び図4は画像データのうちのある断
面を示し、図5は上述のような0°MIP処理により得
られたマスク生成用画像データを示している。ここで図
5に示したものは、骨を除去するためのマスクに適した
MIP処理を行って得られたマスク生成用画像データで
ある。このため、骨の部分が重なって見えるものであ
る。
FIGS. 3 and 4 show a certain section of the image data, and FIG. 5 shows the image data for mask generation obtained by the 0 ° MIP processing as described above. Here, what is shown in FIG. 5 is mask generation image data obtained by performing MIP processing suitable for a mask for removing bone. For this reason, the bones appear to overlap.

【0024】このようにして得られたマスク生成用デー
タ(図5)を参照してマスク生成部4がマスクを生成す
る。骨を除去する場合には図5の骨が重なって見える部
分に相当するマスクを生成することで、骨を除去して病
変部を残すような一括処理用のマスクが生成される(図
1ステップ(3) )。また、逆に骨を残すようなマスクを
生成することもできる。更に、動脈や静脈を除去して毛
細血管部を残すようなマスクや空気の層を除去するマス
クも考えられる。
The mask generation unit 4 generates a mask with reference to the mask generation data (FIG. 5) obtained as described above. When removing the bone, a mask corresponding to a portion where the bone is seen in FIG. 5 is generated to generate a mask for batch processing that removes the bone and leaves a lesion (step in FIG. 1). (3)). Conversely, a mask that leaves a bone can also be generated. Further, a mask that removes an artery or a vein to leave a capillary portion or a mask that removes an air layer is also conceivable.

【0025】すなわち、オペレータが見たい所望の画像
に合わせて、各種のマスクを生成することが可能であ
る。骨をマスクするのであれば、MIP(Maximum Inte
nsityProjection )処理でマスクを生成する。また、
空気等をマスクするのであれば、最小値でMin_IP
(Minimum Intensity Projection)マスクを生成するよ
うにする。
That is, various masks can be generated in accordance with a desired image desired by the operator. If masking bones, use MIP (Maximum Inte
nsityProjection) Generates a mask by processing. Also,
If masking air, etc., the minimum value should be Min_IP
(Minimum Intensity Projection) Generate a mask.

【0026】このようにして得られた一括処理用のマス
クを用いて、画像蓄積部1に蓄積されている一連の画像
群からなる画像データについてマスク処理部5がマスク
処理を実行し(図1ステップ(4) )、マスク処理済みの
画像データを再び画像蓄積部1に戻す。この場合、共通
のマスクを用いてマスク処理を行えるため、効率が良
く、マスク処理時間を著しく短縮することができる。ま
た、比較的変化の小さい画像データについて共通したマ
スクを生成しているので、関心領域を正確に抽出するこ
とが可能になる。
Using the mask for batch processing obtained in this way, the mask processing unit 5 performs a mask process on image data composed of a series of images stored in the image storage unit 1 (FIG. 1). Step (4)), the masked image data is returned to the image storage unit 1 again. In this case, since mask processing can be performed using a common mask, the efficiency is high and the mask processing time can be significantly reduced. In addition, since a common mask is generated for image data having a relatively small change, a region of interest can be accurately extracted.

【0027】次に、分割処理を行う場合について説明す
る。0°MIP処理部3は、画像蓄積部1に蓄積されて
いる数十枚の画像データを用いて、変化の小さい画像毎
にいくつか領域を定め、この領域毎に画像データを画像
蓄積手段1から読み込んで、この領域毎に最大値,最小
値,平均値,特定値等のMIP処理を行う(図1ステッ
プ(5) )。これにより、マスク生成用データが分割した
領域毎に生成される(図1(6) )。このようにして得ら
れたマスク生成用データ(図5)を参照してマスク生成
部4が分割した領域毎に分割処理用のマスクを生成する
(図1ステップ(7) )。
Next, the case where the dividing process is performed will be described. The 0 ° MIP processing unit 3 uses the tens of image data stored in the image storage unit 1 to determine several regions for each image having a small change, and stores the image data for each region. And performs MIP processing such as a maximum value, a minimum value, an average value, and a specific value for each area (step (5) in FIG. 1). As a result, mask generation data is generated for each divided area (FIG. 1 (6)). Referring to the mask generation data (FIG. 5) obtained in this way, the mask generation unit 4 generates a mask for division processing for each of the divided areas (step (7) in FIG. 1).

【0028】このようにして得られた分割処理用のマス
クを用いて、マスク処理部5が画像蓄積部1に蓄積され
ている一連の画像群からなる画像データについてマスク
処理を分割された領域毎に実行し(図1ステップ(8)
)、マスク処理済みの画像データを再び画像蓄積部1
に戻す。この場合、領域毎に共通のマスクを用いてマス
ク処理を行えるため、効率が良く、従来のように1枚毎
にマスク処理を行っていた場合と比較するとマスク処理
時間を短縮することができる。この場合も、比較的変化
の小さい画像データのグループについて共通したマスク
を生成しているので、関心領域を正確に抽出することが
可能になる。
Using the division processing mask obtained in this manner, the mask processing unit 5 performs the mask processing for each of the divided areas of the image data composed of a series of image groups stored in the image storage unit 1. (Step (8) in Figure 1)
), The masked image data is stored in the image storage unit 1 again.
Return to In this case, since mask processing can be performed using a common mask for each region, efficiency is improved, and mask processing time can be reduced as compared with the conventional case where mask processing is performed for each sheet. Also in this case, since a common mask is generated for a group of image data having a relatively small change, the region of interest can be accurately extracted.

【0029】そして、画像蓄積部1に格納されたマスク
処理済みの画像データについて、画像処理部6が所望の
画像処理を行って表示部7に表示する。この場合、画像
蓄積部1には既にマスク処理により不要部分が除去され
た一群の画像データが蓄積されているため、画像処理部
6での画像処理は、どのような画像処理を行うことも可
能である。すなわち、任意の角度のMIP処理や3D処
理であっても骨等の不要物の影響を受けることなく処理
を行えるようになり、所望の画像を容易に観察すること
ができるようになる。
The image processing unit 6 performs desired image processing on the masked image data stored in the image storage unit 1 and displays the image data on the display unit 7. In this case, since a group of image data from which unnecessary portions have been removed by mask processing has already been stored in the image storage unit 1, any image processing can be performed in the image processing unit 6. It is. That is, even in the case of MIP processing or 3D processing at an arbitrary angle, processing can be performed without being affected by unnecessary objects such as bones, and a desired image can be easily observed.

【0030】以上詳細に説明したように、本実施例によ
れば、多数の断層像の画像データに対して共通したマス
クを生成してマスク処理を行うことができ、きわめて効
率的なマスク処理及び画像処理を行えるようになる。ま
た、マスク処理後の画像データに対しては、各種の画像
処理を行うことができるため、任意の三次元画像の表示
が行える。
As described above in detail, according to this embodiment, a mask can be generated by generating a common mask for image data of a large number of tomographic images. Image processing can be performed. In addition, since various types of image processing can be performed on the image data after the mask processing, an arbitrary three-dimensional image can be displayed.

【0031】[0031]

【発明の効果】以上詳細に説明したように、多数の断層
像の画像データに対して共通したマスクを生成してマス
ク処理を行うようにすることで、きわめて効率的かつ正
確なマスク処理及び画像処理を行え、マスク処理後の画
像データに対しては各種の画像処理を行って所望の画像
表示を行うことができる画像処理方法及び画像処理装置
を実現することが可能になる。
As described above in detail, by generating a common mask for a large number of tomographic image data and performing the mask processing, extremely efficient and accurate mask processing and image processing can be performed. It is possible to realize an image processing method and an image processing apparatus capable of performing processing, performing various image processing on the image data after the mask processing, and displaying a desired image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の画像処理方法の処理内容の
概略を示すフローチャートである。
FIG. 1 is a flowchart showing an outline of processing contents of an image processing method according to an embodiment of the present invention.

【図2】本発明の一実施例の装置の構成を示す構成図で
ある。
FIG. 2 is a configuration diagram showing a configuration of an apparatus according to an embodiment of the present invention.

【図3】本発明の一実施例のマスクの生成の様子を示す
説明図である。
FIG. 3 is an explanatory diagram showing how a mask is generated according to an embodiment of the present invention.

【図4】本発明の一実施例のマスクの生成の様子を示す
説明図である。
FIG. 4 is an explanatory diagram showing how a mask is generated according to an embodiment of the present invention.

【図5】本発明の一実施例のマスクの生成の様子を示す
説明図である。
FIG. 5 is an explanatory diagram showing how a mask is generated according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 画像蓄積部 2 画像処理装置 3 0°MIP処理部 4 マスク生成部 5 マスク処理部 6 画像処理部 7 表示部 8 制御部 DESCRIPTION OF SYMBOLS 1 Image storage part 2 Image processing apparatus 3 0 degree MIP processing part 4 Mask generation part 5 Mask processing part 6 Image processing part 7 Display part 8 Control part

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 7/00 - 7/60 A61B 6/00 - 6/14 313 ──────────────────────────────────────────────────続 き Continued on the front page (58) Fields surveyed (Int. Cl. 7 , DB name) G06T 1/00 G06T 7 /00-7/60 A61B 6/00-6/14 313

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の断面の画像データにマスク処理を
施した後に画像処理を実行する画像処理方法において、
処理すべき画像データのうちの複数の画像データに対し
て各観察方向上にある全てのピクセルについて所定の値
を取り出す処理を行ってマスク生成用データを作成し、
マスク作成用データを使用して全画像データに対しての
マスクを生成する工程と、生成されたマスクを用いて全
画像データに対してマスク処理を行い、マスク処理済み
画像データを生成する工程と、マスク処理済み画像デー
タを用いて所望の画像処理を実行する工程を有すること
を特徴とする画像処理方法。
1. An image processing method for performing image processing after performing mask processing on image data of a plurality of cross sections,
For a plurality of image data of the image data to be processed, perform a process of extracting a predetermined value for all pixels in each observation direction to create mask generation data,
Generating a mask for all image data using the mask creation data, performing mask processing on all image data using the generated mask, and generating masked image data; And performing a desired image process using the masked image data.
【請求項2】 前記複数の断面の画像データを複数のグ
ループに分け、このグループ毎に処理すべき画像データ
のうちの複数の画像データに対して各観察方向上にある
全てのピクセルについて所定の値を取り出す処理を行っ
てマスク生成用データを作成し、マスク作成用データを
使用して該グループの画像データに対してのマスクを生
成し、このようにして得られたマスクを用いて複数のグ
ループ毎にマスク処理を行うことを特徴とする請求項1
記載の画像処理方法。
2. The image data of the plurality of cross sections are divided into a plurality of groups, and a plurality of image data to be processed for each group is subjected to a predetermined process for all the pixels in each observation direction with respect to a plurality of image data. A process for extracting a value is performed to generate mask generation data, a mask is generated for the image data of the group using the mask generation data, and a plurality of masks are generated using the mask thus obtained. 2. A mask processing is performed for each group.
The image processing method described in the above.
【請求項3】 処理すべき画像データを蓄積する画像蓄
積手段(1)と、画像蓄積手段(1)に蓄積された画像
データのうち、複数の画像データに対して各観察方向上
にある全てのピクセルについて所定の値を取り出す処理
を行ってマスク生成用データを作成し、マスク作成用デ
ータを使用して全画像データに対してのマスクを生成す
るマスク生成手段(3,4)と、マスク生成手段(3,
4)により生成されたマスクを用いて全画像データに対
してマスク処理を行い、マスク処理済み画像データを生
成するマスク処理部(5)と、マスク処理部(5)でマ
スク処理されたマスク処理済み画像データを用いて所望
の画像処理を実行する画像処理部(6)とを有すること
を特徴とする画像処理装置。
3. An image storage means (1) for storing image data to be processed, and among image data stored in the image storage means (1), a plurality of image data in all directions in each observation direction. Mask generation means (3, 4) for generating mask generation data by performing a process of extracting a predetermined value for each pixel, and generating a mask for all image data using the mask generation data; Generation means (3,
A mask processing unit (5) that performs mask processing on all image data using the mask generated in 4) and generates masked image data, and a mask processing performed by the mask processing unit (5). An image processing device comprising: an image processing unit (6) for performing desired image processing using the processed image data.
【請求項4】 前記マスク生成手段(3,4)は複数の
断面の画像データを複数のグループに分け、このグルー
プ毎に処理すべき画像データのうちの複数の画像データ
に対して各観察方向上にある全てのピクセルについて所
定の値を取り出す処理を行ってマスク生成用データを作
成し、マスク作成用データを使用して該グループの画像
データに対してのマスクを生成し、前記マスク処理部
(5)はグループ毎のマスクを用いて複数のグループ毎
にマスク処理を行うことを特徴とする請求項3記載の画
像処理装置。
4. The mask generating means (3, 4) divides the image data of a plurality of cross sections into a plurality of groups, and sets a plurality of image data to be processed for each group into a plurality of image data in each observation direction. Performing a process of extracting a predetermined value for all the pixels located above to generate mask generation data; generating a mask for the image data of the group using the mask generation data; 4. The image processing apparatus according to claim 3, wherein (5) performs mask processing for each of a plurality of groups using a mask for each group.
JP16348093A 1993-07-01 1993-07-01 Image processing method and image processing apparatus Expired - Lifetime JP3244347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16348093A JP3244347B2 (en) 1993-07-01 1993-07-01 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16348093A JP3244347B2 (en) 1993-07-01 1993-07-01 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JPH0721351A JPH0721351A (en) 1995-01-24
JP3244347B2 true JP3244347B2 (en) 2002-01-07

Family

ID=15774682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16348093A Expired - Lifetime JP3244347B2 (en) 1993-07-01 1993-07-01 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP3244347B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005199041A (en) * 2003-11-25 2005-07-28 General Electric Co <Ge> Method and apparatus for segmenting structure in ct angiography

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6421552B1 (en) * 1999-12-27 2002-07-16 Ge Medical Systems Global Technology Company, Llc Methods and apparatus for estimating cardiac motion using projection data
JP5000976B2 (en) * 2005-12-08 2012-08-15 株式会社日立メディコ Image processing apparatus, magnetic resonance imaging apparatus, and image processing method
WO2011037063A1 (en) * 2009-09-24 2011-03-31 株式会社 日立メディコ Projection image generation method and magnetic resonance imaging device
JP5698068B2 (en) * 2011-05-09 2015-04-08 富士フイルム株式会社 Image processing apparatus, image display system, radiographic image capturing system, image processing program, and image processing method
US9547894B2 (en) 2013-10-08 2017-01-17 Toshiba Medical Systems Corporation Apparatus for, and method of, processing volumetric medical image data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005199041A (en) * 2003-11-25 2005-07-28 General Electric Co <Ge> Method and apparatus for segmenting structure in ct angiography

Also Published As

Publication number Publication date
JPH0721351A (en) 1995-01-24

Similar Documents

Publication Publication Date Title
JP4965433B2 (en) Cone beam CT apparatus using truncated projection and pre-acquired 3D CT image
US7433507B2 (en) Imaging chain for digital tomosynthesis on a flat panel detector
US7180976B2 (en) Rotational angiography based hybrid 3-D reconstruction of coronary arterial structure
US7813785B2 (en) Cardiac imaging system and method for planning minimally invasive direct coronary artery bypass surgery
US6252924B1 (en) Method and apparatus for motion-free cardiac CT imaging
JP4421016B2 (en) Medical image processing device
JP5400326B2 (en) Method for displaying tomosynthesis images
US9811903B2 (en) Systems and methods for identifying bone marrow in medical images
JP4388104B2 (en) Image processing method, image processing program, and image processing apparatus
JP2004141245A (en) X-ray computer tomographic apparatus, image processor and image processing method
JP2003000580A (en) Image processor and medical image diagnostic device
EP1714250A2 (en) Automatic segmentation of tissues by dynamic change characterization
JP4350226B2 (en) 3D image processing device
JP2012179360A (en) Medical image processing apparatus, x-ray computer tomography device, and medical image processing program
JP2004174241A (en) Image forming method
JP3244347B2 (en) Image processing method and image processing apparatus
JP2007236502A (en) X-ray ct system
JP2016168120A (en) Medical image processor and image display control method in medical image processor
JP5525697B2 (en) Image processing apparatus and X-ray diagnostic apparatus
JP3488515B2 (en) Diagnosis support system and diagnosis support method
JP3615600B2 (en) Diagnostic imaging equipment
JPH0728976A (en) Picture display device
JP3425207B2 (en) Diagnosis support device
JP2009082632A (en) N-dimensional image display device and x-ray tomographic apparatus
JPH09204513A (en) Projected image processing method and device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081026

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081026

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091026

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091026

Year of fee payment: 8

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091026

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091026

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101026

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101026

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111026

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111026

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121026

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121026

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131026

Year of fee payment: 12

EXPY Cancellation because of completion of term