JP6021340B2 - Medical image processing apparatus and control program - Google Patents

Medical image processing apparatus and control program Download PDF

Info

Publication number
JP6021340B2
JP6021340B2 JP2012019330A JP2012019330A JP6021340B2 JP 6021340 B2 JP6021340 B2 JP 6021340B2 JP 2012019330 A JP2012019330 A JP 2012019330A JP 2012019330 A JP2012019330 A JP 2012019330A JP 6021340 B2 JP6021340 B2 JP 6021340B2
Authority
JP
Japan
Prior art keywords
unit
image data
region
image
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012019330A
Other languages
Japanese (ja)
Other versions
JP2013154127A (en
Inventor
智博 郡司
智博 郡司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Medical Systems Corp filed Critical Toshiba Medical Systems Corp
Priority to JP2012019330A priority Critical patent/JP6021340B2/en
Publication of JP2013154127A publication Critical patent/JP2013154127A/en
Application granted granted Critical
Publication of JP6021340B2 publication Critical patent/JP6021340B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、医用画像処理装置に関する。   Embodiments described herein relate generally to a medical image processing apparatus.

現在、X線CT(Computed Tomography:コンピュータ断層撮影)
装置やMRI(Magnetic ReonanceImaging:磁気共鳴画像)装
置等のモダリティを使用して被検体を撮像し、三次元画像を用いて疾病等の診断を行う画
像診断が多用されている。そしてその三次元画像データから二次元画面上に画像を表示さ
せるとき、多断面再構成(MPR:Multi Planer Reconstruct
ion)法、加算平均法、最大値投影(MIP:Maximum Intensity
Projection)法、最小値投影(MinIP:Minimum Intensi
ty Projection)法、等のレンダリング手法が使われる。それらの技法は多
種多様であり、用途に応じて使い分ける必要がある。
Currently, X-ray CT (Computed Tomography)
Image diagnosis is often used in which a subject is imaged using a modality such as an apparatus or MRI (Magnetic Resonance Imaging) apparatus, and a disease or the like is diagnosed using a three-dimensional image. When an image is displayed on the two-dimensional screen from the three-dimensional image data, the multi-section reconstruction (MPR: Multi Planer Reconstruct)
ion) method, addition averaging method, maximum value projection (MIP: Maximum Intensity)
Projection method, minimum projection (MinIP: Minimum Intensi)
ty Projection) method and the like are used. These techniques are diverse and need to be used according to the application.

ここでレンダリングとは、三次元データ構築で作成された三次元画像データから二次元
画面上に写実的画像を作り上げる方法である。
Here, rendering is a method of creating a realistic image on a two-dimensional screen from three-dimensional image data created by three-dimensional data construction.

最大値投影法は造影剤注入後の血管を撮像するときによく用いられる手法であるが、X
線吸収値の大きい血管の画素値が高くなって浮き出てしまい、血管の周りの臓器が見えづ
らくなってしまう。一方で加算平均法によって撮像した場合は、血管と臓器の画素の平均
値になってしまい、細い血管はあまり目立たなくなってしまう。血管と臓器をそれぞれし
っかり確認できる最大値投影画像と加算平均画像とを合成し、必要に応じてそれらの合成
率を変化させることによって、同一画面にて血管及び臓器の確認を行うこともできるが、
これでは診断の際に手間がかかってしまう。
The maximum value projection method is a technique often used when imaging blood vessels after the injection of contrast medium.
The pixel value of a blood vessel having a large linear absorption value becomes high and comes out, and it becomes difficult to see an organ around the blood vessel. On the other hand, when imaging is performed by the averaging method, the average value of the blood vessel and organ pixels is obtained, and the thin blood vessels are not so noticeable. It is also possible to check the blood vessels and organs on the same screen by combining the maximum projection image and the addition average image that can confirm each blood vessel and organ firmly and changing their composition rate as necessary. ,
This takes time and effort during diagnosis.

また、血管は三次元に蛇行しており、その走行具合を調べるために、一度画像を生成し
た後も撮像の条件を変更する場合がある。このとき、血管を所望の条件で観察しようとす
ると、同時に臓器領域の条件も変わってしまう。
In addition, blood vessels meander in three dimensions, and the imaging conditions may be changed even after an image has been generated once in order to check its running condition. At this time, if the blood vessel is to be observed under a desired condition, the condition of the organ region also changes at the same time.

故に、血管及び臓器の両方を満足に撮像された画像を取得し、且つそれぞれの条件を個
別に設定するための技術が現在求められている。
Therefore, there is a current need for a technique for acquiring images obtained by satisfactory imaging of both blood vessels and organs and setting each condition individually.

特開2007−14474号公報JP 2007-14474 A

本発明が解決しようとする課題は、細い血管及びその血管周りの臓器の両方を満足に確
認することが可能な所望の画像を得る方法を提供するものである。
The problem to be solved by the present invention is to provide a method for obtaining a desired image capable of satisfactorily confirming both a thin blood vessel and an organ around the blood vessel.

上記の課題を解決するために、一実施形態の医用画像処理装置は、三次元画像データを二次元画像データに変換するための少なくとも二種類のレンダリング方法のうち、どのレンダリング方法を用いて変換するか、二次元領域における単位領域毎に判別する判別部と、前記単位領域毎に判別された前記レンダリング方法に基づいて、前記三次元画像データにおける複数位置のデータを変換して前記二次元画像データを生成する画像生成部と、を有し、前記判別は、前記三次元画像データから得た任意の断層像に基づいて生成された最大値投影画像中に設定された注目点におけるデータと、前記注目点の近傍の点におけるデータとに基づいて、レンダリング方法の判別を行う。 In order to solve the above-described problem, a medical image processing apparatus according to an embodiment uses any one of at least two rendering methods for converting three-dimensional image data into two-dimensional image data. Or two-dimensional image data obtained by converting data at a plurality of positions in the three-dimensional image data based on the determination unit for determining each unit region in the two-dimensional region and the rendering method determined for each unit region. An image generation unit that generates the data, and the determination unit is data at a point of interest set in a maximum value projection image generated based on an arbitrary tomographic image obtained from the three-dimensional image data; The rendering method is determined based on data at points in the vicinity of the point of interest.

第1の実施形態及び第2の実施形態における、画像診断装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the diagnostic imaging apparatus in 1st Embodiment and 2nd Embodiment. 第1の実施形態における、画像処理に関する全体の構造を示したブロック図である。It is a block diagram showing the whole structure about image processing in a 1st embodiment. 第1の実施形態における、予め定められた閾値と最大画素値とを比較し、その結果に基づいて異なるレンダリング手法によって画素値を決定する様子を示した概略図である。It is the schematic which showed a mode that a predetermined threshold value and the maximum pixel value in 1st Embodiment were compared, and a pixel value was determined with a different rendering method based on the result. 第1の実施形態における、各レンダリング手法における断層画像、及びそれらの特徴を併せ持つ画像を示す図である。It is a figure which shows the tomographic image in each rendering method and the image which has those characteristics in 1st Embodiment. 第1の実施形態における、単位領域毎にその都度画素値を決定して画像を生成する場合のフローチャートである。It is a flowchart in the case where a pixel value is determined for each unit region and an image is generated in the first embodiment. 第1の実施形態における、厚みを変更した際に三次元画像データに含まれる血管部分の変化を示した概略図である。It is the schematic which showed the change of the blood-vessel part contained in three-dimensional image data when changing thickness in 1st Embodiment. 第2の実施形態における、画像処理に関する全体の構造を示したブロック図である。It is the block diagram which showed the whole structure regarding image processing in 2nd Embodiment. 第2の実施形態におけるフローチャートである。It is a flowchart in 2nd Embodiment. 第2の実施形態における連結領域抽出の様子を示した概略図である。It is the schematic which showed the mode of the connection area | region extraction in 2nd Embodiment.

以下、発明を実施するための実施形態について説明する。   Hereinafter, embodiments for carrying out the invention will be described.

(第1の実施形態)
第1の実施形態の医用画像処理装置を説明するにあたり、図1を参照して医用画像を得
るための仕組みを、X線CT装置を例にとって概要を説明する。
(First embodiment)
In describing the medical image processing apparatus of the first embodiment, an outline of a mechanism for obtaining a medical image will be described with reference to FIG. 1, taking an X-ray CT apparatus as an example.

図1は、本実施形態において合成処理を施すための画像を得るためのX線CT装置の全
体構成を示した構成図である。
FIG. 1 is a configuration diagram showing the overall configuration of an X-ray CT apparatus for obtaining an image for performing synthesis processing in the present embodiment.

図1において画像診断装置10とは、例えばX線CT装置やMRI装置である。ここで
はX線CT装置を例に挙げる。X線CT装置はガントリ11を備え、このガントリ11内
には回転リング12が設けられ、回転機構(図示なし)によって回転する。回転リング1
2内にはX線管13とX線検出器14が対向して配置されており、回転リング12の中心
部は開口し、そこに寝台に備わる天板15に載置された被検体Pが挿入される。
In FIG. 1, the diagnostic imaging apparatus 10 is, for example, an X-ray CT apparatus or an MRI apparatus. Here, an X-ray CT apparatus is taken as an example. The X-ray CT apparatus includes a gantry 11, and a rotating ring 12 is provided in the gantry 11 and is rotated by a rotating mechanism (not shown). Rotating ring 1
2, an X-ray tube 13 and an X-ray detector 14 are arranged to face each other, the central portion of the rotating ring 12 is opened, and a subject P placed on a top plate 15 provided in a bed is provided there. Inserted.

X線管13から曝射されたX線は被検体Pを透過し、減衰してX線検出器14によって
検出され、その後電気信号に変換され、データ収集部16にて増幅、デジタルデータに変
換され、データ伝送装置17を介して投影データが伝送される。
The X-rays exposed from the X-ray tube 13 pass through the subject P, attenuate and are detected by the X-ray detector 14, and then converted into an electrical signal, amplified by the data collection unit 16, and converted into digital data Then, the projection data is transmitted via the data transmission device 17.

コンピュータシステム20において、まずデータ伝送装置17からのデータが前処理部
21に送られる。前処理部21では信号強度の補正や信号欠落の補正等の処理を行い、投
影データをバスライン300上に出力する。バスライン300上にはシステム制御部22
、キーボード等の操作部23、そしてデータ処理部24及びデータを保存するデータ保存
部25並びに再構成処理部26を有する画像処理部31、画像表示部27等が接続される
In the computer system 20, first, data from the data transmission device 17 is sent to the preprocessing unit 21. The preprocessing unit 21 performs processing such as signal intensity correction and signal loss correction, and outputs projection data onto the bus line 300. On the bus line 300, the system control unit 22
An operation unit 23 such as a keyboard, a data processing unit 24, a data storage unit 25 for storing data, an image processing unit 31 having a reconstruction processing unit 26, an image display unit 27, and the like are connected.

システム制御部22はコンピュータシステム20の各部の動作や、ガントリ駆動部(図
示なし)及びX線制御部(図示なし)を制御するものであり、データ保存部25は断層画
像等のデータを記憶するものであり、再構成処理部26は投影データに基づいて断層画像
データを再構成する。データ処理部24はデータ保存部25に保存されたデータを用いて
各種データ処理を行う。画像表示部27は医用画像等を表示し、操作部23は医師等の操
作者によって操作され、画像処理する上で各種の指示を入力したり、被検体Pの状態や検
査方法等の情報を入力する。
The system control unit 22 controls the operation of each unit of the computer system 20 and controls the gantry driving unit (not shown) and the X-ray control unit (not shown). The data storage unit 25 stores data such as tomographic images. The reconstruction processing unit 26 reconstructs tomographic image data based on the projection data. The data processing unit 24 performs various data processing using the data stored in the data storage unit 25. The image display unit 27 displays medical images and the like, and the operation unit 23 is operated by an operator such as a doctor to input various instructions for image processing, and information such as the state of the subject P and the examination method. input.

画像診断装置10で撮影され、データ伝送装置17を介して伝送された投影データは、
前処理部21で補正され、再構成処理部26で断層像データが再構成され、この再構成さ
れた画像に基づく三次元画像データがデータ保存部25に保存される。この三次元画像デ
ータを用いて様々な画像データを生成する。
Projection data captured by the diagnostic imaging apparatus 10 and transmitted via the data transmission apparatus 17 is:
The tomographic image data is corrected by the preprocessing unit 21, the tomographic image data is reconstructed by the reconstruction processing unit 26, and the three-dimensional image data based on the reconstructed image is stored in the data storage unit 25. Various image data are generated using the three-dimensional image data.

図2は、本実施形態における画像処理に関する全体構成を示したブロック図である。各
要素は図1のものと対応しており、画像の合成処理はデータ処理部24にて行われる。デ
ータ処理部24は第1条件設定部30、比較部32、第1画像生成部36、第2画像生成
部37、第3画像生成部38、第3画像保存部39、第2条件設定部40、第3条件設定
部41を備える。
FIG. 2 is a block diagram showing an overall configuration related to image processing in the present embodiment. Each element corresponds to that in FIG. 1, and the image synthesis process is performed by the data processing unit 24. The data processing unit 24 includes a first condition setting unit 30, a comparison unit 32, a first image generation unit 36, a second image generation unit 37, a third image generation unit 38, a third image storage unit 39, and a second condition setting unit 40. The third condition setting unit 41 is provided.

第1条件設定部30は、操作者が操作することにより、三次元画像データから任意の三
次元領域である、断層厚(以下、厚み)を持った断層像における厚みの条件を設定する。
ここで、第1条件設定部30において設定する断層像の角度は画像を生成するためのレン
ダリング手法に依らず同一とするが、厚みはそれぞれ異なる厚みを設定してもよい。任意
の角度や断面の設定とは、例えば被検体P体軸方向に撮影した複数枚のスライス画像(ア
キシャル像)から、補間処理を行いサジタル像などの異なる断面のスライス画像を再構成
することを言う。
The first condition setting unit 30 sets a condition for thickness in a tomographic image having a tomographic thickness (hereinafter referred to as thickness), which is an arbitrary three-dimensional region, from the three-dimensional image data, when operated by an operator.
Here, the angle of the tomographic image set in the first condition setting unit 30 is the same regardless of the rendering method for generating the image, but different thicknesses may be set. Arbitrary angles and cross sections are set by, for example, reconstructing slice images of different cross sections such as sagittal images by performing interpolation processing from a plurality of slice images (axial images) taken in the direction of the body axis of the subject P. say.

第1画像生成部36は、第1条件設定部30にて三次元画像データから得た任意の断層
像に基づいて最大値投影画像を生成する。ここで、断層の断面と垂直の方向から見てその
直線状の各ボクセルにおける最大の画素値(CTではCT値、MRIでは信号強度)を投
影して表示しているのが最大値投影画像である。つまり、厚みが変わるとその直線状の画
素数も変わるため、最大画素値が変化し得る。
The first image generation unit 36 generates a maximum value projection image based on an arbitrary tomographic image obtained from the three-dimensional image data by the first condition setting unit 30. Here, the maximum value projection image displays the maximum pixel value (CT value for CT and signal intensity for MRI) in each linear voxel as viewed from the direction perpendicular to the cross section of the tomogram. is there. That is, when the thickness changes, the number of linear pixels also changes, so that the maximum pixel value can change.

第2画像生成部37は、第1条件設定部30にて三次元画像データから得た任意の断層
像に基づいて加算平均画像を生成する。ここで、断層の断面と垂直の方向から見てその直
線状の各ボクセルにおける全ての画素値の加算平均値を投影して表示しているのが加算平
均画像である。この場合においても上記と同様に、厚みが変わるとその直線上の画素数も
変わるため、加算平均値が変化し得る。
The second image generation unit 37 generates an addition average image based on an arbitrary tomographic image obtained from the three-dimensional image data by the first condition setting unit 30. Here, an addition average image is obtained by projecting and displaying the addition average value of all the pixel values in each linear voxel as viewed from the direction perpendicular to the cross section of the tomogram. Also in this case, as described above, when the thickness changes, the number of pixels on the straight line also changes, so that the addition average value can change.

比較部32は、予め画素値の比較対照となる閾値を設定し、その閾値と、第1画像生成
部36で得られた最大値投影画像の画素値とを単位領域毎に比較し、その結果に基づき、
最大値投影法によって血管領域を、そして加算平均法によって臓器領域の画素値を選択す
る。ここで本実施形態において、血管を撮像するために造影剤の注入を行っているものと
する。つまり造影剤が注入された血管はX線があまり透過せず、高画素値となる。故に三
次元画像データにおけるある直線上にある全ボクセルの中で、血管の画素値が最大画素値
となる可能性が高いため、最大値投影画像から血管領域が抽出されやすい。単位領域毎の
画素値と閾値を比較し、単位領域毎に最大値投影法若しくは加算平均法によって画素値の
決定を行い、画像を生成することに関して述べたが、詳細は後述する。なお1つのピクセ
ルを単位領域としてもよいし、複数のピクセルによって形成されたクラスタを単位領域と
してもよい。
The comparison unit 32 sets a threshold value as a comparison reference of pixel values in advance, compares the threshold value with the pixel value of the maximum value projection image obtained by the first image generation unit 36 for each unit region, and the result Based on
The blood vessel region is selected by the maximum value projection method, and the pixel value of the organ region is selected by the addition average method. Here, in this embodiment, it is assumed that a contrast medium is injected to image a blood vessel. That is, the blood vessel into which the contrast medium has been injected does not transmit much X-rays and has a high pixel value. Therefore, the blood vessel pixel value is likely to be the maximum pixel value among all the voxels on a certain straight line in the three-dimensional image data, so that the blood vessel region is easily extracted from the maximum value projection image. The pixel value for each unit area is compared with the threshold value, and the pixel value is determined for each unit area by the maximum value projection method or the addition average method, and the image generation is described. Details will be described later. One pixel may be used as a unit region, or a cluster formed by a plurality of pixels may be used as a unit region.

第3画像生成部38は、最大値投影法及び加算平均法などの複数の異なる手法によって
単位領域毎にそれぞれ選択された画素値にて構成される画像データを生成する。
The third image generation unit 38 generates image data composed of pixel values selected for each unit region by a plurality of different methods such as a maximum value projection method and an addition average method.

第3画像保存部39は、第3画像生成部38にて生成された画像データを保存する。ま
た第2条件設定部40若しくは第3条件設定部41にて条件が変更された場合、その変更
を保存する。
The third image storage unit 39 stores the image data generated by the third image generation unit 38. If the condition is changed by the second condition setting unit 40 or the third condition setting unit 41, the change is saved.

第2条件設定部40は最大値投影法によって選択された画素値の領域部分、そして第3
条件設定部41は加算平均法によって選択された画素値の領域部分の条件を、それぞれ変
更する。ここでいう条件とはウィンドウ条件(WW/WL:ウィンドウ幅/ウィンドウレ
ベル)や、三次元データからそれぞれ最大値投影画像や加算平均画像を生成するときに用
いる、それぞれの厚みである。
The second condition setting unit 40 includes an area portion of the pixel value selected by the maximum value projection method, and a third
The condition setting unit 41 changes the condition of the area portion of the pixel value selected by the averaging method. The conditions here are window conditions (WW / WL: window width / window level) and thicknesses used when generating a maximum value projection image and an addition average image from three-dimensional data, respectively.

WW/WL値とは、最大値投影画像や加算平均画像のように濃淡で表現される画像にお
いて、表示の明るさとコントラストを調整するためのパラメータである。例えば、CT値
が16bit(65536階調)で与えられているときに、その内の特に診断に必要な範囲を切り出
して8bit(256階調)に変換することをWW/WL変換といい、このときの切り出し範囲
の幅をWW、切り出し範囲の中心値をWLという。
The WW / WL value is a parameter for adjusting display brightness and contrast in an image expressed in shades such as a maximum value projection image and an addition average image. For example, when a CT value is given in 16 bits (65536 gradations), cutting out a range particularly necessary for diagnosis and converting it to 8 bits (256 gradations) is called WW / WL conversion. The width of the cutout range at that time is called WW, and the center value of the cutout range is called WL.

厚みとは、三次元画像データから切り出した断層像における厚みのことをいい、厚みの
範囲における画素値の情報を厚み情報という。蛇行する血管を観察するにあたり、厚みを
もたせることで厚み分の情報を投影し、血管の走行具合を確認する。ちなみに厚みを1画
素分とすると当然画素値は一つしか存在しないため、そこから生成した最大値投影画像及
び加算平均画像は同様の画像となる。
The thickness refers to the thickness in the tomographic image cut out from the three-dimensional image data, and information on pixel values in the thickness range is referred to as thickness information. When observing a meandering blood vessel, information on the thickness is projected by giving the thickness, and the running state of the blood vessel is confirmed. Incidentally, since there is naturally only one pixel value when the thickness is one pixel, the maximum value projection image and the addition average image generated therefrom are the same image.

ここで、単位領域毎に最大値投影法若しくは加算平均法によって画素値を決定すること
に関して詳細を述べる。
Here, the details of determining the pixel value by the maximum value projection method or the addition average method for each unit region will be described.

第1条件設定部30において、三次元画像データから任意の厚みを持つ断層像を得る。
そして比較部32は、予め設定された任意の閾値を用い、各単位領域の最大値投影画像用
の厚みにおける最大画素値とその閾値とを比較する。これにより、比較部は単位領域毎に
、最大値投影法によって画素値を得るか、若しくは加算平均法によって画素値を得るかを
判別する。ここでは比較部32は、最大値投影画像用の厚みにおける最大画素値が閾値よ
り高かった場合は、その単位領域における最大画素値は血管の画素値に該当し得ると判別
する。一方で最大画素値が閾値より低かった場合は、比較部32は、その単位領域におい
て加算平均画像用の厚みから得られる加算平均値は、臓器の画素値に該当し得ると判別す
る。ここで得られる画素値は例えば臓器の領域などの、血管以外の領域である。
In the first condition setting unit 30, a tomographic image having an arbitrary thickness is obtained from the three-dimensional image data.
Then, the comparison unit 32 uses a predetermined arbitrary threshold value, and compares the maximum pixel value in the thickness for the maximum value projection image of each unit region with the threshold value. Thereby, the comparison unit determines whether to obtain the pixel value by the maximum value projection method or the pixel value by the addition averaging method for each unit region. Here, when the maximum pixel value in the thickness for the maximum value projection image is higher than the threshold value, the comparison unit 32 determines that the maximum pixel value in the unit region can correspond to the pixel value of the blood vessel. On the other hand, when the maximum pixel value is lower than the threshold, the comparison unit 32 determines that the addition average value obtained from the thickness for the addition average image in the unit region can correspond to the pixel value of the organ. The pixel values obtained here are regions other than blood vessels, such as organ regions.

その後、比較部32の判別結果に基づいて、第1画像生成部は、最大値投影画像用の厚
みにおける最大画素値が閾値以上であった場合、当該単位領域における画素値として決定
する。そして第2画像生成部は、最大値投影画像用の厚みにおける最大画素値が閾値未満
であった場合、加算平均画像用の厚みにおける加算平均値を、当該単位領域における画素
値として決定する。
Thereafter, based on the determination result of the comparison unit 32, the first image generation unit determines the pixel value in the unit region when the maximum pixel value in the maximum value projection image thickness is equal to or greater than the threshold value. Then, when the maximum pixel value in the maximum value projection image thickness is less than the threshold, the second image generation unit determines the addition average value in the addition average image thickness as the pixel value in the unit region.

そして比較部32が全単位領域に対して上記処理を施し、第1画像生成部及び第2画像
生成部によって各単位領域の画素値が決定した後、第3画像生成部は異なるレンダリング
手法から得られた画素値の領域が存在する一枚の画像を生成する。以下、図3を用い、単
位領域毎に閾値と画素値を比較する説明を行う。
Then, after the comparison unit 32 performs the above processing on all unit regions and the pixel values of the unit regions are determined by the first image generation unit and the second image generation unit, the third image generation unit obtains from different rendering methods. One image in which the region of the specified pixel value exists is generated. Hereinafter, the threshold value and the pixel value are compared for each unit region with reference to FIG.

図3は単位領域毎に画素値を閾値と比較している様子を示した概略図である。ここでの
単位領域は1ピクセルとする。X1〜X4、Y1〜Y4で示すように、各単位領域は(X,
Y)の情報によって位置が把握され、それぞれの場所には画素値が示されている。例えば
、(X2,Y1)=50である。ここで例えば閾値が50に設定され血管領域を決定する場
合は、単位領域の画素値が50以上の場合は最大値投影法によって最大画素値を決定し、
50未満の場合は加算平均法によって画素値を決定する。これにより、最大値投影法にて
血管100の画素値領域、加算平均法にて臓器200の画素値領域が構成された一枚の画
像を得る。すなわち、ここでは図3に示すとおり(X2、Y1)、(X2、Y2)、(X
2、Y3)、(X2、Y4)、(X3、Y4)を最大値投影法で画素値を決定し、その他
の単位領域は加算平均法によって画素値を決定する。
FIG. 3 is a schematic diagram showing a state in which pixel values are compared with threshold values for each unit region. The unit area here is 1 pixel. As indicated by X1 to X4 and Y1 to Y4, each unit region is represented by (X,
The position is grasped by the information of Y), and the pixel value is shown in each place. For example, (X2, Y1) = 50. Here, for example, when determining the blood vessel region with the threshold value set to 50, when the pixel value of the unit region is 50 or more, the maximum pixel value is determined by the maximum value projection method,
If it is less than 50, the pixel value is determined by the addition averaging method. As a result, a single image in which the pixel value region of the blood vessel 100 is formed by the maximum value projection method and the pixel value region of the organ 200 is formed by the addition averaging method is obtained. That is, here, as shown in FIG. 3, (X2, Y1), (X2, Y2), (X
2, Y3), (X2, Y4), and (X3, Y4) determine the pixel value by the maximum value projection method, and the pixel values of the other unit areas by the averaging method.

図4は加算平均画像、最大値投影画像、及びそれら二枚の画像を得るときに用いる加算
平均法及び最大値投影法によって、それぞれの単位領域毎に画素値決定の方法を変えて生
成した概略図である。図4(a)は加算平均画像であり、血管100が薄くなってしまい
見えづらくなっている。一方で図4(b)は最大値投影画像であり、血管100は見える
ものの、周りの臓器200の特徴が無くなってしまうか、若しくは見えづらくなってしま
う。そしてそれら画像をもとに、上述の閾値を用いた方法によって処理を施したものが図
4(c)である。図4(a)、図4(b)における画像の欠点を補い、血管100及び臓
器200共に観察しやすい画像となる。
FIG. 4 is a schematic diagram of an image generated by changing the method of determining pixel values for each unit area by the addition average method and the maximum value projection image, and the addition average method and the maximum value projection method used when obtaining these two images. FIG. FIG. 4A shows an addition average image, which makes the blood vessel 100 thin and difficult to see. On the other hand, FIG. 4B is a maximum-value projection image, and although the blood vessel 100 is visible, the features of the surrounding organ 200 are lost or difficult to see. FIG. 4C shows the result of processing based on these images by the above-described method using the threshold value. The defects in the images in FIGS. 4A and 4B are compensated, and both the blood vessel 100 and the organ 200 are easily observed.

次に、本実施形態に係る医用画像処理装置の動作を説明する。   Next, the operation of the medical image processing apparatus according to this embodiment will be described.

図5は本実施形態のフローチャートである。   FIG. 5 is a flowchart of this embodiment.

ステップS1において、第1条件設定部30は、X線CT装置にて得られ、データ保存
部25に保存された複数のボクセルからなる三次元画像データにおいて切り出す断層や厚
みを設定する。ここで、切り出す断層の角度は最大値投影画像用と加算平均画像用とで同
一のものとするが、厚みはそれぞれ異なる厚みを設定する。
In step S <b> 1, the first condition setting unit 30 sets a tomography and thickness to be cut out in the three-dimensional image data including a plurality of voxels obtained by the X-ray CT apparatus and stored in the data storage unit 25. Here, the angle of the slice to be cut out is the same for the maximum value projection image and the addition average image, but different thicknesses are set.

ステップS2において、比較部32は、ステップS1にて設定された断層の断面におい
て、単位領域毎の最大画素値と、予め設定しておいた閾値とを比較する。
In step S2, the comparison unit 32 compares the maximum pixel value for each unit region with a preset threshold value in the cross section of the tomography set in step S1.

ここで、断層の断面とは断層の厚み方向に対して垂直な面のことを指し、その面におけ
る単位領域には、厚み情報が入っているものとする。
Here, the cross section of the fault means a plane perpendicular to the thickness direction of the fault, and it is assumed that thickness information is contained in a unit area on the plane.

そして閾値を超えた画素値の領域(Y)はステップS3Aへ。最大画素値が閾値未満の
画素値の領域(N)はステップS3Bへ。なお、このとき閾値と比較する最大画素値は最
大値投影画像用の厚み範囲から取るものとする。
Then, the pixel value region (Y) exceeding the threshold value goes to step S3A. For the pixel value region (N) whose maximum pixel value is less than the threshold value, go to Step S3B. At this time, the maximum pixel value to be compared with the threshold value is taken from the thickness range for the maximum value projection image.

ステップS3Aにおいて、第1画像生成部36は、ステップS2で最大画素値が閾値を
超えた単位領域に対して、その最大画素値をその単位領域における画素値として決定する
。三次元画像データにおける厚み情報の中から最大画素値を決定しているため、高画素値
の血管領域が鮮明に映し出されている。
In step S3A, the first image generation unit 36 determines the maximum pixel value as the pixel value in the unit region for the unit region in which the maximum pixel value has exceeded the threshold value in step S2. Since the maximum pixel value is determined from the thickness information in the three-dimensional image data, a blood vessel region having a high pixel value is clearly displayed.

ステップS3Bにおいて、第2画像生成部37は、ステップS2で最大画素値が閾値未
満だった単位領域に対して加算平均法によって画素値を決定する。ステップS3Aで用い
たものとは異なる厚みを用いて加算平均法によって画素値を得ているため、臓器領域が鮮
明に映し出されている。
In step S <b> 3 </ b> B, the second image generation unit 37 determines the pixel value by the averaging method for the unit area whose maximum pixel value is less than the threshold value in step S <b> 2. Since the pixel value is obtained by the averaging method using a thickness different from that used in step S3A, the organ region is clearly displayed.

ステップS4において、比較部32は、ステップS1にて得られた断面の全単位領域に
おいて、ステップS2を施したかどうかを判断する。まだステップ2を行っていない単位
領域がある場合は、(X、Y)を(X+1、Y)若しくは(X、Y+1)に更新して再び
ステップS2へ。もう全単位領域に対してステップS2を施している場合はステップS5
へ。
In step S4, the comparison unit 32 determines whether step S2 has been performed on all unit regions of the cross section obtained in step S1. If there is a unit area for which step 2 has not been performed yet, (X, Y) is updated to (X + 1, Y) or (X, Y + 1) and the process returns to step S2. If step S2 is already applied to all unit areas, step S5 is performed.
What.

ステップS5において、第3画像生成部38は、ステップS3A及びステップS3Bに
てそれぞれの単位領域毎に決定した画素値をもとに、単位領域毎に異なる手法(最大値投
影法又は加算平均法)によって得られた画素値からなる画像を生成し、その画像は第3画
像保存部39へと送る。ここで、画像生成後にWW/WLの変更があった場合も第3画像
生成部38にて再び画像を生成し、その画像は第3画像保存部39へと送る。
In step S5, the third image generation unit 38 uses a different method (maximum value projection method or addition averaging method) for each unit region based on the pixel values determined for each unit region in steps S3A and S3B. An image composed of the pixel values obtained by the above is generated, and the image is sent to the third image storage unit 39. Here, even if there is a change in WW / WL after image generation, the third image generation unit 38 generates an image again, and the image is sent to the third image storage unit 39.

ステップS6において、第3画像保存部39はステップS5で生成された画像を保存し
、ステップS7へ。
In step S6, the third image storage unit 39 stores the image generated in step S5, and proceeds to step S7.

ステップS7において、画像表示部27はステップS5で第3画像保存部39にて保存
された画像を表示する。そしてステップS8へ。
In step S7, the image display unit 27 displays the image stored in the third image storage unit 39 in step S5. Then, go to step S8.

ステップS8において、第2条件設定部40及び第3条件設定部41は、指示部23か
らの指示があった場合に、最大値投影画像又は加算平均画像において少なくともどちらか
一方のWW/WLを変更する。WW/WLを変更する場合(Y)はステップS5へ。変更
しない場合(N)はステップS9へ。
In step S8, the second condition setting unit 40 and the third condition setting unit 41 change at least one WW / WL in the maximum value projection image or the addition average image when an instruction is issued from the instruction unit 23. To do. When changing WW / WL (Y), go to step S5. If not changed (N), go to step S9.

ステップS9において、第2条件設定部40及び第3条件設定部41は、指示部23か
らの指示があった場合に、最大値投影法によって決定した画素値の領域、又は加算平均法
によって決定した画素値の領域のうち、少なくともどちらか一方の厚みを変更する。どち
らかの厚みの変更があった場合(Y)はステップS1へ。どちらの領域に関しても厚みの
変更がなかった場合(N)は終了する。
In step S <b> 9, the second condition setting unit 40 and the third condition setting unit 41 determine the pixel value region determined by the maximum value projection method or the addition averaging method when there is an instruction from the instruction unit 23. The thickness of at least one of the pixel value regions is changed. If there is a change in either thickness (Y), go to step S1. If there is no change in the thickness in either area, the process ends (N).

ここで、厚みを変化させると閾値と比較するための画素値の範囲も変化するため、再び
ステップS1へ戻る必要がある。ステップS1ではステップS9にて設定された厚み条件
をもとに、第1条件設定部30は最大値投影画像用及び加算平均画像用の厚みを変更して
断層像に反映させる。ステップS2以降は上記と同様である。
Here, since the range of pixel values for comparison with the threshold value changes when the thickness is changed, it is necessary to return to step S1 again. In step S1, based on the thickness condition set in step S9, the first condition setting unit 30 changes the thicknesses for the maximum value projection image and the addition average image and reflects them in the tomographic image. Step S2 and subsequent steps are the same as described above.

ちなみに加算平均画像の厚みのみを変更した場合、ステップS2における最大画素値と
閾値との比較の結果は以前の結果と変わらないため、ステップS2を飛ばしてステップS
Bへ進んでもよい。(点線部分)
厚み変更に関しての概略図を図6に示す。
Incidentally, when only the thickness of the addition average image is changed, the result of the comparison between the maximum pixel value and the threshold value in step S2 is not different from the previous result, so step S2 is skipped and step S2 is skipped.
You may proceed to B. (Dotted line part)
A schematic diagram regarding the thickness change is shown in FIG.

図6は、三次元画像データ内において上下に血管100が走行しており、図6(a)で
は血管100の上部一部分のみを含んだ厚みが設定されている。ここで厚みを変更すると
、図6(b)のように血管100の湾曲部なども観察範囲となり、その結果各単位領域に
おける最大画素値や加算平均値も変更する。これが、再び閾値と各単位領域における画素
値とを比較する必要が生じる所以である。
In FIG. 6, the blood vessel 100 travels up and down in the three-dimensional image data. In FIG. 6A, a thickness including only a part of the upper portion of the blood vessel 100 is set. When the thickness is changed here, the curved portion of the blood vessel 100 becomes the observation range as shown in FIG. 6B, and as a result, the maximum pixel value and the addition average value in each unit region are also changed. This is why it is necessary to compare the threshold value with the pixel value in each unit area again.

ここで、ステップS3A及びステップS3Bにおいて、単位領域毎に比較を行い、その
都度その単位領域において最大値投影法又は加算平均法によって画素値を決定する例を示
したが、一度それら決定した画素値を抽出し、第1画像生成部36及び第2画像生成部3
7にて、それぞれ最大値投影画像及び加算平均画像を生成してもよい。つまり、それぞれ
画素の存在しない領域は補間し合う関係である二枚の画像を生成し、その後第3画像生成
部38にてそれら二枚の画像の合成を行ってもよい。
Here, in step S3A and step S3B, an example is shown in which comparison is made for each unit region, and each time the pixel value is determined in the unit region by the maximum value projection method or the addition average method. And the first image generation unit 36 and the second image generation unit 3
In step 7, a maximum value projection image and an addition average image may be generated. That is, two images having a relationship of interpolating each other in a region where no pixel exists may be generated, and then the third image generation unit 38 may combine the two images.

ここで、最大画素値と比較するために設ける閾値は、上限も設定して閾値範囲としても
よい。厚みのある三次元画像データにおいて、観察する方向から見てその直線状のボクセ
ルに存在する血管100よりも高画素値の骨などを撮像することを防ぐためである。即ち
、予想される血管の画素値以上、骨などの画素値未満の範囲を閾値範囲として設定する。
Here, the threshold value provided for comparison with the maximum pixel value may be set as the threshold value range by setting an upper limit. This is to prevent imaging of bones or the like having a higher pixel value than the blood vessel 100 existing in the linear voxel as viewed from the viewing direction in the thick three-dimensional image data. In other words, a range that is greater than or equal to the expected blood vessel pixel value and less than the pixel value such as bone is set as the threshold range.

また、三次元画像データからまずは閾値と最大画素値とを比較し、その結果から単位領
域毎に最大値投影画像及び加算平均画像を生成する方法を述べたが、本実施の形態はこれ
に限ることはない。例えばまず初めに三次元画像データから最大値投影画像及び加算平均
画像を生成し、それらの画像から血管領域及び臓器領域をそれぞれ抽出し、その後合成処
理を行ってもよい。具体的には、閾値を最大値投影画像用と加算平均画像用の二種類用意
しておき、それら閾値は異なる値を設定しておく。つまり異なる値を設定しておくことで
、最大値投影画像からは高い画素値の血管領域を抽出し、一方加算平均画像からは低い画
素値の臓器領域を抽出する。
In addition, the threshold value and the maximum pixel value are first compared from the three-dimensional image data, and the method of generating the maximum value projection image and the addition average image for each unit region from the result has been described. However, the present embodiment is not limited to this. There is nothing. For example, first, a maximum value projection image and an addition average image may be generated from three-dimensional image data, a blood vessel region and an organ region may be extracted from these images, and then a synthesis process may be performed. Specifically, two types of threshold values are prepared for the maximum value projection image and the addition average image, and different values are set for the threshold values. That is, by setting different values, a blood vessel region having a high pixel value is extracted from the maximum value projection image, while an organ region having a low pixel value is extracted from the addition average image.

また、必ずしも血管100及び臓器200の両領域を閾値と比較して抽出する必要は無
い。例えば最大値投影画像から閾値より高い画素値の血管領域を抽出したならば、その領
域情報を用いて一方の加算平均画像から該領域を削除してもよい。それにより、臓器領域
のみを残した加算平均画像を得ることができる。
Further, it is not always necessary to extract both the blood vessel 100 and the organ 200 by comparing them with the threshold values. For example, if a blood vessel region having a pixel value higher than the threshold value is extracted from the maximum value projection image, the region may be deleted from one of the addition average images using the region information. Thereby, it is possible to obtain an addition average image that leaves only the organ region.

上記、最大値投影画像から抽出した血管領域画像、及び加算平均画像から抽出した臓器
領域画像を合成することで、血管及び臓器がはっきりと写った画像を生成することができ
る。
By combining the above-described blood vessel region image extracted from the maximum value projection image and the organ region image extracted from the addition average image, it is possible to generate an image in which blood vessels and organs are clearly shown.

本実施形態では最大値投影画像及び加算平均画像を用いて例をあげたが、これに限るこ
とはなく他のレンダリング手法を用いた画像においても本実施形態は適用可能である。例
えば、本実施形態に示した通り造影剤を注入して血管を撮影する場合には高い画素値とな
るために最大値投影法が適しているが、他の撮影部位によっては最小値投影法を用いるの
が適していることもある。例えば、膵管を撮像する場合は最小値投影法の技術が有効にな
る。
In the present embodiment, the maximum value projected image and the addition average image are used as examples. However, the present embodiment is not limited to this, and the present embodiment can be applied to an image using another rendering method. For example, as shown in the present embodiment, when imaging a blood vessel by injecting a contrast medium, the maximum value projection method is suitable because of a high pixel value, but the minimum value projection method may be used depending on other imaging regions. It may be suitable to use. For example, when imaging the pancreatic duct, the minimum value projection technique is effective.

次に、本実施形態に係る医用画像処理装置の効果を説明する。   Next, effects of the medical image processing apparatus according to the present embodiment will be described.

以上説明した通り、本実施形態による医用画像処理装置を用いることによって、血管1
00と臓器200の両方を満足に観察できる診断画像を得ることができる。それらは異な
るレンダリング手法による複数枚の画像を合成処理することで実現している。また、合成
した画像は最大値投影画像又は加算平均画像毎に厚みやWW/WLの調整が可能であるた
め、診断者は診断に合わせて血管領域と臓器領域をともにコントラストの良い状態で認識
し、所望の観察を行うことができる。例えば血管領域の画像、即ち最大値投影画像のみの
厚みを変更することによって、図6(a)、図6(b)に示すように血管の走行が確認で
き、臓器領域の画像はそのままで、厚み変更後の血管領域を表示させることができる。こ
れにより、診断者は一枚の画像上において、所望の部位を所望の画質にて観察することが
できる。
As described above, the blood vessel 1 can be obtained by using the medical image processing apparatus according to the present embodiment.
A diagnostic image capable of satisfactorily observing both 00 and the organ 200 can be obtained. They are realized by combining multiple images with different rendering methods. In addition, since the synthesized image can be adjusted in thickness and WW / WL for each of the maximum-value projection image or the addition average image, the diagnostician recognizes both the blood vessel region and the organ region with good contrast according to the diagnosis. Desired observations can be made. For example, by changing the thickness of only the image of the blood vessel region, that is, the maximum value projection image, it is possible to confirm the travel of the blood vessel as shown in FIGS. 6 (a) and 6 (b). The blood vessel region after the thickness change can be displayed. Thereby, the diagnostician can observe a desired part with a desired image quality on one image.

ここで、臓器を観察する場合は厚みをあまり厚くしないほうが観察に適しているため、
厚みを薄くする。一方で最大値投影画像を利用して血管の走行を見るためは、少なくとも
臓器観察のための加算平均画像の厚みよりも厚い方が好ましい。故に、各手法における画
像毎に条件を変更できる本実施形態は非常に有用である。
Here, when observing an organ, it is better for observation to make the thickness not too thick,
Reduce the thickness. On the other hand, in order to see the running of the blood vessel using the maximum value projection image, it is preferable that the thickness is at least larger than the thickness of the addition average image for organ observation. Therefore, this embodiment which can change conditions for every image in each method is very useful.

最後に、従来の課題及び本実施形態の効果を簡単に纏める。   Finally, the conventional problem and the effect of the present embodiment are summarized.

X線CT装置による血管100の撮像にあたり、造影剤を血管100に注入した後にX
線を被検体に曝射して撮像している。これによって造影剤が浸透した部分はX線の透過が
抑制され、画像においてコントラストが増強する効果がある。しかし従来の加算平均法の
みによって得られた画像だと、厚みのある単位領域の他の画素値に引きつられ、血管10
0はあまり目立たなくなってしまう。一方で最大値投影法によって画像を生成した場合は
、臓器200部分が所望の画像とならない。
In imaging the blood vessel 100 with the X-ray CT apparatus, the contrast agent is injected into the blood vessel 100 and then X
The line is exposed to the subject and imaged. As a result, the portion through which the contrast agent has permeated has the effect of suppressing the transmission of X-rays and enhancing the contrast in the image. However, in the case of an image obtained only by the conventional averaging method, it is attracted to other pixel values of the unit region having a thickness, and the blood vessel 10
0 is not very noticeable. On the other hand, when an image is generated by the maximum value projection method, the organ 200 portion does not become a desired image.

故に、血管100部分と臓器200部分が異なる手法によってそれぞれ適切な画素値と
なって画像に表れる本実施形態によって得られる医用画像は、診断時に非常に役立ち、そ
して医者はその医用画像に基づいて適切な医療行為を行うことが可能となる。
Therefore, the medical image obtained by the present embodiment in which the blood vessel 100 part and the organ 200 part are displayed as appropriate pixel values in different images by different methods is very useful at the time of diagnosis, and the doctor can appropriately use the medical image based on the medical image. It is possible to perform various medical practices.

(第2の実施形態)
次に図7を用いて第2の実施形態を説明する。
(Second Embodiment)
Next, a second embodiment will be described with reference to FIG.

図7は第2の実施形態の医用画像処理装置における画像処理に関する全体構成を示した
ブロック図である。第1の実施例と比較して、特定の領域を抽出する方法が異なるが、そ
の後領域毎に最大値投影法若しくは加算平均法によって決定される画像を生成し、それら
領域毎にウィンドウ条件及び厚みを変更する点は同様である。
FIG. 7 is a block diagram showing an overall configuration related to image processing in the medical image processing apparatus of the second embodiment. Compared with the first embodiment, the method of extracting a specific area is different, but after that, an image determined by the maximum value projection method or the addition average method is generated for each area, and the window condition and thickness are determined for each area. The point of changing is the same.

第2の実施形態の医用画像処理装置は、領域を抽出するための部位指定部35が備わる
The medical image processing apparatus according to the second embodiment includes a part designating unit 35 for extracting a region.

部位指定部35は、画像中のある単位領域を指定する。これはマウス等のポインティン
グデバイスを用いて操作者が行っても良い。
The part designating unit 35 designates a unit area in the image. This may be performed by the operator using a pointing device such as a mouse.

第1の実施形態と比べて、最大値投影画像から特定領域を抽出する方法が相違する。閾
値を設けて画素値と比較して領域を抽出するのではなく、部位指定部35にてある一点を
注目点として指定し、その注目点における近傍画素値を抽出する連結領域抽出などの方法
によって領域を抽出する。ここで近傍画素値とは、ある単位領域が注目点として指定され
たとき、その周りの単位領域にある画素値のことをいう。
Compared to the first embodiment, the method for extracting a specific region from the maximum value projection image is different. Rather than extracting a region by comparing with pixel values by providing a threshold value, the region designating unit 35 designates a certain point as a point of interest and extracts a neighboring pixel value at the point of interest by a method such as connected region extraction. Extract regions. Here, the neighborhood pixel value means a pixel value in a surrounding unit area when a certain unit area is designated as a point of interest.

図8は本実施形態におけるフローチャートである。   FIG. 8 is a flowchart in this embodiment.

ステップS10において、第1の実施形態のステップS1と同様に、第1条件設定部3
0は三次元画像データから、厚みのある断層像を設定する。次のステップS11における
、第1画像生成部36にて最大値投影画像を生成する点から第1の実施形態と異なる。
In step S10, the first condition setting unit 3 is similar to step S1 of the first embodiment.
0 sets a thick tomographic image from the three-dimensional image data. The difference from the first embodiment is that the first image generation unit 36 generates a maximum-value projection image in the next step S11.

ステップS11において、第1画像生成部36はステップS10にて得られた断層像か
ら、最大値投影画像を生成する。
In step S11, the first image generation unit 36 generates a maximum value projection image from the tomographic image obtained in step S10.

ステップS12において、部位指定部35は最大値投影画像中の任意の領域を指定する
。本実施形態では最大値投影画像における画素値の高い領域、即ち血管領域を、連結領域
抽出などの手法によって抽出する。連結領域抽出とは、ある領域において少なくとも一点
を注目点として指定すると、その注目点から連結している画素を抽出していくといった手
法である。そして指定された注目点付近にある画素の中から、指定された注目点の画素値
に近い任意の範囲にある画素値を選んだ画素の集合を連結領域として抽出する。
In step S12, the part designating unit 35 designates an arbitrary area in the maximum value projection image. In the present embodiment, a region having a high pixel value in the maximum-value projection image, that is, a blood vessel region is extracted by a technique such as connected region extraction. The connected region extraction is a method in which when at least one point is designated as a point of interest in a certain region, connected pixels are extracted from the point of interest. Then, a set of pixels in which pixel values in an arbitrary range close to the pixel value of the designated attention point are selected from the pixels near the designated attention point is extracted as a connected region.

図9は特定領域を連結領域抽出法で抽出している様子を示す概略図である。部位指定部
35によってある一点の画素値を指定すると、その画素値に連結された領域を抽出するこ
とができる。この領域の指定は図9に示すようにカーソル42を用いて画像表示部27上
で操作者がきっかけの点を指定して行ってもよいし、抽出したい領域の画素値に近い、任
意の画素値を登録しておいてもよい。ここでは最大値投影画像から血管100の領域を抽
出するため、血管100に近い画素値を登録しておく。
FIG. 9 is a schematic diagram showing how a specific area is extracted by a connected area extraction method. When a pixel value at a certain point is designated by the part designating unit 35, an area connected to the pixel value can be extracted. As shown in FIG. 9, the area may be specified by the operator specifying the trigger point on the image display unit 27 using the cursor 42, or any pixel close to the pixel value of the area to be extracted. A value may be registered. Here, a pixel value close to the blood vessel 100 is registered in order to extract the region of the blood vessel 100 from the maximum value projection image.

ステップS13において、比較部32は、ステップS12にて指定された領域か、そう
でない領域か、画素値毎に判断を行う。ここで、指定された領域とそれ以外の領域に関し
て、ステップは二手に分かれる。連結領域抽出法によって画素値の高い領域(血管領域)
を指定された場合(Y)は、その指定された領域の最大値投影画像に関してステップS1
4Aへ。そして指定した領域以外の領域(臓器領域)に関してはステップS14Bへ。
In step S13, the comparison unit 32 determines for each pixel value whether the region is designated in step S12 or not. Here, the steps are divided into two steps for the designated area and the other areas. Region with high pixel value (blood vessel region) by connected region extraction method
Is designated (Y), step S1 is performed for the maximum value projection image of the designated area.
Go to 4A. And about the area | region (organ area | region) other than the designated area | region, it progresses to step S14B.

ステップS14Aにおいて、第1画像生成部36は、ステップS13にて判断された、
指定された領域を抽出して最大値投影画像を生成する。
In step S14A, the first image generation unit 36 is determined in step S13.
The specified region is extracted to generate a maximum value projection image.

ステップS14Bにおいて、ステップS13にて判断された情報をもとに、ステップS
15において抽出された領域以外の領域について、加算平均画像用の厚み情報から加算平
均画像を生成する。具体的には、ステップS13の連結領域抽出法によって抽出された血
管領域以外の領域に関して、加算平均画像用の厚みを考慮した三次元画像データから、加
算平均画像を生成する。
In step S14B, based on the information determined in step S13, step S14
For the regions other than the region extracted in step 15, the addition average image is generated from the thickness information for the addition average image. Specifically, for the region other than the blood vessel region extracted by the connected region extraction method in step S13, an addition average image is generated from the three-dimensional image data considering the thickness for the addition average image.

ステップS15において、第3画像生成部38は、ステップS14A及びにおいて得た
最大値投影画像、及びステップS14Bにおいて得た加算平均画像に関して合成処理を行
い、合成画像を生成する。その後のウィンドウ条件の変更や厚みの変更に関しては第1の
実施形態と同様である。
In step S15, the third image generation unit 38 performs a combining process on the maximum value projection image obtained in steps S14A and the addition average image obtained in step S14B, and generates a combined image. Subsequent window condition changes and thickness changes are the same as in the first embodiment.

ステップS16において、第3画像保存部39はステップS15で生成された合成画像
を保存し、ステップS17へ。
In step S16, the third image storage unit 39 stores the composite image generated in step S15, and proceeds to step S17.

ステップS17において、画像表示部27はステップS16で第3画像保存部39にて
保存された合成画像を表示する。そしてステップS18へ。
In step S17, the image display unit 27 displays the composite image stored in the third image storage unit 39 in step S16. Then, go to step S18.

ステップS18において、第2条件設定部40及び第3条件設定部41は、指示部23
からの指示があった場合に、最大値投影画像又は加算平均画像において、それらの画像を
生成するもととなった三次元画像データの厚みのうち、少なくともどちらか一方のWW/
WLを変更する。WW/WLを変更する場合(Y)はステップS15へ。変更しない場合
(N)はステップS19へ。
In step S18, the second condition setting unit 40 and the third condition setting unit 41 are instructed by the instruction unit 23.
When there is an instruction from, in the maximum value projection image or the addition average image, at least one of the thicknesses of the three-dimensional image data from which those images are generated is WW /
Change WL. When changing WW / WL (Y), go to step S15. If not changed (N), go to step S19.

ステップS19において、第2条件変更部40及び第3条件変更部41は、指示部23
からの指示があった場合に、最大値投影画像又は加算平均画像において、少なくともどち
らか一方の厚みを変更する。厚みの変更があった場合(Y)はステップS10へ。変更が
なかった場合(N)は終了する。
In step S <b> 19, the second condition changing unit 40 and the third condition changing unit 41 include the instruction unit 23.
When there is an instruction from, the thickness of at least one of the maximum value projected image or the addition average image is changed. If there is a change in thickness (Y), go to step S10. If there is no change (N), the process ends.

ここで、連結領域抽出において画素値の高い血管領域を抽出する例をあげたが、逆に画
素値の低い領域を同様に連結抽出してもよい。その場合はまず三次元画像データから加算
平均画像を生成し、そこから連結領域抽出を行う。そして血管以外の画素値が低い領域を
抽出し、残りの領域から最大値投影画像を生成する。そうすることで、上記最大値投影画
像から血管領域を連結領域抽出によって抽出する場合と同様に、血管領域は最大値投影画
像で、血管以外の臓器領域は加算平均画像でそれぞれ抽出することができ、またそれらを
合成することで血管領域及び臓器領域共に観察しやすい所望の画像を得ることができる。
Here, an example in which a blood vessel region having a high pixel value is extracted in the connected region extraction has been described, but conversely, a region having a low pixel value may be similarly connected and extracted. In that case, an addition average image is first generated from the three-dimensional image data, and a connected region is extracted therefrom. Then, a region having a low pixel value other than the blood vessel is extracted, and a maximum value projection image is generated from the remaining region. By doing so, the blood vessel region can be extracted by the maximum value projection image and the organ regions other than the blood vessels can be extracted by the addition average image, as in the case of extracting the blood vessel region from the maximum value projection image by the connected region extraction. Also, by synthesizing them, it is possible to obtain a desired image that can be easily observed in both the blood vessel region and the organ region.

次に、本実施形態に係る医用画像処理装置の効果を説明する。   Next, effects of the medical image processing apparatus according to the present embodiment will be described.

本実施形態は第1の実施形態と比べて領域の抽出方法が異なっており、予め定めた閾値
との比較を行う必要がなく、操作者自らの操作によって領域の抽出、並びに合成を行うこ
とができる。これにより、例えば一度抽出・合成を行ったところ、抽出された連結領域が
不十分だと操作者が感じた場合は、再び任意の領域を指定して抽出する領域を設定するこ
とができる。その結果、診断者は所望の画像を得ることができる。
This embodiment is different in area extraction method from the first embodiment, and it is not necessary to perform comparison with a predetermined threshold value. Area extraction and synthesis can be performed by an operator's own operation. it can. Thereby, for example, when the extraction / combination is performed once and the operator feels that the extracted connected areas are insufficient, an area to be extracted can be set by designating an arbitrary area again. As a result, the diagnostician can obtain a desired image.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり
、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態
で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え
、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれる
と同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
Although several embodiments have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

P 被検体
10 画像診断装置(X線CT装置)
11 ガントリ
12 回転リング
13 X線管
14 X線検出器
15 天板
16 データ収集部
17 データ伝送装置
20 コンピュータシステム
21 前処理部
22 システム制御部
23 操作部
24 データ処理部
25 データ保存部
26 再構成処理部
27 画像表示部
30 第1条件設定部
31 画像処理部
32 比較部
35 部位指定部
36 第1画像生成部
37 第2画像生成部
38 第3画像生成部
39 第3画像保存部
40 第2条件設定部
41 第3条件設定部
42 カーソル
100 血管
200 臓器
P Subject 10 Diagnostic imaging device (X-ray CT device)
11 Gantry 12 Rotating ring 13 X-ray tube 14 X-ray detector 15 Top plate 16 Data collection unit 17 Data transmission device 20 Computer system 21 Preprocessing unit 22 System control unit 23 Operation unit 24 Data processing unit 25 Data storage unit 26 Reconfiguration Processing unit 27 Image display unit 30 First condition setting unit 31 Image processing unit 32 Comparison unit 35 Site designation unit 36 First image generation unit 37 Second image generation unit 38 Third image generation unit 39 Third image storage unit 40 Second Condition setting unit 41 Third condition setting unit 42 Cursor 100 Blood vessel 200 Organ

Claims (9)

三次元画像データを二次元画像データに変換するための少なくとも二種類のレンダリング方法のうち、どのレンダリング方法を用いて変換するか、二次元領域における単位領域毎に判別する判別部と、
前記単位領域毎に判別された前記レンダリング方法に基づいて、前記三次元画像データにおける複数位置のデータを変換して前記二次元画像データを生成する画像生成部と、を有し、
前記判別は、前記三次元画像データから得た任意の断層像に基づいて生成された最大値投影画像中に設定された注目点におけるデータと、前記注目点の近傍の点におけるデータとに基づいて、レンダリング方法の判別を行う
医用画像処理装置。
A discriminating unit that discriminates for each unit region in the two-dimensional region, which rendering method is used for conversion among the at least two types of rendering methods for converting the three-dimensional image data into the two-dimensional image data,
An image generation unit that generates the two-dimensional image data by converting data at a plurality of positions in the three-dimensional image data based on the rendering method determined for each unit region;
The determination unit is based on data at a point of interest set in a maximum value projection image generated based on an arbitrary tomographic image obtained from the three-dimensional image data, and data at a point in the vicinity of the point of interest. A medical image processing apparatus for determining a rendering method.
前記判別は、前記注目点における画素値及び前記注目点の近傍の点における画素値と、予め設定された画素値範囲との比較に基づいて、前記判別を行う
請求項1記載の医用画像処理装置。
The determination unit includes: a pixel value at a point near the pixel values and the point of interest at the point of interest, based on a comparison of the preset pixel value range, the medical image processing according to claim 1, wherein performing the determination apparatus.
三次元画像データを二次元画像データに変換するための少なくとも二種類のレンダリング方法のうち、どのレンダリング方法を用いて変換するか、二次元領域における単位領域毎に判別する判別部と、
前記単位領域毎に判別された前記レンダリング方法に基づいて、前記三次元画像データにおける複数位置のデータを変換して前記二次元画像データを生成する画像生成部と、を有し、
前記画像生成部は、前記判別された前記レンダリング方法それぞれに対応する所定の厚み領域を前記三次元画像データに対して設定し、前記厚み領域内にある前記三次元画像データに基づいて前記二次元画像データを生成する
医用画像処理装置。
A discriminating unit that discriminates for each unit region in the two-dimensional region, which rendering method is used for conversion among the at least two types of rendering methods for converting the three-dimensional image data into the two-dimensional image data,
An image generation unit that generates the two-dimensional image data by converting data at a plurality of positions in the three-dimensional image data based on the rendering method determined for each unit region;
The image generation unit sets a predetermined thickness region corresponding to each of the determined rendering methods for the three-dimensional image data, and based on the three-dimensional image data in the thickness region, the two-dimensional A medical image processing apparatus for generating image data.
前記判別部は、前記三次元画像データにおけるある直線上の全ボクセル中の最大画素値に基づいて画素値を決定する判別を行う請求項3のいずれか1項に記載の医用画像処理装置。 The medical image processing apparatus according to claim 3, wherein the determination unit performs determination to determine a pixel value based on a maximum pixel value in all voxels on a certain straight line in the three-dimensional image data. 前記レンダリング方法は、少なくとも最大値投影法及び加算平均法を含む請求項1乃至4のいずれか1項に記載の医用画像処理装置。 The medical image processing apparatus according to claim 1, wherein the rendering method includes at least a maximum value projection method and an addition average method. 前記少なくとも二種類あるレンダリング方法のうち、いずれか一種類のレンダリング方法によって画素値が決定された前記単位領域毎にウィンドウ条件若しくは厚み条件をそれぞれ変更する条件変更部を更に有する請求項1または2に記載の医用画像処理装置。 3. The apparatus according to claim 1, further comprising: a condition changing unit that changes a window condition or a thickness condition for each of the unit regions whose pixel values are determined by any one of the at least two rendering methods. The medical image processing apparatus described. 前記判別部は、任意の閾値を設定し、前記閾値と前記最大画素値とを比較することによって、前記画素値を決定するための前記レンダリング方法の種類を決定する請求項4に記載の医用画像処理装置。 5. The medical image according to claim 4, wherein the determination unit determines a type of the rendering method for determining the pixel value by setting an arbitrary threshold and comparing the threshold with the maximum pixel value. Processing equipment. 医用画像処理装置に、
三次元画像データを二次元画像データに変換するための少なくとも二種類のレンダリング方法のうち、どのレンダリング方法を用いて変換するか、二次元領域における単位領域毎に判別させる判別手段と、
前記単位領域毎に判別された前記レンダリング方法に基づいて、前記三次元画像データにおける複数位置のデータを変換して前記二次元画像データを生成する画像生成手段と、を動作させるものであって、
前記判別手段は、前記三次元画像データから得た任意の断層像に基づいて生成された最大値投影画像中に設定された注目点におけるデータと、前記注目点の近傍の点におけるデータとに基づいて、レンダリング方法の判別を行う
制御プログラム。
In medical image processing device,
A discriminating means for discriminating, for each unit region in the two-dimensional region, which one of the rendering methods for converting the three-dimensional image data into the two-dimensional image data is used for the conversion.
Based on the rendering method determined for each unit region, the image generating means for converting the data of a plurality of positions in the three-dimensional image data to generate the two-dimensional image data is operated,
The determination means is based on data at a point of interest set in a maximum value projection image generated based on an arbitrary tomographic image obtained from the three-dimensional image data, and data at a point in the vicinity of the point of interest. Control program to determine the rendering method.
医用画像処理装置に、
三次元画像データを二次元画像データに変換するための少なくとも二種類のレンダリング方法のうち、どのレンダリング方法を用いて変換するか、二次元領域における単位領域毎に判別する判別手段と、
前記単位領域毎に判別された前記レンダリング方法に基づいて、前記三次元画像データにおける複数位置のデータを変換して前記二次元画像データを生成する画像生成手段と、を動作させるものであって、
前記画像生成手段は、前記判別された前記レンダリング方法それぞれに対応する所定の厚み領域を前記三次元画像データに対して設定し、前記厚み領域内にある前記三次元画像データに基づいて前記二次元画像データを生成する
制御プログラム。
In medical image processing device,
A discriminating means for discriminating, for each unit region in the two-dimensional region, which rendering method is used among at least two types of rendering methods for converting the three-dimensional image data into the two-dimensional image data,
Based on the rendering method determined for each unit region, the image generating means for converting the data of a plurality of positions in the three-dimensional image data to generate the two-dimensional image data is operated,
The image generation means sets a predetermined thickness region corresponding to each of the determined rendering methods for the three-dimensional image data, and based on the three-dimensional image data in the thickness region, the two-dimensional A control program that generates image data.
JP2012019330A 2012-01-31 2012-01-31 Medical image processing apparatus and control program Active JP6021340B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012019330A JP6021340B2 (en) 2012-01-31 2012-01-31 Medical image processing apparatus and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012019330A JP6021340B2 (en) 2012-01-31 2012-01-31 Medical image processing apparatus and control program

Publications (2)

Publication Number Publication Date
JP2013154127A JP2013154127A (en) 2013-08-15
JP6021340B2 true JP6021340B2 (en) 2016-11-09

Family

ID=49049916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012019330A Active JP6021340B2 (en) 2012-01-31 2012-01-31 Medical image processing apparatus and control program

Country Status (1)

Country Link
JP (1) JP6021340B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6293619B2 (en) 2014-08-28 2018-03-14 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Image processing method, apparatus, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09259257A (en) * 1996-03-26 1997-10-03 Toshiba Corp Image processor
JP2001212135A (en) * 2000-02-04 2001-08-07 Ge Yokogawa Medical Systems Ltd X-ray tomographic imaging device and storage medium
JP2003310602A (en) * 2002-04-19 2003-11-05 Fuji Photo Film Co Ltd Image display device
JP4709603B2 (en) * 2005-07-25 2011-06-22 株式会社東芝 Medical image processing device
JP2010000306A (en) * 2008-06-23 2010-01-07 Toshiba Corp Medical image diagnostic apparatus, image processor and program
US8625869B2 (en) * 2010-05-21 2014-01-07 Siemens Medical Solutions Usa, Inc. Visualization of medical image data with localized enhancement
JP2012050586A (en) * 2010-08-31 2012-03-15 Fujifilm Corp Projection image generation device, method and program

Also Published As

Publication number Publication date
JP2013154127A (en) 2013-08-15

Similar Documents

Publication Publication Date Title
JP4421016B2 (en) Medical image processing device
JP6534998B2 (en) Method and apparatus for displaying a medical image
JP5400326B2 (en) Method for displaying tomosynthesis images
US8285023B2 (en) Radiation image processing apparatus and method thereof
RU2471239C2 (en) Visualisation of 3d images in combination with 2d projection images
JP2013244211A (en) Medical image processor, medical image processing method and control program
US8611989B2 (en) Multi-planar reconstruction lumen imaging method and apparatus
JP4388104B2 (en) Image processing method, image processing program, and image processing apparatus
US10674971B2 (en) X-ray image display apparatus and method for X-ray image display
JP2007203046A (en) Method and system for preparing image slice of object
US9836861B2 (en) Tomography apparatus and method of reconstructing tomography image
JP2007275141A (en) Image display device
JP4122463B2 (en) Method for generating medical visible image
JP2005103263A (en) Method of operating image formation inspecting apparatus with tomographic ability, and x-ray computerized tomographic apparatus
JP4686279B2 (en) Medical diagnostic apparatus and diagnostic support apparatus
JP2010154982A (en) X-ray computer tomographic imaging apparatus and image processor
WO2012080943A1 (en) System and method for generating and displaying a 2d projection from a 3d or 4d dataset
JP5380231B2 (en) Medical image display apparatus and method, and program
JP4709603B2 (en) Medical image processing device
JP5487172B2 (en) Medical image diagnostic apparatus and medical image processing apparatus
JP2007289569A (en) Medical image processor and medical image processing method
JP6738631B2 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
JP2016168120A (en) Medical image processor and image display control method in medical image processor
JP6021340B2 (en) Medical image processing apparatus and control program
JP5268318B2 (en) Image display device and image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141216

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150218

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160531

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160620

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20160627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161004

R150 Certificate of patent or registration of utility model

Ref document number: 6021340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350