JP2003091735A - Image processor - Google Patents

Image processor

Info

Publication number
JP2003091735A
JP2003091735A JP2001284280A JP2001284280A JP2003091735A JP 2003091735 A JP2003091735 A JP 2003091735A JP 2001284280 A JP2001284280 A JP 2001284280A JP 2001284280 A JP2001284280 A JP 2001284280A JP 2003091735 A JP2003091735 A JP 2003091735A
Authority
JP
Japan
Prior art keywords
image
voxel
value
unit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001284280A
Other languages
Japanese (ja)
Other versions
JP4776834B2 (en
Inventor
Hisayasu Yumiza
久育 弓座
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2001284280A priority Critical patent/JP4776834B2/en
Publication of JP2003091735A publication Critical patent/JP2003091735A/en
Application granted granted Critical
Publication of JP4776834B2 publication Critical patent/JP4776834B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of excellently displaying a part even when the part desired to see in a three-dimensional image display is obstructed and hidden by another structure, and not restricted in view point position for allowing reading of an image. SOLUTION: A volume model obtained by being divided into voxels is formed, and a volume rendering image is displayed by being projected from the prescribed view point position. An operation means designates and operates a designating point to a specific area on the displayed volume rendering image. An arithmetic operation means correlates a weight factor of becoming large in weight of at least the designating point, and becoming small in weight of respective voxel values of a voxel space to the respective voxel values of the voxel space existing on the view point position side more than the designating point, and executes arithmetic processing for changing transparency of the respective voxels. An image processing means projects image information by a correction voxel value arithmetically operated by the arithmetic operation means on respective pixels of a plane of projection, and displays and processes the volume rendering image for changing the transparency on a display image screen.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置に関
し、特に、三次元画像の表示を行うものに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to an apparatus for displaying a three-dimensional image.

【0002】[0002]

【従来の技術】近年、診断・治療のような医療行為を行
う場で、X線CT装置、X線診断装置、核磁気共鳴イメ
ージング(MRI)装置等の医用画像診断装置上で作成
した画像を、診断若しくは治療を目的として三次元的な
画像に表示することが行われている。このような三次元
画像診断の分野では、例えばボリュームで画像を撮影
し、ボリュームレンダリングにて三次元画像を表示した
り、あるいはMPR等によりアキシャル、コロナル、サ
ジタルの各断面を読影することで三次元的に画像を把握
することが多い。
2. Description of the Related Art In recent years, an image created on a medical image diagnostic apparatus such as an X-ray CT apparatus, an X-ray diagnostic apparatus, a nuclear magnetic resonance imaging (MRI) apparatus, etc., in a place where a medical action such as diagnosis and treatment is performed. , Three-dimensional images are displayed for the purpose of diagnosis or treatment. In the field of such three-dimensional image diagnosis, for example, an image is taken with a volume and a three-dimensional image is displayed by volume rendering, or an axial, coronal, and sagittal cross section is read by MPR or the like to obtain a three-dimensional image. Often grasp the image.

【0003】ボリュームレンダリング法は、例えばCT
装置、MRI装置等により得られたスライス画像を積み
重ねた後に、複数のスライス画像のそれぞれの値(例え
ばCT値)をボクセルという正方形の中に填め込んだ三
次元構造のボリュームモデル(ボクセル空間)を作り、
このボリュームモデルに対して視線方向を決めて任意の
視点からボクセル追跡(レイトレーシング)を行い、ボ
クセルにおける明るさ(CT値ないしはボクセル値)を
求めて、この明るさに基づく画像情報を投影面のピクセ
ルに投影して、臓器等を立体的に抽出して三次元画像を
得る。
The volume rendering method is, for example, CT.
After stacking slice images obtained by an apparatus, an MRI device, etc., a volume model (voxel space) having a three-dimensional structure in which the respective values (for example, CT values) of a plurality of slice images are filled in a square called a voxel. Make,
For this volume model, the line-of-sight direction is determined and voxel tracking (ray tracing) is performed from an arbitrary viewpoint, the brightness (CT value or voxel value) at the voxel is calculated, and image information based on this brightness is displayed on the projection surface. A three-dimensional image is obtained by projecting onto a pixel and extracting an organ or the like three-dimensionally.

【0004】一方、画像診断装置における画像表示とし
て、MIP(Maximum Intensity P
rojection)処理が知られている。ここで、M
IP処理とは、処理対象である全ての原画像に対して、
それぞれの観察方向上にある全てのピクセルについて、
最大値等を取り出して投影画像<IP(ImagePr
ojection)イメージ>を生成する処理である。
この処理では、得られたMIPイメージにより、病変部
を観察することが可能になり、腫瘍の大きさと悪性/良
性の精密判断に役立つと考えられる。また、ヘリカルス
キャン等により得られる多数のイメージデータから、一
枚の画像を得ることで診断が容易になるとして期待され
ている。
On the other hand, MIP (Maximum Intensity P) is used as an image display in an image diagnostic apparatus.
Projection processing is known. Where M
IP processing means that for all original images to be processed,
For all pixels in each viewing direction,
Projection image <IP (ImagePr
object) image>.
In this process, the obtained MIP image makes it possible to observe the lesion site, which is considered to be useful for precise determination of tumor size and malignancy / benignity. Further, it is expected that diagnosis can be facilitated by obtaining one image from a large number of image data obtained by helical scanning or the like.

【0005】[0005]

【発明が解決しようとする課題】ところで、三次元画像
表示、例えばボリュームレンダリング画像により、腫瘍
等を見る場合、医者は、画像を見る際には腫瘍のみを見
たいのではなく、何らかの理由で例えば、腫瘍の周囲の
血管自体がどのように走っているのかなどの情報も必要
であり、周囲の血管等の構造との位置関係を把握しつ
つ、周囲の構造も共に見たいとの要望がある。
By the way, when a tumor or the like is viewed by a three-dimensional image display, for example, a volume rendering image, the doctor does not want to see only the tumor when viewing the image, but for some reason, for example, It is also necessary to have information such as how the blood vessels around the tumor itself are running, and there is a desire to understand the surrounding structure while grasping the positional relationship with the structures of the surrounding blood vessels. .

【0006】しかしながら、通常のボリュームレンダリ
ングによる画像表示では、例えば腫瘍のCT値と、血管
の領域のCT値とが近似しているために、例えば、図1
7に示すように、腫瘍ai等の位置が血管bi、di等
に隠れた状態で表示されてしまう。このため、遮られて
隠れる部分に関して視ることができないという問題があ
る。乃ち、腫瘍と血管の各CT値が近似しているため
に、互いのオブジェクトが重なると背後に位置するオブ
ジェクトが見えないという問題点があった。さらに、
「半透明表示」モードにしたとしても、画像がよく解ら
ず、かつ、どの領域を半透明にすればよいのかも不明で
あるため装置使用者は画像に対して的確な処理を行うこ
とができないという問題があった。
However, in the image display by the normal volume rendering, for example, the CT value of the tumor and the CT value of the blood vessel region are close to each other.
As shown in FIG. 7, the position of the tumor ai or the like is displayed in a state of being hidden by the blood vessels bi and di. For this reason, there is a problem in that it is impossible to see the part that is blocked and hidden. Since the CT values of the tumor and the blood vessel are close to each other, there is a problem that the objects located behind cannot be seen when the objects overlap each other. further,
Even if the "semi-transparent display" mode is set, the device user cannot perform accurate processing on the image because the image is not well understood and which region should be made semi-transparent is unknown. There was a problem.

【0007】さらにまた、腫瘍等の見たい部位が他の構
造物に遮られて隠れてしまうことから、腫瘍をあらゆる
方向から見ようとする場合には、腫瘍を見ることができ
る方向が制限されてしまう。従って、血管のない方向か
ら腫瘍を見る必要があり、一画面において腫瘍と周囲の
血管の関係とを同時に見ることが容易にできないという
課題があった。
Furthermore, since the site of interest such as a tumor is hidden by being obstructed by other structures, the direction in which the tumor can be seen is limited when the tumor is viewed from all directions. I will end up. Therefore, there is a problem that it is necessary to view the tumor from a direction without blood vessels, and it is not easy to simultaneously view the relationship between the tumor and surrounding blood vessels on one screen.

【0008】また、腫瘍等の存在診断や鑑別診断のため
に、原画像として読影したい場合には、数十枚の画像で
あれば1枚ずつ表示して読影を行っても、あまり苦にな
らなかったが、特にヘリカルスキャンCTなどの普及と
ともに、高速CTでは、患者一人あたり通常数十枚〜数
百枚のイメージが得られ、画像枚数が増大するため、数
百枚の画像を1枚ずつ表示し、読影するのは、時間がか
かる大変な作業であった。
When it is desired to read images as original images for the purpose of diagnosing the presence of tumors or differential diagnosis, it is not too difficult to display tens of images one by one for interpretation. However, with the popularization of helical scan CT and the like, high-speed CT usually produces several tens to several hundreds of images per patient, which increases the number of images. Displaying and interpreting was a time-consuming and laborious task.

【0009】本発明は、上記事情に鑑みてなされたもの
であり、その第1の目的は、三次元画像表示において見
たい部位が他の構造物に遮られて隠れた場合にも当該見
たい部位の画像を良好に表示することができ、さらに、
見たい部位を読影できる方向(視点位置)が制限されな
い画像処理装置を提供することにある。
The present invention has been made in view of the above circumstances, and a first object of the present invention is to perform viewing even when a portion desired to be viewed in a three-dimensional image display is hidden by another structure. The image of the part can be displayed well, and further,
An object of the present invention is to provide an image processing device in which the direction (viewpoint position) through which the desired region can be interpreted is not limited.

【0010】また、本発明の第2の目的は、数百枚単位
の画像を生成する高精度の医用画像診断装置における画
像を読影する際に、短時間での読影が可能となる画像処
理装置を提供することにある。
A second object of the present invention is to provide an image processing apparatus capable of reading images in a short time when the images are read by a highly accurate medical image diagnostic apparatus for generating images of hundreds of sheets. To provide.

【0011】[0011]

【課題を解決するための手段】上記第1の目的を達成す
るために、請求項1に記載の発明は、ボクセルに分割し
て得たボリュームモデルを生成し、所定の視点位置から
前記ボリュームモデルを投視して各ボクセルの情報を投
影面に投影し、前記投影面のボリュームレンダリング画
像を表示画面に表示処理する画像処理装置であって、前
記表示画面に表示された前記ボリュームレンダリング画
像上の特定領域に対して指定点を指定操作する操作手段
と、指定された前記指定点より前記視点位置側にあるボ
クセル空間の各ボクセル値に対して、少なくとも前記指
定点の重みが大となり前記ボクセル空間の各ボクセル値
の重みが小となる重み係数を相関させ、前記各ボクセル
の透明度を変化させる演算処理を行う演算手段と、前記
演算手段にて演算された補正ボクセル値による画像情報
を前記投影面の各ピクセルに投影し、透明度を変化させ
た前記ボリュームレンダリング画像を前記表示画面に表
示処理する画像処理手段と、を含むことを特徴としてい
る。
In order to achieve the first object, the invention according to claim 1 generates a volume model obtained by dividing into voxels, and the volume model is obtained from a predetermined viewpoint position. An image processing device for projecting the information of each voxel onto a projection surface by projecting a volume rendering image on the display screen and displaying the volume rendering image of the projection surface on a display screen, on the volume rendering image displayed on the display screen. With respect to each voxel value of the voxel space located closer to the viewpoint position than the specified designation point, the operating means for designating a designated point for the specific area, and at least the weight of the designated point becomes large, and the voxel space becomes larger. Calculation means for performing a calculation process for changing the transparency of each voxel by correlating the weighting factors with which the weight of each voxel value becomes small, and the calculation means Image information projected on each pixel of the projection surface by the correction voxel value, and image processing means for displaying processing the volume rendering image of varying transparency on the display screen, comprising a.

【0012】また、上記第2の目的を達成するため、請
求項4に記載の発明は、三次元原画像に基づいて、前記
三次元原画像を所定方向から投影面に投影した投影画像
を表示する画像処理を行う画像処理装置であって、前記
複数枚の原断層像を積層方向にて所定枚数毎の複数のグ
ループに区分する設定を行う設定手段と、前記設定手段
にて設定された前記複数のグループ毎に、1グループを
構成する各前記原断層像に対し、各前記原断層像の積層
方向上にある1グループ枚数分のピクセルの画素値に対
して所定の処理を施すことで所定方向の投影画像を作成
する画像作成手段と、を含むことを特徴としている。
In order to achieve the second object, the invention according to claim 4 displays a projection image obtained by projecting the three-dimensional original image from a predetermined direction on a projection surface based on the three-dimensional original image. An image processing apparatus for performing image processing, comprising setting means for setting the plurality of original tomographic images into a plurality of groups of a predetermined number in the stacking direction, and the setting means set by the setting means. For each of the plurality of groups, a predetermined process is performed on each of the original tomographic images forming one group by performing a predetermined process on the pixel values of the pixels of one group in the stacking direction of the original tomographic images. And an image creating unit for creating a projected image of the direction.

【0013】[0013]

【発明の実施の形態】以下、本発明の好適な実施の形態
の一例について、図面を参照して具体的に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an example of a preferred embodiment of the present invention will be specifically described with reference to the drawings.

【0014】[第1の実施の形態] (システムの全体構成)先ず、本発明にいう「画像処理
装置」ないしは「医用画像診断装置」を、いわゆる「医
用画像診断システム」に適用した場合の一実施の形態に
ついて説明を行うこととする。
[First Embodiment] (Overall Configuration of System) First, one example in which the "image processing apparatus" or "medical image diagnostic apparatus" according to the present invention is applied to a so-called "medical image diagnostic system" The embodiment will be described.

【0015】ここに、本発明の特徴は、CT装置又はM
RI等で得られたスライス画像に基づく立体的画像をボ
リュームレンダリングで画面に表示し、このボリューム
レンダリング画像上において、特定領域(オブジェク
ト)の指定点をポインタ等にて押下すると、当該指定さ
れたオブジェクト(腫瘍ai)が鮮明に表示されるよう
に、重み係数をCT値に相関させることにより、当該オ
ブジェクトより前方に表示されている他のオブジェクト
(血管bi)等の透明度を変換し、例えば腫瘍aiと血
管biなどとの組織関係を把握しながらも当該血管bi
により遮蔽される腫瘍aiの形状を明確に表示できるよ
うにするものである。
Here, a feature of the present invention is that the CT apparatus or M
A stereoscopic image based on a slice image obtained by RI or the like is displayed on the screen by volume rendering, and when a designated point of a specific region (object) is pressed with a pointer or the like on the volume rendering image, the designated object is displayed. By correlating the weighting coefficient with the CT value so that (tumor ai) is clearly displayed, the transparency of another object (blood vessel bi) or the like displayed in front of the object is converted, and, for example, tumor ai Of the blood vessel bi while grasping the tissue relationship between the blood vessel bi and the like.
The shape of the tumor ai shielded by is clearly displayed.

【0016】このような本発明の特徴の具体的な説明に
先立って、先ずは医用画像診断システムの全体の概略構
成について、図1ないし図2を参照して説明する。図1
及び図2は、本実施形態の医用画像診断システムの概略
構成を示す機能ブロック図である。
Prior to a detailed description of the features of the present invention, the overall schematic configuration of the medical image diagnostic system will be described with reference to FIGS. 1 and 2. Figure 1
2 and FIG. 2 are functional block diagrams showing a schematic configuration of the medical image diagnostic system of this embodiment.

【0017】本実施形態の医用画像診断システム1は、
図1及び図2に示すように、「X線CT装置」などのX
線源、X線検出器等のデータを収集するための機構を備
えたモダリティ2と、モダリティ2からの各種画像情報
等に基づいて、例えば三次元画像などを表示するための
画像処理装置10と、を有している。
The medical image diagnostic system 1 of this embodiment is
As shown in FIGS. 1 and 2, X such as “X-ray CT device”
A modality 2 including a mechanism for collecting data such as a radiation source and an X-ray detector, and an image processing device 10 for displaying, for example, a three-dimensional image based on various image information from the modality 2. ,have.

【0018】前記モダリティ2(医用画像診断装置)
は、例えば「X線CT装置」等が挙げられ、当該モダリ
ティ2がX線CT装置である場合には、架台3a内に備
えられたX線管3d及びX線検出器3e、X線検出器3
eからのデータを収集するデータ収集部4、各種データ
処理を行う前処理部5、画像再構成処理などを行う再構
成部6、各種データを処理するデータ処理部7、などを
備え、さらに、各種データを格納する記憶部、データ転
送を行う転送処理部、X線CT装置本体を操作するため
の操作部や表示部(いずれも不図示)なども含まれてい
る。
The modality 2 (medical image diagnostic apparatus)
Is, for example, an "X-ray CT apparatus". When the modality 2 is an X-ray CT apparatus, the X-ray tube 3d, the X-ray detector 3e, and the X-ray detector provided in the pedestal 3a are included. Three
A data collecting unit 4 for collecting data from e, a pre-processing unit 5 for performing various data processing, a reconstructing unit 6 for performing image reconstruction processing, a data processing unit 7 for processing various data, and the like. It also includes a storage unit for storing various data, a transfer processing unit for data transfer, an operation unit for operating the X-ray CT apparatus main body, a display unit (all not shown), and the like.

【0019】なお、医用画像診断システム1の構成とし
ては、図2に示すように、「X線CT装置」としてその
操作卓側に画像処理装置(2a)の機能を搭載する場合
や、「X線CT装置」とネットワークを介して接続され
た(X線CT装置本体とは別に構成にされた)画像参照
用コンピュータに画像処理装置(10)の機能を搭載す
る場合等、そのシステムのハードウエア構成はいずれで
あっても、もしくはその組み合わせであってもよい。
As shown in FIG. 2, the medical image diagnostic system 1 is configured such that an "X-ray CT apparatus" is provided with the function of the image processing apparatus (2a) on the console side, or "X-ray CT apparatus". Hardware of the system such as when the function of the image processing apparatus (10) is installed in an image reference computer (configured separately from the X-ray CT apparatus main body) connected to the "ray CT apparatus" via a network. The configuration may be any or a combination thereof.

【0020】この際、上記X線CT装置の各構成要素は
概略次のように作用する。すなわち、X線管11により
発せられ、被検体を透過したX線は、X線検出器3eに
よりアナログ電気信号に変換され、以下、データ収集部
4によるデジタル変換処理、前処理部5による各種補正
処理等を受け、投影データとして不図示の記憶部に蓄え
られる。そして、前記X線管3d及びX線検出器3e
が、被検体周囲を例えば1周(=360°)した結果得
られる投影データに基づいて、前記再構成部6による断
層像等その他の画像情報の再構成を行い、データ処理部
7で種々の処理を行い断層像等の画像情報の表示が可能
となる。なお、架台3aには、環状の穴部3cが設けら
れ、被検者を載せた寝台天板3bが矢印方向に所定速度
で移動することで、ヘリカルスキャン等を行い得、被検
者の複数の断層像(スライス画像)を得る。
At this time, the respective constituent elements of the X-ray CT apparatus generally operate as follows. That is, the X-rays emitted by the X-ray tube 11 and transmitted through the subject are converted into analog electric signals by the X-ray detector 3e, and hereinafter, digital conversion processing by the data collection unit 4 and various corrections by the preprocessing unit 5 are performed. It is processed and stored as projection data in a storage unit (not shown). Then, the X-ray tube 3d and the X-ray detector 3e
However, based on projection data obtained as a result of, for example, one round (= 360 °) around the subject, the reconstruction unit 6 reconstructs other image information such as a tomographic image, and the data processing unit 7 performs various reconstructions. Image information such as a tomographic image can be displayed by performing processing. An annular hole 3c is provided in the gantry 3a, and the bed top plate 3b on which the subject is placed can move at a predetermined speed in the direction of the arrow to perform a helical scan or the like. A tomographic image (slice image) is obtained.

【0021】一方、図1に説明を戻すと、画像処理装置
1は、CT装置又はMR等で得られたスライス画像が積
み重ねられて記憶された各スライス画像を順次読み出し
てスライス画像に厚みをもたせ、その空間分解能(x、
y)とスライス厚(z)とが等しい三次元空間を構成し
た3次元構造のボクセル空間を生成して三次元画像を表
示可能とする機能を有するものであり、モダリティ2か
らの各種画像情報やその他の情報(付帯情報など)を記
憶する画像記憶部11含んで構成される。この画像記憶
部11は、スライス画像等の情報を格納するスライス画
像情報格納部11aと、スライス画像情報格納部11a
のスライス画像に基づいて、ボリュームレンダリング等
のボリュームモデル情報を格納するボリュームモデル情
報格納部11bとを有してなる。
On the other hand, returning to the description of FIG. 1, the image processing apparatus 1 sequentially reads the slice images stored by stacking the slice images obtained by the CT apparatus or MR or the like to give the slice images a thickness. , Its spatial resolution (x,
y) and the slice thickness (z) are equal to each other, the voxel space having a three-dimensional structure that forms a three-dimensional space is generated to have a function of displaying a three-dimensional image, and various image information from the modality 2 and The image storage unit 11 is configured to store other information (such as additional information). The image storage unit 11 includes a slice image information storage unit 11a that stores information such as slice images and a slice image information storage unit 11a.
And a volume model information storage unit 11b for storing volume model information such as volume rendering based on the slice image.

【0022】また、画像処理装置1は、ボリュームモデ
ル情報格納部11bでのボリュームモデル情報に基づい
て、3D画像等の立体モデルを生成する立体モデル生成
部12と、生成された立体モデルに対して投影処理など
を施す投影処理部15と、視線方向位置算出部13と、
ボリュームモデル位置算出部14と、投影処理部15
と、視線方向距離算出部16と、画像処理部17と、グ
ラフィックデータ生成部18と、関心領域演算部19
と、重み演算手段20と、表示部31と、操作部32
と、その他の処理33と、これらの制御を司る制御部3
4と、を有している。
The image processing apparatus 1 also generates a stereo model such as a 3D image based on the volume model information stored in the volume model information storage section 11b, and a stereo model generation section 12 for the generated stereo model. A projection processing unit 15 that performs projection processing, a line-of-sight direction position calculation unit 13,
Volume model position calculation unit 14 and projection processing unit 15
A line-of-sight direction distance calculation unit 16, an image processing unit 17, a graphic data generation unit 18, and a region of interest calculation unit 19
, Weight calculation means 20, display section 31, and operation section 32
And other processing 33, and the control unit 3 that controls these.
4 and.

【0023】立体モデル生成部12(ボリュームモデル
生成手段、3D画像生成部)は、例えばレンダリング処
理等により三次元画像を生成するものであり、組織の色
情報又は透明度に基づくボリュームモデルをファイルに
生成するものであり、前述の三次元構造のボクセル空間
の一つ一つのボクセルの数値に応じた透明度又は色情報
を割り付けて三次元物体をモデルとして定義して、三次
元物体の表面のみならず内部の多重構造も可視できる構
造のボリュームモデルを生成する。乃ち、ファイルのス
ライス画像(X、Y)を順次抽出して、スライス画像の
空間分解能(x、y)とスライス厚(z)とが等しい三
次元空間座標系(X、Y、Z)を構成し、その一つ一つ
のボクセルの数値に応じた色情報を割り付けたボリュー
ムモデルをファイルに定義する。
The stereo model generation unit 12 (volume model generation means, 3D image generation unit) generates a three-dimensional image by, for example, rendering processing, and generates a volume model based on tissue color information or transparency in a file. The 3D object is defined as a model by allocating transparency or color information according to the numerical value of each voxel in the voxel space of the 3D structure described above, and the inside as well as the surface of the 3D object is defined. Generates a volume model with a structure in which the multiple structure of is visible. Then, the slice images (X, Y) of the file are sequentially extracted to form a three-dimensional spatial coordinate system (X, Y, Z) in which the spatial resolution (x, y) of the slice images and the slice thickness (z) are equal. Then, the volume model to which the color information corresponding to the numerical value of each voxel is assigned is defined in the file.

【0024】オブジェクト空間に定義された三次元物体
(対象物)は、立体モデル生成部12がCT装置又はM
RI等のモダリティ2で得られた被検体のスライス画像
に厚みを持たせ、その空間分解能(x、y)とスライス
厚(z)とが原則として等しい三次元空間(ボクセル空
間)を構成し、その一つ一つのボクセルにCT値等の数
値を割り付けて生成している。
For the three-dimensional object (object) defined in the object space, the three-dimensional model generation unit 12 uses the CT device or M
A slice image of a subject obtained by a modality 2 such as RI is given a thickness to form a three-dimensional space (voxel space) whose spatial resolution (x, y) and slice thickness (z) are basically the same, A numerical value such as a CT value is assigned to each voxel to generate it.

【0025】視線方向位置算出部13は、操作部32
(例えばマウス等)の操作に伴うイベントの発生に伴っ
て表示部31の画面に表示された画像(ボリュームレン
ダリング画像)上における指示ポイント(ポインタ)の
位置を、画像処理部17の画像メモリ(不図示)等から
読み出し、当該指示ポイントの位置をボリュームモデル
位置算出部14に知らせる。前述の画像メモリには、投
影処理部15における投影空間、投影面(スクリーン空
間)と同じ画像が一次記憶される、座標系は投影面と同
じ2次元座標であり、画面の表示分解能に比例させてい
る。なお、前述の指示ポイントとは、画像処理部17が
マウスの操作に伴って移動させられる画面(画像メモ
リ)上のポインタである。また、視線方向位置算出部1
6は、操作部32の操作に伴う操作量から視線方向を求
めている。
The line-of-sight direction position calculation unit 13 includes an operation unit 32.
The position of the instruction point (pointer) on the image (volume rendering image) displayed on the screen of the display unit 31 in association with the occurrence of an event associated with the operation of the mouse (for example, the mouse) is determined by It is read out from the drawing) or the like to notify the volume model position calculation unit 14 of the position of the designated point. The above-mentioned image memory temporarily stores the same image as the projection space and the projection surface (screen space) in the projection processing unit 15. The coordinate system has the same two-dimensional coordinates as the projection surface and is proportional to the display resolution of the screen. ing. Note that the above-mentioned instruction point is a pointer on the screen (image memory) that the image processing unit 17 can be moved by operating the mouse. In addition, the line-of-sight direction position calculation unit 1
Reference numeral 6 obtains the line-of-sight direction from the operation amount associated with the operation of the operation unit 32.

【0026】ボリュームモデル位置算出部14は、投影
処理部15の投影面を介して3次元位置を決定するもの
であり、視線方向位置算出部13で得られたボリューム
レンダリング画像上の指定位置(スクリーン空間の2次
元位置)を読み、この指定位置の座標をボクセルを用い
た座標に対応するように3次元位置(Xi、Yi、Z
i)を求め、これを指定ポイントのボリュームモデルの
3次元位置(Xi、Yi、Zi)として投影処理部15
に送出する。
The volume model position calculation unit 14 determines a three-dimensional position via the projection surface of the projection processing unit 15, and a designated position (screen) on the volume rendering image obtained by the line-of-sight direction position calculation unit 13. The two-dimensional position in the space) is read, and the coordinates of this designated position are converted into three-dimensional positions (Xi, Yi, Z) so as to correspond to the coordinates using voxels.
i) is obtained, and this is used as the three-dimensional position (Xi, Yi, Zi) of the volume model of the designated point in the projection processing unit 15
Send to.

【0027】投影処理部15は、オブジェクト空間にボ
クセルで定義された三次元物体(対象物)に対して投影
面を視線方向に基づいて向け、この投影面の各ピクセル
から仮想的なレイ(光)を発してボクセル追跡を行い、
前方の光り、或いは光源に照らされた光に照らされて反
射する光とを合成して、次々とボクセルに渡していき最
後のボクセルから出る光をレンダリング画像のピクセル
値として投影面のピクセルに投影する。乃ち、所定の視
点位置及び視線方向からボクセルで定義された三次元物
体にレイトレーシングを行い、ぶつかったボクセルまで
の距離とボクセルにおけるレイの方向とから明るさ(C
T値)等を求めて、オパシティカーブの透明度αiを読
み、この明るさhiと透明度等を積算した画像情報を順
次合成して行く。
The projection processing unit 15 directs the projection plane toward a three-dimensional object (object) defined by voxels in the object space based on the line-of-sight direction, and virtual rays (light ) To perform voxel tracking,
The light from the front or the light reflected by the light illuminated by the light source is combined and passed to the voxels one after another, and the light emitted from the last voxel is projected to the pixel on the projection surface as the pixel value of the rendering image. To do. Then, ray tracing is performed on a three-dimensional object defined by voxels from a predetermined viewpoint position and line-of-sight direction, and the brightness (C) is calculated from the distance to the bumped voxel and the ray direction at the voxel.
Then, the transparency αi of the opacity curve is read and the image information obtained by integrating the brightness hi and the transparency is sequentially synthesized.

【0028】具体的には、視線方向位置算出部13で得
られた投影面8スクリーン空間)の座標に対応する2次
元の視線方向及び視線位置を基準としてボリュームモデ
ルに対してレイキャスティング等を行って投影面に投影
する。前記投影面への投影はオブジェクト空間からの投
影法に応じた変換により投影している。また、投影処理
部15は、ボリュームモデル位置算出部14によって求
められた3次元位置及び視点方向位置算出部13からの
視線方向から投影したときのボリュームモデルの3次元
的な画像(ボリュームレンダリング画像)を投影面に得
て画面上に表示している。
Specifically, ray casting or the like is performed on the volume model with reference to the two-dimensional line-of-sight direction and line-of-sight position corresponding to the coordinates of the projection plane 8 screen space obtained by the line-of-sight direction position calculator 13. And project it onto the projection surface. The projection onto the projection plane is performed by conversion according to the projection method from the object space. In addition, the projection processing unit 15 is a three-dimensional image of the volume model when projected from the three-dimensional position obtained by the volume model position calculation unit 14 and the line-of-sight direction from the viewpoint direction position calculation unit 13 (volume rendering image). Is obtained on the projection surface and displayed on the screen.

【0029】そして、投影面の投影に際して、投影処理
部15は、例えば投影するピクセルが関心領域aiの場
合は、画像記憶部11のオパシィティーカーブを用いた
透明度で投影する。
When the projection surface is projected, the projection processing section 15 projects the transparency with the opacity curve of the image storage section 11 when, for example, the pixel to be projected is the region of interest ai.

【0030】視線方向距離算出部16は、ポインタされ
た位置と視点位置とに基づいて、3次元空間上の視点位
置からポインタで指示された位置までの視線方向(視
軸、投影線)の距離を算出する。視線方向距離算出部1
6は、視線方向位置算出部13からボクセル空間のどの
位置に指示された指示位置があるかの情報を得て、ボク
セル空間内の軸Lと平面H(図5:詳細は後述)との交
差する位置から指示位置までの距離を算出する。
The line-of-sight direction distance calculating unit 16 is a distance in the line-of-sight direction (visual axis, projection line) from the viewpoint position in the three-dimensional space to the position designated by the pointer, based on the pointed position and the viewpoint position. To calculate. Gaze direction distance calculation unit 1
6 obtains information from the line-of-sight direction position calculation unit 13 which position in the voxel space the designated position is, and intersects the axis L in the voxel space with the plane H (FIG. 5: details will be described later). The distance from the position to be designated to the designated position is calculated.

【0031】画像処理部17は、スクリーン空間の画像
を画像メモリに一次記憶して、当該画像メモリの画像デ
ータを表示部31の表示画面上に表示する。また、操作
部32(マウス等)の操作に基づくカーソル等を表示部
31の表示画面上に表示する。この画像処理部及び制御
部により本発明にいう「画像処理手段」を構成できる。
The image processing section 17 temporarily stores the image in the screen space in the image memory and displays the image data of the image memory on the display screen of the display section 31. Further, a cursor or the like based on the operation of the operation unit 32 (mouse or the like) is displayed on the display screen of the display unit 31. The image processing section and the control section can constitute the "image processing means" in the present invention.

【0032】グラフィックデータ生成部18は、表示部
31の表示画面上に3次元画像とともに表示される操作
カーソル等の各種グラフィック表示データを生成する。
前記グラフィックデータ生成部18からの画像データ
は、画像処理部17に入力され、この画像処理部17を
介して表示部31に表示されることとなる。
The graphic data generation unit 18 generates various graphic display data such as an operation cursor displayed together with the three-dimensional image on the display screen of the display unit 31.
The image data from the graphic data generation unit 18 is input to the image processing unit 17, and is displayed on the display unit 31 via the image processing unit 17.

【0033】関心領域演算部19は、関心領域や不透明
度等の各種の制御演算を行うものであり、操作部32に
より指定された指定領域のボクセルの位置と、視線方向
とに基づいて、関心領域のボクセル値を算出するもので
ある。ここに、関心領域演算部19は、ボクセル位置と
関心領域の表示態様を規定する関心領域パラメータとに
基づいて、関心領域のボクセル値を抽出する。オブジェ
クト空間に定義された三次元物体のボクセル情報を投影
面に投影するとき投影面の投影領域の関心領域の座標を
画像記憶部11に設定する。なお、関心領域の画像表示
パラメータとしては、例えば不透明度等が挙げられる。
この不透明度とは、オブジェクトの関心領域の強調表示
の強調度を示すものである。
The region-of-interest calculating unit 19 performs various control calculations for the region of interest, opacity, etc., and based on the position of the voxel in the designated region designated by the operating unit 32 and the line-of-sight direction, the region of interest is calculated. The voxel value of the area is calculated. Here, the ROI calculator 19 extracts the voxel value of the ROI based on the voxel position and the ROI parameter that defines the display mode of the ROI. When the voxel information of the three-dimensional object defined in the object space is projected on the projection surface, the coordinates of the region of interest in the projection area of the projection surface are set in the image storage unit 11. The image display parameter of the region of interest may be opacity or the like.
The opacity indicates the degree of emphasis in highlighting the region of interest of the object.

【0034】重み演算手段20は、予め設定された重み
係数の場合にはボクセルに対してその重み係数を抽出
し、予め設定された重み関数の場合には当該重み関数に
基づいて各ボクセルに対応する重み係数を各々算出する
重み係数演算部21と、操作部32にて操作指示された
位置のボクセル値を基準とした境界より視点位置側のボ
クセル空間の各ボクセルのボリュームモデル上の位置
を、視点位置、視線方向並びに操作部32にて指示され
た位置などから抽出するボクセル位置抽出部22と、前
記ボクセル位置抽出部22にて算出された位置情報と前
記重み係数演算部21にて算出された前記位置に対応す
る重み係数とに基づいて、当該各ボクセルの各CT値
(各ボクセル値)を各々算出するCT値(ボクセル値)
演算部23と、その他種々の演算処理(例えば、前記各
ボクセルに対して重み係数を相関させたボクセル値をボ
リュームモデル上の視軸部分について算出した場合に
は、前記ボクセル空間に亘って演算する処理、あるいは
これらの演算制御を司る処理等)を行うその他の演算処
理部24と、を含んで構成されている。なお、この重み
演算手段は、本発明にいう「演算手段」に該当し、重み
係数演算部は、本発明にいう「重み係数算出手段」に該
当する。
The weight calculation means 20 extracts a weighting coefficient for a voxel in the case of a preset weighting coefficient, and in the case of a preset weighting function, corresponds to each voxel based on the weighting function. And a position on the volume model of each voxel in the voxel space in the voxel space on the viewpoint position side from the boundary based on the voxel value of the position instructed by the operation unit 32. The voxel position extraction unit 22 that extracts from the viewpoint position, the line-of-sight direction, and the position designated by the operation unit 32, the position information calculated by the voxel position extraction unit 22, and the weighting factor calculation unit 21. CT value (voxel value) for calculating each CT value (each voxel value) of each voxel based on the weighting coefficient corresponding to the position
The calculation unit 23 and various other calculation processes (for example, when a voxel value obtained by correlating a weighting coefficient with respect to each voxel is calculated for the visual axis portion on the volume model, calculation is performed over the voxel space. Other arithmetic processing units 24 that perform processing, or processing that controls these arithmetic operations). The weight calculation means corresponds to the "calculation means" according to the present invention, and the weight coefficient calculation unit corresponds to the "weight coefficient calculation means" according to the present invention.

【0035】重み係数演算部21は、予め定義された重
み関数に基づいて、視線方向の距離に応じた、重み係数
(透明度を補正する補正値)を算出するものである。
The weighting coefficient calculator 21 calculates a weighting coefficient (correction value for correcting transparency) according to the distance in the line-of-sight direction, based on a predefined weighting function.

【0036】表示部31は、立体モデル生成部12から
の画像を表示させる機能を有し、例えば図3に示すよう
なTVモニタ等から形成され、単体又はデュアル(2画
面や合成)表示を可能とする。
The display unit 31 has a function of displaying the image from the stereo model generation unit 12, and is formed of, for example, a TV monitor as shown in FIG. 3, and can display single or dual (two screens or composite) display. And

【0037】操作部32は、図3に示すように、例えば
マウス、トラックボール及び/又はキーボード等の入力
装置を用いて構成され、表示部31上で診断部位の指定
や、各種画像表示パラメータの入力設定等を行うための
ものである。これにより、制御部34は、操作部32に
より指定された表示画面上の点に基づいて、腫瘍等の画
像の表示をみやすくするように変更制御する。この操作
部は、本発明にいう「操作手段」に該当する。
As shown in FIG. 3, the operation unit 32 is configured by using an input device such as a mouse, a trackball and / or a keyboard, and specifies a diagnostic region on the display unit 31 and various image display parameters. This is for making input settings and the like. As a result, the control unit 34 controls the change based on the point on the display screen designated by the operation unit 32 so that the image of the tumor or the like can be displayed easily. This operation unit corresponds to the "operation means" according to the present invention.

【0038】なお、表示部31には、表示画面上に表示
された表示操作部たる不図示の重み係数設定部ないしは
重み関数設定部31aを構成してよい。この重み関数設
定部31aは、例えば、画面のボリュームレンダリング
画像の特定領域の境界位置より視点位置側のボクセル空
間内の各ボクセルに対する各重み係数(透明度)を設定
するためのある種の重み関数を任意に設定するものであ
る。具体的には、重み関数の各パラメータ(勾配部のC
T値と重み係数)を入力させ、このパラメータに基づく
重み関数を生成して前記ボクセル空間と対応させて画像
記憶部11に記憶する。
The display unit 31 may be provided with a weighting coefficient setting unit or a weighting function setting unit 31a (not shown) which is a display operation unit displayed on the display screen. The weighting function setting unit 31a uses, for example, a certain weighting function for setting each weighting coefficient (transparency) for each voxel in the voxel space on the viewpoint position side from the boundary position of the specific area of the volume rendering image on the screen. It is set arbitrarily. Specifically, each parameter of the weighting function (C of the gradient part
T value and weighting factor) are input, a weighting function based on this parameter is generated, and stored in the image storage unit 11 in association with the voxel space.

【0039】重み関数設定部31aは、画面に表示され
るボリュームレンダリング画像の全体の重み係数を決定
する複数の重み関数を画像記憶部11に記憶する。例え
ば、図10(A)(B)の重み関数F1は、距離が点A
〜点Cまでの範囲の透明度が0〜1になるように変化す
る関数を有する重み関数にされている。この際、画像記
憶部11には、投影面の各ピクセル座標kiに対応する
ピクセル座標P1(Xi、Yi)、P2、P3、……に
重み関数を用いて演算されたCT値が割付けられて記憶
されている。なお、本実施の形態の重み関数設定部は、
本発明にいう「重み関数設定手段」に該当する。
The weighting function setting section 31a stores a plurality of weighting functions for determining the weighting coefficient of the entire volume rendering image displayed on the screen in the image storage section 11. For example, the weighting function F1 of FIGS.
The weighting function has a function that changes so that the transparency in the range from to point C is 0 to 1. At this time, a CT value calculated using a weighting function is assigned to the pixel coordinates P1 (Xi, Yi), P2, P3, ... Corresponding to each pixel coordinate ki of the projection surface in the image storage unit 11. Remembered The weighting function setting unit according to the present embodiment is
It corresponds to the "weight function setting means" in the present invention.

【0040】なお、表示部31には、オペレータによっ
て入力された関心領域のオパシティカーブを生成して画
像記憶部11に設定するオパシティカーブ設定部(不図
示)を形成してよい。
The display unit 31 may be provided with an opacity curve setting unit (not shown) for generating the opacity curve of the region of interest input by the operator and setting it in the image storage unit 11.

【0041】上記のように構成された画像処理装置10
について、ボリューム表示を行う場合は、概略以下のよ
うに作用する。
The image processing apparatus 10 configured as described above.
When the volume display is performed, the following roughly operates.

【0042】モダリティ2より転送されてきたスライス
画像情報が画像記憶部11に格納されると、立体モデル
生成部12は、画像記憶部11のスライス画像情報格納
部11aより複数のスライス画像(マルチスライス画
像)の取得を行う。
When the slice image information transferred from the modality 2 is stored in the image storage unit 11, the stereo model generation unit 12 causes the slice image information storage unit 11a of the image storage unit 11 to store a plurality of slice images (multi-slice images). Image) is acquired.

【0043】立体モデル生成部12は、ボリューム表示
に伴って、ファイルのスライス画像(X、Y)を順次抽
出して、スライス画像の空間分解能(x、y)とスライ
ス厚(z)とが等しい三次元空間座標系(X、Y、Z)
を構成し、その一つ一つのボクセルの数値に応じたは色
情報を割り付けたボリュームモデルをファイルに定義す
る。例えば、各ボクセルにCT値に応じた色情報を割り
付けたボリュームモデル、つまり、組織間の境界面のみ
ならず内部の情報構造も多重に見えるようなモデルを生
成する。
The stereo model generation unit 12 sequentially extracts the slice images (X, Y) of the file in accordance with the volume display, and the spatial resolution (x, y) of the slice images is equal to the slice thickness (z). Three-dimensional space coordinate system (X, Y, Z)
And a volume model to which color information is assigned according to the numerical value of each voxel is defined in the file. For example, a volume model in which color information corresponding to the CT value is assigned to each voxel, that is, a model in which not only the boundary surface between tissues but also the internal information structure can be seen multiplex is generated.

【0044】また、立体モデル生成部12はボリューム
モデルの生成に伴って、三次元空間座標系(X、Y、
Z)に、3次元構造のボクセル空間の一つ一つのボクセ
ルに対して、しきい値処理を行った複数の2値ボクセル
の隣接関係から一つ一つのボクセル内を定義する。
Further, the three-dimensional model generating unit 12 generates a volume model, and the three-dimensional space coordinate system (X, Y,
In Z), the inside of each voxel is defined from the adjacency relation of a plurality of binary voxels that have been thresholded for each voxel in the voxel space of the three-dimensional structure.

【0045】そして、投影処理部15は、ファイルのボ
リュームモデルを所定の視線位置及び視線方向から投影
したときのボリュームレンダリング画像を表示させる。
例えば、図4に示すようなボリュームレンダリングの画
像を表示する。図4は頭部のボリュームレンダリングの
画像であり、腫瘍、血管、他の器官等が見えるようにな
っている。
Then, the projection processor 15 displays a volume rendering image when the volume model of the file is projected from a predetermined line-of-sight position and line-of-sight direction.
For example, a volume rendering image as shown in FIG. 4 is displayed. FIG. 4 is a volume rendering image of the head, in which tumors, blood vessels, other organs, etc. can be seen.

【0046】ここで、レンダリング処理の中でも特にレ
イトレーシング法を用いて3次元画像を構成する場合に
は、3次元画像に対して、視線方向すなわち投影面(プ
ロジェクションプレーン)を決め、ボクセルに対して視
線方向から光線(=レイ)を飛ばし、経由するボクセル
データ値で決まる不透明度により、減衰透過する光線量
を計算しながらレイ上の各サンプル点の反射光総量に輝
度やカラー処理を施して3次元画像を得る。
Here, in the case where a three-dimensional image is formed by using the ray tracing method among the rendering processing, the line-of-sight direction, that is, the projection plane (projection plane) is determined for the three-dimensional image and the voxel is determined. A ray (= ray) is skipped from the line-of-sight direction, and the amount of rays to be attenuated and transmitted is calculated according to the opacity determined by the voxel data value passing through, and the total amount of reflected light at each sample point on the ray is subjected to brightness and color processing. Obtain a three-dimensional image.

【0047】このようなボリュームレンダリング画像を
表示部31に表示しているとき、例えば、オペレータが
操作部32のマウス等によって特定箇所を指示し、視点
位置がジャンプされたとき、視線方向位置算出部13
は、画面に表示されているボリュームレンダリング画像
上の現在の二次元位置(スクリーン空間での二次元位
置)を読み、この二次元位置及び視線方向を知らせる。
When such a volume rendering image is displayed on the display unit 31, for example, when the operator designates a specific position with the mouse of the operation unit 32 and the viewpoint position is jumped, the line-of-sight position calculation unit Thirteen
Reads the current two-dimensional position (two-dimensional position in screen space) on the volume rendering image displayed on the screen and informs the two-dimensional position and the line-of-sight direction.

【0048】ボリュームモデル位置算出部14は、視線
方向位置算出部13からの二次元位置を読み、この位置
の座標変換を行い、投影処理部15の投影面を介して前
記位置に対応する三次元位置を求め、この三次元位置
を、ボリュームレンダリング画像の指定ポイントのボリ
ュームモデルの三次元位置として投影処理部15に送出
する。すなわち、視線方向位置算出部13からの二次元
位置に対応する三次元位置をボリュームモデルの三次元
位置とする。
The volume model position calculation unit 14 reads the two-dimensional position from the line-of-sight direction position calculation unit 13, performs coordinate conversion of this position, and through the projection plane of the projection processing unit 15, the three-dimensional position corresponding to the position. The position is obtained, and this three-dimensional position is sent to the projection processing unit 15 as the three-dimensional position of the volume model of the designated point of the volume rendering image. That is, the three-dimensional position corresponding to the two-dimensional position from the line-of-sight direction position calculation unit 13 is set as the three-dimensional position of the volume model.

【0049】そして、投影処理部15は、ボリュームモ
デル位置算出部14からの三次元位置及び視線方向位置
算出部13からの視線方向に基づいてボリュームモデル
を投影面(スクリーン空間)に投影し、この投影面のボ
リュームレンダリング画像を画面に表示させる。このよ
うに、ボリュームレンダリング画像において、指定され
た位置の正確なボリューム画像を画面に表示できる。
Then, the projection processing unit 15 projects the volume model on the projection surface (screen space) based on the three-dimensional position from the volume model position calculation unit 14 and the line-of-sight direction from the line-of-sight direction position calculation unit 13. The volume rendering image of the projection surface is displayed on the screen. Thus, in the volume rendering image, the accurate volume image at the designated position can be displayed on the screen.

【0050】(本実施形態の特徴的構成)ここで、本実
施形態の特徴、すなわち、重み係数によりCT値を算出
するための原理について図4〜図8を用いて説明する。
(Characteristic Configuration of this Embodiment) Here, the feature of this embodiment, that is, the principle for calculating the CT value by the weighting coefficient will be described with reference to FIGS.

【0051】本実施の形態では、図4に示すようなCT
等を用いて撮影された画像を用いて、頭部の3次元画像
Gを表示する場合について説明する。なお、説明のため
画像サイズは512×512とし、画像枚数は、512
枚であり、ピクセルサイズ(xy平面における画素サイ
ズ)とスライスピッチ(z方向の画素サイズ)は同じで
あるとする。また、座標系は、図4に示す通りであると
し、表示部31における重み関数設定部31aなどによ
って、重み関数が予め設定されている場合を想定する。
In the present embodiment, the CT as shown in FIG.
A case will be described in which a three-dimensional image G of the head is displayed using an image captured using the above. For the sake of explanation, the image size is 512 × 512, and the number of images is 512.
The number of pixels is the same, and the pixel size (pixel size in the xy plane) and the slice pitch (pixel size in the z direction) are the same. Further, it is assumed that the coordinate system is as shown in FIG. 4 and that the weighting function is set in advance by the weighting function setting unit 31a in the display unit 31.

【0052】本実施の形態では、ユーザーが見たいと所
望する部分(関心領域)の1点をクリック等の操作を行
うことにより、当該クリックされた座標値(x、y、
z)から視点位置側に離間するに従い、各画素(ボクセ
ル値ないしCT値)の透明度を変更することで、前記関
心領域を濃く表示し、前記関心領域から離間するに従い
薄く表示する。このようにすることで、前記関心領域を
明確に見えるようにし、前記関心領域の周囲の構造、例
えば、血管等の走行具合を比較的解るように表示可能と
なる。例えば、図5に示すように、腫瘍aiの領域を操
作部32を用いてクリックすると、腫瘍aiは極力見え
るようになる。なお、クリックした点が腫瘍ai(関心
領域)の中心であるとすると、当該中心点に対して腫瘍
ai(関心領域)の視点位置側も若干薄く表示されるよ
うにしてもよい。
In the present embodiment, the user clicks one point on a desired portion (region of interest) he / she wants to see, so that the clicked coordinate value (x, y,
By changing the transparency of each pixel (voxel value or CT value) as it is separated from z) toward the viewpoint position side, the region of interest is displayed darker, and as it is separated from the region of interest, it is displayed lighter. By doing so, the region of interest can be clearly seen, and the structure around the region of interest, for example, the running condition of a blood vessel or the like can be displayed relatively relatively. For example, as shown in FIG. 5, when the area of the tumor ai is clicked using the operation unit 32, the tumor ai becomes visible as much as possible. If the clicked point is the center of the tumor ai (region of interest), the viewpoint position side of the tumor ai (region of interest) may be displayed slightly thin with respect to the center point.

【0053】具体的には、先ず、装置使用者が表示部3
1の表示画面上に表示された三次元画像であるボリュー
ムレンダリング画像のうち、注目すべき見たい部分(特
定領域)を操作部32を用いてクリック等を行うことに
より指定する。
Specifically, first, the user of the apparatus displays the display unit 3
In the volume rendering image, which is a three-dimensional image displayed on the first display screen, a portion to be noticed (specific area) to be noticed is specified by clicking using the operation unit 32.

【0054】当該指定された特定領域内の指定点の指定
位置は、ボリュームモデル位置算出部14により当該指
定位置に対応するボリュームモデルM上の位置(図3に
示す点A)に変換される。この際、視線方向Vなどによ
って投影面やボリュームモデルMの方向は決まっている
ものとする。
The designated position of the designated point in the designated specific area is converted by the volume model position calculation unit 14 into a position (point A shown in FIG. 3) on the volume model M corresponding to the designated position. At this time, it is assumed that the directions of the projection plane and the volume model M are determined by the line-of-sight direction V and the like.

【0055】ボリュームモデルM上の指定位置(点A)
と、視線方向に基づくボリュームモデル上の視点位置
(点C)により、投影線L上の前記指定位置(点A)と
視点位置(点C)との間の距離(AC)を視線方向距離
算出部16が算出する。
Specified position on volume model M (point A)
And the viewpoint position (point C) on the volume model based on the line-of-sight direction, the distance (AC) between the designated position (point A) and the viewpoint position (point C) on the projection line L is calculated as the line-of-sight direction distance. The calculation is performed by the unit 16.

【0056】ここで、ボリュームモデルM内の前記指定
位置(点A)より視点位置側のボクセル空間(VO)に
おいて、前記投影線L上にオブジェクト(CT値ないし
ボクセル値の高い分布領域)Bが存在する場合には、ボ
クセル位置抽出部22は、当該オブジェクトBの中心位
置の前記ボリュームモデルM上の位置を抽出する。すな
わち、表示部31において、指定された指定領域のオブ
ジェクトAの手前側に何らかのオブジェクトBが存在す
る場合には、当該オブジェクトBの三次元位置を抽出す
ることとなる。
Here, in the voxel space (VO) on the viewpoint position side from the specified position (point A) in the volume model M, an object (distribution region having a high CT value or voxel value) B is located on the projection line L. If it exists, the voxel position extraction unit 22 extracts the position of the center position of the object B on the volume model M. That is, in the display unit 31, if any object B exists on the front side of the object A in the specified designated area, the three-dimensional position of the object B is extracted.

【0057】なおよって、視線方向距離算出部16は、
指定位置(点A)と位置Bとの距離(AB)、位置Bと
位置Cとの距離(BC)などをも算出することとなる。
In addition, the line-of-sight direction distance calculation unit 16
The distance (AB) between the designated position (point A) and the position B, the distance (BC) between the position B and the position C, and the like are also calculated.

【0058】そして、重み係数演算部21は、予め設定
された重み関数に基づいて、指定位置(点A)に対応す
る重み係数(第1重み係数)、位置(点B)に対応する
重み係数(第2重み係数)を算出する。ここで、重み関
数は、例えば、指定した部分の重みを大きくし、指定し
た部分から離れるに従い重みが小となる特性を有する関
数であることが好ましい。
Then, the weighting factor calculator 21 uses the preset weighting function to weight the weighting factor (first weighting factor) corresponding to the designated position (point A) and the weighting factor corresponding to the position (point B). (Second weighting coefficient) is calculated. Here, it is preferable that the weighting function is, for example, a function having a characteristic that the weight of the designated portion is increased and the weight becomes smaller as the distance from the designated portion increases.

【0059】例えば、重み係数により透明度を変更して
いき、例えば、視線方向から見て点Cにおける光(ボク
セルデータないしはCT値)が200であるとすると、
血管biのある点Bでは光は100となり、倍の距離で
腫瘍aiのある点Aでは光は50となる。ここで、重み
係数は、距離に比例した重みとなっているので、血管b
iのある点Bでは、0.5、腫瘍aiのある点Aでは、
1となっている。なお、本例では、腫瘍aiと血管bi
との間の距離と、血管biから点Cまでの距離が等しい
ものであるとしたが、等しくない場合、距離が変われ
ば、この重みも距離に応じて変化する。
For example, assuming that the transparency is changed by the weighting coefficient and the light (voxel data or CT value) at the point C is 200 when viewed from the line-of-sight direction,
The light becomes 100 at the point B where the blood vessel bi exists, and the light becomes 50 at the point A where the tumor ai exists at the double distance. Here, since the weight coefficient is a weight proportional to the distance, the blood vessel b
At point B with i, 0.5, at point A with tumor ai,
It is 1. In this example, the tumor ai and the blood vessel bi
Although the distance between and is equal to the distance from the blood vessel bi to the point C, if they are not equal, if the distance changes, the weight also changes according to the distance.

【0060】そして、ボリュームモデルM上の指定位置
(点A)における重み係数・ボクセル値(CT値)、位
置(点B)における重み係数・ボクセル値(CT値)等
の各種データ条件が揃うと、当該データに基づいて、C
T値演算部23は、例えば((第1重み係数)(第1ボ
クセル値)+(第2重み係数)(第2ボクセル値))/
((第1重み係数)+(第2重み係数))等の計算式に
より、投影線上のピクセルに対応するCT値の算出を行
う。
When various data conditions such as the weighting coefficient / voxel value (CT value) at the specified position (point A) on the volume model M and the weighting coefficient / voxel value (CT value) at the position (point B) are met. , C based on the data
The T value calculation unit 23, for example, ((first weighting coefficient) (first voxel value) + (second weighting coefficient) (second voxel value)) /
The CT value corresponding to the pixel on the projection line is calculated by a calculation formula such as ((first weighting coefficient) + (second weighting coefficient)).

【0061】上記例では、直線L上における点の表示と
して用いるCT値としては、{(点Aの重み係数)×
(点Aの光)+(点Bの重み係数)×(点Bの光)}/
{(点Aの重み係数)+(点Bの重み係数)}=66.
7となり、従って、直線のL上の点の表示で用いる値
(CTであればCT値)は66.7となる。ここに、C
T値は、100、200等の許容範囲程度である。
In the above example, the CT value used to display the points on the straight line L is {(weighting coefficient of point A) ×
(Point A light) + (Point B weighting factor) × (Point B light)} /
{(Weighting factor of point A) + (weighting factor of point B)} = 66.
Therefore, the value (CT value in the case of CT) used for displaying the points on the straight line L is 66.7. Where C
The T value is within an allowable range of 100, 200 and the like.

【0062】このようにして、投影面の一つのピクセル
に対してCT値の算出を行うと、上記同様にして投影面
の各ピクセルに対応する各CT値の算出、すなわち、図
5における平面H全体に亘って同様の処理を行うことと
なる。
In this way, when the CT value is calculated for one pixel on the projection plane, the CT value corresponding to each pixel on the projection plane is calculated in the same manner as described above, that is, the plane H in FIG. The same processing is performed over the whole.

【0063】ここで、仮に、腫瘍Aと血管Bとの距離が
きわめて近い場合には、各点における各CT値に差が出
ない。そのような場合は、例えば、重み係数を2乗する
ことで、より差異が明確になる。
Here, if the distance between the tumor A and the blood vessel B is extremely short, there is no difference in the CT values at each point. In such a case, for example, by squaring the weighting coefficient, the difference becomes clearer.

【0064】なお、重み係数を算出するための重み関数
としては、様々な関数の設定方法がある。例えば、縦軸
に重み、横軸に距離をとって、例えば、重みを1にし
て、距離がある程度、例えば腫瘍の大きさが2cm位で
あるとすると、2cm位までは真っ直ぐで、ある長さを
越えた場合には重みが低減するような、図10(A)に
示す非線形の関数でもよい。
As a weight function for calculating the weight coefficient, there are various function setting methods. For example, if the weight is taken on the vertical axis and the distance is taken on the horizontal axis, and the weight is set to 1, and the distance is to some extent, for example, the size of the tumor is about 2 cm, it is straight up to about 2 cm and has a certain length. The nonlinear function shown in FIG. 10A may be used so that the weight is reduced when the value exceeds.

【0065】このようにして、指定した点から重み係数
を画像を薄くする場合に、当該重み係数を規定する重み
関数の例としては、例えば、前記直線的な関数でもよい
し、曲線的(2次曲線、双曲線、その他これに類するも
の等)な関数でもよいし、非線形の関数を用いてもよ
い。
As described above, when the weighting coefficient is thinned from the designated point, an example of the weighting function that defines the weighting coefficient may be the linear function or the curvilinear (2 A second-order curve, a hyperbola, or the like) or a non-linear function may be used.

【0066】なお、重みを距離に応じて線形的に一律に
変化する場合に比べると、前記重みを2乗したものを重
み係数とする方が、距離に応じて光の強さが弱くなるた
め、指示された点の画像がよりはっきり表示される。な
おまた、腫瘍aiが小さい場合には、重み係数として2
乗したものを用いた方がよいが、腫瘍aiが大きい場合
には、重み係数として2乗しない数値を用いた方が好ま
しい。乃ち、腫瘍の大きさに応じて重み係数の乗算の手
法を変更することが好ましい。またさらに、血管biと
腫瘍aiとの大きさや位置関係、つまり、血管biがど
の程度、腫瘍aiの先端まで入り込んできているか等に
応じても重み係数の演算の手法を変更することが好まし
い。
Compared to the case where the weights are changed linearly and uniformly according to the distance, the lightness becomes weaker when the weighting coefficient is obtained by squaring the weights. , The image of the indicated point is displayed more clearly. When the tumor ai is small, the weighting factor is 2
It is better to use a value that has been multiplied, but when the tumor ai is large, it is preferable to use a value that does not square as a weighting factor. After all, it is preferable to change the method of multiplying the weighting factors according to the size of the tumor. Furthermore, it is preferable to change the method of calculating the weighting factor depending on the size and positional relationship between the blood vessel bi and the tumor ai, that is, how much the blood vessel bi has reached the tip of the tumor ai.

【0067】このような重み係数の演算手法を変更する
場合には、関数を多種多様に変更可能に構成するとよ
い。ここに、関数の変更は、例えば予め種々の関数を登
録しておき、表示画面上に表示された複数の選択部から
選択できるように形成しておいてもよい。
When the method of calculating the weighting coefficient is changed, it is preferable that the function can be changed in various ways. Here, for changing the function, for example, various functions may be registered in advance so that the function can be selected from a plurality of selection units displayed on the display screen.

【0068】また、図10(A)(B)に示すように、
当該重み関数F1は、グラフ状に表示された関数の線部
分をポインタP等により摘む等の操作を行うことによ
り、変更できるように構成されている。図10(A)
(B)の例では、横軸を距離、縦軸を重み係数とした場
合に、例えば、図10(B)に示すような重み関数F1
をF2〜F5のように変更設定することで重み係数によ
る透明度の変更を行うようにしている。
As shown in FIGS. 10A and 10B,
The weighting function F1 is configured to be changeable by performing an operation such as pinching the line portion of the function displayed in a graph with the pointer P or the like. FIG. 10 (A)
In the example of (B), when the horizontal axis is the distance and the vertical axis is the weighting factor, for example, the weighting function F1 as shown in FIG.
By changing and setting F2 to F5, the transparency is changed by the weighting coefficient.

【0069】さらに、重み関数としては、上記したよう
な例に限らず、予め専用の関数を設けておき、マニュア
ル操作により図10(A)(B)に示すようなカーブを
画面上に描くことができるように構成してよい。これに
よって、操作部(マウス)で摘んで当該関数曲線を延ば
したり、あるいは新規に作成したり自由に任意にできる
こととなる。
Further, the weighting function is not limited to the above example, but a dedicated function is provided in advance, and a curve as shown in FIGS. 10A and 10B is drawn on the screen by manual operation. May be configured so that As a result, the function curve can be extended by grasping it with the operation unit (mouse), or can be newly created, and can be freely set.

【0070】また、複数の各関数を選択するための例え
ばファンクションキーを用意しておき(ファンクション
キーに複数の関数を登録しておく)、画面を参照しなが
ら最適な関数を選択する構成としてよい。この場合に
は、いずれか一つのファンクションキーを押下すると、
予め登録された関数の画面が呼び出され、当該画面に表
示された関数を微調節して設定登録することもできる。
あるいは、新たに関数を登録したファンクションキーを
生成してもよい。
Further, for example, function keys for selecting a plurality of respective functions are prepared (a plurality of functions are registered in the function keys), and the optimum function may be selected while referring to the screen. . In this case, if you press any one of the function keys,
A screen of a function registered in advance is called, and the function displayed on the screen can be finely adjusted and set and registered.
Alternatively, a function key in which a function is newly registered may be generated.

【0071】このようにすることにより、複数のユーザ
ー(医師)の各々の好みに応じた専用の、複数の各ファ
ンクションキーを設けることもできる。これにより、透
明度の変え方を複数種類構成でき、例えば、腫瘍の大き
さによって、関数によって透明度を変えられ、特定の領
域を見るための目的に応じて、自由に変更できる。な
お、X線CT装置では、例えば腫瘍用のファンクション
キー、血管用のファンクションーなどを構成してもよ
い。
By doing so, it is possible to provide a plurality of function keys dedicated to the preferences of a plurality of users (doctors). With this, it is possible to configure a plurality of ways of changing the transparency, and for example, the transparency can be changed by a function depending on the size of the tumor, and can be freely changed according to the purpose for viewing a specific region. In the X-ray CT apparatus, for example, a function key for tumor, a function for blood vessel, etc. may be configured.

【0072】(処理手順について)次に、上述のような
構成の画像処理装置において、特に重み係数を考慮した
CT値を算出する際のさらに詳細な演算ステップについ
て、図8を参照しつつ説明する。なお、本実施の形態に
おいては、立体モデル生成部12がCT装置又はMRI
等で得られたスライス画像に基づく三次元物体をボクセ
ルでオブジェクト空間に生成している。
(Regarding Processing Procedure) Next, in the image processing apparatus having the above-described configuration, more detailed calculation steps for calculating the CT value in consideration of the weighting coefficient will be described with reference to FIG. . It should be noted that in the present embodiment, the stereo model generation unit 12 uses the CT device or the MRI.
A three-dimensional object based on the slice image obtained by the method etc. is generated in the object space by voxels.

【0073】先ず、初めに重み関数を設定する処理を説
明する。重み関数設定部31aを用いて、腫瘍aiにて
指定された指定位置(点A)を基準とした重み関数の勾
配を決定するための距離、重み係数等からなるパラメー
タを装置使用者が設定入力を行う。この際、例えば、デ
フォルトの設定では、図10(A)に示すような重み関
数F1が表示され、必要に応じてポインタPを用いて、
図10(B)に示すように、種々の特性に変更すること
が可能となる。設定入力を行うと、対応する重み関数を
生成し、重み関数設定部31は、当該重み関数の特性を
テーブル形式で画像記憶部11に記憶する。
First, the processing for setting the weighting function will be described. Using the weighting function setting unit 31a, the device user sets and inputs parameters such as distances and weighting factors for determining the gradient of the weighting function with reference to the designated position (point A) designated in the tumor ai. I do. At this time, for example, in the default setting, the weighting function F1 as shown in FIG. 10 (A) is displayed, and the pointer P is used as necessary to
As shown in FIG. 10B, it is possible to change to various characteristics. When setting input is performed, a corresponding weighting function is generated, and the weighting function setting unit 31 stores the characteristics of the weighting function in the image storage unit 11 in a table format.

【0074】このような、重み関数を予め設定して、以
後に説明する処理を行うことにより、ボリュームレンダ
リング画像の特定領域の物体をはっきりと表示させる。
By setting the weighting function in advance and performing the processing described below, the object in the specific area of the volume rendering image is clearly displayed.

【0075】次に、ボリュームレンダリング画像を表示
部31の表示画面上に形成するには、先ず、CT装置又
はMRI等で得られて画像記憶部11に記憶されたスラ
イス画像に基づき、立体モデル生成部12は、三次元構
造のボクセル空間(座標系)を生成し(ステップ、以下
「S」101)、各ボクセルにCT値に応じた色情報を
割り付けたボリュームモデルを生成する(S102)。
Next, in order to form a volume rendering image on the display screen of the display unit 31, first, a stereo model is generated based on the slice image obtained by the CT device or MRI and stored in the image storage unit 11. The unit 12 generates a voxel space (coordinate system) having a three-dimensional structure (step, hereinafter "S" 101), and generates a volume model in which color information corresponding to the CT value is assigned to each voxel (S102).

【0076】このボリュームモデルを生成して、画像を
表示を行う際には、例えば、図4に示す3次元画像から
図5に示すようなボリュームレンダリング画像を作成す
る。ここでは、簡単のために図5に示すように腫瘍ai
と血管biとが残るように設定する。
When this volume model is generated and an image is displayed, for example, a volume rendering image as shown in FIG. 5 is created from the three-dimensional image shown in FIG. Here, for simplification, as shown in FIG.
And the blood vessel bi are set to remain.

【0077】さらに、投影処理部15にて所定の視点位
置、視線方向(V)からオブジェクト空間にボクセルで
定義された三次元物体(対象物)に、投影処理を行い、
腫瘍ai、血管bi等を含むボリュームレンダリング画
像を生成し、画像処理部17は、視線方向Vから見た画
像を表示部31に表示する(S103)。ここで、投影
処理では、投影処理部15が投影面のピクセルから3次
元物体に対してレイトレーシングを行うときに、そのピ
クセル座標kiを読み込む。
Further, the projection processing unit 15 performs projection processing from a predetermined viewpoint position and line-of-sight direction (V) onto a three-dimensional object (object) defined by voxels in the object space,
A volume rendering image including the tumor ai, the blood vessel bi, etc. is generated, and the image processing unit 17 displays the image viewed from the line-of-sight direction V on the display unit 31 (S103). Here, in the projection processing, when the projection processing unit 15 performs ray tracing on the three-dimensional object from the pixels on the projection surface, the pixel coordinates ki thereof are read.

【0078】ここで、従来の手法で表示を行う場合に
は、図5に示す方向Vから入射した光は、血管biで遮
られてしまい、図7に示すように、腫瘍aiが血管bi
に隠れてしまう。
Here, when the display is performed by the conventional method, the light incident from the direction V shown in FIG. 5 is blocked by the blood vessel bi, and as shown in FIG. 7, the tumor ai becomes the blood vessel bi.
Hide in.

【0079】これに対し本例では、図7に示すように、
腫瘍aiの位置を、3次元カーソル、マウス等で操作部
32を用いてポインタPにより指定する。この時、図5
に示すように、指定した腫瘍aiの位置Aは、ボリュー
ム画像の中心(255、255、255)であるとす
る。また、点Aと点Cを結ぶ直線L上には、腫瘍aiの
位置A(255、255、255)、血管biの位置B
(255、383、255)、点C(255、511、
255)が存在し、位置Bは、位置Aと点Cの中間にあ
るものとする。さらに、点Cの方向から光が入射した場
合、血管biより腫瘍aiの方が減衰し、その減衰は、
距離に反比例するとする。例えば、入射光が200であ
れば、点Cでは200、血管biでは100、腫瘍ai
では50になるとする。この際、重み関数は、例えば図
10(A)の重み関数を用いるとする。
On the other hand, in this example, as shown in FIG.
The position of the tumor ai is designated by the pointer P using the operation unit 32 with a three-dimensional cursor, a mouse or the like. At this time,
As shown in, the position A of the designated tumor ai is assumed to be the center (255, 255, 255) of the volume image. Further, on the straight line L connecting the points A and C, the position A (255, 255, 255) of the tumor ai and the position B of the blood vessel bi are located.
(255, 383, 255), point C (255, 511,
255), and the position B is between the positions A and C. Furthermore, when light enters from the direction of point C, the tumor ai is attenuated more than the blood vessel bi, and the attenuation is
It is assumed to be inversely proportional to the distance. For example, if the incident light is 200, it is 200 at point C, 100 at blood vessel bi, and tumor ai.
Now let's say 50. At this time, for example, the weighting function in FIG. 10A is used as the weighting function.

【0080】そして、装置使用者によってボリュームレ
ンダリング画像上の特定領域(図7に示す腫瘍ai)の
指定位置にポインタP等が指定されると、ボリュームモ
デル位置算出部14が当該指定位置がボリュームモデル
上のいかなる位置であるのかを算出する。すなわち、操
作部12の操作によりポインタPを腫瘍aiの位置に指
定した場合には、当該ポインタにて指定された位置(腫
瘍ai)の座標を抽出する(S104)。ボクセル位置
抽出部22は、AC間に画像(血管bi)がある場合
に、ACを結ぶ直線L上の点(例えば血管bi)の座標
を抽出する(S105)。なお、投影面のピクセル座標
kiに、血管biなどのオブジェクトが含まれていない
場合には、重み関数の演算処理は行わない。
When the pointer P or the like is designated by the user of the apparatus at the designated position of the specific region (tumor ai shown in FIG. 7) on the volume rendering image, the volume model position calculation unit 14 determines that the designated position is the volume model. Calculate what position it is above. That is, when the pointer P is designated at the position of the tumor ai by the operation of the operation unit 12, the coordinates of the position (tumor ai) designated by the pointer are extracted (S104). When there is an image (blood vessel bi) between ACs, the voxel position extraction unit 22 extracts the coordinates of a point (for example, blood vessel bi) on the straight line L connecting ACs (S105). If the pixel coordinates ki on the projection surface do not include an object such as a blood vessel bi, the weighting function is not calculated.

【0081】そして、AC間の距離、BC間の距離を各
々算出する(S106)。次いで、指定あるいは選択さ
れた「重み」を表す重み関数からA、Bにおける重み係
数を算出する(S107)。具体的には、重み係数演算
部20は、重み関数とAB間の距離、BC間の距離など
から点Aにおける重み係数、点Bにおける重み係数、点
Cにおける重み係数等を各々算出する。
Then, the distance between AC and the distance between BC are calculated (S106). Next, the weighting factors in A and B are calculated from the weighting function representing the designated or selected "weight" (S107). Specifically, the weight coefficient calculation unit 20 calculates the weight coefficient at the point A, the weight coefficient at the point B, the weight coefficient at the point C, and the like from the distance between the weight function and AB, the distance between BC, and the like.

【0082】一方、CT値演算部23は、点Cにて入射
光が入射する場合には、点Cでのボクセル値(CT値)
を所定の値としたときの、点A、Bの各ボクセル値(C
T値)を抽出し(S108)、点A、点Bの重み係数、
点A、点BのCT値、並びに各点A・B・C間の距離に
基づき、L上の点CのCT値を算出する(S109)。
そして、平面H上のすべての点について、前記S109
の算出を行い、各CT値を算出する(S110)。この
ように、この重み関数を用いてボクセルの情報の透明度
を決定し、重み関数に基づく透明度とボクセルにおける
明るさと積算した画像を投影面のピクセルに投影する。
乃ち、重み関数を用いて三次元物体のボクセルの情報の
透明度を決定し、この透明度とボクセルにおける明るさ
とを積算した画像を投影面のピクセルに投影する。例え
ば、頭部がボクセルで三次元物体としてオブジェクト空
間に定義され、かつ重み関数が設定されているときに、
この重み関数を用いて投影面のピクセルに投影が行われ
る。この際、投影処理部15は投影面の全てのピクセル
に対する投影が終了したかどうかを判断して、終了して
いないと判定したときは、投影面のピクセルを次の座標
のピクセルに更新する。そして、腫瘍aiの輪郭を表示
部31に表示する(S111)。
On the other hand, when the incident light enters at the point C, the CT value calculation section 23 determines the voxel value (CT value) at the point C.
Where v is a predetermined value, each voxel value of points A and B (C
(T value) is extracted (S108), the weighting factors of the points A and B,
The CT value of the point C on L is calculated based on the CT values of the points A and B and the distance between the points A, B, and C (S109).
Then, for all the points on the plane H, the above S109
Is calculated and each CT value is calculated (S110). In this way, the transparency of the voxel information is determined using this weighting function, and the image obtained by integrating the transparency based on the weighting function and the brightness at the voxel is projected onto the pixel on the projection surface.
Then, the transparency of the information of the voxel of the three-dimensional object is determined by using the weighting function, and the image obtained by integrating the transparency and the brightness at the voxel is projected on the pixel on the projection surface. For example, when the head is a voxel and is defined in the object space as a three-dimensional object, and the weighting function is set,
Projection is performed on pixels on the projection surface using this weight function. At this time, the projection processing unit 15 determines whether or not the projection has been completed for all pixels on the projection surface, and if it is determined that the projection has not been completed, the projection processing unit 15 updates the pixel on the projection surface to the pixel at the next coordinate. Then, the contour of the tumor ai is displayed on the display unit 31 (S111).

【0083】従来の表示では、点Cから入射した光が血
管biで遮られてしまうため、表示するためのCT値
は、100を用いて表示していたため、先に説明した
が、図7に示すように腫瘍aiが血管biに遮られてし
まう。
In the conventional display, since the light incident from the point C is blocked by the blood vessel bi, the CT value for displaying is displayed using 100, which is described above. As shown, the tumor ai is blocked by the blood vessel bi.

【0084】本実施形態では、指定した点(腫瘍ai)
から図7に示す平面Hまでの距離の逆数とする重みをつ
ける。例えば、重み関数が重み関数F1に設定されてい
るときは、CT値が50のときに重み係数が「1」にさ
れて、CT値が「200」のときに重み係数が「0」と
なる勾配を有するカーブにされているので、図5に示す
ように、腫瘍aiの重みは1であり、血管biの重み
は、0.5となる。そして、表示するL上の点の値は、
計算により66.7となる。これを平面H上の全ての点
について行うと、腫瘍aiを遮断する血管biが半透明
化して消えて、腫瘍aiがはっきりと映ることになり、
図8に示すように、血管biの下に隠れた腫瘍aiの輪
郭が分かる。
In this embodiment, the designated point (tumor ai)
To the plane H shown in FIG. 7 by weighting. For example, when the weight function is set to the weight function F1, the weight coefficient is set to “1” when the CT value is 50, and the weight coefficient is set to “0” when the CT value is “200”. Since the curve has a gradient, the weight of the tumor ai is 1 and the weight of the blood vessel bi is 0.5, as shown in FIG. Then, the value of the point on L to be displayed is
The calculated value is 66.7. If this is performed for all points on the plane H, the blood vessel bi that blocks the tumor ai will become semitransparent and disappear, and the tumor ai will be clearly visible.
As shown in FIG. 8, the contour of the tumor ai hidden under the blood vessel bi can be seen.

【0085】このようして、3次元で撮影された画像の
中である一点を指定し、指定された点からの距離に応じ
て透明度を変えて表示することにより、図8に示すよう
に腫瘍等を見たい場合に邪魔な構造物である血管等が半
透明になる。よって、あらゆる方向から腫瘍等の形状を
認識でき、さらに周囲の構造も把握できる。
In this way, by designating one point in the image photographed in three dimensions and changing the transparency according to the distance from the designated point, the tumor is displayed as shown in FIG. When you want to see etc., blood vessels, which are obstructive structures, become translucent. Therefore, the shape of the tumor or the like can be recognized from any direction, and the surrounding structure can be grasped.

【0086】以上のように本実施の形態によれば、腫瘍
等の見たい部分から離れるに従って、重みを軽くするこ
とにより、見たい部分以外が半透明になり、腫瘍等の見
たい部分と周囲の構造を見やすくすることができ、特
に、腫瘍と血管との関係を見ながら、腫瘍の状態を明確
に把握することができる。
As described above, according to the present embodiment, as the distance from the desired portion of the tumor or the like is increased, the weight is lightened so that the portion other than the desired portion becomes semi-transparent, and the desired portion of the tumor or the peripheral portion is seen. The structure of the tumor can be easily seen, and in particular, the state of the tumor can be clearly understood while observing the relationship between the tumor and the blood vessel.

【0087】なお、本実施の形態では、操作部により指
定する指定位置の箇所が1箇所である場合について例示
したが、このような場合に限らず、他の複数箇所を指定
する場合、例えば2箇所等を指定する場合に適用しても
構わない。さらに、本実施の形態では、重み関数の例と
して、指定した点を基準とした逆数を重みの場合につい
て例示したが、重み関数の例としてはこれに限らず、例
えば距離の2乗に反比例する手法等他の種々の手法を用
いる場合であって良い。
In the present embodiment, the case where there is one designated position designated by the operation unit has been exemplified, but the present invention is not limited to such a case, and when a plurality of other designated places are designated, for example, 2 It may be applied when specifying a location or the like. Further, in the present embodiment, as an example of the weight function, the case where the reciprocal number based on the designated point is used as the weight is illustrated, but the example of the weight function is not limited to this, and is inversely proportional to the square of the distance, for example. It may be a case where various other methods such as the method are used.

【0088】また、上記実施の形態では、ボリュームレ
ンダリング画像において、腫瘍、血管等のみが表示され
た上で指定した場合の処理を説明したが、頭部の他の構
造、例えば、他の腫瘍やその他種々の器官等が表示され
た状態で指定する場合であっても同様である。もちろ
ん、所定の透明度に関する各関数を用いて腫瘍(関心領
域)や血管等を抽出した場合でも、前記重み関数による
CT値の補正演算をさらに行うことで容易に実現でき
る。
Further, in the above embodiment, the processing in the case where only the tumor, the blood vessel and the like are displayed and designated in the volume rendering image has been described. However, other structures of the head, such as other tumors and The same applies when other various organs and the like are designated in a displayed state. Of course, even when a tumor (region of interest), a blood vessel, or the like is extracted by using each function relating to a predetermined transparency, it can be easily realized by further performing the correction calculation of the CT value by the weighting function.

【0089】さらに、腫瘍の大きさが大きい場合には、
腫瘍(関心領域)の中の指定した指定点を含む関心領域
を、前記重み関数とは別の専用の重み関数(関心領域を
抽出する際の不透明度曲線とも異なる)による処理を施
すように構成してもよい。この場合、装置使用者によっ
てボリュームレンダリング画像上に関心領域が設定され
ている場合には、関心領域演算部19が、当該領域を認
識して投影面に関心領域を割り当て、関心領域内のピク
セル座標kiに対応するピクセル座標Piを画像記憶部
11に設定した際に、この投影面の関心領域内の各ピク
セル座標Piに関心領域であることを示すコードを付加
して画像記憶部11に記憶されているので、重み関数演
算部は、上記コードが検出された場合には、関心領域の
重み関数を用い、コードが検出されない場合には前記重
み関数を用いればよい。このようなのボリュームレンダ
リング表示によって、腫瘍ai以外の領域は、重み関数
F1透明度で表示されると共に、腫瘍aiは重み関数F
1とは異なる重み関数で表示されることにより、例えば
腫瘍aiにおいては腫瘍がはっきりと映り、腫瘍ai以
外の領域の血管biは薄く映るようになり、さらに、腫
瘍ai自身も半透明にしたりあるいは逆に強調したりす
ることもできる。
Furthermore, when the size of the tumor is large,
A region of interest including a designated point in a tumor (region of interest) is processed by a dedicated weighting function (different from the opacity curve when extracting the region of interest) different from the weighting function. You may. In this case, when the device user sets a region of interest on the volume rendering image, the region of interest calculating unit 19 recognizes the region and allocates the region of interest to the projection plane, and pixel coordinates in the region of interest are calculated. When the pixel coordinates Pi corresponding to ki are set in the image storage unit 11, a code indicating the region of interest is added to each pixel coordinate Pi in the region of interest on the projection surface and stored in the image storage unit 11. Therefore, the weighting function calculation unit may use the weighting function of the region of interest when the code is detected, and may use the weighting function when the code is not detected. With such a volume rendering display, regions other than the tumor ai are displayed with the weighting function F1 transparency, and the tumor ai is displayed with the weighting function F.
By displaying with a weighting function different from 1, for example, the tumor is clearly visible in the tumor ai, the blood vessels bi in regions other than the tumor ai are thinly visible, and the tumor ai itself is semitransparent, or Conversely, it can be emphasized.

【0090】またさらに、本実施の形態で例示したよう
な画像処理は、ボリュームレンダリング画像により生成
された三次元画像について説明したが、他の種々の表示
法にて生成された三次元画像について指定する場合であ
っても一向に構わない。ここに、種々の表示法とは、ボ
リュームレンダリング法、サーフェスレンダリング法、
MIP法、MinIP法、X線投影法等その他の各種の
画像表示方法のことを指す。
Furthermore, the image processing as exemplified in this embodiment has been described with respect to the three-dimensional image generated by the volume rendering image, but the three-dimensional image generated by various other display methods is designated. It does not matter if you do. Here, various display methods include volume rendering method, surface rendering method,
It refers to various other image display methods such as the MIP method, the MinIP method, and the X-ray projection method.

【0091】[第2の実施の形態]次に、本発明にかか
る第2の実施の形態について、図11〜図16に基づい
て説明する。なお、以下には、前記第1の実施の形態の
実質的に同様の構成に関しては説明を省略し、異なる部
分についてのみ述べる。図10は、本実施の形態の医用
画像診断システムの構成の一例を示す機能ブロック図で
ある。
[Second Embodiment] Next, a second embodiment according to the present invention will be described with reference to FIGS. Note that, in the following, description of substantially the same configuration as that of the first embodiment will be omitted, and only different portions will be described. FIG. 10 is a functional block diagram showing an example of the configuration of the medical image diagnostic system of this embodiment.

【0092】本実施形態の医用画像診断システム1は、
図11に示すように、X線CT装置、X線診断装置、M
RI装置、超音波診断装置、SPECT装置等の各種の
モダリティ201(医用画像診断装置)と、当該モダリ
ティ201にて取得された画像情報に対して種々の画像
処理を施して例えば三次元画像等を表示可能な画像処理
装置200aと、から構成されている。
The medical image diagnostic system 1 of this embodiment is
As shown in FIG. 11, an X-ray CT apparatus, an X-ray diagnostic apparatus, M
Various modalities 201 (medical image diagnostic apparatus) such as RI apparatus, ultrasonic diagnostic apparatus, and SPECT apparatus, and various image processing is performed on the image information acquired by the modality 201 to generate, for example, a three-dimensional image. And a displayable image processing device 200a.

【0093】画像処理装置200aは、モダリティ20
1にて取得された画像情報を記憶するための画像記憶部
202と、この画像記憶部202での画像情報に基づい
て、MIP画像を作成するMIP画像作成処理部203
と、設定されたMIP枚数を処理するMIP枚数設定処
理部204と、これらの各種画像情報、MIP画像等を
表示するための表示部205と、表示部205にて表示
される表示モード(例えばMIP画像表示モード、<M
IPされていない>断層像表示モード、3D画像表示モ
ード)を切り換える表示モード切換部206と、表示画
面上での各種操作を行うための操作部207と、画像記
憶部202の画像情報などの転送処理を行うための画像
転送部208と、これら各部を制御する制御部209
と、を含んで構成されている。なお、本実施の形態のM
IP画像作成処理部及び制御部とで、本発明にいう「画
像作成手段」を構成し、本実施の形態のMIP枚数設定
処理部及び後述する表示設定部とで、本発明にいう「設
定手段」を構成できる。
The image processing apparatus 200a has the modality 20.
1. An image storage unit 202 for storing the image information acquired in 1 and an MIP image creation processing unit 203 for creating a MIP image based on the image information in the image storage unit 202.
A MIP number setting processing unit 204 for processing the set number of MIPs, a display unit 205 for displaying these various image information, MIP images, etc., and a display mode displayed on the display unit 205 (for example, MIP Image display mode, <M
Display mode switching unit 206 for switching between non-IP> tomographic image display mode and 3D image display mode, operation unit 207 for performing various operations on the display screen, transfer of image information in image storage unit 202, etc. An image transfer unit 208 for performing processing, and a control unit 209 for controlling these units
And are included. In addition, M of the present embodiment
The IP image creation processing unit and the control unit constitute the “image creation unit” according to the present invention, and the MIP number setting processing unit and the display setting unit described later according to the present invention include the “setting unit” according to the present invention. Can be configured.

【0094】上述のような構成を有する画像処理装置2
00aにおいて、例えばX線CT装置等で撮影された画
像を用いて、頭部の3次元画像を表示する場合について
説明する。ここに、説明のため画像サイズは、512×
512で、画像(スライス画像)枚数は例えば300枚
であるとする。また、座標系は、図12に示す通りであ
るとする。
The image processing apparatus 2 having the above-mentioned configuration
A case where a three-dimensional image of the head is displayed at 00a using an image captured by, for example, an X-ray CT apparatus will be described. Here, for explanation, the image size is 512 ×
At 512, it is assumed that the number of images (slice images) is 300, for example. The coordinate system is assumed to be as shown in FIG.

【0095】図12に示すように、そもそもMIP処理
とは、複数枚の原断層像を積層してなる三次元原画像に
基づいて、前記三次元原画像を所定方向から平面に投影
した投影画像を表示する画像処理である。すなわち、処
理対象である全ての原画像に対して、それぞれの観察方
向上にある全てのピクセルについて、図12に示すよう
に、最大値を取り出して投影画像を生成する。なお、こ
こに取り出す値としては、最大値に限らず、ある特定の
特定値でよい。例えば、二番目に大きい値や、最小値,
加算平均値等であってもよい。このようにして、造影撮
影によって、病巣部が描出される。
As shown in FIG. 12, in the first place, the MIP process is a projection image obtained by projecting the three-dimensional original image onto a plane from a predetermined direction based on a three-dimensional original image formed by stacking a plurality of original tomographic images. Is an image processing for displaying. That is, with respect to all the original images to be processed, the maximum value is extracted for all the pixels in each observation direction to generate a projected image. The value to be extracted here is not limited to the maximum value, and may be a specific value. For example, the second largest value, the smallest value,
It may be an average value or the like. In this way, the lesion area is visualized by contrast imaging.

【0096】そして、上述のような構成を有する画像処
理装置200aにおいて、MIP処理を行う場合には、
図11に示すように、MIP画像作成処理部203は、
画像記憶部202に蓄積されている数十枚の画像データ
を用いて、変化の小さい画像毎にいくつか領域を定め、
この領域毎に画像データを画像記憶部202から読み込
んで、この領域毎に最大値、最小値、平均値、特定値等
のMIP処理を行う。これにより、MIP処理データが
分割した領域毎に生成される。このようにして得られた
MIP処理データを参照してMIP処理部が分割した領
域毎に分割処理用の画像データを生成する。
When the MIP processing is performed in the image processing apparatus 200a having the above structure,
As shown in FIG. 11, the MIP image creation processing unit 203
Using several tens of pieces of image data accumulated in the image storage unit 202, several areas are defined for each image with a small change,
Image data is read from the image storage unit 202 for each area, and MIP processing of the maximum value, the minimum value, the average value, the specific value, etc. is performed for each area. As a result, MIP processed data is generated for each of the divided areas. Image data for division processing is generated for each area divided by the MIP processing unit with reference to the MIP processing data obtained in this way.

【0097】そして、得られた分割処理用の画像データ
を用いて、MIP画像作成処理部203が画像記憶部2
02に蓄積されている一連の画像群からなる画像データ
についてMIP処理を分割された領域毎に各々実行処理
し、MIP処理済みの画像データを再び画像記憶部20
2に戻す。この場合、領域毎に各々MIP処理を行うこ
ととなり、効率が良く、MIP処理時間を短縮すること
ができる。この場合も、関心領域を正確に抽出すること
が可能になる。
Then, by using the obtained image data for the division processing, the MIP image creation processing unit 203 uses the image storage unit 2
02, the MIP processing is executed for each of the divided areas of the image data composed of a series of image groups, and the MIP-processed image data is again processed by the image storage unit 20.
Return to 2. In this case, the MIP processing is performed for each area, so that the efficiency is high and the MIP processing time can be shortened. Also in this case, the region of interest can be accurately extracted.

【0098】そして、画像記憶部202に格納されたM
IP処理済みの画像データについて、制御部209が所
望の画像処理を行って表示部205に表示する。この場
合、画像記憶部202には既にMIP処理された一群の
画像データが蓄積されているため、制御部209での画
像処理は、どのような画像処理を行うことも可能であ
る。すなわち、任意の角度のMIP処理や3D処理であ
っても、所望の画像を容易に観察することができるよう
になる。
Then, the M stored in the image storage unit 202
The control unit 209 performs desired image processing on the IP-processed image data and displays it on the display unit 205. In this case, since the image storage unit 202 stores a group of image data that has already been subjected to MIP processing, the image processing in the control unit 209 can be any image processing. That is, a desired image can be easily observed even by MIP processing or 3D processing at an arbitrary angle.

【0099】(表示設定部)ここで、上述の「MIP処
理」における各種設定事項を設定可能な表示設定部の一
例について、図14を参照しつつ説明する。図14は、
当該MIP処理を行う際の表示設定部の表示画面の一例
を示す説明図である。
(Display Setting Section) Here, an example of a display setting section capable of setting various setting items in the above-mentioned “MIP processing” will be described with reference to FIG. Figure 14
It is explanatory drawing which shows an example of the display screen of a display setting part at the time of performing the said MIP process.

【0100】同図に示すように、表示設定部300で
は、スライス画像の枚数に応じてMIPの対象となる画
像枚数を表示した画像枚数表示部301、MIPする場
合の区切り方法の設定を行う区切り方法設定部302、
区切り枚数が均等である場合に当該区切り枚数の設定を
行う第1の区切り枚数設定部303、区切り枚数を不均
等に設定したい場合に当該区切り枚数の設定を行う第2
の区切り枚数設定部304、区切り方向を設定するため
の区切り方向設定部305などが形成されている。
As shown in the figure, in the display setting section 300, an image number display section 301 displaying the number of images to be MIPed according to the number of slice images, and a delimiter for setting a delimiting method for MIP. Method setting unit 302,
A first division number setting unit 303 that sets the division number when the number of divisions is equal, and a second division number setting unit that sets the number of divisions when the number of divisions is not uniform
A division number setting unit 304, a division direction setting unit 305 for setting the division direction, and the like are formed.

【0101】区切り方法設定部302では、例えば、最
大値によるMIP処理、最小値による処理、加算平均値
による処理、あるいは、その他の各種特定値により処
理、・・等各種処理形態を選択設定できるようになって
いる。
In the delimitation method setting unit 302, for example, various processing forms such as MIP processing by maximum value, processing by minimum value, processing by arithmetic mean value, or processing by various other specific values can be selected and set. It has become.

【0102】第1の区切り枚数設定部303では、例え
ば、0〜300枚の画像を均等に区分けする場合の設定
項目であり、図の例では例えば「10」枚となっている
ことから、300枚を10枚毎に区切り、当該10枚を
MIP処理して1枚の画像とし、MIP処理後の画像は
計30枚になることを意味する。
The first division number setting section 303 is a setting item for evenly dividing, for example, 0 to 300 images, and in the example of the figure, it is "10", so This means that the sheet is divided into 10 sheets, the 10 sheets are subjected to MIP processing into one image, and the total number of images after the MIP processing is 30 sheets.

【0103】第2の区切り枚数設定部304では、例え
ば、0〜300枚の画像を不均等に区分けする場合の設
定項目であり、図の例では、0〜300枚の画像のう
ち、最初の40枚、最後の40枚は20枚ずつとし、中
央部を例えば10枚とするような設定を行っている。こ
のように、不均等に設定する場合には、場所に応じて任
意に設定することも可能である。
The second division number setting unit 304 is a setting item when, for example, 0 to 300 images are divided unevenly, and in the example of the figure, the first of the 0 to 300 images is set. The 40 sheets and the last 40 sheets are set to 20 sheets each, and the central portion is set to 10 sheets, for example. As described above, in the case of uneven setting, it is possible to arbitrarily set according to the place.

【0104】なお、第1の区切り枚数設定部303、第
2の区切り枚数設定部304は、例えばチェックボック
スによって、均等、不均等の設定を行うことができる。
The first division number setting unit 303 and the second division number setting unit 304 can set equality or unequality, for example, by using check boxes.

【0105】区切り方向設定部305は、複数のスライ
ス画像を重ね合わせたマルチスライス画像による再構成
画像において、区切り方向を設定するための設定項目で
あり、図の例では体軸に沿ったアキシャル方向(AX)
にて区切る場合を意味している。なお、この他、サジタ
ル方向(SA)、コロナル方向(CO)、オブリーク方
向(OB)等に設定することも可能である。
The delimiter direction setting unit 305 is a setting item for setting the delimiter direction in a reconstructed image of a multi-slice image in which a plurality of slice images are superposed, and in the example of the figure, an axial direction along the body axis is set. (AX)
It means the case of dividing by. In addition to this, it is also possible to set in a sagittal direction (SA), a coronal direction (CO), an oblique direction (OB), or the like.

【0106】このようにして、表示設定部300を利用
することによって、MIP処理における種々の設定を行
いつつ、OKボタン等を押下することによって設定登録
がなされ、不図示のMIP処理開始釦等により、当該設
定項目にて設定された設定条件につき、MIP処理が行
われることとなる。これらの設定条件は、MIP処理が
行われると、画像記憶部202に画像データとともに、
例えば付帯情報のファイルとして格納される。
In this way, by using the display setting unit 300, various settings in the MIP processing are performed, and the setting is registered by pressing the OK button or the like, and the MIP processing start button or the like (not shown) is used. The MIP process is performed according to the setting condition set by the setting item. When the MIP processing is performed, these setting conditions are stored in the image storage unit 202 together with the image data.
For example, it is stored as a file of supplementary information.

【0107】(処理手順)次に、上述のような構成の画
像処理装置を用いてMIP画像を生成する際の具体的な
処理手順について説明する。画像記憶部202にはCT
若しくはMRにより得られた多数の画像データが蓄積さ
れている。例えば、ヘリカルスキャンにより得られた胸
部や腹部についての数十枚の体軸方向の断層像の一連の
画像群からなる画像データが蓄積されているとして説明
を行う。
(Processing Procedure) Next, a specific processing procedure for generating a MIP image using the image processing apparatus having the above-described configuration will be described. CT in the image storage unit 202
Alternatively, a large number of image data obtained by MR are accumulated. For example, it is assumed that image data including a series of image groups of dozens of tomographic images in the body axis direction of the chest and abdomen obtained by the helical scan is accumulated.

【0108】より詳細な演算ステップとしては、上述の
ような構成の画像処理装置において、先ず、図14に示
すような表示設定部300を用いて、MIP処理を行う
際に区分けされる1グループあたりの枚数(本実施の形
態では例えば均等に10枚ずつ)を決める。これによっ
て、MIP枚数設定処理部204は、所定のグループ毎
に各スライス画像を区分する処理を行う。そして、図1
5に示すように、MIP枚数情報を抽出し、区分すべき
座標値(x,y,9)、(x,y,19)、(x,y,
29)・・・を算出する処理を行う(S201)。
As a more detailed calculation step, in the image processing apparatus having the above-described configuration, first, by using the display setting unit 300 as shown in FIG. 14, per group divided when performing MIP processing. Number of sheets (in the present embodiment, for example, every 10 sheets). As a result, the MIP number setting processing unit 204 performs a process of dividing each slice image into each predetermined group. And FIG.
As shown in FIG. 5, the MIP number information is extracted and the coordinate values (x, y, 9), (x, y, 19), (x, y, 19) to be classified are (x, y,
29) ... Is calculated (S201).

【0109】次いで、MIP画像作成処理部203は、
例えば10枚目までのスライス画像に基づいて、MIP
画像を作成する処理を行う(S202)。ここで先ず、
「MIP画像1」を生成する処理(S210)について
説明する。なお、以下では、基準のボクセルの座標値を
(x,y,z)=(0,0,0)とし、例えば、x=0
列目は、元来「1列目」のことである。
Next, the MIP image creation processing unit 203
For example, MIP based on up to 10 slice images
Processing for creating an image is performed (S202). Here first
The process (S210) of generating "MIP image 1" will be described. In the following, the coordinate value of the reference voxel is (x, y, z) = (0, 0, 0), and for example, x = 0
The row is originally the “first row”.

【0110】そして、座標(x,y,z)=(0,0,
0)〜(0,0,9)の各画素値のうち最大の画素値
を、MIP画像の座標(X,Y)=(0,0)の画素値
とする処理を行う(S211(1、1))。乃ち、図1
2に示すように、直線M(xとyが同じでzが異なる、
z軸方向に沿った画素)上の10点から「MIP画像
1」の1番目の画素値を決める。ここで、3次元画像の
xy座標系とMIP画像のxy座標系は同じであるもの
とする。そして、「MIP画像1」の画素値の決め方
は、図12及び図13に示すように、直線M上の10点
の画素値を見て最大の値を、「MIP画像1」の最初の
画素値とする。例えば、図12に示す、z軸方向沿った
10画素の各画素値が、図13のようであるとすると、
この各画素値のうち最大値は「9」であるから、この画
素値「9」を「MIP画像1」の対応する位置の画素値
とする。
Then, the coordinates (x, y, z) = (0, 0,
A process of setting the maximum pixel value among the pixel values of 0) to (0, 0, 9) as the pixel value of the coordinates (X, Y) = (0, 0) of the MIP image is performed (S211 (1, 1)). Nochi, Figure 1
As shown in FIG. 2, a straight line M (x and y are the same but z is different,
The first pixel value of "MIP image 1" is determined from 10 points on the (pixels along the z-axis direction). Here, it is assumed that the xy coordinate system of the three-dimensional image and the xy coordinate system of the MIP image are the same. Then, as to how to determine the pixel value of "MIP image 1", as shown in FIGS. 12 and 13, when the pixel values of 10 points on the straight line M are seen, the maximum value is set to the first pixel of "MIP image 1". The value. For example, assuming that the pixel values of 10 pixels along the z-axis direction shown in FIG. 12 are as shown in FIG.
Since the maximum value of the pixel values is "9", the pixel value "9" is set as the pixel value of the corresponding position of the "MIP image 1".

【0111】同様にして、座標(x,y,z)=(0,
1,0)〜(0,1,9)の各画素値のうち最大の画素
値を、MIP画像の座標(X,Y)=(0,1)の画素
値とする処理を行う(S211(2、1))。乃ち、直
線Mに隣り合った直線N上の10点から「MIP画像
1」の2番目の画素値を決める。この際にも、「MIP
画像1」の画素値の決め方は、図12及び図13に示す
ように、直線N上の10点の画素値を見て最大の画素値
を「MIP画像1」の次の画素値とする。例えば、図1
2に示す、z軸方向沿った10画素の各画素値が、図1
2のようであるとすると、この各画素値のうち最大値は
「7」であるから、この画素値「7」を「MIP画像
1」の対応する位置の画素値とする。
Similarly, coordinates (x, y, z) = (0,
A process of setting the maximum pixel value among the pixel values of (1,0) to (0,1,9) as the pixel value of the coordinates (X, Y) = (0,1) of the MIP image is performed (S211 ( 2, 1)). Then, the second pixel value of the "MIP image 1" is determined from 10 points on the straight line N adjacent to the straight line M. Also at this time, "MIP
To determine the pixel value of "Image 1", as shown in FIGS. 12 and 13, the maximum pixel value of the pixel values at 10 points on the straight line N is set as the next pixel value of "MIP image 1". For example, in FIG.
Each pixel value of 10 pixels along the z-axis direction shown in FIG.
If the value is 2, the maximum value of the pixel values is “7”, and thus the pixel value “7” is set as the pixel value of the corresponding position of the “MIP image 1”.

【0112】このようにして、yの座標が「0」〜「5
11」となるまで同様の処理を行う。乃ち、最後に、座
標(x,y,z)=(0,511,0)〜(0,51
1,9)の各画素値のうち最大の画素値を、MIP画像
の座標(X,Y)=(0,511)の画素値とする処理
を行う(S211(512、1))。これによって、
「MIP画像1」のXY座標系におけるX=0列目の画
像値の生成が完了する。
In this way, the y coordinate is "0" to "5".
The same processing is performed until it becomes "11". Finally, coordinates (x, y, z) = (0, 511, 0) to (0, 51)
The maximum pixel value among the pixel values of (1, 9) is set as the pixel value of the coordinates (X, Y) = (0, 511) of the MIP image (S211 (512, 1)). by this,
The generation of the image value of the X = 0th column in the XY coordinate system of “MIP image 1” is completed.

【0113】次に、座標(x,y,z)=(1,0,
0)〜(1,0,9)の各画素値のうち最大の画素値
を、MIP画像の座標(X,Y)=(1,0)の画素値
とする処理を行う(S211(1、2))。同様にし
て、座標(x,y,z)=(1,1,0)〜(1,1,
9)の各画素値のうち最大の画素値を、MIP画像の座
標(X,Y)=(1,1)の画素値とする処理を行う
(S211(2、2))。このようにして、yの座標が
「0」〜「511」となるまで同様の処理を行う。乃
ち、最後に、座標(x,y,z)=(1,511,0)
〜(1,511,9)の各画素値のうち最大の画素値
を、MIP画像の座標(X,Y)=(1,511)の画
素値とする処理を行う(S211(512、2))。こ
れによって、「MIP画像1」のXY座標系におけるX
=1列目の画像値の生成が完了する。
Next, the coordinates (x, y, z) = (1, 0,
A process of setting the maximum pixel value among the pixel values of 0) to (1, 0, 9) as the pixel value of the coordinates (X, Y) = (1, 0) of the MIP image is performed (S211 (1, 2)). Similarly, coordinates (x, y, z) = (1,1,0) to (1,1,
The process of setting the maximum pixel value among the pixel values of 9) as the pixel value of the coordinates (X, Y) = (1, 1) of the MIP image is performed (S211 (2, 2)). In this way, similar processing is performed until the y coordinate becomes "0" to "511". Finally, coordinates (x, y, z) = (1,511,0)
The process of setting the maximum pixel value among the pixel values of (1, 511, 9) to the pixel value of the coordinates (X, Y) = (1, 511) of the MIP image is performed (S211 (512, 2)). ). As a result, X in the XY coordinate system of "MIP image 1"
= The generation of the image value in the first column is completed.

【0114】このようにして、X=511列目まで同様
の処理を行う。X=511列目においては、先ず、座標
(x,y,z)=(511,0,0)〜(511,0,
9)の各画素値のうち最大の画素値を、MIP画像の座
標(X,Y)=(511,0)の画素値とする処理を行
う(S211(1、512))。同様にして、座標
(x,y,z)=(511,1,0)〜(511,1,
9)の各画素値のうち最大の画素値を、MIP画像の座
標(X,Y)=(511,1)の画素値とする処理を行
う(S211(2、512))。このようにして、yの
座標が「0」〜「511」となるまで同様の処理を行
う。乃ち、最後に、座標(x,y,z)=(511,5
11,0)〜(511,511,9)の各画素値のうち
最大の画素値を、MIP画像の座標(X,Y)=(51
1,511)の画素値とする処理を行う(S211(5
12、512))。このようにして、xy平面上の全て
の位置に関してz軸方向に沿った画素値のうち最大値の
画素値を割り当てる処理を行うと、「MIP画像1」の
XY座標系におけるX=511列目の画像値が生成され
て、「MIP画像1」の作成が完了する。
In this way, similar processing is performed up to the X = 511th column. In the X = 511th column, first, the coordinates (x, y, z) = (511, 0, 0) to (511, 0,
The process of setting the maximum pixel value among the pixel values of 9) as the pixel value of the coordinates (X, Y) = (511, 0) of the MIP image is performed (S211 (1, 512)). Similarly, coordinates (x, y, z) = (511, 1, 0) to (511, 1,)
The process of setting the maximum pixel value among the pixel values of 9) as the pixel value of the coordinates (X, Y) = (511, 1) of the MIP image is performed (S211 (2, 512)). In this way, similar processing is performed until the y coordinate becomes "0" to "511". Finally, coordinates (x, y, z) = (511, 5)
The maximum pixel value among the pixel values of (11, 0) to (511, 511, 9) is the coordinate (X, Y) = (51
1, 511) as the pixel value (S211 (5
12, 512)). In this way, when the process of assigning the maximum pixel value among the pixel values along the z-axis direction for all positions on the xy plane is performed, X = 511 column in the XY coordinate system of “MIP image 1” Is generated, and the creation of “MIP image 1” is completed.

【0115】上記のようにして、「MIP画像1」を生
成する処理が終了すると、上記「MIP画像1」と同様
にして「MIP画像2」を生成する処理を行う(S21
2)。この「MIP画像2」を生成する処理では、「M
IP画像1」で開始座標を(x,y,z)=(0,0,
0)〜(0,0,9)としたのを、(x,y,z)=
(0,0,10)〜(0,0,19)とすればよい。こ
のように、次の10枚のスライス画像についても、上記
処理を行い「MIP画像2」の作成を行う。
When the process for generating the "MIP image 1" is completed as described above, the process for generating the "MIP image 2" is performed in the same manner as the "MIP image 1" (S21).
2). In the process of generating this “MIP image 2”, “MIP image 2” is generated.
The start coordinates in the “IP image 1” are (x, y, z) = (0, 0,
0) to (0, 0, 9) is (x, y, z) =
It may be set to (0,0,10) to (0,0,19). In this way, the "MIP image 2" is created by performing the above process for the next 10 slice images.

【0116】そして、本実施形態では、z方向に沿って
スライス画像の画像枚数が300枚であることから、上
記処理を繰り返し、同様にして「MIP画像3」・・・
「MIP画像30」の計30枚のMIP画像の作成が行
われることとなる。このように、「MIP画像30」ま
での処理を行うと(S288)、MIP画像の作成処理
が終了することとなる。さらに、MIP画像表示処理を
行う(S290)ことによって、30枚のMIP画像の
表示を行うことができる。
In the present embodiment, the number of slice images along the z direction is 300. Therefore, the above process is repeated and "MIP image 3" ...
A total of 30 "MIP images 30" will be created. In this way, when the processes up to the “MIP image 30” have been performed (S288), the MIP image creation process ends. Furthermore, 30 MIP images can be displayed by performing MIP image display processing (S290).

【0117】以上にように本実施の形態によれば、ボリ
ュームで撮影された多数枚の画像を、数枚ずつMIP処
理を行い、数枚毎に区切ってMIP表示する。例えば、
均等に例えば10で分けた場合には、区切った部分での
最大値を付けていき、いくつかに区切りを行って表示す
る。これにより、読影時間を早くし、かつ、見やすい画
像を提供できるとともに、全体をも容易に把握できる。
As described above, according to the present embodiment, a large number of images photographed with a volume are subjected to MIP processing for several images, and the images are divided into several images for MIP display. For example,
In the case of evenly dividing by 10, for example, the maximum value in the divided portion is added, and some divided portions are displayed. As a result, the image interpretation time can be shortened, an image that is easy to see can be provided, and the entire image can be easily grasped.

【0118】なお、本実施の形態では、10枚ずつ等間
隔にMIPしたが、MIPする枚数は、前記に限定され
ず、他の枚数、例えば図16に示すように、両端部K1
では15枚で、中央部では5枚毎(K1)にする等でも
良い。例えば頭部の画像を収集した際に、端部領域では
情報が少ない。そこで、MIP処理を行う際に、端部領
域を15枚位とし、中央部領域を5枚位とし、頭の血管
等の部分などの見たい所だけを見やすくすることができ
る。乃ち、中央部領域では情報量が多いので、分割数を
密(細かく分割)した方が好ましい。
In the present embodiment, 10 sheets are MIPed at equal intervals, but the number of MIPs is not limited to the above, and other numbers, for example, as shown in FIG.
The number of sheets may be 15, and every 5 sheets in the central portion (K1). For example, when an image of the head is collected, there is little information in the end area. Therefore, when the MIP processing is performed, the edge region is set to about 15 sheets, the central region is set to about 5 sheets, and it is possible to make only the desired portion such as the blood vessel of the head easy to see. Since there is a large amount of information in the central area, it is preferable to make the number of divisions dense (fine division).

【0119】さらに、本実施の形態においては、MIP
を算出する場合について例示したが、MIP(最大値を
算出する)に限定されるものではない。例えば、この中
の平均値を用いる場合や、最大ではなく2番目に高い値
を用いる場合、例えば10枚のうちの5枚の加算平均値
を用いる場合等であってもよい。あるいは、他の処理形
態としては、輝度値の高い方の画素値から半分だけ足し
て、それの平均をとるような処理であってもよい。要
は、複数の画素の中から所定の画素を所定の処理を施し
て抽出すればよい。あるいは、端部の10枚は最大から
2番目の値であるが、中心部方向に向かうほど最大値を
とるようにする処理としてもよい。なお、これら種々の
中でも、MIP処理の場合は特に血管、腫瘍等が強調さ
れて表示されるので、腫瘍等を見るのであれば、MIP
処理の方が特徴点が発見しやすいので好ましい。
Further, in the present embodiment, the MIP
However, the present invention is not limited to MIP (calculating the maximum value). For example, the average value may be used, the second highest value instead of the maximum value may be used, and the average value of five out of ten may be used. Alternatively, as another processing form, a process of adding half the pixel value having the higher luminance value and taking the average thereof may be performed. In short, a predetermined pixel may be extracted by performing a predetermined process from the plurality of pixels. Alternatively, the 10 sheets at the edge have the second largest value, but the maximum value may be set toward the center. Of these various types, in the case of MIP treatment, blood vessels, tumors, etc. are particularly emphasized and displayed.
The processing is preferable because the characteristic points can be easily found.

【0120】なお、本発明にかかる装置と処理手順は、
そのいくつかの特定の実施の形態に従って説明してきた
が、本発明の主旨および範囲から逸脱することなく本発
明の本文に記述した実施の形態に対して種々の変形が可
能である。例えば、上述の第1の実施の形態では、モダ
リティとしてX線CT装置の場合の例を説明したが、こ
れに限定されず、他の例えばMRI(核磁気共鳴イメー
ジング)装置、SPECT又はPET、X線画像装置、
超音波診断装置、さらには、X線画像装置としては、
「透視撮影装置」や「多目的X線画像診断装置」、IV
R―CT装置等であっても良い。
The apparatus and processing procedure according to the present invention are as follows.
Although described according to some specific embodiments thereof, various modifications can be made to the embodiments described in the text of the present invention without departing from the spirit and scope of the present invention. For example, in the above-described first embodiment, an example in which an X-ray CT apparatus is used as a modality has been described, but the present invention is not limited to this, and other modalities such as an MRI (nuclear magnetic resonance imaging) apparatus, SPECT or PET, X Line imager,
As an ultrasonic diagnostic apparatus and further an X-ray imaging apparatus,
"Fluoroscopic imaging device", "Multipurpose X-ray diagnostic imaging device", IV
It may be an R-CT device or the like.

【0121】また、上記第1の実施の形態では、操作手
段により特定領域(関心領域)を指定する場合について
例示したが、これに限らず、事前に登録した特定領域で
あってもよい。さらに、上記第1の実施の形態において
は、ボリュームレンダリングによるボリュームレンダリ
ング画像において指定する場合について例示したが、他
の様々な手法によって表示された三次元画像において指
定する場合であっても良い。またさらに、上記第1の実
施の形態において、重み関数、透明度の変え方は、数種
類の中から選択したり、自分で登録する場合であっても
よい。
In the first embodiment, the case where the specific region (region of interest) is designated by the operating means has been described as an example, but the present invention is not limited to this, and a specific region registered in advance may be used. Further, in the above-described first embodiment, the case where the designation is made in the volume rendering image by volume rendering has been illustrated, but the designation may be made in the three-dimensional image displayed by various other methods. Furthermore, in the first embodiment, the method of changing the weighting function and the transparency may be selected from several types or may be registered by oneself.

【0122】さらに、前記第2の実施の形態において、
三次元で撮影された多数枚の画像を、数枚毎に区切りM
IP等の表示をする「MIP」処理について説明した
が、このような処理に限らず、各断層像を単に重ね合わ
せる処理等であってもよい。この際、MIPする枚数や
重ね合わせる枚数は変えることができる。また、上記第
2の実施の形態では、「MIP」する方向をアキシャル
方向とした場合について説明したが、これに限定され
ず、サジタル方向、コロナル方向、オブリーク方向等、
任意の方向での「MIP」処理が可能であることは言う
までもない。
Furthermore, in the second embodiment,
Divide many images taken in 3D into several images
Although the “MIP” process for displaying the IP or the like has been described, the process is not limited to such a process, and may be a process for simply superimposing the tomographic images. At this time, the number of MIPs and the number of overlappings can be changed. Further, in the second embodiment described above, the case where the “MIP” direction is the axial direction has been described, but the present invention is not limited to this, and the sagittal direction, the coronal direction, the oblique direction, etc.
It goes without saying that "MIP" processing in any direction is possible.

【0123】またさらに、第2の実施の形態において、
モダリティにて例えば画像再構成される際に、原断層像
に対してMIP処理を区分けして行い、そのMIP処理
されたデータに対して再構成処理を行ってもよい。この
場合、被検体の各断層像に対して所定のスライス数毎に
MIP処理を施し、被検体の複数のMIP処理データを
作成する画像作成手段、画像作成手段によりMIP処理
されたデータに対して再構成処理を施し、MIP処理後
の断層像を作成する再構成手段、再構成手段で得られた
複数の断層画像を表示する表示手段を有することが好ま
しい。
Furthermore, in the second embodiment,
For example, when the image is reconstructed by the modality, the MIP process may be divided into the original tomographic images, and the reconstruction process may be performed on the MIP-processed data. In this case, MIP processing is performed on each tomographic image of the subject for each predetermined number of slices, and image creating means for creating a plurality of MIP processed data of the subject, and data subjected to MIP processing by the image creating means. It is preferable to have a reconstructing unit that performs a reconstructing process and creates a tomographic image after the MIP process, and a display unit that displays a plurality of tomographic images obtained by the reconstructing unit.

【0124】また、上述の実施の形態の医用画像診断シ
ステムとして、モダリティとネットワークを介して接続
された一又は複数の医用画像保管装置(画像サーバ
ー)、一又は複数の画像参照用端末(画像ビューア、3
Dワークステーション等も含む)を含んだシステムを構
成してもよい。その際、前記端末が3D表示機能を備え
ている場合には、前記各実施の形態において説明された
処理にかかるプログラムを当該端末に搭載してもよい。
さらに、医用画像診断システム内において処理される処
理プログラム、説明された処理、データの全体もしくは
各部を情報記録媒体に記録した構成であってもよい。こ
の情報記録媒体としては、光ディスク、光磁気ディス
ク、磁気記録媒体等を用いてよく、さらに、CD−RO
M、ハードディスク、CD―R、CD―RW、DVDR
AM、DVDROM、MO、ROM、RAM、不揮発性
メモリカード等に記録して構成して用いてよい。
Further, as the medical image diagnostic system of the above-mentioned embodiment, one or a plurality of medical image storage devices (image server) connected to a modality via a network, one or a plurality of image reference terminals (image viewer). Three
(Including a D workstation, etc.) may be configured. At that time, if the terminal has a 3D display function, the program for the processing described in each of the embodiments may be installed in the terminal.
Furthermore, the processing program processed in the medical image diagnostic system, the described processing, the whole data or each part may be recorded in an information recording medium. As the information recording medium, an optical disc, a magneto-optical disc, a magnetic recording medium or the like may be used, and further, a CD-RO.
M, hard disk, CD-R, CD-RW, DVDR
It may be recorded in an AM, a DVDROM, an MO, a ROM, a RAM, a non-volatile memory card, or the like to be configured and used.

【0125】この情報記録媒体を上記各実施の形態によ
るシステム以外の他のシステムあるいは装置で用い、そ
のシステムあるいはコンピュータがこの記憶媒体に格納
されたプログラムコードを読み出し、実行することによ
っても、上記各実施の形態と同等の機能を実現できると
共に、同等の効果を得ることができる。
By using this information recording medium in a system or apparatus other than the system according to each of the above-mentioned embodiments and reading the program code stored in this storage medium and executing it, the above-mentioned each of the above The function equivalent to that of the embodiment can be realized, and the same effect can be obtained.

【0126】さらに、上記実施形態には種々の段階が含
まれており、開示される複数の構成要件における適宜な
組み合わせにより種々の発明が抽出され得る。また、上
述の各実施の形態同士、あるいはそれらのいずれかと各
変形例のいずれかとの組み合わせによる例をも含むこと
は言うまでもない。また、実施形態に示される全構成要
件から幾つかの構成要件が削除されてもよい。
Further, the above embodiment includes various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. Moreover, it goes without saying that examples including the above-described respective embodiments or a combination of any of them with any of the modifications are included. Further, some constituent elements may be deleted from all the constituent elements shown in the embodiment.

【0127】[0127]

【発明の効果】以上説明したように本発明によれば、表
示画面上に表示された三次元画像のなかで、操作手段に
よりある一点を指定し、指定した指定点からの視点位置
側の距離に応じて、各ボクセル値に対応する重み係数を
相関させて透明度を変えて表示することにより、特定領
域以外の見たい物に対する邪魔な構造等が半透明にな
り、あらゆる方向から特定領域例えば腫瘍等の形状を認
識し、さらに周囲の構造も把握することができる。
As described above, according to the present invention, one point is designated by the operating means in the three-dimensional image displayed on the display screen, and the distance from the designated point to the viewpoint position side. Corresponding weighting factors corresponding to each voxel value are correlated and displayed with varying transparency, which makes the obstructive structure, etc., of the object other than the specific area to be seen semi-transparent, and allows the specific area, such as a tumor, to be seen from all directions. It is possible to recognize the shapes such as, and also grasp the surrounding structure.

【0128】また、本発明の他の態様によれば、複数枚
に積層された画像を、数枚毎に区切って複数のグループ
として、各画像の積層方向上にある1グループの枚数分
のピクセルの画素値に対してある特定値を取り出して投
影画像を作成し、この画像を表示することにより、画像
枚数が増大したとしても、短時間で読影することができ
る。
Further, according to another aspect of the present invention, a plurality of stacked images are divided into a plurality of groups to form a plurality of groups, and one group of pixels in the stacking direction of each image is used. By extracting a specific value with respect to the pixel value of, a projection image is created, and this image is displayed, even if the number of images is increased, the image can be read in a short time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態にかかる画像処理装置の概
略構成の一例を示す機能ブロック図である。
FIG. 1 is a functional block diagram showing an example of a schematic configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】図1の画像処理装置を備えたX線CT装置の構
成の一例を示す機能ブロック図である。
FIG. 2 is a functional block diagram showing an example of the configuration of an X-ray CT apparatus including the image processing apparatus of FIG.

【図3】図1の画像処理装置の一例を示す外観図であ
る。
3 is an external view showing an example of the image processing apparatus of FIG.

【図4】図1の画像処理装置の表示部に表示される頭部
の3次元画像の表示例を示す説明図である。
FIG. 4 is an explanatory diagram showing a display example of a three-dimensional image of the head displayed on the display unit of the image processing apparatus of FIG.

【図5】ボリュームレンダリングに関する説明を行うた
めの説明図である。
FIG. 5 is an explanatory diagram for explaining a volume rendering.

【図6】図1の画像処理装置におけるレンダリング処理
を説明するための説明図である。
6 is an explanatory diagram for explaining a rendering process in the image processing apparatus of FIG. 1. FIG.

【図7】従来のボリュームレンダリング後の画像表示に
ついて説明するための説明図である。
FIG. 7 is an explanatory diagram for explaining image display after conventional volume rendering.

【図8】図1の画像処理装置においてボリュームレンダ
リング後の画像表示について説明するための説明図であ
る。
8 is an explanatory diagram for describing image display after volume rendering in the image processing apparatus of FIG. 1. FIG.

【図9】図1の画像処理装置における処理手順の一例を
示すフローチャートである。
9 is a flowchart showing an example of a processing procedure in the image processing apparatus of FIG.

【図10】同図(A)(B)は、重み関数の一例を示す
説明図である。
10A and 10B are explanatory diagrams showing an example of a weighting function.

【図11】本発明の実施の形態にかかる画像処理装置の
概略構成の一例を示す機能ブロック図である。
FIG. 11 is a functional block diagram showing an example of a schematic configuration of an image processing apparatus according to an embodiment of the present invention.

【図12】図11の画像処理装置におけるMIP処理の
原理を説明するための説明図である。
12 is an explanatory diagram for explaining the principle of MIP processing in the image processing apparatus of FIG.

【図13】図11の画像処理装置におけるMIP処理の
原理を説明するための説明図である。
13 is an explanatory diagram for explaining the principle of MIP processing in the image processing apparatus of FIG.

【図14】図11の画像処理装置におけるMIP処理の
設定画面の一例を示す説明図である。
14 is an explanatory diagram showing an example of a setting screen for MIP processing in the image processing apparatus of FIG.

【図15】ある条件の下でMIP処理を行う場合の処理
手順の一例を示すフローチャートである。
FIG. 15 is a flowchart showing an example of a processing procedure when performing MIP processing under a certain condition.

【図16】MIP処理を他の条件の下で処理を行う場合
の原理を説明するための説明図である。
FIG. 16 is an explanatory diagram for explaining the principle of performing MIP processing under other conditions.

【図17】従来のボリュームレンダリング後の画像表示
を説明するための説明図図である。
FIG. 17 is an explanatory diagram for explaining image display after conventional volume rendering.

【符号の説明】[Explanation of symbols]

1 医用画像診断システム 10 画像処理装置 11 画像記憶部 17 画像処理部 21 重み係数演算部 23 CT値演算部 31 表示部 31a 重み関数設定部 32 操作部 34 制御部 200 医用画像診断システム 200a 画像処理装置 202 画像記憶部 203 MIP画像作成処理部 204 MIP枚数設定処理部 205 表示部 206 操作部 209 制御部 300 表示設定部 1 Medical diagnostic imaging system 10 Image processing device 11 Image storage 17 Image processing section 21 Weighting factor calculator 23 CT value calculator 31 Display 31a Weighting function setting unit 32 Operation part 34 Control unit 200 medical diagnostic imaging system 200a image processing apparatus 202 image storage unit 203 MIP image creation processing unit 204 MIP number setting unit 205 display 206 Operation unit 209 Control unit 300 Display setting section

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G01R 33/32 G01N 24/02 520Y Fターム(参考) 4C093 AA22 AA26 CA23 FF43 FG04 4C096 AB50 AD14 AD15 DC36 DC40 DD08 5B050 AA02 BA03 BA09 BA15 CA07 DA02 EA07 EA27 EA29 FA02 FA06 5B057 AA09 BA24 CA08 CA13 CB08 CB13 CB16 CH01 CH11 DA16 5B080 AA17 BA07 FA17 GA26 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G01R 33/32 G01N 24/02 520Y F term (reference) 4C093 AA22 AA26 CA23 FF43 FG04 4C096 AB50 AD14 AD15 DC36 DC40 DD08 5B050 AA02 BA03 BA09 BA15 CA07 DA02 EA07 EA27 EA29 FA02 FA06 5B057 AA09 BA24 CA08 CA13 CB08 CB13 CB16 CH01 CH11 DA16 5B080 AA17 BA07 FA17 GA26

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 ボクセルに分割して得たボリュームモデ
ルを生成し、所定の視点位置から前記ボリュームモデル
を投視して各ボクセルの情報を投影面に投影し、前記投
影面のボリュームレンダリング画像を表示画面に表示処
理する画像処理装置であって、 前記表示画面に表示された前記ボリュームレンダリング
画像上の特定領域に対して指定点を指定操作する操作手
段と、 指定された前記指定点より前記視点位置側にあるボクセ
ル空間の各ボクセル値に対して、少なくとも前記指定点
の重みが大となり前記ボクセル空間の各ボクセル値の重
みが小となる重み係数を相関させ、前記各ボクセルの透
明度を変化させる演算処理を行う演算手段と、 前記演算手段にて演算された補正ボクセル値による画像
情報を前記投影面の各ピクセルに投影し、透明度を変化
させた前記ボリュームレンダリング画像を前記表示画面
に表示処理する画像処理手段と、 を含むことを特徴とする画像処理装置。
1. A volume model obtained by dividing into voxels is generated, the volume model is projected from a predetermined viewpoint position, information of each voxel is projected onto a projection surface, and a volume rendering image of the projection surface is displayed. An image processing device for performing display processing on a display screen, comprising: operating means for designating a designated point with respect to a specific area on the volume rendering image displayed on the display screen; and the viewpoint from the designated point specified. For each voxel value in the voxel space on the position side, at least the weight of the designated point becomes large and the weight of each voxel value in the voxel space becomes small. A calculation unit that performs calculation processing, and image information based on the corrected voxel value calculated by the calculation unit is projected on each pixel of the projection surface to An image processing device, comprising: an image processing unit that displays the volume rendering image having a changed brightness on the display screen.
【請求項2】 前記演算手段は、指定された指定点から
の距離に応じた重み係数を示す重み関数に基づいて、対
応する各ボクセルの各重み係数を算出する重み係数算出
手段を含むことを特徴とする請求項1に記載の画像処理
装置。
2. The calculating means includes weighting coefficient calculating means for calculating each weighting coefficient of each corresponding voxel based on a weighting function indicating a weighting coefficient according to a distance from a designated designated point. The image processing apparatus according to claim 1, which is characterized in that.
【請求項3】 前記表示画面上にて前記重み関数を任意
に設定する重み関数設定手段を有し、 前記重み係数算出手段は、前記重み関数に基づいて、対
応する各ボクセルの各重み係数を算出することを特徴と
する請求項1に記載の画像処理装置。
3. A weighting function setting means for arbitrarily setting the weighting function on the display screen, wherein the weighting coefficient calculating means calculates each weighting coefficient of each corresponding voxel based on the weighting function. The image processing apparatus according to claim 1, which is calculated.
【請求項4】 三次元原画像に基づいて、前記三次元原
画像を所定方向から投影面に投影した投影画像を表示す
る画像処理を行う画像処理装置であって、 前記複数枚の原断層像を積層方向にて所定枚数毎の複数
のグループに区分する設定を行う設定手段と、 前記設定手段にて設定された前記複数のグループ毎に、
1グループを構成する各前記原断層像に対し、各前記原
断層像の積層方向上にある1グループ枚数分のピクセル
の画素値に対して所定の処理を施すことで所定方向の投
影画像を作成する画像作成手段と、 を含むことを特徴とする画像処理装置。
4. An image processing apparatus for performing image processing for displaying a projection image obtained by projecting the three-dimensional original image from a predetermined direction on a projection surface based on the three-dimensional original image, wherein the plurality of original tomographic images Setting means for making a setting for dividing a predetermined number of sheets into a plurality of groups in the stacking direction, and for each of the plurality of groups set by the setting means,
For each of the original tomographic images forming one group, a projection image in a predetermined direction is created by performing a predetermined process on pixel values of pixels for one group in the stacking direction of the original tomographic images. An image processing device comprising:
【請求項5】 前記画像作成手段は、少なくとも積層方
向上にある1グループ内の各ピクセルの各画素値のうち
特定値を取り出す処理を行うことを特徴とする請求項4
に記載の画像処理装置。
5. The image creating means performs a process of extracting a specific value from pixel values of pixels in at least one group in the stacking direction.
The image processing device according to item 1.
JP2001284280A 2001-09-19 2001-09-19 Image processing device Expired - Fee Related JP4776834B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001284280A JP4776834B2 (en) 2001-09-19 2001-09-19 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001284280A JP4776834B2 (en) 2001-09-19 2001-09-19 Image processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011068200A Division JP5161991B2 (en) 2011-03-25 2011-03-25 Image processing device

Publications (2)

Publication Number Publication Date
JP2003091735A true JP2003091735A (en) 2003-03-28
JP4776834B2 JP4776834B2 (en) 2011-09-21

Family

ID=19107632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001284280A Expired - Fee Related JP4776834B2 (en) 2001-09-19 2001-09-19 Image processing device

Country Status (1)

Country Link
JP (1) JP4776834B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005131287A (en) * 2003-10-31 2005-05-26 Toshiba Corp Radiation ct equipment, image processing equipment and image processing method
JP2005157329A (en) * 2003-10-30 2005-06-16 Brother Ind Ltd Image display device
JP2006051202A (en) * 2004-08-12 2006-02-23 Toshiba Corp Image processing device, image processing method, and program
WO2007015365A1 (en) * 2005-08-01 2007-02-08 National University Corporation NARA Institute of Science and Technology Information processing device and program
JP2007072881A (en) * 2005-09-08 2007-03-22 Mitsubishi Electric Corp Image display system
JP2007144173A (en) * 2005-11-23 2007-06-14 General Electric Co <Ge> Medical image displaying method and system
JP2007220090A (en) * 2005-12-30 2007-08-30 Dassault Systemes Processing for selecting objects in plm database, and device mounted therewith
JP2008017988A (en) * 2006-07-12 2008-01-31 Toshiba Corp Image display device and image display method
JP2008029694A (en) * 2006-07-31 2008-02-14 Toshiba Corp Image processor and medical diagnostic apparatus with image processor
JP2008029703A (en) * 2006-07-31 2008-02-14 Toshiba Corp Three-dimensional image display device
JP2008068032A (en) * 2006-09-15 2008-03-27 Toshiba Corp Image display device
JP2008259699A (en) * 2007-04-12 2008-10-30 Fujifilm Corp Image processing method and apparatus, and program
JP2009034494A (en) * 2007-07-10 2009-02-19 Toshiba Corp X-ray radiographic apparatus, image processing device, and image processing program
JP2010500093A (en) * 2006-08-11 2010-01-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Data set selection from 3D rendering for viewing
JP2010508570A (en) * 2006-10-31 2010-03-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Combined intensity projection
JP2010082294A (en) * 2008-10-01 2010-04-15 Toshiba Corp X-ray diagnostic apparatus
JP2011227870A (en) * 2010-04-16 2011-11-10 Hitachi Medical Corp Image processing method and image processing apparatus
JP2011240163A (en) * 2011-08-23 2011-12-01 Toshiba Corp Image display device and image display method
JP2012045256A (en) * 2010-08-30 2012-03-08 Fujifilm Corp Region dividing result correcting device, method and program
WO2013014868A1 (en) 2011-07-28 2013-01-31 パナソニック株式会社 Cutting simulation device and cutting simulation program
US8520915B2 (en) 2006-09-13 2013-08-27 Kabushiki Kaisha Toshiba Medical image diagnosis apparatus specifying a spot on a projection image for subsequent 3D imaging
JP2013541785A (en) * 2010-10-25 2013-11-14 コーニンクレッカ フィリップス エヌ ヴェ Volume visualization
JP5414906B2 (en) * 2011-08-05 2014-02-12 株式会社東芝 Image processing apparatus, image display apparatus, image processing method, and program
WO2014050018A1 (en) * 2012-09-26 2014-04-03 富士フイルム株式会社 Method and device for generating virtual endoscope image, and program
WO2014050019A1 (en) * 2012-09-26 2014-04-03 富士フイルム株式会社 Method and device for generating virtual endoscope image, and program
JP2016105291A (en) * 2016-01-04 2016-06-09 ソニー株式会社 Image processing device, image processing system and image processing method
CN109949265A (en) * 2017-12-20 2019-06-28 东芝医疗系统株式会社 Medical image-processing apparatus and medical image processing method
CN110546711A (en) * 2017-05-12 2019-12-06 通用电气公司 Facilitating conversion between viewing native 2D medical images and viewing reconstructed 3D medical images
JP2020000602A (en) * 2018-06-29 2020-01-09 大日本印刷株式会社 Medical image processing apparatus, medical image processing method, program, and data creation method
US11880929B2 (en) 2020-02-14 2024-01-23 Mitsubishi Electric Corporation Image processing apparatus, computer readable medium, and image processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981786A (en) * 1995-09-08 1997-03-28 Hitachi Ltd Three-dimensional image processing method
JP2000090283A (en) * 1998-09-09 2000-03-31 Toshiba Iyo System Engineering Kk Volume rendering image display method, image processor and storage medium storing program for the same method
JP2001250133A (en) * 2000-03-03 2001-09-14 Hitachi Medical Corp Image display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981786A (en) * 1995-09-08 1997-03-28 Hitachi Ltd Three-dimensional image processing method
JP2000090283A (en) * 1998-09-09 2000-03-31 Toshiba Iyo System Engineering Kk Volume rendering image display method, image processor and storage medium storing program for the same method
JP2001250133A (en) * 2000-03-03 2001-09-14 Hitachi Medical Corp Image display device

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005157329A (en) * 2003-10-30 2005-06-16 Brother Ind Ltd Image display device
JP2005131287A (en) * 2003-10-31 2005-05-26 Toshiba Corp Radiation ct equipment, image processing equipment and image processing method
JP4559723B2 (en) * 2003-10-31 2010-10-13 株式会社東芝 Radiation CT apparatus, image processing apparatus, and image processing method
JP2006051202A (en) * 2004-08-12 2006-02-23 Toshiba Corp Image processing device, image processing method, and program
JP4679095B2 (en) * 2004-08-12 2011-04-27 株式会社東芝 Image processing apparatus, image processing method, and program
WO2007015365A1 (en) * 2005-08-01 2007-02-08 National University Corporation NARA Institute of Science and Technology Information processing device and program
US8149236B2 (en) 2005-08-01 2012-04-03 National University Corporation NARA Institute of Science and Technology Information processing apparatus and program
JP2007072881A (en) * 2005-09-08 2007-03-22 Mitsubishi Electric Corp Image display system
US8682415B2 (en) 2005-11-23 2014-03-25 General Electric Company Method and system for generating a modified 4D volume visualization
JP2007144173A (en) * 2005-11-23 2007-06-14 General Electric Co <Ge> Medical image displaying method and system
JP2007220090A (en) * 2005-12-30 2007-08-30 Dassault Systemes Processing for selecting objects in plm database, and device mounted therewith
JP2008017988A (en) * 2006-07-12 2008-01-31 Toshiba Corp Image display device and image display method
JP2008029703A (en) * 2006-07-31 2008-02-14 Toshiba Corp Three-dimensional image display device
JP2008029694A (en) * 2006-07-31 2008-02-14 Toshiba Corp Image processor and medical diagnostic apparatus with image processor
JP2010500093A (en) * 2006-08-11 2010-01-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Data set selection from 3D rendering for viewing
US8520915B2 (en) 2006-09-13 2013-08-27 Kabushiki Kaisha Toshiba Medical image diagnosis apparatus specifying a spot on a projection image for subsequent 3D imaging
JP2008068032A (en) * 2006-09-15 2008-03-27 Toshiba Corp Image display device
US10275930B2 (en) 2006-10-31 2019-04-30 Koninklijke Philips N.V. Combined intensity projection
JP2010508570A (en) * 2006-10-31 2010-03-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Combined intensity projection
JP4588736B2 (en) * 2007-04-12 2010-12-01 富士フイルム株式会社 Image processing method, apparatus, and program
JP2008259699A (en) * 2007-04-12 2008-10-30 Fujifilm Corp Image processing method and apparatus, and program
US8659602B2 (en) 2007-04-12 2014-02-25 Fujifilm Corporation Generating a pseudo three-dimensional image of a three-dimensional voxel array illuminated by an arbitrary light source by a direct volume rendering method
JP2009034494A (en) * 2007-07-10 2009-02-19 Toshiba Corp X-ray radiographic apparatus, image processing device, and image processing program
JP2010082294A (en) * 2008-10-01 2010-04-15 Toshiba Corp X-ray diagnostic apparatus
JP2011227870A (en) * 2010-04-16 2011-11-10 Hitachi Medical Corp Image processing method and image processing apparatus
JP2012045256A (en) * 2010-08-30 2012-03-08 Fujifilm Corp Region dividing result correcting device, method and program
US9886780B2 (en) 2010-10-25 2018-02-06 Koninklijke Philips N.V. Volume visualization
JP2013541785A (en) * 2010-10-25 2013-11-14 コーニンクレッカ フィリップス エヌ ヴェ Volume visualization
WO2013014868A1 (en) 2011-07-28 2013-01-31 パナソニック株式会社 Cutting simulation device and cutting simulation program
JP5414906B2 (en) * 2011-08-05 2014-02-12 株式会社東芝 Image processing apparatus, image display apparatus, image processing method, and program
JP2011240163A (en) * 2011-08-23 2011-12-01 Toshiba Corp Image display device and image display method
WO2014050019A1 (en) * 2012-09-26 2014-04-03 富士フイルム株式会社 Method and device for generating virtual endoscope image, and program
JP2014064722A (en) * 2012-09-26 2014-04-17 Fujifilm Corp Virtual endoscopic image generation apparatus, virtual endoscopic image generation method, and virtual endoscopic image generation program
WO2014050018A1 (en) * 2012-09-26 2014-04-03 富士フイルム株式会社 Method and device for generating virtual endoscope image, and program
US9808145B2 (en) 2012-09-26 2017-11-07 Fujifilm Corporation Virtual endoscopic image generation device, method, and medium containing program
US9830737B2 (en) 2012-09-26 2017-11-28 Fujifilm Corporation Virtual endoscopic image generation device, method, and medium containing program
JP2016105291A (en) * 2016-01-04 2016-06-09 ソニー株式会社 Image processing device, image processing system and image processing method
CN110546711A (en) * 2017-05-12 2019-12-06 通用电气公司 Facilitating conversion between viewing native 2D medical images and viewing reconstructed 3D medical images
JP2020523659A (en) * 2017-05-12 2020-08-06 ゼネラル・エレクトリック・カンパニイ Easy switching between native 2D and reconstructed 3D medical images
JP7035083B2 (en) 2017-05-12 2022-03-14 ゼネラル・エレクトリック・カンパニイ Easy switching between native 2D medical images and reconstructed 3D medical images
CN110546711B (en) * 2017-05-12 2024-01-30 通用电气公司 System and method for medical imaging
CN109949265A (en) * 2017-12-20 2019-06-28 东芝医疗系统株式会社 Medical image-processing apparatus and medical image processing method
JP2019111332A (en) * 2017-12-20 2019-07-11 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, medical image processing method and X-ray diagnostic apparatus
JP7246915B2 (en) 2017-12-20 2023-03-28 キヤノンメディカルシステムズ株式会社 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, AND X-RAY DIAGNOSTIC APPARATUS
CN109949265B (en) * 2017-12-20 2023-10-03 东芝医疗系统株式会社 Medical image processing device and medical image processing method
JP2020000602A (en) * 2018-06-29 2020-01-09 大日本印刷株式会社 Medical image processing apparatus, medical image processing method, program, and data creation method
JP7155670B2 (en) 2018-06-29 2022-10-19 大日本印刷株式会社 Medical image processing apparatus, medical image processing method, program, and data creation method
US11880929B2 (en) 2020-02-14 2024-01-23 Mitsubishi Electric Corporation Image processing apparatus, computer readable medium, and image processing method

Also Published As

Publication number Publication date
JP4776834B2 (en) 2011-09-21

Similar Documents

Publication Publication Date Title
JP2003091735A (en) Image processor
JP6530456B2 (en) System and method for generating 2D images from tomosynthesis data sets
JP6118325B2 (en) Interactive live segmentation with automatic selection of optimal tomographic slices
JP5400326B2 (en) Method for displaying tomosynthesis images
US9401019B2 (en) Imaging tomosynthesis system, in particular mammography system
KR102402887B1 (en) System and method for generating and displaying tomosynthesis image slabs
KR102109588B1 (en) Methods for processing, displaying and navigating breast tissue images
JP6766045B2 (en) How to generate a synthetic mammogram from tomosynthesis data
EP1750584B1 (en) System and method for diagnosing breast cancer
JP4253497B2 (en) Computer-aided diagnosis device
US8878838B2 (en) Visualizing a time-variant parameter in a biological structure
JP4450797B2 (en) Image processing method and image processing program
US8244010B2 (en) Image processing device and a control method and control program thereof
JP2004105731A (en) Processing of computer aided medical image
US20060262969A1 (en) Image processing method and computer readable medium
JP2013192940A (en) Medical imag processing apparatus and medical imag processing method
US20050110748A1 (en) Tomography-capable apparatus and operating method therefor
JP4282939B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
US9792261B2 (en) Medical image display apparatus, medical image display method, and recording medium
JP5422117B2 (en) Medical image processing apparatus and medical image photographing apparatus
JP3989896B2 (en) Medical image processing apparatus, region of interest extraction method, and program
US20200175756A1 (en) Two-dimensional to three-dimensional spatial indexing
JPH0838433A (en) Medical image diagnostic device
JP5161991B2 (en) Image processing device
JP5395393B2 (en) Diagnostic imaging equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080918

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110629

R150 Certificate of patent or registration of utility model

Ref document number: 4776834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees