JPS6368140A - Image processor - Google Patents

Image processor

Info

Publication number
JPS6368140A
JPS6368140A JP61211685A JP21168586A JPS6368140A JP S6368140 A JPS6368140 A JP S6368140A JP 61211685 A JP61211685 A JP 61211685A JP 21168586 A JP21168586 A JP 21168586A JP S6368140 A JPS6368140 A JP S6368140A
Authority
JP
Japan
Prior art keywords
viewpoint
image
image data
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61211685A
Other languages
Japanese (ja)
Inventor
裕之 漆家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP61211685A priority Critical patent/JPS6368140A/en
Publication of JPS6368140A publication Critical patent/JPS6368140A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Abstract] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は例えばX線CT装置あるいはMRI装置等で得
られた三次元画像情報に基づき、任意の断層面及びその
関心領域画像を得る画像処理装置に関する。
Detailed Description of the Invention [Objective of the Invention] (Industrial Application Field) The present invention is based on three-dimensional image information obtained by, for example, an X-ray CT device or an MRI device. The present invention relates to an image processing device that obtains images.

(従来の技術) 従来、この種の画像処理装置を応用した例えばX線CT
装置等において、第10図に示すようにX線源20の位
置を固定しておき、被検体Pを載置した寝台(図示しな
い)を移動させ、所定位置毎にデータを収集するいわゆ
るスキャノグラムという方法により透視像を作成してい
た。
(Prior art) Conventionally, for example, X-ray CT using this type of image processing device has been used.
In the apparatus, etc., the position of the X-ray source 20 is fixed as shown in FIG. 10, and a bed (not shown) on which the subject P is placed is moved to collect data at each predetermined position. This is called a scanogram. A fluoroscopic image was created using this method.

しかしながら、上記方法は次のような欠点を有している
。すなわち、 ■上記スキャノグラムは図示X線B、 20の位置が機
械的に一義的に定まってしまい、任意の方向からの透視
像を得ることができない。つまり、同図においては被検
体Pの体軸方向と平行な方向での透視像しか得られない
However, the above method has the following drawbacks. That is, (1) In the above scanogram, the position of the illustrated X-ray B, 20 is uniquely determined mechanically, and a perspective image cannot be obtained from any direction. That is, in the figure, only a perspective image in a direction parallel to the body axis direction of the subject P can be obtained.

■関心領域内の例えば去器が骨にかくれている場合等、
上記スキャノグラム像では見えなかったり市るいは形状
等を明瞭に認識できない。
■In the area of interest, for example, if the remover is hidden behind the bone, etc.
In the above-mentioned scanogram image, it is not possible to see or clearly recognize the city or shape.

(発明が解決しようとする問題点) 上述したように従来の画像処理装置では、■X線源の位
置が懇械的に一義的に定まってしまい、任意の方向から
の透視像を得ることができない。
(Problems to be Solved by the Invention) As mentioned above, in the conventional image processing apparatus, the position of the X-ray source is mechanically and uniquely determined, making it impossible to obtain a perspective image from any direction. Can not.

■関心領域内の例えば臓器が骨にかくれている場合等、
上記スキャノグラム像では児えなかったりあるいは形状
等を明瞭に認識できない。
■For example, if organs in the area of interest are hidden behind bones, etc.
In the above scanogram image, there is no image or the shape etc. cannot be clearly recognized.

大別すると、以上のような問題点を有している。Broadly speaking, they have the following problems.

そこで本発明は上記各問題点を解決した画像処理装置の
提供を目的とする。
Therefore, an object of the present invention is to provide an image processing device that solves each of the above-mentioned problems.

[発明の構成] (問題点を解決するための手段) 上記各問題点を解決するための本発明の構成は、三次元
画像データを記憶する記憶部と、この記憶部に記憶され
た三次元画像データに基づく画像を表示する表示部と、
この表示部に表示された三次元画像の任意方向からの視
点を設定する視点δ2定手段と、この視点の各視線方向
での画像データを読み出す読み出し手段と、この読み出
し手段により読み出された各視線上の画像データの積分
値を算出する算出手段とを備え、この算出手段により得
られた各視線上での積分値に基づき該視点からの透視像
を(qることを特徴としている。
[Structure of the Invention] (Means for Solving the Problems) The structure of the present invention for solving each of the above problems includes a storage unit that stores three-dimensional image data, and a three-dimensional image data stored in the storage unit. a display unit that displays an image based on the image data;
A viewpoint δ2 fixed means for setting a viewpoint from an arbitrary direction of the three-dimensional image displayed on the display section, a reading means for reading out image data in each line of sight direction of this viewpoint, and each reading means read out by the reading means. and a calculation means for calculating an integral value of image data on a line of sight, and is characterized in that a perspective image from the viewpoint is (q) based on the integral value on each line of sight obtained by the calculation means.

(作 用) 上記構成を有する本発明の作用は、記憶部に記憶され表
示部に表示された三次元画像の任意方向からの視点を設
定し、この視点からの透視像を1qるようにしている。
(Function) The function of the present invention having the above configuration is to set a viewpoint from an arbitrary direction of the three-dimensional image stored in the storage unit and displayed on the display unit, and to set a perspective image from this viewpoint by 1q. There is.

(実施例) 以乍本発明の一実施例について図面を参照して説明する
(Example) Hereinafter, an example of the present invention will be described with reference to the drawings.

第1図において画像処理装置は本装置の仝休の制御を司
どるCPU1と、各種情報を入力するキーボード2と、
後述する表示部上に表示された三次元画像に対する視点
及び視線の方向をδフ定する視点設定手段たるトラック
ボール6と、図示しない画像入力装置から入力された三
次元画像データを記憶する記憶部たる磁気ディスク4と
、この磁気ディスク4に記憶されている画像データを一
時的に記憶する例えばRAMからなるメモリ3と、これ
ら磁気ディスク4必るいはメモリ3に記憶された画像デ
ータに塁づく画像を表示する表示部たる例えばCRT5
から構成されている。
In FIG. 1, the image processing device includes a CPU 1 that controls the rest of the device, a keyboard 2 that inputs various information,
A trackball 6 serving as a viewpoint setting means for determining the viewpoint and line of sight direction δ with respect to a 3D image displayed on a display unit, which will be described later, and a storage unit that stores 3D image data input from an image input device (not shown). A magnetic disk 4, a memory 3 consisting of a RAM, for example, that temporarily stores the image data stored on the magnetic disk 4, and an image based on the image data stored on the magnetic disk 4 or the memory 3. For example, a CRT5 display unit that displays
It consists of

前記制御手段たるCPU1は次のような機能を有してい
る。
The CPU 1, which is the control means, has the following functions.

■ 前記メモリ3あるいは磁気ディスク4に記憶されて
いる画像データを表示部たるCRT5上に表示制御する
機能。
(2) A function to display and control the image data stored in the memory 3 or the magnetic disk 4 on the CRT 5 as a display section.

■ 視点設定手段たるトラックボール6(後述する〉か
ら入力される情報に基づき、表示部たるCRT5に表示
されるカーソルマーク例えば第3図に示すようなカーソ
ルマーク7を同図中8あるいは9の位置に移動制御する
は能。このカーソルマークが前記視点及びその視線を意
味している。
■ Cursor mark displayed on the CRT 5, which is a display unit, based on information input from a trackball 6 (described later), which is a viewpoint setting means. For example, move the cursor mark 7 as shown in FIG. This cursor mark means the viewpoint and its line of sight.

■ 前記視点の各視線上の対応する画像データ例えば濃
淡情報を読み出して積分し、この積分値に基づき前記C
RT5上に対応する透視像を表示する、すなわち算出手
段としての機能。
■ Read and integrate the corresponding image data, for example, gradation information, on each line of sight of the viewpoint, and based on this integral value, the C
Displays a corresponding fluoroscopic image on the RT5, that is, functions as a calculation means.

大別すると以上列記した機能を漸えている。Broadly speaking, they include the functions listed above.

上記視点設定手段6は上述したように通常トラックボー
ルと呼称されている入力装置を使用している。このトラ
ックボールは球形状の転動体を第2図に矢印A乃至Cで
示す方向に回動させることで、CRT5上に表示制御さ
れるカーソルマークを任意に移動させて設定できるよう
にしている。
As mentioned above, the viewpoint setting means 6 uses an input device commonly called a trackball. This trackball allows a cursor mark displayed on the CRT 5 to be arbitrarily moved and set by rotating a spherical rolling element in the directions indicated by arrows A to C in FIG.

すなわち、矢印爪方向に上記転動体10を回転させると
、CRT5上に表示されているカーソルマークは所定の
比率をもって第3図に示す矢印e方向のいづれかに移動
され、同様に転動体10を矢印B方向に回転させるとカ
ーソルマークは図示矢印f方向のいづれかに移動する。
That is, when the rolling element 10 is rotated in the direction of the arrow claw, the cursor mark displayed on the CRT 5 is moved at a predetermined ratio in one of the directions of the arrow e shown in FIG. When the cursor mark is rotated in the direction B, the cursor mark moves in either direction of the arrow f shown in the figure.

そして、転動体5を矢印C方向に回転させるとカーソル
の向きすなわち角度が対応して変化するようになってい
る。
When the rolling element 5 is rotated in the direction of arrow C, the direction or angle of the cursor changes accordingly.

このようにして、視点とその視線の方向が設定されるよ
うになっている。尚、図中Pで示覆ものは記憶部にあら
かじめ記憶されている例えば被検体の3次元画像データ
でおる。
In this way, the viewpoint and the direction of the line of sight are set. It should be noted that what is indicated by P in the figure is, for example, three-dimensional image data of the subject, which is stored in advance in the storage section.

以上のようにして視点と視線の方向が設定されたなら、
次にその視点を頂点とする放射状の範囲(第5図参照)
で積分値を1qるかまたはその視点を含みその視線の方
向と直行する而(第4図参照)での透視像を得るかの選
択を行う。この選択はトラックボール6に設けられた選
択釦6aまたは6bの押下により選択することができる
。このようにして任意の視点からの透視像を得るように
している。また、図中6Cで示すものはCRT5に前記
カーソルマークを表示させる釦である。この釦6Cの押
下によりカーソルマークはCRT5上に表示され、再度
の押下により消去されるようにしている。
Once the viewpoint and direction of line of sight are set as described above,
Next, a radial range with that viewpoint as the apex (see Figure 5)
Select whether to obtain an integral value of 1q or a perspective image that includes the viewpoint and is perpendicular to the direction of the line of sight (see Fig. 4). This selection can be made by pressing a selection button 6a or 6b provided on the trackball 6. In this way, a perspective image can be obtained from any arbitrary viewpoint. Further, 6C in the figure is a button for displaying the cursor mark on the CRT 5. When this button 6C is pressed, a cursor mark is displayed on the CRT 5, and when it is pressed again, it is erased.

このように、本発明は従来の装置と異なり、記憶部に記
憶されている三次元画像データに基づき、任意の方向か
らの透視像を作成できるようにしている。従って、透視
像として表示させたい部位を任意の方向から表示させる
ことができる。このために、透視像を得たい部位の前記
視点側に例えば骨等が存在する場合には、その骨の存在
する部位を避けるようにして透視像を1qることかでき
る。
In this way, the present invention is different from conventional devices in that it is possible to create a perspective image from any direction based on three-dimensional image data stored in the storage section. Therefore, the part desired to be displayed as a perspective image can be displayed from any direction. For this reason, if, for example, a bone exists on the viewpoint side of a region from which a fluoroscopic image is to be obtained, the fluoroscopic image can be obtained by 1q while avoiding the region where the bone is present.

つまり、骨の透視像への影響を無くすことができるので
ある。このようにして、例えば診断効率の向上、より正
確な透視像を得られる等の効果を得ることができる。
In other words, it is possible to eliminate the influence on the fluoroscopic image of the bone. In this way, effects such as improved diagnostic efficiency and more accurate fluoroscopic images can be obtained.

以上の操作に基づく透視像の具体的な作成原理を以下に
述べる。尚、この場合に三次元画像データつまり複数か
らなる断層面データ間に例えば不均等1間隔が大きい等
が考えられれば補間しておくものとする。
The specific principle of creating a perspective image based on the above operations will be described below. In this case, if there is a large uneven interval between the three-dimensional image data, that is, the tomographic data consisting of a plurality of pieces, for example, interpolation is performed.

前記第3図で説明したように視点及び視線を設定しかつ
前述したいづれかの透視像を選択後、CRT5上に第6
図(a)に示すような画像を表示させる。尚、同図(a
)は前記第5図に示す透視像について示すものである。
After setting the viewpoint and line of sight as explained in FIG. 3 above and selecting one of the perspective images described above, the sixth
An image as shown in Figure (a) is displayed. In addition, the same figure (a
) shows the perspective image shown in FIG. 5 above.

同図中Qは視点を示し矢印は視線を示す。また、図中1
及び同図(C)に示すWは本実施例においてはあらかじ
め設定された値となっている。ここで視点Qを同図(C
)に示すように基準端からそれぞれz、nだけ離間した
点を考える。すなわち、第6図(a>に示す点Qである
。この視点Qからの視線上の画像データつまり同図(b
)に示すように必らかしめ記憶されている御所層面の画
像データから、該視線(図中点線で示す)上に当る画像
データを所定間隔で読み取るとともに積分し、その位置
での透視像としている。このようにして、この視点Qを
上記、(XWの範囲内で移動させ、所望の透視像を得る
ようにしている。
In the figure, Q indicates the viewpoint, and the arrow indicates the line of sight. Also, 1 in the figure
In this embodiment, W shown in FIG. 3C is a preset value. Here, point of view Q is shown in the same figure (C
), consider points spaced apart by z and n from the reference end, respectively. In other words, it is point Q shown in Figure 6 (a). Image data on the line of sight from this viewpoint Q, that is,
) As shown in (), from the image data of the imperial palace layer surface that is necessarily stored, the image data corresponding to the line of sight (indicated by the dotted line in the figure) is read at predetermined intervals and integrated, and the perspective image at that position is obtained. . In this way, this viewpoint Q is moved within the range of (XW) to obtain a desired perspective image.

つぎに、前記第4図に示す透視像の場合には第7図(a
)、(b)に示すように視点Qから所定角度(本実施例
ではあらかじめ設定した角度)で得られる透視像を、上
記第6図(a>乃至(C)での説明とほぼ同様にして透
視像を1qる。尚、この場合には上記実施例と異なり複
数の断(面あるいは断層面間の画像データから濃淡情報
を読み出して積分することで透視像を得るので、特に前
記画像データの補間が有効となる。
Next, in the case of the perspective image shown in FIG. 4, FIG.
), (b), a perspective image obtained from the viewpoint Q at a predetermined angle (in this example, a preset angle) is obtained in substantially the same manner as described in FIGS. 6 (a> to (C) above). A fluoroscopic image is set at 1q.In this case, unlike the above embodiment, a fluoroscopic image is obtained by reading and integrating grayscale information from image data of multiple sections (planes or tomographic planes), so Interpolation is enabled.

つぎに、以上のようにして任意の透視像をifる際の原
理について説明刃る。
Next, the principle of IFing an arbitrary perspective image as described above will be explained.

第8図に示すように三次元画像データ具体的には前述し
た被検体Pの体軸方向にはあらかじめ座標が設けられて
いる。いま、図示Q点をX、Y座標からx、y、z座標
に変換し、これらを(a。
As shown in FIG. 8, coordinates are provided in advance in the three-dimensional image data, specifically in the body axis direction of the subject P mentioned above. Now, the illustrated point Q is converted from X, Y coordinates to x, y, z coordinates, and these are (a.

b、c)とし、平行状ビームパスの方向ベクトルを(U
、V、W)とする。すると上記点Qを通るビームパスは
、 (x−a)/u=(y−b)/v=(z−c)/w  
   ・(1)と表される。このときZ=Zoとすると
、x=u(zo  −c)/w+a=x  o    
                 ・・・ (2)V
=V(ZO−c)/w+b”y o        =
 (3)以上の(1)乃至(3)式によりXo、Voが
求まり(Xo 、 yo 、 Zo )に対応した画像
データが定まる。このようにして求められたZOを適当
な間隔である範囲で移動させて画像データを積分すれば
点Qの値を求めることができる。すなわち、この点Qを
透視像作成範囲内で移動させれば得ようとする視点から
の透視像が作成できる。尚、上記平行状ビームと放射状
ビームとの相)1点はビームパスの方向ベクトル(U、
V、W)の求め方にある。
b, c), and the direction vector of the parallel beam path is (U
, V, W). Then, the beam path passing through the above point Q is (x-a)/u=(y-b)/v=(z-c)/w
・It is expressed as (1). At this time, if Z=Zo, then x=u(zo -c)/w+a=x o
... (2)V
=V(ZO-c)/w+b"y o =
(3) Xo and Vo are determined by the above equations (1) to (3), and image data corresponding to (Xo, yo, Zo) is determined. The value of point Q can be determined by moving ZO determined in this way within a certain range at appropriate intervals and integrating the image data. That is, by moving this point Q within the perspective image creation range, a perspective image can be created from the desired viewpoint. In addition, one point (phase of the parallel beam and radial beam) is the direction vector of the beam path (U,
V, W).

尚、本発明は上記一実施例に限定されず、その要旨の範
囲内で保々に変形実施が可能である。
It should be noted that the present invention is not limited to the above-mentioned embodiment, but can be modified and implemented within the scope of the gist.

例えば第9図に示すようにCRT5上に表示させた透視
像11の任意の領域つまり関心領1j! (図中斜線で
示す)を例えばCRT5上にカーソルライン12.13
を表示させてこの2つのカーソルラインと14で示ず故
躬状ビームパスとで包囲される領域内すなわち任意積分
区間を算出手段により積分することにより部分的な透視
像を得るようにしてもよい。このように部分的に積分値
を求めることで、例えば図中15で示す骨が、得ようと
する領域に与える透視像作成上での影響を無くすことが
できる。従って、その目的部位に関し鮮明かつ明瞭な透
視像をjqることか可能となる。
For example, as shown in FIG. 9, any region of the transparent image 11 displayed on the CRT 5, that is, the region of interest 1j! (shown with diagonal lines in the figure), for example, on the CRT5 at cursor line 12.13.
A partial perspective image may be obtained by displaying these two cursor lines and integrating an arbitrary integration interval, that is, an arbitrary integration interval, within a region surrounded by these two cursor lines and the erroneous beam path (not shown at 14). By determining the integral value partially in this manner, it is possible to eliminate the influence of the bone shown by 15 in the figure on the region to be obtained on the creation of a perspective image. Therefore, it is possible to obtain a clear and clear perspective image of the target area.

ざらに、本装置を例えば放射線治療装買と組み合せた場
合、立案した計画と同条件で透視像を作成1表示するこ
とにより、同計画の有効性を確認することができる。ま
た、線量分布を重畳表示し、照射条件を変更しながら照
射範囲がどの程度照射目的領域をカバーしているか確認
していくことで、最適な治療計画を作成することらでき
る。
Roughly speaking, when this device is combined with, for example, radiotherapy equipment, the effectiveness of the planned plan can be confirmed by creating and displaying a fluoroscopic image under the same conditions as the plan. In addition, by superimposing the dose distribution and checking how much of the target irradiation area the irradiation range covers while changing the irradiation conditions, it is possible to create an optimal treatment plan.

[発明の効果コ 以上詳述したように本発明によると、得ようとする透視
像を任意方向から得ることができると共に、鮮明かつ明
瞭な透視像を得ることができる。
[Effects of the Invention] As described in detail above, according to the present invention, a desired perspective image can be obtained from any direction, and a clear and clear perspective image can be obtained.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明画像処理装置の構成ブロック図、第2図
はトラックボールの外観斜視図、第3図は表示部上に表
示される三次元画像とカーソルマークとの関係を説明す
る斜視図、第4図及び第は透視像の作成原理についての
説明図、第8図は透視像の一般的作成原理を示す斜視図
、第9図は本発明の一変形例を示す説明図、第10図は
従来の透視像を1qる方法の説明図でおる。 1・・・読み出し手段、算出手段、 4・・・記憶部、5・・・表示部、6・・・視点設定手
段。 代理人 弁理士 則  近  憲  化量      
大   胡   曲   夫<01 ′>1 (b) 第7図
FIG. 1 is a block diagram of the configuration of the image processing device of the present invention, FIG. 2 is an external perspective view of a trackball, and FIG. 3 is a perspective view illustrating the relationship between a three-dimensional image displayed on the display unit and a cursor mark. , FIG. 4 and FIG. 8 are explanatory diagrams illustrating the principle of creating a perspective image, FIG. 8 is a perspective view showing the general principle of creating a perspective image, FIG. 9 is an explanatory diagram showing a modification of the present invention, and FIG. The figure is an explanatory diagram of a conventional method of converting a perspective image by 1q. DESCRIPTION OF SYMBOLS 1... Reading means, calculation means, 4... Storage part, 5... Display part, 6... Viewpoint setting means. Agent Patent Attorney Rules
Ogo Qufu<01'>1 (b) Figure 7

Claims (2)

【特許請求の範囲】[Claims] (1)三次元画像データを記憶する記憶部と、この記憶
部に記憶された三次元画像データに基づく画像を表示す
る表示部と、この表示部に表示された三次元画像の任意
方向からの視点を設定する視点設定手段と、この視点の
各視線方向での画像データを読み出す読み出し手段と、
この読み出し手段により読み出された各視線上の画像デ
ータの積分値を算出する算出手段とを備え、この算出手
段により得られた各視線上での積分値に基づき該視点か
らの透視像を得ることを特徴とする画像処理装置。
(1) A storage unit that stores three-dimensional image data, a display unit that displays an image based on the three-dimensional image data stored in this storage unit, and a display unit that displays the three-dimensional image displayed on this display unit from any direction. a viewpoint setting means for setting a viewpoint; a reading means for reading out image data in each line-of-sight direction of the viewpoint;
calculation means for calculating the integral value of the image data on each line of sight read out by the reading means, and obtaining a perspective image from the viewpoint based on the integral value on each line of sight obtained by the calculation means. An image processing device characterized by:
(2)前記視点設定手段は視点の視線方向での任意積分
区間を設定する機能を有するものである特許請求の範囲
第1項記載の画像処理装置。
(2) The image processing apparatus according to claim 1, wherein the viewpoint setting means has a function of setting an arbitrary integral interval in the line-of-sight direction of the viewpoint.
JP61211685A 1986-09-10 1986-09-10 Image processor Pending JPS6368140A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61211685A JPS6368140A (en) 1986-09-10 1986-09-10 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61211685A JPS6368140A (en) 1986-09-10 1986-09-10 Image processor

Publications (1)

Publication Number Publication Date
JPS6368140A true JPS6368140A (en) 1988-03-28

Family

ID=16609889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61211685A Pending JPS6368140A (en) 1986-09-10 1986-09-10 Image processor

Country Status (1)

Country Link
JP (1) JPS6368140A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02124143A (en) * 1988-11-04 1990-05-11 Yokogawa Medical Syst Ltd Method and device for synthesizing and displaying projecting picture
JP2007061426A (en) * 2005-08-31 2007-03-15 Toshiba Corp X-ray ct apparatus and method for roentgenography
JP2008515522A (en) * 2004-10-11 2008-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Imaging system for generating high-quality X-ray projection images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57112847A (en) * 1980-12-31 1982-07-14 Shimadzu Corp Image treating apparatus of computer tomograph apparatus
JPS57115238A (en) * 1981-01-08 1982-07-17 Shimadzu Corp Image treating apparatus of computer tomogram photograph apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57112847A (en) * 1980-12-31 1982-07-14 Shimadzu Corp Image treating apparatus of computer tomograph apparatus
JPS57115238A (en) * 1981-01-08 1982-07-17 Shimadzu Corp Image treating apparatus of computer tomogram photograph apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02124143A (en) * 1988-11-04 1990-05-11 Yokogawa Medical Syst Ltd Method and device for synthesizing and displaying projecting picture
JPH0559B2 (en) * 1988-11-04 1993-01-05 Yokokawa Medeikaru Shisutemu Kk
JP2008515522A (en) * 2004-10-11 2008-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Imaging system for generating high-quality X-ray projection images
JP2007061426A (en) * 2005-08-31 2007-03-15 Toshiba Corp X-ray ct apparatus and method for roentgenography

Similar Documents

Publication Publication Date Title
US6990231B2 (en) Method and apparatus for forming and displaying projection image from a plurality of sectional images
US7127091B2 (en) Method and apparatus for visualizing a limited part of a 3D medical image-point-related data set, through basing a rendered image on an intermediate region between first and second clipping planes, and including spectroscopic viewing of such region
US9418451B2 (en) X-ray CT apparatus, substance identifying method, and image processing apparatus
US10607420B2 (en) Methods of using an imaging apparatus in augmented reality, in medical imaging and nonmedical imaging
JP3896188B2 (en) Image processing device for radiation therapy planning
JPH1011614A (en) Method and device for setting viewpoint position and line-of-sight direction in three-dimensional picture constitution method
US10893911B2 (en) Automated image cropping for enhanced automatic device-to-image registration
US9940747B2 (en) Mapping 3D to 2D images
JP4581051B2 (en) Method and apparatus for representing a predeterminable region in a multidimensional data set
CN105321194A (en) Curved line correction apparatus and method
US20070115204A1 (en) Method of navigation in three-dimensional image data
US4888794A (en) Method of generating an image of a layer of an object
JP2000210261A (en) Method and apparatus for displaying and processing image reproducible on instruction monitor
JP4313910B2 (en) Image display device
CN1722981B (en) Real-time navigational aid system for radiography
JPS6368140A (en) Image processor
US6710783B2 (en) Presentation device
CN108701492B (en) Medical image navigation system
JP2002236910A (en) Three-dimensional image creating method
US6346949B1 (en) Three-dimensional form data processor retaining information on color boundaries of an object when thinning coordinate data
JPH0526231B2 (en)
JP4663220B2 (en) Medical image display device
EP3457353B1 (en) Method and system for obtaining a true shape of objects in a medical image
JPH10201755A (en) Method for measuring three-dimensional size in pseudo-three-dimensional image and its system
JP2774512B2 (en) Image display device