JP2002150311A - Image processing device - Google Patents

Image processing device

Info

Publication number
JP2002150311A
JP2002150311A JP2000348435A JP2000348435A JP2002150311A JP 2002150311 A JP2002150311 A JP 2002150311A JP 2000348435 A JP2000348435 A JP 2000348435A JP 2000348435 A JP2000348435 A JP 2000348435A JP 2002150311 A JP2002150311 A JP 2002150311A
Authority
JP
Japan
Prior art keywords
region
image
observation object
rendering
observation target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000348435A
Other languages
Japanese (ja)
Inventor
Hiroki Taniguchi
拡樹 谷口
Yoshihiro Goto
良洋 後藤
Hiromitsu Hayashi
宏光 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2000348435A priority Critical patent/JP2002150311A/en
Publication of JP2002150311A publication Critical patent/JP2002150311A/en
Pending legal-status Critical Current

Links

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To rapidly acquire a clear rendering image hardly including low frequency components of an artifact or the like. SOLUTION: In making a pseudo three-dimensional display of an observation object included in a three-dimensional original image, using a volume rendering method or a surface rendering method, the difference (A-A') between an observation object region A and an observation object contraction region A' obtained by the contraction processing of the observation object region A, is obtained, and a region A" of the difference is made a rendering region, that is, the rendering region is determined by the set operation (such as the sum, product, difference and assembling) of the observation object region and a plurality of regions out of observation object expanded regions or observation object contracted regions obtained by expanding or contracting the observation object region.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置に係
り、特に肺、肝臓等の観察対象内部の管腔臓器を疑似3
次元画像として表示する画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to a method for embedding a luminal organ inside an object to be observed such as a lung or a liver.
The present invention relates to an image processing device that displays a two-dimensional image.

【0002】[0002]

【従来の技術】X線CT装置やMRI装置等から得られ
る3次元の原画像を投影面上に陰影付けして投影し、擬
似3次元画像を構成する方法として次のような方法が用
いられている。
2. Description of the Related Art The following method is used as a method for forming a pseudo three-dimensional image by shading and projecting a three-dimensional original image obtained from an X-ray CT apparatus, an MRI apparatus or the like on a projection plane. ing.

【0003】ボリュームレンダリング法は、入射光が原
画像の各ボクセルに向かっていく際に不透明度の割合に
よって減衰しながら順次伝播された光の強度の総和を表
示する方法である。そのため、画素値のもつボリューム
データを扱うことができるが、光のどの深さを総和の範
囲とするかによって投影像が大きく影響される。また、
サーフェイスレンダリング法は、入射光が観察対象に到
達した時点の表面情報を表示する方法である。そのた
め、どれだけ光が観察対象のみに到達できるかによって
投影像が大きく影響される。
[0003] The volume rendering method is a method of displaying the sum of the intensities of light sequentially transmitted while attenuating according to the opacity ratio when incident light goes to each voxel of an original image. For this reason, volume data having pixel values can be handled, but the projection image is greatly affected by which depth of light falls within the range of the sum. Also,
The surface rendering method is a method of displaying surface information when incident light reaches an observation target. Therefore, the projected image is greatly affected by how much light can reach only the observation target.

【0004】従来、ボリュームレンダリング法やサーフ
ェイスレンダリング法でレンダリングする際は観察領域
全体に対して行うことが多く、領域を限定してレンダリ
ングする際は観察領域に対して光の進む距離を一定にし
たり、手動で形態情報を伴わない円形や立方体によって
関心領域を設定していた。
Conventionally, rendering by the volume rendering method or the surface rendering method is often performed on the entire observation area. When rendering is performed with the area limited, the distance that light travels with respect to the observation area is fixed. However, the region of interest is manually set by a circle or a cube without morphological information.

【0005】次に、観察領域を膨張収縮するための一般
的な方法について説明する。図8に示すように観察領域
内に穴埋め処理を行って、その領域に膨張収縮処理を行
う方法(実際は3次元データだが図8上では2次元デー
タで簡略化して説明している) や、下記に示す幾何学変
換による拡大・ 縮小によって、領域の膨張収縮処理を行
う方法がある。この方法は、観察対象の外壁情報を[x,
y,z]とすると、アフィン変換Tsによって生成される[X,
Y,Z]を求める方法である。
Next, a general method for expanding and contracting the observation area will be described. As shown in FIG. 8, a method of performing a hole filling process in an observation region and performing an expansion / contraction process on the region (actually, three-dimensional data, but simplified in FIG. 8 with two-dimensional data), or There is a method of expanding / shrinking the area by enlarging / reducing by the geometric transformation shown in (1). In this method, the outer wall information of the observation target is [x,
y, z], [X,
Y, Z].

【0006】[0006]

【数1】 Sx, Sy, Szは拡大縮小のパラメータここで図8の方法
は、異方性のボクセルを等方性のボクセルにデータ変換
をして行い、観察領域の3次元データすべてを扱う。ま
た、幾何学変換による拡大・縮小による領域膨張収縮方
法では物体の中心に座標系の原点を設定して行う。
(Equation 1) Sx, Sy, Sz are scaling parameters. Here, the method of FIG. 8 performs data conversion of anisotropic voxels into isotropic voxels, and handles all three-dimensional data of the observation region. In the area expansion / contraction method based on enlargement / reduction by geometric transformation, the origin of the coordinate system is set at the center of the object.

【0007】[0007]

【発明が解決しようとする課題】ところで、肺や肝臓等
の領域をレンダリングの対象とした場合に、それら領域
における異常陰影はある特定領域に存在することが多い
が、この特定領域のみをレンダリングの対象とすること
ができず、その結果、画像にはアーチファクトなどの影
響による低周波成分を含んでいるため、径が小さく濃度
値の低い末梢血管の抽出は困難であった。また、レンダ
リングの処理時間も長くかかるという問題があった。
By the way, when regions such as lungs and liver are to be rendered, abnormal shadows in those regions often exist in a specific region, but only this specific region is rendered. As a result, it is difficult to extract a peripheral blood vessel having a small diameter and a low density value because the image contains a low-frequency component due to the influence of an artifact or the like. In addition, there is a problem that the rendering processing time is long.

【0008】本発明はこのような事情に鑑みてなされた
もので、鮮明なレンダリング画像を高速に得ることがで
きる画像処理装置を提供することを目的とする。
The present invention has been made in view of such circumstances, and has as its object to provide an image processing apparatus capable of obtaining a clear rendered image at high speed.

【0009】[0009]

【課題を解決するための手段】本発明は、前記目的を達
成するために、3次元の原画像から3次元画像を形成
し、その3次元画像を投影面に投影し、その投影した画
像を陰影付けして擬似3次元画像を構成する画像処理装
置において、前記3次元の原画像に複数の観察対象領域
を設定する手段と、これらの設定された観察対象領域に
ついて論理和及び論理積を含む集合演算を行う手段と、
この集合演算された観察対象領域から前記擬似3次元画
像を構成させる手段とを備えたことを特徴としている。
According to the present invention, in order to achieve the above object, a three-dimensional image is formed from a three-dimensional original image, the three-dimensional image is projected on a projection surface, and the projected image is formed. An image processing apparatus configured to form a pseudo three-dimensional image by shading, comprising: means for setting a plurality of observation target areas in the three-dimensional original image; and a logical sum and a logical product of these set observation target areas Means for performing a set operation;
Means for constructing the pseudo three-dimensional image from the set-observed observation target area.

【0010】本発明によれば、3次元の原画像に含まれ
る観察対象をボリュームレンダリング法やサーフェイス
レンダリング法等を用いて擬似3次元画像を構成、表示
する際に、観察対象領域と、観察対象領域の膨張収縮処
理によって得られる領域との集合演算(例えば、和、
積、差、アセンブル)によってレンダリングする領域を
限定する。それによって、高速かつアーチファクト等の
低周波成分を含みにくい明瞭なレンダリング画像を得る
ことができる。なお、集合演算には、様々なヴァリエー
ションがあり、集合も観察対象と観察対象膨張領域だけ
ではなく、観察対象領域同士も考えられる。
According to the present invention, when a pseudo three-dimensional image is constructed and displayed by using a volume rendering method, a surface rendering method, or the like for an observation target included in a three-dimensional original image, an observation target region and an observation target Set operation (eg, union,
(Product, difference, assemble). As a result, it is possible to obtain a clear rendered image that is fast and does not include low-frequency components such as artifacts. There are various variations in the set operation, and the set can be considered not only for the observation target and the observation target expansion region, but also for the observation target regions.

【0011】[0011]

【発明の実施の形態】以下添付図面に従って本発明に係
る画像処理装置の好ましい実施の形態について詳説す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the image processing apparatus according to the present invention will be described below in detail with reference to the accompanying drawings.

【0012】図1に示すように、例えば関心領域が肺野
の場合には、肺野限定画像(3次元の原画像)をボリュ
ームレンダリング法により投影面に陰影付けして投影
し、擬似3次元画像を構成するが、本発明ではレンダリ
ングする領域を以下のようにして限定する。
As shown in FIG. 1, for example, when a region of interest is a lung field, a lung field limited image (three-dimensional original image) is projected on a projection surface by shading by a volume rendering method, and a pseudo three-dimensional image is projected. Although an image is configured, in the present invention, an area to be rendered is limited as follows.

【0013】肺野の外壁付近をレンダリングの対象とす
る場合には、図2(a)に示すように観察対象領域Aと
観察対象収縮領域A’との差をとり、その領域A”(=
A−A’)だけレンダリングすることによって、外壁付
近の領域に限定したレンダリング画像を得ることができ
る(灰色の領域がレンダリングする領域) 。
When rendering near the outer wall of the lung field is to be rendered, the difference between the observation target area A and the observation target contraction area A 'is calculated as shown in FIG.
By rendering only AA ′), a rendering image limited to the region near the outer wall can be obtained (the gray region is the region to be rendered).

【0014】また、気管支をレンダリングの対象とする
場合には、図2(b)に示すように気管支を含む観察対
象領域Bと観察対象膨張領域B’との和(ここでは、観
察対象膨張領域B’のみになる) をとって気管支領域に
限定したレンダリング画像を得る(灰色の領域がレンダ
リングする領域)。尚、レンダリングする領域は3次元
であるが、図2では簡単のため2次元で表している。
When the bronchi are to be rendered, the sum of the observation region B including the bronchus and the observation expansion region B ′ (here, the observation expansion region) is shown in FIG. 2B. B 'only) to obtain a rendering image limited to the bronchial region (the gray region renders). Although the rendering area is three-dimensional, it is shown in two dimensions in FIG. 2 for simplicity.

【0015】この画像処理方法は、余計な領域をレンダ
リングしていないため、アーチファクト等の低周波成分
を含みにくく、明瞭でかつ高速にレンダリングすること
ができる。
In this image processing method, since an unnecessary area is not rendered, low-frequency components such as artifacts are hardly included, and clear and high-speed rendering can be performed.

【0016】次に、上記観察対象領域、観察対象収縮領
域及び観察対象膨張領域を求める方法について説明す
る。
Next, a description will be given of a method for obtaining the observation target area, the observation target contraction area, and the observation target expansion area.

【0017】図3(a) にワイヤーフレームモデルの一例
として、三角面素で表現された球のワイヤーフレームモ
デルを示す。ワイヤーフレームモデルは、例えば、関心
領域が肺野であるならば、肺野領域抽出を行い、エッジ
情報を求めて構成することができる他、関心領域を単純
に閾値処理することによって得られた領域のエッジ情報
から構成することもできる。
FIG. 3A shows a wireframe model of a sphere represented by triangular elements as an example of a wireframe model. For example, if the region of interest is a lung field, the wire frame model can be configured by extracting a lung field region and obtaining edge information, and can also be configured by simply thresholding the region of interest. From the edge information.

【0018】このようにして求められた複数のエッジ情
報からなる面( 三角バッチ) の法線ベクトルは、図3
(b) のように、3点の外積から求めることができる。観
察対象膨張収縮領域のエッジ情報は、三角パッチの重心
を起点とした法線ベクトル上に位置する。観察対象膨張
領域のエッジ情報は、法線ベクトルの方向に、観察対象
収縮領域のエッジ情報は、法線ベクトルの逆方向に、任
意の距離分移動した位置として設定される。さらに構成
されるワイヤーフレームモデルは、閾値の設定次第で、
複数の関心領域を同時に表現でき、観察対象膨張収縮領
域も同様に設定できる。
The normal vector of the surface (triangle batch) composed of a plurality of pieces of edge information obtained in this manner is shown in FIG.
As shown in (b), it can be obtained from the cross product of three points. The edge information of the observed expansion / contraction area is located on a normal vector starting from the center of gravity of the triangular patch. The edge information of the observation target expansion region is set as a position moved by an arbitrary distance in the direction of the normal vector, and the edge information of the observation target contraction region is set in the direction opposite to the normal vector. The wireframe model that is further configured depends on the setting of the threshold,
A plurality of regions of interest can be simultaneously expressed, and the observation target expansion / contraction region can be set similarly.

【0019】上記のようにして各領域を求める方法は、
肺、肝臓等の関心領域を得る際に、観察対象の外壁情報
のみの少ないデータ量を取り扱う点、異方性のボクセル
データを等方性のそれに変換する必要がない点、観察対
象によって処理が制約されない点を特徴にもつ。
The method for obtaining each area as described above is as follows.
When obtaining regions of interest such as lungs and liver, the small amount of data with only the outer wall information of the observation target is handled, the anisotropic voxel data does not need to be converted into isotropic data, and the processing depends on the observation target. The feature is that it is not restricted.

【0020】物体を3次元空間上の無数の点からなる集
合とみなすと、物体同士の間に集合演算、すなわち、
和、積、差、アセンブルが定義できる。この集合演算を
うまく適用し、組み合わせるという操作を繰り返すこと
によって様々な形状を作り上げることができる。物体同
士の和をとる場合には、3次元空間の点がある物体の内
部にあるときにその物体について値1をとり、外部にあ
るときに値0をとるとする。
Assuming that an object is a set consisting of an infinite number of points in a three-dimensional space, a set operation between the objects, that is,
Sum, product, difference and assemble can be defined. Various shapes can be created by repeating the operation of applying and combining the set operations. In the case of taking the sum of objects, it is assumed that the value of the object is 1 when a point in the three-dimensional space is inside the object, and the value is 0 when the point is outside the object.

【0021】このとき、一般的に物体Aと物体Bの和A
∪Bで定義される物体は、図4(a)の演算表で定義され
る値が1となるような点の集合で定義される。物体同士
の積をとる場合には、物体Aと物体Bの積A∩Bで定義
される物体は、図4(b) の演算表で定義される値が1と
なるような点の集合で定義される。物体同士の差をとる
場合には、物体Aと物体Bの差A−Bで定義される物体
は、図4(c) の演算表で定義される値が1となるような
点の集合で定義される。物体同士をアセンブルする場合
には、物体Aと物体BのアセンブルA+Bで定義される
物体はただ物体AとBを2つ並べたものである。和と違
う点は、物体同士の面をぴったりと合わせると和は1つ
の物体として融合してしまうが、アセンブルはただ合わ
せるだけで境界面は残るということである。
At this time, generally, the sum A of the object A and the object B
The object defined by ∪B is defined by a set of points such that the value defined in the operation table of FIG. When the product of the objects is taken, the object defined by the product A∩B of the object A and the object B is a set of points such that the value defined in the operation table of FIG. Defined. When taking the difference between the objects, the object defined by the difference AB between the object A and the object B is a set of points where the value defined in the calculation table of FIG. Defined. When assembling the objects together, the object defined by the assembly A + B of the object A and the object B is simply an arrangement of two objects A and B. The difference from the sum is that if the surfaces of the objects are exactly matched, the sum will be fused as one object, but the assembly will only be done and the boundary surface will remain.

【0022】集合演算は視線を追跡する際に視線上の線
分(物体との交差線分) 同士の演算として実行すれば容
易に行える。即ち、図5に示すように、(1) まず、視
線と基本立体との交差(線分) を求め、(2) 次に、演算
が行われるべき基本立体に関する線分について演算を実
行する、ということを行えばよい。
The set operation can be easily performed if the line of sight is traced and executed as an operation between line segments on the line of sight (intersection lines with the object). That is, as shown in FIG. 5, (1) First, the intersection (line segment) between the line of sight and the basic solid is obtained, and (2) Next, the operation is performed on the line segment related to the basic solid on which the operation is to be performed. That should be done.

【0023】このように、観察対象領域と、その観察対
象膨張収縮領域とを集合とみなし、集合演算を施すこと
によって関心領域を限定してボリュームレンダリング表
示することができる。尚、観察対象領域と、観察対象膨
張収縮領域は、形状やその物体の重心が共通である。
As described above, the observation target area and the observation target dilation / shrinkage area are regarded as a set, and a volume rendering display can be performed with a limited area of interest by performing a set operation. The observation target region and the observation target expansion / contraction region have the same shape and the same center of gravity of the object.

【0024】また、図2では肺野の外壁付近をレンダリ
ングの対象とする場合、及び気管支をレンダリングの対
象とする場合について説明したが、肺野の外壁付近の気
管支領域をレンダリングの対象とすることもできる。
FIG. 2 illustrates the case where rendering is performed around the outer wall of the lung field and the case where bronchi are rendered. However, the bronchial region near the outer wall of the lung field is rendered. Can also.

【0025】この場合は、肺野の外壁付近の領域A”
(図2(a)参照)と、気管支の領域をB’(図2
(b)参照)との集合積をとることで、図6に示すよう
にレンダリング領域を外壁付近の気管支領域Cに限定す
ることができる(図6の灰色で示す領域)。このよう
に、集合演算を施すことで、レンダリングの領域を限定
し、レンダリングに要する時間を削減することができる
他、関心領域以外のレンダリングを行わないため、アー
チファクト等の低周波成分を含みにくく、明瞭な画像が
得られる。
In this case, the area A ″ near the outer wall of the lung field
(See FIG. 2 (a)) and the region of the bronchus B ′ (see FIG.
(B), the rendering area can be limited to the bronchial area C near the outer wall as shown in FIG. 6 (the gray area in FIG. 6). In this way, by performing the set operation, it is possible to limit the rendering region and reduce the time required for rendering.In addition, since rendering other than the region of interest is not performed, it is difficult to include low frequency components such as artifacts, A clear image is obtained.

【0026】図7は本発明に係る画像処理装置のハード
ウェア構成例を示すブロック図である。同図に示すよう
に、この画像処理装置は、複数の断層像データ及びプロ
グラム等が格納された磁気ディスク20と、操作の制御
プログラムが格納された主メモリ22と、各構成要素の
動作を制御する中央処理装置(CPU)24と、表示用
の画像データを一時記憶する表示メモリ26と、表示メ
モリ26からの画像データに基づいて画像を表示するC
RT28と、入出力処理や処理操作を行うマウス30及
びそのコントローラ32と、キーボード34と、上記各
構成要素を接続する共通バス36とから構成されてい
る。
FIG. 7 is a block diagram showing an example of a hardware configuration of the image processing apparatus according to the present invention. As shown in FIG. 1, the image processing apparatus includes a magnetic disk 20 storing a plurality of tomographic image data and programs, a main memory 22 storing an operation control program, and controlling the operation of each component. Central processing unit (CPU) 24, a display memory 26 for temporarily storing image data for display, and a C for displaying an image based on the image data from the display memory 26.
It comprises an RT 28, a mouse 30 for performing input / output processing and processing operations, a controller 32 thereof, a keyboard 34, and a common bus 36 for connecting the above components.

【0027】[0027]

【発明の効果】以上説明したように本発明に係る画像処
理装置によれば、3次元の原画像に含まれる観察対象を
ボリュームレンダリング法又はサーフェイスレンダリン
グ法で擬似3次元表示する際に、観察対象領域と、観察
対象領域の膨張収縮処理によって得られる領域との集合
演算(例えば、和、積、差、アセンブル) によってレン
ダリングする領域を限定したため、高速かつアーチファ
クト等の低周波成分を含みにくい明瞭なレンダリング画
像を得ることができる。
As described above, according to the image processing apparatus of the present invention, when the observation target included in the three-dimensional original image is pseudo-three-dimensionally displayed by the volume rendering method or the surface rendering method, the observation target is displayed. Since the region to be rendered is limited by a set operation (for example, sum, product, difference, assemble) of the region and the region obtained by the expansion and contraction processing of the observation target region, it is clear that the region is high speed and hardly contains low frequency components such as artifacts. A rendered image can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】観察対象領域の肺野限定画像(3次元の原画
像)と投影面を示す図。
FIG. 1 is a diagram showing a lung field limited image (a three-dimensional original image) and a projection plane of an observation target area.

【図2】本発明に係る画像処理装置の集合演算を用いて
領域を限定する方法を示す図。
FIG. 2 is a view showing a method of limiting an area using a set operation of the image processing apparatus according to the present invention.

【図3】ワイヤーフレームモデル及び膨張収縮処理方法
を示す図。
FIG. 3 is a diagram showing a wire frame model and an expansion / contraction processing method.

【図4】集合演算の図。FIG. 4 is a diagram of a set operation.

【図5】集合演算を視線上の線分について行うことを示
す図。
FIG. 5 is a diagram showing that a set operation is performed on a line segment on the line of sight.

【図6】図2に示した方法で領域限定された領域に基づ
いて更に領域限定された領域を求める例を示す図。
FIG. 6 is a view showing an example of obtaining a further limited area based on the limited area by the method shown in FIG. 2;

【図7】本発明に係る画像処理装置のハードウェア構成
例を示すブロック図。
FIG. 7 is a block diagram illustrating a hardware configuration example of an image processing apparatus according to the present invention.

【図8】従来の領域膨張収縮方法を示す図FIG. 8 is a diagram showing a conventional area expansion / contraction method.

【符号の説明】[Explanation of symbols]

20…磁気ディスク、22…主メモリ、24…CPU、
26…表示メモリ、28…CRT、30…マウス、32
…コントローラ、34…キーボード、36…共通バス
20 magnetic disk, 22 main memory, 24 CPU
26: display memory, 28: CRT, 30: mouse, 32
... controller, 34 ... keyboard, 36 ... common bus

フロントページの続き Fターム(参考) 4C093 AA26 CA01 CA08 CA13 CA29 FD09 FF15 FF34 FF35 FF36 FF43 4C096 AA01 AB01 AB08 AB27 AC04 AC10 DC18 DC19 DC33 DC36 DD09 DE04 FC16 5B057 AA08 AA09 BA07 CA13 CB12 CE20 CF01 CF02 CH08 5B080 AA13 AA17 AA18 DA02 DA03 GA00 GA11 Continued on the front page F-term (reference) 4C093 AA26 CA01 CA08 CA13 CA29 FD09 FF15 FF34 FF35 FF36 FF43 4C096 AA01 AB01 AB08 AB27 AC04 AC10 DC18 DC19 DC33 DC36 DD09 DE04 FC16 5B057 AA08 AA09 BA07 CA13 CB12 CE20 A080 CFA DA03 GA00 GA11

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 3次元の原画像から3次元画像を形成
し、その3次元画像を投影面に投影し、その投影した画
像を陰影付けして擬似3次元画像を構成する画像処理装
置において、前記3次元の原画像に複数の観察対象領域
を設定する手段と、これらの設定された観察対象領域に
ついて論理和及び論理積を含む集合演算を行う手段と、
この集合演算された観察対象領域から前記擬似3次元画
像を構成させる手段とを備えたことを特徴とする画像処
理装置。
1. An image processing apparatus for forming a three-dimensional image from a three-dimensional original image, projecting the three-dimensional image on a projection surface, shading the projected image to form a pseudo three-dimensional image, Means for setting a plurality of observation target areas in the three-dimensional original image, means for performing a set operation including a logical sum and a logical product for these set observation target areas,
Means for constructing the pseudo three-dimensional image from the set of observation target regions.
JP2000348435A 2000-11-15 2000-11-15 Image processing device Pending JP2002150311A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000348435A JP2002150311A (en) 2000-11-15 2000-11-15 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000348435A JP2002150311A (en) 2000-11-15 2000-11-15 Image processing device

Publications (1)

Publication Number Publication Date
JP2002150311A true JP2002150311A (en) 2002-05-24

Family

ID=18822030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000348435A Pending JP2002150311A (en) 2000-11-15 2000-11-15 Image processing device

Country Status (1)

Country Link
JP (1) JP2002150311A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005041761A1 (en) * 2003-10-31 2005-05-12 Olympus Corporation Insertion support system
JP2008006274A (en) * 2006-05-29 2008-01-17 Toshiba Corp Medical image processing apparatus and medical image processing method
CN100418467C (en) * 2003-10-31 2008-09-17 奥林巴斯株式会社 Insertion support system
US8442282B2 (en) 2006-05-29 2013-05-14 Kabushiki Kaisha Toshiba Computer-aided imaging diagnostic processing apparatus and computer-aided imaging diagnostic processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005041761A1 (en) * 2003-10-31 2005-05-12 Olympus Corporation Insertion support system
CN100418467C (en) * 2003-10-31 2008-09-17 奥林巴斯株式会社 Insertion support system
US8049777B2 (en) 2003-10-31 2011-11-01 Olympus Corporation Insertion support system for specifying a location of interest as an arbitrary region and also appropriately setting a navigation leading to the specified region
JP2008006274A (en) * 2006-05-29 2008-01-17 Toshiba Corp Medical image processing apparatus and medical image processing method
US8442282B2 (en) 2006-05-29 2013-05-14 Kabushiki Kaisha Toshiba Computer-aided imaging diagnostic processing apparatus and computer-aided imaging diagnostic processing method

Similar Documents

Publication Publication Date Title
JP6563048B2 (en) Tilt adjustment of texture mapping for multiple rendering targets with different resolutions depending on screen position
CN106803267B (en) Kinect-based indoor scene three-dimensional reconstruction method
CN104794758B (en) A kind of method of cutting out of 3-D view
JP4392507B2 (en) 3D surface generation method
US8351670B2 (en) Region data editing apparatus, region data editing method, and recording medium
JP4584575B2 (en) Image processing method for interacting with 3D surface displayed in 3D image
US8970586B2 (en) Building controllable clairvoyance device in virtual world
JP2018537755A (en) Foveal geometry tessellation
US7586501B2 (en) Simultaneous projection of multi-branched vessels and their context on a single image
EP1775685B1 (en) Information processing device and program
US10535188B2 (en) Tessellation edge shaders
JP2002531905A (en) Method of forming perspective drawing from voxel space
JP2001067463A (en) Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium
US20060253021A1 (en) Rendering anatomical structures with their nearby surrounding area
JPH05290174A (en) Graphics work station for handling structure of 3-dimensional model and method for generating 3-dimensional graphics picture of structure of model
JP2003115055A (en) Image generator
JP2002150311A (en) Image processing device
US9734579B1 (en) Three-dimensional models visual differential
JP2023527438A (en) Geometry Recognition Augmented Reality Effect Using Real-time Depth Map
Eichelbaum et al. Image-space tensor field visualization using a LIC-like method
JP2809955B2 (en) Graphics workstation and method for generating three-dimensional graphics image
US7002601B1 (en) Method and apparatus for rendering a quadrangle primitive
JP7167699B2 (en) volume rendering device
EP4372691A1 (en) System and method for multi-volume rendering
JP7205189B2 (en) Rendering device, rendering method, and program