JP3467948B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP3467948B2
JP3467948B2 JP00976096A JP976096A JP3467948B2 JP 3467948 B2 JP3467948 B2 JP 3467948B2 JP 00976096 A JP00976096 A JP 00976096A JP 976096 A JP976096 A JP 976096A JP 3467948 B2 JP3467948 B2 JP 3467948B2
Authority
JP
Japan
Prior art keywords
line segment
pixel data
information
grid point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00976096A
Other languages
Japanese (ja)
Other versions
JPH09204510A (en
Inventor
吉輝 三野
理 岡本
浩 廉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP00976096A priority Critical patent/JP3467948B2/en
Priority to US08/772,756 priority patent/US5754618A/en
Publication of JPH09204510A publication Critical patent/JPH09204510A/en
Application granted granted Critical
Publication of JP3467948B2 publication Critical patent/JP3467948B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、画像表示技術、特
に3次元画像データの面情報を表示する方法と装置に関
するものである。更に具体的には、X線CTおよびMR
I(核磁気共鳴)CT、超音波CT等を使用した医用画
像における画像表示処理に関するものである。 【0002】 【従来の技術】現在、医用画像処理に用いられている画
像は、3次元の画像処理が主流になりつつある。3次元
画像データの表示方式は、大別してVolume Rendering法
(以下VR法)、Surface Rendering法(以下SR法)に分
けられる。 【0003】SR法は3次元データの面情報のみを表示す
ることでVRと比較して扱うデータ量が少なくできるため
医用画像データ等データ量が多い場合、表示処理は一般
にSR法が高速に処理可能であるが、像の面情報の抽出が
必要である。 【0004】このような、画像表示装置としては、特開
昭62−37782号公報に提案されているものがあ
る。 【0005】 【発明が解決しようとする課題】X線CT、MRIC
T、超音波CT等を使用した医用画像においては、非接
触センサからの入力データであるため、一般的にスペッ
クルノイズ等のノイズ成分が多く、また実際に必要な情
報が欠けている場合があるため、SR法において適切な3
次元面情報の抽出ができないといった問題があった。 【0006】上記問題点に鑑み本発明の画像処理装置
は、近傍の情報に基づいてノイズ成分を除去し、必要な
情報を補間した上で、適切な3次元面情報の抽出を可能
とすることを目的とする。 【0007】 【課題を解決するための手段】上記課題を解決するため
に本発明の画像処理装置は、互いに直交するx,y,z座標
軸からなる3次元空間領域に格子点を構成し、その領域
内に存在する目的物の物理的性質の空間分布に対応して
各格子点で観測される特徴量を入力される3次元画素デ
ータとし、この3次元画素データをもとにすべての格子
点における画素データに対して処理を行ない画像を出力
する画像処理装置において、前記格子点を端点とした長
さ一定のx,y,z軸上の線分をx,y,z座標軸に垂直な前記端
点を含む3つの平面上でそれぞれある一定角度づつ回転
し、それぞれに位置した線分を代表する格子点列を選択
し、複数の線分を判別する線分判別情報と対応する格子
点列に含まれる格子点の画素データを出力する第1の選
択器と、前記第1の選択器から入力された前記格子点列
に含まれる画素データを積算し前記線分の画素データ値
とし、前記線分判別情報とともに出力する第1の積算装
置と、前記第1の積算装置の出力する複数の前記線分の
画素データ値を比較し、比較した結果があらかじめ決め
ておいたしきい値より大きい場合、大きい方から前記線
分判別情報と対応する前記線分の画素データ値を出力す
る第2の選択器と、前記第2の選択器から入力された複
数の前記線分判別情報より、前記端点の方向成分を計算
し、前記第2の選択器から入力された複数の前記線分の
画素データ値を積算し前記端点における画素情報として
出力する第2の積算装置と、前記第2の選択器から入力
された前記方向成分と前記画素情報を前記格子点の格子
点情報として蓄積し、すべての格子点情報が得られた後
にその情報をもとに画像出力を行なう画像出力手段を設
けるを特徴とする画像処理装置である。 【0008】 【発明の実施の形態】 (実施の形態1)図1は、本発明の第1の実施の形態に
係る画像処理装置を示す図である。以下にこの装置の動
作を説明する。以下の説明では、入力される3次元画素
データ1は、x,y,z軸それぞれの方向にxmax,ymax,zmax
の格子点で構成されるとして説明する。 【0009】まず、代表的な処理する格子点として中心
画素の座標をx=3,y=3,z=3とする。本実施の形態の画像
処理装置では、3次元画素データ1を入力として、それ
ぞれの格子点の画素データを処理する場合、その格子点
を中心とし、この中心を含むそれぞれx-y平面、y-z平面
およびz-x平面の近傍5x5画素の点を第1の選択器2に送
る。よって、x=3,y=3,z=3では、以下のデータが送られ
る。 【0010】x=3,y=1-5,z=1,5の画素データ x=1-5,y=3,z=1-5の画素データ x=1-5,y=1-5,z=3の画素データ 第1の選択器2では、それぞれの平面における図2に示
すように送られてきた中心画素のまわりの近傍5x5にお
いて、図3に示すようなそれぞれのx-y平面,y-z平面,z-
x平面に対して8種類、つまり3平面分の合計24種類
の探索線分を構成する格子点を選択し、第1の積算装置
3において、選択された探索点の積算を行ない平均値を
求めるフィルタ処理をおこない、その24種類の探索線
分に対する結果を第2の選択器4に送る。 【0011】つまり、図3において、それぞれの探索線
分を代表するx-y平面の探索点f33の画素はx-y平面上(z=
3)の中心位置のx=3,y=3画素であり、同平面の探索点f13
は、x=1,y=3というような関係を示し、これらの探索点
を積算していくことにより、それぞれの探索線分の画素
データ値が求められる。 【0012】第2の選択器4では、送られてきた24種
類の探索線分の結果に対して比較を行ない、あらかじめ
決めておいたしきい値より値が大きい探索線分の種類と
その画素データ値を第2の積算装置5に送る。 【0013】また、もしもしきい値よりも24種類の画
素データ値が小さければ、輝度の最小値つまり0として
データが存在しないこととし、その情報を第2の積算装
置5に送る。 【0014】第2の積算装置5では、送られてきた探索
線分の画素データ値の積算を行ない平均値を求め、この
値を中心画素値とし、さらに探索線分の方向値の積算を
行ない平均値を求め、この値を中心画素が持つ法線方向
成分として、対応する格子点(この場合は、x=3,y=3,z=
3)の処理結果としてこれらの情報を3次元画像出力手段
6に出力し、3次元画像出力手段6はこれらの情報を格
納する。 【0015】以上までの処理は、中心画素がx=3,y=3,z=
3について行なったが、x,y,zを一つずつ更新していくこ
とによって、すべての格子点の画素データを処理するこ
とになる。簡単に式で説明を行なうと、以下のようにな
る。 for(z=3;k<zmax-2;z++) { for(y=3;k<ymax-2;y++) { for(x=3;k<xmax-2;x++) { Filter(x,y,z); -> 今まで説明を行なった近傍処理 } } } このような操作を繰り返していくと、ほぼすべての3次
元画素データを処理することができる。そして、3次元
画像出力手段6では、すべての結果を得た後に画像出力
を行なう。 【0016】また、ここに示した式は計算領域の周辺部
については行なっていないが、これらについては周辺部
にはあまり重要な情報がない場合が多いため入力された
画像をそのまま使うことで対処が可能である。 【0017】よって、入力された3次元画像データに対
して以上までに述べた処理を行なうと、中心画素周辺情
報から平均値を求めスペックルノイズのように近傍と関
係なく現れる画素データに関してはしきい値を設けノイ
ズ情報を除去し、さらに、近傍にデータありその中心画
素自体はデータが消えている場合には補間を行なうこと
が可能となる。 【0018】しかも、3次元画像出力手段に用いる画像
の3次元面情報となる法線ベクトルの抽出が、ノイズ低
減、補間処理をともなって行なわれ、ノイズの影響を最
小とすることが可能となる。 【0019】なお、今回のフィルタには説明の簡単化の
ために探索線分を代表する探索点を格子点における画素
データそのものを使用して平均をとったが、図4に示す
ごとく、画素の中心100からの距離101、102を正確に考
慮し、そこから細分化された格子点における画素データ
(サブピクセル化)を考慮することにより、同様のことが
可能となる。 【0020】104の直線は図3におけるフィルタ2の処理
に対応し、101、102と直線104の各々の交点105、106を
含む4x4のサブピクセル107、108は画素f24,f15と対応
し、画素の中心を含むサブピクセル4x4はf33と対応す
る。これを行なえば、図5のごとく方向について計算処
理の程度を考えて細かく設定することが可能である。 【0021】(実施の形態2)図6は本発明における法
線ベクトルの抽出例を示すものである。以下に簡略化の
ために2次元画像で2値化された入力画像について説明
する。 【0022】図6(a)は2値化された2次元入力画素
データで中空円である。図6(b)はこれを線分探索
し、しきい値以上の画素データを持つ線分をベクトルに
より示したもので、長さは線分の画素データの大きさを
示している。図6(c)は、線分の方向ベクトルとその
画素データの大きさに比例加算して合成したものであ
る。 【0023】図6(d)は、得られた合成ベクトルの大
きさがしきい値以上のものを示したものである。これら
合成ベクトルを用いると、画像表示の際の像表面法線デ
ータを得ることが可能となる。 【0024】円8はしきい値以上の合成ベクトルによっ
て代表された中空円の外部表面10,11,12,13,14,15,16,1
7,18,19,20によって構成され、円9はしきい値以上の合
成ベクトルによって代表された中空円の内部表面21,22,
23,24によって構成された中空円像である。 【0025】なお、上記実施の形態で説明した機能をコ
ンピュータのプログラムとして構成することも本願発明
の実際的な実現方法の一つである。 【0026】つまり、プロセッサ、メモリ、表示装置等
を備えた周知のコンピュータ装置に上記の機能を実行さ
せるためのプログラムを作成する。このプログラムを、
フロッピーディスク、CD−ROM等のコンピュータ可
読記録媒体上に記録しておき、必要に応じてコンピュー
タのメモリ上に読み込んで実行することで容易に実現可
能である。 【0027】 【発明の効果】以上のように本発明は、3次元的に近傍
の画素に対して、フィルタ処理を行ない、医用画像診断
等で得られる一部必要な画像が欠けているものに対し
て、補間処理が行なえ、より現実に近い映像を再現する
ことが可能となる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display technique, and more particularly to a method and an apparatus for displaying surface information of three-dimensional image data. More specifically, X-ray CT and MR
The present invention relates to image display processing on medical images using I (nuclear magnetic resonance) CT, ultrasonic CT, or the like. 2. Description of the Related Art At present, three-dimensional image processing is becoming mainstream for images used in medical image processing. Display methods of three-dimensional image data are roughly classified into a Volume Rendering method (hereinafter, VR method) and a Surface Rendering method (hereinafter, SR method). In the SR method, only the surface information of three-dimensional data is displayed, so that the amount of data handled in comparison with VR can be reduced. Therefore, when the amount of data such as medical image data is large, the display process is generally performed at high speed. Although possible, it is necessary to extract surface information of the image. [0004] As such an image display device, there is one proposed in Japanese Patent Application Laid-Open No. 62-37782. [0005] X-ray CT, MRIC
In a medical image using T, ultrasonic CT, etc., since it is input data from a non-contact sensor, there are generally many noise components such as speckle noises, and a case where actually necessary information is missing. Therefore, 3
There has been a problem that dimensional surface information cannot be extracted. In view of the above problems, the image processing apparatus of the present invention removes a noise component based on nearby information, interpolates necessary information, and enables appropriate extraction of three-dimensional surface information. With the goal. [0007] In order to solve the above-mentioned problems, an image processing apparatus according to the present invention configures grid points in a three-dimensional space region composed of x, y, and z coordinate axes orthogonal to each other. The feature amount observed at each grid point corresponding to the spatial distribution of the physical properties of the target object existing in the region is set as input three-dimensional pixel data, and all grid points are determined based on the three-dimensional pixel data. In the image processing apparatus that performs processing on the pixel data in and outputs an image, a line segment on the constant x, y, z axis having the grid point as an end point is a line segment perpendicular to the x, y, z coordinate axes. Rotate by a certain angle on each of the three planes including the end points, select a grid point sequence representing the line segments located at each of them, and select a grid point sequence corresponding to the line segment discrimination information for discriminating multiple line segments. A first selector for outputting pixel data of the included grid points, A first integration device that integrates pixel data included in the grid point sequence input from the first selector to obtain a pixel data value of the line segment and outputs the pixel data value together with the line segment identification information; The pixel data values of the plurality of line segments output are compared, and if the comparison result is larger than a predetermined threshold value, the pixel data value of the line segment corresponding to the line segment discrimination information is determined from the larger one. A second selector to be output, and a direction component of the end point is calculated from the plurality of line segment discrimination information input from the second selector, and a plurality of the plurality of input components from the second selector are calculated. A second integration device that integrates pixel data values of line segments and outputs the pixel information at the end points as pixel information, and the direction component and the pixel information input from the second selector as grid point information of the grid points. Accumulate and all Based on the information after a child point information is obtained providing an image output means for performing an image output of an image processing apparatus according to claim. FIG. 1 is a diagram showing an image processing apparatus according to a first embodiment of the present invention. The operation of this device will be described below. In the following description, the input three-dimensional pixel data 1 includes xmax, ymax, zmax in the respective directions of the x, y, and z axes.
The following description is made on the assumption that it is composed of lattice points. First, the coordinates of the center pixel are set as x = 3, y = 3, and z = 3 as representative grid points to be processed. In the image processing apparatus of the present embodiment, when the pixel data of each grid point is processed with the three-dimensional pixel data 1 as an input, the grid point is set as the center, and the xy plane, the yz plane, and the zx A point of 5 × 5 pixels near the plane is sent to the first selector 2. Therefore, when x = 3, y = 3, and z = 3, the following data is sent. Pixel data of x = 3, y = 1-5, z = 1,5 x = 1-5, y = 3, pixel data of z = 1-5 x = 1-5, y = 1-5 , z = 3, in the first selector 2, in the neighborhood 5 × 5 around the central pixel transmitted as shown in FIG. 2 in each plane, each xy plane, yz as shown in FIG. Plane, z-
Grid points constituting eight types, that is, a total of 24 types of search line segments for three planes with respect to the x plane are selected, and the first integration device 3 integrates the selected search points to obtain an average value. The filter processing is performed, and the results for the 24 types of search line segments are sent to the second selector 4. That is, in FIG. 3, the pixel of the search point f33 on the xy plane representing each search line segment is located on the xy plane (z =
X = 3, y = 3 pixels at the center position of 3), and the search point f13 on the same plane
Indicates a relationship such as x = 1, y = 3, and by integrating these search points, the pixel data value of each search line is obtained. The second selector 4 compares the results of the received 24 types of search line segments, and searches for the type of search line segment having a value larger than a predetermined threshold value and the pixel data thereof. The value is sent to the second integrating device 5. If the 24 kinds of pixel data values are smaller than the threshold value, it is determined that no data exists as the minimum luminance value, that is, 0, and the information is sent to the second integrating device 5. The second integrating device 5 integrates the pixel data values of the sent search line to calculate an average value, sets this value as the center pixel value, and further integrates the direction value of the search line. An average value is obtained, and this value is used as a normal direction component of the central pixel, as a corresponding grid point (in this case, x = 3, y = 3, z =
The information is output to the three-dimensional image output means 6 as a result of the process 3), and the three-dimensional image output means 6 stores the information. In the above processing, the center pixel is x = 3, y = 3, z =
As described above, pixel data of all grid points is processed by updating x, y, and z one by one. The following is a simple description using equations. for (z = 3; k <zmax-2; z ++) {for (y = 3; k <ymax-2; y ++) {for (x = 3; k <xmax-2; x ++) {Filter (x, y , z);-> Neighborhood processing described so far}}} By repeating such operations, almost all three-dimensional pixel data can be processed. Then, the three-dimensional image output means 6 outputs an image after obtaining all results. Although the formulas shown here are not applied to the periphery of the calculation area, there is often little important information in the periphery, so that the input image is used as it is. Is possible. Accordingly, when the above-described processing is performed on the input three-dimensional image data, an average value is obtained from the central pixel peripheral information, and pixel data appearing irrespective of the neighborhood such as speckle noise is obtained. A threshold value is set to remove noise information, and interpolation can be performed when there is data in the vicinity and the data at the center pixel itself has disappeared. Furthermore, the extraction of the normal vector as the three-dimensional surface information of the image used for the three-dimensional image output means is performed with noise reduction and interpolation processing, so that the influence of noise can be minimized. . In the present filter, for simplicity of explanation, search points representing search line segments are averaged using pixel data itself at grid points, but as shown in FIG. Pixel data at grid points subdivided from the distances 101 and 102 from the center 100 are accurately considered.
The same can be achieved by considering (sub-pixel conversion). The straight line 104 corresponds to the processing of the filter 2 in FIG. 3. The 4 × 4 sub-pixels 107 and 108 including the intersections 105 and 106 of the straight lines 104 and 101 and 102 correspond to the pixels f24 and f15, respectively. The sub-pixel 4x4 including the center of corresponds to f33. By doing this, it is possible to make detailed settings in consideration of the degree of calculation processing in the direction as shown in FIG. (Embodiment 2) FIG. 6 shows an example of extracting a normal vector in the present invention. An input image binarized with a two-dimensional image will be described below for simplification. FIG. 6A shows two-dimensional binarized input pixel data, which is a hollow circle. FIG. 6B shows a line segment search for the line segment having pixel data equal to or larger than the threshold value, which is indicated by a vector. The length indicates the size of the pixel data of the line segment. FIG. 6C shows a result obtained by proportionally adding the direction vector of the line segment and the size of the pixel data thereof and combining them. FIG. 6D shows a case where the magnitude of the obtained combined vector is equal to or larger than the threshold value. Using these combined vectors makes it possible to obtain image surface normal data at the time of image display. Circle 8 is the outer surface 10, 11, 12, 13, 14, 15, 16, 1, 1 of the hollow circle represented by the composite vector above the threshold.
7,18,19,20, circle 9 is the inner surface 21,22,
It is a hollow circular image composed of 23 and 24. It should be noted that configuring the functions described in the above embodiment as a computer program is also one of the practical methods of realizing the present invention. That is, a program for causing a well-known computer device having a processor, a memory, a display device, and the like to execute the above functions is created. This program,
This can be easily realized by recording the program on a computer-readable recording medium such as a floppy disk, a CD-ROM, or the like, reading the program into a computer memory as needed, and executing the program. As described above, according to the present invention, filtering is performed on three-dimensionally neighboring pixels, and an image obtained by medical image diagnosis or the like which lacks a partly necessary image is obtained. On the other hand, interpolation processing can be performed, and it is possible to reproduce a more realistic image.

【図面の簡単な説明】 【図1】本発明の実施例における画像処理装置の説明図 【図2】本発明の第1の実施例におけるフィルタの説明
図 【図3】本発明の第1の実施例におけるフィルタの説明
図 【図4】同実施例における拡張したフィルタの説明図 【図5】同実施例におけるフィルタの回転させる角度の
説明図 【図6】同実施例におけるの方向成分の説明図 【符号の説明】 1 入力する3次元画素データ 2 第1の選択器 4 第2の選択器 6 3次元画像出力手段 7 中心画素 100 画素の中心 101 画素の距離が1であることを示す同心円 102 画素の距離が2であることを示す同心円 104 補間を行なう直線 105 画素の距離が2における交点 106 画素の距離が1における交点 107 画素の距離が2におけるサブピクセル(4×
4) 108 画素の距離が1におけるサブピクセル(4×
4) 110 線分を回転させた角度を示す探索線分その1 111 線分を回転させた角度を示す探索線分その2 112 線分を回転させた角度を示す探索線分その3 113 線分を回転させた角度を示す探索線分その4
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an explanatory diagram of an image processing apparatus according to an embodiment of the present invention. FIG. 2 is an explanatory diagram of a filter according to a first embodiment of the present invention. FIG. FIG. 4 is an explanatory diagram of a filter in the embodiment. FIG. 4 is an explanatory diagram of an expanded filter in the embodiment. FIG. 5 is an explanatory diagram of a rotation angle of the filter in the embodiment. [Description of Signs] 1 Three-dimensional pixel data to be input 2 First selector 4 Second selector 6 Three-dimensional image output means 7 Center pixel 100 Center 101 of pixels Concentric circle indicating that the distance between pixels is 1 102 Concentric circle 104 indicating that the distance of the pixel is 2 Interpolation straight line 105 Intersection point at a pixel distance of 2 Intersection point 107 at a pixel distance of 1 Subpixel at a pixel distance of 2 (4 ×
4) A sub-pixel (4 ×
4) Search line segment indicating the angle obtained by rotating the 110 line segment 1 111 Search line segment indicating the angle obtained by rotating the line segment 2 112 Search line segment indicating the angle obtained by rotating the line segment 3 113 line segment Search line segment indicating the angle at which was rotated 4

フロントページの続き (56)参考文献 特開 平4−285545(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 315 A61B 5/055 A61B 6/03 360 G06T 7/60 250 JICSTファイル(JOIS)Continuation of the front page (56) References JP-A-4-285545 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 1/00 315 A61B 5/055 A61B 6/03 360 G06T 7/60 250 JICST file (JOIS)

Claims (1)

(57)【特許請求の範囲】 【請求項1】互いに直交するx,y,z座標軸からなる3次
元空間領域に格子点を構成し、その領域内に存在する目
的物の物理的性質の空間分布に対応して各格子点で観測
される特徴量を入力される3次元画素データとし、この
3次元画素データをもとにすべての格子点における画素
データに対して処理を行ない画像を出力する画像処理装
置であって、 前記格子点を端点とした長さ一定の線分をx,y,z座標軸
に垂直な前記端点を含む3つの平面上でそれぞれある一
定角度づつ回転し、それぞれに位置した線分を代表する
格子点列を選択し、複数の線分を判別する線分判別情報
と対応する格子点列に含まれる格子点の画素データを出
力する第1の選択手段と、 前記第1の選択手段から入力された前記格子点列に含ま
れる画素データを積算し前記線分の画素データ値とし、
前記線分判別情報とともに出力する第1の積算手段と、 前記第1の積算手段の出力する複数の前記線分の画素デ
ータ値を比較し、比較した結果があらかじめ決めておい
たしきい値より大きい場合、大きい方から前記線分判別
情報と対応する前記線分の画素データ値を出力する第2
の選択手段と、 前記第2の選択手段から入力された複数の前記線分判別
情報より、前記端点の方向成分を計算し、前記第2の選
択手段から入力された複数の前記線分の画素データ値を
積算し、前記端点における画素情報として出力する第2
の積算手段と、 前記第2の選択手段から入力された前記方向成分と前記
画素情報を前記格子点の格子点情報として蓄積し、すべ
ての格子点情報が得られた後にその情報をもとに画像出
力を行なう画像出力手段とを備えた画像処理装置。
(57) [Claims 1] A lattice point is formed in a three-dimensional space region including x, y, and z coordinate axes orthogonal to each other, and a space of physical properties of an object existing in the region. The feature amount observed at each grid point corresponding to the distribution is set as input three-dimensional pixel data, and processing is performed on the pixel data at all grid points based on the three-dimensional pixel data to output an image. An image processing apparatus, wherein a line segment having a fixed length with the grid point as an end point is rotated by a certain angle on each of three planes including the end point perpendicular to the x, y, and z coordinate axes, and the position is set at each position. A first selection unit that selects a grid point sequence representing the line segment thus selected, and outputs pixel data of a grid point included in the grid point sequence corresponding to the line segment determination information for determining a plurality of line segments; Pixel data included in the grid point sequence input from the first selection means. Integrating the the pixel data values of the line segment,
A first integrating means for outputting together with the line segment discriminating information, and a pixel data value of the plurality of line segments output from the first integrating means, wherein the comparison result is larger than a predetermined threshold value In the case, a pixel data value of the line segment corresponding to the line segment discrimination information is output from a larger one.
A direction component of the end point is calculated from the plurality of line segment discrimination information input from the second selection unit, and a plurality of pixels of the line segment input from the second selection unit A second method of integrating data values and outputting as pixel information at the end points
Accumulating means, and accumulating the direction component and the pixel information input from the second selecting means as grid point information of the grid points, based on the information after all grid point information is obtained An image processing apparatus comprising: image output means for outputting an image.
JP00976096A 1995-12-22 1996-01-24 Image processing device Expired - Fee Related JP3467948B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP00976096A JP3467948B2 (en) 1996-01-24 1996-01-24 Image processing device
US08/772,756 US5754618A (en) 1995-12-22 1996-12-23 Image processing apparatus and image processing method for favorably enhancing continuous boundaries which are affected by noise

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00976096A JP3467948B2 (en) 1996-01-24 1996-01-24 Image processing device

Publications (2)

Publication Number Publication Date
JPH09204510A JPH09204510A (en) 1997-08-05
JP3467948B2 true JP3467948B2 (en) 2003-11-17

Family

ID=11729243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00976096A Expired - Fee Related JP3467948B2 (en) 1995-12-22 1996-01-24 Image processing device

Country Status (1)

Country Link
JP (1) JP3467948B2 (en)

Also Published As

Publication number Publication date
JPH09204510A (en) 1997-08-05

Similar Documents

Publication Publication Date Title
US6636234B2 (en) Image processing apparatus for interpolating and generating images from an arbitrary view point
JP3466661B2 (en) Image processing apparatus and method
JP5182229B2 (en) Image processing apparatus, image processing method, and program
EP1775685B1 (en) Information processing device and program
US20060270932A1 (en) Simultaneous projection of multi-branched vessels and their context on a single image
JP2006055213A (en) Image processor and program
JPH02899A (en) Graphic display device and generation of three-dimensional image of object
JP2005122361A (en) Image processor, its processing method, computer program, and recording medium
US7893938B2 (en) Rendering anatomical structures with their nearby surrounding area
US5900880A (en) 3-D surfaces generated from a list of cubic elements
JP4087517B2 (en) Region extraction method
US20020190986A1 (en) Method, apparatus, and computer program for generating three-dimensional shape data or volume data
JP2002092590A (en) Image display device
JP4229398B2 (en) Three-dimensional modeling program, three-dimensional modeling control program, three-dimensional modeling data transmission program, recording medium, and three-dimensional modeling method
JP3467948B2 (en) Image processing device
GB2592604A (en) Image generation system and method
JP2006000126A (en) Image processing method, apparatus and program
JP3642923B2 (en) Video generation processing apparatus and structured data creation apparatus for creating structured data used in the apparatus
JP3449810B2 (en) Blood flow information display method
JP4579990B2 (en) Computer readable program storage device
JP4536176B2 (en) Color image display apparatus and method
JPH11306392A (en) Method for smoothing approximate polygon surface
JP2006185038A (en) Four- or n-dimensional labeling apparatus, and four- or n-dimensional spatial filter apparatus
JP3540157B2 (en) Shape modeling method using image and recording medium storing shape modeling program
JP2012027793A (en) Image processing system and image processing system control method and program

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees