JPH09179962A - Picture processor - Google Patents
Picture processorInfo
- Publication number
- JPH09179962A JPH09179962A JP7334570A JP33457095A JPH09179962A JP H09179962 A JPH09179962 A JP H09179962A JP 7334570 A JP7334570 A JP 7334570A JP 33457095 A JP33457095 A JP 33457095A JP H09179962 A JPH09179962 A JP H09179962A
- Authority
- JP
- Japan
- Prior art keywords
- search
- pixel data
- point
- points
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Generation (AREA)
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像処理技術に関
するもの中で、特に超音波等を使用した医療画像におけ
る画像処理に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to image processing technology, and more particularly to image processing for medical images using ultrasonic waves and the like.
【0002】[0002]
【従来の技術】現在、超音波医療画像処理に用いられて
いる画像は、主に2次元に関したものである。しかし、
より正確な情報を得るために3次元の画像処理が主流に
なりつつある。2. Description of the Related Art Currently, images used for ultrasonic medical image processing are mainly two-dimensional. But,
Three-dimensional image processing is becoming mainstream in order to obtain more accurate information.
【0003】[0003]
【発明が解決しようとする課題】超音波医療画像におい
ては、MRI画像等と比較して一般的にスペックルノイズ
が多く、また、実際に必要な情報が欠けている場合があ
る。An ultrasonic medical image generally has more speckle noise than an MRI image or the like, and may actually lack necessary information.
【0004】よって、近傍の情報から超音波医療画像よ
りスペックルノイズを除去し、また必要な情報は補間す
ることが必要である。Therefore, it is necessary to remove speckle noise from an ultrasonic medical image from nearby information and interpolate necessary information.
【0005】[0005]
【課題を解決するための手段】上記問題点を解決するた
めに本発明の画像処理装置は、互いに直行するx,y,
z座標軸からなる3次元空間領域に格子点を構成し、そ
の領域内に存在する目的物の物理的性質の空間分布に対
応して各格子点で観測される物理量の集合を入力される
3次元画素データとし、この3次元画素データをもとに
すべての格子点における画素データに対して処理を行な
い画像を出力する画像処理装置において、上記3次元空
間の物理量を示すすべての格子点それぞれに対して、上
記格子点を中心とした長さ一定のx,y,z軸上の仮想
的な線分をx,y,z座標軸に垂直な上記中心点を含む
3つの平面上でそれぞれある一定角度づつ回転した複数
の探索線分とこの複数の探索線分を代表するそれぞれに
位置した複数の補助点からなる探索点列を考え、上記そ
れぞれの探索線分において、この探索線分を代表する探
索点における画素データ値を上記各3次元画素データか
ら内挿処理を行ない探索点におけるデータ値として計算
し、さらにこのデータ値を代表する探索点すべて積算し
探索線分の画素データ値とする特徴量積算手段と、上記
特徴量積算手段からの各格子点における上記複数の各探
索線分について積算した画素データ値を比較し、比較し
た結果があらかじめ決めておいたしきい値より大きい場
合、大きい方からその画素データ値とその線分を複数選
び出す比較手段と、上記比較手段からの各格子点におけ
るしきい値を越えた画素データ値と上記しきい値を越え
た線分を示す処理結果を対応する格子点における新たな
画素情報として蓄積し、すべての格子点情報が得られた
後にその情報をもとに画像出力を行なう画像出力手段を
設けるを特徴とする画像処理装置である。In order to solve the above-mentioned problems, the image processing apparatus of the present invention is directed to x, y,
Three-dimensional input of a set of physical quantities observed at each grid point corresponding to the spatial distribution of the physical properties of the target object existing in the three-dimensional space area consisting of z coordinate axes In an image processing device that outputs pixel data by processing pixel data at all grid points based on this three-dimensional pixel data, for each grid point indicating the physical quantity of the above three-dimensional space And a virtual line segment on the x, y, and z axes having a constant length centered on the grid point is at a constant angle on each of three planes including the center point perpendicular to the x, y, and z coordinate axes. Consider a search point sequence consisting of a plurality of search line segments that are rotated one by one and a plurality of auxiliary points that are respectively located on behalf of the plurality of search line segments, and in each of the above search line segments, a search that represents this search line segment Pixel at point A data value is calculated as a data value at a search point by performing interpolation processing from each of the three-dimensional pixel data, and all the search points representing this data value are integrated to obtain a pixel data value of the search line segment. And the pixel data values accumulated for each of the plurality of search line segments at each lattice point from the feature amount accumulating means are compared, and if the comparison result is larger than a predetermined threshold value, the pixel having the larger value is selected. Comparing means for selecting a plurality of data values and their line segments, pixel data values exceeding the threshold value at each grid point from the comparing means, and corresponding grid points for processing results indicating line segments exceeding the threshold value. In the image processing apparatus, an image output unit is provided, which stores the new pixel information in 1) and outputs an image based on the information after all the grid point information is obtained. That.
【0006】本発明は上記の構成によって、超音波診断
等で得られた十分でない画像から近傍の情報によりスペ
ックルノイズの除去および欠けている必要な情報の補間
を行なうことが可能となる。With the above arrangement, the present invention makes it possible to remove speckle noise and interpolate necessary missing information from nearby information from insufficient images obtained by ultrasonic diagnosis or the like.
【0007】[0007]
(実施の形態1)図1は、本発明における第1の実施の
形態の画像処理装置を示す。(Embodiment 1) FIG. 1 shows an image processing apparatus according to a first embodiment of the present invention.
【0008】以下にこの装置の動作を説明する。この説
明では、入力される3次元画素データ50は、x,y,
z軸それぞれの方向にxmax,ymax,zmaxの
格子点で構成されるとして説明する。The operation of this device will be described below. In this description, the input three-dimensional pixel data 50 is x, y,
The description will be made assuming that it is composed of grid points of xmax, ymax, and zmax in the respective directions of the z axis.
【0009】まず、代表的な処理する格子点として中心
画素の座標をx=3,y=3,z=3とする。First, the coordinates of the central pixel as a typical grid point to be processed are set to x = 3, y = 3, and z = 3.
【0010】この画像処理装置では、3次元画素データ
50を入力として、それぞれの格子点の画素データを処
理する場合、その格子点を中心とし、この中心を含むそ
れぞれx−y平面、y−z平面およびz−x平面の近傍
5x5画素の点を特徴量積算手段52に送る。よって、
x=3,y=3,z=3では、以下のデータが送られ
る。In this image processing apparatus, when the three-dimensional pixel data 50 is input and the pixel data of each grid point is processed, the grid point is set to the center and the xy plane and yz including the center are respectively processed. The points of 5 × 5 pixels near the plane and the z−x plane are sent to the feature amount integrating means 52. Therefore,
At x = 3, y = 3, z = 3, the following data is sent.
【0011】x=3,y=1−5,z=1,5の画素デ
ータ x=1−5,y=3,z=1−5の画素データ x=1−5,y=1−5,z=3の画素データ 特徴量積算手段52では、それぞれの平面における図2
(a)に示すように送られてきた中心画素102のまわ
りの近傍5x5において、図2(b)に示すようなそれ
ぞれのx−y平面,y−z平面,z−x平面に対して4
種類、つまり3平面分の合計12種類の探索線分に対し
て、代表する探索点の積算を行ない平均値を求めるフィ
ルタ処理をおこない、その12種類の探索線分に対する
結果を比較手段54に送る。つまり、図2(b)におい
て、それぞれの探索線分を代表するx−y平面の探索点
f33の画素はx−y平面上(z=3)の中心位置のx
=3,y=3画素であり、同平面の探索点f13は、x
=1,y=3というような関係を示し、これらの探索点
を積算していくことにより、それぞれの探索線分の画素
データ値が求められる。Pixel data of x = 3, y = 1-5, z = 1, 5 Pixel data of x = 1-5, y = 3, z = 1-5 x = 1-5, y = 1-5 , Z = 3 pixel data In the feature amount integration means 52, the
In the neighborhood 5x5 around the central pixel 102 sent as shown in (a), 4 for each xy plane, yz plane, and zx plane as shown in FIG. 2 (b).
With respect to the types, that is, 12 types of search line segments in total for 3 planes, the filtering process for calculating the average value is performed for the representative search points, and the results for the 12 types of search line segments are sent to the comparison means 54. . That is, in FIG. 2B, the pixel at the search point f33 on the xy plane that represents each search line segment is located at the center position x on the xy plane (z = 3).
= 3, y = 3 pixels, and the search point f13 on the same plane is x
= 1 and y = 3, and the pixel data value of each search line segment is obtained by accumulating these search points.
【0012】比較手段54では、送られてきた12種類
の探索線分の結果に対して比較を行ない、あらかじめ決
めておいたしきい値より値が大きい順番に、この中から
その値とその方向を決定しその結果を3次元画像出力手
段56に送る。また、もしもしきい値よりも12種類の
結果が小さければ、輝度の最小値つまり0としてデータ
が存在しないこととし、その情報を3次元画像出力手段
56に送る。The comparison means 54 compares the sent results of the 12 types of search line segments, and in the order of larger value than a predetermined threshold value, the value and the direction thereof are selected. The determination result is sent to the three-dimensional image output means 56. If 12 kinds of results are smaller than the threshold value, it is determined that there is no data as the minimum value of brightness, that is, 0, and the information is sent to the three-dimensional image output means 56.
【0013】3次元画像出力手段56では、送られてき
た探索線分の結果の中から最大の値を中心画素値とし、
さらに大きい順番から最大の線分の方向と2番目の線分
の方向からその中心画素が持つ方向成分として、対応す
る格子点(この場合は、x=3,y=3,z=3)の処
理結果としてこれらの情報を格納する。In the three-dimensional image output means 56, the maximum value of the sent search line segment results is set as the central pixel value,
From the direction of the largest line segment and the direction of the second line segment from the larger order, as the direction component of the central pixel, the corresponding grid point (in this case, x = 3, y = 3, z = 3) These pieces of information are stored as the processing result.
【0014】以上までの処理は、中心画素がx=3,y
=3,z=3について行なったが、x,y,zを一つず
つ更新していくことによって、すべての格子点の画素デ
ータを処理することになる。簡単に式で説明を行なう
と、以下のようになる。 for(z=3;k<zmax−2;++) { for(y=3;k<ymax−2;y++) { for(x=3;k<xmax−2;x++) { Filter(x,y,z); −> 今まで説明を行なった近傍処理 } } } このような操作を繰り返していくと、ほぼすべての3次
元画素データを処理することができる。そして、3次元
画像出力手段56では、すべての結果を得た後に画像出
力を行なう。また、ここに示した式は計算領域の周辺部
については行なっていないが、これらについては周辺部
にはあまり重要な情報がない場合が多いため入力された
画像をそのまま使うことで対処が可能である。In the above processing, the central pixel is x = 3, y
= 3, z = 3, but by updating x, y, and z one by one, pixel data of all grid points will be processed. The following is a simple explanation of the formula. for (z = 3; k <zmax-2; ++) {for (y = 3; k <ymax-2; y ++) {for (x = 3; k <xmax-2; x ++) {Filter (x, y , Z);-> neighborhood processing described so far}}}} By repeating such an operation, almost all three-dimensional pixel data can be processed. Then, the three-dimensional image output means 56 outputs an image after obtaining all the results. In addition, although the formulas shown here are not applied to the peripheral part of the calculation area, since there is often not much important information in the peripheral part, it is possible to deal with it by using the input image as it is. is there.
【0015】よって、入力された3次元画像データに対
して以上までに述べた処理を行なうと、中心画素周辺情
報から平均値を求めスペックルノイズのように近傍と関
係なく現れる画素データに関してはしきい値を設けノイ
ズ情報を除去し、さらに、近傍にデータありその中心画
素自体はデータが消えている場合には補間が行なえるこ
とが可能となる。Therefore, when the above-described processing is performed on the input three-dimensional image data, an average value is obtained from the central pixel peripheral information, and pixel data that appears regardless of the neighborhood such as speckle noise is detected. It becomes possible to set the threshold value to remove the noise information, and to perform interpolation when there is data in the vicinity and the central pixel itself has no data.
【0016】なお、今回のフィルタには説明の簡単化の
ために探索線分を代表する探索点を格子点における画素
データそのものを使用して平均をとったが、図3に示す
ごとく、画素の中心140からの距離142、144を
正確に考慮し、そこから細分化された格子点における画
素データ(サブピクセル化)146を考慮することによ
り、同様のことができると思われる。図6における、1
50の直線は図2(b)におけるフィルタ3の処理に対
応し、142、144と直線150の各々の交点15
2、154、156、158を含む4×4のサブピクセ
ル160、162、166、168は画素f51,f4
2,f24,f15と対応し、画素の中心を含むサブピ
クセル4×4はf33と対応する。これを行なえば、図
4のごとく方向について計算処理の程度を考えて細かく
設定することが可能である。In the present filter, for simplification of description, search points representing search line segments are averaged using the pixel data themselves at the grid points, but as shown in FIG. It seems that the same can be done by accurately considering the distances 142, 144 from the center 140, and by considering the pixel data (subpixelization) 146 at the grid points subdivided therefrom. 1 in FIG.
The straight line 50 corresponds to the processing of the filter 3 in FIG.
4 × 4 sub-pixels 160, 162, 166, 168 including 2, 154, 156, 158 are pixels f51, f4.
2, f24, f15, and the sub-pixel 4 × 4 including the center of the pixel corresponds to f33. If this is done, it is possible to finely set the direction in consideration of the degree of calculation processing as shown in FIG.
【0017】(実施の形態2)図1は、本発明における
第2の実施の形態の画像処理装置を示す。この説明で
は、第1の実施の形態と同様に入力される3次元画素デ
ータ50は、x,y,z軸それぞれの方向にxmax,
ymax,zmaxの格子点で構成されるとして説明す
る。(Second Embodiment) FIG. 1 shows an image processing apparatus according to a second embodiment of the present invention. In this description, the three-dimensional pixel data 50 input in the same manner as in the first embodiment has xmax, y, and z axes in the respective directions.
The description will be made assuming that it is composed of lattice points of ymax and zmax.
【0018】以下にこの装置の動作を説明する。まず、
代表的な処理する格子点として中心画素の座標をx=
3,y=3,z=3とする。The operation of this device will be described below. First,
The coordinate of the central pixel is x =
3, y = 3, z = 3.
【0019】この画像処理装置では、3次元画素データ
50を入力として、処理する画素の点を中心とし、この
中心を含むそれぞれx−y平面、y−z平面およびz−
x平面の近傍5x5画素の点を特徴量積算手段52に送
る。よって、x=3,y=3,z=3とした場合、以下
の点が送られる。In this image processing device, the three-dimensional pixel data 50 is input, the point of the pixel to be processed is the center, and the xy plane, the yz plane, and the z- plane including the center are respectively included.
The point of 5 × 5 pixels in the vicinity of the x-plane is sent to the feature amount integrating means 52. Therefore, when x = 3, y = 3, and z = 3, the following points are sent.
【0020】x=1−5,y=1−5,z=1,5の画
素データ 特徴量積算手段52では、図2(a)と同様な近傍5x
5の画素における探索円弧に並ぶ画素の平均をとり、図
7(a)に示すようなそれぞれのx−y平面,y−z平
面,z−x平面に対して8種類、つまり3平面分の合計
24種類の探索円弧に対して、代表する探索点を積算し
平均値を求めるフィルタ処理を行ない、その24種類の
結果を比較手段54に送る。このとき、この24種類の
フィルタは、図7(b)に示すように7.5画素分の半
径を持つ円の曲率とほぼ同じである。Pixel data of x = 1-5, y = 1-5, z = 1, 5 In the feature quantity integrating means 52, the neighborhood 5x similar to that shown in FIG.
The average of the pixels arranged in the search arc among the 5 pixels is calculated, and 8 types, that is, 3 planes, for each of the xy plane, the yz plane, and the zx plane as shown in FIG. 7A. A total of 24 types of search arcs are subjected to a filtering process for obtaining representative values by integrating representative search points, and the 24 types of results are sent to the comparison means 54. At this time, the 24 types of filters have almost the same curvature as a circle having a radius of 7.5 pixels as shown in FIG. 7B.
【0021】比較手段54では、送られたきた24種類
の探索円弧に対して比較を行ない、この中から最大値と
その方向を決定しその結果を3次元画像出力手段56に
送る。The comparison means 54 compares the sent 24 types of search arcs, determines the maximum value and the direction thereof, and sends the result to the three-dimensional image output means 56.
【0022】3次元画像出力手段56では、送られてき
た探索円弧結果の中から最大の値を中心画素値とし、さ
らに大きい順番から最大の円弧と2番目の円弧の方向か
らその中心画素が持つ方向成分として、対応する格子点
(この場合は、x=3,y=3,z=3)の処理結果と
してこれらの情報を格納する。In the three-dimensional image output means 56, the maximum value is set as the central pixel value from the sent search circular arc results, and the central pixel has the maximum circular arc from the larger order and the central pixel from the direction of the second circular arc. As the direction component, these pieces of information are stored as the processing results of the corresponding grid points (x = 3, y = 3, z = 3 in this case).
【0023】以上までの処理は、中心画素がx=3,y
=3,z=3について行なったが、x,y,zを一つず
つ更新していくことによって、すべての格子点の画素デ
ータを処理することになる。簡単に式で説明を行なう
と、以下のようになる。 for(z=3;k<zmax−2;z++) { for(y=3;k<ymax−2;y++) { for(x=3;k<xmax−2;x++) { Filter(x,y,z); −> 今まで説明を行なった近傍処理 } } } このような操作を繰り返していくと、ほぼすべての3次
元画素データを処理することができる。そして、3次元
画像出力手段56では、すべての結果を得た後に画像出
力を行なう。また、ここに示した式は計算領域の周辺部
については行なっていないが、これらについては周辺部
にはあまり重要な情報がない場合が多いため入力された
画像をそのまま使うことで対処が可能である。In the above processing, the central pixel is x = 3, y
= 3, z = 3, but by updating x, y, and z one by one, pixel data of all grid points will be processed. The following is a simple explanation of the formula. for (z = 3; k <zmax-2; z ++) {for (y = 3; k <ymax-2; y ++) {for (x = 3; k <xmax-2; x ++) {Filter (x, y , Z);-> neighborhood processing described so far}}}} By repeating such an operation, almost all three-dimensional pixel data can be processed. Then, the three-dimensional image output means 56 outputs an image after obtaining all the results. Also, although the formulas shown here are not applied to the peripheral part of the calculation area, in many cases there is not much important information in the peripheral part, so it is possible to deal with it by using the input image as it is. is there.
【0024】よって、入力された3次元画像データに対
して以上までに述べた処理を行なうと、中心画素周辺情
報から平均値を求めスペックルノイズのように近傍と関
係なく現れる画素データに関してはしきい値を設けノイ
ズ情報を除去し、さらに、近傍にデータありその中心画
素自体はデータが消えている場合には補間が行なえるこ
とが可能となる。Therefore, when the above-described processing is performed on the input three-dimensional image data, an average value is obtained from the central pixel peripheral information, and pixel data that appears regardless of the neighborhood such as speckle noise is detected. It becomes possible to set the threshold value to remove the noise information, and to perform interpolation when there is data in the vicinity and the central pixel itself has no data.
【0025】なお、今回のフィルタには説明の簡単化の
ために探索円弧を代表する探索点を格子点における画素
データそのものを使用して平均をとったが格子点の画素
データの計算において細分化された格子点における画素
データ(サブピクセル)を考慮することにより、第1の
実施の形態と同様なことが行なえより細かな角度につい
て処理の程度を考え設定することが可能となる。In the present filter, for simplification of description, the search points representing the search arc are averaged by using the pixel data themselves at the grid points, but they are subdivided in the calculation of the pixel data at the grid points. By considering the pixel data (sub-pixels) at the selected grid points, the same processing as in the first embodiment can be performed, and it becomes possible to set the degree of processing for finer angles in consideration of the setting.
【0026】また、曲率に関しても何種類かあらかじめ
用意を行ない、用意した曲率をいくつか行なうことによ
り、よりフィットした曲率により画素を補間することが
可能になる。Also, by preparing some kinds of curvatures in advance and performing some of the prepared curvatures, it becomes possible to interpolate pixels with a more fitted curvature.
【0027】(実施の形態3)図1は、本発明における
第3の実施の形態の画像処理装置を示す。(Third Embodiment) FIG. 1 shows an image processing apparatus according to a third embodiment of the present invention.
【0028】以下にこの装置の動作を説明する。この説
明では、第1の実施の形態と同様に入力される3次元画
素データ50は、x,y,z軸それぞれの方向にxma
x,ymax,zmaxの格子点で構成されるとして説
明する。The operation of this device will be described below. In this description, the three-dimensional pixel data 50 input as in the first embodiment has xma in the directions of the x, y, and z axes.
The description will be given assuming that the grid points are x, ymax, and zmax.
【0029】まず、代表的な処理する格子点として中心
画素の座標をx=3,y=3,z=3とする。First, the coordinates of the central pixel as a typical grid point to be processed are set to x = 3, y = 3, and z = 3.
【0030】この画像処理装置では、3次元画素データ
50を入力として、処理する画素の点を中心とした近傍
5×5×5画素の点を特徴量積算手段52に送る。処理
が行なわれる近傍5×5×5は、図6に示すように座標
軸をx,y,zとした場合に、各々の1から5までの番
号付けが行なえ、これからの説明では各々の画素の位置
をf(x,y,z)で説明する。例えば、処理する中心
画素の座標をx=3,y=3,z=3とした場合、以下
の点が特徴量積算手段52に送られる。In this image processing device, the three-dimensional pixel data 50 is input, and points of 5 × 5 × 5 pixels in the vicinity centering on the point of the pixel to be processed are sent to the feature amount integrating means 52. The neighborhood 5 × 5 × 5 on which the processing is performed can be numbered from 1 to 5 when the coordinate axes are x, y and z as shown in FIG. The position will be described as f (x, y, z). For example, when the coordinates of the central pixel to be processed are x = 3, y = 3, and z = 3, the following points are sent to the feature amount integrating means 52.
【0031】f(x,y,z)の画素データx=1−
5,y=1−5,z=1,5 特徴量積算手段52では、図6に示すように送られてき
た5×5×5の中の中心画素f(3,3,3)102の
まわりの近傍5×5×5において、それぞれの軸方向に
対して仮想平面を45度ずつ回転させた図7から図15
に示すような9種類の探索平面に対して、代表する探索
点を積算し平均値を求めるフィルタ処理を行ない、その
9種類の探索平面フィルタに対する結果を比較手段54
に送る。Pixel data of f (x, y, z) x = 1-
5, y = 1-5, z = 1,5 In the feature amount integrating means 52, the central pixel f (3,3,3) 102 of 5 × 5 × 5 sent as shown in FIG. 7 to 15 in which the virtual plane is rotated by 45 degrees with respect to each axial direction in the vicinity 5 × 5 × 5.
Filter processing for accumulating representative search points and obtaining an average value is performed on nine types of search planes as shown in FIG.
Send to
【0032】比較手段54では、送られたきた9種類の
探索平面の結果に対して比較を行ない、9種類の結果の
中の最大値について、あらかじめ決められたしきい値よ
り値が大きいければ、画素データとその探索平面の方向
を決定しその結果を処理結果蓄積手段56に送る。ま
た、もしもしきい値よりも9種類の結果が小さければ、
輝度の最小値つまり0としてデータが存在しないことと
し、さらに該当する探索平面がないことを3次元画像出
力手段56に送る。The comparing means 54 compares the sent results of the nine types of search planes, and if the maximum value among the nine types of results is greater than a predetermined threshold value, , Pixel data and the direction of the search plane are determined, and the result is sent to the processing result storage means 56. Also, if the 9 results are smaller than the threshold,
It is determined that there is no data as the minimum value of luminance, that is, 0, and that there is no corresponding search plane is sent to the three-dimensional image output means 56.
【0033】3次元画像出力手段56では、比較手段か
ら送られてきた最大値をもとに中心画素の値とし、また
平面があればその情報からその中心画素が持っている方
向成分として、対応する格子点(この場合は、x=3,
y=3,z=3)の処理結果としてこれらの情報を格納
する。In the three-dimensional image output means 56, the value of the central pixel is set based on the maximum value sent from the comparing means, and if there is a plane, the information is used as the direction component of the central pixel. Grid points (in this case, x = 3
These pieces of information are stored as the processing result of y = 3, z = 3).
【0034】以上までの処理は、f(3,3,3)につ
いて行なったが、x,y,zを一つずつ更新していくこ
とによって、すべての格子点の画素データを処理するこ
とになる。簡単に式で説明を行なうと、以下のようにな
る。 for(z=3;k<zmax−2;z++) { for(y=3;k<ymax−2;y++) { for(x=3;k<xmax−2;x++) { Filter(x,y,z); −> 今まで説明を行なった近傍処理 } } } このような操作を繰り返していくと、ほぼすべての3次
元画素データを処理することができる。そして、3次元
画像出力手段56では、すべての結果を得た後に画像出
力を行なう。また、ここに示した式は計算領域の周辺部
については行なっていないが、これらについては周辺部
にはあまり重要な情報がない場合が多いため入力された
画像をそのまま使うことで対処が可能である。The processing up to this point is performed for f (3,3,3), but by updating x, y, z one by one, pixel data of all grid points can be processed. Become. The following is a simple explanation of the formula. for (z = 3; k <zmax-2; z ++) {for (y = 3; k <ymax-2; y ++) {for (x = 3; k <xmax-2; x ++) {Filter (x, y , Z);-> neighborhood processing described so far}}}} By repeating such an operation, almost all three-dimensional pixel data can be processed. Then, the three-dimensional image output means 56 outputs an image after obtaining all the results. In addition, although the formulas shown here are not applied to the peripheral part of the calculation area, since there is often not much important information in the peripheral part, it is possible to deal with it by using the input image as it is. is there.
【0035】よって、入力された3次元画像データに対
して以上までに述べた処理を行なうと、中心画素周辺情
報から平均値を求めスペックルノイズのように近傍と関
係なく現れる画素データに関してはしきい値を設けノイ
ズ情報を除去し、さらに、近傍にデータありその中心画
素自体はデータが消えている場合には補間が行なえるこ
とが可能となる。Therefore, when the above-described processing is performed on the input three-dimensional image data, an average value is obtained from the central pixel peripheral information, and pixel data that appears regardless of the neighborhood such as speckle noise is detected. It becomes possible to set the threshold value to remove the noise information, and to perform interpolation when there is data in the vicinity and the central pixel itself has no data.
【0036】なお、今回のフィルタには説明の簡略化の
ために探索平面を代表する探索点を格子点における画素
データそのものを使用して平均をとったが、図16に示
すごとく、中心画素140からの距離が1である同心円
142と距離が2である同心円144を正確に考慮し、
そこから細分化された格子点における画素データ(サブ
ピクセル化、各画素をフィルタに対して4×4×4化,
z=3)146を考慮することにより、同様のことがで
きる。図16は図7におけるフィルタ(2)の処理のz
=3の平面に対応し、例えば、152、154、15
6、158を含む4×4のサブピクセル160、16
2、166、168は画素f(5,1,3),f(4,
2,3),f(2,4,3),f(1,5,3)と対応
し、画素の中心を含むサブピクセル4×4はf(3,
3,3)と対応する。例えば、図12のような場合、f
(5,1,3)に対応する値は面積比を考慮して以下の
ように表せる。 (4*f(4,1,3)+4*f(5,1,3)+4*
f(4,2,3)+4*f(5,2,3))/16 これを行なえば、さらに回転させた角度について計算処
理の程度を考えて細かく設定することが可能である。For simplification of description, the filter used this time averages the search points representing the search plane using the pixel data themselves at the grid points, but as shown in FIG. Accurately consider a concentric circle 142 whose distance is 1 and a concentric circle 144 whose distance is 2,
Pixel data at subdivided grid points (sub-pixelization, each pixel is 4x4x4 for the filter,
The same can be done by considering z = 3) 146. FIG. 16 shows z of the processing of the filter (2) in FIG.
= 3, for example, 152, 154, 15
4 × 4 sub-pixels 160, 16 including 6, 158
2, 166, 168 are pixels f (5, 1, 3), f (4,
Subpixel 4 × 4 corresponding to (2,3), f (2,4,3), f (1,5,3) and including the center of the pixel is f (3,3).
3, 3). For example, in the case of FIG. 12, f
The value corresponding to (5, 1, 3) can be expressed as follows in consideration of the area ratio. (4 * f (4,1,3) + 4 * f (5,1,3) + 4 *
f (4,2,3) + 4 * f (5,2,3)) / 16 By doing this, it is possible to finely set the further rotated angle in consideration of the degree of calculation processing.
【0037】(実施の形態4)図1は、本発明における
第2の実施の形態の画像処理装置を示す。(Fourth Embodiment) FIG. 1 shows an image processing apparatus according to a second embodiment of the present invention.
【0038】以下にこの装置の動作を説明する。この説
明では、第1の実施の形態と同様に入力される3次元画
素データ50は、x,y,z軸それぞれの方向にxma
x,ymax,zmaxの格子点で構成されるとして説
明する。The operation of this device will be described below. In this description, the three-dimensional pixel data 50 input as in the first embodiment has xma in the directions of the x, y, and z axes.
The description will be given assuming that the grid points are x, ymax, and zmax.
【0039】まず、代表的な処理する格子点として中心
画素の座標をx=3,y=3,z=3とする。First, the coordinates of the central pixel as a typical grid point to be processed are set to x = 3, y = 3, and z = 3.
【0040】この画像処理装置では、3次元画素データ
50を入力として、処理する画素の点を中心とした近傍
5×5×5画素の点を特徴量積算手段52に送る。この
近傍5×5×5は、実施の形態1と同様に図6に示すよ
うに座標軸をx,y,zとした場合に、各々の1から5
までの番号付けが行なえ、これからの説明では各々の画
素の位置をf(x,y,z)で説明する。よって、例え
ば、処理する中心画素の座標をx=3,y=3,z=3
とした場合、以下の点が特徴量積算手段52に送られ
る。In this image processing apparatus, the three-dimensional pixel data 50 is input, and points in the neighborhood of 5 × 5 × 5 pixels centered on the point of the pixel to be processed are sent to the feature amount integrating means 52. Similar to the first embodiment, the neighborhood 5 × 5 × 5 is 1 to 5 when the coordinate axes are x, y, and z as shown in FIG.
Can be numbered up to, and in the following description, the position of each pixel will be described as f (x, y, z). Therefore, for example, the coordinates of the central pixel to be processed are x = 3, y = 3, z = 3.
In that case, the following points are sent to the feature amount integrating means 52.
【0041】f(x,y,z)の画素データx=1−
5,y=1−5,z=1,5 今回の実施の形態の探索曲面のフィルタでは、図17に
示す中心画素から半径7.5画素の距離を持つ球面に対
応する曲面とする。図17では、5×5×5でのZ=3
の場所での位置を示しているが、これを立体的に示した
ものの代表的なものが図18、図19、図20である。Pixel data of f (x, y, z) x = 1-
5, y = 1-5, z = 1, 5 In the filter of the search curved surface of the present embodiment, the curved surface corresponding to a spherical surface having a radius of 7.5 pixels from the central pixel shown in FIG. In FIG. 17, Z = 3 in 5 × 5 × 5
18 shows the position at the place, but representative ones of the three-dimensionally shown positions are FIG. 18, FIG. 19, and FIG.
【0042】図18、図19、図20に示したフィルタ
を各々各軸方向に45度ずつ回転させたものを用意し
た。よって、以下に示す合計24種類の探索曲面に対す
るフィルタ処理が必要である。The filters shown in FIGS. 18, 19, and 20 were each rotated by 45 degrees in each axial direction. Therefore, it is necessary to perform filter processing on a total of 24 types of search curved surfaces shown below.
【0043】探索曲面のフィルタ(1)は図18に対応
し、以下探索曲面のフィルタ(2)−(7)はz軸に対
して各々45度ずつ回転させたものである。ここで、各
式に現れる項が、各探索曲面を代表する探索点に該当す
る。 F1 = ( f(1,1,1) + f(2,2,1) + f(2,3,1) + f(3,4,1)+
f(3,5,1)+ f(1,1,2) + f(2,2,2) + f(3,3,2) + f(3,4,
2)+ f(3,5,2)+ f(1,1,3) + f(2,2,3) + f(3,3,3) + f
(3,4,3)+ f(3,5,3)+ f(1,1,4) + f(2,2,4) + f(3,3,4)
+ f(3,4,4)+ f(3,5,4)+ f(1,1,5) + f(2,2,5) + f(2,3,
5) + f(3,4,5)+ f(3,5,5))/25 F2 = ( f(3,1,1) + f(3,2,1) + f(2,3,1) + f(2,4,1)+
f(1,5,1)+ f(3,1,2) + f(3,2,2) + f(3,3,2) + f(2,4,
2)+ f(1,5,2)+ f(3,1,3) + f(3,2,3) + f(3,3,3) + f
(2,4,3)+ f(1,5,3)+ f(3,1,4) + f(3,2,4) + f(3,3,4)
+ f(2,4,4)+ f(1,5,4)+ f(3,1,5) + f(3,2,5) + f(2,3,
5) + f(2,4,5)+ f(1,5,5))/25 F3 = ( f(1,3,1) + f(2,2,1) + f(3,2,1) + f(4,2,1)+
f(5,1,1)+ f(1,3,2) + f(2,2,2) + f(3,3,2) + f(4,2,
2)+ f(5,1,2)+ f(1,3,3) + f(2,2,3) + f(3,3,3) + f
(4,2,3)+ f(5,1,3)+ f(1,3,4) + f(2,2,4) + f(3,3,4)
+ f(4,2,4)+ f(5,1,4)+ f(1,3,5) + f(2,2,5) + f(3,2,
5) + f(4,2,5)+ f(5,1,5))/25 F4 = ( f(1,1,1) + f(2,2,1) + f(3,2,1) + f(4,3,1)+
f(5,3,1)+ f(1,1,2) + f(2,2,2) + f(3,3,2) + f(4,3,
2)+ f(5,3,2)+ f(1,1,3) + f(2,2,3) + f(3,3,3) + f
(4,3,3)+ f(5,3,3)+ f(1,1,4) + f(2,2,4) + f(3,3,4)
+ f(4,3,4)+ f(5,3,4)+ f(1,1,5) + f(2,2,5) + f(3,2,
5) + f(4,3,5)+ f(5,3,5))/25 F5 = ( f(3,1,1) + f(3,2,1) + f(4,3,1) + f(4,4,1)+
f(5,5,1)+ f(3,1,2) + f(3,2,2) + f(3,3,2) + f(4,4,
2)+ f(5,5,2)+ f(3,1,3) + f(3,2,3) + f(3,3,3) + f
(4,4,3)+ f(5,5,3)+ f(3,1,4) + f(3,2,4) + f(3,3,4)
+ f(4,4,4)+ f(5,5,4)+ f(3,1,5) + f(3,2,5) + f(4,3,
5) + f(4,4,5)+ f(5,5,5))/25 F6 = ( f(5,1,1) + f(4,2,1) + f(4,3,1) + f(3,4,1)+
f(3,5,1)+ f(5,1,2) + f(4,2,2) + f(3,3,2) + f(3,4,
2)+ f(3,5,2)+ f(5,1,3) + f(4,2,3) + f(3,3,3) + f
(3,4,3)+ f(3,5,3)+ f(5,1,4) + f(4,2,4) + f(3,3,4)
+ f(3,4,4)+ f(3,5,4)+ f(5,1,5) + f(4,2,5) + f(4,3,
5) + f(3,4,5)+ f(3,5,5))/25 F7 = ( f(5,3,1) + f(5,2,1) + f(3,4,1) + f(2,4,1)+
f(1,5,1)+ f(5,3,2) + f(5,2,2) + f(3,3,2) + f(2,4,
2)+ f(1,5,2)+ f(5,3,3) + f(5,2,3) + f(3,3,3) + f
(2,4,3)+ f(1,5,3)+ f(5,3,4) + f(5,2,4) + f(3,3,4)
+ f(2,4,4)+ f(1,5,4)+ f(5,3,5) + f(5,2,5) + f(3,4,
5) + f(2,4,5)+ f(1,5,5))/25 F7 = ( f(5,1,1) + f(4,2,1) + f(3,4,1) + f(2,3,1)+
f(1,3,1)+ f(5,1,2) + f(4,2,2) + f(3,3,2) + f(2,3,
2)+ f(1,3,2)+ f(5,1,3) + f(4,2,3) + f(3,3,3) + f
(2,3,3)+ f(1,3,3)+ f(5,1,4) + f(4,2,4) + f(3,3,4)
+ f(2,3,4)+ f(1,3,4)+ f(5,1,5) + f(4,2,5) + f(3,4,
5) + f(2,3,5)+ f(1,3,5))/25 F8 = ( f(1,1,1) + f(1,2,1) + f(1,2,3) + f(1,3,4)+
f(1,3,5)+ f(2,1,1) + f(2,2,2) + f(2,3,3) + f(2,3,
4)+ f(2,3,5)+ f(3,1,1) + f(3,2,3) + f(3,3,3) + f
(3,3,4)+ f(3,3,5)+ f(4,1,1) + f(4,2,4) + f(4,3,3)
+ f(4,3,4)+ f(4,3,5)+ f(5,1,1) + f(5,2,5) + f(5,2,
3) + f(5,3,4)+ f(5,3,5))/25 探索曲面のフィルタ(9)は図19に対応し、以下探索
曲面のフィルタ(10)−(16)はz軸に対して各々
45度ずつ回転させたものである。 F9 = ( f(1,1,1) + f(1,2,2) + f(1,2,3) + f(1,3,4)+
f(1,3,5)+ f(2,1,1) + f(2,2,2) + f(2,3,3) + f(2,3,
4)+ f(2,3,5)+ f(3,1,1) + f(3,2,2) + f(3,3,3) + f
(3,3,4)+ f(3,3,5)+ f(4,1,1) + f(4,2,2) + f(4,3,3)
+ f(4,3,4)+ f(4,3,5)+ f(5,1,1) + f(5,2,2) + f(5,2,
3) + f(5,3,4)+ f(5,3,5))/25 F10= ( f(1,1,5) + f(1,2,4) + f(1,2,3) + f(1,3,2)+
f(1,3,1)+ f(2,1,5) + f(2,2,4) + f(2,3,3) + f(2,3,
2)+ f(2,3,1)+ f(3,1,5) + f(3,2,4) + f(3,3,3) + f
(3,3,2)+ f(3,3,1)+ f(4,1,5) + f(4,2,4) + f(4,3,3)
+ f(4,3,2)+ f(4,3,1)+ f(5,1,5) + f(5,2,4) + f(5,2,
3) + f(5,3,2)+ f(5,3,1))/25 F11= ( f(1,1,3) + f(1,2,3) + f(1,3,2) + f(1,4,2)+
f(1,5,1)+ f(2,1,3) + f(2,2,3) + f(2,3,3) + f(2,4,
2)+ f(2,5,1)+ f(3,1,3) + f(3,2,3) + f(3,3,3) + f
(3,4,2)+ f(3,5,1)+ f(4,1,3) + f(4,2,3) + f(4,3,3)
+ f(4,4,2)+ f(4,5,1)+ f(5,1,3) + f(5,2,3) + f(5,3,
2) + f(5,4,2)+ f(5,5,1))/25 F12= ( f(1,1,1) + f(1,2,2) + f(1,3,2) + f(1,4,3)+
f(1,5,3)+ f(2,1,1) + f(2,2,2) + f(2,3,3) + f(2,4,
3)+ f(2,5,3)+ f(3,1,1) + f(3,2,2) + f(3,3,3) + f
(3,4,3)+ f(3,5,3)+ f(4,1,1) + f(4,2,2) + f(4,3,3)
+ f(4,4,3)+ f(4,5,3)+ f(5,1,1) + f(5,2,2) + f(5,3,
2) + f(5,4,3)+ f(5,5,3))/25 F13= ( f(1,3,1) + f(1,3,2) + f(1,4,3) + f(1,4,4)+
f(1,5,5)+ f(2,3,1) + f(2,3,2) + f(2,3,3) + f(2,4,
4)+ f(2,5,5)+ f(3,3,1) + f(3,3,2) + f(3,3,3) + f
(3,4,4)+ f(3,5,5)+ f(4,3,1) + f(4,3,2) + f(4,3,3)
+ f(4,4,4)+ f(4,5,5)+ f(5,3,1) + f(5,3,2) + f(5,4,
3) + f(5,4,4)+ f(5,5,5))/25 F14= ( f(1,5,1) + f(1,4,2) + f(1,4,3) + f(1,3,4)+
f(1,3,5)+ f(2,5,1) + f(2,4,2) + f(2,3,3) + f(2,3,
4)+ f(2,3,5)+ f(3,5,1) + f(3,4,2) + f(3,3,3) + f
(3,3,4)+ f(3,3,5)+ f(4,5,1) + f(4,4,2) + f(4,3,3)
+ f(4,3,4)+ f(4,3,5)+ f(5,5,1) + f(5,4,2) + f(5,4,
3) + f(5,3,4)+ f(5,3,5))/25 F15= ( f(1,5,3) + f(1,4,3) + f(1,3,4) + f(1,2,4)+
f(1,1,5)+ f(2,5,3) + f(2,4,3) + f(2,3,3) + f(2,2,
4)+ f(2,1,5)+ f(3,5,3) + f(3,4,3) + f(3,3,3) + f
(3,2,4)+ f(3,1,5)+ f(4,5,3) + f(4,4,3) + f(4,3,3)
+ f(4,2,4)+ f(4,1,5)+ f(5,5,3) + f(5,4,3) + f(5,3,
4) + f(5,2,4)+ f(5,1,5))/25 F16= ( f(1,5,5) + f(1,4,4) + f(1,3,4) + f(1,2,3)+
f(1,1,3)+ f(2,5,5) + f(2,4,4) + f(2,3,3) + f(2,2,
3)+ f(2,1,3)+ f(3,5,5) + f(3,4,4) + f(3,3,3) + f
(3,2,3)+ f(3,1,3)+ f(4,5,5) + f(4,4,4) + f(4,3,3)
+ f(4,2,3)+ f(4,1,3)+ f(5,5,5) + f(5,4,4) + f(5,3,
4) + f(5,2,3)+ f(5,1,3))/25 探索曲面のフィルタ(17)は図20に対応し、以下探
索曲面に対するフィルタ(18)−(24)はz軸に対
して各々45度ずつ回転させたものである。 F17= ( f(1,1,1) + f(2,1,2) + f(2,1,3) + f(3,1,4)+
f(3,1,5)+ f(1,2,1) + f(2,2,2) + f(3,2,3) + f(3,2,
4)+ f(3,2,5)+ f(1,3,1) + f(2,3,2) + f(3,3,3) + f
(3,3,4)+ f(3,3,5)+ f(1,4,1) + f(2,4,2) + f(3,4,3)
+ f(3,4,4)+ f(3,4,5)+ f(1,5,1) + f(2,5,2) + f(2,5,
3) + f(3,5,4)+ f(3,5,5))/25 F18= ( f(1,1,5) + f(2,1,4) + f(2,1,3) + f(3,1,2)+
f(3,1,1)+ f(1,2,5) + f(2,2,4) + f(3,2,3) + f(3,2,
2)+ f(3,2,1)+ f(1,3,5) + f(2,3,4) + f(3,3,3) + f
(3,3,2)+ f(3,3,1)+ f(1,4,5) + f(2,4,4) + f(3,4,3)
+ f(3,4,2)+ f(3,4,1)+ f(1,5,5) + f(2,5,4) + f(2,5,
3) + f(3,5,2)+ f(3,5,1))/25 F19= ( f(1,1,3) + f(2,1,3) + f(3,1,2) + f(4,1,2)+
f(5,1,1)+ f(1,2,3) + f(2,2,3) + f(3,2,3) + f(4,2,
2)+ f(5,2,1)+ f(1,3,3) + f(2,3,3) + f(3,3,3) + f
(4,3,2)+ f(5,3,1)+ f(1,4,3) + f(2,4,3) + f(3,4,3)
+ f(4,4,2)+ f(5,4,1)+ f(1,5,3) + f(2,5,3) + f(3,5,
2) + f(4,5,2)+ f(5,5,1))/25 F20= ( f(1,1,1) + f(2,1,2) + f(3,1,2) + f(4,1,3)+
f(5,1,3)+ f(1,2,1) + f(2,2,2) + f(3,2,3) + f(4,2,
3)+ f(5,2,3)+ f(1,3,1) + f(2,3,2) + f(3,3,3) + f
(4,3,3)+ f(5,3,3)+ f(1,4,1) + f(2,4,2) + f(3,4,3)
+ f(4,4,3)+ f(5,4,3)+ f(1,5,1) + f(2,5,2) + f(3,5,
2) + f(4,5,3)+ f(5,5,3))/25 F21= ( f(3,1,1) + f(3,1,2) + f(4,1,3) + f(4,1,4)+
f(5,1,5)+ f(3,2,1) + f(3,2,2) + f(3,2,3) + f(4,2,
4)+ f(5,2,5)+ f(3,3,1) + f(3,3,2) + f(3,3,3) + f
(4,3,4)+ f(5,3,5)+ f(3,4,1) + f(3,4,2) + f(3,4,3)
+ f(4,4,4)+ f(5,4,5)+ f(3,5,1) + f(3,5,2) + f(4,5,
3) + f(4,5,4)+ f(5,5,5))/25 F22= ( f(5,1,1) + f(4,1,2) + f(4,1,3) + f(3,1,4)+
f(3,1,5)+ f(5,2,1) + f(4,2,2) + f(3,2,3) + f(3,2,
4)+ f(3,2,5)+ f(5,3,1) + f(4,3,2) + f(3,3,3) + f
(3,3,4)+ f(3,3,5)+ f(5,4,1) + f(4,4,2) + f(3,4,3)
+ f(3,4,4)+ f(3,4,5)+ f(5,5,1) + f(4,5,2) + f(4,5,
3) + f(3,5,4)+ f(3,5,5))/25 F23= ( f(5,1,3) + f(4,1,3) + f(3,1,4) + f(2,1,4)+
f(1,1,5)+ f(5,2,3) + f(4,2,3) + f(3,2,3) + f(2,2,
4)+ f(1,2,5)+ f(5,3,3) + f(4,3,3) + f(3,3,3) + f
(2,3,4)+ f(1,3,5)+ f(5,4,3) + f(4,4,3) + f(3,4,3)
+ f(2,4,4)+ f(1,4,5)+ f(5,5,3) + f(4,5,3) + f(3,5,
4) + f(2,5,4)+ f(1,5,5))/25 F24= ( f(5,1,5) + f(4,1,4) + f(3,1,4) + f(2,1,3)+
f(1,1,3)+ f(5,2,5) + f(4,2,4) + f(3,2,3) + f(2,2,
3)+ f(1,2,3)+ f(5,3,5) + f(4,3,4) + f(3,3,3) + f
(2,3,3)+ f(1,3,3)+ f(5,4,5) + f(4,4,4) + f(3,4,3)
+ f(2,4,3)+ f(1,4,3)+ f(5,5,5) + f(4,5,4) + f(3,5,
4) + f(2,5,3)+ f(1,5,3))/25 特徴量積算手段52では、図6と同様な近傍5×5×5
の画素における曲面状に並ぶ画素の平均をとり、以上ま
でに示した24種類の探索曲面に対して、代表する探索
点を積算し平均値を求めるフィルタ処理を行ない、その
24種類の結果を比較手段54に送る。The search curved surface filter (1) corresponds to FIG. 18, and the search curved surface filters (2) to (7) are each rotated by 45 degrees with respect to the z axis. Here, the term appearing in each equation corresponds to a search point that represents each search curved surface. F1 = (f (1,1,1) + f (2,2,1) + f (2,3,1) + f (3,4,1) +
f (3,5,1) + f (1,1,2) + f (2,2,2) + f (3,3,2) + f (3,4,
2) + f (3,5,2) + f (1,1,3) + f (2,2,3) + f (3,3,3) + f
(3,4,3) + f (3,5,3) + f (1,1,4) + f (2,2,4) + f (3,3,4)
+ f (3,4,4) + f (3,5,4) + f (1,1,5) + f (2,2,5) + f (2,3,
5) + f (3,4,5) + f (3,5,5)) / 25 F2 = (f (3,1,1) + f (3,2,1) + f (2,3, 1) + f (2,4,1) +
f (1,5,1) + f (3,1,2) + f (3,2,2) + f (3,3,2) + f (2,4,
2) + f (1,5,2) + f (3,1,3) + f (3,2,3) + f (3,3,3) + f
(2,4,3) + f (1,5,3) + f (3,1,4) + f (3,2,4) + f (3,3,4)
+ f (2,4,4) + f (1,5,4) + f (3,1,5) + f (3,2,5) + f (2,3,
5) + f (2,4,5) + f (1,5,5)) / 25 F3 = (f (1,3,1) + f (2,2,1) + f (3,2, 1) + f (4,2,1) +
f (5,1,1) + f (1,3,2) + f (2,2,2) + f (3,3,2) + f (4,2,
2) + f (5,1,2) + f (1,3,3) + f (2,2,3) + f (3,3,3) + f
(4,2,3) + f (5,1,3) + f (1,3,4) + f (2,2,4) + f (3,3,4)
+ f (4,2,4) + f (5,1,4) + f (1,3,5) + f (2,2,5) + f (3,2,
5) + f (4,2,5) + f (5,1,5)) / 25 F4 = (f (1,1,1) + f (2,2,1) + f (3,2, 1) + f (4,3,1) +
f (5,3,1) + f (1,1,2) + f (2,2,2) + f (3,3,2) + f (4,3,
2) + f (5,3,2) + f (1,1,3) + f (2,2,3) + f (3,3,3) + f
(4,3,3) + f (5,3,3) + f (1,1,4) + f (2,2,4) + f (3,3,4)
+ f (4,3,4) + f (5,3,4) + f (1,1,5) + f (2,2,5) + f (3,2,
5) + f (4,3,5) + f (5,3,5)) / 25 F5 = (f (3,1,1) + f (3,2,1) + f (4,3, 1) + f (4,4,1) +
f (5,5,1) + f (3,1,2) + f (3,2,2) + f (3,3,2) + f (4,4,
2) + f (5,5,2) + f (3,1,3) + f (3,2,3) + f (3,3,3) + f
(4,4,3) + f (5,5,3) + f (3,1,4) + f (3,2,4) + f (3,3,4)
+ f (4,4,4) + f (5,5,4) + f (3,1,5) + f (3,2,5) + f (4,3,
5) + f (4,4,5) + f (5,5,5)) / 25 F6 = (f (5,1,1) + f (4,2,1) + f (4,3, 1) + f (3,4,1) +
f (3,5,1) + f (5,1,2) + f (4,2,2) + f (3,3,2) + f (3,4,
2) + f (3,5,2) + f (5,1,3) + f (4,2,3) + f (3,3,3) + f
(3,4,3) + f (3,5,3) + f (5,1,4) + f (4,2,4) + f (3,3,4)
+ f (3,4,4) + f (3,5,4) + f (5,1,5) + f (4,2,5) + f (4,3,
5) + f (3,4,5) + f (3,5,5)) / 25 F7 = (f (5,3,1) + f (5,2,1) + f (3,4, 1) + f (2,4,1) +
f (1,5,1) + f (5,3,2) + f (5,2,2) + f (3,3,2) + f (2,4,
2) + f (1,5,2) + f (5,3,3) + f (5,2,3) + f (3,3,3) + f
(2,4,3) + f (1,5,3) + f (5,3,4) + f (5,2,4) + f (3,3,4)
+ f (2,4,4) + f (1,5,4) + f (5,3,5) + f (5,2,5) + f (3,4,
5) + f (2,4,5) + f (1,5,5)) / 25 F7 = (f (5,1,1) + f (4,2,1) + f (3,4, 1) + f (2,3,1) +
f (1,3,1) + f (5,1,2) + f (4,2,2) + f (3,3,2) + f (2,3,
2) + f (1,3,2) + f (5,1,3) + f (4,2,3) + f (3,3,3) + f
(2,3,3) + f (1,3,3) + f (5,1,4) + f (4,2,4) + f (3,3,4)
+ f (2,3,4) + f (1,3,4) + f (5,1,5) + f (4,2,5) + f (3,4,
5) + f (2,3,5) + f (1,3,5)) / 25 F8 = (f (1,1,1) + f (1,2,1) + f (1,2, 3) + f (1,3,4) +
f (1,3,5) + f (2,1,1) + f (2,2,2) + f (2,3,3) + f (2,3,
4) + f (2,3,5) + f (3,1,1) + f (3,2,3) + f (3,3,3) + f
(3,3,4) + f (3,3,5) + f (4,1,1) + f (4,2,4) + f (4,3,3)
+ f (4,3,4) + f (4,3,5) + f (5,1,1) + f (5,2,5) + f (5,2,
3) + f (5,3,4) + f (5,3,5)) / 25 The search surface filter (9) corresponds to FIG. 19, and the search surface filters (10)-(16) are It is rotated by 45 degrees with respect to the z-axis. F9 = (f (1,1,1) + f (1,2,2) + f (1,2,3) + f (1,3,4) +
f (1,3,5) + f (2,1,1) + f (2,2,2) + f (2,3,3) + f (2,3,
4) + f (2,3,5) + f (3,1,1) + f (3,2,2) + f (3,3,3) + f
(3,3,4) + f (3,3,5) + f (4,1,1) + f (4,2,2) + f (4,3,3)
+ f (4,3,4) + f (4,3,5) + f (5,1,1) + f (5,2,2) + f (5,2,
3) + f (5,3,4) + f (5,3,5)) / 25 F10 = (f (1,1,5) + f (1,2,4) + f (1,2, 3) + f (1,3,2) +
f (1,3,1) + f (2,1,5) + f (2,2,4) + f (2,3,3) + f (2,3,
2) + f (2,3,1) + f (3,1,5) + f (3,2,4) + f (3,3,3) + f
(3,3,2) + f (3,3,1) + f (4,1,5) + f (4,2,4) + f (4,3,3)
+ f (4,3,2) + f (4,3,1) + f (5,1,5) + f (5,2,4) + f (5,2,
3) + f (5,3,2) + f (5,3,1)) / 25 F11 = (f (1,1,3) + f (1,2,3) + f (1,3, 2) + f (1,4,2) +
f (1,5,1) + f (2,1,3) + f (2,2,3) + f (2,3,3) + f (2,4,
2) + f (2,5,1) + f (3,1,3) + f (3,2,3) + f (3,3,3) + f
(3,4,2) + f (3,5,1) + f (4,1,3) + f (4,2,3) + f (4,3,3)
+ f (4,4,2) + f (4,5,1) + f (5,1,3) + f (5,2,3) + f (5,3,
2) + f (5,4,2) + f (5,5,1)) / 25 F12 = (f (1,1,1) + f (1,2,2) + f (1,3 ,, 2) + f (1,4,3) +
f (1,5,3) + f (2,1,1) + f (2,2,2) + f (2,3,3) + f (2,4,
3) + f (2,5,3) + f (3,1,1) + f (3,2,2) + f (3,3,3) + f
(3,4,3) + f (3,5,3) + f (4,1,1) + f (4,2,2) + f (4,3,3)
+ f (4,4,3) + f (4,5,3) + f (5,1,1) + f (5,2,2) + f (5,3,
2) + f (5,4,3) + f (5,5,3)) / 25 F13 = (f (1,3,1) + f (1,3,2) + f (1,4, 3) + f (1,4,4) +
f (1,5,5) + f (2,3,1) + f (2,3,2) + f (2,3,3) + f (2,4,
4) + f (2,5,5) + f (3,3,1) + f (3,3,2) + f (3,3,3) + f
(3,4,4) + f (3,5,5) + f (4,3,1) + f (4,3,2) + f (4,3,3)
+ f (4,4,4) + f (4,5,5) + f (5,3,1) + f (5,3,2) + f (5,4,
3) + f (5,4,4) + f (5,5,5)) / 25 F14 = (f (1,5,1) + f (1,4,2) + f (1,4, 3) + f (1,3,4) +
f (1,3,5) + f (2,5,1) + f (2,4,2) + f (2,3,3) + f (2,3,
4) + f (2,3,5) + f (3,5,1) + f (3,4,2) + f (3,3,3) + f
(3,3,4) + f (3,3,5) + f (4,5,1) + f (4,4,2) + f (4,3,3)
+ f (4,3,4) + f (4,3,5) + f (5,5,1) + f (5,4,2) + f (5,4,
3) + f (5,3,4) + f (5,3,5)) / 25 F15 = (f (1,5,3) + f (1,4,3) + f (1,3, 4) + f (1,2,4) +
f (1,1,5) + f (2,5,3) + f (2,4,3) + f (2,3,3) + f (2,2,
4) + f (2,1,5) + f (3,5,3) + f (3,4,3) + f (3,3,3) + f
(3,2,4) + f (3,1,5) + f (4,5,3) + f (4,4,3) + f (4,3,3)
+ f (4,2,4) + f (4,1,5) + f (5,5,3) + f (5,4,3) + f (5,3,
4) + f (5,2,4) + f (5,1,5)) / 25 F16 = (f (1,5,5) + f (1,4,4) + f (1,3 ,, 4) + f (1,2,3) +
f (1,1,3) + f (2,5,5) + f (2,4,4) + f (2,3,3) + f (2,2,
3) + f (2,1,3) + f (3,5,5) + f (3,4,4) + f (3,3,3) + f
(3,2,3) + f (3,1,3) + f (4,5,5) + f (4,4,4) + f (4,3,3)
+ f (4,2,3) + f (4,1,3) + f (5,5,5) + f (5,4,4) + f (5,3,
4) + f (5,2,3) + f (5,1,3)) / 25 The search surface filter (17) corresponds to FIG. 20, and the following search surface filters (18)-(24) are It is rotated by 45 degrees with respect to the z-axis. F17 = (f (1,1,1) + f (2,1,2) + f (2,1,3) + f (3,1,4) +
f (3,1,5) + f (1,2,1) + f (2,2,2) + f (3,2,3) + f (3,2,
4) + f (3,2,5) + f (1,3,1) + f (2,3,2) + f (3,3,3) + f
(3,3,4) + f (3,3,5) + f (1,4,1) + f (2,4,2) + f (3,4,3)
+ f (3,4,4) + f (3,4,5) + f (1,5,1) + f (2,5,2) + f (2,5,
3) + f (3,5,4) + f (3,5,5)) / 25 F18 = (f (1,1,5) + f (2,1,4) + f (2,1, 3) + f (3,1,2) +
f (3,1,1) + f (1,2,5) + f (2,2,4) + f (3,2,3) + f (3,2,
2) + f (3,2,1) + f (1,3,5) + f (2,3,4) + f (3,3,3) + f
(3,3,2) + f (3,3,1) + f (1,4,5) + f (2,4,4) + f (3,4,3)
+ f (3,4,2) + f (3,4,1) + f (1,5,5) + f (2,5,4) + f (2,5,
3) + f (3,5,2) + f (3,5,1)) / 25 F19 = (f (1,1,3) + f (2,1,3) + f (3,1, 2) + f (4,1,2) +
f (5,1,1) + f (1,2,3) + f (2,2,3) + f (3,2,3) + f (4,2,
2) + f (5,2,1) + f (1,3,3) + f (2,3,3) + f (3,3,3) + f
(4,3,2) + f (5,3,1) + f (1,4,3) + f (2,4,3) + f (3,4,3)
+ f (4,4,2) + f (5,4,1) + f (1,5,3) + f (2,5,3) + f (3,5,
2) + f (4,5,2) + f (5,5,1)) / 25 F20 = (f (1,1,1) + f (2,1,2) + f (3,1, 2) + f (4,1,3) +
f (5,1,3) + f (1,2,1) + f (2,2,2) + f (3,2,3) + f (4,2,
3) + f (5,2,3) + f (1,3,1) + f (2,3,2) + f (3,3,3) + f
(4,3,3) + f (5,3,3) + f (1,4,1) + f (2,4,2) + f (3,4,3)
+ f (4,4,3) + f (5,4,3) + f (1,5,1) + f (2,5,2) + f (3,5,
2) + f (4,5,3) + f (5,5,3)) / 25 F21 = (f (3,1,1) + f (3,1,2) + f (4,1, 3) + f (4,1,4) +
f (5,1,5) + f (3,2,1) + f (3,2,2) + f (3,2,3) + f (4,2,
4) + f (5,2,5) + f (3,3,1) + f (3,3,2) + f (3,3,3) + f
(4,3,4) + f (5,3,5) + f (3,4,1) + f (3,4,2) + f (3,4,3)
+ f (4,4,4) + f (5,4,5) + f (3,5,1) + f (3,5,2) + f (4,5,
3) + f (4,5,4) + f (5,5,5)) / 25 F22 = (f (5,1,1) + f (4,1,2) + f (4,1, 3) + f (3,1,4) +
f (3,1,5) + f (5,2,1) + f (4,2,2) + f (3,2,3) + f (3,2,
4) + f (3,2,5) + f (5,3,1) + f (4,3,2) + f (3,3,3) + f
(3,3,4) + f (3,3,5) + f (5,4,1) + f (4,4,2) + f (3,4,3)
+ f (3,4,4) + f (3,4,5) + f (5,5,1) + f (4,5,2) + f (4,5,
3) + f (3,5,4) + f (3,5,5)) / 25 F23 = (f (5,1,3) + f (4,1,3) + f (3,1, 4) + f (2,1,4) +
f (1,1,5) + f (5,2,3) + f (4,2,3) + f (3,2,3) + f (2,2,
4) + f (1,2,5) + f (5,3,3) + f (4,3,3) + f (3,3,3) + f
(2,3,4) + f (1,3,5) + f (5,4,3) + f (4,4,3) + f (3,4,3)
+ f (2,4,4) + f (1,4,5) + f (5,5,3) + f (4,5,3) + f (3,5,
4) + f (2,5,4) + f (1,5,5)) / 25 F24 = (f (5,1,5) + f (4,1,4) + f (3,1, 4) + f (2,1,3) +
f (1,1,3) + f (5,2,5) + f (4,2,4) + f (3,2,3) + f (2,2,
3) + f (1,2,3) + f (5,3,5) + f (4,3,4) + f (3,3,3) + f
(2,3,3) + f (1,3,3) + f (5,4,5) + f (4,4,4) + f (3,4,3)
+ f (2,4,3) + f (1,4,3) + f (5,5,5) + f (4,5,4) + f (3,5,
4) + f (2,5,3) + f (1,5,3)) / 25 In the feature quantity integrating means 52, the neighborhood 5 × 5 × 5 similar to that in FIG.
The average of the pixels lined up in the curved surface in the pixel is calculated, the representative search points are added to the 24 types of search curved surfaces shown above, the average value is filtered, and the results of the 24 types are compared. Send to means 54.
【0044】比較手段54では、送られたきた24種類
の探索曲面の結果にに対して比較を行ない、この中から
最大値とその方向を決定しその結果を3次元画像出力手
段56に送る。また、もしもしきい値よりも24種類の
結果が小さければ、輝度の最小値つまり0としてデータ
が存在しないこととし、さらに探索曲面がないことを3
次元画像出力手段56に送る。The comparison means 54 compares the sent results of the 24 types of search curved surfaces, determines the maximum value and the direction thereof, and sends the result to the three-dimensional image output means 56. If 24 kinds of results are smaller than the threshold value, it is determined that there is no data with the minimum value of brightness, that is, 0, and that there is no search surface.
It is sent to the three-dimensional image output means 56.
【0045】3次元画像出力手段56では、比較手段か
ら送られてきた最大値をもとに中心画素の値とし、また
探索曲面があればその情報からその中心画素が持ってい
る方向成分として、対応する格子点(この場合は、x=
3,y=3,z=3)の処理結果としてこれらの情報を
格納する。In the three-dimensional image output means 56, the value of the center pixel is set based on the maximum value sent from the comparison means, and if there is a search curved surface, the information is used as the direction component of the center pixel. The corresponding grid point (in this case x =
These information is stored as the processing result of (3, y = 3, z = 3).
【0046】以上までの処理は、f(3,3,3)につ
いて行なったが、x,y,zを一つずつ更新していくこ
とによって、すべての格子点の画素データを処理するこ
とになる。簡単に式で説明を行なうと、以下のようにな
る。 for(z=3;k<zmax−2;z++) { for(y=3;k<ymax−2;y++) { for(x=3;k<xmax−2;x++) { Filter(x,y,z); −> 今まで説明を行なった近傍処理 } } } このような操作を繰り返していくと、ほぼすべての3次
元画素データを処理することができる。そして、3次元
画像出力手段56では、すべての結果を得た後に画像出
力を行なう。また、ここに示した式は計算領域の周辺部
については行なっていないが、これらについては周辺部
にはあまり重要な情報がない場合が多いため入力された
画像をそのまま使うことで対処が可能である。The processing up to this point was carried out for f (3,3,3), but by updating x, y, z one by one, pixel data of all grid points can be processed. Become. The following is a simple explanation of the formula. for (z = 3; k <zmax-2; z ++) {for (y = 3; k <ymax-2; y ++) {for (x = 3; k <xmax-2; x ++) {Filter (x, y , Z);-> neighborhood processing described so far}}}} By repeating such an operation, almost all three-dimensional pixel data can be processed. Then, the three-dimensional image output means 56 outputs an image after obtaining all the results. In addition, although the formulas shown here are not applied to the peripheral part of the calculation area, since there is often not much important information in the peripheral part, it is possible to deal with it by using the input image as it is. is there.
【0047】よって、入力された3次元画像データに対
して以上までに述べた処理を行なうと、中心画素周辺情
報から平均値を求めスペックルノイズのように近傍と関
係なく現れる画素データに関してはしきい値を設けノイ
ズ情報を除去し、さらに、近傍にデータありその中心画
素自体はデータが消えている場合には補間が行なえるこ
とが可能となる。また、第3実施の形態と違う所は、特
徴量積算手段52でのフィルタを曲面状にすることによ
り、曲がった形状に対しても補間することが可能となる
ことである。Therefore, when the above-described processing is performed on the input three-dimensional image data, an average value is obtained from the central pixel peripheral information, and pixel data that appears regardless of the neighborhood, such as speckle noise, is obtained. It becomes possible to set the threshold value to remove the noise information, and to perform interpolation when there is data in the vicinity and the central pixel itself has no data. Further, the difference from the third embodiment is that the curved shape of the filter in the feature amount integrating means 52 makes it possible to interpolate even a curved shape.
【0048】なお、今回のフィルタには説明の簡単化の
ために探索曲面を代表する探索点を格子点における画素
データそのものを使用して平均をとったが格子点の画素
データの計算において細分化された格子点における画素
データ(サブピクセル)を考慮することにより、実施の
形態3と同様なことが行なえより細かな角度について処
理の程度を考え設定することが可能となる。For simplification of description, the search points representing the search curved surface are averaged by using the pixel data themselves at the grid points in the present filter, but they are subdivided in the calculation of the pixel data at the grid points. By taking into consideration the pixel data (sub-pixels) at the selected grid points, the same operation as in the third embodiment can be performed, and the degree of processing can be set considering the finer angle.
【0049】また、曲面に関しても何種類かあらかじめ
用意を行ない、用意した曲率をいくつか行なうことによ
り、スペックルノイズを除去し、さらにフィットした探
索曲面により画素を補間することが可能になる。Also, some kinds of curved surfaces are prepared in advance, and some of the prepared curvatures are used to remove speckle noise, and pixels can be interpolated by the fitted search curved surface.
【0050】[0050]
【発明の効果】以上のように本発明は、3次元的に近傍
の画素に対して、フィルタ処理を行ない、超音波診断等
で得られる一部必要な画像が欠けているものに対して、
補間処理が行なえ、より現実に近い映像を再現すること
が可能となる。As described above, according to the present invention, a filter processing is performed on pixels which are three-dimensionally close to each other, and a part of a necessary image obtained by ultrasonic diagnosis is missing.
Interpolation processing can be performed, and a more realistic image can be reproduced.
【図1】本発明の実施の形態における画像処理装置の説
明図FIG. 1 is an explanatory diagram of an image processing apparatus according to an embodiment of the present invention.
【図2】本発明の第1の実施の形態におけるフィルタの
説明図FIG. 2 is an explanatory diagram of a filter according to the first embodiment of the present invention.
【図3】同実施の形態における拡張したフィルタの説明
図FIG. 3 is an explanatory diagram of an expanded filter according to the same embodiment.
【図4】同実施の形態におけるフィルタの回転させる角
度の説明図FIG. 4 is an explanatory view of a rotation angle of the filter according to the same embodiment.
【図5】本発明の第2の実施の形態におけるフィルタの
説明図FIG. 5 is an explanatory diagram of a filter according to a second embodiment of the present invention.
【図6】本発明の第3の実施の形態におけるフィルタの
説明図FIG. 6 is an explanatory diagram of a filter according to a third embodiment of the present invention.
【図7】本発明の第3の実施の形態におけるフィルタの
説明図FIG. 7 is an explanatory diagram of a filter according to a third embodiment of the present invention.
【図8】本発明の第3の実施の形態におけるフィルタの
説明図FIG. 8 is an explanatory diagram of a filter according to a third embodiment of the present invention.
【図9】本発明の第3の実施の形態におけるフィルタの
説明図FIG. 9 is an explanatory diagram of a filter according to a third embodiment of the present invention.
【図10】本発明の第3の実施の形態におけるフィルタ
の説明図FIG. 10 is an explanatory diagram of a filter according to a third embodiment of the present invention.
【図11】本発明の第3の実施の形態におけるフィルタ
の説明図FIG. 11 is an explanatory diagram of a filter according to the third embodiment of the present invention.
【図12】本発明の第3の実施の形態におけるフィルタ
の説明図FIG. 12 is an explanatory diagram of a filter according to a third embodiment of the present invention.
【図13】本発明の第3の実施の形態におけるフィルタ
の説明図FIG. 13 is an explanatory diagram of a filter according to the third embodiment of the present invention.
【図14】本発明の第3の実施の形態におけるフィルタ
の説明図FIG. 14 is an explanatory diagram of a filter according to the third embodiment of the present invention.
【図15】本発明の第3の実施の形態におけるフィルタ
の説明図FIG. 15 is an explanatory diagram of a filter according to a third embodiment of the present invention.
【図16】本発明の第3の実施の形態におけるフィルタ
の説明図FIG. 16 is an explanatory diagram of a filter according to the third embodiment of the present invention.
【図17】本発明の第4の実施の形態におけるフィルタ
の説明図FIG. 17 is an explanatory diagram of a filter according to the fourth embodiment of the present invention.
【図18】本発明の第4の実施の形態におけるフィルタ
の説明図FIG. 18 is an explanatory diagram of a filter according to the fourth embodiment of the present invention.
【図19】本発明の第4の実施の形態におけるフィルタ
の説明図FIG. 19 is an explanatory diagram of a filter according to the fourth embodiment of the present invention.
【図20】本発明の第4の実施の形態におけるフィルタ
の説明図FIG. 20 is an explanatory diagram of a filter according to the fourth embodiment of the present invention.
50 入力する3次元画素データ 52 特徴量積算手段 54 比較手段 56 3次元画像出力手段 102 中心画素 140 画素の中心 142 画素の距離が1であることを示す同心円 144 画素の距離が2であることを示す同心円 146 1つの画素を16分割(4×4)に細分化した
画素(サブピクセル) 150 補間を行なう直線 152 画素の距離が2における交点 154 画素の距離が1における交点 156 画素の距離が1における交点 160 画素の距離が2におけるサブピクセル(4×
4) 160 画素の距離が2におけるサブピクセル(4×
4) 162 画素の距離が1におけるサブピクセル(4×
4) 164 画素の距離が0におけるサブピクセル(4×
4) 166 画素の距離が1におけるサブピクセル(4×
4) 168 画素の距離が1におけるサブピクセル(4×
4) 180 仮想線分を回転させた角度を示す探索線分その
1 182 仮想線分を回転させた角度を示す探索線分その
2 184 仮想線分を回転させた角度を示す探索線分その
3 186 仮想線分を回転させた角度を示す探索線分その
4 188 仮想線分を回転させた角度を示す探索線分その
5 190 仮想線分を回転させた角度を示す探索線分その
6 202 中心画素50 three-dimensional pixel data to be input 52 feature amount integrating means 54 comparing means 56 three-dimensional image output means 102 center pixel 140 center of pixel 142 concentric circle indicating that pixel distance is 1 144 distance of pixel is 2 Concentric circles shown 146 Pixels (subpixels) obtained by subdividing one pixel into 16 divisions (4 × 4) 150 Straight line for interpolation 152 Intersection at a pixel distance of 2 154 Intersection at a pixel distance of 1 156 Pixel distance at 1 Intersection point at 160 subpixels at a distance of 2 pixels (4 ×
4) 160 subpixels at a distance of 2 (4 ×
4) 162 sub-pixels at a distance of 1 pixel (4 ×
4) Sub-pixel (4 × 4) at a distance of 164 pixels is 0
4) 166 sub-pixels at a distance of 1 (4 × 4)
4) 168 sub-pixels at a distance of 1 (4 × 4)
4) 180 Search line segment indicating the angle of rotation of the virtual line segment 1 182 Search line segment indicating the angle of rotation of the virtual line segment 2 2 184 Search line segment indicating the angle of rotation of the virtual line segment 3 186 Search line segment showing the angle of rotating the virtual line segment 4 188 Search line segment showing the angle of rotating the virtual line segment 5 190 Search line segment showing the angle of rotating the virtual line segment 6 202 Center Pixel
Claims (4)
3次元空間領域に格子点を構成し、その領域内に存在す
る目的物の物理的性質の空間分布に対応して各格子点で
観測される物理量の集合を入力される3次元画素データ
とし、この3次元画素データをもとにすべての格子点に
おける画素データに対して処理を行ない画像を出力する
画像処理装置において、 前記3次元空間の物理量を示すすべての格子点それぞれ
に対して、前記格子点を中心とした長さ一定のx,y,
z軸上の仮想的な線分をx,y,z座標軸に垂直な前記
中心点を含む3つの平面上でそれぞれある一定角度づつ
回転した複数の探索線分とこの複数の探索線分を代表す
るそれぞれに位置した複数の補助点からなる探索点列を
考え、 前記それぞれの探索線分において、この探索線分を代表
する探索点における画素データ値を前記各3次元画素デ
ータから内挿処理を行ない探索点におけるデータ値とし
て計算し、さらにこのデータ値を代表する探索点すべて
積算し探索線分の画素データ値とする特徴量積算手段
と、 前記特徴量積算手段からの各格子点における前記複数の
各探索線分について積算した画素データ値を比較し、比
較した結果があらかじめ決めておいたしきい値より大き
い場合、大きい方からその画素データ値とその線分を複
数選び出す比較手段と、 前記比較手段からの各格子点におけるしきい値を越えた
画素データ値と前記しきい値を越えた線分を示す処理結
果を対応する格子点における新たな画素情報として蓄積
し、すべての格子点情報が得られた後にその情報をもと
に画像出力を行なう画像出力手段を設けるを特徴とする
画像処理装置。1. A grid point is constructed in a three-dimensional space area consisting of x, y, z coordinate axes orthogonal to each other, and at each grid point corresponding to a spatial distribution of physical properties of an object existing in the area. In the image processing device, the set of observed physical quantities is set as input three-dimensional pixel data, and the pixel data at all grid points are processed based on the three-dimensional pixel data to output an image. For each of all the lattice points indicating the physical quantity of the space, x, y, with a constant length centered on the lattice point,
A plurality of search line segments, each of which is a virtual line segment on the z axis rotated by a certain angle on each of three planes including the center point perpendicular to the x, y, and z coordinate axes, and the plurality of search line segments are representative. Consider a search point sequence consisting of a plurality of auxiliary points located at each of the search points, and interpolate the pixel data values at the search points that are representative of this search line segment from each of the three-dimensional pixel data. A feature amount integrating unit that calculates as a data value at a running search point and further integrates all search points that are representative of this data value to obtain a pixel data value of a search line segment; and the plurality of grid points at each grid point from the feature amount integrating unit. Pixel data values for each search line segment are compared. If the comparison result is greater than a predetermined threshold value, multiple pixel data values and line segments are selected from the larger one. The comparing means and the processing result indicating the pixel data value exceeding the threshold value at each grid point from the comparing means and the line segment exceeding the threshold value are accumulated as new pixel information at the corresponding grid point. An image processing apparatus comprising image output means for outputting an image based on the information of all the grid points after the information is obtained.
3次元空間領域に格子点を構成し、その領域内に存在す
る目的物の物理的性質の空間分布に対応して各格子点で
観測される物理量の集合を入力される3次元画素データ
とし、この3次元画素データをもとにすべての格子点に
おける画素データに対して処理を行ない画像を出力する
画像処理装置において、 前記3次元空間の物理量を示すすべての格子点それぞれ
に対して、前記格子点を中心とした長さ一定かつ曲率一
定のx,y,z軸上の仮想的な円弧をx,y,z座標軸
に垂直な前記中心点を含む3つの平面上でそれぞれある
一定角度づつ回転した複数の探索円弧とこの複数の探索
円弧を代表するそれぞれに位置した複数の補助点からな
る探索点列を考え、 前記それぞれの探索円弧において、この探索円弧を代表
する探索点における画素データ値を前記各3次元画素デ
ータから内挿処理を行ない探索点におけるデータ値とし
て計算し、さらにこのデータ値を代表する探索点すべて
積算し探索円弧の画素データ値とする特徴量積算手段
と、 前記特徴量積算手段からの各格子点における前記複数の
各探索円弧について積算した画素データ値を比較し、比
較した結果があらかじめ決めておいたしきい値より大き
い場合、大きい方からその画素データ値とその円弧を複
数選び出す比較手段と、 前記比較手段からの各格子点におけるしきい値を越えた
画素データ値と前記しきい値を越えた円弧を示す処理結
果を対応する格子点における新たな画素情報として蓄積
し、すべての格子点情報が得られた後にその情報をもと
に画像出力を行なう画像出力手段を設けるを特徴とする
画像処理装置。2. A grid point is formed in a three-dimensional space area consisting of x, y, z coordinate axes that are orthogonal to each other, and each grid point corresponds to a spatial distribution of physical properties of an object existing in the area. In the image processing device, the set of observed physical quantities is set as input three-dimensional pixel data, and the pixel data at all grid points are processed based on the three-dimensional pixel data to output an image. A virtual arc on the x, y, and z axes having a constant length and a constant curvature centered on the lattice point is perpendicular to the x, y, z coordinate axes for all the lattice points indicating the physical quantity of the space. Consider a search point sequence consisting of a plurality of search arcs each rotated by a certain angle on three planes including the center point, and a plurality of auxiliary points positioned at each of the search arcs representing the plurality of search arcs. In an arc Then, the pixel data value at the search point that represents this search arc is calculated as a data value at the search point by performing interpolation processing from each of the three-dimensional pixel data, and all search points that represent this data value are integrated to obtain the search arc. Of the pixel data value and the pixel data value integrated for each of the plurality of search arcs at each lattice point from the feature amount integrating means are compared, and the comparison result is a predetermined threshold value. If it is larger, the comparing means for selecting the pixel data value and the plurality of arcs from the larger one, and the pixel data value exceeding the threshold value and the arc exceeding the threshold value at each grid point from the comparing means are shown. The processing result is stored as new pixel information at the corresponding grid point, and after all grid point information is obtained, image output is performed based on that information. The image processing apparatus according to claim providing an image output unit.
3次元空間領域に格子点を構成し、その領域内に存在す
る目的物の物理的性質の空間分布に対応して各格子点で
観測される物理量の集合を入力される3次元画素データ
とし、この3次元画素データをもとにすべての格子点に
おける画素データに対して処理を行ない画像を出力する
画像処理装置において、 前記3次元空間の物理量を示すすべての格子点それぞれ
に対して、前記格子点を中心としたx−y,y−z,z
−x平面上に一辺の長さ一定の仮想的な正方形の平面を
x,y,z座標軸に対してそれぞれある一定角度づつ回
転した複数の探索平面とこの複数の探索平面を代表する
それぞれに位置した複数の補助点からなる探索点を考
え、 前記それぞれの探索平面において、この探索平面を代表
する探索点における画素データ値を前記各3次元画素デ
ータから内挿処理を行ない探索点におけるデータ値とし
て計算し、さらにこのデータ値を代表する探索点すべて
積算し探索平面の画素データ値とする特徴量積算手段
と、 前記特徴量積算手段からの各格子点における前記複数の
各探索平面について積算した画素データ値を比較し、比
較した結果があらかじめ決めておいたしきい値より大き
い場合、その最大である画素データ値とその平面を選び
出す比較手段と、 前記比較手段からの各格子点におけるしきい値を越えた
最大である画素データ値とその平面を示す処理結果を対
応する格子点における新たな画素情報として蓄積し、す
べての格子点情報が得られた後にその情報をもとに画像
出力を行なう画像出力手段を設けるを特徴とする画像処
理装置。3. A grid point is formed in a three-dimensional space area consisting of x, y, z coordinate axes that are orthogonal to each other, and each grid point corresponds to a spatial distribution of physical properties of an object existing in the area. In the image processing device, the set of observed physical quantities is set as input three-dimensional pixel data, and the pixel data at all grid points are processed based on the three-dimensional pixel data to output an image. For each of all the lattice points indicating the physical quantity of the space, xy, yz, z centered on the lattice point
-A plurality of search planes obtained by rotating a virtual square plane having a constant side length on the x plane by a certain angle with respect to the x, y, and z coordinate axes, and the positions representing the search planes. Considering a search point composed of a plurality of auxiliary points, the pixel data value at the search point representing the search plane in each search plane is interpolated from each of the three-dimensional pixel data to obtain a data value at the search point. A feature amount integrating unit that calculates and further integrates all search points representing this data value to obtain a pixel data value of the search plane, and pixels integrated for each of the plurality of search planes at each grid point from the feature amount integrating unit. When the data values are compared, and the comparison result is larger than a predetermined threshold value, the maximum pixel data value and the plane for selecting the plane are compared. And the maximum pixel data value exceeding the threshold value at each grid point from the comparison means and the processing result indicating the plane are accumulated as new pixel information at the corresponding grid point, and all grid point information is stored. An image processing apparatus comprising an image output means for outputting an image based on the information obtained.
3次元空間領域に格子点を構成し、その領域内に存在す
る目的物の物理的性質の空間分布に対応して各格子点で
観測される物理量の集合を入力される3次元画素データ
とし、この3次元画素データをもとにすべての格子点に
おける画素データに対して処理を行ない画像を出力する
画像処理装置において、 前記3次元空間の物理量を示すすべての格子点それぞれ
に対して、前記格子点を中心とした一定面積と一定の曲
率をもつ仮想的な曲面をx,y,z座標軸に対してそれ
ぞれある一定角度づつ回転した複数の探索曲面とこの複
数の探索曲面を代表するそれぞれに位置した複数の補助
点からなる探索点を考え、 前記それぞれの探索曲面において、この探索曲面を代表
する探索点における画素データ値を前記各3次元画素デ
ータから内挿処理を行ない探索点におけるデータ値とし
て計算し、さらにこのデータ値を代表する探索点すべて
積算し探索曲面の画素データ値とする特徴量積算手段
と、 前記特徴量積算手段からの各格子点における前記複数の
各探索曲面について積算した画素データ値を比較し、比
較した結果があらかじめ決めておいたしきい値より大き
い場合、その最大である画素データ値とその曲面を選び
出す比較手段と、 前記比較手段からの各格子点におけるしきい値を越えた
最大である画素データ値とその曲面を示す処理結果を対
応する格子点における新たな画素情報として蓄積し、す
べての格子点情報が得られた後にその情報をもとに画像
出力を行なう画像出力手段を設けるを特徴とする画像処
理装置。4. A grid point is formed in a three-dimensional space area consisting of x, y, z coordinate axes orthogonal to each other, and at each grid point corresponding to the spatial distribution of the physical properties of the object existing in the area. In the image processing device, the set of observed physical quantities is set as input three-dimensional pixel data, and the pixel data at all grid points are processed based on the three-dimensional pixel data to output an image. A virtual curved surface having a constant area and a constant curvature centered on the grid point is rotated by a fixed angle with respect to each of the x, y, and z coordinate axes for each of all the grid points indicating the physical quantity of space. Consider a search point consisting of a plurality of search curved surfaces and a plurality of auxiliary points positioned at each of the plurality of search curved surfaces, and in each of the search curved surfaces, A feature amount accumulating means for calculating a raw data value as a data value at a search point by performing an interpolation process from each of the three-dimensional pixel data, and further integrating all the search points representing this data value to obtain a pixel data value of the search curved surface; , Comparing the pixel data values accumulated for each of the plurality of search curved surfaces at each grid point from the feature amount accumulating means, and if the comparison result is larger than a predetermined threshold value, the maximum pixel data value And a comparison means for selecting the curved surface, and storing the maximum pixel data value exceeding the threshold value at each grid point from the comparison means and the processing result indicating the curved surface as new pixel information at the corresponding grid point. An image processing apparatus comprising image output means for outputting an image based on the information of all the grid points after the information is obtained.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7334570A JPH09179962A (en) | 1995-12-22 | 1995-12-22 | Picture processor |
US08/772,756 US5754618A (en) | 1995-12-22 | 1996-12-23 | Image processing apparatus and image processing method for favorably enhancing continuous boundaries which are affected by noise |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7334570A JPH09179962A (en) | 1995-12-22 | 1995-12-22 | Picture processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09179962A true JPH09179962A (en) | 1997-07-11 |
Family
ID=18278885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7334570A Pending JPH09179962A (en) | 1995-12-22 | 1995-12-22 | Picture processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09179962A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1331097C (en) * | 2003-11-12 | 2007-08-08 | 致伸科技股份有限公司 | Spot eliminating method for digital image |
JP2007222264A (en) * | 2006-02-22 | 2007-09-06 | Aloka Co Ltd | Ultrasonograph |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6237782A (en) * | 1985-06-05 | 1987-02-18 | ゼネラル・エレクトリツク・カンパニイ | Apparatus and method for displaying 3-d surface structure |
JPH01222383A (en) * | 1988-03-01 | 1989-09-05 | Toshiba Corp | Three-dimensional logical filtering circuit |
JPH0258183A (en) * | 1988-08-24 | 1990-02-27 | Gurafuika:Kk | Forming device for stereoscopic image |
JPH02164352A (en) * | 1988-12-16 | 1990-06-25 | Aloka Co Ltd | Ultrasonic diagnostic image processing device |
JPH04285545A (en) * | 1991-03-13 | 1992-10-09 | Aloka Co Ltd | Ultrasonic image display device |
JPH05197767A (en) * | 1991-08-09 | 1993-08-06 | Fujitsu Ltd | Organism-magnetism measuring apparatus |
JPH05342095A (en) * | 1992-06-10 | 1993-12-24 | Toshiba Corp | Interleave memory for adjacent interpolaton and image processor using this memory |
JPH06125887A (en) * | 1992-10-15 | 1994-05-10 | Hamamatsu Photonics Kk | X-ray image processor for medical treatment |
JPH07181259A (en) * | 1993-12-24 | 1995-07-21 | Hitachi Medical Corp | Ultrasonic image display method and diagnosis device using it |
-
1995
- 1995-12-22 JP JP7334570A patent/JPH09179962A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6237782A (en) * | 1985-06-05 | 1987-02-18 | ゼネラル・エレクトリツク・カンパニイ | Apparatus and method for displaying 3-d surface structure |
JPH01222383A (en) * | 1988-03-01 | 1989-09-05 | Toshiba Corp | Three-dimensional logical filtering circuit |
JPH0258183A (en) * | 1988-08-24 | 1990-02-27 | Gurafuika:Kk | Forming device for stereoscopic image |
JPH02164352A (en) * | 1988-12-16 | 1990-06-25 | Aloka Co Ltd | Ultrasonic diagnostic image processing device |
JPH04285545A (en) * | 1991-03-13 | 1992-10-09 | Aloka Co Ltd | Ultrasonic image display device |
JPH05197767A (en) * | 1991-08-09 | 1993-08-06 | Fujitsu Ltd | Organism-magnetism measuring apparatus |
JPH05342095A (en) * | 1992-06-10 | 1993-12-24 | Toshiba Corp | Interleave memory for adjacent interpolaton and image processor using this memory |
JPH06125887A (en) * | 1992-10-15 | 1994-05-10 | Hamamatsu Photonics Kk | X-ray image processor for medical treatment |
JPH07181259A (en) * | 1993-12-24 | 1995-07-21 | Hitachi Medical Corp | Ultrasonic image display method and diagnosis device using it |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1331097C (en) * | 2003-11-12 | 2007-08-08 | 致伸科技股份有限公司 | Spot eliminating method for digital image |
JP2007222264A (en) * | 2006-02-22 | 2007-09-06 | Aloka Co Ltd | Ultrasonograph |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1522051B1 (en) | Discrete linear space sampling method and apparatus for generating digital 3d models | |
TWI647656B (en) | Method and device for mapping on spherical panoramic image | |
US7825925B2 (en) | Method and system for repairing triangulated surface meshes | |
US8368714B2 (en) | Curved surface rendering system and method | |
US20110235897A1 (en) | Device and process for three-dimensional localization and pose estimation using stereo image, and computer-readable storage medium storing the program thereof | |
US20110235898A1 (en) | Matching process in three-dimensional registration and computer-readable storage medium storing a program thereof | |
CN104794718B (en) | A kind of method of single image CT center monitoring camera calibration | |
JP2000011172A (en) | Method and device for generating virtual environment and recording medium recording virtual environment generation program | |
EP2335220A2 (en) | Method for distributed and minimum-support point matching in two or more images of 3d scene taken with video or stereo camera. | |
US20020190986A1 (en) | Method, apparatus, and computer program for generating three-dimensional shape data or volume data | |
JPH09179962A (en) | Picture processor | |
US6914600B2 (en) | Volumetric warping for voxel coloring on an infinite domain | |
JP2002032744A (en) | Device and method for three-dimensional modeling and three-dimensional image generation | |
KR100733505B1 (en) | Resolution converting method | |
JPWO2019049457A1 (en) | Image generating apparatus and image generating method | |
JP3480894B2 (en) | Image monitoring apparatus and image monitoring method | |
JP3467948B2 (en) | Image processing device | |
CN111028264A (en) | Rotation robust three-dimensional object detection optimization method and device | |
JP2003216933A (en) | Data processing device, storage medium and program | |
JPS61138377A (en) | Three-dimensional digital picture input method | |
JPH03175588A (en) | Viewpoint rotating system | |
Popescu et al. | An efficient error-bounded general camera model | |
JPH09179963A (en) | Picture processor | |
JPH11351843A (en) | Apparatus and method of generating three-dimensional picture | |
US6404427B1 (en) | Rapid checking method for determining whether an object is located within a field of vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040427 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040907 |