JPH0816819A - Shading method - Google Patents

Shading method

Info

Publication number
JPH0816819A
JPH0816819A JP6153605A JP15360594A JPH0816819A JP H0816819 A JPH0816819 A JP H0816819A JP 6153605 A JP6153605 A JP 6153605A JP 15360594 A JP15360594 A JP 15360594A JP H0816819 A JPH0816819 A JP H0816819A
Authority
JP
Japan
Prior art keywords
image
shading
depth image
picture
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6153605A
Other languages
Japanese (ja)
Other versions
JP3463821B2 (en
Inventor
Yoshihiro Goto
良洋 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP15360594A priority Critical patent/JP3463821B2/en
Publication of JPH0816819A publication Critical patent/JPH0816819A/en
Application granted granted Critical
Publication of JP3463821B2 publication Critical patent/JP3463821B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To realize proper shading in spite of a distance from a viewpoint to a projection object (CT picture) so as to prevent display effect as a three- dimensional picture from being deteriorated even if a depth picture generated by using a center projection method is converted into a surface picture. CONSTITUTION:In a shading method at the time of converting the depth picture generated by using the center projection method into the surface picture, a frequency average averaged by the absolute value of amplitude at the time of developing by orthogonal conversion for respective depth picture lines is obtained. The degree of the picture' shading at the time of converting the picture into the surface picture by using the frequency average is changed (1-10).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は三次元画像の陰影付け方
法に係り、特に中心投影法を用いて作成したデプス画像
をサーフェイス画像に変換する際の陰影付け方法に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image shading method, and more particularly to a shading method for converting a depth image created by the central projection method into a surface image.

【0002】[0002]

【従来の技術】複数枚のCT画像を積み上げて積上げ三
次元画像を得、これを任意の方向から見た二次元画像に
陰影付けを行って三次元画像として構成する場合での陰
影付け方法にデプス法がある。デプス法とは、CT画像
上の各画素からそれを投影する箇所までの距離に応じて
陰影を付ける方法で、通常はその距離が長い程、陰影を
濃く(暗く)する。
2. Description of the Related Art A plurality of CT images are stacked to obtain a stacked three-dimensional image, and a two-dimensional image viewed from an arbitrary direction is shaded to form a three-dimensional image. There is a depth method. The depth method is a method of forming a shadow according to a distance from each pixel on a CT image to a position where the pixel is projected. Usually, the longer the distance, the darker (darker) the shadow is.

【0003】従来、このようなデプス法で構成された三
次元画像であるデプス画像をサーフェイス画像に変換す
る場合、変換式がデプス画像に依存するということはな
かった。従来は、デプス画像をCT画像から作成する際
の画素座標変換に、平行投影法を用いていたためで、こ
れによれば、視点面が変わっても投影像の大きさは一定
であり、視点の位置、特に視点から投影対象(CT画
像)までの遠近により陰影の度合い(濃度変化の程度)
が大きく変わることはなかった。
Conventionally, when converting a depth image, which is a three-dimensional image formed by such a depth method, into a surface image, the conversion formula has never been dependent on the depth image. Conventionally, the parallel projection method has been used for pixel coordinate conversion when creating a depth image from a CT image. According to this, the size of the projected image is constant even if the viewpoint plane changes, and The degree of shading (the degree of density change) depending on the position, especially the distance from the viewpoint to the projection target (CT image)
Did not change significantly.

【0004】[0004]

【発明が解決しようとする課題】しかし、デプス画像を
CT画像から作成する際の画素座標変換に中心投影法を
用いた場合(特願平6−4392号参照)、図6
(a),(b)から分かるように、視点eが投影対象4
0に近いか遠いかで投影面41に投影される像(投影
像)の大きさA´〜B´,a´〜b´は大きく変わる。
これに対して、視点eからA(又はB)までの距離RA
(又はRB)と視点eからCまでの距離RCの差(絶対
値)|RA(又はRB)−RC|と、視点eからa(又
はb)までの距離Ra(又はRb)と視点eからcまで
の距離Rcの差(絶対値)|Ra(又はRb)−Rc|
はあまり変わらない。
However, when the central projection method is used for pixel coordinate conversion when creating a depth image from a CT image (see Japanese Patent Application No. 6-4392), FIG.
As can be seen from (a) and (b), the viewpoint e is the projection target 4
The sizes A ′ to B ′ and a ′ to b ′ of the images (projected images) projected on the projection surface 41 change greatly depending on whether they are close to 0 or far.
On the other hand, the distance RA from the viewpoint e to A (or B)
(Or RB) and the distance RC from the viewpoint e to C (absolute value) | RA (or RB) -RC |, and the distance Ra (or Rb) from the viewpoint e to a (or b) and the viewpoint e difference (absolute value) of distance Rc to c | Ra (or Rb) -Rc |
Does not change much.

【0005】このため、視点eが投影対象40に近い場
合(図4(b))の投影像の端a´〜端b´までの濃度
(=一定値−視点から投影対象40までの距離)の総変
化量もあまり変わらない。したがって、視点eが投影対
象40に近く、投影像の大きさa´〜b´が大きくなる
ときは、1画素当たりの濃度変化が小さくなって陰影の
コントラストが付き難く、また画質が粗くなり、三次元
画像としての表示効果が弱まるという問題点があった。
Therefore, when the viewpoint e is close to the projection target 40 (FIG. 4B), the density from the end a'to the end b '(= constant value-distance from the viewpoint to the projection target 40). The total amount of change in does not change much. Therefore, when the viewpoint e is close to the projection target 40 and the sizes a ′ to b ′ of the projected image become large, the density change per pixel becomes small, the contrast of the shadow is difficult to attach, and the image quality becomes rough, There is a problem that the display effect as a three-dimensional image is weakened.

【0006】本発明の目的は、中心投影法を用いて作成
したデプス画像をサーフェイス画像に変換する場合で
も、視点から投影対象(CT画像)までの遠近に関係な
く、程よい陰影付けが可能で三次元画像としての表示効
果を弱めることのない陰影付け方法を提供することにあ
る。
An object of the present invention is that even when a depth image created by using the central projection method is converted into a surface image, proper shading can be performed regardless of the distance from the viewpoint to the projection target (CT image), and the cubic image can be obtained. It is to provide a shading method that does not weaken the display effect as an original image.

【0007】[0007]

【課題を解決するための手段】上記目的は、中心投影法
を用いて作成したデプス画像をサーフェイス画像に変換
する際の陰影付け方法において、デプス画像ライン毎に
直交変換により展開したときの振幅の絶対値で平均化し
た周波数平均を求め、その周波数平均を用いてサーフェ
イス画像に変換する際の陰影の度合いを変えることによ
り達成される。
Means for Solving the Problems The above-mentioned object is to perform a shading method for converting a depth image created by using the central projection method into a surface image, and This is achieved by obtaining a frequency average averaged by an absolute value and using the frequency average to change the degree of shading when converting to a surface image.

【0008】[0008]

【作用】離散的フーリエ変換等の直交変換を用いて画像
の性質が調べられ、陰影付けの度合いが画像に応じて適
切に変えられる。これにより、中心投影法を用いて作成
したデプス画像をサーフェイス画像に変換する場合で
も、視点から投影対象(CT画像)までの遠近に関係な
く、程よい陰影付けが可能で三次元画像としての表示効
果を弱めることがない。
The characteristics of the image are examined by using the orthogonal transform such as the discrete Fourier transform, and the degree of shading can be changed appropriately according to the image. As a result, even when a depth image created using the central projection method is converted into a surface image, proper shading is possible regardless of the perspective from the viewpoint to the projection target (CT image), and a display effect as a three-dimensional image is possible. Does not weaken.

【0009】[0009]

【実施例】以下、図面を参照して本発明の実施例を説明
するが、それに先立ってまずその原理について述べてお
く。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below with reference to the drawings, but prior to that, the principle thereof will be described first.

【0010】本発明方法による陰影付け(画素濃度計
算)は、次の基本式(1)に従う。 nod=定数*I*CAu(fx)*CBu(fy)/Laver …(1) ここで、Iはデプス画像の画素値i又はその逆数1/iで、
視点eに近いほど明るくするときはI=i、視点eに近い
ほど暗くするときはI=1/iとするもので、ここではI=iと
する。
Shading (pixel density calculation) according to the method of the present invention follows the following basic equation (1). nod = constant * I * CA u (fx) * CB u (fy) / Laver (1) where I is the pixel value i of the depth image or its reciprocal 1 / i,
It is assumed that I = i when the light is closer to the viewpoint e, and I = 1 / i when the light is closer to the viewpoint e. Here, I = i.

【0011】CA,CBは下式(2),(3)により与えら
れる。 CA=cos(A1+A0) …(2) CB=cos(B1+B0) …(3) ここで、A0,B0は光源の方向を表わし、任意に設定する
ものであるが、ここでは便宜上、A0=B0=0としておく。
CA and CB are given by the following equations (2) and (3). CA = cos (A1 + A0) (2) CB = cos (B1 + B0) (3) Here, A0 and B0 represent the direction of the light source and are arbitrarily set, but here, for convenience, Keep A0 = B0 = 0.

【0012】またA1,B1は、下式(4),(5)により
与えられる。 A1=arccos〔2/sqrt(22+dix2)〕 …(4) B1=arccos〔2/sqrt(22+diy2)〕 …(5) 上式(4),(5)において、dix,diyは下式(6),
(7)により与えられる。 dix=dix1*(1.0+Ax) …(6) diy=diy1*(1.0+Ay) …(7) 上式(6)はAxでdix1を増幅(強調)することを表わし
(Axが大きい程、増幅率大)、上式(7)はAyでdiy1を
増幅(強調)することを表わす(Ayが大きい程、増幅率
大)。上式(6),(7)ではAx,Ayは加算している
が、Ax,Ay>1として積をとってもよい。
A1 and B1 are given by the following equations (4) and (5). A1 = arccos [2 / sqrt (2 2 + dix 2 )] (4) B1 = arccos [2 / sqrt (2 2 + diy 2 )] (5) In the above formulas (4) and (5), dix , Diy is the following formula (6),
Given by (7). dix = dix1 * (1.0 + Ax) (6) diy = diy1 * (1.0 + Ay) (7) The above equation (6) means that dix1 is amplified (emphasized) by Ax (the larger Ax, (Amplification rate is large), the above equation (7) represents that Ay is used to amplify (emphasize) diy1 (the larger Ay, the larger the amplification rate). Although Ax and Ay are added in the above equations (6) and (7), the product may be taken with Ax and Ay> 1.

【0013】ここで、 dix1はデプス画像のx方向の濃度差(=i(n,m+1)-i(n,m-
1)) diy1はデプス画像のy方向の濃度差(=i(n+1,m)-i(n-1,
m)) である。
Here, dix1 is the density difference (= i (n, m + 1) -i (n, m- in the x direction of the depth image.
1)) diy1 is the density difference (= i (n + 1, m) -i (n-1,
m)).

【0014】また上式(6),(7)において、Ax,Ay
(増幅(強調)係数)は下式(8),(9)により与え
られる。
In the above equations (6) and (7), Ax and Ay
(Amplification (emphasis) coefficient) is given by the following equations (8) and (9).

【0015】Ax=C*(1/fx)v/xaver …(8) Ay=C*(1/fy)v/yaver …(9) ここでは、画像の模様が粗い(fx,fyが小さい)程、強
調(Ax,Ayを大きく)する。なお、Cは定数である。ま
た、xaverはx方向濃度差dix1の平均値、yaverはy方向濃
度差diy1の平均値で、このようにxaver,yaverで割り算
するのは規格化のためである。
Ax = C * (1 / fx) v / xaver (8) Ay = C * (1 / fy) v / yaver (9) Here, the pattern of the image is coarse (fx and fy are small). The more they are emphasized (the larger Ax and Ay are). Note that C is a constant. Further, xaver is the average value of the x-direction density difference dix1, and yaver is the average value of the y-direction density difference diy1. The division by xaver and yaver is for standardization.

【0016】Laverはデプス画像濃度の平均値で、このL
averで割り算するのは規格化のためである。u(fx),u(f
y)は適宜値、例えば1〜2.5の間の値をとる(図2参
照)。fxは、x方向1ラインにつき離散的フーリエ変換
した後の、周波数とその周波数での振幅の積和/振幅の
和 (振幅は絶対値)を複数ライン平均して求めたもの
で、1ラインのみで求めたものであってもよい。複数ラ
イン平均して求めたものにあっては、u(fx)は画像全体
に適用し、1ラインのみで求めたものにあっては、u(f
x)は1ラインのみに適用する。fyもy方向ラインにつき
上記fxと同様である。なお、fx,fyは大きいときが高周
波に対応するものとする。vは適宜値、例えば3,4,
5のいずれかの値をとる。通常は4をとる。
Laver is the average value of the depth image density.
Dividing by aver is for standardization. u (fx), u (f
y) takes an appropriate value, for example, a value between 1 and 2.5 (see FIG. 2). fx is obtained by averaging multiple products of the frequency and the sum of amplitudes / sum of amplitudes (amplitude is an absolute value) after discrete Fourier transform per line in the x direction. Only one line It may be the one obtained in. For those obtained by averaging multiple lines, u (fx) is applied to the entire image, and for those obtained by only one line, u (fx)
x) applies only to one line. fy is the same as fx above for the y-direction line. Note that when fx and fy are large, they correspond to high frequencies. v is an appropriate value, for example, 3, 4,
Takes any value of 5. Usually takes 4.

【0017】なお、図3,図4は上記A1,B1の説明図
で、これらの図において、x,yは投影面41の座標軸、
iは(n,m)点(y=n,x=mの座標)の画素値を表わす。その
他、この図3,図4における符号は各々上述原理説明に
使用した符号と同様である。
3 and 4 are explanatory views of A1 and B1. In these figures, x and y are coordinate axes of the projection plane 41, and
i represents the pixel value at the (n, m) point (coordinates of y = n, x = m). Other than these, the reference numerals in FIGS. 3 and 4 are the same as the reference numerals used in the above description of the principle.

【0018】図3において、視点e(図示せず)がCT
画像(投影対象;図示せず)に近い場合には、一般的に
は画像が粗くなる。したがって、フーリエ変換の期待値
fxが小さく、上記べき数u(fx)が大きくなり、dix1(=d
ix)が小さくなる。これにより従来方法では、A1が小さ
く、cosA1が大きくなってCAが大きくなり、画像(画
面)全体が明るくなり、陰影のコントラストが弱くな
る。これに対して、本発明方法では、小さくなったdix1
をAx(上記fxが小さいほどAxは大)で増幅してdixを得
る。これによりA1が大きくなり、cosA1が小さくなってC
Aが小さくなり、u(fx)乗すると更に小さくなり、陰影の
コントラストが強くなって適度の陰影が付く。図4にお
いても、図3におけるxをyに、A1をB1に代えて同様のこ
とがいえる。なお、上記離散的フーリエ変換に代えて、
離散的コサイン変換やアダマール変換等、他の直交変換
を用いてもよい。
In FIG. 3, the viewpoint e (not shown) is CT.
When the image is close to the image (projection target; not shown), the image is generally rough. Therefore, the expected value of the Fourier transform
fx is small, the above exponent u (fx) is large, and dix1 (= d
ix) becomes smaller. As a result, in the conventional method, A1 is small, cosA1 is large, CA is large, the entire image (screen) is bright, and the shadow contrast is weak. On the other hand, in the method of the present invention, dix1
Is amplified with Ax (the smaller the above fx, the larger Ax) to obtain dix. This makes A1 larger and cosA1 smaller and C
A becomes smaller, and becomes smaller when u (fx) is raised, and the contrast of the shadow becomes stronger and a proper shadow is attached. Also in FIG. 4, the same thing can be said by replacing x in FIG. 3 with y and A1 with B1. Incidentally, instead of the discrete Fourier transform,
Other orthogonal transforms such as discrete cosine transform and Hadamard transform may be used.

【0019】図1は、本発明による陰影付け方法の一実
施例を示すフローチャートである。デプス画像の各画素
の濃度値は、視点eからの距離に関係した値、例えば、
一定値−視点から投影対象までの距離をとるのが一般的
である。この濃度勾配を画像化したのがサーフェイス画
像である。そして、濃度勾配が小さいときサーフェイス
画像の画素値は大きく(明るく)、濃度勾配が大きいと
きサーフェイス画像の画素値は小さく(暗く)するのが
一般的であるが、下記実施例では、濃度勾配が小さくな
るにつれて逆にこれを強調(暗く)するものである。
FIG. 1 is a flow chart showing an embodiment of the shading method according to the present invention. The density value of each pixel of the depth image is a value related to the distance from the viewpoint e, for example,
Fixed value-generally, the distance from the viewpoint to the projection target is taken. A surface image is an image of this density gradient. In general, when the density gradient is small, the pixel value of the surface image is large (bright), and when the density gradient is large, the pixel value of the surface image is small (dark). On the contrary, as it gets smaller, this is emphasized (darkened).

【0020】以下、図1のステップ毎に順次説明する。 ステップ1 デプス画像をx方向に走査し、相前後する画素で差分値
を求め、更にその平均値xaverを求める。同様に、デプ
ス画像をy方向に走査し、相前後する画素で差分値を求
め、更にその平均値yaverを求める。 ステップ2 デプス画像の濃度の平均値Laverを求める。
The steps will be described below step by step. Step 1 The depth image is scanned in the x direction, the difference value is calculated between the pixels which are located one behind the other, and the average value xaver thereof is calculated. Similarly, the depth image is scanned in the y direction, the difference value is calculated between the pixels that are located one behind the other, and the average value yaver is calculated. Step 2 Obtain the average value Laver of the density of the depth image.

【0021】ステップ3 x方向1ラインについて離散的フーリエ変換し、展開し
た時の振幅の絶対値を用いて周波数平均を求める。これ
を複数ライン(全てのラインでもよい)について求め、
平均したものをfxとする。 ステップ4 y方向1ラインについて離散的フーリエ変換し、展開し
た時の振幅の絶対値を用いて周波数平均を求める。これ
を複数ライン(全てのラインでもよい)について求め、
平均したものをfyとする。
Step 3 Discrete Fourier transform is performed on one line in the x direction, and the frequency average is obtained using the absolute value of the amplitude when expanded. Obtain this for multiple lines (all lines are acceptable),
The average is fx. Step 4 Discrete Fourier transform is performed on one line in the y direction, and the frequency average is obtained using the absolute value of the amplitude when expanded. Obtain this for multiple lines (all lines are acceptable),
The average is fy.

【0022】ステップ5 予め作成しておいたテーブルからu(fx),u(fy)を求め
る。 ステップ6 上式(8),(9)中の定数Cに初期値を与える。 ステップ7 演算時間を少なくするため、例えば3ライン(画像中央
の1本と、画像上端から1/4,3/4付近の各1本)
について、ステップ6までに求められたパラメータ値を
用いてサーフェイス画像の濃度nod(3ラインのnodの平
均値)を求める。
Step 5 u (fx) and u (fy) are obtained from the table created in advance. Step 6 An initial value is given to the constant C in the above equations (8) and (9). Step 7 To reduce the calculation time, for example, 3 lines (1 line at the center of the image and 1 line at 1/4 and 3/4 from the top of the image)
With respect to, the density nod of the surface image (the average value of the nod of three lines) is calculated using the parameter values calculated up to step 6.

【0023】ステップ8 上記nodの値が、画像(画面)全体的の明るさを決める
ための所定の値(範囲をもった値で、例えば140〜1
60)に入っているかどうかを判定する。範囲内ならス
テップ10ヘ、そうでなければステップ9ヘ跳ぶ。
Step 8 The value of nod is a predetermined value (a value having a range, for example, 140 to 1) for determining the brightness of the entire image (screen).
60) It is determined whether or not it is entered. If it is within the range, jump to step 10, otherwise jump to step 9.

【0024】ステップ9 所定の値より大きいと画像全体が白っぽくなる(陰影の
コントラストが弱くなる)ので、濃度勾配を強調してコ
ントラストを付けるため上記定数Cを大きくする。逆に
所定の値より小さいと画像全体が暗くコントラストが付
かないので、濃度勾配を強調しないように上記定数Cを
小さくする。 ステップ10 ステップ9までに求められたパラメータ値を用いてサー
フェイス画像の全画素の濃度nodを求め、表示する。
Step 9 If the value is larger than a predetermined value, the whole image becomes whitish (the contrast of the shadow becomes weaker), so the constant C is increased in order to emphasize the density gradient to provide contrast. On the contrary, if the value is smaller than the predetermined value, the whole image is dark and no contrast is provided, so the constant C is made small so as not to emphasize the density gradient. Step 10 Using the parameter values obtained up to step 9, the density nod of all pixels of the surface image is obtained and displayed.

【0025】ステップ11 表示されたサーフェイス画像を操作者が確認する。よけ
れば処理を終了し、そでなければステップ12に行く。 ステップ12 定数Cを操作者が再設定してステップ10に戻る。以
下、ステップ10〜12が繰り返される。
Step 11 The operator confirms the displayed surface image. If it is good, the process is terminated, and if not, the process goes to step 12. Step 12 The operator resets the constant C and returns to step 10. Hereinafter, steps 10 to 12 are repeated.

【0026】なお上述実施例では、離散的フーリエ変換
を用いたが、これに限らず、離散的コサイン変換やアダ
マール変換等、他の直交変換を用いてもよい。
Although the discrete Fourier transform is used in the above embodiment, the present invention is not limited to this, and other orthogonal transform such as discrete cosine transform or Hadamard transform may be used.

【0027】図5は本発明方法が適用可能なハードウェ
ア構成例を示すブロック図である。この図5において、
60はCPU、61は主メモリ、62は磁気ディスク、
63は画像表示用メモリ、65はマウスコントローラ
で、これらは共通バス66に接続されている。上記磁気
ディスク62には、複数のCT画像及び図1に示した処
理を行うためのプログラム等が格納されている。また、
64はCRTモニタ、67はマウスである。
FIG. 5 is a block diagram showing a hardware configuration example to which the method of the present invention can be applied. In this FIG.
60 is a CPU, 61 is a main memory, 62 is a magnetic disk,
Reference numeral 63 is an image display memory, and 65 is a mouse controller, which are connected to a common bus 66. The magnetic disk 62 stores a plurality of CT images and programs for performing the processing shown in FIG. Also,
64 is a CRT monitor and 67 is a mouse.

【0028】図示構成において、CPU60は、磁気デ
ィスク62から複数のCT画像及びプログラムを読み出
し、主メモリ61及び画像表示用メモリ63を用いて図
1に示す処理を行う。これにより、CRTモニタ64の
画面には、程よく陰影付けされた、中心投影法によるデ
プス画像から変換されたサーフェイス画像が表示され
る。
In the illustrated configuration, the CPU 60 reads out a plurality of CT images and programs from the magnetic disk 62 and uses the main memory 61 and the image display memory 63 to perform the processing shown in FIG. As a result, on the screen of the CRT monitor 64, a moderately shaded surface image converted from the depth image by the central projection method is displayed.

【0029】マウスコントローラ65に接続されたマウ
ス67は、CPU60で図1に示す処理を行う際の視点
位置の指定や、各種パラメータ値の入力等に用いられ
る。
The mouse 67 connected to the mouse controller 65 is used for designating the viewpoint position and inputting various parameter values when the CPU 60 performs the processing shown in FIG.

【0030】得られたサーフェイス画像は、必要に応じ
て磁気ディスク62に格納される。
The obtained surface image is stored in the magnetic disk 62 as needed.

【0031】[0031]

【発明の効果】以上説明したように本発明によれば、離
散的フーリエ変換等の直交変換を用いて画像の性質が調
べられ、陰影付けの度合いが画像に応じて適切に変えら
れるので、中心投影法を用いて作成したデプス画像をサ
ーフェイス画像に変換する場合でも、視点から投影対象
(CT画像)までの遠近に関係なく、程よい陰影付けが
可能で三次元画像としての表示効果を弱めることがない
という効果がある。
As described above, according to the present invention, the property of an image is examined by using an orthogonal transform such as a discrete Fourier transform, and the degree of shading can be appropriately changed according to the image. Even when a depth image created using the projection method is converted into a surface image, moderate shading is possible regardless of the perspective from the viewpoint to the projection target (CT image), and the display effect as a three-dimensional image can be weakened. There is an effect that there is no.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明方法の一実施例を示すフローチャートで
ある。
FIG. 1 is a flowchart showing an embodiment of the method of the present invention.

【図2】本発明方法における関係式中のu(fx),u(fy)の
一例を示すグラフである。
FIG. 2 is a graph showing an example of u (fx) and u (fy) in the relational expression in the method of the present invention.

【図3】同上関係式中のA1の説明図である。FIG. 3 is an explanatory diagram of A1 in the relational expression.

【図4】同上関係式中のB1の説明図である。FIG. 4 is an explanatory diagram of B1 in the relational expression.

【図5】本発明方法が適用されたハードウェア構成例を
示すブロック図である。
FIG. 5 is a block diagram showing a hardware configuration example to which the method of the present invention is applied.

【図6】従来方法における濃度の視点位置依存の説明図
である。
FIG. 6 is an explanatory diagram of the viewpoint position dependency of the density in the conventional method.

【符号の説明】[Explanation of symbols]

e 視点 41 投影面 x,y 投影面の座標軸 i y=n,x=mの座標の画素値 60 CPU 61 主メモリ 62 磁気ディスク 63 画像表示用メモリ 64 CRTモニタ 65 マウスコントローラ 66 共通バス 67 マウス e Viewpoint 41 Projection plane x, y Pixel value at coordinates of projection plane i y = n, x = m 60 CPU 61 Main memory 62 Magnetic disk 63 Image display memory 64 CRT monitor 65 Mouse controller 66 Common bus 67 Mouse

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 中心投影法を用いて作成したデプス画像
をサーフェイス画像に変換する際の陰影付け方法におい
て、デプス画像ライン毎に直交変換により展開したとき
の振幅の絶対値で平均化した周波数平均を求め、その周
波数平均を用いてサーフェイス画像に変換する際の陰影
の度合いを変えることを特徴とする陰影付け方法。
1. A shading method for converting a depth image created by using a central projection method into a surface image, in which frequency averages are averaged by absolute values of amplitude when developed by orthogonal transformation for each depth image line. And the frequency average is used to change the degree of shading when converting to a surface image.
【請求項2】 直交変換は、離散的フーリエ変換、離散
的コサイン変換又はアダマール変換であることを特徴と
する請求項1に記載の陰影付け方法。
2. The shading method according to claim 1, wherein the orthogonal transform is a discrete Fourier transform, a discrete cosine transform, or a Hadamard transform.
【請求項3】 周波数平均を用いてのサーフェイス画像
への変換は、 投影面のx軸につき、デプス画像面に垂直でx軸に平行な
面内にx方向近傍画素間の長さを一辺とし、この辺に垂
直な辺の長さとしてx近傍画素の画素値差を拡大強調し
た値をもつ辺とで構成される三角形において、前記拡大
強調した辺を対辺とする角度の余弦のべき乗(C
Au(fx))に従って、 投影面のy軸につき、デプス画像面に垂直でy軸に平行な
面内にy方向近傍画素間の長さを一辺とし、この辺に垂
直な辺の長さとしてy近傍画素の画素値差を拡大強調し
た値をもつ辺とで構成される三角形において、前記拡大
強調した辺を対辺とする角度の余弦のべき乗(C
Bu(fy))に従って、行われることを特徴とする請求項1
又は2に記載の陰影付け方法。
3. The conversion to a surface image using frequency averaging is such that the length between adjacent pixels in the x direction is one side in the plane perpendicular to the depth image plane and parallel to the x axis with respect to the x axis of the projection plane. , A side having a value having a pixel value difference of x neighboring pixels magnified and emphasized as the length of a side perpendicular to this side, and a power of the cosine of the angle (C
According to A u (fx) ), for the y-axis of the projection plane, the length between adjacent pixels in the y-direction is defined as one side in the plane perpendicular to the depth image plane and parallel to the y-axis. In a triangle composed of a side having a value in which the pixel value difference of y neighboring pixels is enlarged and emphasized, the power of the cosine of the angle (C
B u (fy) ) according to claim 1.
Or the shading method according to 2.
【請求項4】 デプス画像の一部分について所望の濃度
結果が得られるまでパラメータ値を変えつつ繰返し陰影
付け処理を行い、所望の濃度結果が得られたら、その結
果が得られたときと同じパラメータ値を用いてデプス画
像全部分について陰影付け処理を行うことを特徴とする
請求項1又は2に記載の陰影付け方法。
4. A part of the depth image is subjected to repeated shading processing while changing the parameter value until a desired density result is obtained, and when the desired density result is obtained, the same parameter value as when the result is obtained is obtained. The shading method according to claim 1 or 2, wherein shading processing is performed on the entire portion of the depth image using.
JP15360594A 1994-07-05 1994-07-05 Shading method and three-dimensional image display method and apparatus using the same Expired - Fee Related JP3463821B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15360594A JP3463821B2 (en) 1994-07-05 1994-07-05 Shading method and three-dimensional image display method and apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15360594A JP3463821B2 (en) 1994-07-05 1994-07-05 Shading method and three-dimensional image display method and apparatus using the same

Publications (2)

Publication Number Publication Date
JPH0816819A true JPH0816819A (en) 1996-01-19
JP3463821B2 JP3463821B2 (en) 2003-11-05

Family

ID=15566144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15360594A Expired - Fee Related JP3463821B2 (en) 1994-07-05 1994-07-05 Shading method and three-dimensional image display method and apparatus using the same

Country Status (1)

Country Link
JP (1) JP3463821B2 (en)

Also Published As

Publication number Publication date
JP3463821B2 (en) 2003-11-05

Similar Documents

Publication Publication Date Title
US9197887B2 (en) Geometric correction apparatus and method based on recursive bezier patch sub-division cross-reference to related application
JP3830555B2 (en) Method and apparatus for correcting original video
CN109461213B (en) Image processing method, device, equipment and storage medium based on virtual reality
US6491400B1 (en) Correcting for keystone distortion in a digital image displayed by a digital projector
JP3466661B2 (en) Image processing apparatus and method
Braun et al. Techniques for gamut surface definition and visualization
EP0782105B1 (en) Processing image data
US5771341A (en) Graphics apparatus and method for dividing parametric surface patches defining an object into polygons
US7221372B2 (en) Method of analyzing and modifying a footprint
JP3463821B2 (en) Shading method and three-dimensional image display method and apparatus using the same
JP5888681B2 (en) Shape extraction method and shape extraction system
TWI628505B (en) Information processing device, information processing method and recording medium
JP7304641B2 (en) Chart generation method, resolution measurement method, resolution measurement system, and program
KR101409619B1 (en) Geometric Correction Apparatus and Method based on Recursive Bezier Patch Sub-Division
EP0596666B1 (en) Processing image data
JP3090409B2 (en) Method and apparatus for designing three-dimensional shape using computer
WO2000075865A1 (en) Image processing method
EP1228489B1 (en) Refinement of transmitted polygonal mesh data
JP3762487B2 (en) Graphic drawing device
JP3411745B2 (en) Tomographic image interpolation method and apparatus
JP2007133775A (en) Image correction device, image correction method, and image correction program
Ford et al. Inhomogeneous surface diffusion for image filtering
JPH07325905A (en) Endless processing method for image and image processor
JPH01128170A (en) Image smoothing method
JPS62164174A (en) Three-dimensional display system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090822

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100822

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100822

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees