JP3706098B2 - 3D image construction method - Google Patents
3D image construction method Download PDFInfo
- Publication number
- JP3706098B2 JP3706098B2 JP2002340774A JP2002340774A JP3706098B2 JP 3706098 B2 JP3706098 B2 JP 3706098B2 JP 2002340774 A JP2002340774 A JP 2002340774A JP 2002340774 A JP2002340774 A JP 2002340774A JP 3706098 B2 JP3706098 B2 JP 3706098B2
- Authority
- JP
- Japan
- Prior art keywords
- projection
- point
- plane
- viewpoint
- spherical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000010276 construction Methods 0.000 title claims description 14
- 238000000034 method Methods 0.000 claims description 33
- 210000005252 bulbus oculi Anatomy 0.000 description 21
- 238000006243 chemical reaction Methods 0.000 description 14
- 230000009466 transformation Effects 0.000 description 13
- 238000012937 correction Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 210000000056 organ Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、コンピュータグラフィックスに係り、特に中心投影の改良をはかる三次元画像構成方法に関するものである。
【0002】
【従来の技術】
中心投影法は、図9(a)に示すように、一点(視点)eから円錐状に光線を発して、投影対象を投影面4上に投影する方法である。この方法が断層像の投影に応用され、三次元画像の構成に利用されている(例えば、特開平6−3492号)。
【0003】
ところで従来、上記のような中心投影法(一般的中心投影方法)における投影面は、コンピュータグラフィックスに関する代表的な文献である「コンピュータグラフィックス」(J.D.FOLEY & A.VAN.DAM著 今宮淳美訳 昭和59年7月15日 日本コンピュータ協会発行)の275〜316ページ等を見ても分かるように平面であった。
【0004】
【発明が解決しようとする課題】
上記のように従来技術では、中心投影方法における投影面は平面であった。このため、次のような歪が発生した 図9(b)において、投影対象40a,40bを投影面4に投影すると、それぞれ投影像40A,40Bとなる。投影対象40aと投影対象40bの長さ(図示左右方向の寸法)が同じであるとすると、投影対象40bは斜めから見ることになるので投影対象40aより短く見える筈である。
【0005】
しかし、図9(b)から分かるように、そのようにはならず(逆に長くなり)、またこのような投影方向に依存する歪は、視点eと投影面4との距離が小さくなるほど大きくなるという問題点があった。
【0006】
本発明の目的は、投影方向に依存する投影像の歪をなくすことのできる三次元画像構成方法を提供することにある。
【0007】
【課題を解決するための手段】
本発明は、設定手段と第1、第2の投影手段とを備えた三次元画像構成装置を用いて、視点を頂点として円錐状に投影線をその視点から三次元データ群である投影対象へ発したときの、その投影対象を平面の投影面に投影して中心投影データを得、中心投影データから三次元画像を構成する中心投影法による三次元画像構成方法において、上記設定手段によって、前記視点と前記投影面との設定、及び視点と投影面との間であって視点と投影面とのそれぞれに一点で接する仮想的な球モデルを設定する第1のステップと、上記第1の投影手段によって、該設定された球モデルの球面上に前記視点から見た投影対象を投影させ球面投影データを得る第2のステップと、上記第2の投影手段によって、該得られた球面投影データを前記投影面に投影させて、前記中心投影データが投影されたときに生じた投影方向に依存する位置歪みを補正した投影データを得る第3のステップと、を備えたことを特徴とする中心投影法による三次元画像構成方法を開示する。
【0008】
更に本発明は、前記第3のステップが前記球面モデル上に投影して得た球面投影データを前記投影面に投影させるさいに、その投影対象の画像サイズを拡大させるステップを備えて拡大を行わせることを特徴とする請求項1に記載の中心投影法による三次元画像構成方法を開示する。
【0009】
更に本発明は、設定手段と第1、第2の投影点取得手段と距離算出手段とを備えた三次元画像構成装置を用いて、視点を頂点として円錐状に投影線をその視点から三次元の投影対象へ発したときの、その投影対象を平面の投影面に投影して投影データを得、この投影データから三次元画像を構成する中心投影法による三次元画像構成方法において、設定手段によって、視点と投影面の設定、及び視点と投影面との間であって投影面に一点で接する球モデルを設定する第1のステップと、上記第1の投影点取得手段によって、投影線を与えて、この投影線が交わる前記球モデルの球面上と前記投影面上に、前記投影対象の点を投影し球面上の投影点Qと投影面上の投影点Pを得る第2のステップと、上記距離算出手段によって、前記投影点Qと球モデルの投影面接点との球面に沿った距離Lを求める第3のステップと、上記第2の投影点取得手段によって、この距離Lと投影面上での投影点Pの角度φとに基づいて、前記投影点Qと対応させて得た投影方向に依存する位置歪みを補正した前記投影面上の投影点Gを得る第4のステップとを備えたことを特徴とする中心投影法による三次元画像構成方法を開示する。
【0010】
【実施例】
以下、図面を参照して本発明の実施例を説明する。
図1は、本発明による中心投影方法の一実施例を示すフローチャートである。
図1に示すように、本発明による中心投影方法は、投影対象を、まず一般的な中心投影方法によって平面からなる投影面(1次投影平面:後述眼球変換による歪補正前の投影平面、すなわち従来方法の投影平面)へ投影する(ステップ1)。
【0011】
そして、その投影後又は投影時に、後述眼球変換により前記投影平面(2次投影平面:後述眼球変換による歪補正後の投影平面)に再投影し、前記投影対象の投影像を得るものである(ステップ2)。
【0012】
ここで眼球変換とは、投影対象の、投影平面への投影後又は投影時に、視線上に中心をもつ球面をその中心位置において視線に直交する方向に2分割して得られる2つの半球面のうち、視点に遠い側の半球面を投影面とする該投影面(投影球面)への投影を介しての、前記投影平面への再投影をいう。
【0013】
すなわち本発明では、前記投影球面を投影面として中心投影することとなるもので、この場合、投影面である半球面に沿った各点(アドレス)がCRTの表示画素(アドレス)に対応する。そして、前記投影球面に投影したと同じ効果を平面(CRT画面)上で得るために眼球変換を行い、歪補正をするものである。
【0014】
以下、図2及び図3を参照して上記本発明方法の眼球変換による歪補正の原理について説明する。
まず図2を参照して説明すると、図2は視点eがh=2Rの場合について示したものである。図2において、3は視線(Z軸)上に中心をもつ球面をその中心位置において視線に直交する方向に2分割して得られる2つの半球面I,IIのうち、視点に遠い側の半球面(半球面I)からなる投影面(以下、投影球面という)である。また、4は平面からなる投影面(以下、投影平面という)で、眼球変換による歪補正前の投影平面、すなわち従来方法の投影平面としての1次投影平面でもあり、かつ眼球変換による歪補正後の投影平面としての2次投影平面でもある。この投影平面4は、CRTの表示面である画面に相当する。
【0015】
また、
X,Y,Zは三次元座標系の各軸、
Oは三次元座標系の原点、
eは視点、
hは視点eと投影平面4との距離、
Rは投影球面3の半径、
Pは投影平面4上の点(X1,Y1)、
ψは直線OPとX軸とのなす角、
Qは投影平面4上のP点に対応する投影球面3上の点(直線Peと投影球面3の交点)、
θは直線Z1QとZ軸のなす角、
Lは投影球面3上の円弧OQ、
L’はLと同じ長さをもった直線OP上の線分、
ηはCRT表示アドレス(X軸に平行にとる)、
ξはCRT表示アドレス(Y軸に平行にとる)、
である。
【0016】
これによれば、次の式が成り立つ。
眼球に対応した、h=2・Rのとき、
三角形eOPについて、tan(θ/2)=sqrt(X1 2+Y1 2)/2R
三角形X1OPついて、tan(φ)=Y1/X1
が与えられる。
【0017】
したがって、X1,Y1を指定すると、対応するη1,ξ1は、
ψ=arctan(Y1/X1)
θ=2・arctan〔sqrt(X1 2+Y1 2)/2R〕
L=R・θ
を使って、
η1=L・cos(ψ)
ξ1=L・sin(ψ)
となる。
【0018】
このη1,ξ1が表示メモリ上の画素アドレスとなる。すなわち、投影平面4の(X1,Y1)の点は、CRT画面上では点(η1,ξ1)に表示することになるもので、これにより眼球変換による歪補正が行われたことになる。
【0019】
更に、この眼球変換により画像サイズは縮小する(点Pから点(η1,ξ1)に縮む)。したがって、歪補正後の投影平面4への投影像の画像サイズは、眼球変換により補正して投影した像の画像サイズよりも大きく投影可能となる。
【0020】
次に、視点eがh=2R以外の場合について図3により説明する。この図3(a),(b)において、図2と同一符号は同一又は相当部分を示す。
また、Uは直線eQの長さ、
γは線分ePとZ軸とのなす角、
wはQからZ軸に垂直に下ろした直線の長さ、
である。
【0021】
これによれば、次の式が成り立つ。
U=sqrt〔(h−R)2+R2−2・(h−R)・R・cos(π−θ)〕
とすると、
U・sinγ=R・sinθ
となる。
【0022】
またγは、
tanγ=sqrt(X1 2+Y1 2)/h
で与えられる。
これより、X1,Y1を指定するとθが求まる。
【0023】
φはtanφ=Y1/X1から求めると、L=R・θであるので、
η1=L・cosφ
ξ1=L・sinφ
となる。
【0024】
このη1,ξ1が表示メモリ上の画素アドレスとなる。すなわち、投影平面4の(X1,Y1)の点は、CRT画面上では点(η1,ξ1)に表示することになるもので、これにより眼球変換による歪補正が行われたことになる。
【0025】
投影対象はマウス等の入力装置により入力したデータでもよく、また断層像(三次元計測によるボリューム画像を分解して得られた断層像も含む)等のような演算装置により演算した結果のデータでもよい。
【0026】
図4〜6は、複数の断層像から、一般的な中心投影方法により三次元画像を構成する方法(特願平6−3492号)につき表すが、このような場合においても、中心投影をする以上、歪をなくすためには眼球変換は必要になるもので、以下、三次元画像の構成方法に本発明方法を適用した場合の一例を説明する。なお、図5、図6いずれの場合においても、最初に平面からなるX,Y投影面(投影平面)4上に断層像を投影し、次に眼球変換によりη,ξ面に変換することになる。
【0027】
まず、上記三次元画像の構成方法において、中心投影による座標変換について述べる。中心投影による投影面への各断層像の投影に当たっての、各断層像の画素座標の投影面上の座標への変換は次のように行われる。
【0028】
図4に示す例では、説明を簡単化するため投影面と断層像面、更にはx−y面が各々平行であるように座標系をとっている。
この図4において、
x,y,zは三次元座標系(x,y,z)の各軸、
e点(x1,y1,d1)は視点eの位置、
P点(X,Y)は投影面(表示画面に相当する)21上の点、
S点(x0,y0,d0)はe点(x1,y1,d1)とP点(X,Y)を通る直線22と断層像23Aの交わる点、
である。
【0029】
また、
Dは投影面21の投影面21の位置(z軸上)で、任意に設定可能である。
【0030】
d0は断層像23Aの位置(z軸上)で、計測時に決まる。
【0031】
d1は視点eのz座標、
である。
【0032】
これによれば、次の式が成り立つ。
X={(D−d1)/(d0−d1)}×(x0−x1)+xl…(1)
Y={(D−d1)/(d0−d1)}×(y0−y1)+y1…(2)
x0={(d0−D)/(d1−D)}×(x1−x)+X …(3)
y0={(d0−D)/(d1−D)}×(y1−y)+Y …(4)
【0033】
投影された画像を投影面21に相当する表示画面(図示せず)上に、縦512画素×横512画素で表示するとき、X,Yは−256から+256までの値を取る。それれぞれのX,Yに対してd0断層像23A上では上掲(3),(4)式によりx0,y0が決まり、どの点が投影すべきかが決まる。断層像23は複数あって、d0も複数個あるので、1組のX,Yに対して複数の投影すべき点x0,y0が決まる。
【0034】
同様の座標系において、断層像23Aの他にも断層像23B〜23Eを用意し、y軸方向から見た図を図5(a)に示す。この図5(a)において、断層像23A〜23Eは同一対象物について同一方向に等間隔で得られた断層像(図示例では等間隔であるが、必ずしも等間隔である必要はない)であり、断層像23Bには、臓器領域B1,B2,B3が強調して書いてある。臓器領域B1,B2,B3を投影面21に投影するとB1′,B2′,B3′となる。同様に、断層像23Cの臓器領域C1,C2を投影面21に投影するとC1′,C2′となる。
【0035】
ここで、投影データ(ここでは、B1′,B2′,B3′;C1′,C2′)を表示メモリ(図示せず)に書く時は、三次元的効果を出すために、視点eから見てより遠くに存在する投影データを先に書き込み、それより近くの投影データは後から上書きする。したがってここでは、投影データC1,C2より投影データB1,B2,B3の方が視点eより遠くに存在するので、投影データB1′,B2′,B3′を先に書いて、投影データC1′,C2′は後から上書きすることになる。なお図7(a)では、投影データB1′,B2′,B3′:C1′,C2′は各々投影面21から離して示しているが、これは表示メモリに書き込む投影データB1′,B2′,B3′;C1′,C2′の順番を判り易くしたために過ぎず、最初に書かれる投影データB1′,B2′,B3′も、それに上書きされる投影データC1′,C2′も実際には投影面21上に書かれる。
【0036】
図5(b)は、図5(a)よりも一般化して示したもので、投影面と断層像面が平行でない場合の例である。この場合は、断層像23A,23B,23C…から補間演算で投影面21と平行な面に向けられた断層像23a,23b,23c…を作っておく必要がある。その他は、図5(a)の場合と同様である。なお、b1′;c1′,c2′;d1′は、補間演算された断層像23b,23c,23d上の臓器領域b1;c1,c2;d1の投影データである。
【0037】
図6は、視点、断層像及び投影面がより複雑な位置関係をもった場合の中心投影による座標変換を説明するための図で、断層像23上のS点(x0,z0,y0)の投影結果が投影平面上のP点(x,y,z)になることを示す。
【0038】
この図6において、中心投影による投影平面4への断層像23の投影に当たっての、断層像23の画素座標の投影平面4上の座標への変換は次のように行われる。
ここで、
aはx軸と投影平面4の交わる点、
bはy軸と投影平面4の交わる点、
cはz軸と投影平面4の交わる点、
である。
【0039】
また、
αは原点から投影平面4に下ろした垂線をz−x面に投影した線がx軸となす角、
βは前記垂線がx−z面となす角、
e点(x1,y1,z1)は視点eの位置、
P点(x,y,z)は投影面(表示画面に相当する)4上の点、
S点(x0,z0,y0)はe点(x1,y1,z1)とP点(x,y,z)を通る直線22と断層像23の交わる点、
とすると、次の式が成り立つ。
【0040】
まず、投影平面4は
(x/a)十(y/b)+(z/c)=1 …(5)
で表わされる。
また、e点(x1,y1,z1)とP点(x,y,z)を通る直線22は
(x0−x)/(x1−x)=(y0−y)/(y1−y)=(z0−z)/(z1−z) …(6)
で与えられる。
【0041】
投影平面4がC1点(xc1,yc1,zc1)を通るとき、
k1=sinα
k2=cosα/sinβ
k3=cosα・cosβ/sinβ
ai=1/a
bi=1/b
ci=1/c
として、
ここで、上記C1点(xc1,yc1,zc1)には、例えば、視点e(x1,y1,z1)から投影平面4に下ろした垂線と投影平面4の交わる点(この点と視点e間の距離はh)として、
zc1=z1+−〔h/sqrt{1+(c2/a2)+(c2/b2)}〕(「z1+−」の「−」はz0<zc1のとき) …(10)
xc1=x1+{c・(z1−zc1)/a} …(11)
yc1=y1+{c・(z1−zc1)/b} …(12)
を使ってもよい。
【0042】
投影された画像を投影平面4に相当する表示画面(図示せず)上に、縦512画素×横512画素で表示するとき、X,Yは−256から+256までの値を取る。それぞれのX,Yに対して上掲(7),(8),(9)式によりx,yが決まる。e点のx1,y1,z1は任意に与えるので、下掲(13),(14)式により、y0,d0の断層像上で画素S点の座標x0,z0が決まる。
【0043】
x0={(d0−y)/(y1−y)}×(x1−x)+x …(13)
z0={(d0−y)/(y1−y)}×(z1−z)+z …(14)
断層像は複数あって、d0も複数個あるので、1組のX,Yに対して複数の投影すべき点x0,y0が決まる。
【0044】
なお、図6中のRは視点eからS点までの距離を示すもので、このRはP点の画素値(輝度)を求める際のパラメータとなる。P点の画素値は、設定された画素値(輝度)の最大値Rmaxから上記Rを引算した値に比例する。このP点は表示メモリ上では(η,ξ)点に対応するので(η,ξ)点に前記画素値を格納する。
【0045】
以上のような座標変換を、表示画面に相当する投影平面4上の全ての点について行う。また、全ての断層像23について行う。更に、構成された結果像である三次元画像に対して行っても、あるいは構成前の1枚、1枚の断層像に対して行ってもよい。
【0046】
図7は本発明方法が適用可能なハードウェア構成例を示すブロック図である。
この図7において、50はCPU、51は主メモリ、52は磁気ディスク、53は表示メモリ、55はマウスコントローラで、これらは共通バス57に接続されている。磁気ディスク52には、複数の断層像及び本発明方法の実行演算のためのプログラムなどが格納されている。
【0047】
CPU50は、これら複数の断層像及び本発明方法の実行演算のためのプログラムを読み出し、主メモリ51を用いて眼球変換等の演算を行い、その結果を表示メモリ53に送り、CRTモニタ54に表示させる。マウスコントローラ55に接続されたマウス56は、眼球変換等の演算の際の、視点位置等を指定する。
眼球変換され歪補正された画像は、必要に応じて磁気ディスク52に格納される。
【0048】
【発明の効果】
以上説明したように本発明によれは、投影方向に依存する投影像の歪が補正され、投影方向の違いによって投影データ(長さないし大きさ)が異なってしまうことが防止できるという効果がある.
【図面の簡単な説明】
【図1】本発明方法の概略を示すフローチャートである。
【図2】眼球変換による歪補正の原理説明図である。
【図3】同じく眼球変換による歪補正の原理説明図である。
【図4】三次元画像の構成方法における断層像画素座標の投影面上の座標への変換を説明するための図である。
【図5】同じく複数の断層像についての画素座標の投影面上の座標への変換を脱明するための図である。
【図6】視点、断層像及び投影面がより複雑な位置関係をもった場合の中心投影による座標変換を説明するための図である。
【図7】本発明方法が適用可能なハードウェア構成例を示すブロック図である。
【図8】眼球投影の説明図である。
【図9】中心投影方法と歪の説明図である。
【符号の説明】
3 投影球面
4 投影平面
X,Y,Z 三次元座標系の各舳
O 三次元座標系の原点
e 視点
h 視点eと投影平面4との距離
R 投影球面3の半径
P 投影平面4上の点(X1,Y1)
ψ 直線OPとX軸とのなす角
Q 投影平面4上のP点に対応する投影球面3上の点(直線Peと投影球面3の交点)
θ 直線Z1 QとZ軸のなす角
L 投影球面3上の円弧OQ
L′ Lと同じ長さをもった直線OP上の線分
η CRT表示アドレス(X軸に平行にとる)
ξ CRT表示アドレス(Y軸に平行にとる)
U 直線eQの長さ
γ 線分ePとZ軸とのなす角
w QからZ舳に垂直に下ろした直線の長さ[0001]
[Industrial application fields]
The present invention relates to computer graphics, and more particularly to a three-dimensional image construction method for improving central projection.
[0002]
[Prior art]
The center projection method is a method of projecting a projection target onto the
[0003]
By the way, conventionally, the projection plane in the above-described central projection method (general central projection method) is “Computer Graphics” (JD FOLEY & A. VAN. DAM), which is a typical document relating to computer graphics. It was a flat surface as can be seen from pages 275-316 of the translation of Tomomi Imamiya, July 15, 1984, published by the Japan Computer Association.
[0004]
[Problems to be solved by the invention]
As described above, in the prior art, the projection surface in the central projection method is a plane. For this reason, in FIG. 9B in which the following distortion has occurred, when the
[0005]
However, as can be seen from FIG. 9B, this does not happen (in contrast, it becomes longer), and the distortion depending on the projection direction increases as the distance between the viewpoint e and the
[0006]
An object of the present invention is to provide a three-dimensional image construction method that can eliminate distortion of a projected image that depends on the projection direction.
[0007]
[Means for Solving the Problems]
The present invention uses a three-dimensional image constructing apparatus including a setting unit and first and second projecting units to project a projection line in a conical shape from a viewpoint to a projection target that is a three-dimensional data group. In the three-dimensional image construction method by the central projection method of projecting the projection target on the plane projection plane to obtain the central projection data and constructing the three-dimensional image from the central projection data, the setting means A first step of setting a viewpoint and the projection plane; a first step of setting a virtual sphere model between the viewpoint and the projection plane and contacting the viewpoint and the projection plane at one point; and the first projection Means for projecting the projection target viewed from the viewpoint onto the spherical surface of the set spherical model and obtaining spherical projection data; and the obtained spherical projection data by the second projection means. Throw on the projection surface A third step of obtaining projection data in which positional distortion dependent on the projection direction generated when the central projection data is projected is corrected, and a three-dimensional image by the central projection method, A configuration method is disclosed.
[0008]
The present invention further includes a step of enlarging an image size of the projection target when projecting the spherical projection data obtained by projecting onto the spherical model in the third step onto the projection plane. A three-dimensional image construction method using a central projection method according to
[0009]
Furthermore, the present invention uses a three-dimensional image construction apparatus comprising setting means, first and second projection point acquisition means, and distance calculation means, and uses a viewpoint as a vertex to project a projection line in a conical shape from the viewpoint. In the three-dimensional image construction method based on the central projection method in which a projection data is obtained by projecting the projection target onto a flat projection surface and a three-dimensional image is constructed from the projection data. A first step of setting a viewpoint and a projection plane, and a sphere model between the viewpoint and the projection plane and in contact with the projection plane at one point; and a projection line is given by the first projection point acquisition unit. A second step of projecting the projection target point on the spherical surface of the spherical model and the projection plane where the projection lines intersect to obtain a projection point Q on the spherical surface and a projection point P on the projection plane; By the distance calculation means, the projection point Q and A third step of obtaining a distance L along the spherical surface with the projection plane contact of the model, and the second projection point acquisition means based on the distance L and the angle φ of the projection point P on the projection plane. And a fourth step of obtaining a projection point G on the projection plane in which the positional distortion depending on the projection direction obtained in correspondence with the projection point Q is corrected. An image construction method is disclosed.
[0010]
【Example】
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a flowchart showing an embodiment of the center projection method according to the present invention.
As shown in FIG. 1, in the central projection method according to the present invention, a projection target is first a projection plane composed of a plane by a general central projection method (primary projection plane: a projection plane before distortion correction by eyeball transformation described later, ie, Projection onto a conventional projection plane (step 1).
[0011]
Then, after or at the time of projection, reprojection is performed on the projection plane (secondary projection plane: a projection plane after distortion correction by eyeball conversion described later) by eyeball conversion described later to obtain a projection image of the projection target ( Step 2).
[0012]
Here, the eyeball transformation refers to two hemispherical surfaces obtained by dividing a spherical surface having a center on the line of sight into two in the direction perpendicular to the line of sight at the center position after or upon projection onto the projection plane. Of these, re-projection onto the projection plane through projection onto the projection plane (projection sphere) having a hemisphere far from the viewpoint as the projection plane.
[0013]
That is, in the present invention, the projection spherical surface is used as a central projection, and in this case, each point (address) along the hemispherical surface that is the projection surface corresponds to a display pixel (address) of the CRT. Then, in order to obtain the same effect as that projected onto the projection spherical surface on a plane (CRT screen), eyeball transformation is performed and distortion correction is performed.
[0014]
Hereinafter, the principle of distortion correction by eyeball transformation of the method of the present invention will be described with reference to FIGS.
First, referring to FIG. 2, FIG. 2 shows a case where the viewpoint e is h = 2R. In FIG. 2,
[0015]
Also,
X, Y, Z are the axes of the three-dimensional coordinate system,
O is the origin of the 3D coordinate system,
e is the viewpoint,
h is the distance between the viewpoint e and the
R is the radius of the
P is a point on the projection plane 4 (X 1 , Y 1 ),
ψ is the angle between the straight line OP and the X axis,
Q is a point on the
θ is the angle between the straight line Z 1 Q and the Z axis,
L is an arc OQ on the projection
L ′ is a line segment on the straight line OP having the same length as L,
η is a CRT display address (taken parallel to the X axis),
ξ is the CRT display address (taken parallel to the Y axis),
It is.
[0016]
According to this, the following equation holds.
When h = 2 · R corresponding to the eyeball,
For the triangle eOP, tan (θ / 2) = sqrt (X 1 2 + Y 1 2 ) / 2R
For triangle X 1 OP, tan (φ) = Y 1 / X 1
Is given.
[0017]
Therefore, if X 1 and Y 1 are specified, the corresponding η 1 and ξ 1 are
ψ = arctan (Y 1 / X 1 )
θ = 2 · arctan [sqrt (X 1 2 + Y 1 2 ) / 2R]
L = R · θ
Use
η 1 = L · cos (ψ)
ξ 1 = L · sin (ψ)
It becomes.
[0018]
These η 1 and ξ 1 are pixel addresses on the display memory. That is, the point (X 1 , Y 1 ) of the
[0019]
Further, the image size is reduced by this eyeball transformation (from point P to point (η 1 , ξ 1 )). Therefore, the image size of the projected image on the
[0020]
Next, the case where the viewpoint e is other than h = 2R will be described with reference to FIG. 3A and 3B, the same reference numerals as those in FIG. 2 denote the same or corresponding parts.
U is the length of the straight line eQ,
γ is the angle between the line segment eP and the Z axis,
w is the length of the straight line from Q to the Z axis,
It is.
[0021]
According to this, the following equation holds.
U = sqrt [(h−R) 2 + R 2 −2 · (h−R) · R · cos (π−θ)]
Then,
U · sinγ = R · sinθ
It becomes.
[0022]
Γ is
tan γ = sqrt (X 1 2 + Y 1 2 ) / h
Given in.
From this, when X 1 and Y 1 are designated, θ is obtained.
[0023]
Since φ is determined from tan φ = Y 1 / X 1 , L = R · θ,
η 1 = L · cos φ
ξ 1 = L · sinφ
It becomes.
[0024]
These η 1 and ξ 1 are pixel addresses on the display memory. That is, the point (X 1 , Y 1 ) of the
[0025]
The projection target may be data input by an input device such as a mouse, or data obtained as a result of calculation by an arithmetic device such as a tomogram (including a tomogram obtained by decomposing a volume image obtained by three-dimensional measurement). Good.
[0026]
4 to 6 show a method (Japanese Patent Application No. 6-3492) for constructing a three-dimensional image from a plurality of tomographic images by a general central projection method. In such a case, central projection is performed. As described above, in order to eliminate distortion, eyeball transformation is necessary. Hereinafter, an example in which the method of the present invention is applied to a method for constructing a three-dimensional image will be described. In either case of FIGS. 5 and 6, a tomographic image is first projected on a plane X, Y projection plane (projection plane) 4 and then converted into η and ξ planes by eyeball transformation. Become.
[0027]
First, in the above three-dimensional image construction method, coordinate conversion by center projection will be described. Conversion of the pixel coordinates of each tomographic image into coordinates on the projection surface in projecting each tomographic image onto the projection surface by central projection is performed as follows.
[0028]
In the example shown in FIG. 4, in order to simplify the explanation, the coordinate system is taken so that the projection plane, the tomographic image plane, and the xy plane are parallel to each other.
In FIG. 4,
x, y, z are axes of the three-dimensional coordinate system (x, y, z),
The point e (x 1 , y 1 , d 1 ) is the position of the viewpoint e,
P point (X, Y) is a point on the projection plane (corresponding to the display screen) 21;
The point S (x 0 , y 0 , d 0 ) is the point where the
It is.
[0029]
Also,
D is the position of the projection plane 21 on the projection plane 21 (on the z axis) and can be arbitrarily set.
[0030]
d 0 is the position of the
[0031]
d 1 is the z coordinate of the viewpoint e,
It is.
[0032]
According to this, the following equation holds.
X = {(D−d 1 ) / (d 0 −d 1 )} × (x 0 −x 1 ) + x l (1)
Y = {(D−d 1 ) / (d 0 −d 1 )} × (y 0 −y 1 ) + y 1 (2)
x 0 = {(d 0 -D ) / (d 1 -D)} × (x 1 -x) + X ... (3)
y 0 = {(d 0 -D ) / (d 1 -D)} × (y 1 -y) + Y ... (4)
[0033]
When the projected image is displayed on a display screen (not shown) corresponding to the projection plane 21 in a vertical 512 pixel × horizontal 512 pixel, X and Y take values from −256 to +256. For the respective X and Y, on the d 0
[0034]
In the same coordinate system, tomographic images 23B to 23E are prepared in addition to the
[0035]
Here, when writing projection data (here, B 1 ′, B 2 ′, B 3 ′; C 1 ′, C 2 ′) in a display memory (not shown), a three-dimensional effect is produced. , Projection data existing farther from the viewpoint e is written first, and projection data closer thereto is overwritten later. Accordingly, here, since the projection data B 1 , B 2 , and B 3 are located farther from the viewpoint e than the projection data C 1 and C 2 , the projection data B 1 ′, B 2 ′, and B 3 ′ are given first. The projection data C 1 ′ and C 2 ′ are overwritten later. In FIG. 7A, projection data B 1 ′, B 2 ′, B 3 ′: C 1 ′, C 2 ′ are shown separately from the projection plane 21, but this is projection data to be written into the display memory. B 1 ′, B 2 ′, B 3 ′; only because the order of C 1 ′, C 2 ′ is easy to understand, and the projection data B 1 ′, B 2 ′, B 3 ′ written first is overwritten on it. Actually, the projection data C 1 ′ and C 2 ′ are also written on the projection plane 21.
[0036]
FIG. 5B is a more generalized example than FIG. 5A, and shows an example where the projection plane and the tomographic image plane are not parallel. In this case, it is necessary to create
[0037]
FIG. 6 is a diagram for explaining coordinate transformation by central projection when the viewpoint, tomographic image, and projection plane have a more complicated positional relationship. S point (x 0 , z 0 , y on the tomographic image 23 is illustrated. 0 ) indicates that the projection result is P point (x, y, z) on the projection plane.
[0038]
In FIG. 6, the conversion of the pixel coordinates of the tomographic image 23 to the coordinates on the
here,
a is the point where the x-axis and the
b is the point where the y-axis and the
c is the point where the z-axis and the
It is.
[0039]
Also,
α is an angle formed by a line projected from the origin to the
β is the angle between the perpendicular and the xz plane,
The point e (x 1 , y 1 , z 1 ) is the position of the viewpoint e,
P point (x, y, z) is a point on the projection plane (corresponding to the display screen) 4,
The S point (x 0 , z 0 , y 0 ) is the point where the
Then, the following equation holds.
[0040]
First, the
It is represented by
The
Given in.
[0041]
When the
k 1 = sin α
k 2 = cos α / sin β
k 3 = cos α · cos β / sin β
a i = 1 / a
b i = 1 / b
c i = 1 / c
As
Here, the C1 point (xc 1 , yc 1 , zc 1 ) is, for example, a point (this point) where the perpendicular line dropped from the viewpoint e (x 1 , y 1 , z 1 ) to the
zc 1 = z 1 + − [h / sqrt {1+ (c 2 / a 2 ) + (c 2 / b 2 )}] (“−” in “z 1 + −” is z 0 <zc 1 ) (10)
xc 1 = x 1 + {c · (z 1 −zc 1 ) / a} (11)
yc 1 = y 1 + {c · (z 1 −zc 1 ) / b} (12)
May be used.
[0042]
When a projected image is displayed on a display screen (not shown) corresponding to the
[0043]
x 0 = {(d 0 -y ) / (y 1 -y)} × (x 1 -x) + x ... (13)
z 0 = {(d 0 −y) / (y 1 −y)} × (z 1 −z) + z (14)
Since there are a plurality of tomographic images and a plurality of d0, a plurality of points x 0 and y 0 to be projected are determined for a set of X and Y.
[0044]
Note that R in FIG. 6 indicates the distance from the viewpoint e to the S point, and this R is a parameter for obtaining the pixel value (luminance) of the P point. The pixel value at point P is proportional to a value obtained by subtracting R from the maximum value Rmax of the set pixel value (luminance). Since the P point corresponds to the (η, ξ) point on the display memory, the pixel value is stored at the (η, ξ) point.
[0045]
The coordinate conversion as described above is performed for all points on the
[0046]
FIG. 7 is a block diagram showing a hardware configuration example to which the method of the present invention can be applied.
In FIG. 7, 50 is a CPU, 51 is a main memory, 52 is a magnetic disk, 53 is a display memory, 55 is a mouse controller, and these are connected to a
[0047]
The CPU 50 reads out the plurality of tomographic images and a program for execution calculation of the method of the present invention, performs calculation such as eyeball conversion using the main memory 51, sends the result to the
The image subjected to eyeball transformation and distortion correction is stored in the
[0048]
【The invention's effect】
As described above, according to the present invention, the distortion of the projection image depending on the projection direction is corrected, and it is possible to prevent the projection data (not length or size) from being different depending on the projection direction. .
[Brief description of the drawings]
FIG. 1 is a flowchart showing an outline of a method of the present invention.
FIG. 2 is a diagram illustrating the principle of distortion correction by eyeball conversion.
FIG. 3 is a diagram for explaining the principle of distortion correction by eyeball conversion.
FIG. 4 is a diagram for explaining conversion of tomographic image pixel coordinates to coordinates on a projection plane in a method of constructing a three-dimensional image.
FIG. 5 is a diagram for deciphering conversion of pixel coordinates into coordinates on the projection plane for a plurality of tomographic images.
FIG. 6 is a diagram for explaining coordinate conversion by central projection when a viewpoint, a tomographic image, and a projection plane have a more complicated positional relationship;
FIG. 7 is a block diagram showing a hardware configuration example to which the method of the present invention can be applied.
FIG. 8 is an explanatory diagram of eyeball projection.
FIG. 9 is an explanatory diagram of a center projection method and distortion.
[Explanation of symbols]
3
ψ Angle Q between straight line OP and X axis Point on
θ Angle L formed by straight line Z1 Q and Z axis Arc OQ on projected
L ′ Line segment on straight line OP having the same length as L η CRT display address (taken parallel to X axis)
ξ CRT display address (taken parallel to the Y axis)
U Length of straight line eQ γ Length of straight line drawn perpendicularly to Z 舳 from angle w Q formed by line segment eP and Z axis
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002340774A JP3706098B2 (en) | 2002-11-25 | 2002-11-25 | 3D image construction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002340774A JP3706098B2 (en) | 2002-11-25 | 2002-11-25 | 3D image construction method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP08977094A Division JP3411665B2 (en) | 1994-01-18 | 1994-04-27 | 3D image construction device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003203226A JP2003203226A (en) | 2003-07-18 |
JP3706098B2 true JP3706098B2 (en) | 2005-10-12 |
Family
ID=27655849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002340774A Expired - Lifetime JP3706098B2 (en) | 2002-11-25 | 2002-11-25 | 3D image construction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3706098B2 (en) |
-
2002
- 2002-11-25 JP JP2002340774A patent/JP3706098B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2003203226A (en) | 2003-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20090153577A1 (en) | Method and system for texturing of 3d model in 2d environment | |
JP3770280B2 (en) | 3D image display method and apparatus | |
US20060114262A1 (en) | Texture mapping apparatus, method and program | |
TW201342304A (en) | Method and system for adaptive perspective correction of ultra wide-angle lens images | |
KR100962557B1 (en) | Augmented reality implementation apparatus and method of the same | |
JP2010171914A (en) | Image data converter | |
JP5029645B2 (en) | Image data converter | |
US20200358992A1 (en) | Image processing apparatus, display system, image processing method, and medium | |
JPH09330423A (en) | Three-dimensional shape data transforming device | |
EP3573018B1 (en) | Image generation device, and image display control device | |
JP2579421B2 (en) | Surface drawing method with surface marking | |
JP3035571B2 (en) | Image processing device | |
JP3411665B2 (en) | 3D image construction device | |
JP3706098B2 (en) | 3D image construction method | |
JP3685818B2 (en) | 3D image construction method and apparatus | |
JPH11110588A (en) | Three-dimensional image display | |
JP7223312B2 (en) | volume rendering device | |
JP3755925B2 (en) | Central projection device using eyeball transformation | |
JPH08106523A (en) | Center projection method | |
JP3712145B2 (en) | Three-dimensional image construction method and apparatus | |
JP4726336B2 (en) | Image display device, image display method, information storage medium, and image display program | |
Jeng et al. | Precise image unwarping of omnidirectional cameras with hyperbolic-shaped mirrors | |
JPH0816822A (en) | Three-dimensional moving picture generation method | |
JP3312560B2 (en) | Texture mapping device | |
JPH09138859A (en) | Picture synthesis device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050727 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090805 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100805 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110805 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120805 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120805 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130805 Year of fee payment: 8 |
|
EXPY | Cancellation because of completion of term |