JP3706098B2 - 3D image construction method - Google Patents

3D image construction method Download PDF

Info

Publication number
JP3706098B2
JP3706098B2 JP2002340774A JP2002340774A JP3706098B2 JP 3706098 B2 JP3706098 B2 JP 3706098B2 JP 2002340774 A JP2002340774 A JP 2002340774A JP 2002340774 A JP2002340774 A JP 2002340774A JP 3706098 B2 JP3706098 B2 JP 3706098B2
Authority
JP
Japan
Prior art keywords
projection
point
plane
viewpoint
spherical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002340774A
Other languages
Japanese (ja)
Other versions
JP2003203226A (en
Inventor
良洋 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2002340774A priority Critical patent/JP3706098B2/en
Publication of JP2003203226A publication Critical patent/JP2003203226A/en
Application granted granted Critical
Publication of JP3706098B2 publication Critical patent/JP3706098B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、コンピュータグラフィックスに係り、特に中心投影の改良をはかる三次元画像構成方法に関するものである。
【0002】
【従来の技術】
中心投影法は、図9(a)に示すように、一点(視点)eから円錐状に光線を発して、投影対象を投影面4上に投影する方法である。この方法が断層像の投影に応用され、三次元画像の構成に利用されている(例えば、特開平6−3492号)。
【0003】
ところで従来、上記のような中心投影法(一般的中心投影方法)における投影面は、コンピュータグラフィックスに関する代表的な文献である「コンピュータグラフィックス」(J.D.FOLEY & A.VAN.DAM著 今宮淳美訳 昭和59年7月15日 日本コンピュータ協会発行)の275〜316ページ等を見ても分かるように平面であった。
【0004】
【発明が解決しようとする課題】
上記のように従来技術では、中心投影方法における投影面は平面であった。このため、次のような歪が発生した 図9(b)において、投影対象40a,40bを投影面4に投影すると、それぞれ投影像40A,40Bとなる。投影対象40aと投影対象40bの長さ(図示左右方向の寸法)が同じであるとすると、投影対象40bは斜めから見ることになるので投影対象40aより短く見える筈である。
【0005】
しかし、図9(b)から分かるように、そのようにはならず(逆に長くなり)、またこのような投影方向に依存する歪は、視点eと投影面4との距離が小さくなるほど大きくなるという問題点があった。
【0006】
本発明の目的は、投影方向に依存する投影像の歪をなくすことのできる三次元画像構成方法を提供することにある。
【0007】
【課題を解決するための手段】
本発明は、設定手段と第1、第2の投影手段とを備えた三次元画像構成装置を用いて、視点を頂点として円錐状に投影線をその視点から三次元データ群である投影対象へ発したときの、その投影対象を平面の投影面に投影して中心投影データを得、中心投影データから三次元画像を構成する中心投影法による三次元画像構成方法において、上記設定手段によって、前記視点と前記投影面との設定、及び視点と投影面との間であって視点と投影面とのそれぞれに一点で接する仮想的な球モデルを設定する第1のステップと、上記第1の投影手段によって、該設定された球モデルの球面上に前記視点から見た投影対象を投影させ球面投影データを得る第2のステップと、上記第2の投影手段によって、該得られた球面投影データを前記投影面に投影させて、前記中心投影データが投影されたときに生じた投影方向に依存する位置歪みを補正した投影データを得る第3のステップと、を備えたことを特徴とする中心投影法による三次元画像構成方法を開示する。
【0008】
更に本発明は、前記第3のステップが前記球面モデル上に投影して得た球面投影データを前記投影面に投影させるさいに、その投影対象の画像サイズを拡大させるステップを備えて拡大を行わせることを特徴とする請求項1に記載の中心投影法による三次元画像構成方法を開示する。
【0009】
更に本発明は、設定手段と第1、第2の投影点取得手段と距離算出手段とを備えた三次元画像構成装置を用いて、視点を頂点として円錐状に投影線をその視点から三次元の投影対象へ発したときの、その投影対象を平面の投影面に投影して投影データを得、この投影データから三次元画像を構成する中心投影法による三次元画像構成方法において、設定手段によって、視点と投影面の設定、及び視点と投影面との間であって投影面に一点で接する球モデルを設定する第1のステップと、上記第1の投影点取得手段によって、投影線を与えて、この投影線が交わる前記球モデルの球面上と前記投影面上に、前記投影対象の点を投影し球面上の投影点Qと投影面上の投影点Pを得る第2のステップと、上記距離算出手段によって、前記投影点Qと球モデルの投影面接点との球面に沿った距離Lを求める第3のステップと、上記第2の投影点取得手段によって、この距離Lと投影面上での投影点Pの角度φとに基づいて、前記投影点Qと対応させて得た投影方向に依存する位置歪みを補正した前記投影面上の投影点Gを得る第4のステップとを備えたことを特徴とする中心投影法による三次元画像構成方法を開示する。
【0010】
【実施例】
以下、図面を参照して本発明の実施例を説明する。
図1は、本発明による中心投影方法の一実施例を示すフローチャートである。
図1に示すように、本発明による中心投影方法は、投影対象を、まず一般的な中心投影方法によって平面からなる投影面(1次投影平面:後述眼球変換による歪補正前の投影平面、すなわち従来方法の投影平面)へ投影する(ステップ1)。
【0011】
そして、その投影後又は投影時に、後述眼球変換により前記投影平面(2次投影平面:後述眼球変換による歪補正後の投影平面)に再投影し、前記投影対象の投影像を得るものである(ステップ2)。
【0012】
ここで眼球変換とは、投影対象の、投影平面への投影後又は投影時に、視線上に中心をもつ球面をその中心位置において視線に直交する方向に2分割して得られる2つの半球面のうち、視点に遠い側の半球面を投影面とする該投影面(投影球面)への投影を介しての、前記投影平面への再投影をいう。
【0013】
すなわち本発明では、前記投影球面を投影面として中心投影することとなるもので、この場合、投影面である半球面に沿った各点(アドレス)がCRTの表示画素(アドレス)に対応する。そして、前記投影球面に投影したと同じ効果を平面(CRT画面)上で得るために眼球変換を行い、歪補正をするものである。
【0014】
以下、図2及び図3を参照して上記本発明方法の眼球変換による歪補正の原理について説明する。
まず図2を参照して説明すると、図2は視点eがh=2Rの場合について示したものである。図2において、3は視線(Z軸)上に中心をもつ球面をその中心位置において視線に直交する方向に2分割して得られる2つの半球面I,IIのうち、視点に遠い側の半球面(半球面I)からなる投影面(以下、投影球面という)である。また、4は平面からなる投影面(以下、投影平面という)で、眼球変換による歪補正前の投影平面、すなわち従来方法の投影平面としての1次投影平面でもあり、かつ眼球変換による歪補正後の投影平面としての2次投影平面でもある。この投影平面4は、CRTの表示面である画面に相当する。
【0015】
また、
X,Y,Zは三次元座標系の各軸、
Oは三次元座標系の原点、
eは視点、
hは視点eと投影平面4との距離、
Rは投影球面3の半径、
Pは投影平面4上の点(X,Y)、
ψは直線OPとX軸とのなす角、
Qは投影平面4上のP点に対応する投影球面3上の点(直線Peと投影球面3の交点)、
θは直線ZQとZ軸のなす角、
Lは投影球面3上の円弧OQ、
L’はLと同じ長さをもった直線OP上の線分、
ηはCRT表示アドレス(X軸に平行にとる)、
ξはCRT表示アドレス(Y軸に平行にとる)、
である。
【0016】
これによれば、次の式が成り立つ。
眼球に対応した、h=2・Rのとき、
三角形eOPについて、tan(θ/2)=sqrt(X +Y )/2R
三角形XOPついて、tan(φ)=Y/X
が与えられる。
【0017】
したがって、X,Yを指定すると、対応するη,ξは、
ψ=arctan(Y/X
θ=2・arctan〔sqrt(X +Y )/2R〕
L=R・θ
を使って、
η=L・cos(ψ)
ξ=L・sin(ψ)
となる。
【0018】
このη,ξが表示メモリ上の画素アドレスとなる。すなわち、投影平面4の(X,Y)の点は、CRT画面上では点(η,ξ)に表示することになるもので、これにより眼球変換による歪補正が行われたことになる。
【0019】
更に、この眼球変換により画像サイズは縮小する(点Pから点(η,ξ)に縮む)。したがって、歪補正後の投影平面4への投影像の画像サイズは、眼球変換により補正して投影した像の画像サイズよりも大きく投影可能となる。
【0020】
次に、視点eがh=2R以外の場合について図3により説明する。この図3(a),(b)において、図2と同一符号は同一又は相当部分を示す。
また、Uは直線eQの長さ、
γは線分ePとZ軸とのなす角、
wはQからZ軸に垂直に下ろした直線の長さ、
である。
【0021】
これによれば、次の式が成り立つ。
U=sqrt〔(h−R)+R−2・(h−R)・R・cos(π−θ)〕
とすると、
U・sinγ=R・sinθ
となる。
【0022】
またγは、
tanγ=sqrt(X +Y )/h
で与えられる。
これより、X,Yを指定するとθが求まる。
【0023】
φはtanφ=Y/Xから求めると、L=R・θであるので、
η=L・cosφ
ξ=L・sinφ
となる。
【0024】
このη,ξが表示メモリ上の画素アドレスとなる。すなわち、投影平面4の(X,Y)の点は、CRT画面上では点(η,ξ)に表示することになるもので、これにより眼球変換による歪補正が行われたことになる。
【0025】
投影対象はマウス等の入力装置により入力したデータでもよく、また断層像(三次元計測によるボリューム画像を分解して得られた断層像も含む)等のような演算装置により演算した結果のデータでもよい。
【0026】
図4〜6は、複数の断層像から、一般的な中心投影方法により三次元画像を構成する方法(特願平6−3492号)につき表すが、このような場合においても、中心投影をする以上、歪をなくすためには眼球変換は必要になるもので、以下、三次元画像の構成方法に本発明方法を適用した場合の一例を説明する。なお、図5、図6いずれの場合においても、最初に平面からなるX,Y投影面(投影平面)4上に断層像を投影し、次に眼球変換によりη,ξ面に変換することになる。
【0027】
まず、上記三次元画像の構成方法において、中心投影による座標変換について述べる。中心投影による投影面への各断層像の投影に当たっての、各断層像の画素座標の投影面上の座標への変換は次のように行われる。
【0028】
図4に示す例では、説明を簡単化するため投影面と断層像面、更にはx−y面が各々平行であるように座標系をとっている。
この図4において、
x,y,zは三次元座標系(x,y,z)の各軸、
e点(x,y,d)は視点eの位置、
P点(X,Y)は投影面(表示画面に相当する)21上の点、
S点(x,y,d)はe点(x,y,d)とP点(X,Y)を通る直線22と断層像23Aの交わる点、
である。
【0029】
また、
Dは投影面21の投影面21の位置(z軸上)で、任意に設定可能である。
【0030】
は断層像23Aの位置(z軸上)で、計測時に決まる。
【0031】
は視点eのz座標、
である。
【0032】
これによれば、次の式が成り立つ。
X={(D−d)/(d−d)}×(x−x)+x…(1)
Y={(D−d)/(d−d)}×(y−y)+y…(2)
={(d−D)/(d−D)}×(x−x)+X …(3)
={(d−D)/(d−D)}×(y−y)+Y …(4)
【0033】
投影された画像を投影面21に相当する表示画面(図示せず)上に、縦512画素×横512画素で表示するとき、X,Yは−256から+256までの値を取る。それれぞれのX,Yに対してd断層像23A上では上掲(3),(4)式によりx,yが決まり、どの点が投影すべきかが決まる。断層像23は複数あって、dも複数個あるので、1組のX,Yに対して複数の投影すべき点x,yが決まる。
【0034】
同様の座標系において、断層像23Aの他にも断層像23B〜23Eを用意し、y軸方向から見た図を図5(a)に示す。この図5(a)において、断層像23A〜23Eは同一対象物について同一方向に等間隔で得られた断層像(図示例では等間隔であるが、必ずしも等間隔である必要はない)であり、断層像23Bには、臓器領域B,B,Bが強調して書いてある。臓器領域B,B,Bを投影面21に投影するとB′,B′,B′となる。同様に、断層像23Cの臓器領域C,Cを投影面21に投影するとC′,C′となる。
【0035】
ここで、投影データ(ここでは、B′,B′,B′;C′,C′)を表示メモリ(図示せず)に書く時は、三次元的効果を出すために、視点eから見てより遠くに存在する投影データを先に書き込み、それより近くの投影データは後から上書きする。したがってここでは、投影データC,Cより投影データB,B,Bの方が視点eより遠くに存在するので、投影データB′,B′,B′を先に書いて、投影データC′,C′は後から上書きすることになる。なお図7(a)では、投影データB′,B′,B′:C′,C′は各々投影面21から離して示しているが、これは表示メモリに書き込む投影データB′,B′,B′;C′,C′の順番を判り易くしたために過ぎず、最初に書かれる投影データB′,B′,B′も、それに上書きされる投影データC′,C′も実際には投影面21上に書かれる。
【0036】
図5(b)は、図5(a)よりも一般化して示したもので、投影面と断層像面が平行でない場合の例である。この場合は、断層像23A,23B,23C…から補間演算で投影面21と平行な面に向けられた断層像23a,23b,23c…を作っておく必要がある。その他は、図5(a)の場合と同様である。なお、b′;c′,c′;d′は、補間演算された断層像23b,23c,23d上の臓器領域b;c,c;dの投影データである。
【0037】
図6は、視点、断層像及び投影面がより複雑な位置関係をもった場合の中心投影による座標変換を説明するための図で、断層像23上のS点(x,z,y)の投影結果が投影平面上のP点(x,y,z)になることを示す。
【0038】
この図6において、中心投影による投影平面4への断層像23の投影に当たっての、断層像23の画素座標の投影平面4上の座標への変換は次のように行われる。
ここで、
aはx軸と投影平面4の交わる点、
bはy軸と投影平面4の交わる点、
cはz軸と投影平面4の交わる点、
である。
【0039】
また、
αは原点から投影平面4に下ろした垂線をz−x面に投影した線がx軸となす角、
βは前記垂線がx−z面となす角、
e点(x,y,z)は視点eの位置、
P点(x,y,z)は投影面(表示画面に相当する)4上の点、
S点(x,z,y)はe点(x,y,z)とP点(x,y,z)を通る直線22と断層像23の交わる点、
とすると、次の式が成り立つ。
【0040】
まず、投影平面4は
(x/a)十(y/b)+(z/c)=1 …(5)
で表わされる。
また、e点(x,y,z)とP点(x,y,z)を通る直線22は
(x−x)/(x−x)=(y−y)/(y−y)=(z−z)/(z−z) …(6)
で与えられる。
【0041】
投影平面4がC1点(xc,yc,zc)を通るとき、
=sinα
=cosα/sinβ
=cosα・cosβ/sinβ
=1/a
=1/b
=1/c
として、

Figure 0003706098
ここで、上記C1点(xc,yc,zc)には、例えば、視点e(x,y,z)から投影平面4に下ろした垂線と投影平面4の交わる点(この点と視点e間の距離はh)として、
zc=z+−〔h/sqrt{1+(c/a)+(c/b)}〕(「z+−」の「−」はz<zcのとき) …(10)
xc=x+{c・(z−zc)/a} …(11)
yc=y+{c・(z−zc)/b} …(12)
を使ってもよい。
【0042】
投影された画像を投影平面4に相当する表示画面(図示せず)上に、縦512画素×横512画素で表示するとき、X,Yは−256から+256までの値を取る。それぞれのX,Yに対して上掲(7),(8),(9)式によりx,yが決まる。e点のx1,y1,z1は任意に与えるので、下掲(13),(14)式により、y0,d0の断層像上で画素S点の座標x0,z0が決まる。
【0043】
={(d−y)/(y−y)}×(x−x)+x …(13)
={(d−y)/(y−y)}×(z−z)+z …(14)
断層像は複数あって、d0も複数個あるので、1組のX,Yに対して複数の投影すべき点x,yが決まる。
【0044】
なお、図6中のRは視点eからS点までの距離を示すもので、このRはP点の画素値(輝度)を求める際のパラメータとなる。P点の画素値は、設定された画素値(輝度)の最大値Rmaxから上記Rを引算した値に比例する。このP点は表示メモリ上では(η,ξ)点に対応するので(η,ξ)点に前記画素値を格納する。
【0045】
以上のような座標変換を、表示画面に相当する投影平面4上の全ての点について行う。また、全ての断層像23について行う。更に、構成された結果像である三次元画像に対して行っても、あるいは構成前の1枚、1枚の断層像に対して行ってもよい。
【0046】
図7は本発明方法が適用可能なハードウェア構成例を示すブロック図である。
この図7において、50はCPU、51は主メモリ、52は磁気ディスク、53は表示メモリ、55はマウスコントローラで、これらは共通バス57に接続されている。磁気ディスク52には、複数の断層像及び本発明方法の実行演算のためのプログラムなどが格納されている。
【0047】
CPU50は、これら複数の断層像及び本発明方法の実行演算のためのプログラムを読み出し、主メモリ51を用いて眼球変換等の演算を行い、その結果を表示メモリ53に送り、CRTモニタ54に表示させる。マウスコントローラ55に接続されたマウス56は、眼球変換等の演算の際の、視点位置等を指定する。
眼球変換され歪補正された画像は、必要に応じて磁気ディスク52に格納される。
【0048】
【発明の効果】
以上説明したように本発明によれは、投影方向に依存する投影像の歪が補正され、投影方向の違いによって投影データ(長さないし大きさ)が異なってしまうことが防止できるという効果がある.
【図面の簡単な説明】
【図1】本発明方法の概略を示すフローチャートである。
【図2】眼球変換による歪補正の原理説明図である。
【図3】同じく眼球変換による歪補正の原理説明図である。
【図4】三次元画像の構成方法における断層像画素座標の投影面上の座標への変換を説明するための図である。
【図5】同じく複数の断層像についての画素座標の投影面上の座標への変換を脱明するための図である。
【図6】視点、断層像及び投影面がより複雑な位置関係をもった場合の中心投影による座標変換を説明するための図である。
【図7】本発明方法が適用可能なハードウェア構成例を示すブロック図である。
【図8】眼球投影の説明図である。
【図9】中心投影方法と歪の説明図である。
【符号の説明】
3 投影球面
4 投影平面
X,Y,Z 三次元座標系の各舳
O 三次元座標系の原点
e 視点
h 視点eと投影平面4との距離
R 投影球面3の半径
P 投影平面4上の点(X1,Y1)
ψ 直線OPとX軸とのなす角
Q 投影平面4上のP点に対応する投影球面3上の点(直線Peと投影球面3の交点)
θ 直線Z1 QとZ軸のなす角
L 投影球面3上の円弧OQ
L′ Lと同じ長さをもった直線OP上の線分
η CRT表示アドレス(X軸に平行にとる)
ξ CRT表示アドレス(Y軸に平行にとる)
U 直線eQの長さ
γ 線分ePとZ軸とのなす角
w QからZ舳に垂直に下ろした直線の長さ[0001]
[Industrial application fields]
The present invention relates to computer graphics, and more particularly to a three-dimensional image construction method for improving central projection.
[0002]
[Prior art]
The center projection method is a method of projecting a projection target onto the projection plane 4 by emitting light rays in a conical shape from one point (viewpoint) e as shown in FIG. This method is applied to the projection of a tomographic image and is used for the construction of a three-dimensional image (for example, JP-A-6-3492).
[0003]
By the way, conventionally, the projection plane in the above-described central projection method (general central projection method) is “Computer Graphics” (JD FOLEY & A. VAN. DAM), which is a typical document relating to computer graphics. It was a flat surface as can be seen from pages 275-316 of the translation of Tomomi Imamiya, July 15, 1984, published by the Japan Computer Association.
[0004]
[Problems to be solved by the invention]
As described above, in the prior art, the projection surface in the central projection method is a plane. For this reason, in FIG. 9B in which the following distortion has occurred, when the projection objects 40a and 40b are projected onto the projection plane 4, projection images 40A and 40B are obtained, respectively. If the lengths (the horizontal dimension in the drawing) of the projection target 40a and the projection target 40b are the same, the projection target 40b is viewed from an oblique direction, and thus should appear shorter than the projection target 40a.
[0005]
However, as can be seen from FIG. 9B, this does not happen (in contrast, it becomes longer), and the distortion depending on the projection direction increases as the distance between the viewpoint e and the projection plane 4 decreases. There was a problem of becoming.
[0006]
An object of the present invention is to provide a three-dimensional image construction method that can eliminate distortion of a projected image that depends on the projection direction.
[0007]
[Means for Solving the Problems]
The present invention uses a three-dimensional image constructing apparatus including a setting unit and first and second projecting units to project a projection line in a conical shape from a viewpoint to a projection target that is a three-dimensional data group. In the three-dimensional image construction method by the central projection method of projecting the projection target on the plane projection plane to obtain the central projection data and constructing the three-dimensional image from the central projection data, the setting means A first step of setting a viewpoint and the projection plane; a first step of setting a virtual sphere model between the viewpoint and the projection plane and contacting the viewpoint and the projection plane at one point; and the first projection Means for projecting the projection target viewed from the viewpoint onto the spherical surface of the set spherical model and obtaining spherical projection data; and the obtained spherical projection data by the second projection means. Throw on the projection surface A third step of obtaining projection data in which positional distortion dependent on the projection direction generated when the central projection data is projected is corrected, and a three-dimensional image by the central projection method, A configuration method is disclosed.
[0008]
The present invention further includes a step of enlarging an image size of the projection target when projecting the spherical projection data obtained by projecting onto the spherical model in the third step onto the projection plane. A three-dimensional image construction method using a central projection method according to claim 1 is disclosed.
[0009]
Furthermore, the present invention uses a three-dimensional image construction apparatus comprising setting means, first and second projection point acquisition means, and distance calculation means, and uses a viewpoint as a vertex to project a projection line in a conical shape from the viewpoint. In the three-dimensional image construction method based on the central projection method in which a projection data is obtained by projecting the projection target onto a flat projection surface and a three-dimensional image is constructed from the projection data. A first step of setting a viewpoint and a projection plane, and a sphere model between the viewpoint and the projection plane and in contact with the projection plane at one point; and a projection line is given by the first projection point acquisition unit. A second step of projecting the projection target point on the spherical surface of the spherical model and the projection plane where the projection lines intersect to obtain a projection point Q on the spherical surface and a projection point P on the projection plane; By the distance calculation means, the projection point Q and A third step of obtaining a distance L along the spherical surface with the projection plane contact of the model, and the second projection point acquisition means based on the distance L and the angle φ of the projection point P on the projection plane. And a fourth step of obtaining a projection point G on the projection plane in which the positional distortion depending on the projection direction obtained in correspondence with the projection point Q is corrected. An image construction method is disclosed.
[0010]
【Example】
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a flowchart showing an embodiment of the center projection method according to the present invention.
As shown in FIG. 1, in the central projection method according to the present invention, a projection target is first a projection plane composed of a plane by a general central projection method (primary projection plane: a projection plane before distortion correction by eyeball transformation described later, ie, Projection onto a conventional projection plane (step 1).
[0011]
Then, after or at the time of projection, reprojection is performed on the projection plane (secondary projection plane: a projection plane after distortion correction by eyeball conversion described later) by eyeball conversion described later to obtain a projection image of the projection target ( Step 2).
[0012]
Here, the eyeball transformation refers to two hemispherical surfaces obtained by dividing a spherical surface having a center on the line of sight into two in the direction perpendicular to the line of sight at the center position after or upon projection onto the projection plane. Of these, re-projection onto the projection plane through projection onto the projection plane (projection sphere) having a hemisphere far from the viewpoint as the projection plane.
[0013]
That is, in the present invention, the projection spherical surface is used as a central projection, and in this case, each point (address) along the hemispherical surface that is the projection surface corresponds to a display pixel (address) of the CRT. Then, in order to obtain the same effect as that projected onto the projection spherical surface on a plane (CRT screen), eyeball transformation is performed and distortion correction is performed.
[0014]
Hereinafter, the principle of distortion correction by eyeball transformation of the method of the present invention will be described with reference to FIGS.
First, referring to FIG. 2, FIG. 2 shows a case where the viewpoint e is h = 2R. In FIG. 2, reference numeral 3 denotes a hemisphere on the side farther from the viewpoint out of two hemispheres I and II obtained by dividing a spherical surface centered on the line of sight (Z axis) in the direction perpendicular to the line of sight at the center position. A projection surface (hereinafter referred to as a projection sphere) composed of a surface (hemispherical surface I). Reference numeral 4 denotes a flat projection plane (hereinafter referred to as a projection plane), which is a projection plane before distortion correction by eyeball transformation, that is, a primary projection plane as a projection plane of the conventional method, and after distortion correction by eyeball transformation. It is also a secondary projection plane as a projection plane. The projection plane 4 corresponds to a screen that is a display surface of the CRT.
[0015]
Also,
X, Y, Z are the axes of the three-dimensional coordinate system,
O is the origin of the 3D coordinate system,
e is the viewpoint,
h is the distance between the viewpoint e and the projection plane 4,
R is the radius of the projection sphere 3,
P is a point on the projection plane 4 (X 1 , Y 1 ),
ψ is the angle between the straight line OP and the X axis,
Q is a point on the projection sphere 3 corresponding to the point P on the projection plane 4 (intersection of the straight line Pe and the projection sphere 3),
θ is the angle between the straight line Z 1 Q and the Z axis,
L is an arc OQ on the projection spherical surface 3,
L ′ is a line segment on the straight line OP having the same length as L,
η is a CRT display address (taken parallel to the X axis),
ξ is the CRT display address (taken parallel to the Y axis),
It is.
[0016]
According to this, the following equation holds.
When h = 2 · R corresponding to the eyeball,
For the triangle eOP, tan (θ / 2) = sqrt (X 1 2 + Y 1 2 ) / 2R
For triangle X 1 OP, tan (φ) = Y 1 / X 1
Is given.
[0017]
Therefore, if X 1 and Y 1 are specified, the corresponding η 1 and ξ 1 are
ψ = arctan (Y 1 / X 1 )
θ = 2 · arctan [sqrt (X 1 2 + Y 1 2 ) / 2R]
L = R · θ
Use
η 1 = L · cos (ψ)
ξ 1 = L · sin (ψ)
It becomes.
[0018]
These η 1 and ξ 1 are pixel addresses on the display memory. That is, the point (X 1 , Y 1 ) of the projection plane 4 is displayed at the point (η 1 , ξ 1 ) on the CRT screen, and thus distortion correction by eyeball transformation has been performed. become.
[0019]
Further, the image size is reduced by this eyeball transformation (from point P to point (η 1 , ξ 1 )). Therefore, the image size of the projected image on the projection plane 4 after distortion correction can be projected larger than the image size of the image that has been corrected and projected by eyeball conversion.
[0020]
Next, the case where the viewpoint e is other than h = 2R will be described with reference to FIG. 3A and 3B, the same reference numerals as those in FIG. 2 denote the same or corresponding parts.
U is the length of the straight line eQ,
γ is the angle between the line segment eP and the Z axis,
w is the length of the straight line from Q to the Z axis,
It is.
[0021]
According to this, the following equation holds.
U = sqrt [(h−R) 2 + R 2 −2 · (h−R) · R · cos (π−θ)]
Then,
U · sinγ = R · sinθ
It becomes.
[0022]
Γ is
tan γ = sqrt (X 1 2 + Y 1 2 ) / h
Given in.
From this, when X 1 and Y 1 are designated, θ is obtained.
[0023]
Since φ is determined from tan φ = Y 1 / X 1 , L = R · θ,
η 1 = L · cos φ
ξ 1 = L · sinφ
It becomes.
[0024]
These η 1 and ξ 1 are pixel addresses on the display memory. That is, the point (X 1 , Y 1 ) of the projection plane 4 is displayed at the point (η 1 , ξ 1 ) on the CRT screen, and thus distortion correction by eyeball transformation has been performed. become.
[0025]
The projection target may be data input by an input device such as a mouse, or data obtained as a result of calculation by an arithmetic device such as a tomogram (including a tomogram obtained by decomposing a volume image obtained by three-dimensional measurement). Good.
[0026]
4 to 6 show a method (Japanese Patent Application No. 6-3492) for constructing a three-dimensional image from a plurality of tomographic images by a general central projection method. In such a case, central projection is performed. As described above, in order to eliminate distortion, eyeball transformation is necessary. Hereinafter, an example in which the method of the present invention is applied to a method for constructing a three-dimensional image will be described. In either case of FIGS. 5 and 6, a tomographic image is first projected on a plane X, Y projection plane (projection plane) 4 and then converted into η and ξ planes by eyeball transformation. Become.
[0027]
First, in the above three-dimensional image construction method, coordinate conversion by center projection will be described. Conversion of the pixel coordinates of each tomographic image into coordinates on the projection surface in projecting each tomographic image onto the projection surface by central projection is performed as follows.
[0028]
In the example shown in FIG. 4, in order to simplify the explanation, the coordinate system is taken so that the projection plane, the tomographic image plane, and the xy plane are parallel to each other.
In FIG. 4,
x, y, z are axes of the three-dimensional coordinate system (x, y, z),
The point e (x 1 , y 1 , d 1 ) is the position of the viewpoint e,
P point (X, Y) is a point on the projection plane (corresponding to the display screen) 21;
The point S (x 0 , y 0 , d 0 ) is the point where the line 22 passing through the point e (x 1 , y 1 , d 1 ) and the point P (X, Y) intersects with the tomographic image 23A,
It is.
[0029]
Also,
D is the position of the projection plane 21 on the projection plane 21 (on the z axis) and can be arbitrarily set.
[0030]
d 0 is the position of the tomographic image 23A (on the z axis) and is determined at the time of measurement.
[0031]
d 1 is the z coordinate of the viewpoint e,
It is.
[0032]
According to this, the following equation holds.
X = {(D−d 1 ) / (d 0 −d 1 )} × (x 0 −x 1 ) + x l (1)
Y = {(D−d 1 ) / (d 0 −d 1 )} × (y 0 −y 1 ) + y 1 (2)
x 0 = {(d 0 -D ) / (d 1 -D)} × (x 1 -x) + X ... (3)
y 0 = {(d 0 -D ) / (d 1 -D)} × (y 1 -y) + Y ... (4)
[0033]
When the projected image is displayed on a display screen (not shown) corresponding to the projection plane 21 in a vertical 512 pixel × horizontal 512 pixel, X and Y take values from −256 to +256. For the respective X and Y, on the d 0 tomographic image 23A, x 0 and y 0 are determined by the above equations (3) and (4), and which point should be projected. Since there are a plurality of tomographic images 23 and a plurality of d 0 , a plurality of points x 0 and y 0 to be projected are determined for a set of X and Y.
[0034]
In the same coordinate system, tomographic images 23B to 23E are prepared in addition to the tomographic image 23A, and a diagram viewed from the y-axis direction is shown in FIG. In FIG. 5A, tomographic images 23A to 23E are tomographic images obtained at equal intervals in the same direction with respect to the same object (in the illustrated example, they are equal intervals, but are not necessarily equal intervals). In the tomographic image 23B, the organ regions B 1 , B 2 and B 3 are emphasized. When the organ regions B 1 , B 2 , B 3 are projected onto the projection plane 21, they become B 1 ′, B 2 ′, B 3 ′. Similarly, when organ regions C 1 and C 2 of the tomographic image 23C are projected onto the projection plane 21, they become C 1 'and C 2 '.
[0035]
Here, when writing projection data (here, B 1 ′, B 2 ′, B 3 ′; C 1 ′, C 2 ′) in a display memory (not shown), a three-dimensional effect is produced. , Projection data existing farther from the viewpoint e is written first, and projection data closer thereto is overwritten later. Accordingly, here, since the projection data B 1 , B 2 , and B 3 are located farther from the viewpoint e than the projection data C 1 and C 2 , the projection data B 1 ′, B 2 ′, and B 3 ′ are given first. The projection data C 1 ′ and C 2 ′ are overwritten later. In FIG. 7A, projection data B 1 ′, B 2 ′, B 3 ′: C 1 ′, C 2 ′ are shown separately from the projection plane 21, but this is projection data to be written into the display memory. B 1 ′, B 2 ′, B 3 ′; only because the order of C 1 ′, C 2 ′ is easy to understand, and the projection data B 1 ′, B 2 ′, B 3 ′ written first is overwritten on it. Actually, the projection data C 1 ′ and C 2 ′ are also written on the projection plane 21.
[0036]
FIG. 5B is a more generalized example than FIG. 5A, and shows an example where the projection plane and the tomographic image plane are not parallel. In this case, it is necessary to create tomographic images 23a, 23b, 23c... Directed to a plane parallel to the projection plane 21 by interpolation calculation from the tomographic images 23A, 23B, 23C. Others are the same as in the case of FIG. Note that b 1 ′; c 1 ′, c 2 ′; d 1 ′ are projection data of the organ regions b 1 ; c 1 , c 2 ; d 1 on the tomographic images 23 b, 23 c, and 23 d that have been interpolated. .
[0037]
FIG. 6 is a diagram for explaining coordinate transformation by central projection when the viewpoint, tomographic image, and projection plane have a more complicated positional relationship. S point (x 0 , z 0 , y on the tomographic image 23 is illustrated. 0 ) indicates that the projection result is P point (x, y, z) on the projection plane.
[0038]
In FIG. 6, the conversion of the pixel coordinates of the tomographic image 23 to the coordinates on the projection plane 4 in the projection of the tomographic image 23 onto the projection plane 4 by center projection is performed as follows.
here,
a is the point where the x-axis and the projection plane 4 intersect,
b is the point where the y-axis and the projection plane 4 intersect,
c is the point where the z-axis and the projection plane 4 intersect,
It is.
[0039]
Also,
α is an angle formed by a line projected from the origin to the projection plane 4 on the zx plane and the x axis.
β is the angle between the perpendicular and the xz plane,
The point e (x 1 , y 1 , z 1 ) is the position of the viewpoint e,
P point (x, y, z) is a point on the projection plane (corresponding to the display screen) 4,
The S point (x 0 , z 0 , y 0 ) is the point where the straight line 22 passing through the e point (x 1 , y 1 , z 1 ) and the P point (x, y, z) and the tomographic image 23 intersect,
Then, the following equation holds.
[0040]
First, the projection plane 4 is (x / a) + (y / b) + (z / c) = 1 (5)
It is represented by
The straight line 22 passing through the point e (x 1 , y 1 , z 1 ) and the point P (x, y, z) is (x 0 −x) / (x 1 −x) = (y 0 −y) / (Y 1 -y) = (z 0 -z) / (z 1 -z) (6)
Given in.
[0041]
When the projection plane 4 passes through the C1 point (xc 1 , yc 1 , zc 1 ),
k 1 = sin α
k 2 = cos α / sin β
k 3 = cos α · cos β / sin β
a i = 1 / a
b i = 1 / b
c i = 1 / c
As
Figure 0003706098
Here, the C1 point (xc 1 , yc 1 , zc 1 ) is, for example, a point (this point) where the perpendicular line dropped from the viewpoint e (x 1 , y 1 , z 1 ) to the projection plane 4 and the projection plane 4 intersect. The distance between point and viewpoint e is h)
zc 1 = z 1 + − [h / sqrt {1+ (c 2 / a 2 ) + (c 2 / b 2 )}] (“−” in “z 1 + −” is z 0 <zc 1 ) (10)
xc 1 = x 1 + {c · (z 1 −zc 1 ) / a} (11)
yc 1 = y 1 + {c · (z 1 −zc 1 ) / b} (12)
May be used.
[0042]
When a projected image is displayed on a display screen (not shown) corresponding to the projection plane 4 with 512 pixels vertically × 512 pixels horizontally, X and Y take values from −256 to +256. For each X and Y, x and y are determined by the above equations (7), (8) and (9). Since x1, y1, and z1 of the e point are arbitrarily given, the coordinates x0 and z0 of the pixel S point are determined on the tomographic images of y0 and d0 by the following equations (13) and (14).
[0043]
x 0 = {(d 0 -y ) / (y 1 -y)} × (x 1 -x) + x ... (13)
z 0 = {(d 0 −y) / (y 1 −y)} × (z 1 −z) + z (14)
Since there are a plurality of tomographic images and a plurality of d0, a plurality of points x 0 and y 0 to be projected are determined for a set of X and Y.
[0044]
Note that R in FIG. 6 indicates the distance from the viewpoint e to the S point, and this R is a parameter for obtaining the pixel value (luminance) of the P point. The pixel value at point P is proportional to a value obtained by subtracting R from the maximum value Rmax of the set pixel value (luminance). Since the P point corresponds to the (η, ξ) point on the display memory, the pixel value is stored at the (η, ξ) point.
[0045]
The coordinate conversion as described above is performed for all points on the projection plane 4 corresponding to the display screen. This is performed for all tomographic images 23. Furthermore, it may be performed on a three-dimensional image that is a constructed result image, or may be performed on one tomographic image before construction.
[0046]
FIG. 7 is a block diagram showing a hardware configuration example to which the method of the present invention can be applied.
In FIG. 7, 50 is a CPU, 51 is a main memory, 52 is a magnetic disk, 53 is a display memory, 55 is a mouse controller, and these are connected to a common bus 57. The magnetic disk 52 stores a plurality of tomographic images, a program for executing calculation of the method of the present invention, and the like.
[0047]
The CPU 50 reads out the plurality of tomographic images and a program for execution calculation of the method of the present invention, performs calculation such as eyeball conversion using the main memory 51, sends the result to the display memory 53, and displays it on the CRT monitor 54. Let A mouse 56 connected to the mouse controller 55 designates a viewpoint position and the like for calculations such as eyeball conversion.
The image subjected to eyeball transformation and distortion correction is stored in the magnetic disk 52 as necessary.
[0048]
【The invention's effect】
As described above, according to the present invention, the distortion of the projection image depending on the projection direction is corrected, and it is possible to prevent the projection data (not length or size) from being different depending on the projection direction. .
[Brief description of the drawings]
FIG. 1 is a flowchart showing an outline of a method of the present invention.
FIG. 2 is a diagram illustrating the principle of distortion correction by eyeball conversion.
FIG. 3 is a diagram for explaining the principle of distortion correction by eyeball conversion.
FIG. 4 is a diagram for explaining conversion of tomographic image pixel coordinates to coordinates on a projection plane in a method of constructing a three-dimensional image.
FIG. 5 is a diagram for deciphering conversion of pixel coordinates into coordinates on the projection plane for a plurality of tomographic images.
FIG. 6 is a diagram for explaining coordinate conversion by central projection when a viewpoint, a tomographic image, and a projection plane have a more complicated positional relationship;
FIG. 7 is a block diagram showing a hardware configuration example to which the method of the present invention can be applied.
FIG. 8 is an explanatory diagram of eyeball projection.
FIG. 9 is an explanatory diagram of a center projection method and distortion.
[Explanation of symbols]
3 Projection sphere 4 Projection plane X, Y, Z Each 舳 O of the 3D coordinate system Origin 3 e of the 3D coordinate system Viewpoint h Distance between viewpoint e and projection plane 4 Radius P of projection sphere 3 Point on projection plane 4 (X1, Y1)
ψ Angle Q between straight line OP and X axis Point on projection sphere 3 corresponding to point P on projection plane 4 (intersection of line Pe and projection sphere 3)
θ Angle L formed by straight line Z1 Q and Z axis Arc OQ on projected spherical surface 3
L ′ Line segment on straight line OP having the same length as L η CRT display address (taken parallel to X axis)
ξ CRT display address (taken parallel to the Y axis)
U Length of straight line eQ γ Length of straight line drawn perpendicularly to Z 舳 from angle w Q formed by line segment eP and Z axis

Claims (3)

設定手段と第1、第2の投影手段とを備えた三次元画像構成装置を用いて、視点を頂点として円錐状に投影線をその視点から三次元データ群である投影対象へ発したときの、その投影対象を平面の投影面に投影して中心投影データを得、中心投影データから三次元画像を構成する中心投影法による三次元画像構成方法において、上記設定手段によって、前記視点と前記投影面との設定、及び視点と投影面との間であって視点と投影面とのそれぞれに一点で接する仮想的な球モデルを設定する第1のステップと、上記第1の投影手段によって、該設定された球モデルの球面上に前記視点から見た投影対象を投影させ球面投影データを得る第2のステップと、上記第2の投影手段によって、該得られた球面投影データを前記投影面に投影させて、前記中心投影データが投影されたときに生じた投影方向に依存する位置歪みを補正した投影データを得る第3のステップと、を備えたことを特徴とする中心投影法による三次元画像構成方法。  When a projection line is emitted from a viewpoint to a projection target that is a three-dimensional data group using a three-dimensional image constructing apparatus including a setting unit and first and second projection units, with the viewpoint as a vertex. In the three-dimensional image construction method based on the central projection method in which the projection target is projected onto a flat projection surface to obtain central projection data, and a three-dimensional image is constructed from the central projection data, the viewpoint and the projection are performed by the setting unit. A first step of setting a plane and a virtual sphere model between the viewpoint and the projection plane and in contact with each of the viewpoint and the projection plane at one point; and A second step of obtaining a spherical projection data by projecting a projection target viewed from the viewpoint onto a spherical surface of a set spherical model, and the obtained spherical projection data on the projection plane by the second projection means. Let it project Third step and three-dimensional image constructing method according to the central projection method which comprising the obtaining projection data obtained by correcting the positional distortion that depends on the projection direction occurring when the serial central projection data is projected. 前記第3のステップが前記球面モデル上に投影して得た球面投影データを前記投影面に投影させるさいに、その投影対象の画像サイズを拡大させるステップを備えて拡大を行わせることを特徴とする請求項1に記載の中心投影法による三次元画像構成方法。  When the spherical projection data obtained by projecting onto the spherical model in the third step is projected onto the projection plane, the projection is performed by enlarging the projection target image size. The method of constructing a three-dimensional image by the center projection method according to claim 1. 設定手段と第1、第2の投影点取得手段と距離算出手段とを備えた三次元画像構成装置を用いて、視点を頂点として円錐状に投影線をその視点から三次元の投影対象へ発したときの、その投影対象を平面の投影面に投影して投影データを得、この投影データから三次元画像を構成する中心投影法による三次元画像構成方法において、上記設定手段によって、視点と投影面の設定、及び視点と投影面との間であって投影面に一点で接する球モデルを設定する第1のステップと、上記第1の投影点取得手段によって、投影線を与えて、この投影線が交わる前記球モデルの球面上と前記投影面上に、前記投影対象の点を投影し球面上の投影点Qと投影面上の投影点Pを得る第2のステップと、上記距離算出手段によって、前記投影点Qと球モデルの投影面接点との球面に沿った距離Lを求める第3のステップと、上記第2の投影点取得手段によって、この距離Lと投影面上での投影点Pの角度φとに基づいて、前記投影点Qと対応させて得た投影方向に依存する位置歪みを補正した前記投影面上の投影点Gを得る第4のステップとを備えたことを特徴とする中心投影法による三次元画像構成方法。  Using a three-dimensional image construction apparatus comprising a setting means, first and second projection point acquisition means, and a distance calculation means, a projection line is generated from the viewpoint to a three-dimensional projection object in a conical shape with the viewpoint as a vertex. In the 3D image construction method based on the central projection method in which the projection target is projected onto a flat projection surface to obtain projection data, and a 3D image is constructed from the projection data, the setting means is used to project the viewpoint and the projection. A first step of setting a plane and a spherical model between the viewpoint and the projection plane and in contact with the projection plane at one point; and the projection line is given by the first projection point acquisition means, and the projection is performed. A second step of projecting the projection target point onto the spherical surface of the spherical model and the projection plane where the lines intersect to obtain a projection point Q on the spherical surface and a projection point P on the projection plane; and the distance calculating means By means of the projection point Q and the spherical model Based on the third step of obtaining the distance L along the spherical surface with the shadow contact point and the angle L of the projection point P on the projection plane by the second projection point acquisition means, And a fourth step of obtaining a projection point G on the projection plane in which the positional distortion depending on the projection direction obtained in correspondence with the projection point Q is corrected. Method.
JP2002340774A 2002-11-25 2002-11-25 3D image construction method Expired - Lifetime JP3706098B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002340774A JP3706098B2 (en) 2002-11-25 2002-11-25 3D image construction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002340774A JP3706098B2 (en) 2002-11-25 2002-11-25 3D image construction method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP08977094A Division JP3411665B2 (en) 1994-01-18 1994-04-27 3D image construction device

Publications (2)

Publication Number Publication Date
JP2003203226A JP2003203226A (en) 2003-07-18
JP3706098B2 true JP3706098B2 (en) 2005-10-12

Family

ID=27655849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002340774A Expired - Lifetime JP3706098B2 (en) 2002-11-25 2002-11-25 3D image construction method

Country Status (1)

Country Link
JP (1) JP3706098B2 (en)

Also Published As

Publication number Publication date
JP2003203226A (en) 2003-07-18

Similar Documents

Publication Publication Date Title
US20090153577A1 (en) Method and system for texturing of 3d model in 2d environment
JP3770280B2 (en) 3D image display method and apparatus
US20060114262A1 (en) Texture mapping apparatus, method and program
TW201342304A (en) Method and system for adaptive perspective correction of ultra wide-angle lens images
KR100962557B1 (en) Augmented reality implementation apparatus and method of the same
JP2010171914A (en) Image data converter
JP5029645B2 (en) Image data converter
US20200358992A1 (en) Image processing apparatus, display system, image processing method, and medium
JPH09330423A (en) Three-dimensional shape data transforming device
EP3573018B1 (en) Image generation device, and image display control device
JP2579421B2 (en) Surface drawing method with surface marking
JP3035571B2 (en) Image processing device
JP3411665B2 (en) 3D image construction device
JP3706098B2 (en) 3D image construction method
JP3685818B2 (en) 3D image construction method and apparatus
JPH11110588A (en) Three-dimensional image display
JP7223312B2 (en) volume rendering device
JP3755925B2 (en) Central projection device using eyeball transformation
JPH08106523A (en) Center projection method
JP3712145B2 (en) Three-dimensional image construction method and apparatus
JP4726336B2 (en) Image display device, image display method, information storage medium, and image display program
Jeng et al. Precise image unwarping of omnidirectional cameras with hyperbolic-shaped mirrors
JPH0816822A (en) Three-dimensional moving picture generation method
JP3312560B2 (en) Texture mapping device
JPH09138859A (en) Picture synthesis device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050727

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110805

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120805

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120805

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130805

Year of fee payment: 8

EXPY Cancellation because of completion of term