JP3798511B2 - Computer generated hologram display - Google Patents

Computer generated hologram display Download PDF

Info

Publication number
JP3798511B2
JP3798511B2 JP15395697A JP15395697A JP3798511B2 JP 3798511 B2 JP3798511 B2 JP 3798511B2 JP 15395697 A JP15395697 A JP 15395697A JP 15395697 A JP15395697 A JP 15395697A JP 3798511 B2 JP3798511 B2 JP 3798511B2
Authority
JP
Japan
Prior art keywords
hologram
viewpoint
coordinate system
image
reproduced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15395697A
Other languages
Japanese (ja)
Other versions
JPH113128A (en
Inventor
民樹 竹森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Priority to JP15395697A priority Critical patent/JP3798511B2/en
Publication of JPH113128A publication Critical patent/JPH113128A/en
Application granted granted Critical
Publication of JP3798511B2 publication Critical patent/JP3798511B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Diffracting Gratings Or Hologram Optical Elements (AREA)
  • Holo Graphy (AREA)
  • Image Generation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、3次元物体の像を再生・表示する計算機ホログラム表示装置に関するものである。
【0002】
【従来の技術】
計算機ホログラム表示装置において、再生・表示すべき3次元物体について陰面消去処理を施してホログラムを計算し、その陰面消去処理がなされたホログラムに参照波を照射して、3次元物体像を再生している。陰面消去処理は、物体の背面(視点から見えない面)から発生する波面を消去して、物体の表面(視点から見える面)から発生する波面のみが視点に到達するよう計算するものである。この陰面消去処理に関して以下のような種々の手法が知られている。
【0003】
例えば、視点から遠い位置で発生した波面が、視点に近い側にある物体の部分によって影響を受け、これにより生じた2次回折波を伴って観測面に到達するとの考慮の下に、陰面消去を行う技術が知られている(「光学情報処理」、朝倉書店、pp.249-254を参照)。この技術では、3次元物体を多数の2次元断層の集合として考え、視点から遠いところにある断層で発生した波面をフレネル変換することにより、視点側に隣接する次の断層に到達する波面を求める。そして、その断層が透過率分布を有するときには、到達した波面と透過率分布との積を求めて、この積を新たな波面とする。一方、その断層が不透明である場合であって、且つ、その断層が発光または反射光を発生するものである場合には、その発光または反射光を新たな波面とする。このようにして求めた新たな波面をフレネル変換することにより、更に視点側に隣接する次の断層における波面を求める。このような処理を全ての断層について行うことにより、陰面消去された3次元物体の計算機ホログラムを得る。
【0004】
この手法は、視点を考察する必要がなく、多視点に対応している点で優れており、また、回折の効果をも考慮している点でも優れている。しかし、各断層の各位置においてフレネル変換する必要があることから、計算量が極めて膨大であるという問題点がある。特に、物体を緻密に表示しようとすれば、断層の数を増やし、且つ、各断層における計算点の数を増やす必要があるが、このことは計算量の爆発的な増大につながる。
【0005】
そこで、計算量を削減する手法が幾つか知られている。例えば、視点から遠い位置で発生した波面が視点に近い側にある物体の部分により影響を受けて2次回折波が生じる効果を無視し、コンピュータグラフィックの手法である scan line method や ray tracingの手法による陰面消去処理をホログラム計算に採り入れたものが知られている(例えば、M.Yamaguchi, et al., "Holographic three-dimensional printer: new method", Appl. Opt. Vol.31, No.2, pp.217-222 (1992)、特開平6−67591号公報、特開平6−102811号公報、および、特開平6−130881)。
【0006】
scan line method や ray tracing の手法による陰面消去処理では、視点より物体表面の各点を通る直線を想定し、その直線と物体表面との交点が複数存在する場合には、その複数の交点について視点からの遠近を判定し、最も視点に近い交点を採用する。そして、その採用された交点それぞれで発生してホログラム面まで伝搬する波面を計算することにより、陰面消去された3次元物体の計算機ホログラムを得る。
【0007】
【発明が解決しようとする課題】
しかしながら、scan line method や ray tracing の手法による陰面消去処理の場合であっても、視点からの直線それぞれについて、その直線と物体との交点の座標値を求めるために方程式を解く必要があることから、計算量は依然として多い。
【0008】
一方、比較的小さいホログラムとすることで計算量を削減し、その一方で視域を拡大することができる視点追従方式の計算機ホログラム表示装置が知られている(深谷ら、「視点追従方式ホログラフィックディスプレイの検討」、画像電子学会誌、第24巻、第5号、pp.38-43 (1995) 、および、N.Fukaya, et al., "Eye-Position Tracking Type Electro-Holographic Display Using Liquid Crystal Devices", Asia Display '95 Proc., S36-5 (1995))。この手法では、視域を拡げたままで計算するので、ホログラムの計算方法自体の効率が悪い。また、陰面消去処理については何等言及していない。
【0009】
このような視点追従方式の計算機ホログラム表示装置の場合には、視点位置に対応した陰面消去処理が施されたホログラムを短時間に計算する必要があるため、特に、陰面消去処理の際の計算量の削減が求められている。
【0010】
本発明は、上記問題点を解消する為になされたものであり、少ない計算量で短時間に陰面消去処理が可能であって、視点追従方式の場合にも好適に適用できる計算機ホログラム表示装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
本発明に係る第1の計算機ホログラム表示装置は、(1) 再生すべき物体像を透視変換してスクリーン座標系で表現する透視変換手段と、(2) スクリーン座標系で表された物体像上の各点と視点との間の距離に基づいて陰面消去する陰面消去手段と、(3) 陰面消去処理手段により陰面消去されたスクリーン座標系上の物体像を逆透視変換して実空間上の座標系で表現する逆透視変換手段と、(4) 逆透視変換手段により実空間上の座標系で表現された物体像に基づいて波面計算してホログラムデータを求めるホログラム計算手段と、(5) ホログラムデータに基づいてホログラムを形成するホログラム形成手段と、(6) ホログラムに可干渉光を照射して物体像を再生する再生手段と、を備えることを特徴とする。
【0012】
この第1の計算機ホログラム表示装置によれば、再生すべき物体像は、透視変換手段により、透視変換されてスクリーン座標系で表現され、陰面消去手段により、そのスクリーン座標系で表された物体像上の各点と視点との間の距離に基づいて陰面消去される。この陰面消去されたスクリーン座標系上の物体像は、逆透視変換手段により、逆透視変換されて実空間上の座標系で表現され、ホログラム計算手段により、この実空間上の座標系で表現された物体像に基づいて波面計算されてホログラムデータが求められる。そして、ホログラム形成手段により、このホログラムデータに基づいてホログラムが形成され、再生手段により、ホログラムに可干渉光が照射されて物体像が再生される。
【0013】
また、本発明に係る第1の計算機ホログラム表示装置は、さらに、(1) 視点の位置または変位を検出する視点検出手段と、(2) 視点検出手段により検出された視点の位置または変位に基づいて、再生すべき物体像をアフィン変換するアフィン変換手段と、(3) 視点検出手段により検出された視点の位置または変位に基づいて、再生手段の光軸を制御する制御手段と、を更に備えることを特徴とする。この場合には、再生すべき物体像は、視点検出手段により検出された視点の位置または変位に基づいてアフィン変換手段によりアフィン変換され、その後、透視変換手段、陰面消去手段、逆透視変換手段、ホログラム計算手段、ホログラム形成手段および再生手段により再生される。このとき、再生手段の光軸は、視点検出手段により検出された視点の位置または変位に基づいて制御手段により制御されるので、視点の変位に追従することができる。
【0014】
また、本発明に係る第2の計算機ホログラム表示装置は、(1) レンズの焦点位置に置かれた視点から観たときに再生すべき物体像を結像し得る実像を実空間上の座標系で求める実像変換手段と、(2) 実像上の各点と視点との間の距離に基づいて陰面消去する陰面消去手段と、(3) 陰面消去処理手段により陰面消去された実像に基づいて波面計算してホログラムデータを求めるホログラム計算手段と、(4) ホログラムデータに基づいてホログラムを形成するホログラム形成手段と、(5) ホログラムに可干渉光を照射して実像を再生する再生手段と、(6) レンズの結像機能と略同等の結像機能を有し、再生手段により再生された実像に基づいて物体像を結像する結像光学系と、を備えることを特徴とする。
【0015】
この第2の計算機ホログラム表示装置によれば、実像変換手段により、レンズの焦点位置に置かれた視点から観たときに再生すべき物体像を結像し得る実像が実空間上の座標系で求められ、陰面消去手段により、その実像上の各点と視点との間の距離に基づいて陰面消去される。ホログラム計算手段により、この陰面消去された実像に基づいて波面計算されてホログラムデータが求められ、ホログラム形成手段により、このホログラムデータに基づいてホログラムが形成される。そして、再生手段により、ホログラムに可干渉光が照射されて実像が再生され、結像光学系により、再生手段により再生された実像に基づいて物体像が結像される。
【0016】
また、本発明に係る第2の計算機ホログラム表示装置は、さらに、(1) 視点の位置または変位を検出する視点検出手段と、(2) 視点検出手段により検出された視点の位置または変位に基づいて、再生すべき物体像をアフィン変換するアフィン変換手段と、(3) 視点検出手段により検出された視点の位置または変位に基づいて、結像光学系の光軸を制御する制御手段と、を更に備えることを特徴とする。この場合には、再生すべき物体像は、視点検出手段により検出された視点の位置または変位に基づいてアフィン変換手段によりアフィン変換され、その後、実像変換手段、陰面消去手段、ホログラム計算手段、ホログラム形成手段、再生手段および結像光学系により再生される。このとき、結像光学系の光軸は、視点検出手段により検出された視点の位置または変位に基づいて制御手段により制御されるので、視点の変位に追従することができる。
【0017】
また、本発明に係る第2の計算機ホログラム表示装置では、さらに、結像光学系が、(a) ホログラムとは反対側の焦点面上に配され、0次光を遮光する0次光遮光手段と、(b) ホログラムとは反対側の焦点面上に配され、再生手段により再生された実像の共役像の波面を遮光する共役像遮光手段と、を備えることを特徴とする。この場合には、再生手段から結像光学系を経て視点に向かう0次光は、0次光遮光手段により遮光され、また、再生手段により再生された実像の共役像の波面は、共役像遮光手段により遮光されるので、 in-line型に特有の共役像に因る再生像の劣化が防止される。
【0018】
また、本発明に係る第1および第2の計算機ホログラム表示装置それぞれにおいて、さらに、(1) 再生すべき物体像の平行移動、回転または拡大/縮小を指示する指示手段と、(2) 指示手段により指示された平行移動、回転または拡大/縮小に基づいて、再生すべき物体像をアフィン変換するアフィン変換手段と、を更に備えることを特徴とする。この場合には、再生すべき物体像の平行移動、回転または拡大/縮小が指示手段により指示され、この指示に基づいて、再生すべき物体像がアフィン変換手段によりアフィン変換手段されるので、再生される像は、指示手段に依る指示に基づいて平行移動、回転または拡大/縮小されたものとなる。
【0019】
【発明の実施の形態】
以下、添付図面を参照して本発明の実施の形態を詳細に説明する。尚、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
【0020】
本実施形態に係る計算機ホログラム表示装置の説明に先だって、本実施形態において用いる陰面消去処理の手法であるzバッファ法(zソート法とも呼ばれる)について説明する。
【0021】
このzバッファ法では、先ず、表示すべき物体の表面を複数の多角形平面で構成し、その複数の多角形平面それぞれの各頂点の座標値を、その物体の中心位置を原点とする物体座標系で表示する。次に、各頂点座標値を、ワールド座標系で表したデータに変換し、さらに、実空間上の視点座標系(xe,ye,ze)で表したデータに変換する。この視点座標系は、視点(ホログラムを観る者の目の位置)を原点とし、ホログラム面(ホログラムが形成されるべき面)に垂直であってホログラム面に向かう方向をze軸とするものである。
【0022】
そして、この各頂点座標値で表される複数の多角形平面で構成される多角形平面体の内部(表面をも含む。以下同じ。)の各点の座標値を、視点座標系(xe,ye,ze)で表したデータから、仮想空間上のスクリーン座標系(x,y,z) で表したデータに変換する。この変換に際しては、多角形平面体の内部の各点について、
【数1】

Figure 0003798511
なる演算を行う。この変換を透視変換と呼ぶ。このスクリーン座標系(x,y,z) も、視点を原点とし、ホログラム面に垂直であってホログラム面に向かう方向を z軸とするものである。
【0023】
この視点座標系からスクリーン座標系への透視変換は、 xe,ye座標値についてはze座標値により除算することにより視野角(視線の方位)へ変換することに相当し、また、ze座標値についてはその逆数をとることにより直線から直線へ変換することに相当する。すなわち、この透視変換は、視点から見た同一の視線上にある多角形平面体内部の点をスクリーン座標系における同一の x,y座標値に変換する。また、透視変換は、 x,y座標値が同一であれば、視点に近い点ほど大きい z座標値に変換する。
【0024】
したがって、スクリーン座標系で表した多角形平面体内部の各点それぞれについて、同一の x,y座標値で表される複数の頂点が存在した場合に、そのうちで最も z座標値が大きい点(すなわち、最も視点に近い点)を選択することにより、視点から見える点のみが選択され、陰面消去処理がなされることになる。
【0025】
このように同一の x,y座標値である各点の中から最小の z座標値である点を選択するに際して、具体的には、例えば以下のようにして行う。すなわち、記憶素子を用意し、多角形平面体の内部の各点について、その x,y座標値に対応するアドレスにその z座標値を記憶する。もし、そのアドレス( x,y座標値)にデータ( z座標値)が既に記憶されている場合には、その記憶されているデータ( z座標値)と新たな z座標値とのうち大きな値を記憶素子に記憶する。このとき、その点に対応する輝度データをも記憶する。このようにすることにより、視点から見た物体は、スクリーン座標系において陰面消去処理され、 x,y座標値で表された視野角、 z座標値で表された距離、および、輝度データで表される。
【0026】
続いて、以上のようにして得られたスクリーン座標系(x,y,z) 上のデータを、再び実空間上の視点座標系(xe,ye,ze)に変換する。この変換に際しては、スクリーン座標系上の各 x,y座標値それぞれ、および、これに対応する z座標値について、
【数2】
Figure 0003798511
なる演算を行う。これを逆透視変換という。この逆透視変換で得られた視点座標系上のデータは、陰面消去処理が既に施されたものであるので、直ちに波面伝搬の計算を行うことができる。したがって、この逆透視変換で得られた視点座標系上のデータに基づいて、物体からホログラム面までの波面を計算することにより、陰面消去処理の施されたホログラムを得ることができる。この波面の計算に際しては、FFT(Fast Fourier Transform)を用いたフレネル変換法や球面波法が用いられる。
【0027】
以上説明したzバッファ法に基づく陰面消去処理は、従来技術に比べれば、計算量が極めて少ないものである。しかし、上記 (1)式に依る透視変換は、表示すべき物体の表面を構成する複数の多角形平面それぞれの各頂点についてのみ行うものであるのに対し、上記 (2)式に依る逆透視変換は、陰面消去処理により得られた多角形平面体の表面の全ての点について行うものである。したがって、物体がスクリーン座標系において広い範囲を占めるものである場合には、上記 (2)式に依る逆透視変換は、計算を間引くにしても、その計算量が多い。
【0028】
次に、zバッファ法に基づくものであって逆透視変換が不要である陰面消去処理について説明する。この陰面消去処理では、逆透視変換が不要であるので、更に計算量が少なくて済む。この陰面消去処理では、スクリーン座標系(x,y,z) とホログラム座標系(xh,yh,zh)とが x,y成分( xh,yh成分)に関して実質的に一致するよう光学系を工夫し、これにより逆透視変換を不要とする。図1は、逆透視変換を不要とする光学系の説明図である。
【0029】
この図に示すように、視点1は、焦点距離fのレンズ2の光軸上の焦点位置にある。その視点1の位置が、視点座標系(xe,ye,ze)およびスクリーン座標系(x,y,z) それぞれの原点である。また、視点1からレンズ2の中心位置へ向かう方向が、視点座標系(xe,ye,ze)およびスクリーン座標系(x,y,z) それぞれのze方向および z方向それぞれである。空間光変調素子3は、視点1とは反対側のレンズ2の光軸上であって、レンズ2の中心位置から距離pの位置に、光軸に垂直に配されている。そして、空間光変調素子3にホログラムを形成し、この空間光変調素子3の左方から可干渉平行光を照射して、空間光変調素子3の右方に物体の実像(real image)を再生し、視点1からレンズ2を介して虚像(virtual image )を観るものとする。
【0030】
このとき、物体の虚像の各点のxo,yo,zo座標値それぞれを視点座標系(xe,ye,ze)で表すと、物体の実像の対応する点の x,y,z座標値それぞれは、
【数3】
Figure 0003798511
なる変換式により得られる。また、近軸領域では、ガウスの結像公式より、
【数4】
Figure 0003798511
なる変換式により近似して変換してもよい。
【0031】
この (3)式(または (4)式)と上記 (1)式とを比較すると、(3)式(または (4)式)で得られる x,y座標値は、(1)式で得られる x,y座標値に対して、レンズ2の焦点距離fを乗じただけの相違しかない。すなわち、 x,y座標成分のみ見れば、スクリーン座標系とホログラム座標系とは、実質的に互いに一致している。そこで、 (3)式(または (4)式)で得られた x,y座標値を、この物体の実像の各点をホログラム座標系(xh,yh,zh)で表したときの xh,yh座標値とする。ここで、ホログラム座標系(xh,yh,zh)は、空間光変調素子3とレンズ2の光軸との交点を原点とし、レンズ2の光軸に平行であってレンズ2に向かう方向をzh軸とするものである。
【0032】
また、 x,y座標値については、 (1)式による変換で得られるスクリーン座標系の空間は仮想上のものであるので、波面の伝搬は直接には計算することができない。これに対して、 (3)式による変換で得られるホログラム座標系は実空間上のものであるので、その変換後に視点座標系に戻すことなく、ホログラム面(空間光変調素子3が配置されている面)上における波面は、FFTによるフレネル変換法または球面波法により直接に計算することができる。
【0033】
したがって、物体の実像の各点を視点座標系(xe,ye,ze)で表した座標値を、ホログラム座標系(xh,yh,zh)で表した座標値に変換するには、 xh,yh座標値については、上記 (3)式により得られる x,y座標値から直ちに求め、一方、zh座標値については、
【数5】
Figure 0003798511
なる変換式で求める。そして、ホログラム座標系(xh,yh,zh)で表された物体の実像の各点から空間光変調素子3へ伝搬する波面を計算することにより、ホログラムを作成することができる。
【0034】
(第1の実施形態)
次に、第1の実施形態について説明する。図2は、第1の実施形態に係る計算機ホログラム表示装置の構成図である。本実施形態は、zバッファ法を採用し、上述の透視変換および逆透視変換を行ってホログラムを計算し表示するものである。
【0035】
この計算機ホログラム表示装置における表示部10の構成ならびに各座標系について先ず説明する。表示部10は、可干渉光であるレーザ光を出力する光源11と、そのレーザ光の光束径を拡げて平行光束とするコリメータ12と、その平行光束とされたレーザ光を参照波として入力し物体の実像または虚像を再生する空間光変調素子13とを備えて構成されており、これらは互いに一体に固定されていて、制御部14により光軸方向が制御される。
【0036】
視点1は、空間光変調素子13について光源11およびコリメータ12の反対側であって距離pの位置にある。視点位置検出器15は、視点1の位置を検出して、その情報を制御部14に与える。制御部14は、視点位置検出器15により検出された視点1の位置の情報に基づいて、表示部10の光軸上に視点1が存在するように表示部10の光軸方向を制御する。これにより視域を拡大している。なお、この図では、制御部14は虚像が再生される位置(物体座標系の原点)を中心に表示部10を回転する場合について示している。
【0037】
視点座標系(xe,ye,ze)は、視点1を原点とし、空間光変調素子13に向かう方向をze軸とする。スクリーン座標系(x,y,z) も同様に、視点1を原点とし、空間光変調素子13に向かう方向を z軸とする。物体座標系(xo,yo,zo)は、再生されるべき物体の像(実像および虚像の何れか)に設定された座標系である。ホログラム座標系(xh,yh,zh)は、ホログラムが形成される空間光変調素子13に設定された座標である。本実施形態では、ワールド座標系と視点座標系とを同一のものとしている。なお、これらの座標系のうち、スクリーン座標系は仮想空間上のものであり、その他の座標系は実空間上のものである。
【0038】
なお、表示部10の光軸上に常に視点1が存在するよう制御部14および視点位置検出器15により制御されるので、視点座標系(xe,ye,ze)のxe,ye,ze軸それぞれ、スクリーン座標系(x,y,z) の x,y,z軸それぞれ、物体座標系(xo,yo,zo)のxo,yo,zo軸それぞれ、および、ホログラム座標系(xh,yh,zh)のxh,yh,zh軸それぞれは、常に互いに平行である。
【0039】
また、実像を再生する場合には、物体座標系(xo,yo,zo)の原点は、ホログラム座標系(xh,yh,zh)の原点から視点1の方向に距離lの位置(視点1から距離mの位置)にあるものとし、虚像を再生する場合には、物体座標系(xo,yo,zo)の原点は、ホログラム座標系(xh,yh,zh)の原点から光源11の方向に距離lの位置(視点1から距離m+2lの位置)にあるものとする。
【0040】
指示部16は、再生される物体の実像または虚像の平行移動、回転または拡大/縮小を指示するものであり、例えば、キーボード、マウスまたはジョイスティック等が好適に用いられる。また、データ記憶部21は、再生すべき物体を表す多角形平面体の各頂点それぞれについて物体座標系(xo,yo,zo)で表した座標値および輝度値(色情報をも含む。以下同じ。)を記憶している。
【0041】
アフィン変換部22は、データ記憶部21に記憶されている多角形平面体の各頂点を物体座標系(xo,yo,zo)で表した座標値および輝度値、指示部16を介して指示された再生像の平行移動、回転または拡大/縮小に関する情報、ならびに、視点位置検出器15により検出された視点1の変位量を入力して、
【数6】
Figure 0003798511
なる演算を行って、多角形平面体の各頂点を視点座標系(xe,ye,ze)で表した座標値を出力する。
【0042】
ここで、行列Tdは、再生像を平行移動させるためのものであり、行列Trxは、再生像をxo軸の回りに回転させるためのものであり、行列Tryは、再生像をyo軸の回りに回転させるためのものであり、行列Trzは、再生像をzo軸の回りに回転させるためのものであり、行列Tsは、再生像を拡大/縮小させるためのものである。
【0043】
指示部16より入力された再生像のxo,yo,zo軸方向それぞれの平行移動量をtx,ty,tzそれぞれとし、xo,yo,zo軸それぞれの回りの回転量をrx,ry,rzそれぞれとし、xo,yo,zo軸方向それぞれの拡大縮小率をsx,sy,szそれぞれとする。また、視点位置検出器15により検出された視点1のxe,ye,ze軸方向それぞれの変位量をΔex,Δey,Δezそれぞれとする。このとき、行列Td,Trx,Try,TrzおよびTsそれぞれは以下のように表される。
【0044】
すなわち、行列Tdは、
【数7】
Figure 0003798511
で表される。
【0045】
行列Trxは、
【数8】
Figure 0003798511
で表される。
【0046】
行列Tryは、
【数9】
Figure 0003798511
で表される。
【0047】
行列Trzは、
【数10】
Figure 0003798511
で表される。
【0048】
また、行列Tsは、
【数11】
Figure 0003798511
で表される。
【0049】
透視変換部23は、アフィン変換部22から出力された多角形平面体の各頂点を視点座標系(xe,ye,ze)で表した座標値および輝度値を入力し、
【数12】
Figure 0003798511
なる変換式で表される透視変換を行って、多角形平面体の各頂点をスクリーン座標系(x,y,z) で表した座標値および輝度値を出力する。
【0050】
内部座標値発生部24は、透視変換部23から出力された多角形平面体の各頂点をスクリーン座標系(x,y,z) で表した座標値および輝度値を入力し、その多角形平面体の内部の全ての点の x,y,z座標値それぞれを順次に発生して出力し、また、輝度値をシェーディング処理やビットマップ処理して出力する。この多角形平面体の内部の全ての点の座標値の発生に際しては、多角形平面体を構成する複数の多角形平面それぞれを適宜2分割し、それぞれの端の2点を順次更新し、その2点の座標値の差を(Δx,Δy,Δz) をスクリーン座標系上のホログラムのピッチで除算したものを定数として逐次加算し、内部の全ての画素の x,y,z座標値を求める。
【0051】
なお、本実施形態は、透視変換部23の後段に内部座標値発生部24を設けて、多角形平面体の各頂点それぞれについてのみ透視変換するものであるが、視点座標系における直線は透視変換後でもスクリーン座標系における直線となるので、内部座標値発生部24の後段に透視変換部23を設けてもよい。
【0052】
スクリーン座標値発生部25は、スクリーン座標系における x,y平面上の全ての点の x,y座標値それぞれを順次に発生し出力する。
【0053】
アドレス選択部26は、内部座標値発生部24から出力された x,y座標値と、スクリーン座標値発生部25から出力された x,y座標値とを入力し、それらの何れか一方を選択して出力する。このアドレス選択部26から出力された x,y座標値は、輝度値メモリ27および距離メモリ28それぞれにアドレスとして入力する。
【0054】
輝度値メモリ27は、内部座標値発生部24から出力された輝度値を、アドレス選択部26から出力された x,y座標値で示されるアドレスに記憶する。距離メモリ28は、内部座標値発生部24から出力された z座標値を、アドレス選択部26から出力された x,y座標値で示されるアドレスに記憶する。また、輝度値メモリ27および距離メモリ28それぞれは、二重バンク構造となっており、一方のバンクでその記憶内容を更新し、同時に、他方のバンクでその記憶内容を読み出すことができる。
【0055】
すなわち、アドレス選択部26は、内部座標値発生部24から出力された x,y座標値を、輝度値メモリ27および距離メモリ28それぞれの一方のバンクの更新記憶時のアドレスとし、スクリーン座標値発生部25から出力された x,y座標値を、他方のバンクの読出時のアドレスとする。
【0056】
距離比較部29は、アドレス選択部26から出力された x,y座標値で示されるアドレスに距離メモリ28が既に記憶している z座標値と、内部座標値発生部24から新たに出力された z座標値とを大小比較する。そして、距離比較部29は、後者の値が大きい(すなわち、視点1に近い)と判断した場合には、輝度値メモリ27および距離メモリ28それぞれに対して書込許可信号を出力し、内部座標値発生部24から新たに出力された輝度値および z座標値それぞれを更新記憶することを指示する。距離比較部29は、この操作を多角形平面体の内部の全ての点について行う。なお、距離メモリ28は、初期状態においては、距離比較部29が書込許可信号を必ず出力し得る内容を全てのアドレスに記憶している。
【0057】
このようにして、多角形平面体の内部の全ての点について距離比較部29により内容が更新記憶された輝度値メモリ27および距離メモリ28それぞれは、zバッファ法に基づく陰面消去処理がなされた輝度値およびスクリーン座標系で表した z座標値それぞれを保持している。そこで、輝度値メモリ27および距離メモリ28それぞれは、スクリーン座標値発生部25から出力されアドレス選択部26を経て到達した x,y座標値をアドレスとして順次入力し、そのアドレスに記憶されている輝度値および z座標値それぞれを順次出力する。
【0058】
逆透視変換部30は、スクリーン座標値発生部25から出力された x,y座標値、ならびに、その x.y座標値に応じて輝度値メモリ27および距離メモリ28それぞれから出力された輝度値および z座標値それぞれを入力し、
【数13】
Figure 0003798511
なる変換を行って、視点座標系(xe,ye,ze)で表された座標値に逆透視変換する。
【0059】
さらに、ホログラム座標変換部31は、逆透視変換部30から出力された視点座標系(xe,ye,ze)で表された座標値および輝度値を入力し、
【数14】
Figure 0003798511
なる変換を行って、ホログラム座標系(xh,yh,zh)で表された座標値に変換する。
【0060】
そして、ホログラム計算部32は、ホログラム座標変換部31から出力されたホログラム座標系(xh,yh,zh)で表された座標値および輝度値を入力し、これらのデータに基づいて波面伝搬の計算を行い、空間光変調素子13の位置における波面すなわちホログラムデータを計算する。この波面計算に際して、虚像を再生する場合には、フレネル変換法や球面波法を用いて空間光変調素子13上の波面を求め、実像を再生する場合には、フレネル逆変換法や球面波法による計算の後に複素共役をとって空間光変調素子13上の波面を求め、これをホログラムデータとする。また、ホログラム計算部32は、振幅および位相の双方または一方の変調が可能な空間光変調素子13に、このホログラムデータを表示する。そして、空間光変調素子13は、光源11から出力されたレーザ光がコリメータ12を介して照射されると、物体の実像または虚像を再生する。
【0061】
以上のように、本実施形態に係る計算機ホログラム表示装置では、多角形平面体の各頂点の座標値および輝度値は、データ記憶部21により、物体座標系(xo,yo,zo)で表されて予め記憶されており、アフィン変換部22により、平行移動、回転、拡大/縮小および視点追従がなされて視点座標系(xe,ye,ze)で表され、透視変換部23により透視変換されてスクリーン座標系(x,y,z) で表される。さらに、内部座標値発生部24、選択部26、輝度値メモリ27、距離メモリ28および距離比較部29により、zバッファ法に基づく陰面消去処理が施され、その陰面消去処理がなされた後の座標値および輝度値は、距離メモリ28のアドレス( x,y座標値)およびその記憶内容( z座標値)ならびに輝度値メモリ27の記憶内容として保持される。陰面消去処理後の座標値および輝度値は、スクリーン座標値発生部25により距離メモリ28および輝度値メモリ27から読み出され、逆透視変換部30により視点座標系(xe,ye,ze)に逆透視変換され、ホログラム座標変換部31によりホログラム座標系(xh,yh,zh)に変換され、ホログラム計算部32により波面計算がなされてホログラムデータが計算される。そして、このホログラムデータに基づいて空間光変調素子13にホログラムが形成され、光源11から出射された可干渉光が空間光変調素子13に照射されると物体像(実像および虚像の何れか)が再生される。
【0062】
このように、zバッファ法を採用したことにより、従来技術に比べて計算量が少ないので、短時間にホログラムを計算することができる。したがって、再生像の平行移動、回転または拡大/縮小をスムーズに行うことができ、また、高速に視点追従することができる計算機ホログラム表示装置を実現することができる。
【0063】
(第2の実施形態)
次に、第2の実施形態について説明する。図3は、第2の実施形態に係る計算機ホログラム表示装置の構成図である。本実施形態は、zバッファ法を採用し、上述の透視変換を行うが、光学系を工夫して逆透視変換を行うことなく、ホログラムを計算し表示するものである。
【0064】
この計算機ホログラム表示装置における表示部の構成ならびに各座標系について先ず説明する。この表示部は、右視点1Rおよび左視点1Lそれぞれに対応して設けられている。表示部のうち右視点1Rに対応する部分は、可干渉光であるレーザ光を出力する光源11Rと、そのレーザ光の光束径を拡げて平行光束とするコリメータ12Rと、その平行光束とされたレーザ光を反射させるミラー41Rと、ミラー41Rにより反射されたレーザ光を直線偏光にする偏光板42Rと、その直線偏光とされたレーザ光を参照波として入力し物体の実像を再生する空間光変調素子13Rと、空間光変調素子13Rから出力された光のうちの所定方位の直線偏光成分を透過させる偏光板43Rと、偏光板43Rから出力された光を入力し物体の虚像を結像するレンズ44Rと、その光を順次反射させ視点1Rに到達させるミラー45Rおよび46Rとを備えて構成されている。
【0065】
これらのうち、光源11R、コリメータ12R、ミラー41R、偏光板42R、空間光変調素子13R、偏光板43Rおよびレンズ44Rは、互いに一体にされ、位置が固定されている。一方、ミラー45Rおよび46Rは、制御部14Rにより、視点位置検出器15Rにより検出された視点1Rの位置の情報に基づいて、レンズ44Rの焦点位置に視点1Rが存在するように制御される。
【0066】
表示部のうちの左視点1Lに対応する部分も、同様に、光源11Lと、コリメータ12Lと、ミラー41Lと、偏光板42Lと、空間光変調素子13Lと、偏光板43Lと、レンズ44Lと、ミラー45Lおよび46Lとを備えて構成されている。また、同様に、これらのうち、光源11L、コリメータ12L、ミラー41L、偏光板42L、空間光変調素子13L、偏光板43Lおよびレンズ44Lは、互いに一体にされ、位置が固定されている。一方、ミラー45Lおよび46Lは、制御部14Lにより、視点位置検出器15Lにより検出された視点1Lの位置の情報に基づいて、レンズ44Lの焦点位置に視点1Lが存在するように制御される。これにより視域を拡大している。
【0067】
右視点1Rについての視点座標系(xer,yer,zer) は、右視点1Rを原点とし、レンズ44Rの光軸に平行であってレンズ44Rに向かう方向を zer軸とする。また、同様に、左視点1Lについての視点座標系(xel,yel,zel) は、左視点1Lを原点とし、レンズ44Lの光軸に平行であってレンズ44Lに向かう方向を zel軸とする。物体座標系(xo,yo,zo)は、再生されるべき物体の虚像に設定された座標系であり、右視点1Rについての視点座標系の zer軸方向と左視点1Lについての視点座標系の zel軸方向との交点を原点とし、右視点1Rと左視点1Lとの中点に向かう方向をzo軸とする。ホログラム座標系(xhr,yhr,zhr) および(xhl,yhl,zhl) それぞれは、ホログラムが形成される空間光変調素子13Rおよび13Lそれぞれに設定された座標である。本実施形態では、ワールド座標系と物体座標系とを同一のものとしている。なお、これらの座標系は全て実空間上のものである。
【0068】
右視点1Rと左視点1Lとの間の距離は、初期状態では距離Wであるものとする。空間光変調素子13Rとレンズ44Rとの距離をpとし、また、空間光変調素子13Lとレンズ44Lとの距離もpとする。物体座標系(xo,yo,zo)の原点から右視点1Rと左視点1Lとの中点までの距離をmとする。
【0069】
指示部16は、再生される物体の虚像の平行移動、回転または拡大/縮小を指示するものであり、例えば、キーボード、マウスまたはジョイスティック等が好適に用いられる。また、データ記憶部21は、再生すべき物体を表す多角形平面体の各頂点それぞれについて物体座標系(xo,yo,zo)で表した座標値および輝度値(色情報をも含む。以下同じ。)を記憶している。
【0070】
このデータ記憶部21に記憶されている座標値および輝度値は、アフィン変換部22Rおよび22Lそれぞれに入力し、これ以降、右視点1Rおよび左視点1Lそれぞれに対応してホログラムが計算されるまでの処理は、互いに独立した構成により行われる。以下では、先ず、右視点1Rに対応したホログラムを計算する構成について説明する。
【0071】
アフィン変換部22Rは、データ記憶部21に記憶されている多角形平面体の各頂点を物体座標系(xo,yo,zo)で表した座標値および輝度値、指示部16を介して指示された再生虚像の平行移動、回転または拡大/縮小に関する情報、ならびに、視点位置検出器15Rにより検出された右視点1Rの変位量を入力して、
【数15】
Figure 0003798511
なる演算を行って、多角形平面体の各頂点を視点座標系(xer,yer,zer) で表した座標値を出力する。
【0072】
ここで、行列Trdは、再生虚像を平行移動させるためのものであり、行列Trrxは、再生虚像をxo軸の回りに回転させるためのものであり、行列Trryは、再生虚像をyo軸の回りに回転させるためのものであり、行列Trrzは、再生虚像をzo軸の回りに回転させるためのものであり、行列Trsは、再生虚像を拡大/縮小させるためのものである。
【0073】
指示部16より入力された再生虚像のxo,yo,zo軸方向それぞれの平行移動量をtx,ty,tzそれぞれとし、xo,yo,zo軸それぞれの回りの回転量をrx,ry,rzそれぞれとし、xo,yo,zo軸方向それぞれの拡大縮小率をsx,sy,szそれぞれとする。また、視点位置検出器15Rにより検出された右視点1Rの xer,yer,zer軸方向それぞれの変位量をΔerx,Δery,Δerz それぞれとする。このとき、行列Trd,Trrx,Trry,TrrzおよびTrsそれぞれは以下のように表される。
【0074】
すなわち、行列Trdは、
【数16】
Figure 0003798511
で表される。
【0075】
行列Trrxは、
【数17】
Figure 0003798511
で表される。
【0076】
行列Trryは、
【数18】
Figure 0003798511
で表される。
【0077】
行列Trrzは、
【数19】
Figure 0003798511
で表される。
【0078】
また、行列Trsは、
【数20】
Figure 0003798511
で表される。
【0079】
内部座標値発生部24Rは、アフィン変換部22Rから出力された多角形平面体の各頂点を視点座標系(xer,yer,zer) で表した座標値および輝度値を入力し、その多角形平面体の内部の全ての点の xer,yer,zer座標値それぞれを順次に発生して出力し、また、輝度値をシェーディング処理やビットマップ処理して出力する。この多角形平面体の内部の全ての点の座標値の発生に際しては、多角形平面体を構成する複数の多角形平面それぞれを適宜2分割し、それぞれの端の2点を順次更新し、その2点の座標を一旦実像変換し、その2点のホログラム座標系上での差を(Δxhr,Δyhr,Δzhr) をホログラムのピッチで除算したサンプリング数を計算してこれを分割定数とし、実像変換以前の視点座標系(xer,yer,zer) での差(Δxer,Δyer,Δzer) をその分割定数で除算し、これを定数として逐次加算し、内部の全ての画素の xer,yer,zer座標値を求める。
【0080】
実像変換部51Rは、内部座標値発生部24Rから出力された多角形平面体の内部の全ての点を視点座標系(xer,yer,zer) で表した座標値および輝度値を入力し、
【数21】
Figure 0003798511
なる変換を行う。ここで、fは、レンズ44Rの焦点距離である。この実像変換で得られた x,y座標値それぞれは、ホログラム座標系(xhr,yhr,zhr) における xhr,yhr座標値それぞれと同一である。なお、近軸領域では、ガウスの結像公式より、
【数22】
Figure 0003798511
なる変換式により近似して変換してもよい。
【0081】
ホログラム座標値発生部52Rは、ホログラム座標系(xhr,yhr,zhr) における xhr,yhr平面上の全ての点の xhr,yhr座標値それぞれを順次に発生し出力する。輝度値メモリ27Rおよび距離メモリ28Rそれぞれは、二重バンク構造となっており、一方のバンクでその記憶内容を更新し、同時に、他方のバンクでその記憶内容を読み出すことができる。輝度値メモリ27Rおよび距離メモリ28Rそれぞれは、実像変換部51Rから出力された xhr,yhr座標値を更新記憶時のアドレスとして入力し、ホログラム座標値発生部52Rから出力された xhr,yhr座標値を読出時のアドレスとして入力する。また、輝度値メモリ27Rは、実像変換部51Rから出力された輝度値を更新記憶し又は読み出し、距離メモリ28Rは、実像変換部51Rから出力された z座標値を更新記憶し又は読み出す。
【0082】
距離比較部29Rは、実像変換部51Rから出力された xhr,yhr座標値で示されるアドレスに距離メモリ28Rが既に記憶している z座標値と、実像変換部51Rから新たに出力された z座標値とを大小比較する。そして、距離比較部29Rは、後者の値が大きい(すなわち、右視点1Rに近い)と判断した場合には、輝度値メモリ27Rおよび距離メモリ28Rそれぞれに対して書込許可信号を出力し、実像変換部51Rから新たに出力された輝度値および z座標値それぞれを更新記憶することを指示する。距離比較部29Rは、この操作を多角形平面体の内部の全ての点について行う。なお、距離メモリ28Rは、初期状態においては、距離比較部29Rが書込許可信号を必ず出力し得る内容を全てのアドレスに記憶している。
【0083】
このようにして、多角形平面体の内部の全ての点について距離比較部29Rにより内容が更新記憶された輝度値メモリ27Rおよび距離メモリ28Rそれぞれは、zバッファ法に基づく陰面消去処理がなされた輝度値および z座標値それぞれを保持している。そこで、輝度値メモリ27Rおよび距離メモリ28Rそれぞれは、ホログラム座標値発生部52Rから出力された xhr,yhr座標値をアドレスとして順次入力し、そのアドレスに記憶されている輝度値および z座標値それぞれを順次出力する。
【0084】
そして、ホログラム計算部32Rは、ホログラム座標値発生部52Rから出力された xhr,yhr座標値、および、その xhr,yhr座標値をアドレスとして距離メモリ28Rおよび輝度値メモリ27Rそれぞれから読み出された z座標値および輝度値それぞれを入力し、
【数23】
Figure 0003798511
なる演算を行って、入力した z座標値を、ホログラム座標系(xhr,yhr,zhr) 上の zhr座標値に変換する。さらに、ホログラム計算部32Rは、これらのデータに基づいて波面伝搬の計算を行い、空間光変調素子13Rの位置における波面すなわちホログラムデータを計算する。この波面計算に際して、フレネル変換法や球面波法を用いて空間光変調素子13R上の波面を求め、これをホログラムデータとする。また、ホログラム計算部32Rは、振幅および位相の双方または一方の変調が可能な空間光変調素子13Rに、このホログラムデータを表示する。そして、空間光変調素子13Rは、光源11Rから出力されたレーザ光がコリメータ12R等を介して照射されると、空間光変調素子13Rとレンズ44Rとの間に物体の実像を再生し、更に、レンズ44Rは、右視点1Rと左視点1Lとの交点の位置に物体の虚像を結像する。
【0085】
次に、左視点1Lに対応したホログラムを計算する構成について説明する。アフィン変換部22Lは、データ記憶部21に記憶されている多角形平面体の各頂点を物体座標系(xo,yo,zo)で表した座標値および輝度値、指示部16を介して指示された再生虚像の平行移動、回転または拡大/縮小に関する情報、ならびに、視点位置検出器15Lにより検出された左視点1Lの変位量を入力して、
【数24】
Figure 0003798511
なる演算を行って、多角形平面体の各頂点を視点座標系(xel,yel,zel) で表した座標値を出力する。
【0086】
ここで、行列Tldは、再生虚像を平行移動させるためのものであり、行列Tlrxは、再生虚像をxo軸の回りに回転させるためのものであり、行列Tlryは、再生虚像をyo軸の回りに回転させるためのものであり、行列Tlrzは、再生虚像をzo軸の回りに回転させるためのものであり、行列Tlsは、再生虚像を拡大/縮小させるためのものである。
【0087】
指示部16より入力された再生虚像のxo,yo,zo軸方向それぞれの平行移動量をtx,ty,tzそれぞれとし、xo,yo,zo軸それぞれの回りの回転量をrx,ry,rzそれぞれとし、xo,yo,zo軸方向それぞれの拡大縮小率をsx,sy,szそれぞれとする。また、視点位置検出器15Lにより検出された左視点1Lの xel,yel,zel軸方向それぞれの変位量をΔelx,Δely,Δelz それぞれとする。このとき、行列Tld,Tlrx,Tlry,TlrzおよびTlsそれぞれは以下のように表される。
【0088】
すなわち、行列Tldは、
【数25】
Figure 0003798511
で表される。
【0089】
行列Tlrxは、
【数26】
Figure 0003798511
で表される。
【0090】
行列Tlryは、
【数27】
Figure 0003798511
で表される。
【0091】
行列Tlrzは、
【数28】
Figure 0003798511
で表される。
【0092】
また、行列Tlsは、
【数29】
Figure 0003798511
で表される。
【0093】
内部座標値発生部24Lは、アフィン変換部22Lから出力された多角形平面体の各頂点を視点座標系(xel,yel,zel) で表した座標値および輝度値を入力し、その多角形平面体の内部の全ての点の xel,yel,zel座標値それぞれを順次に発生して出力し、また、輝度値をシェーディング処理やビットマップ処理して出力する。この多角形平面体の内部の全ての点の座標値の発生に際しては、内部座標値発生部24Rにおける場合と同様にして行う。
【0094】
実像変換部51Lは、内部座標値発生部24Lから出力された多角形平面体の内部の全ての点を視点座標系(xel,yel,zel) で表した座標値および輝度値を入力し、
【数30】
Figure 0003798511
なる変換を行う。ここで、fは、レンズ44Lの焦点距離である。この実像変換で得られた x,y座標値それぞれは、ホログラム座標系(xhl,yhl,zhl) における xhl,yhl座標値それぞれと同一である。なお、近軸領域では、ガウスの結像公式より、
【数31】
Figure 0003798511
なる変換式により近似して変換してもよい。
【0095】
ホログラム座標値発生部52Lは、ホログラム座標系(xhl,yhl,zhl) における xhl,yhl平面上の全ての点の xhl,yhl座標値それぞれを順次に発生し出力する。輝度値メモリ27Lおよび距離メモリ28Lそれぞれは、二重バンク構造となっており、一方のバンクでその記憶内容を更新し、同時に、他方のバンクでその記憶内容を読み出すことができる。輝度値メモリ27Lおよび距離メモリ28Lそれぞれは、実像変換部51Lから出力された xhl,yhl座標値を更新記憶時のアドレスとして入力し、ホログラム座標値発生部52Lから出力された xhl,yhl座標値を読出時のアドレスとして入力する。また、輝度値メモリ27Lは、実像変換部51Lから出力された輝度値を更新記憶し又は読み出し、距離メモリ28Lは、実像変換部51Lから出力された z座標値を更新記憶し又は読み出す。
【0096】
距離比較部29Lは、実像変換部51Lから出力された xhl,yhl座標値で示されるアドレスに距離メモリ28Lが既に記憶している z座標値と、実像変換部51Lから新たに出力された z座標値とを大小比較する。そして、距離比較部29Lは、後者の値が大きい(すなわち、左視点1Lに近い)と判断した場合には、輝度値メモリ27Lおよび距離メモリ28Lそれぞれに対して書込許可信号を出力し、実像変換部51Lから新たに出力された輝度値および z座標値それぞれを更新記憶することを指示する。距離比較部29Lは、この操作を多角形平面体の内部の全ての点について行う。なお、距離メモリ28Lは、初期状態においては、距離比較部29Lが書込許可信号を必ず出力し得る内容を全てのアドレスに記憶している。
【0097】
このようにして、多角形平面体の内部の全ての点について距離比較部29Lにより内容が更新記憶された輝度値メモリ27Lおよび距離メモリ28Lそれぞれは、zバッファ法に基づく陰面消去処理がなされた輝度値および z座標値それぞれを保持している。そこで、輝度値メモリ27Lおよび距離メモリ28Lそれぞれは、ホログラム座標値発生部52Lから出力された xhl,yhl座標値をアドレスとして順次入力し、そのアドレスに記憶されている輝度値および z座標値それぞれを順次出力する。
【0098】
そして、ホログラム計算部32Lは、ホログラム座標値発生部52Lから出力された xhl,yhl座標値、および、その xhl,yhl座標値をアドレスとして距離メモリ28Lおよび輝度値メモリ27Lそれぞれから読み出された z座標値および輝度値それぞれを入力し、
【数32】
Figure 0003798511
なる演算を行って、入力した z座標値を、ホログラム座標系(xhl,yhl,zhl) 上の zhl座標値に変換する。さらに、ホログラム計算部32Lは、これらのデータに基づいて波面伝搬の計算を行い、空間光変調素子13Lの位置における波面すなわちホログラムデータを計算する。この波面計算に際して、フレネル変換法や球面波法を用いて空間光変調素子13L上の波面を求め、これをホログラムデータとする。また、ホログラム計算部32Lは、振幅および位相の双方または一方の変調が可能な空間光変調素子13Lに、このホログラムデータを表示する。そして、空間光変調素子13Lは、光源11Lから出力されたレーザ光がコリメータ12L等を介して照射されると、空間光変調素子13Lとレンズ44Lとの間に物体の実像を再生し、更に、レンズ44Lは、右視点1Rと左視点1Lとの交点の位置に物体の虚像を結像する。
【0099】
本実施形態に係る計算機ホログラム表示装置の具体的な実施例としては、光源11R,11Lは、He−Neレーザ光源が用いられ、レンズ44R,44Lは、焦点距離30cmのものが用いられ、空間光変調素子13R,13Lは、TN型液晶表示素子(ソニー社製LCX012AL、画素数640×480画素、ピッチ41.4μm)が用いられ、レンズ44R,44Lの前側焦点面に置かれ、両面に偏光板が置かれる。この場合、空間光変調素子13R,13Lそれぞれは、入射したレーザ光(参照波)の振幅および位相の双方を変調するものではないので、物体の再生虚像は共役像をも伴う。
【0100】
この不要な共役像を以下のようにして除去する。図4は、共役像の除去方法の説明図である。なお、この図では、空間光変調素子13Rから右視点1Rに到るまでの光学系を簡略化して記してある。今、空間光変調素子13Rには、半円の余弦波ゾーンプレート60Rが書き込まれているものとし、可干渉光であるレーザ光(参照波)を左方から入力して、その光の振幅および位相の何れかを変調する。この余弦波ゾーンプレート60Rによる再生像として、虚像71および実像72が得られる。虚像71は、レンズ44Rの後側焦点面においては一方の半平面にあり、実像72は、他方の半平面にある。そこで、レンズ44Rの後側焦点面に、0次光を遮光する0次光遮光マスク61Rと、一方の半平面について遮光する共役像遮光マスク62Rとを設け、そして、これらの背後に右視点1Rを置く。このようにすることにより、実像および虚像の一方を選択することができ、 in-line型に特有の共役像に因る再生像の劣化を防止することができる。この図では、虚像71を除去するよう共役像遮光マスク62Rが配置されており、視点1Rからは、実像72のレンズ44Rによる虚像73のみが観察され得る。
【0101】
この手法を図3に示す構成に適用するには、再生すべき物体の表面の各輝点ごとに半円の余弦波ゾーンプレートを対応させて累積加算して空間光変調素子13Rおよび13Lそれぞれに表示すべきホログラムデータを作成し、右視点1Rの直前に0次光遮光マスク61Rと共役像遮光マスク62Rとを置き、左視点1Lの直前に0次光遮光マスク61Lと共役像遮光マスク62Lとを置けばよい。
【0102】
以上のように、本実施形態に係る計算機ホログラム表示装置では、多角形平面体の各頂点の座標値および輝度値は、データ記憶部21により、物体座標系で表されて予め記憶されており、アフィン変換部22R,22Lにより、平行移動、回転、拡大/縮小および視点追従がなされて視点座標系で表される。さらに、内部座標値発生部24R,24Lおよび実像変換部51R,51Lにより、再生すべき物体の虚像を結像し得る実像が実空間上の座標系で求められ、輝度値メモリ27R,27L、距離メモリ28R,28Lおよび距離比較部29R,29Lにより、zバッファ法に基づく陰面消去処理が施され、その陰面消去処理がなされた後の座標値および輝度値は、距離メモリ28R,28Lのアドレスおよびその記憶内容ならびに輝度値メモリ27R,27Lの記憶内容として保持される。陰面消去処理後の座標値および輝度値は、ホログラム座標値発生部52R,52Lにより距離メモリ28R,28Lおよび輝度値メモリ27R,27Lから読み出され、ホログラム計算部32R,32Lにより波面計算がなされてホログラムデータが計算される。そして、このホログラムデータに基づいて空間光変調素子13R,13Lにホログラムが形成され、光源11R,11Lから出射された可干渉光が空間光変調素子13R,13Lに照射されると実像が再生され、その実像に基づいてレンズ44R,44Lにより虚像が結像される。
【0103】
このように、zバッファ法を採用したことにより、従来技術に比べて計算量が少ないので、短時間にホログラムを計算することができる。したがって、再生虚像の平行移動、回転または拡大/縮小をスムーズに行うことができ、また、高速に視点追従することができる計算機ホログラム表示装置を実現することができる。また、本実施形態では、空間光変調素子13R、13Lにより再生された実像をレンズ44R,44Lにより虚像に変換することにより、逆透視変換を不要としたので、第1の実施形態に比べて、さらに計算量が少ない。
【0104】
【発明の効果】
以上、詳細に説明したとおり、本発明に係る第1の計算機ホログラム表示装置によれば、再生すべき物体像は、透視変換手段により、透視変換されてスクリーン座標系で表現され、陰面消去手段により、そのスクリーン座標系で表された物体像上の各点と視点との間の距離に基づいて陰面消去される。この陰面消去されたスクリーン座標系上の物体像は、逆透視変換手段により、逆透視変換されて実空間上の座標系で表現され、ホログラム計算手段により、この実空間上の座標系で表現された物体像に基づいて波面計算されてホログラムデータが求められる。そして、ホログラム形成手段により、このホログラムデータに基づいてホログラムが形成され、再生手段により、ホログラムに可干渉光が照射されて物体像が再生される。このようにしたことにより、陰面消去処理のなされたホログラムを少ない計算量で短時間に求めることができる。したがって、視点の変位に対応した物体像を表示する視点追従方式の場合や、平行移動、回転または拡大/縮小して物体像を表示する場合のように、ホログラムを高速に計算する必要がある場合に好適に適用できる。
【0105】
また、本発明に係る第2の計算機ホログラム表示装置によれば、実像変換手段により、レンズの焦点位置に置かれた視点から観たときに再生すべき物体像を結像し得る実像が実空間上の座標系で求められ、陰面消去手段により、その実像上の各点と視点との間の距離に基づいて陰面消去される。ホログラム計算手段により、この陰面消去された実像に基づいて波面計算されてホログラムデータが求められ、ホログラム形成手段により、このホログラムデータに基づいてホログラムが形成される。そして、再生手段により、ホログラムに可干渉光が照射されて実像が再生され、結像光学系により、再生手段により再生された実像に基づいて物体像が結像される。この場合には、第1の計算機ホログラム表示装置と比べて更に少ない計算量で短時間に、陰面消去処理のなされたホログラムを求めることができるので、視点追従方式の場合や平行移動、回転または拡大/縮小して表示する場合に適用するのに更に好適である。
【図面の簡単な説明】
【図1】逆透視変換を不要とする光学系の説明図である。
【図2】第1の実施形態に係る計算機ホログラム表示装置の構成図である。
【図3】第2の実施形態に係る計算機ホログラム表示装置の構成図である。
【図4】共役像の除去方法の説明図である。
【符号の説明】
1,1R,1L…視点、2…レンズ、3…空間光変調素子、4…再生実像、5…再生虚像、10…表示部、11,11R,11L…光源、12,12R,12L…コリメータ、13,13R,13L…空間光変調素子、14,14R,14L…制御部、15,15R,15L…視点位置検出器、16…指示部、21…データ記憶部、22,22R,22L…アフィン変換部、23…透視変換部、24…内部座標値発生部、25…スクリーン座標値発生部、26…アドレス選択部、27,27R,27L…輝度値メモリ、28,28R,28L…距離メモリ、29,29R,29L…距離比較部、30…逆透視変換部、31…ホログラム座標変換部、32,32R,32L…ホログラム計算部、41R,41L…ミラー、42R,42L,43R,43L…偏光板、44R,44L…レンズ、45R,45L,46R,46L…ミラー、51R,51L…実像変換部、52R,52L…ホログラム座標値発生部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a computer generated hologram display device that reproduces and displays an image of a three-dimensional object.
[0002]
[Prior art]
In a computer generated hologram display device, a hologram is calculated by performing a hidden surface erasing process on a three-dimensional object to be reproduced / displayed, and a reference wave is irradiated to the hologram subjected to the hidden surface erasing process to reproduce a three-dimensional object image. Yes. The hidden surface erasure processing is performed so that the wavefront generated from the back surface of the object (surface that cannot be seen from the viewpoint) is erased and only the wavefront generated from the surface of the object (surface that can be viewed from the viewpoint) reaches the viewpoint. The following various methods are known for this hidden surface erasing process.
[0003]
For example, the hidden surface elimination is performed with the consideration that the wavefront generated at a position far from the viewpoint is affected by the part of the object closer to the viewpoint and reaches the observation plane with the second-order diffracted wave generated thereby. (See "Optical Information Processing", Asakura Shoten, pp.249-254). In this technique, a three-dimensional object is considered as a set of many two-dimensional faults, and a wavefront that reaches the next fault adjacent to the viewpoint side is obtained by performing Fresnel transformation on a wavefront generated at a fault far from the viewpoint. . When the fault has a transmittance distribution, the product of the wavefront that has reached and the transmittance distribution is obtained, and this product is used as a new wavefront. On the other hand, when the fault is opaque and the fault generates light emission or reflection light, the light emission or reflection light is set as a new wavefront. The new wavefront obtained in this way is subjected to Fresnel transformation to obtain the wavefront at the next fault adjacent to the viewpoint side. By performing such processing for all the tomograms, a computer generated hologram of a three-dimensional object with hidden surface removal is obtained.
[0004]
This method is superior in that it does not require consideration of viewpoints and is compatible with multiple viewpoints, and is also excellent in that it also considers the effect of diffraction. However, since it is necessary to perform Fresnel transformation at each position of each fault, there is a problem that the amount of calculation is extremely large. In particular, if an object is to be displayed precisely, it is necessary to increase the number of faults and increase the number of calculation points in each fault, which leads to an explosive increase in the amount of calculation.
[0005]
Therefore, several methods for reducing the amount of calculation are known. For example, a scan line method or ray tracing method that is a computer graphic method ignores the effect that a wavefront generated at a position far from the viewpoint is affected by the part of the object closer to the viewpoint and produces a second-order diffracted wave. Vol.31, No.2, for which hidden surface removal processing by, is adopted for hologram calculation (for example, M. Yamaguchi, et al., "Holographic three-dimensional printer: new method", Appl. Opt. Vol. 31, No. 2, pp. 217-222 (1992), JP-A-6-67591, JP-A-6-102811, and JP-A-6-130881).
[0006]
In hidden surface removal processing using the scan line method or ray tracing method, a straight line passing through each point on the object surface is assumed from the viewpoint, and if there are multiple intersections between the straight line and the object surface, the multiple intersection points are Judge the distance from, and adopt the intersection closest to the viewpoint. Then, by calculating the wavefront generated at each of the adopted intersections and propagating to the hologram surface, a computer generated hologram of a three-dimensional object with hidden surface removal is obtained.
[0007]
[Problems to be solved by the invention]
However, even in the case of hidden surface removal processing using the scan line method or ray tracing method, it is necessary to solve the equation to find the coordinate value of the intersection between the straight line and the object for each straight line from the viewpoint. The calculation amount is still large.
[0008]
On the other hand, there is known a viewpoint-following computer hologram display device that can reduce the amount of calculation by making it a relatively small hologram while at the same time expanding the viewing zone (Fukaya et al. "Review of Display", Journal of the Institute of Image Electronics Engineers of Japan, Vol. 24, No. 5, pp.38-43 (1995), and N. Fukaya, et al., "Eye-Position Tracking Type Electro-Holographic Display Using Liquid Crystal Devices ", Asia Display '95 Proc., S36-5 (1995)). In this method, since the calculation is performed with the viewing zone expanded, the efficiency of the hologram calculation method itself is poor. Further, nothing is mentioned about the hidden surface removal processing.
[0009]
In the case of such a viewpoint follow-up type computer generated hologram display device, it is necessary to calculate a hologram that has been subjected to hidden surface removal processing corresponding to the viewpoint position in a short time. Reduction is required.
[0010]
The present invention has been made to solve the above-described problems, and provides a computer generated hologram display device that can perform hidden surface erasing processing in a short time with a small amount of calculation and can be suitably applied to the viewpoint tracking method. The purpose is to provide.
[0011]
[Means for Solving the Problems]
The first computer generated hologram display device according to the present invention includes (1) perspective transformation means for perspective transformation of an object image to be reproduced and expressing it in a screen coordinate system, and (2) on the object image represented in the screen coordinate system. A hidden surface erasing means for erasing the hidden surface based on the distance between each point and the viewpoint, and (3) reverse perspective transformation of the object image on the screen coordinate system erased by the hidden surface erasing processing means in the real space. An inverse perspective transformation means that expresses in a coordinate system, and (4) a hologram calculation means that obtains hologram data by wavefront calculation based on an object image expressed in a coordinate system in real space by an inverse perspective transformation means, and (5) A hologram forming unit that forms a hologram based on hologram data, and (6) a reproduction unit that reproduces an object image by irradiating the hologram with coherent light.
[0012]
According to the first computer generated hologram display device, the object image to be reproduced is perspective-transformed by the perspective transformation means and expressed in the screen coordinate system, and the object image represented in the screen coordinate system by the hidden surface elimination means. The hidden surface is erased based on the distance between each point above and the viewpoint. This hidden surface-erased object image on the screen coordinate system is inversely perspective transformed by the inverse perspective transformation means and expressed in the real space coordinate system, and is expressed in the real space coordinate system by the hologram calculation means. Hologram data is obtained by wavefront calculation based on the obtained object image. Then, a hologram is formed on the basis of the hologram data by the hologram forming means, and an object image is reproduced by irradiating the coherent light onto the hologram by the reproducing means.
[0013]
The first computer generated hologram display device according to the present invention further includes (1) viewpoint detection means for detecting the position or displacement of the viewpoint, and (2) the viewpoint position or displacement detected by the viewpoint detection means. Affine transformation means for affine transformation of the object image to be reproduced, and (3) control means for controlling the optical axis of the reproduction means based on the position or displacement of the viewpoint detected by the viewpoint detection means. It is characterized by that. In this case, the object image to be reproduced is affine transformed by the affine transformation unit based on the position or displacement of the viewpoint detected by the viewpoint detection unit, and thereafter, the perspective transformation unit, the hidden surface elimination unit, the reverse perspective transformation unit, Reproduced by the hologram calculating means, hologram forming means and reproducing means. At this time, the optical axis of the reproduction means is controlled by the control means based on the position or displacement of the viewpoint detected by the viewpoint detection means, and can follow the viewpoint displacement.
[0014]
Further, the second computer generated hologram display according to the present invention provides: (1) a real image that can form an object image to be reproduced when viewed from a viewpoint placed at the focal point of the lens; Real image conversion means obtained in step (2), (2) hidden surface removal means for removing the hidden surface based on the distance between each point on the real image, and (3) wavefront based on the real image that has been hidden surface erased by the hidden surface removal processing means. Hologram calculation means for calculating and obtaining hologram data, (4) Hologram formation means for forming a hologram based on the hologram data, (5) Reproduction means for irradiating the hologram with coherent light and reproducing a real image, 6) An imaging optical system that has an imaging function substantially equivalent to the imaging function of the lens and that forms an object image based on the real image reproduced by the reproducing means.
[0015]
According to the second computer generated hologram display device, a real image capable of forming an object image to be reproduced when viewed from a viewpoint placed at the focal position of the lens is represented in a coordinate system in real space by the real image conversion means. The hidden surface is erased by the hidden surface erasing means based on the distance between each point on the real image and the viewpoint. The hologram calculation means calculates the wavefront based on the hidden surface-erased real image to obtain hologram data, and the hologram forming means forms a hologram based on the hologram data. The reproducing unit irradiates the hologram with coherent light to reproduce a real image, and the imaging optical system forms an object image based on the real image reproduced by the reproducing unit.
[0016]
The second computer generated hologram display apparatus according to the present invention further includes (1) viewpoint detection means for detecting the position or displacement of the viewpoint, and (2) the viewpoint position or displacement detected by the viewpoint detection means. Affine transformation means for affine transformation of the object image to be reproduced, and (3) control means for controlling the optical axis of the imaging optical system based on the position or displacement of the viewpoint detected by the viewpoint detection means. It is further provided with the feature. In this case, the object image to be reproduced is affine transformed by the affine transformation means based on the position or displacement of the viewpoint detected by the viewpoint detection means, and then the real image transformation means, hidden surface elimination means, hologram calculation means, hologram Reproduction is performed by the forming unit, the reproducing unit, and the imaging optical system. At this time, the optical axis of the imaging optical system is controlled by the control means based on the position or displacement of the viewpoint detected by the viewpoint detection means, and can follow the displacement of the viewpoint.
[0017]
Further, in the second computer generated hologram display device according to the present invention, the imaging optical system is further arranged on a focal plane opposite to the hologram (a), and 0th order light shielding means for shielding 0th order light. And (b) a conjugate image light shielding unit arranged on a focal plane opposite to the hologram and shielding a wavefront of a conjugate image of a real image reproduced by the reproducing unit. In this case, the 0th order light traveling from the reproducing means to the viewpoint through the imaging optical system is shielded by the 0th order light shielding means, and the wavefront of the conjugate image of the real image reproduced by the reproducing means is conjugated image shielded. Since the light is shielded by the means, deterioration of the reproduced image due to the conjugate image peculiar to the in-line type is prevented.
[0018]
Further, in each of the first and second computer generated hologram displays according to the present invention, (1) instruction means for instructing parallel movement, rotation or enlargement / reduction of an object image to be reproduced, and (2) instruction means And affine transformation means for affine transformation of the object image to be reproduced based on the parallel movement, rotation, or enlargement / reduction indicated by. In this case, the instruction means instructs the parallel movement, rotation or enlargement / reduction of the object image to be reproduced, and based on this instruction, the object image to be reproduced is affine transformation means by the affine transformation means. The image to be displayed is the one that has been translated, rotated, or enlarged / reduced based on an instruction from the instruction means.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.
[0020]
Prior to the description of the computer generated hologram display device according to the present embodiment, a z buffer method (also referred to as a z sort method), which is a hidden surface erasing method used in the present embodiment, will be described.
[0021]
In this z-buffer method, first, the surface of an object to be displayed is composed of a plurality of polygon planes, and the coordinate values of the vertices of each of the plurality of polygon planes are the object coordinates with the center position of the object as the origin. Display in the system. Next, each vertex coordinate value is converted into data expressed in the world coordinate system, and further converted into data expressed in the viewpoint coordinate system (xe, ye, ze) in the real space. This viewpoint coordinate system uses the viewpoint (the position of the eyes of the person viewing the hologram) as the origin, and the direction perpendicular to the hologram surface (the surface on which the hologram is to be formed) and toward the hologram surface as the ze axis. .
[0022]
Then, the coordinate value of each point inside the polygonal plane composed of a plurality of polygonal planes represented by the vertex coordinate values (including the surface, the same applies hereinafter) is represented by the viewpoint coordinate system (xe, ye, ze) is converted to data represented in the screen coordinate system (x, y, z) in the virtual space. For this transformation, for each point inside the polygonal plane,
[Expression 1]
Figure 0003798511
Perform the following operation. This conversion is called perspective conversion. This screen coordinate system (x, y, z) also has the viewpoint as the origin, and the direction perpendicular to the hologram surface and toward the hologram surface is the z-axis.
[0023]
This perspective transformation from the viewpoint coordinate system to the screen coordinate system is equivalent to converting the xe, ye coordinate value by the ze coordinate value to the viewing angle (the direction of the line of sight). Corresponds to conversion from a straight line to a straight line by taking the reciprocal thereof. That is, in this perspective transformation, a point inside a polygonal plane that is on the same line of sight as seen from the viewpoint is converted to the same x, y coordinate value in the screen coordinate system. In the perspective transformation, if the x and y coordinate values are the same, the point closer to the viewpoint is transformed into a larger z coordinate value.
[0024]
Therefore, for each point inside the polygonal plane represented by the screen coordinate system, when there are multiple vertices represented by the same x and y coordinate values, the point with the largest z coordinate value (ie , The point closest to the viewpoint) is selected, so that only the point visible from the viewpoint is selected and the hidden surface removal process is performed.
[0025]
In this way, when the point having the minimum z coordinate value is selected from the points having the same x and y coordinate values, specifically, for example, the following is performed. That is, a storage element is prepared, and for each point inside the polygonal plane, the z coordinate value is stored at an address corresponding to the x, y coordinate value. If data (z coordinate value) is already stored at the address (x, y coordinate value), the larger value of the stored data (z coordinate value) and the new z coordinate value Is stored in the storage element. At this time, the luminance data corresponding to the point is also stored. By doing so, the object viewed from the viewpoint is subjected to hidden surface removal processing in the screen coordinate system, and is represented by the viewing angle represented by the x, y coordinate values, the distance represented by the z coordinate values, and the luminance data. Is done.
[0026]
Subsequently, the data on the screen coordinate system (x, y, z) obtained as described above is converted again into the viewpoint coordinate system (xe, ye, ze) in the real space. In this conversion, each x and y coordinate value on the screen coordinate system and the corresponding z coordinate value are
[Expression 2]
Figure 0003798511
Perform the following operation. This is called reverse perspective transformation. Since the data on the viewpoint coordinate system obtained by the reverse perspective transformation has already been subjected to the hidden surface removal processing, the wavefront propagation can be immediately calculated. Therefore, by calculating the wavefront from the object to the hologram surface based on the data on the viewpoint coordinate system obtained by this reverse perspective transformation, it is possible to obtain a hologram that has been subjected to hidden surface removal processing. In calculating the wavefront, a Fresnel transform method using FFT (Fast Fourier Transform) or a spherical wave method is used.
[0027]
The hidden surface removal processing based on the z-buffer method described above has a very small amount of calculation compared to the prior art. However, the perspective transformation based on the above equation (1) is performed only for each vertex of a plurality of polygonal planes constituting the surface of the object to be displayed, whereas the reverse perspective based on the above equation (2) is used. The conversion is performed for all the points on the surface of the polygonal plane obtained by the hidden surface erasing process. Therefore, when the object occupies a wide range in the screen coordinate system, the inverse perspective transformation according to the above equation (2) has a large amount of calculation even if the calculation is thinned out.
[0028]
Next, a hidden surface removal process that is based on the z-buffer method and does not require reverse perspective transformation will be described. In this hidden surface removal process, the reverse perspective transformation is not required, so that the amount of calculation is further reduced. In this hidden surface removal process, the optical system is devised so that the screen coordinate system (x, y, z) and the hologram coordinate system (xh, yh, zh) substantially match with respect to the x, y component (xh, yh component). This eliminates the need for reverse perspective transformation. FIG. 1 is an explanatory diagram of an optical system that does not require reverse perspective transformation.
[0029]
As shown in this figure, the viewpoint 1 is at the focal position on the optical axis of the lens 2 having a focal length f. The position of the viewpoint 1 is the origin of each of the viewpoint coordinate system (xe, ye, ze) and the screen coordinate system (x, y, z). The directions from the viewpoint 1 toward the center position of the lens 2 are the ze direction and the z direction of the viewpoint coordinate system (xe, ye, ze) and the screen coordinate system (x, y, z), respectively. The spatial light modulator 3 is arranged on the optical axis of the lens 2 opposite to the viewpoint 1 and at a distance p from the center position of the lens 2 and perpendicular to the optical axis. Then, a hologram is formed on the spatial light modulation element 3 and irradiated with coherent parallel light from the left side of the spatial light modulation element 3 to reproduce a real image of the object on the right side of the spatial light modulation element 3. Assume that a virtual image is viewed from the viewpoint 1 through the lens 2.
[0030]
At this time, if each xo, yo, zo coordinate value of each point of the virtual image of the object is expressed in the viewpoint coordinate system (xe, ye, ze), each x, y, z coordinate value of the corresponding point of the real image of the object is ,
[Equation 3]
Figure 0003798511
Is obtained by the following conversion formula. In the paraxial region, from Gaussian imaging formula,
[Expression 4]
Figure 0003798511
You may approximate and convert by the conversion formula.
[0031]
When this equation (3) (or (4)) is compared with the above equation (1), the x and y coordinate values obtained by equation (3) (or (4)) can be obtained by equation (1). There is only a difference obtained by multiplying the obtained x and y coordinate values by the focal length f of the lens 2. That is, when only the x and y coordinate components are viewed, the screen coordinate system and the hologram coordinate system substantially coincide with each other. Therefore, xh, yh when the x, y coordinate values obtained in (3) (or (4)) are expressed in the hologram coordinate system (xh, yh, zh) for each point of the real image of this object. Use coordinate values. Here, the hologram coordinate system (xh, yh, zh) has an origin at the intersection of the spatial light modulator 3 and the optical axis of the lens 2, and zh is a direction parallel to the optical axis of the lens 2 and toward the lens 2. The axis.
[0032]
As for the x and y coordinate values, the space in the screen coordinate system obtained by the conversion according to equation (1) is virtual, so the wavefront propagation cannot be calculated directly. On the other hand, since the hologram coordinate system obtained by the conversion according to the equation (3) is in real space, the hologram surface (the spatial light modulation element 3 is disposed without returning to the viewpoint coordinate system after the conversion). The wavefront on the surface can be directly calculated by the Fresnel transform method using FFT or the spherical wave method.
[0033]
Therefore, to convert the coordinate value representing each point of the real image of the object in the viewpoint coordinate system (xe, ye, ze) to the coordinate value represented in the hologram coordinate system (xh, yh, zh), xh, yh The coordinate value is immediately obtained from the x and y coordinate values obtained by the above equation (3), while the zh coordinate value is
[Equation 5]
Figure 0003798511
It is calculated by the following conversion formula. Then, a hologram can be created by calculating the wavefront propagating from each point of the real image of the object represented by the hologram coordinate system (xh, yh, zh) to the spatial light modulator 3.
[0034]
(First embodiment)
Next, a first embodiment will be described. FIG. 2 is a configuration diagram of the computer generated hologram display device according to the first embodiment. In this embodiment, a z-buffer method is employed, and the above-described perspective transformation and reverse perspective transformation are performed to calculate and display a hologram.
[0035]
First, the configuration of the display unit 10 and each coordinate system in the computer generated hologram display device will be described. The display unit 10 receives a light source 11 that outputs laser light that is coherent light, a collimator 12 that expands the light beam diameter of the laser light to make a parallel light beam, and the laser light that has been made the parallel light beam as a reference wave. And a spatial light modulator 13 that reproduces a real image or a virtual image of the object. These are fixed integrally with each other, and the direction of the optical axis is controlled by the control unit 14.
[0036]
The viewpoint 1 is on the opposite side of the light source 11 and the collimator 12 with respect to the spatial light modulator 13 and at a position of a distance p. The viewpoint position detector 15 detects the position of the viewpoint 1 and gives the information to the control unit 14. The control unit 14 controls the optical axis direction of the display unit 10 based on the position information of the viewpoint 1 detected by the viewpoint position detector 15 so that the viewpoint 1 exists on the optical axis of the display unit 10. This enlarges the viewing zone. In this figure, the control unit 14 shows a case where the display unit 10 is rotated around the position where the virtual image is reproduced (the origin of the object coordinate system).
[0037]
In the viewpoint coordinate system (xe, ye, ze), the viewpoint 1 is the origin, and the direction toward the spatial light modulator 13 is the ze axis. Similarly, in the screen coordinate system (x, y, z), the viewpoint 1 is the origin, and the direction toward the spatial light modulator 13 is the z axis. The object coordinate system (xo, yo, zo) is a coordinate system set to an image (either a real image or a virtual image) of an object to be reproduced. The hologram coordinate system (xh, yh, zh) is coordinates set in the spatial light modulation element 13 on which the hologram is formed. In this embodiment, the world coordinate system and the viewpoint coordinate system are the same. Of these coordinate systems, the screen coordinate system is in the virtual space, and the other coordinate systems are in the real space.
[0038]
Since the control unit 14 and the viewpoint position detector 15 control the viewpoint 1 so that the viewpoint 1 always exists on the optical axis of the display unit 10, the xe, ye, and ze axes of the viewpoint coordinate system (xe, ye, ze) respectively. , X, y, z axes of screen coordinate system (x, y, z), xo, yo, zo axes of object coordinate system (xo, yo, zo), and hologram coordinate system (xh, yh, zh) ) Xh, yh, and zh axes are always parallel to each other.
[0039]
In the case of reproducing a real image, the origin of the object coordinate system (xo, yo, zo) is a position at a distance l from the origin of the hologram coordinate system (xh, yh, zh) to the viewpoint 1 (from the viewpoint 1). When the virtual image is reproduced, the origin of the object coordinate system (xo, yo, zo) is in the direction of the light source 11 from the origin of the hologram coordinate system (xh, yh, zh). It is assumed that it is at a position of distance l (position of distance m + 2l from viewpoint 1).
[0040]
The instruction unit 16 instructs parallel movement, rotation, or enlargement / reduction of a real image or a virtual image of an object to be reproduced. For example, a keyboard, a mouse, a joystick, or the like is preferably used. In addition, the data storage unit 21 includes coordinate values and luminance values (including color information, which are expressed in the object coordinate system (xo, yo, zo) for each vertex of the polygonal plane representing the object to be reproduced. .) Is remembered.
[0041]
The affine transformation unit 22 is instructed via the coordinate unit and the luminance value representing each vertex of the polygonal plane stored in the data storage unit 21 in the object coordinate system (xo, yo, zo), and the instruction unit 16. Information about the parallel movement, rotation or enlargement / reduction of the reproduced image, and the displacement amount of the viewpoint 1 detected by the viewpoint position detector 15,
[Formula 6]
Figure 0003798511
And a coordinate value representing each vertex of the polygonal planar body in the viewpoint coordinate system (xe, ye, ze) is output.
[0042]
Here, the matrix Td is for translating the reproduced image, the matrix Trx is for rotating the reproduced image about the xo axis, and the matrix Try is for rotating the reproduced image about the yo axis. The matrix Trz is for rotating the reproduced image around the zo axis, and the matrix Ts is for enlarging / reducing the reproduced image.
[0043]
The parallel movement amounts in the xo, yo, and zo axis directions of the reproduced image input from the instruction unit 16 are tx, ty, and tz, respectively, and the rotation amounts around the xo, yo, and zo axes are rx, ry, and rz, respectively. And sx, sy, and sz are the enlargement / reduction ratios in the xo, yo, and zo axis directions, respectively. In addition, the displacement amounts of the viewpoint 1 detected by the viewpoint position detector 15 in the xe, ye, and ze axis directions are Δex, Δey, and Δez, respectively. At this time, each of the matrices Td, Trx, Try, Trz, and Ts is expressed as follows.
[0044]
That is, the matrix Td is
[Expression 7]
Figure 0003798511
It is represented by
[0045]
The matrix Trx is
[Equation 8]
Figure 0003798511
It is represented by
[0046]
The matrix Try is
[Equation 9]
Figure 0003798511
It is represented by
[0047]
The matrix Trz is
[Expression 10]
Figure 0003798511
It is represented by
[0048]
The matrix Ts is
[Expression 11]
Figure 0003798511
It is represented by
[0049]
The perspective transformation unit 23 inputs a coordinate value and a luminance value representing each vertex of the polygonal plane output from the affine transformation unit 22 in the viewpoint coordinate system (xe, ye, ze),
[Expression 12]
Figure 0003798511
A perspective transformation expressed by the following transformation formula is performed, and a coordinate value and a luminance value representing each vertex of the polygonal plane in the screen coordinate system (x, y, z) are output.
[0050]
The internal coordinate value generation unit 24 inputs coordinate values and luminance values representing the vertices of the polygonal plane output from the perspective transformation unit 23 in the screen coordinate system (x, y, z), and the polygon plane The x, y, and z coordinate values of all points inside the body are generated and output sequentially, and the luminance value is output after shading or bitmap processing. When generating the coordinate values of all the points inside this polygonal plane, each of the plurality of polygonal planes constituting the polygonal plane is appropriately divided into two, and the two points at each end are sequentially updated. The difference between two coordinate values (Δx, Δy, Δz) divided by the hologram pitch on the screen coordinate system is added sequentially as a constant to obtain the x, y, z coordinate values of all internal pixels. .
[0051]
In the present embodiment, the internal coordinate value generation unit 24 is provided after the perspective conversion unit 23 to perform perspective conversion only for each vertex of the polygonal plane, but the straight line in the viewpoint coordinate system is perspective conversion. Since it becomes a straight line in the screen coordinate system later, the perspective conversion unit 23 may be provided in the subsequent stage of the internal coordinate value generation unit 24.
[0052]
The screen coordinate value generation unit 25 sequentially generates and outputs x, y coordinate values of all points on the x, y plane in the screen coordinate system.
[0053]
The address selection unit 26 inputs the x and y coordinate values output from the internal coordinate value generation unit 24 and the x and y coordinate values output from the screen coordinate value generation unit 25 and selects one of them. And output. The x and y coordinate values output from the address selection unit 26 are input to the luminance value memory 27 and the distance memory 28 as addresses.
[0054]
The luminance value memory 27 stores the luminance value output from the internal coordinate value generation unit 24 at the address indicated by the x, y coordinate values output from the address selection unit 26. The distance memory 28 stores the z coordinate value output from the internal coordinate value generation unit 24 at the address indicated by the x, y coordinate values output from the address selection unit 26. Each of the luminance value memory 27 and the distance memory 28 has a double bank structure, and the stored contents can be updated in one bank and the stored contents can be read out in the other bank at the same time.
[0055]
That is, the address selection unit 26 uses the x, y coordinate values output from the internal coordinate value generation unit 24 as addresses at the time of update storage of one bank of the luminance value memory 27 and the distance memory 28, and generates screen coordinate values. The x and y coordinate values output from the unit 25 are used as addresses for reading from the other bank.
[0056]
The distance comparison unit 29 is newly output from the z coordinate value already stored in the distance memory 28 at the address indicated by the x and y coordinate values output from the address selection unit 26 and the internal coordinate value generation unit 24. Compare the z coordinate value with the size. When the distance comparison unit 29 determines that the latter value is large (that is, close to viewpoint 1), it outputs a write permission signal to each of the luminance value memory 27 and the distance memory 28, and the internal coordinates An instruction is given to update and store each of the luminance value and z coordinate value newly output from the value generating unit 24. The distance comparison unit 29 performs this operation for all points inside the polygonal plane. In the initial state, the distance memory 28 stores the contents that the distance comparison unit 29 can always output the write permission signal at all addresses.
[0057]
In this way, the luminance value memory 27 and the distance memory 28 whose contents are updated and stored by the distance comparison unit 29 for all the points inside the polygonal planar body are respectively luminances that have been subjected to hidden surface removal processing based on the z-buffer method. Holds each value and z coordinate value expressed in the screen coordinate system. Therefore, each of the luminance value memory 27 and the distance memory 28 sequentially inputs the x and y coordinate values output from the screen coordinate value generation unit 25 and reached through the address selection unit 26 as addresses, and the luminances stored at the addresses. The value and z coordinate value are output sequentially.
[0058]
The reverse perspective conversion unit 30 outputs the x and y coordinate values output from the screen coordinate value generation unit 25, and the luminance values and z coordinates output from the luminance value memory 27 and the distance memory 28 according to the xy coordinate values, respectively. Enter each value,
[Formula 13]
Figure 0003798511
Is converted to the reverse perspective to the coordinate value represented by the viewpoint coordinate system (xe, ye, ze).
[0059]
Further, the hologram coordinate conversion unit 31 inputs the coordinate value and the luminance value expressed in the viewpoint coordinate system (xe, ye, ze) output from the inverse perspective conversion unit 30;
[Expression 14]
Figure 0003798511
Is converted into a coordinate value represented by a hologram coordinate system (xh, yh, zh).
[0060]
Then, the hologram calculation unit 32 inputs coordinate values and luminance values expressed by the hologram coordinate system (xh, yh, zh) output from the hologram coordinate conversion unit 31, and calculates wavefront propagation based on these data. The wavefront at the position of the spatial light modulator 13, that is, hologram data is calculated. In this wavefront calculation, when reproducing a virtual image, the wavefront on the spatial light modulator 13 is obtained using the Fresnel transformation method or the spherical wave method, and when reproducing the real image, the Fresnel inverse transformation method or the spherical wave method is used. After the calculation according to the above, a complex conjugate is taken to obtain the wavefront on the spatial light modulator 13, which is used as hologram data. Further, the hologram calculation unit 32 displays this hologram data on the spatial light modulation element 13 capable of modulating both amplitude and / or phase. The spatial light modulator 13 reproduces a real image or a virtual image of the object when the laser light output from the light source 11 is irradiated through the collimator 12.
[0061]
As described above, in the computer generated hologram display device according to the present embodiment, the coordinate value and the luminance value of each vertex of the polygonal planar body are expressed by the data storage unit 21 in the object coordinate system (xo, yo, zo). The affine transformation unit 22 performs parallel movement, rotation, enlargement / reduction, and viewpoint tracking, and is represented in the viewpoint coordinate system (xe, ye, ze). The perspective transformation unit 23 performs perspective transformation. Expressed in the screen coordinate system (x, y, z). Further, the coordinates after the hidden surface removal processing based on the z buffer method is performed by the internal coordinate value generation unit 24, the selection unit 26, the luminance value memory 27, the distance memory 28, and the distance comparison unit 29, and the hidden surface removal processing is performed. The value and the luminance value are held as the address (x, y coordinate value) and the stored content (z coordinate value) of the distance memory 28 and the stored content of the luminance value memory 27. The coordinate value and the luminance value after the hidden surface erasure processing are read from the distance memory 28 and the luminance value memory 27 by the screen coordinate value generation unit 25, and reversed to the viewpoint coordinate system (xe, ye, ze) by the reverse perspective conversion unit 30. The perspective transformation is performed, the hologram coordinate conversion unit 31 converts it into a hologram coordinate system (xh, yh, zh), and the hologram calculation unit 32 performs wavefront calculation to calculate hologram data. Then, a hologram is formed on the spatial light modulation element 13 based on the hologram data, and when the coherent light emitted from the light source 11 is irradiated onto the spatial light modulation element 13, an object image (either a real image or a virtual image) is formed. Played.
[0062]
As described above, by employing the z buffer method, the amount of calculation is less than that of the prior art, so that the hologram can be calculated in a short time. Therefore, it is possible to realize a computer generated hologram display apparatus that can smoothly perform parallel movement, rotation, or enlargement / reduction of a reproduced image and that can follow the viewpoint at high speed.
[0063]
(Second Embodiment)
Next, a second embodiment will be described. FIG. 3 is a configuration diagram of a computer generated hologram display device according to the second embodiment. This embodiment employs the z-buffer method and performs the above-described perspective transformation, but calculates and displays a hologram without devising the optical system and performing the reverse perspective transformation.
[0064]
First, the configuration of the display unit and each coordinate system in this computer generated hologram display device will be described. This display unit is provided corresponding to each of the right viewpoint 1R and the left viewpoint 1L. Of the display unit, the portion corresponding to the right viewpoint 1R is a light source 11R that outputs laser light that is coherent light, a collimator 12R that expands the light beam diameter of the laser light to form a parallel light beam, and the parallel light beam. A mirror 41R that reflects laser light, a polarizing plate 42R that linearly polarizes the laser light reflected by the mirror 41R, and spatial light modulation that reproduces a real image of an object by inputting the laser light that has been linearly polarized as a reference wave The element 13R, a polarizing plate 43R that transmits a linearly polarized light component in a predetermined direction out of the light output from the spatial light modulator 13R, and a lens that inputs the light output from the polarizing plate 43R and forms a virtual image of the object 44R, and mirrors 45R and 46R that sequentially reflect the light to reach the viewpoint 1R.
[0065]
Among these, the light source 11R, the collimator 12R, the mirror 41R, the polarizing plate 42R, the spatial light modulation element 13R, the polarizing plate 43R, and the lens 44R are integrated with each other and their positions are fixed. On the other hand, the mirrors 45R and 46R are controlled by the control unit 14R so that the viewpoint 1R exists at the focal position of the lens 44R based on the position information of the viewpoint 1R detected by the viewpoint position detector 15R.
[0066]
Similarly, the portion of the display unit corresponding to the left viewpoint 1L includes the light source 11L, the collimator 12L, the mirror 41L, the polarizing plate 42L, the spatial light modulator 13L, the polarizing plate 43L, and the lens 44L. Mirrors 45L and 46L are provided. Similarly, among these, the light source 11L, the collimator 12L, the mirror 41L, the polarizing plate 42L, the spatial light modulation element 13L, the polarizing plate 43L, and the lens 44L are integrated with each other and their positions are fixed. On the other hand, the mirrors 45L and 46L are controlled by the control unit 14L so that the viewpoint 1L exists at the focal position of the lens 44L based on the position information of the viewpoint 1L detected by the viewpoint position detector 15L. This enlarges the viewing zone.
[0067]
In the viewpoint coordinate system (xer, yer, zer) for the right viewpoint 1R, the right viewpoint 1R is the origin, the direction parallel to the optical axis of the lens 44R and toward the lens 44R is the zer axis. Similarly, in the viewpoint coordinate system (xel, yel, zel) for the left viewpoint 1L, the left viewpoint 1L is the origin, the direction parallel to the optical axis of the lens 44L and toward the lens 44L is the zel axis. The object coordinate system (xo, yo, zo) is a coordinate system set to a virtual image of the object to be reproduced, and the zer axis direction of the viewpoint coordinate system for the right viewpoint 1R and the viewpoint coordinate system for the left viewpoint 1L. The intersection point with the zel axis direction is the origin, and the direction toward the midpoint between the right viewpoint 1R and the left viewpoint 1L is the zo axis. Each of the hologram coordinate systems (xhr, yhr, zhr) and (xhl, yhl, zhl) is a coordinate set for each of the spatial light modulation elements 13R and 13L on which the hologram is formed. In the present embodiment, the world coordinate system and the object coordinate system are the same. These coordinate systems are all in real space.
[0068]
The distance between the right viewpoint 1R and the left viewpoint 1L is assumed to be the distance W in the initial state. The distance between the spatial light modulator 13R and the lens 44R is p, and the distance between the spatial light modulator 13L and the lens 44L is also p. Let m be the distance from the origin of the object coordinate system (xo, yo, zo) to the midpoint between the right viewpoint 1R and the left viewpoint 1L.
[0069]
The instruction unit 16 instructs parallel movement, rotation, or enlargement / reduction of the virtual image of the object to be reproduced. For example, a keyboard, a mouse, a joystick, or the like is preferably used. In addition, the data storage unit 21 includes coordinate values and luminance values (including color information, which are expressed in the object coordinate system (xo, yo, zo) for each vertex of the polygonal plane representing the object to be reproduced. .) Is remembered.
[0070]
The coordinate values and luminance values stored in the data storage unit 21 are input to the affine transformation units 22R and 22L, and thereafter, the holograms are calculated corresponding to the right viewpoint 1R and the left viewpoint 1L, respectively. Processing is performed by a configuration independent from each other. Below, the structure which calculates the hologram corresponding to the right viewpoint 1R first is demonstrated.
[0071]
The affine transformation unit 22 </ b> R is instructed via the coordinate value and the luminance value representing each vertex of the polygonal planar body stored in the data storage unit 21 in the object coordinate system (xo, yo, zo), and the instruction unit 16. Information about the parallel movement, rotation or enlargement / reduction of the reproduced virtual image, and the displacement amount of the right viewpoint 1R detected by the viewpoint position detector 15R,
[Expression 15]
Figure 0003798511
The coordinate value which represents each vertex of the polygonal plane by the viewpoint coordinate system (xer, yer, zer) is output.
[0072]
Here, the matrix Trd is for translating the reproduction virtual image, the matrix Trrx is for rotating the reproduction virtual image around the xo axis, and the matrix Try is a rotation of the reproduction virtual image around the yo axis. The matrix Trrz is for rotating the reproduced virtual image around the zo axis, and the matrix Trs is for enlarging / reducing the reproduced virtual image.
[0073]
The parallel movement amounts of the reproduced virtual image input from the instruction unit 16 in the xo, yo, and zo axis directions are tx, ty, and tz, respectively, and the rotation amounts around the xo, yo, and zo axes are rx, ry, and rz, respectively. And sx, sy, and sz are the enlargement / reduction ratios in the xo, yo, and zo axis directions, respectively. Further, the displacements in the xer, yer, and zer axial directions of the right viewpoint 1R detected by the viewpoint position detector 15R are assumed to be Δerx, Δery, and Δerz, respectively. At this time, each of the matrices Trd, Trrx, Try, Trrz, and Trs is expressed as follows.
[0074]
That is, the matrix Trd is
[Expression 16]
Figure 0003798511
It is represented by
[0075]
The matrix Trrx is
[Expression 17]
Figure 0003798511
It is represented by
[0076]
The matrix Try is
[Formula 18]
Figure 0003798511
It is represented by
[0077]
The matrix Trrz is
[Equation 19]
Figure 0003798511
It is represented by
[0078]
The matrix Trs is
[Expression 20]
Figure 0003798511
It is represented by
[0079]
The internal coordinate value generation unit 24R inputs coordinate values and luminance values representing each vertex of the polygonal plane output from the affine transformation unit 22R in the viewpoint coordinate system (xer, yer, zer), and the polygon plane The xer, yer, and zer coordinate values of all points inside the body are generated and output sequentially, and the luminance value is output after shading or bitmap processing. When generating the coordinate values of all the points inside this polygonal plane, each of the plurality of polygonal planes constituting the polygonal plane is appropriately divided into two, and the two points at each end are sequentially updated. Real image conversion is performed by converting the coordinates of the two points into a real image, and calculating the number of samples by dividing the difference between the two points on the hologram coordinate system by the pitch of the hologram (Δxhr, Δyhr, Δzhr). Divide the difference (Δxer, Δyer, Δzer) in the previous viewpoint coordinate system (xer, yer, zer) by the division constant, add this as a constant, and add xer, yer, zer coordinates of all the internal pixels Find the value.
[0080]
The real image conversion unit 51R inputs coordinate values and luminance values representing all points inside the polygonal plane output from the internal coordinate value generation unit 24R in the viewpoint coordinate system (xer, yer, zer),
[Expression 21]
Figure 0003798511
Perform the conversion. Here, f is the focal length of the lens 44R. The x, y coordinate values obtained by this real image conversion are the same as the xhr, yhr coordinate values in the hologram coordinate system (xhr, yhr, zhr), respectively. In the paraxial region, from Gaussian imaging formula,
[Expression 22]
Figure 0003798511
You may approximate and convert by the conversion formula.
[0081]
The hologram coordinate value generation unit 52R sequentially generates and outputs xhr, yhr coordinate values of all points on the xhr, yhr plane in the hologram coordinate system (xhr, yhr, zhr). Each of the luminance value memory 27R and the distance memory 28R has a double bank structure, and the stored contents can be updated in one bank and the stored contents can be read out in the other bank at the same time. Each of the luminance value memory 27R and the distance memory 28R receives the xhr, yhr coordinate value output from the real image conversion unit 51R as an address at the time of update storage, and the xhr, yhr coordinate value output from the hologram coordinate value generation unit 52R. Input as an address for reading. The luminance value memory 27R updates and stores the luminance value output from the real image conversion unit 51R, and the distance memory 28R updates and stores or reads the z coordinate value output from the real image conversion unit 51R.
[0082]
The distance comparison unit 29R includes the z coordinate value already stored in the distance memory 28R at the address indicated by the xhr and yhr coordinate values output from the real image conversion unit 51R, and the z coordinate newly output from the real image conversion unit 51R. Compare the value with the size. When the distance comparison unit 29R determines that the latter value is large (that is, close to the right viewpoint 1R), the distance comparison unit 29R outputs a write permission signal to each of the luminance value memory 27R and the distance memory 28R to obtain a real image. An instruction is given to update and store each of the luminance value and the z coordinate value newly output from the conversion unit 51R. The distance comparison unit 29R performs this operation on all the points inside the polygonal plane. In the initial state, the distance memory 28R stores the contents that the distance comparison unit 29R can always output the write permission signal at all addresses.
[0083]
In this way, the luminance value memory 27R and the distance memory 28R whose contents are updated and stored by the distance comparison unit 29R for all the points inside the polygonal planar body are respectively subjected to the hidden surface erasure processing based on the z buffer method. Holds each value and z-coordinate value. Therefore, each of the luminance value memory 27R and the distance memory 28R sequentially inputs the xhr and yhr coordinate values output from the hologram coordinate value generation unit 52R as addresses, and each of the luminance values and z coordinate values stored at the addresses is input. Output sequentially.
[0084]
Then, the hologram calculation unit 32R reads out the xhr, yhr coordinate values output from the hologram coordinate value generation unit 52R, and the z values read from the distance memory 28R and the luminance value memory 27R using the xhr, yhr coordinate values as addresses. Enter each coordinate value and brightness value,
[Expression 23]
Figure 0003798511
The input z coordinate value is converted into a zhr coordinate value on the hologram coordinate system (xhr, yhr, zhr). Further, the hologram calculation unit 32R calculates wavefront propagation based on these data, and calculates the wavefront at the position of the spatial light modulator 13R, that is, hologram data. In this wavefront calculation, the wavefront on the spatial light modulator 13R is obtained by using the Fresnel transformation method or the spherical wave method, and this is used as hologram data. In addition, the hologram calculation unit 32R displays this hologram data on the spatial light modulation element 13R that can modulate both amplitude and / or phase. The spatial light modulator 13R reproduces a real image of the object between the spatial light modulator 13R and the lens 44R when the laser beam output from the light source 11R is irradiated through the collimator 12R and the like, and The lens 44R forms a virtual image of the object at the intersection of the right viewpoint 1R and the left viewpoint 1L.
[0085]
Next, a configuration for calculating a hologram corresponding to the left viewpoint 1L will be described. The affine transformation unit 22 </ b> L is instructed via the coordinate value and luminance value representing each vertex of the polygonal plane body stored in the data storage unit 21 in the object coordinate system (xo, yo, zo), and the instruction unit 16. Information about the parallel movement, rotation or enlargement / reduction of the reproduced virtual image, and the displacement of the left viewpoint 1L detected by the viewpoint position detector 15L,
[Expression 24]
Figure 0003798511
To output a coordinate value representing each vertex of the polygonal plane in the viewpoint coordinate system (xel, yel, zel).
[0086]
Here, the matrix Tld is for translating the reproduced virtual image, the matrix Tlrx is for rotating the reproduced virtual image about the xo axis, and the matrix Tlry is the reproduced virtual image about the yo axis. The matrix Tlrz is for rotating the reproduced virtual image around the zo axis, and the matrix Tls is for enlarging / reducing the reproduced virtual image.
[0087]
The parallel movement amounts of the reproduced virtual image input from the instruction unit 16 in the xo, yo, and zo axis directions are tx, ty, and tz, respectively, and the rotation amounts around the xo, yo, and zo axes are rx, ry, and rz, respectively. And sx, sy, and sz are the enlargement / reduction ratios in the xo, yo, and zo axis directions, respectively. Further, the displacements in the xel, yel, and zel axial directions of the left viewpoint 1L detected by the viewpoint position detector 15L are respectively Δelx, Δely, and Δelz. At this time, each of the matrices Tld, Tlrx, Tlry, Tlrz, and Tls is expressed as follows.
[0088]
That is, the matrix Tld is
[Expression 25]
Figure 0003798511
It is represented by
[0089]
The matrix Tlrx is
[Equation 26]
Figure 0003798511
It is represented by
[0090]
The matrix Tlry is
[Expression 27]
Figure 0003798511
It is represented by
[0091]
The matrix Tlrz is
[Expression 28]
Figure 0003798511
It is represented by
[0092]
The matrix Tls is
[Expression 29]
Figure 0003798511
It is represented by
[0093]
The internal coordinate value generation unit 24L inputs coordinate values and luminance values representing the vertices of the polygonal plane output from the affine transformation unit 22L in the viewpoint coordinate system (xel, yel, zel), and the polygon plane The xel, yel, and zel coordinate values of all points inside the body are generated and output sequentially, and the luminance value is output after shading or bitmap processing. Generation of the coordinate values of all points inside the polygonal plane is performed in the same manner as in the internal coordinate value generation unit 24R.
[0094]
The real image conversion unit 51L inputs coordinate values and luminance values representing all points inside the polygonal plane body output from the internal coordinate value generation unit 24L in the viewpoint coordinate system (xel, yel, zel),
[30]
Figure 0003798511
Perform the conversion. Here, f is the focal length of the lens 44L. The x and y coordinate values obtained by this real image conversion are the same as the xhl and yhl coordinate values in the hologram coordinate system (xhl, yhl, zhl), respectively. In the paraxial region, from Gaussian imaging formula,
[31]
Figure 0003798511
You may approximate and convert by the conversion formula.
[0095]
The hologram coordinate value generator 52L sequentially generates and outputs xhl, yhl coordinate values of all points on the xhl, yhl plane in the hologram coordinate system (xhl, yhl, zhl). Each of the luminance value memory 27L and the distance memory 28L has a double bank structure, and the stored contents can be updated in one bank and the stored contents can be read out in the other bank at the same time. Each of the luminance value memory 27L and the distance memory 28L inputs the xhl, yhl coordinate value output from the real image conversion unit 51L as an address at the time of update storage, and the xhl, yhl coordinate value output from the hologram coordinate value generation unit 52L. Input as an address for reading. The luminance value memory 27L updates and stores the luminance value output from the real image conversion unit 51L, and the distance memory 28L updates and stores or reads the z coordinate value output from the real image conversion unit 51L.
[0096]
The distance comparison unit 29L includes the z coordinate value already stored in the distance memory 28L at the address indicated by the xhl and yhl coordinate values output from the real image conversion unit 51L, and the z coordinate newly output from the real image conversion unit 51L. Compare the value with the size. When the distance comparison unit 29L determines that the latter value is large (that is, close to the left viewpoint 1L), it outputs a write permission signal to each of the luminance value memory 27L and the distance memory 28L, and the real image It instructs to update and store each of the luminance value and z coordinate value newly output from the conversion unit 51L. The distance comparison unit 29L performs this operation for all the points inside the polygonal plane. In the initial state, the distance memory 28L stores the contents that the distance comparison unit 29L can always output the write permission signal at all addresses.
[0097]
In this way, the luminance value memory 27L and the distance memory 28L, whose contents are updated and stored by the distance comparison unit 29L for all the points inside the polygonal plane, are each subjected to the hidden surface erasure processing based on the z buffer method. Holds each value and z-coordinate value. Therefore, each of the luminance value memory 27L and the distance memory 28L sequentially inputs the xhl and yhl coordinate values output from the hologram coordinate value generation unit 52L as addresses, and the luminance value and z coordinate value stored at the addresses are respectively input. Output sequentially.
[0098]
Then, the hologram calculation unit 32L reads the xhl, yhl coordinate values output from the hologram coordinate value generation unit 52L, and z read from the distance memory 28L and the luminance value memory 27L using the xhl, yhl coordinate values as addresses. Enter each coordinate value and brightness value,
[Expression 32]
Figure 0003798511
The input z coordinate value is converted into a zhl coordinate value on the hologram coordinate system (xhl, yhl, zhl). Further, the hologram calculation unit 32L calculates wavefront propagation based on these data, and calculates the wavefront at the position of the spatial light modulator 13L, that is, hologram data. In this wavefront calculation, the wavefront on the spatial light modulator 13L is obtained using the Fresnel transform method or the spherical wave method, and this is used as hologram data. Further, the hologram calculation unit 32L displays this hologram data on the spatial light modulation element 13L that can modulate both or one of the amplitude and the phase. The spatial light modulator 13L reproduces a real image of the object between the spatial light modulator 13L and the lens 44L when the laser light output from the light source 11L is irradiated through the collimator 12L and the like, The lens 44L forms a virtual image of the object at the intersection of the right viewpoint 1R and the left viewpoint 1L.
[0099]
As a specific example of the computer generated hologram display device according to the present embodiment, the light sources 11R and 11L are He-Ne laser light sources, the lenses 44R and 44L are those having a focal length of 30 cm, and spatial light. The modulation elements 13R and 13L are TN type liquid crystal display elements (LCX012AL manufactured by Sony Corporation, the number of pixels is 640 × 480 pixels, the pitch is 41.4 μm), placed on the front focal plane of the lenses 44R and 44L, and polarizing plates on both sides Is placed. In this case, since each of the spatial light modulation elements 13R and 13L does not modulate both the amplitude and phase of the incident laser light (reference wave), the reproduced virtual image of the object also includes a conjugate image.
[0100]
This unnecessary conjugate image is removed as follows. FIG. 4 is an explanatory diagram of a conjugate image removal method. In this figure, the optical system from the spatial light modulation element 13R to the right viewpoint 1R is simplified. Now, it is assumed that a semicircular cosine wave zone plate 60R is written in the spatial light modulator 13R, and laser light (reference wave) that is coherent light is input from the left side, Modulate any of the phases. A virtual image 71 and a real image 72 are obtained as reproduced images by the cosine wave zone plate 60R. The virtual image 71 is on one half plane on the rear focal plane of the lens 44R, and the real image 72 is on the other half plane. Therefore, a 0th-order light shielding mask 61R that shields the 0th-order light and a conjugate image shielding mask 62R that shields one half plane are provided on the rear focal plane of the lens 44R, and the right viewpoint 1R is behind them. Put. By doing so, one of the real image and the virtual image can be selected, and the reproduction image can be prevented from being deteriorated due to the conjugate image peculiar to the in-line type. In this figure, a conjugate image light shielding mask 62R is disposed so as to remove the virtual image 71, and only the virtual image 73 by the lens 44R of the real image 72 can be observed from the viewpoint 1R.
[0101]
In order to apply this method to the configuration shown in FIG. 3, a semicircular cosine wave zone plate is accumulated corresponding to each luminescent spot on the surface of the object to be reproduced and added to each of the spatial light modulators 13R and 13L. Hologram data to be displayed is created, the 0th-order light shielding mask 61R and the conjugate image shielding mask 62R are placed immediately before the right viewpoint 1R, and the 0th-order light shielding mask 61L and the conjugate image shielding mask 62L are placed just before the left viewpoint 1L. Just place it.
[0102]
As described above, in the computer generated hologram display device according to the present embodiment, the coordinate value and the luminance value of each vertex of the polygonal planar body are expressed in the object coordinate system and stored in advance by the data storage unit 21. The affine transformation units 22R and 22L perform parallel movement, rotation, enlargement / reduction, and viewpoint tracking, and are expressed in the viewpoint coordinate system. Further, a real image capable of forming a virtual image of the object to be reproduced is obtained in the coordinate system in the real space by the internal coordinate value generating units 24R and 24L and the real image converting units 51R and 51L, and the luminance value memories 27R and 27L, the distance The memory 28R, 28L and the distance comparison units 29R, 29L perform hidden surface erasure processing based on the z buffer method, and the coordinate value and the luminance value after the hidden surface erasure processing are performed are the addresses of the distance memories 28R, 28L and their The stored contents and the stored contents of the luminance value memories 27R and 27L are retained. The coordinate value and the luminance value after the hidden surface erasure processing are read from the distance memories 28R and 28L and the luminance value memories 27R and 27L by the hologram coordinate value generation units 52R and 52L, and the wavefront calculation is performed by the hologram calculation units 32R and 32L. Hologram data is calculated. A hologram is formed on the spatial light modulation elements 13R and 13L based on the hologram data, and a real image is reproduced when the coherent light emitted from the light sources 11R and 11L is irradiated onto the spatial light modulation elements 13R and 13L. Based on the real image, a virtual image is formed by the lenses 44R and 44L.
[0103]
As described above, by employing the z buffer method, the amount of calculation is less than that of the prior art, so that the hologram can be calculated in a short time. Therefore, it is possible to realize a computer generated hologram display apparatus that can smoothly perform parallel movement, rotation, or enlargement / reduction of the reproduced virtual image and that can follow the viewpoint at high speed. Further, in the present embodiment, since the real image reproduced by the spatial light modulators 13R and 13L is converted into a virtual image by the lenses 44R and 44L, the reverse perspective conversion is not required, and therefore, compared to the first embodiment, Furthermore, the amount of calculation is small.
[0104]
【The invention's effect】
As described above in detail, according to the first computer generated hologram display device according to the present invention, the object image to be reproduced is perspective-transformed by the perspective transformation means and expressed in the screen coordinate system, and is hidden by the hidden surface elimination means. The hidden surface is erased based on the distance between each point on the object image represented by the screen coordinate system and the viewpoint. This hidden surface-erased object image on the screen coordinate system is inversely perspective transformed by the inverse perspective transformation means and expressed in the real space coordinate system, and is expressed in the real space coordinate system by the hologram calculation means. Hologram data is obtained by wavefront calculation based on the obtained object image. Then, a hologram is formed on the basis of the hologram data by the hologram forming means, and an object image is reproduced by irradiating the coherent light onto the hologram by the reproducing means. By doing in this way, the hologram by which the hidden surface removal process was made can be calculated | required in a short time with a small calculation amount. Therefore, when it is necessary to calculate the hologram at high speed, such as in the case of a viewpoint tracking method that displays an object image corresponding to the displacement of the viewpoint, or when displaying an object image by translation, rotation, or enlargement / reduction. It can be suitably applied to.
[0105]
Further, according to the second computer generated hologram display device of the present invention, the real image which can form the object image to be reproduced when viewed from the viewpoint placed at the focal position of the lens is real space by the real image converting means. It is obtained in the upper coordinate system, and hidden surface removal is performed by the hidden surface removal means based on the distance between each point on the real image and the viewpoint. The hologram calculation means calculates the wavefront based on the hidden surface-erased real image to obtain hologram data, and the hologram forming means forms a hologram based on the hologram data. The reproducing unit irradiates the hologram with coherent light to reproduce a real image, and the imaging optical system forms an object image based on the real image reproduced by the reproducing unit. In this case, since the hologram subjected to the hidden surface erasing process can be obtained in a short time with a smaller amount of calculation compared to the first computer generated hologram display device, the viewpoint follow-up method, parallel movement, rotation or enlargement can be obtained. / It is more suitable for application when displaying in a reduced size.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram of an optical system that does not require reverse perspective transformation.
FIG. 2 is a configuration diagram of a computer generated hologram display device according to the first embodiment.
FIG. 3 is a configuration diagram of a computer generated hologram display device according to a second embodiment.
FIG. 4 is an explanatory diagram of a conjugate image removal method.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1,1R, 1L ... Viewpoint, 2 ... Lens, 3 ... Spatial light modulation element, 4 ... Reproduction | regeneration real image, 5 ... Reproduction virtual image, 10 ... Display part, 11, 11R, 11L ... Light source, 12, 12R, 12L ... Collimator, 13, 13R, 13L ... Spatial light modulators, 14, 14R, 14L ... control unit, 15, 15R, 15L ... viewpoint position detector, 16 ... instruction unit, 21 ... data storage unit, 22, 22R, 22L ... affine transformation 23: Perspective conversion unit, 24 ... Internal coordinate value generation unit, 25 ... Screen coordinate value generation unit, 26 ... Address selection unit, 27, 27R, 27L ... Luminance value memory, 28, 28R, 28L ... Distance memory, 29 29R, 29L ... distance comparison unit, 30 ... reverse perspective conversion unit, 31 ... hologram coordinate conversion unit, 32, 32R, 32L ... hologram calculation unit, 41R, 41L ... mirror, 42R, 42L, 43 , 43L ... polarizing plate, 44R, 44L ... lens, 45R, 45L, 46R, 46L ... mirror, 51R, 51L ... real conversion unit, 52R, 52L ... hologram coordinate value generating portion.

Claims (6)

再生すべき物体像を透視変換してスクリーン座標系で表現する透視変換手段と、
前記スクリーン座標系で表された前記物体像上の各点と視点との間の距離に基づいて陰面消去する陰面消去手段と、
前記陰面消去処理手段により陰面消去された前記スクリーン座標系上の前記物体像を逆透視変換して実空間上の座標系で表現する逆透視変換手段と、
前記逆透視変換手段により実空間上の座標系で表現された前記物体像に基づいて波面計算してホログラムデータを求めるホログラム計算手段と、
前記ホログラムデータに基づいてホログラムを形成するホログラム形成手段と、
前記ホログラムに可干渉光を照射して前記物体像を再生する再生手段と、
を備えることを特徴とする計算機ホログラム表示装置。
Perspective conversion means for perspective-transforming an object image to be reproduced and expressing it in a screen coordinate system;
Hidden surface erasing means for erasing the hidden surface based on the distance between each point on the object image represented in the screen coordinate system and the viewpoint;
Reverse perspective transformation means for inverse perspective transformation of the object image on the screen coordinate system that has been hidden plane erased by the hidden surface elimination processing means, and expressing it in a coordinate system on real space;
Hologram calculation means for obtaining hologram data by wavefront calculation based on the object image expressed in a coordinate system in real space by the inverse perspective transformation means;
Hologram forming means for forming a hologram based on the hologram data;
Reproducing means for reproducing the object image by irradiating the hologram with coherent light,
A computer generated hologram display device.
視点の位置または変位を検出する視点検出手段と、
前記視点検出手段により検出された前記視点の位置または変位に基づいて、再生すべき物体像をアフィン変換するアフィン変換手段と、
前記視点検出手段により検出された前記視点の位置または変位に基づいて、前記再生手段の光軸を制御する制御手段と、
を更に備えることを特徴とする請求項1記載の計算機ホログラム表示装置。
Viewpoint detection means for detecting the position or displacement of the viewpoint;
Affine transformation means for affine transformation of an object image to be reproduced based on the position or displacement of the viewpoint detected by the viewpoint detection means;
Control means for controlling the optical axis of the reproduction means based on the position or displacement of the viewpoint detected by the viewpoint detection means;
The computer generated hologram display device according to claim 1, further comprising:
レンズの焦点位置に置かれた視点から観たときに再生すべき物体像を結像し得る実像を実空間上の座標系で求める実像変換手段と、
前記実像上の各点と視点との間の距離に基づいて陰面消去する陰面消去手段と、
前記陰面消去処理手段により陰面消去された前記実像に基づいて波面計算してホログラムデータを求めるホログラム計算手段と、
前記ホログラムデータに基づいてホログラムを形成するホログラム形成手段と、
前記ホログラムに可干渉光を照射して前記実像を再生する再生手段と、
前記レンズの結像機能と略同等の結像機能を有し、前記再生手段により再生された前記実像に基づいて前記物体像を結像する結像光学系と、
を備えることを特徴とする計算機ホログラム表示装置。
Real image conversion means for obtaining a real image that can form an object image to be reproduced when viewed from the viewpoint placed at the focal point of the lens in a coordinate system in real space;
Hidden surface erasing means for erasing the hidden surface based on the distance between each point on the real image and the viewpoint;
Hologram calculation means for obtaining hologram data by wavefront calculation based on the real image hidden surface hidden by the hidden surface removal processing means;
Hologram forming means for forming a hologram based on the hologram data;
Reproducing means for reproducing the real image by irradiating the hologram with coherent light;
An imaging optical system having an imaging function substantially equivalent to the imaging function of the lens, and imaging the object image based on the real image reproduced by the reproducing means;
A computer generated hologram display device.
視点の位置または変位を検出する視点検出手段と、
前記視点検出手段により検出された前記視点の位置または変位に基づいて、再生すべき物体像をアフィン変換するアフィン変換手段と、
前記視点検出手段により検出された前記視点の位置または変位に基づいて、前記結像光学系の光軸を制御する制御手段と、
を更に備えることを特徴とする請求項3記載の計算機ホログラム表示装置。
Viewpoint detection means for detecting the position or displacement of the viewpoint;
Affine transformation means for affine transformation of an object image to be reproduced based on the position or displacement of the viewpoint detected by the viewpoint detection means;
Control means for controlling the optical axis of the imaging optical system based on the position or displacement of the viewpoint detected by the viewpoint detection means;
The computer generated hologram display device according to claim 3, further comprising:
前記結像光学系は、
前記ホログラムとは反対側の焦点面上に配され、0次光を遮光する0次光遮光手段と、
前記ホログラムとは反対側の焦点面上に配され、前記再生手段により再生された前記実像の共役像の波面を遮光する共役像遮光手段と、
を備えることを特徴とする請求項3記載の計算機ホログラム表示装置。
The imaging optical system is
A zero-order light blocking means disposed on a focal plane opposite to the hologram and blocking zero-order light;
A conjugate image light shielding unit arranged on a focal plane opposite to the hologram and shielding a wavefront of a conjugate image of the real image reproduced by the reproducing unit;
The computer generated hologram display device according to claim 3, further comprising:
再生すべき物体像の平行移動、回転または拡大/縮小を指示する指示手段と、
前記指示手段により指示された平行移動、回転または拡大/縮小に基づいて、再生すべき物体像をアフィン変換するアフィン変換手段と、
を更に備えることを特徴とする請求項1および請求項3の何れか1項に記載の計算機ホログラム表示装置。
Instruction means for instructing parallel movement, rotation or enlargement / reduction of an object image to be reproduced;
Affine transformation means for affine transformation of an object image to be reproduced based on the parallel movement, rotation or enlargement / reduction indicated by the instruction means;
The computer generated hologram display device according to claim 1, further comprising:
JP15395697A 1997-06-11 1997-06-11 Computer generated hologram display Expired - Fee Related JP3798511B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15395697A JP3798511B2 (en) 1997-06-11 1997-06-11 Computer generated hologram display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15395697A JP3798511B2 (en) 1997-06-11 1997-06-11 Computer generated hologram display

Publications (2)

Publication Number Publication Date
JPH113128A JPH113128A (en) 1999-01-06
JP3798511B2 true JP3798511B2 (en) 2006-07-19

Family

ID=15573754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15395697A Expired - Fee Related JP3798511B2 (en) 1997-06-11 1997-06-11 Computer generated hologram display

Country Status (1)

Country Link
JP (1) JP3798511B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1332412A1 (en) * 2000-11-07 2003-08-06 Holographic Imaging LLC Improved method of producing a computer generated hologram
KR100915431B1 (en) * 2002-11-13 2009-09-03 씨리얼 테크놀로지스 게엠베하 Reconstruction device for reconstructing a three-dimensional scene, method of generating a holographic reconstruction, hologram-bearing medium, and computational device
EP1751492A4 (en) * 2004-03-11 2016-07-20 Icos Vision Systems Nv Methods and apparatus for wavefront manipulations and improved 3-d measurements
JP4804877B2 (en) * 2005-10-31 2011-11-02 浜松ホトニクス株式会社 3D image display system and 3D image display method
WO2007071391A2 (en) * 2005-12-22 2007-06-28 Seereal Technologies S.A. Method for the compensation of an inhomogeneous brightness perception in holographically reconstructed scenes
JP2008180758A (en) 2007-01-23 2008-08-07 Seiko Epson Corp Display device
GB0718622D0 (en) * 2007-05-16 2007-11-07 Seereal Technologies Sa Holograms
GB201011829D0 (en) * 2010-07-14 2010-09-01 Two Trees Photonics Ltd Display system
GB2498170B (en) 2011-10-26 2014-01-08 Two Trees Photonics Ltd Frame inheritance
GB2499579B (en) 2012-02-07 2014-11-26 Two Trees Photonics Ltd Lighting device
GB2501112B (en) 2012-04-12 2014-04-16 Two Trees Photonics Ltd Phase retrieval
GB2509180B (en) 2012-12-21 2015-04-08 Two Trees Photonics Ltd Projector
JP6285327B2 (en) * 2014-09-08 2018-02-28 マクセル株式会社 Hologram data generation apparatus, hologram data generation method, and hologram data generation program
JP7227095B2 (en) * 2019-07-09 2023-02-21 Kddi株式会社 Hologram generation device and hologram generation method

Also Published As

Publication number Publication date
JPH113128A (en) 1999-01-06

Similar Documents

Publication Publication Date Title
JP3798511B2 (en) Computer generated hologram display
US5570208A (en) Stereoscopic display method of hologram and its forming method and stereoscopic display apparatus
JP5468537B2 (en) Method for generating video holograms in real time to improve 3D rendering graphics pipeline
JP5557737B2 (en) Method for generating a video hologram for a holographic display device with random addressing
Halle et al. Fast computer graphics rendering for full parallax spatial displays
EP0407497A4 (en) Computer aided holography and holographic computer graphics
WO2005099386A2 (en) Holographic projector
JP5569198B2 (en) Stereoscopic image presentation method and presentation apparatus
JP7227095B2 (en) Hologram generation device and hologram generation method
US10775742B2 (en) Method and apparatus for processing holographic image
US9811052B2 (en) Hologram generation apparatus and method
JP3338479B2 (en) Hologram creation and stereoscopic display method and stereoscopic display device
CN111538223A (en) Holographic projection method based on light beam deflection
JPH09113846A (en) Device and method for displaying stereoscopic image
JP2003501697A (en) Image aberration control based on computer generated hologram
Hilaire et al. Electronic display system for computational holography
CN111830811A (en) High-definition three-dimensional holographic display method based on diffraction field superposition and implementation device thereof
JP4184690B2 (en) Image forming method, image forming program, and image forming apparatus
JPH11155151A (en) Three-dimension image-pickup display system
JP2012008207A (en) Method for calculating computer-synthesized hologram of three-dimensional moving image using lookup table and temporal overlapping of image, and apparatus thereof
JP4028908B2 (en) Hologram creation device, hologram creation method and holographic display device
JP3583634B2 (en) Stereoscopic video display method and apparatus and recording medium recording the control method thereof
Fujimori et al. Wide-viewing-angle holographic 3D display using lens array for point cloud data
JP3324328B2 (en) Holographic three-dimensional hard copy creation method and creation apparatus
CN116819771A (en) Holographic three-dimensional optical display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060420

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090428

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110428

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120428

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130428

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130428

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees