JPH03296176A - High-speed picture generating/displaying method - Google Patents

High-speed picture generating/displaying method

Info

Publication number
JPH03296176A
JPH03296176A JP9894890A JP9894890A JPH03296176A JP H03296176 A JPH03296176 A JP H03296176A JP 9894890 A JP9894890 A JP 9894890A JP 9894890 A JP9894890 A JP 9894890A JP H03296176 A JPH03296176 A JP H03296176A
Authority
JP
Japan
Prior art keywords
coordinate system
display
viewpoint
origin
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9894890A
Other languages
Japanese (ja)
Other versions
JPH0831140B2 (en
Inventor
Akira Tomono
明 伴野
Haruo Takemura
竹村 治雄
Satoshi Ishibashi
聡 石橋
Kenji Akiyama
秋山 健二
Shinji Tetsuya
信二 鉄谷
Hiroyuki Yamaguchi
博幸 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A T R TSUSHIN SYST KENKYUSHO KK
Nippon Telegraph and Telephone Corp
Original Assignee
A T R TSUSHIN SYST KENKYUSHO KK
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A T R TSUSHIN SYST KENKYUSHO KK, Nippon Telegraph and Telephone Corp filed Critical A T R TSUSHIN SYST KENKYUSHO KK
Priority to JP2098948A priority Critical patent/JPH0831140B2/en
Publication of JPH03296176A publication Critical patent/JPH03296176A/en
Publication of JPH0831140B2 publication Critical patent/JPH0831140B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE:To generate and display the pictures of high quality at a high speed by setting a hierarchy degree with the distance between the origin or a visual point of a display reference coordinate system and an optional point of an object shown in an object coordinate system used as at least one parameter. CONSTITUTION:An object of display has a constant size. However the subject is displayed in a larger size as shown in an object coordinate system h-obj1 on a screen S1 when it is in a near place and displayed in a smaller size as shown in an object coordinate system h-obj3 when it is in a far place respectively. In this case, the modeling hierarchy is set fine in a near place and then set rough in a far place respectively. Therefore for an observer both of the systems h-obj1 and h-obj3 are felt satisfactorily precise. Furthermore the calculation speed of the perspective projection transformation of both systems obj2 and obj3 is much higher than the obj1. Then the calculation quantity needed for display of an entire screen S1 is reduced. Thus the pictures of high ambience can be obtained at a high speed.

Description

【発明の詳細な説明】 [産業上の利用分野コ この発明は高速で臨場感のある画像をスクリン上に表示
するようなコンピュータグラフィックス、すなわち高速
画像生成表示方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] This invention relates to computer graphics for displaying realistic images on a screen at high speed, that is, a high-speed image generation and display method.

[従来の技術] 3次元画像をコンピュータによって生成して表示する、
いわゆるコンピュータグラフィックスの技術は、科学技
術計算のシミュレーションを初めとして様々な分野に利
用されつつあるが、高精度化、すなわち、画像の高品質
化と高速化は相反する条件にあり、同時にこれを満たす
技術は現在のところ見当たらない。つまり、品質の高い
画像を生成しようとすると、画像生成のために膨大な計
算時間を必要とし、逆に高速、たとえは毎秒数10枚の
画像を表示するリアルタイム表示を目的とすると粗い計
算をせざるを得なくなり、生成画像の品質が悪くなる。
[Prior art] Generating and displaying a three-dimensional image by a computer,
So-called computer graphics technology is being used in a variety of fields, including simulations of scientific and technical calculations. Currently, no technology has been found that satisfies this requirement. In other words, if you try to generate a high-quality image, a huge amount of calculation time is required to generate the image.On the other hand, if you aim for high-speed, real-time display such as displaying several tens of images per second, you will need coarse calculations. As a result, the quality of the generated image deteriorates.

一方、コンピュータグラフィックスの適用分野は、知的
符号化通信と呼ばれる画像通信の分野にも広がりつつあ
る。この方法では、送信側は画像認識により、送信対象
の3次元構造情報を抽出し、その特徴をパラメータ化し
て伝送する。受信側では、予め3次元構造情報(データ
ベース)を用意しておき、伝送されてくる特徴パラメー
タに基づいて、該3次元データベースを高速に変換して
表示する。これらの通信方法では、受信側は送信側の3
次元構造情報を基にして、任意の視点からの画像を自在
に生成して表示することができるため、以下のような多
くの利点をもつ。
On the other hand, the field of application of computer graphics is also expanding to the field of image communication called intelligent coded communication. In this method, the transmitting side uses image recognition to extract three-dimensional structural information of the transmission target, parameterizes its characteristics, and transmits the information. On the receiving side, three-dimensional structure information (database) is prepared in advance, and the three-dimensional database is converted and displayed at high speed based on the transmitted feature parameters. In these communication methods, the receiving side communicates with the sender's 3
Since it is possible to freely generate and display images from any viewpoint based on dimensional structure information, it has many advantages such as the following.

■ 受信者の視点の動きを検出し、この動きに応じた画
像を表示することにより、運動視が実現できる。ここで
、運動視とは、頭を動かした際に眼球の網膜上に映る画
像の変化から空間を知覚する人の潜在能力のことであり
、日常、前後関係が分かりにくい視覚状況下で頭を動か
して認識を高めようとすることはよく経験することであ
る。すなわち、運動視をコンピュータグラフィックスに
より人工的に実現することにより、スクリーン上の画像
の立体感が向上することが期待され、臨場感豊かな表示
が可能となる。
■ Motion vision can be realized by detecting the movement of the receiver's viewpoint and displaying an image that corresponds to this movement. Here, kinesthetic vision refers to a person's potential ability to perceive space from changes in the image reflected on the retina of the eyeball when moving the head. Trying to raise awareness through movement is a common experience. That is, by artificially realizing motion vision using computer graphics, it is expected that the three-dimensional effect of images on the screen will be improved, making it possible to display images with a rich sense of realism.

■ 受信者の両眼を2つの視点として、それぞれの視点
からの画像を生成して表示することにより、両眼立体視
を実現できる。人の両目は約6cmの距離を隔てて位置
するため、頭を動かさなくとも、各回の網膜には別々な
像が投影される。この異なった2つの像の対応関係は視
差情報と呼ばれ、人はこれを利用して空間の立体感覚を
得ている。この視差情報をもつ画像をコンピュータグラ
フィックスで実現することにより、スクリーン上の画像
の立体感がさらに向上する。
■ Binocular stereopsis can be achieved by using the receiver's eyes as two viewpoints and generating and displaying images from each viewpoint. Since a person's eyes are located approximately 6 cm apart, different images are projected onto the retina each time the eye is viewed, even without moving the head. The correspondence between these two different images is called parallax information, and people use this to obtain a three-dimensional sense of space. By creating an image with this parallax information using computer graphics, the three-dimensional effect of the image on the screen is further improved.

■ その他、相手側(送信側)の人と視線を合わせて会
話するような画像も容易に生成できる。
■ In addition, it is also possible to easily generate images that show the person on the other end (sender) having a conversation while making eye contact.

しかし、このような通信方法を実現するには、現状では
いくつかの困難がある。第1には、送信側における画像
認識および特徴パラメータの抽出であり、第2には、受
信側での高速でかつ広視野を高解像度で表示する画像生
成表示方法である。
However, there are currently some difficulties in implementing such a communication method. The first is image recognition and feature parameter extraction on the transmitting side, and the second is an image generation and display method on the receiving side that displays a wide field of view at high speed and with high resolution.

通信では、実時間の処理が本質的な命題であり、従来の
コンピュータグラフィックスに比べて高速化への要求は
高い。
In communication, real-time processing is essential, and there is a higher demand for faster processing than in conventional computer graphics.

以下に、高速・高精度表示が困難な理由について詳細に
説明する。
The reason why high-speed, high-precision display is difficult will be explained in detail below.

第15図は従来の代表的な3次元画像生成表示方法を説
明するための図である。第15図において、スクリーン
S1は、このスクリーンS1の中心を原点とする表示基
準座標系X (w) −Y (w)Z(w)で表わされ
る。なお、この座標系は以下の各座標系の位置関係を記
述する機能をもち、原点はスクリーンS1の中心でなく
てもよいものとする。視点座標系X (e) −Y (
e) −Z (e)は、表示基準座標系X (w) −
Y (w) −Z (w)からみて位置と座標軸の回転
角が既知になっている。表示対象物体objは3次元構
造をもち、この対象の構造点Pi(obj)は対象座標
系X(ob D −Y (ob D −Z (ob D
で表わされているものとする。
FIG. 15 is a diagram for explaining a typical conventional three-dimensional image generation and display method. In FIG. 15, the screen S1 is represented by a display reference coordinate system X(w)-Y(w)Z(w) having the center of the screen S1 as its origin. Note that this coordinate system has a function of describing the positional relationship of the following coordinate systems, and the origin does not have to be the center of the screen S1. Viewpoint coordinate system X (e) −Y (
e) −Z (e) is the display reference coordinate system X (w) −
The position and rotation angle of the coordinate axes are known from Y (w) −Z (w). The display target object obj has a three-dimensional structure, and the structure point Pi (obj) of this target is defined by the target coordinate system X (ob D −Y (ob D −Z (ob D
Assume that it is expressed as .

このような状況において、構造点Piを視点Oeから見
たとき、このPi点がスクリーンS1上のどの位置に表
示されるかについて考える。表示基準座標系X (w)
 −Y (w) −Z (w)に対して、対象座標系X
 (ob j) −Y (ob D −Z(o b D
は既知としているので、対象座標系X(ob D −Y
 (ob D −Z (ob Dで表わされる構造点P
i(pbj)は表示基準座標系X(w)−Y (w) 
−Z (w)で、P i  (w) =M1・Pi(o
bj)のように示される。
In this situation, when the structural point Pi is viewed from the viewpoint Oe, consider the position on the screen S1 where the structural point Pi is displayed. Display reference coordinate system X (w)
-Y (w) -Z (w), target coordinate system
(ob j) -Y (ob D -Z(ob D
is known, so the object coordinate system X(ob D −Y
(ob D −Z (structural point P represented by ob D
i(pbj) is the display reference coordinate system X(w)-Y(w)
−Z (w), and P i (w) = M1・Pi(o
bj).

ここで、Mlは移動と回転のための変換マトリックスで
ある。また、視点座標系X (e) −Y(e)−Z 
(e)も表示基準座標系X (w) −Y(w)−Z 
(w)で表わすことができると仮定しているので、この
変換マトリックスをM2とすると、表示基準座標系X 
(w) −Y (w) −Z (w)からみた構造点P
i(w)は、視点座標系X (e)Y (e) −Z 
(e)からみて、 P i (e) −M2−1・P i  (w)−=M
1 ・M2−I Pi(obj) と表わすことができる。このように、表示基準座標系X
 (w) −Y (w) −Z (w)と対象座標系X
 (ob j) −Y (ob D −Z (ob D
および表示基準座標系X (w) −Y (w) −Z
 (w)と視点座標系X (e) −Y (e) −Z
 (e)との関係がわかれば、対象座標系で示された構
造点Pi(obj)は視点座標系で自在に表わすことが
できる。
Here, Ml is a transformation matrix for translation and rotation. Also, the viewpoint coordinate system X (e) −Y(e) −Z
(e) also displays reference coordinate system X (w) −Y(w) −Z
(w), so if this transformation matrix is M2, then the display reference coordinate system X
(w) -Y (w) -Z (w) Structural point P
i(w) is the viewpoint coordinate system X (e)Y (e) −Z
Seen from (e), P i (e) −M2-1・P i (w)−=M
1 ・M2-I Pi (obj). In this way, the display reference coordinate system
(w) -Y (w) -Z (w) and target coordinate system X
(ob j) -Y (ob D -Z (ob D
and display reference coordinate system X (w) −Y (w) −Z
(w) and viewpoint coordinate system X (e) −Y (e) −Z
If the relationship with (e) is known, the structure point Pi(obj) shown in the object coordinate system can be freely expressed in the viewpoint coordinate system.

ここで、視点座標系で示された構造点Pi(e)のスク
リーン上の点を求めるために、正規透視座標系と呼ばれ
るX (np) −Y (np) −Z (np)を考
える。この座標系は視点座標系のZ (e)軸上に原点
0 (np)があり、視点座標系でハツチした視野ピラ
ミッドと呼ばれる領域A、  B、  C。
Here, in order to find the point on the screen of the structure point Pi(e) indicated by the viewpoint coordinate system, consider X (np) - Y (np) - Z (np), which is called a regular perspective coordinate system. This coordinate system has its origin 0 (np) on the Z (e) axis of the viewpoint coordinate system, and areas A, B, and C, called visual field pyramids, are hatched in the viewpoint coordinate system.

D、 A (cO)、  B (oo)、  C(−)
、 D (=))が、−点鎖線で示した直方体A、  
B、  C,D、 A’(■)、 B’ (oO)、 
C’ (、■)、D’(艶)に一致する対応関係がある
。直方体のZ(np)軸方向は1に正規化しであるもの
とする。すなわち、Z (np)=0点は、Z (e)
軸のhに対応し、Z (np) −1の点はZ (e)
 =■に対応する。
D, A (cO), B (oo), C (-)
, D (=)) is the rectangular parallelepiped A shown by the - dotted chain line,
B, C, D, A' (■), B' (oO),
There is a corresponding relationship between C' (,■) and D' (glossy). It is assumed that the Z (np) axis direction of the rectangular parallelepiped is normalized to 1. That is, the point Z (np) = 0 is Z (e)
Corresponding to axis h, the point Z (np) −1 is Z (e)
= Corresponds to ■.

この条件で第10図に示す棒状物体objは正規透視座
標系X (np)−Y (np)−Z (np)では−
点鎖線で示すように、Z(np)軸の大きな方では断面
が小さくなる。この視点座標系と正規透視座標系との変
換は4×4のマトリックスM3で示すことができる。し
たがって、P t  (n p)は、 P i  (np) =M3 ・P i  (e)で表
わすことができる。ここで、P i(n p)をA、 
 B、  C,D面に平行投影すると、点線で示すξi
  (s)が得られる。
Under these conditions, the rod-shaped object obj shown in FIG. 10 is -
As shown by the dotted chain line, the cross section becomes smaller on the larger Z(np) axis. The transformation between this viewpoint coordinate system and the normal perspective coordinate system can be expressed by a 4×4 matrix M3. Therefore, P t (n p) can be expressed as P i (np) = M3 · P i (e). Here, P i (n p) is A,
When projected parallel to planes B, C, and D, ξi is shown by the dotted line.
(s) is obtained.

第15図では、説明の簡単のため、正規透視座標系X 
(np)−Y (np) −Z (np)は表示基準座
標系X (w) −Y (w) −Z (w)と原点お
よび軸方向が重なっているものとしている。したがって
、視点座標系のZ (e)軸は、表示基準座標系のZ 
(w)軸と同一方向である。
In FIG. 15, for ease of explanation, the regular perspective coordinate system
(np)-Y (np)-Z (np) is assumed to have an origin and an axial direction that overlap the display reference coordinate system X (w) -Y (w) -Z (w). Therefore, the Z (e) axis of the viewpoint coordinate system is the Z (e) axis of the display reference coordinate system.
(w) It is in the same direction as the axis.

この場合、直方体A、  B、  C,Dがスクリーン
の大きさに対応する。したがって、ξi  (s)がす
なわち視点0 (e)から見たスクリーンへの投影像で
ある。このように、構造点Pi(obj)からξi  
(s)へは3つの行列演算と平行投影が必要である。
In this case, rectangular parallelepipeds A, B, C, and D correspond to the size of the screen. Therefore, ξi (s) is the projected image on the screen seen from viewpoint 0 (e). In this way, from the structure point Pi(obj) to ξi
(s) requires three matrix operations and a parallel projection.

次に、視点が表示基準座標系のZ (e)軸からずれる
場合について説明する。第15図において、0’  (
e)は移動した視点位置である。この移動した点を原点
とし、0’  (e)−0(w)線を2(e)軸とする
新しい視点座標系X’  (e)Y’  (e) −Z
’  (e)を考える。表示基準座標系X (w) −
Y (w) −Z (w)から見た該新視点座標系の位
置を既知とすると、X (e) −Y(e)−Z (e
)からX’  (e) −Y’  (e)Z’  (e
)への変換はマトリックスM4を介して可能である。し
たがって、新視点座標系から見た構造点Piは、P i
  (e) ’ =M4 ・P i  (e)M4・M
l・M2−1・Pi (obj)で表わされる。
Next, a case where the viewpoint deviates from the Z (e) axis of the display reference coordinate system will be described. In Figure 15, 0' (
e) is the moved viewpoint position. A new viewpoint coordinate system X' (e) Y' (e) -Z with this moved point as the origin and the 0' (e) - 0 (w) line as the 2 (e) axis
' Consider (e). Display reference coordinate system X (w) −
If the position of the new viewpoint coordinate system as seen from Y (w) -Z (w) is known, then X (e) -Y(e)-Z (e
) to X' (e) -Y' (e) Z' (e
) is possible via matrix M4. Therefore, the structure point Pi seen from the new viewpoint coordinate system is P i
(e) ' = M4 ・P i (e) M4 ・M
It is expressed as l.M2-1.Pi (obj).

第16図は第15図のY(w)軸上から見た図である。FIG. 16 is a view seen from above the Y(w) axis in FIG. 15.

Pi(e)’ に前述の正規透視投影変換マトリックス
M3をかけると、Pi’  (np)が得られ、これを
平行投影するとξi”  (s)が得られる。ここで、
表示基準座標系から見た新視点座標系X’  (e) 
−Y’  (e)−Z′ (e)の位置が既知のため、
ξi”  (s)とO’  (e)とを結ぶ線がスクリ
ーンと交わる点を求めることは容易である。この点ξi
’  (s)かすなわち、視点O′から見たスクリーン
への投影像である。このように、構造点Pi(obj)
からξi’  (s)へは4つの行列演算と平行投影な
どが必要である。
Multiplying Pi(e)' by the normal perspective projection transformation matrix M3 described above yields Pi' (np), and parallel projection of this yields ξi" (s). Here,
New viewpoint coordinate system X' (e) seen from the display reference coordinate system
Since the position of -Y' (e) -Z' (e) is known,
It is easy to find the point where the line connecting ξi" (s) and O' (e) intersects the screen. This point ξi
'(s), that is, the projected image on the screen as seen from the viewpoint O'. In this way, the structure point Pi(obj)
From ξi'(s), four matrix operations, parallel projection, etc. are required.

上述のごとく、表示基準座標系X (w) −Y(w)
−Z (w)において、対象座標系X(obD −Y 
(ob D −Z (ob Dの位置が記述された表示
対象、また対象座標系において各構造点Pi(obj)
の座標が記述された表示対象は、任意の視点からスクリ
ーンに透視投影できる。しかし、上述のごとく、多くの
行列演算を表示対象の構成点の全てについて行なう必要
があるため、計算時間が膨大になる。マトリックスの演
算はハードウェア化することにより、かなり高速にはな
るが、構成点の数が数1000点以上になるとリアルタ
イムの処理が難しくなる。また、表示対象の位置によっ
て無駄な処理が多く行なわれ、処理速度を制限している
。これについて以下に示す。
As mentioned above, the display reference coordinate system X (w) −Y(w)
−Z (w), the object coordinate system X(obD −Y
(ob D -Z (ob
A display object whose coordinates are described can be perspectively projected onto the screen from any viewpoint. However, as described above, it is necessary to perform many matrix operations on all constituent points to be displayed, resulting in an enormous amount of calculation time. Matrix calculations can be made considerably faster by using hardware, but real-time processing becomes difficult when the number of constituent points exceeds several thousand. Further, a lot of unnecessary processing is performed depending on the position of the display target, which limits the processing speed. This is explained below.

第17図は第15図に示した座標系をY (e)軸上で
かつZ (e)軸方向に見たものであり、第18図は第
17図に示した表示対象を示す図である。
Figure 17 shows the coordinate system shown in Figure 15 viewed on the Y (e) axis and in the Z (e) axis direction, and Figure 18 shows the display target shown in Figure 17. be.

第17図において、スクリーンS1は多数の画1 素giからなる。表示対象は、第18図に示すように3
次元構造をもち、構造点Piとその点がつくる構造面L
iなどによって構成されている。この表示対象が表示基
準座標系において近くにある場合を第17図(A)で示
し、遠くにある場合を第17図(B)で示し、それぞれ
objl、obj2とする。第15図および第16図で
説明した方法により、スクリーンS1には表示対象h−
In FIG. 17, the screen S1 consists of a large number of pixels gi. The display target is 3 as shown in Figure 18.
It has a dimensional structure, with a structural point Pi and a structural surface L created by that point.
It is composed of i, etc. The case where the display object is nearby in the display reference coordinate system is shown in FIG. 17 (A), and the case where it is far away is shown in FIG. 17 (B), and these are designated as objl and obj2, respectively. By the method explained in FIGS. 15 and 16, the display target h-
.

bjl、h−obj2が投影される。各構成点のスクリ
ーン座標上の対応する画素に信号を送り表示することが
できる。obj2は遠方にあるため、h−objlに比
べて各構成点間の距離が小さい。
bjl and h-obj2 are projected. A signal can be sent to the corresponding pixel on the screen coordinates of each component point and displayed. Since obj2 is located far away, the distance between each constituent point is smaller than that of h-objl.

この間隔が画素間隔よりも十分小さくなれば、その画素
の中にはいるいくつかの構成点を全て計算する必要がな
くなる。また、人の目には視力特性があり、スクリーン
81面においてこの眼の分解能以下の間隔で各構成点を
計算しても意味がない。
If this interval is sufficiently smaller than the pixel interval, there is no need to calculate all the constituent points within that pixel. In addition, the human eye has visual acuity characteristics, and it is meaningless to calculate each component point on the screen 81 at an interval that is less than the resolution of the eye.

既存のアルゴリズムでは、表示対象の位置にかかわらず
、また利用者の視力特性を考慮することなく、対象の全
ての構成点について計算するため、2 表示速度が遅くなり、複雑な対象をリアルタイムで表示
することが困難となる。
Existing algorithms calculate all constituent points of the target regardless of the position of the display target and without considering the user's visual acuity characteristics, which slows down the display speed and makes it difficult to display complex targets in real time. It becomes difficult to do so.

[発明が解決しようとする課題] 上述の問題は立体視コンピュータグラフィックスを実現
する際に特に問題となる。立体視コンピュータグラフィ
ックスとは、利用者の右目、左目を視点として、3次元
表示対象を見たときのスクリーンへの透視画像を別々に
計算し、これを時分割などにより利用者の左右の冬目に
対応したスクリーンに投影することにより、利用者に立
体的と感じさせる表示を行なう手法である。
[Problems to be Solved by the Invention] The above-mentioned problems are particularly problematic when realizing stereoscopic computer graphics. Stereoscopic computer graphics is a system that uses the user's right and left eyes as viewpoints to separately calculate the perspective images on the screen when looking at a 3D display object, and uses time sharing to calculate the perspective images for the user's left and right eyes. This is a method of creating a display that gives the user a three-dimensional impression by projecting it onto a screen that corresponds to the eyes.

立体視表示では、奥行き間隔が利用者にはっきりと認識
されるため、本来大きな物体(たとえば、ビルディング
など)は大きく、小さな物体(たとえば、虫など)は小
さくモデリングする必要が出てくる。立体視でないコン
ピュータグラフィックスでは、物体を大きくモデリング
しなくても視点の近くに配置することで大きく見せる工
夫が可能である。ところが、立体視では奥行き間隔が視
差情報により与えられるため、小さなものを手前におい
ても、大きな物体とは認識されず、そのとおり小さなも
のが手前にあるように見えてしまう。
In stereoscopic display, depth intervals are clearly recognized by the user, so it becomes necessary to model normally large objects (such as buildings) large and small objects (such as insects) small. In non-stereoscopic computer graphics, it is possible to make objects appear larger by placing them closer to the viewpoint without having to model them larger. However, in stereoscopic vision, the depth interval is given by parallax information, so even if a small object is placed in the foreground, it is not recognized as a large object, and the small object appears to be in the foreground.

物体を本来の大きさにモデル化すると、大きな物体は、
そ゛の物体が視点の近くに来てスクリーン−杯に広がる
場合も想定すると細部に至るまで細かくモデル化する必
要がある。一方、該物体が視点から遠くに離れた場合に
は、第17図(B)に示すように、スクリーンの一部分
にその全体が表示されるにもかかわらず、近くにある場
合と同じ計算量を必要とする不合理がある。
When an object is modeled to its original size, a large object becomes
If we assume that such an object will come close to the viewpoint and spread out across the screen, it will be necessary to model it down to the smallest detail. On the other hand, when the object is far away from the viewpoint, the same amount of calculation is required as when the object is nearby, even though the entire object is displayed on a part of the screen, as shown in Figure 17 (B). There is an absurdity in requiring it.

以上、高速のコンピュータグラフィックスの必要性につ
いて述べたが、コンピュータグラフィックスがリアルタ
イムであっても、応用によっては不都合がある。臨場感
通信では、仮想的な空間をコンピュータグラフィックス
により人工的に作り、この中に実際に居る感覚で該仮想
空間とは様々な相互作用をすることになる。この際求め
られるのは、単に高速上いうだけでなく、観測者の動き
に同期してスクリーンの画像を変化する特性である。
The need for high-speed computer graphics has been described above, but even if computer graphics is real-time, there are disadvantages depending on the application. In immersive communication, a virtual space is artificially created using computer graphics, and users can interact with the virtual space in various ways as if they were actually there. What is required here is not only high speed, but also the ability to change the screen image in synchronization with the observer's movements.

しかし、コンピュータグラフィックスでは画像を生成す
るための時間が必ず残るため、毎秒数10枚の画像を生
成し、表示できても、観測者の動きに対して各画像を生
成する遅れ時間があれば、違和感を生じ、仮想空間との
一体感が得られない。
However, in computer graphics, there is always time left to generate images, so even if it is possible to generate and display several tens of images per second, there is a delay in generating each image relative to the movement of the observer. , it creates a sense of discomfort and a sense of unity with the virtual space cannot be obtained.

それゆえに、この発明の主たる目的は、知的符号化通信
や立体視コンピュータグラフィックスに必要なリアルタ
イムで精度の高いコンピュータグラフィックス表示を、
計算量を大幅に少なくすることにより実現し得る高速画
像生成表示方法を提供することである。
Therefore, the main purpose of this invention is to provide real-time and highly accurate computer graphics display necessary for intelligent encoded communication and stereoscopic computer graphics.
An object of the present invention is to provide a high-speed image generation and display method that can be realized by significantly reducing the amount of calculation.

この発明の他の目的は、運動視を実現するコンピュータ
グラフィックスなどにおいて、画像を生成してから表示
するまでの時間遅れを少なくし、違和感のない自然な表
示を実現し得る高速画像生成表示方法を提供することで
ある。
Another object of the present invention is a high-speed image generation and display method that reduces the time delay between image generation and display in computer graphics that realize motion vision, and can realize a natural display that does not give an unnatural feeling. The goal is to provide the following.

[課題を解決するための手段] この発明は立体構造をもつ対象を2次元画面に投影して
表示する高速画像生成表示方法であって、その対象の構
成面は対象座標系において領域の大きさを少なくとも1
つの要素として階層的に記述5 され、任意の視点から見たときの対象の構成面を2次元
画面へ投影するに際して、表示基準座標系原点または視
点から対象座標系で表わされるその対象の任意の点まで
の距離を少なくとも1つのパラメータとして階層度を設
定するようにしたものである。
[Means for Solving the Problems] The present invention is a high-speed image generation and display method for projecting and displaying an object having a three-dimensional structure on a two-dimensional screen, in which the constituent planes of the object have the size of the area in the object coordinate system. at least 1
When projecting the component planes of an object as seen from an arbitrary viewpoint onto a two-dimensional screen, it is necessary to The hierarchy level is set using the distance to a point as at least one parameter.

より好ましくは、任意の視点が観測者の瞳孔または虹彩
位置であって、視点から対象の任意の点までの距離をパ
ラメータとして階層度を設定する。
More preferably, the arbitrary viewpoint is the pupil or iris position of the observer, and the hierarchy level is set using a distance from the viewpoint to an arbitrary point on the object as a parameter.

さらに、より好ましくは、視点の軌跡から次の画像表示
時刻における視点の位置を予測し、その予測視点から見
た時の投影画像を予め生成するものである。
More preferably, the position of the viewpoint at the next image display time is predicted from the trajectory of the viewpoint, and a projected image viewed from the predicted viewpoint is generated in advance.

さらに、より好ましくは、瞳孔または虹彩の位置は表示
基準座標系で表わされ、対象の位置は対象座標系の原点
で近似され、その原点が表示基準座標系で表わされ、瞳
孔または虹彩の位置から対象座標系原点までの距離が表
示基準座標系で表わされる。
Still more preferably, the position of the pupil or iris is represented in a display reference coordinate system, the position of the object is approximated by the origin of the object coordinate system, and the origin is represented in the display reference coordinate system, and the position of the pupil or iris is The distance from the position to the origin of the target coordinate system is expressed in the display reference coordinate system.

1作用] 6 第1請求項に係る発明は、表示対象を領域の大きさ、す
なわちスケールを1つのパラメータとして階層的にモデ
リングし、その対象が表示基準座標系原点または視点の
近くにある場合は細かなモデリング階層まで表示し一対
象が表示基準座標系原点または視点から遠くにある場合
は粗いモデリング階層で表示することにより、特に遠く
の物体について計算量を大幅に減らして高速化を図る。
1 Effect] 6 The invention according to the first claim hierarchically models the display target using the size of the area, that is, the scale as one parameter, and when the target is near the origin of the display reference coordinate system or the viewpoint, By displaying even a fine modeling hierarchy and displaying a coarse modeling hierarchy when an object is far from the origin of the display reference coordinate system or the viewpoint, the amount of calculation is greatly reduced and speed is increased, especially for distant objects.

なお、単眼のコンピュータグラフィックスでは、表示物
体がスクリーンより手前に来ることはないので、階層度
を選択するためのパラメータを表示基準座標系の原点か
らの距離としてもよい。この場合、視点を原点とするよ
りも計算が簡単となる。
Note that in monocular computer graphics, since the displayed object is never in front of the screen, the parameter for selecting the level of hierarchy may be the distance from the origin of the display reference coordinate system. In this case, calculation is easier than when the viewpoint is the origin.

一方、両眼立体視コンピュータグラフィックスの場合は
、物体をスクリーンより手前に飛び出して表示する場合
もあるため、階層度を選択するためのパラメータを視点
からの距離としてもよい。この場合、視点の移動に伴っ
て距離をその都度計算する必要が生じる。
On the other hand, in the case of binocular stereoscopic computer graphics, objects may be displayed so as to jump out in front of the screen, so the distance from the viewpoint may be used as a parameter for selecting the level of hierarchy. In this case, it becomes necessary to calculate the distance each time the viewpoint moves.

第2請求項に係る発明は、目の光学的視点の近傍に位置
する瞳孔または虹彩の中心を視点にすることにより精度
の高い運動親画像を生成することである。また、該視点
から遠くに位置する対象に対する計1量を少なくするこ
とにより高速化を図る。
The invention according to claim 2 is to generate a highly accurate motion parent image by using the center of the pupil or iris, which is located near the optical viewpoint of the eye, as a viewpoint. Furthermore, speeding up is achieved by reducing the total amount for objects located far from the viewpoint.

第3請求項に係る発明は、第2請求項に係る発明におい
て運動視を実現する場合に問題となる画像生成時間の遅
れによる表示の違和感を解消し、より自然な画像を得る
The invention according to claim 3 eliminates the unnatural feeling of display due to the delay in image generation time, which is a problem when realizing motion vision in the invention according to claim 2, and obtains a more natural image.

第4請求項に係る発明は、第2請求項に係る発明におい
て、瞳孔または虹彩の位置が表示基準座標系で表わされ
、対象の位置は対象座標系の原点で近似され、その原点
が表示基準座標系で表わされ、瞳孔または虹彩の位置か
ら対象座標系原点までの距離が表示基準座標系で表わさ
れる。
The invention according to claim 4 is the invention according to claim 2, in which the position of the pupil or iris is represented by a display reference coordinate system, the position of the target is approximated by the origin of the target coordinate system, and the origin is displayed. It is expressed in a reference coordinate system, and the distance from the position of the pupil or iris to the origin of the object coordinate system is expressed in the display reference coordinate system.

[発明の実施例] 第1図はこの発明の原理を示す図であり、第2図は第1
図に示した表示対象の階層的なモデリング例を示す図で
ある。
[Embodiments of the invention] Fig. 1 is a diagram showing the principle of this invention, and Fig. 2 is a diagram showing the principle of the invention.
FIG. 6 is a diagram showing an example of hierarchical modeling of the display target shown in the figure.

まず、第1図を参照して、この発明の原理について説明
する。ベクトルVOI、VO2はそれぞれ表示基準座標
系X (w) −Y (w) −Z (w)の原点0 
(w)から表示対象objl、obj2の対象座標系原
点(o b j 1.  o b j 2)へのベクト
ルである。また、第10図に示した従来例上比較して、
異なる点は表示対象の構造データの持ち方である。第2
図に表示対象の階層的なモデリング例を示す。第2図に
示した例では、表示対象は複数の構造点(k l I 
+  k 2 + +  k 3 J・・冒j=1・・
・)とこの構造点の集合により作られる構造面(Ll。
First, the principle of this invention will be explained with reference to FIG. Vectors VOI and VO2 are respectively at the origin 0 of the display reference coordinate system X (w) -Y (w) -Z (w)
It is a vector from (w) to the origin of the object coordinate system (o b j 1. o b j 2) of the display objects objl and obj2. Also, compared to the conventional example shown in FIG.
The difference is in how the structural data to be displayed is held. Second
The figure shows an example of hierarchical modeling of display objects. In the example shown in FIG. 2, the display target is a plurality of structural points (k l I
+ k 2 + + k 3 J... Explosion j=1...
) and a structural surface (Ll) created by a set of these structural points.

は4つの構造点により囲まれる面として定義される)な
どにより記述される。各構造点は対象座標系X (ob
D −Y (obD −Z (obDにより表わされる
。第2図での階層の設定は、各構造点間の距離または構
造面の大きさは所定の大きさを越える毎に構造点の数を
減らして行き、全体で3段階の階層としている。このよ
うな、構造点と該点を結ぶ線分により表わされるデータ
構造をワイヤフレーム構造と呼ぶ。
is defined as a surface surrounded by four structural points). Each structure point is in the object coordinate system X (ob
D -Y (obD -Z (represented by obD. The hierarchy setting in Figure 2 is such that the distance between each structure point or the size of the structure surface is such that the number of structure points is decreased each time the distance between each structure point or the size of the structure surface exceeds a predetermined size. There are three levels of hierarchy in total.This data structure represented by structural points and line segments connecting the points is called a wireframe structure.

第1図に示した例では、第2図に示すように階9 層化された表示対象の階層度を表示基準座標系の原点0
(w)からの対象座標系原点までの距離を1つのパラメ
ータとして適応的に選択して表示する。
In the example shown in Figure 1, as shown in Figure 2, the hierarchy level of the layered display object is set to the origin 0 of the display reference coordinate system.
The distance from (w) to the origin of the target coordinate system is adaptively selected and displayed as one parameter.

第3図はこの様子を示したものであって、表示座標系の
原点0 (w)からの対象座標系原点までの距離を1つ
のパラメータとして適応的に選択して表示した例を示す
図である。第3図において、領域Th、、Th2.Th
3は表示対象座標系の原点0(w)からの距離が所定の
値の領域である。
Figure 3 shows this situation, and shows an example in which the distance from the origin 0 (w) of the display coordinate system to the origin of the target coordinate system is adaptively selected and displayed as one parameter. be. In FIG. 3, areas Th, , Th2 . Th
3 is an area where the distance from the origin 0(w) of the display target coordinate system is a predetermined value.

領域Th、の内側に対象座標系の原点を含む該対象(た
とえばobjl)は第2図(b)に示すモデリング階層
を用い、領域Th3の内側に対象座標系の原点を含む該
対象は第2図(C)を用いてそれぞれh−obj2.h
−obj3のように表示する。
The object (for example objl) that includes the origin of the target coordinate system inside the area Th, uses the modeling hierarchy shown in FIG. 2(b), and the object that includes the origin of the target coordinate system inside the area Th3 uses the second Using figure (C), h-obj2. h
-Display as obj3.

表示対象は第2図に示すように同じ大きさであるが、近
くにある場合には、スクリーンS1にはh−objlの
ように大きく、遠くにある場合にはh−obj3のよう
に小さく表示される。この0 ときのモデリングの階層は近くにあるときには細かく、
遠くにあるときには粗く選択される。したがって、観察
者にはh−objlおよびh−obj3ともに必要十分
に精細に感じられる。obj2、obj3の透視投影変
換の計算速度はobjlの場合よりはるかに速<、シた
がって、スクリーンS1全体を表示するに必要な計算量
は従来より大幅に少なくなる。この効果は、特に背景の
表示対象が複雑になるほど高くなる。実際の空間では観
測者の近くにある対象より、遠くにある対象の方がはる
かに多い。したがって、臨場感が高い画像を高速に生成
することができる。
The displayed objects have the same size as shown in Figure 2, but if they are nearby, they will be displayed large as h-objl on screen S1, and if they are far away, they will be displayed small as h-obj3. be done. This modeling hierarchy at 0 is fine when it is nearby.
When the object is far away, it is selected coarsely. Therefore, to the observer, both h-objl and h-obj3 seem to be sufficiently detailed. The calculation speed of the perspective projection transformation of obj2 and obj3 is much faster than that of objl. Therefore, the amount of calculation required to display the entire screen S1 is significantly smaller than before. This effect increases particularly as the background display object becomes more complex. In real space, there are far more objects far away than near the observer. Therefore, images with a high sense of realism can be generated at high speed.

なお、上述の第1図および第3図に示した例では、表示
基準座標系の原点0(w)からの対象座標系原点までの
距離をパラメータとしたが、たとえば対象が大きい場合
、対象座標系原点から該対象の構造面までの距離が大き
くなるため、ある構造面と他の構造面との距離が大きく
離れ、一方は手前に、他方は遠くに位置することもあり
得る。
In the examples shown in FIGS. 1 and 3 above, the distance from the origin 0(w) of the display reference coordinate system to the origin of the target coordinate system was used as a parameter. For example, if the target is large, the target coordinates Since the distance from the system origin to the target structural surface becomes large, the distance between one structural surface and another structural surface may become large, and one may be located in the front while the other is located far away.

このような場合、対象座標系の原点以外の点までの距離
をパラメータとして用いるほうが合理的なことがある。
In such cases, it may be more reasonable to use the distance to a point other than the origin of the target coordinate system as a parameter.

第4図は表示対象が大きく複数の構造物の組合わせで形
成されていて、各部分の構造物に個別の対象座標系を設
定できる例を示す図である。第4図において、表示基準
座標系の原点または視点位置はKで表わされ、主たる対
象座標系はCorM−objで表わされ、この位置ベク
トルは■0で表わされ、主たる対象座標系Cor−M−
objの一部または主たる対象座標系Cor−M−。
FIG. 4 is a diagram showing an example in which the display target is formed by a combination of a plurality of large structures, and an individual target coordinate system can be set for each part of the structure. In FIG. 4, the origin or viewpoint position of the display reference coordinate system is represented by K, the main object coordinate system is represented by CorM-obj, this position vector is represented by 0, and the main object coordinate system is CorM-obj. -M-
Part or main object coordinate system Cor-M- of obj.

bjに連結された対象obj2の副対象座標系はCor
−3−objで表わされる。主たる対象座標系Cor−
M−objからみて副対象座標系Cor−3−objの
位置はベクトルVolで与えられる。この例では、対象
obj2の位置は■0十Vol=V2で表わされる。精
細と非精細のモデリング階層の分割を視点位置Kからの
距離T hにより行なうとする。対象obj2の原点0
(。
The subobject coordinate system of object obj2 connected to bj is Cor
-3-obj. Main object coordinate system Cor-
The position of the sub-object coordinate system Cor-3-obj when viewed from M-obj is given by the vector Vol. In this example, the position of the object obj2 is represented by ■00Vol=V2. It is assumed that the fine and non-fine modeling layers are divided according to the distance Th from the viewpoint position K. Origin 0 of target obj2
(.

bj2)は距離T)tの内側にあるため、構造点間の間
隔が密なモデルが選ばれる。対象objlの原点0(o
bjl)は距離T hの外側にあるため、粗なモデルが
選ばれる。なお、対象○bjlの中の破線は選択されな
かった候補点(線)である。
Since bj2) is inside the distance T)t, a model with close spacing between structure points is selected. The origin of the target objl is 0 (o
bjl) is outside the distance T h, so a coarse model is chosen. Note that the broken line in the target ○bjl is a candidate point (line) that was not selected.

第5図はこの発明の一実施例の概略ブロック図である。FIG. 5 is a schematic block diagram of one embodiment of the present invention.

この第5図に示した実施例では、視点が眼球であり、移
動する場合であって、説明の簡略化のために表示対象を
表示基準座標系で静止しているものとする。なお、第5
図の太い実線で示した部分が従来技術にない新規な手段
である。
In the embodiment shown in FIG. 5, the viewpoint is the eyeball, which is moving, and for the sake of simplicity, it is assumed that the display object is stationary in the display reference coordinate system. In addition, the fifth
The part indicated by the thick solid line in the figure is a novel means not found in the prior art.

第5図を参照して、視点検出手段10は表示基準座標系
で眼球の視点を検出する。対象座標系設定手段20は表
示基準座標系で表示対象の原点位置と回転角(角度)を
指定する。距離計算手段30は視点検出手段10の検出
出力と対象座標系設定手段20で指定された原点位置お
よび回転角に応じて、視点から対象座標系原点までの距
離を計算する。3次元階層化データベース80は表示対
象物体の構゛成面が領域の大きさを1つのパラメータと
して階層的に記述されている。構成点/構成面生成手段
40は表示すべき対象座標系の原点位3 置と前述の距離とを入力として受け、3次元階層化デー
タベース80によって示される構成面データを参照しな
がら、表示基準座標系において3次元モデルを生成する
。なお、第5図の点線で示す部分は距離をパラメータと
して階層度を選択する処理手段100を構成している。
Referring to FIG. 5, viewpoint detection means 10 detects the viewpoint of the eyeball in the display reference coordinate system. The target coordinate system setting means 20 specifies the origin position and rotation angle (angle) of the display target in the display reference coordinate system. The distance calculation means 30 calculates the distance from the viewpoint to the origin of the target coordinate system according to the detection output of the viewpoint detection means 10 and the origin position and rotation angle specified by the target coordinate system setting means 20. In the three-dimensional hierarchical database 80, the constituent surfaces of the object to be displayed are hierarchically described using the size of the area as one parameter. The component point/component surface generating means 40 receives as input the origin position of the target coordinate system to be displayed and the above-mentioned distance, and generates display reference coordinates while referring to the component surface data indicated by the three-dimensional hierarchical database 80. A three-dimensional model is generated in the system. Note that the portion indicated by the dotted line in FIG. 5 constitutes a processing means 100 that selects the hierarchy level using distance as a parameter.

透視投影変換手段50は視点位置と上述の3次元モデル
を入力として、表示対象を2次元スクリーン画面に透視
投影する。表示画像生成手段60は3次元階層化データ
ベース80に対して物体の指定、構成面の指定1階層の
指定を行なうことによって得られる構成面データを参照
しながら、対象の構成面に着色などの模様付けをする。
The perspective projection conversion means 50 receives the viewpoint position and the above-mentioned three-dimensional model as input, and perspectively projects the display object onto the two-dimensional screen. The display image generation means 60 creates a pattern such as coloring on the target constituent surface while referring to the constituent plane data obtained by specifying an object and one layer of constituent planes in the three-dimensional hierarchical database 80. Attach.

表示手段70はレンチキュラースクリーンなどが用いら
れ、対象物体を表示する。なお、第5図に示した実施例
では、構成点/構成面を生成するにあたって、上述の距
離により構成面の精細度に重みづけを行なうが、この操
作は構成点/構成面生成手段40により、予め定められ
ている基準値Thと距離とを比較しながら、所定の階層
の構成面を3次4 元階層化データベース80から引き出すことによって行
なわれる。
A lenticular screen or the like is used as the display means 70 to display the target object. In the embodiment shown in FIG. 5, when generating constituent points/constituent planes, the fineness of the constituent planes is weighted by the above-mentioned distance, but this operation is performed by the constituent points/constituent plane generating means 40. This is done by extracting the constituent planes of a predetermined hierarchy from the three-dimensional and four-dimensional hierarchical database 80 while comparing the distance with a predetermined reference value Th.

第6図はこの発明の一実施例の具体的な動作を説明する
ためのフロー図である。
FIG. 6 is a flowchart for explaining the specific operation of one embodiment of the present invention.

次に、第6図を参照して、この発明の一実施例の具体的
な動作について説明する。いま、前述の第1図および第
3図に示すように、表示基準座標系におイテ、対象ob
jl、obj2.obj3は所定の位置にあるように見
える画像をスクリーン上に生成するものとする。視点の
位置は瞳孔位置であり、したがって、視点は動くものと
する。
Next, referring to FIG. 6, a detailed operation of an embodiment of the present invention will be described. Now, as shown in Figures 1 and 3 above, place the object object in the display reference coordinate system.
jl, obj2. It is assumed that obj3 generates an image on the screen that appears to be at a predetermined position. The position of the viewpoint is the pupil position, and therefore the viewpoint is assumed to be moving.

また、対象は説明の簡単のために表示基準座標系におい
て静止しており、対象の3次元構造データは第2図に示
したように、対象座標系で記述されておりかつ構成面は
領域の大きさをパラメータとして階層化されている。
Furthermore, for ease of explanation, the object is stationary in the display reference coordinate system, and the three-dimensional structure data of the object is described in the object coordinate system, as shown in Figure 2, and the constituent planes are of the area. It is stratified using size as a parameter.

また、ステップ(図示ではSPと略称する)SPlにお
いて、対象座標系設定手段20によって対象座標系原点
の位置ベクトルV obl−1== (xobl−1+
 yob、−1+  Zobl−1)と対象座標系の回
転角Robl−1−(αobj−1+ β。bl−1+
 γobl−1)とが設定されて処理手段100に与え
られる。ステップSP2において、視点検出手段10に
よって検出さ゛れた視点位置Voe−(Xoe、Yoe
Further, in step SPl (abbreviated as SP in the figure), the object coordinate system setting means 20 sets the position vector of the object coordinate system origin V obl-1== (xobl-1+
yob, -1+ Zobl-1) and the rotation angle of the target coordinate system Robl-1-(αobj-1+ β.bl-1+
γobl−1) is set and provided to the processing means 100. In step SP2, the viewpoint position Voe-(Xoe, Yoe
.

Zoe)が処理手段100に与えられる。処理手段10
0はステップSP3において、視点検出手段10から与
えられたその時刻における視点位置ベクトルVoeを読
取り、対象座標系原点の位置ベクトル■。1.−1と視
点位置ベクトルVoeとを用いて、2点間の距離d I
 S obl−1−l Vobl■oe1を演算する。
Zoe) is provided to the processing means 100. Processing means 10
0 reads the viewpoint position vector Voe at that time given from the viewpoint detection means 10 in step SP3, and obtains the position vector ■ of the origin of the target coordinate system. 1. −1 and the viewpoint position vector Voe, the distance d I between the two points is
Sobl-1-l Vobl■oe1 is calculated.

処理手段100はステップSP4において、計算した距
離d I S obl−1と基準値Th2と比較する。
In step SP4, the processing means 100 compares the calculated distance d I S obl-1 with a reference value Th2.

処理手段100は距離d I S obl−1が基準値
Th2よりも大きいことを判別すると、ステップSP5
において、3次元階層化データベース80から第3図に
示した対象0bj3のように、第2図(c)に示した階
層度の低いモデルを選択する。そして、処理手段100
は対象座標系原点の位置ベクトルV o b i −1
の位置に、対象座標系の回転角Rob J −lの角度
で3次元モデルを生成する。
When the processing means 100 determines that the distance d I S obl-1 is larger than the reference value Th2, it proceeds to step SP5.
In this step, a model with a low hierarchy level shown in FIG. 2(c) is selected from the three-dimensional hierarchical database 80, such as the object 0bj3 shown in FIG. And processing means 100
is the position vector of the origin of the target coordinate system V ob i −1
A three-dimensional model is generated at the position of the rotation angle Rob J −l of the target coordinate system.

処理手段100はステップSP4において、2点間の距
離dis。、I−1が基準値Th2よりも小さいことを
判別すれば、ステップSP7において、2点間の距離d
 i S obil と基準値Thlと比較する。処理
手段100は2点間の距離dis。、11が基準値Th
lよりも大きいことを判別すると、ステップSP8にお
いて、3次元階層化データベース80から第2図(b)
に示した階層度のモデルを選択し、ステップSP9にお
いて、前述のステップSP6と同様にして3次元モデル
を生成する。さらに、処理手段100は2点間の距離d
iS abj−1が基準値Thlよりも小さければ、ス
テップ5PIOにおいて、3次元階層化データベース8
0から第2図(a)に示した階層度の高いモデルを選択
し、ステップ5P11において、3次元モデルを生成す
る。
In step SP4, the processing means 100 calculates the distance dis between the two points. , I-1 is smaller than the reference value Th2, the distance d between the two points is determined in step SP7.
i S obil is compared with the reference value Thl. The processing means 100 calculates the distance dis between two points. , 11 is the reference value Th
If it is determined that it is larger than l, in step SP8, the data as shown in FIG. 2(b) is obtained from the three-dimensional hierarchical database 80.
A model with the hierarchical level shown in is selected, and in step SP9, a three-dimensional model is generated in the same manner as in step SP6 described above. Furthermore, the processing means 100 determines the distance d between the two points.
If iS abj-1 is smaller than the reference value Thl, in step 5 PIO, the three-dimensional hierarchical database 8
0 to a model with a high hierarchy shown in FIG. 2(a) is selected, and a three-dimensional model is generated in step 5P11.

このようにして、SF3.SF3.5PIIのいずれか
で3次元モデルが生成されると、透視投影変換手段50
はその対象の透視投影変換画像h7 obj−+ 1  hobl 2 +  11ob+−
3を生成する。ステップ5P13において、表示画像生
成手段は3次元階層化データベース80に蓄積された各
構成面の模様データを読取り、2次元画面の対象構成面
に模様付けする。このようにして生成された対象画像は
ステップ5P14において表示手段70に表示される。
In this way, SF3. When a three-dimensional model is generated using either SF3.5 PII, perspective projection conversion means 50
is the perspective projection transformed image of the object h7 obj−+ 1 hobl 2 + 11ob+−
Generate 3. In step 5P13, the display image generation means reads the pattern data of each component surface stored in the three-dimensional hierarchical database 80 and applies a pattern to the target component surface of the two-dimensional screen. The target image generated in this way is displayed on the display means 70 in step 5P14.

第7図は対象座標系において原点以外の点の距離をパラ
メータとして用いる他の例を示す図であり、第8図は階
層的にモデリングされた表示対象を示す図である。
FIG. 7 is a diagram showing another example in which the distance of a point other than the origin in the target coordinate system is used as a parameter, and FIG. 8 is a diagram showing a hierarchically modeled display target.

第7図において、表示対象objは第8図に示すように
階層的にモデリングされており、さらに、第8図(C)
に示す階層の構成面aI+a2・・・alは、その面の
中心の位置が対象座標系でVal。
In FIG. 7, the display target obj is hierarchically modeled as shown in FIG.
For the constituent surfaces aI+a2...al of the hierarchy shown in , the center position of the surface is Val in the target coordinate system.

Va2・・・Va+のように表わされているものとする
。第5図において、各構成面a+を作るには、該構成面
までの距離を対象座標系原点の位置ベクトル■0と、中
心位置Va、の和として求め、該VO+Va、を距離T
hl、Th2と比較して該8 構成面の階層を選択する。構成面a1には第8図(a)
に示した表示対象が選択され、構成面a2には第8図(
b)に示す表示対象が選択され、構成面a3には第8図
(C)に示す表示対象が選択される。このようにして対
象座標系の任意の点までの距離をパラメータとすること
ができる。
It is assumed that the values are expressed as Va2...Va+. In FIG. 5, to create each constituent surface a+, the distance to the constituent surface is determined as the sum of the position vector ■0 of the origin of the object coordinate system and the center position Va, and the distance VO+Va is determined by the distance T
The hierarchy of the 8 constituent planes is selected by comparing with hl and Th2. 8(a) on the configuration surface a1.
The display target shown in FIG. 8 is selected, and the display target shown in FIG.
The display object shown in b) is selected, and the display object shown in FIG. 8(C) is selected on the configuration surface a3. In this way, the distance to any point in the target coordinate system can be used as a parameter.

なお、第1図に示した例では、表示基準座標系X (w
) −Y (w) −Z (w)の原点0 (w)を起
点として、対象座標系の任意の点までの距離をパラメー
タとしたが、視点の原点(0(e)またはO’  (e
)など)を起点としてもよい。この場合表示対象が動か
なくても視点が動いた場合、その都度階層度を変更する
手数はあるが、対象の細部を認識する人の視力特性が視
点からの距離に大きく依存することを考慮すると、より
合理的な階層度選択ができるといえる。また、両眼立体
視コンピュータグラフィックスなどでは、表示対象がス
クリーンS1の手前に表示される場合もあるが、このよ
うな場合、第1図に示したように、原点0(W)からの
距離をパラメータとすると、視点0(e)の近くにある
物体にもかかわらず、スクリーンS1のすぐ後ろ(奥)
にある物体より、粗い階層が選択されるという不合理も
生ずることになる。したがって、計算の複雑さがあるが
、視点から対象座標系の原点までの距離をパラメータと
する方法も有効である。
In the example shown in FIG. 1, the display reference coordinate system X (w
) −Y (w) −Z (w) The distance from the origin 0 (w) to any point in the target coordinate system is used as a parameter, but the origin of the viewpoint (0 (e) or O' (e
) etc.) may be used as a starting point. In this case, if the viewpoint moves even if the displayed object does not move, there is a need to change the hierarchy each time, but considering that the visual acuity characteristics of the person who recognizes the details of the object greatly depends on the distance from the viewpoint. , it can be said that a more rational hierarchy selection can be made. In addition, in binocular stereoscopic computer graphics, etc., the display target may be displayed in front of the screen S1, but in such a case, as shown in Figure 1, the distance from the origin 0 (W) If is a parameter, even though the object is near viewpoint 0 (e), it is immediately behind (rear) screen S1
This would also result in an irrational situation in which a coarser hierarchy would be selected over objects in the . Therefore, although the calculation is complicated, a method using the distance from the viewpoint to the origin of the target coordinate system as a parameter is also effective.

この発明において、領域の大きさを1つのパラメータと
することは、上述のごとく、構造点間の距離、構造面積
1体積などというような領域に関する尺度が所定の大き
さを越える毎にデータ数を減らしていく階層化を意味す
る。また、領域の大きさ以外を他のパラメータとしても
よい。たとえば、表示対象が人物像のような場合、頬、
鼻、耳などに比べて目や口元は人の表情を決定する重要
な部分である。したがって、これらの部分は他の部分よ
り精細にモデル化するのが合理的である。
In this invention, using the size of the area as one parameter means that the number of data is calculated every time a measure of the area exceeds a predetermined size, such as the distance between structure points or the volume of one structure area. It means decreasing stratification. Further, parameters other than the area size may be used as other parameters. For example, if the display target is a human image, the cheeks,
Compared to the nose, ears, etc., the eyes and mouth are important parts that determine a person's facial expressions. Therefore, it is reasonable to model these parts more precisely than other parts.

このように、領域の大きさに加えて表示部分の意味の重
要度などをパラメータに加えることができる。
In this way, in addition to the size of the area, the importance of the meaning of the displayed portion can be added to the parameters.

また、構造点とは第2図に示したように、実際に表示す
る点である場合の他、表示対象の部分領域の構造を規定
する特徴データであってもよい。
Furthermore, as shown in FIG. 2, the structure points may be points that are actually displayed, or may be feature data that defines the structure of a partial area to be displayed.

たとえば、部分領域が顔の頬ような自由曲面である場合
、この領域のモデリングには、自由曲面の記述式を用い
、その式が表わす曲面の制御パラメータを階層化データ
として用いてもよい。−例として、第2図にドツトで示
す部分領域が曲面である場合、これを記述するのにBe
zier曲面式を用い、この制御点を階層化データとし
てもよい。
For example, when the partial region is a free-form surface such as the cheek of a face, a descriptive formula for the free-form surface may be used to model this region, and control parameters for the curved surface expressed by the formula may be used as hierarchical data. - For example, if the partial region shown by dots in Fig. 2 is a curved surface, Be
Using the Zier surface formula, this control point may be used as hierarchical data.

Bezier曲面とは、次式で示すBezier曲線の
積曲面で表わすことができる。Bezier曲線は次式
で表わされる。
The Bezier curved surface can be expressed as a product surface of Bezier curves expressed by the following equation. The Bezier curve is expressed by the following equation.

R(t :n) = (1−t+tE) ’ Po  
:  (0≦t≦1) ここで、Eはシフト演算子と呼ばれ、EP。
R(t:n) = (1-t+tE)'Po
: (0≦t≦1) Here, E is called a shift operator and is EP.

P1+1を表わす。Plは制御点と呼ばれ、その位置が
座標の形で与えられる。Bezier曲線は制御点の線
形結合の形をしている。
Represents P1+1. Pl is called a control point, and its position is given in the form of coordinates. A Bezier curve is in the form of a linear combination of control points.

第9図は2次および3次のBezier曲面を示す図で
ある。第9図(a)に示した例は2次と1 3次(n=2.3)の場合であり、次式で表わされる。
FIG. 9 is a diagram showing quadratic and cubic Bezier curved surfaces. The example shown in FIG. 9(a) is a case of 2nd order and 13th order (n=2.3), and is expressed by the following equation.

R(t :3) −(1−を十tE) ’ p。R(t:3)-(1- to 10tE)'p.

Bezier曲線は1=0のとき、Poの制御点から出
発し、t=1のとき、終りの制御点(n−2の場合はp
2.n=3の場合はP3)に到達する。曲線はこの間を
制御点の近くを滑らかに連結する。制御点の数を増やす
ことは、次数を増やすことに相当し、曲線の表現力が増
す。
When 1=0, the Bezier curve starts from the control point of Po, and when t=1, it starts from the control point of Po (for n-2, it starts from the control point of Po).
2. When n=3, P3) is reached. The curve smoothly connects the area near the control point. Increasing the number of control points corresponds to increasing the degree, which increases the expressiveness of the curve.

Bizier曲面はBezier曲線の積の形で次式の
ように表わされる。
A Bizier surface is expressed as a product of Bezier curves as shown in the following equation.

S (u :m、  v : n) = <1−u+u
E) ”(1−V+vF)’ Po。
S (u: m, v: n) = <1-u+u
E) "(1-V+vF)' Po.

(0≦U≦1)   (0≦V≦1) E、  Fはシフト演算子であり、E P II−P 
l+l +5、FPII=PI、II1の作用をなす。
(0≦U≦1) (0≦V≦1) E and F are shift operators, and E P II-P
It acts as l+l +5, FPII=PI, II1.

第9図(c)、  (d)は、2次、3次のBezie
r曲面を示す。3次の場合、POOからP33まで16
個の制御点を用意しておくことにより、この間を滑らか
に結ぶ自由曲面が生成される。
Figures 9(c) and (d) show the quadratic and cubic Bezie
It shows an r-curved surface. For 3rd order, 16 from POO to P33
By preparing these control points, a free-form surface that smoothly connects them can be generated.

2 このように、部分領域を適応的に決め、この領域を記述
するに十分な制御点を選択すれば、細かい滑らかな表面
をもつ面となる。一方、部分領域を大きくとり、制御点
の数を少なくすれば、粗い表面の面となる。以上、部分
領域の中の制御点の数をパラメータとして階層化する例
を示した。
2 In this way, by adaptively determining a partial region and selecting enough control points to describe this region, a surface with a fine and smooth surface will be obtained. On the other hand, if the partial area is made large and the number of control points is decreased, the surface will be rough. An example of hierarchizing using the number of control points in a partial region as a parameter has been shown above.

さらに、前述のBezier曲面式では、構造点は制御
点とu、  vの値の取り方により決まる。
Furthermore, in the Bezier surface equation described above, the structure points are determined by the control points and how to take the values of u and v.

そこで、所定の制御点を決めておき、u、  vがとる
間隔を階層パラメータとしてもよい。すなわち、第9図
(d)において、制御点が16個で一定としても、U、
Vの間隔Δの決め方によって構成面は粗にも密にもなる
。間隔Δを小さくすれば該構成面は第9図(d)よりさ
らに分割され、小さな構成面が多く生ずる。このように
、Δをパラメータとして領域の大きさを階層化すること
もできる。
Therefore, a predetermined control point may be determined and the interval between u and v may be used as a hierarchical parameter. That is, in FIG. 9(d), even if the number of control points is constant at 16, U,
Depending on how the V interval Δ is determined, the constituent surfaces can be coarse or dense. If the interval Δ is made smaller, the constituent planes will be further divided than in FIG. 9(d), and many small constituent planes will be generated. In this way, it is also possible to hierarchize the size of the area using Δ as a parameter.

次にスクリーンへの表示の方法としては、第1図に示す
ように、ワイヤフレームを透視投影した点と線を表示す
る単純な方法の他に、■構造面には色データを用意して
おき、表示の際に色づけする。■各構造面にはテクスチ
ャマツプと呼ばれる絵柄をデータとして用意しておき、
この絵柄を構造面の方向、位置によって回転、移動、縮
小、拡大などの処理を施してスクリーン上に表示する。
Next, as a method of displaying on the screen, as shown in Figure 1, in addition to the simple method of displaying points and lines obtained by perspectively projecting the wireframe, there is also a method of displaying color data on the structural surface. , to be colored when displayed. ■For each structural surface, a pattern called a texture map is prepared as data,
This picture is displayed on the screen after being rotated, moved, reduced, enlarged, etc. depending on the direction and position of the structural surface.

■表示基準座標系において、所定の所に光源を仮定し、
視点からみた各構成面の該光による陰影を構成面ごとに
計算して表示することなどが可能である。
■Assuming a light source at a predetermined location in the display reference coordinate system,
It is possible to calculate and display the shadow of each constituent surface caused by the light as seen from the viewpoint for each constituent surface.

一例として等身大の人物石膏像をBezier曲面でモ
デル化する場合について説明する。この石膏像を細部ま
でわかるようにモデル化するためには、制御点の数は約
5000必要であった。すなわち、この5000個の制
御点を第9図(d)に示すように、4×4の制御点のか
たまりに分割し、さらに、この4×4の制御点で決まる
部分領域内をu、  vの値を選ぶことにより10分割
して細分化する。このようにして、50万個の構造点に
よる構造面が形成される。この程度分割して表示面を作
ると、細部まで細かく認識できる画像が得られる。
As an example, a case will be described in which a life-sized plaster cast of a person is modeled using a Bezier curved surface. Approximately 5,000 control points were required to model this plaster image in such a way that every detail could be seen. That is, as shown in FIG. 9(d), these 5000 control points are divided into 4 x 4 control point groups, and the partial area determined by these 4 x 4 control points is divided into u, v. By selecting the value of , it is subdivided into 10 parts. In this way, a structured surface with 500,000 structured points is formed. By creating a display surface that is divided to this extent, an image that can be recognized in fine detail can be obtained.

一方、人物か否かが判別できる程度であれば、制御点は
数10〜100程度でよく、さらにU。
On the other hand, as long as it is possible to determine whether it is a person or not, the number of control points may be approximately several tens to 100, and furthermore, U.

■も数分割でよい。つまり、100程度の構造点で表現
できる。このように、人物程度の対象でも表示する環境
、必要性により100〜数1000倍のデータ量の差が
ある。つまり、階層化は、領域の大きさに関して、多様
に選択可能である。
■ can also be divided into several parts. In other words, it can be expressed using about 100 structural points. In this way, even for objects as small as people, the amount of data varies by a factor of 100 to several thousand times depending on the display environment and necessity. In other words, the layering can be selected in various ways regarding the size of the area.

第10図は前述の第7図〜第9図に示した原理を具体化
するためのブロック図である。この第10図に示したブ
ロック図は、以下の点を除いて前述の第5図と同じであ
る。すなわち、処理手段101は、第5図に示した処理
手段100に比べて対象の構成面の階層上位を生成する
手段31が設けられるとともに、距離形成手段32は視
点から対象構成面の基点までの距離を計算する。生成手
段31はたとえば第3図に示した対象ob j 1゜o
bj2.obj3の主たる面を生成する。ここで、主た
る面とは。第8図(C)または(d)に示すような粗い
モデルの構成面である。第8図においては、各構成面の
位置は対象座標系において5 構成面の中心(基点)までのベクトルで表わされており
、構成面の角度はその面の法線方向が位置ベクトルとな
す角度で表わされている。対象座標系で表わされた構成
面obj−i−jは対象座標系の位置V o b + 
−+および角度Ro b + −’がわかれば簡単な座
標変換で求めることができる。
FIG. 10 is a block diagram for embodying the principle shown in FIGS. 7 to 9 described above. The block diagram shown in FIG. 10 is the same as FIG. 5 described above except for the following points. That is, compared to the processing means 100 shown in FIG. 5, the processing means 101 is provided with a means 31 for generating a higher hierarchy of the target constituent plane, and a distance forming means 32 is provided with a distance forming means 32 for generating a higher hierarchical level of the target constituent plane. Calculate distance. For example, the generating means 31 generates the object ob j 1゜o shown in FIG.
bj2. Generate the main surface of obj3. What is the main aspect here? This is a configuration surface of a rough model as shown in FIG. 8(C) or (d). In Figure 8, the position of each component surface is expressed by a vector to the center (base point) of the component surface in the target coordinate system, and the angle of the component surface is expressed by the normal direction of that surface as the position vector. expressed as an angle. The constituent plane obj-i-j expressed in the object coordinate system is located at the position V ob + in the object coordinate system.
−+ and the angle Rob + −′ can be determined by simple coordinate transformation.

第11図は第10図に示した実施例の動作を説明するた
めのフロー図である。この第11図に示したフロー図は
、この前述の第6図に示したフロー図に、新たにステッ
プ5P21が設けられるとともに、ステップSP3に代
えて5P22が設けられる。ステップ5P21において
は、ステップSPIで対象座標系設定手段20によって
対象座標系位置V o b l −1と角度R8,1−
1が設定されると、各対象obj−iについて、対象座
標系位置■。。
FIG. 11 is a flow diagram for explaining the operation of the embodiment shown in FIG. 10. The flowchart shown in FIG. 11 is the same as the flowchart shown in FIG. 6, with a new step 5P21 added and step 5P22 instead of step SP3. In step 5P21, in step SPI, the target coordinate system setting means 20 sets the target coordinate system position V ob l -1 and the angle R8,1-
If 1 is set, the object coordinate system position ■ for each object obj-i. .

1−1に角度R6b i −1で階層度(c)の3次元
モデルが生成され、対象obj−iの各構成面jの基点
位置V o b 1− + −1が計算される。ステッ
プSP2において視点検出手段10によって視点位置■
Oeが検出されると、ステップ5P22において、6 処理手段101の距離計算手段32は視点から各対象の
各構成面の基点までの距離d I S oblVobl
−1−1−Vo e lを計算する。そして、ステップ
SP4〜5PIIにおいて、距離が基準値Th、(k=
1.2)と比較される。それ以外の動作は第6図と同じ
である。
1-1, a three-dimensional model with a hierarchical level (c) is generated with an angle R6b i -1, and the base position V ob 1- + -1 of each constituent surface j of the object obj-i is calculated. In step SP2, the viewpoint detection means 10 determines the viewpoint position ■
When Oe is detected, in step 5P22, the distance calculation means 32 of the processing means 101 calculates the distance d I S obl Vobl from the viewpoint to the base point of each constituent surface of each object.
-1-1-Calculate Vo e l. Then, in steps SP4 to SP5PII, the distance is the reference value Th, (k=
1.2). The other operations are the same as in FIG.

第12図はこの発明の他の実施例を示す図である。第1
2図において、表示対象objl、obj2は第8図に
示したものと同じである。各構成点、構成面データは、
その対象の対象座標系X(obj+)  Y (obj
+)  Z (obj+)と表示基準座標系X (w)
  Y (w) −Z (w)の関係が既知であれば、
表示基準座標系で表わすことができる。2つの視点0 
(e) R,O(e)Lは、各観察者の左右眼球光学系
の主点に対応する。また、○(e)Rの添字(−〇)は
現在の視点であり、(+1)は次に移動する視点であり
、(−1)、  (−2)はそれぞれ前の視点である。
FIG. 12 is a diagram showing another embodiment of the present invention. 1st
In FIG. 2, display objects objl and obj2 are the same as those shown in FIG. Each constituent point and constituent surface data is
The target coordinate system of the object X(obj+) Y(obj
+) Z (obj+) and display reference coordinate system X (w)
If the relationship Y (w) −Z (w) is known,
It can be expressed in the display reference coordinate system. two perspectives 0
(e) R, O (e) L correspond to the principal points of the left and right eye optical systems of each observer. Further, the subscript (−〇) of ○(e)R is the current viewpoint, (+1) is the viewpoint to be moved next, and (−1) and (−2) are the previous viewpoints, respectively.

第12図では、毎秒10〜30枚程度の画像が生成表示
される場合を示しており、したがって、(+I)(0)
(−1)(−2)の各点は100〜33m5ec程度の
間隔である。位置ベクトル■(ob jl)、V (o
b j2)は視点から見た表示対象の対称座標系原点の
位置ベクトルである。
Figure 12 shows a case where approximately 10 to 30 images are generated and displayed every second, and therefore (+I) (0)
The points (-1) and (-2) are spaced at intervals of approximately 100 to 33 m5ec. Position vector ■ (ob jl), V (o
b j2) is the position vector of the origin of the symmetrical coordinate system of the display target as seen from the viewpoint.

この位置ベクトルの長さ、すなわち距離は簡単に求める
ことができる。
The length of this position vector, that is, the distance, can be easily determined.

ここで、モデリングの階層の選択法を第1図に示した場
合のように、該距離で決めることとする。
Here, the method of selecting the modeling hierarchy is determined by the distance, as in the case shown in FIG.

視点がO(e) R(0)の位置にあるとき、表示対象
objl、obj2のモデルはV(objl)(0)、
V (ob j2)(0)の長さによってそれぞれ第6
図(c)、  (d)に示した表示対象が選択され、ス
クリーンS1にh−objl−R(0) 、  h −
ob j2−R(0)のように投影される。
When the viewpoint is at the position O(e) R(0), the models of display targets objl and obj2 are V(objl)(0),
V (ob j2) (0) depending on the length of the sixth
The display targets shown in Figures (c) and (d) are selected, and h-objl-R(0), h- are displayed on screen S1.
It is projected as ob j2-R(0).

この実施例では、視点を眼球の視点としている。In this embodiment, the viewpoint is that of the eyeball.

該視点位置は瞳孔の中心位置に近いため、瞳孔を2台の
カメラでとらえることができれば、ステレオ画像計測な
どにより、表示基準座標系でこの位置を求めることが容
易である。なお、瞳孔の効率的な抽出方法については、
本願発明者らによる「画像撮影装置」 (特願平1−1
81387)。
Since the viewpoint position is close to the center position of the pupil, if the pupil can be captured by two cameras, it is easy to find this position in the display reference coordinate system by stereo image measurement or the like. For an efficient method of extracting pupils, please refer to
“Image photographing device” by the inventors of the present application (Patent application No. 1-1
81387).

瞳孔の位置計測については「視線検出方式」 (特願平
1−296900)を用いることによって可能となる。
The position of the pupil can be measured by using the "line of sight detection method" (Japanese Patent Application No. 1-296900).

次に、視点の動きを予測した表示について説明する。眼
球の回転運動は視力と密接な関係にある。
Next, a display that predicts the movement of the viewpoint will be described. The rotational movement of the eyeballs is closely related to visual acuity.

頭部が固定された状態で視標がゆっくり動くとき、視線
は視標の動きに連動して同じ方向に滑らかに動く。逆に
固定された視標を注視しながら頭部を動かすと視線は逆
の方向に滑らかに動く。このように、視線が滑らかに動
くとき、人の視力は停止した視標を観察した場合と大き
な変化はない。また、このとき、表示基準座標系で見た
瞳孔の動きも滑らかである。したがって、瞳孔の位置、
速度などの軌跡から瞳孔の次の動きを予測することは可
能である。そこで、そのような予測された瞳孔の位置を
視点として表示対象の透視画像を予め生成しておくこと
により、瞳孔の動きに同期して、すなわち遅れ時間なし
で表示が可能である。
When the target moves slowly with the head fixed, the line of sight moves smoothly in the same direction in conjunction with the movement of the target. Conversely, if you move your head while gazing at a fixed visual target, your line of sight will move smoothly in the opposite direction. In this way, when the line of sight moves smoothly, the visual acuity of a person does not change much compared to when observing a stationary optotype. Furthermore, at this time, the movement of the pupil as seen in the display reference coordinate system is also smooth. Therefore, the position of the pupil,
It is possible to predict the next movement of the pupil from the trajectory such as velocity. Therefore, by generating in advance a perspective image to be displayed using such a predicted pupil position as a viewpoint, it is possible to display the image in synchronization with the movement of the pupil, that is, without any delay time.

9 第12図において、O(e) R(−2) 、  0(
e)R(−1)、O(e)R(−〇)は滑らかに変化す
る瞳孔の位置である。この位置データから次の画像が表
示される前記100〜33m5eC後の視点の位置0 
(e) R(+1)を予測することは可能である。第1
2図では、視点は時間とともにスクリーンに、すなわち
、表示対象に近づいており、したがって、V(objl
)(+1)。
9 In Figure 12, O(e) R(-2), 0(
e)R(-1) and O(e)R(-0) are the positions of the pupils that change smoothly. From this position data, the viewpoint position 0 after 100 to 33 m5eC where the next image is displayed
(e) It is possible to predict R(+1). 1st
In Figure 2, the viewpoint approaches the screen, i.e., the display object, with time, and therefore V(objl
)(+1).

V (ob j2)(+1)の長さは短くなっている。The length of V (ob j2) (+1) is shorter.

したがって、モデルの階層は表示対象objlについて
は第8図(b)が選択され、表示対象obj2について
は第8図(C)が選択される。したがって、O(e) 
R(+1)から見たスクリーンS1への透視投影画像と
して、第12図に示すようなh−ob j 1−R(+
1) 、  h−ob j2R(+1)が準備される。
Therefore, as for the model hierarchy, FIG. 8(b) is selected for the display target objl, and FIG. 8(C) is selected for the display target obj2. Therefore, O(e)
As a perspective projection image onto the screen S1 seen from R(+1), h-ob j 1-R(+
1), h-ob j2R(+1) is prepared.

この画像はh−objl−R(0) 、  h−ob 
j2−R(0)に比べ1つ階層が上かった分だけ精細に
なっている。この画像は100〜30m5ec後に提示
されるため、観測者には表示遅れによる違和感が生じな
い。
This image is h-objl-R(0), h-ob
Compared to j2-R(0), it is more detailed because it is one layer higher. Since this image is presented after 100 to 30 m5ec, the observer does not feel any discomfort due to the display delay.

0 ここで、観測者の興味ある対象が変化し、視線や顔が急
に動いた場合、瞳孔の予測位置は異なるため、この方法
は一見不合理と感じられる。しかし、以下のような理由
により、問題はない。すなわち、前述のごとく、視力は
視線の動きと密接であり、視線が急に変化したとき、人
の視力は低下し、回復するのに200m5ec以上の時
間を必要とする。したがって、仮に予測した視点が間違
っている場合でも、生成され表示された画像について観
測者の視力が大きく低下しているため違和感は生じない
。視力が回復するまでに、正しい瞳孔位置を計測し、そ
の点からの透視投影画像を生成して表示すればよい。
0 Here, if the object of interest of the observer changes and the line of sight or face suddenly moves, the predicted position of the pupil will change, so this method seems unreasonable at first glance. However, there is no problem for the following reasons. That is, as mentioned above, visual acuity is closely related to the movement of the line of sight, and when the line of sight suddenly changes, a person's visual acuity deteriorates and requires more than 200 m5ec to recover. Therefore, even if the predicted viewpoint is incorrect, the observer's visual acuity will be significantly reduced with respect to the generated and displayed image, so the viewer will not feel any discomfort. It is sufficient to measure the correct pupil position and generate and display a perspective projection image from that point until vision recovers.

なお、この実施例では、2つの画像は眼球の動きに追従
してリアルタイムで生成される。したがって、観察者は
頭部を動かし、表示対象objを上下、左右様々な方向
から見ることができる。また、2つの画像は視差情報を
もっているので、この対象を立体的に知覚することがで
きる。
Note that in this embodiment, the two images are generated in real time following the movement of the eyeballs. Therefore, the viewer can move his head and view the display object obj from various directions, up, down, right and left. Furthermore, since the two images have parallax information, the object can be perceived three-dimensionally.

また、この実施例では、生成した画像を表示するために
、両眼立体視表示装置を用いることができる。この装置
の具体例については、本願発明者らによる「立体表示装
置」 (特願平2−18051)など゛が可能である。
Additionally, in this embodiment, a binocular stereoscopic display device can be used to display the generated images. A specific example of this device is a ``stereoscopic display device'' (Japanese Patent Application No. 2-18051) by the inventors of the present invention.

この装置の構成は、表示面にレンチキュラーレンズと称
される蒲鉾状レンズシートを設け、その各レンズの背面
には焦点を挟んで両側に右目用の画素、左目用の画素を
配置したものである。すなわち、2つの画素は1組とし
て1つの蒲鉾レンズに対向して配置される。2つの画素
から出る光はそのレンズにより空間的に分離され、観測
者の左右の目に別々に入射する。
The configuration of this device is that a semicircular lens sheet called a lenticular lens is provided on the display surface, and on the back of each lens, pixels for the right eye and pixels for the left eye are arranged on both sides of the focal point. . That is, the two pixels are arranged as a set to face one kamaboko lens. The light emitted from the two pixels is spatially separated by the lens and separately enters the observer's left and right eyes.

このようにして、特別な装置を装着することなく立体視
が可能となる。
In this way, stereoscopic viewing becomes possible without having to wear any special equipment.

第13図は第12図に示した実施例を具体化するための
ブロック図である。この実施例は、第12図に示した原
理に基づいて、視点の動きに同期して画像を生成して表
示する。このために、この実施例は、前述の第10図に
示した実施例に比べて新たに予測視点検出手段11と、
視点の動きのデータベース1−2と、対象座標系原点と
予測視点との距離計算手段33と、1画面光における対
象の構成点/構成面生成手段41と、1画面光の表示時
刻における2次投影画面を生成する透視投影変換手段5
1とが設けられる。予測視点検出手段11は視点検出手
段10の検出出力に応じて、視点の振る舞いに関するデ
ータベース12を参照しながら、次の画像表示時刻にお
ける視点、すなわち瞳孔の位置を推定する。対象座標系
原点と予測視点との距離計算手段33は対象座標系原点
の位置とその予測された視点との間の距離を計算する。
FIG. 13 is a block diagram for embodying the embodiment shown in FIG. 12. This embodiment generates and displays images in synchronization with the movement of the viewpoint based on the principle shown in FIG. For this reason, this embodiment newly includes predictive viewpoint detection means 11 compared to the embodiment shown in FIG.
A database 1-2 of viewpoint movement, a distance calculating means 33 between the origin of the target coordinate system and the predicted viewpoint, a means 41 for generating component points/component planes of the object in one screen light, and a secondary distance calculation means 41 at the display time of one screen light. Perspective projection conversion means 5 for generating a projection screen
1 is provided. The predicted viewpoint detection means 11 estimates the viewpoint, that is, the position of the pupil at the next image display time, according to the detection output of the viewpoint detection means 10, while referring to the database 12 regarding viewpoint behavior. The distance calculation means 33 between the origin of the target coordinate system and the predicted viewpoint calculates the distance between the position of the origin of the target coordinate system and the predicted viewpoint.

構成点/構成面生成手段41は生成手段40と同様にし
て、対象座標系設定手段20によって指定される対象座
標系の位置に3次元モデルを生成する。そして、生成手
段41は距離計算手段33によって予測された距離と基
準値Thを比較しながら、3次元階層化データベース8
0から適当な階層の構成面データを取り込み、次の画面
の表示時刻における3次元モデルを生成する。透視投影
変換手段51は次の画面の表示時刻における2次元投影
画面を生成する。それ以外の動作は前述の第3 5図と同じであるため説明を省略する。
The constituent point/constituent plane generating means 41 generates a three-dimensional model at the position of the target coordinate system specified by the target coordinate system setting means 20 in the same manner as the generating means 40 . Then, the generating means 41 compares the distance predicted by the distance calculating means 33 with the reference value Th, and generates a three-dimensional hierarchical database 8.
The constituent surface data of an appropriate hierarchy is taken in from 0, and a three-dimensional model at the display time of the next screen is generated. The perspective projection conversion means 51 generates a two-dimensional projection screen at the display time of the next screen. The other operations are the same as those shown in FIG. 35 described above, so the explanation will be omitted.

第14図はこの発明の応用例を示す図である。FIG. 14 is a diagram showing an example of application of the present invention.

この第14図に示した例は、コンピュータグラフィック
ス画像を臨場感豊かに観測できるようにしたものである
。視点は瞳孔または虹彩の中心位置に対応している。こ
の視点または視線は図示しない視線検出装置によって視
点検出1が行われるとともに、図示しない検出装置によ
って手の位置および形状の検出2が行われる。これらの
データは意図理解処理部3に与えられて解析され、観測
者の注視している対象および次に行なおうとしている作
業などが推定される。この情報を基にして、3次元形状
データベース4を参照しつつ3次元モデル世界6の更新
5が行なわれ、3次元モデル世界6が高速で生成され、
実時間立体コンピュータグラフィックスによって画像生
成7が行なわれ、スクリーン8に投影変換され、実時間
でスクリーンに表示される。
The example shown in FIG. 14 allows a computer graphics image to be observed with a rich sense of realism. The viewpoint corresponds to the center position of the pupil or iris. A viewpoint detection device (not shown) performs viewpoint detection 1 on this viewpoint or line of sight, and a detection device (not shown) performs detection 2 of the position and shape of the hand. These data are given to the intention understanding processing unit 3 and analyzed, and the object that the observer is gazing at and the task that the observer is about to perform next are estimated. Based on this information, the 3D model world 6 is updated 5 while referring to the 3D shape database 4, and the 3D model world 6 is generated at high speed.
Image generation 7 is performed using real-time stereoscopic computer graphics, projected onto a screen 8, and displayed on the screen in real time.

[発明の効果] 以上のように、この発明によれば、表示基準座4 標系の原点または視点から遠くにある物体について計算
量を大幅に減らすことができる。逆に、この余った時間
で近くにある物体について細かい部分まで精細に計算で
きる。これらにより、高速で品質の高い画像生成表示が
可能となる。また、この発明は背景が複雑になるほど効
果的である。
[Effects of the Invention] As described above, according to the present invention, the amount of calculation can be significantly reduced for objects that are far from the origin or viewpoint of the display reference coordinate system. Conversely, this extra time can be used to calculate the details of nearby objects. These enable high-speed, high-quality image generation and display. Furthermore, this invention is more effective as the background becomes more complex.

例として、会議室をコンピュータグラフィックスで生成
し、その会議室の中に人物像を生成する臨場感会議など
への利用では、複雑になる背景を粗くモデル化するため
、数100倍の高速化が期待できる。しかも、瞳孔を視
点とし、この動きを予測した表示により、眼球の動きに
同期した画像が生成されるため、画像表示の遅れによる
違和感が少なく、画像との一体感が向上した質の高い連
動親コンピュータグラフィックス画像表示が可能となる
。さらに、両眼立体視コンピュータグラフィックスにつ
いても高速・高品質な表示が可能となる。さらに、この
発明によれば、臨場感豊かな知的符号化通信のコンピュ
ータグラフィックス処理部分、立体視コンピュータグラ
フィックスに特に利用効果が大きい。その他高速性と高
品質性を要求される多くのコンピュータグラフィックス
分野に利用可能である。
For example, in applications such as immersive conferences where a conference room is generated using computer graphics and images of people are generated inside the conference room, the speed is increased several hundred times because the complex background is roughly modeled. can be expected. Moreover, the display uses the pupil as a viewpoint and predicts this movement to generate an image that is synchronized with the movement of the eyeballs, so there is less discomfort due to delays in image display, and a high-quality interlocking display that improves the sense of unity with the image. Computer graphics image display becomes possible. Furthermore, it becomes possible to display binocular stereoscopic computer graphics at high speed and with high quality. Further, according to the present invention, the application effect is particularly great for the computer graphics processing portion of intelligent encoded communication with a rich sense of reality, and stereoscopic computer graphics. It can also be used in many other computer graphics fields that require high speed and high quality.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の詳細な説明するための図である。第
2図は第1図に示した表示対象の階層的なモデリングを
示す図である。第3図は表示座標系の原点0 (w)か
らの対象座標系原点までの距離を1つのパラメータとし
て階層を適応的に選択して表示した例を示す図である。 第4図は表示対象が大きく複数の構造物の組合わせで形
成されていて、各部分構造物に個別の対象座標系を設定
できる例を示す図である。第5図はこの発明の一実施例
の概略ブロック図である。第6図は第5図に示した実施
例の動作を説明するためのフロー図である。第7図は対
象座標系において原点以外の点の距離をパラメータとし
て用いる他の例を示す図である。第8図は階層的にモデ
リングされた表示対象を示す図である。第9図は2次お
よび3次のBezier曲面を示す図である。第10図
はこの発明の他の実施例を示す概略ブロック図である。 第11図は第10図に示した実施例の動作を説明するた
めのフロー図である。第12図はこの発明の他の例を示
す図である。第13図は第12図に示した例を実現する
ためのブロック図である。第14図はこの発明の応用例
を示す図である。第15図は従来の代表的な3次元画像
生成表示方法を示す図である。第16図は第15図に示
した座標系をY(w)軸上から見た図である。第17図
は第15図に示した座標系をY (e)軸上でかつZ(
e)軸方向に見たものである。第18図は第17図に示
した表示対象を示す図である。 図において、objlは表示基準座標系で既知な表示対
象、Pi  (obj)は対象座標系で示された表示対
象の構造点、Slはスクリーン、hobjは透視投影画
像、O(e)は視点、epはスクリーン注視点、eOは
空間注視点、Thは階層選択基準を示す。
FIG. 1 is a diagram for explaining the invention in detail. FIG. 2 is a diagram showing hierarchical modeling of the display object shown in FIG. FIG. 3 is a diagram showing an example in which a hierarchy is adaptively selected and displayed using the distance from the origin 0 (w) of the display coordinate system to the origin of the target coordinate system as one parameter. FIG. 4 is a diagram showing an example in which the display target is formed by a combination of a plurality of large structures, and an individual target coordinate system can be set for each partial structure. FIG. 5 is a schematic block diagram of one embodiment of the present invention. FIG. 6 is a flow diagram for explaining the operation of the embodiment shown in FIG. FIG. 7 is a diagram showing another example in which the distance of a point other than the origin in the target coordinate system is used as a parameter. FIG. 8 is a diagram showing hierarchically modeled display objects. FIG. 9 is a diagram showing quadratic and cubic Bezier curved surfaces. FIG. 10 is a schematic block diagram showing another embodiment of the invention. FIG. 11 is a flow diagram for explaining the operation of the embodiment shown in FIG. 10. FIG. 12 is a diagram showing another example of the present invention. FIG. 13 is a block diagram for implementing the example shown in FIG. 12. FIG. 14 is a diagram showing an example of application of the present invention. FIG. 15 is a diagram showing a typical conventional three-dimensional image generation and display method. FIG. 16 is a diagram of the coordinate system shown in FIG. 15 viewed from the Y(w) axis. Figure 17 shows the coordinate system shown in Figure 15 on the Y (e) axis and on the Z (
e) Viewed in the axial direction. FIG. 18 is a diagram showing the display target shown in FIG. 17. In the figure, objl is a display target known in the display reference coordinate system, Pi (obj) is a structural point of the display target indicated in the target coordinate system, Sl is a screen, hobj is a perspective projection image, O(e) is a viewpoint, ep represents the screen gaze point, eO represents the spatial gaze point, and Th represents the hierarchy selection criterion.

Claims (4)

【特許請求の範囲】[Claims] (1)立体構造をもつ対象を2次元画面に投影して表示
する高速画像生成表示方法であって、前記対象の構成面
は、対象座標系において、領域の大きさを少なくとも1
つの要素として階層的に記述され、 任意の視点から見たときの該対象の構成面を前記2次元
画面へ投影するに際して、表示基準座標系原点または視
点から前記対象座標系で表わされる該対象の任意の点ま
での距離を少なくとも1つのパラメータとして階層度を
設定することを特徴とする、高速画像生成表示方法。
(1) A high-speed image generation and display method for projecting and displaying an object having a three-dimensional structure on a two-dimensional screen, wherein the constituent plane of the object has an area size of at least 1 in the object coordinate system.
When projecting the constituent surfaces of the object when viewed from an arbitrary viewpoint onto the two-dimensional screen, the object expressed in the object coordinate system from the display reference coordinate system origin or viewpoint is A high-speed image generation and display method, characterized in that a hierarchy level is set using a distance to an arbitrary point as at least one parameter.
(2)前記任意の視点は観測者の瞳孔または虹彩であっ
て、 前記視点から前記対象の任意の点までの距離を少なくと
も1つのパラメータとして前記階層度を設定することを
特徴とする、請求項第1項記載の高速画像生成表示方法
(2) The arbitrary viewpoint is a pupil or an iris of the observer, and the hierarchical level is set using a distance from the viewpoint to an arbitrary point on the object as at least one parameter. 2. The high-speed image generation and display method according to item 1.
(3)さらに、視点の軌跡から先の画像表示時刻におけ
る視点の位置を予測し、該予測視点から見たときの投影
画像を予め生成し、準備することを特徴とする、請求項
第1項または第2項記載の高速画像生成表示方法。
(3) Further, the position of the viewpoint at a future image display time is predicted based on the trajectory of the viewpoint, and a projected image viewed from the predicted viewpoint is generated and prepared in advance. Alternatively, the high-speed image generation and display method according to item 2.
(4)前記瞳孔または虹彩の位置は前記表示基準座標系
で表わされ、前記対象の位置は対象座標系の原点で近似
され、該原点が前記表示基準座標系で表わされ、 前記瞳孔または虹彩の位置から前記対象座標系原点まで
の距離が前記表示基準座標系で表わされることを特徴と
する、請求項第2項記載の高速画像生成表示方法。
(4) the position of the pupil or iris is represented in the display reference coordinate system, the position of the object is approximated by the origin of the object coordinate system, the origin is represented in the display reference coordinate system, and the pupil or 3. The high-speed image generation and display method according to claim 2, wherein the distance from the position of the iris to the origin of the object coordinate system is expressed in the display reference coordinate system.
JP2098948A 1990-04-13 1990-04-13 High-speed image generation and display method Expired - Lifetime JPH0831140B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2098948A JPH0831140B2 (en) 1990-04-13 1990-04-13 High-speed image generation and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2098948A JPH0831140B2 (en) 1990-04-13 1990-04-13 High-speed image generation and display method

Publications (2)

Publication Number Publication Date
JPH03296176A true JPH03296176A (en) 1991-12-26
JPH0831140B2 JPH0831140B2 (en) 1996-03-27

Family

ID=14233325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2098948A Expired - Lifetime JPH0831140B2 (en) 1990-04-13 1990-04-13 High-speed image generation and display method

Country Status (1)

Country Link
JP (1) JPH0831140B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0737119A (en) * 1993-07-19 1995-02-07 Nec Corp Graphic display method for molecule information
WO1996027168A1 (en) * 1995-02-28 1996-09-06 Hitachi, Ltd. Data processor and shading device
WO1996034364A1 (en) * 1995-04-27 1996-10-31 Sega Enterprises Ltd. Image processor, image processing method, game apparatus using them, and memory medium
JP2003303351A (en) * 2003-02-12 2003-10-24 Fujitsu Ltd Three-dimensional image display method and three- dimensional image display device for use in the same
JP2011070387A (en) * 2009-09-25 2011-04-07 Mitsubishi Electric Corp Three-dimensional shape display device and program
JP2017018245A (en) * 2015-07-09 2017-01-26 株式会社スクウェア・エニックス Video game processing program and video game processing device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10295826B2 (en) 2013-02-19 2019-05-21 Mirama Service Inc. Shape recognition device, shape recognition program, and shape recognition method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01205277A (en) * 1987-10-09 1989-08-17 Hitachi Ltd Computer graphic display device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01205277A (en) * 1987-10-09 1989-08-17 Hitachi Ltd Computer graphic display device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0737119A (en) * 1993-07-19 1995-02-07 Nec Corp Graphic display method for molecule information
WO1996027168A1 (en) * 1995-02-28 1996-09-06 Hitachi, Ltd. Data processor and shading device
WO1996034364A1 (en) * 1995-04-27 1996-10-31 Sega Enterprises Ltd. Image processor, image processing method, game apparatus using them, and memory medium
US6542155B1 (en) 1995-04-27 2003-04-01 Kabushiki Kaisha Sega Enterprises Picture processing device, picture processing method, and game device and storage medium using the same
KR100372852B1 (en) * 1995-04-27 2003-04-10 가부시키가이샤 세가 Image processing apparatus, image processing method, game apparatus using same, and storage medium
US6603479B1 (en) 1995-04-27 2003-08-05 Kabushiki Kaisha Sega Enterprises Picture processing device, picture processing method, and game device and storage medium using the same
US7199794B2 (en) 1995-04-27 2007-04-03 Kabushiki Kaisha Sega Enterprises Picture processing device, picture processing method, and game device and storage medium using the same
JP2003303351A (en) * 2003-02-12 2003-10-24 Fujitsu Ltd Three-dimensional image display method and three- dimensional image display device for use in the same
JP2011070387A (en) * 2009-09-25 2011-04-07 Mitsubishi Electric Corp Three-dimensional shape display device and program
JP2017018245A (en) * 2015-07-09 2017-01-26 株式会社スクウェア・エニックス Video game processing program and video game processing device

Also Published As

Publication number Publication date
JPH0831140B2 (en) 1996-03-27

Similar Documents

Publication Publication Date Title
US11361513B2 (en) Head-mounted display with pass-through imaging
EP3727622B1 (en) Caching and updating of dense 3d reconstruction data
JP7096450B2 (en) Mixed reality system with color virtual content warping and how to use it to generate virtual content
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
KR100294925B1 (en) 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor
CN103472909B (en) Realistic occlusion for a head mounted augmented reality display
JP4555722B2 (en) 3D image generator
KR100953931B1 (en) System for constructing mixed reality and Method thereof
JP2004537082A (en) Real-time virtual viewpoint in virtual reality environment
CN112513712A (en) Mixed reality system with virtual content warping and method for generating virtual content using the same
CN108885342A (en) Wide Baseline Stereo for low latency rendering
JPH0974573A (en) Stereoscopic cg image generator
JP5833526B2 (en) Video communication system and video communication method
CN105432078A (en) Real-time registration of a stereo depth camera array
US6501468B1 (en) Stereoscopic display device and recording media recorded program for image processing of the display device
CN114998559A (en) Real-time remote rendering method for mixed reality binocular stereoscopic vision image
KR20180127886A (en) Virtual reality image providing device, method and program for adjusting virtual space size to provide stereopsis
JPH03296176A (en) High-speed picture generating/displaying method
Ogi et al. Usage of video avatar technology for immersive communication
JP2001222723A (en) Method and device for generating stereoscopic image
RU2695053C1 (en) Method and device for control of three-dimensional objects in virtual space
JPH07101461B2 (en) Eye-tracking high-speed image generation and display method
WO2020036114A1 (en) Image processing device, image processing method, and program
JP2020031413A (en) Display device, mobile body, mobile body control system, manufacturing method for them, and image display method
JP2019197368A (en) Stereoscopic motion image depth compression device and stereoscopic motion image depth compression program

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080327

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090327

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100327

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100327

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110327

Year of fee payment: 15

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110327

Year of fee payment: 15