JPH0415772A - Visual line following type high speed image generation/ display method - Google Patents

Visual line following type high speed image generation/ display method

Info

Publication number
JPH0415772A
JPH0415772A JP11599690A JP11599690A JPH0415772A JP H0415772 A JPH0415772 A JP H0415772A JP 11599690 A JP11599690 A JP 11599690A JP 11599690 A JP11599690 A JP 11599690A JP H0415772 A JPH0415772 A JP H0415772A
Authority
JP
Japan
Prior art keywords
point
line
sight
display
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11599690A
Other languages
Japanese (ja)
Other versions
JPH07101461B2 (en
Inventor
Akira Tomono
明 伴野
Haruo Takemura
竹村 治雄
Satoshi Ishibashi
聡 石橋
Kenji Akiyama
秋山 健二
Shinji Tetsuya
信二 鉄谷
Hiroyuki Yamaguchi
博幸 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A T R TSUSHIN SYST KENKYUSHO KK
Nippon Telegraph and Telephone Corp
Original Assignee
A T R TSUSHIN SYST KENKYUSHO KK
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A T R TSUSHIN SYST KENKYUSHO KK, Nippon Telegraph and Telephone Corp filed Critical A T R TSUSHIN SYST KENKYUSHO KK
Priority to JP11599690A priority Critical patent/JPH07101461B2/en
Publication of JPH0415772A publication Critical patent/JPH0415772A/en
Publication of JPH07101461B2 publication Critical patent/JPH07101461B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To reduce the calculation quantity and to generate and display the images of high quality at a high speed by producing a difference of modelling hierarchies between the vicinity and the periphery of a gazed subject. CONSTITUTION:The balls having the prescribed radii STh1 and STh2 are supposed around the spatial gazed point positions eo1 and eo2. A model having the finer hierarchy by one stage s used at the inside of the STh1, and a model having a hierarchy more rough by one stage is used at the outside of the STh2 respectively. In other words, the inside of the STh1 is changed to a model (a) with a subject obj1, and the inside of a deformed STh1 is changed to a model (b) with a subject obj2 respectively. Thus the subject is modelled relatively fine and rough at the points close to and far from 0(w) respectively. Meanwhile the subject is modelled relatively fine and rough at the vicinity and the periphery of a space gazing point eo(w) respectively. As a result, the calculation quantity is reduced.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は視線追従形高速画像生成表示方法に関し、た
とえばコンピュータグラフィックスのように高速で臨場
感のある画像をスクリーン上に表示するような視線追従
形高速画像生成表示方法に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a line-of-sight tracking type high-speed image generation and display method. This invention relates to a follow-up high-speed image generation and display method.

[従来の技術] 3次元画像をコンピュータによって生成して表示する、
いわゆるコンピュータグラフィックスの技術は、科学技
術計算のシミュレーションを始めとして様々な分野に利
用されつつあるが、高精度化、すなわち、画像の高品質
化と高速化は相反する条件にあり、同時にこれを満たす
技術は現在のところ見当たらない。つまり、品質の高い
画像を生成しようとすると、画像生成のために膨大な計
算時間を必要とし、逆に高速、たとえば毎秒黴10枚の
画像を表示するリアルタイム表示を目的とすると粗い計
算をせさるを得なくなり、生成画像の品質か悪くなる。
[Prior art] Generating and displaying a three-dimensional image by a computer,
So-called computer graphics technology is being used in a variety of fields, including simulations of scientific and technical calculations. Currently, no technology has been found that satisfies this requirement. In other words, if you try to generate a high-quality image, a huge amount of calculation time is required for image generation, and on the other hand, if you aim for high-speed, real-time display such as displaying 10 images per second, it will require rough calculations. The quality of the generated images will be poor.

一方、コンピュータグラフィックスの適用分野は、知的
符号化通信と呼ばれる画像通信の分野にも広がりつつあ
る。この方法では、送信側は画像認識により、送信対象
の3次元構造情報を抽出し、その特徴をパラメータ化し
て伝送する。受信側では、予め3次元構造情報(データ
ベース)を用意しておき、伝送されてくる特徴パラメー
タに基づいて、該3次元データベースを高速に変換して
表示する。これらの通信方法では、受信側は送信側の3
次元構造情報を基にして、任意の視点からの画像を自在
に生成して表示することかできるため、以下のような多
くの利点をもつ。
On the other hand, the field of application of computer graphics is also expanding to the field of image communication called intelligent coded communication. In this method, the transmitting side uses image recognition to extract three-dimensional structural information of the transmission target, parameterizes its characteristics, and transmits the information. On the receiving side, three-dimensional structure information (database) is prepared in advance, and the three-dimensional database is converted and displayed at high speed based on the transmitted feature parameters. In these communication methods, the receiving side communicates with the sender's 3
Since it is possible to freely generate and display images from any viewpoint based on dimensional structure information, it has many advantages such as the following.

■ 受信者の視点の動きを検出し、この動きに応した画
像を表示することにより、運動視が実現できる。ここで
、運動視とは、頭を動かした際に眼球の網膜上に映る画
像の変化から空間を知覚する人の潜在能力のことであり
、日常、前後関係が分かりにくい視覚状況下で頭を動か
して認識を高めようとすることはよく経験することであ
る。すなわち、運動視をコンピュータグラフィックスに
より人工的に実現することにより、スクリーン上の画像
の立体感が向上することが期待され、臨場感豊かな表示
が可能となる。
■ Motion vision can be realized by detecting the movement of the recipient's viewpoint and displaying an image that corresponds to this movement. Here, kinesthetic vision refers to a person's potential ability to perceive space from changes in the image reflected on the retina of the eyeball when moving the head. Trying to raise awareness through movement is a common experience. That is, by artificially realizing motion vision using computer graphics, it is expected that the three-dimensional effect of images on the screen will be improved, making it possible to display images with a rich sense of realism.

■ 受信者の両眼を2つの視点として、それぞれの視点
からの画像を生成して表示することにより、両眼立体視
を実現できる。人の両目は約6cmの距離を隔てて位置
するため、頭を動かさなくとも、冬目の網膜には別々な
像が投影される。この異なった2つの像の対応関係は視
差情報と呼ばれ、人はこれを利用して空間の立体感覚を
得ている。この視差情報をもつ画像をコンピュータグラ
フィックスで実現することにより、スクリーン上の画像
の立体感がさらに向上する。
■ Binocular stereopsis can be achieved by using the receiver's eyes as two viewpoints and generating and displaying images from each viewpoint. Since the human eyes are located approximately 6 cm apart, different images are projected onto the winter eye's retinas even without moving the head. The correspondence between these two different images is called parallax information, and people use this to obtain a three-dimensional sense of space. By creating an image with this parallax information using computer graphics, the three-dimensional effect of the image on the screen is further improved.

■ その他、相手側(送信側)の人と視線を合わせて会
話するような画像も容易に生成できる。
■ In addition, it is also possible to easily generate images that show the person on the other end (sender) having a conversation while making eye contact.

しかし、このような通信方法を実現するには、現状では
いくつかの困難がある。第1には、送信側における画像
認識および特徴パラメータの抽出であり、第2には、受
信側での高速でかつ広視野を高解像度で表示する画像生
成表示方法である。
However, there are currently some difficulties in implementing such a communication method. The first is image recognition and feature parameter extraction on the transmitting side, and the second is an image generation and display method on the receiving side that displays a wide field of view at high speed and with high resolution.

通信では、実時間の処理が本質的な命題であり、従来の
コンピュータグラフィックスに比べて高速化への要求は
高い。
In communication, real-time processing is essential, and there is a higher demand for faster processing than in conventional computer graphics.

以下に、高速・高精度表示が困難な理由について詳細に
説明する。
The reason why high-speed, high-precision display is difficult will be explained in detail below.

第21図は従来の代表的な3次元画像生成表示方法を説
明するための図である。第21図において、スクリーン
S1は、このスクリーンS1の中心を原点とする表示基
準座標系X (w) −Y (w)Z(w)で表わされ
る。なお、この座標系は以下の各座標系の位置関係を記
述する機能をもち、スクリーンS1とは異なる別な場所
に設けてもよいものとする。視点座標系X (e) −
Y (e)Z (e)は、表示基準座標系X (w) 
−Y (w)−Z(w)からみて位置と座標軸の回転角
が既知になっている。表示対象物体objは3次元構造
をもち、この対象の構造点Pi(obj)は対象座標系
X (obD −Y (obj)−Z (obj)で表
わされているものとする。
FIG. 21 is a diagram for explaining a typical conventional three-dimensional image generation and display method. In FIG. 21, the screen S1 is represented by a display reference coordinate system X(w)-Y(w)Z(w) having the center of the screen S1 as its origin. Note that this coordinate system has a function of describing the positional relationship of each of the following coordinate systems, and may be provided at a different location from the screen S1. Viewpoint coordinate system X (e) −
Y (e)Z (e) is the display reference coordinate system X (w)
-Y(w)-Z(w) The position and rotation angle of the coordinate axes are known. It is assumed that the display target object obj has a three-dimensional structure, and the structure point Pi(obj) of this target is represented by the target coordinate system X (obD −Y (obj)−Z (obj)).

このような状況において、構造点P1を視点○eから見
たとき、このPi点がスクリーンS1上のどの位置に表
示されるかについて考える。表示基準座標系X (w)
 −Y (w) −Z (w)に対して、対象座標系X
 (ob D −Y (ob D −Z(obj)は既
知としているので、対象座標系X(obD −Y (o
bj)−Z (obDで表わされる構造点Pi(pbj
)は表示基準座標系X(w)’−Y (w)−Z (w
)で、P i  (w) −Ml・Pi(obj)のよ
うに示される。
In such a situation, when the structural point P1 is viewed from the viewpoint ○e, consider where this point Pi is displayed on the screen S1. Display reference coordinate system X (w)
-Y (w) -Z (w), target coordinate system
(ob D -Y (ob D -Z(obj) is known, so the target coordinate system X(obD -Y (o
bj)-Z (structural point Pi(pbj
) is the display reference coordinate system X(w)'-Y (w)-Z (w
) and is expressed as P i (w) −Ml·Pi(obj).

ここで、Mlは移動と回転のための変換マトリックスで
ある。また、視点座標系X (e) −Y(e)−Z 
(e)も表示基準座標系X (w) −Y(W)−Z 
(W)で表わすことかできると仮定しているので、この
変換マトリックスをM2とすると、表示基準座標系X 
(W) −Y (w) −Z (w)からみた構造点P
i(w)は、視点座標系X (e)Y(e)−Z (e
)からみて、 P i  (e)=M2−’ ・P i  (w)=M
1 aM21・Pi(obj) と表わすことができる。このように、表示基準座標系X
 (w) −Y (w) −Z (w)と対象座標系X
 (ob j) −Y (ob j) −Z (ob 
D オヨび表示基準座標系x (w) −Y (w) 
−Z (w)と視点座標系X (e) −Y (e) 
−Z (e)との関係がわかれば、対象座標系で示され
た構造点Pi(obj)は視点座標系で自在に表わすこ
とができる。
Here, Ml is a transformation matrix for translation and rotation. Also, the viewpoint coordinate system X (e) −Y(e) −Z
(e) also displays reference coordinate system X (w) -Y(W)-Z
(W), so if this transformation matrix is M2, then the display reference coordinate system
(W) -Y (w) -Z Structural point P seen from (w)
i(w) is the viewpoint coordinate system X(e)Y(e)-Z(e
), P i (e)=M2-' ・P i (w)=M
It can be expressed as 1 aM21·Pi(obj). In this way, the display reference coordinate system
(w) -Y (w) -Z (w) and target coordinate system X
(ob j) -Y (ob j) -Z (ob
D Head display reference coordinate system x (w) -Y (w)
-Z (w) and viewpoint coordinate system X (e) -Y (e)
-Z (e), the structure point Pi(obj) indicated in the object coordinate system can be freely expressed in the viewpoint coordinate system.

ここで、視点座標系で示された構造点Pi(e)のスク
リーン上の点を求めるために、正規透視座標系と呼ばれ
るX (np) −Y (np) −Z (np)を考
える。この座標系は視点座標系のZ (e)軸上に原点
0(np)があり、視点座標系でノーツチした視野ピラ
ミッドと呼ばれる領域A、  B、  C。
Here, in order to find the point on the screen of the structure point Pi(e) indicated by the viewpoint coordinate system, consider X (np) - Y (np) - Z (np), which is called a regular perspective coordinate system. This coordinate system has its origin 0 (np) on the Z (e) axis of the viewpoint coordinate system, and areas A, B, and C, called visual field pyramids, are notched in the viewpoint coordinate system.

D、 A (−)、  B (oo)、  C(−)、
 D (美)か、−点鎖線で示した直方体A、  B、
  C,D、 A’(oO)、 B’ (−)、 C’
 (oO)、 D’ (−)に一致する対応関係がある
。直方体のZ(np)軸方向は1に正規化しであるもの
とする。すなわち、Z (np)=0点は、Z (e)
軸のhに対応し、Z (np)=1の点はZ (e) 
=美に対応する。
D, A (-), B (oo), C (-),
D (Beautiful) - Rectangular parallelepipeds A, B, indicated by dashed and dotted lines
C, D, A' (oO), B' (-), C'
(oO), there is a correspondence that matches D' (-). It is assumed that the Z (np) axis direction of the rectangular parallelepiped is normalized to 1. That is, the point Z (np) = 0 is Z (e)
Corresponding to axis h, the point Z (np) = 1 is Z (e)
= corresponds to beauty.

この条件で第21図に示す棒状物体objは正規透視座
標系X (np)−Y (np)−Z (np)では−
点鎖線で示すように、Z(np)軸の大きな方では断面
が小さくなる。この視点座標系と正規透視座標系との変
換は4×4のマトリックスM3で示すことができる。し
たがって、P 1 (np)は、 Pi  (np)=M:lPj  (e)で表わすこと
ができる。ここで、Pi(np)をA、  B、  C
,D面に平行投影すると、点線で示すξ1 (S)か得
られる。
Under these conditions, the rod-shaped object obj shown in FIG. 21 is -
As shown by the dotted chain line, the cross section becomes smaller on the larger Z(np) axis. The transformation between this viewpoint coordinate system and the normal perspective coordinate system can be expressed by a 4×4 matrix M3. Therefore, P 1 (np) can be expressed as Pi (np)=M:lPj (e). Here, Pi(np) is A, B, C
, ξ1 (S) shown by the dotted line can be obtained by parallel projection onto the D plane.

第21図では、説明の簡単のため、正規透視座標系X 
(np)−Y (np)−Z (np)は表示基準座標
系X (W) −Y (w) −Z (w)と原点およ
び軸方向が重なっているものとしている。したがって、
視点座標系のZ (e)軸は、表示基準座標系のZ(w
)軸と同一方向である。
In FIG. 21, for ease of explanation, the regular perspective coordinate system
It is assumed that (np)-Y (np)-Z (np) and the display reference coordinate system X (W) -Y (w) -Z (w) overlap in origin and axis direction. therefore,
The Z(e) axis of the viewpoint coordinate system is the Z(w) axis of the display reference coordinate system.
) in the same direction as the axis.

この場合、直方体A、B、C,Dかスクリーンの大きさ
に対応する。したがって、ξ1 (S)がすなわち視点
0 (e)から見たスクリーンへの投影像である。この
ように、構造点Pi(obj)からξi  (s)へは
3つの行列演算と平行投影が必要である。
In this case, the rectangular parallelepipeds A, B, C, and D correspond to the size of the screen. Therefore, ξ1 (S) is the projected image on the screen seen from viewpoint 0 (e). In this way, three matrix operations and parallel projection are required from the structure point Pi(obj) to ξi(s).

次に、視点が表示基準座標系のZ (e)軸からずれる
場合について説明する。第21図において、0’  (
e)は移動した視点位置である。この移動した点を原点
とし、O’  (e) −〇 (w)線をZ(e)軸と
する新しい視点座標系X’  (e)Y’  (e)−
Z’  (e)を考える。表示基準座標系X (w) 
−Y (w) −Z (w)から見た該新視点座標系の
位置を既知とすると、X (e) −Y(e)−Z (
e)からX’  (e)−Y’  (e)−Z’  (
e)への変換はマトリックスM4を介して可能である。
Next, a case where the viewpoint deviates from the Z (e) axis of the display reference coordinate system will be described. In Figure 21, 0' (
e) is the moved viewpoint position. A new viewpoint coordinate system X' (e) Y' (e) - with this moved point as the origin and the O' (e) - 〇 (w) line as the Z (e) axis
Consider Z' (e). Display reference coordinate system X (w)
-Y (w) -Z (w) If the position of the new viewpoint coordinate system is known, then X (e) -Y(e)-Z (
e) to X'(e)-Y'(e)-Z' (
Conversion to e) is possible via matrix M4.

したがって、新視点座標系から見た構造点Piは、Pi
 (e)’ =M4・Pi  (e)=M4・Ml・M
2−1・Pi(obj)で表わされる。
Therefore, the structure point Pi seen from the new viewpoint coordinate system is Pi
(e)'=M4・Pi (e)=M4・Ml・M
It is expressed as 2-1·Pi(obj).

第22図は第21図のY(w)軸上から見た図である。FIG. 22 is a view seen from above the Y(w) axis in FIG. 21.

Pi(e)’ に前述の正規透視投影変換マトリックス
M3をかけると、Pi’  (np)が得られ、これを
平行投影するとξi”  (s)が得られる。ここで、
表示基準座標系から見た新視点座標系X’  (e)−
Y’  (e)−Z’  (e)の位置か既知のため、
ξi” (S)とO’  (e)とを結ぶ線がスクリー
ンと交わる点を求めることは容易である。この点ξi’
  (s)がすなわち、視点O′から見たスクリーンへ
の投影像である。このように、構造点Pi(obj)か
らξi′ (s)へは4つの行列演算と平行投影などが
必要である。
Multiplying Pi(e)' by the normal perspective projection transformation matrix M3 described above yields Pi' (np), and parallel projection of this yields ξi" (s). Here,
New viewpoint coordinate system X' (e) − seen from the display reference coordinate system
Since the position of Y' (e) - Z' (e) is known,
It is easy to find the point where the line connecting ξi'' (S) and O' (e) intersects the screen.This point ξi'
In other words, (s) is an image projected onto the screen as seen from viewpoint O'. In this way, four matrix operations, parallel projection, etc. are required from the structural point Pi (obj) to ξi' (s).

上述のごとく、表示基準座標系X(w)−Y(w)−Z
 (w)において、対象座標系X(obj) −Y (
ob j) −Z (ob j) (7)位置か記述さ
れた表示対象、また対象座標系において各構造点Pi(
obj)の座標が記述された表示対象は、任意の視点か
らスクリーンに透視投影できる。しかし、上述のごとく
、多くの行列演算を表示対象の構成点の全てについて行
なう必要があるため、計算時間が膨大になる。マトリッ
クスの演算はハードウェア化することにより、かなり高
速にはなるが、構成点の数が数1000点以上になると
リアルタイムの処理が難しくなる。また、表示対象の位
置によって無駄な処理か多く行なわれ、処理速度を制限
している。これについて以下に示す。
As mentioned above, the display reference coordinate system X(w)-Y(w)-Z
In (w), the object coordinate system X(obj) −Y (
ob j) −Z (ob j) (7) The display object whose position is described, and each structural point Pi(
The display object for which the coordinates of (obj) are described can be perspectively projected onto the screen from any viewpoint. However, as described above, it is necessary to perform many matrix operations on all constituent points to be displayed, resulting in an enormous amount of calculation time. Matrix calculations can be made considerably faster by using hardware, but real-time processing becomes difficult when the number of constituent points exceeds several thousand. Further, depending on the position of the display object, a lot of unnecessary processing is performed, which limits the processing speed. This is explained below.

第23図は第21図に示した座標系をY (e)軸上で
かつZ (e)軸方向に見たものであり、第24図は第
23図に示した表示対象を示す図である。
Figure 23 shows the coordinate system shown in Figure 21 viewed on the Y (e) axis and in the Z (e) axis direction, and Figure 24 shows the display target shown in Figure 23. be.

第23図において、スクリーンS1は多数の画素giか
らなる。表示対象は、第24図に示すように3次元構造
をもち、構造点Piとその点かつくる構造面Liなどに
よって構成されている。この表示対象が表示基準座標系
において近くにある場合を第23図(A)で示し、遠く
にある場合を第23図(B)で示し、それぞれobjl
、obj2とする。第21図および第22図で説明した
方法により、スクリーンS1には表示対象h−。
In FIG. 23, the screen S1 consists of a large number of pixels gi. The display object has a three-dimensional structure as shown in FIG. 24, and is composed of a structural point Pi and a structural surface Li created by the point. The case where this display target is nearby in the display reference coordinate system is shown in Fig. 23 (A), and the case where it is far away is shown in Fig. 23 (B).
, obj2. By the method described in FIGS. 21 and 22, the display object h- is displayed on the screen S1.

bjl、h−obj2が投影される。各構成点のスクリ
ーン座標上の対応する画素に信号を送り表示することが
できる。obj2は遠方にあるため、h−objlに比
へて各構成点間の距離が小さい。
bjl and h-obj2 are projected. A signal can be sent to the corresponding pixel on the screen coordinates of each component point and displayed. Since obj2 is located far away, the distance between each component point is smaller than that of h-objl.

この間隔が画素間隔よりも十分小さくなれば、その画素
の中にはいるいくつかの構成点を全て計算する必要がな
くなる。また、人の目には視力特性があり、スクリーン
81面においてこの眼の分解能以下の間隔で各構成点を
計算しても意味がない。
If this interval is sufficiently smaller than the pixel interval, there is no need to calculate all the constituent points within that pixel. In addition, the human eye has visual acuity characteristics, and it is meaningless to calculate each component point on the screen 81 at an interval that is less than the resolution of the eye.

既存のアルゴリズムでは、表示対象の位置にかかわらず
、また利用者の視力特性を考慮することなく、対象の全
ての構成点について計算するため、表示速度が遅くなり
、複雑な対象をリアルタイムで表示することが困難とな
る。
Existing algorithms calculate all constituent points of the target regardless of the position of the display target and without considering the user's visual acuity characteristics, resulting in slow display speed and the ability to display complex targets in real time. This becomes difficult.

[発明が解決しようとする課題] 上述の問題は立体視コンピュータグラフィックスを実現
する際に特に問題となる。立体視コンピュータグラフィ
ックスとは、利用者の右目、左目を視点として、3次元
表示対象を見たときのスクリーンへの透視画像を別々に
計算し、これを時分割などにより利用者の左右の冬目に
対応したスクリーンに投影することにより、利用者に立
体的と感じさせる表示を行なう手法である。
[Problems to be Solved by the Invention] The above-mentioned problems are particularly problematic when realizing stereoscopic computer graphics. Stereoscopic computer graphics is a system that uses the user's right and left eyes as viewpoints to separately calculate the perspective images on the screen when looking at a 3D display object, and uses time sharing to calculate the perspective images for the user's left and right eyes. This is a method of creating a display that gives the user a three-dimensional impression by projecting it onto a screen that corresponds to the eyes.

立体視表示では、奥行き間隔か利用者にはっきりと認識
されるため、本来大きな物体(たとえば、ビルディング
など)は太き(、小さな物体(たとえば、虫など)は小
さくモデリングする必要が出てくる。立体視でないコン
ピュータグラフィックスでは、物体を大きくモデリング
しなくても視点の近くに配置することで大きく見せる工
夫が可能である。ところが、立体視では奥行き間隔か視
差情報により与えられるため、小さなものを手前におい
ても、大きな物体とは認識されず、そのとおり小さなも
のが手前にあるように見えてしまう。
In stereoscopic display, the depth interval is clearly recognized by the user, so it becomes necessary to model large objects (such as buildings) as thick (and small objects (such as insects) as small). In non-stereoscopic computer graphics, it is possible to make objects appear larger by placing them close to the viewpoint without having to model them large.However, in stereoscopic viewing, the depth interval or parallax information is given, so it is possible to make small objects appear larger. Even if it is in the foreground, it will not be recognized as a large object, and it will appear as though a small object is in the foreground.

物体を本来の大きさにモデル化すると、大きな物体は、
その物体が視点の近くに来てスクリーン−杯に広がる場
合も想定すると細部に至るまで細かくモデル化する必要
がある。一方、該物体が視点から遠くに離れた場合には
、第23図(B)に示すように、スクリーンの一部分に
その全体が表示されるにもかかわらず、近くにある場合
と同じ計算量を必要とする不合理がある。
When an object is modeled to its original size, a large object becomes
If we assume that the object will come close to the viewpoint and spread out on the screen, it will be necessary to model it down to the smallest detail. On the other hand, when the object is far away from the viewpoint, the same amount of calculation is required as when the object is nearby, even though the entire object is displayed on a part of the screen, as shown in Figure 23 (B). There is an absurdity in requiring it.

以上、高速のコンピュータグラフィックスの必要性につ
いて述べたが、コンピュータグラフィックスがリアルタ
イムであっても、応用によっては不都合がある。臨場感
通信では、仮想的な空間をコンピュータグラフィックス
により人工的に作り、この中に実際に居る感覚で該仮想
空間とは様々な相互作用をすることになる。この際求め
られるのは、単に高速というだけでなく、観測者の動き
に同期してスクリーンの画像を変化する特性である。
The need for high-speed computer graphics has been described above, but even if computer graphics is real-time, there are disadvantages depending on the application. In immersive communication, a virtual space is artificially created using computer graphics, and users can interact with the virtual space in various ways as if they were actually there. What is required here is not just high speed, but also the ability to change the screen image in synchronization with the observer's movements.

しかじ、コンピュータグラフィックスでは画像を生成す
るための時間が必ず残るため、毎秒数10枚の画像を生
成し、表示できても、観測者の動きに対して各画像を生
成する遅れ時間があれば、違和感を生じ、仮想空間との
一体感が得られない。
However, in computer graphics, there is always time left to generate images, so even if it is possible to generate and display several tens of images per second, there is a delay in generating each image relative to the movement of the observer. If this happens, the user may feel uncomfortable and cannot feel a sense of unity with the virtual space.

さらに、人の視力特性は、後述するように注視点近傍で
は高いが、その周辺では大きく低下する。
Furthermore, as will be described later, human visual acuity is high near the point of gaze, but significantly deteriorates around it.

これは、眼球の光軸から外れた網膜部分では焦点が合わ
ないという眼本来の性質がその1つの理由である。した
がって、人工的に画像を生成表示する場合には、網膜に
写る画像が実空間を見たときに近くなるように、スクリ
ーン画像を生成する必要かある。つまり、臨場感表示の
観点からはスクリーン全体を一様のアルゴリズムで高精
細に表示するのは必ずしも適切でない。
One of the reasons for this is the inherent property of the eye that the retina cannot be focused in areas that are off the optical axis of the eyeball. Therefore, when artificially generating and displaying an image, it is necessary to generate a screen image so that the image reflected on the retina is close to the image viewed in real space. In other words, from the perspective of realistic display, it is not necessarily appropriate to display the entire screen in high definition using a uniform algorithm.

それゆえに、この発明の主たる目的は、知的符号化通信
や立体視コンピュータグラフィックスに必要なリアルタ
イムで精度の高いコンピュータグラフィックス表示を、
計算量を大幅に少なくすることにより実現し得る視線追
従形高速画像生成表示方法を提供することである。
Therefore, the main purpose of this invention is to provide real-time and highly accurate computer graphics display necessary for intelligent encoded communication and stereoscopic computer graphics.
An object of the present invention is to provide a line-of-sight tracking high-speed image generation and display method that can be realized by significantly reducing the amount of calculation.

この発明の他の目的は、連動親を実現するコンピュータ
グラフィックスなどにおいて、画像を生成してから表示
するまでの時間遅れを少なくし、違和感のない自然な表
示を実現し得る視線追従形高速画像生成表示方法を提供
することである。
Another object of the present invention is to reduce the time delay between image generation and display in computer graphics that realizes linked parents, and to realize a high-speed eye-tracking type image that can realize a natural display without any discomfort. It is an object of the present invention to provide a generation and display method.

さらに、この発明のさらに他の目的は、網膜に写る画像
か実空間を見たときに近くなるように、スクリーン画像
を生成することにより、実空間を見たときと同じような
感覚の画像を実現し得る視線追従形高速画像生成表示方
法を提供することである。
Still another object of the present invention is to generate an image that gives the same feeling as when viewing real space by generating a screen image so that the image reflected on the retina is similar to the image when viewing real space. An object of the present invention is to provide an eye-tracking high-speed image generation and display method that can be realized.

[課題を解決するための手段] 第1請求項に係る発明は、立体構造を持つ対象を二次元
画面に投影して表示する視線追従形高速画像生成表示方
法であって、対象の構成面は対象座標系でかつ領域の大
きさを少なくとも1つの要素として階層的に記述され、
任意の視点から見たときの対象の構成面の二次元画面へ
の投影に際して、利用者の視線、または視線が二次元画
面と交わる注視点を検出し、視線または二次元画面の注
視点と視線とを結ぶ線分が表示座標系において対象の構
成面と最初に交差する点を空間注視点とし、その空間注
視点またはその点の近傍にあり、表示対象の表現に必要
な特徴点からの距離を少なくとも1つのパラメータとす
る空間ごとに階層度を選択するように構成したものであ
る。
[Means for Solving the Problem] The invention according to the first claim is a line-of-sight-following high-speed image generation and display method for projecting and displaying an object having a three-dimensional structure on a two-dimensional screen, wherein the constituent plane of the object is hierarchically described in the target coordinate system and with the size of the area as at least one element,
When projecting the constituent surface of the target when viewed from an arbitrary viewpoint onto a two-dimensional screen, the user's line of sight or the point of gaze where the line of sight intersects with the two-dimensional screen is detected, and the line of sight or the point of gaze of the two-dimensional screen and the line of sight are detected. The point at which the line segment connecting the first intersects the constituent surface of the object in the display coordinate system is the spatial point of interest, and the distance from the spatial point of interest or a feature point near that point that is necessary to express the display object. The hierarchical level is selected for each space with at least one parameter.

第5請求項に係る発明は、立体構造を持つ対象を二次元
画面に投影して表示する視線追従形高速画像生成表示方
法であって、対象の構成面は対象座標系でかつ領域の大
きさを少なくとも1つの要素として階層的に記述され、
任意の視点から見たときの対象構成面の二次元画面への
投影に際して、利用者の視線または視線が二次元画面と
交わる注視点を検出し、視線またはその注視点と視点と
を結ぶ線分からその対象までの距離を少なくとも1つの
パラメータとして階層度を選択するように構成したもの
である。
The invention according to claim 5 is a gaze-following high-speed image generation and display method for projecting and displaying an object having a three-dimensional structure on a two-dimensional screen, wherein the constituent plane of the object is in the object coordinate system and the size of the area is is described hierarchically as at least one element,
When projecting the target constituent surface onto a two-dimensional screen when viewed from an arbitrary viewpoint, detect the gaze point where the user's line of sight or line of sight intersects with the two-dimensional screen, and detect the line segment connecting the line of sight or the gaze point with the viewpoint. The hierarchy level is selected using the distance to the target as at least one parameter.

第9請求項に係る発明は、立体構造を持つ対象を二次元
画面に投影表示する視線追従形高速画像生成表示方法で
あって、対象の構成面は対象座標系でかつ領域の大きさ
を少なくとも1つの要素として階層的に記述され、任意
の視点から見たときのその対象構成面の二次元画面への
投影に際して、両者の視線の動きから先の画像表示時刻
における表示基準座標系の中の注視点である空間注視点
またはこの近傍を推定し、その空間注視点またはこの近
傍からの距離を少なくとも1つのパラメータとして階層
度を選択し、予め投影画像を生成するように構成したも
のである。
The invention according to claim 9 is a gaze-following high-speed image generation and display method for projecting and displaying an object having a three-dimensional structure on a two-dimensional screen, wherein the constituent plane of the object is in the object coordinate system and the size of the area is at least It is described hierarchically as one element, and when projecting the object constituent surface onto a two-dimensional screen when viewed from an arbitrary viewpoint, the display reference coordinate system at the previous image display time from the movement of the line of sight of both parties. The system is configured to estimate a spatial gaze point that is a gaze point or its vicinity, select a hierarchy degree using the distance from the spatial gaze point or its vicinity as at least one parameter, and generate a projection image in advance.

より好ましくは、第1または第3請求項に係る発明に加
えて、第2または第6請求項に係る発明は、表示基準座
標系原点または視点から対象座標系で表わされるその対
象の任意の点までの距離を第2のパラメータとして階層
度を選択するように構成される。
More preferably, in addition to the invention according to the first or third claim, the invention according to the second or sixth claim provides a method for detecting an arbitrary point of the object expressed in the object coordinate system from the origin or viewpoint of the display reference coordinate system. The hierarchy level is selected using the distance to the second parameter as a second parameter.

さらに、より好ましくは、第3または第7請求項に係る
発明は左右の眼の光学系主点近傍を視点とし、その点か
ら見た投影画像が生成される。
Furthermore, more preferably, in the invention according to the third or seventh aspect, the vicinity of the optical system principal point of the left and right eyes is set as a viewpoint, and a projected image viewed from that point is generated.

第4.第8または第10請求項に係る発明は、第]、第
5.第9に係る発明に加えて、視線と二次元画面とが交
わる点を注視点とし、その注視点の位置を起点として、
その周辺に高域遮断フィルタをかけて表示するように構
成される。
4th. The invention according to claim 8 or 10 is characterized by the following features: 1. ], 5. In addition to the ninth invention, the point where the line of sight and the two-dimensional screen intersect is the point of gaze, and the position of the point of gaze is the starting point,
It is configured to apply a high-frequency cutoff filter to the periphery and display the image.

[作用コ 第1請求項に係る発明は、人の眼の視力が注視している
点では高く、その周辺では急激に低下する特性を利用し
て、表示対象を領域の大きさ、すなわちスケールを1つ
のパラメータとして階層的にモデリングし、表示対象の
注視部分は細かなモデリング階層まで表示し、注視部分
から外れた周辺視に対応する表示対象部分は粗いモデリ
ング階層で表示することにより、周辺視部分の計算量を
減らして高速化を図る。
[Operations] The invention according to claim 1 utilizes the characteristic that the visual acuity of the human eye is high at the point of gazing and rapidly decreases in the periphery, so that the display target can be adjusted to the size of the area, that is, the scale. By modeling hierarchically as one parameter, displaying the gaze part of the display target up to a detailed modeling hierarchy, and displaying the display target part corresponding to the peripheral vision that is outside the gaze area in a coarse modeling hierarchy, the peripheral vision part The aim is to reduce the amount of calculation and speed up the process.

第5請求項に係る発明は、視線または二次元画像の注視
点と視点とを結ぶ線分から対象までの距離を少なくとも
1つのパラメータとして階層度を選択することにより、
立体視コンピュータグラフィックス画像を高速、高品質
で生成する。
The invention according to claim 5 selects the degree of hierarchy by using the distance from the line segment connecting the line of sight or the gaze point of the two-dimensional image and the viewpoint as at least one parameter to the object.
To generate stereoscopic computer graphics images at high speed and high quality.

第9請求項に係る発明は、人の視線の動きを検出して、
この検出結果をコンピュータグラフィックスに反映する
場合に問題となる画像生成時間の遅れによる表示の違和
感を解消し、より自然な画像を得る。
The invention according to claim 9 detects the movement of a person's line of sight,
To solve the problem of display discomfort caused by a delay in image generation time when this detection result is reflected in computer graphics, and to obtain a more natural image.

第2および第6請求項に係る発明は、対象か表示基準座
標系原点または視点に近くにある場合は、細かなモデリ
ング階層まで表示し、遠くにある場合は、粗いモデリン
グ階層で表示することにより、遠くの物体について計算
量を減らし、高速化を図るという第2の特徴を第1およ
び第5請求項に係る発明と組合わせたものであり、表示
基準座標原点または視点から遠く、かつ周辺視に対応す
る部分については大幅に計算量を減らし、高速化を図る
The inventions according to the second and sixth claims display fine modeling hierarchies when the object is close to the origin or viewpoint of the display reference coordinate system, and display coarse modeling hierarchies when the object is far away. , which combines the second feature of reducing the amount of calculation and speeding up calculations for distant objects with the inventions according to the first and fifth claims, and which is far from the display reference coordinate origin or viewpoint and is far from the peripheral vision. We will significantly reduce the amount of calculations and speed up the parts corresponding to .

第3および第7請求項係る発明は、観測者の眼の光学系
主点近傍を視点として、その点から見た投影画像を生成
する。
The invention according to the third and seventh claims generates a projected image viewed from a viewpoint near the principal point of the optical system of the observer's eye.

第4.第8.第10請求項に係る発明は、注視点の位置
を起点として、その周辺に高域遮断フィルタをかけて表
示することにより、周辺部に対応する表示対象の各部分
を粗いモデリング階層で表示することによる不自然さを
補償する。粗いモデリング階層で表示すると、スクリー
ン投影画像において、表示対象の構成面と構成面との間
は不連続性が多くなり、この部分に高い周波数成分が発
生するが、周辺部分に高域遮断フィルタをかけることに
より、この違和感を生じさせる成分を除去できる。
4th. 8th. The tenth aspect of the invention is to display each part of the display target corresponding to the periphery in a coarse modeling hierarchy by applying a high-frequency cutoff filter to the periphery of the gazing point and displaying the gazing point as a starting point. compensate for the unnaturalness caused by When displayed using a coarse modeling hierarchy, there will be many discontinuities between the constituent surfaces to be displayed in the screen projection image, and high frequency components will occur in these parts. By applying this product, the components that cause this discomfort can be removed.

[発明の実施例] 第1図はこの発明の原理を示す図であり、第2図は第1
図に示した表示対象の階層的なモデリングを示す図であ
る。
[Embodiments of the invention] Fig. 1 is a diagram showing the principle of this invention, and Fig. 2 is a diagram showing the principle of the invention.
FIG. 3 is a diagram illustrating hierarchical modeling of the displayed objects shown in the figure.

第1図を参照して、この発明の原理について説明する。The principle of this invention will be explained with reference to FIG.

表示装置のスクリーンS1は、その原点0 (w)を基
準として表示基準座標系X (w) −Y (w) −
Z (w)で表わされる。なお、表示基準座標系X (
w) −Y (w) −Z (w)は以下に示す他の座
標系の基準となる座標系で、第1図におけるスクリーン
S1とは異なる別なところに設けてもよい。表示対象o
bjl、obj2は、第23図に示した従来例と比べて
構造データの持ち方が異なっている。
The screen S1 of the display device has a display reference coordinate system X (w) −Y (w) − with its origin 0 (w) as a reference.
It is expressed as Z (w). Note that the display reference coordinate system X (
w) -Y (w) -Z (w) is a coordinate system that serves as a reference for other coordinate systems shown below, and may be provided at a different location than the screen S1 in FIG. Display target o
bjl and obj2 have different structure data compared to the conventional example shown in FIG.

すなわち、第2図に示すように、表示対象は複数の構造
点Piとその構造点Piの集合により作られる構造面(
第2図においては、4つの構造点により囲まれる面とし
て定義される)などにより記述される。また、各構造点
は対象座標系X(。
That is, as shown in FIG. 2, the display target is a plurality of structural points Pi and a structural surface (
In FIG. 2, it is defined as a surface surrounded by four structural points). In addition, each structure point is in the target coordinate system X (.

b j)−Y (obD −Z (obj)により表わ
される。第2図での階層の設定は、各構造点間の距離ま
たは構造面の大きさか所定の大きさを越えるごとに構造
点の数を減らしていき、(a)〜(d)に示すように、
全体で4段階の階層としている。このような構造点とそ
の点を結ぶ線分により表わされるデータ構造をワイヤフ
レーム構造と呼ぶことにする。
b j) - Y (obD -Z (obj). The hierarchy setting in Figure 2 is based on the distance between each structure point or the size of the structure surface, or the number of structure points each time the distance exceeds a predetermined size. As shown in (a) to (d),
There are a total of four levels of hierarchy. A data structure represented by such structural points and line segments connecting the points will be referred to as a wire frame structure.

ベクトルVOI、VO2はそれぞれ表示基準座標系X 
(w) −Y (w) −Z (w)の原点0 (w)
から表示対象objl、obj2の対象座標系原点ob
jl、obj2へのベクトルである。第1図において、
スクリーンS1の観察者である利用者2は両眼eyel
、eye2によって表示対象objl、obj2を見る
。視線10はスクリーンS1と点epで交わる。この点
epをスクリーン注視点と呼ぶ。X (e) −Y (
e) −Z (e) 。
Vectors VOI and VO2 are each in the display reference coordinate system X
(w) -Y (w) -Z (w) origin 0 (w)
From the display target objl, the target coordinate system origin ob of obj2
jl, a vector to obj2. In Figure 1,
User 2, who is an observer of screen S1, has both eyes.
, eye2 to view display targets objl and obj2. The line of sight 10 intersects the screen S1 at a point ep. This point ep is called the screen gaze point. X (e) −Y (
e) −Z (e).

X’  (e)−Y’  (e)−Z’  (e)は視
点座標系であり、eolはO’  (e)とスクリーン
注視点epとを結ぶ線分が表示対象と交わる点である。
X'(e)-Y'(e)-Z'(e) is the viewpoint coordinate system, and eol is the point where the line segment connecting O'(e) and the screen gaze point ep intersects with the display target.

構造点Pi(obj)は第2図に示す粗い階層の表示対
象モデルにおける特徴点である。
The structure point Pi(obj) is a feature point in the rough hierarchical display target model shown in FIG.

ここで、視線10は眼球の特徴点を2台のカメラで捕え
、このカメラ撮像面の位置情報からステレオ画像計測す
ることにより、その位置を表示対象座標系で求めること
ができる。特徴点としては、瞳孔中心、または表示対象
座標系で既知な点に設定した光源が角膜で反射したとき
に作る角膜反射象などを用いることがある。その詳細は
、特徴点抽出については、本願発明者等による「非接触
視線検出装置」 (特願昭63−289761)。
Here, the line of sight 10 can determine the position in the display target coordinate system by capturing the feature points of the eyeballs with two cameras and performing stereo image measurement from the position information of the camera imaging plane. As the feature point, a corneal reflection image created when a light source set at the center of the pupil or a known point in the display target coordinate system is reflected by the cornea may be used. For details, regarding feature point extraction, refer to "Non-contact line of sight detection device" (Japanese Patent Application No. 63-289761) by the inventors of the present application.

「画像撮影装置」 (特願平1−181387)を用い
、瞳孔の位置計測については、「視線検出方式」 (特
願平1−296900)を用いることによって可能にな
る。また、第1図におけるeol点またはその近傍の特
徴点(たとえばPi(obj))は、従来例で述べたP
i点をスクリーン$1に透視投影変換する手法の逆変換
で求めることができる。
It is possible to measure the position of the pupil by using an "image photographing device" (Japanese Patent Application No. 1-181387) and a "line-of-sight detection method" (Japanese Patent Application No. 1-296900). In addition, the eol point in FIG. 1 or the feature point near it (for example, Pi(obj)) is
It can be obtained by inverse transformation of the method of perspective projection transformation of point i onto screen $1.

第3図および第4図はスクリーン注視点ep(s)に対
応するモデル上の点を求める方法を説明するための図で
ある。
FIGS. 3 and 4 are diagrams for explaining a method for finding a point on the model corresponding to the screen gaze point ep(s).

第3図および第4図では、発明の簡略化のために、Z(
w)軸上の視点o (e)かある場合を示している。表
示対象は第2図に示したような物体であり、スクリーン
注視点ep(s)に対応する対象の位置を求めるには、
高速化を図るため粗いモデリング階層を行なう。第2E
 (d)に示した対象を第3図の対象objとしている
。各構成点Pi(w)の正規透視変換点をpi(np)
とする。粗いモデルであれば、この変換は高速に可能で
ある。なお正規透視変換点pi(np)のスクリーンS
l (ABCD)への平行投影点をξ1(S)とする。
In FIGS. 3 and 4, Z(
w) The case where there is a viewpoint o on the axis (e) is shown. The display target is an object as shown in Fig. 2, and to find the position of the target corresponding to the screen gaze point ep(s),
A coarse modeling hierarchy is used to speed up the process. 2nd E
The object shown in (d) is the object obj in FIG. The normal perspective transformation point of each component point Pi(w) is pi(np)
shall be. This conversion can be done quickly if the model is coarse. Note that the screen S of the normal perspective transformation point pi (np)
Let the parallel projection point to l (ABCD) be ξ1(S).

ここで、第4図に示すようにスクリーン注視点ep(s
)かわかると、この点から出発し、Z(np)軸に平行
な探索線20上を探索し、探索線20が正規投影された
対象と交わる点を求めることができる。正規投影された
対象30の構成点301〜303などが正規透視座標系
X(np)Y (np)−Z (np)で与えられてい
れば、構成面301と交わる点eh(n+))を求める
ことは簡単である。
Here, as shown in FIG. 4, the screen gaze point ep(s
), starting from this point, a search line 20 parallel to the Z(np) axis can be searched to find the point where the search line 20 intersects the orthogonally projected object. If the constituent points 301 to 303 of the normally projected object 30 are given by the normal perspective coordinate system It's easy to ask.

また、構成面か与えられていない場合でも、第4図に示
すように、探索線20上にΔSをとり、この面を線上に
走査し、その面内に最初に入る構造点pi(np)を求
めることもできる。ここで、点eh (np)、pi 
 (np)を表示基準座標系X (w) −Y (w)
 −Z (w)に逆変換すれば、スクリーン注視点ep
 (s)に対応する空間注視点eo(w)またはこの近
傍にあるPi(w)を求めることができる。
Furthermore, even if the constituent plane is not given, as shown in FIG. You can also ask for Here, the points eh (np), pi
Display (np) reference coordinate system X (w) −Y (w)
−Z (w), the screen gaze point ep
It is possible to obtain the spatial gaze point eo(w) corresponding to (s) or Pi(w) located in the vicinity thereof.

なお、Pi(w)については、スクリーン注視点ep 
(s)から少し離れた対応点である。細かい階層のモデ
ルを使わない理由は、第3図の実施例の探索では、表示
対象の各構造点の正規透視座標変換データが既にあるこ
とを前提としているため、細かいモデリング階層を用い
ることは速度の点で矛盾するためである。しかし、この
発明の一実施例では、毎秒数枚〜数十枚を表示する場合
を考えており、このような速度では、時間的に連続した
2つのモデル間には変化が少ないと考えられる。
Regarding Pi(w), the screen gaze point ep
This is a corresponding point slightly distant from (s). The reason why a model with a detailed hierarchy is not used is that the search in the example shown in Figure 3 assumes that normal perspective coordinate transformation data for each structure point to be displayed already exists, so using a detailed modeling hierarchy is speedy. This is because there is a contradiction in terms of. However, in one embodiment of the present invention, a case where several to several dozen images are displayed per second is considered, and at such a speed, it is considered that there is little change between two temporally consecutive models.

また、次に表示されるすぐ前の画像を生成するためのモ
デリング情報およびこの正規透視変換データは既に存在
している。そこで、この1つ前のデータを用いて探索す
れば、スクリーン注視点ep (s)に対応する表示対
象位置を精度良く求めることも可能である。このように
して、スクリーン注視点ep(s)に対応する空間注視
点eO(W)またはこの近傍の位置を求めることは可能
である。
Furthermore, modeling information for generating the image immediately before being displayed next and this regular perspective transformation data already exist. Therefore, by searching using this previous data, it is possible to accurately determine the display target position corresponding to the screen gaze point ep (s). In this way, it is possible to find the spatial gaze point eO(W) corresponding to the screen gaze point ep(s) or a position in the vicinity thereof.

なお、この発明における空間注視点eo(w)の近傍と
は、視線の近くにあり、注視していると判断される対象
の構成点2構成面あるいはその対象座標系原点などとす
る。以上の探索は、簡単な理論演算と座標変換演算で可
能であり、ハードウェア化が可能である。
Note that the vicinity of the spatial gaze point eo(w) in this invention refers to the component point 2 component plane of the target that is near the line of sight and is determined to be gazed at, or the origin of the target coordinate system. The above search can be performed using simple theoretical calculations and coordinate transformation calculations, and can be implemented in hardware.

第5図はモデルの階層を選択する方法を説明するための
図である。第5図を参照して、表示基準座標系原点0 
(W)または視点0′(e)から対象座標系の原点への
ベクトル■o1またはVO2の絶対値、すなわち、距離
がO(w)を中心とする所定の距離(ThlまたはTh
2)内にあるか否かにより、モデルの階層を選択する。
FIG. 5 is a diagram for explaining a method for selecting a model hierarchy. With reference to Figure 5, the origin of the display reference coordinate system is 0.
(W) or the absolute value of the vector ■o1 or VO2 from the viewpoint 0'(e) to the origin of the target coordinate system, that is, the distance is a predetermined distance (Thl or Th
2) Select the model hierarchy depending on whether it is within the range.

対象0bj1については、距離Thlの内側であり、第
2図(b)に示す階層が選択され、obj2については
距離Th2の内側であり、第2図(c)に示す階層が選
択される。
For object 0bj1, it is inside the distance Thl and the hierarchy shown in FIG. 2(b) is selected, and for obj2, it is inside the distance Th2 and the hierarchy shown in FIG. 2(c) is selected.

次に、空間注視点位置(第5図では2つの例を示してい
る。)を考え、それぞれをeo4.e。
Next, consider the spatial gaze point positions (two examples are shown in Figure 5), and set each to eo4. e.

2とし、この点のまわりに所定の半径STh l5Th
2の球を仮定する。なお、第5図に示した例は、第1図
に示したeolとPi(○bj)が重なった場合を考え
る。半径5Th1の内側については、1段階さらに細か
い階層のモデルを用いる。半径5Th2の外側について
は、第5図には示していないが、1段階粗い階層モデル
に変更する。すなわち、対象objlについては、半径
5Thlの中を第2図(a)に示すモデルに変え、対象
obj2については半径5Th1の中を第2図(b)に
示すモデルに変える。以上のようにして、O(w)から
近くは相対的に細かく、遠くは粗く、また空間注視点e
o(w)の近傍では相対的に細かく、周辺では相対的に
粗くモデリングした対象が用意される。該モデルの各構
成点を従来の方法でスクリーンS1に投影変換すれば表
示画像が得られる。
2, and a predetermined radius STh l5Th around this point.
Assume a ball of 2. In the example shown in FIG. 5, consider the case where eol and Pi (○bj) shown in FIG. 1 overlap. For the inside of the radius 5Th1, a model with one level of finer hierarchy is used. Although not shown in FIG. 5, the area outside the radius 5Th2 is changed to a hierarchical model that is one step coarser. That is, for the object objl, the inside of the radius 5Thl is changed to the model shown in FIG. 2(a), and for the object obj2, the inside of the radius 5Th1 is changed to the model shown in FIG. 2(b). As described above, the near from O(w) is relatively fine, the far is coarse, and the spatial gaze point e
An object modeled relatively finely in the vicinity of o(w) and relatively coarsely modeled in the vicinity is prepared. A display image is obtained by projecting each constituent point of the model onto the screen S1 using a conventional method.

第6図はこの発明の他の例におけるモデルの階層を選択
する方法を説明するための図である。第6図を参照して
、eol、eo2は空間注視点の位置であり、Thiは
eolを中心とする半径であって、O(w)から対象座
標系原点までの距離d+(V+の絶対値)の関数である
。該関数はdiが小さい場合、半径Thlを大きくし、
距離d1が大きい場合、半径Thlを小さくするように
作用する。第6図に示した例では、空間注視点の位置e
olのまわりのT h +−1は空間注視点e02の半
径T h t−2より大きい。半径Thlの中では、第
2図(a)が選択され、半径ThlからTh2の間では
第2図(b)が選択され、半径Th2からTh3の間で
は第2図(C)が選択され、半径Th3からTh4の間
では第2図(d)か選択される。以上のように、空間注
視点eo(w)を中心として精細度が段階的に異なるモ
デルが得られる。
FIG. 6 is a diagram for explaining a method for selecting a model hierarchy in another example of the present invention. Referring to FIG. 6, eol and eo2 are the positions of the spatial gaze points, Thi is the radius centered on eol, and the distance d+(absolute value of V+) from O(w) to the origin of the target coordinate system ) is a function of The function increases the radius Thl when di is small;
When the distance d1 is large, it acts to reduce the radius Thl. In the example shown in FIG. 6, the position e of the spatial gaze point is
T h +-1 around ol is larger than the radius T h t-2 of the spatial gaze point e02. Within radius Thl, FIG. 2(a) is selected, between radius Thl and Th2, FIG. 2(b) is selected, between radius Th2 and Th3, FIG. 2(C) is selected, Between the radius Th3 and Th4, the one shown in FIG. 2(d) is selected. As described above, a model with a degree of definition that differs in stages around the spatial gaze point eo(w) can be obtained.

なお、前述の第1図、第5図および第6図に示した例で
は、表示基準座標系X (w) −Y (w)−Z(w
)の原点0(w)を起点として、対象座標系の任意の点
までの距離をパラメータとしたが、視点原点(0(e)
またはO’  (e)など)を起点としてもよい。この
場合表示対象は動かなくても視点が動いた場合、その都
度階層度を変更する手数はあるが、対象の細部を認識す
る人の視力特性が視点からの距離に大きく依存すること
を考慮すると、より合理的な階層度選択ができるといえ
る。
In addition, in the examples shown in FIGS. 1, 5, and 6, the display reference coordinate system X (w) −Y (w) −Z(w
), the distance from the origin 0(w) to any point in the target coordinate system was taken as a parameter, but the viewpoint origin (0(e)
or O' (e), etc.) may be used as the starting point. In this case, if the display object does not move but the viewpoint moves, there is a need to change the hierarchy each time, but considering that the visual acuity characteristics of the person who recognizes the details of the object greatly depends on the distance from the viewpoint. , it can be said that a more rational hierarchy selection can be made.

また、後述のように、両眼立体視コンピュータグラフィ
ックスなどでは、表示対象がスクリーンS1の手前に表
示される場合もあるか、このような場合は、第1図に示
したように、0(w)からの距離をパラメータとすると
、視点0 (e)の近くにある物体にもかかわらす、ス
クリーンS1のすぐ後(奥)にある物体より、粗い階層
が選択されるという不合理も生ずることになる。したが
って、計算の複雑さかあるか、視点から対象座標系の原
点までの距離をパラメータとする方法も有効である。
Furthermore, as will be described later, in binocular stereoscopic computer graphics, the display object may be displayed in front of the screen S1, or in such a case, as shown in FIG. If the distance from w) is used as a parameter, it would be unreasonable that a rougher layer would be selected than an object immediately behind (in the back) of screen S1, even though the object is near viewpoint 0 (e). become. Therefore, a method using the distance from the viewpoint to the origin of the target coordinate system as a parameter is also effective, depending on the complexity of calculation.

第7図は2次および3次のBezier曲面を示す図で
ある。第7図(a)に示した例は2次と3次(n=2.
3)の場合であり、次式で表わされる。
FIG. 7 is a diagram showing quadratic and cubic Bezier curved surfaces. The example shown in FIG. 7(a) is quadratic and cubic (n=2.
3), which is expressed by the following equation.

R(t : 3)= (1−t+tE)’ PaBez
ier曲線は1=0のとき、Poの制御点から出発し、
t=1のとき、終りの制御点(n=2の場合はP2.n
=3の場合はP3)に到達する。曲線はこの間を制御点
の近くを滑らかに連結する。制御点の数を増やすことは
、次数を増やすことに相当し、曲線の表現力が増す。
R(t:3)=(1-t+tE)' PaBez
When 1=0, the ier curve starts from the control point of Po,
When t=1, the end control point (when n=2, P2.n
=3, P3) is reached. The curve smoothly connects the area near the control point. Increasing the number of control points corresponds to increasing the degree, which increases the expressiveness of the curve.

Bizier曲面はBezier曲線の積の形で次式の
ように表わされる。
A Bizier surface is expressed as a product of Bezier curves as shown in the following equation.

S (u :m、v : n)= (1−u+uE)Q
(I  V+vF)” Po。
S (u: m, v: n) = (1-u+uE)Q
(IV+vF)” Po.

(0≦U≦1)   (0≦V≦1) E、Fはシフト演算子であり、E P 、= P t−
1、、FP、=P、、、、、の作用をなす。
(0≦U≦1) (0≦V≦1) E and F are shift operators, E P , = P t−
1,,FP,=P,,,,,.

第7図(c)、  (d)は、2次、3次のBezie
r曲面を示す。3次の場合、POOからP33まで16
個の制御点を用意しておくことにより、この間を滑らか
に結ぶ自由曲面が生成される。
Figures 7(c) and (d) show the quadratic and cubic Bezie
It shows an r-curved surface. For 3rd order, 16 from POO to P33
By preparing these control points, a free-form surface that smoothly connects them can be generated.

このように、部分領域を適応的に決め、この領域を記述
するに十分な制御点を選択すれば、細かい滑らかな表面
をもつ面となる。一方、部分領域を大きくとり、制御点
の数を少なくすれば、粗い表面の面となる。以上、部分
領域の中の制御点の数をパラメータとして階層化する例
を示した。
In this way, by adaptively determining a partial region and selecting enough control points to describe this region, a surface with a fine and smooth surface can be obtained. On the other hand, if the partial area is made large and the number of control points is decreased, the surface will be rough. An example of hierarchizing using the number of control points in a partial region as a parameter has been shown above.

さらに、前述のBezier曲面式では、構造点は制御
点とu、vの値の取り方により決まる。
Furthermore, in the Bezier surface equation described above, the structure points are determined by the control points and how the values of u and v are taken.

そこで、所定の制御点を決めておき、u、  vかとる
間隔を階層パラメータとしてもよい。すなわち、第7図
(d)において、制御点か16個で一定としても、u、
  vの間隔Δの決め方によって構成面は粗にも密にも
なる。間隔Δを小さくすれば該構成面は第7図(d)よ
りさらに分割され、小さな構成面か多く生ずる。このよ
うに、Δをパラメータとして領域の大きさを階層化する
こともできる。
Therefore, a predetermined control point may be determined and the interval between u and v may be used as a hierarchy parameter. That is, in FIG. 7(d), even if the number of control points is constant at 16, u,
Depending on how the interval Δ of v is determined, the constituent surfaces can be coarse or dense. If the interval Δ is made smaller, the constituent planes will be further divided than in FIG. 7(d), and many small constituent planes will be generated. In this way, it is also possible to hierarchize the size of the area using Δ as a parameter.

次にスクリーンへの表示の方法としては、第1図に示す
ように、■ワイヤフレームを透視投影した点と線を表示
する単純な方法の他に、■構造面には色データを用意し
ておき、表示の際に色づけする。■各構造面にはテクス
チャマツプと呼ばれる絵柄をデータとして用意しておき
、この絵柄を構造面の方向、位置によって回転、移動、
縮小。
Next, as for the display method on the screen, as shown in Figure 1, in addition to the simple method of displaying points and lines obtained by perspectively projecting the wire frame, the method of displaying color data on the structural surface is also possible. and colorize it when displayed. ■For each structural surface, a pattern called a texture map is prepared as data, and this pattern can be rotated, moved, or moved depending on the direction and position of the structural surface.
Reduced.

拡大などの処理を施してスクリーン上に表示する。Perform processing such as enlargement and display on the screen.

■表示基準座標系において、所定の所に光源を仮定し、
視点からみた各構成面の該光による陰影を構成面ご−と
に計算して表示することなどが可能である。
■Assuming a light source at a predetermined location in the display reference coordinate system,
It is possible to calculate and display the shadow of each constituent surface by the light as seen from the viewpoint for each constituent surface.

一例として等置火の人物石膏像をBezier曲面でモ
デル化する場合について説明する。この石膏像を細部ま
でわかるようにモデル化するためには、制御点の数は約
5000必要であった。すなわち、この5000個の制
御点を第7図(d)に示すように、4×4の制御点のか
たまりに分割し、さらに、この4×4の制御点で決まる
部分領域内をu、  vの値を選ぶことにより10分割
して細分化する。このようにして、50万個の構造点に
よる構造面が形成される。この程度分割して表示面を作
ると、細部まで細かく認識できる画像が得られる。
As an example, a case will be described in which a plaster cast of a person with equidistant fire is modeled using a Bezier curved surface. Approximately 5,000 control points were required to model this plaster image in such a way that every detail could be seen. That is, as shown in FIG. 7(d), these 5000 control points are divided into 4 x 4 control point groups, and the partial area determined by these 4 x 4 control points is divided into u, v. By selecting the value of , it is subdivided into 10 parts. In this way, a structured surface with 500,000 structured points is formed. By creating a display surface that is divided to this extent, an image that can be recognized in fine detail can be obtained.

一方、人物か否かが判別できる程度であれば、制御点は
数10〜100程度でよく、さらにU。
On the other hand, as long as it is possible to determine whether it is a person or not, the number of control points may be approximately several tens to 100, and furthermore, U.

■も数分割でよい。つまり、100程度の構造点で表現
できる。このように、人物程度の対象でも表示する環境
、必要性により100〜数1000倍のデータ量の差が
ある。つまり、階層化は、領域の大きさに関して、多様
に選択可能である。
■ can also be divided into several parts. In other words, it can be expressed using about 100 structural points. In this way, even for objects as small as people, the amount of data varies by a factor of 100 to several thousand times depending on the display environment and necessity. In other words, the layering can be selected in various ways regarding the size of the area.

第8図はこの発明のさらに他の例であって、視点を観測
者の眼球光学主点に示した例を示す図である。光学主点
は瞳孔または虹彩の中心位置で近似することができ、そ
の位置および視線方向は表示基準座標系で前述のように
わかるものとする。
FIG. 8 is a diagram showing still another example of the present invention, in which the viewpoint is shown at the optical principal point of the observer's eyeball. The optical principal point can be approximated by the center position of the pupil or iris, and the position and direction of the line of sight are known as described above in the display reference coordinate system.

第8図において、表示対象objll、obj12、o
bj13、obj14は第2図の階層を持つ同一大きさ
のモデリング物体であり、○(obj12)はobj1
2の原点であり、elはスクリーン注視点ep (s)
と視点○(e)を結ぶ線分(すなわち視線)であり、d
3.  d4.  d5゜d6は線分eLから各対象物
体objll〜obj14の対象座標系原点(たとえば
0(obj12))までの距離であり、V12は視点0
 (e)から0(obj12)へのベクトルであり、2
21.222は線分el上でそれぞれ0(objll)
、O(obj13)に最も近い点である。
In FIG. 8, display targets objll, obj12, o
bj13 and obj14 are modeling objects of the same size with the hierarchy shown in Figure 2, and ○ (obj12) is obj1.
2, and el is the screen gaze point ep (s)
is a line segment (i.e. line of sight) that connects and viewpoint ○(e), and d
3. d4. d5゜d6 are the distances from the line segment eL to the origin of the target coordinate system of each target object objll to obj14 (for example, 0 (obj12)), and V12 is the viewpoint 0
It is a vector from (e) to 0 (obj12), and 2
21.222 are each 0 (objll) on the line segment el
, O(obj13).

各表示対象の対象座標系および視線がともに表示基準座
標系で表わされるため、上述の各距離を求めることは可
能である。このように、第8図では、表示対象objl
l、obj12は相対的に視点0 (e)の近くにあり
、表示対象obj13゜obj14は遠くにある。また
、表示対象obj11、obj13は線分eLの近(に
あり、表示対象obj12.obj14は線分etから
離れて位置する。モデルの階層選択法について例を示す
Since both the target coordinate system and line of sight of each display target are expressed in the display reference coordinate system, it is possible to obtain each of the above-mentioned distances. In this way, in FIG. 8, the display target objl
l and obj12 are relatively close to the viewpoint 0 (e), and display targets obj13 and obj14 are far away. In addition, display targets obj11 and obj13 are located near the line segment eL, and display targets obj12 and obj14 are located away from the line segment et.An example of a model hierarchy selection method will be described.

ベクトルV12の絶対値を距離d12とし、1つのパラ
メータとする。また、線分etから対象obj12の原
点0(obj12)までの距離d5を2つ目のパラメー
タとし、f (d12.d5)なる関数の値によってモ
デルの階層を選択する。
The absolute value of the vector V12 is defined as a distance d12, which is one parameter. Further, the distance d5 from the line segment et to the origin 0 (obj12) of the target obj12 is used as a second parameter, and the hierarchy of the model is selected according to the value of the function f (d12.d5).

fは距離d12またはd5の値が小さいほど小さくなる
。したがって、対象座標系が視点の近くにありかつ線分
etに近い対象objllでは第2図(b)に示す階層
か選択され、視点から遠くて線分eLからも遠い対象o
bj14では第2図(d)に示す階層が選択される。ま
た、視点からの距離と線分elからの距離のいずれかが
近く、他方が遠い対象obj12.obj13では第2
図(c)に示す階層が選択される。
The smaller the value of distance d12 or d5, the smaller f becomes. Therefore, for an object objll whose target coordinate system is near the viewpoint and close to the line segment et, the hierarchy shown in FIG.
In bj14, the hierarchy shown in FIG. 2(d) is selected. Also, the object obj12. which is close in distance from the viewpoint or distance from the line segment el and the other is far. 2nd in obj13
The hierarchy shown in Figure (c) is selected.

また、第8図において、視点0 (e)から221また
は222までの距離を1つのパラメータとし、距離d5
を第2のパラメータとしてfなる関数を作ってもよい。
In addition, in FIG. 8, the distance from the viewpoint 0 (e) to 221 or 222 is taken as one parameter, and the distance d5
You may also create a function called f with f as the second parameter.

第8図では、線分eLから対象座標系の原点までの距離
d3.d4.d5.d6をパラメータに用いたが、該パ
ラメータは原点である必要はなく、たとえば第9図に示
すように、各構成面の位置か、その面の中心位置などに
与えられている場合には、この距離をパラメータとして
用いることもできる。
In FIG. 8, the distance d3 from the line segment eL to the origin of the target coordinate system. d4. d5. d6 is used as a parameter, but this parameter does not need to be the origin. For example, as shown in FIG. 9, if it is given at the position of each constituent surface or the center position of that surface, this parameter Distance can also be used as a parameter.

第9図では、線分251は線分elの近くにあるため、
対応する面300は第2図(b)に示す階層でモデル化
され、線分252,253は線分eLからやや離れてい
るため、第2図(C)に示す階層のモデルが選択される
In FIG. 9, line segment 251 is near line segment el, so
The corresponding surface 300 is modeled in the hierarchy shown in FIG. 2(b), and since the line segments 252 and 253 are somewhat distant from the line segment eL, the model in the hierarchy shown in FIG. 2(C) is selected. .

さらに、表示対象は複数の構造物で構成されており、本
体に対応する主対象座標系と該本体の一部または付属物
に対応する副対象座標系を持つものでもよい。この場合
、副対象座標系原点と線分eLとの距離をパラメータに
用いることができるのは当然である。
Furthermore, the display target may be composed of a plurality of structures, and may have a main object coordinate system corresponding to the main body and a sub-object coordinate system corresponding to a part of the main body or an appendage. In this case, it goes without saying that the distance between the origin of the sub-object coordinate system and the line segment eL can be used as a parameter.

第10図は人間の眼が平面の場合の一点を注視したとき
のその周辺の視力を測定し、注視点からの偏角と相対視
力との関係を示す図である。第10図において、横軸は
注視点からの偏角であり、縦軸は注視点の視力で正規化
した相対視力である。
FIG. 10 is a diagram showing the relationship between the angle of deviation from the point of gaze and the relative visual acuity, measured by measuring visual acuity around a point when the human eye gazes at a flat point. In FIG. 10, the horizontal axis is the deviation angle from the point of fixation, and the vertical axis is the relative visual acuity normalized by the visual acuity of the point of fixation.

第10図に示した2本の曲線は、指標提示時間により視
力特性が変化することを示したものである。
The two curves shown in FIG. 10 show that visual acuity characteristics change depending on the indicator presentation time.

毎秒30枚程度の速度で表示する動画では、この2本の
曲線の範囲に入ると考えられる。長く提示した方が視力
特性が良いことがわかるが、ともに周辺で視力が大きく
低下することがわかる。この理由は、視線の方向から外
れた周辺の視覚対象は光学的に網膜上に結像せず、ぼけ
を生じていること、および視線方向の網膜中心窩から外
れた網膜部分では分解能が低いためである。
A moving image displayed at a speed of about 30 frames per second is considered to fall within the range of these two curves. It can be seen that the longer the image is presented, the better the visual acuity characteristics are, but in both cases the visual acuity is significantly reduced in the periphery. The reason for this is that peripheral visual objects that are away from the direction of the line of sight are not optically imaged on the retina, resulting in blurring, and that the resolution is low in parts of the retina that are away from the fovea of the retina in the direction of the line of sight. It is.

さらに、奥行に変化がある対象を捕えるときは、輻襖を
変え、水晶体を調節してピントを合わせる。
Furthermore, when capturing an object that changes in depth, the camera changes the convergence and adjusts the lens to focus.

つまり、視線が対象の方向を向いていても、ピントが合
っていなければやはりぼけが生じることは日常経験する
ことである。以上のことから、実空間ではっきり見えて
いる部分は視線と調節が制御されているごくわずかな部
分といえる。その他の部分は大きなぼけを生じている。
In other words, it is a daily experience that even if the line of sight is pointing in the direction of the object, if it is not in focus, blur will still occur. From the above, it can be said that the part that is clearly visible in real space is a very small part where line of sight and accommodation are controlled. Other parts are greatly blurred.

このような状況を踏まえ、人が見ている空間をコンピュ
ータグラフィックスで生成するにあたり、■スクリーン
注視点に対する空間注視点を検出し、その点からの距離
を1つのパラメータとして、■視線からその対象の任意
の点(たとえば対象座標系原点)までの距離を1つのパ
ラメータとして、該モデル構成面の精細度に重みづけす
るのは計算量を減らす点から合理的と言える。また、本
来ピントが合わず、ぼけが生じている箇所について、精
細に表示するのは、現実と異なるため、違和感を生じか
ねない。
Based on this situation, when generating the space that a person is looking at using computer graphics, we need to: ■ detect the spatial gaze point relative to the screen gaze point, and use the distance from that point as one parameter; ■ determine the target from the line of sight. It is reasonable to use the distance to an arbitrary point (for example, the origin of the target coordinate system) as one parameter and to weight the fineness of the surface of the model from the viewpoint of reducing the amount of calculation. Furthermore, displaying in detail a portion that is originally out of focus and blurred may create a sense of discomfort because it differs from reality.

ぼけのある画像を提示した方が実際に近い場合がある。Presenting a blurred image may be closer to reality.

このように、この発明の方法は単に処理を高速にするだ
けでなく、臨場感を実現するにも効果がある。
In this way, the method of the present invention is effective not only in speeding up processing but also in realizing a sense of realism.

第11図はこの発明のさらに他の例を示す図である。第
11図を参照して、表示対象objて各構成点および構
成面データは、該表示対象objの対象座標系と表示基
準座標系の関係が既知であれば、表示基準座標系X (
w) −Y (w) −Z(W)で表わすことができる
。2つの視点0 (e)IL、 O(e) rはそれぞ
れ観察者の左右眼球光学系の視点に対応する。視点の位
置および視線の方向は前述のステレオ画像計測法などに
より、表示基準座標系で求めることができる。左右の眼
の視線がわかると、2つの視線が交わる点が、該観測者
が注意している対象位置である。視線の計測精度によっ
てはこの点は誤差を含むが、第8図に示した視点と注視
点を結ぶ線分(第11図では視線に等しい)の近くにあ
る対象を求める方法を、左右の眼の視線について行なえ
ば、注視している対象を同定することは第8図の場合よ
り容易である。
FIG. 11 is a diagram showing still another example of the present invention. Referring to FIG. 11, if the relationship between the target coordinate system and the display reference coordinate system of the display target obj is known, each constituent point and constituent surface data of the display target obj is set in the display reference coordinate system X (
w) −Y (w) −Z(W). The two viewpoints 0(e)IL and O(e)r correspond to the viewpoints of the left and right eye optical systems of the observer, respectively. The position of the viewpoint and the direction of the line of sight can be determined in the display reference coordinate system by the aforementioned stereo image measurement method or the like. Once the lines of sight of the left and right eyes are known, the point where the two lines of sight intersect is the target position that the observer is paying attention to. Although this point may include errors depending on the measurement accuracy of the line of sight, the method for finding objects near the line segment connecting the viewpoint and the point of fixation shown in Fig. 8 (equal to the line of sight in Fig. 11) can be applied to both the left and right eyes. If you follow the line of sight, it is easier to identify the object you are gazing at than in the case of FIG.

この空間注視点(またはこの近傍)をeoとする。空間
注視点eoのまわりに半径Thの球を仮定し、その球内
は第2図(b)に示した階層でモデル化され、球の外は
第2図(d)の階層でモデル化される。左右の像h−o
b j  (L) 、  h−。
Let this spatial gaze point (or its vicinity) be eo. Assuming a sphere with radius Th around the spatial gaze point eo, the inside of the sphere is modeled in the hierarchy shown in Figure 2(b), and the outside of the sphere is modeled in the hierarchy shown in Figure 2(d). Ru. Left and right images ho
b j (L), h-.

bj(R)はそれぞれスクリーンに投影される。bj(R) are each projected onto a screen.

この例において、2つの視点0 (e)L、O(e)R
および視線は観測者の動きに応じて常に変化するため、
この変化をリアルタイムで検出し、左右の像h−ob 
j  (L) 、  h−ob j  (R)を同様に
リアルタイムで再生して表示する。これにより、観測者
は頭を動かして表示対象objを左右、上下など様々な
方向から見ることができる。また、このとき2つの像は
h−obj  (L)、  h−obj  (R) l
↓視差情報を持っているため、観測者は対象objを立
体的に比較できる。
In this example, two viewpoints 0(e)L, O(e)R
and the line of sight constantly changes depending on the observer's movement.
This change is detected in real time, and the left and right images h-ob
j (L) and h-ob j (R) are similarly played back and displayed in real time. This allows the observer to move his head and view the display object obj from various directions, such as left and right, and up and down. Also, at this time, the two images are h-obj (L) and h-obj (R) l
↓Since it has parallax information, the observer can compare objects obj three-dimensionally.

さらに、対象objがスクリーンS1の手前に来たと仮
定したような画像を作ることもできる。
Furthermore, it is also possible to create an image assuming that the object obj has come in front of the screen S1.

この方法では、表示の遅れが許されない。つまり、観測
者の眼を視点としているため、その動きに同期して画像
を生成して表示しなければ違和感を生ずる。許される遅
れは、1〜2/30秒程度と考えられる。したがって、
高速性に有利なこの発明の方法が効果的に作用する。
This method does not tolerate display delays. In other words, since the viewpoint is the observer's eyes, it will feel strange unless the image is generated and displayed in synchronization with the observer's movement. The allowable delay is considered to be about 1 to 2/30 seconds. therefore,
The method of this invention, which is advantageous in high speed, works effectively.

なお、この実施例では、生成した画像を表示するために
、両眼立体視表示装置を用いることができる。この装置
の具体例については、本願発明者等による「立体表示装
置」 (特願平2−18051)などが可能である。こ
の装置の構成は、表示面にレンチキュラーレンズと称さ
れる蒲鉾状レンズシートを設け、その各レンズの背面に
焦点を挾んで両側に右眼用の画素、左眼用の画素を配置
したものである。すなわち、2つの画素か1組として1
つの蒲鉾レンズに対向して配置される。2つの画素から
出る光はそのレンズにより空間的に分離され、観測者の
左右の眼に別々に入射する。このようにして、特別な装
置を装着することなく立体視が可能となる。
Note that in this embodiment, a binocular stereoscopic display device can be used to display the generated images. A specific example of this device is a "stereoscopic display device" (Japanese Patent Application No. 2-18051) by the inventors of the present application. The configuration of this device is that a semicircular lens sheet called a lenticular lens is provided on the display surface, and pixels for the right eye and pixels for the left eye are arranged on both sides of the focal point on the back of each lens. be. In other words, 1 pixel or 1 set of 2 pixels
It is placed facing two kamaboko lenses. The light emitted from the two pixels is spatially separated by the lens and separately enters the observer's left and right eyes. In this way, stereoscopic viewing becomes possible without having to wear any special equipment.

第12図はこの発明のさらに他の例を示す図であって、
観測者の動きに対する遅れをさらに少なくした例である
。第12図を参照して、表示対象obj1.obj2は
第2図に示したモデル物体であり、表示基準座標系X 
(w) −Y (w) −Z(W)で表わされる。視点
かつ眼球の視点0 (e)は瞳孔または虹彩の中心位置
で近似される。視線el (1)、el (0)は眼球
の回転に伴って変化する。瞳孔位置および視線は表示基
準座標系X(W)−Y (W)−Z (W)で表わされ
る。空間注視点eOは視線延長上にある。視線から表示
対象o b j ]、までの距離はd (−1)、  
d (0)で表わされる。
FIG. 12 is a diagram showing still another example of this invention,
This is an example of further reducing the delay in relation to the observer's movements. Referring to FIG. 12, display target obj1. obj2 is the model object shown in Figure 2, and the display reference coordinate system
It is expressed as (w) -Y (w) -Z(W). The viewpoint and the viewpoint 0 (e) of the eyeball are approximated by the center position of the pupil or iris. The lines of sight el (1) and el (0) change as the eyeball rotates. The pupil position and line of sight are represented by a display reference coordinate system X(W)-Y(W)-Z(W). The spatial gaze point eO is on the extension of the line of sight. The distance from the line of sight to the display object ob j ] is d (-1),
It is expressed as d (0).

第12図では、毎秒10〜30枚程度の程度が生成表示
される場合を示しており、したかって、(0)、  (
−1)、  (+1)の各点は100〜33m5ec程
度の間隔である。現在(0)、1つ前の状態(−1)に
おける階層は以下のように選択される。第8図で述べた
視線から対象までの距離がパラメータの1つとして用い
られる。(−1)では、表示対象obj2は視点から離
れているが、視線上にあるため、第2図(c)に示す階
層が選択される。表示対象objlは視点の近くにある
が、視点から少し離れているため、同様にして第2図(
C)に示した階層が選択される。このようにして、h−
ob jl (−1) 、  h−ob j2(−1)
が生成されて表示される。また、(0)では表示対象o
bj2は変わらないが、表示対象objlは視線からさ
らに離れるため、第2図(d)に示した階層が選択され
る。このようにして、h−objl (0)、h−ob
j2 (0)が生成されて表示される。
Fig. 12 shows a case where about 10 to 30 images are generated and displayed every second, so (0), (
-1) and (+1) points are spaced approximately 100 to 33 m5ec apart. The hierarchy in the current state (0) and the previous state (-1) is selected as follows. The distance from the line of sight to the object described in FIG. 8 is used as one of the parameters. At (-1), the display target obj2 is away from the viewpoint but is on the line of sight, so the hierarchy shown in FIG. 2(c) is selected. The display target objl is near the viewpoint, but since it is a little far from the viewpoint, it is similarly displayed in Figure 2 (
The hierarchy shown in C) is selected. In this way, h-
ob jl (-1), h-ob j2 (-1)
is generated and displayed. Also, in (0), the display target o
Although bj2 does not change, the display target objl moves further away from the line of sight, so the hierarchy shown in FIG. 2(d) is selected. In this way, h-objl (0), h-ob
j2 (0) is generated and displayed.

次に、視線の動きを予測した表示について説明する。眼
球の運動には大きく分けて、動く指標を追跡する際の滑
らかな随従運動、興味ある対象を探索する際などに見ら
れる跳躍運動とがある。随従運動では停止した指標を見
る際に比べて、視力の低下は少ない。一方、跳躍運動で
は、注視点が移動した直後は、−時、視力が大きく低下
する。
Next, a display that predicts the movement of the line of sight will be described. Eyeball movements can be broadly divided into smooth follow-up movements when tracking a moving target, and jumping movements seen when searching for an interesting object. In voluntary movement, visual acuity decreases less than when looking at a stationary indicator. On the other hand, in a jumping motion, visual acuity decreases significantly immediately after the point of gaze moves.

第12図は空間注視点を注視ながら頭を動かしている状
態を示しているが、このようなときの視線の動きは滑ら
かであり、軌跡から次の画像を表示する時刻における視
線表示基準座標系X (w) −Y (w)  Z (
w)で求めることは容易である。
Figure 12 shows a state where the head is moving while gazing at the spatial gaze point, but the movement of the line of sight in such a case is smooth, and the line of sight display reference coordinate system at the time when the next image is displayed from the trajectory X (w) −Y (w) Z (
w) is easy to obtain.

すなわち、O(e)(−i) 〜O(e)(0)。That is, O(e)(-i) to O(e)(0).

e L (−i) 〜e l (0)からO(e)(+
1)el(+1)を外挿により求めることは可能である
。そこで、O(e)(+1)から見た対象の透視投影画
像h−objl (+1)、h−obj2(+1)を予
め生成し、(+1)の時刻に表示する。
e L (-i) ~ e l (0) to O(e) (+
1) It is possible to obtain el(+1) by extrapolation. Therefore, perspective projection images h-objl (+1) and h-obj2 (+1) of the object viewed from O(e)(+1) are generated in advance and displayed at time (+1).

またこの実施例の場合には、(−1)、  (0)の時
刻における空間注視点かeoであり、変化していないた
め、(+1)においても取り敢えず同じ点を注視してい
ると仮定してh−objl(+1)、h−obj2 (
+1)を生成ジテオくコトも可能である。このとき、観
測者はobj2に関心があると推定することも可能であ
るため、モデムの階層を(0)の場合より1つ上げ、第
2図(b)に示す階層とすることもできる。このように
、注視対象を同定し、その対象を適応的に細かい階層で
表示することも可能である。また、注視対象の同定には
、表示対象の位置関係、対象の意味、観測者の注視対象
の遷移、など様々な知識を併用することができる。
In addition, in the case of this example, the spatial gaze point at times (-1) and (0) is eo, and it has not changed, so it is assumed for the time being that the gaze is at the same point at (+1). h-objl (+1), h-obj2 (
It is also possible to generate +1). At this time, since it is possible to infer that the observer is interested in obj2, the modem hierarchy can be raised one level from the case (0) to the hierarchy shown in FIG. 2(b). In this way, it is also possible to identify the target of attention and adaptively display the target in a detailed hierarchy. In addition, various knowledge such as the positional relationship of display objects, the meaning of the objects, and the transition of the observer's gaze object can be used in conjunction with the identification of the gaze object.

この発明による方法は、視線が滑らかな動きのときは予
測しにくいため問題は少ないが、跳躍運動が混入すると
、予測が外れるため、−見不合理と感じられる。しかし
、以下のような理由で問題ない。すなわち、前述のごと
く、視力は視線の動きと密接であり、跳躍運動の直後は
視力が低下し、回復するのに200m5eC以上の時間
を必要とする。したがって、仮に予測した視点が間違っ
ている場合でも、表示された画像について、観測者の視
力は大きく低下しているため違和感は少ない。
The method according to the present invention has few problems when the line of sight is moving smoothly because it is difficult to predict, but when a jumping motion is mixed in, the prediction becomes incorrect, which makes it seem unreasonable. However, there is no problem for the following reasons. That is, as mentioned above, visual acuity is closely related to the movement of the line of sight, and immediately after a jumping movement, visual acuity deteriorates and requires more than 200 m5eC to recover. Therefore, even if the predicted viewpoint is wrong, the observer's visual acuity will be greatly reduced, so the observer will not feel any discomfort in the displayed image.

視力が回復するまでに、正しい瞳孔位置および視線を検
出し、その点から透視投影画像を生成表示すればよい。
It is only necessary to detect the correct pupil position and line of sight and generate and display a perspective projection image from that point until vision is restored.

ところで、上述の実施例では、スクリーン注視点ep(
s)の近傍(中心視部)では細かい階層のモデルが選択
され、周辺視部では粗い階層のモデルが選択されて表示
される。このとき、周辺視にあたる部分では構造面が大
きくなるため、構造面間に境界ができたり、中心視部と
の連続性が崩れたりすることなどが考えられる。このよ
うな不連続面は、空間周波数が高いため、周辺視で知覚
されやすく違和感を生ずることがある。そこで、このよ
うな違和感を解消するために、スクリーン注視点ep(
s)の周辺に高しきい遮断フィルタを被せることにより
画像をぼかす方法が考えられる。
By the way, in the above embodiment, the screen gaze point ep(
A model with a fine layer is selected in the vicinity of s) (central vision section), and a model with a coarse layer is selected and displayed in the peripheral vision section. At this time, since the structural planes become larger in the peripheral vision area, boundaries may be created between the structural planes, and continuity with the central vision area may be disrupted. Since such a discontinuous surface has a high spatial frequency, it is easily perceived in peripheral vision and may cause a sense of discomfort. Therefore, in order to eliminate this sense of discomfort, the screen gaze point ep (
One possible method is to blur the image by covering the periphery of s) with a high-threshold cutoff filter.

第13図はスクリーン注視点の周辺に被せられる高しき
い遮断フィルタを示す図である。第13図を参照して、
スクリーン注視点ep(s)の周辺14°以内ではフィ
ルタなしく6. 6 c p dの原画像がそのまま表
示される)とされ、14〜20°の領域では4.5cp
d、20°以上では1゜0cpdとしている(なお、c
pdとは視野角1°中に表示可能な空間周波数数である
)。このフィルタはハードウェアで構成でき、スクリー
ン注視点ep(s)の動きに追従してリアルタイムで表
示画像に作用させることが可能である。このフィルタの
設計では中心視部と周辺視部の解像度差および中心視部
の視野角などをどの程度にするかが課題である。
FIG. 13 is a diagram showing a high-threshold cutoff filter that is placed around the screen's gaze point. Referring to Figure 13,
6. No filter within 14 degrees around the screen gaze point ep(s). The original image of 6 c p d is displayed as is), and in the area of 14 to 20 degrees, 4.5 cp
d, 1°0 cpd above 20° (note that c
pd is the number of spatial frequencies that can be displayed within 1° viewing angle). This filter can be configured with hardware, and can be applied to the displayed image in real time by following the movement of the screen gaze point ep(s). In designing this filter, the issues are how much the resolution difference between the central vision section and the peripheral vision section and the viewing angle of the central vision section should be.

第14図は第13図に示したフィルタをカメラで捕えた
原画像に施した結果を示す図である。この第14図から
明らかなように、第13図に示した視野角区分を持ち、
周辺視部の解像度をパラメータとしたフィルタをカメラ
で捕えると、周辺の画像の最大空間周波数cpdが3.
0以上で原画像と区別できないことがわかる。したがっ
て中心視部を14〜20°としたフィルタにおいては、
周辺の最大空間周波数を3cpd程度まで下げることが
可能である。このようなフィルタを用いることにより、
構造面の不連続性による違和感は低減される。
FIG. 14 is a diagram showing the result of applying the filter shown in FIG. 13 to an original image captured by a camera. As is clear from this Fig. 14, it has the viewing angle division shown in Fig. 13,
When a camera captures a filter using the peripheral vision resolution as a parameter, the maximum spatial frequency cpd of the peripheral image becomes 3.
It can be seen that when the value is 0 or more, it cannot be distinguished from the original image. Therefore, in a filter with a central viewing area of 14 to 20 degrees,
It is possible to lower the maximum surrounding spatial frequency to about 3 cpd. By using such a filter,
The discomfort caused by discontinuity in the structure is reduced.

第15図はこの発明の一実施例の概略ブロック図である
。この第15図に示した実施例では、視点が眼球であり
、移動する場合であって、説明の簡略化のために表示対
象を表示基準座標系で静止しているものとする。なお、
第15図に示した太い実線部分が従来にない新規な手段
である。
FIG. 15 is a schematic block diagram of an embodiment of the present invention. In the embodiment shown in FIG. 15, the viewpoint is the eyeball, which is moving, and for the sake of simplicity, it is assumed that the display object is stationary in the display reference coordinate system. In addition,
The thick solid line portion shown in FIG. 15 is a novel means that has not existed in the past.

第15図を参照して、視点および視線検出手段10は表
示基準座標系で眼球の視点および視線を検出する。対象
座標系設定手段20は表示基準座標系で表示対象の原点
位置と回転角(角度)を指定する。距離計算手段30は
視点および視線検出手段10の検出出力、対象座標系設
定手段20で指定された原点位置および回転角に応じて
、視点から対象座標系原点までの距離を計算する。距離
計算手段40は第15図に示していないもう1つの目の
視線データを併用して、すなわち両方の視線か交わる点
を空間注視点として求めたり、または片目の視線であっ
ても視線の近傍にある対象座標系の原点をみつけ、その
原点をもって空間注視点としたり、あるいは対象座標系
の原点から視線に降ろした垂線の距離を計算する。
Referring to FIG. 15, the viewpoint and line of sight detecting means 10 detects the viewpoint and line of sight of the eyeball in the display reference coordinate system. The target coordinate system setting means 20 specifies the origin position and rotation angle (angle) of the display target in the display reference coordinate system. The distance calculation means 30 calculates the distance from the viewpoint to the origin of the target coordinate system according to the detection output of the viewpoint and line of sight detection means 10, and the origin position and rotation angle specified by the target coordinate system setting means 20. The distance calculation means 40 uses the line of sight data of another eye not shown in FIG. Find the origin of the target coordinate system at , and use that origin as the spatial gaze point, or calculate the distance of a perpendicular line drawn from the origin of the target coordinate system to the line of sight.

3次元階層化データベース80には表示対象物体の構成
面の領域の大きさを1つのパラメータとして階層的に記
述されている。構成点/構成面生成手段50は表示基準
座標系で指定された位置に対象の3次元モデルを生成す
る。すなわち、生成手段50は距離計算手段30によっ
て求められた視点から対象原点までの距離、距離計算手
段40によって一求められた空間注視点から対象構成面
までの距離、対象原点から視線までの距離などをパラメ
ータとし、このパラメータの値を基準値と比較して対象
の構成面の階層を決定し、3次元階層化データベース8
0からのデータを受取って、表示基準座標系において3
次元モデルを生成する。
In the three-dimensional hierarchical database 80, the size of the area of the constituent plane of the display target object is hierarchically described as one parameter. The constituent point/constituent plane generating means 50 generates a three-dimensional model of the object at a position specified in the display reference coordinate system. That is, the generating means 50 generates information such as the distance from the viewpoint to the object origin determined by the distance calculation means 30, the distance from the spatial gaze point to the object constituent plane determined by the distance calculation means 40, the distance from the object origin to the line of sight, etc. is a parameter, the value of this parameter is compared with a reference value to determine the hierarchy of the target constituent surface, and the 3D hierarchical database 8
3 in the display reference coordinate system by receiving data from 0.
Generate a dimensional model.

なお、第15図の点線で囲まれた部分は上述のパラメー
タを用いて階層度を決定する処理手段101を構成して
いる。
Note that the part surrounded by the dotted line in FIG. 15 constitutes a processing means 101 that determines the hierarchy level using the above-mentioned parameters.

透視投影変換手段60は視点位置と上述の3次元モデル
を入力として、表示対象を2次元スクリーン画面に透視
投影する。表示画像生成手段70は3次元階層化データ
ベース80に対して物体の指定、構成面の指定9階層の
指定を行なうことによって得られる構成面データを参照
しながら、対象の構成面に着色などの模様づけをする。
The perspective projection conversion means 60 receives the viewpoint position and the above-mentioned three-dimensional model as input, and perspectively projects the display object onto the two-dimensional screen. The display image generation means 70 creates a pattern such as coloring on the target constituent surface while referring to the constituent plane data obtained by specifying objects and nine layers of constituent planes in the three-dimensional hierarchical database 80. to attach.

高域遮断フィルタ手段90はスクリーン注視点の周辺視
域に被せる高域空間周波数を遮断する。表示手段100
はレンチキュラースクリーンなどが用いられ、対象物体
を表示する。
The high-frequency cutoff filter means 90 cuts off high-frequency spatial frequencies that overlap the peripheral visual field of the screen gaze point. Display means 100
A lenticular screen or the like is used to display the target object.

第16図および第17図はこの発明の一実施例の動作を
説明するためのフロー図である。
FIGS. 16 and 17 are flowcharts for explaining the operation of one embodiment of the present invention.

次に、第15図〜第17図を参照して、この発明の一実
施例の具体的な動作について説明する。
Next, with reference to FIGS. 15 to 17, a specific operation of an embodiment of the present invention will be described.

今、前述の第8図を例として、表示基準座標系X(w)
−Y (w)−Z (w)において、対象objll〜
obj14が所定のところにあるように見える画像をス
クリーンS1に生成することを考える。なお、視点の位
置は瞳孔位置とし、視点は動くものとする。また、対象
は説明の簡略化のために表示基準座標系において静止し
ており、対象の3次元構造データは第2図に示したよう
に、対象座標系で記述されており、かつ構成面は領域の
大きさはパラメータとして階層化されている。
Now, using the above-mentioned FIG. 8 as an example, the display reference coordinate system X(w)
-Y (w) -Z (w), object objll~
Consider generating an image on the screen S1 in which obj14 appears to be at a predetermined location. Note that the position of the viewpoint is the pupil position, and the viewpoint is assumed to be moving. In addition, the object is stationary in the display reference coordinate system to simplify the explanation, and the three-dimensional structure data of the object is described in the object coordinate system as shown in Figure 2, and the constituent surfaces are The area size is hierarchized as a parameter.

まず、ステップ(図示ではSPと略称する)SPlにお
いて、対象座標系設定手段20によって対象座標系原点
の位置ベクトルV。bl−+ =(x−bl−1+ Y
obl−1g Z。bl−1)と対象座標系の回転角R
abl−1= (α。bl−1、β。bI−1,+  
 bi−1)γり とが設定されて処理手段101に与えられる。ステップ
SP2において、視点および視線検出手段によって検出
された視点位aVoe=(Xoe。
First, in step SPl (abbreviated as SP in the figure), the target coordinate system setting means 20 determines the position vector V of the origin of the target coordinate system. bl-+ = (x-bl-1+ Y
obl-1g Z. bl-1) and the rotation angle R of the target coordinate system
abl-1= (α.bl-1, β.bI-1,+
bi-1) γrito is set and provided to the processing means 101. In step SP2, the viewpoint position aVoe detected by the viewpoint and line of sight detection means = (Xoe.

Yo e、 Xo e)は処理手段101に与えられる
Yo e, Xo e) are provided to the processing means 101.

ステップSP3において距離計算手段30は視点および
視線検出手段10から与えられるその時刻における視点
位置ベクトルVoeを読取り、対象座標系原点の位置ベ
クトルV。6.−1と視点位置ベクトルVoeとを用い
て、2点間の距離dislobi−1=l V。bi−
I  V Oe Iを演算する。処理手段40はステッ
プSP4において、第8図のd3〜d6に示す視線から
対象座標原点までの距離dis2゜bl−1を求める。
In step SP3, the distance calculation means 30 reads the viewpoint position vector Voe at that time given from the viewpoint and line of sight detection means 10, and calculates the position vector V of the origin of the object coordinate system. 6. −1 and the viewpoint position vector Voe, the distance between two points dislobi−1=l V. bi-
Calculate I V Oe I. In step SP4, the processing means 40 calculates the distance dis2°bl-1 from the line of sight shown at d3 to d6 in FIG. 8 to the origin of the target coordinates.

次に、生成手段50は距離計算手段30によって求めら
れたパラメータdisl。、I−3と処理手段40によ
って求められたパラメータd I S 2 obj−1
とを用いて、次の演算を行なう。
Next, the generating means 50 generates the parameter disl determined by the distance calculating means 30. , I-3 and the parameter d I S 2 obj-1 determined by the processing means 40
Perform the following calculation using .

dis3ob+−+ =f (disl。b−+  d
is2abl−1) =A’ d I S 1a)z−
1十B’ d l s2上述の式はパラメータd ls
 3 ob+−1の最も簡単な作成例である。なお、A
、  Bはここでは定数である。なお、人の視力特性を
考慮するなどして、さらに複雑な式を作成してもよい。
dis3ob+-+ = f (disl.b-+ d
is2abl-1) = A' d I S 1a)z-
10B' d l s2 The above equation is the parameter d ls
This is the simplest example of creating 3 ob+-1. In addition, A
, B are constants here. Note that a more complicated formula may be created by taking human visual acuity characteristics into account.

次に、第17図に示すステップSP6において処理手段
101はパラメータdis3゜、1−1 と基準値Th
3とを比較し、パラメータdis3゜。
Next, in step SP6 shown in FIG. 17, the processing means 101 sets the parameters dis3°, 1-1 and the reference value Th
3 and the parameter dis3°.

が基準値Th3よりも大きければ、すなわち第8図の対
象obj14のように遠くにありかつ視線から離れてい
れば、ステップSP7において、3次元階層化データベ
ース80から第2図(d)に示すような階層度の低いモ
デルを選択し、ステップSP8において、対象座標系原
点の位置ベクトルV。、1−1の位置に、対象座標系の
回転角Ra bl−1の角度で3次元モデルを生成する
If it is larger than the reference value Th3, that is, if it is far away and away from the line of sight like the object obj14 in FIG. In step SP8, the position vector V of the origin of the target coordinate system is selected. , 1-1, a three-dimensional model is generated at the rotation angle Ra bl-1 of the target coordinate system.

処理手段101はステップSP6においてパラメータd
is3゜6.−1が基準値Th3よりも小さいことを判
別し、さらにステップSP9において基準値Th2より
も大きいことを判別したとき、すなわち第8図に示す対
象01)j12.obj13のような場合には、ステッ
プ5PIOにおいて第2図(c)に示した階層モデルを
3次元階層化データベース80から選択する。しかし、
処理手段101がステップSP9においてパラメータd
I S 3 obi−1が基準値Th2よりも小さいこ
とを判別すると、ステップ5P12において、第2図(
b)に示す階層モデル、すなわち第8図に示すような対
象obj14のモデルを選択する。
The processing means 101 determines the parameter d in step SP6.
is3゜6. -1 is smaller than the reference value Th3, and furthermore, when it is determined in step SP9 that it is larger than the reference value Th2, that is, the target 01)j12. In the case of obj13, the hierarchical model shown in FIG. 2(c) is selected from the three-dimensional hierarchical database 80 in step 5 PIO. but,
The processing means 101 determines the parameter d in step SP9.
When it is determined that I S 3 obi-1 is smaller than the reference value Th2, in step 5P12, the process shown in FIG.
Select the hierarchical model shown in b), that is, the model of the object obj14 as shown in FIG.

上述のようにして、処理手段101は3次元階層化デー
タベース80から全ての対象(1〜i)についてモデル
データの読取を行なう。透視投影変換手段60はステッ
プ5P14において、その対象の透視投影変換画像り。
As described above, the processing means 101 reads model data for all objects (1 to i) from the three-dimensional hierarchical database 80. In step 5P14, the perspective projection transformation means 60 converts the perspective projection transformation image of the object.

bl−11+  h abl−!□、h。bl−13v
  h abL−14を生成する。ステップ5P15に
おいて、表示画像生成手段70は3次元階層化データベ
ース80に蓄積された各構成面模様データを読取り、2
次元画面の対象構成面に模様づけする。さらに、高域遮
断フィルタ手段90はスクリーン注視点の周辺視域に被
せる高域空間周波数を遮断し、表示手段100はステッ
プ5P16において生成された対象画像を表示する。
bl-11+ h abl-! □, h. bl-13v
Generate h abL-14. In step 5P15, the display image generation means 70 reads each constituent surface pattern data stored in the three-dimensional hierarchical database 80, and
Add a pattern to the target configuration surface of the dimensional screen. Furthermore, the high-frequency cutoff filter means 90 cuts off the high-frequency spatial frequencies that overlap the peripheral visual field of the screen gaze point, and the display means 100 displays the target image generated in step 5P16.

第18図はこの発明の他の実施例の動作を説明するため
のフロー図であり、視点から各対象座標系原点までの距
離を第1のパラメータとし、視線から各対象座標系原点
までの距離を比較し、それに最も近い対象原点を空間注
視点として推定し、この点からの距離を第2のパラメー
タとして用いる例であって、ステップSPI〜SP4は
第16図と同じであり、ステップ5P21〜5P23の
処理が行なわれる点が第16図と異なる。ステップSP
4において、第8図のd3〜d6に示す視線から対象座
標原点までの距離d I S obl、ユを求めた後、
ステップ5P21において距離di s2゜5.−1の
中で最も小さいobj−minを探し、その対象原点を
空間注視点として推定する。第8図で説明すると、ステ
ップ5P22において、0bjllの原点を仮に空間注
視点とし、この点から他の対象obj12.obj13
.obj14の原点までの距離dis4゜1.−1を計
算する。距離計算手段40は、そのパラメータdis1
.bIとdis4゜、j−、を用いて、次式の演算を行
なう。
FIG. 18 is a flowchart for explaining the operation of another embodiment of the present invention, in which the distance from the viewpoint to the origin of each target coordinate system is the first parameter, and the distance from the line of sight to the origin of each target coordinate system. In this example, the closest object origin is estimated as the spatial gaze point, and the distance from this point is used as the second parameter. Steps SPI to SP4 are the same as in FIG. 16, and steps 5P21 to This differs from FIG. 16 in that the process of 5P23 is performed. Step SP
4, after finding the distance d I Sobl and yu from the line of sight to the origin of the target coordinates shown in d3 to d6 in FIG.
In step 5P21, the distance di s2°5. -1, the smallest obj-min is found, and the object origin is estimated as the spatial gaze point. To explain with reference to FIG. 8, in step 5P22, the origin of 0bjll is temporarily set as a spatial gaze point, and other objects obj12. obj13
.. Distance to the origin of obj14 dis4°1. -1 is calculated. The distance calculation means 40 has its parameter dis1
.. Using bI and dis4°, j-, the following equation is calculated.

dis3.+z−1=f  (disl。b+= ) 
 ・g(d i s 46bl−+ )  =C−d 
i s 1゜bl−1・diS4゜、。
dis3. +z-1=f (disl.b+=)
・g(d i s 46bl-+) = C-d
is 1゜bl-1・diS4゜,.

上述の式はパラメータdis3゜6.−Iの最も簡単な
作成例である。Cはここでは定数としている。
The above equation has parameters dis3°6. This is the simplest example of creating -I. C is set as a constant here.

以下、第17図に示したステップSP6ないし5P16
の処理が行なわれる。なお、この実施例においても、人
の視力特性を考慮するなどして、さらに複雑な式を作成
してもよい。
Hereinafter, steps SP6 to 5P16 shown in FIG.
processing is performed. Note that even in this embodiment, a more complicated formula may be created by taking human visual acuity characteristics into consideration.

第19図はこの発明の他の実施例を示す概略ブロック図
である。この実施例は、構成面の階層度を選択するため
のパラメータの作成において、対象座標系の原点だけで
なく、対象構成面を利用できるように拡張したものであ
って、以下の点を除いて前述の第15図と同じである。
FIG. 19 is a schematic block diagram showing another embodiment of the invention. This example is expanded so that not only the origin of the target coordinate system but also the target constituent planes can be used in creating parameters for selecting the hierarchical level of the constituent planes, except for the following points. This is the same as FIG. 15 described above.

すなわち、処理手段102は上位階層生成手段21と距
離計算手段31と41とを含む。上位階層生成手段21
は表示基準座標系から見て、対象座標系が設定され名位
置に該対象の概略構成すなわち階層度の粗い(上位階層
)構成面を生成する。階層度が上位であるため、この処
理は高速に行なうことが可能である。距離計算手段31
は視点から概略構成面の基点例えば面の中央までの距離
を計算する。距離計算手段41は、視線が概略構成面と
交差する点を空間注視点とし、またはこの近傍の構成面
の基点を計算したり、あるいは概略構成面の基点などか
ら視線に降ろした垂線の距離を計算する。構成点/構成
面生成手段50は、対象の3次元モデルを生成するもの
であり、■の場合空間注視点からの距離をパラメータと
して基準値Thと比較しながら、3次元階層化データベ
ース80の中から適当な階層度のデータを取込み、対象
の構成点/構成面を生成する。■の場合には、視線に降
ろした垂線の距離をパラメータとして、基準値Thと比
較しながら3次元階層化データベース80の中から適当
な階層度のデータを取込み、対象の構成点/構成面を生
成する。なお、この実施例においては、第15図に示し
た高域遮断フィルタ手段90が省略されている。
That is, the processing means 102 includes an upper layer generation means 21 and distance calculation means 31 and 41. Upper layer generation means 21
When viewed from the display reference coordinate system, the object coordinate system is set, and a rough structure of the object, that is, a configuration plane with a coarse level of hierarchy (higher hierarchy) is generated at the name position. Since the hierarchy level is high, this processing can be performed at high speed. Distance calculation means 31
calculates the distance from the viewpoint to the base point of the schematic constituent surface, for example, the center of the surface. The distance calculation means 41 sets the point where the line of sight intersects the schematic constituent plane as a spatial gaze point, or calculates the base point of the constituent plane in the vicinity of this point, or calculates the distance of a perpendicular line drawn from the base point of the schematic constituent plane to the line of sight. calculate. The component point/component surface generation means 50 generates a three-dimensional model of the object, and in the case of (2), the distance from the spatial gaze point is used as a parameter and compared with the reference value Th, while Data at an appropriate level of hierarchy is imported from the system, and constituent points/planes of the target are generated. In the case of (3), the distance of the perpendicular line dropped to the line of sight is used as a parameter, and while comparing it with the reference value Th, data of an appropriate level of hierarchy is imported from the three-dimensional hierarchical database 80, and the constituent points/planes of interest are generate. In this embodiment, the high-frequency cutoff filter means 90 shown in FIG. 15 is omitted.

第20図はこの発明の応用例を示す図である。FIG. 20 is a diagram showing an example of application of the present invention.

この第20図に示した例は、コンピュータグラフィック
ス画像を臨場感豊かに観測できるようにしたものである
。視点は瞳孔または虹彩の中心位置に対応している。こ
の視点または視線は図示しない視線検出装置によって視
点検出1が行なわれるとともに、図示しない検出装置に
よって手の位置および形状の検出2が行なわれる。これ
らのデータは意図理解処理部3に与えられて解析され、
観測者の注視している対象および次に行なおうとしてい
る作業などが推定される。この情報をもとにして、三次
元形状データベース4を参照しつつ三次元モデル世界6
の更新5が行なわれ、三次元モデル世界6が高速で生成
され、実時間立体コンピュータグラフィックスによって
画像生成7が行なわれ、スクリーン8に投影変換され、
実時間でスクリーンに表示される。
The example shown in FIG. 20 allows a computer graphics image to be observed with a rich sense of realism. The viewpoint corresponds to the center position of the pupil or iris. A viewpoint detection device (not shown) performs a viewpoint detection 1 on this viewpoint or line of sight, and a detection device (not shown) performs a detection 2 of the position and shape of the hand. These data are given to the intention understanding processing unit 3 and analyzed.
The object the observer is gazing at and the task he or she is about to perform next are estimated. Based on this information, the three-dimensional model world 6 is created while referring to the three-dimensional shape database 4.
An update 5 is performed, a three-dimensional model world 6 is generated at high speed, an image is generated 7 using real-time three-dimensional computer graphics, and the image is projected onto a screen 8.
displayed on the screen in real time.

[発明の効果] 以上のように、この発明によれば、注視対象の近傍とそ
の周辺でモデリングの階層に差をつけるようにしたため
、計算量を大幅に減らすことができる。逆に、この余っ
た時間で、注視点近傍を精細に計算できる。その結果、
高速で品質の高い画像生成表示が可能となる。奥行の少
ない、すなわちZ軸方向に成分の少ない表示対象をこの
発明による方法でスクリーンに投影した場合をシミュレ
ーションすると、視野角30°のスクリーンの場合で処
理時間は従来の1/3以下となり、60゜の場合1/4
以下となった。奥行方向がある対象では、処理時間はさ
らにこの2乗で少なくすることができる。
[Effects of the Invention] As described above, according to the present invention, the modeling hierarchy is differentiated between the vicinity of the gaze target and the periphery thereof, so that the amount of calculation can be significantly reduced. Conversely, this extra time allows for precise calculation of the vicinity of the gaze point. the result,
This enables high-speed, high-quality image generation and display. When simulating the case where a display object with a small depth, that is, a small component in the Z-axis direction, is projected onto a screen using the method according to the present invention, the processing time is reduced to less than 1/3 of the conventional method for a screen with a viewing angle of 30°, which is 60 1/4 in case of ゜
It became the following. For objects that have depth, the processing time can be further reduced by the square of this value.

さらに、表示基準座標系の原点または視点から遠くにあ
る物体について、計算量をさらに大幅に減らすことがで
きる。逆に、この余った時間で近くにある物体について
細かい部分まで精細に計算できる。その結果、さらに高
速で品質の高い画像生成表示が可能となる。従来と画像
品質を同程度とすると、処理速度は1/数100以下に
大幅に短くなると考えられる。
Furthermore, the amount of calculation can be further significantly reduced for objects that are far from the origin or viewpoint of the display reference coordinate system. Conversely, this extra time can be used to calculate the details of nearby objects. As a result, even faster and higher quality image generation and display becomes possible. If the image quality is the same as in the past, the processing speed will be significantly reduced to 1/100 or less.

視線の検出により、表示画像の各部分の精細度を適応的
に制御できるため、実空間を見たときに網膜上に写る映
像に近いものを、スクリーンを見たときに再現すること
ができ、自然で迫力のある画像が生成表示できる。さら
に、両眼立体視コンピュータグラフィックスについても
高速、高品質な表示が可能となる。
By detecting line of sight, it is possible to adaptively control the definition of each part of the displayed image, so it is possible to reproduce an image similar to what appears on the retina when looking at real space when looking at the screen. Natural and powerful images can be generated and displayed. Furthermore, it becomes possible to display binocular stereoscopic computer graphics at high speed and with high quality.

さらに、視線の動きを予測した表示により、眼球などの
動きに同期した画像が生成されるため、画像表示の遅れ
による違和感が少なく、画像との一体感が向上する。
Furthermore, the display that predicts the movement of the line of sight generates an image that is synchronized with the movement of the eyeballs, etc., so there is less discomfort due to delays in image display, and a sense of unity with the image is improved.

また、この発明は臨場感豊かな知的符号化通信のコンピ
ュータグラフィックス処理部分、立体視コンピュータグ
ラフィックスに特に利用効果が大きい。その他、処理の
高速性と画像の高品質性が要求される多くのコンピュー
タグラフィックス分野に利用可能である。
Further, the present invention is particularly effective in the computer graphics processing portion of intelligent encoded communication with a rich sense of reality, and in stereoscopic computer graphics. In addition, it can be used in many computer graphics fields that require high processing speed and high quality images.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の原理を示す図である。第2図は第1
図に示した表示対象の階層的なモデリングを示す図であ
る。第3図および第4図はスクリーン注視点ep(s)
に対応するモデル上の点を求める方法を説明するための
図である。第5図はモデルの階層を選択する方法を説明
するための図である。第6図はこの発明の他の例におけ
るモデルの階層を選択する方法を説明するための図であ
る。第7図は2次および3次のBezier曲線を示す
図である。第8図はこの発明のさらに他の例であって視
点を観測者の眼球光学視点にした例を示す図である。第
9図は表示対象の構成面の位置がその面の中心位置で与
えられている実施例を示す図である。第10図は人間の
眼が平面の一点を注視したときのその周辺の視力を測定
し、注視点からの偏角と相対視力との関係を示す図であ
る。 第11図はこの発明のさらに他の例を示す図である。第
12図はこの発明のさらに他の例の原理を示す図であっ
て、観測者の動きによる遅れをさらに少なくする例を示
す図である。第13図はスクリーン注視点の周辺に被せ
られる高しきい遮断フィルタを示す図である。第14図
は第13図に示したフィルタをカメラで捕えた原画像に
施した結果を示す図である。第15図はこの発明の一実
施例の概略ブロック図である。第16図および第17図
はこの発明の一実施例の動作を説明するためのフロー図
である。第18図は、この発明の他の実施例の動作を説
明するためのフロー図である。 第19図はこの発明のその他の実施例の概略ブロック図
である。第20図はこの発明の応用例を示す図である。 第21図は従来の代表的な三次元画像生成方法を示す図
である。第22図は第21図に示した座標系をY (w
)軸上から見た図である。 第23図は第21図に示した座標系をY (e)軸上で
かっZ (e)軸方向に見た図である。第24図は第2
3図に示した表示対象の図である。 図において、objは表示基準座標系で既知な表示対象
、Pi(obj)は対象座標系で示された表示対象の構
造点、Slはスクリーン、h−。 bjは透視投影画像、○(e)は視点、ep(s)はス
クリーン注視点、eo(w)は空間注視点、Thは距離
を示す。 特許出願人 株式会社エイ・ティ・アール通信システム
研究所 稟10 z2区 ヒYヒ it −01 (b) (電翼1) 龍璋” ス8図 第10区 う1才!、、9、からの傷内 (度) 島 2回 0fel+−11 島 区 eL eR 叢 「 夷 日 o        30      50画イ龜周VL
卸の1iも空間用;を&+cpd1−575= 見 図 も ち24 ffi 瓢2 も 23図
FIG. 1 is a diagram showing the principle of this invention. Figure 2 is the first
FIG. 3 is a diagram illustrating hierarchical modeling of the displayed objects shown in the figure. Figures 3 and 4 are screen gaze points ep(s)
FIG. 3 is a diagram for explaining a method for finding points on a model corresponding to . FIG. 5 is a diagram for explaining a method for selecting a model hierarchy. FIG. 6 is a diagram for explaining a method for selecting a model hierarchy in another example of the present invention. FIG. 7 is a diagram showing quadratic and cubic Bezier curves. FIG. 8 is a diagram showing still another example of the present invention, in which the viewpoint is the optical viewpoint of the observer's eyeball. FIG. 9 is a diagram showing an embodiment in which the position of the constituent surface to be displayed is given by the center position of the surface. FIG. 10 is a diagram showing the relationship between the angle of deviation from the point of gaze and the relative visual acuity, measured by measuring the visual acuity around the point when the human eye gazes at a point on a plane. FIG. 11 is a diagram showing still another example of the present invention. FIG. 12 is a diagram illustrating the principle of still another example of the present invention, and is a diagram illustrating an example in which the delay due to the movement of the observer is further reduced. FIG. 13 is a diagram showing a high-threshold cutoff filter that is placed around the screen's gaze point. FIG. 14 is a diagram showing the result of applying the filter shown in FIG. 13 to an original image captured by a camera. FIG. 15 is a schematic block diagram of an embodiment of the present invention. FIGS. 16 and 17 are flowcharts for explaining the operation of one embodiment of the present invention. FIG. 18 is a flow diagram for explaining the operation of another embodiment of the present invention. FIG. 19 is a schematic block diagram of another embodiment of the invention. FIG. 20 is a diagram showing an example of application of the present invention. FIG. 21 is a diagram showing a typical conventional three-dimensional image generation method. Figure 22 shows the coordinate system shown in Figure 21 as Y (w
) This is a diagram seen from above the axis. FIG. 23 is a diagram of the coordinate system shown in FIG. 21 viewed from the Y (e) axis in the Z (e) axis direction. Figure 24 is the second
4 is a diagram of the display target shown in FIG. 3; FIG. In the figure, obj is a display object known in the display reference coordinate system, Pi (obj) is a structural point of the display object indicated in the object coordinate system, Sl is a screen, and h-. bj is a perspective projection image, ○(e) is a viewpoint, ep(s) is a screen gazing point, eo(w) is a spatial gazing point, and Th is a distance. Patent applicant A.T.R. Communication System Research Institute Rin 10 z2 Ward HiYhiit -01 (b) (Electronic Wing 1) Ryusho” S8 Figure 10 Ward 1 year old!,, 9, from In the wound (degree) Island 2 times 0fel + - 11 Island ward eL eR plexus ``Ibihi o 30 50 strokes 霜周VL
Wholesale 1i is also for space; &+cpd1-575= Mizu Mochi 24 ffi Gourd 2 Mo 23

Claims (9)

【特許請求の範囲】[Claims] (1)立体構造を持つ対象を二次元画面に投影して表示
する視線追従形高速画像生成表示方法であって、 前記対象の構成面は、対象座標系でかつ領域の大きさを
少なくとも1つの要素として階層的に記述され、 任意の視点から見たときの前記対象の構成面の前記二次
元画面への投影に際して、利用者の視線または視線が前
記二次元画面と交わる注視点を検出し、 視線または前記二次元画面の注視点と前記視線とを結ぶ
線分が表示座標系において前記対象の構成面と最初に交
差する点を空間注視点とし、該空間注視点または該点の
近傍にあり、表示対象の表現に必要な特徴点からの距離
を少なくとも1つのパラメータとする空間ごとに前記階
層度を選択することを特徴とする、視線追従形高速画像
生成表示方法。
(1) A line-of-sight tracking high-speed image generation and display method for projecting and displaying an object having a three-dimensional structure on a two-dimensional screen, wherein the constituent planes of the object are in the object coordinate system and the size of the area is determined by at least one Detecting a gaze point where a user's line of sight or line of sight intersects with the two-dimensional screen when the component plane of the object is projected onto the two-dimensional screen when viewed from an arbitrary viewpoint, which is hierarchically described as an element; A point at which a line segment connecting the line of sight or a point of gaze on the two-dimensional screen and the line of sight first intersects a constituent surface of the object in the display coordinate system is defined as a spatial point of gaze, and a point at or near the point of spatial gaze . A line-of-sight tracking high-speed image generation and display method, characterized in that the level of hierarchy is selected for each space in which at least one parameter is a distance from a feature point necessary for expressing a display target.
(2)表示基準座標系原点または前記視点から対象座標
系で表わされる該対象の任意の点までの距離を第2のパ
ラメータとして前記階層度を選択することを特徴とする
、請求項第1項記載の視線追従形高速画像生成表示方法
(2) The hierarchical level is selected using a distance from the origin of the display reference coordinate system or the viewpoint to an arbitrary point of the object expressed in the object coordinate system as a second parameter. The eye-tracking high-speed image generation and display method described above.
(3)さらに、左右の眼の光学系主点近傍を視点として
、該点から見た投影画像が生成されたことを特徴とする
、請求項第1項または第2項記載の視線追従形高速画像
生成表示方法。
(3) The line-of-sight tracking type high speed according to claim 1 or 2, further characterized in that a projection image viewed from a point near the optical system principal point of the left and right eyes is generated as a viewpoint. Image generation and display method.
(4)前記視線と前記二次元画面とが交わる点を注視点
とし、該注視点の位置を基準として、その周辺に高域遮
断フィルタをかけて表示することを特徴とする、請求項
第1項ないし第3項のいずれかに記載の視線追従形高速
画像生成表示方法。
(4) A point where the line of sight intersects with the two-dimensional screen is set as a point of interest, and the periphery of the point of interest is displayed with a high-frequency cutoff filter applied thereto. 3. The eye-tracking high-speed image generation and display method according to any one of items 1 to 3.
(5)立体構造を持つ対象を二次元画面に投影して表示
する視線追従形高速画像生成表示方法であって、 前記対象の構成面は、対象座標系でかつ領域の大きさが
少なくとも1つの要素として階層的に記述され、 任意の視点から見たときの前記対象構成面の前記二次元
画面への投影に際して、利用者の視線または視線が前記
二次元画面と交わる注視点を検出し、 視線または前記二次元画面の注視点と前記視線とを結ぶ
線分から該対象までの距離を少なくとも1つのパラメー
タとして、前記階層度を選択することを特徴とする、視
線追従形高速画像生成表示方法。
(5) A gaze-following high-speed image generation and display method for projecting and displaying an object having a three-dimensional structure on a two-dimensional screen, the constituent planes of the object being in the object coordinate system and having at least one area size. Described hierarchically as elements, when projecting the object constituent surface onto the two-dimensional screen when viewed from an arbitrary viewpoint, detects a gaze point where the user's line of sight or line of sight intersects with the two-dimensional screen, and determines the line of sight. Alternatively, a line-of-sight tracking high-speed image generation and display method, characterized in that the level of hierarchy is selected using, as at least one parameter, a distance from a line connecting the gaze point of the two-dimensional screen and the line of sight to the object.
(6)前記二次元画面の表示基準座標系原点または視点
から対象座標系で表わされる該対象の任意の点までの距
離を第2のパラメータとして前記階層度を選択すること
を特徴とする、請求項第5項記載の視線追従形高速画像
生成表示方法。
(6) The hierarchical level is selected using a distance from the origin or viewpoint of the display reference coordinate system of the two-dimensional screen to an arbitrary point on the object expressed in the object coordinate system as a second parameter. 3. The eye-tracking high-speed image generation and display method according to item 5.
(7)左右の眼の光学系主点近傍を視点として、該点か
ら見た投影画像が生成されることを特徴とする、請求項
第5項または第6項記載の視線追従形高速画像生成表示
方法。
(7) Line-of-sight tracking type high-speed image generation according to claim 5 or 6, characterized in that a projected image viewed from a point near the optical system principal point of the left and right eyes is generated. Display method.
(8)前記注視点の位置を起点として、その周辺に高域
遮断フィルタをかけて表示することを特徴とする、請求
項第5項ないし第7項のいずれかに記載の視線追従形高
速画像生成表示方法。
(8) The eye-tracking high-speed image according to any one of claims 5 to 7, characterized in that the eye-tracking high-speed image is displayed using the position of the gaze point as a starting point and applying a high-frequency cutoff filter to the periphery thereof. Generation display method.
(9)立体構造を持つ対象を二次元画面に投影して表示
する視線追従形高速画像生成表示方法であって、 前記対象の構成面は、対象座標系でかつ領域の大きさを
少なくとも1つの要素として階層的に記述され、 任意の視点から見たときの前記対象構成面の前記二次元
画面への投影に際して、利用者の視線の動きから先の画
像表示時刻における前記二次元画面の表示基準座標系の
中の注視点である空間注視点またはこの近傍を推定し、
該空間注視点またはこの近傍からの距離を少なくとも1
つのパラメータとして前記階層度を選択し、予め投影画
像を生成することを特徴とする、視線追従形高速画像生
成表示方法。
(9) A line-of-sight tracking high-speed image generation and display method for projecting and displaying an object having a three-dimensional structure on a two-dimensional screen, wherein the constituent surfaces of the object are in the object coordinate system and the size of the area is determined by at least one Hierarchically described as elements, when projecting the target constituent surface onto the two-dimensional screen when viewed from an arbitrary viewpoint, the display standard of the two-dimensional screen at the image display time after the movement of the user's line of sight. Estimate the spatial gaze point or its vicinity, which is the gaze point in the coordinate system,
The distance from the spatial gaze point or its vicinity is at least 1
A gaze-following high-speed image generation and display method, characterized in that the hierarchical level is selected as one parameter and a projection image is generated in advance.
JP11599690A 1990-05-02 1990-05-02 Eye-tracking high-speed image generation and display method Expired - Fee Related JPH07101461B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11599690A JPH07101461B2 (en) 1990-05-02 1990-05-02 Eye-tracking high-speed image generation and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11599690A JPH07101461B2 (en) 1990-05-02 1990-05-02 Eye-tracking high-speed image generation and display method

Publications (2)

Publication Number Publication Date
JPH0415772A true JPH0415772A (en) 1992-01-21
JPH07101461B2 JPH07101461B2 (en) 1995-11-01

Family

ID=14676273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11599690A Expired - Fee Related JPH07101461B2 (en) 1990-05-02 1990-05-02 Eye-tracking high-speed image generation and display method

Country Status (1)

Country Link
JP (1) JPH07101461B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04302381A (en) * 1991-03-29 1992-10-26 Koudo Eizou Gijutsu Kenkyusho:Kk High-speed image generating device
JPH06318235A (en) * 1993-03-31 1994-11-15 Toshiba Corp Materials presenting device
USRE42366E1 (en) 1995-12-18 2011-05-17 Sony Corporation Computer animation generator
JP2011165068A (en) * 2010-02-12 2011-08-25 Nec System Technologies Ltd Image generation device, image display system, image generation method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04302381A (en) * 1991-03-29 1992-10-26 Koudo Eizou Gijutsu Kenkyusho:Kk High-speed image generating device
JPH06318235A (en) * 1993-03-31 1994-11-15 Toshiba Corp Materials presenting device
USRE42366E1 (en) 1995-12-18 2011-05-17 Sony Corporation Computer animation generator
JP2011165068A (en) * 2010-02-12 2011-08-25 Nec System Technologies Ltd Image generation device, image display system, image generation method, and program

Also Published As

Publication number Publication date
JPH07101461B2 (en) 1995-11-01

Similar Documents

Publication Publication Date Title
US11580705B2 (en) Viewpoint dependent brick selection for fast volumetric reconstruction
US20230082705A1 (en) Reprojecting holographic video to enhance streaming bandwidth/quality
US11238659B2 (en) Caching and updating of dense 3D reconstruction data
US9122053B2 (en) Realistic occlusion for a head mounted augmented reality display
CN107004275B (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object
WO2020219601A1 (en) Head-mounted display with pass-through imaging
US9779512B2 (en) Automatic generation of virtual materials from real-world materials
US9268406B2 (en) Virtual spectator experience with a personal audio/visual apparatus
CN102445756B (en) Automatic focus improvement for augmented reality displays
CN110310329A (en) Method, information processing system and the non-transitory storage medium of operation display equipment
WO2013155217A1 (en) Realistic occlusion for a head mounted augmented reality display
CN108136258A (en) Picture frame is adjusted based on tracking eye motion
CN110378914A (en) Rendering method and device, system, display equipment based on blinkpunkt information
CN111007939B (en) Virtual reality system space positioning method based on depth perception
US11423602B2 (en) Fast 3D reconstruction with depth information
US20210264684A1 (en) Fitting of glasses frames including live fitting
US11620792B2 (en) Fast hand meshing for dynamic occlusion
US20220067966A1 (en) Localization and mapping using images from multiple devices
CN108205823A (en) MR holographies vacuum experiences shop and experiential method
JPH0415772A (en) Visual line following type high speed image generation/ display method
Piérard et al. I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes
JPH03296176A (en) High-speed picture generating/displaying method
CN112698724B (en) Implementation method of penetrating screen system based on camera eye movement tracking
US11517195B2 (en) Panum's area measurement method, apparatus, and wearable display device
CN108881892B (en) Anti-dizziness method and system for desktop virtual reality system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees