JPH0831140B2 - High-speed image generation and display method - Google Patents

High-speed image generation and display method

Info

Publication number
JPH0831140B2
JPH0831140B2 JP2098948A JP9894890A JPH0831140B2 JP H0831140 B2 JPH0831140 B2 JP H0831140B2 JP 2098948 A JP2098948 A JP 2098948A JP 9894890 A JP9894890 A JP 9894890A JP H0831140 B2 JPH0831140 B2 JP H0831140B2
Authority
JP
Japan
Prior art keywords
coordinate system
target
display
viewpoint
obj
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2098948A
Other languages
Japanese (ja)
Other versions
JPH03296176A (en
Inventor
明 伴野
治雄 竹村
聡 石橋
健二 秋山
信二 鉄谷
博幸 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Nippon Telegraph and Telephone Corp
Original Assignee
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk, Nippon Telegraph and Telephone Corp filed Critical Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Priority to JP2098948A priority Critical patent/JPH0831140B2/en
Publication of JPH03296176A publication Critical patent/JPH03296176A/en
Publication of JPH0831140B2 publication Critical patent/JPH0831140B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は高速で臨場感のある画像をスクリーン上に
表示するようなコンピュータグラフィックス、すなわち
高速画像生成表示方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to computer graphics for displaying a high-speed and realistic image on a screen, that is, a high-speed image generation and display method.

[従来の技術] 3次元画像をコンピュータによって生成して表示す
る、いわゆるコンピュータグラフィックスの技術は、科
学技術計算のシミュレーションを初めとして様々な分野
に利用されつつあるが、高精度化、すなわち、画像の高
品質化と高速化は相反する条件にあり、同時にこれを満
たす技術は現在のところ見当たらない。つまり、品質の
高い画像を生成しようとすると、画像生成のために膨大
な計算時間を必要とし、逆に高速、たとえば毎秒数10枚
の画像を表示するリアルタイム表示を目的とすると粗い
計算をせざるを得なくなり、生成画像の品質が悪くな
る。
[Prior Art] A technique of so-called computer graphics, in which a three-dimensional image is generated and displayed by a computer, is being used in various fields such as simulation of scientific and technological calculation. High quality and high speed are contradictory conditions, and at the same time, there is no technology to satisfy them. In other words, when trying to generate a high-quality image, a huge amount of calculation time is required for image generation, and conversely, for the purpose of high-speed, real-time display, for example, displaying several tens of images per second, rough calculations must be performed. And the quality of the generated image deteriorates.

一方、コンピュータグラフィックスの適用分野は、知
的符号化通信と呼ばれる画像通信の分野にも広がりつつ
ある。この方法では、送信側は画像認識により、送信対
象の3次元構造情報を抽出し、その特徴をパラメータ化
して伝送する。受信側では、予め3次元構造情報(デー
タベース)を用意しておき、伝送されてくる特徴パラメ
ータに基づいて、該3次元データベースを高速に変換し
て表示する。これらの通信方法では、受信側は送信側の
3次元構造情報を基にして、任意の視点からの画像を自
在に生成して表示することができるため、以下のような
多くの利点をもつ。
On the other hand, the application field of computer graphics is expanding to the field of image communication called intelligent coded communication. In this method, the transmitting side extracts the three-dimensional structural information of the transmission target by image recognition, parameterizes the characteristics, and transmits the parameterized information. On the receiving side, three-dimensional structure information (database) is prepared in advance, and the three-dimensional database is converted at high speed and displayed based on the transmitted characteristic parameters. In these communication methods, the receiving side can freely generate and display an image from any viewpoint based on the three-dimensional structural information of the transmitting side, and thus has many advantages as described below.

受信者の視点の動きを検出し、この動きに応じた画
像を表示することにより、運動視が実現できる。ここ
で、運動視とは、頭を動かした際に眼球の網膜上に映る
画像の変化から空間を知覚する人の潜在能力のことであ
り、日常、前後関係が分かりにくい視覚状況下で頭を動
かして認識を高めようとすることはよく経験することで
ある。すなわち、運動視をコンピュータグラフィックス
により人工的に実現することにより、スクリーン上の画
像の立体感が向上することが期待され、臨場感豊かな表
示が可能となる。
Motion can be realized by detecting the movement of the recipient's viewpoint and displaying an image corresponding to this movement. Here, kinetic vision is a person's potential ability to perceive space from the change in the image displayed on the retina of the eyeball when the head is moved. Trying to move and raise awareness is a common experience. That is, it is expected that the stereoscopic effect of the image on the screen will be improved by artificially realizing the motion vision by computer graphics, and the display with a high sense of presence can be realized.

受信者の両眼を2つの視点として、それぞれの視点
からの画像を生成して表示することにより、両眼立体視
を実現できる。人の両目は約6cmの距離を隔てて位置す
るため、頭を動かさなくとも、各目の網膜には別々な像
が投影される。この異なった2つの像の対応関係は視差
情報と呼ばれ、人はこれを利用して空間の立体感覚を得
ている。この視差情報をもつ画像をコンピュータグラフ
ィックスで実現することにより、スクリーン上の画像の
立体感がさらに向上する。
Binocular stereoscopic vision can be realized by generating and displaying an image from each of the two eyes of the recipient as two viewpoints. Since both eyes of a person are separated by a distance of about 6 cm, separate images are projected on the retinas of each eye without moving the head. The correspondence between these two different images is called parallax information, and a person uses this to obtain a stereoscopic sense of space. By realizing the image having the parallax information by computer graphics, the stereoscopic effect of the image on the screen is further improved.

その他、相手側(送信側)の人と視線を合わせて会
話するような画像も容易に生成できる。
In addition, it is possible to easily generate an image in which the person on the other side (sending side) has a line of sight and has a conversation.

しかし、このような通信方法を実現するには、現状で
はいくつかの困難がある。第1には、送信側における画
像認識および特徴パラメータの抽出であり、第2には、
受信側での高速でかつ広視野を高解像度で表示する画像
生成表示方法である。通信では、実時間の処理が本質的
な命題であり、従来のコンピュータグラフィックスに比
べて高速化への要求は高い。
However, at present, there are some difficulties in realizing such a communication method. The first is image recognition and extraction of characteristic parameters on the transmission side, and the second is
This is an image generation and display method for displaying a wide field of view at high speed and high resolution on the receiving side. In communication, real-time processing is an essential proposition, and there is a high demand for higher speed than conventional computer graphics.

以下に、高速・高精度表示が困難な理由について詳細
に説明する。
The reason why high-speed and high-precision display is difficult will be described in detail below.

第15図は従来の代表的な3次元画像生成表示方法を説
明するための図である。第15図において、スクリーンS1
は、このスクリーンS1の中心を原点とする表示基準座標
系X(w)−Y(w)−Z(w)で表わされる。なお、
この座標系は以下の各座標系の位置関係を記述する機能
をもち、原点はスクリーンS1の中心でなくてもよいもの
とする。視点座標系X(e)−Y(e)−Z(e)は、
表示基準座標系X(w)−Y(w)−Z(w)からみて
位置と座標軸の回転角が既知になっている。表示対象物
体objは3次元構造をもち、この対象の構造点Pi(obj)
は対象座標系X(obj)−Y(obj)−Z(obj)で表わ
されているものとする。
FIG. 15 is a diagram for explaining a conventional representative three-dimensional image generating and displaying method. In FIG. 15, the screen S1
Is represented by a display reference coordinate system X (w) -Y (w) -Z (w) whose origin is the center of the screen S1. In addition,
This coordinate system has a function of describing the positional relationship of the following coordinate systems, and the origin may not be the center of the screen S1. The viewpoint coordinate system X (e) -Y (e) -Z (e) is
The position and the rotation angle of the coordinate axis are known as viewed from the display reference coordinate system X (w) -Y (w) -Z (w). The display target object obj has a three-dimensional structure, and the target structure point Pi (obj)
Is represented by the target coordinate system X (obj) -Y (obj) -Z (obj).

このような状況において、構造点Piを視点Oeから見た
とき、このPi点がスクリーンS1上のどの位置に表示され
るかについて考える。表示基準座標系X(w)−Y
(w)−Z(w)に対して、対象座標系X(obj)−Y
(obj)−Z(obj)は既知としているので、対象座標系
X(obj)−Y(obj)−Z(obj)で表わされる構造点P
i(pbj)は表示基準座標系X(w)−Y(w)−Z
(w)で、Pi(w)=M1・Pi(obj)のように示され
る。
In such a situation, when the structural point Pi is viewed from the viewpoint Oe, the position on the screen S1 at which the Pi point is displayed will be considered. Display reference coordinate system X (w) -Y
For (w) -Z (w), the target coordinate system X (obj) -Y
Since (obj) -Z (obj) is already known, the structural point P represented by the target coordinate system X (obj) -Y (obj) -Z (obj)
i (pbj) is the display reference coordinate system X (w) -Y (w) -Z
In (w), it is shown as Pi (w) = M1 · Pi (obj).

ここで、M1は移動と回転のための変換マトリックスで
ある。また、視点座標系X(e)−Y(e)−Z(e)
も表示基準座標系X(w)−Y(w)−Z(w)で表わ
すことができると仮定しているので、この変換マトリッ
クスをM2とすると、表示基準座標系X(w)−Y(w)
−Z(w)からみた構造点Pi(w)は、視点座標系X
(e)−Y(e)−Z(e)からみて、 Pi(e)=M2-1・Pi(w)=M1・M2-1・Pi(obj) と表わすことができる。このように、表示基準座標系X
(w)−Y(w)−Z(w)と対象座標系X(obj)−
Y(obj)−Z(obj)および表示基準座標系X(w)−
Y(w)−Z(w)と視点座標系X(e)−Y(e)−
Z(e)との関係がわかれば、対象座標系で示された構
造点Pi(obj)は視点座標系で自在に表わすことができ
る。
Here, M1 is a transformation matrix for movement and rotation. Also, the viewpoint coordinate system X (e) -Y (e) -Z (e)
Is also assumed to be represented by the display reference coordinate system X (w) -Y (w) -Z (w), so if this conversion matrix is M2, the display reference coordinate system X (w) -Y ( w)
-The structural point Pi (w) viewed from Z (w) is the viewpoint coordinate system X.
From the viewpoint of (e) -Y (e) -Z (e), it can be expressed as Pi (e) = M2 −1 · Pi (w) = M1 · M2 −1 · Pi (obj). In this way, the display reference coordinate system X
(W) -Y (w) -Z (w) and target coordinate system X (obj)-
Y (obj) -Z (obj) and display reference coordinate system X (w)-
Y (w) -Z (w) and viewpoint coordinate system X (e) -Y (e)-
If the relationship with Z (e) is known, the structure point Pi (obj) shown in the target coordinate system can be freely expressed in the viewpoint coordinate system.

ここで、視点座標系で示された構造点Pi(e)のスク
リーン上の点を求めるために、正規透視座標系と呼ばれ
るX(np)−Y(np)−Z(np)を考える。この座標系
は視点座標系のZ(e)軸上に原点O(np)があり、視
点座標系でハッチした視野ピラミッドと呼ばれる領域A,
B,C,D,A(∞),B(∞),C(∞),D(∞)が、一点鎖線
で示した直方体A,B,C,D,A′(∞),B′(∞),C′
(∞),D′(∞)に一致する対応関係がある。直方体の
Z(np)軸方向は1に正規化してあるものとする。すな
わち、Z(np)=0点は、Z(e)軸のhに対応し、Z
(np)=1の点はZ(e)=∞に対応する。この条件で
第10図に示す棒状物体objは正規透視座標系X(np)−
Y(np)−Z(np)では一点鎖線で示すように、Z(n
p)軸の大きな方では断面が小さくなる。この視点座標
系と正規透視座標系との変換は4×4のマトリックスM3
で示すことができる。したがって、Pi(np)は、 Pi(np)=M3・Pi(e) で表わすことができる。ここで、Pi(np)をA,B,C,D面
に平行投影すると、点線で示すξi(s)が得られる。
Here, X (np) -Y (np) -Z (np) called a normal perspective coordinate system is considered in order to find the point on the screen of the structural point Pi (e) shown in the viewpoint coordinate system. This coordinate system has an origin O (np) on the Z (e) axis of the viewpoint coordinate system, and is a region A called a field pyramid hatched in the viewpoint coordinate system.
B, C, D, A (∞), B (∞), C (∞), D (∞) are rectangular parallelepiped A, B, C, D, A ′ (∞), B ′ ( ∞), C ′
There is a correspondence that matches (∞), D ′ (∞). It is assumed that the direction of the Z (np) axis of the rectangular parallelepiped is normalized to 1. That is, Z (np) = 0 point corresponds to h on the Z (e) axis,
The point of (np) = 1 corresponds to Z (e) = ∞. Under this condition, the rod-shaped object obj shown in FIG. 10 becomes the normal perspective coordinate system X (np) −
In Y (np) -Z (np), Z (n
The larger the p) axis, the smaller the cross section. The conversion between this viewpoint coordinate system and the normal perspective coordinate system is a 4 × 4 matrix M3.
Can be shown as Therefore, Pi (np) can be represented by Pi (np) = M3 · Pi (e). Here, when Pi (np) is parallel-projected on the A, B, C, and D planes, ξi (s) shown by a dotted line is obtained.

第15図では、説明の簡単のため、正規透視座標系X
(np)−Y(np)−Z(np)は表示基準座標系X(w)
−Y(w)−Z(w)と原点および軸方向が重なってい
るものとしている。したがって、視点座標系のZ(e)
軸は、表示基準座標系のZ(w)軸と同一方向である。
In FIG. 15, the normal perspective coordinate system X is shown for simplicity of explanation.
(Np) -Y (np) -Z (np) is the display reference coordinate system X (w)
It is assumed that -Y (w) -Z (w) overlaps the origin and the axial direction. Therefore, Z (e) of the viewpoint coordinate system
The axis is in the same direction as the Z (w) axis of the display reference coordinate system.

この場合、直方体A,B,C,Dがスクリーンの大きさに対
応する。したがって、ξi(s)がすなわち視点O
(e)から見たスクリーンへの投影像である。このよう
に、構造点Pi(obj)からξi(s)へは3つの行列演
算と平行投影が必要である。
In this case, the rectangular parallelepipeds A, B, C and D correspond to the size of the screen. Therefore, ξi (s) is the viewpoint O
It is a projected image on the screen seen from (e). As described above, three matrix operations and parallel projection are required from the structural point Pi (obj) to ξi (s).

次に、視点が表示基準座標系のZ(e)軸からずれる
場合について説明する。第15図において、O′(e)は
移動した視点位置である。この移動した点を原点とし、
O′(e)−O(w)線をZ′(e)軸とする新しい視
点座標系X′(e)−Y′(e)−Z′(e)を考え
る。表示基準座標系X(w)−Y(w)−Z(w)から
見た該新視点座標系の位置を既知とすると、X(e)−
Y(e)−Z(e)からX′(e)−Y′(e)−Z′
(e)への変換はマトリックスM4を介して可能である。
したがって、新視点座標系から見た構造点Piは、Pi
(e)′=M4・Pi(e)=M4・M1・M2-1・Pi(obj)で
表わされる。
Next, a case where the viewpoint deviates from the Z (e) axis of the display reference coordinate system will be described. In FIG. 15, O '(e) is the moved viewpoint position. With this moved point as the origin,
Consider a new viewpoint coordinate system X '(e) -Y' (e) -Z '(e) with the O' (e) -O (w) line as the Z '(e) axis. If the position of the new viewpoint coordinate system viewed from the display reference coordinate system X (w) -Y (w) -Z (w) is known, X (e)-
From Y (e) -Z (e) to X '(e) -Y' (e) -Z '
Conversion to (e) is possible via matrix M4.
Therefore, the structural point Pi seen from the new viewpoint coordinate system is Pi
(E) ′ = M4 · Pi (e) = M4 · M1 · M2 −1 · Pi (obj)

第16図は第15図のY(w)軸上から見た図である。Pi
(e)′に前述の正規透視投影変換マトリックスM3をか
けると、Pi′(np)が得られ、これを平行投影するとξ
(s)が得られる。ここで、表示基準座標系から見
た新視点座標系X′(e)−Y′(e)−Z′(e)の
位置が既知のため、ξi(s)とO′(e)とを結ぶ
線がスクリーンと交わる点を求めることは容易である。
この点ξi′(s)がすなわち、視点O′から見たスク
リーンへの投影像である。このように、構造点Pi(ob
j)からξi′(s)へは4つの行列演算と平行投影な
どが必要である。
FIG. 16 is a view as seen from the Y (w) axis of FIG. Pi
Multiplying (e) ′ by the above-mentioned normal perspective projection transformation matrix M3, Pi ′ (np) is obtained.
i * (s) is obtained. Here, since the position of the new viewpoint coordinate system X ′ (e) −Y ′ (e) −Z ′ (e) viewed from the display reference coordinate system is known, ξi * (s) and O ′ (e) It is easy to find the point where the line connecting the and intersects the screen.
This point ξi ′ (s) is the projected image on the screen viewed from the viewpoint O ′. Thus, the structure point Pi (ob
Four matrix operations and parallel projection are required from j) to ξi '(s).

上述のごとく、表示基準座標系X(w)−Y(w)−
Z(w)において、対象座標系X(obj)−Y(obj)−
Z(obj)の位置が記述された表示対象、また対象座標
系において各構造点Pi(obj)の座標が記述された表示
対象は、任意の視点からスクリーンに透視投影できる。
しかし、上述のごとく、多くの行列演算を表示対象の構
成点の全てについて行なう必要があるため、計算時間が
膨大になる。マトリックスの演算はハードウェア化する
ことにより、かなり高速にはなるが、構成点の数が数10
00点以上になるとリアルタイムの処理が難しくなる。ま
た、表示対象の位置によって無駄な処理が多く行なわ
れ、処理速度を制限している。これについて以下に示
す。
As described above, the display reference coordinate system X (w) -Y (w)-
In Z (w), the target coordinate system X (obj) -Y (obj)-
The display target in which the position of Z (obj) is described and the display target in which the coordinates of each structural point Pi (obj) in the target coordinate system are described can be perspectively projected onto the screen from an arbitrary viewpoint.
However, as described above, it is necessary to perform many matrix calculations for all the constituent points to be displayed, so the calculation time becomes huge. The operation of the matrix will be considerably faster by using hardware, but the number of constituent points will be tens.
When the score is 00 or more, real-time processing becomes difficult. In addition, a lot of useless processing is performed depending on the position of the display target, limiting the processing speed. This is shown below.

第17図は第15図に示した座標系をY(e)軸上でかつ
Z(e)軸方向に見たものであり、第18図は第17図に示
した表示対象を示す図である。
17 is a view of the coordinate system shown in FIG. 15 on the Y (e) axis and in the Z (e) axis direction, and FIG. 18 is a view showing the display object shown in FIG. is there.

第17図において、スクリーンS1は多数の画素giからな
る。表示対象は、第18図に示すように3次元構造をも
ち、構造点Piとその点がつくる構造面Liなどによって構
成されている。この表示対象が表示基準座標系において
近くにある場合を第17図(A)で示し、遠くにある場合
を第17図(B)で示し、それぞれobj1,obj2とする。第1
5図および第16図で説明した方法により、スクリーンS1
には表示対象h−obj1,h−obj2が投影される。各構成点
のスクリーン座標上の対応する画素に信号を送り表示す
ることができる。obj2は遠方にあるため、h−obj1に比
べて各構成点間の距離が小さい。この間隔が画素間隔よ
りも十分小さくなれば、その画素の中にはいるいくつか
の構成点を全て計算する必要がなくなる。また、人の目
には視力特性があり、スクリーンS1面においてこの眼の
分解能以下の間隔で各構成点を計算しても意味がない。
In FIG. 17, the screen S1 is composed of a large number of pixels gi. The display target has a three-dimensional structure as shown in FIG. 18, and is composed of a structural point Pi and a structural surface Li formed by the point. FIG. 17 (A) shows the case where this display object is near in the display reference coordinate system, and FIG. 17 (B) shows the case where it is far away in the display reference coordinate system, which are designated as obj1 and obj2 respectively. First
According to the method described in FIGS. 5 and 16, the screen S1
The display objects h-obj1 and h-obj2 are projected on. A signal can be sent to the corresponding pixel on the screen coordinate of each constituent point for display. Since obj2 is located far away, the distance between the constituent points is smaller than that of h-obj1. If this distance is sufficiently smaller than the pixel distance, it is not necessary to calculate all the constituent points included in the pixel. In addition, human eyes have visual acuity characteristics, and it is meaningless to calculate each constituent point on the screen S1 surface at intervals equal to or lower than the resolution of the eyes.

既存のアルゴリズムでは、表示対象の位置にかかわら
ず、また利用者の視力特性を考慮することなく、対象の
全ての構成点について計算するため、表示速度が遅くな
り、複雑な対象をリアルタイムで表示することが困難と
なる。
The existing algorithm calculates all the constituent points of the target regardless of the position of the display target and without considering the visual acuity characteristics of the user, so the display speed becomes slow and a complicated target is displayed in real time. Becomes difficult.

[発明が解決しようとする課題] 上述の問題は立体視コンピュータグラフィックスを実
現する際に特に問題となる。立体視コンピュータグラフ
ィックスとは、利用者の右目,左目を視点として、3次
元表示対象を見たときのスクリーンへの透視画像を別々
に計算し、これを時分割などにより利用者の左右の各目
に対応したスクリーンに投影することにより、利用者に
立体的と感じさせる表示を行なう手法である。
[Problems to be Solved by the Invention] The above-mentioned problems are particularly problematic when realizing stereoscopic computer graphics. Stereoscopic computer graphics is a method in which a perspective image on a screen when a three-dimensional display target is viewed is calculated separately from the user's right eye and left eye as viewpoints, and this is calculated by time division or the like for each of the left and right users. This is a method of displaying a stereoscopic image by projecting it on a screen corresponding to the eyes.

立体視表示では、奥行き間隔が利用者にはっきりと認
識されるため、本来大きな物体(たとえば、ビルディン
グなど)は大きく、小さな物体(たとえば、虫など)は
小さくモデリングする必要が出てくる。立体視でないコ
ンピュータグラフィックスでは、物体を大きくモデリン
グしなくても視点の近くに配置することが大きく見せる
工夫が可能である。ところが、立体視では奥行き間隔が
視差情報により与えられるため、小さなものを手前にお
いても、大きな物体とは認識されず、そのとおり小さな
ものが手前にあるように見えてしまう。
In the stereoscopic display, since the depth interval is clearly recognized by the user, it is necessary to model a large object (such as a building) that is originally large and a small object (such as a bug) to be small. In computer graphics that is not stereoscopic, it is possible to make a great idea that the object is placed close to the viewpoint without modeling it greatly. However, in stereoscopic view, since the depth interval is given by parallax information, even if a small object is in the foreground, it is not recognized as a large object, and the small object appears to be in the foreground.

物体を本来の大きさにモデル化すると、大きな物体
は、その物体が視点の近くに来てスクリーン一杯に広が
る場合も想定すると細部に至るまで細かくモデル化する
必要がある。一方、該物体が視点から遠くに離れた場合
には、第17図(B)に示すように、スクリーンの一部分
にその全体が表示されるにもかかわらず、近くにある場
合と同じ計算量を必要とする不合理がある。
When an object is modeled in its original size, it is necessary to model a large object in detail, assuming that the object comes near the viewpoint and spreads over the screen. On the other hand, when the object is distant from the viewpoint, as shown in FIG. 17 (B), even though the entire screen is displayed on a part of the screen, the same amount of calculation as when the object is near is achieved. There is an irrational need.

以上、高速のコンピュータグラフィックスの必要性に
ついて述べたが、コンピュータグラフィックスがリアル
タイムであっても、応用によっては不都合がある。臨場
感通信では、仮想的な空間をコンピュータグラフィック
スにより人工的に作り、この中に実際に居る感覚で該仮
想空間とは様々な相互作用をすることになる。この際求
められるのは、単に高速というだけでなく、観測者の動
きに同期してスクリーンの画像を変化する特性である。
しかし、コンピュータグラフィックスでは画像を生成す
るための時間が必ず残るため、毎秒数10枚の画像を生成
し、表示できても、観測者の動きに対して各画像を生成
する遅れ時間があれば、違和感を生じ、仮想空間との一
体感が得られない。
The need for high-speed computer graphics has been described above, but even if the computer graphics are real-time, there are some inconveniences depending on the application. In the realistic communication, a virtual space is artificially created by computer graphics, and various interactions with the virtual space occur as if the virtual space were actually present. In this case, what is required is not only high speed, but also the property of changing the image on the screen in synchronization with the movement of the observer.
However, in computer graphics, the time to generate images always remains, so even if it is possible to generate and display several tens of images per second, if there is a delay time to generate each image with respect to the observer's motion. , I feel uncomfortable and cannot get a sense of unity with the virtual space.

それゆえに、この発明の主たる目的は、知的符号化通
信や立体視コンピュータグラフィックスに必要なリアル
タイムで精度の高いコンピュータグラフィックス表示
を、計算量を大幅に少なくすることにより実現し得る高
速画像生成表示方法を提供することである。
Therefore, a main object of the present invention is to realize a high-speed image generation capable of realizing highly accurate real-time computer graphics display required for intelligent coded communication and stereoscopic computer graphics by significantly reducing the amount of calculation. It is to provide a display method.

この発明の他の目的は、運動視を実現するコンピュー
タグラフィックスなどにおいて、画像を生成してから表
示するまでの時間遅れを少なくし、違和感のない自然な
表示を実現し得る高速画像生成表示方法を提供すること
である。
Another object of the present invention is a high-speed image generation and display method capable of realizing a natural display without discomfort by reducing the time delay from the generation of an image to the display in computer graphics for realizing motion vision. Is to provide.

[課題を解決するための手段] この発明は立体構造を持つ対象を、面の大きさを少な
くとも1つの基準として、異なる複数の詳細度で記述
し、(a)操作者の視点を検出し、(b)次の画像表示
時刻における操作者の視点を予測し、(c)予測した視
点から対象までの距離を少なくとも1つのパラメータと
して対象の詳細度を設定し、(d)設定された詳細度に
より指定される対象のモデルと、予測した視点とに基づ
いて対象を2次元画面に投影した画像を生成して表示
し、これらの(a)〜(d)を繰返すようにしたもので
ある。
[Means for Solving the Problems] According to the present invention, an object having a three-dimensional structure is described at a plurality of different levels of detail with the size of a surface as at least one criterion, and (a) an operator's viewpoint is detected, (B) The operator's viewpoint at the next image display time is predicted, (c) the detail level of the target is set with the distance from the predicted viewpoint to the target as at least one parameter, and (d) the set detail level. An image obtained by projecting the target on a two-dimensional screen is generated and displayed based on the model of the target designated by the above and the predicted viewpoint, and (a) to (d) are repeated.

[作用] この発明に係る高速画像生成表示方法は、操作者の視
点を検出しするとともに、次の画像表示時刻における操
作者の視点を予測し、予測した視点から対象までの距離
を少なくとも1つのパラメータとして対象の詳細度を設
定し、設定された詳細度により指定される対象のモデル
と予測した視点とに基づいて対象を2次元画面に投影し
た画像を繰返し生成して表示することにより、特に遠く
の物体について計算量を大幅に減らして高速化を図り、
自然な画像を得る。
[Operation] The high-speed image generation and display method according to the present invention detects the operator's viewpoint, predicts the operator's viewpoint at the next image display time, and determines at least one distance from the predicted viewpoint to the target. By setting the detail level of the target as a parameter and repeatedly generating and displaying an image obtained by projecting the target on a two-dimensional screen based on the target model specified by the set level of detail and the predicted viewpoint, The amount of calculation is greatly reduced for distant objects to increase the speed,
Get a natural image.

[発明の実施例] 第1図はこの発明の原理を示す図であり、第2図は第
1図に示した表示対象の階層的なモデリング例を示す図
である。
[Embodiment of the Invention] FIG. 1 is a diagram showing the principle of the present invention, and FIG. 2 is a diagram showing an example of hierarchical modeling of the display target shown in FIG.

まず、第1図を参照して、この発明の原理について説
明する。ベクトルVO1,VO2はそれぞれ表示基準座標系X
(w)−Y(w)−Z(w)の原点O(w)から表示対
象obj1,obj2の対象座標系原点(obj1,obj2)へのベクト
ルである。また、第10図に示した従来例と比較して、異
なる点は表示対象の構造データの持ち方である。第2図
に表示対象の階層的なモデリング例を示す。第2図に示
した例では、表示対象は複数の構造点(k1j,k2j,k3j
…;j=1…)とこの構造点の集合により作られる構造面
(l1j)は4つの構造点により囲まれる面として定義さ
れる)などにより記述される。各構造点は対象座標系X
(obj)−Y(obj)−Z(obj)により表わされる。第
2図での階層の設定は、各構造点間の距離または構造面
の大きさが所定の大きさを越える毎に構造点の数を減ら
して行き、全体で3段階の階層としている。このよう
な、構造点と該点を結ぶ線分により表わされるデータ構
造をワイヤフレーム構造と呼ぶ。
First, the principle of the present invention will be described with reference to FIG. Vectors VO1 and VO2 are the display reference coordinate system X
It is a vector from the origin O (w) of (w) -Y (w) -Z (w) to the target coordinate system origin (obj1, obj2) of the display objects obj1, obj2. Also, the difference from the conventional example shown in FIG. 10 is how to hold the structural data to be displayed. FIG. 2 shows an example of hierarchical modeling of the display target. In the example shown in FIG. 2, the display target is a plurality of structural points (k 1j , k 2j , k 3j).
...; j = 1 ...) and a structural surface (l 1j ) formed by this set of structural points is defined as a surface surrounded by four structural points). Each structural point is the target coordinate system X
It is represented by (obj) -Y (obj) -Z (obj). In the hierarchy setting in FIG. 2, the number of structure points is reduced each time the distance between the structure points or the size of the structure surface exceeds a predetermined size, and there are three levels of hierarchy as a whole. A data structure represented by such structure points and a line segment connecting the points is called a wireframe structure.

第1図に示した例では、第2図に示すように階層化さ
れた表示対象の階層度を表示基準座標系の原点O(w)
からの対象座標系原点までの距離を1つのパラメータと
して適応的に選択して表示する。
In the example shown in FIG. 1, the hierarchical degree of the display object hierarchically arranged as shown in FIG. 2 is the origin O (w) of the display reference coordinate system.
The distance from to the origin of the target coordinate system is adaptively selected and displayed as one parameter.

第3図はこの様子を示したものであって、表示座標系
の原点O(w)からの対象座標系原点までの距離を1つ
のパラメータとして適応的に選択して表示した例を示す
図である。第3図において、領域Th1,Th2,Th3は表示
基準座標系の原点O(w)からの距離が所定の値の領域
である。領域Th1の内側に対象座標系の原点を含む該対
象(たとえばobj1)は第2図(b)に示すモデリング階
層を用い、領域Th3の内側に対象座標系の原点を含む該
対象は第2図(c)を用いてそれぞれh−obj2,h−obj3
のように表示する。
FIG. 3 shows this state, and is a diagram showing an example in which the distance from the origin O (w) of the display coordinate system to the origin of the target coordinate system is adaptively selected and displayed as one parameter. is there. In FIG. 3, areas Th 1 , Th 2 , and Th 3 are areas in which the distance from the origin O (w) of the display reference coordinate system is a predetermined value. The object including the origin of the target coordinate system inside the area Th 1 (for example, obj1) uses the modeling hierarchy shown in FIG. 2B, and the object including the origin of the target coordinate system inside the area Th 3 is the second H-obj2 and h-obj3 respectively using FIG.
Is displayed.

表示対象は第2図に示すように同じ大きさであるが、
近くにある場合には、スクリーンS1にはh−obj1のよう
に大きく、遠くにある場合にはh−obj3のように小さく
表示される。このときのモデリングの階層は近くにある
ときには細かく、遠くにあるときには粗く選択される。
したがって、観察者にはh−obj1およびh−obj3ともに
必要十分に精細に感じられる。obj2,obj3の透視投影変
換の計算速度はobj1の場合よりはるかに速く、したがっ
て、スクリーンS1全体を表示するに必要な計算量は従来
より大幅に少なくなる。この効果は、特に背景の表示対
象が複雑になるほど高くなる。実際の空間では観測者の
近くにある対象より、遠くにある対象の方がはるかに多
い。したがって、臨場感が高い画像を高速に生成するこ
とができる。
Although the display target is the same size as shown in FIG. 2,
When it is near, it is displayed on the screen S1 as large as h-obj1 and when it is far, it is displayed as small as h-obj3. The modeling hierarchy at this time is selected finely when it is close, and coarsely when it is far.
Therefore, the observer feels that both h-obj1 and h-obj3 are fine and necessary. The calculation speed of the perspective projection transformation of obj2 and obj3 is much faster than that of obj1, and therefore, the amount of calculation required to display the entire screen S1 is significantly smaller than in the past. This effect becomes higher as the display target of the background becomes more complicated. In real space, there are far more objects far away than those near the observer. Therefore, it is possible to generate an image with a high sense of realism at high speed.

なお、上述の第1図および第3図に示した例では、表
示基準座標系の原点O(w)からの対象座標系原点まで
の距離をパラメータとしたが、たとえば対象が大きい場
合、対象座標系原点から該対象の構造面までの距離が大
きくなるため、ある構造面と他の構造面との距離が大き
く離れ、一方は手前に、他方は遠くに位置することもあ
り得る。このような場合、対象座標系の原点以外の点ま
での距離をパラメータとして用いるほうが合理的なこと
がある。
In the examples shown in FIG. 1 and FIG. 3 described above, the distance from the origin O (w) of the display reference coordinate system to the origin of the target coordinate system is used as a parameter. Since the distance from the system origin to the structural surface of the object becomes large, the distance between a certain structural surface and another structural surface may be greatly separated, and one may be located in front and the other may be located far away. In such a case, it may be more rational to use the distance to a point other than the origin of the target coordinate system as a parameter.

第4図は表示対象が大きく複数の構造物の組合わせで
形成されていて、各部分の構造物に個別の対象座標系を
設定できる例を示す図である。第4図において、表示基
準座標系の原点または視点位置はKで表わされ、主たる
対象座標系はCor−M−objで表わされ、この位置ベクト
ルはVOで表わされ、主たる対象座標系Cor−M−objの一
部または主たる対象座標系Cor−M−objに連結された対
象obj2の副対象座標系はCor−S−objで表わされる。主
たる対象座標系Cor−M−objからみて副対象座標系Cor
−S−objの位置はベクトルVO1で与えられる。この例で
は、対象obj2の位置はV0+Vo1=V2で表わされる。精細
と非精細のモデリング階層の分割を視点位置Kからの距
離Thにより行なうとする。対象obj2の原点O(obj2)は
距離Thの内側にあるため、構造点間の間隔が密なモデル
が選ばれる。対象obj1の原点O(obj1)は距離Thの外側
にあるため、粗なモデルが選ばれる。なお、対象obj1の
中の破線は選択されなかった候補点(線)である。
FIG. 4 is a diagram showing an example in which the display object is large and is formed by combining a plurality of structures, and an individual target coordinate system can be set for the structure of each part. In FIG. 4, the origin or viewpoint position of the display reference coordinate system is represented by K, the main target coordinate system is represented by Cor-M-obj, and this position vector is represented by VO, and the main target coordinate system is represented. A part of Cor-M-obj or a sub-target coordinate system of the target obj2 connected to the main target coordinate system Cor-M-obj is represented by Cor-S-obj. Sub-target coordinate system Cor as seen from the main target coordinate system Cor-M-obj
The position of -S-obj is given by the vector VO1. In this example, the position of the target obj2 is represented by V0 + Vo1 = V2. It is assumed that the fine and non-fine modeling layers are divided by the distance Th from the viewpoint position K. Since the origin O (obj2) of the object obj2 is inside the distance Th, a model having a close interval between the structure points is selected. Since the origin O (obj1) of the target obj1 is outside the distance Th, a rough model is selected. The broken line in the target obj1 is a candidate point (line) that has not been selected.

第5図はこの発明の一実施例の概略ブロック図であ
る。この第5図に示した実施例では、視点が眼球であ
り、移動する場合であって、説明の簡略化のために表示
対象を表示基準座標系で静止しているものとする。な
お、第5図の太い実線で示した部分が従来技術にない新
規な手段である。
FIG. 5 is a schematic block diagram of one embodiment of the present invention. In the embodiment shown in FIG. 5, it is assumed that the viewpoint is an eyeball and the eyeball is moving, and the display target is stationary in the display reference coordinate system for simplification of the description. The portion shown by the thick solid line in FIG. 5 is a novel means which is not in the prior art.

第5図を参照して、視点検出手段10は表示基準座標系
で眼球の視点を検出する。対象座標系設定手段20は表示
基準座標系で表示対象の原点位置と回転角(角度)を指
定する。距離計算手段30は視点検出手段10の検出出力と
対象座標系設定手段20で指定された原点位置および回転
角に応じて、視点から対象座標系原点までの距離を計算
する。3次元階層化データベース80は表示対象物体の構
成面が領域の大きさを1つのパラメータとして階層的に
記述されている。構成点/構成面生成手段40は表示すべ
き対象座標系の原点位置と前述の距離とを入力として受
け、3次元階層化データベース80によって示される構成
面データを参照しながら、表示基準座標系において立体
構造を持つ3次元モデルを生成する。なお、第5図の点
線で示す部分は距離をパラメータとして階層度を選択す
る処理手段100を構成している。
Referring to FIG. 5, the viewpoint detecting means 10 detects the viewpoint of the eyeball in the display reference coordinate system. The target coordinate system setting means 20 specifies the origin position and rotation angle (angle) of the display target in the display reference coordinate system. The distance calculation means 30 calculates the distance from the viewpoint to the origin of the target coordinate system according to the detection output of the viewpoint detection means 10 and the origin position and rotation angle designated by the target coordinate system setting means 20. In the three-dimensional hierarchical database 80, the constituent surface of the display target object is hierarchically described with the size of the area as one parameter. The component point / component surface generation means 40 receives the origin position of the target coordinate system to be displayed and the above-mentioned distance as inputs, and refers to the component surface data shown by the three-dimensional hierarchical database 80 in the display reference coordinate system. Generate a three-dimensional model with a three-dimensional structure. The portion shown by the dotted line in FIG. 5 constitutes processing means 100 for selecting the hierarchy level using the distance as a parameter.

透視投影変換手段50は視点位置と上述の3次元モデル
を入力として、表示対象を2次元スクリーン画面に透視
投影する。表示画像生成手段60は3次元階層化データベ
ース80に対して物体の指定,構成面の指定,階層の指定
を行なうことによって得られる構成面データを参照しな
がら、対象の構成面に着色などの模様付けをする。表示
手段70はレンチキュラースクリーンなどが用いられ、対
象物体を表示する。なお、第5図に示した実施例では、
構成点/構成面を生成するにあたって、上述の距離によ
り構成面の精細度に重みづけを行なうが、この操作は構
成点/構成面生成手段40により、予め定められている基
準値Thと距離とを比較しながら、所定の階層の構成面を
3次元階層化データベース80から引き出すことによって
行なわれる。
The perspective projection conversion means 50 receives the viewpoint position and the above-described three-dimensional model, and perspective-projects the display target on a two-dimensional screen. The display image generating means 60 refers to the component plane data obtained by designating the object, the component plane, and the layer in the three-dimensional hierarchical database 80, and the pattern such as coloring of the target component plane is obtained. Add a note. A lenticular screen or the like is used as the display unit 70 to display the target object. Incidentally, in the embodiment shown in FIG.
When generating the constituent points / structural surfaces, the definition of the constituent surfaces is weighted by the distances described above. This operation is performed by the constituent point / structural surface generating means 40 with a predetermined reference value Th and distance. Is performed by extracting the constituent surface of a predetermined hierarchy from the three-dimensional hierarchical database 80 while comparing

第6図はこの発明の一実施例の具体的な動作を説明す
るためのフロー図である。
FIG. 6 is a flow chart for explaining a specific operation of the embodiment of the present invention.

次に、第6図を参照して、この発明の一実施例の具体
的な動作について説明する。いま、前述の第1図および
第3図に示すように、表示基準座標系において、対象ob
j1,obj2,obj3は所定の位置にあるように見える画像をス
クリーン上に生成するものとする。視点の位置は瞳孔位
置であり、したがって、視点は動くものとする。また、
対象は説明の簡単のために表示基準座標系において静止
しており、対象の3次元構造データは第2図に示したよ
うに、対象座標系で記述されておりかつ構成面は領域の
大きさをパラメータとして階層化されている。
Next, the specific operation of the embodiment of the present invention will be described with reference to FIG. Now, as shown in FIG. 1 and FIG. 3 above, in the display reference coordinate system, the object ob
It is assumed that j1, obj2, and obj3 generate images on the screen that appear to be at predetermined positions. The position of the viewpoint is the pupil position, and therefore, the viewpoint moves. Also,
For simplicity of explanation, the object is stationary in the display reference coordinate system, the three-dimensional structural data of the object is described in the object coordinate system, and the constituent surface is the size of the area, as shown in FIG. Is parameterized as a parameter.

また、ステップ(図示ではSPと略称する)SP1におい
て、対象座標系設定手段20によって対象座標系原点の位
置ベクトルVobj-i=(Xobj-i,Yobj-i,Zobj-i)と対象
座標系の回転角Robj-i=(αobj-i,βobj-i
γobj-i)とが設定されて処理手段100に与えられる。ス
テップSP2において、視点検出手段10によって検出され
た視点位置Voe=(Xoe,Yoe,Zoe)が処理手段100に与え
られる。処理手段100はステップSP3において、視点検出
手段10から与えられたその時刻における視点位置ベクト
ルVoeを読取り、対象座標系原点の位置ベクトルVobj-i
と視点位置ベクトルVoeとを用いて、2点間の距離dis
obj-i=|Vobj-i−Voe|を演算する。処理手段100はステ
ップSP4において、計算した距離disobj-iと基準値Th2と
比較する。処理手段100は距離disobj-iが基準値Th2より
も大きいことを判別すると、ステップSP5において、3
次元階層化データベース80から第3図に示した対象obj3
のように、第2図(c)に示した階層度の低いモデルを
選択する。そして、処理手段100は対象座標系原点の位
置ベクトルVobj-iの位置に、対象座標系の回転角Robj-i
の角度で3次元モデルを生成する。
In step (abbreviated as SP in the figure) SP1, the target coordinate system setting means 20 sets the position vector V obj-i = (X obj-i , Y obj-i , Z obj-i ) of the target coordinate system origin. Rotation angle of the target coordinate system R obj-i = (α obj-i , β obj-i ,
γ obj-i ) and are provided to the processing means 100. In step SP2, the viewpoint position Voe = (Xoe, Yoe, Zoe) detected by the viewpoint detecting means 10 is given to the processing means 100. In step SP3, the processing means 100 reads the viewpoint position vector Voe given from the viewpoint detection means 10 at that time, and the position vector V obj-i of the origin of the target coordinate system.
And the viewpoint position vector Voe, the distance dis between the two points dis
obj-i = | V obj-i −Voe | is calculated. In step SP4, the processing means 100 compares the calculated distance dis obj-i with the reference value Th2. When the processing means 100 determines that the distance dis obj-i is larger than the reference value Th2, the processing means 100 determines 3 in step SP5.
Dimension hierarchical database 80 to target obj3 shown in FIG.
As described above, the model with a low hierarchy shown in FIG. 2 (c) is selected. Then, the processing means 100 sets the rotation angle R obj-i of the target coordinate system at the position of the position vector V obj-i of the origin of the target coordinate system.
Generate a three-dimensional model at an angle of.

処理手段100はステップSP4において、2点間の距離di
sobj-iが基準値Th2よりも小さいことを判別すれば、ス
テップSP7において、2点間の距離disobj-iと基準値Th1
と比較する。処理手段100は2点間の距離disobj-iが基
準値Th1よりも大きいことを判別すると、ステップSP8に
おいて3次元階層化データベース80から第2図(b)に
示した階層度のモデルを選択し、ステップSP9におい
て、前述のステップSP6と同様にして3次元モデルを生
成する。さらに、処理手段100は2点間の距離disobj-i
が基準値Th1よりも小さければ、ステップSP10におい
て、3次元階層化データベース80から第2図(a)に示
した階層度の高いモデルを選択し、ステップSP11におい
て、3次元モデルを生成する。
The processing means 100 determines the distance di between the two points in step SP4.
If it is determined that s obj-i is smaller than the reference value Th2, the distance between the two points dis obj-i and the reference value Th1 are determined in step SP7.
Compare with When the processing means 100 determines that the distance dis obj-i between the two points is larger than the reference value Th1, it selects the model of the hierarchy degree shown in FIG. 2 (b) from the three-dimensional hierarchical database 80 in step SP8. Then, in step SP9, a three-dimensional model is generated in the same manner as in step SP6 described above. Furthermore, the processing means 100 determines the distance dis obj-i between the two points.
Is smaller than the reference value Th1, a model with a high hierarchy shown in FIG. 2A is selected from the three-dimensional hierarchical database 80 in step SP10, and a three-dimensional model is generated in step SP11.

このようにして、SP6,SP9,SP11のいずれかで3次元モ
デルが生成されると、透視投影変換手段50はその対象の
透視投影変換画像hobj-1,hobj-2,hobj-3を生成する。
ステップSP13において、表示画像生成手段は3次元階層
化データベース80に蓄積された各構成面の模様データを
読取り、2次元画面の対象構成面に模様付けする。この
ようにして生成された対象画像はステップSP14において
表示手段70に表示される。
In this way, when the three-dimensional model is generated in any of SP6, SP9, and SP11, the perspective projection conversion means 50 causes the perspective projection conversion image h obj-1 , h obj-2 , h obj-3 of the target. To generate.
In step SP13, the display image generation means reads the pattern data of each constituent surface stored in the three-dimensional hierarchical database 80 and applies the pattern to the target constituent surface of the two-dimensional screen. The target image generated in this way is displayed on the display means 70 in step SP14.

第7図は対象座標系において原点以外の点の距離をパ
ラメータとして用いる他の例を示す図であり、第8図は
階層的にモデリングされた表示対象を示す図である。
FIG. 7 is a diagram showing another example in which the distance between points other than the origin is used as a parameter in the target coordinate system, and FIG. 8 is a diagram showing a hierarchically modeled display target.

第7図において、表示対象objは第8図に示すように
階層的にモデリングされており、さらに、第8図(c)
に示す階層の構成面a1,a2…aiは、その面の中心の位置
が対象座標系でVa1,Va2…Vaiのように表わされている
ものとする。第5図において、各構成面aiを作るには、
該構成面までの距離を対象座標系原点の位置ベクトルVO
と、中心位置Vaiの和として求め、該VO+Vaiを距離Th1,
Th2と比較して該構成面の階層を選択する。構成面a1
は第8図(a)に示した表示対象が選択され、構成面a2
には第8図(b)に示す表示対象が選択され、構成面a3
には第8図(c)に示す表示対象が選択される。このよ
うにして対象座標系の任意の点までの距離をパラメータ
とすることができる。
In FIG. 7, the display object obj is modeled hierarchically as shown in FIG. 8, and further, FIG. 8 (c).
It is assumed that the constituent surfaces a 1 , a 2 ... A i of the hierarchy shown in are represented such that the center position of the surface is represented by Va 1 , Va 2 ... Va i in the target coordinate system. In FIG. 5, to make each constituent surface a i ,
The distance to the constituent plane is the position vector VO of the origin of the target coordinate system.
And the center position Va i, the VO + Va i is calculated as the distance Th1,
Select the hierarchy of the constituent plane in comparison with Th2. The constituent surface a 1 displayed as shown in Figure No. 8 (a) is selected, configured surface a 2
Is displayed as shown in Figure No. 8 (b) is selected, the constituent surface a 3
The display target shown in FIG. 8C is selected for. In this way, the distance to any point in the target coordinate system can be used as a parameter.

なお、第1図に示した例では、表示基準座標系X
(w)−Y(w)−Z(w)の原点O(w)を起点とし
て、対象座標系の任意の点までの距離をパラメータとし
たが、視点の原点(O(e)またはO′(e)など)を
起点としてもよい。この場合表示対象が動かなくても視
点が動いた場合、その都度階層度を変更する手数はある
が、対象の細部を認識する人の視力特性が視点からの距
離に大きく依存することを考慮すると、より合理的な階
層度選択ができるといえる。また、両眼立体視コンピュ
ータグラフィックスなどでは、表示対象がスクリーンS1
の手前に表示される場合もあるが、このような場合、第
1図に示したように、原点O(w)からの距離をパラメ
ータとすると、視点O(e)の近くにある物体にもかか
わらず、スクリーンS1のすぐ後ろ(奥)にある物体よ
り、粗い階層が選択されるという不合理も生ずることに
なる。したがって、計算の複雑さがあるが、視点から対
象座標系の原点までの距離をパラメータとする方法も有
効である。
In the example shown in FIG. 1, the display reference coordinate system X
Starting from the origin O (w) of (w) -Y (w) -Z (w), the distance to an arbitrary point in the target coordinate system was used as a parameter, but the origin of the viewpoint (O (e) or O ') was used. (E) or the like) may be used as a starting point. In this case, if the viewpoint moves even if the display target does not move, there is a lot of trouble to change the hierarchy level each time, but considering that the visual acuity characteristics of the person who recognizes the details of the target greatly depend on the distance from the viewpoint. It can be said that a more reasonable hierarchy level can be selected. In binocular stereoscopic computer graphics, the display target is the screen S1.
In some cases, if the distance from the origin O (w) is used as a parameter as shown in FIG. 1, an object near the viewpoint O (e) will be displayed. Regardless, an absurdity arises that a coarser hierarchy is selected than an object immediately behind (inside) the screen S1. Therefore, although the calculation is complicated, it is also effective to use the distance from the viewpoint to the origin of the target coordinate system as a parameter.

この発明において、領域の大きさを1つのパラメータ
とすることは、前述の第2図で説明したように、構造点
間の距離,構造面積,体積などというような領域に関す
る尺度が所定の大きさを越える毎にデータ数を減らして
いく階層化を意味する。また、領域の大きさ以外を他の
パラメータとしてもよい。たとえば、表示対象が人物像
のような場合、頬,鼻,耳などに比べて目や口元は人の
表情を決定する重要な部分である。したがって、これら
の部分は他の部分より精細にモデル化するのが合理的で
ある。このように、領域の大きさに加えて表示部分の意
味を重要度などをパラメータに加えることができる。
In the present invention, using the size of the region as one parameter means that the scale related to the region such as the distance between the structure points, the structure area, and the volume has a predetermined size, as described in FIG. 2 above. It means layering in which the number of data is reduced each time the number exceeds. Further, parameters other than the size of the area may be used as other parameters. For example, when the display target is a human figure, the eyes and mouth are more important parts for determining the facial expression of a person than the cheeks, nose, and ears. Therefore, it makes sense to model these parts more finely than the other parts. In this way, in addition to the size of the area, the meaning of the display portion can be added to the parameter such as the degree of importance.

また、構造点とは第2図に示したように、実際に表示
する点である場合の他、表示対象の部分領域の構造を規
定する特徴データであってもよい。たとえば、部分領域
が顔の頬ような自由曲面である場合、この領域のモデリ
ングには、自由曲面の記述式を用い、その式が表わす曲
面の制御パラメータを階層化データとして用いてもよ
い。一例として、第2図にドットで示す部分領域が曲面
である場合、これを記述するのにBezier曲面式を用い、
この制御点を階層化データとしてもよい。
Further, as shown in FIG. 2, the structural point may be characteristic data defining the structure of the partial area to be displayed, in addition to the point actually displayed. For example, when the partial region is a free-form surface such as a cheek of a face, a free-form curved surface descriptive expression may be used, and the control parameter of the curved surface represented by the expression may be used as hierarchical data. As an example, when the partial area shown by the dot in FIG. 2 is a curved surface, the Bezier surface formula is used to describe this,
This control point may be hierarchical data.

Bezier曲面とは、次式で示すBezier曲線の積曲面で表
わすことができる。Bezier曲線は次式で表わされる。
The Bezier surface can be represented by a product surface of Bezier curves shown by the following equation. The Bezier curve is expressed by the following equation.

R(t:n)=(1-t+tE)nPO;(0≦t≦1) ここで、Eはシフト演算子と呼ばれ、EPj=Pj+1を表
わす。Pjは制御点と呼ばれ、その位置が座標の形で与え
られる。Bezier曲線は制御点の線形結合の形をしてい
る。
R (t: n) = (1-t + tE) n P O ; (0 ≦ t ≦ 1) Here, E is called a shift operator and represents EP j = P j + 1 . P j is called a control point, and its position is given in the form of coordinates. The Bezier curve is in the form of a linear combination of control points.

第9図は2次および3次のBezier曲面を示す図であ
る。第9図(a)に示した例は2次と3次(n=2,3)
の場合であり、次式で表わされる。
FIG. 9 is a diagram showing quadratic and cubic Bezier curved surfaces. The example shown in FIG. 9 (a) is the secondary and tertiary (n = 2,3)
And is expressed by the following equation.

R(t:3)=(1-t+tE)nPO Bezier曲線はt=0のとき、POの制御点から出発し、t
=1のとき、終りの制御点(n=2の場合はP2,n=3の
場合はP3)に到達する。曲線はこの間を制御点の近くを
滑らかに連結する。制御点の数を増やすことは、次数を
増やすことに相当し、曲線の表現力が増す。
R (t: 3) = ( 1-t + tE) when n P O Bezier curve t = 0, starting from the control points P O, t
When = 1, the end control point (P 2 when n = 2 , P 3 when n = 3 ) is reached. The curves connect smoothly between them near the control points. Increasing the number of control points corresponds to increasing the degree, and the expressiveness of the curve increases.

Bezier曲面はBezier曲線の積の形で次式のように表わ
される。
Bezier surface is expressed by the following equation in the form of product of Bezier curves.

S(u:m,v:n)=(1-u+uE)m(1-V+vF)nPO0 (0≦u≦1) (0≦v≦1) E,Fはシフト演算子であり、EPij=Pi+1,j、FPij=P
i,j+1の作用をなす。
S (u: m, v: n) = (1-u + uE) m (1-V + vF) n P O0 (0 ≦ u ≦ 1) (0 ≦ v ≦ 1) E and F are shift operators And EP ij = P i + 1, j , FP ij = P
It acts as i, j + 1 .

第9図(c),(d)は、2次,3次のBezier曲面を示
す。3次の場合、POOからP33まで16個の制御点を用意し
ておくことにより、この間を滑らかに結ぶ自由曲面が生
成される。
9C and 9D show quadratic and cubic Bezier curved surfaces. In the case of the third order, by preparing 16 control points from P OO to P 33 , a free-form surface smoothly connecting these is generated.

このように、部分領域を適応的に決め、この領域を記
述するに十分な制御点を選択すれば、細かい滑らかな表
面をもつ面となる。一方、部分領域を大きくとり、制御
点の数を少なくすれば、粗い表面の面となる。以上、部
分領域の中の制御点の数をパラメータとして階層化する
例を示した。
In this way, if a partial area is adaptively determined and control points sufficient to describe this area are selected, a surface having a fine smooth surface is obtained. On the other hand, if the partial area is made large and the number of control points is reduced, the surface becomes rough. So far, an example has been shown in which the number of control points in the partial area is hierarchized as a parameter.

さらに、前述のBezier曲面式では、構造点は制御点と
u,vの値の取り方により決まる。そこで、所定の制御点
を決めておき、u,vがとる間隔を階層パラメータとして
もよい。すなわち、第9図(d)において、制御点が16
個で一定としても、u,vの間隔Δの決め方によって構成
面は粗にも密にもある。間隔Δを小さくすれば該構成面
は第9図(d)よりさらに分割され、小さな構成面が多
く生ずる。このように、Δをパラメータとして領域の大
きさを階層化することもできる。
Furthermore, in the above Bezier surface equation, the structural points are control points.
It depends on how u and v are taken. Therefore, a predetermined control point may be determined, and the interval taken by u and v may be used as the hierarchical parameter. That is, in FIG. 9 (d), the control point is 16
Even if the number is constant for each individual, there are rough and dense component surfaces depending on how to determine the interval Δ between u and v. If the distance Δ is made smaller, the constituent surface is further divided from that shown in FIG. 9 (d), and many small constituent surfaces are produced. In this way, the size of the area can be hierarchized using Δ as a parameter.

次にスクリーンへの表示の方法としては、第1図に示
すように、ワイヤフレームを透視投影した点と線を表示
する単純な方法の他に、構造面には色データを用意し
ておき、表示の際に色づけする。各構造面にはテクス
チャマップと呼ばれる絵柄をデータとして用意してお
き、この絵柄を構造面の方向、位置によって回転,移
動,縮小,拡大などの処理を施してスクリーン上に表示
する。表示基準座標系において、所定の所に光源を仮
定し、視点からみた各構成面の該光による陰影を構成面
ごとに計算して表示することなどが可能である。
Next, as the method of displaying on the screen, as shown in FIG. 1, in addition to the simple method of displaying the points and lines obtained by perspective projection of the wire frame, color data is prepared on the structural surface, Colored when displayed. A pattern called a texture map is prepared as data on each structure surface, and the pattern is rotated, moved, reduced, enlarged, or the like according to the direction and position of the structure surface and displayed on the screen. In the display reference coordinate system, it is possible to assume a light source at a predetermined place, calculate the shadow of each component surface from the viewpoint by the light, and display it.

一例として等身大の人物石膏像をBezier曲面でモデル
化する場合について説明する。この石膏像を細部までわ
かるようにモデル化するためには、制御点の数は約5000
必要であった。すなわち、この5000個の制御点を第9図
(d)に示すように、4×4の制御点のかたまりに分割
し、さらに、この4×4の制御点で決まる部分領域内を
u,vの値を選ぶことにより10分割して細分化する。この
ようにして、50万個の構造点による構造面が形成され
る。この程度分割して表示面を作ると、細部まで細かく
認識できる画像が得られる。
As an example, a case of modeling a life-sized person plaster image with Bezier curved surfaces will be described. To model this plaster image in detail, the number of control points is about 5000.
Was needed. That is, the 5000 control points are divided into a group of 4 × 4 control points as shown in FIG. 9 (d), and the partial area determined by the 4 × 4 control points is further divided.
By selecting the values of u and v, it is divided into 10 parts. In this way, a structural surface is formed by 500,000 structural points. When the display surface is created by dividing the image into such parts, an image in which details can be recognized in detail can be obtained.

一方、人物か否かが判別できる程度であれば、制御点
は数10〜100程度でよく、さらにu,vも数分割でよい。つ
まり、100程度の構造点で表現できる。このように、人
物程度の対象でも表示する環境,必要性により100〜数1
000倍のデータ量の差がある。つまり、階層化は、領域
の大きさに関して、多様に選択可能である。
On the other hand, as long as it can be discriminated whether it is a person or not, the control points may be several tens to 100, and u and v may be divided into several. In other words, it can be expressed with about 100 structural points. In this way, 100 to several 1 depending on the environment and need to display even objects such as people.
There is a data amount difference of 000 times. That is, hierarchization can be variously selected with respect to the size of the area.

第10図は前述の第7図〜第9図に示した原理を具体化
するためのブロック図である。この第10図に示したブロ
ック図は、以下の点を除いて前述の第5図と同じであ
る。すなわち、処理手段101は、第5図に示した処理手
段100に比べて対象の構成面の階層上位を生成する手段3
1が設けられるとともに、距離形成手段32は視点から対
象構成面の基点までの距離を計算する。生成手段31はた
とえば第3図に示した対象obj1,obj2,obj3の主たる面を
生成する。ここで、主たる面とは。第8図(c)または
(d)に示すような粗いモデルの構成面である。第8図
においては、各構成面の位置は対象座標系において構成
面の中心(基点)までのベクトルで表わされており、構
成面の角度はその面の法線方向が位置ベクトルとなす角
度で表わされている。対象座標系で表わされた構成面ob
j−i−jは対象座標系の位置Vobj-iおよび角度Robj-i
がわかれば簡単な座標変換で求めることができる。
FIG. 10 is a block diagram for embodying the principle shown in FIGS. 7 to 9 described above. The block diagram shown in FIG. 10 is the same as that shown in FIG. 5 except for the following points. That is, the processing means 101 is means 3 for generating a higher hierarchical level of the target component surface as compared with the processing means 100 shown in FIG.
1, the distance forming means 32 calculates the distance from the viewpoint to the base point of the target constituent surface. The generation means 31 generates, for example, the main surfaces of the objects obj1, obj2, obj3 shown in FIG. Where is the main aspect? It is a component surface of a rough model as shown in FIG. 8 (c) or (d). In FIG. 8, the position of each constituent surface is represented by a vector to the center (base point) of the constituent surface in the target coordinate system, and the angle of the constituent surface is the angle formed by the normal direction of the surface and the position vector. It is represented by. Constituent plane ob expressed in the target coordinate system
j-i-j is the position V obj-i and the angle R obj-i of the target coordinate system.
If you know it, you can obtain it by a simple coordinate transformation.

第11図は第10図に示した実施例の動作を説明するため
のフロー図である。この第11図に示したフロー図は、こ
の前述の第6図に示したフロー図に、新たにステップSP
21が設けられるとともに、ステップSP3に代えてSP22が
設けられる。ステップSP21においては、ステップSP1で
対象座標系設定手段20によって対象座標系位置Vobj-i
角度Robj-iが設定されると、各対象obj−iについて、
対象座標系位置Vobj-iに角度Robj-iで階層度(c)の3
次元モデルが生成され、対象obj−iの各構成面jの基
点位置Vobj-i-jが計算される。ステップSP2において視
点検出手段10によって視点位置Voeが検出されると、ス
テップSP22において、処理手段101の距離計算手段32は
視点から各対象の各構成面の基点までの距離disobj-i-j
=|Vobj-i-j−Voe|を計算する。そして、ステップSP4
〜SP11において、距離が基準値Thk(k=1,2)と比較さ
れる。それ以外の動作は第6図と同じである。
FIG. 11 is a flow chart for explaining the operation of the embodiment shown in FIG. The flow chart shown in FIG. 11 is newly added to the flow chart shown in FIG.
21 is provided, and SP22 is provided instead of step SP3. In step SP21, when the target coordinate system position V obj-i and the angle R obj-i are set by the target coordinate system setting means 20 in step SP1, for each target obj-i,
Three degrees of hierarchy (c) at the angle R obj-i with respect to the target coordinate system position V obj-i
A dimensional model is generated, and the base point position V obj-ij of each component surface j of the target obj-i is calculated. When the viewpoint position Voe is detected by the viewpoint detection means 10 in step SP2, the distance calculation means 32 of the processing means 101 in step SP22 causes the distance dis obj-ij from the viewpoint to the base point of each constituent surface of each target.
= | V obj-ij −Voe | is calculated. And step SP4
At SP11, the distance is compared with the reference value Th k (k = 1,2). The other operations are the same as in FIG.

第12図はこの発明の他の実施例を示す図である。第12
図において、表示対象obj1,obj2は第8図に示したもの
と同じである。各構成点,構成面データは、その対象の
対象座標系X(obji)−Y(obji)−Z(obji)を表示
基準座標系X(w)−Y(w)−Z(w)の関係が既知
であれば、表示基準座標系で表わすことができる。2つ
の視点O(e)R,O(e)Lは、各観察者の左右眼球光
学系の主点に対応する。また、O(e)Rの添字(−
0)は現在の視点であり、(+1)は次に移動する視点
であり、(−1),(−2)はそれぞれ前の視点であ
る。第12図では、毎秒10〜30枚程度の画像が生成表示さ
れる場合を示しており、したがって、(+1)(0)
(−1)(−2)の各点は100〜33msec程度の間隔であ
る。位置ベクトルV(obj1),V(obj2)は視点から見た
表示対象の対称座標系原点の位置ベクトルである。この
位置ベクトルの長さ、すなわち距離は簡単に求めること
ができる。
FIG. 12 is a diagram showing another embodiment of the present invention. 12th
In the figure, display objects obj1 and obj2 are the same as those shown in FIG. For each constituent point and constituent plane data, the target coordinate system X (obj i ) −Y (obj i ) −Z (obj i ) of the target is displayed as the reference coordinate system X (w) −Y (w) −Z (w If the relationship of) is known, it can be expressed in the display reference coordinate system. The two viewpoints O (e) R and O (e) L correspond to the principal points of the left and right eye optical systems of each observer. Also, the subscript (-of O (e) R (-
0) is the current viewpoint, (+1) is the next moving viewpoint, and (-1) and (-2) are the previous viewpoints. FIG. 12 shows a case where about 10 to 30 images are generated and displayed per second, and therefore, (+1) (0)
The points (-1) and (-2) are at intervals of about 100 to 33 msec. The position vectors V (obj1) and V (obj2) are the position vectors of the origin of the symmetrical coordinate system of the display target viewed from the viewpoint. The length of this position vector, that is, the distance can be easily obtained.

ここで、モデリングの階層の選択法を第1図に示した
場合のように、該距離で決めることとする。視点がO
(e)R(0)の位置にあるとき、表示対象obj1,obj2
のモデルはV(obj1)(0),V(obj2)(0)の長さに
よってそれぞれ第6図(c),(d)に示した表示対象
が選択され、スクリーンS1にh−obj1−R(0),h−ob
j2−R(0)のように投影される。
Here, the selection method of the modeling hierarchy is determined by the distance as in the case shown in FIG. Viewpoint is O
(E) Display objects obj1 and obj2 when in the position of R (0)
In the model, the display objects shown in FIGS. 6 (c) and 6 (d) are selected according to the lengths of V (obj1) (0) and V (obj2) (0), and h-obj1-R is displayed on the screen S1. (0), h-ob
It is projected as j2-R (0).

この実施例では、視点を眼球の視点としている。該視
点位置は瞳孔の中心位置に近いため、瞳孔を2台のカメ
ラでとらえることができれば、ステレオ画像計測などに
より、表示基準座標系でこの位置を求めることが容易で
ある。なお、瞳孔の効率的な抽出方法については、本願
発明者らによる「画像撮影装置」(特願平1−18138
7),瞳孔の位置計測については「視線検出方式」(特
願平1−296900)を用いることによって可能となる。
In this embodiment, the viewpoint is the viewpoint of the eyeball. Since the viewpoint position is close to the center position of the pupil, if the pupil can be captured by two cameras, this position can be easily obtained in the display reference coordinate system by stereo image measurement or the like. Note that an efficient method of extracting the pupil is described in "Image photographing device" by the present inventors (Japanese Patent Application No. 1-18138).
7), the position of the pupil can be measured by using the "line-of-sight detection method" (Japanese Patent Application No. 1-296900).

次に、視点の動きを予測した表示について説明する。
眼球の回転運動は視力と密接な関係にある。頭部が固定
された状態で視標がゆっくり動くとき、視線は視標の動
きに連動して同じ方向に滑らかに動く。逆に固定された
視標を注視しながら頭部を動かすと視線は逆の方向に滑
らかに動く。このように、視線が滑らかに動くとき、人
の視力は停止した視標を観察した場合と大きな変化はな
い。また、このとき、表示基準座標系で見た瞳孔の動き
も滑らかである。したがって、瞳孔の位置,速度などの
軌跡から瞳孔の次の動きを予測することは可能である。
そこで、そのような予測された瞳孔の位置を視点として
表示対象の透視画像を予め生成しておくことにより、瞳
孔の動きに同期して、すなわち遅れ時間なしで表示が可
能である。
Next, the display in which the movement of the viewpoint is predicted will be described.
The rotational movement of the eyeball is closely related to visual acuity. When the target slowly moves with the head fixed, the line of sight moves smoothly in the same direction in conjunction with the movement of the target. On the contrary, when the head is moved while gazing at the fixed target, the line of sight moves smoothly in the opposite direction. In this way, when the line of sight moves smoothly, the human visual acuity does not significantly change from the case of observing the stopped target. At this time, the movement of the pupil seen in the display reference coordinate system is also smooth. Therefore, it is possible to predict the next movement of the pupil from the locus of the position and velocity of the pupil.
Therefore, a perspective image to be displayed is generated in advance using such a predicted position of the pupil as a viewpoint, so that the image can be displayed in synchronization with the movement of the pupil, that is, without delay time.

第12図において、O(e)R(−2),O(e)R(−
1),O(e)R(−0)は滑らかに変化する瞳孔の位置
である。この位置データから次の画像が表示される前記
100〜33msec後の視点の位置O(e)R(+1)を予測
することは可能である。第12図では、視点は時間ととも
にスクリーンに、すなわち、表示対象に近づいており、
したがって、V(obj1)(+1)、V(obj2)(+1)
の長さは短くなっている。したがって、モデルの階層は
表示対象obj1については第8図(b)が選択され、表示
対象obj2については第8図(b)が選択される。したが
って、O(e)R(+1)から見たスクリーンS1への透
視投影画像として、第12図に示すようなh−obj1−R
(+1),h−obj2−R(+1)が準備される。この画像
はh−obj1−R(0),h−obj2−R(0)に比べ1つ階
層が上がった分だけ精細になっている。この画像は100
〜30msec後に提示されるため、観測者には表示遅れによ
る違和感が生じない。
In FIG. 12, O (e) R (-2), O (e) R (-
1) and O (e) R (-0) are the positions of the pupil that change smoothly. The next image is displayed from this position data.
It is possible to predict the viewpoint position O (e) R (+1) after 100 to 33 msec. In FIG. 12, the viewpoint approaches the screen over time, that is, the display target,
Therefore, V (obj1) (+ 1), V (obj2) (+ 1)
Has become shorter. Therefore, as the model hierarchy, FIG. 8B is selected for the display target obj1, and FIG. 8B is selected for the display target obj2. Therefore, as a perspective projection image on the screen S1 viewed from O (e) R (+1), h-obj1-R as shown in FIG.
(+1), h-obj2-R (+1) are prepared. This image is finer by one layer than that of h-obj1-R (0) and h-obj2-R (0). This image is 100
Since it is presented after ~ 30msec, the observer does not feel uncomfortable due to display delay.

ここで、観測者の興味ある対象が変化し、視線や顔が
急に動いた場合、瞳孔の予測位置は異なるため、この方
法は一見不合理と感じられる。しかし、以下のような理
由により、問題はない。すなわち、前述のごとく、視力
は視線の動きと密接であり、視線が急に変化したとき、
人の視力は低下し、回復するのに200msec以上の時間を
必要とする。したがって、仮に予測した視点が間違って
いる場合でも、生成され表示された画像について観測者
の視力が大きく低下しているため違和感は生じない。視
力が回復するまでに、正しい瞳孔位置を計測し、その点
からの透視投影画像を生成して表示すればよい。
Here, when the observer's interested subject changes and the line of sight or face suddenly moves, the predicted position of the pupil is different, so this method seems irrational at first glance. However, there is no problem for the following reasons. That is, as described above, the visual acuity is closely related to the movement of the line of sight, and when the line of sight changes suddenly,
Human eyesight deteriorates, and it takes more than 200 msec to recover. Therefore, even if the predicted viewpoint is wrong, the observer's visual acuity in the generated and displayed image is greatly reduced, so that no discomfort occurs. The correct pupil position may be measured and a perspective projection image from that point may be generated and displayed before the eyesight is restored.

なお、この実施例では、2つの画像は眼球の動きに追
従してリアルタイムで生成される。したがって、観察者
は頭部を動かし、表示対象objを上下,左右様々な方向
から見ることができる。また、2つの画像は視差情報を
もっているので、この対象を立体的に知覚することがで
きる。
In this embodiment, the two images are generated in real time following the movement of the eyeball. Therefore, the observer can move his / her head and see the display object obj from various directions in the vertical and horizontal directions. Also, since the two images have parallax information, this object can be perceived stereoscopically.

また、この実施例では、生成した画像を表示するため
に、両眼立体視表示装置を用いることができる。この装
置の具体例については、本願発明者らによる「立体表示
装置」(特願平2−18051)などが可能である。この装
置の構成は、表示面にレンチキュラーレンズと称される
蒲鉾状レンズシートを設け、その各レンズの背面には焦
点を挟んで両側に右目用の画素,左目用の画素を配置し
たものである。すなわち、2つの画素は1組として1つ
の蒲鉾レンズに対向して配置される。2つの画素から出
る光はそのレンズにより空間的に分離され、観測者の左
右の目に別々に入射する。このようにして、特別な装置
を装着することなく立体視が可能となる。
Further, in this embodiment, a binocular stereoscopic display device can be used to display the generated image. As a specific example of this device, a "stereoscopic display device" (Japanese Patent Application No. 2-18051) by the inventors of the present application is possible. The structure of this device is such that a kamaboko-shaped lens sheet called a lenticular lens is provided on the display surface, and pixels for the right eye and pixels for the left eye are arranged on both sides of the back of each lens with a focus in between. . That is, two pixels are arranged as one set so as to face one kabuki lens. The light emitted from the two pixels is spatially separated by the lens and separately enters the left and right eyes of the observer. In this way, stereoscopic viewing is possible without mounting a special device.

第13図は第12図に示した実施例を具体化するためのブ
ロック図である。この実施例は、第12図に示した原理に
基づいて、視点の動きに同期して画像を生成して表示す
る。このために、この実施例は、前述の第10図に示した
実施例に比べて新たに予測視点検出手段11と、視点の動
きのデータベース12と、対象座標系原点と予測視点との
距離計算手段33と、1画面先における対象の構成点/構
成面生成手段41と、1画面先の表示時刻における2次投
影画面を生成する透視投影変換手段51とが設けられる。
予測視点検出手段11は視点検出手段10の検出出力に応じ
て、視点の振る舞いに関するデータベース12を参照しな
がら、次の画像表示時刻における視点、すなわち瞳孔の
位置を推定する。対象座標系原点と予測視点との距離計
算手段33は対象座標系原点の位置とその予測された視点
との間の距離を計算する。構成点/構成面生成手段41は
生成手段40と同様にして、対象座標系設定手段20によっ
て指定される対象座標系の位置に3次元モデルを生成す
る。そして、生成手段41は距離計算手段33によって予測
された距離と基準値Thを比較しながら、3次元階層化デ
ータベース80から適当な階層の構成面データを取り込
み、次の画面の表示時刻における3次元モデルを生成す
る。透視投影変換手段51は次の画面の表示時刻における
2次元投影画面を生成する。それ以外の動作は前述の第
5図と同じであるため説明を省略する。
FIG. 13 is a block diagram for embodying the embodiment shown in FIG. In this embodiment, an image is generated and displayed in synchronization with the movement of the viewpoint based on the principle shown in FIG. For this reason, in this embodiment, compared with the embodiment shown in FIG. 10 described above, a prediction viewpoint detection means 11, a viewpoint movement database 12, a distance calculation between the origin of the target coordinate system and the prediction viewpoint is newly performed. Means 33, constituent point / constituent surface generation means 41 of the target one screen ahead, and perspective projection conversion means 51 for generating a secondary projection screen at the display time one screen ahead are provided.
The predicted viewpoint detection means 11 estimates the viewpoint at the next image display time, that is, the position of the pupil, according to the detection output of the viewpoint detection means 10 while referring to the database 12 regarding the behavior of the viewpoint. The distance calculating means 33 between the origin of the target coordinate system and the predicted viewpoint calculates the distance between the position of the origin of the target coordinate system and the predicted viewpoint. The component point / component surface generating means 41, similar to the generating means 40, generates a three-dimensional model at the position of the target coordinate system designated by the target coordinate system setting means 20. Then, the generation means 41 fetches the constituent surface data of an appropriate hierarchy from the three-dimensional hierarchical database 80 while comparing the distance predicted by the distance calculation means 33 with the reference value Th, and the three-dimensional data at the display time of the next screen. Generate a model. The perspective projection conversion means 51 generates a two-dimensional projection screen at the display time of the next screen. The other operations are the same as those shown in FIG.

第14図はこの発明の応用例を示す図である。この第14
図に示した例は、コンピュータグラフィックス画像を臨
場感豊かに観測できるようにしたものである。視点は瞳
孔または虹彩の中心位置に対応している。この視点また
は視線は図示しない視線検出装置によって視点検出1が
行われるとともに、図示しない検出装置によって手の位
置および形状の検出2が行われる。これらのデータは意
図理解処理部3に与えられて解析され、観測者の注視し
ている対象および次に行なおうとしている作業などが推
定される。この情報を基にして、3次元形状データベー
ス4を参照しつつ3次元モデル世界6の更新5が行なわ
れ、3次元モデル世界6が高速で生成され、実時間立体
コンピュータグラフィックスによって画像生成7が行な
われ、スクリーン8に投影変換され、実時間でスクリー
ンに表示される。
FIG. 14 is a diagram showing an application example of the present invention. This 14th
In the example shown in the figure, a computer graphics image can be observed in a highly realistic manner. The viewpoint corresponds to the center position of the pupil or iris. For this viewpoint or line of sight, viewpoint detection 1 is performed by a sight line detection device (not shown), and position 2 and shape 2 of the hand is detected by a detection device (not shown). These data are given to the intention comprehension processing unit 3 and analyzed to estimate the object the observer is gazing at and the work to be performed next. Based on this information, the 3D model world 6 is updated 5 while referring to the 3D shape database 4, the 3D model world 6 is generated at high speed, and the image generation 7 is performed by real-time stereoscopic computer graphics. It is performed, is projected and converted to the screen 8, and is displayed on the screen in real time.

[発明の効果] 以上のように、この発明によれば、表示基準座標系の
原点または視点から遠くにある物体について計算量を大
幅に減らすことができる。逆に、この余った時間で近く
にある物体について細かい部分まで精細に計算できる。
これらにより、高速で品質の高い画像生成表示が可能と
なる。また、この発明は背景が複雑になるほど効果的で
ある。一例として、会議室をコンピュータグラフィック
スで生成し、その会議室の中に人物像を生成する臨場感
会議などへの利用では、複雑になる背景を粗くモデル化
するため、数100倍の高速化が期待できる。しかも、瞳
孔を視点とし、この動きを予測した表示により、眼球の
動きに同期した画像が生成されるため、画像表示の遅れ
による違和感が少なく、画像との一体感が向上した質の
高い運動視コンピュータグラフィックス画像表示が可能
となる。さらに、両眼立体視コンピュータグラフィック
スについても高速・高品質な表示が可能となる。さら
に、この発明によれば、臨場感豊かな知的符号化通信の
コンピュータグラフィックス処理部分,立体視コンピュ
ータグラフィックスに特に利用効果が大きい。その他高
速性と高品質性を要求される多くのコンピュータグラフ
ィックス分野に利用可能である。
EFFECTS OF THE INVENTION As described above, according to the present invention, it is possible to significantly reduce the amount of calculation for an object that is far from the origin of the display reference coordinate system or the viewpoint. On the contrary, in this extra time, it is possible to finely calculate the details of the nearby objects.
These enable high-speed, high-quality image generation and display. Further, the present invention is more effective as the background becomes more complicated. As an example, when a meeting room is created with computer graphics and a person image is created in the meeting room, the complicated background is roughly modeled, so it is several hundred times faster. Can be expected. Moreover, with the pupil as the viewpoint, by predicting this movement, an image synchronized with the movement of the eyeball is generated, so there is little discomfort due to the delay in image display, and high-quality motion vision with an improved sense of unity with the image. Computer graphics image display becomes possible. Furthermore, high-speed and high-quality display of binocular stereoscopic computer graphics is also possible. Further, according to the present invention, the utilization effect is particularly great for the computer graphics processing part of intelligent coded communication and the stereoscopic computer graphics which are rich in realism. It can be used for many computer graphics fields that require high speed and high quality.

【図面の簡単な説明】[Brief description of drawings]

第1図はこの発明の原理を説明するための図である。第
2図は第1図に示した表示対象の階層的なモデリングを
示す図である。第3図は表示座標系の原点O(w)から
の対象座標系原点までの距離を1つのパラメータとして
階層を適応的に選択して表示した例を示す図である。第
4図は表示対象が大きく複数の構造物の組合わせで形成
されていて、各部分構造物に個別の対象座標系を設定で
きる例を示す図である。第5図はこの発明の一実施例の
概略ブロック図である。第6図は第5図に示した実施例
の動作を説明するためのフロー図である。第7図は対象
座標系において原点以外の点の距離をパラメータとして
用いる他の例を示す図である。第8図は階層的にモデリ
ングされた表示対象を示す図である。第9図は2次およ
び3次のBezier曲面を示す図である。第10図はこの発明
の他の実施例を示す概略ブロック図である。第11図は第
10図に示した実施例の動作を説明するためのフロー図で
ある。第12図はこの発明の他の例を示す図である。第13
図は第12図に示した例を実現するためのブロック図であ
る。第14図はこの発明の応用例を示す図である。第15図
は従来の代表的な3次元画像生成表示方法を示す図であ
る。第16図は第15図に示した座標系をY(w)軸上から
見た図である。第17図は第15図に示した座標系をY
(e)軸上でかつZ(e)軸方向に見たものである。第
18図は第17図に示した表示対象を示す図である。 図において、obj1は表示基準座標系で既知な表示対象,P
i(obj)は対象座標系で示された表示対象の構造点、S1
はスクリーン、h−objは透視投影画像、O(e)は視
点、epはスクリーン注視点、eoは空間注視点、Thは階層
選択基準を示す。
FIG. 1 is a diagram for explaining the principle of the present invention. FIG. 2 is a diagram showing hierarchical modeling of the display target shown in FIG. FIG. 3 is a diagram showing an example in which the hierarchy is adaptively selected and displayed with the distance from the origin O (w) of the display coordinate system to the origin of the target coordinate system as one parameter. FIG. 4 is a diagram showing an example in which the display object is large and is formed by a combination of a plurality of structures, and an individual target coordinate system can be set for each partial structure. FIG. 5 is a schematic block diagram of one embodiment of the present invention. FIG. 6 is a flow chart for explaining the operation of the embodiment shown in FIG. FIG. 7 is a diagram showing another example in which the distance of points other than the origin is used as a parameter in the target coordinate system. FIG. 8 is a diagram showing a display object modeled hierarchically. FIG. 9 is a diagram showing quadratic and cubic Bezier curved surfaces. FIG. 10 is a schematic block diagram showing another embodiment of the present invention. Figure 11 shows
FIG. 11 is a flowchart for explaining the operation of the embodiment shown in FIG. FIG. 12 is a diagram showing another example of the present invention. Thirteenth
The figure is a block diagram for realizing the example shown in FIG. FIG. 14 is a diagram showing an application example of the present invention. FIG. 15 is a diagram showing a conventional representative three-dimensional image generation / display method. FIG. 16 is a view of the coordinate system shown in FIG. 15 viewed from the Y (w) axis. FIG. 17 shows the Y coordinate system shown in FIG.
This is viewed on the (e) axis and in the Z (e) axis direction. First
FIG. 18 is a diagram showing the display object shown in FIG. In the figure, obj1 is the display target known in the display reference coordinate system, P
i (obj) is the structural point to be displayed in the target coordinate system, S1
Is a screen, h-obj is a perspective projection image, O (e) is a viewpoint, ep is a screen gazing point, eo is a spatial gazing point, and Th is a hierarchy selection criterion.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 竹村 治雄 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内 (72)発明者 石橋 聡 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内 (72)発明者 秋山 健二 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 (72)発明者 鉄谷 信二 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 (72)発明者 山口 博幸 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 (56)参考文献 特開 平1−205277(JP,A) ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Haruo Takemura, Haruo Takemura, Kyoto Prefecture, Seika-cho, Osamu, Osamu, Osamu, No. 5, Mihiratani, ATR Communications Systems Laboratories, Inc. (72) Satoshi Ishibashi, Soraku-gun, Kyoto Prefecture Seika-cho Osamu Osamu Osamu 5 Hiratani No. 5 AT R Communication System Research Institute, Inc. (72) Inventor Kenji Akiyama 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corporation (72) Invention Shinji Tetsuya 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corporation (72) Inventor Hiroyuki Yamaguchi 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corporation (56) References Japanese Patent Laid-Open No. 1-205277 (JP, A)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】立体構造を持つ対象を、面の大きさを少な
くとも1つの基準として、異なる複数の詳細度で記述
し、 (a)操作者の視点を検出し、 (b)次の画像表示時刻における操作者の視点を予測
し、 (c)予測した視点から対象までの距離を少なくとも1
つのパラメータとして対象の詳細度を設定し、 (d)設定された詳細度により指定される対象のモデル
と、予測した視点とに基づいて対象を2次元画面に投影
した画像を生成して表示し、 前記(a)〜(d)を繰返すことを特徴とする、高速画
像生成表示方法。
1. An object having a three-dimensional structure is described at a plurality of different levels of detail with at least one surface size as a reference, (a) the operator's viewpoint is detected, and (b) the next image is displayed. Predict the operator's viewpoint at time, and (c) at least 1 distance from the predicted viewpoint to the target.
The detail level of the target is set as one parameter, and (d) the image of the target projected on the two-dimensional screen is generated and displayed based on the model of the target specified by the set detail level and the predicted viewpoint. A high-speed image generation and display method characterized by repeating the steps (a) to (d).
JP2098948A 1990-04-13 1990-04-13 High-speed image generation and display method Expired - Lifetime JPH0831140B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2098948A JPH0831140B2 (en) 1990-04-13 1990-04-13 High-speed image generation and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2098948A JPH0831140B2 (en) 1990-04-13 1990-04-13 High-speed image generation and display method

Publications (2)

Publication Number Publication Date
JPH03296176A JPH03296176A (en) 1991-12-26
JPH0831140B2 true JPH0831140B2 (en) 1996-03-27

Family

ID=14233325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2098948A Expired - Lifetime JPH0831140B2 (en) 1990-04-13 1990-04-13 High-speed image generation and display method

Country Status (1)

Country Link
JP (1) JPH0831140B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9778464B2 (en) 2013-02-19 2017-10-03 Mirama Service Inc. Shape recognition device, shape recognition program, and shape recognition method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0737119A (en) * 1993-07-19 1995-02-07 Nec Corp Graphic display method for molecule information
TW335466B (en) * 1995-02-28 1998-07-01 Hitachi Ltd Data processor and shade processor
WO1996034364A1 (en) * 1995-04-27 1996-10-31 Sega Enterprises Ltd. Image processor, image processing method, game apparatus using them, and memory medium
JP3792202B2 (en) * 2003-02-12 2006-07-05 富士通株式会社 3D image display method and 3D image display apparatus used therefor
JP2011070387A (en) * 2009-09-25 2011-04-07 Mitsubishi Electric Corp Three-dimensional shape display device and program
JP2017018245A (en) * 2015-07-09 2017-01-26 株式会社スクウェア・エニックス Video game processing program and video game processing device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2667835B2 (en) * 1987-10-09 1997-10-27 株式会社日立製作所 Computer Graphics Display

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9778464B2 (en) 2013-02-19 2017-10-03 Mirama Service Inc. Shape recognition device, shape recognition program, and shape recognition method

Also Published As

Publication number Publication date
JPH03296176A (en) 1991-12-26

Similar Documents

Publication Publication Date Title
Holloway Registration errors in augmented reality systems
Bane et al. Interactive tools for virtual x-ray vision in mobile augmented reality
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US8217990B2 (en) Stereoscopic picture generating apparatus
Manetta et al. Glossary of virtual reality terminology
US20050083248A1 (en) Mobile face capture and image processing system and method
CN114766038A (en) Individual views in a shared space
CN117873313A (en) Mixed reality system with color virtual content distortion and method for generating virtual content using the same
JPH0785312A (en) Three-dimensional time-varying picture generation device
Ohya et al. Real-time reproduction of 3D human images in virtual space teleconferencing
CN108885342A (en) Wide Baseline Stereo for low latency rendering
JP5833526B2 (en) Video communication system and video communication method
US20140160122A1 (en) Creating a virtual representation based on camera data
CN114612640A (en) Space-based situation simulation system based on mixed reality technology
JPH0831140B2 (en) High-speed image generation and display method
US10957106B2 (en) Image display system, image display device, control method therefor, and program
Saraiji et al. Real-time egocentric superimposition of operator's own body on telexistence avatar in virtual environment
JPH07101461B2 (en) Eye-tracking high-speed image generation and display method
Lacoche et al. Dealing with frame cancellation for stereoscopic displays in 3d user interfaces
Pastoor et al. Mixed reality displays
JPH05250445A (en) Three-dimensional model data generating device
Liu et al. Depth perception optimization based on multi-viewing spaces
Hopf et al. Novel autostereoscopic single-user displays with user interaction
WO2023040551A9 (en) Method for displaying image on display screen, electronic device, and apparatus
JP3088326B2 (en) 3D image display device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080327

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090327

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100327

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100327

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110327

Year of fee payment: 15

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110327

Year of fee payment: 15