JP2892605B2 - Stereoscopic image generation device - Google Patents

Stereoscopic image generation device

Info

Publication number
JP2892605B2
JP2892605B2 JP7226244A JP22624495A JP2892605B2 JP 2892605 B2 JP2892605 B2 JP 2892605B2 JP 7226244 A JP7226244 A JP 7226244A JP 22624495 A JP22624495 A JP 22624495A JP 2892605 B2 JP2892605 B2 JP 2892605B2
Authority
JP
Japan
Prior art keywords
model
simplified
viewpoint
texture
tree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP7226244A
Other languages
Japanese (ja)
Other versions
JPH0973561A (en
Inventor
教彰 桑原
克之 大村
新一 志和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Original Assignee
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk filed Critical Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Priority to JP7226244A priority Critical patent/JP2892605B2/en
Publication of JPH0973561A publication Critical patent/JPH0973561A/en
Application granted granted Critical
Publication of JP2892605B2 publication Critical patent/JP2892605B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は立体画像生成装置
に関し、さらに詳しくは、フラクタル幾何を用いて観察
者の視点に応じた立体画像を生成する立体画像生成装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image generating apparatus, and more particularly, to a three-dimensional image generating apparatus that generates a three-dimensional image according to an observer's viewpoint using fractal geometry.

【0002】[0002]

【従来の技術】コンピュータグラフィックスの分野で
は、物体を三次元モデルで定義するとともに、利用者の
視点位置を計測し、その視点からスクリーンを通して見
た画像を生成して表示する運動視表示システムが開発さ
れている。また、自然の景観をシミュレーションするシ
ステムも開発されている。さらに、広視野、高精細、立
体視、運動視を用いて、遠隔地にいる人々があたかも同
一空間にいるかのような感覚を提供することのできる臨
場感通信も開発されている。
2. Description of the Related Art In the field of computer graphics, there is a motion visual display system that defines an object by a three-dimensional model, measures the position of a user's viewpoint, and generates and displays an image viewed from the viewpoint through a screen. Is being developed. Systems for simulating natural landscapes have also been developed. Furthermore, using the wide field of view, high definition, stereoscopic vision, and motion vision, immersive communication that can provide a sense of being in a remote place as if in the same space has been developed.

【0003】コンピュータグラフィックスでは表示され
るべき対象物を三次元モデルで定義して高品質な画像を
生成する場合、対象物をきめ細かくサンプリングし、光
源計算を行なって遠近表示などをすることにより非常に
リアルな画像が得られる。さらに、ステレオ表示、運動
視表示などを行なえば、表示画像の立体感はより高くな
る。このような高品質な画像を生成する場合、必要な表
示モデルの頂点の数が膨大になるため、レンダリング処
理、投影変換処理などの計算量が増加し、それにより処
理時間が長くなる傾向にある。
In computer graphics, when an object to be displayed is defined by a three-dimensional model and a high-quality image is generated, the object is finely sampled, a light source is calculated, and a perspective display is performed. A realistic image can be obtained. Further, when stereo display, motion visual display, and the like are performed, the stereoscopic effect of the displayed image is further enhanced. When such a high-quality image is generated, the number of vertices of a required display model becomes enormous, so that the amount of calculation such as a rendering process and a projection conversion process increases, which tends to increase the processing time. .

【0004】上述した臨場感通信会議システムでは高品
質な画像を実時間で生成して表示することが要求され
る。そのため、計算機の処理速度の向上、光源計算など
の各種処理の高速アルゴリズムの開発、視覚特性を利用
した頂点を削除したモデルの作成、およびそのモデルを
用いた表示などといったさまざまな研究が進められてい
る。
In the above-mentioned immersive communication conference system, it is required to generate and display a high quality image in real time. For this reason, various researches have been conducted to improve the processing speed of computers, develop high-speed algorithms for various processes such as light source calculation, create models that eliminate vertices using visual characteristics, and display using the models. I have.

【0005】ところで、樹木のようにデータ量が莫大な
形状を表示するためには、視覚特性を利用して表示モデ
ルの頂点数を削除する必要がある。しかしながら、従来
の提案されている手法では実時間で画像を表示できる程
度にデータ量を減少させることは不可能であった。ま
た、三次元モデルを平行投影して得たテクスチャを予め
登録しておき、交差した複数の平面からなるポリゴンに
そのテクスチャを実時間でマッピングする手法が提案さ
れているが、視点の方向によっては画像に歪みが生じ
る。さらにこの手法では、風などによる揺らぎといった
物理法則に従った変形を実時間で生成することは不可能
であった。
By the way, in order to display a shape having an enormous amount of data such as a tree, it is necessary to delete the number of vertices of the display model using visual characteristics. However, it has not been possible to reduce the data amount to such an extent that an image can be displayed in real time by the conventionally proposed method. In addition, a method has been proposed in which a texture obtained by parallel projection of a three-dimensional model is registered in advance, and the texture is mapped in real time to a polygon formed by a plurality of intersecting planes. The image is distorted. Furthermore, with this method, it was impossible to generate a deformation in accordance with a physical law such as fluctuation due to wind or the like in real time.

【0006】これに対し、1995年7月発行の電子情
報通信学会論文誌D−II,Vol.J78−−I
I,No.7の第1091頁〜第1104頁には、視点
移動に対して歪みのない2眼式立体画像を表示しかつ物
理法則に従った変形が実時間で可能な「フラクタルを用
いた階層的な樹木形状表現による三次元樹木画像の高速
生成方法」が提案されている。この方法は、樹木のよう
な複雑な形状を有する対象物をフラクタル幾何を用いて
モデル化し、観察者の視点から対象物までの距離に応じ
て表示に十分な粗さを求め、その粗さに応じて簡略化モ
デルを生成し、さらにその簡略化モデルに適当な視点か
らの樹木画像のテクスチャをマッピングするものであ
る。
[0006] In contrast, IEICE Transactions D-II, Vol. J78- D -I
I, No. No. 7, pages 1091 to 1104, a “hierarchical tree using fractals” that displays a binocular stereoscopic image without distortion with respect to viewpoint movement and allows real-time deformation according to the laws of physics. High-speed three-dimensional tree image generation method by shape representation "has been proposed. In this method, an object having a complicated shape such as a tree is modeled using fractal geometry, and the surface is determined to have sufficient roughness for display according to the distance from the observer's viewpoint to the object. Accordingly, a simplified model is generated, and the texture of the tree image from an appropriate viewpoint is mapped to the simplified model.

【0007】[0007]

【発明が解決しようとする課題】しかしながらこの方法
では、樹木の入り組んだ部分に関するテクスチャ情報が
用意されていないために、変形により入り組んだ部分が
露出すると完全な立体画像を表示することができないと
いう問題があった。また、樹木の全周360°にわたる
視点移動に対し、歪みのない2眼式立体画像を表示する
ためには、18枚程度の樹木画像が必要となる問題があ
った。なお、このときの1枚の樹木画像は20°程度の
視点移動に対応できるものである。
However, in this method, since texture information on a complicated portion of a tree is not prepared, a complete stereoscopic image cannot be displayed when the complicated portion is exposed due to deformation. was there. Also, there is a problem that about 18 tree images are required to display a binocular stereoscopic image without distortion with respect to a viewpoint movement over 360 degrees around the tree. At this time, one tree image can correspond to a viewpoint movement of about 20 °.

【0008】したがって、この発明は、複雑な形状を有
する対象物が変形してその入り組んだ部分が露出しても
正確な立体画像を生成できる立体画像生成装置を提供す
ることを目的とする。
Accordingly, it is an object of the present invention to provide a stereoscopic image generating apparatus capable of generating an accurate stereoscopic image even when an object having a complicated shape is deformed and a complicated part is exposed.

【0009】[0009]

【課題を解決するための手段】この発明に従うと、観察
者の視点に応じて立体画像を生成する立体画像生成装置
は、立体画像として生成されるべき対象物をフラクタル
幾何を用いてモデル化することによりフラクタルモデル
を生成するフラクタルモデル生成手段と、フラクタルモ
デルに基づいて、観察者の視点から対象物までの距離に
応じた精細度を有する複数の簡略化モデルを生成する簡
略化モデル生成手段と、簡略化モデルの各々を構成する
要素の各々に対してフラクタルモデルの対応する部分を
投影することにより各簡略化モデルごとに複数の部分テ
クスチャを生成する部分テクスチャ生成手段と、外部か
ら与えられる観察者の視点に関する視点データに応じて
簡略化モデルのうち対応する1つを選択する簡略化モデ
ル選択手段と、視点データに応じて選択された簡略化モ
デルに対応する複数の部分テクスチャを選択する部分テ
クスチャ選択手段と、選択された簡略化モデルに選択さ
れた複数の部分テクスチャをマッピングするマッピング
手段とを備える。
According to the present invention, a three-dimensional image generating apparatus for generating a three-dimensional image according to an observer's viewpoint models an object to be generated as a three-dimensional image using fractal geometry. A fractal model generating means for generating a fractal model by the method, and a simplified model generating means for generating a plurality of simplified models having a definition corresponding to a distance from an observer's viewpoint to an object based on the fractal model. A partial texture generating means for generating a plurality of partial textures for each simplified model by projecting a corresponding portion of the fractal model onto each of the elements constituting each of the simplified models, and an externally provided observation A simplified model selecting means for selecting a corresponding one of the simplified models in accordance with viewpoint data relating to the viewpoint of the observer; Comprises a portion texture selecting means for selecting a plurality of portions texture corresponding to the selected simplified models according to the data, and a mapping means for mapping the plurality of partial textures selected by the selected simplified models.

【0010】したがってこの発明によれば、たとえ物理
法則に従った変形によって対象物の入り組んだ部分が露
出したとしても、各簡略化モデルを構成するすべての要
素に対して複数の部分テクスチャが個別的に生成されて
いるため、その露出した入り組んだ部分が欠落すること
なく、常に完全な2眼式立体画像を表示することができ
るとともに、上述した従来の手法に比べて樹木の全周を
表示すために必要なデータ量を大幅に削減することがで
きる。
Therefore, according to the present invention, even if the intricate part of the object is exposed by the deformation according to the laws of physics, a plurality of partial textures are individually provided for all the elements constituting each simplified model. , It is possible to always display a complete binocular stereo image without missing the exposed intricate part, and to display the entire circumference of the tree compared to the conventional method described above. Therefore, the amount of data required can be greatly reduced.

【0011】[0011]

【発明の実施の形態】以下、この発明の実施の形態を図
面を参照して詳しく説明する。図1は、この発明による
画像生成部を含む運動視表示システムの全体構成を示す
ブロック図である。図1を参照して、この運動視表示シ
ステムは、対象物14を表示するためのスクリーン12
と、観察者18の視点を検出するための磁気センサ20
と、所定の磁界を発生する磁界発生部16と、スクリー
ン12上に表示するための対象物14の画像を生成する
画像生成部24と、磁界発生部16および画像生成部2
4を制御し、磁気センサ20の出力に応答して観察者1
8の視点に関する視点データを画像生成部24に供給す
る制御部22とを備える。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of a motion visual display system including an image generation unit according to the present invention. Referring to FIG. 1, the motion visual display system includes a screen 12 for displaying an object 14.
And a magnetic sensor 20 for detecting the viewpoint of the observer 18
A magnetic field generating unit 16 for generating a predetermined magnetic field; an image generating unit 24 for generating an image of the object 14 to be displayed on the screen 12; a magnetic field generating unit 16 and the image generating unit 2
4 in response to the output of the magnetic sensor 20.
And a control unit 22 that supplies viewpoint data relating to eight viewpoints to the image generation unit 24.

【0012】この運動視表示システムにおける三次元世
界座標系はxyz座標系10で定義される。まず、この
三次元世界座標系におけるスクリーン12、対象物14
および磁気発生部16の三次元位置が予め求められる。
また、観察者18の頭部には磁気センサ20が装着され
ている。この磁気センサ20は磁界発生部16によって
生成された磁界を検出し、それにより磁界発生部16か
ら観察者18の視点までの距離が実時間で求められる。
この磁気センサ20の出力に応答して制御部22から画
像生成部24へ観察者18の視点に関する視点データが
供給される。
A three-dimensional world coordinate system in this motion visual display system is defined by an xyz coordinate system 10. First, the screen 12 and the object 14 in this three-dimensional world coordinate system
And the three-dimensional position of the magnetism generating section 16 is obtained in advance.
A magnetic sensor 20 is mounted on the head of the observer 18. The magnetic sensor 20 detects a magnetic field generated by the magnetic field generator 16, whereby the distance from the magnetic field generator 16 to the viewpoint of the observer 18 is obtained in real time.
In response to the output of the magnetic sensor 20, the control unit 22 supplies viewpoint data relating to the viewpoint of the observer 18 to the image generation unit 24.

【0013】なお、ここに示した実施の形態では観察者
18の視点を検出するために磁気センサ20が用いられ
ているが、これにより視点の位置を検出する方法を限定
するものではなく視点の位置を検出するいかなる方法で
も採用することは可能である。
In the embodiment shown here, the magnetic sensor 20 is used to detect the viewpoint of the observer 18, but this does not limit the method of detecting the position of the viewpoint. Any method of detecting position can be employed.

【0014】このように観察者18の視点、スクリーン
12および対象物14の位置関係が決定されると、その
視点からスクリーン12を通して対象物14を観察した
透視投影画像が画像生成部24によって生成され、さら
にスクリーン12上に表示される。たとえば観察者18
が右側に移動すると、その新たな右側の視点から観察可
能な対象物14の右側がスクリーン12上に表示され
る。他方、観察者18が左側に移動すると、その新たな
左側の視点から観察可能な対象物14の左側がスクリー
ン12上に表示される。
When the viewpoint 18 of the observer 18 and the positional relationship between the screen 12 and the object 14 are determined in this way, a perspective projection image obtained by observing the object 14 from the viewpoint through the screen 12 is generated by the image generation unit 24. Are displayed on the screen 12. For example, observer 18
Moves to the right, the right side of the object 14 that can be observed from the new right viewpoint is displayed on the screen 12. On the other hand, when the observer 18 moves to the left, the left side of the object 14 that can be observed from the new left viewpoint is displayed on the screen 12.

【0015】このように観察者の視点に応じて立体画像
を実時間で表示するためには、その表示されるべき対象
物14の骨格となるモデルと、そのモデルに貼り付ける
ためのテクスチャ等を予め用意しておく必要がある。図
2は、樹木のような複雑な形状を有する対象物を表示す
るために必要なモデルおよびテクスチャを生成するため
の装置を示すブロック図である。図2を参照して、この
装置は、樹木などの複雑な形状を有する対象物をフラク
タル幾何を用いてモデル化することによりフラクタルモ
デルを生成するフラクタルモデル生成部261と、その
生成されたフラクタルモデルに基づいて複数の簡略化モ
デル281を生成する階層式簡略化モデル生成部262
と、各簡略化モデルを構成する要素の各々に対してその
生成されたフラクタルモデルの対応する部分を投影する
ことにより各簡略化モデルごとに複数の部分テクスチャ
301を生成する階層式部分テクスチャ生成部263
と、その生成された部分テクスチャがいずれの簡略化モ
デルにおけるいずれの要素に対応するものかを管理する
ためのテクスチャ管理テーブル302を生成するテクス
チャ管理テーブル生成部264と、その生成された簡略
化モデル281を格納するデータベース28と、その生
成された部分テクスチャ301および管理テーブル30
2を格納するデータベース30とを備える。
In order to display a stereoscopic image in real time in accordance with the viewpoint of the observer, a model serving as a skeleton of the object 14 to be displayed and a texture or the like to be attached to the model are required. It must be prepared in advance. FIG. 2 is a block diagram showing an apparatus for generating a model and a texture necessary for displaying an object having a complicated shape such as a tree. Referring to FIG. 2, the apparatus includes a fractal model generation unit 261 that generates a fractal model by modeling an object having a complex shape such as a tree using fractal geometry, and a fractal model generated by the fractal model. Hierarchical simplified model generation unit 262 that generates a plurality of simplified models 281 based on
And a hierarchical partial texture generation unit that generates a plurality of partial textures 301 for each simplified model by projecting a corresponding portion of the generated fractal model onto each of the elements constituting each simplified model. 263
A texture management table generation unit 264 that generates a texture management table 302 for managing which element in which simplified model the generated partial texture corresponds to, and a generated simplified model , The generated partial texture 301 and the management table 30
And a database 30 for storing the data.

【0016】フラクタルモデル生成部261では表示し
ようとする樹木はフラクタル幾何を用いてモデル化さ
れ、それにより最も精細度の高い形状データからなるフ
ラクタルモデルが生成される。このフラクタルモデルの
データを用いると、図3に示されるような最も精細度の
高い三次元形状を有する樹木261aが表示可能であ
る。
The tree to be displayed is modeled by the fractal model generation unit 261 using fractal geometry, thereby generating a fractal model including shape data with the highest definition. By using the data of the fractal model, a tree 261a having a three-dimensional shape with the highest definition as shown in FIG. 3 can be displayed.

【0017】次に、階層式簡略化モデル生成部262で
はその生成されたフラクタルモデルに基づいて3つの簡
略化モデル281が生成される。ここでは図4に示され
るように、観察者18の視点から対象物14である樹木
までの距離に応じて精細度の異なる3つの簡略化モデル
281a〜281cが生成される。一般に、視点から近
い位置にある樹木ほどその詳細が観察され、逆に視点か
ら遠い位置にある樹木ほど大雑把に観察され得るという
視覚特性がある。そのため、視点から近い位置の樹木に
は精細度の高い形状データが必要とされるが、視点から
遠い位置にある樹木にはさほど精細度の高い形状データ
は必要とされない。
Next, the hierarchical simplified model generator 262 generates three simplified models 281 based on the generated fractal models. Here, as shown in FIG. 4, three simplified models 281a to 281c having different degrees of definition are generated according to the distance from the viewpoint of the observer 18 to the tree, which is the object 14. In general, there is a visual characteristic that a tree closer to the viewpoint can be observed in detail, and a tree farther from the viewpoint can be roughly observed. For this reason, high-definition shape data is required for trees located near the viewpoint, but not so high-definition shape data is required for trees located far from the viewpoint.

【0018】したがって、ここでは図4(a)に示され
るように、視点から近い位置にある樹木を表示するため
のデータとして高い精細度を有する簡略化モデル281
aがフラクタルモデルに基づいて生成される。また、図
4(b)に示されるように、視点からさほど近くもなく
遠くもない中程度の位置にある樹木を表示するためのデ
ータとして、中程度の精細度を有する簡略化モデル28
1bがフラクタルモデルに基づいて生成される。さら
に、図4(c)に示されるように視点から遠い位置にあ
る樹木を表示するためにデータとして、低い精細度を有
する簡略化モデル281cがフラクタルモデルに基づい
て生成される。このようにして生成された3つの簡略化
モデル281(281a〜281c)はデータベース2
8に格納される。
Therefore, here, as shown in FIG. 4A, a simplified model 281 having a high definition is used as data for displaying a tree close to the viewpoint.
a is generated based on the fractal model. Further, as shown in FIG. 4B, a simplified model 28 having a medium definition is used as data for displaying a tree at a medium position that is not so close or far from the viewpoint.
1b is generated based on the fractal model. Further, as shown in FIG. 4C, a simplified model 281c having a low definition is generated based on the fractal model as data for displaying a tree far from the viewpoint. The three simplified models 281 (281a to 281c) thus generated are stored in the database 2
8 is stored.

【0019】図5は、データベース化された簡略化モデ
ル281のデータ構造を示す。図5に示されるように、
簡略化モデル281のデータは枝データ構造40と葉デ
ータ構造50とから構成される。枝データ構造40は、
子供の枝へのポインタ41と子孫の枝の範囲42と、簡
略化形状データ43と、簡略化形状データ用テクスチャ
識別子44と、枝形状データ45とを有する。葉データ
構造50は葉形状データ51を有する。視点からの遠近
による形状粗さと子孫の枝の範囲42は、元の幹46か
ら子供の枝47へと順に比較される。子孫の枝の範囲4
2が上記形状粗さよりも小さくなると、そのときの簡略
化形状データ43がそれ以降の形状データを描画する代
わりに用いられる。
FIG. 5 shows the data structure of the simplified model 281 in a database. As shown in FIG.
The data of the simplified model 281 includes a branch data structure 40 and a leaf data structure 50. The branch data structure 40 is
It has a pointer 41 to a child branch, a range 42 of descendant branches, simplified shape data 43, a texture identifier 44 for simplified shape data, and branch shape data 45. The leaf data structure 50 has leaf shape data 51. The shape roughness due to the distance from the viewpoint and the range 42 of the descendant branch are compared in order from the original trunk 46 to the child branch 47. Range of offspring branches 4
When 2 is smaller than the above-mentioned shape roughness, the simplified shape data 43 at that time is used instead of drawing the subsequent shape data.

【0020】他方、階層式部分テクスチャ生成部263
では、簡略化モデル281a〜281cの各々を構成す
る要素32に対して部分テクスチャ301が生成され
る。図3に示されるように簡略化モデル281aを構成
する1つの要素32が選択されるとともに、フラクタル
モデルを用いた最も精細度の高い樹木261aの対応す
る部分34が選択される。その選択された要素32に対
してフラクタルモデルの対応する部分34が投影され、
それにより1つの部分テクスチャ301が生成される。
これと同様にして、簡略化モデル281aのすべての要
素32に対応する複数の部分テクスチャ301が生成さ
れる。
On the other hand, the hierarchical partial texture generator 263
In, the partial texture 301 is generated for the elements 32 configuring each of the simplified models 281a to 281c. As shown in FIG. 3, one element 32 constituting the simplified model 281a is selected, and the corresponding part 34 of the tree 261a with the highest definition using the fractal model is selected. A corresponding portion 34 of the fractal model is projected onto the selected element 32,
Thereby, one partial texture 301 is generated.
Similarly, a plurality of partial textures 301 corresponding to all the elements 32 of the simplified model 281a are generated.

【0021】なお、簡略化モデル281の各要素32は
十字に組まれたポリゴンから構成される。したがって、
テクスチャ301はフラクタルモデル261aの対応す
るモデルをポリゴンの各々に平行に投影することによっ
て得られる。また、テクスチャ用のデータとしては簡略
化モデル281の前後左右に対応する4種類が使用され
る。
Each element 32 of the simplified model 281 is composed of a cross-shaped polygon. Therefore,
Texture 301 is obtained by projecting a corresponding model of fractal model 261a parallel to each of the polygons. In addition, four types of data corresponding to the front, rear, left and right of the simplified model 281 are used as texture data.

【0022】テクスチャの縦横サイズStexは次の式
(1)に従って定められる。 Stex=Stree×AB …(1) ここで、Streeはコンピュータグラフィックスの表
示時に想定される樹木の縦横サイズである。また、Aは
次の式(2)で表される。 A=1/√C…(2) また、Bは簡略化を行なう枝の世代であり、CはIFS
の縮小写像の個数である。このようにすることでCB
の簡略化モデルに必要なテクスチャ用のデータ量を次の
式(3)とすることができる。 Stex2 ×CB ×4=Stree2 ×4…(3) ここで、コンピュータグラフィックスの表示時に想定さ
れる樹木の縦横サイズStreeと簡略化のレベルBと
の関係を次の式(4)とする。0≦B≦E−1であり、
Bが大きいほど精細であることを示す。 Stree=Smax×DE-B …(4) ここでSmaxはコンピュータグラフィックスの表示時
に想定される樹木の最大縦横サイズであり、Dは各縮小
写像の縮小率の平均であり、また、Eは最大の精細度を
与えるときの枝の世代である。この式(4)により、表
示面上の簡略化形状のサイズStreeによらず一定と
なる。このとき必要なテクスチャ用のデータ量は次の式
(5)で表される。
The vertical and horizontal size Text of the texture is determined according to the following equation (1). Text = Tree × A B (1) Here, “Tree” is a vertical and horizontal size of a tree assumed when displaying computer graphics. A is represented by the following equation (2). A = 1 / √C (2) B is the generation of the branch for simplification, and C is the IFS
Is the number of reduced maps of. The data amount for this required C B-number of the simplified model by the texture can be the following equation (3). Stex 2 × C B × 4 = Stree 2 × 4 ... (3) Here, the relationship between the level B of the vertical and horizontal sizes Stree and simplification of trees to be assumed at the time of display of the computer graphics and the following equation (4) I do. 0 ≦ B ≦ E−1,
Larger B indicates higher definition. Tree = Smax × D EB (4) where Smax is the maximum vertical and horizontal size of the tree assumed when displaying the computer graphics, D is the average of the reduction ratio of each reduced map, and E is the maximum. This is the generation of branches when giving definition. According to the equation (4), the size of the simplified shape on the display surface is constant regardless of the size Tree. The amount of texture data required at this time is represented by the following equation (5).

【0023】[0023]

【数1】 (Equation 1)

【0024】この式(5)で典型的な値としてたとえば
D=0.5,E=8を与えると、必要なテクスチャ用の
データ量はSmax2 ×5.074となる。
If, for example, D = 0.5 and E = 8 are given as typical values in the equation (5), the required texture data amount is Smax 2 × 5.074.

【0025】このようにして各簡略化モデル281ごと
に複数の部分テクスチャ301が個別的に生成される
が、多数の部分テクスチャが生成されるため、各部分テ
クスチャがどのレベルの簡略化モデル281a〜281
cに対応し、さらにその簡略化モデルのどの要素に対応
するかを管理しなければならない。このような部分テク
スチャを管理するための管理テーブルを生成するのは、
図2に示されたテクスチャ管理テーブル生成部264で
ある。
In this way, a plurality of partial textures 301 are individually generated for each simplified model 281. However, since a large number of partial textures are generated, each level of the partial textures corresponds to the simplified model 281a-281. 281
c, and which element of the simplified model should be managed. The management table for managing such a partial texture is generated by:
This is the texture management table generation unit 264 shown in FIG.

【0026】図6に示されるように、生成された部分テ
クスチャは各階層ごとにグループ化され、各グループ内
で一義的に定められる簡略化形状データ用のテクスチャ
識別子44によって参照される。簡略化形状データ用テ
クスチャデータ管理テーブル60は、簡略化形状データ
用テクスチャ識別子44を、グループ化された画像デー
タ62中のオフセット63と縦横サイズ64および65
とに対応付けられる。
As shown in FIG. 6, the generated partial textures are grouped for each layer and are referred to by a texture identifier 44 for simplified shape data uniquely defined in each group. The simplified shape data texture data management table 60 stores the simplified shape data texture identifier 44 in the offset 63 in the grouped image data 62 and the vertical and horizontal sizes 64 and 65.
.

【0027】このようにして生成された部分テクスチャ
31と管理テーブル302とはデータベース30に格納
される。これにより、データベース28に格納された簡
略化モデル281に必要な部分テクスチャ301がすべ
て用意され、さらにそのすべての部分テクスチャ301
がどの簡略化モデルのどの要素に対応するかに関するデ
ータが用意されたこととなる。
The partial texture 31 and the management table 302 thus generated are stored in the database 30. Thereby, all the partial textures 301 necessary for the simplified model 281 stored in the database 28 are prepared, and all the partial textures 301 are further prepared.
Corresponds to which element of which simplified model is prepared.

【0028】図7は、これらデータベース化された簡略
化モデル281、部分テクスチャ301および管理テー
ブル302に基づいて、観察者18の視点に応じた立体
画像を実時間で生成する画像生成部24の詳細を示すブ
ロック図である。図7を参照して、この画像生成部24
は、制御部22からの視点データに応じて簡略化モデル
281のうち対応する1つを選択する簡略化モデル選択
部241と制御部22からの視点データに応じて簡略化
モデル選択部241で選択された簡略化モデルに対応す
る複数の部分テクスチャを選択する部分テクスチャ選択
部242と、簡略化モデル選択部241で選択された簡
略化モデルに部分テクスチャ選択部242で選択された
複数の部分テクスチャを管理テーブル302に従ってマ
ッピングするレンダリング処理部243とを備える。
FIG. 7 shows details of the image generation unit 24 for generating a stereoscopic image according to the viewpoint of the observer 18 in real time based on the simplified model 281, the partial texture 301, and the management table 302 stored in the database. FIG. Referring to FIG. 7, this image generation unit 24
Is selected by the simplified model selection unit 241 that selects the corresponding one of the simplified models 281 according to the viewpoint data from the control unit 22 and the simplified model selection unit 241 according to the viewpoint data from the control unit 22 A partial texture selecting unit 242 for selecting a plurality of partial textures corresponding to the simplified model thus selected, and a plurality of partial textures selected by the partial texture selecting unit 242 for the simplified model selected by the simplified model selecting unit 241. A rendering processing unit 243 that performs mapping in accordance with the management table 302.

【0029】したがって簡略化モデル選択部241で
は、データベース28に格納された3つの簡略化モデル
281a〜281cのうち1つが選択される。もしも観
察者18の視点から対象物14である樹木までの距離が
近ければ、図4(a)に示された精細度の高い簡略化モ
デル281aが選択される。もしも観察者18から対象
物14である樹木までの距離が中程度であれば、図4
(b)に示された中程度の精細度を有する簡略化モデル
281bが選択される。もしも観察者18から対象物1
4である樹木までの距離が遠ければ、図4(c)に示さ
れた精細度の低い簡略化モデル281cが選択される。
Therefore, the simplified model selecting section 241 selects one of the three simplified models 281a to 281c stored in the database 28. If the distance from the viewpoint of the observer 18 to the tree that is the object 14 is short, the simplified model 281a with high definition shown in FIG. 4A is selected. If the distance from the observer 18 to the tree, which is the object 14, is moderate, FIG.
The simplified model 281b having the medium definition shown in (b) is selected. If the object 1 from the observer 18
If the distance to the tree of No. 4 is long, the simplified model 281c with low definition shown in FIG. 4C is selected.

【0030】他方、部分テクスチャ選択部242では、
データベース30に格納された部分テクスチャ301の
うち、簡略化モデル選択部241で選択された簡略化モ
デルに対応する複数の部分テクスチャ301が選択され
る。もしも簡略化モデル選択部241が図4(a)に示
された精細度の高い簡略化モデル281aを選択したな
らば、その選択された簡略化モデル281aに対応する
すべての部分テクスチャ301が選択される。
On the other hand, in the partial texture selecting section 242,
From the partial textures 301 stored in the database 30, a plurality of partial textures 301 corresponding to the simplified model selected by the simplified model selection unit 241 are selected. If the simplified model selecting unit 241 selects the simplified model 281a with high definition shown in FIG. 4A, all the partial textures 301 corresponding to the selected simplified model 281a are selected. You.

【0031】そしてレンダリング処理部243では、デ
ータベース30に格納された管理テーブル302に従っ
て選択された簡略化モデル281の各要素32に、選択
された部分テクスチャの対応するものがマッピングされ
る。これにより樹木の三次元表示に必要なデータがスク
リーン12に供給され、スクリーン12上に樹木の立体
画像が表示される。
In the rendering processing unit 243, a corresponding one of the selected partial textures is mapped to each element 32 of the simplified model 281 selected according to the management table 302 stored in the database 30. Thereby, data necessary for three-dimensional display of the tree is supplied to the screen 12, and a three-dimensional image of the tree is displayed on the screen 12.

【0032】以上のようにこの実施の形態によれば、視
点からの距離に応じた樹木の形状データを描画に使用し
ているため、景観シミュレーションのような樹木データ
を大量に描画する必要のある場合でも視点の動きに対し
て実時間で表示画像を変化させることができる。したが
って視点移動に対して歪みのない2眼式立体画像を表示
することができる。しかも簡略化モデルの全体ではな
く、簡略化モデルの各要素に対してフラクタルモデルの
対応する部分を投射することによりテクスチャを生成し
ているため、風などによる揺らぎといった物理法則に従
った樹木の変形によってその入り組んだ部分が露出した
としても、その変形により新たに露出した部分のテクス
チャによりそれを自然に表示することができる。
As described above, according to this embodiment, since tree shape data corresponding to the distance from the viewpoint is used for drawing, it is necessary to draw a large amount of tree data such as a landscape simulation. Even in this case, the display image can be changed in real time with respect to the movement of the viewpoint. Therefore, it is possible to display a binocular stereoscopic image without distortion due to the movement of the viewpoint. In addition, because the texture is generated by projecting the corresponding parts of the fractal model to each element of the simplified model, not the entire simplified model, the tree is deformed according to physical laws such as fluctuation due to wind etc. Therefore, even if the intricate part is exposed, it can be naturally displayed by the texture of the newly exposed part due to the deformation.

【0033】また、上述した従来の手法では樹木の全周
360°にわたる視点移動に対して歪みのない2眼式立
体画像を表示するためには18枚程度の樹木画像が必要
であったのに対し、この実施の形態では精細度の比較的
高い簡略化レベルにおいても上記樹木画像5枚相当程度
のデータ量で樹木の全周を表示できるので、必要なデー
タ量を大幅に削減することができる。
Also, in the above-described conventional method, about 18 tree images are required to display a binocular stereoscopic image free from distortion with respect to a 360-degree viewpoint movement over the entire tree. On the other hand, in this embodiment, the entire circumference of the tree can be displayed with a data amount equivalent to about five tree images even at a relatively high level of simplicity, so that the required data amount can be greatly reduced. .

【0034】したがって、コンピュータグラフィックス
を用いた運動視表示において、視点位置に応じた粗さで
形状データを生成することによって、景観シミュレーシ
ョンのような樹木を大量に表示しなければならない場合
でも実時間で描画を行なうことができる。また、その簡
略化形状に樹木画像をテクスチャマッピングすることに
よって、実時間表示が可能な程度に形状の簡略化を行な
った場合でも、元の樹木の色調は精細感を保ったまま三
次元樹木画像を表示することができる。
Therefore, in motion visual display using computer graphics, by generating shape data with roughness corresponding to the viewpoint position, even when a large number of trees must be displayed, such as in a landscape simulation, real-time display is possible. Can be used for drawing. In addition, even if the shape of the tree image is simplified to the extent that real-time display is possible by texture-mapping the tree image to the simplified shape, the color tone of the original tree is maintained while maintaining the three-dimensional tree image. Can be displayed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施の形態による立体画像生成装置
を含む運動視表示システムの全体構成を示すブロック図
である。
FIG. 1 is a block diagram showing an overall configuration of a motion visual display system including a stereoscopic image generation device according to an embodiment of the present invention.

【図2】この発明の実施の形態による立体画像生成装置
の一部を示すブロック図であって、図1中の画像生成部
に必要なデータを準備するための部分である。
FIG. 2 is a block diagram showing a part of the three-dimensional image generating apparatus according to the embodiment of the present invention, which is a part for preparing data necessary for an image generating unit in FIG.

【図3】図2中の階層式部分テクスチャ生成部において
各簡略化モデルの各要素ごとに部分テクスチャを生成す
る方法を示す説明図である。
3 is an explanatory diagram illustrating a method of generating a partial texture for each element of each simplified model in a hierarchical partial texture generation unit in FIG. 2;

【図4】図2中の階層式簡略化モデル生成部において視
点からの距離に応じて生成される簡略化モデルを示す図
である。
FIG. 4 is a diagram showing a simplified model generated by a hierarchical simplified model generation unit in FIG. 2 according to a distance from a viewpoint.

【図5】図2中の階層式簡略化モデル生成部において生
成される簡略化モデルの階層モデルを示す説明図であ
る。
FIG. 5 is an explanatory diagram showing a hierarchical model of a simplified model generated by a hierarchical simplified model generation unit in FIG. 2;

【図6】図2中の階層式部分テクスチャ生成部およびテ
クスチャ管理テーブル生成部において部分テクスチャお
よび管理テーブルを生成する手法を示す説明図である。
FIG. 6 is an explanatory diagram showing a method of generating a partial texture and a management table in a hierarchical partial texture generation unit and a texture management table generation unit in FIG. 2;

【図7】図1中の画像生成部の詳細な構成およびその周
辺を示すブロック図である。
FIG. 7 is a block diagram showing a detailed configuration of an image generation unit in FIG. 1 and its periphery.

【符号の説明】[Explanation of symbols]

24 画像生成部 28,30 データベース 241 簡略化モデル選択部 242 部分テクスチャ選択部 243 レンダリング処理部 261 フラクタルモデル生成部 262 階層式簡略化モデル生成部 263 階層式部分テクスチャ生成部 264 テクスチャ管理テーブル生成部 281,281a〜281c 簡略化モデル 301 部分テクスチャ 32 要素 24 image generating unit 28, 30 database 241 simplified model selecting unit 242 partial texture selecting unit 243 rendering processing unit 261 fractal model generating unit 262 hierarchical simplified model generating unit 263 hierarchical partial texture generating unit 264 texture management table generating unit 281 , 281a to 281c Simplified model 301 Partial texture 32 elements

フロントページの続き (72)発明者 志和 新一 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール通 信システム研究所内 (56)参考文献 電子情報通信学会論文誌、VOL.J 78−D−▲II▼,NO.7,pp1091 −1104,平成7年7月25日発行 (58)調査した分野(Int.Cl.6,DB名) G06T 15/00 - 17/50 H04N 13/02 Continuation of the front page (72) Inventor Shinichi Shiwa Kyoto Prefecture Soraku-gun Seika-cho Oaza Inaya small character Sanraya 5 Inside ATI Communication System Research Laboratories (56) References IEICE Transactions, VOL . J 78-D-II, NO. 7, pp 1091-1104, issued July 25, 1995 (58) Fields investigated (Int. Cl. 6 , DB name) G06T 15/00-17/50 H04N 13/02

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 観察者の視点に応じて立体画像を生成す
る立体画像生成装置であって、 前記立体画像として生成されるべき対象物をフラクタル
幾何を用いてモデル化することによりフラクタルモデル
を生成するフラクタルモデル生成手段と、 前記フラクタルモデルに基づいて、前記観察者の視点か
ら前記対象物までの距離に応じた精細度を有する複数の
簡略化モデルを生成する簡略化モデル生成手段と、 前記簡略化モデルの各々を構成する要素の各々に対して
前記フラクタルモデルの対応する部分を投影することに
より各簡略化モデルごとに複数の部分テクスチャを生成
する部分テクスチャ生成手段と、 外部から与えられる前記観察者の視点に関する視点デー
タに応じて前記簡略化モデルのうち対応する1つを選択
する簡略化モデル選択手段と、 前記視点データに応じて前記選択された簡略化モデルに
対応する複数の部分テクスチャを選択する部分テクスチ
ャ選択手段と、 前記選択された簡略化モデルに前記選択された複数の部
分テクスチャをマッピングするマッピング手段とを備え
た立体画像生成装置。
1. A three-dimensional image generating apparatus for generating a three-dimensional image according to a viewpoint of an observer, wherein a fractal model is generated by modeling an object to be generated as the three-dimensional image using fractal geometry. A fractal model generating unit that generates, based on the fractal model, a simplified model generating unit that generates a plurality of simplified models having a definition corresponding to a distance from the viewpoint of the observer to the object. Texture generating means for generating a plurality of partial textures for each simplified model by projecting a corresponding portion of the fractal model onto each of the elements constituting each of the simplified models; A simplified model selecting means for selecting a corresponding one of the simplified models in accordance with viewpoint data relating to the viewpoint of the user Partial texture selecting means for selecting a plurality of partial textures corresponding to the selected simplified model according to the viewpoint data; and mapping the selected plurality of partial textures to the selected simplified model. A three-dimensional image generation device including a mapping unit.
JP7226244A 1995-09-04 1995-09-04 Stereoscopic image generation device Expired - Lifetime JP2892605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7226244A JP2892605B2 (en) 1995-09-04 1995-09-04 Stereoscopic image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7226244A JP2892605B2 (en) 1995-09-04 1995-09-04 Stereoscopic image generation device

Publications (2)

Publication Number Publication Date
JPH0973561A JPH0973561A (en) 1997-03-18
JP2892605B2 true JP2892605B2 (en) 1999-05-17

Family

ID=16842159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7226244A Expired - Lifetime JP2892605B2 (en) 1995-09-04 1995-09-04 Stereoscopic image generation device

Country Status (1)

Country Link
JP (1) JP2892605B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679773B (en) * 2013-12-31 2017-03-08 中国林业科学研究院资源信息研究所 A kind of trees morphological Simulation method based on self adaptation fractal algorithm

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会論文誌、VOL.J78−D−▲II▼,NO.7,pp1091−1104,平成7年7月25日発行

Also Published As

Publication number Publication date
JPH0973561A (en) 1997-03-18

Similar Documents

Publication Publication Date Title
US6441815B1 (en) Method and system for high performance computer-generated virtual environments
US6268862B1 (en) Three dimensional virtual space generation by fusing images
JP2022524891A (en) Image processing methods and equipment, electronic devices and computer programs
US6954202B2 (en) Image-based methods of representation and rendering of three-dimensional object and animated three-dimensional object
JPH0757117A (en) Forming method of index to texture map and computer control display system
Hanson et al. Interactive visualization methods for four dimensions
US6683606B1 (en) Virtual architecture experience method and apparatus
CN108564527A (en) The method and device of the completion of panorama sketch content and reparation based on neural network
JPH10208077A (en) Method for rendering graphic image on display, image rendering system and method for generating graphic image on display
CA2392638C (en) Method for representing image-based rendering information in 3d scene
JPH10255081A (en) Image processing method and image processor
Astheimer et al. Level-of-detail generation and its application in virtual reality
Novák et al. Rasterized bounding volume hierarchies
CN114742956B (en) Model processing method, device, equipment and computer readable storage medium
JPH10507858A (en) Method and apparatus for automatically and quickly drawing on a photographic real surface on a three-dimensional wireframe
JP2832463B2 (en) 3D model reconstruction method and display method
JP2892605B2 (en) Stereoscopic image generation device
Levene A framework for non-realistic projections
Zhang et al. A survey of modeling and rendering trees
JPH1027268A (en) Image processing method and image processor
JPH0773342A (en) Image generator
JP3067097B2 (en) 3D image data creation method
JPH1166277A (en) Simple display device for three-dimensional topographic model having large number of bodies arranged surface and its simple display method
Aliaga Automatically reducing and bounding geometric complexity by using images
Yang et al. Nonlinear projection: using deformations in 3D viewing

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990216