JPH0973561A - Stereoscopic image generating device - Google Patents

Stereoscopic image generating device

Info

Publication number
JPH0973561A
JPH0973561A JP7226244A JP22624495A JPH0973561A JP H0973561 A JPH0973561 A JP H0973561A JP 7226244 A JP7226244 A JP 7226244A JP 22624495 A JP22624495 A JP 22624495A JP H0973561 A JPH0973561 A JP H0973561A
Authority
JP
Japan
Prior art keywords
model
viewpoint
simplified
tree
fractal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7226244A
Other languages
Japanese (ja)
Other versions
JP2892605B2 (en
Inventor
Noriaki Kuwabara
教彰 桑原
Katsuyuki Omura
克之 大村
Shinichi Shiwa
新一 志和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR TSUSHIN SYST KENKYUSHO KK
Original Assignee
ATR TSUSHIN SYST KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR TSUSHIN SYST KENKYUSHO KK filed Critical ATR TSUSHIN SYST KENKYUSHO KK
Priority to JP7226244A priority Critical patent/JP2892605B2/en
Publication of JPH0973561A publication Critical patent/JPH0973561A/en
Application granted granted Critical
Publication of JP2892605B2 publication Critical patent/JP2892605B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a correct stereoscopic image even when an object having a complicated shape like a tree is deformed and an intricate part is exposed. SOLUTION: This device is provided with plural simplification models 281 having precision corresponding to a distance to the object from an observer's viewpoint based on a fractal model, a simplification model selection part 241 for previously generating plural partial textures for each simplification model by projecting a part where the fractal model corresponds to each element constituting each simplification model 281 and selecting corresponding one from among the simplificaiton models 281 in accordance with the sight line data, a partial texture selection part 242 for selecting the plural partial textures 301 corresponding to the selected simplification model in accordance with the viewpoint data, and a rendering processing part 243 for mapping the selected plural partial textures to the selected simplification model.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は立体画像生成装置
に関し、さらに詳しくは、フラクタル幾何を用いて観察
者の視点に応じた立体画像を生成する立体画像生成装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereoscopic image generating apparatus, and more particularly to a stereoscopic image generating apparatus for generating a stereoscopic image according to a viewer's viewpoint by using fractal geometry.

【0002】[0002]

【従来の技術】コンピュータグラフィックスの分野で
は、物体を三次元モデルで定義するとともに、利用者の
視点位置を計測し、その視点からスクリーンを通して見
た画像を生成して表示する運動視表示システムが開発さ
れている。また、自然の景観をシミュレーションするシ
ステムも開発されている。さらに、広視野、高精細、立
体視、運動視を用いて、遠隔地にいる人々があたかも同
一空間にいるかのような感覚を提供することのできる臨
場感通信も開発されている。
2. Description of the Related Art In the field of computer graphics, there is a motion vision display system that defines an object with a three-dimensional model, measures the viewpoint position of a user, and generates and displays an image viewed through a screen from that viewpoint. Being developed. Also, a system for simulating a natural landscape has been developed. Furthermore, using wide-field, high-definition, stereoscopic, and kinetic vision, immersive communication has been developed that can provide the feeling that people in remote areas are in the same space.

【0003】コンピュータグラフィックスでは表示され
るべき対象物を三次元モデルで定義して高品質な画像を
生成する場合、対象物をきめ細かくサンプリングし、光
源計算を行なって遠近表示などをすることにより非常に
リアルな画像が得られる。さらに、ステレオ表示、運動
視表示などを行なえば、表示画像の立体感はより高くな
る。このような高品質な画像を生成する場合、必要な表
示モデルの頂点の数が膨大になるため、レンダリング処
理、投影変換処理などの計算量が増加し、それにより処
理時間が長くなる傾向にある。
In computer graphics, when an object to be displayed is defined by a three-dimensional model and a high-quality image is generated, the object is finely sampled, light source calculation is performed, and perspective display is performed. Realistic images can be obtained. Furthermore, if stereoscopic display, motion visual display, and the like are performed, the stereoscopic effect of the displayed image becomes higher. When generating such a high-quality image, the number of required display model vertices becomes enormous, which increases the amount of calculation such as rendering processing and projection conversion processing, which tends to increase the processing time. .

【0004】上述した臨場感通信会議システムでは高品
質な画像を実時間で生成して表示することが要求され
る。そのため、計算機の処理速度の向上、光源計算など
の各種処理の高速アルゴリズムの開発、視覚特性を利用
した頂点を削除したモデルの作成、およびそのモデルを
用いた表示などといったさまざまな研究が進められてい
る。
The above-described presence-oriented communication conference system is required to generate and display a high quality image in real time. Therefore, various researches such as improving the processing speed of the computer, developing high-speed algorithms for various processing such as light source calculation, creating a model with vertex removed using visual characteristics, and displaying using that model have been promoted. There is.

【0005】ところで、樹木のようにデータ量が莫大な
形状を表示するためには、視覚特性を利用して表示モデ
ルの頂点数を削除する必要がある。しかしながら、従来
の提案されている手法では実時間で画像を表示できる程
度にデータ量を減少させることは不可能であった。ま
た、三次元モデルを平行投影して得たテクスチャを予め
登録しておき、交差した複数の平面からなるポリゴンに
そのテクスチャを実時間でマッピングする手法が提案さ
れているが、視点の方向によっては画像に歪みが生じ
る。さらにこの手法では、風などによる揺らぎといった
物理法則に従った変形を実時間で生成することは不可能
であった。
By the way, in order to display a shape with a huge amount of data such as a tree, it is necessary to delete the number of vertices of the display model by utilizing visual characteristics. However, it has been impossible to reduce the amount of data to the extent that an image can be displayed in real time with the conventionally proposed method. In addition, a method has been proposed in which a texture obtained by projecting a three-dimensional model in parallel is registered in advance and the texture is mapped in real time on a polygon composed of a plurality of intersecting planes. The image is distorted. Furthermore, with this method, it was not possible to generate in real time a deformation that complies with the physical laws such as fluctuation due to wind.

【0006】これに対し、1995年7月発行の電子情
報通信学会論文誌D−II,Vol.J78−T−I
I,No.7の第1091頁〜第1104頁には、視点
移動に対して歪みのない2眼式立体画像を表示しかつ物
理法則に従った変形が実時間で可能な「フラクタルを用
いた階層的な樹木形状表現による三次元樹木画像の高速
生成方法」が提案されている。この方法は、樹木のよう
な複雑な形状を有する対象物をフラクタル幾何を用いて
モデル化し、観察者の視点から対象物までの距離に応じ
て表示に十分な粗さを求め、その粗さに応じて簡略化モ
デルを生成し、さらにその簡略化モデルに適当な視点か
らの樹木画像のテクスチャをマッピングするものであ
る。
On the other hand, the Institute of Electronics, Information and Communication Engineers, D-II, Vol. J78-T-I
I, No. 7th pages 1091 to 1104, "a hierarchical tree using fractals that displays a two-lens stereoscopic image without distortion with respect to viewpoint movement and can be deformed in real time according to a physical law. A high-speed method for generating a three-dimensional tree image using shape representation "has been proposed. This method models an object with a complicated shape such as a tree using fractal geometry, obtains sufficient roughness for display according to the distance from the observer's viewpoint to the object, and determines the roughness. Accordingly, a simplified model is generated, and the texture of the tree image from an appropriate viewpoint is further mapped to the simplified model.

【0007】[0007]

【発明が解決しようとする課題】しかしながらこの方法
では、樹木の入り組んだ部分に関するテクスチャ情報が
用意されていないために、変形により入り組んだ部分が
露出すると完全な立体画像を表示することができないと
いう問題があった。また、樹木の全周360°にわたる
視点移動に対し、歪みのない2眼式立体画像を表示する
ためには、18枚程度の樹木画像が必要となる問題があ
った。なお、このときの1枚の樹木画像は20°程度の
視点移動に対応できるものである。
However, in this method, since the texture information on the intricate portion of the tree is not prepared, a complete stereoscopic image cannot be displayed when the intricate portion is exposed due to deformation. was there. Further, there is a problem that about 18 tree images are required to display a distortion-free twin-lens stereoscopic image with respect to the viewpoint movement over the entire circumference of the tree of 360 °. It should be noted that one tree image at this time can handle a viewpoint movement of about 20 °.

【0008】したがって、この発明は、複雑な形状を有
する対象物が変形してその入り組んだ部分が露出しても
正確な立体画像を生成できる立体画像生成装置を提供す
ることを目的とする。
Therefore, it is an object of the present invention to provide a stereoscopic image generating apparatus capable of generating an accurate stereoscopic image even when an object having a complicated shape is deformed and its intricate portion is exposed.

【0009】[0009]

【課題を解決するための手段】この発明に従うと、観察
者の視点に応じて立体画像を生成する立体画像生成装置
は、立体画像として生成されるべき対象物をフラクタル
幾何を用いてモデル化することによりフラクタルモデル
を生成するフラクタルモデル生成手段と、フラクタルモ
デルに基づいて、観察者の視点から対象物までの距離に
応じた精細度を有する複数の簡略化モデルを生成する簡
略化モデル生成手段と、簡略化モデルの各々を構成する
要素の各々に対してフラクタルモデルの対応する部分を
投影することにより各簡略化モデルごとに複数の部分テ
クスチャを生成する部分テクスチャ生成手段と、外部か
ら与えられる観察者の視点に関する視点データに応じて
簡略化モデルのうち対応する1つを選択する簡略化モデ
ル選択手段と、視点データに応じて選択された簡略化モ
デルに対応する複数の部分テクスチャを選択する部分テ
クスチャ選択手段と、選択された簡略化モデルに選択さ
れた複数の部分テクスチャをマッピングするマッピング
手段とを備える。
According to the present invention, a stereoscopic image generating apparatus for generating a stereoscopic image in accordance with an observer's viewpoint models an object to be generated as a stereoscopic image using fractal geometry. A fractal model generating means for generating a fractal model, and a simplified model generating means for generating, based on the fractal model, a plurality of simplified models having a definition according to the distance from the observer's viewpoint to the object. , A partial texture generation means for generating a plurality of partial textures for each simplified model by projecting the corresponding portion of the fractal model onto each of the elements constituting each simplified model, and an observation given from the outside A simplified model selecting means for selecting a corresponding one of the simplified models according to the viewpoint data relating to the viewpoint of the user; Comprises a portion texture selecting means for selecting a plurality of portions texture corresponding to the selected simplified models according to the data, and a mapping means for mapping the plurality of partial textures selected by the selected simplified models.

【0010】したがってこの発明によれば、たとえ物理
法則に従った変形によって対象物の入り組んだ部分が露
出したとしても、各簡略化モデルを構成するすべての要
素に対して複数の部分テクスチャが個別的に生成されて
いるため、その露出した入り組んだ部分が欠落すること
なく、常に完全な2眼式立体画像を表示することができ
るとともに、上述した従来の手法に比べて樹木の全周を
表示すために必要なデータ量を大幅に削減することがで
きる。
Therefore, according to the present invention, even if the intricate portion of the object is exposed by the deformation according to the physical law, a plurality of partial textures are individually provided for all the elements constituting each simplified model. Since it is generated, the complete twin-lens stereoscopic image can be always displayed without the exposed intricate parts being lost, and the entire circumference of the tree can be displayed as compared with the conventional method described above. Therefore, the amount of data required can be significantly reduced.

【0011】[0011]

【発明の実施の形態】以下、この発明の実施の形態を図
面を参照して詳しく説明する。図1は、この発明による
画像生成部を含む運動視表示システムの全体構成を示す
ブロック図である。図1を参照して、この運動視表示シ
ステムは、対象物14を表示するためのスクリーン12
と、観察者18の視点を検出するための磁気センサ20
と、所定の磁界を発生する磁界発生部16と、スクリー
ン12上に表示するための対象物14の画像を生成する
画像生成部24と、磁界発生部16および画像生成部2
4を制御し、磁気センサ20の出力に応答して観察者1
8の視点に関する視点データを画像生成部24に供給す
る制御部22とを備える。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of a motion vision display system including an image generation unit according to the present invention. Referring to FIG. 1, the motion vision display system includes a screen 12 for displaying an object 14.
And a magnetic sensor 20 for detecting the viewpoint of the observer 18.
A magnetic field generator 16 that generates a predetermined magnetic field, an image generator 24 that generates an image of the object 14 to be displayed on the screen 12, a magnetic field generator 16 and an image generator 2.
4 controls the observer 1 in response to the output of the magnetic sensor 20.
The control unit 22 that supplies the viewpoint data regarding the eight viewpoints to the image generation unit 24.

【0012】この運動視表示システムにおける三次元世
界座標系はxyz座標系10で定義される。まず、この
三次元世界座標系におけるスクリーン12、対象物14
および磁気発生部16の三次元位置が予め求められる。
また、観察者18の頭部には磁気センサ20が装着され
ている。この磁気センサ20は磁界発生部16によって
生成された磁界を検出し、それにより磁界発生部16か
ら観察者18の視点までの距離が実時間で求められる。
この磁気センサ20の出力に応答して制御部22から画
像生成部24へ観察者18の視点に関する視点データが
供給される。
The three-dimensional world coordinate system in this motion visual display system is defined by the xyz coordinate system 10. First, the screen 12 and the object 14 in this three-dimensional world coordinate system
And the three-dimensional position of the magnetic field generator 16 is obtained in advance.
A magnetic sensor 20 is attached to the head of the observer 18. The magnetic sensor 20 detects the magnetic field generated by the magnetic field generation unit 16, and thereby the distance from the magnetic field generation unit 16 to the viewpoint of the observer 18 is obtained in real time.
In response to the output of the magnetic sensor 20, the viewpoint data regarding the viewpoint of the observer 18 is supplied from the controller 22 to the image generator 24.

【0013】なお、ここに示した実施の形態では観察者
18の視点を検出するために磁気センサ20が用いられ
ているが、これにより視点の位置を検出する方法を限定
するものではなく視点の位置を検出するいかなる方法で
も採用することは可能である。
In the embodiment shown here, the magnetic sensor 20 is used to detect the viewpoint of the observer 18, but the method for detecting the position of the viewpoint is not limited by this, and the viewpoint is not limited. Any method of detecting the position can be adopted.

【0014】このように観察者18の視点、スクリーン
12および対象物14の位置関係が決定されると、その
視点からスクリーン12を通して対象物14を観察した
透視投影画像が画像生成部24によって生成され、さら
にスクリーン12上に表示される。たとえば観察者18
が右側に移動すると、その新たな右側の視点から観察可
能な対象物14の右側がスクリーン12上に表示され
る。他方、観察者18が左側に移動すると、その新たな
左側の視点から観察可能な対象物14の左側がスクリー
ン12上に表示される。
When the viewpoint of the observer 18, the positional relationship between the screen 12 and the object 14 is thus determined, the perspective projection image of the object 14 observed from the viewpoint through the screen 12 is generated by the image generator 24. Further, it is displayed on the screen 12. For example, observer 18
When is moved to the right, the right side of the object 14 that can be observed from the new right side viewpoint is displayed on the screen 12. On the other hand, when the observer 18 moves to the left, the left side of the object 14 that can be observed from the new left side viewpoint is displayed on the screen 12.

【0015】このように観察者の視点に応じて立体画像
を実時間で表示するためには、その表示されるべき対象
物14の骨格となるモデルと、そのモデルに貼り付ける
ためのテクスチャ等を予め用意しておく必要がある。図
2は、樹木のような複雑な形状を有する対象物を表示す
るために必要なモデルおよびテクスチャを生成するため
の装置を示すブロック図である。図2を参照して、この
装置は、樹木などの複雑な形状を有する対象物をフラク
タル幾何を用いてモデル化することによりフラクタルモ
デルを生成するフラクタルモデル生成部261と、その
生成されたフラクタルモデルに基づいて複数の簡略化モ
デル281を生成する階層式簡略化モデル生成部262
と、各簡略化モデルを構成する要素の各々に対してその
生成されたフラクタルモデルの対応する部分を投影する
ことにより各簡略化モデルごとに複数の部分テクスチャ
301を生成する階層式部分テクスチャ生成部263
と、その生成された部分テクスチャがいずれの簡略化モ
デルにおけるいずれの要素に対応するものかを管理する
ためのテクスチャ管理テーブル302を生成するテクス
チャ管理テーブル生成部264と、その生成された簡略
化モデル281を格納するデータベース28と、その生
成された部分テクスチャ301および管理テーブル30
2を格納するデータベース30とを備える。
As described above, in order to display a stereoscopic image in real time according to the viewpoint of the observer, a model serving as a skeleton of the object 14 to be displayed, a texture to be attached to the model, and the like are specified. It is necessary to prepare in advance. FIG. 2 is a block diagram showing an apparatus for generating a model and a texture necessary for displaying an object having a complicated shape such as a tree. With reference to FIG. 2, this apparatus includes a fractal model generation unit 261 that generates a fractal model by modeling an object having a complicated shape such as a tree using fractal geometry, and the generated fractal model. Hierarchical simplified model generation unit 262 that generates a plurality of simplified models 281 based on
And a hierarchical partial texture generation unit that generates a plurality of partial textures 301 for each simplified model by projecting corresponding portions of the generated fractal model onto each of the elements that form each simplified model. 263
And a texture management table generation unit 264 that generates a texture management table 302 for managing which element in which simplified model the generated partial texture corresponds to, and the generated simplified model. A database 28 that stores 281 and the generated partial texture 301 and management table 30.
2 and a database 30 for storing 2.

【0016】フラクタルモデル生成部261では表示し
ようとする樹木はフラクタル幾何を用いてモデル化さ
れ、それにより最も精細度の高い形状データからなるフ
ラクタルモデルが生成される。このフラクタルモデルの
データを用いると、図3に示されるような最も精細度の
高い三次元形状を有する樹木261aが表示可能であ
る。
In the fractal model generation unit 261, the tree to be displayed is modeled using fractal geometry, thereby generating a fractal model composed of shape data with the highest definition. By using the data of this fractal model, a tree 261a having a three-dimensional shape with the highest definition as shown in FIG. 3 can be displayed.

【0017】次に、階層式簡略化モデル生成部262で
はその生成されたフラクタルモデルに基づいて3つの簡
略化モデル281が生成される。ここでは図4に示され
るように、観察者18の視点から対象物14である樹木
までの距離に応じて精細度の異なる3つの簡略化モデル
281a〜281cが生成される。一般に、視点から近
い位置にある樹木ほどその詳細が観察され、逆に視点か
ら遠い位置にある樹木ほど大雑把に観察され得るという
視覚特性がある。そのため、視点から近い位置の樹木に
は精細度の高い形状データが必要とされるが、視点から
遠い位置にある樹木にはさほど精細度の高い形状データ
は必要とされない。
Next, the hierarchical simplified model generator 262 generates three simplified models 281 based on the generated fractal model. Here, as illustrated in FIG. 4, three simplified models 281a to 281c having different degrees of definition are generated according to the distance from the viewpoint of the observer 18 to the tree that is the object 14. In general, there is a visual characteristic that a tree located closer to the viewpoint can be observed in more detail, while a tree located farther from the viewpoint can be observed more roughly. Therefore, a tree located closer to the viewpoint needs shape data with higher definition, but a tree located far from the viewpoint does not require shape data having higher definition.

【0018】したがって、ここでは図4(a)に示され
るように、視点から近い位置にある樹木を表示するため
のデータとして高い精細度を有する簡略化モデル281
aがフラクタルモデルに基づいて生成される。また、図
4(b)に示されるように、視点からさほど近くもなく
遠くもない中程度の位置にある樹木を表示するためのデ
ータとして、中程度の精細度を有する簡略化モデル28
1bがフラクタルモデルに基づいて生成される。さら
に、図4(c)に示されるように視点から遠い位置にあ
る樹木を表示するためにデータとして、低い精細度を有
する簡略化モデル281cがフラクタルモデルに基づい
て生成される。このようにして生成された3つの簡略化
モデル281(281a〜281c)はデータベース2
8に格納される。
Therefore, here, as shown in FIG. 4A, a simplified model 281 having a high definition as data for displaying a tree located at a position close to the viewpoint.
a is generated based on the fractal model. Further, as shown in FIG. 4B, a simplified model 28 having a medium definition is used as data for displaying a tree at a medium position which is not so close or far from the viewpoint.
1b is generated based on the fractal model. Further, as shown in FIG. 4C, a simplified model 281c having a low definition is generated based on the fractal model as data for displaying a tree located far from the viewpoint. The three simplified models 281 (281a to 281c) thus generated are stored in the database 2
8 is stored.

【0019】図5は、データベース化された簡略化モデ
ル281のデータ構造を示す。図5に示されるように、
簡略化モデル281のデータは枝データ構造40と葉デ
ータ構造50とから構成される。枝データ構造40は、
子供の枝へのポインタ41と子孫の枝の範囲42と、簡
略化形状データ43と、簡略化形状データ用テクスチャ
識別子44と、枝形状データ45とを有する。葉データ
構造50は葉形状データ51を有する。視点からの遠近
による形状粗さと子孫の枝の範囲42は、元の幹46か
ら子供の枝47へと順に比較される。子孫の枝の範囲4
2が上記形状粗さよりも小さくなると、そのときの簡略
化形状データ43がそれ以降の形状データを描画する代
わりに用いられる。
FIG. 5 shows the data structure of the simplified model 281 stored in the database. As shown in FIG.
The data of the simplified model 281 includes a branch data structure 40 and a leaf data structure 50. The branch data structure 40 is
It has a pointer 41 to a child branch, a range 42 of descendant branches, simplified shape data 43, a texture identifier 44 for simplified shape data, and branch shape data 45. The leaf data structure 50 has leaf shape data 51. The shape roughness due to perspective from the viewpoint and the range 42 of descendant branches are sequentially compared from the original trunk 46 to the child branch 47. Range 4 of descendant branches
When 2 becomes smaller than the above-mentioned shape roughness, the simplified shape data 43 at that time is used instead of drawing the subsequent shape data.

【0020】他方、階層式部分テクスチャ生成部263
では、簡略化モデル281a〜281cの各々を構成す
る要素32に対して部分テクスチャ301が生成され
る。図3に示されるように簡略化モデル281aを構成
する1つの要素32が選択されるとともに、フラクタル
モデルを用いた最も精細度の高い樹木261aの対応す
る部分34が選択される。その選択された要素32に対
してフラクタルモデルの対応する部分34が投影され、
それにより1つの部分テクスチャ301が生成される。
これと同様にして、簡略化モデル281aのすべての要
素32に対応する複数の部分テクスチャ301が生成さ
れる。
On the other hand, the hierarchical partial texture generator 263.
Then, the partial texture 301 is generated for the element 32 forming each of the simplified models 281a to 281c. As shown in FIG. 3, one element 32 forming the simplified model 281a is selected, and the corresponding portion 34 of the tree 261a having the highest definition using the fractal model is selected. A corresponding portion 34 of the fractal model is projected onto the selected element 32,
Thereby, one partial texture 301 is generated.
Similarly, a plurality of partial textures 301 corresponding to all the elements 32 of the simplified model 281a are generated.

【0021】なお、簡略化モデル281の各要素32は
十字に組まれたポリゴンから構成される。したがって、
テクスチャ301はフラクタルモデル261aの対応す
るモデルをポリゴンの各々に平行に投影することによっ
て得られる。また、テクスチャ用のデータとしては簡略
化モデル281の前後左右に対応する4種類が使用され
る。
Each element 32 of the simplified model 281 is composed of polygons assembled in a cross shape. Therefore,
The texture 301 is obtained by projecting the corresponding model of the fractal model 261a parallel to each polygon. Further, as the data for texture, four types corresponding to the front, back, left and right of the simplified model 281 are used.

【0022】テクスチャの縦横サイズStexは次の式
(1)に従って定められる。 Stex=Stree×AB …(1) ここで、Streeはコンピュータグラフィックスの表
示時に想定される樹木の縦横サイズである。また、Aは
次の式(2)で表される。 A=1/√C…(2) また、Bは簡略化を行なう枝の世代であり、CはIFS
の縮小写像の個数である。このようにすることでCB
の簡略化モデルに必要なテクスチャ用のデータ量を次の
式(3)とすることができる。 Stex2 ×CB ×4=Stree2 ×4…(3) ここで、コンピュータグラフィックスの表示時に想定さ
れる樹木の縦横サイズStreeと簡略化のレベルBと
の関係を次の式(4)とする。0≦B≦E−1であり、
Bが大きいほど精細であることを示す。 Stree=Smax×DE-B …(4) ここでSmaxはコンピュータグラフィックスの表示時
に想定される樹木の最大縦横サイズであり、Dは各縮小
写像の縮小率の平均であり、また、Eは最大の精細度を
与えるときの枝の世代である。この式(4)により、表
示面上の簡略化形状のサイズStreeによらず一定と
なる。このとき必要なテクスチャ用のデータ量は次の式
(5)で表される。
The vertical and horizontal size Stex of the texture is determined according to the following equation (1). Text = Tree × A B (1) Here, “Tree” is the vertical and horizontal size of the tree assumed when the computer graphics are displayed. Further, A is represented by the following equation (2). A = 1 / √C (2) Also, B is the generation of the branch for simplification, and C is IFS.
Is the number of reduced maps of. By doing so, the amount of texture data required for the C B simplified models can be expressed by the following expression (3). Stex 2 × C B × 4 = Tree 2 × 4 (3) Here, the relationship between the vertical and horizontal size Tree of the tree and the simplification level B, which are assumed when the computer graphics are displayed, is expressed by the following formula (4). To do. 0 ≦ B ≦ E−1,
The larger B is, the finer the image is. Tree = Smax × D EB (4) Here, Smax is the maximum vertical and horizontal size of the tree assumed at the time of displaying computer graphics, D is the average reduction ratio of each reduction map, and E is the maximum. It is the generation of branches that gives definition. According to this expression (4), the size of the simplified shape on the display surface is constant regardless of the size. The amount of texture data required at this time is expressed by the following equation (5).

【0023】[0023]

【数1】 [Equation 1]

【0024】この式(5)で典型的な値としてたとえば
D=0.5,E=8を与えると、必要なテクスチャ用の
データ量はSmax2 ×5.074となる。
If, for example, D = 0.5 and E = 8 are given as typical values in this equation (5), the required data amount for texture becomes Smax 2 × 5.074.

【0025】このようにして各簡略化モデル281ごと
に複数の部分テクスチャ301が個別的に生成される
が、多数の部分テクスチャが生成されるため、各部分テ
クスチャがどのレベルの簡略化モデル281a〜281
cに対応し、さらにその簡略化モデルのどの要素に対応
するかを管理しなければならない。このような部分テク
スチャを管理するための管理テーブルを生成するのは、
図2に示されたテクスチャ管理テーブル生成部264で
ある。
In this way, a plurality of partial textures 301 are individually generated for each simplified model 281, but since a large number of partial textures are generated, the simplified models 281a ... 281
It is necessary to manage which element of the simplified model corresponds to c. Creating a management table to manage such partial textures
This is the texture management table generation unit 264 shown in FIG.

【0026】図6に示されるように、生成された部分テ
クスチャは各階層ごとにグループ化され、各グループ内
で一義的に定められる簡略化形状データ用のテクスチャ
識別子44によって参照される。簡略化形状データ用テ
クスチャデータ管理テーブル60は、簡略化形状データ
用テクスチャ識別子44を、グループ化された画像デー
タ62中のオフセット63と縦横サイズ64および65
とに対応付けられる。
As shown in FIG. 6, the generated partial textures are grouped for each layer and referred to by the texture identifier 44 for simplified shape data uniquely defined in each group. The simplified shape data texture data management table 60 stores the simplified shape data texture identifiers 44 in the grouped image data 62 with an offset 63 and vertical and horizontal sizes 64 and 65.
Is associated with.

【0027】このようにして生成された部分テクスチャ
31と管理テーブル302とはデータベース30に格納
される。これにより、データベース28に格納された簡
略化モデル281に必要な部分テクスチャ301がすべ
て用意され、さらにそのすべての部分テクスチャ301
がどの簡略化モデルのどの要素に対応するかに関するデ
ータが用意されたこととなる。
The partial texture 31 and the management table 302 thus generated are stored in the database 30. As a result, all the partial textures 301 necessary for the simplified model 281 stored in the database 28 are prepared, and all the partial textures 301 are prepared.
The data about which element of which simplified model corresponds to is prepared.

【0028】図7は、これらデータベース化された簡略
化モデル281、部分テクスチャ301および管理テー
ブル302に基づいて、観察者18の視点に応じた立体
画像を実時間で生成する画像生成部24の詳細を示すブ
ロック図である。図7を参照して、この画像生成部24
は、制御部22からの視点データに応じて簡略化モデル
281のうち対応する1つを選択する簡略化モデル選択
部241と制御部22からの視点データに応じて簡略化
モデル選択部241で選択された簡略化モデルに対応す
る複数の部分テクスチャを選択する部分テクスチャ選択
部242と、簡略化モデル選択部241で選択された簡
略化モデルに部分テクスチャ選択部242で選択された
複数の部分テクスチャを管理テーブル302に従ってマ
ッピングするレンダリング処理部243とを備える。
FIG. 7 shows the details of the image generation unit 24 for generating a stereoscopic image in real time according to the viewpoint of the observer 18 based on the simplified model 281, the partial texture 301 and the management table 302 which are stored in the database. It is a block diagram showing. Referring to FIG. 7, this image generation unit 24
Is selected by the simplified model selection unit 241 that selects a corresponding one of the simplified models 281 according to the viewpoint data from the control unit 22 and the simplified model selection unit 241 according to the viewpoint data from the control unit 22. A partial texture selecting unit 242 that selects a plurality of partial textures corresponding to the simplified model selected, and a plurality of partial textures selected by the partial texture selecting unit 242 to the simplified model selected by the simplified model selecting unit 241. A rendering processing unit 243 that performs mapping according to the management table 302.

【0029】したがって簡略化モデル選択部241で
は、データベース28に格納された3つの簡略化モデル
281a〜281cのうち1つが選択される。もしも観
察者18の視点から対象物14である樹木までの距離が
近ければ、図4(a)に示された精細度の高い簡略化モ
デル281aが選択される。もしも観察者18から対象
物14である樹木までの距離が中程度であれば、図4
(b)に示された中程度の精細度を有する簡略化モデル
281bが選択される。もしも観察者18から対象物1
4である樹木までの距離が遠ければ、図4(c)に示さ
れた精細度の低い簡略化モデル281cが選択される。
Therefore, the simplified model selection unit 241 selects one of the three simplified models 281a to 281c stored in the database 28. If the distance from the viewpoint of the observer 18 to the tree that is the object 14 is short, the simplified model 281a with high definition shown in FIG. 4A is selected. If the distance from the observer 18 to the tree, which is the object 14, is medium, FIG.
The simplified model 281b having the medium definition shown in (b) is selected. If Observer 18 to Object 1
If the distance to the tree of 4 is long, the simplified model 281c with low definition shown in FIG. 4C is selected.

【0030】他方、部分テクスチャ選択部242では、
データベース30に格納された部分テクスチャ301の
うち、簡略化モデル選択部241で選択された簡略化モ
デルに対応する複数の部分テクスチャ301が選択され
る。もしも簡略化モデル選択部241が図4(a)に示
された精細度の高い簡略化モデル281aを選択したな
らば、その選択された簡略化モデル281aに対応する
すべての部分テクスチャ301が選択される。
On the other hand, in the partial texture selection unit 242,
From the partial textures 301 stored in the database 30, a plurality of partial textures 301 corresponding to the simplified model selected by the simplified model selection unit 241 are selected. If the simplified model selection unit 241 selects the high-definition simplified model 281a shown in FIG. 4A, all the partial textures 301 corresponding to the selected simplified model 281a are selected. It

【0031】そしてレンダリング処理部243では、デ
ータベース30に格納された管理テーブル302に従っ
て選択された簡略化モデル281の各要素32に、選択
された部分テクスチャの対応するものがマッピングされ
る。これにより樹木の三次元表示に必要なデータがスク
リーン12に供給され、スクリーン12上に樹木の立体
画像が表示される。
In the rendering processing unit 243, the corresponding one of the selected partial textures is mapped to each element 32 of the simplified model 281 selected according to the management table 302 stored in the database 30. As a result, the data necessary for the three-dimensional display of the tree is supplied to the screen 12, and the three-dimensional image of the tree is displayed on the screen 12.

【0032】以上のようにこの実施の形態によれば、視
点からの距離に応じた樹木の形状データを描画に使用し
ているため、景観シミュレーションのような樹木データ
を大量に描画する必要のある場合でも視点の動きに対し
て実時間で表示画像を変化させることができる。したが
って視点移動に対して歪みのない2眼式立体画像を表示
することができる。しかも簡略化モデルの全体ではな
く、簡略化モデルの各要素に対してフラクタルモデルの
対応する部分を投射することによりテクスチャを生成し
ているため、風などによる揺らぎといった物理法則に従
った樹木の変形によってその入り組んだ部分が露出した
としても、その変形により新たに露出した部分のテクス
チャによりそれを自然に表示することができる。
As described above, according to this embodiment, since the tree shape data corresponding to the distance from the viewpoint is used for drawing, it is necessary to draw a large amount of tree data for landscape simulation. Even in this case, the display image can be changed in real time with respect to the movement of the viewpoint. Therefore, it is possible to display a twin-lens stereoscopic image that is not distorted with respect to the viewpoint movement. Moreover, since the texture is generated by projecting the corresponding part of the fractal model to each element of the simplified model, not the entire simplified model, the deformation of the tree according to the physical law such as fluctuation due to wind Even if the intricate portion is exposed by, the texture of the newly exposed portion due to the deformation can naturally display it.

【0033】また、上述した従来の手法では樹木の全周
360°にわたる視点移動に対して歪みのない2眼式立
体画像を表示するためには18枚程度の樹木画像が必要
であったのに対し、この実施の形態では精細度の比較的
高い簡略化レベルにおいても上記樹木画像5枚相当程度
のデータ量で樹木の全周を表示できるので、必要なデー
タ量を大幅に削減することができる。
Further, in the above-mentioned conventional method, about 18 tree images are required to display a twin-lens stereoscopic image without distortion with respect to the viewpoint movement over the entire circumference of the tree of 360 °. On the other hand, in this embodiment, since the entire circumference of the tree can be displayed with the data amount equivalent to the above-mentioned five tree images even at the simplification level having a relatively high definition, the required data amount can be significantly reduced. .

【0034】したがって、コンピュータグラフィックス
を用いた運動視表示において、視点位置に応じた粗さで
形状データを生成することによって、景観シミュレーシ
ョンのような樹木を大量に表示しなければならない場合
でも実時間で描画を行なうことができる。また、その簡
略化形状に樹木画像をテクスチャマッピングすることに
よって、実時間表示が可能な程度に形状の簡略化を行な
った場合でも、元の樹木の色調は精細感を保ったまま三
次元樹木画像を表示することができる。
Therefore, in the motion visual display using computer graphics, by generating the shape data with the roughness according to the viewpoint position, even if a large number of trees such as a landscape simulation have to be displayed, the real time display is possible. You can draw with. Even if the shape of the tree image is simplified by texture-mapping the tree image to the simplified shape, the original tree color will remain fine and the three-dimensional tree image will remain. Can be displayed.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の実施の形態による立体画像生成装置
を含む運動視表示システムの全体構成を示すブロック図
である。
FIG. 1 is a block diagram showing an overall configuration of a motion vision display system including a stereoscopic image generation device according to an embodiment of the present invention.

【図2】この発明の実施の形態による立体画像生成装置
の一部を示すブロック図であって、図1中の画像生成部
に必要なデータを準備するための部分である。
FIG. 2 is a block diagram showing a part of a stereoscopic image generation device according to an embodiment of the present invention, which is a part for preparing data necessary for the image generation unit in FIG.

【図3】図2中の階層式部分テクスチャ生成部において
各簡略化モデルの各要素ごとに部分テクスチャを生成す
る方法を示す説明図である。
FIG. 3 is an explanatory diagram showing a method of generating a partial texture for each element of each simplified model in the hierarchical partial texture generation unit in FIG.

【図4】図2中の階層式簡略化モデル生成部において視
点からの距離に応じて生成される簡略化モデルを示す図
である。
FIG. 4 is a diagram showing a simplified model generated according to a distance from a viewpoint in a hierarchical simplified model generation unit in FIG.

【図5】図2中の階層式簡略化モデル生成部において生
成される簡略化モデルの階層モデルを示す説明図であ
る。
FIG. 5 is an explanatory diagram showing a hierarchical model of a simplified model generated by a hierarchical simplified model generation unit in FIG.

【図6】図2中の階層式部分テクスチャ生成部およびテ
クスチャ管理テーブル生成部において部分テクスチャお
よび管理テーブルを生成する手法を示す説明図である。
FIG. 6 is an explanatory diagram showing a method of generating a partial texture and a management table in a hierarchical partial texture generation unit and a texture management table generation unit in FIG.

【図7】図1中の画像生成部の詳細な構成およびその周
辺を示すブロック図である。
7 is a block diagram showing a detailed configuration of an image generation unit in FIG. 1 and its periphery.

【符号の説明】[Explanation of symbols]

24 画像生成部 28,30 データベース 241 簡略化モデル選択部 242 部分テクスチャ選択部 243 レンダリング処理部 261 フラクタルモデル生成部 262 階層式簡略化モデル生成部 263 階層式部分テクスチャ生成部 264 テクスチャ管理テーブル生成部 281,281a〜281c 簡略化モデル 301 部分テクスチャ 32 要素 24 image generation unit 28,30 database 241 simplified model selection unit 242 partial texture selection unit 243 rendering processing unit 261 fractal model generation unit 262 hierarchical simplified model generation unit 263 hierarchical partial texture generation unit 264 texture management table generation unit 281 , 281a to 281c Simplified model 301 Partial texture 32 elements

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大村 克之 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内 (72)発明者 志和 新一 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Katsuyuki Omura, Inventor Katsuyuki Omura, Seika-cho, Soraku-gun, Kyoto Prefecture, 5 Mihiradani, Osamu Osamu, Kyoto, Japan (72) Inventor Shinichi Shiwa, Kyoto Prefecture Soraku Gunma Seika-cho, Osamu Osamu, Osamu Osamu, 5 Hiratani, ATR Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 観察者の視点に応じて立体画像を生成す
る立体画像生成装置であって、 前記立体画像として生成されるべき対象物をフラクタル
幾何を用いてモデル化することによりフラクタルモデル
を生成するフラクタルモデル生成手段と、 前記フラクタルモデルに基づいて、前記観察者の視点か
ら前記対象物までの距離に応じた精細度を有する複数の
簡略化モデルを生成する簡略化モデル生成手段と、 前記簡略化モデルの各々を構成する要素の各々に対して
前記フラクタルモデルの対応する部分を投影することに
より各簡略化モデルごとに複数の部分テクスチャを生成
する部分テクスチャ生成手段と、 外部から与えられる前記観察者の視点に関する視点デー
タに応じて前記簡略化モデルのうち対応する1つを選択
する簡略化モデル選択手段と、 前記視点データに応じて前記選択された簡略化モデルに
対応する複数の部分テクスチャを選択する部分テクスチ
ャ選択手段と、 前記選択された簡略化モデルに前記選択された複数の部
分テクスチャをマッピングするマッピング手段とを備え
た立体画像生成装置。
1. A stereoscopic image generation device for generating a stereoscopic image according to a viewpoint of an observer, wherein a fractal model is generated by modeling an object to be generated as the stereoscopic image using fractal geometry. Fractal model generation means for generating, a simplified model generation means for generating a plurality of simplified models having a definition according to the distance from the observer's viewpoint to the object, based on the fractal model; Partial texture generation means for generating a plurality of partial textures for each simplified model by projecting the corresponding part of the fractal model onto each of the elements constituting each simplified model, and the observation given from the outside. Model selection means for selecting a corresponding one of the simplified models according to the viewpoint data regarding the viewpoint of the user A partial texture selecting means for selecting a plurality of partial textures corresponding to the selected simplified model according to the viewpoint data, and mapping the selected plurality of partial textures to the selected simplified model. A stereoscopic image generation device comprising a mapping means.
JP7226244A 1995-09-04 1995-09-04 Stereoscopic image generation device Expired - Lifetime JP2892605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7226244A JP2892605B2 (en) 1995-09-04 1995-09-04 Stereoscopic image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7226244A JP2892605B2 (en) 1995-09-04 1995-09-04 Stereoscopic image generation device

Publications (2)

Publication Number Publication Date
JPH0973561A true JPH0973561A (en) 1997-03-18
JP2892605B2 JP2892605B2 (en) 1999-05-17

Family

ID=16842159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7226244A Expired - Lifetime JP2892605B2 (en) 1995-09-04 1995-09-04 Stereoscopic image generation device

Country Status (1)

Country Link
JP (1) JP2892605B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679773A (en) * 2013-12-31 2014-03-26 中国林业科学研究院资源信息研究所 Tree form simulation method based on self-adaptive fractal algorithm

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679773A (en) * 2013-12-31 2014-03-26 中国林业科学研究院资源信息研究所 Tree form simulation method based on self-adaptive fractal algorithm

Also Published As

Publication number Publication date
JP2892605B2 (en) 1999-05-17

Similar Documents

Publication Publication Date Title
US6441815B1 (en) Method and system for high performance computer-generated virtual environments
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
CN106600679B (en) A kind of method that three-dimensional modeling data simplifies
US6268862B1 (en) Three dimensional virtual space generation by fusing images
US6954202B2 (en) Image-based methods of representation and rendering of three-dimensional object and animated three-dimensional object
US8884947B2 (en) Image processing apparatus and image processing method
JPH0757117A (en) Forming method of index to texture map and computer control display system
US6683606B1 (en) Virtual architecture experience method and apparatus
JPH05174129A (en) Modeling apparatus for imaging three-dimensional model
US20030107572A1 (en) Method and apparatus for reducing the polygon count of a textured, three dimensional model of an object
CA2392638C (en) Method for representing image-based rendering information in 3d scene
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
KR100381817B1 (en) Generating method of stereographic image using Z-buffer
JP2832463B2 (en) 3D model reconstruction method and display method
KR100693134B1 (en) Three dimensional image processing
JP5165819B2 (en) Image processing method and image processing apparatus
Levene A framework for non-realistic projections
JP3850080B2 (en) Image generation and display device
JPH0973561A (en) Stereoscopic image generating device
JP2000511658A (en) Method and apparatus for creating 3D wireframe and 3D stereo morphing
US6633291B1 (en) Method and apparatus for displaying an image
JPH1027268A (en) Image processing method and image processor
JPH0773342A (en) Image generator
JP2511771B2 (en) Image memory type image generator
JP6110770B2 (en) 3D map display system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990216