JP2000149062A - Method and device for generating three-dimensional image - Google Patents

Method and device for generating three-dimensional image

Info

Publication number
JP2000149062A
JP2000149062A JP31875198A JP31875198A JP2000149062A JP 2000149062 A JP2000149062 A JP 2000149062A JP 31875198 A JP31875198 A JP 31875198A JP 31875198 A JP31875198 A JP 31875198A JP 2000149062 A JP2000149062 A JP 2000149062A
Authority
JP
Japan
Prior art keywords
transparency
distance
viewpoint
image
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP31875198A
Other languages
Japanese (ja)
Inventor
Akira Yoshikawa
暁 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Engineering Co Ltd
Original Assignee
Hitachi Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Engineering Co Ltd filed Critical Hitachi Engineering Co Ltd
Priority to JP31875198A priority Critical patent/JP2000149062A/en
Publication of JP2000149062A publication Critical patent/JP2000149062A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a more natural and effective three-dimensional(3D) image, in addition to conventional perspective concerning 3D images of a computer. SOLUTION: This device is provided with a transparency designating means 14 for setting transparency, which is improved with the reduction in the distance from the viewpoint of each object, to that an object and an image compositing means 15 for compositing the images of respective objects, to which transparency is added by an image generating means and the transparency designating means, into one image by performing hidden surface processing while taking the transparency into consideration, so that more natural and effective 3D images can be provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、三次元画像生成方
法とその装置に係わり、特に三次元形状データに基づい
て生成される三次元画像をより自然に表現するための三
次元画像生成方法とその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for generating a three-dimensional image, and more particularly, to a method for generating a three-dimensional image based on three-dimensional shape data more naturally. Regarding the device.

【0002】[0002]

【従来の技術】数値データによる三次元モデルを計算機
内に構築し、そのモデルを立体的に表示する方法が、V
RやCAD、その他多くのアプリケーション・ソフトウ
ェアで重要となっている。このような立体表示の方法と
しては、左右の目にそれぞれ提示する画像を、それぞれ
左右の目の位置を視点として生成し、その各々の画像を
左右の目にそれぞれ提供することによって立体的に表示
する立体視による方法と、左右の二つの視点ではなく仮
想的な一つ視点、例えば左右の目の位置の中心点等を決
定し、この単一の視点から見える単一画像を生成して提
供する方法と、に大きく分類できる。このうち、前者の
立体視による方法には、アナグリフ方式、ポラロイド方
式、オルタネート方式、レンチキュラスクリーン方式な
どが知られている。(例えば:「CG入門セミナー」今
間俊博 著、日経BP社 参照)
2. Description of the Related Art A method of constructing a three-dimensional model based on numerical data in a computer and displaying the model in three dimensions is known as V
It is important in R, CAD, and many other application software. As a method of such a stereoscopic display, an image to be presented to each of the left and right eyes is generated by using the positions of the left and right eyes as viewpoints, and the respective images are provided to the left and right eyes, respectively, so that the images are stereoscopically displayed. A stereoscopic method and a virtual one viewpoint, for example, the center point of the left and right eye position is determined instead of the two left and right viewpoints, and a single image viewed from this single viewpoint is generated and provided. And how to do it. Among them, the former method based on stereoscopic vision includes an anaglyph method, a polaroid method, an alternate method, a lenticular screen method, and the like. (For example, see "CG Introduction Seminar" written by Toshihiro Imama, Nikkei BP)

【0003】また、後者の単一画像による方法のもっと
も一般的なものは、透視投影によるものである。即ち、
近くにあるもは大きく、遠くにあるものは小さく見える
ことを利用したものである。しかしこのままでは、視界
内に複数の物体があり、ある物体が他の物体に視界をさ
えぎられているときは、後者の物体は表示されない。こ
のような問題を防ぐ手法の一つにフロントフェースカリ
ングとよばれる手法がある。これは、視点から一定の距
離にクリッピング面を置き、このクリッピング面よりも
視点に近い物体を計算から除外し、視点の直前にある物
体を計算から除外する方法である。これにより、視点に
近い物体により、他の多くの物体が遮られることを防ぐ
ことができる。
[0003] The most common of the latter single image methods is perspective projection. That is,
This is based on the fact that objects that are near are large and objects that are far away are small. However, in this state, when there are a plurality of objects in the field of view and one object is blocked by another object, the latter object is not displayed. One of methods for preventing such a problem is a method called front face culling. In this method, a clipping plane is placed at a fixed distance from the viewpoint, objects closer to the viewpoint than the clipping plane are excluded from the calculation, and objects immediately before the viewpoint are excluded from the calculation. This can prevent many other objects from being blocked by an object close to the viewpoint.

【0004】また、単一画像による方法として、物体を
透明度をかえて表示する方法がある。例えば特開平4ー
362794号では、前にある物体を半透明表示して後
ろにある物体を透かして見せる方法を開示している。ま
た特開平4ー71082号では、対象物体を断面で切っ
たときの切断面の形状や切ったときの切断面前後の形状
を見やすく表示するために、それら各部分の透明度を変
えて表示する方法が開示されている。
As a method using a single image, there is a method of displaying an object with different transparency. For example, Japanese Patent Application Laid-Open No. 4-362794 discloses a method in which a front object is displayed translucently and a rear object is seen through. In Japanese Patent Application Laid-Open No. 4-71082, a method of changing the transparency of each portion to display the shape of the cut surface when the target object is cut in a cross section and the shape before and after the cut surface when the cut object is cut is used. Is disclosed.

【0005】[0005]

【発明が解決しようとする課題】上記した立体視による
手法では、いずれの方式においても、立体視用眼鏡やレ
ンチキュラレンズを伴った表示装置、等の特殊なハード
ウェアが必要となる。また、単一画像をフロントフェー
スカリングにより表示すると、クリップ面より近い物体
は全く見えなくなってしまうという問題点と、クリップ
面と物体が交わっているときはその物体のクリップ面よ
り前の部分が欠けた画像が表示され、不自然となる問題
点があった。さらに移動体の運転シミュレータでは、移
動する物体を臨場感をもって表示することが望まれる
が、物体がクリップ面を超えて移動するときに、フロン
トフェースカリングにより物体の像が、突然に消失した
り現れたりするという問題点もある。
In any of the above-described methods using stereoscopic vision, special hardware such as stereoscopic glasses and a display device with a lenticular lens is required. Also, when a single image is displayed by front face culling, objects close to the clipping plane become completely invisible, and when the clipping plane and the object intersect, the part of the object before the clipping plane is missing. The displayed image is unnatural. Furthermore, in a mobile driving simulator, it is desirable to display a moving object with a sense of realism, but when the object moves beyond the clipping plane, the image of the object suddenly disappears or appears due to front face culling. There is also a problem that.

【0006】また、特開平4ー362794号の方法で
は、設定できる透明度の値は離散的でその個数だけフレ
ームバッファとZバッファのペアを必要とする。このた
め、実用的に設定できる透明度の個数は限られ、遠近感
や遠くから近くへ近づいてくる物体を臨場感をもたせて
表現はできない。また、透明度は、視点から見える第1
物体面、その物体面を除いたときに見える第2物体面、
…の各々に与えられるので、視点から見える順で定ま
り、その距離の大きさとは無関係に与えられる。従って
この点からも遠近感が十分表現できない。特開平4ー7
1082号の方法は、断面を与えてその上及び前後の形
状にソフト処理で異なる透明度を与えるもので、ハート
的な問題はないが、遠近感、臨場感などについては上記
の特開平4ー362794号と同様な問題がある。
In the method disclosed in Japanese Patent Application Laid-Open No. Hei 4-362794, the settable transparency values are discrete, and the number of pairs of the frame buffer and the Z buffer is required. For this reason, the number of transparency levels that can be set practically is limited, and an object approaching from near or far from near cannot be expressed with a sense of realism. Also, the transparency is the first visible from the viewpoint.
An object plane, a second object plane visible when the object plane is removed,
.. Are determined in the order seen from the viewpoint, and are given regardless of the distance. Therefore, the perspective cannot be sufficiently expressed from this point. JP 4-7
The method of No. 1082 gives a cross section and gives different transparency to the top and front and rear shapes by software processing, and there is no problem of heart, but the perspective, the presence and the like are described in JP-A-4-362794. There is a problem similar to the issue.

【0007】本発明の目的は、三次元画像を、とくに移
動物体を臨場感をもたせて表示できるようにした、ハー
ドウェア構成を特に複雑化しない三次元画像生成方法と
その装置を提供することにある。
An object of the present invention is to provide a method and apparatus for generating a three-dimensional image which can display a three-dimensional image, especially a moving object with a sense of realism, without complicating the hardware structure. is there.

【0008】[0008]

【課題を解決するための手段】そこで本発明は、複数の
オブジェクトの三次元形状データ及びその位置データを
記憶する形状データ記憶手段と、三次元空間中の視点の
位置と姿勢を指定する視点指定手段と、前記形状データ
記憶手段に記憶された個々のオブジェクトを前記視点指
定手段で指定された視点からみたときの像を生成する画
像生成手段と、前記個々のオブジェクトに、その視点か
らの距離が小さいほど大きい値の透明度を設定する透明
度設定手段と、この透明度設定手段により透明度が付加
された個々のオブジェクトの像に対して透明度を考慮し
ながら隠面処理を行い、一つの画像に合成する画像合成
手段と、を備えたことを特徴とする三次元画像生成装置
を開示する。
SUMMARY OF THE INVENTION Accordingly, the present invention provides a shape data storage means for storing three-dimensional shape data of a plurality of objects and their position data, and a viewpoint specification for designating a viewpoint position and orientation in a three-dimensional space. Means, image generation means for generating an image when each object stored in the shape data storage means is viewed from the viewpoint specified by the viewpoint specification means, and a distance from the viewpoint to each of the individual objects. A transparency setting unit that sets a larger value of transparency as the size is smaller, and an image to be subjected to hidden surface processing while taking transparency into account for the image of each object to which transparency has been added by the transparency setting unit, and to be combined into one image And a synthesizing unit.

【0009】また、本発明は、前記透明度指定手段が、
第1の距離及びその第1の距離よりも小さい第2の距離
を指定する距離指定手段と、視点からの距離が前記第1
の距離より大きいオブジェクトには透明度を0とし、視
点からの距離が前記第2の距離より小さいオブジェクト
には透明度を1とし、視点からの距離が前記第1の距離
より小さくかつ前記第2の距離より大きいオブジェクト
には、前記視点からの距離を前記第1の距離から差し引
いた距離に比例して1から0の間で変化する透明度とす
る透明度算出手段とを備えたことを特徴とする三次元画
像生成装置を開示する。
Further, according to the present invention, the transparency designating means includes:
Distance specifying means for specifying a first distance and a second distance smaller than the first distance;
The transparency is set to 0 for objects larger than the distance, and the transparency is set to 1 for objects whose distance from the viewpoint is smaller than the second distance, and the distance from the viewpoint is smaller than the first distance and the second distance. The three-dimensional object further comprises a transparency calculating means for the larger object to have a transparency varying between 1 and 0 in proportion to a distance obtained by subtracting the distance from the viewpoint from the first distance. An image generation device is disclosed.

【0010】更に、本発明は、複数のオブジェクトの三
次元形状データとその位置が与えられたときに、指定さ
れた視点の位置と姿勢からみた個々のオブジェクトの像
を生成し、個々のオブジェクトに、その視点からの距離
が小さいほど大きい値の透明度を設定し、これらの透明
度が設定された個々のオブジェクトの像を、透明度を考
慮しながら隠面処理を行って一つの画像に合成すること
を特徴とする三次元画像生成方法を開示する。
Further, according to the present invention, when three-dimensional shape data of a plurality of objects and their positions are given, an image of each object is generated from the position and orientation of a designated viewpoint, and the individual objects are generated. The greater the distance from the viewpoint, the greater the transparency is set, and the images of the individual objects with these transparency settings are combined into a single image by performing hidden surface processing while taking transparency into account. A featured three-dimensional image generation method is disclosed.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施の形態を図面
を用いて説明する。図1は、本発明になる三次元画像生
成装置の構成例を示す機能ブロック図で、入力デバイス
10と、形状データ記憶手段11と、視点指定手段12
と、画像生成手段13と、透明度設定手段14と、画像
合成手段15と、フレームバッファ16と、ディスプレ
イ17とから構成されている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a functional block diagram showing a configuration example of a three-dimensional image generation apparatus according to the present invention. The input device 10, a shape data storage unit 11, and a viewpoint designation unit 12
, An image generation unit 13, a transparency setting unit 14, an image synthesis unit 15, a frame buffer 16, and a display 17.

【0012】形状データ記憶手段11は、表示対象のN
個のオブジェクト(物体)の三次元形状データを記憶し
ており、この情報を画像生成手段13に送出する。視点
指定手段12は、キーボードやマウス等の入力デバイス
10から信号を受け取り、三次元空間中の視点の位置と
姿勢を決定し、この情報を画像生成手段13に送出す
る。画像生成手段13は、形状データ記憶手段11から
送出されるN個のオブジェクトの三次元形状データ各々
に対しての視点指定手段12で決定された視点から眺め
た像を透視投影により生成する。例えば、形状データ記
憶手段から送出される形状が、図2に示したように球体
A、方体B、三角柱Cで、視点指定手段12により決定
された視点が、図2のように位置しているとする。この
とき画像生成手段13により、図3に示したような三つ
の像が、それぞれのオブジェクトに対応して生成され
る。
The shape data storage means 11 stores the N to be displayed.
It stores the three-dimensional shape data of the individual objects (objects) and sends this information to the image generating means 13. The viewpoint designating unit 12 receives a signal from the input device 10 such as a keyboard or a mouse, determines the position and orientation of the viewpoint in a three-dimensional space, and sends this information to the image generating unit 13. The image generating means 13 generates, by perspective projection, an image viewed from the viewpoint determined by the viewpoint specifying means 12 for each of the three-dimensional shape data of the N objects sent from the shape data storage means 11. For example, as shown in FIG. 2, the shapes transmitted from the shape data storage means are a sphere A, a cube B, and a triangular prism C, and the viewpoint determined by the viewpoint specifying means 12 is located as shown in FIG. Suppose you have At this time, the three images as shown in FIG. 3 are generated for the respective objects by the image generating means 13.

【0013】透明度設定手段14は、本発明の特徴とす
る手段であって、画像生成手段13で生成された図3
(a)のようなN個の像の各々に、像に対応したオブジ
ェクトと視点との距離を形状データ記憶手段11から取
得し、視点とオブジェクトとの距離が小さいほど透明度
が大きくなるように透明度を設定する。例えば、ある距
離D1>D2>0を設定し、オブジェクトの視点からの
距離をd(i)(i=1,2,..Nはオブジェクトに
つけた番号)とする。このとき透明度α(i)、つまり
i番目のオブジェクトの透明度を、
The transparency setting means 14 is a means which is a feature of the present invention.
For each of the N images as in (a), the distance between the object corresponding to the image and the viewpoint is obtained from the shape data storage unit 11, and the transparency is increased so that the smaller the distance between the viewpoint and the object, the greater the transparency. Set. For example, a certain distance D1>D2> 0 is set, and the distance of the object from the viewpoint is d (i) (i = 1, 2,... N are numbers assigned to the object). At this time, the transparency α (i), that is, the transparency of the i-th object is

【数1】 とすれば、オブジェクトが距離D1より奥にあるときは
完全な不透明であり、距離D1からD2の間にあるとき
は半透明で、視点に近づくに比例して透明度が増加して
いき、距離D2より手前にあるときは完全に透明に設定
される。図4は、(数1)で示した距離と透明度の関係
を図示したものである。
(Equation 1) If the object is deeper than the distance D1, the object is completely opaque, if it is between the distances D1 and D2, it is translucent, and the transparency increases in proportion to approaching the viewpoint. When it is closer, it is completely transparent. FIG. 4 illustrates the relationship between the distance and the transparency expressed by (Equation 1).

【0014】図5は、(数1)のような透明度設定を行
うための、透明度設定手段14における処理フローチャ
ートである。まずキーボード等の入力デバイス10から
D1>D2>0を満たすD1、D2を設定し(ステップ
101)、N個のオブジェクトの像に対する透明度設定
を終了したかを判定する(ステップ102)。N個のオ
ブジェクトの像に透明度を設定し終えていないときは、
形状データ記憶手段11から得られるi番目のオブジェ
クトの位置と、視点指定手段12から得られる視点の位
置との距離d(i)を算出する(ステップ103)。ここで
オブジェクトの位置としては、オブジェクトの重心位
置、視点から最も近い点、あるいは最も近い点と遠い点
の中間点などを用いる。次にD1 ≦ d(i)かをし
らべ(ステップ104)、成立していればi番目のオブ
ジェクトの像の透明度を0に設定し(ステップ10
5)、ステップ102へ戻る。ステップ104の条件が
不成立のときは、d(i) ≦ D2かを調べ(ステッ
プ106)、成立していれば、i番目のオブジェクトの
像の透明度を1に設定し(ステップ107)、ステップ
102へ戻る。ステップ106の条件が不成立ならばi
番目のオブジェクトの像の透明度を(D1−d(i))
/(D1−D2)に設定し(ステップ108)、ステッ
プ102に戻る。以上の処理をN個のオブジェクトの像
に対して行うと、透明度設定手段14の処理が終了す
る。
FIG. 5 is a flowchart of the processing performed by the transparency setting means 14 for setting the transparency as shown in (Equation 1). First, D1 and D2 satisfying D1>D2> 0 are set from the input device 10 such as a keyboard (step 101), and it is determined whether the transparency setting for the images of the N objects has been completed (step 102). If you have not finished setting the transparency for the images of the N objects,
The distance d (i) between the position of the i-th object obtained from the shape data storage unit 11 and the position of the viewpoint obtained from the viewpoint specification unit 12 is calculated (step 103). Here, as the position of the object, the position of the center of gravity of the object, a point closest to the viewpoint, or an intermediate point between the closest point and a point far from the viewpoint is used. Next, it is checked whether D1 ≦ d (i) (step 104), and if it is satisfied, the transparency of the image of the i-th object is set to 0 (step 10).
5) Return to step 102. If the condition in step 104 is not satisfied, it is checked whether d (i) ≦ D2 (step 106). If the condition is satisfied, the transparency of the image of the i-th object is set to 1 (step 107), and step 102 Return to If the condition of step 106 is not satisfied, i
Let the transparency of the image of the th object be (D1-d (i))
/ (D1-D2) (step 108), and returns to step 102. When the above processing is performed on the images of the N objects, the processing of the transparency setting means 14 ends.

【0015】具体的な表示例として、図2に示した3つ
のオブジェクトA、B、Cを考える。いま球体Aと視点
の距離d(a)=80、方体Bと視点の距離d(b)=
400、三角柱Cと視点の距離d(c)=140、D1
=200、D2=100と仮定する(距離は適当な単位
とする)。すると、d(a)<D2ゆえに球体Aの像の
透明度α(a)は1に、つまり完全に透明に設定され、
D1≦d(b)ゆえに方体Bの透明度α(b)は0に、
つまり完全に不透明に設定され、D2≦d(c)<D1
ゆえに三角柱Cの透明度α(c)は(D1−d(c))
/(D1−D2) =0.4に、つまり半透明に設定さ
れ、その結果、図3の三つのオブジェクトの像は図3
(b)のようになる。但し図3(b)では、たて実線の
ハッチは透明度0を、よこ実線のハッチは透明度0.4
の半透明状態を示しているものとする。
As a specific display example, consider the three objects A, B, and C shown in FIG. Now, the distance d (a) between the sphere A and the viewpoint is 80, and the distance d (b) between the sphere B and the viewpoint is =
400, distance d (c) between triangular prism C and viewpoint = 140, D1
= 200, D2 = 100 (distance is an appropriate unit). Then, since d (a) <D2, the transparency α (a) of the image of the sphere A is set to 1, that is, completely transparent,
Since D1 ≦ d (b), the transparency α (b) of the cube B becomes 0,
That is, it is set completely opaque, and D2 ≦ d (c) <D1
Therefore, the transparency α (c) of the triangular prism C is (D1-d (c))
/(D1-D2)=0.4, that is, translucent, so that the images of the three objects in FIG.
(B). However, in FIG. 3B, the hatching of the vertical solid line has a transparency of 0, and the hatching of the horizontal solid line has a transparency of 0.4.
In a semi-transparent state.

【0016】画像合成手段15は、以上のようにして透
明度設定手段14により透明度が付加された個々のオブ
ジェクトの投影像を、透明度を考慮しながら隠面処理を
行い、一つの画像に合成してフレームバッファ16に書
き込む。ここではこの隠面処理の手法としてZソート法
を用いるものとする。これはN個全てのオブジェクトを
Zの値(視点との距離)でソートし、その結果に基づき
個々のオブジェクトの像を重ね合わせていく。つまり視
点からの距離が遠いオブジェクトの像からフレームバッ
ファ16に書き込んでいくことにより、より手前にある
オブジェクトの像を残すようにする方法である。
The image synthesizing means 15 performs a hidden surface process on the projected image of each object to which the transparency has been added by the transparency setting means 14 in consideration of the transparency, and synthesizes the image into one image. Write to the frame buffer 16. Here, it is assumed that the Z-sort method is used as a method of the hidden surface processing. This sorts all N objects by the value of Z (distance from the viewpoint), and superimposes the images of the individual objects based on the result. In other words, this is a method in which the image of the object located farther from the viewpoint is written into the frame buffer 16 so that the image of the object located further in front is left.

【0017】またその際、書き込む像に透明度が設定さ
れているときはアルファブレンドにより、その透明度に
応じて、例えば次のような計算式により、書き込み前の
画素情報を残す。即ち、ある画素への像の書き込み前の
RGBの値がrgb0、書き込むRGB値がrgb1で、透明度
がαのとき、当該画素の書き込み後のRGBの値である
rgb2は、
At this time, when transparency is set for the image to be written, pixel information before writing is left by alpha blending according to the transparency, for example, by the following formula. That is, when the value of RGB before writing an image to a certain pixel is rgb0, the value of RGB to be written is rgb1, and the transparency is α, it is the value of RGB after writing of the pixel.
rgb2 is

【数2】rgb2 =(1ーα)・rgb1+α・rgb0 で決定される。例えばα =0 のときは、完全な不透明
であり、rgb2=rgb1 となり、書き込むRGB値とな
る。またα = 1/2 のときは透明度50%であり、rg
b2=(rgb1+rgb0)/2 となり、書き込み前のRGB
値と書き込むRGB値との中間の値となる。さらにα
= 1 のときは完全な透明であり、rgb2=rgb0 となり
書き込み前のRGB値となる。
Rgb2 = (1−α) · rgb1 + α · rgb0 For example, when α = 0, it is completely opaque, and rgb2 = rgb1, which is the RGB value to be written. When α = 1/2, the transparency is 50%, and rg
b2 = (rgb1 + rgb0) / 2, and RGB before writing
It is an intermediate value between the value and the RGB value to be written. Furthermore α
When = 1, it is completely transparent, and rgb2 = rgb0, which is the RGB value before writing.

【0018】図2、図3の例では、Zソート法と上述の
透明度の計算法を使用して、方体B、三角柱C、球体A
の順番で個々の像を重ね合わせていくと、フレームバッ
ファ16には図6のような画像が格納され、ディスプレ
イ17に表示される。図3(b)の各像のRGD値をrg
b(a),rgb(b),rgb(c)とすると、最初にかき
込まれる方体Bの像のRBG値はrgb(b)で、これは
図6のたて線ハッチ部に相当する。次の三角柱Cの像か
き込み時には、方体Bと重ならない部分、即ち図6のよ
こ線ハッチ部のRGB値がrgb(c)となる。一方、方
体Bと重なる図6の斜線ハッチ部のRGB値は、(数
2)から0.6rgb(c)+0.4rgb(b)となる。こ
のように、視点からの距離と重なりに応じて透明度を連
続的に変化させることで、自然な画像を表示できる。
In the examples shown in FIGS. 2 and 3, the Z-sorting method and the above-described transparency calculating method are used to obtain a cube B, a triangular prism C, and a sphere A.
6 are stored in the frame buffer 16 and displayed on the display 17. The RGD value of each image in FIG.
Assuming that b (a), rgb (b), and rgb (c), the RBG value of the image of the body B to be scratched first is rgb (b), which corresponds to the vertical hatch in FIG. . At the time of the next image writing of the triangular prism C, the RGB value of the portion that does not overlap with the body B, that is, the horizontal hatch portion in FIG. 6 is rgb (c). On the other hand, the RGB value of the hatched portion in FIG. 6 that overlaps the rectangular solid B is 0.6 rgb (c) +0.4 rgb (b) from (Equation 2). Thus, a natural image can be displayed by continuously changing the transparency in accordance with the distance from the viewpoint and the overlap.

【0019】なお、(数1)及び図4の透明度設定方法
では、距離D2以下がα=1(透明)、D1以上がα=
0で、その間では距離に対して直線的に透明度αが変化
するものとしたが、この部分は曲線でもよく、また、一
般には透明度αが距離とともに単調に減少するような設
定であればよい。
In the transparency setting method of (Equation 1) and FIG. 4, α = 1 (transparency) when the distance is equal to or less than D2, and α = when the distance D1 or more.
In the meantime, the transparency α changes linearly with distance in the meantime. However, this portion may be a curve, and in general, any setting may be used as long as the transparency α monotonically decreases with distance.

【0020】[0020]

【発明の効果】以上に説明したように本発明の、透明度
を距離に応じて連続的に変化させる方法によれば、視点
の直前にオブジェクトが位置するときでも、そのオブジ
ェクトの像は透明か、半透明で表示されるため、そのオ
ブジェクトの後方に位置するオブジェクトの像を表示す
ることができ、観察者により多くの情報を提供すること
ができる。またフロントフェースカリングによる不自然
な画像の発生や、オブジェクトがクリップ面を超えて移
動したときに、オブジェクトの像が突然に消失したり現
れたりするような不自然な表示はなくなり、徐々に消失
したり現れたりするため、違和感の少ない臨場感のある
画像を得ることができる。さらに、本発明では、立体視
による手法を用いているわけではないため、立体視用眼
鏡やレンチキュラレンズを伴った表示装置等の特殊なハ
ードウェアも必要とせず、安価な三次元画像生成装置を
提供できるという効果もある。
As described above, according to the method of continuously changing the transparency according to the distance according to the present invention, even if the object is located immediately before the viewpoint, the image of the object is transparent. Since the image is displayed translucently, an image of the object located behind the object can be displayed, and more information can be provided to the observer. In addition, the appearance of unnatural images due to front face culling and the unnatural display that suddenly causes the image of the object to disappear or appear when the object moves beyond the clipping plane disappears and disappears gradually. Therefore, it is possible to obtain an image with a sense of realism with less discomfort. Further, in the present invention, since a technique based on stereoscopic vision is not used, special hardware such as a display device with stereoscopic glasses or a lenticular lens is not required, and an inexpensive three-dimensional image generating device is provided. There is also an effect that it can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明になる三次元画像生成装置の構成例を示
す機能ブロック図である。
FIG. 1 is a functional block diagram illustrating a configuration example of a three-dimensional image generation device according to the present invention.

【図2】3つのオブジェクトと視点の設定例である。FIG. 2 is an example of setting three objects and a viewpoint.

【図3】図2の各オブジェクトに透明度を設定した例で
ある。
FIG. 3 is an example in which transparency is set for each object in FIG. 2;

【図4】距離に応じた透明度設定関数の例である。FIG. 4 is an example of a transparency setting function according to a distance.

【図5】図4の設定法を実行する処理のフローチャート
である。
FIG. 5 is a flowchart of a process for executing the setting method of FIG. 4;

【図6】図3の各オブジェクトを透明度を考慮して合成
した画像を示す図である。
FIG. 6 is a diagram showing an image obtained by combining the objects of FIG. 3 in consideration of transparency.

【符号の説明】[Explanation of symbols]

10 入力デバイス 11 形状データ記憶手段 12 視点指定手段 13 画像生成手段 14 透明度設定手段 15 画像合成手段 16 フレームバッファ 17 ディスプレイ Reference Signs List 10 input device 11 shape data storage means 12 viewpoint designation means 13 image generation means 14 transparency setting means 15 image synthesis means 16 frame buffer 17 display

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 複数のオブジェクトの三次元形状データ
及びその位置データを記憶する形状データ記憶手段と、 三次元空間中の視点の位置と姿勢を指定する視点指定手
段と、 前記形状データ記憶手段に記憶された個々のオブジェク
トを前記視点指定手段で指定された視点からみたときの
像を生成する画像生成手段と、 前記個々のオブジェクトに、その視点からの距離が小さ
いほど大きい値の透明度を設定する透明度設定手段と、 この透明度設定手段により透明度が付加された個々のオ
ブジェクトの像に対して透明度を考慮しながら隠面処理
を行い、一つの画像に合成する画像合成手段と、 を備えたことを特徴とする三次元画像生成装置。
1. Shape data storage means for storing three-dimensional shape data of a plurality of objects and their position data; viewpoint designating means for designating the position and orientation of a viewpoint in a three-dimensional space; Image generating means for generating an image when the stored individual object is viewed from the viewpoint specified by the viewpoint specifying means; and setting the transparency of the individual object to a larger value as the distance from the viewpoint is smaller. Transparency setting means, and image combining means for performing hidden surface processing on the image of each object to which transparency has been added by the transparency setting means while considering transparency, and combining the images into one image. Characteristic three-dimensional image generation device.
【請求項2】 前記透明度指定手段は、第1の距離及び
その第1の距離よりも小さい第2の距離を指定する距離
指定手段と、 視点からの距離が前記第1の距離より大きいオブジェク
トには透明度を0とし、視点からの距離が前記第2の距
離より小さいオブジェクトには透明度を1とし、視点か
らの距離が前記第1の距離より小さくかつ前記第2の距
離より大きいオブジェクトには、前記視点からの距離を
前記第1の距離から差し引いた距離に比例して1から0
の間で変化する透明度とする透明度算出手段とを備えた
ことを特徴とする請求項1に記載の三次元画像生成装
置。
2. The object according to claim 1, wherein said transparency designating means designates a first distance and a second distance smaller than said first distance, and an object whose distance from a viewpoint is larger than said first distance. Sets transparency to 0, sets transparency to 1 for objects whose distance from the viewpoint is smaller than the second distance, and assigns transparency to objects whose distance from the viewpoint is smaller than the first distance and larger than the second distance. 1 to 0 in proportion to a distance obtained by subtracting the distance from the viewpoint from the first distance.
The three-dimensional image generation apparatus according to claim 1, further comprising: a transparency calculation unit that sets the transparency to change between the two.
【請求項3】 複数のオブジェクトの三次元形状データ
とその位置が与えられたときに、指定された視点の位置
と姿勢からみた個々のオブジェクトの像を生成し、個々
のオブジェクトに、その視点からの距離が小さいほど大
きい値の透明度を設定し、これらの透明度が設定された
個々のオブジェクトの像を、透明度を考慮しながら隠面
処理を行って一つの画像に合成することを特徴とする三
次元画像生成方法。
3. When three-dimensional shape data of a plurality of objects and their positions are given, an image of each object is generated from the position and orientation of a specified viewpoint, and each object is generated from that viewpoint. The tertiary method is characterized in that a larger value of transparency is set as the distance is smaller, and images of the individual objects set with these transparency are combined into one image by performing hidden surface processing while taking transparency into account. Original image generation method.
JP31875198A 1998-11-10 1998-11-10 Method and device for generating three-dimensional image Pending JP2000149062A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31875198A JP2000149062A (en) 1998-11-10 1998-11-10 Method and device for generating three-dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31875198A JP2000149062A (en) 1998-11-10 1998-11-10 Method and device for generating three-dimensional image

Publications (1)

Publication Number Publication Date
JP2000149062A true JP2000149062A (en) 2000-05-30

Family

ID=18102539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31875198A Pending JP2000149062A (en) 1998-11-10 1998-11-10 Method and device for generating three-dimensional image

Country Status (1)

Country Link
JP (1) JP2000149062A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042156A (en) * 2000-07-28 2002-02-08 Namco Ltd Game system and information storage medium
JP2002074390A (en) * 2000-08-23 2002-03-15 Nintendo Co Ltd Shadow mapping in inexpensive graphics system
JP2003006671A (en) * 2001-06-21 2003-01-10 Namco Ltd Image generating system, program and information storage medium
JP2003044868A (en) * 2001-07-30 2003-02-14 Namco Ltd System for generating image, program and information storage medium
JP2004005623A (en) * 2003-04-28 2004-01-08 Namco Ltd Information storage medium and game device
US6828969B2 (en) 2000-06-05 2004-12-07 Namco Ltd. Game system, program and image generating method
JP2005111007A (en) * 2003-10-08 2005-04-28 Nintendo Co Ltd Game program and game device
US7046242B2 (en) 2000-06-05 2006-05-16 Namco Ltd. Game system, program and image generating method
JP2014064721A (en) * 2012-09-26 2014-04-17 Fujifilm Corp Virtual endoscopic image generation apparatus, virtual endoscopic image generation method, and virtual endoscopic image generation program
JP6407460B1 (en) * 2018-02-16 2018-10-17 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2023048792A (en) * 2021-09-28 2023-04-07 株式会社Cygames Information processing apparatus, program, and drawing method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7046242B2 (en) 2000-06-05 2006-05-16 Namco Ltd. Game system, program and image generating method
US6828969B2 (en) 2000-06-05 2004-12-07 Namco Ltd. Game system, program and image generating method
JP2002042156A (en) * 2000-07-28 2002-02-08 Namco Ltd Game system and information storage medium
JP4527853B2 (en) * 2000-07-28 2010-08-18 株式会社バンダイナムコゲームス GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2002074390A (en) * 2000-08-23 2002-03-15 Nintendo Co Ltd Shadow mapping in inexpensive graphics system
JP2003006671A (en) * 2001-06-21 2003-01-10 Namco Ltd Image generating system, program and information storage medium
JP4707080B2 (en) * 2001-07-30 2011-06-22 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP2003044868A (en) * 2001-07-30 2003-02-14 Namco Ltd System for generating image, program and information storage medium
JP2004005623A (en) * 2003-04-28 2004-01-08 Namco Ltd Information storage medium and game device
JP4688407B2 (en) * 2003-04-28 2011-05-25 株式会社バンダイナムコゲームス Information storage medium and game device
JP2005111007A (en) * 2003-10-08 2005-04-28 Nintendo Co Ltd Game program and game device
JP2014064721A (en) * 2012-09-26 2014-04-17 Fujifilm Corp Virtual endoscopic image generation apparatus, virtual endoscopic image generation method, and virtual endoscopic image generation program
US9808145B2 (en) 2012-09-26 2017-11-07 Fujifilm Corporation Virtual endoscopic image generation device, method, and medium containing program
JP6407460B1 (en) * 2018-02-16 2018-10-17 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2019159617A1 (en) * 2018-02-16 2019-08-22 キヤノン株式会社 Image processing device, image processing method, and program
JP2019144638A (en) * 2018-02-16 2019-08-29 キヤノン株式会社 Image processing device, image processing method, and program
CN110720114A (en) * 2018-02-16 2020-01-21 佳能株式会社 Image processing apparatus, image processing method, and program
US11284057B2 (en) 2018-02-16 2022-03-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium
JP2023048792A (en) * 2021-09-28 2023-04-07 株式会社Cygames Information processing apparatus, program, and drawing method
JP7352603B2 (en) 2021-09-28 2023-09-28 株式会社Cygames Information processing device, program and drawing method

Similar Documents

Publication Publication Date Title
US5694533A (en) 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism
CN110402425B (en) Mixed reality system with color virtual content distortion and method for generating virtual content using the same
JP7055815B2 (en) A mixed reality system that involves warping virtual content and how to use it to generate virtual content
JP5160741B2 (en) 3D graphic processing apparatus and stereoscopic image display apparatus using the same
US5249264A (en) Image display method and apparatus
EP2051533B1 (en) 3D image rendering apparatus and method
US11089290B2 (en) Storage medium storing display control program, information processing system, and storage medium storing program utilized for controlling stereoscopic display
US11170577B2 (en) Generating and modifying representations of objects in an augmented-reality or virtual-reality scene
WO2019159617A1 (en) Image processing device, image processing method, and program
JP2012253690A (en) Program, information storage medium, and image generation system
JP2009237680A (en) Program, information storage medium, and image generation system
US9325960B2 (en) Maintenance of three dimensional stereoscopic effect through compensation for parallax setting
JP2008287696A (en) Image processing method and device
JP2012079291A (en) Program, information storage medium and image generation system
US6501468B1 (en) Stereoscopic display device and recording media recorded program for image processing of the display device
JP2000149062A (en) Method and device for generating three-dimensional image
JP4983793B2 (en) Image processing program and image processing apparatus
KR20140056146A (en) Method for estimation of occlusion in a virtual environment
JP3663407B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3491832B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4931038B2 (en) Stereoscopic image device, game device, stereoscopic image projection device, stereoscopic image data generation method, control program, and readable recording medium
JPH08185543A (en) Device and method for composition image
JP2022136548A (en) Image processing system and method thereof and program
JPH11161815A (en) Stereoscopic display device and recording medium recording program for executing image processing for the display device
JPH07239952A (en) Method for displaying stereoscopic image and device for displaying stereoscopic image