JP3144637B2 - 3D rendering method - Google Patents

3D rendering method

Info

Publication number
JP3144637B2
JP3144637B2 JP21686799A JP21686799A JP3144637B2 JP 3144637 B2 JP3144637 B2 JP 3144637B2 JP 21686799 A JP21686799 A JP 21686799A JP 21686799 A JP21686799 A JP 21686799A JP 3144637 B2 JP3144637 B2 JP 3144637B2
Authority
JP
Japan
Prior art keywords
area
image
rendering
dimensional
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21686799A
Other languages
Japanese (ja)
Other versions
JP2001043393A (en
Inventor
隆司 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Computer Engineering and Consulting Ltd
Original Assignee
Computer Engineering and Consulting Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Computer Engineering and Consulting Ltd filed Critical Computer Engineering and Consulting Ltd
Priority to JP21686799A priority Critical patent/JP3144637B2/en
Publication of JP2001043393A publication Critical patent/JP2001043393A/en
Application granted granted Critical
Publication of JP3144637B2 publication Critical patent/JP3144637B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、3次元画像処理に
おいて対象物をレンダリングする3次元レンダリング方
法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional rendering method for rendering an object in three-dimensional image processing.

【0002】[0002]

【従来の技術】従来、3次元画像の合成処理に際して
は、視野領域内の表示対象物についてリアルタイムでま
たは一定時間ごとに、あるいは対象物に色・位置・形状
等の変化のあるたびに、レンダリングを行うようにして
いる。しかしながら、視野領域内の表示対象物すべてに
ついて毎回レンダリングを行うとすると、演算負荷が膨
大なものとなり、レンダリング処理に長時間かかってし
まう。そのため従来から、この演算負荷を軽減し、か
つ、自然な3次元画像を得る方法が種々提案されてい
る。
2. Description of the Related Art Conventionally, in synthesizing a three-dimensional image, rendering is performed on a display object in a visual field region in real time or at regular intervals, or whenever the object changes in color, position, shape, or the like. To do. However, if rendering is performed every time for all the display objects in the visual field, the calculation load becomes enormous, and the rendering process takes a long time. Therefore, conventionally, various methods for reducing the calculation load and obtaining a natural three-dimensional image have been proposed.

【0003】図10(a)は、例えば遊技機などの3次
元画像の合成処理においてレンダリング対象となる3次
元空間の領域を示す図であり、図10(b)は図10
(a)の領域を2次元的に描いた図である。図10に示
すように、一般的には、nearとfarに挟まれた四角錐台
の領域のみを対象に3次元レンダリングを行うととも
に、その後ろ側の領域については2次元画像である背景
を貼付ける等して、すべての領域に対してレンダリング
処理を行わずに演算負荷を低減するようにしている。
FIG. 10A is a diagram showing a region in a three-dimensional space to be rendered in a process of synthesizing a three-dimensional image of, for example, a game machine, and FIG.
It is the figure which drawn the area of (a) two-dimensionally. As shown in FIG. 10, in general, three-dimensional rendering is performed only on the area of the truncated pyramid sandwiched between near and far, and a background that is a two-dimensional image is pasted on the area behind it. Thus, the calculation load is reduced without performing the rendering process on all the areas.

【0004】また、特開平6−348860号公報に
は、例えばドライブゲームにおいて、領域内の特定の凹
凸のある3次元オブジェクト(通り過ぎる建物等)を所
定のアングルからみた画像を予めテクスチャ情報として
記憶しておき、3次元オブジェクトのポリゴンにこのテ
クスチャ情報をマッピングして表示画面を形成する画像
合成装置が開示されている。これにより、従来は3次元
領域内で100個ものポリゴンを要していた凹凸のある
オブジェクトを少ないポリゴンで表現して、ハードウェ
アの負担を抑えるようにしている。
Japanese Patent Application Laid-Open No. 6-348860 discloses, for example, in a drive game, an image of a three-dimensional object (a passing building or the like) having a specific unevenness in a region viewed from a predetermined angle is stored as texture information in advance. In addition, an image synthesizing apparatus that forms a display screen by mapping this texture information to a polygon of a three-dimensional object is disclosed. Thus, an object having unevenness, which conventionally required as many as 100 polygons in a three-dimensional area, is represented by a small number of polygons, thereby reducing the hardware load.

【0005】また、特開平9−167258号公報に
は、3次元領域内に配置された立木等の表示物(本来は
立体物)を簡易オブジェクト(平面画像)として形成
し、視点の変位があっても当該オブジェクトが視線方向
を向くように回転させて合成表示することにより、演算
負荷を抑えて処理時間を短縮させる試みが開示されてい
る。
In Japanese Patent Application Laid-Open No. Hei 9-167258, a display object (original three-dimensional object) such as a tree arranged in a three-dimensional area is formed as a simple object (planar image), and there is no displacement of the viewpoint. However, there is disclosed an attempt to reduce the calculation load and reduce the processing time by rotating the object so as to face the line of sight and performing composite display.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、図10
に示す例では、nearとfarで画定される領域もある程度
の広さがあるため、その領域すべてについてリアルタイ
ムにレンダリング処理を行うには、ハードウェアの負担
がまだ大きいものであった。これを回避するために、ne
ar−far領域を狭くすることが考えられるが、その場合
は3次元画像処理を行う空間が狭くなり種々の不具合が
生じる。
However, FIG.
In the example shown in (1), since the area defined by near and far has a certain size, the hardware load is still large to perform the rendering processing on all the areas in real time. To avoid this, ne
It is conceivable to narrow the ar-far region, but in that case, the space for performing the three-dimensional image processing becomes narrow, and various problems occur.

【0007】一方、上述した特開平6−348860号
公報に開示された技術は、所定の角度から見た表示物の
平面(2次元)画像を用意しておき、当該表示物の距離
に応じてこの画像をマッピングしたポリゴンの大小を変
化させることにより立体遠近感を実現するものである。
しかしながら、この技術はドライブゲームにおける道端
の建物のように、当該表示物を見る角度が所定の範囲内
からである場合には好適に用いることができるが、プレ
イヤーが移動しながら視線角度を変えるようなゲームの
場合にはその画像では対応できない。このため、複数ア
ングルから見た画像を用意して視点の変化にも対応でき
るようにするとの記載はあるが、この画像はあくまでも
平面(2次元)画像であるため、特に当該表示物に近づ
いたときなどに、多数のポリゴンを用いて凹凸を表示し
た立体画像に比して不自然さは消えないものである。
On the other hand, according to the technique disclosed in the above-mentioned Japanese Patent Application Laid-Open No. 6-348860, a plane (two-dimensional) image of a display object viewed from a predetermined angle is prepared, and the image is displayed in accordance with the distance of the display object. By changing the size of the polygon on which this image is mapped, a three-dimensional perspective is realized.
However, this technique can be suitably used when the viewing angle of the display object is within a predetermined range, such as a roadside building in a driving game, but the player changes the viewing angle while moving. In the case of a simple game, the image cannot be used. For this reason, there is a description that an image viewed from a plurality of angles is prepared so as to be able to cope with a change in the viewpoint, but since this image is a planar (two-dimensional) image, it is particularly close to the display object. In some cases, the unnaturalness does not disappear as compared with a stereoscopic image in which unevenness is displayed using a large number of polygons.

【0008】また、特開平9−167258号公報に開
示された技術は、簡易オブジェクトである表示対象から
の角度が変わると、当該対象の向きを変えて合成表示す
るだけであり、視点が当該表示対象に近くなっても簡易
表示(2次元画像)のままである。従って、この場合
も、特に当該表示物に近づいたときに、多数のポリゴン
を用いて立体表示した画像に比して不自然さが残るもの
である。
In the technique disclosed in Japanese Patent Application Laid-Open No. 9-167258, when the angle from a display object, which is a simple object, changes, only the direction of the object is changed to perform composite display. The simple display (two-dimensional image) remains even when the subject is close to the target. Therefore, also in this case, particularly when approaching the display object, unnaturalness remains as compared with an image stereoscopically displayed using a large number of polygons.

【0009】このように、従来の技術では、3次元領域
内の特定のオブジェクトに平面画像を用いるようにして
いるため高速のレンダリングは可能であるが、これらの
画像は前もって想定されたいくつかの角度にしか対応で
きず、また、当該対象物は近くに寄っても2次元画像で
あるため視点が近くに移動したときに実際の状態に近い
リアルな画像を得ることはできなかった。
As described above, according to the prior art, since a planar image is used for a specific object in a three-dimensional area, high-speed rendering is possible. It is only possible to deal with the angle, and even if the target object is close, it is a two-dimensional image. Therefore, when the viewpoint moves close, a real image close to the actual state cannot be obtained.

【0010】本発明の目的は上述した課題を解消して、
高速のレンダリングが可能で、しかも、視点が対象物の
近くに寄った場合に実際の状態に近いリアルな画像を得
ることができる3次元レンダリング方法を提供しようと
するものである。
An object of the present invention is to solve the above-mentioned problems,
It is an object of the present invention to provide a three-dimensional rendering method capable of performing high-speed rendering and obtaining a realistic image close to an actual state when a viewpoint approaches a target.

【0011】[0011]

【課題を解決するための手段】本発明の3次元レンダリ
ング方法は、仮想3次元空間における対象物のレンダリ
ング方法であって、視点から所定の距離に仮想境界面を
想定し、仮想境界面に対し視点に近い側の領域を第1の
領域、仮想境界面に対し視点から遠い側の領域を第2の
領域としたとき、(1)第1の領域および第2の領域内
の対象物にレンダリングを行ない、このレンダリングに
よって得た第2領域の画像を背景画像として利用して、
その後のレンダリングは前記第1の領域内の対象物にの
みレンダリングを継続的に行なうようにすると共に、
(2)前記背景画像と第1の領域内の対象物に対するレ
ンダリングを行った画像との間に画像のずれが発生し背
景画像を更新する必要が生じた場合、第2の領域内の対
象物にレンダリングを行ない背景画像を更新する、こと
を特徴とするものである。
A three-dimensional rendering method according to the present invention is a method for rendering an object in a virtual three-dimensional space, in which a virtual boundary surface is assumed at a predetermined distance from a viewpoint. When an area closer to the viewpoint is a first area and an area farther from the virtual boundary surface than the viewpoint is a second area, (1) rendering is performed on an object in the first area and the second area. And using the image of the second area obtained by this rendering as a background image,
In the subsequent rendering, the rendering is continuously performed only on the object in the first area, and
(2) When an image shift occurs between the background image and the image rendered for the object in the first area and the background image needs to be updated, the object in the second area is updated. And updates the background image.

【0012】本発明では、3次元領域のうち仮想境界面
より遠景の部分について、一旦レンダリングを行った場
合はそれを背景としてその後も利用し、仮想境界面より
前景の画像とのずれが生じるまで再レンダリングを行わ
ないよう構成することにより、仮想境界面以遠の3次元
領域について再レンダリングの回数を大幅に減少して高
速レンダリングを可能としている。同時に、視点に近い
対象物は継続的にレンダリングを行った画像を用いるこ
とで、実際の状態に近い自然な画像を得ることができ
る。
According to the present invention, if a part of the three-dimensional region that is far from the virtual boundary is rendered, it is used as a background and then used as a background, until the image of the foreground deviates from the virtual boundary. By configuring so that re-rendering is not performed, the number of times of re-rendering for a three-dimensional area beyond the virtual boundary surface is greatly reduced, enabling high-speed rendering. At the same time, a natural image close to the actual state can be obtained by using the continuously rendered image for the object close to the viewpoint.

【0013】また、本発明は、仮想3次元空間における
対象物のレンダリング方法であって、視点から所定の距
離に第1の仮想境界面を、視点から見て当該第1の仮想
境界面より近い位置に第2の仮想境界面を想定し、前記
第1の仮想境界面に対し視点に近い側の領域を第1の領
域、前記第2の仮想境界面に対し視点から遠い側の領域
を第2の領域としたとき、(1)第1の領域および第2
の領域内の対象物にレンダリングを行ない、このレンダ
リングによって得た第2領域の画像を背景画像として利
用して、その後のレンダリングは前記第1の領域内の対
象物にのみレンダリングを継続的に行うようにすると共
に、(2)前記背景画像と第1の領域内の対象物に対す
るレンダリングを行った画像との間に画像のずれが発生
し背景画像を更新する必要が生じた場合、第2の領域内
の対象物にレンダリングを行ない背景画像を更新するよ
うにしても良い。
The present invention also relates to a method for rendering an object in a virtual three-dimensional space, wherein the first virtual boundary surface is closer to the predetermined distance from the viewpoint than the first virtual boundary surface when viewed from the viewpoint. Assuming a second virtual boundary surface at the position, a region closer to the viewpoint with respect to the first virtual boundary surface is a first region, and a region farther from the viewpoint with respect to the second virtual boundary surface is a second region. (1) First area and second area
Rendering is performed on the object within the region, and the image of the second region obtained by this rendering is used as a background image, and subsequent rendering is continuously performed only on the object within the first region. And (2) when an image shift occurs between the background image and the image rendered for the object in the first area and the background image needs to be updated, the second The background image may be updated by rendering the object in the area.

【0014】後に詳細に説明するが、1の仮想境界面の
手前側と後ろ側の領域に分けて画像処理を行うと、例え
ば視点が後退した場合等に、第1の領域と第2の領域が
離れて空白部分が何もレンダリングされずに黒く抜けて
しまう場合がある。そこで、リアルタイムで3次元レン
ダリングを行う第1の領域と、所定の場合に再レンダリ
ングを行う第2の領域を予め部分的にオーバーラップさ
せておけば、ある範囲内で視点の移動・回転があっても
第1の領域と第2の領域との間に画像の空白部分が生じ
ることがなく、何もレンダリングされずに黒く抜けてし
まうのを防ぐことができる。
As will be described later in detail, if image processing is performed separately on the near side and the back side of one virtual boundary surface, the first area and the second area can be used, for example, when the viewpoint retreats. There is a case where the blank part is lost without rendering anything. Therefore, if the first area for performing the three-dimensional rendering in real time and the second area for performing the re-rendering in a predetermined case partially overlap in advance, the movement and rotation of the viewpoint within a certain range may occur. However, no blank portion of the image is generated between the first area and the second area, and it is possible to prevent the image from being rendered black without being rendered.

【0015】本発明の好適例として、背景画像と第1の
領域内のレンダリング画像との間の画像のずれによる背
景画像の更新を、視点移動により、視点から仮想境界面
までの距離が5%以上変化した際に行うか、視線移動に
より、視線方向が5度以上変化した際に行うよう構成す
る。本願発明者のシミュレーションにより、かかる場合
に背景画像を更新するようにすれば違和感のない自然な
画像を得られることが判明している。
[0015] As a preferred example of the present invention, the updating of the background image due to the shift of the image between the background image and the rendering image in the first area is performed by moving the viewpoint so that the distance from the viewpoint to the virtual boundary surface is 5%. It is configured to be performed when the line of sight changes, or when the line-of-sight direction changes by 5 degrees or more due to line-of-sight movement. According to the simulation by the inventor of the present application, it has been found that a natural image without a sense of incongruity can be obtained by updating the background image in such a case.

【0016】また、更なる実施例としては、前記背景画
像と第1の領域内のレンダリング画像との間の画像のず
れによる背景画像の更新を、前記仮想3次元空間におけ
る時刻が所定量経過した際に行うように構成する。この
場合は、特に都市景観シミュレーションにおいて最適な
3次元レンダリングを行うことができる。
Further, as a further embodiment, the updating of the background image due to an image shift between the background image and the rendering image in the first area is performed when a predetermined time has elapsed in the virtual three-dimensional space. It is configured to be performed at the time. In this case, optimal three-dimensional rendering can be performed particularly in a cityscape simulation.

【0017】[0017]

【発明の実施の形態】本発明の実施の形態を、添付の図
面を参照しながら以下に詳細に説明する。図1(a)、
(b)はそれぞれ本発明の3次元レンダリング方法を説
明するための図であり、図1(a)はレンダリングの対
象となる3次元空間内の領域を示す図、図1(b)は図
1(a)の領域を2次元的に描いた図である。本発明の
レンダリングの対象となる3次元空間は、図1(a)に
示すように、視点(目またはカメラ)1から広がる四角
錐の領域であり、そのうちnearとfarに挟まれた四角錐
台の領域がレンダリング対象となる3次元領域である。
Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. FIG. 1 (a),
1B is a diagram for explaining the three-dimensional rendering method of the present invention, FIG. 1A is a diagram showing a region in a three-dimensional space to be rendered, and FIG. It is the figure which drawn the area of (a) two-dimensionally. The three-dimensional space to be rendered in the present invention is, as shown in FIG. 1A, a quadrangular pyramid region extending from a viewpoint (eye or camera) 1, and a truncated quadrangular pyramid sandwiched between near and far. Is a three-dimensional area to be rendered.

【0018】図1に示すように、本発明では、nearとfa
rで画定される領域(3次元領域)内に仮想投影面Pを
設定し、仮想投影面Pより近い領域を第1の領域、仮想
投影面Pより遠方の領域を第2の領域とする。ここで、
仮想投影面Pは、視点1からの視軸方向に直交する配置
に設定するのが好適である。そして、仮想投影面Pより
遠方にある、すなわち第2の領域内の表示対象物2を、
仮想投影面Pに2次元画像として投影し、これを背景画
像として利用する。同時に、視点1から仮想投影面Pま
での間、すなわち第1の領域内にある表示物3について
はリアルタイムで従来と同様の3次元仮想空間内に表示
するための演算を行い、視点1と仮想空間面Pとの仮想
空間内(near)に描画する。
As shown in FIG. 1, in the present invention, near and fa
The virtual projection plane P is set in the area (three-dimensional area) defined by r, and an area closer to the virtual projection plane P is defined as a first area, and an area farther than the virtual projection plane P is defined as a second area. here,
It is preferable that the virtual projection plane P is set in an arrangement orthogonal to the visual axis direction from the viewpoint 1. Then, the display object 2 located farther from the virtual projection plane P, that is, in the second area,
The image is projected on the virtual projection plane P as a two-dimensional image, and is used as a background image. At the same time, for the display object 3 between the viewpoint 1 and the virtual projection plane P, that is, the display object 3 in the first area, a calculation for displaying in real time the same three-dimensional virtual space as in the related art is performed. Drawing is performed in a virtual space (near) with the space plane P.

【0019】図2は本発明の2次元レンダリング方法の
一例を説明するためのフローチャートである。本発明の
レンダリング方法では、まず、一旦第1の領域および第
2の領域内のすべての対象物に対し3次元のレンダリン
グを行う。すなわち、第2の領域内の対象物をレンダリ
ングした後に、これを2次元背景画像として記憶する
(ステップS1)。そして、ここで得た背景画像を使用
して、第1の領域内の対象物をレンダリングする(ステ
ップS2)。
FIG. 2 is a flowchart for explaining an example of the two-dimensional rendering method of the present invention. In the rendering method of the present invention, first, three-dimensional rendering is once performed on all objects in the first area and the second area. That is, after rendering the object in the second area, it is stored as a two-dimensional background image (step S1). Then, the object in the first area is rendered using the background image obtained here (step S2).

【0020】実際の一例として、図3に第2の領域にお
ける背景のレンダリング画像を、図4に第1の領域にお
ける近景のレンダリング画像を、図5に図3に示す第2
の領域における背景のレンダリング画像と図4に示す第
1の領域における近景のレンダリング画像とを結合した
画像をそれぞれ示す。
As an actual example, FIG. 3 shows a rendered image of a background in the second area, FIG. 4 shows a rendered image of a foreground in the first area, and FIG.
5A and 5B respectively show images obtained by combining a rendered image of a background in a region and a rendered image of a foreground in the first region shown in FIG.

【0021】その後、第1の領域については継続的にレ
ンダリングを行っていくが、ここで視点の移動・回転等
の影響により背景画像を更新する必要があるか否かを判
断する(ステップS3)。この判断により、背景画像を
更新する必要がない場合には(NO)、第2の領域の背
景はそのままで第1の領域のみのレンダリングを繰り返
す。
Thereafter, rendering is continuously performed on the first area. Here, it is determined whether or not the background image needs to be updated due to the influence of movement or rotation of the viewpoint (step S3). . If it is determined that the background image does not need to be updated (NO), rendering of only the first area is repeated while the background of the second area remains unchanged.

【0022】ステップS3において、背景画像を更新す
る必要が発生しているとき、すなわち背景画像と第1の
領域内の再レンダリングした画像との間にずれが発生し
たときは(YES)、第2の領域の再レンダリングを行
い、更に2次元画像としたものを、新たな背景画像とし
て利用して画像の合成を行う。
In step S3, when it is necessary to update the background image, that is, when there is a shift between the background image and the re-rendered image in the first area (YES), the second Are re-rendered, and the two-dimensional image is used as a new background image to synthesize the image.

【0023】ここで、背景画像と第1の領域内のレンダ
リング画像との間の画像のずれによる背景画像の更新時
期の判定(図2:ステップS3)について説明する。図
6(a)〜(c)および図7は更新時期の判定方法の一
例を説明するための図である。図6(a)〜(c)は、
視点の移動により2つのレンダリング領域すなわち第1
の領域と第2の領域との間に画像のずれが生じる場合を
示し、図6(a)は第2の領域が第1の領域に対し後退
した例を、図6(b)は第2の領域が第2の領域に対し
前進した例を、図6(c)は第2の領域が第1の領域に
対し上下左右に移動した例をそれぞれ平面的に示す。ま
た、図7は、視線方向の回転により2つのレンダリング
領域すなわち第1の領域と第2の領域との間にずれが生
じる場合を示す。
Here, the determination of the update time of the background image due to the image shift between the background image and the rendering image in the first area (FIG. 2: step S3) will be described. 6 (a) to 6 (c) and FIG. 7 are diagrams for explaining an example of a method of determining the update time. 6 (a) to 6 (c)
By moving the viewpoint, two rendering areas, ie, the first
FIG. 6A shows an example in which the image is displaced between the first area and the second area, and FIG. 6B shows an example in which the second area is retracted from the first area. 6C is a plan view showing an example in which the second area has moved forward with respect to the second area, and FIG. 6C is a plan view showing an example in which the second area has moved up, down, left, and right with respect to the first area. FIG. 7 shows a case where a shift occurs between the two rendering areas, that is, the first area and the second area due to the rotation in the viewing direction.

【0024】本発明では通常は第2の領域へのレンダリ
ングを行わないため、第1の領域内のレンダリングを繰
り返すことで、図6および図7に示すように、ゲームプ
レイヤーの位置変化などにより第1の領域内のレンダリ
ング画像と第2の領域内のレンダリング画像とのずれが
生じる。このような場合に、何もレンダリングされない
領域が発生して画像が黒く抜けてしまったり、一方の領
域の画像が他の領域の画像に不自然にくいこんでしまう
ため、第2の領域への再レンダリングが必要となる。
In the present invention, since the rendering in the second area is not normally performed, the rendering in the first area is repeated, and as shown in FIG. 6 and FIG. A shift occurs between the rendered image in the first area and the rendered image in the second area. In such a case, since an area where nothing is rendered occurs and the image is blackened, or the image of one area is hardly unnaturally contained in the image of the other area, the image is not transferred to the second area. Rendering is required.

【0025】第2の領域の再レンダリングを行う基準
は、都市景観シミュレーションでは、背景画像と第1の
領域内のレンダリング画像との間の画像のずれによる背
景画像の更新を、視点移動により、視点から仮想境界面
までの距離が5%以上変化した際に行うか、視線移動に
より、視線方向が5度以上変化した際に行うよう構成す
る。なお、本願発明者のシミュレーションにより、2つ
の領域のずれは、距離で5〜7%、角度で5度程度の変
位までは不具合が生じないことが判明している。
The basis for re-rendering the second area is that, in the cityscape simulation, updating of the background image due to an image shift between the background image and the rendered image in the first area is performed by moving the viewpoint. This is performed when the distance from to the virtual boundary surface changes by 5% or more, or when the line of sight changes by 5 degrees or more due to line of sight movement. In addition, according to the simulation by the inventor of the present application, it has been found that the deviation between the two regions does not cause a problem up to a displacement of about 5 to 7% in distance and about 5 degrees in angle.

【0026】この第2の領域の再レンダリングを行う基
準は、上記の例に限るものではない。一例として、都市
景観シミュレーションである場合に、3次元空間内での
時間経過により太陽の位置が移る例を図8を用いて説明
する。図8(a)に示すように、仮想空間での時刻aに
は、太陽5の光が角度a1で照射するため第2の領域内
の表示対象物2により影a2ができている。その後に時
刻bになると、太陽5が移動するため光が角度b1で照
射し、対象物2による影はb2となるべきである。この
場合には、たとえ視点が全く動いていなくても第2の領
域の再レンダリングを行うようにする。あるいは、一定
時間間隔でまたはこの表示対象物2に色・位置・形状等
の変化のあるたびにレンダリングを行うようにしても良
い。
The reference for re-rendering the second area is not limited to the above example. As an example, in the case of a city landscape simulation, an example in which the position of the sun shifts with time in a three-dimensional space will be described with reference to FIG. As shown in FIG. 8A, at time a in the virtual space, since the light of the sun 5 is irradiated at an angle a1, a shadow a2 is formed by the display object 2 in the second area. Thereafter, at time b, the sun 5 moves, so that light is emitted at an angle b1 and the shadow of the object 2 should be b2. In this case, re-rendering of the second area is performed even if the viewpoint does not move at all. Alternatively, rendering may be performed at regular time intervals or whenever there is a change in the color, position, shape, or the like of the display object 2.

【0027】このようにして3次元仮想空間内の表示対
象物のすべてを描写することにより、第2の領域内の表
示対象物については2次元背景画像を用いることにより
ハードウェアの負担を飛躍的に軽減し、同時に視点から
近い位置にある第1の領域内の表示対象物についてはリ
アルタイムで3次元レンダリングを行うことで実際の映
像に近い3次元レンダリング画像を得ることができる。
従って、全体として自然な3次元画像を実現することが
できる。
By drawing all the display objects in the three-dimensional virtual space in this way, the display object in the second area uses a two-dimensional background image to dramatically reduce the hardware load. In addition, a three-dimensional rendering image close to the actual video can be obtained by performing real-time three-dimensional rendering on the display object in the first area near the viewpoint from the viewpoint.
Therefore, a natural three-dimensional image can be realized as a whole.

【0028】図9は、本発明の3次元レンダリング方法
の他の実施形態を説明する図である。図9に示すよう
に、本実施形態では、3次元領域をnear1−far1とで
画定される第1の領域と、near2−far2で画定される
第2の領域とに分けており、更に、これら第1の領域と
第2の領域が部分的にオーバーラップするように設定し
ている。
FIG. 9 is a diagram for explaining another embodiment of the three-dimensional rendering method of the present invention. As shown in FIG. 9, in the present embodiment, the three-dimensional area is divided into a first area defined by near1-far1 and a second area defined by near2-far2. The first area and the second area are set so as to partially overlap.

【0029】本実施形態の3次元レンダリング方法も、
上述した第1の実施形態の方法と同様にレンダリングを
行う。すなわち、まず、一旦第1の領域および第2の領
域内のすべての対象物に対し3次元のレンダリングを行
う。そして、near2−far2の第2の領域のレンダリン
グ結果を背景とする。その後、一定の時間間隔で繰り返
し行う次回以降のレンダリングの際、第2の領域の背景
はそのままで第1の領域のレンダリングを繰り返す。そ
して、背景画像と第1の領域内の再レンダリングした画
像との間に所定量以上のずれが発生したとき、第2の領
域のレンダリング結果を更新する必要があると判断し、
再び第2の領域のレンダリングを行い結果を背景画像と
する。以上のステップを繰り返すことで、リアルタイム
のレンダリングを行うことができる。
The three-dimensional rendering method of the present embodiment also
Rendering is performed in the same manner as in the method of the first embodiment described above. That is, first, three-dimensional rendering is performed on all objects in the first area and the second area. Then, the rendering result of the second area of near2-far2 is set as the background. Then, at the time of the next and subsequent renderings that are repeated at regular time intervals, the rendering of the first area is repeated while the background of the second area remains unchanged. Then, when a deviation of a predetermined amount or more occurs between the background image and the re-rendered image in the first area, it is determined that the rendering result of the second area needs to be updated,
The rendering of the second area is performed again, and the result is set as a background image. By repeating the above steps, real-time rendering can be performed.

【0030】このように3次元レンダリングを行うよう
にすれば、図6及び図7に示すように、多少視点位置が
変って2つのレンダリング領域にずれが生じた場合で
も、何もレンダリングされずに画像が黒く抜けてしまう
ような事態を回避することができる。なお、第1の領域
と第2の領域をオーバーラップさせる範囲は、視点から
の距離方向における5〜10%程度、好適には7%程度
に設定する。
If the three-dimensional rendering is performed in this manner, as shown in FIGS. 6 and 7, even if the viewpoint position slightly changes and the two rendering areas are shifted, nothing is rendered. It is possible to avoid a situation where an image is lost in black. The range in which the first region and the second region overlap is set to about 5 to 10%, preferably about 7%, in the distance direction from the viewpoint.

【0031】[0031]

【発明の効果】以上の説明から明らかなように、本発明
によれば、3次元レンダリング領域を第1及び第2の領
域に分け、背景となる第2の領域について一旦レンダリ
ングを行った場合はそれを背景として利用して、リアル
タイムでレンダリングを行う第1の領域とのずれが生じ
るまで再レンダリングを行わないよう構成しているた
め、遠景の再レンダリングの回数を大幅に減少し高速レ
ンダリングを可能とするとともに、背景も3次元のレン
ダリングを行った画像を用いるため、実際の状態に近い
リアルな画像を得ることができる。
As is apparent from the above description, according to the present invention, when the three-dimensional rendering area is divided into the first and second areas and the rendering is performed once for the second area as the background, By using this as a background, re-rendering is not performed until there is a deviation from the first area that renders in real time, so the number of re-renders of distant views is greatly reduced and high-speed rendering is possible In addition, since the background is an image on which three-dimensional rendering has been performed, a realistic image close to the actual state can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】(a)(b)はそれぞれ本発明の3次元レンダ
リング方法を説明するための図である。
FIGS. 1A and 1B are diagrams for explaining a three-dimensional rendering method of the present invention.

【図2】本発明の3次元レンダリング方法の一例を説明
するためのフローチャートである。
FIG. 2 is a flowchart illustrating an example of a three-dimensional rendering method according to the present invention.

【図3】第2の領域における背景のレンダリング画像の
一例を示す図である。
FIG. 3 is a diagram illustrating an example of a rendered image of a background in a second area.

【図4】第1の領域における近景のレンダリング画像の
一例を示す図である。
FIG. 4 is a diagram illustrating an example of a foreground rendered image in a first area.

【図5】図3と図4に示すレンダリング画像を結合した
全体のレンダリング画像の一例を示す図である。
FIG. 5 is a diagram showing an example of an entire rendering image obtained by combining the rendering images shown in FIGS. 3 and 4;

【図6】(a)〜(c)は背景画像更新時期の判定方法
の一例を説明するための図である。
FIGS. 6A to 6C are diagrams illustrating an example of a method of determining a background image update time.

【図7】背景画像更新時期の判定方法の他の例を説明す
るための図である。
FIG. 7 is a diagram for explaining another example of a method of determining a background image update time.

【図8】背景画像更新時期の判定方法の他の例を説明す
るための図である。
FIG. 8 is a diagram for explaining another example of a method of determining a background image update time.

【図9】本発明の3次元レンダリング方法の他の実施形
態を説明するための図である。
FIG. 9 is a diagram for explaining another embodiment of the three-dimensional rendering method of the present invention.

【図10】従来の3次元レンダリング方法を説明するた
めの図である。
FIG. 10 is a diagram for explaining a conventional three-dimensional rendering method.

【符号の説明】[Explanation of symbols]

1 視点 2、3 表示対象物 5 仮想太陽 1 viewpoint 2, 3 display object 5 virtual sun

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 15/00 100 G06T 15/70 JICSTファイル(JOIS)──────────────────────────────────────────────────続 き Continued on the front page (58) Fields surveyed (Int. Cl. 7 , DB name) G06T 15/00 100 G06T 15/70 JICST file (JOIS)

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 仮想3次元空間における対象物のレンダ
リング方法であって、視点から所定の距離に仮想境界面
を想定し、仮想境界面に対し視点に近い側の領域を第1
の領域、仮想境界面に対し視点から遠い側の領域を第2
の領域としたとき、(1)第1の領域および第2の領域
内の対象物にレンダリングを行ない、このレンダリング
によって得た第2領域の画像を背景画像として利用し
て、その後のレンダリングは前記第1の領域内の対象物
にのみレンダリングを継続的に行なうようにすると共
に、(2)前記背景画像と第1の領域内の対象物に対す
るレンダリングを行った画像との間に画像のずれが発生
し背景画像を更新する必要が生じた場合、第2の領域内
の対象物にレンダリングを行ない背景画像を更新するよ
うにしたことを特徴とする3次元レンダリング方法。
1. A method for rendering an object in a virtual three-dimensional space, wherein a virtual boundary surface is assumed at a predetermined distance from a viewpoint, and a region closer to the viewpoint with respect to the virtual boundary surface is defined as a first region.
The region on the side farther from the viewpoint with respect to the virtual boundary surface
(1) Rendering is performed on the objects in the first and second areas, and the image of the second area obtained by this rendering is used as a background image. The rendering is continuously performed only on the object in the first area, and (2) the image is shifted between the background image and the image rendered on the object in the first area. A three-dimensional rendering method, characterized in that when the background image needs to be updated, the object in the second area is rendered and the background image is updated.
【請求項2】 仮想3次元空間における対象物のレンダ
リング方法であって、視点から所定の距離に第1の仮想
境界面を、視点から見て当該第1の仮想境界面より近い
位置に第2の仮想境界面を想定し、前記第1の仮想境界
面に対し視点に近い側の領域を第1の領域、前記第2の
仮想境界面に対し視点から遠い側の領域を第2の領域と
したとき、(1)第1の領域および第2の領域内の対象
物にレンダリングを行ない、このレンダリングによって
得た第2領域の画像を背景画像として利用して、その後
のレンダリングは前記第1の領域内の対象物にのみレン
ダリングを継続的に行うようにすると共に、(2)前記
背景画像と第1の領域内の対象物に対するレンダリング
を行った画像との間に画像のずれが発生し背景画像を更
新する必要が生じた場合、第2の領域内の対象物にレン
ダリングを行ない背景画像を更新するようにしたことを
特徴とする3次元レンダリング方法。
2. A method for rendering an object in a virtual three-dimensional space, wherein a first virtual boundary surface is located at a predetermined distance from a viewpoint, and a second virtual boundary surface is located at a position closer to the first virtual boundary surface as viewed from the viewpoint. Assuming a virtual boundary surface, a region closer to the viewpoint with respect to the first virtual boundary surface is a first region, and a region farther from the viewpoint with respect to the second virtual boundary surface is a second region. Then, (1) rendering is performed on the objects in the first area and the second area, and the image of the second area obtained by this rendering is used as a background image, and the subsequent rendering is performed using the first area. The rendering is continuously performed only on the object in the area, and (2) an image shift occurs between the background image and the image that has been rendered on the object in the first area. Image needs to be updated In this case, the three-dimensional rendering method is characterized in that the object in the second area is rendered and the background image is updated.
【請求項3】 前記背景画像と第1の領域内のレンダリ
ング画像との間の画像のずれによる背景画像の更新を、
視点移動により、視点から仮想境界面までの距離が5%
以上変化した際に行う請求項1又は2に記載の3次元レ
ンダリング方法。
3. An update of a background image due to an image shift between the background image and a rendering image in a first area,
5% distance from viewpoint to virtual boundary surface due to viewpoint movement
The three-dimensional rendering method according to claim 1, wherein the method is performed when the change has occurred.
【請求項4】 前記背景画像と第1の領域内のレンダリ
ング画像との間の画像のずれによる背景画像の更新を、
視線移動により、視線方向が5度以上変化した際に行う
請求項1乃至3のいずれかに記載の3次元レンダリング
方法。
4. An update of a background image due to an image shift between the background image and a rendering image in a first area,
The three-dimensional rendering method according to any one of claims 1 to 3, wherein the method is performed when a line-of-sight direction changes by 5 degrees or more due to a line-of-sight movement.
【請求項5】 前記背景画像と第1の領域内のレンダリ
ング画像との間の画像のずれによる背景画像の更新を、
前記仮想3次元空間における時刻が所定量経過した際に
行う請求項1乃至4のいずれかに記載の3次元レンダリ
ング方法。
5. An update of a background image due to an image shift between the background image and a rendering image in a first area,
The three-dimensional rendering method according to claim 1, wherein the method is performed when a predetermined amount of time has elapsed in the virtual three-dimensional space.
JP21686799A 1999-07-30 1999-07-30 3D rendering method Expired - Fee Related JP3144637B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21686799A JP3144637B2 (en) 1999-07-30 1999-07-30 3D rendering method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21686799A JP3144637B2 (en) 1999-07-30 1999-07-30 3D rendering method

Publications (2)

Publication Number Publication Date
JP2001043393A JP2001043393A (en) 2001-02-16
JP3144637B2 true JP3144637B2 (en) 2001-03-12

Family

ID=16695163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21686799A Expired - Fee Related JP3144637B2 (en) 1999-07-30 1999-07-30 3D rendering method

Country Status (1)

Country Link
JP (1) JP3144637B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101756198B1 (en) * 2015-07-14 2017-07-10 이경환 Combination structure of shelf for bed

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU772753B2 (en) * 2000-12-22 2004-05-06 Canon Kabushiki Kaisha Incremental update of computer graphics
JP4467267B2 (en) 2002-09-06 2010-05-26 株式会社ソニー・コンピュータエンタテインメント Image processing method, image processing apparatus, and image processing system
KR100682456B1 (en) 2006-02-08 2007-02-15 삼성전자주식회사 Method and system of rendering 3-dimensional graphics data for minimising rendering area
KR101615238B1 (en) 2009-07-21 2016-05-12 삼성전자주식회사 Image processing apparatus and method
JP5523295B2 (en) * 2010-12-15 2014-06-18 アイレムソフトウェアエンジニアリング株式会社 Movie generator

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101756198B1 (en) * 2015-07-14 2017-07-10 이경환 Combination structure of shelf for bed

Also Published As

Publication number Publication date
JP2001043393A (en) 2001-02-16

Similar Documents

Publication Publication Date Title
EP1642625B1 (en) Video game device and image processing program
US5805782A (en) Method and apparatus for projective texture mapping rendered from arbitrarily positioned and oriented light source
JP5340952B2 (en) 3D projection display
EP2051533B1 (en) 3D image rendering apparatus and method
US20040179262A1 (en) Open GL
US20080180443A1 (en) Apparatus and method for generating CG image for 3-D display
US20140292755A1 (en) Image generation system, image generation method, and information storage medium
JP4982862B2 (en) Program, information storage medium, and image generation system
Oliveira Image-based modeling and rendering techniques: A survey
US6081275A (en) Image compositing apparatus
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
KR100381817B1 (en) Generating method of stereographic image using Z-buffer
CN115103134A (en) LED virtual shooting cutting synthesis method
JP2002073003A (en) Stereoscopic image forming device and information storage medium
JP3144637B2 (en) 3D rendering method
JP2005346417A (en) Method for controlling display of object image by virtual three-dimensional coordinate polygon and image display device using the method
JP4375840B2 (en) Light source display method and apparatus
KR20100075351A (en) Method and system for rendering mobile computer graphic
JP7394566B2 (en) Image processing device, image processing method, and image processing program
Borshukov New algorithms for modeling and rendering architecture from photographs
JP2009064355A (en) Program, information storage medium, and image producing system
Pajarola et al. Depth-mesh objects: Fast depth-image meshing and warping
JP4736239B2 (en) Pattern image creating method and apparatus
US20030052899A1 (en) Dynamic spatial warp
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100105

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130105

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees