JP2001273523A - Device and method for reducing three-dimensional data - Google Patents

Device and method for reducing three-dimensional data

Info

Publication number
JP2001273523A
JP2001273523A JP2000087137A JP2000087137A JP2001273523A JP 2001273523 A JP2001273523 A JP 2001273523A JP 2000087137 A JP2000087137 A JP 2000087137A JP 2000087137 A JP2000087137 A JP 2000087137A JP 2001273523 A JP2001273523 A JP 2001273523A
Authority
JP
Japan
Prior art keywords
data
dimensional object
polygon data
viewpoint
invisible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000087137A
Other languages
Japanese (ja)
Inventor
Hiromoto Furukawa
博基 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Engineering Co Ltd
Original Assignee
Hitachi Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Engineering Co Ltd filed Critical Hitachi Engineering Co Ltd
Priority to JP2000087137A priority Critical patent/JP2001273523A/en
Publication of JP2001273523A publication Critical patent/JP2001273523A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize an efficient plotting processing and to provide a smooth three-dimensional walk-through by providing a means which reduces polygon data which is always invisible to a range where a viewpoint can be moved in the three-dimensional walk-through of a computer. SOLUTION: A polygon data reduction processing means detects polygon data invisible to all positions in the range, which is inputted from an input means and where the viewpoint can be moved, and deletes detected invisible polygon data and deletes a three-dimensional object, which has polygon data all deleted, from layout data. Thus polygon data which are always invisible to the range where the viewpoint can be moved is reduced in the three- dimensional walk-through of the computer.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、3次元データから
不可視ポリゴンデータを削除するコンピュータによる3
次元データの削減装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer-based method for deleting invisible polygon data from three-dimensional data.
The present invention relates to an apparatus and a method for reducing dimension data.

【0002】[0002]

【従来の技術】従来の3次元ウォークスルー等を行うリ
アルタイム3次元アプリケーションでは、3次元データ
の描画時間を短縮するために、描画のフレーム毎に、描
画に必要無いデータを計算から除外するカリング処理を
行っている。カリングには、視点から見て裏向きのポリ
ゴンを描画しないバックフェイスカリングや、視界に入
らないオブジェクトを計算対象から除外するビューフラ
スタムカリングや、他のオブジェクトによって隠蔽され
てしまうオブジェクトを計算から除外するオクルージョ
ンカリング等の手法がある。一般的に、カリングはポリ
ゴンやオブジェクトの数が増加するとそれに伴いカリン
グ処理時間も増加する。ここで、カリングは毎フレーム
実施するため、カリング処理時間が増加すると描画時間
も増加する。
2. Description of the Related Art In a conventional real-time three-dimensional application for performing a three-dimensional walkthrough or the like, a culling process in which data unnecessary for drawing is excluded from calculation for each drawing frame in order to reduce the drawing time of three-dimensional data. It is carried out. For culling, back face culling that does not draw a polygon facing down from the viewpoint, view frustum culling that excludes objects that are not in view from the calculation target, and objects that are hidden by other objects are excluded from calculation There is a technique such as occlusion culling. Generally, the culling process time increases as the number of polygons and objects increases. Here, since the culling is performed every frame, if the culling processing time increases, the drawing time also increases.

【0003】OpenGL Optimizer凾ナは3次元データ簡略
化手法として、空間格子アルゴリズムとSRA(Success
ive Relaxation Algorithm)を使用している。「OpenGL
Optimizer Programmer's Guide凵vによると、空間格子
法は、3次元空間をメッシュ状に区切った空間格子を設
定して3次元オブジェクトを構成する頂点を最も近い格
子点へ移動させるという手法である。また、SRAは、
ポリゴンと各頂点が削除された時のポリゴンの偏差をチ
ェックし最小の偏差をもつ頂点から削除していき、ポリ
ゴン数の割合が指定値になった時に終了する手法であ
る。どちらの手法も、3次元ウォークスルー時に常に不
可視であるデータを削除する手法ではない。
The OpenGL Optimizer box uses a spatial grid algorithm and SRA (Success
ive Relaxation Algorithm). "OpenGL
According to the Optimizer Programmer's Guide, the spatial grid method is a method of setting a spatial grid that divides a three-dimensional space into a mesh and moving the vertices forming the three-dimensional object to the nearest grid point. Also, SRA is
This method checks the deviation between the polygon and the polygon when each vertex is deleted, deletes the polygon from the vertex having the smallest deviation, and terminates when the ratio of the number of polygons reaches a specified value. Neither technique is a technique for deleting data that is always invisible during a three-dimensional walkthrough.

【0004】特開平11−232485号公報記載の
「画像処理装置」では、グラフィクスパイプラインにポ
リゴンデータを送る際に、可視であるポリゴンデータと
不可視であるポリゴンデータの並ぶ順序に注目し、グラ
フィクスパイプラインのボトルネックを回避して、効率
の良い3次元データの描画を行っている。
In the "image processing apparatus" described in Japanese Patent Application Laid-Open No. H11-232485, when sending polygon data to a graphics pipeline, attention is paid to the order in which visible polygon data and invisible polygon data are lined up. Efficient rendering of three-dimensional data is performed while avoiding bottlenecks in lines.

【0005】[0005]

【発明が解決しようとする課題】上記従来技術のカリン
グでは、描画するたびにカリング処理を実行し描画速度
の高速化を図っている。描画やカリングを実行する対象
の3次元オブジェクトには、視点から見て常に裏向きの
ポリゴンや、他の3次元オブジェクトによって完全に隠
蔽される3次元オブジェクトなどのように、全く描画さ
れることの無いデータも含まれており、それらの全く描
画されることの無いデータに対する描画処理やカリング
処理は無駄な処理であった。また、カリングはポリゴン
やオブジェクトの数が増加するとそれに伴いカリングの
処理時間も増加する。特にCADデータには3次元ウォ
ークスルーアプリケーションに必要の無いオブジェクト
の内部などもデータ化されていることが多く、描画速度
を高速化するために手動で必要の無いデータを削除する
などの対策を必要とした。
In the above-mentioned conventional culling, a culling process is executed each time a picture is drawn to increase the drawing speed. The three-dimensional object to be drawn or culled must be completely drawn, such as a polygon that always faces down from the viewpoint or a three-dimensional object that is completely hidden by other three-dimensional objects. There is also data that does not exist, and the drawing process and culling process on the data that is not drawn at all are useless processes. In addition, the culling processing time increases as the number of polygons and objects increases. In particular, CAD data often includes data inside objects that are not necessary for the 3D walk-through application, and measures to remove unnecessary data manually are required to increase the drawing speed. And

【0006】また、上記OpenGL Optimizer剴凾フ3次元
データ簡略化手法では、3次元データと視点位置との関
係を考慮していないため、3次元データ全体の詳細度を
下げ、可視である範囲の詳細度も低下する。また、常に
不可視であるデータは残っている可能性がある。つま
り、必要無いデータが残り必要なデータが削減されてし
まう可能性がある。
Further, in the above-described OpenGL Optimizer 3D data simplification method, since the relationship between the 3D data and the viewpoint position is not taken into account, the degree of detail of the entire 3D data is reduced, and The level of detail also decreases. In addition, data that is always invisible may remain. That is, unnecessary data may remain and necessary data may be reduced.

【0007】また、上記特開平11−232485号公
報に記載されたような手段では、不可視ポリゴンがグラ
フィクスパイプラインのボトルネックを発生させるとし
ているが、不可視ポリゴン自体を削除するようには作用
しない。
In the means described in Japanese Patent Application Laid-Open No. H11-232485, the invisible polygon causes a bottleneck in the graphics pipeline, but does not operate to delete the invisible polygon itself.

【0008】本発明は、このような従来技術の問題点に
鑑みてなされたものであり、従来の装置及び方法と比較
して効率良い描画処理、ひいてはスムーズな3次元ウォ
ークスルーを実現できる前処理、すなわち、視点が移動
可能な範囲のどこから見ても描画されないポリゴンデー
タを削除することが可能な三次元データ削減装置及び方
法を提供することにある。
[0008] The present invention has been made in view of such problems of the prior art, and pre-processing capable of realizing a more efficient drawing process and a smoother three-dimensional walk-through than conventional devices and methods. In other words, it is an object of the present invention to provide a three-dimensional data reduction apparatus and method capable of deleting polygon data that is not drawn even when viewed from anywhere in the range in which the viewpoint can move.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するた
め、本発明は以下の特徴を有する。すなわち、本発明
は、3次元オブジェクト及び3次元オブジェクト配置デ
ータ及び視点移動可能範囲を入力する入力手段と、入力
された前記視点移動可能範囲に基づき前記3次元オブジ
ェクト及び前記3次元オブジェクト配置データからポリ
ゴンデータを削減処理するポリゴンデータ削減処理手段
と、該ポリゴンデータを削減した3次元オブジェクト及
び3次元オブジェクト配置データを出力する出力手段と
を有する3次元データ削減装置において、前記ポリゴン
データ削減処理手段が、前記入力手段から入力された前
記3次元オブジェクト及び前記3次元オブジェクト配置
データ及び前記視点移動可能範囲を記憶する記憶手段
と、該記憶手段に記憶された前記視点移動可能範囲内の
全ての範囲から不可視であるポリゴンデータを検出する
不可視ポリゴン検出手段と、前記3次元オブジェクト及
び前記3次元オブジェクト配置データから前記不可視ポ
リゴンデータ検出手段によって検出した不可視ポリゴン
データを削除する不可視ポリゴンデータ削除手段とを有
することを特徴とする。
Means for Solving the Problems To solve the above problems, the present invention has the following features. That is, the present invention provides an input means for inputting a three-dimensional object, three-dimensional object arrangement data, and a viewpoint movable range, and a polygon from the three-dimensional object and the three-dimensional object arrangement data based on the input viewpoint movable range. In a three-dimensional data reduction apparatus having polygon data reduction processing means for performing data reduction processing, and output means for outputting a three-dimensional object and three-dimensional object arrangement data in which the polygon data has been reduced, the polygon data reduction processing means includes: Storage means for storing the three-dimensional object and the three-dimensional object arrangement data and the viewpoint movable range input from the input means, and invisible from all the ranges within the viewpoint movable range stored in the storage means To detect polygon data A polygon detection means visual, and having an invisible polygon data deleting means for deleting invisible polygon data detected by said invisible polygon data detecting means from the 3-dimensional object and the three-dimensional object arrangement data.

【0010】本発明の他の特徴は、3次元データ削減装
置に3次元オブジェクト及び3次元オブジェクト配置デ
ータ及び視点移動可能範囲を入力する入力ステップと、
入力された前記視点移動可能範囲に基づき前記3次元オ
ブジェクト及び前記3次元オブジェクト配置データから
ポリゴンデータを削減処理するポリゴンデータ削減ステ
ップと、ポリゴンデータを削減した3次元オブジェクト
及び3次元オブジェクト配置データを出力する出力ステ
ップを有する3次元データ削減方法において、前記ポリ
ゴンデータ削減ステップが、前記入力ステップから入力
された3次元オブジェクト及び3次元オブジェクト配置
データ及び視点移動可能範囲を記憶手段に記憶する記憶
ステップと、該記憶手段に記憶された前記視点移動可能
範囲内の全ての範囲から不可視であるポリゴンデータを
検出する不可視ポリゴンデータ検出ステップと、前記3
次元オブジェクト及び前記3次元オブジェクト配置デー
タから前記不可視ポリゴンデータ検出ステップによって
検出した不可視ポリゴンデータを削除する不可視ポリゴ
ンデータ削除ステップを有することにある。
[0010] Another feature of the present invention is an input step of inputting a three-dimensional object, three-dimensional object arrangement data, and a viewpoint movable range to the three-dimensional data reduction device.
A polygon data reduction step of reducing polygon data from the three-dimensional object and the three-dimensional object arrangement data based on the input viewpoint movable range; and outputting a three-dimensional object and three-dimensional object arrangement data with reduced polygon data In the three-dimensional data reduction method having an output step, the polygon data reduction step stores the three-dimensional object, the three-dimensional object arrangement data, and the viewpoint movable range input from the input step in storage means, An invisible polygon data detecting step of detecting invisible polygon data from all ranges within the viewpoint movable range stored in the storage means;
An invisible polygon data deleting step of deleting the invisible polygon data detected by the invisible polygon data detecting step from the three-dimensional object and the three-dimensional object arrangement data.

【0011】本発明によれば、視点移動可能範囲内から
見たとき、3次元オブジェクトの見た目を変えずに、全
く描画されないポリゴンデータを削減することが可能と
なる。本本発明を3次元ウォークスルーの前処理として
適用することにより、見た目が全く変わらずに描画処理
を高速化できる。
According to the present invention, it is possible to reduce polygon data which is not drawn at all, without changing the appearance of a three-dimensional object when viewed from within the viewpoint movable range. By applying the present invention as pre-processing for three-dimensional walkthrough, rendering processing can be sped up without any change in appearance.

【0012】また、本本発明は、3次元オブジェクト及
び3次元オブジェクト配置データを3次元ウォークスル
ーアプリケーションに読み込む前の前処理として適用す
る。すなわち、本発明によれば、3次元ウォークスルー
の前処理として、視点が移動可能な範囲のどこから見て
も描画されないポリゴンデータを削除することが可能で
あるため、3次元ウォークスルー実行時の3次元空間描
画のための計算時間が短縮するように作用し、よりスム
ーズな3次元ウォークスルーの実現やより多くの3次元
オブジェクトをディスプレイモニタの中に表示すること
ができる。
Further, the present invention is applied as preprocessing before reading a three-dimensional object and three-dimensional object arrangement data into a three-dimensional walk-through application. That is, according to the present invention, as the pre-processing of the three-dimensional walkthrough, it is possible to delete polygon data that is not drawn even when viewed from anywhere in the range in which the viewpoint can move. It works to shorten the calculation time for drawing a three-dimensional space, and realizes a smoother three-dimensional walk-through and can display more three-dimensional objects on a display monitor.

【0013】また、本発明によれば、各視点における計
算処理は互いに独立なので、処理を並列化することで高
速化を図ることができる。同様に、各視線方向における
計算処理も互いに独立なので、処理を並列化することで
高速化を図ることができる。
Further, according to the present invention, since the calculation processing in each viewpoint is independent of each other, it is possible to increase the speed by parallelizing the processing. Similarly, since the calculation processing in each line-of-sight direction is independent of each other, the processing can be parallelized to increase the speed.

【0014】[0014]

【発明の実施の形態】以下、本発明の実施の形態に係る
三次元画像生成装置及び方法を図を用いて説明する。図
1は、本発明に係る三次元データ削減装置の機能構成ブ
ロック図を示している。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A three-dimensional image generating apparatus and method according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a functional block diagram of a three-dimensional data reduction device according to the present invention.

【0015】本発明の3次元データ削減装置は、3次元
オブジェクト及び3次元オブジェクト配置データ及び視
点移動可能範囲を入力する入力手段1と、ポリゴンデー
タを削減するポリゴンデータ削減処理手段2と、ポリゴ
ンデータを削減した3次元オブジェクト及び3次元オブ
ジェクト配置データを出力する出力手段3を有する。入
力手段1は、3次元オブジェクト及び3次元オブジェク
ト配置データ及び視点移動可能範囲データを入力する手
段である。
The three-dimensional data reduction apparatus according to the present invention comprises: an input means 1 for inputting a three-dimensional object, three-dimensional object arrangement data, and a movable range of a viewpoint; a polygon data reduction processing means 2 for reducing polygon data; Output means 3 for outputting a three-dimensional object and three-dimensional object arrangement data in which is reduced. The input means 1 is a means for inputting a three-dimensional object, three-dimensional object arrangement data, and viewpoint movable range data.

【0016】ポリゴンデータ削減処理手段2は、記憶手
段4、不可視ポリゴンデータ検出手段5及び不可視ポリ
ゴンデータ削除手段6を有する。記憶手段4は、入力手
段1から入力された3次元オブジェクト及び3次元オブ
ジェクト配置データ及び視点移動可能範囲を記憶する手
段である。不可視ポリゴンデータ検出手段5は、前記記
憶手段4に記憶された3次元オブジェクトを、前記記憶
手段4に記憶された3次元オブジェクト配置データに従
って配置したとき、視点移動可能範囲から見て不可視で
あるポリゴンデータを検出する手段である。不可視ポリ
ゴンデータ削除手段6は、前記不可視ポリゴンデータ検
出手段5に記憶されているポリゴンデータを、前記記憶
手段4に記憶された3次元オブジェクトから削除する手
段である。
The polygon data reduction processing means 2 has a storage means 4, an invisible polygon data detecting means 5, and an invisible polygon data deleting means 6. The storage unit 4 is a unit that stores the three-dimensional object, the three-dimensional object arrangement data, and the viewpoint movable range input from the input unit 1. When the three-dimensional object stored in the storage means 4 is arranged in accordance with the three-dimensional object arrangement data stored in the storage means 4, the invisible polygon data detection means 5 is a polygon which is invisible from the viewpoint movable range. It is a means for detecting data. The invisible polygon data deleting unit 6 is a unit that deletes the polygon data stored in the invisible polygon data detecting unit 5 from the three-dimensional object stored in the storage unit 4.

【0017】入力手段1は、ファイル入力によって実現
可能である。出力手段3は、ファイル出力によって実現
可能である。記憶手段4は、ハードディスクやメモリー
によって実現される。不可視ポリゴンデータ検出手段5
及び不可視ポリゴンデータ削除手段6の実現方式につい
ては、以下で詳細に説明する。
The input means 1 can be realized by inputting a file. The output means 3 can be realized by file output. The storage unit 4 is realized by a hard disk or a memory. Invisible polygon data detection means 5
The method of implementing the invisible polygon data deleting means 6 will be described in detail below.

【0018】まず、図1に示した3次元データ削減装置
の動作を、図2で説明する。初めに、ステップ100に
おいて、入力手段1の処理として3次元オブジェクト及
び3次元オブジェクト配置データ及び視点移動可能範囲
データの入力処理を行い、記憶手段4に記憶する。3次
元オブジェクト及び3次元オブジェクト配置データは、
VRML97(ISO/IEC 14772-1:1997、 Virtual Reali
ty ModelingLanguage、 (VRML97))などの3次元データ
のフォーマットを利用できる。視点移動可能範囲データ
は、X座標、Y座標、Z座標からなる3次元の点情報の
集合で、次の表1のように表現される。
First, the operation of the three-dimensional data reduction device shown in FIG. 1 will be described with reference to FIG. First, in step 100, as the processing of the input means 1, input processing of a three-dimensional object, three-dimensional object arrangement data, and viewpoint movable range data is performed and stored in the storage means 4. The three-dimensional object and the three-dimensional object arrangement data are:
VRML97 (ISO / IEC 14772-1: 1997, Virtual Reali
3D data formats such as ty Modeling Language (VRML97)) can be used. The viewpoint movable range data is a set of three-dimensional point information including X coordinates, Y coordinates, and Z coordinates, and is expressed as shown in Table 1 below.

【0019】[0019]

【表1】 [Table 1]

【0020】次に、ステップ110において、不可視ポ
リゴンデータ検出手段5の処理として、視点移動可能範
囲内の全ての位置から不可視であるポリゴンデータを検
出する不可視ポリゴンデータ検出処理を行う。
Next, in step 110, as processing of the invisible polygon data detecting means 5, invisible polygon data detection processing for detecting invisible polygon data from all positions within the movable range of the viewpoint is performed.

【0021】次に、不可視ポリゴンデータ削除手段6の
処理として、入力手段1により入力された3次元オブジ
ェクトから不可視ポリゴンデータ検出手段5で検出され
たポリゴンデータを削除し(ステップ120)、3次元
オブジェクト内の全てのポリゴンデータが削除された場
合は、入力手段1により入力された3次元オブジェクト
配置データから当該3次元オブジェクト配置データを削
除する(ステップ130)。次に、出力手段3の処理と
して、前記不可視ポリゴンデータ削除手段6のステップ
120を適用後の3次元オブジェクトと、前記不可視ポ
リゴンデータ削除手段6のステップ130を適用後の3
次元オブジェクト配置データを出力する(ステップ14
0)。
Next, as processing of the invisible polygon data deleting means 6, the polygon data detected by the invisible polygon data detecting means 5 is deleted from the three-dimensional object inputted by the input means 1 (step 120). If all the polygon data in is deleted, the three-dimensional object arrangement data is deleted from the three-dimensional object arrangement data input by the input means 1 (step 130). Next, as the processing of the output unit 3, the three-dimensional object after the step 120 of the invisible polygon data deletion unit 6 is applied and the three-dimensional object after the step 130 of the invisible polygon data deletion unit 6 is applied.
Output the dimensional object arrangement data (step 14)
0).

【0022】図2の3次元オブジェクト及び3次元オブ
ジェクト配置データ及び視点移動可能範囲の入力処理
(ステップ100)は、マウスやキーボード等の入出力
デバイスの入出力処理やファイル入出力処理を用いて、
3次元オブジェクト及び3次元オブジェクト配置データ
及び視点移動可能範囲データの入力処理を行う。
The input processing of the three-dimensional object, the three-dimensional object arrangement data, and the movable range of the viewpoint (step 100) in FIG.
The input processing of the three-dimensional object, the three-dimensional object arrangement data, and the viewpoint movable range data is performed.

【0023】図2の3次元オブジェクト及び3次元オブ
ジェクト配置データの出力処理(ステップ140)は、
ファイル入出力処理を用いて、3次元オブジェクト及び
3次元オブジェクト配置データの出力処理を行う。
The output processing (step 140) of the three-dimensional object and the three-dimensional object arrangement data in FIG.
The output processing of the three-dimensional object and the three-dimensional object arrangement data is performed using the file input / output processing.

【0024】図3は、不可視ポリゴンデータ検出処理
(ステップ110)の詳細処理を示すフローチャートで
ある。不可視ポリゴンデータの検出は、視点移動可能範
囲内から出る全ての視線を追跡することで実現する。こ
こで、視点移動可能範囲内から出る全ての視線は視点移
動可能範囲の表面を通ることに着目すると、視点移動可
能範囲から出る全ての視線を追跡するには視点移動可能
範囲の表面上の点からの視線を追跡すれば良いと言え
る。そこで、まず、記憶手段4に記憶された視点移動可
能範囲データから視点移動可能範囲の構成面を求め、記
憶手段4に保存する(ステップ200)。
FIG. 3 is a flowchart showing the detailed processing of the invisible polygon data detection processing (step 110). Detection of invisible polygon data is realized by tracing all lines of sight that come out of the movable range of the viewpoint. Here, paying attention to all gazes coming out of the viewpoint movable range pass through the surface of the viewpoint movable range, tracking all the gazes coming out of the viewpoint movable range requires a point on the surface of the viewpoint movable range. It can be said that it suffices to track the line of sight from. Therefore, first, the constituent surface of the viewpoint movable range is obtained from the viewpoint movable range data stored in the storage unit 4 and stored in the storage unit 4 (step 200).

【0025】記憶手段4から、未処理である視点移動可
能範囲の構成面を取り出す(ステップ210)。次に、
視線を追跡するための視点位置を上記ステップ210で
取り出した視点移動可能範囲の構成面上の一点に決定す
る。
From the storage means 4, a constituent surface of the unprocessed viewpoint movable range is extracted (step 210). next,
The viewpoint position for tracking the line of sight is determined as one point on the constituent surface of the movable range of the viewpoint extracted in step 210.

【0026】例えば、図4のように視点移動可能範囲を
構成するある面とX−Z平面に平行な平面XZとの交わ
りを考えると、一本の線分を定めることができる。その
線分上の点を例えば左から右へ順次サーチしながら、ス
テップ230以下を適用する。一本の線分についての処
理が終了したら、平面XZをY軸に沿って十分に小さい
幅で移動し、同様に新たな線分を定め線分上の点につい
て順次ステップ230以下を適用する。視点移動可能範
囲を構成するある面がX−Z平面に平行なときは、X−
Y平面を用いて同様の処理を行う。こうして、面上の全
ての位置を視点として計算できる(ステップ220)。
For example, considering the intersection of a plane forming the movable range of the viewpoint and a plane XZ parallel to the XZ plane as shown in FIG. 4, one line segment can be determined. Steps 230 and subsequent steps are applied while sequentially searching points on the line segment, for example, from left to right. When the processing for one line segment is completed, the plane XZ is moved along the Y axis with a sufficiently small width, a new line segment is similarly determined, and steps 230 and subsequent steps are sequentially applied to points on the line segment. When a plane constituting the movable range of the viewpoint is parallel to the XZ plane, X-
Similar processing is performed using the Y plane. Thus, all positions on the surface can be calculated as viewpoints (step 220).

【0027】次に、視点移動可能範囲の表面上の点から
視点移動可能範囲の内部へ向かう視線は、必ず視点移動
可能範囲の他の表面上の点からの視線に含まれるため、
視点移動可能範囲の表面上を視点として視点移動可能範
囲の外部へ向かう視線方向のみを追跡対象とする。
Next, a line of sight from a point on the surface of the movable range of the viewpoint to the inside of the movable range of the viewpoint is always included in a line of sight from a point on the other surface of the movable range of the viewpoint.
Only the direction of the line of sight toward the outside of the movable range of the viewpoint is set as the tracking target with the viewpoint on the surface of the movable range of the viewpoint.

【0028】例えば、図5のように視点が存在する面を
X−Y平面、法線ベクトルZ軸としたローカルな座標系
を考える。ここで、法線ベクトルを視線ベクトルの基準
として、X軸中心に±90度の回転、Y軸中心に±90
度の回転の範囲が追跡対象の視線ベクトルとなる。そこ
で、X軸中心の回転角度とY軸中心の回転角度を十分に
小さい間隔をとって視線方向を回転しつつステップ24
0以下を適用することで全ての追跡対象である視線方向
について計算できる(ステップ230)。
For example, as shown in FIG. 5, consider a local coordinate system in which the plane on which the viewpoint exists is an XY plane and the normal vector Z axis. Here, using the normal vector as the reference of the line-of-sight vector, a rotation of ± 90 degrees around the X axis and ± 90 degrees around the Y axis.
The range of the rotation of the degree is the line of sight vector of the tracking target. Therefore, the rotation angle around the X-axis and the rotation angle around the Y-axis are set at a sufficiently small interval while rotating the line-of-sight direction at step 24.
By applying 0 or less, it is possible to calculate for all the gaze directions that are tracking targets (step 230).

【0029】次に、視線ベクトルと各3次元オブジェク
トのポリゴンデータとの交差判定を行い、交差するポリ
ゴンデータのリストを作成する。次に、リストを視点か
ら近い順にソートする。次にリストの視点から近い順
に、視線ベクトルとポリゴンデータの法線ベクトルのな
す角度を求める。
Next, the intersection between the line-of-sight vector and the polygon data of each three-dimensional object is determined, and a list of intersecting polygon data is created. Next, the list is sorted in ascending order from the viewpoint. Next, the angle between the line-of-sight vector and the normal vector of the polygon data is determined in the order from the viewpoint of the list.

【0030】ここで、図6のように視線ベクトルとポリ
ゴンデータの法線ベクトルのなす角度が90度未満のと
き可視であるので、視線ベクトルとポリゴンデータの法
線ベクトルのなす角度が90度未満のポリゴンデータを
可視ポリゴンデータとして決定し記憶手段4に保存す
る。リストのそれ以降のポリゴンデータについては、可
視ポリゴンデータの後ろに位置することになるため不可
視である(ステップ240)。
Here, as shown in FIG. 6, since the angle between the line-of-sight vector and the normal vector of the polygon data is visible when it is less than 90 degrees, the angle between the line-of-sight vector and the normal vector of the polygon data is less than 90 degrees. Is determined as visible polygon data and stored in the storage means 4. Subsequent polygon data in the list is invisible because it is located behind the visible polygon data (step 240).

【0031】追跡する全視線ベクトルについてステップ
240が実行されたか判定し、追跡する全視線ベクトル
についてステップ240が実行されていなければステッ
プ230に戻り、次の視線ベクトルについて処理を行う
(ステップ250)。
It is determined whether or not step 240 has been executed for all the line-of-sight vectors to be tracked. If step 240 has not been executed for all the line-of-sight vectors to be tracked, the process returns to step 230 to process the next line-of-sight vector (step 250).

【0032】視点が存在する視点移動可能範囲の構成面
上の全ての点についてステップ230が実行されたか判
定し、視点が存在する視点移動可能範囲の構成面上の全
ての点についてステップ230が実行されていなければ
ステップ220に戻り、次の視点位置について処理を行
う(ステップ250)。
It is determined whether or not step 230 has been executed for all points on the constituent surface of the viewpoint movable range where the viewpoint exists, and step 230 is executed for all points on the constituent surface of the viewpoint movable range where the viewpoint exists. If not, the process returns to step 220, and the process is performed for the next viewpoint position (step 250).

【0033】視点移動可能範囲の全ての構成面について
ステップ220が実行されたか判定し、視点移動可能範
囲の全ての構成面についてステップ220が実行されて
いなければステップ210に戻り、次の視点移動可能範
囲の全ての構成面について処理を行う(ステップ26
0)。
It is determined whether or not step 220 has been executed for all the constituent planes of the viewpoint movable range. If step 220 has not been executed for all the constituent planes of the viewpoint movable range, the process returns to step 210, and the next viewpoint movable can be performed. The process is performed on all constituent surfaces of the range (step 26)
0).

【0034】次に、入力手段1により入力された3次元
オブジェクトを構成する全ポリゴンデータから、ステッ
プ250により記憶手段4に保存された可視ポリゴンデ
ータを除くと不可視ポリゴンが決定される(ステップ2
60)。
Next, an invisible polygon is determined by removing the visible polygon data stored in the storage means 4 in step 250 from all the polygon data constituting the three-dimensional object input by the input means 1 (step 2).
60).

【0035】次に、図2及び図3のフローチャートの処
理を、図7から図15を用いて説明する。
Next, the processing in the flowcharts of FIGS. 2 and 3 will be described with reference to FIGS.

【0036】例えば、3次元オブジェクト及び3次元オ
ブジェクト配置データ及び視点移動可能範囲の入力処理
(ステップ100)によって、4つの立方体A、B、
C、D、Eが3次元オブジェクトとして入力され、視点
移動可能範囲Sも立方体として入力され、図7のように
配置される3次元オブジェクト配置データが入力された
とき、それらの位置関係はZ軸方向から見たとき図8の
ように、またY軸方向から見ると図9のようになってい
るとすると、視点移動可能範囲Sは立方体なので構成面
は6面存在する(ステップ200)。
For example, by inputting a three-dimensional object, three-dimensional object arrangement data, and a viewpoint movable range (step 100), four cubes A, B,
When C, D, and E are input as three-dimensional objects, the viewpoint movable range S is also input as a cube, and three-dimensional object arrangement data arranged as shown in FIG. If it is as shown in FIG. 8 when viewed from the direction and as shown in FIG. 9 when viewed from the Y-axis direction, there are six constituent surfaces because the view point movable range S is a cube (step 200).

【0037】ここで、未処理である視点移動可能範囲S
の構成面を決定する(ステップ210)。ここで、視点
Pは、図10のように視点移動可能範囲Sの構成面上の
一点となり、構成面上の各点について順次以下の処理を
行う(ステップ220)。
Here, the unprocessed viewpoint movable range S
Is determined (step 210). Here, the viewpoint P is one point on the constituent surface of the viewpoint movable range S as shown in FIG. 10, and the following processing is sequentially performed for each point on the constituent surface (step 220).

【0038】視点Pの位置をZ軸方向から見ると、図1
1のようになる。ここで、追跡する視線方向は視点Pを
基準位置として、視点Pの存在する構成面の法線ベクト
ル方向中心に縦横±90度の範囲をとる。
When the position of the viewpoint P is viewed from the Z-axis direction, FIG.
It looks like 1. Here, the direction of the line of sight to be tracked has a range of ± 90 degrees in the vertical and horizontal directions around the center of the component plane where the viewpoint P exists in the direction of the normal vector with the viewpoint P as the reference position.

【0039】図12に、追跡する視線方向の例をいくつ
か示す(ステップ230)。ここで、視点Pの存在する
構成面の表側に位置する3次元オブジェクトはAとCで
ある。
FIG. 12 shows some examples of gaze directions to be tracked (step 230). Here, the three-dimensional objects located on the front side of the constituent surface where the viewpoint P exists are A and C.

【0040】視線を追跡すると、視点Pの位置が3次元
オブジェクトA、Cの上面よりも上に位置するため、図
13のように3次元オブジェクトA、Cのそれぞれ3面
ずつが可視ポリゴンデータとして決定され保存される
(ステップ240)。3次元オブジェクトB、D、Eは
視点が存在する面の裏側に位置するため可視ポリゴンデ
ータは存在しない。全ての視線の追跡が終了したかどう
か判定し、終了していなければ次の視線の追跡を行う
(ステップ250)。全ての視線の追跡が終了したら、
全ての視点の処理が終了したかどうか判定し、終了して
いなければ次の視点について処理を行う(ステップ26
0)。
When the line of sight is tracked, the position of the viewpoint P is located above the upper surfaces of the three-dimensional objects A and C. Therefore, as shown in FIG. Determined and saved (step 240). Since the three-dimensional objects B, D, and E are located behind the plane on which the viewpoint is located, there is no visible polygon data. It is determined whether or not tracking of all lines of sight has been completed, and if not, tracking of the next line of sight is performed (step 250). Once all gazes have been tracked,
It is determined whether or not processing for all viewpoints has been completed, and if not, processing is performed for the next viewpoint (step 26).
0).

【0041】全ての視点について処理が終了したら、全
ての構成面の処理が終了したかどうか判定し、終了して
いなければ次の構成面の処理を行う(ステップ27
0)。
When processing has been completed for all viewpoints, it is determined whether or not processing has been completed for all constituent surfaces. If processing has not been completed, processing for the next constituent surface is performed (step 27).
0).

【0042】全ての構成面の処理を終了すると、図14
のように3次元オブジェクトA、B、C、Dそれぞれ4
面ずつのポリゴンデータが可視となり、3次元オブジェ
クトEは3次元オブジェクトDのポリゴンデータによっ
て常に視線が遮られるため可視ポリゴンは存在しない。
When the processing of all the constituent surfaces is completed, FIG.
3D objects A, B, C, D
Since the polygon data of each surface becomes visible, the line of sight of the three-dimensional object E is always interrupted by the polygon data of the three-dimensional object D, and there is no visible polygon.

【0043】このようにして求めた可視ポリゴンデータ
を全ポリゴンデータから除くと、視点移動可能範囲Sの
内側の全ての位置から不可視である不可視ポリゴンデー
タが、図15のように決定される(ステップ280)。
When the visible polygon data thus obtained is excluded from all polygon data, invisible polygon data that is invisible from all positions inside the view point movable range S is determined as shown in FIG. 280).

【0044】全ポリゴンデータから不可視ポリゴンデー
タを削除し(ステップ120)、構成する全てのポリゴ
ンデータが削除された3次元オブジェクトEは、その配
置データも削除し(ステップ130)、3次元オブジェ
クトと3次元オブジェクト配置データを出力する(ステ
ップ140)。
The invisible polygon data is deleted from all the polygon data (step 120), and the arrangement data of the three-dimensional object E from which all the constituent polygon data are deleted is also deleted (step 130). The dimensional object arrangement data is output (step 140).

【0045】出力した3次元オブジェクトと3次元オブ
ジェクト配置データを3次元ウォークスルーアプリケー
ションで読み込むと、図16のようになる。このように
して、処理前と処理後で視点移動可能範囲Sの内側から
見た、見た目を全く変えることなくデータを削減可能で
ある。
When the output three-dimensional object and three-dimensional object arrangement data are read by the three-dimensional walkthrough application, the result is as shown in FIG. In this way, the data can be reduced without any change in appearance as seen from inside the viewpoint movable range S before and after the processing.

【0046】この例では、入力された3次元オブジェク
トは、立方体(六面体)5つで合計30ポリゴンであっ
たが、以上の処理により可視ポリゴンデータ数は3次元
オブジェクトA、B、C、Dのそれぞれ4ポリゴンずつ
となり合計で16ポリゴンとなった。つまり、14ポリ
ゴンのデータが削減できた。
In this example, the input three-dimensional object has five cubes (hexahedrons) and a total of 30 polygons. However, the number of visible polygon data of the three-dimensional objects A, B, C, and D is increased by the above processing. Each of the polygons has 4 polygons, for a total of 16 polygons. That is, the data of 14 polygons could be reduced.

【0047】[0047]

【発明の効果】以上説明したように、本発明によれば、
3次元ウォークスルーの前処理として、視点が移動可能
な範囲のどこから見ても描画されないポリゴンデータを
削除することが可能である。これにより、3次元ウォー
クスルー実行時の3次元空間描画のための計算時間が短
縮するように作用し、よりスムーズな3次元ウォークス
ルーの実現やより多くの3次元オブジェクトをディスプ
レイモニタの中に表示することができる。
As described above, according to the present invention,
As a pre-process of the three-dimensional walkthrough, it is possible to delete polygon data that is not drawn even when viewed from anywhere within the movable range of the viewpoint. As a result, the calculation time for rendering in a three-dimensional space at the time of executing the three-dimensional walk-through is reduced, realizing a smoother three-dimensional walk-through and displaying more three-dimensional objects on a display monitor. can do.

【0048】また、本発明によれば、各視点における計
算処理は互いに独立なので、処理を並列化することで高
速化を図ることができる。同様に、各視線方向における
計算処理も互いに独立なので、処理を並列化することで
高速化を図ることができる。
Further, according to the present invention, since the calculation processing in each viewpoint is independent of each other, it is possible to increase the speed by parallelizing the processing. Similarly, since the calculation processing in each line-of-sight direction is independent of each other, the processing can be parallelized to increase the speed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例に係る3次元データ削減装置
の、機能構成ブロック図である。
FIG. 1 is a functional block diagram of a three-dimensional data reduction device according to an embodiment of the present invention.

【図2】本発明の一実施例に係る3次元データ削減方法
の、フローチャート図である。
FIG. 2 is a flowchart of a three-dimensional data reduction method according to an embodiment of the present invention.

【図3】図2の不可視ポリゴンデータ検出処理の、詳細
なフローチャート図である。
FIG. 3 is a detailed flowchart of the invisible polygon data detection processing of FIG. 2;

【図4】視点位置を決定する処理の例を示す図である。FIG. 4 is a diagram illustrating an example of processing for determining a viewpoint position.

【図5】視点Pにおける追跡する視線ベクトルの範囲の
例を示す図である。
FIG. 5 is a diagram illustrating an example of a range of a line-of-sight vector to be tracked at a viewpoint P;

【図6】ポリゴンが可視である状態の例を示す図であ
る。
FIG. 6 is a diagram illustrating an example of a state in which a polygon is visible.

【図7】3次元オブジェクトと視点移動可能範囲の例を
示す図である。
FIG. 7 is a diagram illustrating an example of a three-dimensional object and a movable range of a viewpoint.

【図8】図7のときの3次元オブジェクトと視点移動可
能範囲の位置関係を、Z軸に沿って見た例を示す図であ
る。
8 is a diagram illustrating an example of a positional relationship between a three-dimensional object and a viewpoint movable range in FIG. 7 when viewed along a Z axis.

【図9】図7のときの3次元オブジェクトと視点移動可
能範囲の位置関係を、Y軸に沿って見た例を示す図であ
る。
FIG. 9 is a diagram illustrating an example of a positional relationship between the three-dimensional object and a viewable range in FIG. 7 when viewed along a Y-axis;

【図10】図7のときの視点移動可能範囲の構成面上の
視点の例を示す図である。
FIG. 10 is a diagram illustrating an example of a viewpoint on a constituent surface of a viewpoint movable range in FIG. 7;

【図11】図9のときの視点位置をの例をZ軸に沿って
見た例を示す図である。
11 is a diagram illustrating an example of the viewpoint position in FIG. 9 viewed along the Z axis.

【図12】図9のときの追跡する視線方向の例を示す図
である。
FIG. 12 is a diagram illustrating an example of a tracking line-of-sight direction at the time of FIG. 9;

【図13】図11のときの可視ポリゴンデータの例を示
す図である。
FIG. 13 is a diagram showing an example of visible polygon data at the time of FIG. 11;

【図14】全ての視点について視線の追跡が終了したと
きの、可視ポリゴンデータの例を示す図である。
FIG. 14 is a diagram illustrating an example of visible polygon data when tracking of a line of sight has been completed for all viewpoints.

【図15】視点移動可能範囲内の全ての位置から見た不
可視ポリゴンデータの例を示す図である。
FIG. 15 is a diagram showing an example of invisible polygon data as viewed from all positions within a view point movable range.

【図16】不可視ポリゴンデータ削除後の3次元オブジ
ェクトの例を示す図である。
FIG. 16 is a diagram illustrating an example of a three-dimensional object after deleting invisible polygon data.

【符号の説明】[Explanation of symbols]

1…入力手段 2…ポリゴンデータ削減処理手段 3…出力手段 4…記憶手段 5…不可視ポリゴンデータ検出手段 6…不可視ポリゴンデータ削除手段 DESCRIPTION OF SYMBOLS 1 ... Input means 2 ... Polygon data reduction processing means 3 ... Output means 4 ... Storage means 5 ... Invisible polygon data detection means 6 ... Invisible polygon data deletion means

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】3次元オブジェクト及び3次元オブジェク
ト配置データ及び視点移動可能範囲を入力する入力手段
と、入力された前記視点移動可能範囲に基づき前記3次
元オブジェクト及び前記3次元オブジェクト配置データ
からポリゴンデータを削減処理するポリゴンデータ削減
処理手段と、該ポリゴンデータを削減した3次元オブジ
ェクト及び3次元オブジェクト配置データを出力する出
力手段とを有する3次元データ削減装置において、 前記ポリゴンデータ削減処理手段が、前記入力手段から
入力された前記3次元オブジェクト及び前記3次元オブ
ジェクト配置データ及び前記視点移動可能範囲を記憶す
る記憶手段と、該記憶手段に記憶された前記視点移動可
能範囲内の全ての範囲から不可視であるポリゴンデータ
を検出する不可視ポリゴン検出手段と、前記3次元オブ
ジェクト及び前記3次元オブジェクト配置データから前
記不可視ポリゴンデータ検出手段によって検出した不可
視ポリゴンデータを削除する不可視ポリゴンデータ削除
手段とを有することを特徴とする3次元データ削減装
置。
An input means for inputting a three-dimensional object, three-dimensional object arrangement data and a viewpoint movable range, and polygon data from the three-dimensional object and the three-dimensional object arrangement data based on the input viewpoint movable range. A three-dimensional data reduction apparatus comprising: a polygon data reduction processing means for reducing the polygon data; and an output means for outputting a three-dimensional object and three-dimensional object arrangement data in which the polygon data has been reduced. A storage unit for storing the three-dimensional object, the three-dimensional object arrangement data, and the viewpoint movable range input from the input unit; and an invisible from all ranges in the viewpoint movable range stored in the storage unit. Invisible poly to detect certain polygon data A three-dimensional data reduction device, comprising: a gon detecting unit; and an invisible polygon data deleting unit that deletes the invisible polygon data detected by the invisible polygon data detecting unit from the three-dimensional object and the three-dimensional object arrangement data. .
【請求項2】3次元データ削減装置に3次元オブジェク
ト及び3次元オブジェクト配置データ及び視点移動可能
範囲を入力する入力ステップと、入力された前記視点移
動可能範囲に基づき前記3次元オブジェクト及び前記3
次元オブジェクト配置データからポリゴンデータを削減
処理するポリゴンデータ削減ステップと、ポリゴンデー
タを削減した3次元オブジェクト及び3次元オブジェク
ト配置データを出力する出力ステップを有する3次元デ
ータ削減方法において、 前記ポリゴンデータ削減ステップが、前記入力ステップ
から入力された3次元オブジェクト及び3次元オブジェ
クト配置データ及び視点移動可能範囲を記憶手段に記憶
する記憶ステップと、該記憶手段に記憶された前記視点
移動可能範囲内の全ての範囲から不可視であるポリゴン
データを検出する不可視ポリゴンデータ検出ステップ
と、前記3次元オブジェクト及び前記3次元オブジェク
ト配置データから前記不可視ポリゴンデータ検出ステッ
プによって検出した不可視ポリゴンデータを削除する不
可視ポリゴンデータ削除ステップを有することを特徴と
する3次元データ削減方法。
2. An inputting step of inputting a three-dimensional object, three-dimensional object arrangement data, and a viewpoint movable range to a three-dimensional data reduction device, and the three-dimensional object and the three-dimensional object based on the input viewpoint movable range.
A polygon data reduction step of reducing polygon data from the three-dimensional object arrangement data; and a three-dimensional object reduction method having a three-dimensional object with reduced polygon data and an output step of outputting three-dimensional object arrangement data. A storage step of storing the three-dimensional object, the three-dimensional object arrangement data, and the viewpoint movable range input from the input step in a storage unit, and all the ranges within the viewpoint movable range stored in the storage unit. An invisible polygon data detecting step of detecting invisible polygon data from the object; and deleting the invisible polygon data detected by the invisible polygon data detecting step from the three-dimensional object and the three-dimensional object arrangement data. A three-dimensional data reduction method, comprising a step of deleting invisible polygon data.
JP2000087137A 2000-03-23 2000-03-23 Device and method for reducing three-dimensional data Pending JP2001273523A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000087137A JP2001273523A (en) 2000-03-23 2000-03-23 Device and method for reducing three-dimensional data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000087137A JP2001273523A (en) 2000-03-23 2000-03-23 Device and method for reducing three-dimensional data

Publications (1)

Publication Number Publication Date
JP2001273523A true JP2001273523A (en) 2001-10-05

Family

ID=18603193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000087137A Pending JP2001273523A (en) 2000-03-23 2000-03-23 Device and method for reducing three-dimensional data

Country Status (1)

Country Link
JP (1) JP2001273523A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006330927A (en) * 2005-05-24 2006-12-07 Jtekt Corp Three-dimensional shape data reducing method and device
JP2008203940A (en) * 2007-02-16 2008-09-04 Hitachi Ltd Three-dimensional map display system, method of displaying three-dimensional map and program thereof
JP2011185650A (en) * 2010-03-05 2011-09-22 Omron Corp Model generation apparatus and model generation program
JP2011248441A (en) * 2010-05-24 2011-12-08 Nissan Motor Co Ltd Image processing apparatus and method of estimating location of mobile body
JP2016149142A (en) * 2016-03-15 2016-08-18 株式会社ジオ技術研究所 Three-dimensional map display system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006330927A (en) * 2005-05-24 2006-12-07 Jtekt Corp Three-dimensional shape data reducing method and device
JP2008203940A (en) * 2007-02-16 2008-09-04 Hitachi Ltd Three-dimensional map display system, method of displaying three-dimensional map and program thereof
JP2011185650A (en) * 2010-03-05 2011-09-22 Omron Corp Model generation apparatus and model generation program
US8825452B2 (en) 2010-03-05 2014-09-02 Omron Corporation Model producing apparatus, model producing method, and computer-readable recording medium in which model producing program is stored
JP2011248441A (en) * 2010-05-24 2011-12-08 Nissan Motor Co Ltd Image processing apparatus and method of estimating location of mobile body
JP2016149142A (en) * 2016-03-15 2016-08-18 株式会社ジオ技術研究所 Three-dimensional map display system

Similar Documents

Publication Publication Date Title
US9030411B2 (en) Apparatus and methods for haptic rendering using a haptic camera view
EP0531157B1 (en) Three dimensional graphics processing
US7671857B2 (en) Three dimensional image processing
US5684936A (en) Method and apparatus for generating a rendering order for use in rendering images using a pre-processing technique
Greene Detecting Intersection of a Rectangular Solid and a Convex Polyhedron.
US20060262128A1 (en) Three dimensional rendering including motion sorting
JP2012190428A (en) Stereoscopic image visual effect processing method
Burkert et al. A photorealistic predictive display
US5666474A (en) Image processing
US6831642B2 (en) Method and system for forming an object proxy
JP2001273523A (en) Device and method for reducing three-dimensional data
KR100256472B1 (en) Efficient rendering utilizing user defined rooms and windows
KR100693134B1 (en) Three dimensional image processing
EP3876205A1 (en) Image generation system and method
CN110874858B (en) System and method for rendering reflections
JP2962747B2 (en) Collision detection system
Cai et al. Hardware-accelerated collision detection for 3D virtual reality gaming
EP0612032B1 (en) Image processing
EP0612028A2 (en) Image Processing
EP0612030B1 (en) Image processing
EP0612031A2 (en) Image processing
EP0612029A2 (en) Image processing
EP0612026A2 (en) Image processing
JP2001291115A (en) Method for plotting three-dimensional graphic and recording medium with the method recorded thereon
Inui et al. Fast and Smooth NC Milling Animation Using Partial Redrawing Technique