JPH07105409A - Collision detector device for three-dimensional moving object - Google Patents
Collision detector device for three-dimensional moving objectInfo
- Publication number
- JPH07105409A JPH07105409A JP24340193A JP24340193A JPH07105409A JP H07105409 A JPH07105409 A JP H07105409A JP 24340193 A JP24340193 A JP 24340193A JP 24340193 A JP24340193 A JP 24340193A JP H07105409 A JPH07105409 A JP H07105409A
- Authority
- JP
- Japan
- Prior art keywords
- plan
- view
- unit
- dimensional
- intersection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、建築物の内部の景観等
を示す三次元透視図画像を、いわゆるリアルタイム・ウ
ォークスルー方式で視点の移動に伴って逐次三次元デー
タから生成するような装置のために、視点等の移動体が
障害となる構造物に衝突することを検出する三次元移動
体の衝突検知装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for sequentially generating three-dimensional perspective view images showing a landscape inside a building from a three-dimensional data as a viewpoint moves in a so-called real-time walkthrough system. Therefore, the present invention relates to a collision detection device for a three-dimensional moving body that detects that a moving body such as a viewpoint collides with an obstacle structure.
【0002】[0002]
【従来の技術と発明が解決しようとする課題】いわゆる
コンピュータグラヒックス(CG)技術におけるリアル
タイム・ウォークスルーとは公知のように、いわゆるC
AD等で設計された建築物について、その建築物の内部
を歩きまわって見るような感覚で見えるように、建築物
の透視図様の三次元画像を表示するものであり、観察者
を代表する点として定める視点の移動に合わせて、視点
から所要の方向を見た場合の視野内の三次元画像を生成
して、アニメーション表示する手法であり、リアルタイ
ム・ウォークスルーは、建築物のプレゼンテーション等
の分野で有効な技術となっている。2. Description of the Related Art As is well known as the so-called real-time walkthrough in so-called computer graphics (CG) technology, so-called C
It displays a three-dimensional image of a building designed by AD etc. so that it looks like walking through the inside of the building, and represents an observer. A real-time walkthrough is a technique for generating a three-dimensional image in the field of view when viewing a required direction from the viewpoint according to the movement of the viewpoint defined as a point, and displaying the animation. It is an effective technology in the field.
【0003】ここで、自然に見える良質の画像を表示す
るためには極めて高速のリアルタイム画像処理が要求さ
れるが、三次元画像処理は一般に計算量が膨大であり、
通常の計算機では1フレームの画像作成に数秒ないし数
分を要する。Here, extremely high-speed real-time image processing is required to display a high quality image that looks natural, but three-dimensional image processing generally requires a huge amount of calculation.
It takes a few seconds to a few minutes to create one frame image with a general computer.
【0004】そのために、三次元画像生成のための専用
のハードウェアが開発され、それを用いることによって
毎秒数フレームないし数十フレームを生成することが可
能となってきた。Therefore, dedicated hardware for three-dimensional image generation has been developed, and by using it, it has become possible to generate several frames to several tens of frames per second.
【0005】しかしリアルタイム・ウォークスルーに特
有の問題もあり、特に例えばオペレータが建物の中を自
由に歩きまわるように、経路をマウス等の入力手段で指
示し、その指示に伴って内部の景観を表示する場合等
に、その入力を容易にすることが必要であり、そのため
に設ける機能の一つとして、観察者と構造物等との衝突
検出がある。However, there is a problem peculiar to the real-time walkthrough. In particular, for example, the operator uses an input means such as a mouse to instruct a route so that the operator can freely walk in the building, and the interior scenery is accompanied by the instruction. In the case of displaying, it is necessary to facilitate the input, and one of the functions provided for that purpose is the collision detection between the observer and the structure.
【0006】ここで衝突検出とは、前記視点のような移
動体の点が建築物等で本来入れない所を通ってしまう
(例えば壁の中を突き抜ける)ような移動を行うことを
検出することをいい、そのようなことを検出した場合に
は、本来あり得ない画像を表示することを避け、例えば
警告を発して指示を改めさせる等の処置をする必要があ
る。Here, the collision detection is to detect the movement of a point of a moving body such as the above-mentioned viewpoint such that it passes through a place where a building or the like cannot originally enter (eg, penetrates through a wall). When such a thing is detected, it is necessary to avoid displaying an image that is impossible in nature and take measures such as issuing a warning and revising the instruction.
【0007】一般的な衝突検出では、対象の三次元デー
タで表される空間について、壁や設置物等の障害物を指
定しておき、移動体の移動経路が、空間内のそれらすべ
ての障害物と交差しないことを、移動ごとに識別する処
理を行うので、衝突検出には比較的長い処理時間を要す
る。In general collision detection, obstacles such as walls and installations are specified in the space represented by the target three-dimensional data, and the moving path of the moving body is such that all obstacles in the space are obstructed. Since a process of identifying that the object does not intersect with each other is performed for each movement, the collision detection requires a relatively long processing time.
【0008】本発明は、建築物内のリアルタイム・ウォ
ークスルー等の条件における衝突検出を高速に実行でき
る三次元移動体の衝突検知装置を目的とする。It is an object of the present invention to provide a collision detecting device for a three-dimensional moving body capable of executing collision detection at high speed under conditions such as real-time walkthrough in a building.
【0009】[0009]
【課題を解決するための手段】図1は、本発明の構成を
示すブロック図である。図は三次元移動体の衝突検知装
置の構成であって、三次元データによって表される三次
元空間内の構造物について、該構造物に設定した基準平
面に関して、該基準平面に平行な移動平面内を移動する
点で代表される移動体と、該基準平面上に配置されてい
る構造物との衝突を検知する装置であって、平面図記憶
部1と、指示部2と、判定部3と、前位置記憶部4とを
有する。FIG. 1 is a block diagram showing the configuration of the present invention. The figure shows the structure of a collision detection device for a three-dimensional moving body, and for a structure in a three-dimensional space represented by three-dimensional data, a moving plane parallel to the reference plane set for the structure. A device for detecting a collision between a moving body represented by a point moving inside and a structure arranged on the reference plane, which is a plan view storage unit 1, an instruction unit 2, and a determination unit 3. And a front position storage unit 4.
【0010】第1の発明において、平面図記憶部1は、
該移動平面でクリッピングした該三次元データに関し
て、該移動平面から該基準平面までに配置されている構
造物を、該基準平面に平行投影した図形を表す二次元デ
ータを平面図5として保持している。In the first invention, the plan view storage unit 1 is
With respect to the three-dimensional data clipped on the moving plane, two-dimensional data representing a figure obtained by projecting the structures arranged from the moving plane to the reference plane in parallel onto the reference plane is held as a plan view 5. There is.
【0011】指示部2は、該移動体を代表する点の各現
位置を該基準平面上に投影した点を示す二次元座標値を
現位置座標として判定部3に順次入力する。判定部3
は、線分生成部6と、交差検出部7とを有し、線分生成
部6は、指示部2から入力された該現位置座標と該前位
置記憶部に記憶する座標とで表される両点を結ぶ線分を
生成する。The instructing unit 2 sequentially inputs the two-dimensional coordinate values indicating the points where the respective current positions of the points representing the moving body are projected on the reference plane, to the determining unit 3 as the current position coordinates. Judgment unit 3
Has a line segment generation unit 6 and an intersection detection unit 7. The line segment generation unit 6 is represented by the current position coordinates input from the instruction unit 2 and the coordinates stored in the previous position storage unit. A line segment connecting the two points is generated.
【0012】交差検出部7は、平面図記憶部1に保持す
る平面図5について、平面図5の該平行投影された構造
物と、線分生成部6が生成した線分との交差を識別し
て、該交差の有無を指示部2に返し、前位置記憶部4は
記憶内容を判定部3の処理した該現位置座標に更新す
る。The crossing detection unit 7 identifies the crossing between the parallel-projected structure of the plan view 5 and the line segment generated by the line segment generation unit 6 in the plan view 5 held in the plan view storage unit 1. Then, the presence / absence of the intersection is returned to the instruction unit 2, and the previous position storage unit 4 updates the stored contents to the current position coordinates processed by the determination unit 3.
【0013】第2の発明において、前記平面図記憶部1
の保持する前記平面図5には色指定を有し、前記基準平
面が該平面図上に表れているすべての部分には識別色と
する所定の色が指定され、他の部分すべてには該識別色
以外の色が指定されていて、前記交差検出部7の前記交
差の識別では、前記線分上のすべての点に対応する部分
の該色指定が該識別色であることにより交差が無いと識
別する。In the second invention, the plan view storage unit 1
5 has a color designation, all the portions where the reference plane appears on the plan view are designated with a predetermined color as an identification color, and all the other portions have the color designation. When a color other than the identification color is designated and the intersection detection unit 7 identifies the intersection, there is no intersection because the color designation of the portions corresponding to all points on the line segment is the identification color. To identify.
【0014】[0014]
【作用】本発明の三次元移動体の衝突検知装置により、
床面等の基準平面に対して、移動体が基準平面に平行な
移動平面内を移動する場合における衝突検出を、構造物
をその基準平面に投影した平面図を表す二次元データの
みを使用して、移動体の移動経路と障害物との交差を識
別することにより衝突を検出するので、三次元空間内の
すべての障害物について識別する必要が無く、高速に衝
突検出の処理を行うことができる。With the collision detecting device for a three-dimensional moving body according to the present invention,
With respect to a reference plane such as a floor surface, collision detection when a moving object moves in a movement plane parallel to the reference plane is performed using only two-dimensional data representing a plan view of a structure projected on the reference plane. Since the collision is detected by identifying the intersection of the moving path of the moving body and the obstacle, it is not necessary to identify all the obstacles in the three-dimensional space, and the collision detection process can be performed at high speed. it can.
【0015】建築物の内部のリアルタイム・ウォークス
ルー等で、観察者が或る部屋の内部を移動して見る場合
には、通常は観察者は当然その部屋の床面上を移動し、
従っておよそ観察者の眼の位置に設定される視点は、床
面から一定の高さで床面に平行な平面内を移動すること
になる。When an observer moves inside a certain room for real-time walkthrough or the like inside a building, the observer usually moves naturally on the floor of the room,
Therefore, the viewpoint set at the position of the eyes of the observer moves in a plane parallel to the floor surface at a constant height from the floor surface.
【0016】従って、そのようなリアルタイム・ウォー
クスルー等の場合に、上記の視点、床面、及び視点の移
動する平面を、それぞれ前記の移動体、基準平面、移動
平面に対応付ければ、平面図を使用して衝突検出を行う
ことが可能になる。Therefore, in the case of such a real-time walkthrough, if the viewpoint, the floor surface, and the plane on which the viewpoint moves are associated with the moving body, the reference plane, and the moving plane, respectively, a plan view. Can be used to perform collision detection.
【0017】又、平面図に色指定を設ける場合に、基準
平面とする例えば床面の色を他の構造物等と区別できる
色にしておけば、交差の識別を色の識別に代えて、視点
の移動経路の線分上の画素すべてが床面の色であれば非
衝突とし、一部でも床面と異なる色の画素があれば衝突
として判定することにより、更に衝突検出を高速化でき
る。Further, when color designation is provided in the plan view, if the color of the reference plane, for example, the floor surface is set to be a color distinguishable from other structures, the intersection identification is replaced by the color identification, Collision detection can be further speeded up by determining that all pixels on the line segment of the moving path of the viewpoint are non-collisions if they are the color of the floor surface, and even if some pixels have a color different from the floor surface, they are considered as collisions. .
【0018】[0018]
【実施例】図2は本発明の一実施例を示すブロック図で
あって、利用者が入力部21から入力するフロア指定、擬
似観察者の移動経路指定に従って、三次元データ28とし
て保持する建造物の三次元画像データにより、その建造
物内について前記のようなリアルタイム・ウォークスル
ーを行い、視野設定部22、画像生成部23により順次生成
する透視図をディスプレイ29に表示するシステムであ
る。[Embodiment] FIG. 2 is a block diagram showing an embodiment of the present invention, in which the building is stored as three-dimensional data 28 according to the floor designation input by the user from the input unit 21 and the movement route designation of the pseudo observer. This is a system for performing a real-time walkthrough on the inside of a building based on the three-dimensional image data of an object and displaying on the display 29 a perspective view sequentially generated by the field-of-view setting unit 22 and the image generating unit 23.
【0019】そのリアルタイム・ウォークスルーの間の
観察者の移動における衝突検出のために、視野設定部22
に平面図管理部24と本発明の衝突検知装置30が接続され
ている。The field-of-view setting unit 22 is used for collision detection in the movement of the observer during the real-time walkthrough.
The plan view management unit 24 and the collision detection device 30 of the present invention are connected to the.
【0020】三次元データ28は、例えばしばしば行われ
るように曲面を適当な大きさの多角形平面で近似する方
法により、多数の多角形平面のみで所要の画像を構成す
るようにしたデータである。The three-dimensional data 28 is, for example, a data which is formed by a method of approximating a curved surface with a polygonal plane of an appropriate size so that a desired image is constituted by only a large number of polygonal planes. .
【0021】その場合の各多角形平面を定義するデータ
(以下に多角形データという)は、その平面を限定する
多角形の頂点を示す三次元座標を、平面の表面側から見
て一定の方向に多角形を一周するように並べたデータ
と、その平面の色指定等からなり、各多角形データは概
念的に「(x1,y1,z1),(x2,y2,z2),(x3,y3,z3),..., 色指
定,...」のような情報である。In this case, the data defining each polygonal plane (hereinafter referred to as polygon data) has a fixed direction when the three-dimensional coordinates indicating the vertices of the polygon that limit the plane are viewed from the surface side of the plane. Each polygon data is conceptually represented as `` (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ), (x 3 , y 3 , z 3 ), ..., color designation, ... ".
【0022】三次元座標は、水平面にX及びZ軸を有
し、垂直(高さ)方向にY軸を有する画像空間の座標と
し、例えば建造物の床面をXZ軸で作る平面に平行とす
る。三次元データ28は、そのような多角形データの集ま
りを、例えば各部屋ごとのデータに区分してアクセス可
能なように構成されているものとする。The three-dimensional coordinates are coordinates in an image space having X and Z axes in the horizontal plane and Y axis in the vertical (height) direction, and are, for example, parallel to the plane of the floor of the building constructed by the XZ axes. To do. It is assumed that the three-dimensional data 28 is configured such that a collection of such polygonal data is divided into, for example, data for each room and can be accessed.
【0023】図3は図2のシステムのリアルタイム・ウ
ォークスルー処理の全体の処理の流れの一例を示す図で
あり、本例のシステムでは利用者が入力部21から観察し
たい部屋を先ず指定し、次いで指定の部屋の一定の位置
から始まる擬似観察者の視点(例えば部屋の床面の上に
立った人の眼の位置付近として定める1点) の移動経路
を逐次指定し、終了指定によりその部屋の観察を終了す
るものとする。FIG. 3 is a diagram showing an example of the overall processing flow of the real-time walkthrough processing of the system of FIG. 2. In the system of this example, the user first designates the room to be observed from the input section 21, Next, the movement path from the viewpoint of the pseudo observer (for example, one point defined as near the eye position of the person standing on the floor of the room) starting from a certain position in the specified room is sequentially specified, and the room is specified by the end specification. The observation of shall be terminated.
【0024】図3において、利用者の入力する指定を処
理ステップ40で入力部21から視野設定部22が受け取る
と、処理ステップ41で視野設定部22は、その指定が部屋
の指定か、視点の位置及び進行方向の指定か、終了の指
定か識別する。In FIG. 3, when the visual field setting unit 22 receives the designation input by the user from the input unit 21 in the processing step 40, the visual field setting unit 22 determines in the processing step 41 whether the designation is a room or a viewpoint. Identify whether the position and the direction of travel or the end are specified.
【0025】部屋の指定であれば視野設定部22は処理ス
テップ42で、その部屋のリアルタイム・ウォークスルー
を開始する準備として、例えば予め保持するテーブルに
よって、三次元データ28中にある画像データで、指定さ
れた部屋に対応する画像データのアドレスと、その擬似
観察者の視点の出発点の位置を示す3次元座標を識別し
て記憶する等の初期設定を行うと共に、その画像データ
のアドレスを平面図管理部24に通知し、視点の出発点位
置を衝突検知装置30に通知する。If a room is designated, the field-of-view setting unit 22 prepares to start the real-time walkthrough of the room in the processing step 42, for example, by a table held in advance, by the image data in the three-dimensional data 28. The address of the image data corresponding to the designated room and the three-dimensional coordinates indicating the position of the starting point of the viewpoint of the pseudo observer are identified and stored, and the address of the image data is set to a plane. The diagram management unit 24 is notified, and the collision detection device 30 is notified of the starting point position of the viewpoint.
【0026】以後、視野設定部22は前記視点が出発点の
Y軸座標で定まる高さの床面に平行な平面を移動平面と
して、終了指定があるまで視点はこの移動平面内を移動
するものとして処理する。Thereafter, the visual field setting unit 22 sets a plane parallel to the floor surface having a height determined by the Y-axis coordinate of the starting point as a moving plane, and the viewpoint moves in this moving plane until the end is designated. Process as.
【0027】処理ステップ43で、平面図管理部24は通知
を受けた部屋の画像データに基づいて作成された平面図
を衝突検知装置30に渡し、衝突検知装置30はこれを平面
図35として平面図記憶部31に保持し、又視点の出発点位
置を前位置記憶部34に記憶して、処理ステップ40に戻
る。なお、この平面図は後述のようにして三次元データ
28の当該部屋の画像データから作成するか、又はそのよ
うにして予め作成された平面図が平面図データ27として
保存されている。In process step 43, the plan view management unit 24 passes the plan view created based on the image data of the notified room to the collision detection device 30, and the collision detection device 30 sets the plan view 35 as a plan view. It is held in the figure storage unit 31, and the starting point position of the viewpoint is stored in the front position storage unit 34, and the process returns to step 40. In addition, this plan view is the three-dimensional data as described later.
A plan view created from the image data of the room in 28 or created in advance in such a manner is stored as the plan view data 27.
【0028】処理ステップ41で、視点の位置と進行方向
との指定であると識別した場合には、処理ステップ44で
部屋の指定済み (従って処理ステップ42の初期設定等が
終わっている) か識別し、部屋を未指定であれば処理ス
テップ45で、利用者に対しエラーの通知を発して処理ス
テップ40に戻る。When it is identified in the processing step 41 that the position of the viewpoint and the traveling direction are designated, it is identified in the processing step 44 whether the room has been designated (thus, the initial setting of the processing step 42 is completed). If the room has not been designated, an error notification is issued to the user in process step 45, and the process returns to process step 40.
【0029】部屋指定済みであれば処理ステップ46で、
視野設定部22から衝突検知装置30に対して視点の現位置
座標を渡して衝突検出を要求するので、衝突検知装置30
は処理ステップ47で後述のように平面図35を使用して衝
突検出処理を行って、衝突の有無を示す結果を視野設定
部22に返す。If the room has been designated, in step 46,
Since the visual field setting unit 22 passes the current position coordinates of the viewpoint to the collision detection device 30 to request collision detection, the collision detection device 30
In process step 47, the collision detection process is performed using the plan view 35 as will be described later, and the result indicating the presence or absence of a collision is returned to the visual field setting unit 22.
【0030】視野設定部22は処理ステップ48で衝突の有
無を識別し、衝突が無ければ処理ステップ49で、視点の
現位置から指定の方向の視野を設定し、画像生成部23に
視野を指定して、画像生成部23は指定の視野の三次元透
視画像を生成して、ディスプレイ29に表示する。The visual field setting unit 22 identifies the presence or absence of a collision in processing step 48. If there is no collision, the visual field setting unit 22 sets the visual field in the designated direction from the current position of the visual point, and designates the visual field in the image generation unit 23. Then, the image generation unit 23 generates a three-dimensional perspective image of the specified field of view and displays it on the display 29.
【0031】衝突が有った場合には、処理ステップ50で
利用者に再入力を要求し処理ステップ40に戻る。視野設
定部22が処理ステップ41で、終了指定と識別した場合に
は、処理ステップ51で、前に部屋の指定で設定した諸制
御情報等をクリアし、処理ステップ40に戻る。If there is a collision, processing step 50 requests the user to re-input, and the processing returns to processing step 40. When the visual field setting unit 22 identifies the end designation in the processing step 41, the control information and the like previously set in the room designation are cleared in the processing step 51, and the process returns to the processing step 40.
【0032】本発明の衝突検知装置30が衝突検出のため
に使用する前記の平面図35は、移動平面でクリッピング
した、三次元データ28の例えば部屋ごとのデータに関し
て、移動平面から基準平面とする床面までに配置されて
いる構造物を、床面に平行投影した図形を表す二次元デ
ータ」である。The above-mentioned plan view 35 used by the collision detection device 30 of the present invention for collision detection is taken from the moving plane to the reference plane with respect to the three-dimensional data 28 clipped at the moving plane, for example, data for each room. It is "two-dimensional data representing a figure in which a structure arranged up to the floor is projected in parallel onto the floor".
【0033】このような平面図は、床面をy=αの平
面、移動平面をy=βとした場合に、三次元データ28か
ら次のように図4に例示する処理によって作成できるこ
とは明らかである。It is clear that such a plan view can be created from the three-dimensional data 28 by the process illustrated in FIG. 4 as follows when the floor surface is a plane of y = α and the moving plane is y = β. Is.
【0034】即ち、三次元データ28の或る部屋のデータ
について、図4の処理ステップ52で多角形データを一つ
づつ読み出して、処理ステップ53で前記のような各多角
形データの頂点座標の並び「(x1,y1,z1),(x2,y2,z2),(x
3,y3,z3),...」で、各頂点のY座標をβと比較し、すべ
ての頂点のY座標がβより大きければ多角形平面全体が
移動平面より上にあるので、その多角形平面は捨てて処
理ステップ52に戻り次の多角形データを処理する。That is, with respect to the data of a certain room in the three-dimensional data 28, polygon data are read one by one in the processing step 52 of FIG. 4, and the vertex coordinates of each polygon data as described above are read in the processing step 53. The sequence `` (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ), (x
3 , y 3 , z 3 ), ... ", the Y coordinate of each vertex is compared with β, and if the Y coordinate of all the vertices is larger than β, the entire polygon plane is above the moving plane. The polygon plane is discarded and the process returns to the processing step 52 to process the next polygon data.
【0035】Y座標がβ以下の頂点がある場合には、処
理ステップ54で全頂点のY座標がβ以下か識別し、すべ
てβ以下ならその多角形平面全体が移動平面より下にあ
るので、処理ステップ57でその各頂点のX及びZ座標か
らなる二次元多角形データに変換する。If there are vertices whose Y coordinates are less than or equal to β, it is discriminated whether or not the Y coordinates of all vertices are less than or equal to β in processing step 54. If all are less than or equal to β, the entire polygonal plane is below the moving plane. In processing step 57, the data is converted into two-dimensional polygon data composed of X and Z coordinates of each vertex.
【0036】又Y座標がβより大きい頂点を含む場合
は、処理ステップ55でY座標がβより大きい頂点と、そ
れに隣接しY座標がβ以下の頂点とを結ぶ多角形の辺に
ついて、移動平面y=βとの交点を求める。When the Y coordinate includes a vertex larger than β, in step 55, the moving plane is moved with respect to the side of the polygon connecting the vertex having the Y coordinate larger than β and the adjacent vertex having the Y coordinate smaller than β. Find the intersection with y = β.
【0037】処理ステップ56で、求まった各交点と、元
の頂点のうちのY座標がβ以下の頂点とを新たな多角形
の頂点とし、その他の色指定等情報は元のデータを受け
継いだ多角形データを生成した後、処理ステップ57でそ
れを前記と同様に二次元多角形データに変換する。In the processing step 56, each intersection obtained and the vertex whose Y coordinate of the original vertex is β or less are set as the vertex of the new polygon, and other color designation information inherits the original data. After the polygon data is generated, it is converted to two-dimensional polygon data in the processing step 57 in the same manner as described above.
【0038】その後処理ステップ58で三次元データ28の
必要な全データを処理したか識別し、未処理があれば処
理ステップ52に戻って次の多角形データを処理し、以上
により集積される二次元多角形データで平面図が構成さ
れる。なお、三次元データ28の多角形データで表される
多角形はすべて外側に凸な多角形とする。After that, in processing step 58, it is identified whether all necessary data of the three-dimensional data 28 have been processed, and if there is any unprocessed data, the processing returns to processing step 52 to process the next polygonal data, and the two pieces of data are accumulated. A plan view is composed of three-dimensional polygon data. It should be noted that all polygons represented by the polygon data of the three-dimensional data 28 are outwardly convex polygons.
【0039】図5は、以上のようにして作成される平面
図と元の三次元データで表される画像との関係を簡単な
例で説明する図であり、図5(a) が三次元データで表さ
れる立体画像、(b)がその平面図であり、(a)で棚状突起
物T1は一部が移動平面より上にあるので、移動平面でク
リッピングされて、下の部分のみ(本例では、説明のた
めに斜線網かけ模様で示す面)が(b)のT1'のように投影
され、机状突起物T2のように全体が移動平面の下にある
ものはそのままT2' のように投影されて平面図が作成さ
れる。FIG. 5 is a diagram for explaining the relationship between the plan view created as described above and the image represented by the original three-dimensional data by a simple example. FIG. The stereoscopic image represented by the data, (b) is its plan view, and in (a) the shelf protrusion T1 is partly above the moving plane, so it is clipped by the moving plane, and only the lower part is clipped. (In this example, the surface shown by the diagonally shaded pattern for the purpose of explanation) is projected as T1 'in (b), and the one that is entirely under the moving plane, such as the desk-shaped protrusion T2, remains in T2. A plan is created by projecting like '.
【0040】以上で作成された平面図を使用して衝突検
出を行うには、後述のようにして設定する視点の移動経
路の線分が前記で生成される二次元の多角形の何れかと
交差することを衝突として検出すればよい。In order to perform collision detection using the plan view created above, the line segment of the moving path of the viewpoint set as described later intersects with any of the two-dimensional polygons generated above. What to do may be detected as a collision.
【0041】即ち、視点が移動平面を移動した場合に、
その平面図上への投影は、障害物の投影図形との位置関
係において、図5(b)のp点を前位置として矢印線の矢
の先端の点a1、a2又はa3が現位置となるような3つの場
合があり得る。That is, when the viewpoint moves on the moving plane,
In the projection on the plan view, the point a 1 , a 2 or a 3 at the tip of the arrow is the current position with the point p in FIG. 5 (b) as the front position in the positional relationship with the projected figure of the obstacle. There can be three cases of position.
【0042】それらの場合において、図から明らかなよ
うに、a1の場合の矢印線(移動経路の前位置と現位置を
結ぶ線分に相当)は何れの障害物図形とも交差していな
いので衝突が無い場合となる。In those cases, as is clear from the figure, the arrow line in the case of a 1 (corresponding to the line segment connecting the previous position and the current position of the movement route) does not intersect with any obstacle figure. It is when there is no collision.
【0043】a2は視点の現位置が障害物図形の内部に止
まっている場合であり、a3は現位置は障害物図形の外に
あるが、現位置と前位置を結ぶ線分が障害物図形を通過
している場合であるが、図の矢印線から明らかなよう
に、何れも障害物の図形(T1')と交差があるので衝突が
有る場合となる。[0043] a 2 is a case where the current position of the viewpoint is stopped inside the obstacle figure, a 3 is the current position is outside of the obstacle shape, a line segment connecting the current position and the previous position failure Although it is passing through the object figure, as is clear from the arrow line in the figure, there is a collision because there is an intersection with the obstacle figure (T1 ').
【0044】平面図上の図形と線分との交差の検出は、
二次元多角形データで表される各多角形の各辺の線分
と、視点移動経路の線分との交点を求める計算によって
行うことができるが、床面と、床面以外の構造物や備品
等とを異なる色指定にし、床面に指定する色(複数の色
でもよい)を識別色として、識別色を床面以外の部分に
使わないようにすれば、色によって交差を識別できる。The detection of the intersection between the figure on the plan view and the line segment is
This can be done by calculating the intersection of the line segment of each side of each polygon represented by the two-dimensional polygon data and the line segment of the viewpoint movement route. If a color different from that of equipment is designated, and a color (or a plurality of colors) designated on the floor surface is used as an identification color, and the identification color is not used for a portion other than the floor surface, the intersection can be identified by the color.
【0045】そのように色指定で交差を識別する場合に
は、前記の処理で生成された二次元多角形データから、
ディスプレイ等に表示する場合と同様の画素ごとの色を
示すデータを生成して、これを平面図とする。When the intersection is identified by the color designation as described above, from the two-dimensional polygon data generated by the above processing,
Similar to the case of displaying on a display or the like, data indicating a color for each pixel is generated and used as a plan view.
【0046】そのような色指定平面図は、例えば所要の
全画素について各画素に対応して色指定情報を保持する
データを、各画素の画素座標で索引できるように配置
し、先ず全画素のデータを床面の或る識別色に設定した
後、各二次元多角形データに従う多角形領域に対応する
画素の色指定を、その二次元多角形データに指定されて
いる色指定に更新していくことにより作成される。In such a color designation plan view, for example, data holding color designation information corresponding to each pixel for all required pixels is arranged so that it can be indexed by pixel coordinates of each pixel. After setting the data to a certain color of the floor, update the color designation of the pixel corresponding to the polygonal area according to each 2D polygon data to the color designation specified in the 2D polygon data. It is created by going.
【0047】二次元多角形データで表される図形と、色
指定平面図の画素との対応付けは、図形について適当な
小間隔で取る各点の座標を、一定の線形変換によって画
素座標に変換することにより行う。The correspondence between the figure represented by the two-dimensional polygon data and the pixels of the color-designed plan view is such that the coordinates of each point taken at appropriate small intervals in the figure are converted into pixel coordinates by a constant linear conversion. By doing.
【0048】図7は、このような画素の色指定データか
らなる色指定平面図を概念的に説明する図であり、ベッ
ド、机、洗面台その他の構造物の有る室内の平面図であ
り、それらの構造物で隠されない床面に、網かけ模様で
示すように識別色(床と出入口で異なる2色がある)の
色指定がされ、白地のままの部分は識別色以外の色の色
指定とされる。FIG. 7 is a view for conceptually explaining a color designation plan view composed of such color designation data of pixels, and is a plan view of a room having a bed, a desk, a wash basin and other structures. On the floor surface that is not hidden by those structures, the color of the identification color (there are two different colors at the floor and the entrance) is designated as shown by the shaded pattern, and the part that is still white is a color other than the identification color. It is designated.
【0049】図2において、衝突検知装置30は平面図記
憶部31、指示部32、判定部33、前位置記憶部34からな
り、各部はそれぞれ図1の平面図記憶部1、指示部2、
判定部3、前位置記憶部4に対応する。In FIG. 2, the collision detection device 30 comprises a plan view storage section 31, an instruction section 32, a determination section 33, and a front position storage section 34, and each section is a plan view storage section 1, an instruction section 2, and a front position storage section in FIG.
It corresponds to the determination unit 3 and the front position storage unit 4.
【0050】又判定部33は、図1の線分生成部6及び交
差検出部7に対応する、線分生成部36及び交差検出部37
からなる。図6は衝突検知装置30の処理の流れの一例を
示す図であり、この衝突検知装置30は識別色によって交
差検出を行うものとし、このために交差検出部7には、
必要な識別色の色指定が予め記憶されているものとす
る。Further, the judging section 33 corresponds to the line segment generating section 6 and the intersection detecting section 7 in FIG. 1, and corresponds to the line segment generating section 36 and the intersection detecting section 37.
Consists of. FIG. 6 is a diagram showing an example of the flow of processing of the collision detection device 30, and the collision detection device 30 is supposed to perform intersection detection based on the identification color.
It is assumed that the necessary color designation of the identification color is stored in advance.
【0051】衝突検知装置30は図6の処理ステップ10で
前記のように視野設定部22から視点の出発点位置又は現
位置を受け取って処理を開始する。例えば前記XZ軸の
二次元座標によって示す視点の位置を、出発点位置又は
現位置の別を示す情報と共に指示部32が受け取ると、処
理ステップ11でその情報種別を識別して、出発点位置の
場合には処理ステップ12で前位置記憶部34に前位置とし
てその座標値を記憶し、処理ステップ10に戻る。The collision detection device 30 receives the starting point position or the current position of the viewpoint from the visual field setting section 22 and starts the process in the processing step 10 of FIG. For example, when the instruction unit 32 receives the position of the viewpoint indicated by the two-dimensional coordinates of the XZ axis together with the information indicating the start point position or the current position, the information type is identified in processing step 11 to determine the start point position. In that case, the coordinate value is stored as the previous position in the previous position storage unit 34 in the processing step 12, and the process returns to the processing step 10.
【0052】現位置であれば判定部33に現位置座標を渡
すので、線分生成部36が処理ステップ13で現位置座標と
前位置記憶部34に保持する前位置座標とで表される両点
を結ぶ線分を定める。If it is the current position, the current position coordinates are passed to the determination unit 33, so that the line segment generation unit 36 uses the current position coordinates and the previous position coordinates stored in the previous position storage unit 34 in processing step 13. Determine the line segment connecting the points.
【0053】この線分について、交差検出部37が平面図
記憶部31に平面図管理部24から渡されている平面図35
(色指定平面図)を使用して、線分と平面図上の障害物
図形との交差を検出するために、処理ステップ14で前記
線分上の点を平面図の画素に対応付ける変換を前記のよ
うに行い、対応する画素の色指定を調べる。For this line segment, the crossing detection unit 37 is passed to the plan view storage unit 31 from the plan view management unit 24 in plan view 35.
In order to detect the intersection of the line segment and the obstacle figure on the floor plan using (color-designed floor plan), the transformation for associating the point on the line segment with the pixel of the floor plan in the processing step 14 is performed. And check the color designation of the corresponding pixel.
【0054】処理ステップ15で、色を調べた結果を識別
し、線分に対応する画素の指定色がすべて識別色であっ
た場合には、処理ステップ16で指示部32を経て視野設定
部22に衝突無しを通知し、処理ステップ17で前位置記憶
部34の記憶を視点の現位置の値に更新して処理ステップ
10に戻る。In the processing step 15, the result of checking the color is identified, and if all the designated colors of the pixels corresponding to the line segment are the identification colors, the visual field setting section 22 is passed through the instruction section 32 in the processing step 16. Is notified of no collision, and in processing step 17, the memory of the previous position storage unit 34 is updated to the value of the current position of the viewpoint, and the processing step is performed.
Return to 10.
【0055】処理ステップ15で、線分に対応する画素の
中に1画素でも識別色と異なる色の色指定があったと識
別した場合には、処理ステップ18で、視野設定部22に衝
突有りを通知して処理ステップ10に戻る。When it is determined in processing step 15 that even one pixel has a color different from the identification color in the pixels corresponding to the line segment, in processing step 18, the visual field setting unit 22 is informed that there is a collision. Notify and return to processing step 10.
【0056】[0056]
【発明の効果】以上の説明から明らかなように本発明に
よれば、リアルタイム・ウォークスルーにおける視点等
の移動体の移動における衝突検出処理において、移動体
の衝突検出を高速に処理できるという著しい工業的効果
がある。As is clear from the above description, according to the present invention, in the collision detection processing in the movement of the moving body such as the viewpoint in the real-time walkthrough, the collision detection of the moving body can be processed at high speed. Have a positive effect.
【図1】 本発明の構成を示すブロック図FIG. 1 is a block diagram showing the configuration of the present invention.
【図2】 本発明の実施例を示すブロック図FIG. 2 is a block diagram showing an embodiment of the present invention.
【図3】 本発明実施例の処理の流れ図FIG. 3 is a flow chart of processing of an embodiment of the present invention.
【図4】 平面図作成処理の流れ図FIG. 4 is a flow chart of a floor plan creation process.
【図5】 平面図を説明する図FIG. 5 is a diagram illustrating a plan view.
【図6】 衝突検知装置の処理の流れ図FIG. 6 is a flowchart of processing of the collision detection device.
【図7】 色指定平面図の例を説明する図FIG. 7 is a diagram illustrating an example of a color designation plan view.
1、31 平面図記憶部 2、32 指示部 3、33 判定部 4、34 前位置記憶部 5、35 平面図 6、36 線分生成部 7、37 交差検出部 10〜18、40〜58 処理ステップ 21 入力部 22 視野設定部 23 画像生成部 24 平面図管理部 27 平面図データ 28 三次元データ 29 ディスプレイ 30 衝突検知装置 1, 31 Plan view storage unit 2, 32 Instruction unit 3, 33 Judgment unit 4, 34 Previous position storage unit 5, 35 Plan view 6, 36 Line segment generation unit 7, 37 Crossing detection unit 10-18, 40-58 Processing Step 21 Input section 22 Field of view setting section 23 Image generation section 24 Floor plan management section 27 Floor plan data 28 Three-dimensional data 29 Display 30 Collision detection device
Claims (2)
間内の構造物について、該構造物に設定した基準平面に
関して、該基準平面に平行な移動平面内を移動する点で
代表される移動体と、該基準平面上に配置されている構
造物との衝突を検知する装置であって、 平面図記憶部(1)と、指示部(2)と、判定部(3)と、前位
置記憶部(4)とを有し、 該平面図記憶部(1)は、該移動平面でクリッピングした
該三次元データに関して、該移動平面から該基準平面ま
でに配置されている構造物を、該基準平面に平行投影し
た図形を表す二次元データを平面図(5)として保持して
おり、 該指示部(2)は、該移動体を代表する点の各現位置を該
基準平面上に投影した点を示す二次元座標値を現位置座
標として該判定部(3)に順次入力し、 該判定部(3)は、線分生成部(6)と、交差検出部(7)とを
有し、 該線分生成部(6)は、該指示部(3)から入力された該現位
置座標と該前位置記憶部(4)に記憶する座標とで表され
る両点を結ぶ線分を生成し、 該交差検出部(7)は、該平面図記憶部(1)に保持する該平
面図(5)を参照して、該平面図の該平行投影された構造
物と、該線分生成部(6)が生成した線分との交差を識別
して、該交差の有無を該指示部(2)に返し、 該前位置記憶部(4)は、記憶内容を該判定部(3)の処理し
た該現位置座標に更新するように構成されている三次元
移動体の衝突検知装置。1. For a structure in a three-dimensional space represented by three-dimensional data, with respect to a reference plane set in the structure, a moving body represented by a point moving in a movement plane parallel to the reference plane. And a device for detecting a collision with a structure arranged on the reference plane, comprising a plan view storage unit (1), an instruction unit (2), a determination unit (3), and a front position storage unit. The plan view storage unit (1) has a section (4), and the three-dimensional data clipped by the moving plane, the structure arranged from the moving plane to the reference plane is used as the reference. Two-dimensional data representing a figure projected in parallel on a plane is held as a plan view (5), and the pointing unit (2) projects each current position of a point representing the moving body onto the reference plane. The two-dimensional coordinate values indicating the points are sequentially input to the determination unit (3) as the current position coordinates, and the determination unit (3) is connected to the line segment generation unit (6). An intersection detection unit (7), and the line segment generation unit (6) uses the current position coordinates input from the instruction unit (3) and the coordinates stored in the previous position storage unit (4). The intersection detecting unit (7) refers to the plan view (5) held in the plan view storage unit (1) to generate a line segment connecting the two points, and displays the parallel line of the plan view. The intersection between the projected structure and the line segment generated by the line segment generation unit (6) is identified, the presence or absence of the intersection is returned to the instruction unit (2), and the front position storage unit (4) Is a collision detection device for a three-dimensional moving body, which is configured to update the stored contents with the current position coordinates processed by the determination unit (3).
面図(5)には色指定を有し、前記基準平面が該平面図上
に表れているすべての部分には識別色とする所定の色が
指定され、他の部分すべてには該識別色以外の色が指定
されていて、 前記交差検出部(7)の前記交差の識別は、前記線分上の
すべての点に対応する部分の該色指定が該識別色である
ことにより交差が無いと識別する、請求項1記載の三次
元移動体の衝突検知装置。2. The plan view (5) held by the plan view storage section (1) has a color designation, and all the portions where the reference plane appears on the plan view are identified by an identification color. A predetermined color is specified, and a color other than the identification color is specified for all the other parts, and the identification of the intersection of the intersection detection unit (7) corresponds to all points on the line segment. The collision detection device for a three-dimensional moving body according to claim 1, wherein the collision designation device identifies that there is no intersection because the color designation of the portion to be performed is the identification color.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24340193A JPH07105409A (en) | 1993-09-30 | 1993-09-30 | Collision detector device for three-dimensional moving object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24340193A JPH07105409A (en) | 1993-09-30 | 1993-09-30 | Collision detector device for three-dimensional moving object |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07105409A true JPH07105409A (en) | 1995-04-21 |
Family
ID=17103318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24340193A Withdrawn JPH07105409A (en) | 1993-09-30 | 1993-09-30 | Collision detector device for three-dimensional moving object |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07105409A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6128018A (en) * | 1996-02-20 | 2000-10-03 | Namco, Ltd. | Simulation apparatus and information storage medium |
KR100778310B1 (en) * | 2005-12-08 | 2007-11-22 | 한국전자통신연구원 | Apparatus and Method for Detecting Collision in Graphic System |
US7663630B2 (en) | 2005-12-08 | 2010-02-16 | Electronics And Telecommunications Research Institute | Apparatus and method for processing collision information in graphic system |
-
1993
- 1993-09-30 JP JP24340193A patent/JPH07105409A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6128018A (en) * | 1996-02-20 | 2000-10-03 | Namco, Ltd. | Simulation apparatus and information storage medium |
WO2004090838A1 (en) * | 1996-02-20 | 2004-10-21 | Nobutaka Nakajima | Simulator and information storage medium |
KR100778310B1 (en) * | 2005-12-08 | 2007-11-22 | 한국전자통신연구원 | Apparatus and Method for Detecting Collision in Graphic System |
US7663630B2 (en) | 2005-12-08 | 2010-02-16 | Electronics And Telecommunications Research Institute | Apparatus and method for processing collision information in graphic system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3321889A1 (en) | Device and method for generating and displaying 3d map | |
US6023279A (en) | Method and apparatus for rapidly rendering computer generated images of complex structures | |
KR20160147495A (en) | Apparatus for controlling interactive contents and method thereof | |
US11854211B2 (en) | Training multi-object tracking models using simulation | |
JPH0785312A (en) | Three-dimensional time-varying picture generation device | |
EP1554698A1 (en) | Method and system for producing a pseudo three-dimensional display utilizing a two-dimensional display device | |
KR101659782B1 (en) | Method for providing of 3D indoor space information in user view point considering wall-collision | |
CN110956695A (en) | Information processing apparatus, information processing method, and storage medium | |
JP2907105B2 (en) | 3D display device | |
US20220343661A1 (en) | Method and device for identifying presence of three-dimensional objects using images | |
JPH07105409A (en) | Collision detector device for three-dimensional moving object | |
JP2020173629A (en) | Image processing system, virtual viewpoint video generation system, and control method and program of image processing system | |
KR20200018207A (en) | Systems and methods for rendering reflections | |
JP2001148028A (en) | Device and method for displaying graphic | |
US10445940B2 (en) | Modeling interactions between simulated characters and real-world objects for more realistic augmented reality | |
JP2001273523A (en) | Device and method for reducing three-dimensional data | |
JP2850851B2 (en) | Video display method and video display device | |
JP2511771B2 (en) | Image memory type image generator | |
KR102524149B1 (en) | Method and apparatus for creating virtual world | |
CN116385273B (en) | Method, system and storage medium for moving points in stepping panoramic roaming | |
US20230232110A1 (en) | Method of constructing front panorama of shelving from arbitrary series of frames based on shelving 3d model | |
JP3513024B2 (en) | View information determining apparatus, view information determining method, and recording medium storing a program for executing the view information determining method | |
KR20230062308A (en) | Image Output Apparatus and Method for Reducing Data Processing Time by Recognizing User Manipulation in Advance | |
JPH0282376A (en) | Projected diagram preapring system for three-dimensional object | |
CN112800162A (en) | Electronic map rendering method, device, equipment and computer program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20001226 |