JPH0944703A - Three-dimensional image processor - Google Patents

Three-dimensional image processor

Info

Publication number
JPH0944703A
JPH0944703A JP7195028A JP19502895A JPH0944703A JP H0944703 A JPH0944703 A JP H0944703A JP 7195028 A JP7195028 A JP 7195028A JP 19502895 A JP19502895 A JP 19502895A JP H0944703 A JPH0944703 A JP H0944703A
Authority
JP
Japan
Prior art keywords
event
dimensional image
coordinate
display
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7195028A
Other languages
Japanese (ja)
Other versions
JP3764191B2 (en
Inventor
Yukiko Oota
祐紀子 太田
Tsukasa Chiba
士 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Social Science Labs Ltd
Original Assignee
Fujitsu Social Science Labs Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Social Science Labs Ltd filed Critical Fujitsu Social Science Labs Ltd
Priority to JP19502895A priority Critical patent/JP3764191B2/en
Publication of JPH0944703A publication Critical patent/JPH0944703A/en
Application granted granted Critical
Publication of JP3764191B2 publication Critical patent/JP3764191B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To make the coordinate conversion unnecessary and to increase the processing speed of a three-dimensional image processor by judging an object that is designated on an image display screen based on the Z value and by making reference to a three-dimensional image data table. SOLUTION: The coordinates of an object are held by a virtual three- dimensional space data holding part 3. When a visual point is designated, a coordinate conversion means 6 converts the Z coordinates showing the depth as well as the XY coordinates obtained by applying the prespective conversion to the image of the object on a two-dimensional screen and holds these converted coordinates on a three-dimensional image data table 4. A display data production means 7 decides a display position on a display device 10 based on the XY coordinates and performs the hidden surface processing to produce the display data with addition of its attribute. The display data are shown on the device 10. When a point is designated on the screen, a retrieval means 9 refers to the table 4 to judge an object on the XY coordinates. If plural objects exist on the same XY coordinates, these objects are compared with the Z coordinates. Thus, an object having the least value is judged as the object. In such a constitution, the image processing can be carried out in real time.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は,リアルタイムにイ
ベントを実行する3次元画像処理装置に関する。3次元
画像処理装置は,ポリゴンを組み合わせて表現される表
示対象物を3次元座標空間に配置し,ユーザに指定され
る視点の位置に応じて座標配置を変更し,視点により映
される対象物の3次元の画像をリアルタイムに計算して
表示装置の2次元の画面に表示するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image processing apparatus that executes an event in real time. A three-dimensional image processing device arranges a display object represented by combining polygons in a three-dimensional coordinate space, changes the coordinate arrangement according to the position of the viewpoint specified by the user, and displays the object displayed by the viewpoint. Is calculated in real time and displayed on the two-dimensional screen of the display device.

【0002】3次元画像処理装置は,3次元画像を表示
するだけでなく,ユーザからの入力によりユーザの意向
を受け付け,表示する仮想3次元空間上でなんらかのイ
ベントを起こす必要がある。例えば,住宅の展示システ
ムの場合,ユーザによる視点の移動を読み,仮想住宅内
をあたかもユーザが歩いて回っているような画像計算を
して表示する。そして,表示されるドアのノブをマウス
によりクリックするとそのドアが開くなどのイベントが
生じる。こうして,ユーザの意向をなんらかの形で入力
することによって,仮想空間にイベントを起こすと,ユ
ーザの仮想空間の探索をよりリアルに見せ,また目に見
えるものを触って操作したいというユーザの要求を満足
させ,興味をそそらせるものである。
A three-dimensional image processing apparatus is required to not only display a three-dimensional image but also to accept the user's intention in response to an input from the user and cause some event in the virtual three-dimensional space to be displayed. For example, in the case of a house exhibition system, the movement of the viewpoint by the user is read, and the image is calculated and displayed as if the user were walking around in the virtual house. Then, clicking the displayed door knob with the mouse causes an event such as opening the door. In this way, when an event is generated in the virtual space by inputting the user's intention in some form, the user's search for the virtual space can be made more realistic, and the user's request to touch and operate something visible can be satisfied. It is intriguing.

【0003】イベントは,ユーザからの入力は2次元画
面に描かれた操作したい対象物をマウス,ライトペン,
ボタン等で指し示すことによりひき起こすことができ
る。そのため,3次元画像処理装置は,ユーザの指定し
た2次元の画面での座標点が3次元空間上のどの対象物
を指し示すのかをリアルタイムに判別する技術が必要と
なってくる。
In the event, the input from the user is an object to be operated drawn on a two-dimensional screen with a mouse, a light pen,
It can be triggered by pointing with a button. Therefore, the three-dimensional image processing apparatus needs a technique for determining in real time which object in the three-dimensional space the coordinate point on the two-dimensional screen designated by the user points to.

【0004】[0004]

【従来の技術】従来の技術における指定された対象物の
判別は次のようなものである。まず,対象物を指定する
ユーザからの2次元画面への座標入力の後に,入力され
た座標点がどの3次元対象物を指し示しているかを判別
する。そのために,予め格納されている仮想3次元空間
に配置された対象物を構成する基本構成要素(ポリゴ
ン)に対して一つ一つ視点に応じて座標変換の計算を行
い,その後に,奥行きを表すZ座標が視点から1番前に
あるポリゴンもしくは画素を選んでいた。そのため,一
つ一つの処理に時間がかかるものであった。
2. Description of the Related Art Discrimination of a designated object in the prior art is as follows. First, after a user who specifies an object inputs coordinates on a two-dimensional screen, it is determined which three-dimensional object the input coordinate point points to. Therefore, the coordinate transformation is calculated for each basic constituent element (polygon) that composes the object arranged in the virtual three-dimensional space stored in advance, and then the depth is calculated. The polygon or pixel whose Z coordinate to represent is the most previous from the viewpoint was selected. As a result, each process takes time.

【0005】図14 (a),図14 (b)は従来の技術を示
す。従来の3次元画像処理装置において,前後に重複す
る対象物のうち手前のもののみを表示する隠れ面処理
は,ポリゴン単位でZ座標の大小により,一番手前の
ポリゴンを見つけ出す方法(特開平6−162170号
公報等参照)と, 画素単位にZ座標の大小により,
一番手前の対象物を見つけ出す方法(特開平6−266
821号公報等参照)の2通りがある。
14 (a) and 14 (b) show a conventional technique. In a conventional three-dimensional image processing apparatus, hidden surface processing for displaying only the front one of front and rear overlapping objects is a method of finding the frontmost polygon based on the size of the Z coordinate in polygon units (Japanese Patent Laid-Open No. 6-58242). -162170) and the size of the Z coordinate in pixel units,
A method for finding the foremost object (Japanese Patent Laid-Open No. 6-266)
No. 821).

【0006】図14 (a)は上記の方法の概略を示すも
のである。図14 (a)において,311は3次元オブジ
ェクト指定入力の処理であって,2次元画面上に表示さ
れた3次元空間上の対象物を表示画面上で指定する入力
処理を表す。
FIG. 14 (a) shows an outline of the above method. In FIG. 14A, reference numeral 311 denotes a three-dimensional object designation input process, which is an input process for designating an object on the three-dimensional space displayed on the two-dimensional screen on the display screen.

【0007】312は座標変換の処理であって,仮想3
次元空間における対象物の3次元座標を視点に応じた3
次元座標に変換する処理である。313はクリッピング
の処理であって,所定の枠の大きさに対象物を切り出す
処理である。
Reference numeral 312 denotes a coordinate conversion process, which is a virtual 3
3D coordinate of object in 3D space
This is a process of converting into dimensional coordinates. A clipping process 313 is a process of cutting out the object into a predetermined frame size.

【0008】314は最小Z座標値判定の処理であっ
て,対象物のZ値(表示面からの奥行き)の一番小さい
もの(一番手前にある対象物)を判定する処理である。
315は全てのポリゴンについて処理したかの判定処理
である。
Reference numeral 314 is a process for determining the minimum Z coordinate value, which is a process for determining the object having the smallest Z value (depth from the display surface) of the object (object in the foreground).
Reference numeral 315 is a determination process as to whether all polygons have been processed.

【0009】図14 (a)の隠れ面処理と対象物の判定方
法について説明する。ユーザは表示装置の画面上で対象
物を指定してマウスクリックする等で3次元オブジェク
ト指定入力の処理311を行う。その結果,予め格納さ
れた図形データ(仮想3次元空間上のポリゴンの座標,
属性)を指定された視点に応じて座標変換する(座標変
換の処理312)。さらに,対象物をピック枠でクリッ
プする(クリッピッグの処理313)。そして,クリッ
プ枠内にある図形データのZ値を比較する(最小Z座標
値判定の処理314)を行う。このような処理をピック
内にある全ての対象物について行い,Z座標値の一番小
さいポリゴンを表示することにより対象物を表示し,指
定された対象物とする。
The hidden surface processing of FIG. 14 (a) and the method of determining an object will be described. The user performs a 3D object designation input process 311 by designating an object on the screen of the display device and clicking the mouse. As a result, previously stored graphic data (coordinates of polygons in the virtual three-dimensional space,
Coordinate conversion of the attribute is performed according to the specified viewpoint (coordinate conversion process 312). Further, the object is clipped by the pick frame (clipping process 313). Then, the Z values of the graphic data in the clip frame are compared (minimum Z coordinate value determination processing 314). Such processing is performed for all the objects in the pick, and the objects are displayed by displaying the polygon having the smallest Z coordinate value, and the objects are designated.

【0010】図14 (b)は上記の方法を示す。図14
(b)において,321は3次元オブジェクト指定入力の
処理であって,2次元画面上に表示された3次元空間
(仮想3次元空間)上の対象物を2次元の表示画面上で
指定する入力処理を表す。
FIG. 14 (b) shows the above method. FIG.
In (b), reference numeral 321 denotes a process of inputting a three-dimensional object, which is an input for specifying an object in a three-dimensional space (virtual three-dimensional space) displayed on the two-dimensional screen on the two-dimensional display screen. Represents a process.

【0011】322は座標変換の処理であって,仮想3
次元空間における対象物の3次元座標を視点に応じた3
次元座標に変換する処理である。323は画素の描画処
理であって,指定された領域の対象物の画素を表示する
処理である。
Reference numeral 322 denotes a coordinate conversion process, which is a virtual 3
3D coordinate of object in 3D space
This is a process of converting into dimensional coordinates. Reference numeral 323 is a pixel drawing process, which is a process of displaying the pixels of the object in the designated area.

【0012】324は最小Z座標値判定の処理であっ
て,画素毎にZ座標値を比較し,最小Z座標値の画素を
求める処理である。最小Z座標値を保持するためにデプ
スバッファ326を用意し,取り出される画素について
同じ表示位置にあるデプスバッファ326のZ座標値を
比較し,Z座標値の小さい方の値をデプスバッファ32
6に保持する。
Reference numeral 324 is a process for determining the minimum Z coordinate value, which is a process for comparing the Z coordinate values for each pixel to obtain the pixel having the minimum Z coordinate value. A depth buffer 326 is prepared to hold the minimum Z coordinate value, the Z coordinate values of the depth buffer 326 at the same display position for the pixels to be extracted are compared, and the smaller Z coordinate value is used for the depth buffer 32.
Hold at 6.

【0013】325は指定されたポリゴンについて,全
て描画したかを判定する処理である。326はデプスバ
ッファである。
Reference numeral 325 is a process for determining whether all the designated polygons have been drawn. Reference numeral 326 is a depth buffer.

【0014】ユーザは表示装置の画面上でイベントを起
こす対象物を指定する(3次元オブジェクト指定入力の
処理311)。座標変換を行った後,指定された領域に
ある3次元空間に配置された対象物の画素に対して表示
を行うことにより画素毎に画素のZ座標値とデプスバッ
ファ326に保持されているZ座標値を比較し,後から
取り出した画素のZ座標値の方が小さければその値でデ
プスバッファ326を更新し,後から取り出した画素の
Z座標値の方が大きければデプスバッファ326のZ座
標値の更新をしない。Z座標値を更新する時は更新した
画素の対象物の識別情報も保持しておく。このような処
理を指定された領域にある全てのポリゴンに対して行
い,最小Z座標値を持つ対象物を表示する。この処理に
おいて,画素と対象物の識別子の対応が付けられている
のでその識別子により対象物を判定する。
The user specifies an object that causes an event on the screen of the display device (3D object specification input processing 311). After the coordinate conversion is performed, the Z coordinate value of the pixel and the Z stored in the depth buffer 326 are displayed for each pixel by displaying the pixel of the object arranged in the three-dimensional space in the designated area. If the Z coordinate value of the pixel fetched later is smaller, the depth buffer 326 is updated with that value. If the Z coordinate value of the pixel fetched later is larger, the Z coordinate of the depth buffer 326 is compared. Do not update the value. When the Z coordinate value is updated, the identification information of the object of the updated pixel is also held. Such processing is performed for all polygons in the designated area, and the object having the minimum Z coordinate value is displayed. In this process, since the pixel and the identifier of the object are associated with each other, the object is determined by the identifier.

【0015】[0015]

【発明が解決しようとする課題】従来の対象物の判定処
理は,各ポリゴンもしくは各ポリゴン毎の全ての画素に
ついてループ処理によりまず座標変換を行い,その後Z
座標値を判定したために指定された対象物の判定に時間
がかかるものであった。そのため,指定された対象物に
割り当てられた音等のイベントを出力するか,あるいは
対象物がドアのような場合にドアを開く等のイベントを
起こすまでの時間が長かった。
In the conventional object determination processing, coordinate conversion is first performed by loop processing for each polygon or all pixels for each polygon, and then Z conversion is performed.
Since the coordinate value is determined, it takes time to determine the designated object. Therefore, it takes a long time to output an event such as a sound assigned to a specified object or to cause an event such as opening a door when the object is a door.

【0016】本発明は,指定された対象物の判定を高速
に行い,対象物の判定とイベントの実行をリアルタイム
に行うことのできる3次元画像処理装置を提供すること
を目的とする。
It is an object of the present invention to provide a three-dimensional image processing apparatus capable of determining a designated object at high speed, and determining the object and executing an event in real time.

【0017】[0017]

【課題を解決するための手段】本発明は,表示対象を構
成する3次元表示要素の頂点の各座標を視点に基づいて
2次元画面上に透視変換したXY座標と奥行きを表すZ
座標とに変換する座標変換手段と,座標変換手段の変換
したXY座標値に対応してZ座標値と対象物に関する情
報とを保持する3次元画像データテーブルと,入力装置
により3次元画像の表示画面上で指定された1点により
3次元画像データテーブルを検索する検索手段とを備
え,3次元画像データテーブルの座標データに基づいて
3次元画像表示し,3次元画像表示後も該3次元画像デ
ータテーブルを保持し,検索手段は指定対象物を該3次
元画像データテーブルのXY座標をキーにZ座標につい
て検索し,該当する対象物に関する情報を出力するよう
にした。そのようにして,対象物の決定のための座標の
再計算を不要とし,高速に対象物を判定できるように
し,対象物に関する情報を得られるようにした。また,
対象物に関する情報を対象物のイベント情報へのアドレ
スとし,検索手段がアドレスを出力すると,そのイベン
ト情報を実行することにより,高速にイベントが実行で
きるようにした。
According to the present invention, each coordinate of the vertices of a three-dimensional display element constituting a display target is perspectively transformed on a two-dimensional screen based on a viewpoint, and Z representing the XY coordinate and depth is displayed.
Coordinate conversion means for converting into coordinates, a three-dimensional image data table holding Z coordinate values corresponding to the XY coordinate values converted by the coordinate conversion means, and information about an object, and display of a three-dimensional image by an input device. A 3D image data table based on the coordinate data of the 3D image data table, and 3D image display after the 3D image display. The data table is held, and the search means searches the designated object for the Z coordinate using the XY coordinates of the three-dimensional image data table as a key, and outputs information about the corresponding object. In this way, it is not necessary to recalculate the coordinates for determining the object, the object can be determined at high speed, and information about the object can be obtained. Also,
The information about the object is used as the address of the event information of the object, and when the search means outputs the address, the event information is executed so that the event can be executed at high speed.

【0018】図1は本発明の基本構成を示す。図1にお
いて,1は3次元画像処理装置である。
FIG. 1 shows the basic configuration of the present invention. In FIG. 1, reference numeral 1 is a three-dimensional image processing device.

【0019】2は記憶部である。3は仮想3次元空間デ
ータ保持部であって,対象物を構成する3次元表示要素
(ポリゴン)の3次元座標と属性を保持するものであ
る。
Reference numeral 2 is a storage unit. A virtual three-dimensional space data holding unit 3 holds the three-dimensional coordinates and attributes of the three-dimensional display elements (polygons) forming the object.

【0020】4は3次元画像データテーブルであって,
仮想3次元空間データ保持部3に保持される3次元座標
値を視点に応じて2次元画面上に透視変換したXY座標
値と画面からの奥行きを示すZ座標値との3次元座標値
に変換した3次元座標と属性を含む3次元画像データを
保持するものである。
Reference numeral 4 is a three-dimensional image data table,
The three-dimensional coordinate values held in the virtual three-dimensional space data holding unit 3 are converted into three-dimensional coordinate values of XY coordinate values obtained by perspective transformation on a two-dimensional screen according to the viewpoint and Z coordinate values indicating the depth from the screen. It holds the three-dimensional image data including the three-dimensional coordinates and the attribute.

【0021】5はイベント情報保持部であって,対象物
に割り当てられたイベント情報(対象物がドアであれば
ドアの開く音,ドアの開く動き等)を保持するものであ
る。6は座標変換手段であって,対象物の仮想3次元空
間データの座標値を視点の位置に応じて2次元画面上に
透視変換したXY座標と画面からの奥行きを示すZ座標
値との3次元座標値に変換するものである。
An event information holding unit 5 holds event information assigned to an object (such as a door opening sound and a door opening movement if the object is a door). Reference numeral 6 denotes a coordinate conversion means, which is an XY coordinate obtained by perspectively converting the coordinate value of the virtual three-dimensional space data of the object on the two-dimensional screen according to the position of the viewpoint and the Z coordinate value indicating the depth from the screen. It is to be converted into a dimensional coordinate value.

【0022】7は表示データ作成手段であって,3次元
画像データテーブル4に保持されている対象物の3次元
画像データに基づいて,対象物を画面表示するために隠
面処理し,画素毎の表示データを作成するものである。
Reference numeral 7 is a display data creating means, which performs a hidden surface process for displaying the object on the screen based on the three-dimensional image data of the object held in the three-dimensional image data table 4 for each pixel. The display data of is created.

【0023】8はイベント実行手段であって,指定され
た対象物のもつイベント情報を実行するものである。9
は検索手段であって,3次元空間の対象物を表示する表
示画面上で指定された1点から3次元画像データテーブ
ルを検索するものである。
Reference numeral 8 is an event executing means for executing the event information of the designated object. 9
Is a search means for searching the three-dimensional image data table from one point designated on the display screen displaying the object in the three-dimensional space.

【0024】10は表示装置であって,ディスプレイで
ある。11は他の情報出力装置であって,イベント情報
が音声であれば音声出力装置等の表示装置以外の情報出
力装置である。
Reference numeral 10 denotes a display device, which is a display. Reference numeral 11 denotes another information output device, which is an information output device other than the display device such as a voice output device if the event information is voice.

【0025】12は入力装置であって,キーボード,マ
ウス,タッチパネル等の入力装置である。図1の本発明
の基本構成の動作を説明する。
Reference numeral 12 denotes an input device, which is a keyboard, a mouse, a touch panel, or the like. The operation of the basic configuration of the present invention shown in FIG. 1 will be described.

【0026】対象物を多角形の表示基本要素(ポリゴ
ン)で表し,その仮想3次元空間データ(XY平面上の
座標とXY平面(画像面)に垂直な奥行き方向のZ座標
および属性等)での座標値を仮想3次元空間データ保持
部に保持する。表示画面における視点がユーザにより指
定される。座標変換手段6は,その視点から対象物を見
た時の像を2次元画面上に透視変換したXY座標と画面
からの奥行きを示すZ座標に変換し,その座標値を3次
元画像データテーブル4に保持する。3次元画像データ
テーブルは表示画面におけるXY座標と視点からの奥行
き方向の距離Z座標値および対象物に関する情報,対象
物の属性等を保持する。表示データ作成手段7は,3次
元画像データテーブル4に保持されているXY座標値に
より表示装置10に画面表示する位置を定め,Z座標値
により隠れ面処理を施す。さらに,属性を付加して表示
データを作成する。表示装置10は表示データ作成手段
の作成した表示データに基づいて対象物を表示装置10
に表示する。
An object is represented by a polygonal display basic element (polygon), and its virtual three-dimensional space data (coordinates on the XY plane and Z coordinates in the depth direction perpendicular to the XY plane (image plane), attributes, etc.) are used. The coordinate value of is stored in the virtual three-dimensional space data storage unit. The viewpoint on the display screen is specified by the user. The coordinate conversion means 6 converts an image when the object is viewed from the viewpoint into an XY coordinate which is perspective-transformed on a two-dimensional screen and a Z coordinate indicating a depth from the screen, and the coordinate value thereof is a three-dimensional image data table. Hold at 4. The three-dimensional image data table holds the XY coordinates on the display screen, the distance Z coordinate value in the depth direction from the viewpoint, the information about the object, the attribute of the object, and the like. The display data creation means 7 determines the position to be displayed on the display device 10 on the screen by the XY coordinate values held in the three-dimensional image data table 4, and performs the hidden surface processing by the Z coordinate value. Furthermore, display data is created by adding attributes. The display device 10 displays the object based on the display data created by the display data creating means.
To be displayed.

【0027】画面上の1点が指定されると,検索手段9
は3次元画像データテーブルを参照し,指定されたXY
座標の位置にある対象物を判定する。同じXY座標上に
複数の対象物がある場合には,3次元画像データテーブ
ル4に保持されているZ座標値を比較してZ座標値の一
番小さい対象物を指定された対象物として判定する。そ
して対象物に関する情報を出力する。
When one point on the screen is designated, the search means 9
Refers to the 3D image data table and specifies the XY
The object at the coordinate position is determined. When there are a plurality of objects on the same XY coordinates, the Z coordinate values held in the three-dimensional image data table 4 are compared and the object having the smallest Z coordinate value is determined as the specified object. To do. Then, information about the object is output.

【0028】イベント実行手段8はイベント情報保持部
5を参照して,指定された対象物に割り当てられている
イベント情報を取り出し,表示装置10もしくは他の情
報出力装置11に出力する。例えば,指定対象物がドア
の把手であり,把手が指定されるとドアが開き音楽が出
力されるようにイベントが設定されているとする。把手
が指定され,指定された対象物が把手であることが判定
されると,表示画面上のドアが開き,スピーカから音楽
が出力される。
The event executing means 8 refers to the event information holding section 5 to take out the event information assigned to the designated object and output it to the display device 10 or another information output device 11. For example, it is assumed that the designated object is a handle of the door and the event is set so that the door is opened and music is output when the handle is designated. When the handle is designated and it is determined that the designated object is the handle, the door on the display screen is opened and music is output from the speaker.

【0029】本発明によれば,3次元画像データテーブ
ルにより対象物を判定し,そのZ値により画像表示,画
面上で指定された対象物を判定するので,対象物の座標
変換処理が不要になり対象物の判定を高速に行うことが
できる。そのため,対象物が指定されてからイベントの
実行までの時間が短くなり,画像処理をリアルタイムに
行うことができるようになる。
According to the present invention, the object is determined by the three-dimensional image data table, and the Z value is used to determine the image display and the object designated on the screen. Therefore, the coordinate conversion processing of the object is unnecessary. It is possible to quickly judge a target object. Therefore, the time from the designation of the object to the execution of the event is shortened, and the image processing can be performed in real time.

【0030】[0030]

【実施例】図2〜図5,図7により,住宅展示システム
を例として本発明の3次元画像処理方法について説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A three-dimensional image processing method of the present invention will be described with reference to FIGS.

【0031】図2 (a)は間取り図を示すものである。2
1は間取り図である。A,B,C,D,Eそれぞれの部
屋の間取りである。
FIG. 2A shows a floor plan. Two
1 is a floor plan. The floor plans are for A, B, C, D, and E rooms.

【0032】A1はピアノ,A2は花ビン,A3は壁に
掛けられた絵,A4はタンスである。図2 (b)は3次元
画像処理装置でピアノを表現する方法の説明図である。
A1 is a piano, A2 is a flower bottle, A3 is a picture hung on a wall, and A4 is a closet. FIG. 2B is an explanatory diagram of a method of expressing a piano with a three-dimensional image processing apparatus.

【0033】22はピアノである。(1) ,(2) ,(3) ,
(4) ,(5) ,(6) ,(7) ,(8) ,(9) ,(10),(11),(1
2)はそれぞれ基本構成要素(以後,ポリゴンと称する)
であって,ピアノ22を12個のポリゴンにより表すも
のとする。各ポリゴンの頂点の座標を表してピアノの仮
想3次元空間データとする。
22 is a piano. (one two Three) ,
(4), (5), (6), (7), (8), (9), (10), (11), (1
2) are the basic components (hereinafter referred to as polygons)
Therefore, the piano 22 is represented by 12 polygons. The coordinates of the vertices of each polygon are represented as virtual three-dimensional space data of the piano.

【0034】図3は本発明の仮想3次元空間データテー
ブルの例を示すものである。図3において,31は各部
屋毎の内部のデータを指し示すアドレス表である。
FIG. 3 shows an example of the virtual three-dimensional space data table of the present invention. In FIG. 3, reference numeral 31 is an address table indicating the internal data of each room.

【0035】32は部屋の家具の配置を表すアドレスで
ある。家具の名称とその先頭アドレス,イベントの有無
を表すイベントフラグ,イベントの実行プログラムのあ
る位置のアドレスであるイベントアドレスを保持するも
のである。イベントフラグは「1」はイベントあり,
「0」はイベント無しを表す。A1はピアノであり,イ
ベントがあるものである(ピアノを指定すると音楽が出
力される)。A2は花ビンであって,イベント無しであ
る。A3は壁の絵であって,指定すると絵が落ちるイベ
ントを有するものである。A4はタンスであって,イベ
ント無しである。
Reference numeral 32 is an address representing the arrangement of furniture in the room. It holds a furniture name and its start address, an event flag indicating the presence or absence of an event, and an event address which is an address of a position where an event execution program is located. For the event flag, "1" indicates an event,
"0" represents no event. A1 is a piano and has an event (when the piano is designated, music is output). A2 is a flower bottle with no event. A3 is a picture on the wall, which has an event that the picture falls when specified. A4 is a chest and there is no event.

【0036】33は家具A1(ピアノ)の各ポリゴンの
座標位置と属性を示すものである。(1) 〜(12)は前述の
ピアノのポリゴンの番号に対応し,それぞれの頂点の位
置の座標をもつ。それぞれの色の属性は黒である。
Reference numeral 33 indicates the coordinate position and attribute of each polygon of furniture A1 (piano). (1) to (12) correspond to the polygon numbers of the above-mentioned piano, and have the coordinates of the position of each vertex. The attribute of each color is black.

【0037】図4は本発明の3次元画像の処理方法の説
明図である。図4 (a)は視点1による表示装置への表示
部分を示す。41は部屋Aの平面図である。
FIG. 4 is an explanatory diagram of a three-dimensional image processing method of the present invention. FIG. 4A shows a display portion on the display device from the viewpoint 1. 41 is a plan view of the room A.

【0038】A1はピアノ,A2は花ビン,A3は絵,
A4はタンスである(図2 (a)に同じ)。視点1から花
ビンA2方向を見た時に映る領域を斜線で示す。
A1 is a piano, A2 is a flower bottle, A3 is a picture,
A4 is a chest (same as in Figure 2 (a)). The area shown when the direction of the flower bin A2 is viewed from the viewpoint 1 is indicated by diagonal lines.

【0039】図4 (b)は図4 (a)の視点1により画面表
示される表示画面を示す。42は部屋Aの内部の表示で
あって,図4 (a)の視点により花ビンA2の方向を見た
時の画面表示である。
FIG. 4 (b) shows a display screen displayed by the viewpoint 1 of FIG. 4 (a). Reference numeral 42 denotes a display inside the room A, which is a screen display when the direction of the flower bin A2 is seen from the viewpoint of FIG.

【0040】A1はピアノ,A2は花ビン,A3は絵で
ある。図5は本発明の3次元画像の処理方法の説明図で
ある。図5 (a)は視点2による表示装置への表示部分を
示す。
A1 is a piano, A2 is a flower bottle, and A3 is a picture. FIG. 5 is an explanatory diagram of a three-dimensional image processing method of the present invention. FIG. 5A shows a display portion on the display device from the viewpoint 2.

【0041】図5 (a),視点2の位置が図4 (a)と異な
るのみであるので詳細な説明は省略する。図5 (b)は図
5 (a)の視点2により画面表示される表示画面を示す。
Since the position of the viewpoint 2 in FIG. 5 (a) is different from that in FIG. 4 (a), detailed description thereof will be omitted. FIG. 5 (b) shows a display screen displayed by the viewpoint 2 of FIG. 5 (a).

【0042】42は部屋Aの内部の表示であって,図5
(a)の視点により画面表示されるものである。A1はピ
アノ,A2は花ビン,A3は絵であって,図4 (b)と同
じものである。
Reference numeral 42 denotes a display inside the room A, which is shown in FIG.
It is displayed on the screen from the viewpoint (a). A1 is a piano, A2 is a flower bottle, and A3 is a picture, which is the same as in FIG. 4 (b).

【0043】図5 (b)では画像平面上でピアノA1と花
ビンA2が一部重複するので,それぞれの視点からの距
離を判定し,遠い方(図5 (b)の場合,ピアノA1)の
重複部分は隠面処理をして表示されないようにする。ま
た,画面上で花ビンが指定されたとき,ピアノA1と区
別をする必要があるので,ピアノA1と花ビンA2の視
点からの距離(Z座標値)を3次元画像ソートデータテ
ーブル(後述する)のZ座標値を参照して比較し,Z座
標値の小さい花ビンA2の方を指定された対象物とす
る。
In FIG. 5 (b), since the piano A1 and the flower bin A2 partially overlap on the image plane, the distances from the respective viewpoints are determined and the farther away (in the case of FIG. 5 (b), the piano A1). The overlapping part of is hidden so that it is not displayed. Further, when a flower bin is designated on the screen, it is necessary to distinguish it from the piano A1, so the distance (Z coordinate value) from the viewpoint of the piano A1 and the flower bin A2 to the three-dimensional image sort data table (described later). ), The Z-coordinate value is compared and the flower bin A2 having a smaller Z-coordinate value is set as the designated object.

【0044】図6の本発明の実施例1のシステム構成を
説明する前に図7の本発明の3次元画像データテーブル
と3次元画像ソートデータテーブルの実施例について説
明する。
Before describing the system configuration of the first embodiment of the present invention in FIG. 6, an embodiment of the three-dimensional image data table and the three-dimensional image sort data table of the present invention in FIG. 7 will be described.

【0045】図7 (a)は3次元画像データテーブルであ
って,仮想3次元空間データテーブルの各座標を座標変
換手段により座標変換して得られるXY座標とZ座標,
イベントの有無を示すイベントフラグ,イベント先頭ア
ドレス,属性等を保持するものである。
FIG. 7A is a three-dimensional image data table, in which the XY coordinates and Z coordinates obtained by coordinate conversion of each coordinate of the virtual three-dimensional space data table by the coordinate conversion means,
It holds an event flag indicating the presence or absence of an event, an event start address, attributes, and the like.

【0046】4つのXY座標は,ポリゴンの各頂点(4
つ)のXY座標である。Z座標は,表示面からの奥行き
を表す座標である。イベントフラグはイベントの有無を
示すフラグであり,1はイベント有り,0はイベント無
しである。
The four XY coordinates correspond to each vertex (4
X) XY coordinates. The Z coordinate is a coordinate representing the depth from the display surface. The event flag is a flag indicating the presence / absence of an event, where 1 is an event and 0 is no event.

【0047】イベント先頭アドレスはイベントの実行プ
ログラムの先頭アドレスである。図7 (b)は3次元画像
ソートデータテーブルであって,図7 (a)の3次元画像
データテーブルをZ座標値によりソートしたものであ
る。
The event start address is the start address of the event execution program. FIG. 7B shows a three-dimensional image sort data table, which is obtained by sorting the three-dimensional image data table of FIG. 7A by Z coordinate values.

【0048】図6は本発明の実施例1のシステム構成で
ある。図6において,51は3次元画像処理装置であ
る。
FIG. 6 shows the system configuration of the first embodiment of the present invention. In FIG. 6, reference numeral 51 is a three-dimensional image processing device.

【0049】54は表示装置であって,ディスプレイで
ある。55は入力装置であって,キーボード,マウス,
タッチパネル等である。56’はイベント出力装置であ
って,音声等の出力装置である。
A display device 54 is a display. An input device 55 includes a keyboard, a mouse,
For example, a touch panel. Reference numeral 56 'is an event output device, which is an output device for sounds and the like.

【0050】3次元画像処理装置51において,56は
処理部であってメモリ上にあり,各種処理手段を備える
ものである。61は座標変換手段である。
In the three-dimensional image processing apparatus 51, a processing unit 56 is provided on the memory and has various processing means. Reference numeral 61 is a coordinate conversion means.

【0051】62はソート手段であって,3次元画像デ
ータテーブル72に保持されている3次元画像データを
Z座標についてソートするものある。63は距離計算手
段であって,3次元画像ソートデータテーブル73に保
持されている3次元画像データにより視点からの距離を
判定するものである。
Reference numeral 62 denotes a sorting means for sorting the three-dimensional image data held in the three-dimensional image data table 72 with respect to the Z coordinate. Reference numeral 63 denotes a distance calculation means, which determines the distance from the viewpoint based on the three-dimensional image data stored in the three-dimensional image sort data table 73.

【0052】64は表示データ作成手段であって3次元
画像ソートデータテーブル73を参照して,表示装置5
4の表示データを作成するものである。65はイベント
実行手段であって,イベントデータ82を参照して仮想
3次元空間データ81を書き換え,座標変換手段61を
起動することにより実行したり,イベントの実行データ
を作成するものである。
Reference numeral 64 is a display data creating means which refers to the three-dimensional image sort data table 73 to display the display device 5
The display data of 4 is created. Reference numeral 65 denotes an event executing means, which refers to the event data 82, rewrites the virtual three-dimensional space data 81, and activates the coordinate converting means 61 to execute or execute event execution data.

【0053】66はイベント出力手段であって,イベン
ト出力データ保持部74に保持されているイベントの実
行データをイベント出力装置56に出力するものであ
る。67はマッチング手段であって,対象物の指定入力
があったとき,3次元画像ソートデータテーブル73を
検索して,指定された対象物を判定する手段である(図
1の検索手段9に相当する)。
Reference numeral 66 is an event output means for outputting the execution data of the event held in the event output data holding section 74 to the event output device 56. Reference numeral 67 denotes a matching means, which is a means for searching the three-dimensional image sort data table 73 to determine the designated target when the designated input of the target is made (corresponding to the search means 9 in FIG. 1). To).

【0054】68は入力判定手段であって,視点位置の
指定入力と対象物の指定入力を判別するものである。6
9は表示データ出力手段であって,表示データ保持部7
5に保持されている表示データを出力するものである。
Reference numeral 68 denotes an input determination means for determining whether the viewpoint position is designated and the object is designated. 6
Reference numeral 9 is a display data output means, which is a display data holding unit 7.
The display data held in 5 is output.

【0055】71は記憶部1であって,内部メモリであ
る。記憶部1(71)において,72は3次元画像デー
タテーブルであって,3次元画像データを保持するもの
である。
Reference numeral 71 denotes the storage unit 1, which is an internal memory. In the storage unit 1 (71), 72 is a three-dimensional image data table, which holds three-dimensional image data.

【0056】73は3次元画像ソートデータテーブルで
あって,Z座標でソートした3次元画像データを保持す
るものである。74はイベント出力データ保持部であっ
て,音声等の出力するイベントデータを保持するもので
ある。
A three-dimensional image sort data table 73 holds three-dimensional image data sorted by Z coordinates. An event output data holding unit 74 holds event data to be output such as voice.

【0057】75は表示データ保持部であって,画像メ
モリである。80は記憶部2であって,内部メモリもし
くは磁気ディスク装置である。81は仮想3次元空間デ
ータである。
A display data holding unit 75 is an image memory. The storage unit 2 is an internal memory or a magnetic disk device. Reference numeral 81 is virtual three-dimensional space data.

【0058】82はイベントを記述したスクリプトや音
声等のイベントデータである。図8のフローチャートを
参照して図6の実施例1のシステム構成の動作を説明す
る。
Reference numeral 82 is event data such as a script describing an event and voice. The operation of the system configuration of the first embodiment of FIG. 6 will be described with reference to the flowchart of FIG.

【0059】図示のステップ番号に従って動作を説明す
る。 S1,S2 入力判定手段68は,視点移動入力と対象
物の指定入力を待ち,入力があった場合はそのいずれか
であるかを判定する。視点移動入力の場合にはS3に進
み,対象物の指定入力の場合にはS8に進む。
The operation will be described according to the step numbers shown. The S1 and S2 input determination means 68 waits for the viewpoint movement input and the designation input of the object, and when there is an input, determines which one of them. In the case of the viewpoint movement input, the process proceeds to S3, and in the case of the designation input of the object, the process proceeds to S8.

【0060】S3 視点移動があった場合には,座標変
換手段61は仮想3次元空間データ81の座標値を視点
の位置に応じて2次元画面に透視変換したXY座標値と
画面からの奥行きを示すZ座標値との3次元座標値に変
換する。
S3 When there is a viewpoint movement, the coordinate converting means 61 perspectively converts the coordinate values of the virtual three-dimensional space data 81 into a two-dimensional screen according to the position of the viewpoint and the depth from the screen. It is converted into a three-dimensional coordinate value with the indicated Z coordinate value.

【0061】S4 3次元画像データを保持する3次元
画像データテーブル72を作成する。 S5 ソート手段62は3次元画像データをZ座標値に
ついてソートする。
S4 A three-dimensional image data table 72 holding three-dimensional image data is created. The S5 sorting means 62 sorts the three-dimensional image data according to the Z coordinate value.

【0062】S6 3次元画像ソートデータを保持する
3次元画像ソートデータテーブル73に作成する。 S7 表示データ作成手段64は3次元画像ソートデー
タテーブル73を参照し,ポリゴンのZ座標値の大きい
方から順に表示処理することにより表示装置54の画像
データを作成し,表示データ保持部75に保持する。表
示データ出力手段69は表示データ保持部75に保持さ
れている表示データを取り出して表示装置54に表示す
る。
S6 is created in the three-dimensional image sort data table 73 holding the three-dimensional image sort data. S7 The display data creating means 64 refers to the three-dimensional image sort data table 73, creates the image data of the display device 54 by performing display processing in order from the one having the largest Z coordinate value of the polygon, and holds it in the display data holding unit 75. To do. The display data output means 69 takes out the display data held in the display data holding unit 75 and displays it on the display device 54.

【0063】S8,S9 S2において,入力判定手
段68が対象物の指定入力を判定した時は,マッチング
手段67は,指定された位置のXY座標により3次元画
像ソートデータテーブル73をZ座標値の小さい方から
検索する。
In S8, S9 and S2, when the input judging means 68 judges the designated input of the object, the matching means 67 sets the Z-coordinate value of the three-dimensional image sort data table 73 by the XY coordinate of the designated position. Search from the smaller one.

【0064】S10 指定されたXY座標の対象物が見
つかれば,距離計算手段63は指定されたXY座標にそ
のZ座標値を加えた座標点の視点からの距離を計算す
る。 S11,S11’ 距離の計算により対象物の視点から
の距離が手の届く範囲(手の届く範囲の距離は予め定め
ておく)にあればイベントフラグを判定し,手の届く距
離の範囲外であればS1に戻る。
S10 When the object having the designated XY coordinates is found, the distance calculation means 63 calculates the distance from the viewpoint of the coordinate point obtained by adding the Z coordinate value to the designated XY coordinates. S11, S11 'If the distance from the viewpoint of the object is within the reach of the object by calculation of the distance (the distance within the reach of the object is predetermined), the event flag is determined, and the distance is out of the reach of the hand. If there is, return to S1.

【0065】S12,S12’ S11’で手の届く距
離にあると判定された場合には,イベント実行手段65
はイベントフラグを判定する。イベントフラグが1であ
ればS13に進み,イベントフラグが1でなければS1
に戻る。
S12, S12 'When it is determined in S11' that the hand is within reach, the event executing means 65
Determines the event flag. If the event flag is 1, proceed to S13, and if the event flag is not 1, S1
Return to

【0066】S13 イベントフラグが1であるので,
イベント実行手段65はイベントの実行データを作成
し,イベント出力データ保持部74に保持する。イベン
ト出力手段66はイベント出力データ保持部74に保持
されているイベントデータを取り出してイベント出力装
置56に出力する。また,イベントの実行がドアの開閉
等の表示装置54に表示するものであれば,イベント実
行手段65は仮想3次元空間データを書き換え,座標変
換手段を起動することにより表示データを作成し,表示
データ保持部75に保持し,表示データ出力手段69に
より表示処理をする。
Since the S13 event flag is 1,
The event executing means 65 creates event execution data and holds it in the event output data holding unit 74. The event output unit 66 takes out the event data held in the event output data holding unit 74 and outputs it to the event output device 56. If the event is to be displayed on the display device 54 such as opening and closing the door, the event executing means 65 rewrites the virtual three-dimensional space data and activates the coordinate converting means to create and display the display data. The data is held in the data holding unit 75, and the display data output means 69 performs display processing.

【0067】図9は本発明の実施例2のシステム構成で
ある。図9は,Zバッファ法により本発明を実施例する
場合のシステム構成である。図9において,51は3次
元画像処理装置である。
FIG. 9 shows the system configuration of the second embodiment of the present invention. FIG. 9 shows the system configuration when the present invention is embodied by the Z buffer method. In FIG. 9, reference numeral 51 is a three-dimensional image processing device.

【0068】54は表示装置であって,ディスプレイで
ある。55は入力装置であって,キーボード,マウス,
タッチパネル等である。56’はイベント出力装置であ
って,音声等の出力装置である。
A display device 54 is a display. An input device 55 includes a keyboard, a mouse,
For example, a touch panel. Reference numeral 56 'is an event output device, which is an output device for sounds and the like.

【0069】3次元画像処理装置51において,56は
処理部であって,メモリ上にあり各種処理手段を備える
ものである。61は座標変換手段である。
In the three-dimensional image processing apparatus 51, reference numeral 56 is a processing unit, which is on a memory and has various processing means. Reference numeral 61 is a coordinate conversion means.

【0070】62’はZ座標判定手段であって,画素毎
にイベントテーブル73’のZ値を参照し,Z座標値の
大小を判定し,Z値の小さい値によりイベントテーブル
73’を更新するものである。
Reference numeral 62 'is a Z coordinate judging means, which refers to the Z value of the event table 73' for each pixel, judges the magnitude of the Z coordinate value, and updates the event table 73 'with the smaller Z value. It is a thing.

【0071】63は距離計算手段であって,イベント検
索手段の指示によりイベントテーブルにより距離計算を
行うものである。64は表示データ作成手段であって,
表示装置54に表示するための表示データを作成するも
のである。
Reference numeral 63 is a distance calculation means, which calculates the distance from the event table according to an instruction from the event search means. 64 is a display data creating means,
The display data to be displayed on the display device 54 is created.

【0072】65はイベント実行手段であって,イベン
トデータ82を参照して,仮想3次元空間データ81を
書き換え,座標変換手段61を起動することにより実行
したり,イベントの実行データを作成するものである。
Reference numeral 65 is an event execution means, which refers to the event data 82 and rewrites the virtual three-dimensional space data 81 to execute the coordinate conversion means 61 to execute or create event execution data. Is.

【0073】66はイベント出力手段であって,イベン
ト出力データ保持部74に保持されているイベントの実
行データをイベント出力装置に出力するものである。6
7’はイベント検索手段であって,対象物の指定入力が
あったとき,イベントテーブル73’を検索して,指定
された対象物を判定する手段である。
Reference numeral 66 is an event output means for outputting the execution data of the event held in the event output data holding section 74 to the event output device. 6
Reference numeral 7'denotes an event search means, which is means for searching the event table 73 'to determine the designated object when the designated input of the object is made.

【0074】68は入力判定手段であって,視点位置の
指定入力と対象物の指定入力を判別するものである。6
9は表示データ出力手段であって,表示データ保持部7
5に保持されている表示データを出力するものである。
Reference numeral 68 denotes an input determination means for determining whether the viewpoint position is designated and the object is designated. 6
Reference numeral 9 is a display data output means, which is a display data holding unit 7.
The display data held in 5 is output.

【0075】71は記憶部1であって,内部メモリであ
る。記憶部1(71)において,72は3次元画像デー
タテーブルであって,3次元画像データを保持するもの
である。
Reference numeral 71 is a storage unit 1, which is an internal memory. In the storage unit 1 (71), 72 is a three-dimensional image data table, which holds three-dimensional image data.

【0076】73’はイベントテーブルであって,画素
対応にZ座標値,イベントフラグ,イベントアドレスを
保持するものである。74はイベント出力データ保持部
であって,音声等の出力するイベントデータを保持する
ものである。
An event table 73 'holds a Z coordinate value, an event flag, and an event address for each pixel. An event output data holding unit 74 holds event data to be output such as voice.

【0077】75は表示データ保持部であって,画像メ
モリである。80は記憶部2であって,内部メモリもし
くは磁気ディスク装置である。81は仮想3次元空間デ
ータである。
A display data holding unit 75 is an image memory. The storage unit 2 is an internal memory or a magnetic disk device. Reference numeral 81 is virtual three-dimensional space data.

【0078】82はイベントを記述したスクリプトや音
声等のイベントデータである。図9のシステム構成の動
作は後述する。図10は本発明のイベントテーブルの実
施例を示す。
Reference numeral 82 is event data such as a script describing an event and voice. The operation of the system configuration of FIG. 9 will be described later. FIG. 10 shows an embodiment of the event table of the present invention.

【0079】図10 (a)は表示画面上の画素配置であ
る。画面の横方向をX軸,縦方向をY軸とする。X座標
の最大値はMaxX,Y座標の最大値はMaxYであ
り,画素毎に座標値をもつ。
FIG. 10A shows a pixel arrangement on the display screen. The horizontal direction of the screen is the X axis and the vertical direction is the Y axis. The maximum value of the X coordinate is MaxX and the maximum value of the Y coordinate is MaxY, and each pixel has a coordinate value.

【0080】図10 (b)はイベントテーブルの実施例で
あって,画素毎にZ座標,イベントフラグとイベントア
ドレスを持つものである。画素の位置は図10 (a)のX
Y座標の座標値である。
FIG. 10B shows an embodiment of an event table, which has a Z coordinate, an event flag and an event address for each pixel. The pixel position is X in Figure 10 (a).
It is the coordinate value of the Y coordinate.

【0081】イベントフラグ1はイベントがあることを
示し,イベントフラグ0はイベントが無いことを示す。
図11は本発明の実施例2のシステム構成のフローチャ
ートである。
Event flag 1 indicates that there is an event, and event flag 0 indicates that there is no event.
FIG. 11 is a flowchart of the system configuration of the second embodiment of the present invention.

【0082】図11のフローチャートを参照して図9の
実施例2のシステム構成の動作を説明する。図示のステ
ップ番号に従って動作を説明する。
The operation of the system configuration of the second embodiment of FIG. 9 will be described with reference to the flowchart of FIG. The operation will be described according to the step numbers shown.

【0083】S1,S2 入力判定手段68は,視点移
動入力と対象物の指定入力を待ち,入力があった場合は
そのいずれであるかを判定する。視点移動入力の場合に
はS3に進み,対象物の指定入力の場合にはS10に進
む。
The S1 and S2 input determination means 68 waits for the viewpoint movement input and the designation input of the object, and when there is an input, determines which one of them. In the case of the viewpoint movement input, the process proceeds to S3, and in the case of the designation input of the object, the process proceeds to S10.

【0084】S3 視点移動があった場合には,座標変
換手段61は仮想3次元空間データ81を視点の位置に
応じて2次元画面に透視変換したXY座標値と画面から
の奥行きを示すZ座標値との3次元画像データに変換す
る。
S3 When the viewpoint is moved, the coordinate conversion means 61 perspectively transforms the virtual three-dimensional space data 81 into a two-dimensional screen according to the position of the viewpoint and the Z coordinate indicating the depth from the screen. Convert to 3D image data with values.

【0085】次のS4〜S9を全てのポリゴン一つ一つ
について繰り返す。次のS4〜S8を,一つ一つのポリ
ゴンの全ての画素について繰り返す。 S4,S5 Z座標判定手段62’は画素毎に同じXY
座標の画素のイベントテーブル73’に保持されている
Z座標値とを比較し,比較対象の画素のZ座標値がイベ
ントテーブル73’のZ座標値より小さい場合には,イ
ベントテーブルにそのZ座標値,イベントフラグ,イベ
ントアドレスを書き込む。
The following steps S4 to S9 are repeated for all polygons. The following S4 to S8 are repeated for all the pixels of each polygon. S4, S5 Z coordinate determination means 62 'has the same XY for each pixel.
The Z coordinate value of the pixel of the coordinate held in the event table 73 'is compared, and if the Z coordinate value of the pixel to be compared is smaller than the Z coordinate value of the event table 73', the Z coordinate value in the event table is compared. Write the value, event flag, and event address.

【0086】S6,S7 表示データ作成手段64は
属性により表示データを作成する。作成された表示デー
タは表示データ保持部75に保持する。表示データ出力
手段69は表示データ保持部75に保持されている表示
データを取り出して表示装置54に表示する。
S6, S7 The display data creating means 64 creates display data according to the attributes. The created display data is held in the display data holding unit 75. The display data output means 69 takes out the display data held in the display data holding unit 75 and displays it on the display device 54.

【0087】S8,S8’ 一つのポリゴンの全ての画
素は終了したか判定する。全て終了していなければS4
以降の処理を繰り返す。全て終了していればS9に進
む。 S9,S9’ 全てのポリゴンが終了したか判定し,終
了していなければ次のボリゴンについてS4以降の処理
を繰り返す。全てのポリゴンについて終了していればS
1に戻る。
S8, S8 ': It is judged whether all the pixels of one polygon are finished. If not all finished, S4
The subsequent processing is repeated. If all have been completed, proceed to S9. S9, S9 'It is determined whether or not all the polygons are finished, and if they are not finished, the processes after S4 are repeated for the next Boligon. S if all polygons are finished
Return to 1.

【0088】S10,S10’ S2において,入力判
定手段68が対象物の指定入力を判定した時は,イベン
ト検索手段67’は,指定されたXY座標によりイベン
トテーブル73’を検索する。指定されたXY座標が見
つかればS11に進み,見つからなければS1に戻る。
In S10, S10 'S2, when the input judging means 68 judges the designated input of the object, the event searching means 67' searches the event table 73 'with the specified XY coordinates. If the specified XY coordinates are found, the process proceeds to S11, and if not found, the process returns to S1.

【0089】S11 イベントテーブル73’を検索し
て指定のXY座標が見つかった場合には,距離計算手段
63は指定されたXY座標にそのZ座標値を加えた座標
点の視点からの距離を計算する。
When the specified XY coordinates are found by searching the S11 event table 73 ', the distance calculation means 63 calculates the distance from the viewpoint of the coordinate point obtained by adding the Z coordinate value to the specified XY coordinates. To do.

【0090】S12,S12’ 距離の計算により座標
点の視点からの距離が手の届く範囲(手の届く範囲の距
離は予め定めておく)にあればイベントフラグを判定す
る処理S13’に進み,手の届く距離の範囲外であれば
S1に戻る。
S12, S12 'If the distance from the viewpoint of the coordinate point is within the reach of the hand (the distance within the reach of the hand is determined in advance) by calculating the distance, the process proceeds to the process S13' for determining the event flag, If it is out of the reachable range, the process returns to S1.

【0091】S13,S13’ S12’で手の届く距
離にあると判定された場合には,イベント実行手段65
はイベントフラグを判定する。イベントフラグが1であ
ればS14に進み,イベントフラグが1でなければS1
に戻る。
S13, S13 'If it is determined in S12' that the distance is within reach, the event executing means 65
Determines the event flag. If the event flag is 1, proceed to S14, and if the event flag is not 1, S1
Return to

【0092】S14 イベントフラグが1であるので,
イベント実行手段65はイベントの実行データを作成
し,イベント出力データ保持部74に保持する。イベン
ト出力手段66はイベント出力データ保持部74に保持
されているイベントデータを取り出してイベント出力装
置56に出力する。また,イベントの実行がドアの開閉
等の表示装置54に表示するものであれば,イベント実
行手段65は仮想3次元空間データを書き換え,座標変
換手段を起動することにより表示データを作成し,表示
データ保持部75に保持し,表示データ出力手段69に
より表示処理をする。
Since the S14 event flag is 1,
The event executing means 65 creates event execution data and holds it in the event output data holding unit 74. The event output unit 66 takes out the event data held in the event output data holding unit 74 and outputs it to the event output device 56. If the event is to be displayed on the display device 54 such as opening and closing the door, the event executing means 65 rewrites the virtual three-dimensional space data and activates the coordinate converting means to create and display the display data. The data is held in the data holding unit 75, and the display data output means 69 performs display processing.

【0093】図12は本発明の実施例3のフローチャー
トである。本発明の実施例3は,隠面処理および対象物
の判定とイベントの実行の有無を3次元画像ソートデー
タテーブルを参照して行うものであり,画像の表示デー
タの作成処理において対象物の距離を判断し,距離が手
の届く範囲外の距離であれば対象物のイベントフラグを
書換え,距離が手の届く範囲内の距離であれば対象物の
イベントフラグをそのままにしておき,表示処理におい
てイベントフラグが1であるものについては表示色を対
象物本来の色と異なるイベントが実行されることを示す
予め定めた色(例えば赤)に変更し,イベントフラグが
0であれば対象物本来の色を表示するものである。
FIG. 12 is a flowchart of the third embodiment of the present invention. In the third embodiment of the present invention, hidden surface processing, determination of an object, and presence / absence of an event are performed with reference to a three-dimensional image sort data table. If the distance is out of the reach, the event flag of the object is rewritten, and if the distance is within the reach, the event flag of the object is left as it is, and the display process is performed. When the event flag is 1, the display color is changed to a predetermined color (for example, red) indicating that an event different from the original color of the object is executed, and when the event flag is 0, the original color of the object is changed. The color is displayed.

【0094】S1,S2 入力判定手段68は,視点移
動入力と対象物の指定入力を待ち,入力があった場合は
そのいずれであるかを判定する。視点移動入力の場合に
はS3に進み,対象物の指定入力の場合にはS14に進
む。
The S1 and S2 input determination means 68 waits for the viewpoint movement input and the designation input of the object, and when there is an input, determines which one of them. In the case of the viewpoint movement input, the process proceeds to S3, and in the case of the designation input of the object, the process proceeds to S14.

【0095】S3 視点移動があった場合には,座標変
換手段61は仮想3次元空間データ81の座標値を視点
の位置に応じて2次元画面に透視変換したXY座標値と
画面からの奥行きを示すZ座標値との3次元画像座標値
に変換する。
S3 When there is a viewpoint movement, the coordinate conversion means 61 perspectively converts the coordinate values of the virtual three-dimensional space data 81 into a two-dimensional screen according to the position of the viewpoint and the depth from the screen. It is converted into a three-dimensional image coordinate value with the indicated Z coordinate value.

【0096】S4 3次元画像データを保持する3次元
画像データテーブル72を作成する。 S5 ソート手段62は3次元画像データをZ座標値に
ついてソートする。
S4 A three-dimensional image data table 72 holding three-dimensional image data is created. The S5 sorting means 62 sorts the three-dimensional image data according to the Z coordinate value.

【0097】S6 3次元画像ソートデータを保持する
3次元画像ソートデータテーブル73を作成する。S7
〜S9をイベントフラグが1である各ポリゴンについて
繰り返す。
S6 A three-dimensional image sort data table 73 holding the three-dimensional image sort data is created. S7
~ S9 is repeated for each polygon whose event flag is 1.

【0098】S7,S8,S9 距離計算手段63は視
点からの距離を計算する。そして,距離が手の届く範囲
内であればイベントフラグを書き換えない。手の届く範
囲外の距離であればS9でイベントフラグを0に書き換
える。
S7, S8, S9 The distance calculating means 63 calculates the distance from the viewpoint. If the distance is within the reach, the event flag is not rewritten. If the distance is out of reach, the event flag is rewritten to 0 in S9.

【0099】S10 イベントフラグ1の全てのポリゴ
ンについて行ったか判定し,全てのポリゴンについて行
っていなければS7以降の処理をくりかえし,全てのポ
リゴンについて処理を行っていればS10’でイベント
フラグを判定する。
S10: It is judged whether all polygons of the event flag 1 have been executed. If not executed for all polygons, the processes from S7 are repeated. If all polygons have been processed, the event flag is judged in S10 '. .

【0100】S10’〜S12を各ポリゴンについて繰
り返す。 S10’,S11,S12 イベントフラグが1であれ
ばS11で対象物の表示色を赤に表示する。イベントフ
ラグが0であればS12で対象物の本来の色で表示す
る。
Steps S10 'to S12 are repeated for each polygon. S10 ', S11, S12 If the event flag is 1, the display color of the object is displayed in red in S11. If the event flag is 0, the original color of the object is displayed in S12.

【0101】S13 各ポリゴンについて処理を行った
か判定し,各ポリゴンについて処理を行っていなければ
S10’以降の処理を繰り返し,行っていればS1に戻
る。 S14,S14’ S2において,入力判定手段68が
対象物の指定入力を判定した時は,マッチング手段67
は,指定された位置のXY座標により3次元画像ソート
データテーブル73をZ座標値の小さい方から検索す
る。対象物が見つかればS15に進んでイベントフラグ
を判定し,見つからなければS1に戻る。
S13: It is determined whether or not each polygon has been processed. If each polygon has not been processed, the processes in and after S10 'are repeated. If so, the process returns to S1. In S14, S14 'S2, when the input determination means 68 determines the designated input of the object, the matching means 67
Searches the three-dimensional image sort data table 73 from the smaller Z coordinate value according to the XY coordinates of the designated position. If the object is found, the process proceeds to S15 to determine the event flag, and if not found, the process returns to S1.

【0102】S15,S16 イベントフラグを判定
し,イベントフラグが0であればS1に戻る。イベント
フラグが1であればS16でイベント実行手段65はイ
ベントの実行データを作成し,イベント出力データ保持
部74に保持する。イベント出力手段66はイベント出
力データ保持部74に保持されているイベントデータを
取り出してイベント出力装置56に出力する。また,イ
ベントの実行がドアの開閉等の表示装置54に表示する
ものであれば,イベント実行手段65は仮想3次元空間
データを書き換え,座標変換手段を起動することにより
表示データを作成し,表示データ保持部75に保持し,
表示データ出力手段69により表示処理をする。
S15, S16 The event flag is determined. If the event flag is 0, the process returns to S1. If the event flag is 1, the event execution means 65 creates execution data of the event in S16 and holds it in the event output data holding unit 74. The event output unit 66 takes out the event data held in the event output data holding unit 74 and outputs it to the event output device 56. If the event is to be displayed on the display device 54 such as opening and closing the door, the event executing means 65 rewrites the virtual three-dimensional space data and activates the coordinate converting means to create and display the display data. It is held in the data holding unit 75,
Display processing is performed by the display data output means 69.

【0103】実施例3はポリゴン毎に表示する色を変え
て,指定するとイベントが起こる2次元画面上の座標点
を表示するものであるが,各処理中にどのポリゴンがど
の3次元の対象物に属するものであるかという情報を3
次元画像データテーブルに持っておき,指定するとイベ
ントが起こる単位を3次元の対象物毎にすることとし,
3次元の対象物毎に色を変えるようにすることもでき
る。
In the third embodiment, the color displayed for each polygon is changed and the coordinate points on the two-dimensional screen where the event occurs when specified are displayed. Which polygon is which three-dimensional target object during each processing is displayed. Information that belongs to
Have it in the three-dimensional image data table, and if you specify it, the unit in which the event occurs will be the three-dimensional object,
It is also possible to change the color for each three-dimensional object.

【0104】図13は本発明の実施例4のフローチャー
トである。本発明の実施例4は,本発明をZバッファ法
により画素毎に隠面処理を施す方法に適用した場合のフ
ローチャートであり,表示データの作成処理において,
対象物の距離を判断し,距離が手の届く範囲外の距離で
あれば対象物のイベントフラグを0に書換え,距離が手
の届く範囲内の距離であれば対象物のイベントフラグを
そのままにし,表示処理においてイベントフラグが1で
あるものについては表示色を対象物本来の色と異なるイ
ベントが実行されることを示す予め定められた色(例え
ば赤)に変更し,イベントフラグが0であれば対象物本
来の色を表示するものである。
FIG. 13 is a flowchart of the fourth embodiment of the present invention. The fourth embodiment of the present invention is a flow chart when the present invention is applied to a method of performing hidden surface processing for each pixel by the Z buffer method.
Judge the distance of the object, and if the distance is out of the reach, rewrite the event flag of the object to 0, and if the distance is within the reach, leave the event flag of the object as it is. If the event flag is 1 in the display process, the display color is changed to a predetermined color (for example, red) indicating that an event different from the original color of the object is executed, and the event flag is 0. For example, the original color of the object is displayed.

【0105】S1,S2 入力判定手段68は,視点移
動入力と対象物の指定入力を待ち,入力があった場合は
そのいずれかであるかを判定する。視点移動入力の場合
にはS3に進み,対象物の指定入力の場合にはS14に
進む。
The S1 and S2 input determining means 68 waits for the viewpoint movement input and the designation input of the object, and when there is an input, determines which one of them. In the case of the viewpoint movement input, the process proceeds to S3, and in the case of the designation input of the object, the process proceeds to S14.

【0106】S3 視点移動があった場合には,座標変
換手段61は仮想3次元空間データ81の座標値を視点
の位置に応じて2次元画面に透視変換したXY座標値と
画面からの奥行きを示すZ座標値との3次元座標に変換
する。
S3 When there is a viewpoint movement, the coordinate converting means 61 perspectively converts the coordinate values of the virtual three-dimensional space data 81 into a two-dimensional screen according to the position of the viewpoint and the depth from the screen. Convert to three-dimensional coordinates with the indicated Z coordinate value.

【0107】S4〜S13を全てのポリゴンについて繰
り返す。S4〜S12を一つのポリゴン中の全ての画素
について繰り返す。 S4,S5 Z座標判定手段62’は画素毎に同じXY
座標の画素のイベントテーブル73’に保持されている
Z座標値とを比較し,比較対象の画素のZ座標値がイベ
ントテーブル73’のZ座標値より小さい場合には,イ
ベントテーブルにそのZ座標値,イベントフラグ,イベ
ントアドレスを書き込む。
Steps S4 to S13 are repeated for all polygons. S4 to S12 are repeated for all pixels in one polygon. S4, S5 Z coordinate determination means 62 'has the same XY for each pixel.
If the Z coordinate value of the pixel of the coordinate is smaller than the Z coordinate value of the event table 73 ′, the Z coordinate value of the pixel of the coordinate is compared with the Z coordinate value held in the event table 73 ′. Write the value, event flag, and event address.

【0108】イベントフラグが1である画素についてS
6,S7,S8の処理を行う。 S6 距離計算手段63はXY座標値とそのZ座標値に
より示される3次元座標の視点からの距離を計算する。
For a pixel whose event flag is 1, S
The processing of S6, S7 and S8 is performed. S6 The distance calculation means 63 calculates the distance from the viewpoint of the three-dimensional coordinates indicated by the XY coordinate value and the Z coordinate value.

【0109】S7,S8 距離の計算結果の距離が手の
届く範囲内の距離か手の届かない範囲内の距離であるか
判定する。手の届く範囲外であればS8でイベントフラ
グを0に書き換える。手の届く範囲内の距離であればイ
ベントフラグは書き換えない。
S7, S8 It is judged whether the distance calculated as the distance is within the reach of the hand or within the reach of the hand. If it is out of reach, the event flag is rewritten to 0 in S8. If the distance is within the reach, the event flag is not rewritten.

【0110】S9,S10,S11 イベントフラグを
判定し,イベントフラグが1であればS10で対象物を
赤で表示するようにし,イベントフラグが0であれば本
来の色で表示するようにする。
S9, S10, S11 Event flags are determined. If the event flag is 1, the object is displayed in red in S10, and if the event flag is 0, the original color is displayed.

【0111】S12 1つのポリゴン中の全ての画素に
ついて行ったか判定し,全ての画素について終了してい
ればS13に進み,終了していなければS4以降の処理
を繰り返す。
S12: It is determined whether or not all the pixels in one polygon are processed. If all the pixels are completed, the process proceeds to S13, and if not completed, the processes from S4 are repeated.

【0112】S13 全てのポリゴンについて行ったか
判定し,全てのポリゴンについて行っていなければS4
以降の処理をくりかえし,全てのポリゴンについて処理
を行っていればS1に戻る。 S14,S15,S16 S2において,入力判定手段
68が対象物の指定入力を判定した時は,イベント検索
手段67’は指定された位置のXY座標によりイベント
テーブル73’を検索して,イベントフラグを判定す
る。イベントフラグが0であればS1に戻る。イベント
フラグが1であればS16でイベント実行手段65はイ
ベントの実行データを作成し,イベント出力データ保持
部74に保持する。イベント出力手段66はイベント出
力データ保持部74に保持されているイベントデータを
取り出してイベント出力装置56に出力する。また,イ
ベントの実行がドアの開閉等の表示装置54に表示する
ものであれば,イベント実行手段65は仮想3次元空間
データを書き換え,座標変換手段を起動することにより
表示データを作成し,表示データ保持部75に保持し,
表示データ出力手段69により表示処理をする。
S13: It is judged whether or not all polygons have been processed. If not, it is S4.
If the process is repeated for all polygons, the process returns to S1. In S14, S15, S16 and S2, when the input determining means 68 determines the designated input of the object, the event searching means 67 'searches the event table 73' by the XY coordinate of the designated position and sets the event flag. judge. If the event flag is 0, the process returns to S1. If the event flag is 1, the event execution means 65 creates execution data of the event in S16 and holds it in the event output data holding unit 74. The event output unit 66 takes out the event data held in the event output data holding unit 74 and outputs it to the event output device 56. If the event is to be displayed on the display device 54 such as opening and closing the door, the event executing means 65 rewrites the virtual three-dimensional space data and activates the coordinate converting means to create and display the display data. It is held in the data holding unit 75,
Display processing is performed by the display data output means 69.

【0113】実施例4は画素毎に表示する色を変えて,
指定するとイベントが起こる2次元画面上の座標点を表
示するものであるが,各処理中にどの画素がどの3次元
の対象物に属するものであるかという情報を3次元画像
データテーブルに持っておき,指定するとイベントが起
こる単位を3次元の対象物毎にすることし,3次元の対
象物毎に色を変えるようにすることもできる。
In the fourth embodiment, the displayed color is changed for each pixel,
The coordinate points on the 2D screen where an event occurs when specified are displayed. Information on which pixel belongs to which 3D object is stored in the 3D image data table during each processing. If specified, the unit in which the event occurs may be set for each three-dimensional object, and the color may be changed for each three-dimensional object.

【0114】[0114]

【発明の効果】本発明によれば,3次元画像データテー
ブル,3次元画像ソートデータテーブル,イベントテー
ブル等のテーブルを参照して対象物の表示および画面で
指定された3次元空間の対象物を判定するので表示およ
び判定を高速に行うことができる。また,イベントの有
無をテーブルのフラグ等を参照して判定するのでイベン
トの選択も高速に行うことができる。
According to the present invention, an object in the three-dimensional space designated on the display and screen of the object is displayed by referring to a table such as a three-dimensional image data table, a three-dimensional image sort data table, and an event table. Since the determination is made, the display and the determination can be performed at high speed. In addition, since the presence or absence of an event is determined by referring to a flag or the like in the table, it is possible to select an event at high speed.

【0115】そのため,本発明によれば対象物の表示お
よび対象物が指定されてからイベントの実行までの時間
が短くなり,画像処理をリアルタイムに行うことができ
るようになる。また,イベントの実行を視点からの距離
により実行するか否かを決定するので,現実に近い3次
元空間の探索を演出することができる。また,指定する
とイベントが実行される2次元画面上の座標点を本来の
色とは異なる予め定められた色で表示するのでユーザの
探索を助けることができる。
Therefore, according to the present invention, the time from the display of the object and the designation of the object to the execution of the event is shortened, and the image processing can be performed in real time. Moreover, since it is determined whether or not the event is executed depending on the distance from the viewpoint, it is possible to produce a search for a three-dimensional space that is close to reality. Further, when specified, the coordinate points on the two-dimensional screen where the event is executed are displayed in a predetermined color different from the original color, so that the user's search can be assisted.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の基本構成を示す図である。FIG. 1 is a diagram showing a basic configuration of the present invention.

【図2】本発明の3次元画像の処理方法の説明図であ
る。
FIG. 2 is an explanatory diagram of a three-dimensional image processing method of the present invention.

【図3】本発明の仮想3次元空間データテーブルの例を
示す図である。
FIG. 3 is a diagram showing an example of a virtual three-dimensional space data table of the present invention.

【図4】本発明の3次元画像の処理方法の説明図であ
る。
FIG. 4 is an explanatory diagram of a three-dimensional image processing method of the present invention.

【図5】本発明の3次元画像の処理方法の説明図であ
る。
FIG. 5 is an explanatory diagram of a three-dimensional image processing method of the present invention.

【図6】本発明の実施例1のシステム構成を示す図であ
る。
FIG. 6 is a diagram showing a system configuration of a first embodiment of the present invention.

【図7】本発明の3次元画像データテーブルと3次元画
像ソートデータテーブルの実施例を示す図である。
FIG. 7 is a diagram showing an example of a three-dimensional image data table and a three-dimensional image sort data table of the present invention.

【図8】本発明の実施例1のシステム構成のフローチャ
ートを示す図である。
FIG. 8 is a diagram showing a flowchart of the system configuration of the first embodiment of the present invention.

【図9】本発明の実施例2のシステム構成を示す図であ
る。
FIG. 9 is a diagram showing a system configuration of a second embodiment of the present invention.

【図10】本発明のイベントテーブルの実施例を示す図
である。
FIG. 10 is a diagram showing an example of an event table of the present invention.

【図11】本発明の実施例2のシステム構成のフローチ
ャートを示す図である。
FIG. 11 is a diagram showing a flowchart of the system configuration of Example 2 of the present invention.

【図12】本発明の実施例3のフローチャートを示す図
である。
FIG. 12 is a diagram showing a flowchart of Embodiment 3 of the present invention.

【図13】本発明の実施例4のフローチャートを示す図
である。
FIG. 13 is a diagram showing a flowchart of Embodiment 4 of the present invention.

【図14】従来の技術を示す図である。FIG. 14 is a diagram showing a conventional technique.

【符号の説明】[Explanation of symbols]

1:3次元画像処理装置 2:記憶部 3:仮想3次元空間データ保持部 4:3次元画像データテーブル 5:イベント情報保持部 6:座標変換手段 7:表示データ作成手段 8:イベント実行手段 9:検索手段 10:表示装置 11:他の情報出力装置 12:入力装置 1: Three-dimensional image processing device 2: Storage unit 3: Virtual three-dimensional space data storage unit 4: Three-dimensional image data table 5: Event information storage unit 6: Coordinate conversion unit 7: Display data creation unit 8: Event execution unit 9 : Search means 10: display device 11: other information output device 12: input device

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 表示対象を構成する3次元表示要素の頂
点の各座標を視点に基づいて2次元画面上に透視変換し
たXY座標と該2次元画面からの奥行きを表すZ座標と
に変換する座標変換手段と,座標変換手段の変換したX
Y座標に対応してZ座標と対象物に関する情報とを保持
する3次元画像データテーブルと,3次元画像の表示画
面上で指定された1点により3次元画像データテーブル
を検索する検索手段とを備え,3次元画像データテーブ
ルの座標データに基づいて3次元画像表示し,3次元画
像表示後も該3次元画像データテーブルを保持し,該検
索手段は指定された1点のXY座標をキーに該3次元画
像データテーブルを最小のZ座標について検索し,該当
する対象物に関する情報を出力することを特徴とする3
次元画像処理装置。
1. Coordinates of respective vertices of a three-dimensional display element constituting a display target are converted into XY coordinates which are perspective-transformed on a two-dimensional screen based on a viewpoint and Z coordinates which represent a depth from the two-dimensional screen. Coordinate conversion means and X converted by the coordinate conversion means
A three-dimensional image data table that holds the Z coordinate and information about the object corresponding to the Y coordinate, and a search means that searches the three-dimensional image data table by one point specified on the display screen of the three-dimensional image. The three-dimensional image data table is displayed based on the coordinate data of the three-dimensional image data table, the three-dimensional image data table is held even after the three-dimensional image is displayed, and the search means uses the designated XY coordinate of one point as a key. The three-dimensional image data table is searched for the smallest Z coordinate, and information about the corresponding object is output.
Dimensional image processing device.
【請求項2】 表示対象物のイベント情報を保持したイ
ベント情報保持部と,イベント情報を実行するイベント
実行手段とを備え,3次元画像データテーブル中の対象
物に関する情報がイベント情報保持部中の対象物のイベ
ント情報を指し示すアドレスであり,検索手段が3次元
画像の表示画面上で指定された1点のXY座標をキーに
該3次元画像データテーブルをZ座標について検索し,
該当するアドレスを出力すると,イベント実行手段はそ
のアドレスによりイベント情報保持部中のイベント情報
を実行することを特徴とする請求項1に記載の3次元画
像処理装置。
2. An event information holding unit for holding event information of a display target and an event execution unit for executing the event information, wherein information about the target in the three-dimensional image data table is stored in the event information holding unit. This is an address indicating the event information of the object, and the searching means searches the three-dimensional image data table for the Z coordinate using the XY coordinate of one point designated on the display screen of the three-dimensional image as a key,
The three-dimensional image processing apparatus according to claim 1, wherein when the corresponding address is output, the event executing means executes the event information in the event information holding unit by the address.
【請求項3】 3次元画像データテーブルはイベントの
有無を示すイベントフラグを保持するものであり,イベ
ントフラグを参照してイベントの実行の有無を判定する
ものであることを特徴とする請求項2に記載の3次元画
像処理装置。
3. The three-dimensional image data table holds an event flag indicating the presence / absence of an event, and the presence / absence of execution of the event is determined by referring to the event flag. The three-dimensional image processing device according to item 1.
【請求項4】 指定された対象物の視点からの距離が予
め定めた一定値以内であるかないかを判定する距離判定
手段を備え,該距離が該一定値より大きい場合には該対
象物のイベントフラグがイベント有りを示すものであっ
てもイベントを実行しないこととし,イベント有りであ
って対象物の距離が一定値以内であれば,イベントを実
行することを特徴とする請求項3に記載の3次元画像処
理装置。
4. A distance determining means for determining whether or not the distance of the designated object from the viewpoint is within a predetermined constant value, and when the distance is larger than the constant value, the object is The event is not executed even if the event flag indicates that there is an event, and the event is executed when the event exists and the distance of the object is within a certain value. 3D image processing device.
【請求項5】 対象物の表示処理において,対象物の視
点からの距離を判定し,該一定値以上の対象物のイベン
トフラグをイベントを実行しないフラグとし,イベント
有りの対象物は通常の表示色と異なる予め定められた色
で表示することを特徴とする請求項3に記載の3次元画
像処理装置。
5. In the display processing of the object, the distance from the viewpoint of the object is determined, and the event flag of the object having a certain value or more is used as a flag not to execute the event, and the object having the event is normally displayed. The three-dimensional image processing device according to claim 3, wherein the three-dimensional image processing device displays in a predetermined color different from the color.
【請求項6】 ソート手段を備え,3次元画像データテ
ーブルをZ座標によりソートし,ソートした結果を保持
する3次元画像ソートデータテーブルを備え,指定対象
物判定時には該3次元画像ソートデータテーブルのZ座
標値を小さい方から大きい方へ,画像表示時には大きい
方から小さい方へ順次に検索することを特徴とする請求
項1,2,3,4もしくは5に記載の3次元画像処理装
置。
6. A three-dimensional image sort data table, which comprises a sorting means, sorts a three-dimensional image data table by Z coordinates, and holds a sorted result, wherein the designated three-dimensional image sort data table 6. The three-dimensional image processing device according to claim 1, wherein the Z coordinate value is sequentially searched from the smaller one to the larger one and from the larger one to the smaller one when the image is displayed.
【請求項7】 画素毎にZ座標値を判定して同一画素の
位置にZ座標値の異なる対象物がある場合にZ座標値に
より視点に近い対象物を判定する3次元画像処理装置で
あって,画素対応に視点に一番近いZ座標値と画素の対
象物のイベントフラグおよびイベント情報を保持するイ
ベントテーブルを画像表示時に作成して保持することを
特徴とする請求項1,2,3もしくは4に記載の3次元
画像処理装置。
7. A three-dimensional image processing apparatus for determining a Z-coordinate value for each pixel and determining an object close to a viewpoint based on the Z-coordinate value when there is an object having a different Z-coordinate value at the same pixel position. 4. An event table holding the Z coordinate value closest to the viewpoint corresponding to the pixel, the event flag of the pixel object, and the event information is created and held at the time of displaying the image. Alternatively, the three-dimensional image processing device according to item 4.
【請求項8】 画素毎にZ座標値を判定して同一画素の
位置にZ座標値の異なる対象物の画素がある場合にZ座
標値により視点に近い対象物を判定する3次元画像処理
装置であって,画素を表示する処理において,対象物の
視点からの距離を判定し,該距離が一定値以上であれば
該対象物のイベントフラグをイベントがなしとし,該距
離が一定値以内であって,イベント有りの対象物の表示
色を通常の表示色と異なる予め定められた色で表示する
ことを特徴とする請求項1もしくは2に記載の3次元画
像処理装置。
8. A three-dimensional image processing apparatus for determining a Z-coordinate value for each pixel and determining an object close to a viewpoint based on the Z-coordinate value when there is a pixel of an object having a different Z-coordinate value at the same pixel position. In the process of displaying pixels, the distance from the viewpoint of the object is determined, and if the distance is equal to or greater than a certain value, the event flag of the object is set as no event, and if the distance is within a certain value. The three-dimensional image processing apparatus according to claim 1 or 2, wherein the display color of the object with the event is displayed in a predetermined color different from the normal display color.
JP19502895A 1995-07-31 1995-07-31 3D image processing device Expired - Fee Related JP3764191B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19502895A JP3764191B2 (en) 1995-07-31 1995-07-31 3D image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19502895A JP3764191B2 (en) 1995-07-31 1995-07-31 3D image processing device

Publications (2)

Publication Number Publication Date
JPH0944703A true JPH0944703A (en) 1997-02-14
JP3764191B2 JP3764191B2 (en) 2006-04-05

Family

ID=16334339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19502895A Expired - Fee Related JP3764191B2 (en) 1995-07-31 1995-07-31 3D image processing device

Country Status (1)

Country Link
JP (1) JP3764191B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114529706A (en) * 2022-04-22 2022-05-24 三一筑工科技股份有限公司 Method, device, equipment and medium for splitting target object in three-dimensional model

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114529706A (en) * 2022-04-22 2022-05-24 三一筑工科技股份有限公司 Method, device, equipment and medium for splitting target object in three-dimensional model
CN114529706B (en) * 2022-04-22 2022-07-08 三一筑工科技股份有限公司 Method, device, equipment and medium for splitting target object in three-dimensional model

Also Published As

Publication number Publication date
JP3764191B2 (en) 2006-04-05

Similar Documents

Publication Publication Date Title
US20140132595A1 (en) In-scene real-time design of living spaces
JPH02287776A (en) Method for adopting hierarchical display list in global rendering
JP2004288170A (en) Three-dimensional model retrieval method and system
JPH1091649A (en) Method and device for information retrieval in structured information space
JPH0527677A (en) Method and device for three-dimensional display of figure information
CN113359986B (en) Augmented reality data display method and device, electronic equipment and storage medium
US7030875B2 (en) Environmental reasoning using geometric data structure
Agnello et al. Virtual reality for historical architecture
JPH10149432A (en) Three-dimensional form retrieval device
JP3764191B2 (en) 3D image processing device
KR20140078083A (en) Method of manufacturing cartoon contents for augemented reality and apparatus performing the same
JPH09134446A (en) Method for displaying three-dimensional picture and three-dimensional picture display device used for the method
JPH03211686A (en) Computer control display method and apparatus
JPH0916315A (en) Information retrieval system
Meißner et al. Generation of Decomposition Hierarchies for Efficient Occlusion Culling of Large Polygonal Models.
JP4424008B2 (en) Program, data processing apparatus and method thereof
JP2001266175A (en) Device/method for processing three-dimensional model and program providing method
JPH07271998A (en) Method and device for three-dimensional display
KR100748240B1 (en) Method and system for image rendering
JPH0773342A (en) Image generator
Xiao Interactive display and intelligent walk-through in a virtual environment
JP2644509B2 (en) Image structure extraction method by image deformation operation
CN114511660A (en) Method for detecting objects in visual scene
JP3792202B2 (en) 3D image display method and 3D image display apparatus used therefor
JPH02181270A (en) Picture retrieving method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050822

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120127

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees