JP2002251627A - Method and device for generating image data - Google Patents

Method and device for generating image data

Info

Publication number
JP2002251627A
JP2002251627A JP2001049549A JP2001049549A JP2002251627A JP 2002251627 A JP2002251627 A JP 2002251627A JP 2001049549 A JP2001049549 A JP 2001049549A JP 2001049549 A JP2001049549 A JP 2001049549A JP 2002251627 A JP2002251627 A JP 2002251627A
Authority
JP
Japan
Prior art keywords
data
image data
polygon
image
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001049549A
Other languages
Japanese (ja)
Inventor
Takeshi Minagawa
剛 皆川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001049549A priority Critical patent/JP2002251627A/en
Publication of JP2002251627A publication Critical patent/JP2002251627A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To solve the problem that a method for generating image data which processes whole image data by each frame restricts image quality of the image data to be generated by performance of a hardware and image quality is far lower than that of image data generated by spending sufficient time, and a problem that a method for generating image data which switches a plurality of scenarios by a user command can present high-quality image data to the user but restricts the number of scenarios depending on capacity of a storage device, and a degree of freedom the user is allowed is low. SOLUTION: Virtual world data is classified into two kinds as a background part which does not interact with a user and an object part which interacts with the user. As for the background part, high-quality image data is previously generated by spending sufficient time. As for the object part, image data for only a part which does not hide behind the background part is generated in a phase that a way the image data is seen on each frame is determined by the user command.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、仮想世界データか
ら画像データを生成する方法およびその装置、特に、複
数の画像データを合成する処理を含んだ画像データ生成
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for generating image data from virtual world data, and more particularly to an image data generation including a process for synthesizing a plurality of image data.

【0002】[0002]

【従来の技術】仮想世界データから画像データを生成す
るための従来の技術には、以下のものがある。
2. Description of the Related Art Conventional techniques for generating image data from virtual world data include the following.

【0003】ユーザとの相互作用がある場合の技術とし
て、仮想世界における物体の形状を多面体で近似して表
現しておき、リアルタイムに画像データを生成する技術
がある。物体の輪郭線や光線の影響などは、多面体の3
次元データ(以下「ポリゴンデータ」と呼ぶ)から計算
によって算出する。質感を表現するためには、ポリゴン
データとは別にテクスチャデータと呼ばれるデータを使
用する。テクスチャデータは、視点の位置やポリゴンの
傾きなどによって形状や色調を適切に変調された後、各
多角形の表面に貼り付けられる。これらの技術は、3次
元データを考慮して画像データを生成するゲームなどに
使われている技術である。
As a technique in the case where there is an interaction with a user, there is a technique in which the shape of an object in a virtual world is approximated and represented by a polyhedron, and image data is generated in real time. The contours of the object and the effects of light rays
It is calculated by calculation from dimensional data (hereinafter referred to as “polygon data”). In order to express the texture, data called texture data is used separately from the polygon data. The texture data is pasted on the surface of each polygon after the shape and color tone are appropriately modulated according to the position of the viewpoint and the inclination of the polygon. These techniques are used in games that generate image data in consideration of three-dimensional data.

【0004】最終的に得られる画像データの画質を高く
するためにはできるだけ多くの多角形の集合で物体を表
現する方が望ましいが、リアルタイムに処理することが
必要であるため、利用可能な多角形の数にはハードウェ
アに依存した上限値が存在する。そのため、最終的に得
られる画像データの画質劣化ができるだけ少なくなるよ
うに各々の物体を表現する多角形の数を減少させる方法
が研究されている。例えば「D.Luebke,C.E
rikson:View−DependentSimp
lification Of Arbitrary P
olygonal Environments,Com
puter Graphics(Proceeding
s of SIGGRAPH’97),pp.199−
208,1997」のような公知例がある。
[0004] In order to improve the image quality of the finally obtained image data, it is desirable to represent an object by a set of polygons as much as possible. There is a hardware-dependent upper limit on the number of polygons. Therefore, a method of reducing the number of polygons representing each object so as to minimize the deterioration of the image quality of the finally obtained image data has been studied. For example, "D. Luebke, C.E.
rickson: View-DependentSimp
lectionation of Arbitrary P
polygonal Environments, Com
puter Graphics (Proceeding
s of SIGGRAPH '97), pp. 199-
208, 1997 ".

【0005】ユーザとの相互作用がない場合、精密にモ
デリングされた仮想世界データから、光線追跡などを厳
密に行い、あらかじめ十分な時間をかけて高品質な画像
データを生成することができる。実写画像データの撮影
時に、あらかじめ3次元構造を復元できるような仕掛け
を用意しておくことにより、オペレータが微調整をする
ものの、実写画像データからそのシーンの3次元構造を
復元し、該シーンの実写画像データにコンピュータグラ
フィクス(以下「CG」とする)で生成した物体を埋め
込むことも可能である。これらの技術は、映画などの分
野で利用されている。なお、シーンの3次元構造を復元
したデータとしては、画像データの各画素毎に奥行きデ
ータを記録した「デプスマップ」と呼ばれるもの、ポリ
ゴン表現したもの、の2種類のうちのいずれかが使われ
ている。
[0005] When there is no interaction with the user, it is possible to rigorously perform ray tracing or the like from the precisely modeled virtual world data and generate high-quality image data in a sufficient time in advance. By preparing a mechanism that can restore the three-dimensional structure in advance at the time of capturing the actual image data, the operator makes fine adjustments, but restores the three-dimensional structure of the scene from the actual image data, and It is also possible to embed an object generated by computer graphics (hereinafter, referred to as “CG”) in the real image data. These technologies are used in fields such as movies. As the data obtained by restoring the three-dimensional structure of the scene, one of two types, that is, a "depth map" in which depth data is recorded for each pixel of image data and a polygon representation is used. ing.

【0006】[0006]

【発明が解決しようとする課題】高品質の画像データを
ユーザに提示しつつ、かつ、3次元仮想世界データにで
きるだけ矛盾せずに、ユーザとの相互作用があるコンテ
ンツを実現することが本発明の目的である。
SUMMARY OF THE INVENTION It is an object of the present invention to realize a content that interacts with a user while presenting high-quality image data to the user and contradicting the three-dimensional virtual world data as little as possible. Is the purpose.

【0007】ユーザとの相互作用がある場合において
は、高品質の画像データをユーザに提示するためには多
数の多角形で物体を表現する必要があるが、多数の多角
形で物体を表現した場合、それらをリアルタイムで処理
するためには非常に高いハードウェア性能が要求される
という課題がある。それに対する対策として、最終的に
得られる画像データの画質劣化ができるだけ少なくなる
ように各々の物体を表現する多角形の数を減少させる方
法を用いた場合、物体が元のモデルより荒いモデルによ
って近似されることに起因する誤差により、ユーザに提
示される画像データ中での物体の輪郭線が滑らかでなく
なる、近似した多面体の稜線がユーザに提示される画像
データにおいて知覚されやすい、などの課題が生じる。
このうち、後者はテクスチャデータを変調する関数が隣
接する多角形において大きく異なってくることに起因す
るものである。
When there is interaction with the user, it is necessary to represent the object with a large number of polygons in order to present high-quality image data to the user, but the object is represented with a large number of polygons. In such a case, there is a problem that very high hardware performance is required to process them in real time. As a countermeasure, if the method of reducing the number of polygons representing each object is used so that the image quality degradation of the finally obtained image data is minimized, the object is approximated by a rougher model than the original model. Due to the error caused by being performed, the contours of the object in the image data presented to the user are not smooth, and the edges of the approximated polyhedron are easily perceived in the image data presented to the user. Occurs.
The latter is due to the fact that the function for modulating the texture data differs greatly between adjacent polygons.

【0008】ユーザとの相互作用がない場合の技術にお
いては、画像データを生成するための計算量が膨大であ
るため、次のような課題がある。精密にモデリングされ
た仮想世界データを使ってユーザとの相互作用をリアル
タイムに処理する場合には、非常に高いハードウェア性
能が要求される。実写画像データから3次元構造を復元
してCGを合成する場合には、シーンの3次元構造を復
元したデータとして何を使うかに依存して、各々、次の
ような課題がある。シーンの3次元構造を復元したデー
タとしてデプスマップを使った場合には、解像度依存の
データとなるため、生成したい画像データの解像度が変
化する度にデプスマップ自体を作り変えなければならな
い、ポリゴン表現に比べてデータ量が多くなる、という
課題がある。また、ポリゴン表現を使う場合、多数の多
角形を使って該シーンを厳密に復元することは、今なお
研究課題であり一般的に困難であるため、復元した3次
元構造を表現する多角形の数は少なくならざるを得ず、
したがって、得られる3次元構造には多くの誤差が含ま
れたものとなるという課題がある。
In the technique in the case where there is no interaction with the user, the amount of calculation for generating the image data is enormous, and therefore the following problem occurs. Processing real-time interactions with users using precisely modeled virtual world data requires very high hardware performance. When the CG is synthesized by restoring the three-dimensional structure from the actual image data, there are the following problems depending on what is used as the data obtained by restoring the three-dimensional structure of the scene. When a depth map is used as data obtained by restoring the three-dimensional structure of a scene, the data becomes resolution-dependent, so the depth map itself must be recreated every time the resolution of the image data to be generated changes. There is a problem that the amount of data is larger than that of. Also, when using polygon representation, it is still a research topic and it is generally difficult to strictly restore the scene using a large number of polygons. The number must be small,
Therefore, there is a problem that the obtained three-dimensional structure includes many errors.

【0009】[0009]

【問題を解決するための手段】本発明では、前記の課題
を解決するため、ユーザとの相互作用がない部分(以下
「背景部分」とする)については事前に十分な時間をか
けて画像データを生成し、また、ユーザとの相互作用が
ある部分(以下「物体部分」とする)についてはリアル
タイムに画像データを生成し、それらの画像データを合
成して出力するという手段をとった。このような手段を
とることにより、高品質の画像データを提供しつつ、ユ
ーザとの相互作用も可能となる。なぜなら、リアルタイ
ムに画像を生成すべき部分が物体部分に限定されるた
め、リアルタイムに処理すべきデータ量が減少するから
である。
According to the present invention, in order to solve the above-mentioned problems, it is necessary to take sufficient time beforehand for a portion having no interaction with a user (hereinafter referred to as a "background portion"). In addition, for a part having an interaction with the user (hereinafter referred to as an “object part”), image data is generated in real time, and the image data is combined and output. By taking such means, it is possible to provide high-quality image data and also to interact with the user. This is because the portion in which an image is to be generated in real time is limited to the object portion, and the amount of data to be processed in real time is reduced.

【0010】本発明では、さらに、物体部分のうち背景
部分の背後に隠される部分を消去したデータを物体部分
の画像データとして生成するという手段をとった。この
ような手段をとることにより、背景部分の画像データに
物体部分の画像データをオーバーレイするだけで、仮想
世界全体の見え隠れの関係を考慮した画像データを生成
することができ、画質を劣化させることなく、リアルタ
イムに処理すべきデータの量を減らすことができる。
According to the present invention, a means is provided for generating data as an image data of the object portion by deleting a portion of the object portion hidden behind the background portion. By taking such a measure, it is possible to generate image data in consideration of the visibility of the entire virtual world simply by overlaying the image data of the object portion on the image data of the background portion, thereby deteriorating the image quality. And the amount of data to be processed in real time can be reduced.

【0011】また、本発明では、背景部分の仮想世界デ
ータと物体部分の仮想世界データから、ポリゴンの選択
処理や再構成処理によって、物体部分の画像データを生
成する場合において見え隠れの関係に関して背景部分の
仮想世界データと等価となり、かつ、背景部分の仮想世
界データよりデータ量が少ないような第2の仮想世界デ
ータをあらかじめ生成し、物体部分の画像データを生成
する際に、背景部分の仮想世界データの代わりに該第2
の仮想世界データを使用するという手段をとった。この
ような手段をとることにより、画質を劣化させることな
く(もしくは劣化を抑えて)リアルタイムに処理すべき
データの量を減らすことができる。
Further, according to the present invention, when the image data of the object part is generated from the virtual world data of the background part and the virtual world data of the object part by selection processing and reconstruction processing of the polygon, the background part is hidden. When the second virtual world data which is equivalent to the virtual world data of the above and has a smaller data amount than the virtual world data of the background portion is generated in advance, and the image data of the object portion is generated, the virtual world of the background portion is generated. Instead of the data
Using virtual world data. By taking such means, it is possible to reduce the amount of data to be processed in real time without deteriorating the image quality (or suppressing the deterioration).

【0012】[0012]

【発明の実施の形態】以下、図1〜図4を用いて、本発
明の第一の実施例について説明する。図1は、本実施例
におけるデータフロー図である。仮想世界データ100
は、背景データ101と共通データ102と物体データ
103とを備える。仮想世界データ100はあらかじめ
与えられるデータである。また、ユーザとの相互作用は
ユーザ入力104により行う。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described below with reference to FIGS. FIG. 1 is a data flow diagram in the present embodiment. Virtual world data 100
Includes background data 101, common data 102, and object data 103. The virtual world data 100 is data given in advance. Further, the interaction with the user is performed by the user input 104.

【0013】背景データ101は、ポリゴンデータ10
10とテクスチャデータ1011を備える。背景データ
101は、仮想世界データ100の備えるポリゴンデー
タとテクスチャデータのうち、ユーザとの相互作用に関
係しない部分のデータである。
The background data 101 is the polygon data 10
10 and texture data 1011. The background data 101 is data of a portion of the polygon data and the texture data included in the virtual world data 100 that is not related to the interaction with the user.

【0014】共通データ102は、視点データ1020
を備える。共通データ102は、仮想世界データ100
の備えるデータから、ポリゴンデータとテクスチャデー
タとを除いたデータである。従って、共通データ102
は、視点データ1020の他に、光線データなどを備え
ていてもよい。
The common data 102 includes viewpoint data 1020
Is provided. The common data 102 is the virtual world data 100
This is data obtained by removing polygon data and texture data from the data provided in. Therefore, the common data 102
May include ray data in addition to the viewpoint data 1020.

【0015】物体データ103は、ポリゴンデータ10
30とテクスチャデータ1031を備える。物体データ
103は、仮想世界データ100の備えるポリゴンデー
タとテクスチャデータのうち、ユーザとの相互作用に関
係する部分のデータである。
The object data 103 includes the polygon data 10
30 and texture data 1031. The object data 103 is data of a part of the polygon data and the texture data included in the virtual world data 100 that is related to the interaction with the user.

【0016】背景画像データ生成処理108は、ポリゴ
ンデータ1010と、テクスチャデータ1011と、共
通データ102と、を入力として背景画像データ105
を出力するものである。背景画像データ生成処理108
としては、市販の画像レンダリングソフトウェア等で使
用されている公知の技術を用いることができる。背景画
像データ105が必要とされている画質を満たすよう
に、背景画像データ生成処理108は、処理時間や記憶
容量等の面で十分なリソースを用意して、事前に行って
おくのがよい。
The background image data generation processing 108 receives the polygon data 1010, the texture data 1011 and the common data 102 as input and outputs the background image data 105
Is output. Background image data generation processing 108
For example, a known technique used in commercially available image rendering software or the like can be used. It is preferable that the background image data generation processing 108 be performed in advance by preparing sufficient resources in terms of processing time, storage capacity, and the like so that the background image data 105 satisfies the required image quality.

【0017】物体画像データ生成処理109は、ポリゴ
ンデータ1010と、共通データ102と、ポリゴンデ
ータ1030と、テクスチャデータ1031と、ユーザ
入力104と、を入力として物体画像データ106を出
力するものである。物体画像データ生成処理109の詳
細は図3において説明する。
The object image data generation processing 109 outputs the object image data 106 using the polygon data 1010, the common data 102, the polygon data 1030, the texture data 1031 and the user input 104 as inputs. Details of the object image data generation processing 109 will be described with reference to FIG.

【0018】画像データ合成処理110は、背景画像デ
ータ105と物体画像データ106とを入力とし、出力
画像データ107を出力するものである。画像データ合
成処理110は、背景画像データ105の上に物体画像
データ106を上描きする処理である。
The image data synthesizing process 110 receives the background image data 105 and the object image data 106 and outputs the output image data 107. The image data synthesizing process 110 is a process of overwriting the object image data 106 on the background image data 105.

【0019】本実施例においては、以上説明したフロー
により、仮想世界データ100から出力画像データ10
7を得る。
In the present embodiment, according to the flow described above, the output image data 10
Get 7.

【0020】なお、上記説明において、仮想世界中に存
在するすべての物体の形状は多角形の集合で表現されて
いるものとする。また、ポリゴンデータとは、仮想世界
中に存在する物体の形状および位置および姿勢を特定で
きるデータであればよく、仮想世界中に存在するすべて
の多角形の頂点の3次元位置を列挙したデータである必
要はない。例えば、形状が同一であるような物体が複数
ある場合には、基準となる物体1つだけについて、多角
形の頂点の3次元位置を列挙したデータを持ち、残りの
物体については、基準からの相対的な位置および相対的
な姿勢を記述するようにしてもよい。
In the above description, it is assumed that the shapes of all objects existing in the virtual world are represented by a set of polygons. The polygon data may be any data that can specify the shape, position, and orientation of an object existing in the virtual world, and is data that enumerates the three-dimensional positions of vertices of all polygons existing in the virtual world. No need to be. For example, when there are a plurality of objects having the same shape, only one reference object has data listing the three-dimensional positions of the vertices of the polygon. The relative position and the relative posture may be described.

【0021】次に図2を用いて説明を続ける。図2は、
本実施例の画像データ生成処理の概念図である。仮想空
間201内にある物体2011と物体2012は、ユー
ザとの相互作用を行わない物体であり、その形状はポリ
ゴンデータ1010で記述される。仮想空間202内に
ある物体2021は、ユーザとの相互作用を行う物体で
あり、その形状はポリゴンデータ1030で記述され
る。なお、仮想空間201と仮想空間202とは、実際
には同一の仮想空間である。
Next, the description will be continued with reference to FIG. FIG.
It is a conceptual diagram of the image data generation processing of a present Example. The objects 2011 and 2012 in the virtual space 201 do not interact with the user, and their shapes are described by polygon data 1010. An object 2021 in the virtual space 202 is an object that interacts with the user, and its shape is described by polygon data 1030. Note that the virtual space 201 and the virtual space 202 are actually the same virtual space.

【0022】共通データ102とポリゴンデータ101
0とポリゴンデータ1030とから、見え隠れの関係を
考慮して物体画像データ106を生成する。例えば、仮
想空間201と仮想空間202とを、実際に同一の仮想
空間200で考えた場合、各物体が手前から順に物体2
011→物体2021→物体2012の順で並んでいた
とする。このとき、物体画像データ106としては、物
体2021から物体2011に隠される部分を除いた残
りの領域2022に関して、上記データの他にテクスチ
ャデータ1031も使って生成する。ここで、物体画像
データ106の領域2022以外の領域は、透明である
とする。
Common data 102 and polygon data 101
The object image data 106 is generated from 0 and the polygon data 1030 in consideration of the relationship between visibility and occlusion. For example, when the virtual space 201 and the virtual space 202 are actually considered in the same virtual space 200, each object is
It is assumed that the objects are arranged in the order of 011 → object 2021 → object 2012. At this time, the object image data 106 is generated using the texture data 1031 in addition to the data described above with respect to the remaining area 2022 excluding the part hidden from the object 2011 from the object 2021. Here, it is assumed that an area other than the area 2022 of the object image data 106 is transparent.

【0023】以上のように物体画像データ106を生成
することにより、物体画像データ106をあらかじめ生
成しておいた背景画像データ105に上描きすることに
よって得られる出力画像データ107は、各物体の見え
隠れの関係を考慮した、矛盾のない画像データとなる。
By generating the object image data 106 as described above, the output image data 107 obtained by overdrawing the object image data 106 on the background image data 105 which has been generated in advance can be used as the output image data 107 of each object. , And has no contradiction.

【0024】なお、上記例では「領域2022以外の領
域は透明である」として物体画像データ106を生成
し、画像データ合成処理によって背景画像データと物体
画像データとを合成したが、陽に物体画像データ106
を生成せずに、背景画像105の上に領域2022を直
接描画するようにしてもよい。すなわち、画像データを
構成する全画素について値を決定する必要はなく、必要
な部分だけの部分的な更新処理とすることもできる。
In the above example, the object image data 106 is generated on the assumption that "the region other than the region 2022 is transparent", and the background image data and the object image data are synthesized by the image data synthesis processing. Data 106
, The area 2022 may be drawn directly on the background image 105. That is, it is not necessary to determine the values for all the pixels constituting the image data, and it is also possible to perform a partial update process for only necessary portions.

【0025】次に、図3を用いて、画像データの生成の
手順を説明する。図3は、本実施例の物体画像データ生
成処理のフローチャートである。ステップ400で物体
画像データ生成処理が開始されると、まず、ステップ4
01で物体画像データの全画素の画素値を「透明」で初
期化する。
Next, a procedure for generating image data will be described with reference to FIG. FIG. 3 is a flowchart of the object image data generation processing of the present embodiment. When the object image data generation processing is started in step 400, first, in step 4
At 01, the pixel values of all the pixels of the object image data are initialized to “transparent”.

【0026】次に、ステップ402において、背景デー
タがなく物体データだけ存在する、として、物体画像デ
ータを生成する。
Next, in step 402, object image data is generated on the assumption that there is no background data and only object data exists.

【0027】最後に、ステップ403において、背景デ
ータで隠される部分の画素値を「透明」とし、ステップ
404において物体画像データ生成処理を終了する。
Finally, in step 403, the pixel value of the portion hidden by the background data is set to "transparent", and in step 404, the object image data generation processing ends.

【0028】なお、図3で説明した処理と等価な処理を
行うために、画素の「透明」値を使用する代わりに、Z
バッファアルゴリズムを利用することもできる。
In order to perform a process equivalent to the process described with reference to FIG. 3, instead of using the "transparent" value of the pixel, Z
A buffer algorithm can also be used.

【0029】次に図4を用いて、本実施例の装置構成に
ついて説明する。図4は、本実施例における装置構成図
である。図1と同一の記号は、図1と同一のものを表し
ている。
Next, the configuration of the apparatus of this embodiment will be described with reference to FIG. FIG. 4 is an apparatus configuration diagram in the present embodiment. The same symbols as those in FIG. 1 represent the same as those in FIG.

【0030】背景画像データ再生プログラム305と、
物体画像データ生成プログラム306と、画像データ合
成プログラム307と、画像表示プログラム308と、
は必要に応じて補助記憶装置303から主記憶装置30
2に読み込まれ、中央演算処理装置301によって実行
される。各プログラムが使用するデータも、必要に応じ
て補助記憶装置303から主記憶装置302に読み込ま
れ、処理される。
A background image data reproducing program 305;
An object image data generation program 306, an image data synthesis program 307, an image display program 308,
May be transferred from the auxiliary storage device 303 to the main storage device 30 as necessary.
2 is executed by the central processing unit 301. The data used by each program is also read from the auxiliary storage device 303 into the main storage device 302 as needed, and processed.

【0031】背景画像データ再生プログラム305は、
あらかじめ生成しておいた背景画像データ105を補助
記憶装置303から読み込む処理を行う。背景画像デー
タが圧縮されて保存されている場合には、読み込んだ後
に伸張処理も行う。
The background image data reproduction program 305 is
A process of reading the background image data 105 generated in advance from the auxiliary storage device 303 is performed. When the background image data is stored in a compressed state, a decompression process is also performed after the background image data is read.

【0032】物体画像データ生成プログラム306は、
ポリゴンデータ1010と、共通データ102と、物体
データ103と、ユーザコマンド入力手段304から入
力されるユーザ入力104と、を用いて物体画像データ
106を生成する処理を行う。
The object image data generation program 306 includes:
A process of generating object image data 106 using the polygon data 1010, the common data 102, the object data 103, and the user input 104 input from the user command input unit 304 is performed.

【0033】画像データ合成プログラム307は、生成
された物体画像データ106を背景画像データ105に
上描きする処理を行う。
The image data synthesizing program 307 performs a process of overwriting the generated object image data 106 on the background image data 105.

【0034】画像表示プログラム308は、生成された
出力画像データ107を画像表示手段309に出力する
処理を行う。
The image display program 308 performs a process of outputting the generated output image data 107 to the image display means 309.

【0035】以上、第一の実施例によれば、十分なリソ
ースを用意してあらかじめ生成しておいた背景画像デー
タに、ユーザとの相互作用を反映させた物体画像データ
を上描きすることで、高品質の画像データを提供しつ
つ、ユーザとの相互作用が可能になる。物体画像データ
は、上描き処理によって背景データとの3次元構造に矛
盾が生じないように生成しているため、画質を劣化させ
ずに、簡単な合成処理によって出力画像データの生成を
行うことができる。
As described above, according to the first embodiment, the object image data reflecting the interaction with the user is overwritten on the background image data generated in advance by providing sufficient resources. In addition, it is possible to interact with a user while providing high-quality image data. Since the object image data is generated by the overdrawing processing so as not to cause inconsistency in the three-dimensional structure with the background data, the output image data can be generated by a simple synthesis processing without deteriorating the image quality. it can.

【0036】なお、本実施例の適用範囲が静止画像デー
タに限られるものではない。動画像データを生成する場
合について本実施例を適用することは容易である。これ
は、下記第二の実施例についても同様である。
The scope of application of this embodiment is not limited to still image data. It is easy to apply this embodiment to the case where moving image data is generated. This is the same for the following second embodiment.

【0037】以下、図5〜図15を用いて、本発明の第
二の実施例について説明する。第二の実施例は、第一の
実施例に加え、物体画像データ生成処理に必要なデータ
量を削減する場合の例である。
The second embodiment of the present invention will be described below with reference to FIGS. The second embodiment is an example in which the amount of data necessary for the object image data generation processing is reduced in addition to the first embodiment.

【0038】図5は、本実施例におけるデータフロー図
である。図1と同一の記号は、図1と同一のものを表し
ている。以下では、図1と異なる部分に関して説明す
る。
FIG. 5 is a data flow diagram in this embodiment. The same symbols as those in FIG. 1 represent the same as those in FIG. Hereinafter, portions different from FIG. 1 will be described.

【0039】遮蔽物データ生成処理501は、ポリゴン
データ1010と、ポリゴンデータ1030と、共通デ
ータ102と、を入力とし遮蔽物データ502を出力す
るものである。
The shielding object data generation processing 501 receives the polygon data 1010, the polygon data 1030, and the common data 102, and outputs the shielding object data 502.

【0040】遮蔽物データ生成処理501としては、図
6〜図7で説明する有効ポリゴン選択処理、図8〜図1
4で説明するポリゴン再構成処理、のいずれかまたは両
方を用いることができる。両方の処理を行う場合には、
計算時の負荷の観点から、有効ポリゴン選択処理を先に
行うのがよい。
The shielding object data generation processing 501 includes an effective polygon selection processing described with reference to FIGS. 6 and 7, and FIGS.
Either or both of the polygon reconstruction processing described in 4 can be used. If you do both,
From the viewpoint of the load at the time of calculation, the effective polygon selection processing is preferably performed first.

【0041】ここで、遮蔽物データ502は、ポリゴン
データである。したがって、物体画像データ106を生
成する処理としては、物体画像データ生成処理109を
そのまま使うことができる。すなわち、物体画像データ
生成処理109への入力として、ポリゴンデータ101
0の代わりに遮蔽物データ502を使用することでよ
い。ポリゴンデータの代わりとしては、遮蔽物データ5
02だけでもよい。
Here, the shielding object data 502 is polygon data. Therefore, as the processing for generating the object image data 106, the object image data generation processing 109 can be used as it is. That is, as input to the object image data generation processing 109, the polygon data 101
The shielding object data 502 may be used instead of 0. As an alternative to polygon data, shield data 5
02 alone.

【0042】ユーザとの相互作用は第1の実施例と同様
にユーザ入力104により行うが、本実施例で実現する
ことのできるユーザとの相互作用は、仮想世界中をユー
ザの指示に従って1つあるいは複数の物体が動いたり、
ユーザの指示に従って1つあるいは複数の物体が出現あ
るいは消滅したり、ユーザの指示に従って1つあるいは
複数の物体が変形したり、というものである。
Although the interaction with the user is performed by the user input 104 as in the first embodiment, the interaction with the user that can be realized in this embodiment is one in the virtual world according to the user's instruction. Or multiple objects move,
One or more objects appear or disappear according to the user's instruction, or one or more objects deform according to the user's instruction.

【0043】より厳密に言えば、物体の取り得る位置お
よび物体の取り得る姿勢および物体の取り得る形状がす
べてあらかじめ与えられており、それらの各々につい
て、表示するか表示しないかをユーザが直接的あるいは
間接的に選択する、という相互作用である。
More strictly speaking, all possible positions of the object, possible postures of the object, and possible shapes of the object are all given in advance, and for each of them, the user directly determines whether to display or not to display. Or the interaction of indirect selection.

【0044】以下、図6と図7を用いて、有効ポリゴン
選択処理について説明する。有効ポリゴン選択処理は、
遮蔽物データ502として残しておくことが意味のある
ようなポリゴンデータを、ポリゴンデータ1010から
選り分ける処理である。残しておくことに意味があるよ
うなポリゴンデータとは、ユーザが指定したものであっ
てもよい。また、残しておくことに意味があるようなポ
リゴンデータの代わりに、ユーザが指定したポリゴンデ
ータを用いてもよい。
Hereinafter, the effective polygon selection processing will be described with reference to FIGS. The valid polygon selection process is
This is a process for selecting polygon data from the polygon data 1010 that is meaningful to be left as the shield data 502. The polygon data that is meaningful to keep may be data specified by the user. Also, instead of polygon data that is meaningful to keep, polygon data specified by the user may be used.

【0045】図6は、本実施例における有効ポリゴン選
択処理のフローチャートである。まず、ステップ601
において、有効ポリゴン選択処理が開始される。
FIG. 6 is a flowchart of the effective polygon selection process in this embodiment. First, step 601
, An effective polygon selection process is started.

【0046】次に、ステップ602において、計算に必
要なデータが読み込まれる。ここで読み込まれるデータ
は、ポリゴンデータ1010と、共通データ102と、
ポリゴンデータ1030である。
Next, in step 602, data necessary for calculation is read. The data read here includes polygon data 1010, common data 102,
This is polygon data 1030.

【0047】続いて、ポリゴンデータ1010に対し
て、ステップ603で裏面ポリゴン除去処理を、ステッ
プ604で視体積外ポリゴン除去処理を、ステップ60
5で被遮蔽ポリゴン除去処理を、それぞれ行う。これら
の処理としては、各々、backface culli
ng、view−frustum culling、o
cclusion culling等の名前で知られ
る、公知の技術を使うことができる。ポリゴンデータ1
010に対して、前記3種類のポリゴン除去処理を行っ
た結果、ポリゴンデータ608を得る。
Subsequently, for the polygon data 1010, the back surface polygon removal processing is performed in step 603, the out-of-view volume polygon removal processing is performed in step 604, and
In step 5, the shielded polygon removal processing is performed. These processes include, respectively, backface culli
ng, view-frustum culling, o
Known techniques, known under the name cculation culling, can be used. Polygon data 1
The polygon data 608 is obtained as a result of performing the above-described three types of polygon removal processing on 010.

【0048】次に、ステップ606で、不遮蔽ポリゴン
除去処理を行う。不遮蔽ポリゴン除去処理は、ポリゴン
データ608で表現されている多角形のうち、ポリゴン
データ1030で表現される多角形のどの1つも隠さな
い多角形を、不要な多角形とみなして除去する処理であ
る。これは、ポリゴンデータ608で表現されている各
々の多角形に対し、ポリゴンデータ1030で表現され
ている各々の多角形との関係を求めることにより実施す
ることができる。なお、前記「関係」は、共通データ1
02に基づいて「隠す」「隠される」「どちらでもな
い」の3種類のうちのいずれかに定めてもよい。
Next, at step 606, an unshielded polygon removal process is performed. The unobstructed polygon removal process is a process of removing polygons that do not hide any one of the polygons represented by the polygon data 1030 from among the polygons represented by the polygon data 608 as unnecessary polygons. is there. This can be performed by determining the relationship between each polygon represented by the polygon data 608 and each polygon represented by the polygon data 1030. The “relationship” is the common data 1
02, it may be set to one of three types of “hide”, “hidden”, and “neither”.

【0049】ステップ607で、前記ポリゴン除去処理
によって除去されずに残ったポリゴンデータを保存し、
ステップ608で有効ポリゴン選択処理を終了する。
In step 607, the polygon data which is not removed by the polygon removal processing is stored.
In step 608, the valid polygon selection processing ends.

【0050】図7は、本実施例における有効ポリゴン選
択処理の概念図である。図7において視点位置700お
よび視体積701は、共通データ102から定まるもの
である。
FIG. 7 is a conceptual diagram of the effective polygon selection processing in this embodiment. In FIG. 7, the viewpoint position 700 and the viewing volume 701 are determined from the common data 102.

【0051】物体710および物体711および物体7
12および物体713および物体714および物体71
5が、ユーザとの相互作用によって表示・非表示を決め
られる物体である。
Object 710 and object 711 and object 7
12 and object 713 and object 714 and object 71
Reference numeral 5 denotes an object whose display / non-display is determined by interaction with the user.

【0052】このとき、ポリゴン720およびポリゴン
721およびポリゴン722およびポリゴン723およ
びポリゴン724は、裏面ポリゴン除去処理によって除
去されるポリゴンである。また、ポリゴン730は視体
積外ポリゴン除去処理によって、ポリゴン740および
ポリゴン741は被遮蔽ポリゴン除去処理によって除去
されるポリゴンである。
At this time, the polygon 720, the polygon 721, the polygon 722, the polygon 723, and the polygon 724 are polygons to be removed by the back surface polygon removal processing. The polygon 730 is a polygon to be removed by the extra-viewing volume polygon removal processing, and the polygon 740 and the polygon 741 are polygons to be removed by the occluded polygon removal processing.

【0053】さらに、ポリゴン750が不遮蔽ポリゴン
除去処理で除去される。最終的には、ポリゴン760だ
けが有効なポリゴンデータとして残ることになる。
Further, the polygon 750 is removed by the unobstructed polygon removal processing. Ultimately, only the polygon 760 remains as valid polygon data.

【0054】以下、図8〜図14を用いて、ポリゴン再
構成処理について説明する。ポリゴン再構成処理は、ポ
リゴンデータ1010を使って計算した場合と同じ出力
画像データ107が得られるという条件下で、ポリゴン
データ1010から、よりデータ量の少ないポリゴンデ
ータを生成し、遮蔽物データ502とする処理である。
Hereinafter, the polygon reconstruction processing will be described with reference to FIGS. The polygon reconstruction process generates polygon data having a smaller data amount from the polygon data 1010 under the condition that the same output image data 107 as that obtained by calculation using the polygon data 1010 is obtained. This is the processing to be performed.

【0055】図8は、本実施例におけるポリゴン再構成
処理のフローチャートである。ステップ800において
ポリゴン再構成処理が開始されると、まず、ステップ8
01でポリゴングループ化処理を行う。ポリゴングルー
プ化処理については、図9と図10を用いて詳細に説明
する。
FIG. 8 is a flowchart of the polygon reconstruction processing in this embodiment. When the polygon reconstruction processing is started in step 800, first, in step 8
01 performs polygon grouping processing. The polygon grouping process will be described in detail with reference to FIGS.

【0056】次に、ステップ802において、ステップ
801で作られた各々のグループについて、画像面内で
の再構成処理を行う。画像面内での再構成処理について
は、図11と図12を用いて詳細に説明する。
Next, in step 802, reconstruction processing in the image plane is performed for each group created in step 801. The reconstruction processing in the image plane will be described in detail with reference to FIGS.

【0057】最後に、ステップ803において、ステッ
プ802で再構成された各々のポリゴンについて、仮想
空間への埋め込み処理を行い、ステップ804でポリゴ
ン再構成処理を終了する。仮想空間への埋め込み処理に
ついては、図13と図14を用いて詳細に説明する。
Finally, in step 803, each polygon reconstructed in step 802 is embedded in the virtual space, and in step 804, the polygon reconstruction processing ends. The embedding process in the virtual space will be described in detail with reference to FIGS.

【0058】図9は、本実施例におけるポリゴングルー
プ化処理のフローチャートである。ステップ900でポ
リゴングループ化処理が開始されると、まず、ステップ
901で特性ベクトルを生成する。特性ベクトルは、ポ
リゴンデータ1010に属す各々のポリゴンに対して定
義される。ポリゴン910の特性ベクトルの第i要素
は、ポリゴンデータ1030に属す第i番目のポリゴン
920との、視点データ1020に基づく前後関係によ
って定まる。すなわち、ポリゴン910がポリゴン92
0を隠す場合は「1」、ポリゴン920がポリゴン91
0を隠す場合は「0」、そのどちらでもない場合は
「*」とする。
FIG. 9 is a flowchart of the polygon grouping process in this embodiment. When the polygon grouping process is started in step 900, first, in step 901, a characteristic vector is generated. The characteristic vector is defined for each polygon belonging to the polygon data 1010. The i-th element of the characteristic vector of the polygon 910 is determined by the context of the i-th polygon 920 belonging to the polygon data 1030 based on the viewpoint data 1020. That is, the polygon 910 becomes the polygon 92
"1" to hide 0, polygon 920 is polygon 91
"0" is set to hide 0, and "*" is set to neither of them.

【0059】次に、ステップ902において、ステップ
901で得られた各ポリゴンの特性ベクトルをソートす
る。「0」<「*」<「1」という大小関係の下で、各
特性ベクトルを辞書式順序に並べればよい。
Next, in step 902, the characteristic vectors of each polygon obtained in step 901 are sorted. Under the magnitude relation of “0” <“*” <“1”, the characteristic vectors may be arranged in lexicographic order.

【0060】最後に、ステップ903において、ステッ
プ902でソートされた特性ベクトルを貪欲的算法によ
ってマージしていくことで、前後関係についての特徴が
似ているポリゴン同士のグループを作る。そして、ステ
ップ904でポリゴングループ化処理を終了する。
Finally, in step 903, the characteristic vectors sorted in step 902 are merged by a greedy algorithm to form a group of polygons having similar features in context. Then, in step 904, the polygon grouping process ends.

【0061】グループの作り方は、「同一グループに属
す任意のポリゴン対の特性ベクトルは、同じ要素位置に
0と1との両方が存在することがない」という条件下に
おいて、グループ数ができるだけ少なくなるように作る
のがよい。本実施例では、処理の手間を考慮し、ソート
を行った上で貪欲的算法によってマージするという方法
を採った。
The method of forming groups is such that the number of groups is as small as possible under the condition that "characteristic vectors of arbitrary polygon pairs belonging to the same group do not have both 0 and 1 at the same element position". It is good to make it. In the present embodiment, a method is adopted in which sorting is performed and merging is performed by a greedy algorithm in consideration of processing time.

【0062】なお、各グループに関しても特性ベクトル
を定義することができる。その第k要素は、該グループ
に属すあるポリゴンの特性ベクトルの第k要素が「0」
であれば「0」、該グループに属すあるポリゴンの特性
ベクトルの第k要素が「1」であれば「1」、それ以外
の場合は「*」となる。
Note that a characteristic vector can be defined for each group. As for the k-th element, the k-th element of the characteristic vector of a polygon belonging to the group is “0”.
Is “0”, if the k-th element of the characteristic vector of a certain polygon belonging to the group is “1”, “1”; otherwise, “*”.

【0063】「グループの特性ベクトル」を用いること
で、特性ベクトルのマージ処理や、以下で説明する画像
面内での再構成処理を効率よく行うことができる。
By using the “group characteristic vector”, it is possible to efficiently perform the characteristic vector merge processing and the reconstruction processing in the image plane described below.

【0064】なお、ステップ902およびステップ90
3は、最終的に、「同一グループに属す任意のポリゴン
対の特性ベクトルは、同じ要素位置に0と1との両方が
存在することがない」という条件を満たすようにグルー
プを作ることができればよく、ここで示した方法に限る
必要はない。
Steps 902 and 90
3 is that if the group can be finally formed so as to satisfy the condition that "the characteristic vector of any polygon pair belonging to the same group does not have both 0 and 1 at the same element position" Well, it is not necessary to limit to the method shown here.

【0065】また、実際の処理では、データ処理量の関
係から、物体データに属す各々のポリゴンとの前後関係
から特性ベクトルを生成するのではなく、物体データを
あらかじめ複数の凸多面体として表現しておいて、該各
々の凸多面体との前後関係によって特性ベクトルを生成
するのがよい。図10においても、この場合について説
明する。
Further, in the actual processing, based on the relationship of the data processing amount, instead of generating a characteristic vector from the context of each polygon belonging to the object data, the object data is expressed in advance as a plurality of convex polyhedrons. In this case, it is preferable to generate a characteristic vector according to the context of each convex polyhedron. FIG. 10 also illustrates this case.

【0066】物体データをあらかじめ複数の凸多面体と
して表現する方法としては、まず、物体データ中の各々
の多面体を構成する頂点から凸包を作る方法がある。こ
れは、物体データ中の各々の多面体の外形を凸包で近似
することを意味する。なお、この方法を採った場合で
も、「ポリゴンデータ1010を使って計算した場合と
同じ出力画像データ107が得られるという条件」は満
たしている。
As a method of expressing object data as a plurality of convex polyhedrons in advance, there is a method of first forming a convex hull from vertices constituting each polyhedron in the object data. This means that the outline of each polyhedron in the object data is approximated by a convex hull. Note that even when this method is adopted, the condition that the same output image data 107 as that obtained by calculation using the polygon data 1010 is obtained is satisfied.

【0067】物体データをあらかじめ複数の凸多面体と
して表現するための別の方法としては、「非凸多面体の
出っ張っている部分を順次切り取って、繋ぎ目だった部
分にはポリゴンで蓋をしていく」操作を物体データに面
を追加ながら行う、という方法もある。
Another method for expressing the object data as a plurality of convex polyhedrons in advance is as follows: "The protruding portions of the non-convex polyhedron are sequentially cut out, and the joints are covered with polygons." There is also a method of performing an operation while adding a surface to the object data.

【0068】図10は、本実施例におけるポリゴングル
ープ化処理の概念図(平面図)である。視点位置140
0を基準として前後関係を求める。第1要素を物体14
10に関する前後関係、第2要素を物体1411に関す
る前後関係、第3要素を物体1412に関する前後関
係、としてポリゴン1420およびポリゴン1421お
よびポリゴン1422の特性ベクトルを求めると、次の
ようになる。
FIG. 10 is a conceptual diagram (plan view) of the polygon grouping process in this embodiment. Viewpoint position 140
The context is determined based on 0. The first element is the object 14
When the characteristic vectors of the polygon 1420, the polygon 1421, and the polygon 1422 are obtained assuming the front-rear relationship with respect to 10, the second element with respect to the object 1411, and the third element with respect to the object 1412, the following is obtained.

【0069】まず、ポリゴン1420は物体1410を
隠し、物体1411および物体1412の見え方とは無
関係であるため、ポリゴン1420の特性ベクトルは
(1,*,*)となる。同様に考えると、ポリゴン14
21の特性ベクトルは(*,1,*)、ポリゴン142
2の特性ベクトルは(*,0,1)となる。 「同じ要
素位置に0と1との両方が存在することがない」という
条件から、ポリゴン1421とポリゴン1422とを1
つのグループにすることはできない。なぜなら、ポリゴ
ン1421の特性ベクトルの第2要素は1であり、ポリ
ゴン1422の特性ベクトルの第2要素は0だからであ
る。
First, since the polygon 1420 hides the object 1410 and has nothing to do with the appearance of the object 1411 and the object 1412, the characteristic vector of the polygon 1420 is (1, *, *). Similarly, polygon 14
The characteristic vector of 21 is (*, 1, *) and the polygon 142
The characteristic vector of No. 2 is (*, 0, 1). Under the condition that “0 and 1 do not exist at the same element position”, polygon 1421 and polygon 1422 are set to 1
Cannot be in two groups. This is because the second element of the characteristic vector of the polygon 1421 is 1 and the second element of the characteristic vector of the polygon 1422 is 0.

【0070】そこで、ポリゴン1420とポリゴン14
22とを1つのグループとしたものがグループ1430
である。グループ1430の特性ベクトルは(1,0,
1)となる。また、ポリゴン1421だけで1つのグル
ープとしたものが、グループ1431である。グループ
1431の特性ベクトルは(*,1,*)となる。
Then, the polygon 1420 and the polygon 14
22 as one group is group 1430
It is. The characteristic vector of the group 1430 is (1, 0,
1). A group 1431 includes only the polygon 1421 as one group. The characteristic vector of the group 1431 is (*, 1, *).

【0071】各グループの特性ベクトルは、そのグルー
プと各物体との前後関係を表しているとみなすことがで
きる。
The characteristic vector of each group can be regarded as representing the context of the group and each object.

【0072】図11は、本実施例における画像面内での
再構成処理のフローチャートである。ここで「画像面」
とは、出力画像データ107を透視変換で生成する際の
透視平面のことである。
FIG. 11 is a flowchart of the reconstruction processing in the image plane in this embodiment. Here "image side"
Is a perspective plane when the output image data 107 is generated by the perspective transformation.

【0073】ステップ1100で画像面内での再構成処
理が開始されると、まず、ステップ1101において、
現在処理が行われているグループの特性ベクトルに基づ
いて、画像投影面を「必須被覆領域」「被覆可能領域」
「禁被覆領域」の3種類に分類する。ここで、「必須被
覆領域」とは、正しい出力画像データ107を得るため
には三角形で被覆することが必要な領域のことである。
また、「被覆可能領域」とは、三角形で被覆しても正し
い出力画像データ107を得ることができる領域のこと
であり、必須被覆領域を含む。また、「禁被覆領域」と
は、正しい出力画像データ107を得るためには三角形
で被覆してはならない領域のことである。
When the reconstruction processing in the image plane is started in step 1100, first, in step 1101,
Based on the characteristic vector of the group currently being processed, the image projection plane is set to “essential covering area” or “coverable area”
It is classified into three types of “forbidden area”. Here, the “essential covering area” is an area that needs to be covered with a triangle in order to obtain correct output image data 107.
The “coverable area” is an area in which correct output image data 107 can be obtained even when covered with a triangle, and includes an essential covered area. The “forbidden area” is an area that must not be covered with a triangle in order to obtain correct output image data 107.

【0074】次に、ステップ1102において、被覆可
能領域の三角形分割を行う。各領域は多角形であるた
め、この処理には計算幾何の分野で一般によく知られて
いる方法を用いることができる。
Next, in step 1102, a triangulation of the coverable area is performed. Since each area is a polygon, a method generally well known in the field of computational geometry can be used for this processing.

【0075】最後に、ステップ1103において必須被
覆領域を含まない三角形を除去し、ステップ1104に
て画像面内での再構成処理を終了する。
Finally, in step 1103, triangles not including the essential covering area are removed, and in step 1104, the reconstruction processing in the image plane is completed.

【0076】必須被覆領域を含まない三角形は、除去し
たとしても正しい出力画像データ107を得ることがで
きるので、データ量を削減するために、除去することが
できる。
A triangle that does not include an essential covering area can obtain correct output image data 107 even if it is removed, and can be removed to reduce the data amount.

【0077】なお、本処理の目的は、「必須被覆領域」
をすべて含み「禁被覆領域」を含まないような三角形の
集合を求めることであり、具体的な処理としてはステッ
プ1102およびステップ1103に例示した処理に限
る必要はない。例えば、画素レベルでの組み合わせ算法
的な手法を用いることもできる。
The purpose of this processing is to set the
And a set of triangles that does not include the “forbidden area” is not required. The specific processing need not be limited to the processing illustrated in steps 1102 and 1103. For example, a combination algorithm method at the pixel level can be used.

【0078】図12は、本実施例における画像面内での
再構成処理の概念図である。図12において、図10と
同一の記号は、図10と同一のものを表す。画像面14
61内の領域1460が出力画像データ107として出
力される領域である。また、黒領域は「必須被覆領域」
を、白領域は「禁被覆領域」を、斜線領域は必須被覆領
域以外の「被覆可能領域」を、それぞれ表す。
FIG. 12 is a conceptual diagram of the reconstruction processing in the image plane in the present embodiment. 12, the same symbols as those in FIG. 10 represent the same ones as those in FIG. Image surface 14
An area 1460 in 61 is an area output as the output image data 107. In addition, the black area is "essential covering area"
, A white area indicates a “forbidden area”, and a hatched area indicates a “coverable area” other than the essential area.

【0079】三角形1423および三角形1424が、
画像面内での再構成処理によって新たに生成された三角
形である。なお、図12は概念図であるため、「原理的
にどのような三角形を作ればよいか」という説明のため
の図となっている。したがって、三角形1423および
三角形1424は、図11で説明したフローチャートに
よって構成される三角形とは異なっている点に注意す
る。
The triangles 1423 and 1424 are
It is a triangle newly generated by the reconstruction processing in the image plane. Since FIG. 12 is a conceptual diagram, it is a diagram for explaining “what kind of triangle should be made in principle”. Therefore, it should be noted that the triangle 1423 and the triangle 1424 are different from the triangle configured by the flowchart described in FIG.

【0080】図13は、本実施例における仮想空間への
埋め込み処理のフローチャートである。前後関係の制約
を満たしておればよく幾何学の分野における基礎的な技
術である、アラインメント問題を適用すればよい。ここ
ではその概略を説明する。
FIG. 13 is a flowchart of the embedding process into the virtual space in this embodiment. An alignment problem, which is a basic technique in the field of geometry, may be applied as long as the constraints of the context are satisfied. Here, the outline will be described.

【0081】ステップ1300で仮想空間への埋め込み
処理が開始されると、まずステップ1301において、
現在処理が行われているポリゴン1310の特性ベクト
ルに従って、線形不等式群を生成する。その際、3次元
空間における点と平面との双対関係を利用する。
When the embedding process into the virtual space is started in step 1300, first in step 1301,
A group of linear inequalities is generated according to the characteristic vector of the polygon 1310 currently being processed. At this time, a dual relationship between a point and a plane in a three-dimensional space is used.

【0082】ここで、現在処理が行われているポリゴン
の特性ベクトルは、そのポリゴンを生成する元となった
グループの特性ベクトル1320に以下のような変更を
加えて作ることができる。
Here, the characteristic vector of the polygon currently being processed can be created by modifying the characteristic vector 1320 of the group from which the polygon was generated with the following changes.

【0083】ポリゴン1310を底面とし、視点位置1
400を頂点とするような、多角錐1330を定める。
特性ベクトル1320の第p要素が「0」であり、か
つ、ポリゴンデータ1030に属す第p番目のポリゴン
が多角錐1330と共通部分を持たない場合、特性ベク
トル1320の第p要素を「*」とする。特性ベクトル
1320の第p要素が「1」であり、かつ、ポリゴンデ
ータ1030に属す第p番目のポリゴンが多角錐133
0と共通部分を持たない場合、特性ベクトル1320の
第p要素を「*」とする。
The polygon 1310 is used as the bottom surface and the viewpoint position 1
A polygonal pyramid 1330 having 400 as a vertex is determined.
When the p-th element of the characteristic vector 1320 is “0” and the p-th polygon belonging to the polygon data 1030 has no common part with the polygon 1330, the p-th element of the characteristic vector 1320 is represented by “*”. I do. The p-th element of the characteristic vector 1320 is “1”, and the p-th polygon belonging to the polygon data 1030 is a polygon pyramid 133.
If it has no common part with 0, the p-th element of the characteristic vector 1320 is set to “*”.

【0084】前記不等式群は、特性ベクトル中の「0」
または「1」の要素に関連する部分についてだけ生成す
れば、必要かつ十分である。
The inequality group is represented by “0” in the characteristic vector.
Alternatively, it is necessary and sufficient to generate only a portion related to the element of “1”.

【0085】次に、ステップ1302において、問題を
線形計画法に帰着するため、目的関数を設定する。ただ
し、実行可能解が算出できればよく、最適解を求める必
要はないので、適当な目的関数を設定すればよい。例え
ば「平面の法線と視線ベクトルとの内積の大きさを最小
にする」などの条件を目的関数として設定すればよい。
Next, in step 1302, an objective function is set to reduce the problem to linear programming. However, it is only necessary to calculate a feasible solution, and it is not necessary to find an optimal solution. Therefore, an appropriate objective function may be set. For example, a condition such as “minimize the size of the inner product between the normal of the plane and the line-of-sight vector” may be set as the objective function.

【0086】次に、ステップ1303において、前記目
的関数と前記線形不等式群とからなる系を、線形計画法
の問題として見た場合の、実行可能解を算出する。該実
行可能解は、現在処理が行われているポリゴンが乗るべ
き平面を規定するため、透視変換の原理により、該ポリ
ゴンの頂点位置を決定することができる。これがステッ
プ1304である。ステップ1305にて仮想空間への
埋め込み処理を終了する。
Next, in step 1303, a feasible solution is calculated when the system composed of the objective function and the group of linear inequalities is viewed as a linear programming problem. Since the feasible solution specifies a plane on which the polygon currently being processed is to be laid, the vertex position of the polygon can be determined by the principle of perspective transformation. This is step 1304. In step 1305, the embedding process into the virtual space is completed.

【0087】図14は、本実施例におけるポリゴン再構
成処理の処理結果(平面図)である。図10または図1
2と同一の記号は、図10または図12と同一のものを
表している。
FIG. 14 shows a processing result (plan view) of the polygon reconstruction processing in this embodiment. FIG. 10 or FIG.
The same symbols as in FIG. 2 indicate the same as in FIG. 10 or FIG.

【0088】この図にあるように、本実施例におけるポ
リゴン再構成処理により、3つ分必要であったポリゴン
データが、出力画像データ107に変更が加わることな
く、2つ分で置き換えられていることが分かる。
As shown in this figure, the polygon data required for three polygons is replaced by two without changing the output image data 107 by the polygon reconstruction processing in this embodiment. You can see that.

【0089】図15は、本実施例における装置構成図で
ある。図4と同一の記号は、図4と同一のものを表して
いる。以下では、図4と異なる部分に関して説明する。
FIG. 15 is a block diagram of the apparatus according to this embodiment. The same symbols as in FIG. 4 represent the same as in FIG. Hereinafter, portions different from FIG. 4 will be described.

【0090】物体画像データ生成プログラム306は、
遮蔽物データ502と、共通データ102と、物体デー
タ103と、ユーザコマンド入力手段304から入力さ
れるユーザ入力104と、を用いて物体画像データ10
6を生成する処理を行う。したがって、本実施例の場合
には、ポリゴンデータ1010を補助記憶装置303に
記憶しておく必要はなく、代わりに遮蔽物データ502
を補助記憶装置303に記憶しておく。
The object image data generation program 306 is
The object image data 10 is obtained by using the shield data 502, the common data 102, the object data 103, and the user input 104 input from the user command input unit 304.
6 is performed. Therefore, in the case of the present embodiment, it is not necessary to store the polygon data 1010 in the auxiliary storage device 303.
Is stored in the auxiliary storage device 303.

【0091】以上、第二の実施例によれば、出力画像デ
ータとして同一のものが得られる範囲内で、物体画像デ
ータ生成処理に使用するポリゴンデータのデータ量を削
減するため、画質を劣化させずにフレームレートを向上
させることができる。あるいは、同一のフレームレート
を維持する場合であれば、背景データに属すポリゴンデ
ータのデータ量の減少分だけ、物体データに属すポリゴ
ンデータのデータ量を増やすことができるため、画質を
向上させることができる。
As described above, according to the second embodiment, the image quality is degraded in order to reduce the amount of polygon data used for the object image data generation processing within the range where the same output image data can be obtained. The frame rate can be improved without using the same. Alternatively, when maintaining the same frame rate, the data amount of the polygon data belonging to the object data can be increased by the decrease in the data amount of the polygon data belonging to the background data, so that the image quality can be improved. it can.

【0092】なお、前記実施例では、背景データ101
がポリゴンデータ1010を備えるとしたが、本発明は
背景データ101が3次元構造を表現するデータとして
ポリゴンデータではなくデプスマップを備える場合にも
適用することができる。つまり、実写画像からステレオ
視などの技術によって3次元構造を復元したような場合
にも、本発明を適用することができる。
In the above embodiment, the background data 101
Is provided with polygon data 1010, but the present invention can also be applied to a case where background data 101 has depth maps instead of polygon data as data representing a three-dimensional structure. That is, the present invention can be applied to a case where a three-dimensional structure is restored from a real image by a technique such as stereoscopic vision.

【0093】この場合、デプスマップの各画素を、仮想
世界中の該当する位置に存在する四角形ポリゴンである
と考え、必要なら三角形ポリゴンに分割した上で、遮蔽
物データ502を生成すればよい。
In this case, each pixel of the depth map is considered to be a quadrilateral polygon existing at a corresponding position in the virtual world, and if necessary, the shielding object data 502 may be generated after being divided into triangular polygons.

【0094】また、この場合に、背景画像データ105
の生成を行うことが必要であれば、公知の技術を用いて
生成すればよい。さらに、前記実施例においては、物体
データ103を補助記憶装置303から読み込むことと
したが、本発明では、物体データ103の一部または全
部を、通信手段を経由して読み込むようにしてもよい。
すなわち、本発明は、通信手段を介したゲームや、遠隔
会議システムなどにも適用することができる。
In this case, the background image data 105
If it is necessary to generate the data, a known technology may be used. Further, in the above-described embodiment, the object data 103 is read from the auxiliary storage device 303. However, in the present invention, part or all of the object data 103 may be read via the communication unit.
That is, the present invention can be applied to a game via a communication unit, a remote conference system, and the like.

【0095】本実施例を遠隔会議システムに適用する場
合には、例えば、遠隔地にいるユーザを合成するおおよ
その位置を決めておき、ユーザの動き得る範囲を、該範
囲を内包するような多面体で近似した上で、有効ポリゴ
ン選択処理によって遮蔽物データを生成するようにする
ことができる。
When the present embodiment is applied to a remote conference system, for example, an approximate position for synthesizing a user in a remote place is determined, and a range in which the user can move is defined as a polyhedron including the range. Then, the shielding object data can be generated by the effective polygon selection processing.

【0096】[0096]

【発明の効果】本発明によれば、視点データが既知の場
合に、ユーザからのコマンドによって見え方が変わるC
G物体を、あらかじめ生成しておいた高品質画像データ
に、3次元構造の矛盾を起こすことなく合成し、新たな
画像データを生成することができる。すなわち、高品質
の画像データをユーザに提示しつつ、ユーザとの相互作
用を行うことが可能である。
According to the present invention, when the viewpoint data is known, the appearance changes according to a command from the user.
The G object can be synthesized with high-quality image data generated in advance without causing inconsistency in the three-dimensional structure, and new image data can be generated. That is, it is possible to interact with the user while presenting high-quality image data to the user.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像データ生成方法の第一の実施例に
おけるデータフロー図である。
FIG. 1 is a data flow diagram in a first embodiment of an image data generation method of the present invention.

【図2】本発明の画像データ生成方法の第一の実施例の
概念図である。
FIG. 2 is a conceptual diagram of a first embodiment of the image data generating method of the present invention.

【図3】本発明の画像データ生成方法の第一の実施例に
おける物体画像データ生成処理のフローチャートであ
る。
FIG. 3 is a flowchart of an object image data generation process in the first embodiment of the image data generation method of the present invention.

【図4】本発明の画像データ生成方法の第一の実施例に
おける装置構成図である。
FIG. 4 is an apparatus configuration diagram in a first embodiment of an image data generation method of the present invention.

【図5】本発明の画像データ生成方法の第二の実施例に
おけるデータフロー図である。
FIG. 5 is a data flow diagram in a second embodiment of the image data generating method of the present invention.

【図6】本発明の画像データ生成方法の第二の実施例に
おける有効ポリゴン選択処理のフローチャートである。
FIG. 6 is a flowchart of an effective polygon selection process in a second embodiment of the image data generation method of the present invention.

【図7】本発明の画像データ生成方法の第二の実施例に
おける有効ポリゴン選択処理の概念図である。
FIG. 7 is a conceptual diagram of an effective polygon selection process in a second embodiment of the image data generation method of the present invention.

【図8】本発明の画像データ生成方法の第二の実施例に
おけるポリゴン再構成処理のフローチャートである。
FIG. 8 is a flowchart of a polygon reconstruction process in the second embodiment of the image data generation method of the present invention.

【図9】本発明の画像データ生成方法の第二の実施例に
おけるポリゴングループ化処理のフローチャートであ
る。
FIG. 9 is a flowchart of a polygon grouping process in the second embodiment of the image data generating method of the present invention.

【図10】本発明の画像データ生成方法の第二の実施例
におけるポリゴングループ化処理の概念図である。
FIG. 10 is a conceptual diagram of a polygon grouping process in a second embodiment of the image data generating method of the present invention.

【図11】本発明の画像データ生成方法の第二の実施例
における画像面内での再構成処理のフローチャートであ
る。
FIG. 11 is a flowchart of a reconstruction process in an image plane according to a second embodiment of the image data generation method of the present invention.

【図12】本発明の画像データ生成方法の第二の実施例
における画像面内での再構成処理の概念図である。
FIG. 12 is a conceptual diagram of a reconstruction process in an image plane according to a second embodiment of the image data generation method of the present invention.

【図13】本発明の画像データ生成方法の第二の実施例
における仮想空間への埋め込み処理のフローチャートで
ある。
FIG. 13 is a flowchart of an embedding process into a virtual space in a second embodiment of the image data generating method of the present invention.

【図14】本発明の画像データ生成方法の第二の実施例
におけるポリゴン再構成処理の処理結果である。
FIG. 14 shows a processing result of a polygon reconstruction process in the second embodiment of the image data generating method of the present invention.

【図15】本発明の画像データ生成方法の第二の実施例
における装置構成図である。
FIG. 15 is an apparatus configuration diagram in a second embodiment of the image data generation method of the present invention.

【符号の説明】[Explanation of symbols]

100…仮想世界データ 101…背景データ 1010…ポリゴンデータ 1011…テクスチャデータ 102…共通データ 1020…視点データ 103…物体データ 1030…ポリゴンデータ 1031…テクスチャデータ 104…ユーザ入力 105…背景画像データ 106…物体画像データ 107…出力画像データ 108…背景画像データ生成処理 109…物体画像データ生成処理 110…画像データ合成処理 501…遮蔽物データ生成処理 502…遮蔽物データ 100 virtual world data 101 background data 1010 polygon data 1011 texture data 102 common data 1020 viewpoint data 103 object data 1030 polygon data 1031 texture data 104 user input 105 background image data 106 object image Data 107: Output image data 108: Background image data generation processing 109: Object image data generation processing 110: Image data synthesis processing 501: Shielding object data generation processing 502: Shielding object data

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】コンピュータを用いて、画像データを生成
する画像生成方法において、 画像の背景になり得る内容を含む第1の画像データを生
成し、 前記第1の画像データで表現されている物体の立体構造
情報を備える第1の立体構造データを生成し、 画像データにおける視点情報、前記立体構造情報および
テクスチャ情報を備える仮想世界データを生成し、 前記第1の立体構造データおよび前記仮想世界データを
用いて、前記コンピュータの利用者からの指示に基づい
て、前記第1の画像データと統合可能であって、前記第1
の画像と統合されることにより、前記第1の画像データ
との関係が背景と対象物の関係になる第2の画像データ
を生成し、 前記仮想世界データを用いて、前記第1の画像データお
よび前記第2の画像データを統合することにより、前記
第3の画像データ中の前記第1の画像データを移動させ
た場合でも、前記第1の画像データと前記第2の画像デ
ータの対応関係を保つ第3の画像データを生成すること
を特徴とする画像生成方法。
1. An image generation method for generating image data using a computer, comprising: generating first image data including a content that can be a background of an image; and an object represented by the first image data. Generating first three-dimensional structure data including three-dimensional structure information, generating virtual world data including viewpoint information in image data, the three-dimensional structure information, and texture information; and generating the first three-dimensional structure data and the virtual world data. Can be integrated with the first image data based on an instruction from a user of the computer, and
The second image data is generated by integrating the image with the first image data, the second image data becomes a relationship between the background and the target object, using the virtual world data, the first image data And by integrating the second image data, even when the first image data in the third image data is moved, the correspondence between the first image data and the second image data. Generating a third image data that keeps the same.
【請求項2】画像の背景になり得る内容を含む第1の画
像データを用いて、所定の画像を生成する画像生成装置
において、 前記第1の画像データで表現されている物体の立体構造
情報を備える第1の立体構造データを生成する手段と、 画像データにおける視点情報、前記立体構造情報および
テクスチャ情報を備える仮想世界データを生成する手段
と、 前記第1の立体構造データおよび前記仮想世界データを
用いて、前記コンピュータの利用者からの指示に基づい
て、前記第1の画像データと統合可能であって、前記第1
の画像と統合されることにより、前記第1の画像データ
との関係が背景と対象物の関係になる第2の画像データ
を生成手段と、 前記仮想世界データを用いて、前記第1の画像データお
よび前記第2の画像データを統合することにより、前記
第3の画像データ中の前記第1の画像データを移動させ
た場合でも、前記第1の画像データと前記第2の画像デ
ータの対応関係を保つ第3の画像データを生成する手段
とを有することを特徴とする画像生成装置。
2. An image generating apparatus for generating a predetermined image using first image data including a content that may be a background of an image, comprising: Means for generating first three-dimensional structure data comprising: viewpoint information in image data; means for generating virtual world data comprising the three-dimensional structure information and texture information; and the first three-dimensional structure data and the virtual world data Can be integrated with the first image data based on an instruction from a user of the computer, and
Means for generating second image data in which the relationship with the first image data becomes the relationship between the background and the object by being integrated with the image of the first image data, and using the virtual world data, the first image By integrating the data and the second image data, even when the first image data in the third image data is moved, the correspondence between the first image data and the second image data is obtained. Means for generating third image data for maintaining the relationship.
【請求項3】請求項2に記載の画像データ生成装置にお
いて、 前記第2の立体構造データのデータ量は、前記第1の立
体構造データのデータ量より少ないことを特徴とする画
像データ生成装置。
3. The image data generating apparatus according to claim 2, wherein a data amount of said second three-dimensional structure data is smaller than a data amount of said first three-dimensional structure data. .
【請求項4】請求項2または3のいずれかに記載の画像
データ生成装置において、 前記第1の立体構造データから一部分のデータを選び取
って第3の立体構造データを生成する手段をさらに備
え、 前記第2の画像データを生成する手段は、前記第3の立
体構造データを用いて前記第2の画像データを生成する
ことを特徴とする画像データ生成装置。
4. The image data generating apparatus according to claim 2, further comprising: a unit for selecting a part of the first three-dimensional structure data to generate third three-dimensional structure data. An image data generating apparatus, wherein the means for generating the second image data generates the second image data using the third three-dimensional structure data.
【請求項5】請求項3または4のいずれかに記載の画像
データ生成装置において、 前記第2の立体構造データはポリゴンデータであり、ポ
リゴンデータに含まれる少なくとも1つのポリゴンは、
前記第1の立体構造データ中に含まれるポリゴンとは異
なるポリゴンであることを特徴とする画像データ生成装
置。
5. The image data generating device according to claim 3, wherein the second three-dimensional structure data is polygon data, and at least one polygon included in the polygon data is:
An image data generating device, wherein the polygon is different from a polygon included in the first three-dimensional structure data.
JP2001049549A 2001-02-26 2001-02-26 Method and device for generating image data Pending JP2002251627A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001049549A JP2002251627A (en) 2001-02-26 2001-02-26 Method and device for generating image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001049549A JP2002251627A (en) 2001-02-26 2001-02-26 Method and device for generating image data

Publications (1)

Publication Number Publication Date
JP2002251627A true JP2002251627A (en) 2002-09-06

Family

ID=18910638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001049549A Pending JP2002251627A (en) 2001-02-26 2001-02-26 Method and device for generating image data

Country Status (1)

Country Link
JP (1) JP2002251627A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213577A (en) * 2006-02-08 2007-08-23 Samsung Electronics Co Ltd Method and system of rendering three-dimensional graphics data to minimize rendering area
JP2010279509A (en) * 2009-06-03 2010-12-16 Sanyo Product Co Ltd Game machine
JP2015164616A (en) * 2015-06-23 2015-09-17 株式会社三洋物産 Game machine
JP2015180378A (en) * 2009-06-03 2015-10-15 株式会社三洋物産 Game machine
JP2017056255A (en) * 2016-12-27 2017-03-23 株式会社三洋物産 Game machine
JP2017205597A (en) * 2017-08-29 2017-11-24 株式会社三洋物産 Game machine

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213577A (en) * 2006-02-08 2007-08-23 Samsung Electronics Co Ltd Method and system of rendering three-dimensional graphics data to minimize rendering area
JP4589348B2 (en) * 2006-02-08 2010-12-01 三星電子株式会社 3D graphics data rendering method and system for minimizing rendering area
JP2010279509A (en) * 2009-06-03 2010-12-16 Sanyo Product Co Ltd Game machine
JP2015180378A (en) * 2009-06-03 2015-10-15 株式会社三洋物産 Game machine
JP2015164616A (en) * 2015-06-23 2015-09-17 株式会社三洋物産 Game machine
JP2017056255A (en) * 2016-12-27 2017-03-23 株式会社三洋物産 Game machine
JP2017205597A (en) * 2017-08-29 2017-11-24 株式会社三洋物産 Game machine

Similar Documents

Publication Publication Date Title
US6429867B1 (en) System and method for generating and playback of three-dimensional movies
KR970003325B1 (en) Computer graphics display method and system with shadow generation
EP1064619B1 (en) Stochastic level of detail in computer animation
Adelson et al. Generating exact ray-traced animation frames by reprojection
US7348989B2 (en) Preparing digital images for display utilizing view-dependent texturing
US20080088626A1 (en) Three-Dimensional Image Data Compression System, Method, Program and Recording Medium
US11189079B2 (en) Processing of 3D image information based on texture maps and meshes
US20060152579A1 (en) Stereoscopic imaging system
KR100349483B1 (en) Image processing in which polygon is divided
JP4982862B2 (en) Program, information storage medium, and image generation system
KR20230007358A (en) Multilayer Reprojection Techniques for Augmented Reality
CN116091676B (en) Face rendering method of virtual object and training method of point cloud feature extraction model
JPH11506846A (en) Method and apparatus for efficient digital modeling and texture mapping
MXPA02002373A (en) Method and apparatus for rendering images with refractions.
US7199807B2 (en) Mixed reality presentation method and mixed reality presentation apparatus
KR100381817B1 (en) Generating method of stereographic image using Z-buffer
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
JP3350473B2 (en) Three-dimensional graphics drawing apparatus and method for performing occlusion culling
JP2002251627A (en) Method and device for generating image data
CN116228943B (en) Virtual object face reconstruction method, face reconstruction network training method and device
US6549202B1 (en) Rendering method and device, a game device, and a computer readable recording medium storing programs for rendering a three-dimensional model
JPWO2019193696A1 (en) Reference image generator, display image generator, reference image generation method, and display image generation method
JP2000030080A (en) Virtual reality system
JP3648404B2 (en) Image generating apparatus and recording medium
JP3711273B2 (en) 3D graphics drawing device for occlusion culling