JP4575937B2 - Image generating apparatus, image generating method, and program - Google Patents

Image generating apparatus, image generating method, and program Download PDF

Info

Publication number
JP4575937B2
JP4575937B2 JP2007184634A JP2007184634A JP4575937B2 JP 4575937 B2 JP4575937 B2 JP 4575937B2 JP 2007184634 A JP2007184634 A JP 2007184634A JP 2007184634 A JP2007184634 A JP 2007184634A JP 4575937 B2 JP4575937 B2 JP 4575937B2
Authority
JP
Japan
Prior art keywords
texture
transparency
mirror image
plane
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007184634A
Other languages
Japanese (ja)
Other versions
JP2009020818A (en
Inventor
裕 西野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2007184634A priority Critical patent/JP4575937B2/en
Publication of JP2009020818A publication Critical patent/JP2009020818A/en
Application granted granted Critical
Publication of JP4575937B2 publication Critical patent/JP4575937B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、オブジェクトの位置や形状を認識しやすくしつつそのオブジェクトの映り込みを表現するために好適な画像生成装置、画像生成方法、ならびに、プログラムに関する。   The present invention relates to an image generation apparatus, an image generation method, and a program suitable for expressing the reflection of an object while making it easy to recognize the position and shape of the object.

仮想空間を表した画像を生成する際、よりリアルに表現するために、床などの反射面にオブジェクトの映り込みを描画する手法がある。例えば、特許文献1には、仮想視点からオブジェクトを見たときにあり得ない反射方向に存在するプリミティブ面への描画を省略するなどして、処理負担を軽減して映り込みを描画する手法が開示されている。
特許3377490号公報
When generating an image representing a virtual space, there is a method of drawing the reflection of an object on a reflective surface such as a floor in order to express it more realistically. For example, Patent Document 1 discloses a technique for drawing a reflection with a reduced processing burden by omitting drawing on a primitive surface that exists in a reflection direction that is impossible when an object is viewed from a virtual viewpoint. It is disclosed.
Japanese Patent No. 3377490

しかし、特許文献1に示すような従来の手法では、オブジェクトの位置や形状に関わらず単に忠実に仮想の鏡で映したような画像を映り込み画像にしているため、反射面から近い部分も遠い部分も同じように映り込みを作ることになる。その結果、全体として複雑で見づらい画像となってしまったり、オブジェクト本体の像とその映り込みの鏡像との区別がつきにくくなってオブジェクト本体の位置や形状を認識しにくくなったりする問題があった。   However, in the conventional method as shown in Patent Document 1, an image that is simply faithfully reflected by a virtual mirror is used as a reflected image regardless of the position and shape of the object, so that a portion near the reflecting surface is also far away. The part will be reflected in the same way. As a result, there is a problem that the image becomes complicated and difficult to see as a whole, and it becomes difficult to distinguish between the image of the object body and the mirror image of the reflection, and it becomes difficult to recognize the position and shape of the object body. .

本発明はこのような課題を解決するものであり、オブジェクトの位置や形状を認識しやすくしつつそのオブジェクトの映り込みを表現するために好適な画像生成装置、画像生成方法、ならびに、プログラムを提供することを目的とする。   The present invention solves such problems, and provides an image generation apparatus, an image generation method, and a program suitable for expressing the reflection of an object while making it easy to recognize the position and shape of the object. The purpose is to do.

以上の目的を達成するため、本発明の原理にしたがって、下記の発明を開示する。   In order to achieve the above object, the following invention is disclosed in accordance with the principle of the present invention.

本発明の第1の観点に係る画像生成装置は、位置形状記憶部、テクスチャ記憶部、鏡像計算部、透明度取得部、生成部を備える。
位置形状記憶部は、仮想空間内に配置されるモデルオブジェクトの位置と形状、及び、面オブジェクトの位置と形状を記憶する。
テクスチャ記憶部は、当該モデルオブジェクトの表面に貼り付ける第1のテクスチャを記憶する。
鏡像計算部は、位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する。
透明度取得部は、位置形状記憶部に記憶された当該面オブジェクトから鏡像計算部により計算された当該鏡像オブジェクトの表面を構成する各領域までの各距離に応じて、当該各領域に対する当該第1のテクスチャの透明度を取得する。
生成部は、当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該鏡像オブジェクトの当該各領域の投影先に、テクスチャ記憶部に記憶された第1のテクスチャのうち当該各領域に対応する部分を、透明度取得部により取得された透明度でそれぞれ貼り付け、当該モデルオブジェクトの投影先にテクスチャ記憶部に記憶された第1のテクスチャを貼り付けて、画像を生成する。
これらの構成により、オブジェクトの画像には反射面までの距離によってはっきりと映る部分や霞んで映る部分ができ、映り込みの透明度の違いによってオブジェクトの立体的な位置や形状が掴みやすくなり、且つ、複雑でない画像になる。例えば、あるオブジェクトの反射面への映り込み画像を生成するとき、映り込み画像に設定する透明度と、映り込み画像を構成する各部分と反射面との距離と、の間に依存関係を予め決めておく。画像生成装置は、この依存関係を満たすように映り込み画像の各部分の透明度を変える。すると、ユーザは、この依存関係に基づいて、映り込み画像の各部分に対応するオブジェクト本体の各部分が、それぞれ反射面からどれだけ離れているかを、透明度の違いによって掴むことができる。
An image generation apparatus according to a first aspect of the present invention includes a position shape storage unit, a texture storage unit, a mirror image calculation unit, a transparency acquisition unit, and a generation unit.
The position shape storage unit stores the position and shape of the model object arranged in the virtual space, and the position and shape of the plane object.
The texture storage unit stores a first texture to be pasted on the surface of the model object.
The mirror image calculation unit calculates the position and shape of the mirror image object obtained by inverting the model object with respect to the surface object based on the position and shape of the model object and the surface object stored in the position shape storage unit. calculate.
The transparency acquisition unit, according to each distance from the surface object stored in the position shape storage unit to each region constituting the surface of the mirror image object calculated by the mirror image calculation unit, the first for each region Get the transparency of the texture.
The generation unit obtains a projection destination of the model object and the mirror image object with respect to the projection plane arranged in the virtual space, and stores the first destination stored in the texture storage unit in the projection destination of each region of the mirror image object. The portion corresponding to each region of the texture is pasted with the transparency acquired by the transparency acquisition unit, the first texture stored in the texture storage unit is pasted to the projection destination of the model object, and the image is Generate.
With these configurations, the object's image can have a part that is clearly reflected or blurred due to the distance to the reflecting surface, and the three-dimensional position and shape of the object can be easily grasped by the difference in transparency of the reflection, and The image is not complicated. For example, when generating a reflection image on the reflection surface of an object, a dependency relationship is determined in advance between the transparency set for the reflection image and the distance between each part of the reflection image and the reflection surface. Keep it. The image generation device changes the transparency of each part of the reflected image so as to satisfy this dependency. Then, the user can grasp how far each part of the object body corresponding to each part of the reflected image is away from the reflecting surface based on the dependency, based on the difference in transparency.

透明度取得部は、当該面オブジェクトから当該鏡像オブジェクトまでの距離が長いほど当該透明度を大きくしてもよい。
これらの構成により、反射面から遠ざかるほどオブジェクトの映り込みは透明になり、反射面に近づくほどオブジェクトは不透明になるので、立体的な映り込みを表現でき、ユーザは距離感が掴みやすくなる。例えば、映り込みが明瞭な部分に対応するオブジェクト本体の部分は反射面から近くにあり、映り込みが明瞭でない部分に対応するオブジェクト本体の部分は反射面から遠くにあることがすぐに分かる。
The transparency acquisition unit may increase the transparency as the distance from the plane object to the mirror image object is longer.
With these configurations, the reflection of the object becomes transparent as the distance from the reflection surface increases, and the object becomes opaque as the distance from the reflection surface increases. Therefore, a three-dimensional reflection can be expressed, and the user can easily grasp the sense of distance. For example, it can be readily seen that the part of the object body corresponding to the part where the reflection is clear is close to the reflection surface, and the part of the object body corresponding to the part where the reflection is not clear is far from the reflection surface.

透明度取得部は、当該透明度を、当該面オブジェクトから当該鏡像オブジェクトまでの距離に対して単調増加させてもよい。
この場合、反射面から遠ざかるほどオブジェクトの映り込みは透明になり、反射面に近づくほどオブジェクトの映り込みは不透明になる。また、透明度は全体として単調増加する傾向であればよく、ある任意の距離区間で一定値をとることがあってもよい。例えば、所定の何段階かのグラデーションをつけるように透明度を変えることができる。画像生成装置は立体的な映り込みを表現でき、ユーザは距離感が掴みやすくなる。
The transparency acquisition unit may monotonously increase the transparency with respect to the distance from the plane object to the mirror image object.
In this case, the reflection of the object becomes transparent as the distance from the reflection surface increases, and the reflection of the object becomes opaque as the distance from the reflection surface approaches. Further, the transparency may be a monotonically increasing tendency as a whole, and may take a constant value in a certain arbitrary distance section. For example, the transparency can be changed to give a predetermined number of gradations. The image generation apparatus can express a three-dimensional reflection, and the user can easily grasp the sense of distance.

テクスチャ記憶部は、当該面オブジェクトの表面に貼り付ける第2のテクスチャを更に記憶してもよい。
そして、生成部は、当該面オブジェクトの表面に当該第2のテクスチャを貼り付け、次に、当該鏡像オブジェクトの当該各領域の投影先に、テクスチャ記憶部に記憶された当該第1のテクスチャのうち当該各領域に対応する部分を、透明度取得部により取得された透明度でそれぞれ貼り付け、次に、当該モデルオブジェクトの投影先にテクスチャ記憶部に記憶された第1のテクスチャを貼り付けて、画像を生成してもよい。
これらの構成により、リアリティのある画像を生成することができる。すなわち、オブジェクト画像と、そのオブジェクト画像の反射面への映り込み画像が、反射面の画像で上書きされて見えなくなってしまうことはない。また、視点の位置がどこにあったとしても、オブジェクト画像が、映り込み画像によって上書きされて見えなくなってしまうこともない。
The texture storage unit may further store a second texture to be pasted on the surface of the plane object.
Then, the generation unit pastes the second texture on the surface of the plane object, and then, among the first textures stored in the texture storage unit, in the projection destination of each region of the mirror image object The part corresponding to each area is pasted with the transparency acquired by the transparency acquisition unit, and then the first texture stored in the texture storage unit is pasted to the projection destination of the model object, and the image is It may be generated.
With these configurations, a realistic image can be generated. That is, the object image and the reflected image of the object image on the reflection surface are not overwritten with the image of the reflection surface and are not seen. Further, no matter where the viewpoint is located, the object image is not overwritten by the reflected image and cannot be seen.

本発明のその他の観点に係る画像生成方法は、位置形状記憶部、テクスチャ記憶部、鏡像計算部、透明度取得部、生成部を有する画像生成装置にて実行される画像生成方法であって、鏡像計算ステップ、透明度取得ステップ、生成ステップを備える。
位置形状記憶部には、仮想空間内に配置されるモデルオブジェクトの位置と形状、及び、面オブジェクトの位置と形状が記憶される。
テクスチャ記憶部には、当該モデルオブジェクトの表面に貼り付けるテクスチャが記憶される。
鏡像計算ステップは、鏡像計算部が、位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する。
透明度取得ステップは、透明度取得部が、位置形状記憶部に記憶された当該面オブジェクトから鏡像計算ステップにより計算された当該鏡像オブジェクトの表面を構成する各領域までの距離に応じて、当該各領域に対する当該テクスチャの透明度を変化させる。
生成ステップは、生成部が、当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該鏡像オブジェクトの当該各領域の投影先に、テクスチャ記憶部に記憶されたテクスチャのうち当該各領域に対応する部分を、透明度取得ステップにより取得された透明度でそれぞれ貼り付け、当該モデルオブジェクトの投影先にテクスチャ記憶部に記憶されたテクスチャを貼り付けて、画像を生成する。
これらの構成により、オブジェクトの画像には反射面までの距離によってはっきりと映る部分や霞んで映る部分ができ、映り込みの透明度の違いによってオブジェクトの立体的な位置や形状が掴みやすくなり、且つ、複雑でない画像になる。
An image generation method according to another aspect of the present invention is an image generation method executed by an image generation apparatus having a position shape storage unit, a texture storage unit, a mirror image calculation unit, a transparency acquisition unit, and a generation unit, A calculation step, a transparency acquisition step, and a generation step are provided.
The position shape storage unit stores the position and shape of the model object arranged in the virtual space and the position and shape of the plane object.
The texture storage unit stores a texture to be pasted on the surface of the model object.
The mirror image calculation step includes a mirror image object obtained by inverting the model object with respect to the plane object based on the position and shape of the model object and the plane object stored in the position shape storage unit. Calculate the position and shape.
The transparency acquisition step is performed by the transparency acquisition unit for each area according to the distance from the plane object stored in the position shape storage unit to each area constituting the surface of the mirror image object calculated by the mirror image calculation step. Change the transparency of the texture.
In the generation step, the generation unit obtains the projection destination of the model object and the mirror image object with respect to the projection plane arranged in the virtual space, and is stored in the texture storage unit in the projection destination of each region of the mirror image object. The portion corresponding to each area of the texture is pasted with the transparency acquired in the transparency acquisition step, and the texture stored in the texture storage unit is pasted to the projection destination of the model object to generate an image. .
With these configurations, the object's image can have a part that is clearly reflected or blurred due to the distance to the reflecting surface, and the three-dimensional position and shape of the object can be easily grasped by the difference in transparency of the reflection, and The image is not complicated.

本発明のその他の観点に係るプログラムは、コンピュータを、位置形状記憶部、テクスチャ記憶部、鏡像計算部、透明度取得部、生成部として機能させる。
位置形状記憶部は、仮想空間内に配置されるモデルオブジェクトの位置と形状、及び、面オブジェクトの位置と形状を記憶する。
テクスチャ記憶部は、当該モデルオブジェクトの表面に貼り付けるテクスチャを記憶する。
鏡像計算部は、位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する。
透明度取得部は、位置形状記憶部に記憶された当該面オブジェクトから計算部により計算された当該鏡像オブジェクトの表面を構成する各領域までの距離に応じて、当該各領域に対する当該テクスチャの透明度を取得する。
生成部は、当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該鏡像オブジェクトの当該各領域の投影先に、テクスチャ記憶部に記憶されたテクスチャのうち当該各領域に対応する部分を、透明度取得部により取得された透明度でそれぞれ貼り付け、当該モデルオブジェクトの投影先にテクスチャ記憶部に記憶されたテクスチャを貼り付けて、画像を生成する。
これらの構成により、オブジェクトの画像には反射面までの距離によってはっきりと映る部分や霞んで映る部分ができ、映り込みの透明度の違いによってオブジェクトの立体的な位置や形状が掴みやすくなり、且つ、複雑でない画像になる。
A program according to another aspect of the present invention causes a computer to function as a position shape storage unit, a texture storage unit, a mirror image calculation unit, a transparency acquisition unit, and a generation unit.
The position shape storage unit stores the position and shape of the model object arranged in the virtual space, and the position and shape of the plane object.
The texture storage unit stores a texture to be pasted on the surface of the model object.
The mirror image calculation unit calculates the position and shape of the mirror image object obtained by inverting the model object with respect to the surface object based on the position and shape of the model object and the surface object stored in the position shape storage unit. calculate.
The transparency acquisition unit acquires the transparency of the texture for each region according to the distance from the surface object stored in the position shape storage unit to each region constituting the surface of the mirror image object calculated by the calculation unit. To do.
The generation unit obtains the projection destination of the model object and the mirror image object on the projection plane arranged in the virtual space, and includes the texture stored in the texture storage unit at the projection destination of the region of the mirror image object. A portion corresponding to each region is pasted with the transparency acquired by the transparency acquisition unit, and a texture stored in the texture storage unit is pasted on the projection destination of the model object to generate an image.
With these configurations, the object's image can have a part that is clearly reflected or blurred due to the distance to the reflecting surface, and the three-dimensional position and shape of the object can be easily grasped by the difference in transparency of the reflection, and The image is not complicated.

本発明によれば、オブジェクトの位置や形状を認識しやすくしつつそのオブジェクトの映り込みを表現することができる。   According to the present invention, the reflection of an object can be expressed while making it easy to recognize the position and shape of the object.

図1は、本発明の実施形態に係る画像生成装置が実現される典型的なゲーム装置の概要構成を示す模式図である。以下、本図を参照して説明する。   FIG. 1 is a schematic diagram showing a schematic configuration of a typical game device in which an image generation device according to an embodiment of the present invention is realized. Hereinafter, a description will be given with reference to FIG.

ゲーム装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、インターフェース104と、コントローラ105と、外部メモリ106と、DVD(Digital Versatile Disk)−ROMドライブ107と、画像処理部108と、音声処理部109と、NIC(Network Interface Card)110と、を備える。   The game apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an interface 104, a controller 105, an external memory 106, and a DVD (Digital Versatile Disk). ) -ROM drive 107, image processing unit 108, audio processing unit 109, and NIC (Network Interface Card) 110.

なお、ゲーム用のプログラムおよびデータを記憶したDVD−ROMをDVD−ROMドライブ107に装着して、ゲーム装置100の電源を投入することにより、当該プログラムが実行され、本実施形態の画像生成装置が実現される。   Note that a DVD-ROM storing a game program and data is loaded into the DVD-ROM drive 107, and the game apparatus 100 is turned on to execute the program. Realized.

CPU 101は、ゲーム装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。   The CPU 101 controls the overall operation of the game apparatus 100 and is connected to each component to exchange control signals and data.

ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録され、CPU 101がDVD−ROMに記録されたプログラムをRAM 103に読み出して実行する。また、ROM 102には、ゲーム装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記録され、CPU 101がこれらのプログラム等を読み出して実行する。   The ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on, and the CPU 101 reads the program recorded on the DVD-ROM into the RAM 103 and executes it. The ROM 102 stores an operating system program and various data necessary for operation control of the entire game apparatus 100, and the CPU 101 reads out and executes these programs.

RAM 103は、データやプログラムを一時的に記憶するためのもので、DVD−ROMから読み出したプログラムやデータ、その他ゲームの進行に必要なデータが保持される。   The RAM 103 is for temporarily storing data and programs, and holds programs and data read from the DVD-ROM and other data necessary for the progress of the game.

インターフェース104を介して接続されたコントローラ105は、ユーザがゲーム実行の際に行う操作入力を受け付ける。たとえば、コントローラ105には、Aボタン,Bボタン,Xボタン,Yボタンや4方向を示す各方向ボタン(方向キー)等が配置されている。そして、これらのボタンがユーザに押下されると、押下されたボタンに応じた操作入力を受け付ける。   The controller 105 connected via the interface 104 receives an operation input performed when the user executes the game. For example, the controller 105 is provided with an A button, a B button, an X button, a Y button, direction buttons (direction keys) indicating four directions, and the like. When these buttons are pressed by the user, an operation input corresponding to the pressed button is accepted.

インターフェース104を介して着脱自在に接続された外部メモリ106には、ゲームの進行状態を示すデータ、通信のログ(記録)のデータなどが書き換え可能に記憶される。ユーザは、コントローラ105を介して指示入力を行うことにより、これらのデータを適宜外部メモリ106に記録することができる。   In the external memory 106 detachably connected via the interface 104, data indicating the progress of the game, communication log (record) data, and the like are stored in a rewritable manner. The user can record these data in the external memory 106 as appropriate by inputting an instruction via the controller 105.

DVD−ROMドライブ107に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データが記録される。CPU 101の制御によって、DVD−ROMドライブ107は、これに装着されたDVD−ROMに対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらはRAM 103等に一時的に記憶される。   A DVD-ROM mounted on the DVD-ROM drive 107 stores a program for realizing the game and image data and sound data associated with the game. Under the control of the CPU 101, the DVD-ROM drive 107 performs a reading process on the DVD-ROM loaded therein, reads out necessary programs and data, and these are temporarily stored in the RAM 103 or the like.

画像処理部108は、DVD−ROMから読み出されたデータをCPU 101や画像処理部108が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部108が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換され画像処理部108に接続されるモニター(図示せず)へ出力される。これにより、各種の画像表示が可能となる。   The image processing unit 108 processes the data read from the DVD-ROM by the CPU 101 or an image arithmetic processor (not shown) included in the image processing unit 108, and then processes the processed data on a frame memory ( (Not shown). The image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing and output to a monitor (not shown) connected to the image processing unit 108. Thereby, various image displays are possible.

なお、画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。
また、仮想3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想3次元空間に配置されたポリゴンを俯瞰したレンダリング画像を得る演算の高速実行も可能である。
The image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed.
In addition, the polygon information arranged in the virtual three-dimensional space and added with various kinds of texture information is rendered by the Z buffer method, and a rendered image is obtained by overlooking the polygon arranged in the virtual three-dimensional space from a predetermined viewpoint position. High speed execution of the obtained operation is also possible.

さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報にしたがって、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画することが可能である。フォント情報は、ROM 102に記録されているが、DVD−ROMに記録された専用のフォント情報を利用することも可能である。   Further, the CPU 101 and the image arithmetic processor operate in a coordinated manner, so that a character string can be drawn as a two-dimensional image in a frame memory or drawn on the surface of each polygon according to font information defining the character shape. is there. The font information is recorded in the ROM 102, but it is also possible to use dedicated font information recorded in the DVD-ROM.

音声処理部109は、DVD−ROMから読み出した音声データをアナログ音声信号に変換し、これに接続されたスピーカー(図示せず)から出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲データを生成し、これに対応した音声をスピーカから出力させる。   The audio processing unit 109 converts audio data read from the DVD-ROM into an analog audio signal, and outputs the analog audio signal from a speaker (not shown) connected thereto. Further, under the control of the CPU 101, sound effects and music data to be generated during the progress of the game are generated, and sound corresponding to this is output from the speaker.

NIC 110は、ゲーム装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェース(図示せず)により構成される。   The NIC 110 is for connecting the game apparatus 100 to a computer communication network (not shown) such as the Internet, and conforms to the 10BASE-T / 100BASE-T standard used when configuring a LAN (Local Area Network). Therefore, analog modems for connecting to the Internet using telephone lines, ISDN (Integrated Services Digital Network) modems, ADSL (Asymmetric Digital Subscriber Line) modems, cables for connecting to the Internet using cable television lines A modem or the like, and an interface (not shown) that mediates between them and the CPU 101 are configured.

このほか、ゲーム装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、外部メモリ106、DVD−ROMドライブ107に装着されるDVD−ROM等と同じ機能を果たすように構成してもよい。
また、ユーザからの文字列の編集入力を受け付けるためのキーボードや、各種の位置の指定および選択入力を受け付けるためのマウスなどの入出力デバイスを接続する形態も採用することができる。
In addition, the game apparatus 100 uses a large-capacity external storage device such as a hard disk so that the ROM 102, the RAM 103, the external memory 106, the DVD-ROM attached to the DVD-ROM drive 107, and the like function. It may be configured.
In addition, it is possible to adopt a form in which an input / output device such as a keyboard for receiving a character string editing input from a user and a mouse for receiving various position designations and selection inputs is connected.

また、本実施形態のゲーム装置100にかえて、一般的なコンピュータ(汎用のパーソナルコンピュータ等)を本発明に係る画像生成装置として利用することもできる。例えば、一般的なコンピュータは、上記ゲーム装置100と同様に、CPU、RAM、ROM、DVD−ROMドライブ、および、NICを備え、ゲーム装置100よりも簡易な機能を備えた画像処理部を備え、外部記憶装置としてハードディスクを有する他、フレキシブルディスク、光磁気ディスク、磁気テープ等が利用できるようになっている。また、コントローラではなく、キーボードやマウスなどを入力装置として利用する。そして、ゲームプログラムをインストールした後に、そのプログラムを実行させると、画像生成装置として機能させることができる。   Further, instead of the game apparatus 100 of the present embodiment, a general computer (general-purpose personal computer or the like) can also be used as the image generation apparatus according to the present invention. For example, a general computer, like the game device 100, includes a CPU, RAM, ROM, DVD-ROM drive, and NIC, and includes an image processing unit that has simpler functions than the game device 100. In addition to having a hard disk as an external storage device, a flexible disk, a magneto-optical disk, a magnetic tape, and the like can be used. In addition, a keyboard, a mouse or the like is used as an input device instead of a controller. Then, after the game program is installed, the program can be executed to function as an image generation device.

次に、本実施形態に係る画像生成装置200の機能的な概要構成について説明する。図2は、画像生成装置200の概要構成を示す図である。画像生成装置200は、位置形状記憶部201、テクスチャ記憶部202、鏡像計算部203、透明度取得部204、生成部205を備える。   Next, a functional schematic configuration of the image generation apparatus 200 according to the present embodiment will be described. FIG. 2 is a diagram illustrating a schematic configuration of the image generation apparatus 200. The image generation apparatus 200 includes a position shape storage unit 201, a texture storage unit 202, a mirror image calculation unit 203, a transparency acquisition unit 204, and a generation unit 205.

本実施形態の画像生成装置200は、図3に示すように、仮想空間内に配置されるモデルオブジェクト310と、面オブジェクト320と、鏡像オブジェクト330とを含む画像を生成する。   As illustrated in FIG. 3, the image generation apparatus 200 according to the present embodiment generates an image including a model object 310, a plane object 320, and a mirror image object 330 that are arranged in a virtual space.

モデルオブジェクト310は、例えば、体操や運動などをしている人型のモデルを表すキャラクタオブジェクトである。面オブジェクト320は、モデルオブジェクト310が乗っている床やステージ、あるいは側面等に設置された鏡、光反射板、ガラス窓などを表すオブジェクトである。鏡像オブジェクト330は、あたかも面オブジェクト320にモデルオブジェクト310が写り込んで見えるかのように配置するキャラクタオブジェクトである。一例として、画像生成装置200は、仮想空間内のスタジオで、フィットネスのインストラクター(モデルオブジェクト310)が、光を反射するステージ(面オブジェクト320)の上でエクササイズし、そのインストラクターのステージへ映り込んでいる姿(鏡像オブジェクト330)とともに、スタジオ内の様子を表す画像を、後述する画像生成処理により生成する。   The model object 310 is, for example, a character object that represents a human model that performs gymnastics or exercise. The plane object 320 is an object representing a mirror, a light reflection plate, a glass window, or the like installed on the floor or stage on which the model object 310 is placed, or a side surface. The mirror image object 330 is a character object that is arranged as if the model object 310 appears in the plane object 320. As an example, the image generation apparatus 200 is a studio in a virtual space where a fitness instructor (model object 310) exercises on a stage that reflects light (plane object 320) and reflects on the instructor's stage. An image representing the inside of the studio together with the appearance (mirror image object 330) is generated by image generation processing described later.

位置形状記憶部201は、仮想空間内に配置されるモデルオブジェクト310の位置と形状、及び、面オブジェクト320の位置と形状を記憶する。これらの初期値は例えばDVD−ROMに予め格納されており、CPU 101がDVD−ROMドライブ107に装着されたDVD−ROMを読み出してRAM 103に一時記憶させる。CPU 101は、一時記憶されるこれらの位置と形状を示すデータを、例えばゲームの進行に応じて、随時更新することができる。CPU 101、RAM 103、DVD−ROMドライブ107が協働して動作することにより、位置形状記憶部201として機能する。   The position shape storage unit 201 stores the position and shape of the model object 310 arranged in the virtual space, and the position and shape of the plane object 320. These initial values are stored in advance in, for example, a DVD-ROM, and the CPU 101 reads out the DVD-ROM loaded in the DVD-ROM drive 107 and temporarily stores it in the RAM 103. The CPU 101 can update the temporarily stored data indicating the position and shape as needed, for example, according to the progress of the game. The CPU 101, the RAM 103, and the DVD-ROM drive 107 work together to function as the position shape storage unit 201.

モデルオブジェクト310と面オブジェクト320の形状は、その表面を微小な多角形(典型的には三角形や四角形など)のポリゴン(プリミティブ)に分割して、数値データ化されて表される。   The shapes of the model object 310 and the plane object 320 are expressed as numerical data by dividing the surfaces into polygons (primitives) of minute polygons (typically triangles and quadrangles).

モデルオブジェクト310と面オブジェクト320の位置は、1個の動径と2個の偏角を用いた極座標系を用いて、各オブジェクト内の代表点の座標(r,θ,φ)で表される。例えば、各オブジェクトの重心点の座標値が、各オブジェクトの代表点の位置を示す座標値となる。ただし、座標系はこれに限られるものではなく、例えば互いに直交する3軸による直交座標系を用いてもよい。また、仮想空間の全体を表現するグローバル座標系(ワールド座標系)と、オブジェクトごとのローカル座標系(ボディ座標系)とを別々に設定して座標計算等を行う構成を採用してもよい。   The positions of the model object 310 and the plane object 320 are represented by the coordinates (r, θ, φ) of the representative points in each object using a polar coordinate system using one moving radius and two declination angles. . For example, the coordinate value of the barycentric point of each object becomes the coordinate value indicating the position of the representative point of each object. However, the coordinate system is not limited to this, and for example, an orthogonal coordinate system with three axes orthogonal to each other may be used. Alternatively, a configuration may be adopted in which coordinate calculation or the like is performed by separately setting a global coordinate system (world coordinate system) representing the entire virtual space and a local coordinate system (body coordinate system) for each object.

テクスチャ記憶部202は、モデルオブジェクト310の表面に貼り付けるテクスチャと呼ばれる画像データ(以下「第1のテクスチャ」と呼ぶ)を記憶する。また、テクスチャ記憶部202は、面オブジェクト320の表面に貼り付けるテクスチャ(以下「第2のテクスチャ」と呼ぶ)を記憶する。第1のテクスチャと第2のテクスチャは、例えばDVD−ROMに予め格納されており、CPU 101がDVD−ROMドライブ107に装着されたDVD−ROMを読み出してRAM 103に一時記憶させる。CPU 101、RAM 103、DVD−ROMドライブ107が協働して動作することにより、テクスチャ記憶部202として機能する。なお、後述するように、第1のテクスチャは、鏡像オブジェクト330の表面に貼り付けるためのテクスチャとしても用いられる。   The texture storage unit 202 stores image data called a texture (hereinafter referred to as “first texture”) to be pasted on the surface of the model object 310. The texture storage unit 202 also stores a texture (hereinafter referred to as “second texture”) to be pasted on the surface of the plane object 320. The first texture and the second texture are stored in advance in, for example, a DVD-ROM, and the CPU 101 reads out the DVD-ROM loaded in the DVD-ROM drive 107 and temporarily stores it in the RAM 103. The CPU 101, the RAM 103, and the DVD-ROM drive 107 operate in cooperation to function as the texture storage unit 202. As will be described later, the first texture is also used as a texture to be pasted on the surface of the mirror image object 330.

鏡像計算部203は、位置形状記憶部201に記憶されたモデルオブジェクト310と面オブジェクト320のそれぞれの位置と形状に基づいて、鏡像オブジェクト330の位置と形状を計算する。CPU 101、画像処理部108、RAM 103が協働して動作することにより、鏡像計算部203として機能する。   The mirror image calculation unit 203 calculates the position and shape of the mirror image object 330 based on the respective positions and shapes of the model object 310 and the plane object 320 stored in the position shape storage unit 201. The CPU 101, the image processing unit 108, and the RAM 103 work together to function as the mirror image calculation unit 203.

より詳細には、鏡像計算部203は、モデルオブジェクト310上のある点(例えば各ポリゴンの頂点)について、面オブジェクト320に対して対称の位置になるような座標変換によって変換後の点の位置を計算し、同様に他の点についてもこの計算を繰り返す。そして、座標変換後の各点を結んで鏡像オブジェクト330を構成するポリゴンとし、鏡像オブジェクト330の形状を決定する。簡単に言えば、モデルオブジェクト310を面オブジェクト320に対して反転させて、鏡像オブジェクト330の位置と形状を計算する。   More specifically, the mirror image calculation unit 203 determines the position of the point after conversion by coordinate conversion so that a certain point on the model object 310 (for example, the vertex of each polygon) is symmetric with respect to the plane object 320. Calculate and repeat this calculation for other points as well. Then, the points after the coordinate conversion are connected to form a polygon constituting the mirror image object 330, and the shape of the mirror image object 330 is determined. In short, the model object 310 is inverted with respect to the plane object 320, and the position and shape of the mirror image object 330 are calculated.

図4(a)は、モデルオブジェクト310、面オブジェクト320、鏡像オブジェクト330の相互の位置関係を簡略化して表した一例である。ここでは、面オブジェクト320は、図4(b)に示すような平面であるとする。モデルオブジェクト310上のある点401と鏡像オブジェクト330上の対応する点403を結ぶ直線と、面オブジェクト320との交点402は、点401と点403とを結んだ線分の中点と一致する。言い換えれば、距離R1=距離R1’である。このようにモデルオブジェクト310と鏡像オブジェクト330は互いに面対称の関係にあり、鏡像計算部203はこの関係を満たすように鏡像オブジェクト330の位置と形状を計算する。   FIG. 4A is an example in which the positional relationship among the model object 310, the plane object 320, and the mirror image object 330 is simplified. Here, it is assumed that the plane object 320 is a plane as shown in FIG. An intersection 402 between a plane object 320 and a straight line connecting a point 401 on the model object 310 and a corresponding point 403 on the mirror image object 330 coincides with the midpoint of the line connecting the point 401 and the point 403. In other words, distance R1 = distance R1 '. In this way, the model object 310 and the mirror image object 330 are in a plane-symmetrical relationship, and the mirror image calculation unit 203 calculates the position and shape of the mirror image object 330 so as to satisfy this relationship.

面オブジェクト320の形状は平面に限られない。
図5(a)は、モデルオブジェクト310、面オブジェクト320、鏡像オブジェクト330の相互の位置関係を簡略化して表した他の例である。ここでは、面オブジェクト320は、図5(b)に示すような、点404を円の中心とする面を含む円柱の一部である。点401、点402、点403、点404は同一直線上にある。この例においても、モデルオブジェクト310と鏡像オブジェクト330は凸面鏡を用いた互いに面対称の関係にあると言える。なお、面オブジェクト320の形状は、平面、円柱(円筒)のほか、球、凹面、凸面、あるいは、これらの一部又は組み合わせでもよい。
The shape of the plane object 320 is not limited to a plane.
FIG. 5A is another example in which the positional relationship among the model object 310, the plane object 320, and the mirror image object 330 is simplified. Here, the plane object 320 is a part of a cylinder including a plane whose center is a point 404 as shown in FIG. Point 401, point 402, point 403, and point 404 are on the same straight line. Also in this example, it can be said that the model object 310 and the mirror image object 330 are in a plane-symmetric relationship with each other using a convex mirror. The shape of the plane object 320 may be a plane, a cylinder (cylinder), a sphere, a concave surface, a convex surface, or a part or combination thereof.

透明度取得部204は、面オブジェクト320から鏡像計算部203により計算された鏡像オブジェクト330の表面を構成する各領域(各ポリゴン)までの距離に応じて、各領域に対する第1のテクスチャの透明度をそれぞれ取得する。透明度は、いわゆるα値のことである。CPU 101、画像処理部108、RAM 103が協働して動作することにより、透明度取得部204として機能する。   The transparency acquisition unit 204 determines the transparency of the first texture for each region according to the distance from the plane object 320 to each region (each polygon) constituting the surface of the mirror image object 330 calculated by the mirror image calculation unit 203. get. The transparency is a so-called α value. The CPU 101, the image processing unit 108, and the RAM 103 operate in cooperation to function as a transparency acquisition unit 204.

図6は、面オブジェクト320と、鏡像オブジェクト330の表面の一部を拡大して表した図である。鏡像オブジェクト330は、モデルオブジェクト310と同様に、微小な多角形のポリゴンに分割して数値データ化されて表される。透明度取得部204は、面オブジェクト320から各ポリゴンに対応する各領域601(本図中では領域601−1,601−2,601−3と表記)までの距離(本図中ではぞれぞれL1,L2,L3)を計算する。鏡像オブジェクト330の各領域601には、後述する生成部205によって第1のテクスチャの断片(テクスチャの一部分)がそれぞれ割り当てられる。透明度取得部204は、計算された各距離の長さに応じて、割り当てられた第1のテクスチャの断片の透明度をそれぞれ取得する。典型的には、透明度取得部204は、計算された距離の長さに対して透明度が単調増加するように計算して、各領域の透明度を取得する。透明度は全体として単調増加する傾向であればよく、ある任意の距離区間で一定値をとることがあってもよい。例えば、所定の何段階かのグラデーションをつけるように透明度を変えることができる。   FIG. 6 is an enlarged view of a part of the surface of the plane object 320 and the mirror image object 330. Like the model object 310, the mirror image object 330 is divided into minute polygons and converted into numerical data. The transparency acquisition unit 204 is a distance from the plane object 320 to each region 601 corresponding to each polygon (shown as regions 601-1, 601-2, and 601-3 in this drawing) (each in this drawing). L1, L2, L3) are calculated. Each region 601 of the mirror image object 330 is assigned a first texture fragment (part of a texture) by the generation unit 205 described later. The transparency acquisition unit 204 acquires the transparency of the assigned first texture fragment according to the calculated length of each distance. Typically, the transparency acquisition unit 204 calculates the transparency so that the transparency increases monotonously with respect to the calculated distance, and acquires the transparency of each region. Transparency should just be the tendency which increases monotonically as a whole, and may take a fixed value in a certain arbitrary distance area. For example, the transparency can be changed to give a predetermined number of gradations.

結果として、鏡像オブジェクト330の画像は、面オブジェクト320に近いほど透明度が小さくなって第1のテクスチャの元色に近い色になり、鏡像オブジェクト330は面オブジェクト320に近いほどだんだんとはっきり表示されることになる。一方、面オブジェクト320から遠ざかるほど透明度が大きくなって、鏡像オブジェクト330はだんだんと背景に溶け込んで霞んでいくように表示されることになる。このように、α値を変えることによって、背景色とテクスチャの色との混合比率が領域ごとに変わる。   As a result, as the image of the mirror image object 330 is closer to the plane object 320, the transparency becomes smaller and becomes a color closer to the original color of the first texture, and the mirror image object 330 is displayed more clearly as it is closer to the plane object 320. It will be. On the other hand, the transparency increases as the distance from the plane object 320 increases, and the mirror image object 330 is displayed so as to gradually melt into the background. Thus, by changing the α value, the mixing ratio of the background color and the texture color changes for each region.

例えば、透明度取得部204は、図7(a)〜(d)に示すような関係を満たすように、鏡像オブジェクト330を構成する各領域の透明度を変化させる。縦軸は鏡像オブジェクト330を構成する各領域の透明度(α値)、横軸は各領域から面オブジェクト3320までの距離である。透明度は0から1までの値を取りうる。透明度が0であれば完全不透明、透明度が1であれば完全透明になる。
図7(a)は、透明度取得部204が取得する透明度の一例をグラフにして示した図である。本例では、透明度は距離に対して直線的に増加する。そして、閾距離D1に達すると透明度は一定値(ここではα=1)になる。
図7(b)は、透明度と距離の関係の、他の例である。本例では、透明度の増加する比率がだんだんと増加する。あるいは2次関数や指数関数等で表されるように増加してもよい。そして、同様に閾距離D1に達すると透明度は一定値になる。なお、透明度の増加する比率がだんだんと減少していってもよい。
図7(c)は、透明度と距離の関係の、他の例である。本例では、距離が比較的短い範囲では透明度の増加する比率がだんだんと増加していき、距離が比較的長い範囲ではこの比率がだんだんと減少していく。やがて透明度は一定値(ここではα=1)に収束していく。
図7(d)は、透明度と距離の関係の、他の例である。本例では、透明度は階段関数のように非連続的に変化する。段階数を多くすれば、透明度が滑らかに変化していくように見える。
これらは例示に過ぎず、自由に組み合わせたり変形させたりした実施形態を採用できることは言うまでもない。透明度は0≦α≦1の範囲で変化させているが、他の任意の範囲αmin≦α≦αmaxで変化させてもよい。αminはゼロに限定されるわけではないし、αmaxは1に限定されるわけでもない。
For example, the transparency acquisition unit 204 changes the transparency of each region constituting the mirror image object 330 so as to satisfy the relationships as shown in FIGS. The vertical axis represents the transparency (α value) of each area constituting the mirror image object 330, and the horizontal axis represents the distance from each area to the plane object 3320. The transparency can take a value from 0 to 1. If the transparency is 0, it is completely opaque, and if the transparency is 1, it is completely transparent.
FIG. 7A is a graph showing an example of the transparency acquired by the transparency acquisition unit 204. In this example, the transparency increases linearly with distance. When the threshold distance D1 is reached, the transparency becomes a constant value (here, α = 1).
FIG. 7B is another example of the relationship between transparency and distance. In this example, the ratio of increasing transparency gradually increases. Or you may increase so that it may represent with a quadratic function, an exponential function, etc. Similarly, when the threshold distance D1 is reached, the transparency becomes a constant value. It should be noted that the ratio of increasing transparency may gradually decrease.
FIG. 7C shows another example of the relationship between transparency and distance. In this example, the ratio of increasing transparency gradually increases in the range where the distance is relatively short, and this ratio gradually decreases in the range where the distance is relatively long. Eventually the transparency converges to a certain value (here α = 1).
FIG. 7D is another example of the relationship between transparency and distance. In this example, the transparency changes discontinuously like a step function. If the number of steps is increased, the transparency appears to change smoothly.
These are merely examples, and it is needless to say that embodiments freely combined or deformed can be adopted. The transparency is changed in the range of 0 ≦ α ≦ 1, but may be changed in any other range αmin ≦ α ≦ αmax. αmin is not limited to zero, and αmax is not limited to one.

生成部205は、仮想空間内に配置される投影面に対するモデルオブジェクト310と面オブジェクト320と鏡像オブジェクト330の投影先をそれぞれ求める。CPU 101、画像処理部108、RAM 103が協働して動作することにより、生成部205として機能する。   The generation unit 205 obtains the projection destinations of the model object 310, the plane object 320, and the mirror image object 330 on the projection plane arranged in the virtual space. The CPU 101, the image processing unit 108, and the RAM 103 operate in cooperation to function as the generation unit 205.

図8は、生成部205が各オブジェクトを投影面810に投影する様子を示した模式図である。投影面810は仮想空間内の任意の場所に配置される。生成部205は、同じく仮想空間内に配置された仮想的な視点820から視線方向(本図中の矢印Y1方向)に見た各オブジェクトの画像を投影面810に投影する。投影面810に投影された画像が、画像生成装置200に接続されるモニターに出力される表示画像となる。例えば、モデルオブジェクト310上の点851(本図ではモデルオブジェクト310の“手の先端”部分)の投影先は、投影面810上の点861(本図では鏡像オブジェクト330の同じ“手の先端”部分)に対応する。同様に、面オブジェクト320上の点852(本図では“ステージの先端”部分)の投影先は、投影面810上の点862に、鏡像オブジェクト330上の点853(本図では“頭の先端”部分)の投影先は投影面810上の点863に、それぞれ対応する。同様に、生成部205は、モデルオブジェクト310、面オブジェクト320、鏡像オブジェクト330の他の各点について投影先を計算する。   FIG. 8 is a schematic diagram illustrating how the generation unit 205 projects each object onto the projection plane 810. The projection plane 810 is disposed at an arbitrary location in the virtual space. The generation unit 205 projects an image of each object seen from the virtual viewpoint 820 arranged in the virtual space in the line-of-sight direction (the direction of the arrow Y1 in the figure) onto the projection plane 810. An image projected on the projection surface 810 becomes a display image output to a monitor connected to the image generation apparatus 200. For example, the projection destination of the point 851 on the model object 310 (the “hand tip” portion of the model object 310 in this figure) is the point 861 on the projection plane 810 (the same “tip of the hand” of the mirror image object 330 in the figure). Part). Similarly, the projection destination of the point 852 on the plane object 320 (the “tip of the stage” in the figure) is the point 862 on the projection plane 810 and the point 853 on the mirror image object 330 (the “tip of the head in the figure). The projection destination of “portion” corresponds to the point 863 on the projection plane 810, respectively. Similarly, the generation unit 205 calculates the projection destination for each of the other points of the model object 310, the plane object 320, and the mirror image object 330.

そして、生成部205は、各オブジェクトの表面に第1のテクスチャ又は第2のテクスチャを貼り付けて描画して(すなわちテクスチャマッピングして)、表示用の画像データを生成する。より詳細には、生成部205は、
(1)まず、面オブジェクト320の投影先に、第2のテクスチャを貼り付け、
(2)次に、鏡像オブジェクト330の各領域の投影先に、透明度取得部204により取得された透明度で、第1のテクスチャのうち各領域に対応する部分をそれぞれ貼り付け、
(3)さらに、モデルオブジェクト310の投影先に、テクスチャ記憶部202に記憶されている(透明度を変えていない)第1のテクスチャを貼り付けて、
画像データを生成する。
Then, the generation unit 205 generates image data for display by pasting the first texture or the second texture on the surface of each object and drawing (that is, texture mapping). More specifically, the generation unit 205
(1) First, a second texture is pasted on the projection target of the plane object 320,
(2) Next, a portion corresponding to each region of the first texture is pasted to the projection destination of each region of the mirror image object 330 with the transparency acquired by the transparency acquisition unit 204, respectively.
(3) Further, the first texture stored in the texture storage unit 202 (the transparency is not changed) is pasted on the projection destination of the model object 310,
Generate image data.

例えば、面オブジェクト320の表面が光を反射する(映り込みを作り出す)材質でできている場合、面オブジェクト320、鏡像オブジェクト330、モデルオブジェクト310、の順にテクスチャを貼り付けて描画する。もし、面オブジェクト320の表面が、例えば土の地面などのように光を反射しにくい(映り込みを作り出さない)材質でできているのであれば、鏡像オブジェクト330、面オブジェクト320、モデルオブジェクト310、の順にテクスチャを貼り付ければよい。   For example, when the surface of the plane object 320 is made of a material that reflects light (creates reflection), the texture is pasted in the order of the plane object 320, the mirror image object 330, and the model object 310. If the surface of the plane object 320 is made of a material that hardly reflects light (does not create reflection), such as a ground of earth, for example, the mirror image object 330, the plane object 320, the model object 310, The texture should be pasted in the order.

ここで、生成部205は、透明度取得部204によって取得された透明度ではなく、他の処理によって取得された透明度を用いて、テクスチャを貼り付けてもよい。例えば、地面に水たまりがある場合、水たまりの部分に対応する鏡像オブジェクト330の表面には透明度取得部204によって取得された透明度で第1のテクスチャを貼り付け、それ以外の土の部分に対応する鏡像オブジェクト330の表面には完全に不透明にして第1のテクスチャを貼り付けてもよい。   Here, the generation unit 205 may paste the texture using not the transparency acquired by the transparency acquisition unit 204 but the transparency acquired by other processing. For example, when there is a puddle on the ground, the first texture is pasted on the surface of the mirror image object 330 corresponding to the puddle portion with the transparency acquired by the transparency acquisition unit 204, and the mirror image corresponding to the other soil portion. The first texture may be pasted on the surface of the object 330 by making it completely opaque.

なお、視点820から見たときに鏡像オブジェクト330全体が完全に面オブジェクト320あるいは他のオブジェクトに隠れて見えないのであれば、鏡像オブジェクト330の表面にテクスチャを貼り付ける処理を省略することもできる。   If the entire mirror image object 330 is completely hidden behind the plane object 320 or another object when viewed from the viewpoint 820, the process of pasting the texture on the surface of the mirror image object 330 can be omitted.

次に、上述の各部が行う画像生成処理の流れについて、図9のフローチャートを用いて説明する。以下の説明では、画像生成装置200が、コントローラ105を用いたユーザからの指示入力に基づいて、仮想空間内に配置されたオブジェクト(例えばゲームに登場するプレイヤーキャラクタオブジェクトなど)を含む画像を生成する場面を想定して説明する。   Next, the flow of image generation processing performed by each unit described above will be described with reference to the flowchart of FIG. In the following description, the image generation apparatus 200 generates an image including an object (for example, a player character object appearing in a game) arranged in a virtual space based on an instruction input from a user using the controller 105. I will explain the situation.

まず、鏡像計算部203は、モデルオブジェクト310の位置と形状を示すデータ、及び、面オブジェクト320の位置と形状を示すデータを、位置形状記憶部201からそれぞれ取得する(ステップS901)。   First, the mirror image calculation unit 203 acquires data indicating the position and shape of the model object 310 and data indicating the position and shape of the plane object 320 from the position shape storage unit 201 (step S901).

鏡像計算部203は、取得したモデルオブジェクト310の位置と形状、及び、面オブジェクト320の位置と形状から、鏡像オブジェクト330の位置と形状を求める(ステップS902)。求められた位置と形状を示すデータは、RAM 103に一時記憶される。   The mirror image calculation unit 203 obtains the position and shape of the mirror image object 330 from the acquired position and shape of the model object 310 and the position and shape of the plane object 320 (step S902). Data indicating the obtained position and shape is temporarily stored in the RAM 103.

透明度取得部204は、鏡像オブジェクト330を構成する各領域から面オブジェクト320までの距離をそれぞれ求める(ステップS903)。例えば、透明度取得部204は、鏡像オブジェクト330を構成する各ポリゴンに対応する各領域の中心点から面オブジェクトへ垂線を下ろし、中心点から垂線と面オブジェクト320の交点までの距離(垂線の長さ)をそれぞれ計算する。典型的には各領域の中心点は重心である。計算されたそれぞれの距離を示すデータは、RAM 103に一時記憶される。   The transparency acquisition unit 204 obtains the distance from each area constituting the mirror image object 330 to the plane object 320 (step S903). For example, the transparency acquisition unit 204 draws a perpendicular line from the center point of each region corresponding to each polygon constituting the mirror image object 330 to the plane object, and the distance from the center point to the intersection of the perpendicular line and the plane object 320 (the length of the perpendicular line) ) Respectively. Typically, the center point of each region is the center of gravity. Data indicating the calculated distances is temporarily stored in the RAM 103.

透明度取得部204は、ステップS903で計算した距離に応じて、各領域に貼り付けるテクスチャ部分(第1のテクスチャのうち各領域に割り当てられる部分)の透明度を取得する(ステップS904)。例えば、透明度取得部204は、0≦α≦1の範囲で、計算された距離が長ければ長いほどα値を大きく、短ければ短いほどα値を小さくした透明度を取得する。   The transparency acquisition unit 204 acquires the transparency of the texture portion (the portion assigned to each region of the first texture) to be pasted to each region according to the distance calculated in step S903 (step S904). For example, in the range of 0 ≦ α ≦ 1, the transparency obtaining unit 204 obtains transparency with a larger α value as the calculated distance is longer and a smaller α value as the calculated distance is shorter.

この鏡像オブジェクト330の表面に貼り付けるテクスチャの透明度は、視点810から鏡像オブジェクト330(を構成する各ポリゴン)までの距離ではなく、面オブジェクト320から鏡像オブジェクト330(を構成する各ポリゴン)までの距離によって変わる。   The transparency of the texture pasted on the surface of the mirror image object 330 is not the distance from the viewpoint 810 to the mirror image object 330 (each polygon constituting the object) but the distance from the plane object 320 to each mirror image object 330 (each polygon constituting the object). It depends on.

生成部205は、この仮想空間内に投影面810を配置する(ステップS905)。生成部205は、視点820の位置と、視線ベクトルの向き(視線方向)と、ズーム倍率とに基づいて、投影面810の位置を決定する。ユーザは、コントローラ105を用いて、仮想カメラ(視点810)の位置、仮想カメラの向き(視線方向Y1)、仮想カメラの撮影倍率等を指定するためのパラメータを変更する旨の指示ができ、生成部205はこのユーザからの指示入力に基づいて投影面810の位置と向きを決定する。   The generation unit 205 arranges the projection plane 810 in this virtual space (step S905). The generation unit 205 determines the position of the projection plane 810 based on the position of the viewpoint 820, the direction of the line-of-sight vector (line-of-sight direction), and the zoom magnification. The user can use the controller 105 to instruct to change parameters for specifying the position of the virtual camera (viewpoint 810), the direction of the virtual camera (gaze direction Y1), the shooting magnification of the virtual camera, and the like. The unit 205 determines the position and orientation of the projection plane 810 based on the instruction input from the user.

例えば、生成部205は、視点810を起点とする視線ベクトルと垂直に交わる向きに投影面810を配置し、ズームインの際には投影面810を撮影対象のオブジェクトに近づくように(視点810から遠ざかるように)平行移動させ、ズームアウトの際には撮影対象のオブジェクトから遠ざかるように(視点810に近づくように)平行移動させる。視線ベクトルの向きを変える(すなわち仮想カメラをパンする)ときには、視線方向の向きの変化に従って投影面810の向きも変える。   For example, the generation unit 205 arranges the projection plane 810 in a direction perpendicular to the line-of-sight vector starting from the viewpoint 810, and moves the projection plane 810 closer to the object to be imaged (zoom away from the viewpoint 810) when zooming in. And so on, when zooming out, the object is moved away from the object to be photographed (so as to approach the viewpoint 810). When changing the direction of the line-of-sight vector (that is, panning the virtual camera), the direction of the projection plane 810 is also changed according to the change in the direction of the line-of-sight direction.

生成部205は、モデルオブジェクト310、面オブジェクト320、鏡像オブジェクト330のそれぞれについて、ステップS905で配置した投影面810への投影先を求める(ステップS906)。例えば、生成部205は、各オブジェクトを投影面810に透視投影する。これにより、3次元仮想空間に配置された各オブジェクトが、2次元仮想スクリーンに投影される。本実施形態では、投影の手法として透視投影を採用するので、視点810から遠くにあるオブジェクトは小さく、近くにあるオブジェクトは大きく投影されることになる。ただし、透視投影の代わりに平行投影を採用することもできる。   The generation unit 205 obtains a projection destination on the projection plane 810 arranged in step S905 for each of the model object 310, the plane object 320, and the mirror image object 330 (step S906). For example, the generation unit 205 perspectively projects each object on the projection plane 810. Thereby, each object arranged in the three-dimensional virtual space is projected on the two-dimensional virtual screen. In the present embodiment, since perspective projection is adopted as a projection method, an object far from the viewpoint 810 is small and an object near is projected large. However, parallel projection can be employed instead of perspective projection.

生成部205は、テクスチャ記憶部202に記憶された、面オブジェクト320用のテクスチャである第2のテクスチャを読み出して、面オブジェクト320の投影先に貼り付けて描画する(ステップS907)。   The generation unit 205 reads the second texture, which is the texture for the plane object 320, stored in the texture storage unit 202, pastes the second texture on the projection destination of the plane object 320, and draws it (step S907).

また、生成部205は、鏡像オブジェクト330の投影先の各領域に、第1のテクスチャのうち各領域に対応する部分を、ステップS904で取得した透明度で貼り付けて描画する(ステップS908)。   In addition, the generation unit 205 draws a portion of the first texture corresponding to each region in the projection destination region of the mirror image object 330 with the transparency acquired in step S904 (step S908).

さらに、生成部205は、テクスチャ記憶部202に記憶された、モデルオブジェクト310用のテクスチャである第1のテクスチャを読み出して、モデルオブジェクト310の投影先に貼り付けて描画する(ステップS909)。ここでは生成部205は透明度を変えずにテクスチャを貼り付ける。   Further, the generation unit 205 reads the first texture, which is the texture for the model object 310, stored in the texture storage unit 202, pastes it on the projection destination of the model object 310, and draws it (step S909). Here, the generation unit 205 pastes the texture without changing the transparency.

このように生成された画像データが、モニターに表示するための画像データとなる。生成された画像データにはモデルオブジェクト310の床面(面オブジェクト320)への映り込み(鏡像オブジェクト330)が含まれるので、より立体感がありリアリティのある画像が得られる。しかも、床面から高い位置にあるものほど、その床面への映り込みが霞んでいくので、高さの違いを把握しやすい画像となる。   The image data generated in this way becomes image data to be displayed on the monitor. Since the generated image data includes the reflection (mirror image object 330) of the model object 310 on the floor surface (plane object 320), an image with a more stereoscopic effect and reality can be obtained. In addition, the higher the position from the floor, the more the image is reflected on the floor, so that the difference in height becomes easier to grasp.

例えば、本発明を用いて、ステージの上にモデルが垂直に立っている画像を生成すると、モデルの足付近(ステージに近い部分)のステージへの映り込みははっきりとするが、視点810がモデルの近くにあったとしても、頭付近(ステージから遠い部分)の映り込みは霧がかかったようにだんだんとぼんやりしていき、代わりにステージの模様等がはっきり映るようになる。つまり、ステージから高い位置にある部分ほど、そのステージへの映り込みは透明度が上がって薄くなっていく。もし頭付近の映り込みの透明度が、足元付近の映り込みの透明度より大きければ、頭付近が足元付近より相対的にステージから高いところにあることが容易に分かる。   For example, when an image in which the model stands vertically on the stage is generated using the present invention, reflection on the stage near the foot of the model (portion close to the stage) is clear, but the viewpoint 810 is the model. Even if it is near, the reflection near the head (the part far from the stage) will gradually fade as if it was foggy, and instead the stage pattern will be clearly visible. In other words, the higher the position from the stage, the lighter the reflection on the stage becomes. If the transparency of the reflection near the head is greater than the transparency of the reflection near the foot, it is easy to see that the vicinity of the head is relatively higher from the stage than near the foot.

もし、鏡像オブジェクト330を構成する各領域の透明度を、面オブジェクト320からの距離ではなく、視点810からの距離に応じて変化させるとすると、「遠くのものほど霞んで見える」ように透明度を変えることになる。よって、視点810がモデルオブジェクト310に数メートル程度まで接近していれば、透明度はほとんど変化しないことになる。しかし、本実施形態では、透明度取得部204は、鏡像オブジェクト330の各領域の透明度を、視点810からの距離ではなく、面オブジェクト320からの距離に応じて変えている。つまり、面オブジェクト320までの距離(床面からの高さ)に依存して透明度が変わる。したがって、視点810がモデルオブジェクト310に接近していても、鏡像オブジェクト330は面オブジェクト320から離れている部分ほど透明度が大きくなって薄れていき、面オブジェクト320に近いほど透明度が小さくなってはっきり映るようになる。   If the transparency of each area constituting the mirror image object 330 is changed not according to the distance from the plane object 320 but according to the distance from the viewpoint 810, the transparency is changed so that "the farther the object looks dazzling". It will be. Therefore, if the viewpoint 810 is close to the model object 310 to about several meters, the transparency hardly changes. However, in the present embodiment, the transparency acquisition unit 204 changes the transparency of each region of the mirror image object 330 according to the distance from the plane object 320 instead of the distance from the viewpoint 810. That is, the transparency changes depending on the distance to the plane object 320 (height from the floor). Therefore, even when the viewpoint 810 is close to the model object 310, the mirror image object 330 becomes more transparent and thinner as the part is farther from the plane object 320, and the transparency becomes smaller and closer to the plane object 320. It becomes like this.

もし、単純にZバッファ法やZソート法を用いて、視点810から遠くにあるオブジェクトから順にテクスチャを貼り付けていくと、通常、面オブジェクト320より鏡像オブジェクト330の方が遠くにあるので、鏡像オブジェクト330に面オブジェクト320が上書きされてしまい、鏡像が表示されないことになる。しかし、本実施形態では、面オブジェクト320、鏡像オブジェクト330、モデルオブジェクト310の順にテクスチャを貼り付けているので、鏡像オブジェクト330が面オブジェクト320に隠れて表示されないということはない。   If textures are pasted in order from an object far from the viewpoint 810 by simply using the Z buffer method or the Z sort method, the mirror image object 330 is usually farther from the plane object 320. The plane object 320 is overwritten on the object 330, and a mirror image is not displayed. However, in this embodiment, since the texture is pasted in the order of the plane object 320, the mirror image object 330, and the model object 310, the mirror image object 330 is not hidden by the plane object 320 and is not displayed.

なお、モデルオブジェクト310、面オブジェクト320、鏡像オブジェクト330以外に、例えば背景用のキャラクタオブジェクトなど他のオブジェクトが存在する場合には、そのオブジェクトの位置と形状も計算して所定のテクスチャを貼り付ければよい。その場合、そのテクスチャを貼り付ける順番を先にするほど、後からテクスチャを貼り付けたオブジェクトの陰になって消される(視点810から見えなくなる)ので、テクスチャを貼り付ける処理は、ステップS907の前、ステップS908の前、ステップS909の前、あるいは、ステップS909の後のうちのいずれかに場面に応じて行えばよい。例えば、モデルオブジェクト310より遠くに固定されている背景のオブジェクトであれば、ステップS907の前であることが望ましい。   In addition to the model object 310, the plane object 320, and the mirror image object 330, for example, if there is another object such as a character object for background, the position and shape of the object are also calculated and a predetermined texture is pasted. Good. In that case, the earlier the order in which the texture is pasted, the more the object is pasted and disappears behind the texture pasted (becomes invisible from the viewpoint 810), so the process of pasting the texture is before step S907. , Before step S908, before step S909, or after step S909, depending on the scene. For example, if the object is a background object that is fixed far away from the model object 310, it is desirable that it be before step S907.

本実施形態では、面オブジェクト320に第2のテクスチャを貼り付けているが、面オブジェクト320が全くの透明である場合などには、ステップS907を省略してもよい。また、例えばステップS907を省略して面オブジェクト320の表面に第2のテクスチャを貼り付けず、結果的に面オブジェクト320が表示されない画像を生成したとしても、モデルオブジェクト310と共に鏡像オブジェクト330を表示させれば、モデルオブジェクト310と鏡像オブジェクト330の間に映り込みを作り出すステージがあることをユーザに想起させることができ、しかも描画処理の負荷を軽減できる。   In the present embodiment, the second texture is pasted on the plane object 320. However, when the plane object 320 is completely transparent, step S907 may be omitted. Further, for example, even if step S907 is omitted and the second texture is not pasted on the surface of the plane object 320, and as a result an image in which the plane object 320 is not displayed is generated, the mirror image object 330 is displayed together with the model object 310. Then, the user can be reminded that there is a stage that creates a reflection between the model object 310 and the mirror image object 330, and the load of the drawing process can be reduced.

本発明は、上述した実施形態に限定されず、種々の変形及び応用が可能である。また、上述した実施形態の各構成要素を自由に組み合わせることも可能である。   The present invention is not limited to the above-described embodiments, and various modifications and applications are possible. Moreover, it is also possible to freely combine the constituent elements of the above-described embodiments.

面オブジェクト320は床やステージに限られない。例えば、水面に浮かぶ船を表す画像などを生成することもできる。この場合、船がモデルオブジェクト310であり、水面が面オブジェクト320であり、水面に映った船体像が鏡像オブジェクト330に相当する。水面が穏やかな状態であれば、生成部205は、水面、水面に映る船体像(かげ)、船、の順にテクスチャを貼り付けて画像を生成する。つまり、生成される画像は、水面に船体像が反射して映っているかのような画像になる。水面が荒れている状態であれば、生成部205は、水面に映る船体像、水面、船、の順にテクスチャを貼り付けて画像を生成する。つまり、穏やかであれば水面に映っていたはずの船体像を隠すことができる。   The plane object 320 is not limited to a floor or a stage. For example, an image representing a ship floating on the water surface can be generated. In this case, the ship is the model object 310, the water surface is the surface object 320, and the hull image reflected on the water surface corresponds to the mirror image object 330. If the water surface is calm, the generation unit 205 generates an image by pasting textures in the order of the water surface, the hull image (shadow) reflected on the water surface, and the ship. That is, the generated image is an image as if the hull image is reflected on the water surface. If the water surface is in a rough state, the generation unit 205 generates an image by pasting textures in the order of the hull image reflected on the water surface, the water surface, and the ship. In other words, if it is calm, the hull image that should have been reflected on the surface of the water can be hidden.

面オブジェクト320は、光沢のある床やステージ、水面、海面、逃げ水などのように水平方向に広がるものに限られない。例えば任意の方向に立てかけられた鏡、窓、ガラスで覆われたビルの側面などでもよい。   The plane object 320 is not limited to the one that spreads in the horizontal direction, such as a glossy floor, stage, water surface, sea surface, escape water, or the like. For example, it may be a mirror, a window, a side surface of a building covered with glass, etc. leaning in an arbitrary direction.

上記実施形態では、透明度取得部204は、鏡像オブジェクト330の透明度を、視点820からの距離ではなく、面オブジェクト320からの距離に応じて変えている。しかし、面オブジェクト320からの距離に応じて変えるとともに、視点820からの距離に応じて透明度を変えるようにしてもよい。つまり、透明度取得部204は、鏡像オブジェクト330を構成する各領域の透明度を、(a)各領域から面オブジェクト320までの距離が長くなるほど大きくし、且つ、(b)各領域から視点820までの距離が長くなるほど大きくする、ようにしてもよい。このようにすれば、遠くのものほど霞んで見えるように表現でき、より現実感のある画像となる。   In the above embodiment, the transparency acquisition unit 204 changes the transparency of the mirror image object 330 according to the distance from the plane object 320, not the distance from the viewpoint 820. However, the transparency may be changed according to the distance from the viewpoint 820 as well as the distance from the plane object 320. That is, the transparency acquisition unit 204 increases (a) the transparency of each area constituting the mirror image object 330 as the distance from each area to the plane object 320 increases, and (b) from each area to the viewpoint 820. You may make it enlarge, so that distance becomes long. In this way, it is possible to express a distant image as if it is far away, and the image becomes more realistic.

画像生成装置200を装置の全部又は一部として動作させるためのプログラムを、メモリカード、CD−ROM、DVD、MO(Magneto Optical disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これを別のコンピュータにインストールし、上述の手段として動作させ、あるいは、上述の工程を実行させてもよい。   A program for operating the image generating apparatus 200 as all or part of the apparatus is stored and distributed in a computer-readable recording medium such as a memory card, CD-ROM, DVD, or MO (Magneto Optical disk). May be installed in another computer and operated as the above-described means, or the above-described steps may be executed.

さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。   Furthermore, the program may be stored in a disk device or the like included in a server device on the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.

以上説明したように、本発明によれば、オブジェクトの位置や形状を認識しやすくしつつそのオブジェクトの映り込みを表現するために好適な画像生成装置、画像生成方法、ならびに、プログラムを提供することができる。   As described above, according to the present invention, it is possible to provide an image generation apparatus, an image generation method, and a program suitable for expressing the reflection of an object while easily recognizing the position and shape of the object. Can do.

本発明の画像生成装置が実現される典型的なゲーム装置の概要構成を示す図である。1 is a diagram illustrating a schematic configuration of a typical game device in which an image generation device of the present invention is realized. 画像生成装置の機能的構成を説明するための図である。It is a figure for demonstrating the functional structure of an image generation apparatus. 画像生成装置によって生成される画像の例である。It is an example of the image produced | generated by an image generation apparatus. (a)モデルオブジェクトと面オブジェクトと鏡像オブジェクトを説明するための図である。(b)面オブジェクトの一例である。(A) It is a figure for demonstrating a model object, a plane object, and a mirror image object. (B) It is an example of a plane object. (a)モデルオブジェクトと面オブジェクトと鏡像オブジェクトを説明するための図である。(b)面オブジェクトの一例である。(A) It is a figure for demonstrating a model object, a plane object, and a mirror image object. (B) It is an example of a plane object. 面オブジェクトと、鏡像オブジェクト上の各領域との距離を説明するための図である。It is a figure for demonstrating the distance of a surface object and each area | region on a mirror image object. (a)〜(d)は、鏡像オブジェクト上の各領域の透明度と、各領域から面オブジェクトまでの距離との関係の例を示す図である。(A)-(d) is a figure which shows the example of the relationship between the transparency of each area | region on a mirror image object, and the distance from each area | region to a plane object. 投影面に画像を投影する処理を説明するための図である。It is a figure for demonstrating the process which projects an image on a projection surface. 画像生成処理を説明するためのフローチャートである。It is a flowchart for demonstrating an image generation process.

符号の説明Explanation of symbols

100 ゲーム装置
101 CPU
102 ROM
103 RAM
104 インターフェース
105 コントローラ
106 外部メモリ
107 DVD−ROMドライブ
108 画像処理部
109 音声処理部
110 NIC
200 画像生成装置
201 位置形状記憶部
202 テクスチャ記憶部
203 鏡像計算部
204 透明度取得部
205 生成部
310 モデルオブジェクト
320 面オブジェクト
330 鏡像オブジェクト
810 投影面
820 視点
100 game device 101 CPU
102 ROM
103 RAM
104 Interface 105 Controller 106 External Memory 107 DVD-ROM Drive 108 Image Processing Unit 109 Audio Processing Unit 110 NIC
200 Image Generation Device 201 Position Shape Storage Unit 202 Texture Storage Unit 203 Mirror Image Calculation Unit 204 Transparency Acquisition Unit 205 Generation Unit 310 Model Object 320 Plane Object 330 Mirror Image Object 810 Projection Plane 820 Viewpoint

Claims (5)

仮想空間内に配置されるモデルオブジェクトの位置と形状、及び、面オブジェクトの位置と形状を記憶する位置形状記憶部と、
当該モデルオブジェクトの表面に貼り付ける第1のテクスチャと、当該面オブジェクトの表面に貼り付ける第2のテクスチャと、を記憶するテクスチャ記憶部と、
前記位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する鏡像計算部と、
前記位置形状記憶部に記憶された当該面オブジェクトから前記鏡像計算部により計算された当該鏡像オブジェクトの表面を構成する各領域までの各距離に応じて、当該各領域に対する当該第1のテクスチャの透明度を取得する透明度取得部と、
当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該面オブジェクトの表面に当該第2のテクスチャを貼り付け、次に、当該鏡像オブジェクトの当該各領域の投影先に、前記テクスチャ記憶部に記憶された当該第1のテクスチャのうち当該各領域に対応する部分を、前記透明度取得部により取得された透明度でそれぞれ貼り付け、次に、当該モデルオブジェクトの投影先に前記テクスチャ記憶部に記憶された第1のテクスチャを貼り付けて、画像を生成する生成部と、
を備えることを特徴とする画像生成装置。
A position shape storage unit for storing the position and shape of the model object arranged in the virtual space and the position and shape of the plane object;
A texture storage unit that stores a first texture to be pasted on the surface of the model object and a second texture to be pasted on the surface of the surface object ;
Mirror image calculation that calculates the position and shape of a mirror image object obtained by inverting the model object with respect to the plane object based on the position and shape of the model object and the plane object stored in the position shape storage unit And
Transparency of the first texture for each region according to each distance from the plane object stored in the position shape storage unit to each region constituting the surface of the mirror image object calculated by the mirror image calculation unit A transparency acquisition unit for acquiring
The projection destination of the model object and the mirror image object on the projection plane arranged in the virtual space is obtained, the second texture is pasted on the surface of the plane object, and then each region of the mirror image object A portion corresponding to each region of the first texture stored in the texture storage unit is pasted to the projection destination with the transparency acquired by the transparency acquisition unit, and then the projection of the model object is performed. A generation unit for pasting the first texture stored in the texture storage unit and generating an image;
An image generation apparatus comprising:
請求項1に記載の画像生成装置であって、
前記透明度取得部は、当該面オブジェクトから当該鏡像オブジェクトまでの距離が長いほど当該透明度を大きくする、
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
The transparency acquisition unit increases the transparency as the distance from the surface object to the mirror image object increases.
An image generation apparatus characterized by that.
請求項1に記載の画像生成装置であって、
前記透明度取得部は、当該透明度を、当該面オブジェクトから当該鏡像オブジェクトまでの距離に対して単調増加させる、
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
The transparency acquisition unit monotonously increases the transparency with respect to the distance from the surface object to the mirror image object.
An image generation apparatus characterized by that.
位置形状記憶部、テクスチャ記憶部、鏡像計算部、透明度取得部、生成部を有する画像生成装置にて実行される画像生成方法であって、
前記位置形状記憶部には、仮想空間内に配置されるモデルオブジェクトの位置と形状、及び、面オブジェクトの位置と形状が記憶され、
前記テクスチャ記憶部には、当該モデルオブジェクトの表面に貼り付ける第1のテクスチャと、当該面オブジェクトの表面に貼り付ける第2のテクスチャと、が記憶され、
前記鏡像計算部が、前記位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する鏡像計算ステップと、
前記透明度取得部が、前記位置形状記憶部に記憶された当該面オブジェクトから前記鏡像計算ステップにより計算された当該鏡像オブジェクトの表面を構成する各領域までの各距離に応じて、当該各領域に対する当該テクスチャの透明度を取得する透明度取得ステップと、
前記生成部が、当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該面オブジェクトの表面に当該第2のテクスチャを貼り付け、次に、当該鏡像オブジェクトの当該各領域の投影先に、前記テクスチャ記憶部に記憶された第1のテクスチャのうち当該各領域に対応する部分を、前記透明度取得ステップにより取得された透明度でそれぞれ貼り付け、次に、当該モデルオブジェクトの投影先に前記テクスチャ記憶部に記憶された第1のテクスチャを貼り付けて、画像を生成する生成ステップと、
を備えることを特徴とする画像生成方法。
An image generation method executed by an image generation apparatus having a position shape storage unit, a texture storage unit, a mirror image calculation unit, a transparency acquisition unit, and a generation unit,
In the position shape storage unit, the position and shape of the model object arranged in the virtual space, and the position and shape of the plane object are stored,
The texture storage unit stores a first texture to be pasted on the surface of the model object and a second texture to be pasted on the surface of the plane object .
A position of a mirror image object obtained by inverting the model object with respect to the plane object based on the position and shape of the model object and the plane object stored in the position shape storage unit; A mirror image calculation step for calculating the shape;
In accordance with each distance from the plane object stored in the position shape storage unit to each region constituting the surface of the mirror image object calculated by the mirror image calculation step, the transparency acquisition unit A transparency acquisition step for acquiring the transparency of the texture;
The generation unit obtains a projection destination of the model object and the mirror image object with respect to a projection plane arranged in the virtual space, pastes the second texture on the surface of the plane object, and then the mirror image object the projection destination of each region, a portion corresponding to the respective regions of the first texture stored in the texture storage section, affixed respectively to the transparency acquired by the transparency acquisition step, then, the A step of pasting the first texture stored in the texture storage unit to the projection destination of the model object to generate an image;
An image generation method comprising:
コンピュータを、
仮想空間内に配置されるモデルオブジェクトの位置と形状、及び、面オブジェクトの位置と形状を記憶する位置形状記憶部、
当該モデルオブジェクトの表面に貼り付ける第1のテクスチャと、当該面オブジェクトの表面に貼り付ける第2のテクスチャと、を記憶するテクスチャ記憶部、
前記位置形状記憶部に記憶された当該モデルオブジェクトと当該面オブジェクトのそれぞれの位置と形状に基づいて、当該モデルオブジェクトを当該面オブジェクトに対して反転させた鏡像オブジェクトの位置と形状を計算する鏡像計算部、
前記位置形状記憶部に記憶された当該面オブジェクトから前記計算部により計算された当該鏡像オブジェクトの表面を構成する各領域までの各距離に応じて、当該各領域に対する当該テクスチャの透明度を取得する透明度取得部、
当該仮想空間内に配置される投影面に対する当該モデルオブジェクトと当該鏡像オブジェクトの投影先を求め、当該面オブジェクトの表面に当該第2のテクスチャを貼り付け、次に、当該鏡像オブジェクトの当該各領域の投影先に、前記テクスチャ記憶部に記憶された第1のテクスチャのうち当該各領域に対応する部分を、前記透明度取得部により取得された透明度でそれぞれ貼り付け、次に、当該モデルオブジェクトの投影先に前記テクスチャ記憶部に記憶された第1のテクスチャを貼り付けて、画像を生成する生成部、
として機能させることを特徴とするプログラム。
Computer
A position shape storage unit for storing the position and shape of the model object arranged in the virtual space, and the position and shape of the plane object;
A texture storage unit for storing a first texture to be pasted on the surface of the model object and a second texture to be pasted on the surface of the surface object ;
Mirror image calculation that calculates the position and shape of a mirror image object obtained by inverting the model object with respect to the plane object based on the position and shape of the model object and the plane object stored in the position shape storage unit Part,
Transparency for acquiring the transparency of the texture for each region according to each distance from the surface object stored in the position shape storage unit to each region constituting the surface of the mirror image object calculated by the calculation unit Acquisition department,
The projection destination of the model object and the mirror image object on the projection plane arranged in the virtual space is obtained, the second texture is pasted on the surface of the plane object, and then each region of the mirror image object A portion corresponding to each region of the first texture stored in the texture storage unit is pasted to the projection destination with the transparency acquired by the transparency acquisition unit, and then the projection destination of the model object A generating unit that pastes the first texture stored in the texture storage unit to generate an image;
A program characterized by functioning as
JP2007184634A 2007-07-13 2007-07-13 Image generating apparatus, image generating method, and program Active JP4575937B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007184634A JP4575937B2 (en) 2007-07-13 2007-07-13 Image generating apparatus, image generating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007184634A JP4575937B2 (en) 2007-07-13 2007-07-13 Image generating apparatus, image generating method, and program

Publications (2)

Publication Number Publication Date
JP2009020818A JP2009020818A (en) 2009-01-29
JP4575937B2 true JP4575937B2 (en) 2010-11-04

Family

ID=40360388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007184634A Active JP4575937B2 (en) 2007-07-13 2007-07-13 Image generating apparatus, image generating method, and program

Country Status (1)

Country Link
JP (1) JP4575937B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5321385B2 (en) * 2009-09-18 2013-10-23 株式会社セガ Image processing program and computer-readable recording medium
CN109584300B (en) * 2018-11-20 2022-08-19 浙江大华技术股份有限公司 Method and device for determining heading angle of vehicle head
CN111563966B (en) * 2019-01-28 2023-08-29 广东虚拟现实科技有限公司 Virtual content display method, device, terminal equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283499A (en) * 1997-04-04 1998-10-23 Fujitsu Ltd Device for generating video and method therefor and record medium
JP2001143099A (en) * 1999-11-18 2001-05-25 Namco Ltd Image-forming system and information storage medium
JP2002251631A (en) * 2001-02-21 2002-09-06 Konami Computer Entertainment Japan Inc Expressing method of image, and program used for it
JP2006318388A (en) * 2005-05-16 2006-11-24 Namco Bandai Games Inc Program, information storage medium, and image forming system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283499A (en) * 1997-04-04 1998-10-23 Fujitsu Ltd Device for generating video and method therefor and record medium
JP2001143099A (en) * 1999-11-18 2001-05-25 Namco Ltd Image-forming system and information storage medium
JP2002251631A (en) * 2001-02-21 2002-09-06 Konami Computer Entertainment Japan Inc Expressing method of image, and program used for it
JP2006318388A (en) * 2005-05-16 2006-11-24 Namco Bandai Games Inc Program, information storage medium, and image forming system

Also Published As

Publication number Publication date
JP2009020818A (en) 2009-01-29

Similar Documents

Publication Publication Date Title
JP4226639B1 (en) Image processing apparatus, image processing method, and program
JP4519883B2 (en) Character display device, character display method, and program
US9342918B2 (en) System and method for using indirect texturing to efficiently simulate and image surface coatings and other effects
JP4142073B2 (en) Display device, display method, and program
US6580430B1 (en) Method and apparatus for providing improved fog effects in a graphics system
JP2009237680A (en) Program, information storage medium, and image generation system
CN101317151B (en) Object selecting device, object selecting method
KR101146660B1 (en) Image processing device, image processing method, and information recording medium
JP4267646B2 (en) Image generating apparatus, image generating method, and program
JP4575937B2 (en) Image generating apparatus, image generating method, and program
JP3005581B1 (en) Image creation device, image creation method, readable recording medium on which image creation program is recorded, and video game device
JP2020067960A (en) Image processing apparatus, image processing method, and program
CN115082607A (en) Virtual character hair rendering method and device, electronic equipment and storage medium
JP4717624B2 (en) Image generation system, program, and information storage medium
JP4001556B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4106917B2 (en) Animation generation program and image processing apparatus using the same
Garcia et al. Modifying a game interface to take advantage of advanced I/O devices
WO2020261454A1 (en) Graphic game program
JP4750085B2 (en) Image display device, image display method, and program
Gustafsson Automatic Technical Illustration Based on Cartoon Shading Principles
JP2021117915A (en) Computer program, server device, terminal device and method
JP2002262178A (en) Video display device
JPWO2020261341A1 (en) Graphic game program
JP2009271664A (en) Display, display method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100820

R150 Certificate of patent or registration of utility model

Ref document number: 4575937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140827

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250