WO2007129476A1 - 画像処理プログラムおよび画像処理装置 - Google Patents

画像処理プログラムおよび画像処理装置 Download PDF

Info

Publication number
WO2007129476A1
WO2007129476A1 PCT/JP2007/000497 JP2007000497W WO2007129476A1 WO 2007129476 A1 WO2007129476 A1 WO 2007129476A1 JP 2007000497 W JP2007000497 W JP 2007000497W WO 2007129476 A1 WO2007129476 A1 WO 2007129476A1
Authority
WO
WIPO (PCT)
Prior art keywords
space
texture
virtual
setting
image
Prior art date
Application number
PCT/JP2007/000497
Other languages
English (en)
French (fr)
Inventor
Tetsu Katano
Original Assignee
Sega Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corporation filed Critical Sega Corporation
Priority to JP2008514394A priority Critical patent/JP4983793B2/ja
Priority to US12/227,208 priority patent/US8400445B2/en
Priority to EP07737153A priority patent/EP2034446A4/en
Publication of WO2007129476A1 publication Critical patent/WO2007129476A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Definitions

  • the present invention relates to an image processing apparatus and an image processing program for expressing reflection and refraction of light at interfaces having different refractive indices in a virtual space.
  • the present invention has been made to solve such conventional problems, and the reflection and refraction of light at an interface in a virtual space can be compared relatively without using a dedicated image processing device.
  • the purpose is to express by processing of light load.
  • the image processing program sets, in a virtual space, an obscuration setting step of setting an obscuration whose surface texture is set in advance, and an interface which divides the previous virtual space into a plurality of spaces.
  • a part in a space referred to as a second space
  • the reflection and refraction of light at the medium interface in the virtual space can be expressed by relatively light processing without using a dedicated image processing device.
  • An image processing program sets an object in a virtual space.
  • a second step of setting an interface a step of setting an interface which divides the virtual space into a plurality of spaces, and at least one of the spaces (referred to as a first space), in the space;
  • second A second drawing viewpoint setting step of setting a second virtual drawing viewpoint substantially symmetrical to the first virtual drawing viewpoint with respect to the interface in the space; and in the first space
  • the first and second virtual drawing viewpoints are disposed on a plane including the line-of-sight direction vector of the first and second virtual drawing viewpoints, passing through the intersection of the first virtual drawing viewpoint and the interface or the vicinity thereof.
  • a first texture drawing step of drawing a texture in the first space and drawing an object without drawing a texture in the second space; and the object drawn in the second virtual drawing viewpoint The second texture drawing step of drawing the texture in the first space and drawing the object without drawing the texture in the second space, and the third virtual drawing viewpoint Providing a third texture drawing step of drawing the texture in the second space and drawing the object without drawing the texture in the first space with respect to the image of the object; That.
  • the reflection and refraction of light at the medium interface in the virtual space can be expressed by relatively light processing without using a dedicated image processing device.
  • the first to third texture drawing steps include: setting a plane perpendicular to the interface; and texture transparency on one space side bordering on the interface. Setting the visible transparency of the other space to 0 and setting the visible Z transparency texture to 1; and projecting the visible Z transparent texture to the object from the vertical plane. A step, and a preset tee of the object And (c) combining the projected visible Z transparent texture.
  • An image processing apparatus divides an object space in which a surface texture is set in advance in an imaginary space, and divides the imaginary space into a plurality of spaces.
  • Interface setting means for setting an interface, When drawing a part in a space (referred to as a first space) in which a part of the object is present, only the texture on the first space side of the object is visualized
  • a means for visualizing only the texture on the second space side of the object when drawing a part in a space (referred to as a second space) in which the other part of the object is present.
  • the reflection and refraction of light at the medium interface in the virtual space can be expressed by relatively light processing without using a dedicated image processing device.
  • light reflection and refraction can be expressed by processing of a relatively light load.
  • FIG. 1 is a front view showing a first embodiment of a game apparatus (image processing apparatus) according to the present invention
  • FIG. 2 is a block diagram showing the game apparatus of FIG.
  • a game device (image processing device) 200 0 has a controller
  • Display unit such as 2 1 0 0 0, TV monitor 2 2 0 0, etc. and key board 2 3 0 0 are connected.
  • An object controlled by a controller 2 1 0 0 on a display device 2 2 0 0 The object OB is displayed, and the object OB floats in water (the second space occupied by water) M2 in contact with air (the first space occupied by air) M 1 and has a different refractive index It is in contact with the space M 1 and M 2.
  • the object OB floats in water (the second space occupied by water) M2 in contact with air (the first space occupied by air) M 1 and has a different refractive index It is in contact with the space M 1 and M 2.
  • the player character object whose coordinates are controlled by the input signal from the controller.
  • a game device (image processing device) 2000 is executed by a CPU 1000 which controls the entire system, a boot ROM 1101 which stores a program for activating the game device 2000, and a CPU 301. And a system memory 1020 for storing programs and data.
  • the game device 2000 is provided with a video processor 1 030 for generating and controlling an image to be displayed, and a graphic memory 10 040 for storing an image as a source of the generated image and the generated image.
  • the video processor 1 030 displays the generated image on the display device 2200.
  • the game apparatus 2000 is provided with an audio processor 1 070 for generating sound and an audio memory 1 080 for storing data of the generated sound, and the audio processor 1 070 is stored in the sound memory 1 080. It generates audio digital signals based on the data, and outputs audio through speakers and headphones (not shown).
  • the game apparatus 2000 is provided with a CD-ROM drive 1 090 or the like as a storage device for program data and the like, and the game program and data stored in the storage medium in the storage device are stored in the system memory 1020, graphic memory 1 040, read to audio memory 1 080.
  • the game device 2000 is provided with a memory interface 1 030, which can read and write memory cards A and B held by the player. By this, it is possible to register the game result of each user, the state of the game ended halfway, and the like.
  • Game device 2000 has a modem via communication interface 1 1 60 1 1 5 0 is provided, and a network game can be executed by a plurality of game devices 200 0 through a network, and also from server (not shown), statistics of game results, each game player's ranking, various You can get various information about the game, such as events.
  • the game device 200 0 is provided with a controller interface 1 1 40.
  • the controller 2 1 0 0 is connected to the terminals 1 to 4 of the controller interface 1 1 0.
  • FIG. 3 is a front view showing a virtual drawing viewpoint for expressing the effects of refraction and reflection of light by the game apparatus of FIG. 1
  • FIG. 4 is a left side view of FIG. 3
  • FIG. 6 shows an image of a first virtual drawing viewpoint in FIG. 6
  • FIG. 6 shows an image of a second virtual drawing viewpoint in FIG. 3
  • FIG. 7 shows an image of a third virtual drawing viewpoint in FIG.
  • FIG. 8 is a view showing an image obtained by combining the images of FIG. 5 to FIG.
  • the game device 2 0 0 0 has a virtual space SP by a CPU 1 0 0 0, a system memory 1 0 2 0, a video graphics processor 1 0 3 0, and a graphic memory 1 0 4 0
  • the coordinates of the spaces M 1 and M 2 and their interface p I are set and generated in the virtual space SP, and the object ⁇ ⁇ OB is set and generated.
  • position coordinates and a view direction vector of a virtual drawing viewpoint as a main for displaying the object OB are set, and based on the main camera (drawing viewpoint), the object is displayed.
  • a virtual drawing viewpoint A an object OB in the space M 1 and an interface p I in the field of view, and an image I a observed in the space M 1 and all other objects Draw the eyebrows. ( Figures 3, 4 and 5)
  • Virtual drawing view point B virtual drawing view point of the symmetry vector with the virtual drawing view point A and the line-of-sight direction vector for the interface p I.
  • An object OB in the space M 1 draws a reflection image I b reflected by the interface p I.
  • Virtual drawing viewpoint C A plane including the viewing direction vector of virtual drawing viewpoints A and B, arranged on p IV, the intersection O of the optical axis of the virtual camera A with the interface p I It has a gaze direction vector to pass through.
  • An image of the object OB in the space M2 (medium is water) is drawn as a refraction image Ic observed from the space M1.
  • Va, Vb, Vc Line-of-sight direction vector of virtual drawing viewpoints A, B, C.
  • PIV a plane including the viewing direction vector Va, Vb of the virtual drawing viewpoints A and B, and the normal nI.
  • a 1 An acute angle formed by the line-of-sight vector V a of the virtual drawing viewpoint A and the normal line n I in the space M 1.
  • a 2 An acute angle formed by the line-of-sight vector Vb of the virtual drawing viewpoint B and the normal line n I in the space M 1.
  • n 1 refractive index of space M 1 (medium is air).
  • n 2 refractive index of space M2 (medium is water).
  • n 1 Zn 2 sin A 2 Z sin a 1
  • equation (1) As shown in FIGS. 3, 5 and 7, by setting the angular relationship of equation (1), it is possible to observe the image of the object OB in the space M2 when the virtual drawing viewpoint C is observed from within the space M1, In drawing the image I c, accurate representation of refraction is possible. However, in some cases an exaggerated image or the like may be required rather than an optically accurate image, and in this case, an angular relationship different from equation (1) should be set.
  • the virtual drawing viewpoint B is the interface p I of the space M1 side. It is possible to draw the reflection image I b.
  • an arbitrary plane vm I perpendicular to the interface p I is set so that a portion in the space M 2 is not displayed, and the space M 1 On the side, project the "projected texture data" where the transparency (grade) of the texture is "1" and the transparency (Of value) of the texture is "0" for the space M 2 side.
  • the texture of the texture that has been set is colorless and transparent, which is similar to the fact that it is not drawn substantially.
  • the transparency (Of value) of the texture to be mapped on the surface of the part in space M 2 is set to “0” and becomes transparent when drawing, and will not be drawn, and the transparency of the surface I a of the other part
  • the (value) becomes “1” and is drawn in the normal state because it is opaque, which is drawing with 100% coloring.
  • the part I a to be drawn is indicated by cross hatching.
  • the image obtained by combining the images Ia, Ib, and Ic in FIG. 8 is a reflection image of the object OB when the object OB is observed from the position of the virtual drawing viewpoint A serving as the main camera.
  • the I b and the refractive image I c are shown simultaneously. This enables realistic image representation including reflection and refraction effects.
  • the above embodiments can express light reflection and refraction by relatively light load processing.
  • the CPU 1000, the system memory 1 020, the video processor 1 030, and the graphic memory 1 040 cooperate to set an object OB in the virtual space SP.
  • Means functions as a space setting means for generating a plurality of spaces M 1 and M 2 in contact with the interface PI.
  • the CPU 200 and the system memory 1020 cooperate to function as first, second and third drawing viewpoint generating means for generating virtual drawing viewpoints A, B and C.
  • CPU 1000, system memory 1 020, video graphics processor 1 030, graphic memory 1 040 work together in virtual drawing
  • the interface can be processed in various states other than a plane, for example, an interface PI representing a water surface changing to three heights shown in FIG.
  • the images corresponding to the images I b and I c in FIG. 8 are generated by generating the interfaces P 11 1, p I 2 and p I 3 of the image and setting different virtual drawing viewpoints B and C to the respective interfaces.
  • the game machine 200 0 executes an image processing program including the following steps as shown in FIG.
  • Step S 1 1 0 2 Set the spaces M 1 and M 2 and the interface p I in the virtual space SP, and set the refractive indices n 1 and n 2. Then, go to step S1103.
  • Step S 1 1 0 3 Based on the progress of the game, place the object OB in the virtual space, and proceed to step S 1 1 0 4.
  • Step S 1 1 04 Set the main camera as the main drawing viewpoint in the virtual space, and proceed to step S 1 1 05.
  • the setting of the camera (drawing viewpoint) in this case means the setting of coordinates indicating the position of the virtual camera, which is the drawing viewpoint in the virtual three-dimensional space, and the line-of-sight direction vector of the virtual camera.
  • Step S 1 105 Based on the main camera, set a virtual drawing viewpoint A in a space M 1 in which at least one copy of the object OB is included.
  • Virtual drawing viewpoint A includes object ⁇ OB and interface p I in the field of view. Then, go to step S1106.
  • Step S 1 1 06 For the interface p I, set the virtual drawing view point B in the space M 2 at a position symmetrical to the virtual drawing view point A in the coordinate and line-of-sight direction vector, and step S 1 1 Proceed to 07.
  • Step S 1 1 07 A virtual drawing viewpoint C is set in the space M 1 so as to have the angular relationship of equation (1), and the process proceeds to step S 1 1 08.
  • Step S 1 1 08 Generate an image from the virtual drawing viewpoint B of the object OB, and draw the surface of the part in the space M 1 without drawing the surface of the part in the space medium M 2 , Texture mapping and generate the image I b. Then go to step S 1 1 1 0.
  • Step S 1 1 09 Create an image from the virtual drawing viewpoint C of the object OB, and do not draw the surface of the part in the space M 1, but draw the surface of the part in the space M 2 , Texture mapping, and generate an image I c. Then go to step S 1 1 1 1.
  • Step S 1 1 0 Create an image from the virtual drawing viewpoint A of the object OB, and draw the surface of the part in the space M 1 without drawing the surface of the part in the space M 2 Texture mapping to generate an image I a Furthermore, the images Ia, Ib, and Ic are composited, and drawing processing is performed.
  • the image processing method according to the present invention is not limited to the first embodiment, and as shown in the second embodiment below, the setting of the transparency of the surface can be performed by a part of the cameras serving as the main camera. It is also possible to omit).
  • FIG. 11 shows an image of a first virtual drawing viewpoint without setting transparency in another virtual space
  • FIG. 12 shows transparency in the same virtual space as FIG. Fig. 13 shows an image of a second virtual drawing viewpoint before setting the image.
  • Fig. 13 shows a third virtual drawing viewpoint before setting transparency in the virtual space identical to Fig. 11.
  • FIG. 14 is a view showing an image
  • FIG. 14 is a view showing an image of a second virtual drawing viewpoint in which the transparency is set in the same virtual space as FIG. 11
  • FIG. 15 is the same as FIG.
  • Figure 16 is a composite of the images in Figure 11, 14 and 15, and the water surface was displayed. It is a figure which shows an image.
  • FIGS. 11, 12 and 13 show images obtained by capturing objects OB 1 to OB 10 from virtual cameras B and C similar to Example 1, ignoring the presence of water. It is a thing.
  • FIG. 16 shows an image obtained by combining the images of FIGS. 11, 14, and 15 and the image of the water surface p I.
  • the image processing program according to the second embodiment is realized by modifying the process of step S 1 1 1 0 to the following step S 1 1 0 1 _ 2 in the flowchart of FIG.
  • Steps S 1 1 0 1-2 Virtual force of object OB (OB 1 to OB 9)
  • the image by the camera A A and the image of the water surface p I are generated, and the images I a, I b, I c And the water surface p I image.
  • the second embodiment has the effect of being able to reduce the calculation load for texture mapping of the portion hidden by water surface drawing.
  • FIG. 1 is a front view showing an embodiment of a game apparatus (image processing apparatus) according to the present invention. (Example 1)
  • FIG. 2 is a block diagram showing the game apparatus of FIG. 1; (Example 1)
  • FIG. 3 A front view showing a virtual force camera for expressing the effects of light refraction and reflection by the game apparatus of FIG. (Example 1)
  • FIG. 4 is a left side view of FIG. 3; (Example 1)
  • FIG. 5 is a view showing an image of a first virtual drawing viewpoint in FIG. 3;
  • Example 1 [FIG. 6]
  • a diagram showing an image of a second virtual drawing viewpoint in FIG. (Example 1) 7 is a view showing an image of a third virtual drawing viewpoint in FIG. 3;
  • Example 1 [Fig. 8]
  • Fig. 8 is a view showing an image obtained by combining the images of Figs. Example 1
  • FIG. 9A is a front view showing processing of the level changing interface by the game device of FIG. 1; (Example 1)
  • FIG. 9B is a front view showing different levels of processing in the processing of FIG. 9A. (Example 1)
  • FIG. 9C is a front view showing still another level of processing in the processing of FIG. 9A. (Example 1)
  • FIG. 10 is a flowchart showing processing of an image processing program executed by the game device of FIG. 1; (Example 1)
  • FIG. 11 is a view showing an image of a first virtual camera which does not perform transparency setting and water surface drawing in another virtual space. (Example 2)
  • FIG. 12 is a view showing an image of a second virtual camera before setting transparency in the virtual space of FIG. 11; (Example 2)
  • FIG. 13 A diagram showing an image of a third virtual camera before setting transparency in the virtual space of FIG. (Example 2)
  • FIG. 14 is a view showing an image of a second virtual camera in which transparency is set in the virtual space of FIG. 11; (Example 2)
  • Example 15 is a view showing an image of a third virtual camera in which transparency is set in the virtual space of FIG. (Example 2)
  • FIG. 16 is a view showing an image in which the images of FIGS. 11, 14, and 15 are combined and the water surface is displayed. (Example 2)
  • FIG. 17 is a diagram showing a model used in conventional processing. (Conventional example)
  • FIG. 18 This is a view showing a model in which the portion above the water surface in the model of Fig. 17 is separated. (Conventional example)
  • FIG. 19 This is a view showing a model in which the portion below the water surface in the model of Fig. 17 is separated. (Conventional example) Explanation of sign

Description

明 細 書
画像処理プログラムおよび画像処理装置
技術分野
[0001 ] 本発明は、 仮想空間内の異なる屈折率を持つ界面における光の反射、 屈折 を表現するための画像処理装置および画像処理プログラムに関する。
[0002] 昨今のテレビゲームにおいては、 三次元の仮想空間を用いたグラフィック 表現が一般的となっている。 しかし、 一般のゲーム機に使われている画像処 理装置では、 三次元の仮想空間における水面の光学的効果等を高速な描画処 理を行う中で表現することは難しかった。 高価なパーソナルコンピュータや 高機能の画像処理装置を搭載した高級なゲーム機では、 「ピクセルシエーダ 」 等の専用ハードウェアを含む画像処理装置が使用されているため、 水面の 光学的な効果を表現することは可能であるが、 高価な処理装置を搭載する必 要があるため、 一般の廉価なゲーム機で同様の処理を行うことは難しかった
[0003]
発明の開示
発明が解決しょうとする課題
[0004] 従来の方式では、 一般的な画像処理装置 ( 「ピクセルシエーダ」 などの専 用ハードウェアを持たないもの) のためのモデリングにおいては、 水面に浮 かぶ物体、 すなわち水中と水上 (空気中) の 2種の媒質で構成される界面に またがるオブジェクトについては、 1個のオブジェクトを、 水中部分のォブ ジェク卜 (モデル) と、 水中のオブジェク卜 (モデル) に分離し、 それぞれ 別個の画像処理を実行する必要があった。
[0005] 例えば、 図 1 8に示すように、 仮想空間 S P内に水面の上下に渡って存在 するオブジェクト O Bを表示する場合、 水面 Wよりも上の部分 (ハッチング を付して示す。 ) のモデル O B 1 (図 1 9 ) と水面より下の部分のモデル O B 2 (図 2 0 ) を予めカット (分割) モデルとして生成しておいたうえで個 別にデータとして管理し、 別個に画像処理装置での描画処理を行わなければ ならなかった。
[0006] このようなオブジェクトのカット (分割) モデルの分離生成は、 コンビュ 一タグラフィックスのデザイナにとって大きな負担であるとともに、 管理す べきデータ量が増え、 また描画の際には画像処理装置においては仮想空間内 でォブジェク卜データとして処理されるデータ量が増加するため、 処理が複 雑となり、 いわゆる 「処理落ち」 と呼ばれる描画処理遅延の原因の一つとな るという問題があった。
[0007] またこのような描画方法を用いる場合では、 前記仮想空間 S P内の水面 W の高さゃォブジェク卜 O Bの位置,角度を変化させたい場合、 予め全てのパ ターンでそれぞれのオブジェク卜についてカツ卜(分割)モデルを用意してお く必要があるため、 ゲーム内の状況に応じて仮想空間内の水面の高さゃォブ ジェク卜の位置■角度を変更することはできないという問題があった。
[0008] 本発明はこのような従来の問題点を解消すべく創案されたもので、 仮想空 間内の界面における光の反射、 屈折を、 専用の画像処理装置を用いずに、 比 較的軽負荷の処理により表現することを目的とする。
課題を解決するための手段
[0009] 本発明に係る画像処理プログラムは、 仮想空間内に、 表面のテクスチャが あらかじめ設定されたォブジェク卜を設定するォブジェク卜設定ステップと 、 前仮想空間内を複数の空間に分割する界面を設定する界面設定ステップと 、 前記オブジェクトの一部が存在する空間 (第 1空間という。 ) 内の部分を 描画する際には、 前記オブジェク卜における第 1空間側のテクスチャのみを 可視化するステップと、 前記オブジェクトの他の部分が存在する空間 (第 2 空間という。 ) 内の部分を描画する際には、 前記オブジェクトにおける第 2 空間側のテクスチャのみを可視化するステップとを備える。
これによつて、 仮想空間内の媒質界面における光の反射、 屈折を、 専用の 画像処理装置を用いずに、 比較的軽負荷の処理により表現し得る。
[0010] 本発明に係る画像処理プログラムは、 仮想空間内にオブジェク卜を設定す るォブジェク卜設定ステップと、 前記仮想空間内を複数の空間に分割する界 面を設定する界面設定ステップと、 前記空間の少なくとも 1個 (第 1空間と いう。 ) について、 該空間内で、 前記空間内に少なくともその一部が存在す る前記ォブジェク卜を描画する第 1の仮想描画視点を設定する第 1描画視点 設定ステップと、 前記界面を介して前記第 1空間に隣接する空間 (第 2空間 という。 ) 内で、 前記界面について、 前記第 1の仮想描画視点に対して略対 称な第 2の仮想描画視点を設定する第 2描画視点設定ステップと、 前記第 1 空間内で、 前記第 1、 第 2の仮想描画視点の視線方向べクトルを含む平面上 に配置され、 前記第 1の仮想描画視点と前記界面との交点またはその近傍を とおり、 前記を第 1の仮想描画視点の視線方向べクトルを所定の角度分界面 方向に回転した視線方向べクトルを有する第 3の仮想描画視点を設定する第 3描画視点設定ステップと、 第 1の仮想描画視点で描画された前記オブジェ ク卜の画像について、 第 1空間内のテクスチャを描画し、 第 2空間内のテク スチヤを描画せずにオブジェク卜の描画を行う第 1テクスチャ描画ステップ と、 第 2の仮想描画視点で描画された前記オブジェク卜の画像について、 第 1空間内のテクスチャを描画し、 第 2空間内のテクスチャを描画せずにォブ ジェク卜の描画を行う第 2テクスチャ描画ステップと、 第 3の仮想描画視点 で描画された前記オブジェク卜の画像について、 第 2空間内のテクスチャを 描画し、 第 1空間内のテクスチャを描画せずにオブジェク卜の描画を行う第 3テクスチャ描画ステップとを備える。
これによつて、 仮想空間内の媒質界面における光の反射、 屈折を、 専用の 画像処理装置を用いずに、 比較的軽負荷の処理により表現し得る。
本発明に係る画像処理プログラムにおいて、 前記第 1〜第 3テクスチャ描 画ステップは、 前記界面に対して垂直な平面を設定するステップと、 前記界 面を境に、 一方の空間側におけるテクスチャ透明度を 1に、 他の空間側のテ クスチヤ透明度を 0に設定して、 可視 Z透明テクスチャを設定するステップ と、 前記垂直な平面から、 前記オブジェク卜に対して、 前記可視 Z透明テク スチヤを投影するステップと、 前記オブジェク卜のあらかじめ設定されたテ クスチヤと、 前記投影された可視 Z透明テクスチャを合成するステップとを 含む。
これによつて、 仮想カメラの第 1媒質内のオブジェク卜を直接撮影した画 像と、 界面における反射、 屈折画像とが表現される。
[0012] 本発明に係る画像処理装置は、 仮想空間内に、 表面のテクスチャがあらか じめ設定されたオブジェク卜を設定するオブジェク卜設定手段と、 前記仮想 空間内を複数の空間に分割する界面を設定する界面設定手段、 前記オブジェ ク卜の一部が存在する空間 (第 1空間という。 ) 内の部分を描画する際には 、 前記オブジェク卜における第 1空間側のテクスチャのみを可視化する手段 と、 前記オブジェクトの他の部分が存在する空間 (第 2空間という。 ) 内の 部分を描画する際には、 前記オブジェク卜における第 2空間側のテクスチャ のみを可視化する手段とを備える。
これによつて、 仮想空間内の媒質界面における光の反射、 屈折を、 専用の 画像処理装置を用いずに、 比較的軽負荷の処理により表現し得る。
発明の効果
[0013] 本発明によれば、 光の反射、 屈折を、 比較的軽負荷の処理により表現し得 る。
発明を実施するための最良の形態
[0014] 次に本発明に係る画像処理装置をゲーム機に適用した実施例を図面に基づ いて説明する。
実施例 1
[0015] [ゲーム装置]
図 1は、 本発明に係るゲーム装置 (画像処理装置) の実施例 1を示す正面 図、 図 2は、 図 1のゲーム装置を示すブロック図である。
[0016] 図 1において、 ゲーム装置 (画像処理装置) 2 0 0 0には、 コントローラ
2 1 0 0、 T Vモニタ 2 2 0 0等の表示装置およびキーポード 2 3 0 0が接 続されている。
[0017] 表示装置 2 2 0 0にはコントローラ 2 1 0 0によって制御されるオブジェ クト OBが表示され、 オブジェクト OBは、 空気 (空気で占められた第 1空 間) M 1に接した水 (水で占められた第 2空間) M2に浮かんでおり、 異な る屈折率を持つ空間 M 1、 M 2に接している。 実際のゲームにおいては、 仮 想空間内にはこれら以外にもコントローラからの入力信号によつて座標を制 御されるプレイヤーキャラクターオブジェク卜など多くのオブジェク卜が存 在するが、 ここではォブジェク卜 OBについて説明を行う。
[0018] 図 2において、 ゲーム装置 (画像処理装置) 2000は、 全体を制御する CPU 1 000と、 ゲーム装置 2000を起動させるためのプログラムを格 納するブートロム 1 01 0と、 CPU301によって実行されるプログラム やデータを格納するシステムメモリ 1 020とを有する。
[0019] ゲーム装置 2000には、 表示すべき画像を生成、 制御するビデオプロセ ッサ 1 030と、 生成される画像の元となる画像や生成された画像を記憶す るグラフィックメモリ 1 040が設けられ、 ビデオプロセッサ 1 030は、 生成した画像を表示装置 2200に表示する。
[0020] ゲーム装置 2000には、 音声を生成するオーディオプロセッサ 1 070 と、 生成される音声のデータを記憶するオーディオメモリ 1 080が設けら れ、 オーディオプロセッサ 1 070はサウンドメモリ 1 080に記憶された データに基づいて音声のデジタル信号を生成し、 スピーカやヘッドフォン ( 図示省略) によって音声を出力する。
[0021] ゲーム装置 2000には、 プログラムデータ等の記憶装置として CD— R OMドライブ 1 090等が設けられ、 記憶装置において記憶媒体に格納され たゲームプログラムやデータをシステムメモリ 1 020、 グラフィックメモ リ 1 040、 オーディオメモリ 1 080に読み込まれる。
[0022] ゲーム装置 2000にはメモリインターフェース 1 030が設けられ、 遊 戯者が保有するメモリカード A、 Bに対する読み書きが可能である。 これに よって、 各ユーザのゲーム成績、 中途で終了したゲームの状態等を登録し得 る。
[0023] ゲーム装置 2000には、 通信インターフェース 1 1 60を介してモデム 1 1 5 0が設けられ、 ネットワークを介して複数のゲーム装置 2 0 0 0によ るネットワークゲームを実行でき、 また、 サーバ (図示省略) から、 ゲーム 成績の統計、 各遊戯者順位、 種々のイベント等、 ゲームに関する種々の情報 を取得し得る。
[0024] ゲーム装置 2 0 0 0には、 コントローラインターフェース 1 1 4 0が設け られ、 コントローラ 2 1 0 0はコントローラインターフェース 1 1 4 0の端 子 1〜4に接続される。
[0025] [画像処理アルゴリズム]
次に、 ゲーム装置 2 0 0 0によって実行される画像処理のアルゴリズムを 説明する。
[0026] 図 3は、 図 1のゲーム装置による光の屈折、 反射の効果を表現するための 仮想描画視点を示す正面図、 図 4は、 図 3の左側面図、 図 5は、 図 3におけ る第 1の仮想描画視点の画像を示す図、 図 6は、 図 3における第 2の仮想描 画視点の画像を示す図、 図 7は、 図 3における第 3の仮想描画視点の画像を 示す図、 図 8は、 図 5〜図 7の画像を合成して得られる画像を示す図である
[0027] 図 3および図 4において、 ゲーム装置 2 0 0 0は、 C P U 1 0 0 0、 シス テムメモリ 1 0 2 0、 ビデオグラフィックプロセッサ 1 0 3 0、 グラフイツ クメモリ 1 0 4 0によって仮想空間 S Pを生成するとともに、 仮想空間 S P 内に空間 M 1、 M 2およびその界面 p Iの座標を設定生成するとともに、 ォ ブジェク卜 O Bを設定生成する。
[0028] そして、 ゲームの進行に応じて、 オブジェクト O Bを表示するための、 メ インとなる仮想描画視点の位置座標および視線方向べクトルを設定し、 この メインカメラ (描画視点) に基づき、 オブジェクト O Bを表示するために、 以下の仮想描画視点 A、 B、 Cの位置座標及び視線方向べクトルを設定する
[0029] 仮想描画視点 A:空間 M 1内のオブジェク卜 O Bおよび界面 p Iを視野内 に含み、 空間 M 1で観察した画像 I a、 及びそれ以外のすべてのオブジェク 卜の描画を行う。 (図 3、 4、 5)
仮想描画視点 B:界面 p Iについて、 仮想描画視点 Aと対称な座標、 視線 方向ベクトルの仮想描画視点。 空間 M 1 (媒質は空気) 内のオブジェクト O Bが、 界面 p Iで反射した反射画像 I bの描画を行う。 (図 3、 4、 6) 仮想描画視点 C:仮想描画視点 A、 Bの視線方向べクトルを含む平面 p I V上に配置され、 仮想カメラ Aの、 光軸と界面 p Iとの交点 Oを通る視線方 向ベクトルを有する。 空間 M2 (媒質は水) 内のオブジェクト OBの画像を 、 空間 M 1から観察した屈折画像 I cの描画を行う。 (図 3、 4、 7)
仮想描画視点 A、 B、 Cに関して、 さらに、 以下パラメータを定義する。
Va、 Vb、 V c :仮想描画視点 A、 B、 Cの視線方向ベクトル。
P I V:仮想描画視点 A、 Bの視線方向べクトル Va、 Vbおよび法線 n Iを含む平面。
O:仮想描画視点 A、 B、 Cの視線方向ベクトル V a、 Vb、 Vcと界面 P Iとの交点。
A 1 :仮想描画視点 Aの視線方向べクトル V aと法線 n Iとが、 空間 M 1 内でなす鋭角の角度。
A 2 :仮想描画視点 Bの視線方向べクトル Vbと法線 n Iとが、 空間 M 1 内でなす鋭角の角度。
n 1 :空間 M 1 (媒質は空気) の屈折率。
n 2 :空間 M2 (媒質は水) の屈折率。
角度 A 1、 A2の関係は、 屈折率 n 1、 n 2によって、 式 (1 ) のように 設定される。
n 1Zn 2 = s i nA2Zs i nA 1 式 (
1 )
図 3、 5、 7に示すように、 式 (1 ) の角度関係を設定することによって 、 仮想描画視点 Cが空間 M2内のオブジェクト OBの画像を、 空間 M 1内か ら観察した場合、 屈折画像 I cを描画することになリ、 屈折の正確な表現が 可能である。 [0031] ただし、 必ずしも光学的に正確な画像よりも誇張した画像等が要求される 場合もあり、 その場合には式 (1 ) とは異なる角度関係を設定すべきである
[0032] 一方、 図 3、 5、 6に示すように、 仮想描画視点 Bが空間 M 1内のォブジ ェクト OBの画像を、 空間 M2内から観察した場合、 空間 M 1側の界面 p I の反射画像 I bを描画し得ることになる。
[0033] 図 5に示すように仮想描画視点 Aの画像については、 空間 M 2内の部分が 表示されないように、 界面 p Iに対して垂直な任意の平面 vm Iを設定し、 空間 M 1側についてはテクスチャの透明度 (ひ値) が 「1」 '空間 M 2側に ついてはテクスチャの透明度 (Of値) 「0」 となる 「投影テクスチャデータ 」 を投影する。 ここでいうテクスチャの透明度ひとは、 ひ= 1 = 1 00%の 場合に本来設定されたテクスチャの描画を 1 00%の状態 (つまり不透明) で描画し、 また、 ひ= 0 = 0%の場合に、 テクスチャの描画を 0%の状態 ( つまり無色透明) で描画を行う。
また Qf = 0の場合、 そのテクスチャの設定されたォブジェク卜は無色透明 となり実質描画されないことと同様となる。
これにより空間 M 2内の部分の表面にマッビングするテクスチャの透明度 ( Of値) は 「0」 に設定され描画する際には透明となり描画されずし、 その 他の部分の表面 I aについては透明度 (ひ値) は 「1」 となり、 1 00%の 彩色での描画である不透明となるため通常の状態で描画される。 図中、 描画 される部分 I aを交差ハッチングで示す。
[0034] 図 6に示すように仮想描画視点 Bの画像については、 空間 M 2内の部分が 表示されないように、 界面 p Iに対して垂直な任意の平面 vm Iを設定し、 仮想描画視点 Aの場合と同様に空間 M 1側についてはテクスチャの透明度 ( ひ値) が 「1」 '空間 M2側についてはテクスチャの透明度 (ひ値) が 「0 」 となる 「投影テクスチャデータ」 を投影する。 これにより空間 M2内の部 分の画像にマッピングするテクスチャの透明度 (ひ値) =0とし、 その他の 部分 I bについては透明度 (Of値) = 1として描画される。 図中、 描画され る部分を右下りハッチングで示す。
[0035] 図 7に示すように仮想描画視点 Cの画像については、 空間 M 1内の部分が 表示されないように、 界面 p Iに対して垂直な任意の平面 vm Iを設定し、 仮想描画視点 Aの場合とは逆に空間 M 1側についてはテクスチャの透明度 ( ひ値) が 「0」 '空間 M 2側についてはテクスチャの透明度 (ひ値) 「1」 となる 「投影テクスチャデータ」 を投影する。 これにより空間 M 1内の部分 の表面にマッピングするテクスチャの透明度 (ひ値) =0となり描画されず 、 その他の部分の表面 I cについては透明度 (Q?値) = 1なり、 1 00%不 透過となるため通常の状態で描画される。 図中、 描画される表示部分を右上 リハッチングで示す。
[0036] 図 8における、 画像 I a、 I b、 I cを合成した画像は、 メインカメラと なる仮想描画視点 Aの位置からオブジェク卜 OBを観察したときの、 ォブジ ェクト OBそのものと、 反射画像 I bおよび屈折画像 I cを同時に示す。 こ れによって、 反射、 屈折の効果を含むリアルな画像表現が可能である。
[0037] テクスチャマッピングは 2次元画像上の処理であるので、 従来の分離モデ ル作成に比較してはるかに演算処理の負担を軽減し得る。
[0038] すなわち、 以上の実施例は、 光の反射、 屈折を、 比較的軽負荷の処理によ リ表現し得る。
[0039] 以上の実施例において、 CPU 1 000、 システムメモリ 1 020、 ビデ ォグラフィックプロセッサ 1 030、 グラフィックメモリ 1 040は、 協働 して、 仮想空間 SP内にオブジェク卜 OBを設定するォブジェク卜設定手段 、 界面 P Iを接する複数の空間 M 1、 M 2を生成する空間設定手段として機 能する。
[0040] また C P U 1 000、 システムメモリ 1 020は協働して、 仮想描画視点 A、 B、 Cを生成する第 1、 第 2および第 3描画視点生成手段として機能す る。
[0041] さらに、 CPU 1 000、 システムメモリ 1 020、 ビデオグラフィック プロセッサ 1 030、 グラフィックメモリ 1 040は、 協働して、 仮想描画 視点 Aで描画されたォブジェク卜 O Bの画像について、 空間 M 1内の表面を 可視化し、 空間 M 2内の表面を透明にする第 1テクスチャ生成手段、 仮想描 画視点 Bで描画されたォブジェク卜 O Bの画像について、 空間 M 2内の表面 を可視化し、 空間 M 1内の表面を透明にする第 2テクスチャ生成手段、 仮想 描画視点 Cで撮影されたォブジェク卜 O Bの画像について、 媒質 M 1内の表 面を透明とし、 空間 M 2内の表面を可視化する第 3テクスチャ生成手段とし て機能する。
[0042] 以上の実施例では 2つの空間 M 1、 M 2について説明したがより多くの分 割された空間が隣接して存在する仮想空間についても、 それぞれの隣接界面 に注目すれば同様の処理が可能である。
[0043] また界面は平面以外の種々の状態のものを処理することが可能であり、 例 えば図 9に示す三種類の高さに変化する水面を表現した界面 P Iについて、 水平な複数の平面の界面 P 1 1、 p I 2、 p I 3を生成し、 それぞれ異なる 仮想描画視点 B、 Cをそれぞれの界面に対して設定することにより図 8の画 像 I b、 I cに対応する画像を、 三種類の各界面について描画処理を行うこ とで、 それぞれの界面の高さでの水面とオブジェク卜の喫水線でカツ卜され たカツトモデルを用意することなく反射、 屈折の効果を近似的に表現し得る
[0044] [画像処理プログラム]
以上のアルゴリズムによリオブジェク卜 O Bを表示するために、 ゲーム機 2 0 0 0においては、 図 1 0に示すように以下のステップを含む画像処理プ ログラムを実行する。
[0045] ステップ S 1 1 0 1 :まず仮想空間 S P内に、 オブジェク卜 O Bを設定し
、 ステップ S 1 1 0 2に進む。
[0046] ステップ S 1 1 0 2 :仮想空間 S P内に、 空間 M 1、 M 2、 界面 p Iを設 定し、 屈折率 n 1、 n 2を設定する。 次に、 ステップ S 1 1 0 3に進む。
[0047] ステップ S 1 1 0 3 :ゲームの進行に基づき、 オブジェク卜 O Bを仮想空 間内に配置し、 ステップ S 1 1 0 4に進む。 [0048] ステップ S 1 1 04 : メインの描画視点となるメインカメラを仮想空間内 に設定し、 ステップ S 1 1 05に進む。 この場合のカメラ (描画視点) の設 定とは、 仮想 3次元空間内の描画視点である仮想カメラの位置を示す座標、 及び仮想カメラの視線方向べクトルの設定を意味する。
[0049] ステップ S 1 1 05 :前記メインカメラに基づき、 オブジェク卜 OBの少 なくとも 1部が含まれる空間 M 1内に仮想描画視点 Aを設定する。 仮想描画 視点 Aはォブジェク卜 OBおよび界面 p I を視野に含む。 次に、 ステップ S 1 1 06に進む。
[0050] ステップ S 1 1 06 :界面 p Iについて、 座標及び視線方向べクトルが仮 想描画視点 Aと対称な位置に仮想描画視点 Bを、 空間 M2内に設定し、 ステ ップ S 1 1 07に進む。
[0051] ステップ S 1 1 07 :空間 M 1内に、 式 (1 ) の角度関係となるように、 仮想描画視点 Cを設定し、 ステップ S 1 1 08に進む。
[0052] ステップ S 1 1 08 :オブジェク卜 OBの仮想描画視点 Bによる画像を生 成し、 空間媒質 M 2内の部位の表面を描画せず、 空間 M 1内の部位の表面を 描画するように、 テクスチャマッピングし、 画像 I bを生成する。 次にステ ップ S 1 1 1 0に進む。
[0053] ステップ S 1 1 09 :オブジェク卜 OBの仮想描画視点 Cによる画像を生 成し、 空間 M 1内の部位の表面を描画せず、 空間 M 2内の部位の表面を描画 するように、 テクスチャマッピングし、 画像 I cを生成する。 次にステップ S 1 1 1 1に進む。
[0054] ステップ S 1 1 1 0 :オブジェク卜 OBの仮想描画視点 Aによる画像を生 成し、 空間 M 2内の部位の表面を描画せず、 空間 M 1内の部位の表面を描画 するようにテクスチャマッピングし、 画像 I aを生成する。 さらに、 画像 I a、 I b、 I cを合成し、 描画処理を行う。
[0055] 以上の画像処理プログラムにより、 光の反射、 屈折を、 予め用意した界面
(水面) でのカツトモデルを用意することなく比較的軽負荷の処理により表 現し得る。 [0056] 以上の画像処理プログラムを汎用コンピュータで実行する際には、 以上の 画像処理プログラムを汎用コンピュータに実行させるプログラムコードを、 記憶媒体や通信媒体から、 汎用コンピュータのシステムメモリに読み込ませ る。
実施例 2
[0057] 本発明に係る画像処理方法は実施例 1に限定されるものではなく、 以下の 実施例 2に示すように、 表面の透明度の設定を、 メインカメラとなる一部の カメラ (描画視点) について省略することも可能である。
[0058] 図 1 1は、 他の仮想空間において、 透明度の設定を行わない、 第 1の仮想 描画視点の画像を示す図、 図 1 2は、 図 1 1と同一の前記仮想空間において 、 透明度の設定を行う以前の、 第 2の仮想描画視点の画像を示す図、 図 1 3 は、 図 1 1と同一の前記仮想空間において、 透明度の設定を行う以前の、 第 3の仮想描画視点の画像を示す図、 図 1 4は、 図 1 1と同一の前記仮想空間 において、 透明度の設定を行った、 第 2の仮想描画視点の画像を示す図、 図 1 5は、 図 1 1と同一の前記仮想空間において、 透明度の設定を行った、 第 3の仮想描画視点の画像を示す図、 図 1 6は、 図 1 1、 1 4、 1 5の画像を 合成し、 かつ水面を表示した画像を示す図である。
[0059] 図 1 1に示すように、 仮想空間 S P内には複数の背景のオブジェク卜 O B
1〜O B 9およびキャラクタのオブジェク卜 O B 1 0が存在し、 オブジェク ト0 8 1〜0 8 9は水面卩 I (図 1 6 ) の上下に渡って存在する。
[0060] 図 1 1、 1 2、 1 3は、 水の存在を無視して、 実施例 1と同様の仮想カメ ラ B、 C、 それぞれからオブジェクト O B 1〜O B 1 0を捉えた画像を 示すものである。
[0061 ] 図 1 4に示すように、 仮想描画視点 Bについては、 実施例 1と同様に、 水 中のオブジェク卜のテクスチャの透明度 Q? = 0とし、 水上のオブジェク卜の テクスチャのみをひ = 1としてテクスチャの描画を行い可視化する。 また、 図 1 5に示すように、 仮想描画視点 Cについても、 実施例 1と同様に、 水上 のォブジェク卜のテクスチャの透明度 0? = 0とし、 水中のオブジェク卜のテ クスチヤのみをひ= 1としてテクスチャの描画を行い可視化する。
[0062] 一方、 仮想描画視点 Aの画像については、 透明度 Qfの設定を省略し、 水面
P Iを描画することによって、 水中の情景を隠蔽する。 これによつて透明度 設定の演算処理が軽減される。
[0063] 図 1 6は図 1 1、 1 4、 1 5の画像と、 水面 p Iの画像を合成した画像を 示す。
[0064] 実施例 2の画像処理プログラムは、 図 1 1のフローチャートにおいて、 ス テツプ S 1 1 1 0の処理を以下ステップ S 1 1 0 1 _ 2に修正することによ つて実現される。
[0065] ステップ S 1 1 0 1 - 2 :オブジェク卜 O B ( O B 1〜O B 9 ) の仮想力 メラ Aによる画像 I aおよび水面 p Iの画像を生成し、 画像 I a、 I b、 I cおよび水面 p Iの画像を合する。
[0066] 実施例 2は実施例 1の効果に加え、 水面描画により隠蔽される部分のテク スチヤマッピングのための演算負荷を軽減し得るという効果が得られる。 産業上の利用可能性
[0067] 以上の実施例はゲームを実行するための画像処理について説明したが、 複 数媒質を含む仮想空間内のォブジェク卜を表示する任意の画像処理、 例えば
、 種々のシミュレータ、 プレゼンテーションツール等に、 本発明を適用し得 ることはいうまでもない。
図面の簡単な説明
[0068] [図 1 ]本発明に係るゲーム装置 (画像処理装置) の実施例を示す正面図である 。 (実施例 1 )
[図 2]図 1のゲーム装置を示すプロック図である。 (実施例 1 )
[図 3]図 1のゲーム装置による光の屈折、 反射の効果を表現するための仮想力 メラを示す正面図である。 (実施例 1 )
[図 4]図 3の左側面図である。 (実施例 1 )
[図 5]図 3における第 1の仮想描画視点の画像を示す図である。 (実施例 1 ) [図 6]図 3における第 2の仮想描画視点の画像を示す図である。 (実施例 1 ) [図 7]図 3における第 3の仮想描画視点の画像を示す図である。 (実施例 1 ) [図 8]図 5〜図 7の画像を合成して得られる画像を示す図である。 (実施例 1
)
[図 9A]図 1のゲーム装置によるレベル変化する界面の処理を示す正面図であ る。 (実施例 1 )
[図 9B]図 9 Aの処理における異なるレベルの処理を示す正面図である。 (実 施例 1 )
[図 9C]図 9 Aの処理における、 さらに異なるレベルの処理を示す正面図であ る。 (実施例 1 )
[図 10]図 1のゲーム装置によって実行される画像処理プログラムの処理を示 すフローチャートである。 (実施例 1 )
[図 11 ]他の仮想空間において、 透明度の設定および水面描画を行わない、 第 1の仮想カメラの画像を示す図である。 (実施例 2 )
[図 12]図 1 1の仮想空間において、 透明度の設定を行う以前の、 第 2の仮想 カメラの画像を示す図である。 (実施例 2 )
[図 13]図 1 1の仮想空間において、 透明度の設定を行う以前の、 第 3の仮想 カメラの画像を示す図である。 (実施例 2 )
[図 14]図 1 1の仮想空間において、 透明度の設定を行った、 第 2の仮想カメ ラの画像を示す図である。 (実施例 2 )
[図 15]図 1 1の仮想空間において、 透明度の設定を行った、 第 3の仮想カメ ラの画像を示す図である。 (実施例 2 )
[図 16]図 1 1、 1 4、 1 5の画像を合成し、 かつ水面を表示した画像を示す 図である。 (実施例 2 )
[図 17]従来の処理に使用されるモデルを示す図である。 (従来例)
[図 18]図 1 7のモデルにおける水面よリ上の部分を分離したモデルを示す図 である。 (従来例)
[図 19]図 1 7のモデルにおける水面よリ下の部分を分離したモデルを示す図 である。 (従来例) 符号の説明
1 0 0 0 CPU
1 0 2 0 システムメモリ
1 0 3 0 ビデオプロセッサ
1 0 4 0 グラフィックメモリ
2 2 0 0 TVモニタ
2 0 0 0 ゲーム装置
2 1 0 0 コントローラ
2 2 0 0 表示装置
2 3 0 0 キーポード

Claims

請求の範囲
[1] 仮想空間内に、 表面のテクスチャがあらかじめ設定されたォブジェクトを設 定するオブジェク卜設定ステップと、
前記仮想空間内を複数の空間に分割する界面を設定する界面設定ステップ 前記オブジェクトの一部が存在する空間 (第 1空間という。 ) 内の部分を 描画する際には、 前記オブジェク卜における第 1空間側のテクスチャのみを 可視化するステップと、
前記オブジェクトの他の部分が存在する空間 (第 2空間という。 ) 内の部 分を描画する際には、 前記オブジェク卜における第 2空間側のテクスチャの みを可視化するステップと、
を備えたことを特徴とする画像処理プログラム。
[2] 仮想空間内にオブジェク卜を設定するォブジェク卜設定ステップと、
前記仮想空間内を複数の空間に分割する界面を設定する界面設定ステップ 前記空間の少なくとも 1個 (第 1空間という。 ) について、 該空間内で、 前記空間内に少なくともその一部が存在する前記オブジェク卜を描画する第 1の仮想描画視点を設定する第 1描画視点設定ステップと、
前記界面を介して前記第 1空間に隣接する空間 (第 2空間という。 ) 内で 、 前記界面について、 前記第 1の仮想描画視点に対して略対称な第 2の仮想 描画視点を設定する第 2描画視点設定ステップと、
前記第 1空間内で、 前記第 1、 第 2の仮想描画視点の視線方向べクトルを 含む平面上に配置され、 前記第 1の仮想描画視点と前記界面との交点または その近傍をとおり、 前記を第 1の仮想描画視点の視線方向べクトルを所定の 角度分界面方向に回転した視線方向べクトルを有する第 3の仮想描画視点を 設定する第 3描画視点設定ステップと、
第 1の仮想描画視点で描画された前記オブジェク卜の画像について、 第 1 空間内のテクスチャを描画し、 第 2空間内のテクスチャを描画せずにォブジ ェク卜の描画を行う第 1テクスチャ描画ステップと、
第 2の仮想描画視点で描画された前記オブジェク卜の画像について、 第 1 空間内のテクスチャを描画し、 第 2空間内のテクスチャを描画せずにォブジ ェク卜の描画を行う第 2テクスチャ描画ステップと、
第 3の仮想描画視点で描画された前記オブジェク卜の画像について、 第 2 空間内のテクスチャを描画し、 第 1空間内のテクスチャを描画せずにォブジ ェク卜の描画を行う第 3テクスチャ描画ステップと、
を備えた画像処理プログラム。
[3] 前記第 1〜第 3テクスチャ描画ステップは、
前記界面に対して垂直な平面を設定するステップと、
前記界面を境に、 一方の空間側におけるテクスチャ透明度を 1に、 他の空 間側のテクスチャ透明度を 0に設定して、 可視 Z透明テクスチャを設定する ステップと、
前記垂直な平面から、 前記オブジェク卜に対して、 前記可視 Z透明テクス チヤを投影するステップと、
前記オブジェク卜のあらかじめ設定されたテクスチャと、 前記投影された 可視 Z透明テクスチャを合成するステップと、
を含むことを特徴とする、 請求項 1または 2記載の画像処理プログラム。
[4] 請求項 1記載の画像処理プログラムを実行するためのプログラムコードが記 録されたコンピュータ読み取リ可能な記憶媒体。
[5] 仮想空間内に、 表面のテクスチャがあらかじめ設定されたォブジェクトを設 定するォブジェク卜設定手段と、
前記仮想空間内を複数の空間に分割する界面を設定する界面設定手段、 前記オブジェクトの一部が存在する空間 (第 1空間という。 ) 内の部分を 描画する際には、 前記オブジェク卜における第 1空間側のテクスチャのみを 可視化する手段と、
前記オブジェクトの他の部分が存在する空間 (第 2空間という。 ) 内の部 分を描画する際には、 前記オブジェク卜における第 2空間側のテクスチャの みを可視化する手段と、 を備えたことを特徴とする画像処理装置。
PCT/JP2007/000497 2006-05-09 2007-05-09 画像処理プログラムおよび画像処理装置 WO2007129476A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008514394A JP4983793B2 (ja) 2006-05-09 2007-05-09 画像処理プログラムおよび画像処理装置
US12/227,208 US8400445B2 (en) 2006-05-09 2007-05-09 Image processing program and image processing apparatus
EP07737153A EP2034446A4 (en) 2006-05-09 2007-05-09 IMAGE PROCESSING PROGRAM AND IMAGE PROCESSOR

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-130897 2006-05-09
JP2006130897 2006-05-09

Publications (1)

Publication Number Publication Date
WO2007129476A1 true WO2007129476A1 (ja) 2007-11-15

Family

ID=38667588

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/000497 WO2007129476A1 (ja) 2006-05-09 2007-05-09 画像処理プログラムおよび画像処理装置

Country Status (4)

Country Link
US (1) US8400445B2 (ja)
EP (1) EP2034446A4 (ja)
JP (1) JP4983793B2 (ja)
WO (1) WO2007129476A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014064937A (ja) * 2013-12-02 2014-04-17 Copcom Co Ltd ゲームプログラムおよびゲームシステム
JP6216851B1 (ja) * 2016-09-12 2017-10-18 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5179020B2 (ja) 2006-05-09 2013-04-10 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム処理方法
US8379112B2 (en) * 2009-09-09 2013-02-19 Olympus Imaging Corp. Waterproof camera and display method
JP6407460B1 (ja) * 2018-02-16 2018-10-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN113160059B (zh) * 2021-04-29 2022-04-08 五邑大学 一种水下图像拼接方法、装置及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997034213A2 (en) 1996-03-14 1997-09-18 I.I. Interactive Innovations Ltd. Computerized graphics systems

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4217100B2 (ja) * 2003-04-17 2009-01-28 本田技研工業株式会社 画像合成方法、装置、およびプログラム、ならびに立体モデルのレンダリング方法、装置、およびプログラム
GB2404546B (en) * 2003-07-25 2005-12-14 Purple Interactive Ltd A method of organising and displaying material content on a display to a viewer

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997034213A2 (en) 1996-03-14 1997-09-18 I.I. Interactive Innovations Ltd. Computerized graphics systems

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DAVID BLYTHE, LIGHTING AND SHADING TECHNIQUES FOR INTERACTIVE APPLICATIONS, SIGGRAPH 1999, COURSE 12, 8 August 1999 (1999-08-08), pages 116 - 129, Retrieved from the Internet <URL:http://zach.in.tu- clausthal.de/teaching/cg_literatur/Advanced_Graphics_Programming_Technique_Using _OpenGL.pdf>
DIEFENBACH P J, BADLER N I: "Pipeline rendering: interactive refractions, reflections and shadows", DISPLAYS, vol. 15, no. 3, July 1994 (1994-07-01), pages 173 - 180
DIEFENBACH P J: "PHD THESIS", vol. XX, 1 January 1996, UNIVERSITY OF PENNSYLVANIA, article "PIPELINE RENDERING INTERACTION AND REALISM THROUGH HARDWARE-BASED MULTI-PASS RENDERING", pages: 1 - 152,1
See also references of EP2034446A4 *
SHIDA M. ET AL.: "Hantomei Buttai eno Utsurikomi Doteki Scene no Hyogen Shuho", INFORMATION PROCESSING SOCIETY OF JAPAN KENKYU HOKOKU, vol. 2005, no. 116, 18 November 2005 (2005-11-18), XP003016974 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014064937A (ja) * 2013-12-02 2014-04-17 Copcom Co Ltd ゲームプログラムおよびゲームシステム
JP6216851B1 (ja) * 2016-09-12 2017-10-18 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018045299A (ja) * 2016-09-12 2018-03-22 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム

Also Published As

Publication number Publication date
EP2034446A4 (en) 2011-01-05
EP2034446A1 (en) 2009-03-11
JPWO2007129476A1 (ja) 2009-09-17
US8400445B2 (en) 2013-03-19
JP4983793B2 (ja) 2012-07-25
US20120098833A1 (en) 2012-04-26

Similar Documents

Publication Publication Date Title
US8411092B2 (en) 2D imposters for simplifying processing of plural animation objects in computer graphics generation
US7905779B2 (en) Video game including effects for providing different first person experiences of the same video game world and a storage medium storing software for the video game
JP2003524216A (ja) 音楽データを3次元環境で表示する方法および装置
JP5055214B2 (ja) 画像処理装置、画像処理方法
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
JP4941934B2 (ja) 画像生成装置および画像生成プログラム
CN113923438A (zh) 合成立体视觉图像内容捕获
JP2016529593A (ja) 立体シーンのインターリーブ方式のタイル型レンダリング
JP4983793B2 (ja) 画像処理プログラムおよび画像処理装置
US20080204834A1 (en) Displaying holographic images
TW475155B (en) Method of and apparatus for rendering image, recording medium, and program
JP4772952B2 (ja) 立体視画像生成装置及び情報記憶媒体
JP4728721B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP4307222B2 (ja) 複合現実感提示方法、複合現実感提示装置
JP5916764B2 (ja) 仮想環境における隠蔽の推定方法
US10025099B2 (en) Adjusted location hologram display
JP3989396B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP2000149062A (ja) 三次元画像生成方法とその装置
JP2007026111A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2005100109A (ja) 画像生成情報、情報記憶媒体及び画像生成装置
JP2009169471A (ja) プログラム、情報記憶媒体、及び画像生成システム
Sullivan Graph-based data visualization in virtual reality: a comparison of user experiences
JP3701647B2 (ja) 画像処理装置及びプログラム
JP4229316B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP6959682B1 (ja) 画像合成装置、画像合成方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07737153

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008514394

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007737153

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12227208

Country of ref document: US