WO2005101325A1 - 大表面オブジェクト表示機能を有するゲームプログラム及びゲーム装置 - Google Patents

大表面オブジェクト表示機能を有するゲームプログラム及びゲーム装置 Download PDF

Info

Publication number
WO2005101325A1
WO2005101325A1 PCT/JP2004/017152 JP2004017152W WO2005101325A1 WO 2005101325 A1 WO2005101325 A1 WO 2005101325A1 JP 2004017152 W JP2004017152 W JP 2004017152W WO 2005101325 A1 WO2005101325 A1 WO 2005101325A1
Authority
WO
WIPO (PCT)
Prior art keywords
mesh
projection
procedure
large surface
virtual camera
Prior art date
Application number
PCT/JP2004/017152
Other languages
English (en)
French (fr)
Inventor
Shigeo Okajima
Original Assignee
Konami Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Corporation filed Critical Konami Corporation
Priority to EP04821888A priority Critical patent/EP1734481A4/en
Publication of WO2005101325A1 publication Critical patent/WO2005101325A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/663Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating liquid objects, e.g. water, gas, fog, snow, clouds

Definitions

  • Game software and game device having large surface object display function
  • the present invention relates to a game software and a game device capable of modeling and rendering a three-dimensional object in real time, and particularly represents a three-dimensional object having a large surface such as a sea, a lake, a river, a desert, and a jiyadar.
  • the present invention relates to game software and a game device suitable for application. Background art
  • game software is a concept including the program itself and various data associated with the program as necessary. However, “game software” is not necessarily associated with data! /, But there is always a program.
  • the “various associated data” may be stored together with the program in a memory means such as a ROM disk, or may be stored in an external memory means so as to be readable via a communication medium such as the Internet. It may be done.
  • this type of game software uses a 3D image to represent a 3D object with a large surface (hereinafter simply referred to as a “large surface object”) such as a sea, lake, river, desert, or jungle.
  • a large surface object such as a sea, lake, river, desert, or jungle.
  • the entire model of the 3D object to be represented is placed at a predetermined position in the virtual space, the placed overall model is equally divided into many small meshes, polygons are placed on each mesh, and each Animation processing that changes the shape of the mesh (polygon) over time, and rendering processing such as texture mapping, shadowing, and shading are performed on each polygon to generate an image to be displayed. It was.
  • the present invention can eliminate the waste of CPU computation while maintaining the quality of video displayed on a display when displaying a large surface object by real-time CG animation processing.
  • An object of the present invention is to provide game software and a game apparatus that can realize high-speed drawing.
  • the present invention acquires a video of the surface of the large surface object (21, 22) having a large surface arranged in the three-dimensional virtual space (31) with the virtual camera (23) in the computer (16),
  • the game software (GPR) having a program that executes the procedure displayed on the motor (9)
  • the game software is further stored in the computer.
  • OBD object data
  • the lower surface (25e) of the visual field boundary (25) of the camera coordinates (26) of the virtual camera is set in the three-dimensional virtual space so as to intersect the plane (22a) on which the surface of the large surface object is arranged.
  • the mesh generated on the projection plane by the mesh generation procedure is projected onto the surface position (22a) of the large surface object indicated by the object data in the three-dimensional virtual space, and the projection mesh (29A) is projected.
  • Projection mesh setting procedure (BOD) to be set
  • the large surface object partially modeled by the partial modeling procedure Rendering procedure (CCP), which renders the surface of the image and computes the image (22b) of the surface on the projection plane.
  • CCP partial modeling procedure
  • the mesh (29) is set on the projection plane (25c) of the virtual camera (23), and the set mesh (29) is projected onto the surface position (22a) of the large surface object. Since the projection mesh (29A) is set, the eye (29b) of the projected projection mesh (29A) can be made larger as the mesh (29b) farther away from the virtual force lens (23). As a result, the distant mesh (29b) projected on the large surface object (21, 22) occupies a large surface area on the surface (22a), and modeling and subsequent rendering processes for each eye (29b) are performed. It is possible to carry out processing etc. simply with the area ratio to the object as the mesh (29b) farther away.
  • the mesh generating hand 1 jet is:
  • the mesh (29a) may be configured to be calculated and generated for a portion closer to the virtual camera than the coordinate position on the projection plane calculated by the surface position calculation procedure.
  • the mesh generating hand 1 jet is:
  • the projection plane (25c) of the virtual camera may be configured to have an equal division procedure for generating the mesh in such a manner that the projection plane (25c) is equally divided in the horizontal and vertical directions.
  • the mesh can be easily generated by generating the mesh in such a manner that the projection plane (25c) of the virtual camera is equally divided in the horizontal and vertical directions. ) Calculation load can be reduced.
  • the projection plane of the virtual camera (29b) of the projection mesh (29A) set by the projection mesh setting procedure becomes larger as the virtual camera force increases.
  • the mesh (29) can be generated by dividing the 25c) into a mesh dividing procedure.
  • the projection plane (25c) of the virtual camera is divided so that the eye (29b) force of the projection mesh (29A) set by the projection mesh setting procedure increases as the distance from the virtual camera increases. Since the mesh (29) is generated, the large surface object (21, 22) and the distant mesh (29b) do not significantly affect the image quality displayed on the monitor (9). A large surface area can be occupied on the top. As a result, the modeling for each eye (29b) and the subsequent rendering process can be easily performed with the area ratio to the object for the distant mesh (29b).
  • the partial modeling procedure includes:
  • a polygon arrangement procedure for arranging the plate polygons (30) may be provided.
  • each plate polygon (30) is arranged for each eye (29b) constituting the projection mesh (29A), the eye (29b) and the plate polygon (30 ) Is one-to-one and modeling can be done easily.
  • the present invention may be configured such that the large surface object (21, 22) is an object (22) representing a sea, a lake, or a river.
  • the large surface object (21) is an object representing the sea, lake or river (
  • the surface of the large surface object 21 becomes a water surface having a relatively simple surface shape. Therefore, the rendering process of the telescopic plate polygon (30) from the virtual camera (31) described above is performed on the water surface of a large area. Even if it is simply performed with respect to (22a), the present invention can be effectively utilized since the simple processing does not become conspicuous as deterioration in image quality.
  • the present invention can also be configured as a game device controlled by a computer that executes game software having the above-described program.
  • the game software is stored in a hard disk or RO in the game device.
  • FIG. 1 is a control block diagram of a game machine to which the present invention is applied.
  • FIG. 2 is a schematic diagram showing an example of a lake (large surface object) arranged in a three-dimensional virtual space and a virtual camera arranged to render a scene of the lake.
  • a lake large surface object
  • FIG. 3 is a schematic diagram showing the relationship between the visual field boundary of the virtual camera of FIG. 2 and the water surface of the lake.
  • FIG. 4 is a plan view of FIG.
  • FIG. 5 is a schematic diagram showing an example of a mesh set on a projection plane of camera coordinates.
  • FIG. 6 is a diagram showing an example of a water surface image displayed on the display.
  • FIG. 7 is described in c code is a flowchart showing the outline of a large surface object processing
  • the game device 20 executes a predetermined game in accordance with game software such as an action game recorded on a ROM disk 15 as a recording medium.
  • the game device 20 includes a CPU 1 mainly composed of a microprocessor, ROM (read-only memory) 2 and RAM (random access memory) 3 as a main storage device for the CPU 1, an image processing device 4 and sound processing. It has a device 6, buffers 5 and 7 for these devices, and a ROM disk reader 8.
  • ROM2 An operating system as a program necessary for overall operation control of the game machine is written in ROM2.
  • RAM 3 game programs and data read from the ROM disk 15 as a storage medium are written as necessary.
  • Image processing equipment The device 4 receives the image data from the CPU 1 and draws the game screen on the frame buffer 5, converts the drawn image data into a predetermined video reproduction signal, and outputs it to the monitor 9 at a predetermined timing.
  • the sound processing device 6 reproduces data such as voice, musical sound and sound source data read from the ROM disk 15 and recorded in the sound buffer 7 and outputs them from the speaker 10.
  • the ROM disk reader 8 reads a program or data recorded on the ROM disk 15 in accordance with an instruction from the CPU 1, and outputs a signal corresponding to the read content.
  • the ROM disk 15 stores programs and data necessary for game execution.
  • the monitor 9 generally uses a television receiver for home use, and the speaker 10 generally uses a built-in speaker of the television receiver.
  • a communication control device 11 is connected to the CPU 1 via a bus 14, and a controller 12 and an auxiliary storage device 13 as input devices are detachably attached to the device 11 via appropriate connection ports.
  • the controller 12 functions as an input device, and is provided with operation members such as operation keys for receiving operations by the player.
  • the communication control device 11 scans the operation state of the controller 12 at a constant cycle (for example, 1Z60 seconds), and outputs a signal corresponding to the scanning result to the CPU1.
  • the CPU 1 determines the operation state of the controller 12 based on the signal.
  • a plurality of controllers 12 and auxiliary storage devices 13 can be connected to the communication control device 11 in parallel.
  • the other components except for the monitor 9, the speaker 10, the controller 12, the ROM disk 15, and the auxiliary storage device 13 are integrally accommodated in a predetermined housing to constitute the game machine body 16. To do.
  • This game machine body 16 functions as a computer.
  • the ROM disk 15 stores game software GPR in which a game progresses according to a predetermined scenario such as an action game, a role playing game, or an adventurous game.
  • the CPU 1 when a predetermined initialization operation (for example, a power-on operation) is performed, the CPU 1 first executes a predetermined initialization process according to the program stored in the ROM 2. When initialization is completed, CPU 1 starts reading game software GPR stored in ROM disk 15, and starts game processing according to the program. When the player performs a predetermined game start operation on the controller 12, the CPU 1 Game software Starts various processes necessary for game execution according to GPR procedures.
  • a predetermined initialization operation for example, a power-on operation
  • the game apparatus 20 performs a predetermined process according to the read game software GPR, controls display of an image displayed on the monitor 9, and controls a progress of a predetermined scenario.
  • the game device 20 as a home game machine has been described as an example.
  • the game device 20 may be a so-called portable game machine. Furthermore, it may be a device capable of playing back general music and video recording media using a game-dedicated device.
  • the present invention is not limited to this, and any computer may be used, for example, a personal computer, a mobile phone, or the like, that is, any computer that can function game software.
  • the storage mode thereof is arbitrary.
  • the game software GPR program in the ROM disk 15 it is stored in an external memory means such as a server independent of the game machine 1, and the reading provided in the game software GPR is performed. It may be configured to be downloaded to a memory such as RAM3 via a communication mediator such as the Internet by a sending program.
  • the game software GPR game is created on the field FLD set in the three-dimensional virtual space 31 generated by the CPU 1 in the RAM 3 by the field generation program FPP of the game software GPR. It is set as a so-called action game in which a player advances a scenario while fighting with an enemy character while a character (not shown) that can be operated via the controller 12 moves.
  • the game software GPR shown in FIG. Only the software elements related to the present invention are described, and the game software GPR includes various programs necessary for executing a game using the game software GPR in addition to those described in FIG. And data are stored.
  • the field generation program FPP is a scenario progress control program that controls the progress of the game scenario.
  • the CPU 1 via the CPU 1, in the three-dimensional virtual space 31, as shown in FIG.
  • a large surface object 21 which is an object representing a large surface such as a lake surface, a sea surface, a sand surface, an upper surface of a jiyandal or a river surface, such as a desert, a jungle or a river, may be arranged.
  • the lake 22 is arranged in the three-dimensional virtual space 31 as the large surface object 21.
  • the scenario progress control program SAP sends the camera control program CCP of the game software GPR to the lake 22 via the CPU 1 and the image processing device 4 in accordance with the movement of a character (not shown) during the game. Command the monitor 9 to display the rendered image.
  • the camera control program CCP reads out the large surface object processing program BOP from the game software GPR force via the CPU 1, and based on the large surface object processing program BOP, the water surface that is the surface of the lake 22 Display processing on display 9 of 22a.
  • the lake 22 is not arranged as an object until the display processing of the lake 22 by the large surface object processing program BOP is performed. Therefore, the surface object processing program BOP sends object data related to the lake 22 for which display processing is instructed by the camera control program CCP from the object data file ODF of the game software GPR to the field generation program F PP via the CPU 1. O Command to read BD.
  • the CPU 1 reads out the object data OBD related to the lake 22 to be placed in the three-dimensional virtual space 31 from the object data file ODF, and stores it in a buffer memory (not shown) (step Sl in FIG. 7).
  • the object data of the lake 22 includes OPD, the location data DPD regarding the location of the lake 22 in the 3D virtual space 31, the 3D shape data TSD data such as the shape of the lake 22 and the shape and depth of the water surface 22a, etc.
  • Lake 22 3 Data necessary for placement in the three-dimensional virtual space 31 is stored, and the field generation program FPP reads the object data OBD of the lake 22 read from the object data file ODF via the CPU1, and the three-dimensional virtual space from the object data OBD.
  • the object of the lake 22 can be easily generated and arranged at a predetermined position in the area 31.
  • the large surface object processing program BOP uses the virtual camera (viewpoint) 23 for projecting the object of the lake 22 via the CPU1.
  • the current position is acquired from the camera control program CCP, and the positional relationship between the camera 23 and the lake 22 arranged in the three-dimensional virtual space 31 is calculated (step S2 in FIG. 7).
  • the virtual camera 23 is connected to the water surface 22a of the lake 22 with the Z-axis of the camera coordinate system 26, as shown in FIGS. 2 to 4, via the camera control program CCP.
  • the 3D virtual space 31 is arranged so as to intersect the plane on which the water surface 22a is arranged, and the force control program CCP shows the physical range of the 3D virtual space 31 that can be captured from the virtual camera 23.
  • 8 is set for the object of Lake 22, more precisely the object showing the water surface 22a.
  • the visual field boundary 25 sets a horizontal and vertical visual field range at the camera coordinates 26, and further, within this visual field boundary 25, a front clipping plane showing a range for projecting an object in the three-dimensional virtual space 31. 25a and a rear clipping plane 25b are set, and a projection plane (view screen) 25c is set between the front clipping plane 25a and the rear clipping plane 25b. In addition, between the front clipping plane 25a and the rear clipping plane 25b of the visual field boundary 25, the object volume 21 in the three-dimensional virtual space 31 becomes a view volume 25d as a range to be projected onto the projection plane 25c.
  • the large surface object processing program BOP detects the farthest water surface 22a (horizontal line in the lake 22 object projected onto the projection surface 25c from the position of the virtual camera 23 relative to the lake 22 object.
  • HL is calculated as the coordinate position on the projection plane (step S3 in FIG. 7). This can easily calculate the object data OBD of the lake 22, the position of the virtual camera 23 and the projection plane 25c, and the shape data force of the view volume 25d.
  • the object data OBD of the lake 22 as shown in FIG. 6, the farthest water surface of the water surface 22a of the lake 22 projected onto the projection surface 25c, in the case of FIG. 3, the rear clipping surface 25b and the water surface Calculate the V coordinate position on the uv coordinate on the projection plane of the position where the intersection line CP (hereinafter referred to as “horizontal line HL”) shown in FIG. Step S3 in Figure 7.
  • the water surface 22a of the lake 22 is usually set.
  • the intersecting line CP is set horizontally in the u-axis direction with a predetermined V coordinate on the projection plane 25c as shown in FIG.
  • the large surface object processing program BOP is the part where the water surface 22a below the horizontal line HL of the projection plane 25c is arranged, that is,
  • the mesh 29 is set and calculated equally divided in the u-axis (horizontal direction) and V-axis direction (vertical direction) respectively (step S4 in FIG. 7). Note that this division does not necessarily need to be equal.
  • the large surface object processing program BOP uses the CPU 1 to convert the mesh 29 thus obtained into coordinates in which the water surface 22a of the large surface object 21 is located within the visual field boundary 25 as shown in FIG.
  • the projection mesh 29A is calculated by projecting to the position.
  • the mesh 29 generated evenly on the projection surface 25c is generated by projecting the mesh 29 because the quadrangular pyramid field boundary 25 of the virtual camera 23 is set so as to intersect the water surface 22a.
  • the projected mesh 29A thus generated is generated such that the eyes 29b of the projected mesh 29A become larger as the distance from the virtual camera 23 increases.
  • the Z axis 26 does not necessarily intersect the water surface 22a, but in order for the water surface 22a to be projected onto the projection surface 25c, the quadrangular pyramid-shaped field boundary of the virtual camera 23 is used.
  • the lower surface 25e of 24 needs to intersect the water surface 22a (more precisely, the plane in the three-dimensional virtual space 31 on which the water surface 22a is set).
  • the projection mesh 29A is generated on the projection surface 25c onto which the water surface 22a of the virtual camera 23 is projected.
  • the projection mesh 29A is horizontal as shown in FIG. It is appropriately set within the range of the view volume 25d within the range of the viewing angle 13, that is, within the range of the three-dimensional virtual space 31 displayed on the display 9.
  • the large surface object processing program BOP corresponds to each eye 29b of the projection mesh 29A projected to the position of the water surface 22a of the lake 22 of the three-dimensional virtual space 31 and the size of the eyes 29b.
  • the plate polygons 30 are arranged, and the water surface 22a portion located in the view volume 25d of the virtual camera 23 is modeled with the plate polygons. At this time, no plate polygon 30 is arranged on the water surface 22a other than the view volume 25d. In the past, regardless of the range of the view volume 25d, it is only necessary to model the water surface 22a partially compared to placing many polygons on all the water surfaces 22a of the large surface object 21. The calculation time required for the layout processing of the plate polygon 30 can be greatly reduced.
  • the large surface object processing program BOP performs an animation process and a rendering process on the arranged plate polygons 30. Then, the image 22b of the water surface 22a of the lake 22 is acquired on the projection surface 25c of the virtual camera 23.
  • animation processing suitable for real-time CG for example, processing for deforming each plate polygon 30 over time
  • texture mapping for example, texture mapping
  • shadowing for example, texture mapping
  • shading for example, texture mapping
  • reflection for example, projection processing for perspective conversion of each plate polygon 30 of the projection mesh 29A to the projection surface 25c using the virtual camera 23 via the camera control program CCP and CPU 1 is performed.
  • the rendering processing includes the above-described polygon image processing and perspective transformation processing to the projection surface 25c.
  • the large surface object processing program BOP only needs to perform the animation processing and polygon image processing only for the plate polygon 30 arranged only within the range of the view volume 25d of the virtual camera 23.
  • the calculation load can be greatly reduced. You can.
  • each plate polygon 30 that performs polygon image processing increases as the distance from the virtual camera 23 increases, and occupies a large surface area on the water surface 22a of the lake 22.
  • the mesh 29 eyes 29a corresponding to the plate polygons 30 are set to the same size. The farther away, that is, the larger the Z coordinate value of the camera coordinate is, the larger the plate polygon 30, the smaller the image is projected onto the projection surface 25 c.
  • the reduction rate of each plate polygon 30 with respect to the projection plane 25c increases as the plate polygon 30 having a larger Z coordinate value. Therefore, as already mentioned, plate polygon 30 with large Z coordinate value (projected mesh 29A eye 29b) is replaced with plate polygon 30 with small Z coordinate value (projected projection) as shown in Fig. 4. Even if the mesh 29A is set to be larger than the eye 29b), the effect of the polygon image processing performed on such a large plate polygon 30 is reduced by the large reduction ratio to the projection surface 25c.
  • the polygon image processing is performed on the large plate polygon 30 far from the virtual camera 23, and thus on the surface 22a of the lake 22 so as to cover the large surface area, and the small plate polygon 30 near the virtual camera 23 is processed.
  • the effect can be reduced to a negligible level on the projection plane 25c even if it is performed in a greatly simplified manner per unit area of the lake surface 22a. .
  • the water surface 22a near the virtual camera 23 is modeled by a large number of small plate polygons 30, so that it is possible to perform detailed animation processing and polygon image processing as compared to the remote water surface 22a. That is, only for the plate polygon 30 near the virtual camera 23, a real water surface 22a is expressed by performing advanced animation processing and polygon image processing with high processing density per unit surface area of the object, and distant plate polygons. 30 can be done with simple animation processing and polygon image processing with low processing density per unit area of the object.
  • the polygons constituting the distant water surface 22a are more than the polygons 30 nearby. Since it is set to be large, the number to be processed can be significantly less than that of the nearby plate polygon 30, and animation processing for the plate polygon 30 on the far surface 22a And polygon image processing can be performed without imposing a heavy load on CPU1.
  • the plate polygon 30 is not arranged at all outside the range of the view volume 25d of the virtual camera 23 and the water surface 22a is not modeled as described above. Neither processing nor polygon image processing is performed.
  • the large surface object processing program BOP performs animation processing and polygon image processing for each plate polygon 30 placed and set on the eyes 29b of the projection mesh 29A via the CPU 1, and the camera control program CCP.
  • the image 22b from the virtual camera 23 on the water surface 22a of the lake 22 is obtained as shown in FIG.
  • the CCP displays the image 22b projected on the projection surface 25c on the monitor 9 via the CPU 1 and the image processing device 4 (step S8 in FIG. 7).
  • the image 22b displayed on the monitor 9 has the water surface 22a of the lake 22 drawn in detail with a fine plate polygon 30 on the nearby water surface 22a, and the distant water surface 22a It is displayed in a form that has been rendered in a simplified form so as not to become unnatural due to the large plate polygon 30.
  • the force described for the case where the image 22b of the water surface 22a of the lake 22 is calculated and generated as the large surface object 21 is the large surface object 21, as already described.
  • any object that has a relatively monotonous and large surface such as the surface of the sea, jungle, river, desert, sea surface, many plants, river surface, sand, etc., can be applied.
  • the X axis of the camera coordinate 26 of the virtual camera 23 is set parallel to the XZ plane (horizontal plane) of the world coordinate 27 . May not necessarily be parallel to the XZ plane of world coordinates 27. That is, when the mesh 29 shown in the figure is set as the projection plane 25c and the projection mesh 29A is projected to the coordinate position where the surface of the large surface object 21 is arranged, the X axis force of the virtual camera 23 S world coordinate 27 XZ If the image 22b is acquired by the virtual camera 23, which is preferably held parallel to the plane, the X axis of the virtual camera 23 is tilted with respect to the XZ plane of the world coordinates 27, and the projection plane 25c is tilted. Polygon placed on the eyes 29b of the projection mesh 29A The image 22b can also be obtained and generated by perspective-transforming each polygon 30 that has undergone image processing.
  • the CPU 1 constitutes a game control device, and various means of the game control device are constituted by a combination of the CPU 1 and specific software. At least one of these means is used.
  • the unit may be replaced with a logic circuit.
  • the present invention is not limited to a home game system, and may be configured as a game system of various scales. Industrial applicability
  • the present invention can be used as an electronic game device using a computer and entertainment software to be executed by the computer.

Description

明 細 書
大表面オブジェクト表示機能を有するゲームソフトウェア及びゲーム装置 技術分野
[0001] 本発明は、リアルタイムで 3次元オブジェクトをモデリングし、レンダリングすること のできるゲームソフトウェア及びゲーム装置に係わり、特に海、湖、川、砂漠、ジヤン ダルなどの表面が大きな 3次元オブジェクトを表現する際に適用するに好適なゲーム ソフトウェア及びゲーム装置に関する。 背景技術
[0002] なお、本明細書において、「ゲームソフトウェア」とは、プログラムそれ自体及び必 要に応じて該プログラムに付随して関連づけられた各種のデータを含む概念である。 しかし、「ゲームソフトウェア」は必ずしもデータと関連づけられて 、る必要はな!/、が、 プログラムは必ず有している。また、「この関連づけられた各種のデータ」は、プロダラ ムと共に ROMディスクなどのメモリ手段に格納されていてもよぐ更には外部のメモリ 手段にインターネットなどの通信媒介手段を介して読み出し自在に格納されていても よい。
[0003] 従来、この種のゲームソフトウェアは、海、湖、川、砂漠、ジャングルなどの表面が 大きな 3次元オブジェクト(以下、単に「大表面オブジェクト」と称する)の画像を表現 する場合、 3次元仮想空間内の所定位置に、表現すべき 3次元オブジェクトの全体モ デルを配置し、当該配置された全体モデルを多数の小さなメッシュに均等に区切つ て、各メッシュにポリゴンを配置すると共に、各メッシュ(ポリゴン)の形状を時間の経過 と共に変化させるアニメーション処理を行い、更に当該ポリゴンに対してそれぞれテク スチヤーマッピング、シャドウイング、シェーディングなどのレンダリング処理を行って、 表示すべき画像を生成して 、た。
[0004] こうした場合、各メッシュ(ポリゴン)に対するアニメーション処理やレンダリング処理 はそれぞれのメッシュに配置されたポリゴンについて行われるので、実際にモニタ上 に表示した際に、極めて小さくなつてしまう遠方の水面なども、カメラ近傍の水面と同 様のアニメーション処理やレンダリング処理が行なわれることとなる。 [0005] これでは、 CPUに無駄な演算処理を行わせることとなり、 CPUの演算効率を少し でも向上させ、高速な描画を実現しょうとするリアルタイムコンピュータグラフィック (C G)アニメーションを用いたゲームソフトウェア及びゲーム装置にとって大きな障害と なる。
[0006] 本発明は、上記した事情に鑑み、リアルタイム CGアニメーション処理による大表 面オブジェクトの表示に際して、ディスプレイに表示される映像の質を維持しつつ、 C PUの演算の無駄を省くことが出来、高速な描画を実現することの出来る、ゲームソフ トウエア及びゲーム装置を提供することを目的とするものである。
発明の開示
[0007] 本発明は、コンピュータ(16)に、 3次元仮想空間(31)に配置される大きな表面を 有する大表面オブジェクト(21、 22)の表面の映像を仮想カメラ(23)で取得し、モ- タ(9)に表示する手順を実行させる、プログラムを有するゲームソフトウェア(GPR)に おいて、
前記ゲームソフトウェアは、更に、前記コンピュータに、
前記大表面オブジェクトの前記表面(22a)を、前記 3次元仮想空間に配置する際 の配置座標位置を記録したオブジェクトデータ(OBD)を前記コンピュータのメモリに 格納するデータ格納手順、
前記仮想カメラのカメラ座標 (26)の視野境界(25)の下面(25e)を、前記大表面 オブジェクトの表面が配置される平面(22a)と交差する形で、前記 3次元仮想空間内 に設定する仮想カメラ設定手順 (CCP)、
前記仮想カメラの投影面(25c)に複数の目(29a)カゝら構成されるメッシュ(29)を 演算生成するメッシュ生成手順 (BOD)、
前記メッシュ生成手順により前記投影面に生成されたメッシュを、前記 3次元仮想 空間内の前記オブジェクトデータに示された前記大表面オブジェクトの表面位置(22 a)に投影して投影メッシュ (29A)を設定する投影メッシュ設定手順 (BOD)、
前記投影メッシュを構成する各目について前記大表面オブジェクトの表面を部分 的にモデリングする部分モデリング手順 (BOD)、
前記部分モデリング手順により部分的にモデリングされた前記大表面オブジェクト の表面をレンダリングして前記投影面に前記表面の映像 (22b)を演算生成するレン ダリング処理手順 (CCP)、
前記レンダリング処理手順により演算生成された前記表面の映像 (22b)を前記モ ユタ (9)に表示する表示手順 (CCP)を、
実行させるためのプログラムを有することを特徴として構成することが出来る。
[0008] これによれば、大表面オブジェクト(21、 22)の全ての表面(22a)をメッシュで区 切る必要が無ぐ仮想カメラ(23)の投影面(25c)に投影される表面(22a)部分につ V、てのみメッシュを設定して該表面(22a)をモデリングするだけで済むので、それ以 外の映像としてモニタ(9)に表示されることのない大表面オブジェクト(21、 22)の表 面(22a)部分のモデリングを行う必要が無くなる。これにより、モデリングの演算を CP U (l)の負荷を大幅に少なくすることが出来、従来と同様の画質を維持しつつ、高速 な描画を実現することが出来る。
[0009] また、メッシュ(29)は、仮想カメラ(23)の投影面(25c)に設定され、当該設定さ れたメッシュ(29)が前記大表面オブジェクトの表面位置(22a)に投影されて投影メッ シュ(29A)が設定されるので、投影された投影メッシュ(29A)の目(29b)は、仮想力 メラ(23)より遠方のメッシュ(29b)ほど大きくすることが出来る。これにより、大表面ォ ブジェクト(21、 22)に投影された遠方のメッシュ(29b)は、表面(22a)上で大きな表 面積を占めることとなり、各目(29b)に対するモデリング及びその後のレンダリング処 理などを、遠方のメッシュ(29b)ほど、オブジェクトに対する面積比で簡易的に行うこ とが可能となる。
[0010] これにより、仮想カメラ(23)より遠方の、実際にモニタ(9)に表示された際に、小さ くしか表示されず、表示したとしても画像の質に殆ど影響を与えない部分の処理を大 幅に簡略ィヒすることが出来る反面、従来と同様の画質で高速な描画を実現すること が出来る。
[0011] また、本発明は、前記メッシュ生成手 1噴は、
前記仮想カメラ(23)の前記大表面オブジェクト(21、 22)に対する位置から、前 記投影面(25c)に投影される該大表面オブジェクトにおける最も遠 ヽ表面位置 (CP )の、前記投影面上の座標位置 (V座標)を演算する、表面位置演算手順 (BOD)を 有し、
前記メッシュ (29a)は、前記表面位置演算手順により演算された前記投影面上 の座標位置よりも前記仮想カメラに近い部分について演算生成されることを特徴とし て構成することも出来る。
[0012] この場合、メッシュは、表面位置演算手順により演算された投影面上の座標位置 よりも仮想カメラ(26)に近い部分について演算生成されるので、大表面オブジェクト( 21、 22)の表面(22a)以外の部分について、メッシュ(29)が設定されることなぐ CP U (l)に対して余分な演算を行わせなくて済み、処理が高速化される。
[0013] また、本発明は、前記メッシュ生成手 1噴は、
前記仮想カメラの投影面(25c)を、水平及び垂直方向にそれぞれ均等に分割す る形で前記メッシュ生成する均等分割手順を有して構成することも出来る。
[0014] この場合、仮想カメラの投影面(25c)を、水平及び垂直方向にそれぞれ均等に 分割する形で前記メッシュ生成することにより、メッシュの生成を簡単に行うことが出 来、 CPU (l)の演算負荷を少なくすることが出来る。
また、本発明は、前記メッシュ生成手順は、前記投影メッシュ設定手順により設定 される投影メッシュ(29A)の目(29b)が、仮想カメラ力も遠くなるほど大きくなるように 、前記仮想カメラの投影面(25c)を分割する形で前記メッシュ(29)を生成する、メッ シュ分割手順を有して構成することも出来る。
[0015] この場合、投影メッシュ設定手順により設定される投影メッシュ(29A)の目(29b) 力 仮想カメラカゝら遠くなるほど大きくなるように、仮想カメラの投影面(25c)を分割す る形でメッシュ(29)が生成されるので、モニタ(9)に表示される画質に影響を余り与 えることのない、大表面オブジェクト(21、 22)遠方のメッシュ(29b)は、オブジェクト 表面(22a)上で大きな表面積を占めさせることが出来る。これにより、各目(29b)に 対するモデリング及びその後のレンダリング処理を、遠方のメッシュ(29b)ほど、ォブ ジェタトに対する面積比で簡易的に行うことが可能となる。
[0016] これにより、仮想カメラ(23)より遠方の、実際にモニタ(9)に表示された際に、小さ くしか表示されず、表示したとしても画像の質に殆ど影響を与えない部分の処理を大 幅に簡略ィヒすることが出来る反面、従来と同様の画質で高速な描画を実現すること が出来る。
[0017] また、本発明は、前記部分モデリング手順は、
前記投影メッシュ(29A)を構成する各目(29b)につ 、て、板ポリゴン(30)をそれ ぞれ配置するポリゴン配置手順を有して構成することも出来る。
[0018] この場合、投影メッシュ(29A)を構成する各目(29b)につ 、て、板ポリゴン(30) をそれぞれ配置するので、投影メッシュ(29A)の目(29b)と板ポリゴン(30)が 1対 1 に対応しモデリングを容易に行うことが出来る。
[0019] また、本発明は、前記大表面オブジェクト(21、 22)は、海又は湖又は川を表現す るオブジェクト(22)であることを特徴として構成することも出来る。
[0020] この場合、大表面オブジェクト (21)は、海又は湖又は川を表現するオブジェクト(
22)とすると、大表面オブジェクト 21の表面は、比較的単純な表面形状を有する水面 となるので、前述した仮想カメラ(31)から遠 ヽ板ポリゴン(30)のレンダリング処理を、 大きな面積の水面(22a)について簡易的に行っても、当該簡易的な処理が画質の 劣化として目立ってしまうようなことが無ぐ本発明を有効に活用することが出来る。
[0021] また、本発明は、上記したプログラムを有するゲームソフトウェアを実行するコンビ ユータによる制御されるゲーム装置としても構成することが出来る。
[0022] また、この場合、これらゲームソフトウェアをゲーム装置内のハードディスクや RO
M2又は RAM3に格納しておくことにより、必要に応じて高速な描画を行うことも出来 る。
[0023] なお、括弧内の番号等は、図面における対応する要素を示す便宜的なものであり 、従って、本記述は図面上の記載に限定拘束されるものではない。
図面の簡単な説明
[0024] [図 1]図 1は、本発明が適用されるゲーム機の制御ブロック図。
[図 2]図 2は、 3次元仮想空間内に配置された湖 (大表面オブジェクト)及び該湖の情 景をレンダリングするために配置された仮想カメラの一例を示す模式図。
[図 3]図 3は、図 2の仮想カメラの視野境界と湖の水面との関係を示す模式図。
[図 4]図 4は、図 3の平面図。
[図 5]図 5は、カメラ座標の投影面に設定されたメッシュの一例を示す模式図。 [図 6]図 6は、ディスプレイに表示される水面の映像の一例を示す図。
[図 7]図 7は、大表面オブジェクト処理の概要を示すフローチャートである c 符号の説明
[0025] 1…… CPU 9……モニタ
16……コンピュータ(本体) 20……ゲーム装置
21……大表面オブジェクト 22 · ··· ··大表面オブジェクト(湖)
22a……表面(水面) 22b……映像
23……仮想カメラ 25……視野境界
25c……投影面 25e……下面
26……カメラ座標 29……メッシュ
29A……投影メッシュ 29a, 29b……目
30……板ポリゴン 31…… 3次元仮想空間
CP……表面位置
BOD……メッシュ生成手順、投影メッシュ設定手順、部分モデリング手順、表面位置 演算手順 (大表面オブジェクト処理プログラム)
CCP……仮想カメラ設定手順、レンダリング処理手順、表示手順 (カメラ制御プログ ラム)
GPR……ゲームソフトウェア
発明を実施するための最良の形態
[0026] ゲーム装置 20は、図 1に示すように、記録媒体としての ROMディスク 15に記録さ れたアクションゲームなどのゲーム用ソフトウェアに従って所定のゲームを実行するも のである。ゲーム装置 20は、マイクロプロセッサを主体として構成された CPU1と、そ の CPU1に対する主記憶装置としての ROM (リードオンリーメモリ) 2および RAM (ラ ンダムアクセスメモリ) 3と、画像処理装置 4およびサウンド処理装置 6と、それらの装 置に対するバッファ 5、 7と、 ROMディスク読取装置 8とを有している。
[0027] ROM2には、ゲーム機の全体の動作制御に必要なプログラムとしてのオペレーテ イングシステムが書き込まれる。 RAM3には記憶媒体としての ROMティスク 15から読 み取ったゲーム用のプログラムやデータが必要に応じて書き込まれる。画像処理装 置 4は CPUlから画像データを受け取ってフレームバッファ 5上にゲーム画面を描画 するとともに、その描画された画像のデータを所定のビデオ再生信号に変換して所 定のタイミングでモニタ 9に出力する。サウンド処理装置 6は、 ROMティスク 15から読 み出されてサウンドバッファ 7に記録された音声、楽音等のデータや音源データ等を 再生してスピーカ 10から出力させる。 ROMディスク読取装置 8は、 CPU1からの指 示に従って ROMディスク 15上に記録されたプログラムやデータを読み取り、その読 み取った内容に対応した信号を出力する。 ROMディスク 15にはゲームの実行に必 要なプログラムやデータが記録されている。モニタ 9には家庭用のテレビ受像機が、 スピーカ 10にはそのテレビ受像機の内蔵スピーカが一般に使用される。
[0028] さらに、 CPU1にはバス 14を介して通信制御デバイス 11が接続され、そのデバイ ス 11には入力装置としてのコントローラ 12及び補助記憶装置 13が適宜な接続ポート を介してそれぞれ着脱自在に接続される。コントローラ 12は入力装置として機能する ものであり、そこにはプレーヤによる操作を受け付ける操作キーなどの操作部材が設 けられる。通信制御デバイス 11は一定周期(例えば 1Z60秒)でコントローラ 12の操 作状態を走査し、その走査結果に対応した信号を CPU1に出力する。 CPU1はその 信号に基づいてコントローラ 12の操作状態を判別する。コントローラ 12及び補助記 憶装置 13は通信制御デバイス 11に対して複数並列に接続可能である。
[0029] 以上の構成において、モニタ 9、スピーカ 10、コントローラ 12、 ROMディスク 15及 び補助記憶装置 13を除く他の構成要素は所定のハウジング内に一体的に収容され てゲーム機本体 16を構成する。このゲーム機本体 16がコンピュータとして機能する。
[0030] ROMディスク 15には、アクションゲーム、ロールプレイングゲームやアドベンチヤ 一ゲームなどの、所定のシナリオに従ってゲームが進行するゲームソフトウェア GPR が格納されている。
[0031] ゲーム装置 20にお 、ては、所定の初期化操作 (例えば電源の投入操作)が行わ れると CPU1がまず ROM2のプログラムに従って所定の初期化処理を実行する。初 期化が終わると CPU1は ROMディスク 15に格納された、ゲームソフトウェア GPRの 読み込みを開始し、そのプログラムに従ってゲーム処理を開始する。プレーヤがコン トローラ 12に対して所定のゲーム開始操作を行うと、 CPU1はその指示に基づいた ゲームソフトウェア GPRの手順に従ってゲームの実行に必要な種々の処理を開始す る。
[0032] 以後、ゲーム装置 20は、読み込んだゲームソフトウェア GPRに従って、所定の処 理を行って、モニタ 9上に表示される画像を表示制御して、所定のシナリオを進行制 御して行く。
[0033] 以上の構成のゲーム装置 20では、 ROMディスク 15に記録されたプログラムをコ ンピュータの主記憶装置としての RAM3にロードして CPU1で実行することにより、 様々なジャンルのゲームをディスプレイ 9の画面上でプレイすることが出来る。
[0034] なお、本発明に係るゲームソフトウェアを機能させるコンピュータとして、例えば家 庭用ゲーム機としてのゲーム装置 20を一例として説明した力 該ゲーム装置 20は、 いわゆる携帯型ゲーム機であってもよぐ更に、ゲーム専用の装置でなぐ一般的な 音楽や映像の記録媒体の再生なども可能な装置であってもよい。
[0035] また、これに限らず、コンピュータとして、例えばパーソナルコンピュータ、携帯電 話機など、つまりゲームソフトウェアを機能させることのできるものであれば何れのも のでもよい。
[0036] なお、ゲームソフトウェア GPRを構成する各種のプログラム及び各種のデータは、 ゲームソフトウェア GPRのプログラム機能によって読み出し自在に有している限り、そ の格納態様は任意であり、本実施の形態のように、ゲームソフトウェア GPRのプログ ラムと共に ROMディスク 15中に格納するほかに、ゲーム機 1とは独立したサーバー などの外部のメモリ手段に格納しておき、ゲームソフトウェア GPR中に設けられた読 み出しプログラムによって、インターネットなどの通信媒介手段を介して RAM3などの メモリにダウンロードするように構成してもよ 、。
[0037] ゲームソフトウェア GPRによるゲームは、図 2に示すように、ゲームソフトウェア GP Rのフィールド生成プログラム FPPにより、 CPU1が RAM3内に生成する 3次元仮想 空間 31内に設定されたフィールド FLD上を、プレーヤがコントローラ 12を介して操作 自在なキャラクタ(図示せず)が移動しながら、敵キャラクタとの戦闘を行いながらシナ リオを進めてゆぐ所謂ァアクションゲームとして設定されている。
[0038] なお、図 1に示した、ゲームソフトウェア GPRには、該ゲームソフトウェア GPRを構 成する、本発明に関連するソフトウェア要素のみを記述しており、ゲームソフトウェア GPRには、図 1に記載された以外に、当該ゲームソフトウェア GPRを用いてゲームを 実行する上で必要な多様なプログラム及びデータが格納されている。
[0039] フィールド生成プログラム FPPは、ゲームシナリオの進行を制御するシナリオ進行 制御プログラム SAPからの指示により、 CPU1を介して、 3次元仮想空間 31内に、図 2に示すように、湖、海、砂漠、ジャングル又は川などのように、湖面、海面、砂面、ジ ヤンダルの上面、川面などの大きな表面を有する物体を表現するオブジェクトである 、大表面オブジェクト 21を配置する場合がある。本実施例の場合、例えば大表面ォ ブジェクト 21としては湖 22が 3次元仮想空間 31に配置される。
[0040] 一方、シナリオ進行制御プログラム SAPは、ゲーム中の図示しないキャラクタの動 きに合わせて、ゲームソフトウェア GPRのカメラ制御プログラム CCPに対して、 CPU 1及び画像処理装置 4を介して、湖 22をレンダリングした画像をモニタ 9に表示するよ うに指令する。
[0041] これを受けて、カメラ制御プログラム CCPは、 CPU1を介して、大表面オブジェクト 処理プログラム BOPをゲームソフトウェア GPR力も読み出し、当該大表面オブジェク ト処理プログラム BOPに基づいて湖 22の湖面である水面 22aのディスプレイ 9への 表示処理を行う。
[0042] 3次元仮想空間 31には、大表面オブジェクト処理プログラム BOPによる湖 22の表 示処理が行われるまでは、湖 22はオブジェクトとして配置されていない。そこで、大 表面オブジェクト処理プログラム BOPは、 CPU 1を介してフィールド生成プログラム F PPに対して、ゲームソフトウェア GPRのオブジェクトデータファイル ODFから、カメラ 制御プログラム CCPにより表示処理を指令された湖 22に関するオブジェクトデータ O BDを読み出すように指令する。
[0043] これを受けて CPU1は、オブジェクトデータファイル ODFから、 3次元仮想空間 31 に配置すべき湖 22に関するオブジェクトデータ OBDを読み出して、図示しないバッ ファメモリに格納する(図 7のステップ Sl)。湖 22のオブジェクトデータ OBDには、湖 22の 3次元仮想空間 31での配置位置に関する配置位置データ DPD及び、湖 22の 形状や、水面 22aの形状及び深さなどの 3次元形状データ TSDデータなど湖 22を 3 次元仮想空間 31内に配置するのに必要なデータが格納されており、フィールド生成 プログラム FPPは、 CPU1を介して、オブジェクトデータファイル ODFから読み出され た湖 22のオブジェクトデータ OBDから 3次元仮想空間 31内の所定の位置に湖 22の オブジェクトを容易に生成配置することが出来る。
[0044] こうして表示すべき湖 22のオブジェクトデータ OBDが読み出されたところで、大表 面オブジェクト処理プログラム BOPは、 CPU1を介して湖 22のオブジェクトを投影す るための仮想カメラ (視点) 23の現在位置を、カメラ制御プログラム CCPから取得し、 当該カメラ 23と 3次元仮想空間 31内に配置される湖 22との位置関係を演算する(図 7のステップ S 2)。
[0045] 即ち、仮想カメラ 23は、カメラ制御プログラム CCPを介して、図 2乃至図 4に示す ように、カメラ座標系 26の Z軸を湖 22の水面 22aに向けて、即ち Z軸が、 3次元仮想 空間 31において水面 22aが配置される平面に交差する形で配置されており、更に力 メラ制御プログラム CCPは、仮想カメラ 23から捕捉出来る 3次元仮想空間 31の物理 的な範囲を示す、垂直視角が αで水平視角が |8の四角錐状の視野境界 25を、湖 2 2のオブジェクト、正確には水面 22aを示すオブジェクトに対して設定する。
[0046] この視野境界 25により、カメラ座標 26における水平及び垂直方向の視野範囲が 設定され、更に、この視野境界 25内において、 3次元仮想空間 31内のオブジェクト を投影する範囲を示す前方クリッピング面 25a及び後方クリッピング面 25bが設定さ れ、前方クリッピング面 25aと後方クリッピング面 25bとの間に投影面 (ビュースクリー ン) 25cが設定される。また、視野境界 25の前方クリッピング面 25aと後方クリッピング 面 25bとの間は、 3次元仮想空間 31内のオブジェクト 21が、投影面 25cに投影される 範囲としてのビューボリューム 25dとなる。
[0047] 大表面オブジェクト処理プログラム BOPは、図 3に示すように、仮想カメラ 23の湖 22のオブジェクトに対する位置から、投影面 25cに投影される湖 22のオブジェクトに おける最も遠 ヽ水面 22a (水平線 HL)の位置を該投影面上の座標位置として演算す る(図 7のステップ S3)。これは、湖 22のオブジェクトデータ OBD及び仮想カメラ 23及 び投影面 25cの位置及びビューボリューム 25dの形状データ力も容易に演算するこ とが出来る。 [0048] 例えば、湖 22のオブジェクトデータ OBDから、図 6に示すように、投影面 25cに投 影される湖 22の水面 22aの最も遠い水面、図 3の場合、後方クリッピング面 25bと水 面 22aとの、図 3に示す交線 CP (以下、「水平線 HL」と称する)が投影面 25cに投影 された位置の、投影面での uv座標上での V座標位置を演算して求める(図 7のステツ プ S3)。
[0049] 仮想カメラ 23のカメラ座標 26の X軸と 3次元仮想空間 31のワールド座標 27の X 軸は、図 2に示すように、平行に設定されているので、通常、湖 22の水面 22aの交線 CPは、水平線 HLとして、図 5に示すように、投影面 25cにおいて所定の V座標を有 する形で水平に u軸方向に設定される。
[0050] こうして、水平線 HLが投影面 25cに設定されたところで、大表面オブジェクト処理 プログラム BOPは、図 5に示すように、投影面 25cの水平線 HLより下の水面 22aが 配置される部分、即ち仮想カメラ 23に近い部分について、 u軸 (水平方向)及び V軸 方向(垂直方向)にそれぞれ均等に分割してメッシュ 29を設定演算する(図 7のステツ プ S4)。なお、この分割は必ずしも均等である必要はなぐ仮想カメラ 23の近ぐ即ち 、投影面 25c図 5下方のメッシュ 29の目 29aが、仮想カメラ 23から遠い、即ち投影面 25c上方のメッシュ 29の目 29aよりも細力べなるように分割してもよい。
[0051] 大表面オブジェクト処理プログラム BOPは、 CPU1を介して、こうして得られたメッ シュ 29を、図 4に示すように、視野境界 25内の、大表面オブジェクト 21の水面 22aが 配置される座標位置に投影して投影メッシュ 29Aを演算生成する。すると、投影面 2 5cで均等に生成されたメッシュ 29は、仮想カメラ 23の四角錐状の視野境界 25が、 水面 22aに交差する形で設定されて ヽるので、メッシュ 29が投影されて生成された 投影メッシュ 29Aは、仮想カメラ 23から遠く離れるほど投影メッシュ 29Aの目 29bが 大きくなる形で生成される。
[0052] なお、 Z軸 26は、水面 22aに対して必ずしも交差している必要はないが、投影面 2 5cに水面 22aが投影されるためには、仮想カメラ 23の四角錐状の視野境界 24の下 面 25eが水面 22a (正確には、水面 22aが設定される 3次元仮想空間 31内の平面)と 交差している必要がある。
[0053] 投影メッシュ 29Aは、仮想カメラ 23の水面 22aが投影される投影面 25cに生成さ れたメッシュ 29に基づいて、逆に 3次元仮想空間 31内の水面 22aが配置されるべき ワールド座標 27上の平面位置に投影されるので、投影メッシュ 29Aは、図 4に示すよ うに、水平視角 13の範囲内のビューボリューム 25dの範囲、即ち、ディスプレイ 9で表 示される 3次元仮想空間 31の範囲内に適切に設定される。
[0054] 次に、大表面オブジェクト処理プログラム BOPは、 3次元仮想空間 31の湖 22の 水面 22aの位置に投影された投影メッシュ 29Aの各目 29bに、それらの目 29bの大 きさに対応した板ポリゴン 30を、それぞれ配置し、仮想カメラ 23のビューボリューム 2 5d内に位置する水面 22a部分を当該板ポリゴンでモデリングする。この際、ビューボ リューム 25d以外の水面 22a部分には、何ら板ポリゴン 30の配置は行わない。従来 は、ビューボリューム 25dの範囲とは無関係に、大表面オブジェクト 21の水面 22aの 全てに多数のポリゴンを配置していたのに比べて、部分的に水面 22aをモデリングす るだけで足りるので、板ポリゴン 30の配置処理に要する演算時間を大幅に短縮する ことが出来る。
[0055] 大表面オブジェクト処理プログラム BOPは、こうして投影メッシュ 29Aの各目 29b に板ポリゴン 30が配置されたところで、それら配置された各板ポリゴン 30に対してァ 二メーシヨン処理及びレンダリング処理を行って、仮想カメラ 23の投影面 25cに、湖 2 2の水面 22aの映像 22bを取得する。
[0056] 即ち、各板ポリゴン 30に対して、リアルタイム CGに適したアニメーション処理 (例 えば、各板ポリゴン 30を時間の経過と共に変形させるなどの処理)、テクスチャーマツ ビング、シャドウイング、シェーディング、反射、写り込み、などのポリゴン画像処理を 行うと共に、カメラ制御プログラム CCP及び CPU 1を介して、仮想カメラ 23を用いて 投影メッシュ 29Aの各板ポリゴン 30を投影面 25cに透視変換する投影処理を行って 、図 6に示す、湖 22の水面 22aの映像 22bを演算生成する。ここで、レンダリング処 理とは、上記したポリゴン画像処理と投影面 25cへの透視変換処理を含むものとする
[0057] この際、大表面オブジェクト処理プログラム BOPは、仮想カメラ 23のビューボリュ ーム 25dの範囲内にだけ配置された板ポリゴン 30についてのみアニメーション処理 及びポリゴン画像処理を行えばよいので、 CPU 1の演算負荷を大幅に低減させるこ とが出来る。
[0058] また、図 4に示すように、ポリゴン画像処理を行う各板ポリゴン 30の大きさは、仮想 カメラ 23から遠くなるほど大きくなり、湖 22の水面 22aにおいて大きな表面積を占め る形となるが、実際にモニタ 9に表示される映像 22bにおいては、図 5に示すように、 各板ポリゴン 30に対応するメッシュ 29の目 29aは、等しい大きさに設定されているの で、仮想カメラ 23から遠いほど、即ちカメラ座標の Z座標値が大きな板ポリゴン 30ほ ど、縮小された形で投影面 25cには投影される。
[0059] 即ち、各板ポリゴン 30の投影面 25cに対する縮小率は、 Z座標値が大きな板ポリ ゴン 30ほど大きくなる。従って、既に述べたように、 Z座標値の大きな板ポリゴン 30 ( 投影された投影メッシュ 29Aの目 29b)を、図 4に示すように、 Z座標値の小さな板ポリ ゴン 30 (投影された投影メッシュ 29Aの目 29b)よりも大きく設定したとしても、そのよう に大きな板ポリゴン 30に対して行うポリゴン画像処理の影響は、投影面 25cへの大き な縮小率により小さくなる。従って、仮想カメラ 23から遠くの大きな板ポリゴン 30、従 つて、湖 22の表面 22aにおいて、大きな表面積をカバーする形の板ポリゴン 30に対 するポリゴン画像処理を、仮想カメラ 23近くの小さな板ポリゴン 30に対してする画像 処理に比して、湖表面 22aの単位面積当たり、大幅に簡略ィ匕する形で行ったとしても 、その影響は、投影面 25c上では無視出来る程度に小さくすることが出来る。
[0060] 従って、仮想カメラ 23近くの、水面 22aについては、多数の小さな板ポリゴン 30に よりモデリングされているので、遠方の水面 22aに比してきめ細かアニメーション処理 やポリゴン画像処理が可能となる。即ち、仮想カメラ 23近くの板ポリゴン 30について のみ、高度な、即ち、オブジェクトの単位表面積当たりの処理密度が高いアニメーシ ヨン処理及びポリゴン画像処理を行ってリアルな水面 22aを表現し、遠方の板ポリゴ ン 30に対しては、オブジェクトの単位面積当たりの処理密度が低い簡単なアニメーシ ヨン処理及びポリゴン画像処理で済ませることが出来る。
[0061] このように、各板ポリゴン 30単位で、遠近両方の板ポリゴン 30に対して同様なポリ ゴン画像処理を行ったとしても、遠方の水面 22aを構成するポリゴンは近くのポリゴン 30よりも大きく設定されているので、処理すべき数を近くの板ポリゴン 30よりも大幅に 少なくすることが出来、遠方の水面 22aの板ポリゴン 30に対するアニメーション処理 及びポリゴン画像処理は CPU1に大きな負荷を掛けずに行うことが出来る。
[0062] なお、仮想カメラ 23のビューボリューム 25dの範囲外には、既に述べたように板ポ リゴン 30は全く配置されておらず、水面 22aのモデリングは行われていないので、何 らのアニメーション処理及びポリゴン画像処理も行わない。
[0063] こうして、大表面オブジェクト処理プログラム BOPにより CPU1を介して、投影メッ シュ 29Aの目 29bに配置設定された各板ポリゴン 30についてアニメーション処理及 びポリゴン画像処理を行って、カメラ制御プログラム CCPにより CPU1を介して投影 面 25cにそれらを透視変換する形で投影して、湖 22の水面 22aの、仮想カメラ 23か らの映像 22bが、図 6に示すように得られたところで、カメラ制御プログラム CCPは、 C PU1及び画像処理装置 4を介して、モニタ 9に投影面 25cに投影された映像 22bを 表示する(図 7のステップ S8)。
[0064] モニタ 9に表示された映像 22bは、湖 22の水面 22aが、図 6に示すように、近くの 水面 22aが細かな板ポリゴン 30で詳細に描画処理され、また遠方の水面 22aは大き な板ポリゴン 30により不自然にならない程度に簡略化された形で描画処理された形 で表示される。
[0065] なお、上述の実施例は、大表面オブジェクト 21として湖 22についてその水面 22a の映像 22bを演算生成する場合ついて述べた力 大表面オブジェクト 21としては、 既に述べたように、湖 22にかぎらず、海、ジャングル、川、砂漠など、海面、多数の植 物、川面、砂の表面など、比較的単調で大きな表面を有するオブジェクトであればど のようなオブジェクトでも適用が可能である。
[0066] また、上述の実施例は、仮想カメラ 23のカメラ座標 26の X軸がワールド座標 27の XZ平面 (水平面)に平行に設定されている場合について説明したが、仮想カメラ 23 の X軸は必ずしもワールド座標 27の XZ平面に平行である必要はなぐ傾 ヽて ヽても よい。即ち、図に示すメッシュ 29を投影面 25cに設定して投影メッシュ 29Aを大表面 オブジェクト 21の表面が配置される座標位置に投影する際に、仮想カメラ 23の X軸 力 Sワールド座標 27の XZ平面に平行に保持されていれば良ぐ仮想カメラ 23により映 像 22bを取得する際に、仮想カメラ 23の X軸をワールド座標 27の XZ平面に対して傾 けた状態で、投影面 25cに対して、投影メッシュ 29Aの目 29bに配置された、ポリゴン 画像処理の完了した各ポリゴン 30を透視変換する形で映像 22bを取得生成するよう に構成することも出来る。
[0067] 以上の実施形態においては、 CPU 1がゲーム制御装置を構成し、その CPU 1と 特定のソフトウェアとの組み合わせによってゲーム制御装置の各種の手段を構成し たが、それらの手段の少なくとも一部は論理回路に置換してもよい。また、本発明は 家庭用ゲームシステムに限らず、種々の規模のゲームシステムとして構成してよい。 産業上の利用可能性
[0068] 本発明は、コンピュータを利用した電子ゲーム機器及びコンピュータに実行させる 娯楽用ソフトウェアとして利用することが出来る。

Claims

請求の範囲
[1] コンピュータに、 3次元仮想空間に配置される大きな表面を有する大表面オブジェク トの表面の映像を仮想カメラで取得し、モニタに表示する手順を実行させる、プロダラ ムを有するゲームソフトウェアにおいて、
前記ゲームソフトウェアは、更に、前記コンピュータに、
前記大表面オブジェクトの前記表面を、前記 3次元仮想空間に配置する際の配 置座標位置を記録したオブジェクトデータを前記コンピュータのメモリに格納するデ ータ格納手順、
前記仮想カメラの視野境界の下面を、前記大表面オブジェクトの表面が配置され る平面と交差する形で、前記 3次元仮想空間内に設定する仮想カメラ設定手順、 前記仮想カメラの投影面に複数の目から構成されるメッシュを演算生成するメッシ ュ生成手順、
前記メッシュ生成手順により前記投影面に生成されたメッシュを、前記 3次元仮想 空間内の前記オブジェクトデータに示された前記大表面オブジェクトの表面位置に 投影して投影メッシュを設定する投影メッシュ設定手順、
前記投影メッシュを構成する各目について前記大表面オブジェクトの表面を部分 的にモデリングする部分モデリング手順、
前記部分モデリング手順により部分的にモデリングされた前記大表面オブジェクト の表面をレンダリングして前記投影面に前記表面の映像を演算生成するレンダリング 処理手順、
前記レンダリング処理手順により演算生成された前記表面の映像を前記モニタに 表示する表示手順を、
実行させるためのプログラムを有することを特徴とする、大表面オブジェクト表示 機能を有するゲームソフトウェア。
[2] 前記メッシュ生成手順は、
前記仮想カメラの前記大表面オブジェクトに対する位置から、前記投影面に投影 される該大表面オブジェクトにおける最も遠 ヽ表面位置の、前記投影面上の座標位 置を演算する、表面位置演算手順を有し、 前記メッシュは、前記表面位置演算手順により演算された前記投影面上の座標 位置よりも前記仮想カメラに近い部分について演算生成されることを特徴とする、 請求項 1記載の大表面オブジェクト表示機能を有するゲームソフトウェア。
[3] 前記メッシュ生成手順は、
前記仮想カメラの投影面を、水平及び垂直方向にそれぞれ均等に分割する形で 前記メッシュ生成する均等分割手順を有する、請求項 1記載の大表面オブジェクト表 示機能を有するゲームソフトウェア。
[4] 前記メッシュ生成手順は、前記投影メッシュ設定手順により設定される投影メッシュの 目が、仮想カメラ力も遠くなるほど大きくなるように、前記仮想カメラの投影面を分割 する形で前記メッシュを生成する、メッシュ分割手順を有する、請求項 1記載の大表 面オブジェクト表示機能を有するゲームソフトウェア。
[5] 前記部分モデリング手順は、
前記投影メッシュを構成する各目について、板ポリゴンをそれぞれ配置するポリゴ ン配置手順を有する、請求項 1記載の大表面オブジェクト表示機能を有するゲームソ フトウェア。
[6] 前記大表面オブジェクトは、海又は湖又は川を表現するオブジェクトであることを特 徴とする、請求項 1記載の大表面オブジェクト表示機能を有するゲームソフトウェア。
[7] 3次元仮想空間に配置される大きな表面を有する大表面オブジェクトの表面の映像 を仮想カメラで取得し、モニタに表示することの出来るゲーム装置において、
前記大表面オブジェクトの前記表面を、前記 3次元仮想空間に配置する際の配 置座標位置を記録したオブジェクトデータを前記コンピュータのメモリに格納するデ ータ格納手段、
前記仮想カメラの視野境界の下面を、前記大表面オブジェクトの表面が配置され る平面と交差する形で、前記 3次元仮想空間内に設定する仮想カメラ設定手段、 前記仮想カメラの投影面に複数の目から構成されるメッシュを演算生成するメッシ ュ生成手段、
前記メッシュ生成手段により前記投影面に生成されたメッシュを、前記 3次元仮想 空間内の前記オブジェクトデータに示された前記大表面オブジェクトの表面位置に 投影して投影メッシュを設定する投影メッシュ設定手段、
前記投影メッシュを構成する各目について前記大表面オブジェクトの表面を部分 的にモデリングする部分モデリング手段、
前記部分モデリング手段により部分的にモデリングされた前記大表面オブジェクト の表面をレンダリングして前記投影面に前記表面の映像を演算生成するレンダリング 処理手段及び、
前記レンダリング処理手段により演算生成された前記表面の映像を前記モニタ上 に表示する表示手段、
からなるゲーム装置。
PCT/JP2004/017152 2004-03-31 2004-11-18 大表面オブジェクト表示機能を有するゲームプログラム及びゲーム装置 WO2005101325A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP04821888A EP1734481A4 (en) 2004-03-31 2004-11-18 GAME PROGRAM AND GAME DEVICE HAVING LARGE SURFACE OBJECT DISPLAY FUNCTION

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-106044 2004-03-31
JP2004106044A JP3853329B2 (ja) 2004-03-31 2004-03-31 ゲームプログラム及びゲーム装置

Publications (1)

Publication Number Publication Date
WO2005101325A1 true WO2005101325A1 (ja) 2005-10-27

Family

ID=35096935

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/017152 WO2005101325A1 (ja) 2004-03-31 2004-11-18 大表面オブジェクト表示機能を有するゲームプログラム及びゲーム装置

Country Status (4)

Country Link
US (1) US20050233805A1 (ja)
EP (1) EP1734481A4 (ja)
JP (1) JP3853329B2 (ja)
WO (1) WO2005101325A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070150138A1 (en) 2005-12-08 2007-06-28 James Plante Memory management in event recording systems
US10878646B2 (en) 2005-12-08 2020-12-29 Smartdrive Systems, Inc. Vehicle event recorder systems
US8996240B2 (en) 2006-03-16 2015-03-31 Smartdrive Systems, Inc. Vehicle event recorders with integrated web server
US9201842B2 (en) 2006-03-16 2015-12-01 Smartdrive Systems, Inc. Vehicle event recorder systems and networks having integrated cellular wireless communications systems
US8649933B2 (en) * 2006-11-07 2014-02-11 Smartdrive Systems Inc. Power management systems for automotive video event recorders
US8989959B2 (en) 2006-11-07 2015-03-24 Smartdrive Systems, Inc. Vehicle operator performance history recording, scoring and reporting systems
US8868288B2 (en) 2006-11-09 2014-10-21 Smartdrive Systems, Inc. Vehicle exception event management systems
US8239092B2 (en) 2007-05-08 2012-08-07 Smartdrive Systems Inc. Distributed vehicle event recorder systems having a portable memory data transfer system
JP5087453B2 (ja) * 2008-03-31 2012-12-05 株式会社カプコン プログラム、記憶媒体およびコンピュータ装置
JP5078712B2 (ja) * 2008-04-01 2012-11-21 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム及び画像処理方法
KR20100132605A (ko) * 2009-06-10 2010-12-20 삼성전자주식회사 하이브리드 렌더링 장치 및 방법
JP5627526B2 (ja) * 2011-03-31 2014-11-19 株式会社カプコン ゲームプログラム、及びゲームシステム
US9728228B2 (en) 2012-08-10 2017-08-08 Smartdrive Systems, Inc. Vehicle event playback apparatus and methods
US9501878B2 (en) 2013-10-16 2016-11-22 Smartdrive Systems, Inc. Vehicle event playback apparatus and methods
US9610955B2 (en) 2013-11-11 2017-04-04 Smartdrive Systems, Inc. Vehicle fuel consumption monitor and feedback systems
US8892310B1 (en) 2014-02-21 2014-11-18 Smartdrive Systems, Inc. System and method to detect execution of driving maneuvers
US9663127B2 (en) 2014-10-28 2017-05-30 Smartdrive Systems, Inc. Rail vehicle event detection and recording system
US11069257B2 (en) 2014-11-13 2021-07-20 Smartdrive Systems, Inc. System and method for detecting a vehicle event and generating review criteria
JP6480215B2 (ja) 2015-03-06 2019-03-06 株式会社タチエス 車両用シート
US9679420B2 (en) 2015-04-01 2017-06-13 Smartdrive Systems, Inc. Vehicle event recording system and method
CN107679015B (zh) * 2017-09-08 2021-02-09 山东神戎电子股份有限公司 一种基于三维地图的云台摄像机实时监控范围仿真方法
CN109509243B (zh) * 2017-09-13 2022-11-11 腾讯科技(深圳)有限公司 一种液体仿真方法、液体交互方法及装置
CN111862291B (zh) * 2020-07-10 2024-01-09 完美世界(北京)软件科技发展有限公司 水系的烘焙方法及装置、存储介质、电子装置
CN111862324B (zh) * 2020-07-10 2023-07-28 完美世界(北京)软件科技发展有限公司 水系的烘焙方法及装置、存储介质、电子装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0636013A (ja) * 1992-07-14 1994-02-10 Hitachi Ltd 地形データの作成方法および装置
JPH08234657A (ja) * 1995-02-24 1996-09-13 Nissan Motor Co Ltd 車両用経路誘導装置
JPH0944698A (ja) * 1995-07-25 1997-02-14 Hitachi Ltd 模擬海洋波画像の生成方法および生成装置
JPH11250279A (ja) * 1997-11-20 1999-09-17 Real 3 D コンピュ―タ画像形成ジェネレ―ションシステムにおけるシルエット/フットプリント解析を用いた異方性テクスチャマッピング
JP2000222596A (ja) * 1999-01-29 2000-08-11 Toshiba Electronic Systems Co Ltd コンピュータグラフィックによる3次元海面画像のフラクタルレベル制御方法及びコンピュータグラフィックによる3次元海面画像のフラクタルレベル制御プログラムを記録したコンピュータ読み取り可能な記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010040586A1 (en) * 1996-07-25 2001-11-15 Kabushiki Kaisha Sega Enterprises Image processing device, image processing method, game device, and craft simulator
US6879324B1 (en) * 1998-07-14 2005-04-12 Microsoft Corporation Regional progressive meshes
WO2003044720A1 (en) * 2001-11-15 2003-05-30 Nintendo Software Technology Corporation System and method of simulating and imaging realistic water surface

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0636013A (ja) * 1992-07-14 1994-02-10 Hitachi Ltd 地形データの作成方法および装置
JPH08234657A (ja) * 1995-02-24 1996-09-13 Nissan Motor Co Ltd 車両用経路誘導装置
JPH0944698A (ja) * 1995-07-25 1997-02-14 Hitachi Ltd 模擬海洋波画像の生成方法および生成装置
JPH11250279A (ja) * 1997-11-20 1999-09-17 Real 3 D コンピュ―タ画像形成ジェネレ―ションシステムにおけるシルエット/フットプリント解析を用いた異方性テクスチャマッピング
JP2000222596A (ja) * 1999-01-29 2000-08-11 Toshiba Electronic Systems Co Ltd コンピュータグラフィックによる3次元海面画像のフラクタルレベル制御方法及びコンピュータグラフィックによる3次元海面画像のフラクタルレベル制御プログラムを記録したコンピュータ読み取り可能な記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1734481A4 *

Also Published As

Publication number Publication date
EP1734481A1 (en) 2006-12-20
US20050233805A1 (en) 2005-10-20
EP1734481A4 (en) 2008-02-20
JP2005293122A (ja) 2005-10-20
JP3853329B2 (ja) 2006-12-06

Similar Documents

Publication Publication Date Title
JP3853329B2 (ja) ゲームプログラム及びゲーム装置
JP4177381B2 (ja) 画像生成方法、画像生成装置、および画像生成プログラム
US6781598B1 (en) Entertainment apparatus, image generation method, and storage medium
EP1808207B1 (en) Storage medium having game program stored thereon and game apparatus
JP3625184B2 (ja) ゲーム用3次元画像処理方法、装置、ゲーム用3次元画像処理プログラムを記録した可読記録媒体及びビデオゲーム装置
JP2008250813A (ja) 画像生成装置、画像処理方法、および、プログラム
JP4305903B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP4193979B2 (ja) シャドウボリューム生成プログラム及びゲーム装置
JP4502678B2 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP3639286B2 (ja) ゲームプログラム、及びゲーム装置
JP3564440B2 (ja) 動画像生成プログラム、動画像生成方法及び装置
US6483520B1 (en) Image creating method and apparatus, recording medium for recording image creating program, and video game machine
JP4447000B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
EP1235187A1 (en) Image processor, image processing method, and storage medium
JP4469709B2 (ja) 画像処理プログラムおよび画像処理装置
JP3737784B2 (ja) 3次元画像処理プログラム、3次元画像処理方法及びビデオゲーム装置
KR20020013891A (ko) 영상들을 생성하는 방법 및 장치
JP3822882B2 (ja) ゲームプログラム及びゲーム装置
JP2005275795A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2007159817A (ja) ゲームプログラム、ゲーム装置及びゲーム方法
JP2005122479A (ja) プログラム、情報記憶媒体及び画像生成装置
JP2011031050A (ja) 画像生成システム、プログラム及び情報記憶媒体
JP3183636B2 (ja) 3次元ゲーム装置及び情報記憶媒体
JP4391633B2 (ja) 画像生成システム及び情報記憶媒体
JP2006068079A (ja) ゲームプログラム及びゲーム装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2004821888

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2004821888

Country of ref document: EP