WO1999024937A1 - Image generating device and image generating method - Google Patents

Image generating device and image generating method Download PDF

Info

Publication number
WO1999024937A1
WO1999024937A1 PCT/JP1998/005015 JP9805015W WO9924937A1 WO 1999024937 A1 WO1999024937 A1 WO 1999024937A1 JP 9805015 W JP9805015 W JP 9805015W WO 9924937 A1 WO9924937 A1 WO 9924937A1
Authority
WO
WIPO (PCT)
Prior art keywords
hit
data
polygon
image
moving path
Prior art date
Application number
PCT/JP1998/005015
Other languages
English (en)
French (fr)
Other versions
WO1999024937A9 (fr
Inventor
Masahito Kurosawa
Hajime Sugiyama
Original Assignee
Sega Enterprises, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Enterprises, Ltd. filed Critical Sega Enterprises, Ltd.
Priority to US09/341,189 priority Critical patent/US6657630B1/en
Priority to EP98951725A priority patent/EP0973132B1/en
Priority to JP52595799A priority patent/JP4226663B2/ja
Priority to DE69836805T priority patent/DE69836805T2/de
Priority to KR1019997006168A priority patent/KR100816622B1/ko
Publication of WO1999024937A1 publication Critical patent/WO1999024937A1/ja
Publication of WO1999024937A9 publication Critical patent/WO1999024937A9/ja
Priority to HK00104080A priority patent/HK1024767A1/xx

Links

Classifications

    • A63F13/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/663Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating liquid objects, e.g. water, gas, fog, snow, clouds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection

Definitions

  • the present invention relates to an image generation apparatus and an image generation method, and more particularly, to a more precise and detailed relationship between a moving object such as a game device moving in a virtual three-dimensional space and a surrounding environment such as a moving path thereof.
  • the present invention relates to an image generating device and an image generating method for realizing an expression.
  • a game device of this genre usually includes a device body having a built-in computer device for executing a game program stored in advance, an operation unit for giving an operation signal for commanding movement of an object represented by the game to the device body,
  • the main unit is provided with a monitor for displaying an image accompanying the game development when the game program is executed on the main body, and an audio device for generating a sound accompanying the game development.
  • the size of one polygon surface is set to be very small compared to the size of the tyre for the terrain representing the road surface and its surrounding environment, the entire terrain will increase its smoothness accordingly. Such a sudden change in the direction of hit determination is unlikely to occur.
  • setting the polygon surface in such a fine manner increases the amount of terrain data, which greatly increases the required storage capacity of the memory and significantly increases the computational load on the CPU of the computer device. It will be. Even if a memory with a large storage capacity can be provided, the processing speed of the entire device will decrease. The reduction in processing speed is very disadvantageous for modern game devices, and also affects marketability. For this reason, there was naturally a certain limit in setting the size of the polygon surface.
  • sand smoke is one of the very important factors in realistically expressing the running conditions such as road surface conditions, high speed and acceleration.
  • the viewpoint camera when an enemy vehicle accelerates and overtakes the own vehicle, the viewpoint camera sometimes enters a dusty atmosphere. In such a case, in the past, the viewpoint camera was actually in the fume of sand smoke, but in the tunnel, it was an unnatural state in which only the wall, that is, only the outer surface of the lump of sand smoke was visible. could only be generated.
  • factors that cause the moving vehicle to interfere with its surrounding environment include headlight and tail lamps that are lit, as well as light that reflects part of the vehicle body to virtual sunlight in the game space. is there. These are all factors that can be expressed as light diffusion or light glare.
  • the colors of the high-brightness objects themselves are expressed brightly or by using the effect of fog using a unit provided in hardware. Or, is it expressed by placing a single board that changes from transparent to opaque as it goes from the outer periphery of the light object to the center, toward the vehicle at the light emitting point? Method is adopted.
  • the present invention has been made in order to overcome the unresolved problems of the above-described game device.
  • the present invention has been made to solve the problem between the vehicle as a moving object and the surrounding environment without significantly increasing the amount of calculation and the amount of data. It is an object of the present invention to provide an image generating apparatus and an image generating method capable of expressing factors relating to mutual interference in a more realistic manner, enhancing the sense of realism of a game whose main theme is vehicle movement, and improving interest. , With a common purpose.
  • a first object of the present invention is to prevent a sudden change in the determination direction at the time of a hit determination that exceeds the joining of polygons without significantly increasing the amount of computation and the amount of data, and An image generation device and image generation method that performs a collision judgment with less and more naturalness and also considers the bumps and dips on the road surface to greatly enhance the realism and realism of vehicle behavior expression compared to conventional models. To provide.
  • a second object of the present invention is to express the feeling of particles caused by the haze of sand smoke and eliminate the sense of incongruity caused by the conventional flattened or artificial sand smoke without significantly increasing the calculation amount and data amount. It is an object of the present invention to provide an image generating apparatus and an image generating method capable of expressing sand smoke without a sense of incongruity in the haze state observed from the camera viewpoint even when the camera viewpoint is spatially located in the haze.
  • a third object of the present invention is to dynamically diffuse directional diffused light such as headlight, taillight, and reflected light emitted from a moving vehicle without significantly increasing the amount of calculation and data. It is an object of the present invention to provide an image generation apparatus and an image generation method capable of generating diffused light with improved reality by generating an image in a flexible manner. Disclosure of the invention
  • a hit establishment means for establishing a hit state between an object set by a polygon and a moving path in a virtual three-dimensional space;
  • Generating means for generating image data representing a state in which the object moves on the moving path while maintaining a state, wherein the hit establishing means includes a vertex given to a vertex of the polygon of the moving path.
  • Interpolating means for interpolating the hit establishment data at the hit position of the object from the data, and setting the hit of the object to the moving path according to the hit establishment data interpolated by the interpolating means.
  • a hit setting means for interpolating the hit establishment data at the hit position of the object from the data, and setting the hit of the object to the moving path according to the hit establishment data interpolated by the interpolating means.
  • the vertex data includes a height of each vertex and a normal vector
  • the hit establishment data includes a height of the hit position and a normal vector.
  • the interpolating means includes means for designating each of two sides of the polygon intersecting along the coordinate axis from the hit position, and first and second ridge lines based on vertex data at both ends of each side.
  • the first to third ridge lines are given by a cubic expression.
  • the image generating apparatus comprises: a hit establishment means for establishing a hit state between the object set by the polygon and the moving path in the virtual three-dimensional space; and the hit object while maintaining the hit state.
  • Image data generating means for generating image data representing a state in which the object moves on the moving path, wherein the hit establishing means expresses the hit establishing data at the hit position of the object by the polygon.
  • Correcting means for correcting according to the attribute of the moving path;
  • Hitting means for setting the hit of the object to the moving path according to the hit establishing data.
  • the hit establishment data is a height and a normal vector of the hit position.
  • the attribute of the moving path is the unevenness of the moving path, and the information of the unevenness uses density data given to the texture to be attached to the polygon.
  • the image generating apparatus includes a hit establishment means for establishing a hit state between an object set by a polygon and a moving path in a virtual three-dimensional space, and the hit object while maintaining this hit state.
  • Image data generating means for generating image data representing a state in which the object travels on the moving path, and the hit establishing means comprises: a hitting point of the object from vertex data given to a vertex of a polygon of the moving path.
  • An interpolating means for interpolating the hit establishment data at a position, a correcting means for correcting the hit establishment data interpolated by the interpolation means in accordance with an attribute of the moving path expressed by the polygon;
  • Hit setting means for setting the hit of the object to the moving path in accordance with the hit establishment data corrected by Having the following.
  • the hit establishment data is the height of the hit position and the normal vector.
  • the diffuse light for controlling the image data of the diffuse light emitted from the light source of the object moving in the virtual three-dimensional space according to the moving state of the object A control unit; and a generating unit configured to generate image data representing a moving state of the object including the image data of the controlled diffused light.
  • the diffused light control means determines a light source vector representing a direction of the light source and a line-of-sight vector representing a direction of a camera viewpoint in the virtual three-dimensional space, and image data of the diffused light.
  • the changing means includes: Infinite when vector directions match This is a means for changing the size of the polygon by multiplying it by a large divergence coefficient.
  • the sand smoke control means for controlling the image data of the sand smoke generated by the object moving in the virtual three-dimensional space according to the moving state of the object; Generating means for generating image data representing the moving state of the object including the image data of the obtained sand and smoke.
  • the sand / smoke control unit determines the image data of the sand / smoke as a plurality of two-dimensionally arranged polygons, and obtains a degree of physical influence of a factor including a behavior of the object. Means for calculating the behavior of each of the plurality of polygons in accordance with the degree; and means for connecting the plurality of polygons to each other and reconstructing them as a polygon aggregate in accordance with the result of the calculation. It is. Further, for example, the sand smoke control means may include a means for applying a difference in transparency and a fog-like appearance to the reconstructed polygon aggregate to the likeness of sand smoke.
  • the object may be a car of a car racing game moving in the virtual three-dimensional space.
  • the image generation method is an image generation method, comprising: establishing a hit state between an object set by a polygon in a virtual three-dimensional space and a moving path; An image generation method for generating data, wherein data for establishing a hit at the hit position of the object is obtained by interpolating from a vertex data given to a vertex of the polygon of the moving path, and the interpolated hit is obtained. Setting a hit of the object to the moving route according to the establishment data.
  • the image generation method provides a state in which the object moves on the moving path while establishing a hit state between the object and the moving path set by the polygon in the virtual three-dimensional space.
  • An image generation method for generating image data Then, the hit establishment data at the hit position of the object is corrected according to the attribute of the moving path represented by the polygon, and the movement of the object is corrected according to the corrected hit establishment data. It is characterized in that a road hit is set.
  • the direction of the diffused light emitted from the light source of the object moving in the virtual three-dimensional space matches the direction of the camera viewpoint in the space.
  • the size and intensity of the diffused light are increased.
  • the sand and smoke generated by the object moving in the virtual three-dimensional space is deformed according to the behavior of the object, and the transparent smoke is extended to the outer edge thereof. Is increased.
  • FIG. 1 is a block diagram showing a configuration of a game device according to one embodiment of the present invention.
  • FIG. 2 is a diagram showing a main flow executed mainly by a CPU.
  • Figure 3 is a subflow diagram showing the outline of the hit determination process.
  • Figure 4 is a schematic diagram showing the arrangement of a large number of polygons that make up the road surface.
  • FIG. 5 is a diagram for explaining a procedure of an interpolation process in a polygon in the hit determination process.
  • FIG. 6 is a diagram for explaining a procedure of an interpolation process in a polygon in the hit determination process.
  • FIG. 7 is a diagram for explaining a procedure of interpolation processing in the polygon in the hit determination processing.
  • FIG. 1 is a block diagram showing a configuration of a game device according to one embodiment of the present invention.
  • FIG. 2 is a diagram showing a main flow executed mainly by a CPU.
  • Figure 3 is a subflow diagram showing the outline of the hit determination process
  • FIG. 8 is a diagram for explaining a procedure of a bump correction process in the hit determination process.
  • FIG. 9 is a diagram for explaining a procedure of a bump correction process in the hit determination process.
  • FIG. 10 is a diagram for explaining a procedure of a bump correction process in the hit determination process.
  • FIG. 11 is a diagram for explaining a procedure of a bump correction process in the hit determination process.
  • Fig. 12 is a diagram for explaining the outline procedure of the sand smoke generation process.
  • Fig. 13 is a diagram for explaining the process of generating sand smoke.
  • Figure 14 is a diagram for explaining the process of generating smoke.
  • Figure 15 is a diagram for explaining the process of generating sand smoke.
  • Figure 16 is a diagram for explaining the process of generating sand smoke.
  • FIG. 17 shows the process of expressing diffused light. The figure for demonstrating an outline procedure.
  • FIG. 18 is a diagram for explaining a diffuse light expression process.
  • FIG. 19 is a diagram for explaining a diffused light expression process.
  • FIG. 20 is a diagram for explaining diffused light expression processing.
  • FIG. 21 is a diagram for explaining a diffused light expression process.
  • the game device shown in FIG. 1 is one mode of implementing the image generation device and the image generation method according to the present invention, and is a device for executing a car racing game.
  • This device includes a game processing board 10, an input device 11, an output device 12, a TV monitor 13, and a speed 14 as its basic elements.
  • the input device 11 includes a handle, an accelerator, a brake, a shift lever, a view switch, and the like.
  • the output device 13 includes a handle kickback mechanism, various display lamps, and the like.
  • the TV monitor 13 displays an image of a racing game, and a projector may be used instead of the TV moeta.
  • the view change switch is a switch for changing the position of a virtual camera viewpoint. By operating this switch, the player can select, for example, a viewpoint in front of the driver's seat or a viewpoint of the vehicle viewed diagonally from behind.
  • the game processing board 10 has a counter 100, a CPU (Central Processing Unit) 101, an R MMl 0 2 as a storage medium storing operation programs and data of the game apparatus, and a RAM 10 3.
  • Sound device 104 input / output interface 106, scroll data calculation device 107, coprocessor (auxiliary calculation processing device) 108, terrain data ROM 109, geometallizer 110, shape Equipped with data ROM 1 1 1, drawing device 1 1 2, texture data ROM 1 1 3, texture map RAM 1 1 4, frame buffer 1 1 5, image synthesis device 1 1 6, and DZA converter 1 1 7 .
  • CPU 101 counts down from the initial value via the bus line.
  • Counter 100 R ⁇ iM 102 storing predetermined programs and image processing programs, RAM 103 storing operation data, sound device 104, input / output interface 106, scroll data operation device 107, coprocessor 108, and geometallizer 110 are connected.
  • RAM I03 functions as a buffer, and is used to write various commands to the geometallizer (display of objects, etc.) and to write data required for various calculations including conversion matrix calculations. Is done.
  • the input / output interface 106 is connected to the input device 11 and the output device 12, and various operation signals and detection signals of the input device 11 are taken into the CPU 101 as digital quantities. In addition, a signal generated by the CPU 101 or the like can be supplied to the output device 12.
  • the sound device 104 is connected to a speaker 14 via a power amplifier 105. As a result, the acoustic signal generated by the sound device 104 is power-amplified and output from the speaker 14 as sound.
  • the CPU 101 operates the operation signal from the input device 11 and the terrain data from the terrain data ROM 109 or the morphology data from the shape data ROM 111 based on the program stored in the ROM 102.
  • (3D data such as “objects such as own car and enemy car” and “background such as road surface, terrain, sky, spectators, and various structures”).
  • the car behavior calculation simulates the movement of the car in a virtual three-dimensional space (game space) using operation signals from a player from the input device 11. To do this, after the coordinate values of the car's polygons in the virtual three-dimensional space have been determined, a transformation matrix and shape data (polygon data) for transforming these coordinate values into a two-dimensional view coordinate system are obtained. Geometallizer 1 1 0 is specified.
  • the terrain data ROM 109 is connected to the processor 908, and predetermined terrain data is stored in the processor. Passed to the server 108 and the CPU 101.
  • the coprocessor 108 is mainly designed to undertake floating-point calculations when judging the contact between the terrain and the car and calculating the behavior of the car. For this reason, the calculation load on the CPU can be reduced.
  • the geometallizer 111 is connected to the shape data ROM 111 and the drawing device 112. As described above, the shape data ROM 111 stores in advance shape data composed of a plurality of polygons (three-dimensional data of a car, terrain, background, etc. composed of three or more vertices). This shape data is passed to the geometalizer 110.
  • the geometallizer 110 is a transformation matrix specified by the CPU 101, performs perspective transformation of the specified shape data, and obtains shape data converted from a coordinate system in a three-dimensional virtual space to a visual field coordinate system.
  • the drawing device 112 attaches a texture to the converted shape data of the view coordinate system, and outputs the texture data to the frame buffer 115.
  • the drawing device 112 is connected to the texture data ROM 113 and the texture map RAM 114 and also connected to the frame buffer 115.
  • the polygon data refers to a coordinate data group of relative or absolute coordinates of each vertex of a polygon (polygon: mainly triangle and quadrangle) composed of a set of three or more vertices.
  • the terrain data ROM 109 stores relatively coarsely set polygon data that is sufficient for executing a predetermined judgment (such as a hit judgment).
  • the shape data ROM 111 stores polygon data more precisely set with respect to the shape of the screen such as the car and the background.
  • the scroll data computing device 107 calculates scroll screen data such as characters (stored in the ROM 102).
  • the arithmetic unit 1 7 and the frame buffer 115 reach the TV monitor 13 via the image synthesizing unit 116 and the DZA converter 117.
  • the polygon screen (simulation result) such as the car and terrain (background) temporarily stored in the frame buffer 115 and the scroll screen for character information such as speed and lap time are synthesized according to the specified priority.
  • Final image data is generated for each frame and at a certain timing. This image data is converted to an analog signal by the DZA converter 117, sent to the TV monitor 13 and displayed in real time as a game screen.
  • FIG. 2 shows a main routine of the image generation processing.
  • This main routine is repeatedly executed by the CPU 101 every one field (1/60 second) synchronized with the display interrupt, for example.
  • the image screen at least a vehicle and a road surface as a moving path on which the vehicle travels are formed by a plurality of polygons (for example, triangular polygons).
  • each vertex of each polygon representing the road surface is given height information from the reference position in the three-dimensional virtual space (that is, vertex position information) and a normal vector at the vertex position.
  • the information is stored in the memory in advance.
  • the CPU 101 reads the operation information of the player detected by the input device 11 and the calculation information calculated at the time of the previous interrupt (step 201).
  • the operation information includes a handle angle, an accelerator angle, and the like operated by the player.
  • the computation information also includes information on the position of the host vehicle and enemy vehicles, information on vehicle behavior, and special effect information such as sand smoke and diffused light, processed by the CPU 101.
  • the own vehicle is managed by the CPU 101 based on the operation information, but the enemy vehicle is independently managed by the CPU 101 based on a prior program.
  • Step 202 based on the operation information and the calculation information at the previous interrupt (the position of the own vehicle, the position of the enemy vehicle, the traveling direction, etc.), a collision determination position (wheel contact position) of each vehicle at the time of the current interrupt is calculated. (Step 202).
  • step 203 the CPU 101 executes a hit determination process for each hit determination position of each vehicle.
  • step 204, 205 the CPU 101 executes a hit determination process for each hit determination position of each vehicle.
  • the CPU 101 further calculates the vehicle behavior reflecting the operation information and the collision judgment result (step 206), creates a perspective transformation matrix, specifies it (step 207), and draws the drawing. Specify the necessary polygon data, etc. (Step 208).
  • the image data is updated for each interrupt, and the image accompanying the development of the force racing game is displayed on the TV monitor 13 together with other character information.
  • the player can perform a game by giving a desired operation input from the input device 11 while watching the display screen.
  • FIG. 3 shows a subroutine of the process performed in step 203.
  • this routine from among a plurality of polygons PG forming a road surface set as exemplified in FIG. 4, a polygon to be subjected to a collision determination to which a collision determination point calculated for each vehicle belongs is represented in a virtual three-dimensional space. (Step 203a) D Then, the height of the collision detection position and the normal vector are calculated more newly in the target polygon (step 203b). This calculation method will be described below.
  • the target polygon is polygon ABC
  • the judgment point located therein is P (P, Pz). If the decision point P is parallel along the X axis, the point reaches the side AB or BC of the polygon ABC. Let their intersections be P AB and P BC .
  • FIGS. 5 and 6 it can assume a curve connecting the segment apex of height y A height y B to definitive line segment vertices and the point B of the point A. This curve is called a ridgeline.
  • coefficients a, b, c, and d that define the ridge line for points A and B are calculated each time in real time, or are calculated in advance and stored as coefficient table data in memory. It may be read out each time. The latter is more advantageous in terms of processing speed.
  • the function value ⁇ AB (P AB ) at the intersection P AB is obtained from the function f AB by the above equation (1) using the coefficients a, b, c, and d obtained by calculation or by reading. Therefore , the coordinates of the point P AB are (P x ′, f ⁇ ( ⁇ '), ⁇ ⁇ ). Here, it is the coordinate position of the intersection with AB when ⁇ ⁇ ' ⁇ is moved along the X axis.
  • the function value at that time is P '.
  • the intersection P B on the side BC Calculate the coordinates on c and the normal vector.
  • the sides of the target polygon used for this calculation are not limited to the side AB and the side BC, and the sides AC and AB that reach the hit judgment point P in parallel with the z-axis may be used. Good. In short, just use any two sides.
  • the CPU 101 performs a process of adding a fine correction depending on the bump (unevenness) of the road surface to the height of the collision determination point P and the normal vector (step 203c, 203 d, 203 e).
  • This correction process is performed by regarding the density of the bump texture as height information representing road surface unevenness, and this process is referred to as bump correction.
  • bump correction it is characteristic that the attribute of the texture to be attached to the polygon is used for bump correction (that is, ultimately the hit judgment).
  • the attribute of the texture to be attached to the polygon is used for bump correction (that is, ultimately the hit judgment).
  • bump correction by regarding the object as bump information.
  • step 203c it is determined using a flag or the like whether or not a bump texture has been applied to the target polygon. If no bump texture has been applied (NO), step 203d is skipped. If the bump texture is applied (YE S), the height and the normal vector of the hit determination position based on the bump texture are calculated in step 203d. This calculation processing will be described in detail below.
  • mapping of three points in the uV coordinate system of the texture and the Xz coordinate system of the polygon is represented by the following matrices M and M M.
  • M and M M the mapping of three points in the uV coordinate system of the texture and the Xz coordinate system of the polygon
  • each of the four pixels has height data ⁇ . 0, ⁇ 1 0, ⁇ 1 ⁇ , has a T 0 1.
  • This height data corresponds to both pixels on one side parallel to the V axis. . ⁇
  • T u . , T ul are calculated by linear interpolation.
  • T corresponding to both pixels on one side parallel to the u-axis. . ⁇ T.
  • T ⁇ corresponding to both pixels on the other side.
  • Position u for ⁇ T i. At height T. v and ⁇ ⁇ ⁇ are calculated by linear interpolation.
  • the inclination of the height data TuO to Tul taken along a line parallel to the u-axis is obtained, and this is obtained as a point (u., V.).
  • Is regarded as the partial differential value ( slope) in the u-axis direction at.
  • the slope of the height data T 0 V to T 1 V taken along a line parallel to the V axis is obtained, and this is calculated as the partial differential value in the v axis direction at the point (u, v.).
  • the two inclinations are converted into tangent vectors du and dv in the u and V axes, respectively, and are converted from the uV coordinate system of the texture to the Xz coordinate system of the polygon using the matrix M described above. I do. Furthermore, a straight line that is orthogonal to both of the two transformed tangent vectors du and d ⁇ hits each other and becomes a bump-corrected normal vector at the judgment point P (PX, Pz) (see FIG. 10). The bump-corrected height of the collision determination point P (PX, Pz) is calculated by performing bi-linear interpolation on the height data of the four pixels.
  • the CPU 101 shifts to step 203e in FIG. 3 to interpolate the final height and the normal vector of the hit determination position by the polygon calculated in step 203b described above.
  • the data (height, normal vector) and the bump interpolation data (height, normal vector) calculated in step 203d are synthesized. Regarding the height, both are adjusted.
  • the normal vector is converted as follows. Now, let the normal vector n be obtained by interpolation using polygons and the normal vector m be obtained by bump correction. Since the vector m is the normal direction when the vector n is directly above (0, 1, 0), the conversion that converts (0, 1, 0) to the vector n accordingly. Find the matrix (see Fig. 11). Next, the vector m is converted by this conversion matrix. This transformed vector m is the final synthesized normal vector.
  • the height and normal vector data interpolated in the polygon are further finely corrected by bump correction.
  • the collision between the vehicle tire and the target polygon is determined using the final height data of the collision detection position and the normal vector data obtained as a result (Fig. 3, step 203f). ).
  • the above-described series of hit determination processing is repeatedly executed at regular small time intervals, and a continuous hit determination is performed for each tire, own vehicle, and enemy vehicle, and the hit processing is performed.
  • the height and the normal vector at the hit determination position are interpolated from the polygon data. For this reason, even when the collision determination position has an angle difference on the polygon surface and moves from one polygon to another polygon, the direction of the normal vector used for the collision determination direction is much smoother than the conventional method. Changes to The direction of the judgment also changes smoothly, and the accuracy of the hit judgment is improved as compared with the conventional method, so that it is possible to make the player feel comfortable.
  • the height and the normal vector once interpolated by the polygon as described above are further corrected in two steps by bump correction using density data which is a texture attribute. Has been adopted. For this reason, after a global change in the height of the road surface is smoothly captured, the collision judgment is performed with the height and the normal vector that precisely reflect the fine irregularities on the road surface. At higher elevations, it is possible to simulate vehicle behavior that more accurately captures the attributes of the road surface.
  • interpolation processing based on polygon data and bump correction processing based on texture need not necessarily be performed in combination with each other. Even when only one of them is performed independently, compared with the conventional hit determination, The advantage is that the accuracy of the determination is very high.
  • FIG. 12 shows an outline of the processing procedure.
  • polygon data representing sand smoke an aggregate of polygons in a grid is stored in memory in advance.
  • Fig. 13 schematically shows an example of this aggregate, which is a two-dimensional mapping where the vertical direction R is the dimension of smoke resolution and the horizontal direction T is the time axis. .
  • the number of polygons may be appropriately determined in consideration of the display accuracy and the calculation load.
  • Each polygon vertex has the current spatial position, velocity, and other parameters when calculating the smoke.
  • Become Since the process of displaying the aggregate of polygons of sand smoke while deforming according to various factors is performed, the connection information connecting the vertices of the polygons as a grid is used as image data. The shape of the entire sand smoke is determined by deformation.
  • sand smoke parameters wind direction and strength, gravitational acceleration, air resistance, etc. are adopted as sand smoke parameters.
  • each polygon set by this sequence of operations, to reconstruct the object representing the sand cloud using a connecting data between the vertices (Step 2 0 3 3). This returns it to a single shape, and when displayed, each vertex behaves like sand smoke.
  • Various processing is further applied to the deformed polygonal aggregate to further emphasize the likeness of sand smoke (step 2304). This processing includes: (1) processing to increase the transparency as the polygon is drawn in the time axis T direction, and (2) making the boundary between the topmost borrigon and the background less noticeable when the entire sand smoke is viewed from the side. (3) Apply fog of the same color as the smoke so that there is no sense of incongruity even when the camera viewpoint enters the atmosphere of sandy smoke, and For example, a process of increasing the density as the density approaches the center of the sand smoke.
  • the sand smoke is represented by the polygon aggregate
  • the vertices of the polygons are set by the physical calculation
  • the sand aggregate is displayed by drawing the tail of the polygon aggregate.
  • the movement of the front row polygon during the previous processing is reflected in the back row polygon, and the amount of sand and smoke parameters mainly including environmental factors such as wind direction and strength, gravitational acceleration, and air resistance are reflected. ing.
  • the sand smoke SS flutters like a tail from the wheel and spreads out toward the front, and its shape is freely adjusted according to the amount of various sand smoke parameters. change.
  • the overall density of the smoke increases as it goes upward and backward.
  • the particle density of the smoke is displayed so that it decreases as it goes in those directions, and the outline of the lump of smoke is blurred.
  • the camera viewpoint at the player's position of the own vehicle moves the enemy vehicle into the atmosphere of the sand smoke SS, which rolls up. You may get into it.
  • the screen gives an illusion as if the contents had entered an empty sand smoke tunnel. Was not displayed.
  • fog of the same color as the sand smoke is applied, and a screen with a higher density of fog is displayed at the center, so that the original state in which the contents of the sand smoke are clogged can be expressed. it can. Eliminates the sense of incongruity caused by conventional methods, expresses very realistic sand smoke, and enhances the sense of reality in games
  • this fog processing enables the use of screen clipping processing (processing that does not display an object when it comes closer than a certain distance), avoiding unnatural display and reducing computational processing. Can be achieved.
  • step 205 of FIG. 2 The CPU 101 performs this diffused light expression processing as one of the special effect processing of the force racing game, following the processing of generating sand smoke, to create a sense of realism on the display screen.
  • This process will be described with reference to FIGS. Figure 17 shows an outline of the processing procedure.
  • FIG. 18 shows the positional relationship between the vehicle and the camera viewpoint in the three-dimensional virtual space. If the matrix indicating the spatial relationship of the vehicle is Mc and the matrix indicating the spatial relationship from the camera viewpoint is Me, these matrices are expressed as follows.
  • V c (0 0 1) m c 1 0 m c 1 1 m c 1 2
  • V e (0 0 1) m e l O m e l l m e 1 2
  • the angle between these two directional vectors is determined (step 2042). Specifically, this angle can be calculated by calculating the inner product of two vectors and calculating the direction cosine. That is, the direction cosine is
  • the reciprocal 1 / s i ⁇ ⁇ is calculated (step 2044).
  • the function 1 / sinO draws a curve that diverges to infinity only when the two directional vectors Vc and Ve are parallel to each other (see Fig. 20). This function is made to function as a magnification factor for the display of the diffused light as described later.
  • one light source polygon PGL (preferably one polygon per light source) is placed at the light source position such as the headlight of the vehicle.
  • a process is performed to enlarge the gon in the direction of a plane that intersects perpendicularly with the line of sight with the function 1 / s 2 ⁇ (step 2 0 4 5). Since the light source polygon does not always directly face the line-of-sight vector, the angle between the light polygon and the light source vector (vehicle direction vector) is calculated during the enlargement process.
  • the optical polygon When the optical polygon is enlarged and deformed in an elliptical shape according to this angle (in the three-dimensional virtual space, the X-axis direction or the ⁇ -axis direction is expanded in an elliptical shape), when facing directly (that is, the light source polygon is the line-of-sight vector). Also, processing to enlarge in a circle is performed.
  • the light source polygon maps a transparent to opaque light source color from its outline to the center.
  • FIG. 21 (a) shows an initial state of the rendering process for the light source, and the shape of the light source is a circle or an ellipse having a small diameter.
  • the shape change of the light source is not limited to the one shown here, but can be various shapes such as a star shape.
  • the light emission state when the camera's viewpoint matches the direction of the vehicle is expressed by the diffused light being larger than the display screen.Therefore, there is a large impact on the player, and the game has a large impact. This can excite people's interests and provide images that are easy to grasp intuitively.
  • the processing of expressing the diffused light is not limited to the headlights of the vehicle, but may be performed by a tail lamp or both. Further, the process of expressing the diffused light can be suitably performed when expressing the diffused state of sunlight reflected on the glass surface of the cockpit of a fighter in a fighter game.
  • the present invention is not limited to a case where the present invention is applied to a game device as an image generating device for performing a car racing game.
  • the present invention can be suitably applied to a game device that moves an object as a moving object on a moving path set in a virtual three-dimensional space, such as a water boat race and a skateboard game.
  • any object that is emitted from a moving object and displayed for the purpose of producing the result of the movement may be used.
  • the present invention can more realistically express a factor relating to mutual interference between a vehicle as a moving object and its surrounding environment without significantly increasing the amount of calculation and the amount of data. It is possible to provide an image generation device and an image generation method that can enhance the sense of realism of a game in which the movement of a vehicle is the main theme and can also enhance the sense of interest.
  • diffuse images with directivity such as headlights, taillights, and reflected light emitted from moving vehicles can be dynamically generated as images to express diffused light with improved reality.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

明 細 書
画像生成装置および画像生成方法 技術分野
本発明は、 画像生成装置および画像生成方法に関し、 特に、 ゲーム装置などの ように仮想 3次元空間内を移動させる移動体とその移動路などの周囲環境との間 の関わり具合をより緻密にかつリアルに表現するようにした画像生成装置および 画像生成方法に関する。 背景技術
近年のコンピュータグラフィックス技術の発達に伴い、 業務用、 家庭用を問わ ず、シミュレ一ション装置やゲーム装置が広く一般に普及するようになっている。 ゲーム装置の一つのジャンルとして、 仮想ゲーム空間內でォブジェク 卜としての 車両を移動させて競争する力一レースをゲーム内容とするゲーム装置があり、 根 強い人気を得ている。
このジャンルのゲーム装置は通常、 予め記憶したゲームプログラムを実行する コンピュータ装置を内蔵した装置本体と、 ゲームで表現されるォブジェク トの移 動を指令する操作信号を装置本体に与える操作部と、 装置本体でゲームプロダラ ムが実行されることによるゲーム展開に伴う画像を表示するモニタと、 そのゲ一 ム展開に伴う音響を発生させる音響装置とを備えている。
カーレースゲームは通常、 自車と敵車とが競争する形式でゲームが進められる ので、 ゲームをより リアルにかつ臨場感溢れるものにする上で、 車両の動きをよ り リアルにシミュレートすることが需要であることは勿論のこと、 背景の一部と なる道路や地形 (環境) との関わり具合、 さらに車から周囲環境への関わりとい つた要素を反映した画像処理の緻密さリアルさも重要なファクタである。
しかしながら、 このカーレースをゲーム内容とする従来のゲーム装置の場合、 上述したように車両の走行に伴って発生する車両と周囲環境との間の相互干渉の ファタタを画像として表現する上で、 以下のような未解決の問題が指摘されてい た。
( 1 ) 車両の走行状態を画像表現するには、 一定時間毎に地形と車両のタイヤ (車輪) との当たりを判定することが必要である。 地形は近年では地形を細かく 区分けした適宜な数のポリ ゴンデータにより表現されている。 各ポリゴンデータ はその複数の頂点の位置座標とそのボリゴン面全体で 1つの法泉べク トルのデー タとを有している。従来の当たり判定はポリゴン面そのもの (ポリゴン面の座標) に対して行う構成であったため、 ポリ ゴン同士が比較的大きな角度を持って隣接 しているような場合、 その繋ぎめを超えたときの当たり判定の方向が急激に変化 することがあり、 車両が不自然な挙動を呈していた。 例えば、 比較的滑らかに見 える路面部分を走行していたにも闋わらず、 ポリゴン面同士の角度が大きかった ために、 車両の向きがロール方向、 ピッチ方向、 さらにはョ一方向に急変し、 遊 戯者に違和感を与えてしまっていた。
勿論、 路面やその周囲環境を表す地形に対して 1つのポリ ゴン面の大きさをタ ィャの大きさに比べて非常に小さく設定すれば、 その分、 地形全体は滑らかさを 増すから、 そのような当たり判定の方向の急変は起こり難い。 しかし、 そのよう にポリゴン面を細かく設定することは、 地形のデータ量がその分増えることであ り、 メモリ に必要な記憶容量が非常に大きくなり、 コンピュータ装置の C P Uへ の演算負荷も著しく増えることとなる。 仮に、 記憶容量の大きなメモリは装備で きたとしても、 装置全体の処理速度は低下してしまう。 処理速度の低下は昨今の ゲーム装置にとって非常に不利なものであり、 市場性にも影響する。 このため、 ポリゴン面の大きさの設定には自ずと一定の限界があった。
またポリゴン面同士にわたる挙動変化のみならず、 各ポリゴン面上の細かい 凸を反映した車両の挙動もリアル感を向上させる上で非常に重要である。 従来、 これを表現しよう とする場合、その凹凸の高さ情報を予めポリゴン (テクスチャ) 毎に持たせておき、 この凹凸の高さ情報との間で当たり判定をとる必要があり、 データ量および演算量が膨大になり、 実際上不可能であった。
さらに、 車両の挙動が周園環境に及ぼすファクタの 1つに走行に伴う路面、 地 面からの砂煙の発生がある。 この砂煙は路面状態や高速、 加速といった走行状態 をリアルに表現する上で、 非常に大切なファクタの 1つである。
それにも関わらず、 従来、 この砂煙の画像処理は非常に難しく、 その表現の出 来栄えとの兼ね合いから砂煙は表現しないことが多かった。 この砂煙を敢えて表 現する場合、 単に砂煙のもや (固まり) の外表面を表現する 1枚または複数枚の ポリゴンを背景などに 3次元的に重ねて表示していた。 このため、 輪郭が非常に 目立たつ砂煙のもやとしての物体を車両の後方に飛ばすことで表現していた。 しかしながら、 実際には一見して砂煙とは見えないことが多く、 非常に人為的 に見える画像になっていた。 このため、煙をなす粒子という感覚を表現するため、 煙のポリゴンの存在感を落とした画像処理で粒子感を代替させることが多く、 そ のような場合、 砂煙としての臨場感に不足していた。 また、 例えば敵車が加速し ながら自車を追い越していく ときに、 視点カメラが位置的に砂煙の雰囲気中に入 つてしまうことがある。 そのような場合、 従来では、 視点カメラは実際には砂煙 のもやの中に在りながら、 トンネルの中に入ってその壁のみ、 すなわち砂煙の固 まりの外表面のみが見えるという不自然な状態の画像しか生成できなかった。
さらに、 移動している車両がその周囲環境に干渉するファクタとして、 車両の 点灯しているヘッ ドライ トゃテールランプ、 さらには車体の一部がゲーム空間内 の仮想的な太陽光に反射する光がある。 これらはいずれも光の拡散または光のま ぶしさとして表現できるファクタである。
従来のゲーム装置において、 これらの輝度の高い物体を表現する場合、 その物 体自体の色を明るく表現するか、 ハード的に備えているュニッ トを使った霧の効 果を利用して表現するか、 さらにはその光物体の外郭から中心に進むにつれて透 明から不透明に変化する 1枚の板を自車に向けて発光点に置く ことで表現するか の手法を採用している。
しかし、 これらの手法はいずれも動く物体からの拡散光の本質的性質である指 向性を表現することができず、 単に光っていることを表しているだけであって、 移動中の車両がダイナミックに光を出すといった感覚に欠けていた。 また、 とく に、 3番目の手法の場合、 ヘッ ドライ トを例に挙げると、 かかる車両を後ろから 見た場合でも光が拡散しているという不自然な状態になってしまう。
本発明は、 上述したゲーム装置が有する未解決の問題を克服するためになされ たもので、 演算量やデータ量を格別に増大させることなく、 移動体としての車両 とその周囲環境との間の相互干渉に関わるファクタを、 より リアルに表現でき、 車両の移動をメインテーマとするゲームの臨場感を高め、 また興味感を向上させ ることができる画像生成装置および画像生成方法を提供することを、 共通の目的 とする。
具体的には、 本発明の第 1の目的は、 演算量やデータ量を格別増大させること なく、 ポリゴン同士の繋ぎめを超えた当たり判定のときの判定方向の急変を防止 して、 違和感の少ない、 より自然な当たり判定を行うとともに、 路面の凹凸をも 考慮した当たり判定を行うことで、 車両挙動表現のリアル感、 臨場感を従来より も格段に高めた画像生成装置および画像生成方法を提供することである。
本発明の第 2の目的は、 演算量やデータ量を格別増大させることなく、 砂煙の もやによる粒子感を表現して従来ののつぺり した又は人為的な砂煙による違和感 を排除するとともに、 カメラ視点がもやの中に空間的に位置した場合でも、 その カメラ視点から観測されるもや状態の違和感を排除した砂煙を表現できる画像生 成装置および画像生成方法を提供することである。
本発明の第 3の目的は、 演算量やデータ量を格別増大させることなく、 移動し ている車両から発せされるへッ ドライ ト、 テールライ ト、 反射光といった指向性 を持った拡散光をダイナミ ックに画像生成して、 リァリティを向上させた拡散光 を表現できる画像生成装置および画像生成方法を提供することである。 発明の開示
上記目的を達成するため、 第 1の発明に係る画像生成装置によれば、 仮想 3次 元空間にポリゴンで設定したオブジェク トおよび移動路の間の当たり状態を確立 する当たり確立手段と、 この当たり状態を保持しながら前記オブジェク トが前記 移動路を移動する状態を表す画像データを生成する生成手段とを備え、 前記当た り確立手段は、 前記移動路のポリ ゴンの頂点に与えられた頂点データから前記ォ ブジェク トの当たり位置における当たり確立用データを補間して求める補間手段 と、 この補間手段により補間された当たり確立用データに応じて前記オブジェク トの前記移動路への当たりを設定する当たり設定手段とを有する、 ことを特徴と する。
例えば、 前記頂点データは各頂点の高さと法線べク トルから成り、 前記当たり 確立用データは前記当たり位置の高さおよび法線ベク トルから成る。また例えば、 前記補間手段は、 前記当たり位置から座標軸に沿って迪つて交差する前記ポリゴ ンの 2辺それぞれを指定する手段と、 前記各辺の両端の頂点データに基づく第 1 および第 2の稜線を設定する手段と、 この各稜線上で前記 2辺との交差点それぞ れのデータを求める手段と、 前記 2辺との交差点を両端とする線分の第 3の稜線 を指定する手段と、 この第 3の稜線上で前記交差点それぞれのデ一タから前記当 たり判定位置の前記当たり確立用データを求める手段とを有する。 好適には、 前 記第 1乃至第 3の稜線は 3次式で与えられる。
さらに、 第 2の発明に係る画像生成装置は、 仮想 3次元空間にポリ ゴンで設定 したオブジェク トおよび移動路の間の当たり状態を確立する当たり確立手段と、 この当たり状態を保持しながら前記オブジェク トが前記移動路を移動する状態を 表す画像データを生成する画像データ生成手段とを備え、前記当たり確立手段は、 前記オブジェク トの当たり位置での当たり確立用データを前記ポリ ゴンで表現す る前記移動路の属性に応じて補正する補正手段と、 この補正手段により補正され た前記当たり確立用データに応じて前記オブジェク トの前記移動路への当たりを 設定する当たり設定手段とを有する、 ことを特徴とする。
例えば、 前記当たり確立用データは前記当たり位置の高さおよび法線べク トル である。 また例えば、 前記移動路の属性はその移動路の凹凸であり、 この凹凸の 情報は前記ポリ ゴンに貼り付けるテクスチャに与えられた濃淡データを用いる。
さらに、 第 3の発明に係る画像生成装置は、 仮想 3次元空間にポリ ゴンで設定 したオブジェク トおよび移動路の間の当たり状態を確立する当たり確立手段と、 この当たり状態を保持しながら前記オブジェク トが前記移動路を移動する状態を 表す画像データを生成する画像データ生成手段とを備え、前記当たり確立手段は、 前記移動路のポリゴンの頂点に与えられた頂点データから前記オブジェク トの当 たり位置における当たり確立用データを補間して求める補間手段と、 この補間手 段により補間された当たり確立用データを前記ポリゴンで表現する前記移動路の 属性に応じて補正する補正手段と、 この補正手段により補正された前記当たり確 立用データに応じて前記オブジェク トの前記移動路への当たりを設定する当たり 設定手段とを有する、 ことを特徴とする。 例えば、 前記当たり確立用データは前 記当たり位置の高さおよび法線べク トルである。
さらに、 第 4の発明に係る画像生成装置によれば、 仮想 3次元空間を移動する オブジェク トの光源から放射される拡散光の画像データをそのオブジェク トの移 動状態に応じて制御する拡散光制御手段と、 この制御された拡散光の画像データ を含めた前記オブジェク トの移動状態を表す画像データを生成する生成手段とを 備えたことを特徴とする。
好適には、 前記拡散光制御手段は、 前記光源の向きを表す光源べク トルおよび 前記仮想 3次元空間内のカメラ視点の向きを表す視線べク トルを求める手段と、 前記拡散光の画像データとして 1枚のポリゴンを指定する手段と、 前記両べク ト ル間の角度情報に基づき前記ボリゴンの大きさを変化させる変化手段とを有する また、 好適には、 前記変化手段は、 前記両べク トルの向きが一致したときに無限 大に発散する係数を乗じて前記ポリ ゴンの大きさを変化させる手段である。
さらに、 第 5の発明に係る画像生成装置によれば、 仮想 3次元空間を移動する オブジェク トが発生する砂煙の画像データをそのオブジェク トの移動状態に応じ て制御する砂煙制御手段と、 この制御された砂煙の画像データを含めた前記ォブ ジェク トの移動状態を表す画像データを生成する生成手段とを備えたことを特徴 とする。
この場合の好適な一例は、 前記砂煙制御手段は、 前記砂煙の画像データを 2次 元配置の複数のポリゴンとして指定する手段と、 前記ォブジェク トの挙動を含む ファクタの物理的影響の度合いを求める手段と、 この度合いに応じて前記複数の ポリゴンそれぞれの挙動を演算する手段と、 この演算結果に応じて前記複数のボ リゴンを相互に繋いでポリゴン集合体として再構成する手段とを有する、 ことで ある。 また例えば、 前記砂煙制御手段は、 前記再構成されたポリ ゴン集合体に砂 煙らしさに関わる透明度の相違および霧状に見える処理を加える手段を有するこ とができる。
なお、 上記各構成において、 前記オブジェク トは前記仮想 3次元空間内で移動 するカーレースゲームの車である、 ことができる。
さらに、 第 6の発明に係る画像生成方法は、 仮想 3次元空間にポリゴンで設定 したオブジェク トおよび移動路の間の当たり状態を確立しながら前記オブジェク トが前記移動路を移動する状態を表す画像データを生成する画像生成方法であつ て、 前記移動路のポリ ゴンの頂点に与えられた頂点データから前記オブジェク ト の当たり位置における当たり確立用データを補間して求め、 この補間された当た り確立用データに応じて前記オブジェク トの前記移動路への当たりを設定する、 ことを特徴とする。
さらに、 第 7の発明に係る画像生成方法は、 仮想 3次元空間にポリ ゴンで設定 したォブジェク トおよび移動路の間の当たり状態を確立しながら前記オブジェク トが前記移動路を移動する状態を表す画像データを生成する画像生成方法であつ て、 前記オブジェク トの当たり位置での当たり確立用データを前記ポリ ゴンで表 現する前記移動路の属性に応じて補正し、 この補正された当たり確立用データに 応じて前記オブジェク 卜の前記移動路への当たりを設定する、ことを特徴とする。
さらに、 第 8の発明に係る画像生成方法は、 仮想 3次元空間を移動するォプジ ェク トの光源から放射される拡散光の方向が当該空間内のカメラ視点の方向に一 致するにしたがって当該拡散光の大きさおよび強度が増加させる、 ことを特徴と する。
さらに、 第 9の発明に係る画像生成方法は、 仮想 3次元空間を移動するォブジ ェク トにより発生される砂煙を当該オブジェク トの挙動に応じて変形するととも に、 その外縁に至るほど透明感を増加させる、 ことを特徴とする。 図面の簡単な説明
図 1は、本発明の 1つの実施形態にかかるゲーム装置の構成を示すプロック図。 図 2は、 C P Uを中心として実行されるメインフロ一を示す図。 図 3は、 当たり 判定処理の概要を示すサブフローの図。 図 4は、 路面を構成する多数のポリ ゴン の配置を示す模式図。 図 5は、 当たり判定処理におけるポリゴン内の補間処理の 手順を説明するための図。 図 6は、 当たり判定処理におけるポリゴン内の補間処 理の手順を説明するための図。 図 7は、 当たり判定処理におけるポリ ゴン内の補 間処理の手順を説明するための図。 図 8は、 当たり判定処理におけるバンプ補正 処理の手順を説明するための図。 図 9は、 当たり判定処理におけるバンプ補正処 理の手順を説明するための図。 図 1 0は、 当たり判定処理におけるバンプ補正処 理の手順を説明するための図。 図 1 1は、 当たり判定処理におけるバンプ補正処 理の手順を説明するための図。 図 1 2は、 砂煙の発生処理の概要手順を説明する ための図。 図 1 3は、 砂煙の発生処理を説明するための図。 図 1 4は、 砂煙の発 生処理を説明するための図。 図 1 5は、 砂煙の発生処理を説明するための図。 図 1 6は、 砂煙の発生処理を説明するための図。 図 1 7は、 拡散光の表現処理の 概要手順を説明するための図。 図 1 8は、拡散光の表現処理を説明するための図。 図 1 9は、 拡散光の表現処理を説明するための図。 図 20は、 拡散光の表現処理 を説明するための図。 図 2 1は、 拡散光の表現処理を説明するための図。 発明を実施するための最良の形態
以下、 本発明の 1つの実施の形態を図面を参照して説明する。
図 1に示すゲーム装置は、 本発明に係る画像生成装置および画像生成方法を実 施する 1つの形態であり、 カーレース用のゲームを実施する装置である。 この装 置は、 その基本的要素としてゲーム処理ボード 1 0、 入力装置 1 1、 出力装置 1 2、 TVモニタ 1 3、 およびスピー力 1 4を備える。
入力装置 1 1は、 ハン ドル、 アクセル、 ブレーキ、 シフ トレバー、 ビューチヤ ンジスィッチなどを備える。 出力装置 1 3は、 ハン ドルキックバック機構、 各種 表示ランプ類などを備える。 TVモニタ 1 3は力一レースゲームの画像を表示す るもので、 TVモエタの代わりにプロジェクタを使用してもよい。 ビューチャン ジスィツチは仮想的なカメラ視点の位置を変更するためのスィツチである。 遊戯 者がこのスィ ッチを操作することで、 例えば、 運転席から見た前方の視点、 自車 を斜め後方から見た視点などを選択できる。
ゲーム処理ボ一ド 1 0は、 カウンタ 1 00、 C PU (中央演算処理装置) 1 0 1、 このゲーム装置の動作プログラムやデータが記憶された記憶媒体としての R ◦ Ml 0 2、 RAM 1 0 3、 サゥンド装置 1 04、 入出力インタ一フェイス 1 0 6、 スクロールデータ演算装置 1 0 7、 コ . プロセッサ (補助演算処理装置) 1 0 8、 地形データ ROM 1 0 9、 ジオメタライザ 1 1 0、 形状データ ROM 1 1 1、 描画装置 1 1 2、 テクスチャデータ ROM 1 1 3、 テクスチャマップ RAM 1 1 4、 フレームバッファ 1 1 5、 画像合成装置 1 1 6、 および DZA変換器 1 1 7を備えている。
この内. C PU 1 0 1はバスラインを介して、 初期値からカウントダウンする カウンタ 1 0 0、 所定のプログラムや画像処理プログラムなどを記憶した R〇iM 1 0 2、 演算データを記憶する RAM 1 03、 サゥンド装置 1 04、 入出力イン ターフェース 1 0 6、 スクロールデータ演算装置 1 0 7、 コ 'プロセッサ 1 0 8、 およびジオメタライザ 1 1 0に接続されている。 RAM I 0 3はバッファ用と し て機能させるもので、 ジォメタライザに対する各種コマンドの書込み (オブジェ ク トの表示など)、 変換マ トリクス演算時を含む各種演算時の必要データの書込 みなどに使用される。
入出力インターフエ一ス 1 0 6は入力装置 1 1および出力装置 1 2に接続され ており、 入力装置 1 1の各種の操作信号、 検知信号がデジタル量として C PU 1 0 1に取り込まれる。 また、 C PU 1 0 1などで生成された信号を出力装置 1 2 に供給できる。 サゥンド装置 1 04は電力増幅器 1 0 5を介してスピーカ 1 4に 接続されている。 これにより、 サウンド装置 1 04で生成された音響信号が電力 増幅され、 スピーカ 1 4から音響として出力される。
C PU 1 0 1は、 ROM 1 0 2に内蔵したプログラムに基づいて、 入力装置 1 1からの操作信号および地形データ ROM 1 0 9からの地形データ、 または形状 データ ROM 1 1 1からの形状データ (「自車、 敵車などのオブジェク ト」、 およ び、 「路面、 地形、 空、 観客、 各種構造物などの背景」 などの 3次元データ) を 読み込んで、 地形と車の当たり判定、 車同士の衝突判定、 4輪サスペンショ ンの 挙動計算、 車の挙動計算の挙動計算 (シミュ レーショ ン)、 および砂煙の発生処 理、 拡散光の発生 ·制御処理を含む特殊効果処理の演算を行う。
車の挙動計算は、 入力装置 1 1からの遊戯者による操作信号を用いて仮想 3次 元空間 (ゲーム空間) での車の動きをシミュ レートするものである。 これを実行 するには、 仮想 3次元空間での車のポリゴンの座標値が決定された後、 この座標 値を 2次元視野座標系に変換するための変換マトリクスと形状データ (ポリゴン データ) とがジォメタライザ 1 1 0に指定される。 コ 'プロセッサ 1 0 8には地 形データ ROM 1 0 9が接続されており、 予め定めた地形データがコ ' プロセッ サ 1 0 8および C P U 1 0 1に渡される。 コ · プロセッサ 1 0 8は主に、 地形と 車の当たり判定や車の挙動計算時に浮動小数点の演算を引き受けるようになって いる。 このため、 C P Uの演算負荷を軽減できる。
ジォメタライザ 1 1 0は形状データ R O M 1 1 1および描画装置 1 1 2に接続 されている。 形状データ R O M 1 1 1には、 上述したように、 複数のポリゴンか ら成る形状データ ( 3つ以上の頂点から成る車、 地形、 背景などの 3次元データ) が予め記憶されている。 この形状データはジォメタライザ 1 1 0に渡される。 ジ ォメタライザ 1 1 0は C P U 1 0 1から指定される変換マトリクスで、 指定され た形状データの透視変換を行い、 3次元仮想空間での座標系から視野座標系に変 換した形状データを得る。
描画装置 1 1 2は、 変換された視野座標系の形状データにテクスチャを貼り付 け、 フレームバッファ 1 1 5に出力する。 このテクスチャの貼り付けを行うため、 描画装置 1 1 2はテクスチャデータ R O M 1 1 3およびテクスチャマップ R A M 1 1 4に接続されるとともに、 フレームバッファ 1 1 5に接続されている。
なお、ボリゴンデータとは、 3個以上の頂点の集合からなるポリゴン(多角形: 主に 3角形、 4角形) の各頂点の相対ないしは絶対座標の座標データ群を言う。 前記地形データ R O M 1 0 9には、 所定の判定 (当たり判定など) を実行する上 で足りる、比較的粗く設定されたポリゴンデータが格納されている。 これに対し、 形状データ R O M 1 1 1には車、 背景などの画面を構成する形状に関して、 より 緻密に設定されたポリゴンデータが格納されている。
スクロールデータ演算装置 1 0 7は文字などのスクロール画面のデータ (R O M 1 0 2に格納されている) を計算する。 この演算装置 1 ◦ 7とフレームバッフ ァ 1 1 5とが画像合成装置 1 1 6および D Z A変換器 1 1 7を介して T Vモニタ 1 3に至る。 これにより、 フレームバッファ 1 1 5に一時記憶された車、地形(背 景) などのポリゴン画面 (シミュレーショ ン結果) とスピード、 ラップタイムな どの文字情報のスクロール画面とが指定プライオリティにしたがって合成され、 最終的な画像データがフレーム毎かつ一定タイミング毎に生成される。 この画像 データは DZA変換器 1 1 7でアナログ信号に変換されて TVモニタ 1 3に送ら れ、 ゲーム画面としてリアルタイムに表示される。
(作用)
<メインルーチン処理〉
続いて、 本実施形態のゲーム装置によるカーレースに関わる画像生成処理を説 明する。 図 2はその画像生成処理のメインルーチンを示す。 このメインルーチン は例えば表示インターラプトに同期した 1フィールド ( 1 /6 0秒) 毎に C PU 1 0 1により繰り返し実行される。 なお、 画像画面の内、 少なく とも車両および 車両が走行する移動路と しての路面は複数のポリ ゴン (例えば 3角形のポリ ゴ ン) により形成される。 とくに、 路面を表す各ポリ ゴンの各頂点には、 3次元仮 想空間内の基準位置からの高さの情報 (すなわち頂点位置情報) と頂点位置にお ける法線べク トルとが与えられており、その情報が予めメモリに格納されている。 まず、 C PU 1 0 1は入力装置 1 1により検出された遊戯者の操作情報および 前回のィンターラプト時に演算していた演算情報を読み込む(ステップ 20 1 )。 この内、 操作情報には遊戯者が操作したハン ドル角度、 アクセル角度などが含ま れる。 また演算情報には C PU 1 0 1が処理した自車、 敵車の位置、 車両挙動情 報、 砂煙や拡散光などの特殊効果情報も含まれる。 なお、 自車は操作情報に基づ き C PU 1 0 1により管理されているが、 敵車は C PU 1 0 1により事前のプロ グラムに基づき独自に管理される。
次いで、 この操作情報および前回のインターラプト時の演算情報 (自車、 敵車 の位置、 走行方向など) に基づき今回のインターラプト時の各車両の当たり判定 位置 (車輪の接地位置) を算出する (ステップ 20 2)。
次いで、 C PU 1 0 1は、 各車両の当たり判定位置毎に当たり判定処理を実行 する (ステップ 2 0 3 )。 次いで、 車両挙動に関わる特殊効果と して、 砂煙の発 生処理および拡散光の表現処理を順次実行する (ステップ 2 0 4、 20 5 )。 こ れらステップ 20 3〜 20 5の処理は後述される。
この後、 C PU 1 0 1はさらに、 操作情報や当たり判定結果を反映した車両挙 動を計算し (ステップ 20 6 )、 透視変換マ トリクスを作成 .指定し (ステップ 20 7)、 さらに描画に必要なボリゴンデータなどを指定する (ステップ 20 8)。 これによりィンタ一ラプト毎に画像データが更新され、 力一レースゲームの展開 に伴う画像が TVモニタ 1 3にその他の文字情報と共に表示される。これにより、 遊戯者は表示画面を見ながらさらに所望の操作入力を入力装置 1 1から与え、 ゲ 一ムを行うことができる。
(当たり判定処理)
続いて、 上述したステップ 20 3で実施される当たり判定処理の詳細をその原 理と共に図 3〜図 1 0に基づき説明する。
図 3には、 ステップ 20 3で実施される処理のサブルーチンを示す。 このル一 チンによれば、 図 4に例示する如く設定された路面を成す複数のポリゴン PGの 中から、 各車両について算出した当たり判定点が属する当たり判定の対象となる ポリゴンを仮想 3次元空間の X z平面上から探索する (ステップ 20 3 a)D 次いで、 対象ポリ ゴンにおいて当たり判定位置の高さと法線べク トルを捕間に より新しく演算する (ステップ 20 3 b)。 この演算法を以下に説明する。
いま、 図 5に示すように、 対象ポリゴンがポリゴン AB Cで、 その中に位置す る判定点が P (P , P z ) であるとする。 判定点 Pを X軸に沿って平行に迪る と、 ポリゴン AB Cの辺 ABまたは辺 B Cに到達する。 それらの交点を PAB、 PBCとする。 次いで、 例えば辺 ABと y軸とによる 2次元系を考える。 これに より、 図 5および図 6に示すように、 点 Aにおける高さ yAの線分頂点と点 Bに おける高さ y Bの線分頂点とを結ぶ曲線を想定できる。 この曲線を稜線と呼ぶ。 そして、 点 Aで t = 0、 点 Bで t = 1 となる位置パラメータ tを導入し、 上記 稜線を表す関数 f AB ( t ) を、
f AB ( = y = a t 3 + b t 2 + c t + d (1 ) と想定する (図 6参照)。 境界条件から、
f ( 0 ) = d = y A=^ Aの高さ
f ( 1 ) = a + b + c + d = y B =点 Bの高さ
f ' (0) = c = n A =点 Aにおける法線の傾き
f ' ( 1 ) = 3 a + 2 b + c = n B =点 Bにおける法線の傾き
が定まり、 これから
a = 2 y A- 2 yB+ nA+ nB
= - 3 y A+ 3 yB~ 2 nA- nB
C = Π A
d = y A
により係数が算出される。 したがって、 点 A, Bにおける高さ y A、 y Bおよび 法線の傾き nA、 n Bは事前に与えられているので、 係数 a, b , c, dは算出 できる。 そこで、 この点 A, Bに関する稜線を規定する係数 a, b, c , dをリ アルタイムにその都度、 演算するか、 または、 事前に演算してメモリに係数のテ 一ブルデータとして格納しておいて、 その都度読み出すようにしてもよい。 後者 の方が処理速度の点では有利である。
演算により、 または、 読み出しにより得た係数 a, b , c , dを前記 ( 1 ) 式 による関数 f ABから交点 PABにおける関数値 ί AB (PAB) を求める。 したがつ て、 点 PABの座標は (P x' , f ΑΒ (Ρ' ), Ρ ζ ) となる。 ここで、 Ρ χ' Ρ を X軸に沿って移動したときの ABとの交点の座標位置である。 その時の関数値 が P 'である。
また、 交点 PABにおける法線べク トル Ν ρ' は、 点 Αと点 Βの法線べク トル NA、 NBを次式による線形補間で算出する。
ベク トル N p' = [( 1 -t p) NA+ t pNB] /
I (NA+NB) I (2)
上述と同様にして別の辺 B Cが形成する稜線に基づいて、 辺 B C上の交点 PB c上の座標と法線べク トルを算出する。
さらに上述の 2つの交点 PABおよび PBC間の線分 PAB PBCに対しても上述と 同様に、 図 7に示す如く 3次式による稜線を想定し、 この稜線に基づいて判定点 P上の座標 y (高さ) と法線べク トル (大きさ、 方向) を算出する。 このように して判定点 P上の y座標 (高さ) と法線ベク トルの情報がポリ ゴン頂点の高さ情 報および法線べク トル情報から一意に求められる。
なお、 この算出に使用する対象ポリ ゴンの辺は辺 AB、 辺 B Cのみに限定され るものではなく、 当たり判定点 Pを z軸と平行に迪つて到達する辺 AC, 辺 AB を用いてもよい。 要するにいずれか 2辺を利用すればよい。
次いで、 C P U 1 0 1は図 3において、 当たり判定点 Pの高さおよび法線べク トルにさらに路面のバンプ(凹凸)に依存した細かな補正を加える処理を行う (ス テツプ 20 3 c、 20 3 d, 20 3 e)。
この補正処理はバンプ用テクスチャの濃淡を路面凹凸を表す高さ情報と見做し て行うもので、 この処理をバンプ補正と呼ぶことにする。 なお、 ここではポリゴ ンに貼り付けるテクスチャの属性をバンプ補正 (すなわち最終的には当たり判 定) に利用することが特徴的であり、 上述した濃淡のほか、 テクスチャとして与 えられる草、 石などの物体をバンプ情報と見做してバンプ補正を行うこともでき る。
ステップ 20 3 cでは、 いま対象となっているポリゴン内にバンプ用テクスチ ャが施されているかどうかをフラグなどを使って判断する。 バンプ用テクスチャ が施されていない (NO) 場合、 ステップ 2 0 3 dは飛ばして処理される。 バン プ用テクスチャが施されている (YE S) の場合、 ステップ 20 3 dにて、 バン プ用テクスチャに依る当たり判定位置の高さおよび法線べク トルが算出される。 この算出処理を以下に詳述する。
一般に、 図 8に示すように、 テクスチャの u V座標系とポリゴンの X z座標系 とで 3点の写像は次のマトリクス M、 M~で表される。 つまり、 u v座標系から X Z J生や示 ハ、ほ、
m0 o m0 1 0
M = 0 n , , 0
m2 ο m2 1 1
により変換でき、 反対に、 X
m 0 0 m 0 1 0
M m 1 0 m 1 1 0
m 20 m 2 1 1
により変換できる。
いま、 U V座標系における当たり判定位置に相当するある点 (U q, v。) を 囲む 4つのピクセルを図 9に示すよ うに選択すると、 この 4つのピクセルはそれ ぞれ高さデータ Τ。0, Τ1 0, Ύ 1 Χ, Τ0 1を有している。
この高さデータの内、 V軸に平行な一方の辺の両ピクセルに相当する Τ。 。〜
Τ!。と他方の辺の両ピクセルに相当する Τ。 〜丁 Jについて位置 V。での高さ
Tu。, Tu lを線形補間でそれぞれ算出する。
同様に、 u軸に平行な一方の辺の両ピクセルに相当する T。 。〜T。 と他方の 辺の両ピクセルに相当する T丄 。〜T i について位置 u。での高さ T。 v, Τ\ νを 線形補間でそれぞれ算出する。
次いで、 上述のように補間した高さデータの内、 u軸に平行にとった線分の高 さデ一タ T u O〜 T u lの傾きを求め、 これを点 (u。, v。) における u軸方 向偏微分値 (=傾き) と見做す。 また、 V軸に平行にとった線分の高さデータ T 0 V 〜T 1 Vの傾きを求め、 これを点 (u。, v。) における v軸方向偏微分値
(=傾き) と見做す。
この 2つの傾さを u, V軸の各方向の接線ベク トル d u, d vに変換し、 それ らを上述したマ ト リ クス Mでテクスチャの u V座標系からポリゴンの X z座標系 に変換する。 さらに、 変換された 2つの接線ベク トル d u , d νに共に直交する直線が当た り判定点 P ( P X , P z ) におけるバンプ補正された法線ベク トルとなる (図 1 0参照)。 この当たり判定点 P ( P X , P z ) のバンプ補正された高さは 4点の ピクセルの高さデータをバイ リユア補間することで算出される。
次いで、 C P U 1 0 1は図 3のステップ 2 0 3 eに移行し、 当たり判定位置の 最終的な高さと法線べク トルを、 上述のステップ 2 0 3 bで算出したボリ ゴンに 依る補間データ (高さ、 法線ベク トル) とステップ 2 0 3 dで算出したバンプ補 間データ (高さ、 法線べク トル) とを合成する。 高さについては両者を加減する。 法線ベク トルについては以下のように変換される。 いま、 ポリゴンに依る補間 で得た法線べク トル n、 および、 バンプ補正により得た法線べク トル mとする。 べク トル mは、 べク トル nが直上 (0, 1, 0 ) を向いているときの法線方向に なるので、 それに合わせて (0, 1, 0 ) をベク トル nに変換する変換マトリク スを求める (図 1 1参照)。 次いで、 この変換マトリクスでベク トル mを変換す る。 この変換されたべク トル mが最終的に合成された法線べク トルとなる。
これによりポリゴン内で補間された高さおよび法線べク トルのデータがバンプ 補正によってさらに細かく修正される。
この結果得られた最終的な当たり判定位置の高さデータおよび法線べク トルデ ータを用いて車両タイヤと対象ポリゴンとの間の当たりがとられる (図 3、 ステ ップ 2 0 3 f )。
上述した一連の当たり判定処理は一定微小時間毎に繰り返し実行され、 連続的 な当たり判定が各タイヤ、 自車、 敵車の各車両に対してなされ、 当たり処理が実 施される。
本実施形態によれば、 まず、 当たり判定位置における高さと法線ベク トルがボ リゴンデータから補間される。 このため、 当たり判定位置がポリゴン面に角度差 の在る、 あるポリゴンから別のポリゴンに移ったときにも、 当たり判定の方向に 供する法線べク トルの方向が従来法よりも格段に滑らかに変化するので、 当たり 判定の方向も滑らかに変わり、 当たり判定の精度を従来法よりも向上させ、 違和 感のないものにすることができる。
その上、 本実施形態では、 上述のようにポリ ゴンに依り一度補間した高さおよ び法線ベク トルを、 さらに、 テクスチャの属性である濃淡データによりバンプ補 正するという 2段階の修正法を採っている。 このため、 路面の大局的な高低変化 を滑らかに捕らえた後で、 路面の細かな凹凸を緻密に反映させた高さおよび法線 ベク トルで当たり判定を行うので、 当たり判定の精度が非常に高くなつて、 路面 の属性をより正確に捕らえた車両挙動をシミュレートできる。
なお、 上述したポリゴンデータに依る補間処理とテクスチャによるバンプ補正 処理とは必ずしも両者を併用して実施しなくてもよく、 いずれか一方のみを単独 に実施する場合でも従来の当たり判定に比べて、 その判定精度は非常に高くなる という利点が得られる。
(砂煙の発生処理)
次いで、 図 2のステップ 2 0 4による砂煙の発生処理を説明する。 C P U 1 0 1は、 上述のように当たり判定処理が終わると、 力一レースゲームの特殊効果処 理の 1つとして、 この砂煙の発生処理を実施して表示画面に臨場感を演出する。 この処理を図 1 2〜図 1 6に基づき説明する。 図 1 2に処理手順の概要を示す。 まず、 砂煙を表すポリ ゴンデータとして、 予め格子状のポリ ゴンの集合体をメ モリ内に格納しておく。 図 1 3は、 この集合体の一例を模式的に示すもので、 縦 方向 Rを煙の解像度の次元に、 横方向 Tを時間軸の次元にとった 2次元状のマッ ビングになっている。 具体的例としては、 縦方向のポリゴン数 R m a X = 5、 横 方向のポリゴン数 T m a X = 2 0である。 このポリゴン数は表示精度と演算負荷 との兼ね合いにおいて適宜に決定すればよい。
各ポリゴンの頂点それぞれには現在の空間位置、 速度、 そのほかのパラメータ を砂煙計算時に持たせる。 このパラメータの数、 ならびに、 縦方向の解像度およ び横方向の時間軸を表すポリゴン数が多いほど砂煙のシミュレーションが精密に なる。 この砂煙のポリゴン集合体は種々の要因に応じて変形させながら表示する 処理を行うので、 格子としてのポリゴン各頂点相互を繋ぐ繋ぎ情報が画像データ として用いられる。 砂煙全体の形状は変形して決定される。
いま、 車両の前輪から砂煙が噴出する場合を想定する。 最初に、 ポリゴン集合 体の内、 時間軸 T== 0の位置において解像度 R方向に在るポリゴン列の各ポリ ゴ ンに対して前輪の接地面の位置、 および、 タイヤの路面からの空転度や乱数から の初速を与える (図 1 2、 ステップ 2 0 3 1 )。 次いで、 時間軸 Τ二 1の位置に 移行して解像度 R方向に在るポリ ゴン列の各ポリ ゴンに対して位置および速度を 設定する。 具体的には、 前回のフレーム表示時に処理した Τ= 0の位置の各ポリ ゴンが有していた位置および速度に、 Τ== 1の位置の各ポリゴンが今回のフレー ム表示に際して受ける種々の砂煙パラメータを加味して決定される (ステップ 2 0 3 2)。 ここでは、 砂煙パラメータとして風の向きおよび強さ、 重力加速度、 空気抵抗などを採用する。 これらのパラメータはその都度、 操作情報や現在の車 速などから演算して求める。 これにより、 Τ= 1の 2列目の各ポリ ゴンには前回 処理時の前列の各ポリ ゴンの動きが反映された動きが与えられる。
同様に、 Τ= 2の 3列目から Τ= η (例えば 20) の η+ 1列目まで、 上述の 演算を繰り返す (ステップ 20 3 2)。 つまり、 Τ= 2の各ポリ ゴンについて、 前回処理時の Τ= 1の各ポリ ゴンの位置及び速度に、 砂煙パラメータを加味して 位置および速度を与える。 Τ= 3の各ポリゴンについて、 前回処理時の Τ= 2の 各ポリゴンの位置及び速度に、 砂煙パラメ一タを加味して位置および速度を与え る。 同様に演算していって、 最終は、 Τ= ηの各ポリゴンについて、 前回処理時 の Τ = η- 1の各ポリゴンの位置及び速度に、 砂煙パラメ一タを加味して位置お よび速度を与える。
この一連の演算により設定した各ポリゴンの頂点位置を、 頂点同士の繋ぎデー タを用いて砂煙を表す物体として再構成する (ステップ20 3 3)。 これにより、 1つの形状に戻され、 表示時には頂点各点が砂煙のように振る舞う。 この変形させたポリ ゴン集合体に対して、 さらに、 砂煙らしさをさらに強調す るための種々の処理を施す (ステップ 2 0 3 4 )。 この処理としては、 ( 1 ) 時間 軸 T方向にポリゴンを迪るにつれて透明度を上げる処理、 (2 ) 砂煙全体を横方 向から見たとき、 最上位置のボリゴンと背景との境目が目立たなくなるように上 方にいくほど透明度を上げる処理、 ( 3 ) カメラ視点が砂煙の雰囲気中に入った 場合でも、 違和感がないように、 煙と同一色のフォグ (霧) を掛け、 かつ、 その フォグの濃度が砂煙の中心に近づくにつれて濃くする処理などである。
このよ うに本実施形態では、 砂煙をポリ ゴン集合体で表すこととし、 各ポリ ゴ ンの頂点を物理演算によって設定し、 ポリゴン集合体の尾を引かせることにより 砂煙が表示される。 とくに、 物理演算として、 前回処理時の前列ポリゴンの動き を後列ポリ ゴンに反映させるとともに、 風の向きおよび強さ、 重力加速度、 空気 抵抗などの環境要因を主とする砂煙パラメータの量を反映させている。このため、 図 1 4および図 1 5に示すように、 砂煙 S Sは車輪から尾を引く ようになびいて 且つ手前になるほど広がって表示され、 その形状は各種の砂煙パラメータの量に 応じて自在に変わる。 この物理演算による頂点の動き決定のために、 砂煙全体の 挙動 (舞い上がり、 なびき) が従来のものに比べて非常に自然に近く見えるよう になり、 人為的であるとの違和感を殆ど無くすることができる。
また、 砂煙全体は、 上方にいくほど、 また後方にいくほど透明度が増すことと なる。 つまり、 砂煙の粒子濃度がそれらの方向に進むほど低くなるように表示さ れ、 砂煙の固まりの輪郭がぼやけて表示される。 従来のように、 砂煙の固まり と それ以外との境界が明瞭過ぎるという不自然さを排除することができる。 これに よっても、 砂煙を表示する上でのリアル感が格段に向上する。
さらに、 図 1 6に示すように、 加速した敵車 E Cに自車が追い越されたような 場合、 自車の遊戯者位置に在るカメラ視点が敵車の巻き上げる砂煙 S Sの雰囲気 中にすつぼり入ってしまうことがある。 このようなケースでは、従来法によると、 中身が空っぽの砂煙のトンネルに入ってしまったかのような錯覚を与える画面し か表示されなかった。 これに対し、 本実施形態では、 砂煙と同一色のフォグが掛 けられ、 さらにその中心ほどフォグの濃度の濃い画面が表示されるので、 砂煙の 中身が詰まった本来の状態を表現することができる。 従来法に依る違和感を排除 して、 非常にリアルな砂煙を表現でき、 ゲームの臨場感を向上させることができ る
さらに、 このフォグ処理によって、 画面のクリ ッピング処理 (物体がある一定 距離以上手前に近づいたときはその物体を表示しない処理) を活用でき、 表示の 不自然さを回避するとともに演算処理の軽減化を図ることができる。
なお、 4輪駆動者の場合、 砂煙は 4輪全てから発生するが、 前進時に後輪から 発生する砂煙のポリゴンは前輪から発生するそれと混ざってしまうので、 砂煙ポ リ ゴンの発生を省略することができる。 反対に、 後退時は前輪から発生させる砂 煙ポリゴンを省略することができる。
次いで、 図 2のステップ 2 0 5による拡散光の表現処理を説明する。 C P U 1 0 1は、 砂煙の発生処理に引き続き、 力一レースゲームの特殊効果処理の 1つと して、 この拡散光の表現処理を実施して表示画面に臨場感を演出する。 この処理 を図 1 7〜 2 1に基づき説明する。 図 1 7に処理手順の概要を示す。
図 1 8は、 3次元仮想空間における車両とカメラ視点の位置関係を示す。 車両 の空間位置関係を示す行列を M c、 カメラ視点の空間位置関係を示す行列を M e とすると、 これらの行列は以下のように表される。
Figure imgf000023_0001
M e m e 0 0 m e O l m e 0 2
m e 1 0 m e l l m e 1 2
m e 2 0 m e 2 1 m e 2 2
m e 3 0 m e 3 1 m e 3 2 まず、 図 1 9 ( a ) ( b ) に例示するように、 車両 (光源の向き) およびカメ ラ視点それぞれの方向べク トル V c, V eを求める (図 1 7、 ステップ 2 0 4 1 )c これらの方向べク トルは車両 (表示対象の光源の向き)、 カメラ視点それぞれが 空間上でどの方向を向いているかを示す量であり、 それぞれの行列 M c, M eの 方向成分に対して (0, 0, 1 ) を乗じることで算出できる。 つまり、
m c 0 0 m c 0 1 m c 0 2
V c = (0 0 1 ) m c 1 0 m c 1 1 m c 1 2
m c 2 0 m c 2 1 m c 2 2
= (m c O O , m c l O , m c 2 0 ) m e O O m e 0 1 m e 0 2
V e = (0 0 1 ) m e l O m e l l m e 1 2
m e 2 0 m e 2 1 m e 2 2
= (m e 0 0 , m e l 0 ,m e 2 0 )
となる。
次いで、 この 2つの方向ベク トル間の角度を求める (ステップ 2 0 4 2 )。 具 体的には、 この角度は、 2つのべク トルの内積を演算し、 その方向余弦を求めこ とで算出できる。 すなわち、 方向余弦は、
c o s 0二 (V c · V e ) ÷ ( I V c I X I V e |)
= (m c O O m e O O +m c 1 O m e 1 O +m c 2 0 m e 2 0) ÷ [(m c 0 02 + m c 1 02 + m c 2 02) 1 ' 2 X (m c 0 02 + m c 1 02 + m c 2 02) 1 2 ]
で求められる。 この結果から、 方向正弦は
s i η Θ = ( 1 — c o s ) 1 2
で求める (ステップ 2 0 4 3)。
次いで、 この逆数 1 / s i η Θを演算する (ステップ 2 0 4 4 )。 この関数 1 / s i n Oは 2つの方向べク トル V c, V eが互いに平行になったときのみ無限 大に発散する曲線を描く (図 2 0参照)。 この関数は後述するように拡散光の表 示体に対する拡大係数として機能させる。
そこで、 図 2 1に示すように、 車両のヘッ ドライ トなどの光源位置には 1枚の 光源ポリ ゴン P G L (光源 1つ当たりに 1枚のポリ ゴンが望ましい) を配置する が、 この光源ポリ ゴンを視線と垂直に交わる平面の方向に、 関数 1 / s ί η θで 拡大する処理を実施する (ステップ 2 0 4 5 )。 光源ポリゴンは視線ベク トルに 対して常に正対している訳ではないから、 上記拡大処理の中で、 光ポリゴンと光 源ベク トル (車両の方向ベク トル) との間の成す角度を演算し、 この角度に応じ て光ポリゴンを楕円状に拡大変形させ (3次元仮想空間において、 X軸方向又は Υ軸方向を楕円状に拡大させ)、 正対したとき (すなわち光源ポリ ゴンが視線べ ク トルの正面に向く) には円状に拡大する処理も行う。 この光源ポリゴンはその 外郭から中心に向かって透明から不透明な光源色をマッピングしてある。
これにより、 カメラ視線と車両 (光源の向き) の角度が平行に近づくにつれて、 図 2 1の ( b ) から (c ) に示すように、 加速度的に拡大拡散する発光状態が楕 円状から無限大に拡大する円状に変化しつつ表示される。 しかも、 拡散光の中心 位置にある発光源は不透明であるから、最も眩しい箇所であることも表現できる。 図 2 1 ( a ) は、 上記光源に対する演出処理の初期状態であり、 光源の形状は小 径を持った円又は楕円である。
したがって、 画面を見ている遊戯者 (仮想的にカメラ視点に居る観測者) に拡 散光が方向性を有しているという感覚を確実に与えることができ、 この感覚は実 際の車両との間で日常体験するものと非常に近いことから、 車両の挙動のリアル 感向上に確実に寄与することなる。 なお、 光源の形状変化は、 ここで示さ れた ものに限定されるものではなく、 星形など様々な形状にすることが可能である。 とくに、 カメラ視点と車両の向きとがー致するときの発光状態は拡散光が表示 画面よりも大きくなつて表現されるので、 遊戯者に与えるィンパク ト感には大き いものがあり、 ゲームとしての興味感を盛り上げることができ、 直感的に把握し 易い画像を提供できる。
また、 このような従来とは一線を画した拡散光の表現処理であり、 その視覚的 な効果は絶大でありながら、 処理演算法は上述したように 1枚のポリゴンの拡大 処理がベースであるので、 非常に簡単である。 このため、 演算処理負荷は小さく て済み、 処理速度も速いという特徴がある。
なお、この拡散光の表現処理は車両のへッ ドライ 卜に限定されるものではなく、 テールランプであってもよいし、 またその両方に実施してもよい。 さらに、 この 拡散光の表現処理は、 戦闘機ゲームにおける戦闘機の操縦席のガラス面に反射す る太陽光の拡散状態を表現する場合にも好適に実施できる。
なお、 本発明はカーレースゲームを行う画像生成装置としてのゲーム装置に実 施する場合に限定されない。 水上ボートレ一ス、 スケートボードゲームなど、 仮 想 3次元空間内に設定した移動路を移動体と してのオブジェク トを移動させるゲ ーム装置に好適に実施することができる。
また、 砂煙の他に水煙でも良い。 また、 煙でも良い。 要するに移動する物体か ら排出される、 移動の結果の演出のための表示されるものであれば良い。
なお、 本発明における記憶媒体としては、 他の記憶手段、 例えばハードデイス ク、 カートリ ッジ型の R O M、 C D— R O M等他公知の各種媒体の他、 通信媒体 (インタ一ネッ ト、 各種パソコン通信網、 これらのサーバー上の情報自体) をも 含むものであってもよい。 産業上の利用性
本発明は、 以上説明したように、 演算量やデータ量を格別に増大させることな く、 移動体としての車両とその周囲環境との間の相互干渉に関わるファクタを、 より リアルに表現でき、車両の移動をメインテ一マとするゲームの臨場感を高め、 また興味感を向上させることができる画像生成装置および画像生成方法を提供す ることができる。
とくに、 ポリゴン同士の繋ぎめを超えた当たり判定のときの判定方向の急変を 防止して、 違和感の少ない、 より 自然な当たり判定を行うとともに、 路面の凹凸 をも考慮した当たり判定を行うことで、 車両挙動表現のリアル感、 臨場感を従来 よりも格段に高めることができる。
また、 砂煙のもやによる粒子感を表現して従来ののつぺり した又は人為的な砂 煙による違和感を排除するとともに、 カメラ視点がもやの中に空間的に位置した 場合でも、 そのカメラ視点から観測されるもや状態の違和感を排除した砂煙を表 現できる。
さらに、 移動している車両から発せされるへッ ドライ ト、 テールライ ト、 反射 光といった指向性を持った拡散光をダイナミックに画像生成して、 リアリティを 向上させた拡散光を表現できる。

Claims

請 求 の 範 囲
1 . 仮想 3次元空間にポリ ゴンで設定したオブジェク トおよび移動路の間の当た り状態を確立する当たり確立手段と、 この当たり状態を保持しながら前記ォブジ ェク トが前記移動路を移動する状態を表す画像データを生成する生成手段とを備 え、
前記当たり確立手段は、 前記移動路のポリゴンの頂点に与えられた頂点データ から前記オブジェク トの当たり位置における当たり確立用データを補間して求め る補間手段と、 この補間手段により補間された当たり確立用データに応じて前記 ォブジュク トの前記移動路への当たりを設定する当たり設定手段とを有する、 こ とを特徴とした画像生成装置。
2 . 前記頂点データは各頂点の高さと法線ベク トルから成り、 前記当たり確立用 データは前記当たり位置の高さおよび法線べク トルから成る請求項 1記載の画像 生成装置。
3 . 前記補間手段は、 前記当たり位置から座標軸に沿って迪つて交差する前記ポ リゴンの 2辺それぞれを指定する手段と、 前記各辺の両端の頂点データに基づく 第 1および第 2の稜線を設定する手段と、 この各稜線上で前記 2辺との交差点そ れぞれのデータを求める手段と、 前記 2辺との交差点を両端とする線分の第 3の 稜線を指定する手段と、 この第 3の稜線上で前記交差点それぞれのデータから前 記当たり判定位置の前記当たり確立用データを求める手段とを有する請求項 1又 は 2記載の画像生成装置。
4 .前記第 1乃至第 3の稜線は 3次式で与えられる請求項 3 ·記載の画像生成装置。
5 . 仮想 3次元空間にポリ ゴンで設定したオブジェク トおよび移動路の間の当た り状態を確立する当たり確立手段と、 この当たり状態を保持しながら前記ォブジ ェク トが前記移動路を移動する状態を表す画像データを生成する画像データ生成 手段とを備え、
前記当たり確立手段は、 前記オブジェク トの当たり位置での当たり確立用デー タを前記ポリゴンで表現する前記移動路の属性に応じて補正する補正手段と、 こ の補正手段により補正された前記当たり確立用データに応じて前記オブジェク ト の前記移動路への当たりを設定する当たり設定手段とを有する、 ことを特徴と し た画像生成装置。
6 . 前記当たり確立用データは前記当たり位置の高さおよび法線べク トルである 請求項 5記載の画像生成装置。
7 . 前記移動路の属性はその移動路の凹凸であり、 この凹凸の情報は前記ポリゴ ンに貼り付けるテクスチャに与えられた濃淡データを用いる請求項 5記載の画像 生成装置。
8 . 仮想 3次元空間にポリ ゴンで設定したオブジェク トおよび移動路の間の当た り状態を確立する当たり確立手段と、 この当たり状態を保持しながら前記ォブジ ニク トが前記移動路を移動する状態を表す画像データを生成する画像データ生成 手段とを備え、
前記当たり確立手段は、 前記移動路のポリ ゴンの頂点に与えられた頂点データ から前記ォブジェク トの当たり位置における当たり確立用データを補間して求め る補間手段と、 この補間手段により補間された当たり確立用データを前記ポリゴ ンで表現する前記移動路の属性に応じて捕正する補正手段と、 この補正手段によ り補正された前記当たり確立用データに応じて前記オブジェク 卜の前記移動路へ の当たりを設定する当たり設定手段とを有する、ことを特徴とした画像生成装置 c
9 . 前記当たり確立用データは前記当たり位置の高さおよび法線べク トルである 請求項 8記載の画像生成装置。
1 0 . 仮想 3次元空間を移動するオブジェク トの光源から放射される拡散光の画 像データをそのオブジェク トの移動状態に応じて制御する拡散光制御手段と、 こ の制御された拡散光の画像データを含めた前記オブジェク トの移動状態を表す画 像データを生成する生成手段とを備える画像生成装置。
1 1 . 前記拡散光制御手段は、 前記光源の向きを表す光源べク トルおよび前記仮 想 3次元空間内のカメラ視点の向きを表す視線べク トルを求める手段と、 前記拡 散光の画像データとして 1枚のポリ ゴンを指定する手段と、 前記両べク トル間の 角度情報に基づき前記ポリ ゴンの大きさを変化させる変化手段とを有する請求項
1 0記載の画像生成装置。
1 2 . 前記変化手段は、 前記両べク トルの向きが一致したときに無限大に発散す る係数を乗じて前記ポリゴンの大きさを変化させる手段である請求項 1 1記載の 画像生成装置。
1 3 . 仮想 3次元空間を移動するォブジェク トが発生する砂煙の画像データをそ のオブジェク トの移動状態に応じて制御する砂煙制御手段と、 この制御された砂 煙の画像データを含めた前記オブジェク トの移動状態を表す画像データを生成す る生成手段とを備える画像生成装置。
1 4 . 前記砂煙制御手段は、 前記砂煙の画像データを複数のポリ ゴンとして指定 する手段と、 前記オブジェク 卜の挙動を含むファクタの物理的影響の度合いを求 める手段と、 この度合いに応じて前記複数のポリゴンそれぞれの挙動を演算する 手段と、 この演算結果に応じて前記複数のポリゴンを相互に繋いでポリゴン集合 体として再構成する手段とを有する請求項 1 3記載の画像生成装置。
1 5 . 前記砂煙制御手段は、 前記再構成されたポリゴン集合体に砂煙らしさに関 わる透明度の相違および霧状に見える処理を加える手段を有する請求項 1 4記載 の画像生成装置。
1 6 . 前記オブジェク トは前記仮想 3次元空間内で移動するカーレースゲームの 車である請求項 1乃至 1 5のいずれか一項記載の画像生成装置。
1 7 . 仮想 3次元空間にポリゴンで設定したオブジェク トおよび移動路の間の当 たり状態を確立しながら前記オブジェク トが前記移動路を移動する状態を表す画 像データを生成する画像生成方法であって、
前記移動路のポリゴンの頂点に与えられた頂点データから前記オブジェク トの 当たり位置における当たり確立用データを補間して求め、 この補間された当たり 確立用データに応じて前記オブジェク トの前記移動路への当たりを設定する、 こ とを特徴とした画像生成方法。
1 8 . 仮想 3次元空間にポリゴンで設定したオブジェク トおよび移動路の間の当 たり状態を確立しながら前記オブジェク トが前記移動路を移動する状態を表す画 像データを生成する画像生成方法であって、
前記ォブジェク トの当たり位置での当たり確立用データを前記ポリゴンで表現 する前記移動路の属性に応じて補正し、 この補正された当たり確立用データに応 じて前記オブジェク トの前記移動路への当たりを設定する、 ことを特徴とした画 像生成方法。
1 9 . 仮想 3次元空間を移動するォブジェク トの光源から放射される拡散光の方 向が当該空間内のカメラ視点の方向に一致するにしたがって当該拡散光の大きさ および強度が増加させる、 ことを特徴とした画像生成方法。
2 0 . 仮想 3次元空間を移動するォブジェク トにより発生される砂煙を当該ォブ ジェク トの挙動に応じて変形するとともに、 その外縁に至るほど透明感を増加さ せる、 ことを特徴とした画像生成方法。
PCT/JP1998/005015 1997-11-07 1998-11-06 Image generating device and image generating method WO1999024937A1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US09/341,189 US6657630B1 (en) 1997-11-07 1998-11-06 Image generating device and image generating method
EP98951725A EP0973132B1 (en) 1997-11-07 1998-11-06 Image generating device and image generating method
JP52595799A JP4226663B2 (ja) 1997-11-07 1998-11-06 画像生成装置および画像生成方法
DE69836805T DE69836805T2 (de) 1997-11-07 1998-11-06 Gerät und verfahren zur bilderzeugung
KR1019997006168A KR100816622B1 (ko) 1997-11-07 1998-11-06 화상 처리 장치 및 화상 처리 방법
HK00104080A HK1024767A1 (en) 1997-11-07 2000-07-04 Image generating device and image generating method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP30622697 1997-11-07
JP9/306226 1997-11-07

Publications (2)

Publication Number Publication Date
WO1999024937A1 true WO1999024937A1 (en) 1999-05-20
WO1999024937A9 WO1999024937A9 (fr) 1999-11-04

Family

ID=17954523

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/005015 WO1999024937A1 (en) 1997-11-07 1998-11-06 Image generating device and image generating method

Country Status (9)

Country Link
US (1) US6657630B1 (ja)
EP (2) EP1720132A3 (ja)
JP (1) JP4226663B2 (ja)
KR (1) KR100816622B1 (ja)
CN (1) CN1183493C (ja)
DE (1) DE69836805T2 (ja)
ES (1) ES2283076T3 (ja)
HK (1) HK1024767A1 (ja)
WO (1) WO1999024937A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216151A (ja) * 2001-01-12 2002-08-02 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2002216158A (ja) * 2001-01-16 2002-08-02 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2002318527A (ja) * 2001-04-23 2002-10-31 Honda Motor Co Ltd 模擬運転装置
JP2005111007A (ja) * 2003-10-08 2005-04-28 Nintendo Co Ltd ゲームプログラムおよびゲーム装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3363137B2 (ja) 2000-11-29 2003-01-08 コナミ株式会社 当たり判定方法、その装置、当たり判定処理プログラムを記録したコンピュータ読み取り可能な記録媒体及びビデオゲーム装置
KR100420859B1 (ko) * 2001-08-11 2004-03-02 학교법인연세대학교 범프 매핑 처리 장치 및 방법
US7077749B1 (en) * 2003-11-20 2006-07-18 Microsoft Corporation Dynamic weather simulation
CN101941012B (zh) * 2009-07-03 2012-04-25 泰怡凯电器(苏州)有限公司 清洁机器人及其脏物识别装置和该机器人的清洁方法
US20170185057A1 (en) * 2011-04-14 2017-06-29 Suntracker Technologies Ltd. System and method for the optimization of radiance modelling and controls in predictive daylight harvesting
US9690762B1 (en) * 2013-01-14 2017-06-27 Google Inc. Manipulating image content items through determination and application of multiple transparency values to visually merge with other content as part of a web page
US9643735B2 (en) * 2015-05-27 2017-05-09 Honeywell International Inc. Integration of braking action information with flight deck runway functions
AU2016305571B2 (en) * 2015-08-13 2022-02-03 Cgg Services Sas System and method for gravity and/or gravity gradient terrain corrections
CN106056655B (zh) * 2016-09-06 2019-09-10 珠海金山网络游戏科技有限公司 一种可编辑的虚拟摄像机系统和方法
JP7020926B2 (ja) 2018-01-09 2022-02-16 株式会社コーエーテクモゲームス プログラム、画像処理方法、及び画像処理装置
US11260857B2 (en) 2019-08-21 2022-03-01 Waymo Llc Polyline contour representations for autonomous vehicles

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242281A (ja) * 1991-01-16 1992-08-28 Nissan Motor Co Ltd ドライビングシミュレータ
JPH07116355A (ja) * 1993-10-21 1995-05-09 Namco Ltd 3次元シミュレータ装置
JPH08276070A (ja) * 1995-04-06 1996-10-22 Sega Enterp Ltd ゲーム装置
JPH09325683A (ja) * 1996-06-06 1997-12-16 Namco Ltd 3次元シミュレータ装置及び情報記憶媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4148485A (en) 1977-09-19 1979-04-10 Atari, Inc. Driving games method for automatically controlled cars
US4645459A (en) * 1982-07-30 1987-02-24 Honeywell Inc. Computer generated synthesized imagery
US4895376A (en) * 1988-06-17 1990-01-23 Tigers Electronics, Inc. Interactive video game
JP2883523B2 (ja) * 1992-08-26 1999-04-19 株式会社ナムコ 画像合成装置及び画像合成方法
US5755620A (en) * 1995-04-03 1998-05-26 Kabushiki Kaisha Sega Enterprises Game system and data processing method thereof
US6064393A (en) * 1995-08-04 2000-05-16 Microsoft Corporation Method for measuring the fidelity of warped image layer approximations in a real-time graphics rendering pipeline
JP3138424B2 (ja) 1996-03-26 2001-02-26 株式会社ナムコ シミュレーション装置及び衝突判定方法
JP3046578B2 (ja) * 1998-06-11 2000-05-29 株式会社ナムコ 画像生成装置及び情報記憶媒体
US6339429B1 (en) * 1999-06-04 2002-01-15 Mzmz Technology Innovations Llc Dynamic art form display apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242281A (ja) * 1991-01-16 1992-08-28 Nissan Motor Co Ltd ドライビングシミュレータ
JPH07116355A (ja) * 1993-10-21 1995-05-09 Namco Ltd 3次元シミュレータ装置
JPH08276070A (ja) * 1995-04-06 1996-10-22 Sega Enterp Ltd ゲーム装置
JPH09325683A (ja) * 1996-06-06 1997-12-16 Namco Ltd 3次元シミュレータ装置及び情報記憶媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP0973132A4 *
UMEZU N.: "DIVISION OF SPACE INTO REGIONS AND METHOD FOR VISUALIZING NONLINEAR PHENOMENON CAUSED BY INTERACTION BETWEEN PARTIAL REGIONS.", PAPERS FROM INFORMATION PROCESSING SOCIETY OF JAPAN, XX, XX, 1 March 1995 (1995-03-01), XX, pages 433/434., XP002920612 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216151A (ja) * 2001-01-12 2002-08-02 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2002216158A (ja) * 2001-01-16 2002-08-02 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP4610748B2 (ja) * 2001-01-16 2011-01-12 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
JP2002318527A (ja) * 2001-04-23 2002-10-31 Honda Motor Co Ltd 模擬運転装置
JP2005111007A (ja) * 2003-10-08 2005-04-28 Nintendo Co Ltd ゲームプログラムおよびゲーム装置

Also Published As

Publication number Publication date
DE69836805T2 (de) 2007-11-29
EP0973132B1 (en) 2007-01-03
EP1720132A2 (en) 2006-11-08
DE69836805D1 (de) 2007-02-15
US6657630B1 (en) 2003-12-02
EP0973132A4 (en) 2003-01-02
CN1183493C (zh) 2005-01-05
WO1999024937A9 (fr) 1999-11-04
KR100816622B1 (ko) 2008-03-24
JP4226663B2 (ja) 2009-02-18
EP1720132A3 (en) 2010-05-26
HK1024767A1 (en) 2000-10-20
CN1251674A (zh) 2000-04-26
KR20000069955A (ko) 2000-11-25
ES2283076T3 (es) 2007-10-16
EP0973132A1 (en) 2000-01-19

Similar Documents

Publication Publication Date Title
US6667741B1 (en) Image generating device and image generating method
US6234901B1 (en) Game device, picture data and flare forming method
JP2807608B2 (ja) ソーティング処理装置、これを用いた画像合成装置及びソーティング処理方法
JP4226663B2 (ja) 画像生成装置および画像生成方法
JPH0863616A (ja) 3次元シミュレータ装置及び画像合成方法
JP3420870B2 (ja) 画像合成方法、画像合成装置及びゲーム装置
US6917371B1 (en) Game device, picture data forming method and medium
JP3420957B2 (ja) ゲーム装置及び情報記憶媒体
JPH11509009A (ja) 気象現象効果シミュレーション方法及び装置
JP4749198B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP2008077405A (ja) 画像生成システム、プログラム及び情報記憶媒体
JP3483967B2 (ja) 雲状現象可視化装置
JPH08229237A (ja) 3次元ゲーム装置及び画像合成方法
JP4861862B2 (ja) プログラム、情報記憶媒体、及び、画像生成システム
JP4229317B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP3783735B2 (ja) 画像処理装置及びこれを備えたゲーム装置
JP3727098B2 (ja) 画像合成方法及び装置
JP2000105533A (ja) 3次元シミュレ―タ装置及び画像合成方法
JP3275001B2 (ja) ゲーム装置および情報記憶媒体
JP3254091B2 (ja) 3次元シミュレータ装置及び画像合成方法
JP4886442B2 (ja) プログラム、ゲーム装置および情報記憶媒体
JP4688405B2 (ja) プログラム、情報記憶媒体及びゲーム装置
JP2003275460A (ja) ゲーム装置及び情報記憶媒体
JPH11134515A (ja) ゲーム装置及びゲーム画面合成方法
JP4786374B2 (ja) プログラム、情報記憶媒体及び画像生成システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 98801716.4

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 1019997006168

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1998951725

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09341189

Country of ref document: US

AK Designated states

Kind code of ref document: C2

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: C2

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

COP Corrected version of pamphlet

Free format text: PAGES 31-33, AMENDED CLAIMS, ADDED

WWP Wipo information: published in national office

Ref document number: 1998951725

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019997006168

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1998951725

Country of ref document: EP