WO2008035550A1 - Dispositif de traitement d'image, son procédé de commande, et support d'enregistrement d'information - Google Patents

Dispositif de traitement d'image, son procédé de commande, et support d'enregistrement d'information Download PDF

Info

Publication number
WO2008035550A1
WO2008035550A1 PCT/JP2007/066742 JP2007066742W WO2008035550A1 WO 2008035550 A1 WO2008035550 A1 WO 2008035550A1 JP 2007066742 W JP2007066742 W JP 2007066742W WO 2008035550 A1 WO2008035550 A1 WO 2008035550A1
Authority
WO
WIPO (PCT)
Prior art keywords
pseudo
normal vector
posture
vector information
normal
Prior art date
Application number
PCT/JP2007/066742
Other languages
English (en)
French (fr)
Inventor
Masashi Endo
Toru Nagai
Tadaaki Tsunashima
Original Assignee
Konami Digital Entertainment Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co., Ltd. filed Critical Konami Digital Entertainment Co., Ltd.
Priority to EP07806219A priority Critical patent/EP2065854B1/en
Priority to US12/442,071 priority patent/US20090267942A1/en
Priority to CN2007800297618A priority patent/CN101501733B/zh
Publication of WO2008035550A1 publication Critical patent/WO2008035550A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6646Methods for processing data by generating or executing the game program for rendering three dimensional images for the computation and display of the shadow of an object or character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8011Ball

Definitions

  • Image processing apparatus image processing apparatus control method, and information storage medium
  • the present invention relates to an image processing device, a control method for the image processing device, and an information storage medium.
  • bump mapping is a technique for expressing the unevenness of the object surface.
  • bump mapping it is possible to apply a shadow (brightness or darkness) according to the unevenness to the object surface by correcting the normal vector on the object surface according to the unevenness.
  • the object surface can be shaded (sharp) according to the unevenness without accurately expressing the unevenness on the object surface with polygons.
  • a pseudo-normal vector (hereinafter referred to as “pseudo-normal vector”) is set for each pixel constituting the texture image mapped on the object surface. Is done. Then, a shading process for the object surface (a process for applying a shadow corresponding to the unevenness on the surface of the object) is executed based on the pseudo normal vector set for each pixel.
  • data called “normal map” is generally prepared as data indicating the pseudo-normal vector of each pixel of the texture image mapped to the object surface.
  • the normal map is data that represents the pseudo-normal vector set for each pixel of the texture image with RGB values.
  • the normal map shows the WX axis direction component in the virtual three-dimensional space (space consisting of WX axis, WY axis and WZ axis) of the pseudo normal vector as R (Red) value, and the WY axis direction component as G ( This is data that shows the WZ-axis direction component as a B (Blue) value.
  • Fig. 12 shows an overview of the shading process. In the shading process, when the polygon 54 constituting the object is drawn, the luminance of each pixel 52 is determined based on the pseudo-normal vector N of the pixel 52.
  • the brightness of each pixel 52 is small when the angle ⁇ formed by the light source direction vector L indicating the direction from the pixel 52 to the light source 50 and the pseudo-normal vector N of the pixel 52 is small. Is determined such that the luminance of the pixel 52 is high and the luminance of the pixel 52 is low when the angle ⁇ is large. In this way, a fine shadow can be applied to the object surface.
  • Patent Document 1 JP 2001-283250 A
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2004-102900
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide an image that can favorably produce a state in which a shadow represented on the object surface changes in accordance with a change in the posture of the object. It is an object to provide a processing device, a control method for an image processing device, and an information storage medium.
  • an image processing apparatus is an image processing apparatus that displays an image representing a state in which a virtual three-dimensional space in which objects are arranged is viewed from a given viewpoint.
  • a pseudo-normal line that stores a pose condition relating to the pose of the object and pseudo-normal vector information for obtaining a pseudo-normal vector of each pixel of the texture image mapped to the surface of the object in association with each other. Judgment is made on whether or not the posture of the object satisfies the posture condition associated with the vector information storage means and the pseudo normal vector information stored in the pseudo normal vector information storage means.
  • a pseudo-normal vector acquisition unit that acquires a pseudo-normal vector of each pixel of the texture image, and a shading process for the object surface based on the pseudo-normal vector acquired by the pseudo-normal vector acquisition unit
  • a shading process executing means for executing [[00000077]]
  • the method of controlling and controlling the image processing apparatus according to the present invention is based on the arrangement of the object object.
  • a virtual image that has been placed is displayed as a picture image representing the appearance of the virtual space between the 33rd-dimensional original space viewed from the given viewpoint.
  • the attitude and attitude related to the attitude and attitude of the above-mentioned object In the method of controlling and controlling the image processing apparatus, the attitude and attitude related to the attitude and attitude of the above-mentioned object. And the conditions of the image and the pixel elements of each of the texture image images to be mapped onto the surface of the above-mentioned object object.
  • the pseudo-pseudo-normal normal-bevel vector information is associated with each other.
  • the pseudo-pseudo-normal normal vector that is recorded and stored before the information stored in the memory information storage means is stored.
  • the pseudo-pseudo-normal normal line vector acquisition step for acquiring and obtaining the pseudo-pseudo-normal normal vector vector of the pixel element, Based on the pseudo-pseudo-normal normal line vector obtained by the acquisition step! ///, And a step of executing a processing process for executing a processing process for the surface of the toto surface. Including here and here is a special feature. .
  • the program according to the present invention is a temporary virtual machine in which an object project is placed.
  • An image processing unit that displays an image that represents the appearance of a state as seen from a given point of view.
  • a game machine for home and garden use a game machine for mobile phones, a game machine for business use, a mobile phone charger, a mobile phone information
  • It is a programming program for making any computer function, such as a terminal terminal ((PPDDAA)) or a personal computer.
  • the posture and attitude determination method means to determine the power, Before the above-mentioned attitude posture is fully satisfied, the above pseudo-pseudo-normal normal vector Based on the pseudo-pseudo-normal normal vector information stored in the memory information storage means, the above-mentioned text structure is used.
  • An information storage medium is a computer-readable information storage medium storing the above-described program.
  • a program distribution apparatus is a program distribution apparatus that includes an information storage medium storing the program, reads the program from the information storage medium, and distributes the program.
  • the program distribution method according to the present invention is a program distribution method for reading and distributing the program from an information storage medium storing the program.
  • the present invention relates to an image processing apparatus that displays an image representing a state in which a virtual three-dimensional space in which objects are arranged is viewed from a given viewpoint.
  • the posture condition relating to the posture of the object and the pseudo normal vector information for acquiring the pseudo normal vector of each pixel of the texture image mapped to the surface of the object are stored in association with each other.
  • the pseudo normal vector of each pixel of the texture image is acquired based on the pseudo normal vector information stored in association with the posture condition satisfying the object posture. Then, based on the acquired pseudo-normal vector vector, shading processing for the object surface is executed.
  • the present invention includes basic pseudo normal vector storage means for storing a plurality of basic pseudo normal vectors in association with each pixel of the texture image, and the pseudo normal vector information is Information indicating a synthesis ratio of the plurality of basic pseudo-normal vectors, wherein the pseudo-normal vector acquisition means satisfies the pseudo-normal vector of each pixel of the texture image and the posture of the object satisfies Based on the composite ratio corresponding to the posture condition! /, It is obtained by combining a plurality of basic pseudo-normal vectors stored in the basic pseudo-normal vector storage means in association with the pixel. It may be.
  • the pseudo-normal vector information may be information indicating a pseudo-normal vector of each pixel of the texture image.
  • FIG. 1 is a diagram showing a hardware configuration of an image processing apparatus according to the present embodiment.
  • FIG. 2 is a diagram illustrating an example of a virtual three-dimensional space.
  • FIG. 3 is a diagram showing a change in posture of a player object during running.
  • FIG. 4 is a diagram showing a normal map stored in the game device.
  • FIG. 5 is a diagram showing an example of a composition ratio table.
  • FIG. 6 is a flowchart showing processing executed on the game device.
  • FIG. 7 is a flowchart showing processing executed by the game device.
  • FIG. 8 is a diagram showing an outline of processing for determining the luminance of a pixel.
  • FIG. 9 is a diagram showing an example of a normal map table.
  • FIG. 10 is a functional block diagram of the game device according to the present embodiment.
  • FIG. 11 is a diagram showing an overall configuration of a program distribution system according to another embodiment of the present invention.
  • FIG. 12 is a diagram showing a concept of bump mapping processing using a normal map.
  • FIG. 1 is a diagram showing a configuration of a game device according to an embodiment of the present invention.
  • the game apparatus 10 shown in the figure is configured by attaching a DVD-ROM 25 and a memory card 28 as information storage media to a consumer game machine 11 and further connecting a monitor 18 and a speaker 22.
  • a home television receiver is used for the monitor 18, and its built-in speaker is used for the speaker 22.
  • the consumer game machine 11 includes a bus 12, a microprocessor 14, an image processing unit 16, an audio processing unit 20, a DVD-ROM playback unit 24, a main memory 26, an input / output processing unit 30, and a controller 32. It is a known computer game system. Components other than the controller 32 are accommodated in the housing.
  • the bus 12 is used for exchanging addresses and data among the units of the consumer game machine 11.
  • the microprocessor 14, the image processing unit 16, the main memory 26, and the input / output processing unit 30 are connected by a bus 12 so that mutual data communication is possible.
  • the microprocessor 14 is an operating system stored in a ROM (not shown).
  • the DVD-ROM 25 controls each part of the consumer game machine 11 based on the game program and game data read from the memory card 28.
  • the main memory 26 includes, for example, RAM, and game programs and game data read from the DVD-ROM 25 and the memory card 28 are written as necessary. Main memory 26 is also used for the work of microprocessor 14.
  • the image processing unit 16 includes a VRAM, receives the image data sent from the microprocessor 14, draws a game screen on the VRAM, converts the contents into a predetermined video signal, and converts the content into a predetermined video signal. Output to monitor 18 at timing. That is, the image processing unit 16 receives from the microprocessor 14 the vertex coordinates, vertex color information (RGB values), texture coordinates, alpha values, and the like of each polygon in the viewpoint coordinate system. The image processing unit 16 draws the color information, Z value (depth information), alpha value, and the like of each pixel constituting the display image in the display buffer of the VRAM using the information. At this time, a texture image is pre-written in the VRAM. Then, the region force in the texture image specified by each texture coordinate is mapped to the polygon specified by the vertex coordinates corresponding to those texture coordinates. The display image generated in this way is output to the monitor 18 at a predetermined timing.
  • the input / output processing unit 30 is an interface for the microprocessor 14 to access the audio processing unit 20, the DVD-ROM playback unit 24, the memory card 28, and the controller 32.
  • An audio processing unit 20, a DVD-ROM playback unit 24, a memory card 28, and a controller 32 are connected to the input / output processing unit 30.
  • the audio processing unit 20 includes a sound buffer, and reproduces various audio data such as game music, game sound effects, and messages read from the DVD-ROM 25 and stored in the sound buffer. Output from speaker 22.
  • the DVD-ROM playback unit 24 reads game programs and game data recorded on the DVD-ROM 25 in accordance with instructions from the microprocessor 14.
  • the ability to use DVD-ROM25 to supply game programs and game data to home game machines 11 Any other information storage medium such as CD-ROM or ROM card may be used. Good. It is also possible to play games from a remote location via a data communication network such as the Internet. Even if you want to supply programs and game data to the home game machine 11.
  • the memory card 28 includes a nonvolatile memory (for example, EEPROM).
  • the home game machine 11 has a plurality of memory card slots, and a plurality of memory cards 28 can be installed at the same time.
  • the memory card 28 is configured to be detachable from the memory card slot, and is used for storing various game data such as saved data.
  • the controller 32 is a general-purpose operation input means for the player to input various game operations.
  • the input / output processing unit 30 scans the state of each unit of the controller 32 at regular intervals (for example, every 1/60 seconds), and passes an operation signal representing the scan result to the microphone processor 14 via the bus 12.
  • the microprocessor 14 determines the player's game operation based on the operation signal.
  • the home game machine 11 is configured so that a plurality of controllers 32 can be connected, and the microprocessor 14 performs game control based on an operation signal input from each controller 32.
  • Figure 2 shows an example of a virtual three-dimensional space.
  • a field object 42 representing a soccer field and a goal object 44 representing a goal are arranged in the virtual three-dimensional space 40 to form a soccer game venue.
  • a player object 46 representing a soccer player and a ball object 47 representing a soccer ball are arranged.
  • a texture image representing a uniform is mapped to the player object 46.
  • 22 player objects 46 are arranged on the force S, which is omitted in FIG.
  • Each object arranged in the virtual three-dimensional space 40 is composed of one or a plurality of polygons.
  • a virtual camera 48 (viewpoint 48a and line-of-sight direction 48b) is set in the virtual three-dimensional space 40.
  • the virtual camera 48 follows the ball object 47, for example.
  • a game screen showing the virtual three-dimensional space 40 viewed from the virtual camera 48 is displayed on the monitor 18. That is, the state of the virtual three-dimensional space 40 when the line-of-sight direction 48b is viewed from the viewpoint 48a is displayed on the game screen.
  • the player operates the controller 32 while watching the game screen, and gives an action instruction to the selected target object 46, for example.
  • a light source 50 is set in the virtual three-dimensional space 40.
  • the light source 50 causes shadows on the uniform of the player object 46, and the light source 50 causes shadows of the goal object 44, the player object 46, and the bonus object 47 on the field object 42.
  • a state is expressed.
  • the DVD-ROM 25 stores model data representing the shape of each object arranged in the virtual three-dimensional space 40 and a texture image mapped to each object. For example, model data of the player object 46 and a texture image representing the uniform of the player object 46 (hereinafter referred to as “uniform texture image”) are stored.
  • the DVD-ROM 25 stores motion data corresponding to various operations of the player object 46.
  • the motion data is data indicating a change in posture every predetermined time (in this embodiment, 1/60 seconds) when the player object 46 performs various motions (for example, running motion, pass motion, etc.). In this specification, causing the selection object 46 to perform an action according to motion data is referred to as “playing motion data”.
  • the DVD-ROM 25 stores a normal map generated corresponding to the uniform texture image.
  • This normal map is data that represents the pseudo-normal vector set for each pixel constituting the uniform texture image in RGB values.
  • the pseudo-normal vector of each pixel is normalized to a unit vector (a vector of length 1).
  • the pseudo normal vector of each pixel held in the normal map is referred to as a “basic pseudo normal vector”.
  • the DVD-ROM 25 stores a normal map corresponding to each of the three types of representative postures when the player object 46 is running, as a normal map corresponding to the uniform texture image.
  • the Figure 3 shows the change in posture of the player object 46 when running Is shown.
  • the player object 46 repeats the posture change from the posture P1 to the posture P8.
  • Postures P2 to P4 indicate a state in which the right arm of the player object 46 is swung forward and the left arm is swung backward.
  • Posture P3 shows a state where the player's object 46 is swung forward with the right arm strength compared to postures P2 and P4.
  • Postures P6 to P8 indicate a state in which the right arm of the player object 46 is swung back and the left arm is swung forward.
  • Posture P7 shows a state in which the left arm of the player object 46 is swung more forward than postures P6 and P8.
  • the DVD-ROM 25 stores, for example, three types of normal maps A, B, and C as shown in FIG.
  • normal map A is a normal map corresponding to posture P1 or P5. That is, the normal map A is a normal map for representing a shadow on the uniform when the player object 46 has the posture P1 or P5.
  • normal map B is a normal map corresponding to posture P3
  • normal map C is a normal map corresponding to posture P7.
  • the DVD-ROM 25 stores a composition ratio table.
  • Figure 5 shows an example of a composite ratio table.
  • the composition ratio table is data in which the posture of the player object 46 during running is associated with the composition ratio.
  • the composition ratio is the basic pseudo-normal vector vector indicated by normal map A, the basic pseudo-normal vector indicated by normal map B, and normal map C. Shows the composition ratio when the basic pseudo-normal vector shown in FIG.
  • the main memory 26 stores information indicating the position and posture of each player object 46 and ball object 47 arranged in the virtual three-dimensional space 40. For example, as information indicating the posture of the player object 46, information indicating the type of motion data being played (such as motion data during running) and the playback position of the motion data (such as the time since playback of the motion data was started) Remembered.
  • the main memory 26 also stores information indicating the position (viewpoint 48a) and posture (line-of-sight direction 48b) of the virtual camera 48 set in the virtual three-dimensional space 40, and information indicating the position of the light source 50.
  • FIG. 6 is a flowchart mainly showing processing related to the present invention among processes executed every predetermined time (1/60 seconds in the present embodiment). This process is realized by the game apparatus 10 executing a program read from the DVD-ROM 25.
  • the game apparatus 10 first executes a game environment process (S101).
  • the position and orientation of each object arranged in the virtual three-dimensional space 40 are calculated. For example, the calculation is performed based on an operation signal input from the position or posture force controller 32 of the player object 46 to be operated. Then, the position information and posture information outside each object stored in the main memory 26 are updated based on the calculation result.
  • the viewpoint 48a, the line-of-sight direction 48b, and the angle of view are determined, and the visual field range is calculated. Objects that do not belong within the field of view are excluded from the subsequent processing.
  • the game device 10 executes geometry processing (S102).
  • geometry processing coordinate transformation from the coordinate system to the viewpoint coordinate system is performed.
  • the world coordinate system is a coordinate system consisting of the WX axis, WY axis, and WZ axis shown in FIG.
  • the viewpoint coordinate system is a coordinate system in which the viewpoint 48a is the origin, the viewing direction 48b is the Z direction, the horizontal direction is the X direction, and the vertical direction is the Y direction.
  • clipping processing is also performed.
  • the game device 10 executes a rendering process (S103).
  • the rendering process the coordinates, color information and alpha value of each vertex of each object in the field of view range, texture image data mapped to the surface of each object in the field of view range, and a method corresponding to the texture image data. Based on the line map, etc., the game screen is drawn in the display buffer on the VRAM.
  • FIG. 7 is a flowchart showing a process for acquiring a pseudo-normal vector of each pixel.
  • Figure 8 shows an overview of this process.
  • the game apparatus 10 when the game apparatus 10 obtains a pseudo-normal vector of one pixel 52 (target pixel) related to the polygon 54 to which the uniform texture image is mapped, The composite ratio a of the normal map A, the composite ratio b of the normal map B, and the composite ratio c of the normal map C corresponding to the posture of (S201). At this time, the game apparatus 10 specifies the current posture of the player object 46 based on the posture information of the player object 46 stored in the main memory 26. In addition, the game apparatus 10 determines the power at which the current posture of the player object 46 is any of the postures P1 to P8. Then, the game apparatus 10 acquires a composition ratio associated with the posture. For example, when the current posture of the player object 46 is the posture P1, the game device 10 acquires a composite ratio associated with the posture P1.
  • the game apparatus 10 acquires the basic pseudo-normal vector vector Na of the pixel 52 held in the normal map A (S202). Similarly, the game apparatus 10 acquires the basic pseudo-normal vector Nb of the pixel 52 held in the normal map B (S203). Furthermore, the game device 10 acquires the basic pseudo-normal vector Nc of the pixel 52 held in the normal map C (S204).
  • the game device 10 synthesizes the pseudo-normal vector N of the pixel 52 by synthesizing the basic pseudo-normal vectors Na, Nb, Nc according to the synthesis ratios a, b, c acquired in S201.
  • Obtain (S205) That is, as shown in the following equation (1), the game apparatus 10 generates a vector Na ′ obtained by multiplying the basic pseudo-normal vector Na by the coefficient a and a vector obtained by multiplying the basic pseudo-normal vector Nb by the coefficient b. Calculate the vector of the sum of Nb 'and the vector Nc', which is the basic pseudo-normal vector Nc multiplied by the coefficient c. Then, the game apparatus 10 acquires the pseudo-normal vector N of the pixel 52 by normalizing the vector to a unit vector.
  • N a-N a + b-N b + c-N c. (1)
  • each pixel relating to the second form part of the player object 46 is drawn based on the pseudo-normal vector N obtained as described above. Determine the brightness. That is, as shown in FIG. 12, when the luminance power of each pixel 52 is small, the angle ⁇ formed by the light source direction vector L indicating the direction from the pixel 52 to the light source 50 and the pseudo-normal vector N of the pixel 52 is small. Is determined such that the brightness of the pixel 52 is high and the brightness of the pixel 52 is low when the angle ⁇ is large.
  • the game apparatus 10 has a light source direction vector L and a pseudo normal vector N. And the color information of the pixel is calculated based on the inner product value. In this way, the uniform part of the player object 46 is subjected to shading processing based on the pseudo-normal vector of each pixel of the uniform texture image. That is, a fine shadow is given to the uniform part of the selection object 46.
  • the game apparatus 10 uses the pseudo-normal vector of each pixel based on the current posture of the player object 46. ! /, and get the shading process based on the pseudo-normal vector! /. For this reason, in the game apparatus 10, when the player object 46 is running, it is favorably produced that the shade that appears on the uniform part of the player object 46 changes in accordance with the posture change of the player object 46. .
  • the game apparatus 10 may store, for example, a normal map table as shown in FIG. 9, instead of storing a composite ratio table as shown in FIG. That is, the game apparatus 10 may store a normal map in association with the posture condition related to the posture of the player object 46.
  • the DVD-ROM 25 stores five types of normal maps A to E as normal maps corresponding to the uniform texture image.
  • the number of normal maps that need to be stored in advance is smaller than in the aspect of storing the normal map table shown in FIG. Tesumu. Therefore, according to the aspect of storing the composition ratio table shown in FIG. 5, it is possible to reduce the amount of data for shadow expression on the uniform of the player object 46.
  • FIG. 10 is a functional block diagram mainly showing functions related to the present invention among the functions realized in the game apparatus 10.
  • the game apparatus 10 functionally includes a storage unit 60, a posture determination unit 62, a pseudo normal vector acquisition unit 64, and a shading process execution unit 66. These functions are realized when, for example, a program for executing the processing shown in FIGS. 6 and 7 is read from the DVD-ROM 25 and executed by the game apparatus 10.
  • the storage unit 60 is realized by the main memory 26 or the DVD-ROM 25, for example. For example, information indicating the position and posture of the player object 46 is stored in the storage unit 60.
  • the storage unit 60 includes a pseudo normal vector information storage unit 60a.
  • the pseudo normal vector information storage unit 60a stores the posture condition related to the posture of the player object 46 and the pseudo normal vector information in association with each other.
  • the pseudo normal vector information is information for acquiring a pseudo normal vector of each pixel of the uniform texture image mapped on the surface of the player object 46.
  • the storage unit 60 stores a plurality of normal maps (for example, normal maps A to C) as normal maps corresponding to the uniform texture image.
  • the storage unit 60 stores a plurality of basic pseudo-normal vectors (for example, three basic pseudo-normal vectors) in association with each pixel of the uniform texture image.
  • the pseudo normal vector information storage unit 60a stores a composite ratio table as shown in FIG. 5, for example. At this time, the composition ratio stored in the composition ratio table corresponds to “pseudo-normal vector information”.
  • the pseudo-normal vector information storage unit 60a may store the posture condition related to the posture of the player object 46 and the normal map in association with each other. That is, the pseudo normal vector information storage unit 60a may store a normal map table as shown in FIG. 9, for example. In this case, the normal map corresponds to “pseudo normal vector information”.
  • the posture determination unit 62 determines whether or not the current posture of the player object 46 satisfies the posture condition associated with the pseudo-normal vector information stored in the pseudo-normal vector information storage unit 60a. To do.
  • the pseudo-normal vector acquisition unit 64 stores it in the pseudo-normal vector information storage unit 60a in association with the posture condition. Based on the pseudo-normal vector information A pseudo-normal vector of each pixel of the tissue image is acquired.
  • the shading process execution unit 66 executes a shading process for the surface (uniform part) of the player object 46 based on the pseudo normal vector acquired by the pseudo normal vector acquisition unit 64.
  • the shadow that appears on the uniform of the player object 46 changes in accordance with the change in the posture of the player object 46. Can be suitably produced.
  • the game apparatus 10 may identify the posture of the player object 46 based on the angle between the bones of both arms of the player object 46 or the rotation angle of the shoulder. That is, in the composite ratio table shown in FIG. 5 or the normal map table shown in FIG. 9, the composite ratio or normal map may be stored in association with the conditions (posture conditions) related to these angles. Good. Further, for example, the game apparatus 10 may identify the posture of the player object 46 by the angle between the normal direction of the upper body and the front direction of the lower body. That is, in the composition ratio table shown in FIG. 5 or the normal map table shown in FIG. 9, the composition ratio or normal map may be stored in association with the condition (attitude condition) related to the angle. .
  • the program may be distributed to a home or the like via a power communication network in which the program is supplied from the DVD-ROM 25 as an information storage medium to the consumer game machine 11.
  • FIG. 11 is a diagram showing the overall configuration of a program distribution system using a communication network.
  • the program distribution method according to the present invention will be described based on FIG.
  • the program distribution system 100 includes a game database 102, a server 104, a communication network 106, a personal computer 108, a consumer game machine 110, and a PDA (personal digital assistant) 112.
  • the game database 102 and the server 104 constitute a program distribution device 114.
  • the communication network 106 includes, for example, the Internet and a cable television network.
  • the DVD-ROM25 is recorded in the game database (information storage medium) 102.
  • a program similar to the stored contents is stored.
  • the server 104 reads the program from the game database 102 in response to the game distribution request, and transmits it to the game distribution request source such as the personal computer 108, the home game machine 110, and the PDA 112.
  • the game distribution request source such as the personal computer 108, the home game machine 110, and the PDA 112.
  • it may be transmitted unilaterally from the power server 104 adapted to deliver a game in response to a game delivery request. Further, it is not always necessary to distribute all the programs necessary for realizing the game at once (batch distribution), and the necessary part may be distributed (divided). If the game is distributed via the communication network 106 in this manner, the consumer can easily obtain the program.
  • the present invention can be applied to game devices that execute games other than soccer games. Further, the present invention can be applied to image processing devices other than game devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

明 細 書
画像処理装置、画像処理装置の制御方法及び情報記憶媒体
技術分野
[0001] 本発明は画像処理装置、画像処理装置の制御方法及び情報記憶媒体に関する。
背景技術
[0002] 3次元画像処理では、オブジェクトが配置された仮想 3次元空間を所与の視点から 見た様子が表示出力される。この際、オブジェクト表面の凹凸を表現する技術として バンプマッピングがある。バンプマッピングによれば、オブジェクト表面の法線ベクトル に凹凸に応じた補正を施すことによって、凹凸に応じた陰影(明暗)をオブジェクト表 面に施すこと力 Sできる。すなわち、バンプマッピングによれば、オブジェクト表面の凹 凸をポリゴンで厳密に表現しなくとも、凹凸に応じた陰影(明喑)をオブジェクト表面に 施すことができる。
[0003] 一般的なバンプマッピングでは、オブジェクト表面にマッピングされるテクスチャ画 像を構成する各画素に対して擬似的に法線ベクトル (以下、「擬似法線ベクトル」と記 載する。)が設定される。そして、オブジェクト表面に対するシェーディング処理 (ォブ ジェタト表面に凹凸に応じた陰影を施す処理)が各画素に設定された擬似法線べタト ルに基づいて実行される。この場合、オブジェクト表面にマッピングされるテクスチャ 画像の各画素の擬似法線ベクトルを示すデータとして「法線マップ」と呼ばれるデー タが一般的に用意される。法線マップは、テクスチャ画像の各画素に対して設定され る擬似法線ベクトルを RGB値で表すデータである。すなわち、法線マップは、擬似法 線ベクトルの仮想 3次元空間(WX軸、 WY軸及び WZ軸からなる空間)における WX 軸方向成分を R (Red)値で示し、 WY軸方向成分を G (Green)値で示し、 WZ軸方 向成分を B (Blue)値で示すデータである。図 12はシェーディング処理の概要を示す 図である。シェーディング処理では、オブジェクトを構成するポリゴン 54を描画する場 合に各画素 52の輝度がその画素 52の擬似法線ベクトル Nに基づいて決定される。 より具体的には、各画素 52の輝度が、その画素 52から光源 50への方向を示す光源 方向ベクトル Lと、その画素 52の擬似法線ベクトル Nと、のなす角度 Θが小さい場合 にはその画素 52の輝度が高くなり、かつ、該角度 Θが大きい場合にはその画素 52 の輝度が低くなるようにして決定される。このようにすれば、オブジェクト表面に精細な 陰影を施すことができる。
特許文献 1 :特開 2001— 283250号公報
特許文献 2:特開 2004— 102900号公報
発明の開示
発明が解決しょうとする課題
[0004] 上記の 3次元画像処理では、オブジェクト表面に表される陰影がオブジェクトの姿 勢変化に応じて変化させる様子を好適に演出することができれば、リアリティをより向 上させることが可能になる。
[0005] 本発明は上記課題に鑑みてなされたものであって、その目的は、オブジェクト表面 に表される陰影がオブジェクトの姿勢変化に応じて変化させる様子を好適に演出で きるようになる画像処理装置、画像処理装置の制御方法及び情報記憶媒体を提供 することにある。
課題を解決するための手段
[0006] 上記課題を解決するために、本発明に係る画像処理装置は、オブジェクトが配置さ れた仮想 3次元空間を所与の視点から見た様子を表す画像を表示する画像処理装 置において、前記オブジェクトの姿勢に関する姿勢条件と、前記オブジェクトの表面 にマッピングされるテクスチャ画像の各画素の擬似法線ベクトルを取得するための擬 似法線ベクトル情報と、を対応づけて記憶する擬似法線ベクトル情報記憶手段と、前 記擬似法線ベクトル情報記憶手段に記憶される擬似法線べ外ル情報に対応づけら れた前記姿勢条件を前記オブジェクトの姿勢が満足するか否力、を判定する姿勢判定 手段と、前記オブジェクトの姿勢が満足する前記姿勢条件に対応づけて前記擬似法 線ベクトル情報記憶手段に記憶される擬似法線ベクトル情報に基づいて、前記テク スチヤ画像の各画素の擬似法線ベクトルを取得する擬似法線ベクトル取得手段と、 前記擬似法線ベクトル取得手段によって取得される擬似法線ベクトルに基づいて、 前記オブジェクト表面に対するシェーディング処理を実行するシェーディング処理実 行手段と、を含むことを特徴とする。 [[00000077]] ままたた、、本本発発明明にに係係るる画画像像処処理理装装置置のの制制御御方方法法はは、、オオブブジジェェククトトがが配配置置さされれたた仮仮想想 33 次次元元空空間間をを所所与与のの視視点点かからら見見たた様様子子をを表表すす画画像像をを表表示示すするる画画像像処処理理装装置置のの制制御御方方 法法ににおおいいてて、、前前記記オオブブジジェェククトトのの姿姿勢勢にに関関すするる姿姿勢勢条条件件とと、、前前記記オオブブジジェェククトトのの表表面面 ににママッッピピンンググさされれるるテテククススチチャャ画画像像のの各各画画素素のの擬擬似似法法線線ベベククトトルルをを取取得得すするるたためめのの擬擬 似似法法線線ベベククトトルル情情報報とと、、をを対対応応づづけけてて記記憶憶ししててななるる擬擬似似法法線線ベベククトトルル情情報報記記憶憶手手段段 にに記記憶憶さされれるる前前記記擬擬似似法法線線ベベククトトルル情情報報にに対対応応づづけけらられれたた前前記記姿姿勢勢条条件件をを前前記記ォォ ブブジジエエタタトトのの姿姿勢勢がが満満足足すするるかか否否かかをを判判定定すするる姿姿勢勢判判定定スステテッッププとと、、前前記記オオブブジジェェククトト のの姿姿勢勢がが満満足足すするる前前記記姿姿勢勢条条件件にに対対応応づづけけてて前前記記擬擬似似法法線線ベベククトトルル情情報報記記憶憶手手段段 にに記記憶憶さされれるる擬擬似似法法線線ベベククトトルル情情報報にに基基づづ!!//、、てて、、前前記記テテククススチチャャ画画像像のの各各画画素素のの擬擬 似似法法線線ベベククトトルルをを取取得得すするる擬擬似似法法線線ベベククトトルル取取得得スステテッッププとと、、前前記記擬擬似似法法線線べべククトトノノレレ 取取得得スステテッッププにによよっってて取取得得さされれるる擬擬似似法法線線ベベククトトルルにに基基づづ!!//、、てて、、前前記記オオブブジジェェククトト表表 面面にに対対すするるシシェェーーデディィンンググ処処理理をを実実行行すするるシシェェーーデディィンンググ処処理理実実行行スステテッッププとと、、をを含含 むむここととをを特特徴徴ととすするる。。
[[00000088]] ままたた、、本本発発明明にに係係るるププロロググララムムはは、、オオブブジジェェククトトがが配配置置さされれたた仮仮想想 33次次元元空空間間をを所所与与 のの視視点点かからら見見たた様様子子をを表表すす画画像像をを表表示示すするる画画像像処処理理装装置置ととししてて、、家家庭庭用用ゲゲーームム機機、、 携携帯帯用用ゲゲーームム機機、、業業務務用用ゲゲーームム機機、、携携帯帯電電話話機機、、携携帯帯情情報報端端末末 ((PPDDAA))ややパパーーソソナナ ルルココンンピピュューータタななどどののココンンピピュューータタをを機機能能ささせせるるたためめののププロロググララムムででああっってて、、前前記記ォォブブ ジジェェタタトトのの姿姿勢勢にに関関すするる姿姿勢勢条条件件とと、、前前記記オオブブジジェェククトトのの表表面面ににママッッピピンンググさされれるるテテクク ススチチヤヤ画画像像のの各各画画素素のの擬擬似似法法線線ベベククトトルルをを取取得得すするるたためめのの擬擬似似法法線線ベベククトトルル情情報報とと、、 をを対対応応づづけけてて記記憶憶すするる擬擬似似法法線線ベベククトトルル情情報報記記憶憶手手段段、、前前記記擬擬似似法法線線ベベククトトルル情情報報 記記憶憶手手段段にに記記憶憶さされれるる擬擬似似法法線線ベベククトトルル情情報報にに対対応応づづけけらられれたた前前記記姿姿勢勢条条件件をを前前 記記オオブブジジェェククトトのの姿姿勢勢がが満満足足すするるかか否否力力、、をを判判定定すするる姿姿勢勢判判定定手手段段、、前前記記オオブブジジェェククトト のの姿姿勢勢がが満満足足すするる前前記記姿姿勢勢条条件件にに対対応応づづけけてて前前記記擬擬似似法法線線ベベククトトルル情情報報記記憶憶手手段段 にに記記憶憶さされれるる擬擬似似法法線線ベベククトトルル情情報報にに基基づづ!!//、、てて、、前前記記テテククススチチャャ画画像像のの各各画画素素のの擬擬 似似法法線線ベベククトトルルをを取取得得すするる擬擬似似法法線線ベベククトトルル取取得得手手段段、、及及びび、、前前記記擬擬似似法法線線ベベククトトルル 取取得得手手段段にによよっってて取取得得さされれるる擬擬似似法法線線ベベククトトルルにに基基づづ!!//、、てて、、前前記記オオブブジジェェククトト表表面面にに 対対すするるシシェェーーデディィンンググ処処理理をを実実行行すするるシシェェーーデディィンンググ処処理理実実行行手手段段、、ととししてて前前記記ココンン
Figure imgf000005_0001
[0009] また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み 取り可能な情報記憶媒体である。また、本発明に係るプログラム配信装置は、上記プ ログラムを記録した情報記憶媒体を備え、当該情報記憶媒体から上記プログラムを 読み出し、配信するプログラム配信装置である。また、本発明に係るプログラム配信 方法は、上記プログラムを記録した情報記憶媒体から上記プログラムを読み出し、配 信するプログラム配信方法である。
[0010] 本発明は、オブジェクトが配置された仮想 3次元空間を所与の視点から見た様子を 表す画像を表示する画像処理装置に関するものである。本発明では、オブジェクトの 姿勢に関する姿勢条件と、オブジェクトの表面にマッピングされるテクスチャ画像の各 画素の擬似法線ベクトルを取得するための擬似法線ベクトル情報と、が対応づけて 記憶される。また、各擬似法線ベクトル情報に対応づけられた姿勢条件をオブジェク トの姿勢が満足するか否かが判定される。また、オブジェクトの姿勢が満足する姿勢 条件に対応づけて記憶される擬似法線ベクトル情報に基づ!/、て、テクスチャ画像の 各画素の擬似法線ベクトルが取得される。そして、その取得された擬似法線べクトノレ に基づいて、オブジェクト表面に対するシェーディング処理が実行される。
[0011] また、本発明の一態様では、前記テクスチャ画像の各画素に対応づけて、複数の 基本擬似法線ベクトルを記憶する基本擬似法線ベクトル記憶手段を含み、前記擬似 法線ベクトル情報は、前記複数の基本擬似法線ベクトルの合成比率を示す情報であ り、前記擬似法線ベクトル取得手段は、前記テクスチャ画像の各画素の擬似法線べ タトルを、前記オブジェクトの姿勢が満足する前記姿勢条件に対応する前記合成比 率に基づ!/、て、該画素に対応づけて前記基本擬似法線ベクトル記憶手段に記憶さ れる複数の基本擬似法線ベクトルを合成することによって取得するようにしてもよい。
[0012] また、本発明の一態様では、前記擬似法線ベクトル情報は、前記テクスチャ画像の 各画素の擬似法線ベクトルを示す情報であってもよい。
図面の簡単な説明
[0013] [図 1]本実施の形態に係る画像処理装置のハードウェア構成を示す図である。
[図 2]仮想 3次元空間の一例を示す図である。
[図 3]選手オブジェクトの走行時の姿勢変化を示す図である。 [図 4]ゲーム装置に記憶される法線マップについて示す図である。
[図 5]合成比率テーブルの一例を示す図である。
[図 6]ゲーム装置で実行される処理について示すフロー図である。
[図 7]ゲーム装置で実行される処理について示すフロー図である。
[図 8]画素の輝度を決定する処理の概要を示す図である。
[図 9]法線マップテーブルの一例を示す図である。
[図 10]本実施の形態に係るゲーム装置の機能ブロック図である。
[図 11]本発明の他の実施形態に係るプログラム配信システムの全体構成を示す図で ある。
[図 12]法線マップを用いたバンプマッピング処理の概念を示す図である。
発明を実施するための最良の形態
[0014] 以下、本発明の実施形態の一例について図面に基づき詳細に説明する。ここでは 、画像処理装置の一態様であるゲーム装置に本発明を適用した場合の例について 説明する。なお、本発明はゲーム装置以外の画像処理装置にも適用できるものであ
[0015] 図 1は、本発明の実施形態に係るゲーム装置の構成を示す図である。同図に示す ゲーム装置 10は、家庭用ゲーム機 11に情報記憶媒体たる DVD— ROM25及びメ モリカード 28が装着され、さらにモニタ 18及びスピーカ 22が接続されることによって 構成される。例えば、モニタ 18には家庭用テレビ受像機が用いられ、スピーカ 22に はその内蔵スピーカが用いられる。
[0016] 家庭用ゲーム機 11は、バス 12、マイクロプロセッサ 14、画像処理部 16、音声処理 部 20、 DVD— ROM再生部 24、主記憶 26、入出力処理部 30及びコントローラ 32を 含んで構成される公知のコンピュータゲームシステムである。コントローラ 32以外の 構成要素は筐体内に収容される。
[0017] バス 12はアドレス及びデータを家庭用ゲーム機 11の各部でやり取りするためのも のである。マイクロプロセッサ 14、画像処理部 16、主記憶 26及び入出力処理部 30 は、バス 12によって相互データ通信可能に接続される。
[0018] マイクロプロセッサ 14は、図示しない ROMに格納されるオペレーティングシステム 、 DVD— ROM25やメモリカード 28から読み出されるゲームプログラムやゲームデ ータに基づいて、家庭用ゲーム機 11の各部を制御する。主記憶 26は、例えば RAM を含んで構成されるものであり、 DVD— ROM25やメモリカード 28から読み出された ゲームプログラムやゲームデータが必要に応じて書き込まれる。主記憶 26はマイクロ プロセッサ 14の作業用としても用いられる。
[0019] 画像処理部 16は VRAMを含んで構成されており、マイクロプロセッサ 14から送ら れる画像データを受け取って VRAM上にゲーム画面を描画するとともに、その内容 を所定のビデオ信号に変換して所定タイミングでモニタ 18に出力する。すなわち画 像処理部 16は、マイクロプロセッサ 14から視点座標系での各ポリゴンの頂点座標、 頂点色情報 (RGB値)、テクスチャ座標及びアルファ値等を受け取る。そして画像処 理部 16は、それら情報を用いて表示画像を構成する各画素の色情報、 Z値 (奥行き 情報)及びアルファ値等を VRAMの表示用バッファに描画する。このとき、 VRAMに はテクスチャ画像が予め書き込まれている。そして、各テクスチャ座標により特定され るテクスチャ画像中の領域力 それらテクスチャ座標に対応する頂点座標により特定 されるポリゴンにマッピング (貝占付)されるようになつている。こうして生成される表示画 像は所定タイミングでモニタ 18に出力される。
[0020] 入出力処理部 30は、マイクロプロセッサ 14が音声処理部 20、 DVD— ROM再生 部 24、メモリカード 28及びコントローラ 32にアクセスするためのインタフェースである 。入出力処理部 30には、音声処理部 20、 DVD— ROM再生部 24、メモリカード 28 及びコントローラ 32が接続される。
[0021] 音声処理部 20はサウンドバッファを含んで構成されており、 DVD— ROM25から 読み出され、該サウンドバッファに記憶されたゲーム音楽、ゲーム効果音、メッセージ 等の各種音声データを再生してスピーカ 22から出力する。
[0022] DVD— ROM再生部 24はマイクロプロセッサ 14からの指示に従って DVD— RO M25に記録されたゲームプログラムやゲームデータを読み取る。ここではゲームプロ グラムやゲームデータを家庭用ゲーム機 11に供給するために DVD— ROM25を用 いることとする力 CD— ROMや ROMカード等、他のあらゆる情報記憶媒体を用い るようにしてもよい。また、インターネット等のデータ通信網を介して遠隔地からゲーム プログラムやゲームデータを家庭用ゲーム機 11に供給するようにしてもょレ、。
[0023] メモリカード 28は不揮発性メモリ(例えば EEPROM等)を含んで構成される。家庭 用ゲーム機 11は複数のメモリカードスロットを備えており、複数のメモリカード 28を同 時に装着可能となっている。メモリカード 28は、このメモリカードスロットに対して脱着 可能に構成され、例えばセーブデータなどの各種ゲームデータを記憶させるために 用いられる。
[0024] コントローラ 32は、プレイヤが各種ゲーム操作の入力をするための汎用操作入力手 段である。入出力処理部 30は一定周期毎(例えば 1/60秒毎)にコントローラ 32の 各部の状態をスキャンし、そのスキャン結果を表す操作信号をバス 12を介してマイク 口プロセッサ 14に渡す。マイクロプロセッサ 14は、その操作信号に基づいてプレイヤ のゲーム操作を判定する。家庭用ゲーム機 11は複数のコントローラ 32を接続可能に 構成されており、各コントローラ 32から入力される操作信号に基づいて、マイクロプロ セッサ 14がゲーム制御を行う。
[0025] 以下、上記構成を有するゲーム装置 10において、オブジェクトの表面に表される陰 影が該オブジェクトの姿勢変化に応じて変化する様子を好適に演出するための技術 について説明する。ここでは、サッカーゲームにおいて、選手キャラクタの走行時に ユニフォーム上の陰影が該選手キャラクタの姿勢変化に応じて変化する様子を演出 する場合を例に説明する。
[0026] まず、主記憶 26に構築される仮想 3次元空間について説明する。図 2は仮想 3次 元空間の一例を示す図である。図 2に示すように、仮想 3次元空間 40には、サッカー のフィールドを表すフィールドオブジェクト 42と、ゴールを表すゴールオブジェクト 44 と、が配置され、サッカーの試合会場が形成される。フィールドオブジェクト 42上には 、サッカー選手を表す選手オブジェクト 46と、サッカーボールを表すボールオブジェ タト 47と、が配置される。選手オブジェクト 46には例えばユニフォームを表すテクスチ ャ画像がマッピングされる。図 2では省略されている力 S、フィールドオブジェクト 42上 には 22体の選手オブジェクト 46が配置される。なお、仮想 3次元空間 40に配置され る各オブジェクトは 1又は複数のポリゴンによって構成される。
[0027] 仮想 3次元空間 40には仮想カメラ 48 (視点 48a及び視線方向 48b)が設定される。 仮想カメラ 48は例えばボールオブジェクト 47に従動する。仮想カメラ 48から仮想 3次 元空間 40を見た様子を表すゲーム画面がモニタ 18に表示される。すなわち、視点 4 8aから視線方向 48bを見た場合の仮想 3次元空間 40の様子がゲーム画面に表され る。プレイヤはゲーム画面を見ながらコントローラ 32を操作し、例えば操作対象の選 手オブジェクト 46に対する行動指示を行う。
[0028] また仮想 3次元空間 40には光源 50が設定される。ゲーム画面には、この光源 50に よって選手オブジェクト 46のユニフォーム上に陰影が生じる様子や、この光源 50によ つてフィールドオブジェクト 42上にゴールオブジェクト 44、選手オブジェクト 46やボー ノレオブジェクト 47の影が生じる様子が表される。
[0029] 次に、ゲーム装置 10に記憶されるデータについて説明する。
[0030] DVD— ROM25には、仮想 3次元空間 40に配置される各オブジェクトの形状を表 すモデルデータや、各オブジェクトにマッピングされるテクスチャ画像が記憶される。 例えば、選手オブジェクト 46のモデルデータや、選手オブジェクト 46のユニフォーム を表すテクスチャ画像(以下、「ユニフォームテクスチャ画像」と記載する。)が記憶さ れる。また DVD— ROM25には、選手オブジェクト 46の各種動作に対応するモーシ ヨンデータが記憶される。モーションデータは、選手オブジェクト 46が各種動作 (例え ば走行動作やパス動作等)を行う場合の所定時間(本実施の形態では 1/60秒)ご との姿勢変化を示すデータである。なお本明細書では、モーションデータに従って選 手オブジェクト 46に動作を行わせることを「モーションデータを再生する」と記載する。
[0031] また DVD— ROM25には、ユニフォームテクスチャ画像に対応して生成された法 線マップが記憶される。この法線マップは、ユニフォームテクスチャ画像を構成する各 画素に対して設定される擬似法線ベクトルを RGB値で表すデータである。ここで、各 画素の擬似法線ベクトルは単位ベクトル (長さが 1のベクトル)に正規化されてレ、る。 なお以下では、法線マップに保持される各画素の擬似法線ベクトルのことを「基本擬 似法線ベクトル」と記載する。
[0032] 本実施の形態の場合、 DVD— ROM25には、ユニフォームテクスチャ画像に対応 する法線マップとして、選手オブジェクト 46の走行時の 3種類の代表姿勢の各々に 対応する法線マップが記憶される。図 3は選手オブジェクト 46の走行時の姿勢変化 を示している。選手オブジェクト 46が走行動作を行う場合、選手オブジェクト 46は姿 勢 P1から姿勢 P8までの姿勢変化を繰り返す。姿勢 P1及び P5は選手オブジェクト 46 の右腕及び左腕が前方又は後方に振られて!/、な!/、状態を示して!/、る。姿勢 P2乃至 P4は、選手オブジェクト 46の右腕が前方に振られ、かつ、左腕が後方に振られた状 態を示している。姿勢 P3は、姿勢 P2及び P4に比べて、選手オブジェクト 46の右腕 力はり前方に振られている状態を示している。姿勢 P6乃至 P8は、選手オブジェクト 4 6の右腕が後方に振られ、かつ、左腕が前方に振られた状態を示している。姿勢 P7 は、姿勢 P6及び P8に比べて、選手オブジェクト 46の左腕がより前方に振られている 状態を示している。 DVD— ROM25には、例えば図 4に示すように 3種類の法線マツ プ A, B, Cが記憶される。ここで、法線マップ Aは姿勢 P1又は P5に対応する法線マ ップである。すなわち、法線マップ Aは、選手オブジェクト 46が姿勢 P1又は P5をとつ ている場合のユニフォーム上の陰影を表すための法線マップである。同様に、法線 マップ Bは姿勢 P3に対応する法線マップであり、法線マップ Cは姿勢 P7に対応する 法線マップである。
[0033] また DVD— ROM25には合成比率テーブルが記憶される。図 5は合成比率テープ ルの一例を示している。図 5に示すように、この合成比率テーブルは、選手オブジェク ト 46の走行時の姿勢と、合成比率と、を対応づけてなるデータである。合成比率は、 後述するように(図 7の S205、図 8参照)、法線マップ Aが示す基本擬似法線べクトノレ と、法線マップ Bが示す基本擬似法線ベクトルと、法線マップ Cが示す基本擬似法線 ベクトルと、を合成する場合の合成比率を示している。
[0034] 主記憶 26には、仮想 3次元空間 40に配置される各選手オブジェクト 46やボールォ ブジェクト 47の位置や姿勢を示す情報が記憶される。例えば、選手オブジェクト 46の 姿勢を示す情報として、再生中のモーションデータの種類(走行時モーションデータ 等)及びモーションデータの再生位置(モーションデータの再生が開始されてからの 時間等)を示す情報が記憶される。また主記憶 26には、仮想 3次元空間 40に設定さ れる仮想カメラ 48の位置 (視点 48a)や姿勢 (視線方向 48b)を示す情報や、光源 50 の位置を示す情報も記憶される。
[0035] 次に、ゲーム装置 10で実行される処理について説明する。図 6は、ゲーム装置 10 で所定時間(本実施の形態では 1/60秒)ごとに実行される処理のうち、本発明に関 連するものを主として示すフロー図である。この処理は、 DVD— ROM25から読み出 されるプログラムがゲーム装置 10で実行されることによって実現される。
[0036] 図 6に示すように、ゲーム装置 10はまずゲーム環境処理を実行する(S101)。グー ム環境処理では、仮想 3次元空間 40に配置される各オブジェクトの位置及び姿勢が 演算される。例えば、操作対象の選手オブジェクト 46の位置や姿勢力 コントローラ 3 2から入力される操作信号に基づいて演算される。そして、主記憶 26に記憶される各 オブジェ外の位置情報及び姿勢情報が演算結果に基づ!/、て更新される。またグー ム環境処理では、視点 48a、視線方向 48bや画角が決定され、視野範囲が算出され る。視野範囲内に属しないオブジェクトは以降の処理の対象から外される。
[0037] その後、ゲーム装置 10はジオメトリ処理を実行する(S102)。ジオメトリ処理ではヮ 一ルド座標系から視点座標系への座標変換が行われる。ここで、ワールド座標系と は、図 2に示す WX軸、 WY軸、 WZ軸からなる座標系である。視点座標系は、視点 4 8aを原点とし、視線方向 48bを Z方向、水平方向を X方向、垂直方向を Y方向とする 座標系である。ジオメトリ処理ではクリッピング処理も行われる。
[0038] その後、ゲーム装置 10はレンダリング処理を実行する(S103)。レンダリング処理で は、視野範囲内の各オブジェクトの各頂点の座標、色情報及びアルファ値と、視野範 囲内の各オブジェクトの表面にマッピングされるテクスチャ画像データと、そのテクス チヤ画像データに対応する法線マップと、等に基づいて、 VRAM上の表示用バッフ ァにゲーム画面が描画される。
[0039] レンダリング処理では、ゲーム装置 10は選手オブジェクト 46のユニフォーム部分を 描画する場合、各画素の擬似法線ベクトルを取得する。図 7は、各画素の擬似法線 ベクトルを取得するための処理を示すフロー図である。図 8はこの処理の概要を示す 図である。
[0040] 図 7に示すように、ゲーム装置 10は、ユニフォームテクスチャ画像がマッピングされ るポリゴン 54に係る一の画素 52 (対象画素)の擬似法線ベクトルを取得する場合、選 手オブジェクト 46の現在の姿勢に対応する、法線マップ Aの合成比率 aと、法線マツ プ Bの合成比率 bと、法線マップ Cの合成比率 cと、を合成比率テーブルから取得する (S201)。このとき、ゲーム装置 10は、選手オブジェクト 46の現在の姿勢を、主記憶 2 6に記憶される選手オブジェクト 46の姿勢情報に基づいて特定する。またゲーム装 置 10は、選手オブジェクト 46の現在の姿勢が姿勢 P1乃至 P8のいずれである力、を判 定する。そしてゲーム装置 10は、その姿勢に対応づけられた合成比率を取得する。 例えば選手オブジェクト 46の現在の姿勢が姿勢 P1である場合、ゲーム装置 10は姿 勢 P1に対応づけられた合成比率を取得する。
[0041] またゲーム装置 10は、法線マップ Aに保持される画素 52の基本擬似法線べクトノレ Naを取得する(S202)。同様にゲーム装置 10は、法線マップ Bに保持される画素 52 の基本擬似法線ベクトル Nbを取得する(S203)。さらにゲーム装置 10は、法線マツ プ Cに保持される画素 52の基本擬似法線ベクトル Ncを取得する(S204)。
[0042] その後、ゲーム装置 10は、 S201で取得された合成比率 a, b, cに従って、基本擬 似法線ベクトル Na, Nb, Ncを合成することによって、画素 52の擬似法線ベクトル N を取得する(S205)。すなわち、ゲーム装置 10は、下記の式(1)に示すように、基本 擬似法線ベクトル Naに係数 aを乗じてなるベクトル Na'と、基本擬似法線ベクトル Nb に係数 bを乗じてなるベクトル Nb'と、基本擬似法線ベクトル Ncに係数 cを乗じてなる ベクトル Nc'と、の和のベクトルを算出する。そして、ゲーム装置 10は、そのベクトル を単位ベクトルに正規化することによって、画素 52の擬似法線ベクトル Nを取得する
[0043] 國
→ → → →
N= a - N a + b - N b + c - N c . · · ( 1 )
[0044] またゲーム装置 10は、選手オブジェクト 46のユニフォーム部分を描画する場合、以 上のようにして取得された擬似法線ベクトル Nに基づいて、選手オブジェクト 46のュ 二フォーム部分に係る各画素の輝度を決定する。すなわち図 12に示すように、各画 素 52の輝度力 その画素 52から光源 50への方向を示す光源方向ベクトル Lと、その 画素 52の擬似法線ベクトル Nと、のなす角度 Θが小さい場合にはその画素 52の輝 度が高くなり、かつ、該角度 Θが大きい場合にはその画素 52の輝度が低くなるように して決定される。例えば、ゲーム装置 10は、光源方向ベクトル Lと擬似法線ベクトル N との内積値を算出し、この内積値に基づいて画素の色情報を算出する。このようにし て、選手オブジェクト 46のユニフォーム部分に対して、ユニフォームテクスチャ画像の 各画素の擬似法線ベクトルに基づいてシェーディング処理が施される。すなわち、選 手オブジェクト 46のユニフォーム部分に対して精細な陰影が施される。
[0045] 以上のように、ゲーム装置 10は、選手オブジェクト 46の走行時において選手ォブ ジェタト 46のユニフォーム部分を描画する場合、各画素の擬似法線ベクトルを選手 オブジェクト 46の現在の姿勢に基づ!/、て取得し、その擬似法線ベクトルに基づ!/、て シェーディング処理を実行する。このため、ゲーム装置 10では、選手オブジェクト 46 の走行時にお!/、て、選手オブジェクト 46のユニフォーム部分に表される陰影が選手 オブジェクト 46の姿勢変化に応じて変化する様子が好適に演出される。
[0046] なおゲーム装置 10は、図 5に示すような合成比率テーブルを記憶する代わりに、例 えば図 9に示すような法線マップテーブルを記憶するようにしてもよい。すなわち、ゲ ーム装置 10は、選手オブジェクト 46の姿勢に関する姿勢条件に対応づけて法線マ ップを記憶するようにしてもよい。この場合、 DVD— ROM25には、ユニフォームテク スチヤ画像に対応する法線マップとして 5種類の法線マップ A乃至 Eが記憶される。
[0047] 図 5に示す合成比率テーブルを記憶する態様によれば、図 9に示す法線マップテ 一ブルを記憶する態様に比べて、あらかじめ記憶しておく必要のある法線マップの数 が少なくてすむ。このため、図 5に示す合成比率テーブルを記憶する態様によれば、 選手オブジェクト 46のユニフォーム上の陰影表現のためのデータ量の削減を図るこ とが可能になる。
[0048] 次に、ゲーム装置 10において実現される機能について説明する。図 10は、ゲーム 装置 10において実現される機能のうち、本発明に関連するものを主として示す機能 ブロック図である。図 10に示すように、ゲーム装置 10は、記憶部 60と、姿勢判定部 6 2と、擬似法線ベクトル取得部 64と、シェーディング処理実行部 66と、を機能的に含 んでいる。これらの機能は、例えば図 6及び図 7に示す処理を実行するためのプログ ラムが DVD— ROM25から読み出され、ゲーム装置 10によって実行されることによ つて実現される。
[0049] [記憶部] 記憶部 60は例えば主記憶 26や DVD— ROM25によって実現される。記憶部 60 には、例えば選手オブジェクト 46の位置や姿勢を示す情報が記憶される。
[0050] [擬似法線ベクトル情報記憶部]
記憶部 60には擬似法線ベクトル情報記憶部 60aが含まれる。擬似法線ベクトル情 報記憶部 60aは、選手オブジェクト 46の姿勢に関する姿勢条件と、擬似法線ベクトル 情報と、を対応づけて記憶する。ここで、擬似法線ベクトル情報は、選手オブジェクト 46の表面にマッピングされるユニフォームテクスチャ画像の各画素の擬似法線べタト ルを取得するための情報である。
[0051] 例えば、記憶部 60はユニフォームテクスチャ画像に対応する法線マップとして複数 の法線マップ (例えば法線マップ A乃至 C)を記憶する。この場合、記憶部 60には、 ユニフォームテクスチャ画像の各画素に対応づけて複数の基本擬似法線ベクトル( 例えば 3つの基本擬似法線ベクトル)が記憶されることになる。またこの場合、擬似法 線ベクトル情報記憶部 60aは、例えば図 5に示したような合成比率テーブルを記憶す る。このとき、合成比率テーブルに記憶される合成比率が「擬似法線ベクトル情報」に 相当する。
[0052] または、擬似法線ベクトル情報記憶部 60aは、選手オブジェクト 46の姿勢に関する 姿勢条件と、法線マップと、を対応づけて記憶するようにしてもよい。すなわち、擬似 法線ベクトル情報記憶部 60aは、例えば図 9に示したような法線マップテーブルを記 憶するようにしてもよい。この場合、法線マップが「擬似法線ベクトル情報」に相当する
[0053] [姿勢判定部]
姿勢判定部 62は、擬似法線ベクトル情報記憶部 60aに記憶される擬似法線べタト ル情報に対応づけられた姿勢条件を、選手オブジェクト 46の現在の姿勢が満足する か否力、を判定する。
[0054] [擬似法線ベクトル取得部]
擬似法線ベクトル取得部 64は、選手オブジェクト 46の姿勢が姿勢条件を満足する と姿勢判定部 62によって判定された場合、該姿勢条件に対応づけて擬似法線べタト ル情報記憶部 60aに記憶される擬似法線ベクトル情報に基づいて、ユニフォームテ タスチヤ画像の各画素の擬似法線ベクトルを取得する。
[0055] [シェーディング処理実行部]
シェーディング処理実行部 66は、擬似法線ベクトル取得部 64によって取得される 擬似法線ベクトルに基づいて、選手オブジェクト 46の表面(ユニフォーム部分)に対 するシェーディング処理を実行する。
[0056] 以上説明したように、ゲーム装置 10によれば、選手オブジェクト 46の走行時におい て、選手オブジェクト 46のユニフォーム上に表される陰影が選手オブジェクト 46の姿 勢変化に応じて変化する様子を好適に演出することが可能になる。
[0057] なお、本発明は以上に説明した実施の形態に限定されるものではない。
[0058] 例えば、ゲーム装置 10は選手オブジェクト 46の姿勢を選手オブジェクト 46の両腕 の骨の間の角度、又は肩の回転角によって識別するようにしてもよい。すなわち、図 5 に示す合成比率テーブル又は図 9に示す法線マップテーブルでは、それらの角度に 関する条件(姿勢条件)に対応づけて、合成比率又は法線マップが記憶されるように してもよい。また例えば、ゲーム装置 10は選手オブジェクト 46の姿勢を上半身の正 面方向と下半身の正面方向との間の角度によって識別するようにしてもよい。すなわ ち、図 5に示す合成比率テーブル又は図 9に示す法線マップテーブルでは、該角度 に関する条件(姿勢条件)に対応づけて、合成比率又は法線マップが記憶されるよう にしてもよい。
[0059] また例えば、以上の説明では、プログラムを情報記憶媒体たる DVD— ROM25か ら家庭用ゲーム機 11に供給するようにした力 通信ネットワークを介してプログラムを 家庭等に配信するようにしてもよい。図 11は、通信ネットワークを用いたプログラム配 信システムの全体構成を示す図である。図 11に基づレ、て本発明に係るプログラム配 信方法を説明する。図 11に示すように、このプログラム配信システム 100は、ゲーム データベース 102、サーバ 104、通信ネットワーク 106、パソコン 108、家庭用ゲーム 機 110、 PDA (携帯情報端末) 112を含んでいる。このうち、ゲームデータベース 10 2とサーバ 104とによりプログラム配信装置 114が構成される。通信ネットワーク 106 は、例えばインターネットやケーブルテレビネットワークを含んで構成されている。この システムでは、ゲームデータベース(情報記憶媒体) 102に、 DVD— ROM25の記 憶内容と同様のプログラムが記憶されている。そして、パソコン 108、家庭用ゲーム機 110又は PDA112等を用いて需要者がゲーム配信要求をすることにより、それが通 信ネットワーク 106を介してサーバ 104に伝えられる。そして、サーバ 104はゲーム配 信要求に応じてゲームデータベース 102からプログラムを読み出し、それをパソコン 1 08、家庭用ゲーム機 110、 PDA112等、ゲーム配信要求元に送信する。ここではゲ ーム配信要求に応じてゲーム配信するようにした力 サーバ 104から一方的に送信 するようにしてもよい。また、必ずしも一度にゲームの実現に必要な全てのプログラム を配信(一括配信)する必要はなぐゲームの局面に応じて必要な部分を配信(分割 酉己信)するようにしてもよい。このように通信ネットワーク 106を介してゲーム配信する ようにすれば、プログラムを需要者は容易に入手すること力 Sできるようになる。
また例えば、本発明はサッカーゲーム以外のゲームを実行するゲーム装置にも適 用すること力 Sできる。また、本発明はゲーム装置以外の画像処理装置にも適用するこ と力 Sできる。

Claims

請求の範囲
[1] オブジェクトが配置された仮想 3次元空間を所与の視点から見た様子を表す画像を 表示する画像処理装置にお!/、て、
前記オブジェクトの姿勢に関する姿勢条件と、前記オブジェクトの表面にマッピング されるテクスチャ画像の各画素の擬似法線ベクトルを取得するための擬似法線べタト ル情報と、を対応づけて記憶する擬似法線ベクトル情報記憶手段と、
前記擬似法線ベクトル情報記憶手段に記憶される擬似法線ベクトル情報に対応づ けられた前記姿勢条件を前記オブジェクトの姿勢が満足するか否力、を判定する姿勢 判定手段と、
前記オブジェクトの姿勢が満足する前記姿勢条件に対応づけて前記擬似法線べク トル情報記憶手段に記憶される擬似法線ベクトル情報に基づいて、前記テクスチャ 画像の各画素の擬似法線ベクトルを取得する擬似法線ベクトル取得手段と、 前記擬似法線ベクトル取得手段によって取得される擬似法線ベクトルに基づいて、 前記オブジェクト表面に対するシェーディング処理を実行するシェーディング処理実 行手段と、
を含むことを特徴とする画像処理装置。
[2] 請求の範囲第 1項に記載の画像処理装置において、
前記テクスチャ画像の各画素に対応づけて、複数の基本擬似法線ベクトルを記憶 する基本擬似法線ベクトル記憶手段を含み、
前記擬似法線ベクトル情報は、前記複数の基本擬似法線ベクトルの合成比率を示 す情報であり、
前記擬似法線ベクトル取得手段は、前記テクスチャ画像の各画素の擬似法線べク トルを、前記オブジェクトの姿勢が満足する前記姿勢条件に対応する前記合成比率 に基づ!/、て、該画素に対応づけて前記基本擬似法線ベクトル記憶手段に記憶され る複数の基本擬似法線ベクトルを合成することによつて取得する、
ことを特徴とする画像処理装置。
[3] 請求の範囲第 1項に記載の画像処理装置において、
前記擬似法線ベクトル情報は、前記テクスチャ画像の各画素の擬似法線ベクトルを 示す情報であることを特徴とする画像処理装置。
[4] オブジェクトが配置された仮想 3次元空間を所与の視点から見た様子を表す画像を 表示する画像処理装置の制御方法にお!/、て、
前記オブジェクトの姿勢に関する姿勢条件と、前記オブジェクトの表面にマッピング されるテクスチャ画像の各画素の擬似法線ベクトルを取得するための擬似法線べタト ル情報と、を対応づけて記憶してなる擬似法線ベクトル情報記憶手段に記憶される 前記擬似法線ベクトル情報に対応づけられた前記姿勢条件を前記オブジェクトの姿 勢が満足するか否力、を判定する姿勢判定ステップと、
前記オブジェクトの姿勢が満足する前記姿勢条件に対応づけて前記擬似法線べク トル情報記憶手段に記憶される擬似法線ベクトル情報に基づいて、前記テクスチャ 画像の各画素の擬似法線ベクトルを取得する擬似法線ベクトル取得ステップと、 前記擬似法線ベクトル取得ステップによって取得される擬似法線ベクトルに基づい て、前記オブジェクト表面に対するシェーディング処理を実行するシェーディング処 理実行ステップと、
を含むことを特徴とする画像処理装置の制御方法。
[5] オブジェクトが配置された仮想 3次元空間を所与の視点から見た様子を表す画像を 表示する画像処理装置としてコンピュータを機能させるためのプログラムを記録した コンピュータ読み取り可能な情報記憶媒体であって、
前記オブジェクトの姿勢に関する姿勢条件と、前記オブジェクトの表面にマッピング されるテクスチャ画像の各画素の擬似法線ベクトルを取得するための擬似法線べタト ル情報と、を対応づけて記憶する擬似法線ベクトル情報記憶手段、
前記擬似法線ベクトル情報記憶手段に記憶される擬似法線ベクトル情報に対応づ けられた前記姿勢条件を前記オブジェクトの姿勢が満足するか否力、を判定する姿勢 判定手段、
前記オブジェクトの姿勢が満足する前記姿勢条件に対応づけて前記擬似法線べク トル情報記憶手段に記憶される擬似法線ベクトル情報に基づいて、前記テクスチャ 画像の各画素の擬似法線ベクトルを取得する擬似法線ベクトル取得手段、及び、 前記擬似法線ベクトル取得手段によって取得される擬似法線ベクトルに基づいて、 前記オブジェクト表面に対するシェーディング処理を実行するシェーディング処理実 行手段、
として前記コンピュータを機能させるためのプログラムを記録したコンピュータ読み 取り可能な情報記憶媒体。
PCT/JP2007/066742 2006-09-21 2007-08-29 Dispositif de traitement d'image, son procédé de commande, et support d'enregistrement d'information WO2008035550A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP07806219A EP2065854B1 (en) 2006-09-21 2007-08-29 posture dependent normal vectors for texture mapping
US12/442,071 US20090267942A1 (en) 2006-09-21 2007-08-29 Image processing device, control method for image processing device and information recording medium
CN2007800297618A CN101501733B (zh) 2006-09-21 2007-08-29 图像处理装置、图像处理装置的控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-255459 2006-09-21
JP2006255459A JP4079378B2 (ja) 2006-09-21 2006-09-21 画像処理装置、画像処理装置の制御方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2008035550A1 true WO2008035550A1 (fr) 2008-03-27

Family

ID=39200377

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/066742 WO2008035550A1 (fr) 2006-09-21 2007-08-29 Dispositif de traitement d'image, son procédé de commande, et support d'enregistrement d'information

Country Status (7)

Country Link
US (1) US20090267942A1 (ja)
EP (1) EP2065854B1 (ja)
JP (1) JP4079378B2 (ja)
KR (1) KR101030204B1 (ja)
CN (1) CN101501733B (ja)
TW (1) TW200820133A (ja)
WO (1) WO2008035550A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5589818B2 (ja) * 2010-12-15 2014-09-17 株式会社三洋物産 遊技機
US20120280991A1 (en) * 2011-05-03 2012-11-08 Microsoft Corporation Employing mesh files to animate transitions in client applications
JP5861748B2 (ja) * 2014-07-30 2016-02-16 株式会社三洋物産 遊技機
GB201414144D0 (en) * 2014-08-08 2014-09-24 Imagination Tech Ltd Relightable texture for use in rendering an image
US9922452B2 (en) * 2015-09-17 2018-03-20 Samsung Electronics Co., Ltd. Apparatus and method for adjusting brightness of image
JP6319496B2 (ja) * 2017-04-11 2018-05-09 株式会社三洋物産 遊技機
CN108970112A (zh) * 2018-07-05 2018-12-11 腾讯科技(深圳)有限公司 姿势的调整方法和装置、存储介质、电子装置
JP2019063653A (ja) * 2019-02-05 2019-04-25 株式会社三洋物産 遊技機

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07254072A (ja) * 1994-01-26 1995-10-03 Hitachi Ltd テクスチャマッピング方法及び装置
JP2001283250A (ja) 2000-03-30 2001-10-12 Konami Co Ltd 画像合成装置及び方法、情報記憶媒体、プログラム配信装置及び方法
JP2004102900A (ja) 2002-09-12 2004-04-02 Toppan Printing Co Ltd 画像生成方法及びその装置
JP2006127412A (ja) * 2004-11-01 2006-05-18 Sony Computer Entertainment Inc 描画処理装置および描画処理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW284870B (ja) * 1994-01-26 1996-09-01 Hitachi Ltd
US6771264B1 (en) 1998-08-20 2004-08-03 Apple Computer, Inc. Method and apparatus for performing tangent space lighting and bump mapping in a deferred shading graphics processor
US6525731B1 (en) * 1999-11-09 2003-02-25 Ibm Corporation Dynamic view-dependent texture mapping
JP3269814B2 (ja) * 1999-12-03 2002-04-02 株式会社ナムコ 画像生成システム及び情報記憶媒体
US20030193503A1 (en) * 2002-04-10 2003-10-16 Mark Seminatore Computer animation system and method
US7362335B2 (en) * 2002-07-19 2008-04-22 Silicon Graphics, Inc. System and method for image-based rendering with object proxies
KR20050080334A (ko) * 2004-02-09 2005-08-12 삼성전자주식회사 멀티 텍스쳐링 방법 및 이를 기록한 기록매체
JP2006195882A (ja) * 2005-01-17 2006-07-27 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
JP3996630B2 (ja) * 2005-01-19 2007-10-24 松下電器産業株式会社 画像変換方法、テクスチャマッピング方法、画像変換装置、サーバークライアントシステム、画像変換プログラム、影認識方法および影認識装置
CN100417179C (zh) * 2006-04-14 2008-09-03 浙江大学 用于虚拟展示系统的单色图像区域色彩置换方法
US8115774B2 (en) * 2006-07-28 2012-02-14 Sony Computer Entertainment America Llc Application of selective regions of a normal map based on joint position in a three-dimensional model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07254072A (ja) * 1994-01-26 1995-10-03 Hitachi Ltd テクスチャマッピング方法及び装置
JP2001283250A (ja) 2000-03-30 2001-10-12 Konami Co Ltd 画像合成装置及び方法、情報記憶媒体、プログラム配信装置及び方法
JP2004102900A (ja) 2002-09-12 2004-04-02 Toppan Printing Co Ltd 画像生成方法及びその装置
JP2006127412A (ja) * 2004-11-01 2006-05-18 Sony Computer Entertainment Inc 描画処理装置および描画処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2065854A4

Also Published As

Publication number Publication date
KR20090040897A (ko) 2009-04-27
JP2008077372A (ja) 2008-04-03
US20090267942A1 (en) 2009-10-29
JP4079378B2 (ja) 2008-04-23
EP2065854A1 (en) 2009-06-03
TW200820133A (en) 2008-05-01
CN101501733A (zh) 2009-08-05
CN101501733B (zh) 2012-02-29
KR101030204B1 (ko) 2011-04-22
EP2065854A4 (en) 2010-09-08
EP2065854B1 (en) 2012-12-12

Similar Documents

Publication Publication Date Title
JP4833674B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
US9717988B2 (en) Rendering system, rendering server, control method thereof, program, and recording medium
US20090244064A1 (en) Program, information storage medium, and image generation system
WO2008035550A1 (fr) Dispositif de traitement d'image, son procédé de commande, et support d'enregistrement d'information
US20050009602A1 (en) Storage medium and game device storing image generating program
JP3926828B1 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
KR100972771B1 (ko) 게임 장치, 게임 장치의 제어 방법 및 정보 기억 매체
JP4031509B1 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP3366894B2 (ja) 3次元画像合成装置及び方法、情報記憶媒体、プログラム配信装置及び方法
JP2005032140A (ja) 画像生成システム、プログラム及び情報記憶媒体
JP4749198B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP2006252426A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2001283244A (ja) 3次元画像合成装置及び方法、情報記憶媒体、プログラム配信装置及び方法
US20100177097A1 (en) Image processor, image processing method, program, and information storage medium
JP2005050070A (ja) 画像処理装置、画像処理方法及びプログラム
JP3686928B2 (ja) ゲーム装置、プログラム及び画像表示方法
JP4838221B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP4838230B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2006252425A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2006126918A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびその画像処理プログラムを記録したコンピュータ読み取り可能記録媒体
JP2006318390A (ja) 画像生成システム、プログラム及び情報記憶媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780029761.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07806219

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 1020097003653

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2007806219

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12442071

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE