WO2009119399A1 - 画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体 - Google Patents

画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体 Download PDF

Info

Publication number
WO2009119399A1
WO2009119399A1 PCT/JP2009/055270 JP2009055270W WO2009119399A1 WO 2009119399 A1 WO2009119399 A1 WO 2009119399A1 JP 2009055270 W JP2009055270 W JP 2009055270W WO 2009119399 A1 WO2009119399 A1 WO 2009119399A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
turf
screen
display output
processing apparatus
Prior art date
Application number
PCT/JP2009/055270
Other languages
English (en)
French (fr)
Inventor
敬一郎 荒張
Original Assignee
株式会社コナミデジタルエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コナミデジタルエンタテインメント filed Critical 株式会社コナミデジタルエンタテインメント
Priority to US12/934,905 priority Critical patent/US20110025687A1/en
Priority to KR1020107018341A priority patent/KR101139747B1/ko
Priority to CN2009801062464A priority patent/CN101952857B/zh
Publication of WO2009119399A1 publication Critical patent/WO2009119399A1/ja

Links

Images

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8011Ball

Definitions

  • the present invention relates to an image processing apparatus, a control method for the image processing apparatus, a program, and an information storage medium.
  • An image processing apparatus that displays a virtual three-dimensional space on a screen is known.
  • a game device image processing device
  • a virtual three-dimensional space in which a field object representing a field, a player object representing a soccer player, and a ball object representing a soccer ball are arranged is a game screen. Is displayed.
  • the present invention has been made in view of the above-described problems, and the object thereof is to reduce the processing load when, for example, expressing a state in which a part of a player's foot (shoes) is hidden by the grass growing on the field.
  • An image processing apparatus, a control method for the image processing apparatus, a program, and an information storage medium are provided.
  • an image processing apparatus is an image processing apparatus that displays on a screen a virtual three-dimensional space in which a first object and a second object are arranged.
  • a third object for performing related display output is arranged in the virtual three-dimensional space, and the third object is moved according to the movement of the second object; the first object; the second object; Limiting means for limiting display output of the third object on the screen based on a distance between the third object and the third object.
  • An image processing apparatus performs display output related to the first object in an image processing apparatus that displays a virtual three-dimensional space in which a first object and a second object are arranged on a screen.
  • Limiting means for limiting the display output of the third object on the screen in accordance with a change in the distance between them.
  • An image processing apparatus control method is the image processing apparatus control method for displaying a virtual three-dimensional space in which a first object and a second object are arranged on a screen.
  • An image processing apparatus control method is the image processing apparatus control method for displaying a virtual three-dimensional space in which a first object and a second object are arranged on a screen.
  • a program according to the present invention is a program that causes a computer to function as an image processing apparatus that displays a virtual three-dimensional space in which a first object and a second object are arranged on a screen.
  • a third object for performing a related display output in the virtual three-dimensional space, a means for moving the third object according to the movement of the second object, and the first object and the second object or
  • a program according to the present invention is a program for causing a computer to function as an image processing apparatus that displays a virtual three-dimensional space in which a first object and a second object are arranged on a screen.
  • a program for causing the computer to function as limiting means for limiting display output of the whole or part of the third object to the screen in accordance with a change in the distance between the object or the third object. is there.
  • the information storage medium according to the present invention is a computer-readable information storage medium recording the above program.
  • a program distribution apparatus according to the present invention is a program distribution apparatus that includes an information storage medium that records the program, reads the program from the information storage medium, and distributes the program.
  • the program distribution method according to the present invention is a program distribution method for reading and distributing the program from an information storage medium storing the program.
  • the present invention relates to an image processing apparatus that displays a virtual three-dimensional space in which a first object and a second object are arranged on a screen.
  • the third object for performing display output related to the first object is arranged in the virtual three-dimensional space, and the third object moves according to the movement of the second object. Also, based on the distance between the first object and the second object or the third object (or with a change in the distance between the first object and the second object or the third object).
  • the display output of the third object on the screen is limited. “Restrict the display output of the third object on the screen” means, for example, that the whole or part of the third object is not displayed on the screen, or the third object is difficult for the user to recognize (difficult to see). To be).
  • an object representing a field is a “first object”
  • an object representing a foot (shoe) of a soccer player is a “second object”
  • an object representing a grass is a “third object”.
  • the second object is a three-dimensional object
  • the restriction unit includes the third object in the screen by including the whole or a part of the third object in the second object. You may make it restrict
  • the limiting means may limit the display output of the third object on the screen by reducing the size of the third object.
  • the condition related to the distance between the first object and the second object or the third object corresponds to the position control information related to the position control of the vertex of the third object.
  • Means for storing the third object control data, and the limiting means corresponds to the condition that a current distance between the first object and the second object or the third object is satisfied.
  • the position of the vertex of the third object may be controlled based on the position control information.
  • it includes means for storing third object control data for specifying a position of a vertex of the third object in each frame when the second object moves, and the limiting means includes The position of the vertex of the third object may be controlled based on the third object control data.
  • the restricting means may restrict display output of the third object on the screen by increasing transparency of all or part of the third object.
  • a condition relating to a distance between the first object and the second object or the third object, and transparency control information relating to transparency control of each point of the third object Means for storing third object control data associated with each other, wherein the limiting means satisfies the condition that a current distance between the first object and the second object or the third object is satisfied.
  • the transparency of each point of the third object may be controlled based on the corresponding transparency control information.
  • it includes means for storing third object control data for specifying the transparency of each point of the third object in each frame when the second object moves, and the limiting means includes The transparency of each point of the third object may be controlled based on the third object control data.
  • the restricting unit may include the third object on the screen when a distance between the first object and the second object or the third object is a predetermined distance or more.
  • the display output may be limited.
  • the limiting means is based on the posture of the second object when the distance between the first object and the second object or the third object is less than the predetermined distance.
  • a means for restricting display output of a part of the third object on the screen may be included.
  • An image processing apparatus performs display output related to the first object in an image processing apparatus that displays a virtual three-dimensional space in which a first object and a second object are arranged on a screen.
  • a third object for disposing in the virtual three-dimensional space, and moving the third object according to the movement of the second object; and based on the posture of the second object or the third object, Limiting means for limiting the display output of the third object.
  • An image processing apparatus control method is the image processing apparatus control method for displaying a virtual three-dimensional space in which a first object and a second object are arranged on a screen. Placing a third object for performing related display output in the virtual three-dimensional space, moving the third object according to the movement of the second object, and changing the posture of the second object or the third object And a limiting step of limiting the display output of the third object on the screen.
  • a program according to the present invention is a program for causing a computer to function as an image processing apparatus that displays a virtual three-dimensional space in which a first object and a second object are arranged on a screen. Means for disposing a third object for performing display output related to the object in the virtual three-dimensional space, and moving the third object according to movement of the second object; and the second object or the third object.
  • This is a program for causing the computer to function as a restricting means for restricting the display output of the third object on the screen based on the posture.
  • the information storage medium according to the present invention is a computer-readable information storage medium recording the above program.
  • a program distribution apparatus according to the present invention is a program distribution apparatus that includes an information storage medium that records the program, reads the program from the information storage medium, and distributes the program.
  • the program distribution method according to the present invention is a program distribution method for reading and distributing the program from an information storage medium storing the program.
  • the present invention relates to an image processing apparatus that displays a virtual three-dimensional space in which a first object and a second object are arranged on a screen.
  • the third object for performing display output related to the first object is arranged in the virtual three-dimensional space, and the third object moves according to the movement of the second object.
  • the display output of the third object on the screen is limited based on the posture of the second object or the third object.
  • an object representing a field is a “first object”
  • an object representing a foot (shoe) of a soccer player is a “second object”
  • an object representing a grass is a “third object”.
  • the second object is a three-dimensional object
  • the restriction unit includes the third object in the screen by including the whole or a part of the third object in the second object. You may make it restrict
  • the limiting means may limit the display output of the third object on the screen by reducing the size of the third object.
  • the third object control data is stored that associates the condition related to the posture of the second object or the third object with the position control information related to the position control of the vertex of the third object.
  • the limiting means controls the position of the vertex of the third object based on the position control information corresponding to the condition that the current posture of the second object or the third object satisfies. You may do it.
  • the second object control data for specifying the posture of the second object in each frame when the second object moves and the second object move Means for storing the third object control data for specifying the position of the vertex of the third object in each of the frames, and when the second object moves, by reproducing the second object control data, And means for changing the posture of the second object, wherein the limiting means reproduces the third object control data in synchronization with the reproduction of the second object control data, whereby the vertex of the third object is reproduced.
  • the position may be controlled.
  • the restricting means may restrict display output of the third object on the screen by increasing transparency of all or part of the third object.
  • the third object control data obtained by associating the condition relating to the posture of the second object or the third object and the transparency control information relating to the transparency control of each point of the third object is associated.
  • Means for storing, and the limiting means determines the transparency of each point of the third object based on the transparency control information corresponding to the condition that the current posture of the second object or the third object satisfies. You may make it control.
  • the present invention is applied to a game device which is an aspect of an image processing device.
  • the game device according to the embodiment of the present invention is realized by, for example, a home game machine (stationary game machine), a portable game machine, a mobile phone, a personal digital assistant (PDA), a personal computer, or the like.
  • a case where the game device according to the embodiment of the present invention is realized by a consumer game machine will be described.
  • the present invention can also be applied to an image processing apparatus other than a game apparatus.
  • FIG. 1 shows an overall configuration of a game apparatus (image processing apparatus) according to a first embodiment of the present invention.
  • a game apparatus 10 shown in FIG. 1 includes a consumer game machine 11, a monitor 32, a speaker 34, and an optical disk 36 (information storage medium).
  • the monitor 32 and the speaker 34 are connected to the consumer game machine 11.
  • the monitor 32 for example, a home television receiver is used
  • the speaker 34 for example, a speaker built in the home television receiver is used.
  • the home game machine 11 is a known computer game system.
  • the home game machine 11 includes a bus 12, a microprocessor 14, a main memory 16, an image processing unit 18, an input / output processing unit 20, an audio processing unit 22, an optical disc reading unit 24, a hard disk 26, a communication interface 28, and a controller 30. . Components other than the controller 30 are accommodated in the housing of the consumer game machine 11.
  • the microprocessor 14 controls each unit of the consumer game machine 11 based on an operating system stored in a ROM (not shown) and a program read from the optical disk 36 or the hard disk 26.
  • the main memory 16 includes a RAM, for example. Programs and data read from the optical disk 36 or the hard disk 26 are written in the main memory 16 as necessary.
  • the main memory 16 is also used as a working memory for the microprocessor 14.
  • the bus 12 is for exchanging addresses and data among the units of the consumer game machine 11.
  • the microprocessor 14, the main memory 16, the image processing unit 18, and the input / output processing unit 20 are connected by the bus 12 so that mutual data communication is possible.
  • the image processing unit 18 includes a VRAM, and draws a game screen on the VRAM based on image data sent from the microprocessor 14.
  • the image processing unit 18 converts the game screen drawn on the VRAM into a video signal and outputs the video signal to the monitor 32 at a predetermined timing. That is, the image processing unit 18 receives vertex coordinates, vertex color information (RGB values), texture coordinates, alpha values, and the like of each polygon in the viewpoint coordinate system from the microprocessor 14. Then, using such information, the color information, Z value (depth information), alpha value and the like of each pixel constituting the display image are drawn in the display buffer of the VRAM.
  • the texture image is written in the VRAM in advance, and the region in the texture image specified by each texture coordinate is mapped (pasted) to the polygon specified by the vertex coordinate corresponding to the texture coordinate. It has become.
  • the display image generated in this way is output to the monitor 32 at a predetermined timing.
  • the input / output processing unit 20 is an interface for the microprocessor 14 to access the audio processing unit 22, the optical disk reading unit 24, the hard disk 26, the communication interface 28, and the controller 30.
  • the sound processing unit 22 includes a sound buffer, and reproduces various sound data such as game music, game sound effects, and messages read out from the optical disk 36 or the hard disk 26 to the sound buffer and outputs them from the speaker 34.
  • the communication interface 28 is an interface for connecting the consumer game machine 11 to a communication network such as the Internet by wire or wireless.
  • the optical disk reading unit 24 reads programs and data recorded on the optical disk 36.
  • the optical disc 36 is used to supply the program and data to the consumer game machine 11, but other information storage media such as a memory card may be used. Further, for example, a program or data may be supplied to the consumer game machine 11 from a remote place via a communication network such as the Internet.
  • the hard disk 26 is a general hard disk device (auxiliary storage device).
  • the controller 30 is a general-purpose operation input means for the user to input various game operations.
  • the input / output processing unit 20 scans the state of the controller 30 at regular intervals (for example, every 1/60 seconds), and passes an operation signal representing the scan result to the microprocessor 14 via the bus 12.
  • the microprocessor 14 determines the player's game operation based on the operation signal.
  • the controller 30 may be connected to the consumer game machine 11 by wire or wirelessly.
  • a soccer game is executed by a program read from the optical disk 36 or the hard disk 26.
  • FIG. 2 shows an example of a virtual three-dimensional space.
  • a field object 42 (first object) representing a soccer field is arranged in the virtual three-dimensional space 40.
  • a goal object 44 representing a goal
  • a player object 46 representing a soccer player
  • a ball object 48 representing a soccer ball
  • the player object 46 moves in the virtual three-dimensional space 40 according to a user operation or a predetermined algorithm
  • the ball object 48 moves in the virtual three-dimensional space 40 according to the user operation or a predetermined algorithm.
  • 22 player objects 46 are arranged on the field object 42. In FIG. 2, each object is simplified.
  • a texture image is mapped to each object.
  • the field object 42 is mapped with a texture image in which grass, a goal line 43, a touch line 45, and the like are drawn.
  • a texture image in which a soccer player's face is drawn, a texture image in which shoes are drawn, and the like are mapped to the player object 46.
  • each vertex of the player object 46 (that is, each vertex of a plurality of polygons constituting the player object 46) is managed in a local coordinate system with the representative point of the player object 46 as the origin.
  • the position of the representative point of the player object 46 is managed in the world coordinate system (WxWyWz coordinate system shown in FIG. 2).
  • the world coordinate value of each vertex of the player object 46 is specified based on the world coordinate value of the representative point and the local coordinate value of each vertex. The same applies to the position of each vertex of the ball object 48.
  • a plurality of skeletons are set in the player object 46.
  • the skeleton includes a joint corresponding to a joint portion and a bone connecting the joints.
  • Each joint or bone is associated with at least a part of a vertex of a polygon that is a constituent element of the player object 46.
  • the vertex associated with the joint or bone moves based on the state change of the joint or bone, and as a result, the posture of the player object 46 is changed. Change.
  • a virtual camera 49 (viewpoint) is also set in the virtual three-dimensional space 40.
  • the virtual camera 49 moves in the virtual three-dimensional space 40 based on the movement of the ball object 48, for example.
  • a game screen showing the virtual three-dimensional space 40 viewed from the virtual camera 49 is displayed on the monitor 32. The user operates the player object 46 while looking at the game screen, and aims to generate a scoring event for his team.
  • FIG. 3 is a diagram showing an example of a shoe object 50 representing shoes worn by the player object 46 in the present embodiment.
  • the shoe object 50 includes a shoe body object 52 (second object) and a turf object 54 (third object).
  • the shoe body object 52 is a solid object, and the shoe body object 52 is hollow.
  • the turf object 54 is an object for performing display output related to the field object 42 and is an object for representing the turf growing on the field.
  • the turf object 54 is a plate-like object and is arranged perpendicular to the bottom surface of the shoe body object 52.
  • the turf object 54 is arranged at a position based on the shoe body object 52 and moves according to the movement of the shoe body object 52.
  • the positions of the vertices of the shoe main body object 52 and the turf object 54 are managed in the local coordinate system.
  • the portion 54a of the turf object 54 corresponding to the toe side portion 52a of the shoe main body object 52 is referred to as a “first portion”.
  • a portion 54b of the turf object 54 corresponding to the heel side portion 52b of the shoe main body object 52 is referred to as a “second portion”.
  • the shoe body object 52 moves while touching the field object 42 or leaving the field object 42. That is, the shoe main body object 52 moves such that the distance from the field object 42 changes.
  • the display output of the turf object 54 on the game screen is restricted or the restriction is released.
  • the display output of the turf object 54 on the game screen is restricted or the restriction is released.
  • the shoe body object 52 is not in contact with the field object 42
  • the turf object 54 is not displayed on the game screen.
  • the whole or part of the turf object 54 is displayed on the game screen.
  • the display output of a part of the turf object 54 on the game screen is restricted or the restriction is released based on the posture of the shoe main body object 52 (or the turf object 54).
  • the posture of the shoe main body object 52 is such that only the toe side portion 52a is in contact with the field object 42
  • the portion other than the first portion 54a of the turf object 54 is not displayed on the game screen.
  • the posture of the shoe main body object 52 is such that only the heel side portion 52b is in contact with the field object 42
  • portions other than the second portion 54b of the turf object 54 are not displayed on the game screen.
  • the posture of the shoe body object 52 is such that the toe side portion 52a and the heel side portion 52b are in contact with the field object 42, the entire turf object 54 is displayed on the game screen.
  • data stored in the game apparatus 10 will be described.
  • information indicating the current position of the player object 46 is stored in the main memory 16. More specifically, the world coordinate value of the representative point of the player object 46 and the local coordinate value of each vertex of the player object 46 are stored.
  • motion data for causing the player object 46 to perform various operations is stored in the optical disk 36 or the hard disk 26.
  • the motion data is data that defines a change in the position (local coordinate value) of the vertex of the player object 46 for each frame (for example, 1/60 seconds) when the player object 46 performs various operations.
  • the motion data can also be referred to as data defining changes in the posture of the player object 46 for each frame when the player object 46 performs various operations.
  • the motion data is data that defines a state change of each skeleton for each frame when the player object 46 performs various operations.
  • the game apparatus 10 causes the player object 46 to perform various operations by changing the position of the vertex of the player object 46 according to the motion data.
  • the motion data for example, traveling motion data (second object control data) is stored.
  • the running motion data is motion data for causing the player object 46 to perform a motion of running with both feet alternately raised, and is reproduced when the player object 46 moves.
  • turf object control data (third object control data) is stored in the optical disc 36 or the hard disk 26.
  • the turf object control data corresponds to the distance condition regarding the distance between the shoe object 50 (the shoe body object 52 or the turf object 54) and the field object 42 and the position control information regarding the position control of each vertex of the turf object 54. This data is attached.
  • the turf object control data is data obtained by associating the distance condition related to the posture of the shoe object 50 (the shoe body object 52 or the turf object 54) with the position control information.
  • FIG. 4 shows an example of turf object control data.
  • the turf object control data shown in FIG. 4 is data obtained by associating a combination of “distance condition” and “posture condition” with “position control information”.
  • the “distance condition” in FIG. 4 is a condition as to whether or not the shoe body object 52 is in contact with the field object 42.
  • the “distance condition” is a condition related to the distance between the shoe main body object 52 and the field object 42, but since the turf object 54 follows the shoe main body object 52, the “distance condition” is A condition relating to the distance between the turf object 54 and the field object 42 may be used.
  • the “posture condition” is a condition related to the posture of the shoe main body object 52.
  • the “posture condition” is a condition related to the posture of the shoe main body object 52, but the turf object 54 is arranged perpendicular to the bottom surface of the shoe main body object 52 (that is, the turf object 54). Therefore, the “posture condition” may be a condition related to the posture of the turf object 54.
  • position control information in FIG. 4 is information for acquiring local coordinate values of each vertex of the turf object 54, for example.
  • position control information for example, information indicating the relative position of each vertex of the turf object 54 with respect to the shoe main body object 52 (representative point and representative direction of the shoe main body object 52) in the local coordinate system of the player object 46. Is memorized.
  • position control information is determined when the shoe body object 52 is not in contact with the field object 42 and when the shoe body object 52 is in contact with the field object 42.
  • 5 to 7 are diagrams for explaining the contents of the position control information. In FIGS. 5 to 7, the portion represented by the dotted line of the turf object 54 is included in the shoe main body object 52.
  • each vertex of the turf object 54 is included so that the entire turf object 54 is included in the shoe body object 52. Is set (see FIG. 5).
  • Position control information when the shoe body object 52 is in contact with the field object 42 (1) when both the toe side portion 52a and the heel side portion 52b of the shoe body object 52 are in contact with the field object 42 (2) when only the toe side portion 52a of the shoe body object 52 is in contact with the field object 42, and (3) when only the heel side portion 52b of the shoe body object 52 is in contact with the field object 42, Position control information corresponding to the three types of postures of the shoe body object 52 is defined.
  • the entire turf object 54 is the shoe body object 52.
  • the position of each vertex of the turf object 54 is set so as to go outside (see FIG. 3).
  • the first part 54a of the turf object 54 (the part corresponding to the toe side part 52a)
  • the position of each vertex of the turf object 54 is set so that only the) comes out of the shoe body object 52 (see FIG. 6).
  • the second part 54b of the turf object 54 (the part corresponding to the heel side part 52b)
  • the position of each vertex of the turf object 54 is set so that only the) comes out of the shoe body object 52 (see FIG. 7).
  • FIG. 8 is a flowchart mainly showing processes related to the present invention among processes executed by the game apparatus 10 every predetermined time (for example, 1/60 seconds).
  • the microprocessor 14 executes the process shown in FIG. 8 in accordance with a program stored in the optical disk 36 or the hard disk 26.
  • the microprocessor 14 updates the state of each player object 46 and ball object 48 (S101).
  • the world coordinate value of the representative point of each player object 46 or ball object 48 is updated according to the player's operation or a predetermined algorithm.
  • the skeleton state (rotation angle and position) of the player object 46 is updated according to the motion data. That is, the state of the skeleton in the current frame is acquired from the motion data, and the state of the skeleton of the player object 46 is set to that state.
  • the local coordinate value of each vertex of the player object 46 is also updated.
  • the position (local coordinate value) of each vertex of the turf object 54 is updated by processing (S102 to S108) described below.
  • the microprocessor 14 executes the processing described below (S102 to S108) for each player object 46. Further, the processing (S102 to S108) described below includes both the turf object 54 associated with the shoe body object 52 corresponding to the left foot and the turf object 54 associated with the shoe body object 52 corresponding to the right foot. For each.
  • the microprocessor 14 determines whether or not at least one of the toe side portion 52a and the heel side portion 52b of the shoe body object 52 is in contact with the field object 42 (S102). In the processing of this step, it is determined whether or not the first reference point set on the bottom surface of the toe side portion 52a is in contact with the field object 42. Specifically, the distance between the first reference point and the field object 42 (that is, the distance between the first reference point and the perpendicular foot from the first reference point to the field object 42) is 0. It is determined whether or not there is. When this distance is 0, it is determined that the first reference point is in contact with the field object 42, and when this distance is greater than 0, it is determined that the first reference point is not in contact with the field object 42.
  • the toe side portion 52 a When the first reference point is in contact with the field object 42, it is determined that the toe side portion 52 a is in contact with the field object 42. When the first reference point and the field object 42 are sufficiently close, it may be determined that the toe side portion 52a is in contact with the field object 42. That is, it may be determined whether the distance between the first reference point and the field object 42 is equal to or less than a predetermined distance. When the distance between the first reference point and the field object 42 is equal to or less than the predetermined distance, it is determined that the toe side portion 52a is in contact with the field object 42, and the distance between the first reference point and the field object 42 is determined.
  • the toe side portion 52a is not in contact with the field object.
  • the heel side portion 52 b is in contact with the field object 42.
  • the microprocessor 14 performs first position control on the position of each vertex of the turf object 54.
  • the position control information is information indicating the relative position of each vertex of the turf object 54 with respect to the shoe body object 52 (the representative point and the representative direction of the shoe body object 52) in the local coordinate system of the player object 46. It is.
  • the local coordinate values of each vertex of the turf object 54 are the first position control information, the local coordinate value of the representative point of the shoe body object 52, the representative direction of the shoe body object 52, , Based on.
  • the entire turf object 54 is included in the shoe body object 52 (see FIG. 5).
  • the display output of the turf object 54 on the game screen is restricted. That is, the turf object 54 is not displayed on the game screen.
  • the microprocessor 14 determines that both the toe side portion 52a and the heel side portion 52b are It is determined whether or not it is in contact with the field object 42 (S104). In the process of this step, it is determined whether or not both the first reference point and the second reference point are in contact with the field object 42. When both the first reference point and the second reference point are in contact with the field object 42, it is determined that both the toe side portion 52 a and the heel side portion 52 b are in contact with the field object 42.
  • the microprocessor 14 uses the position of each vertex of the turf object 54 as the second position control information. Based on the setting (S105). In this case, the entire turf object 54 is moved out of the shoe body object 52 (see FIG. 3). As a result, the display output restriction on the entire turf object 54 is released. That is, the entire turf object 54 is displayed on the game screen, and a state in which the soccer player's shoes are hidden on the turf is displayed on the game screen.
  • the microprocessor 14 determines whether only the toe side portion 52a is in contact with the field object 42 (S106). In the process of this step, it is determined whether or not the first reference point is in contact with the field object 42. When it is determined that the first reference point is in contact with the field object 42, it is determined that only the toe side portion 52 a is in contact with the field object 42.
  • the microprocessor 14 sets the position of each vertex of the turf object 54 based on the third position control information (S107). ).
  • the first portion 54a of the turf object 54 is brought out of the shoe body object 52 (see FIG. 6).
  • the restriction on the display output for the first portion 54a of the turf object 54 is released. That is, the first portion 54a of the turf object 54 (the portion corresponding to the toe side portion 52a) is displayed on the game screen, and the state where the toe portion of the soccer player's shoes is hidden on the turf is displayed on the game screen.
  • the microprocessor 14 determines that only the heel side portion 52b of the shoe body object 52 is in contact with the field object 42. To do. Then, the microprocessor 14 sets the position of each vertex of the turf object 54 based on the fourth position control information (S108). In this case, only the second portion 54b of the turf object 54 is moved out of the shoe body object 52 (see FIG. 7). As a result, the display output restriction is released with respect to the second portion 54b of the turf object 54. That is, the second part 54b of the turf object 54 (the part corresponding to the heel side part 52b) is displayed on the game screen, and the heel part of the soccer player's shoes is hidden on the turf.
  • the microprocessor 14 and the image processing unit 18 update the game screen (S109).
  • the virtual three-dimensional space 40 is viewed from the virtual camera 49 based on the world coordinate value of the representative point of the player object 46, the local coordinate value of each vertex of the player object 46 (including the turf object 54), and the like.
  • An image representing the appearance is generated in the VRAM.
  • the image generated on the VRAM is displayed on the monitor 32 as a game screen.
  • the color of the turf object 54 is set based on the color of the position on the field object 42 corresponding to the arrangement position of the turf object 54 (or the shoe body object 52, the shoe object 50, and the player object 46). It is preferable to do so. If the color of the turf object 54 is different from the color of the field object 42 in the vicinity of the turf object 54, the user may feel uncomfortable. It is possible to prevent the user from feeling.
  • the “posture condition” in the turf object control data can be a condition related to the state of the foot skeleton.
  • the turf object control data may be data that defines a change in the position (local coordinate value) of each vertex of the turf object 54 in each frame when the player object 46 performs various actions (for example, running action).
  • the turf object control data may be data that defines a change in the position of each vertex of the turf object 54 in each frame when various types of motion data (for example, running motion data) are reproduced.
  • the entire turf object 54 associated with the shoe body object 52 corresponding to the right foot is displayed.
  • the position of each vertex of the turf object 54 is set so as to be included in the shoe main body object 52 corresponding to the right foot (see FIG. 5).
  • the entire turf object 54 associated with the shoe body object 52 corresponding to the right foot is outside the shoe body object 52 corresponding to the right foot.
  • the positions of the vertices of the turf object 54 are set so as to be arranged (see FIG. 3).
  • the first portion 54a of the turf object 54 associated with the shoe body object 52 corresponding to the right foot corresponds to the right foot.
  • the position of each vertex of the turf object 54 is set so that the other portion is placed in the shoe body object 52 corresponding to the right foot. 6).
  • the second portion 54b of the turf object 54 associated with the shoe body object 52 corresponding to the right foot corresponds to the right foot.
  • the position of each vertex of the turf object 54 is set so that the other portion is placed in the shoe body object 52 corresponding to the right foot. 7).
  • the turf object control data as described above is prepared for each motion data, for example, and stored in association with each motion data.
  • the motion data and the turf object control data may be integrated data.
  • each state of the turf object 54 is synchronized with the change in the state of the foot skeleton of the player object 46 (in other words, the position of each vertex of the shoe body object 52 or the posture of the shoe body object 52) according to the motion data.
  • the position of the vertex is changed according to the turf object control data.
  • the processing described below is executed instead of the processing of S102 to S108. That is, the position of each vertex of the turf object 54 in the current frame is specified from the turf object control data, and the position of each vertex of the turf object 54 is set.
  • the turf object 54 follows the shoe body object 52.
  • the game apparatus 10 it is possible to express a situation in which a part of the shoes (foot) of a soccer player is hidden by the grass that has grown on the field without arranging a large number of grass objects throughout the field object 42. That is, according to the game apparatus 10, the number of turf objects arranged in the virtual three-dimensional space 40 can be reduced. As a result, it is possible to reduce the processing load when expressing a situation in which a part of the foot (shoe) of the soccer player is hidden by the grass growing on the field.
  • the display output of the turf object 54 is limited by the distance between the shoe object 50 (the shoe body object 52 or the turf object 54) and the field object 42.
  • the turf object 54 is not displayed on the game screen. If the grass is displayed near the foot (shoes) despite the distance between the foot (shoes) of the soccer player and the field, the user feels uncomfortable. In this regard, according to the game apparatus 10, it is possible to ensure that the user does not feel such a sense of incongruity.
  • the display output of a part of the turf object 54 is restricted based on how the shoe body object 52 is in contact with the field object 42. For example, when only the toe side part 52a of the shoe body object 52 is in contact with the field object 42, only the first part 54a of the turf object 54 corresponding to the toe side part 52a is displayed on the game screen, and the other parts. Disappears from the game screen. Similarly, when only the heel side portion 52b of the shoe main body object 52 is not in contact with the field object 42, only the second portion 54b of the turf object 54 corresponding to the heel side portion 52b is displayed on the game screen. The part disappears from the game screen.
  • the portion of the turf object 54 corresponding to the portion of the shoe main body object 52 that is not in contact with the field object 42 is not displayed on the game screen. If the lawn is displayed near the part of the foot (shoe) of the soccer player that is not in contact with the field, the user will feel uncomfortable. In this regard, according to the game apparatus 10, it is possible to ensure that the user does not feel such a sense of incongruity.
  • the position of the turf object 54 is managed in the local coordinate system of the player object 46 in the same manner as the shoe body object 52. For this reason, when the player object 46 moves (that is, when the world coordinate value of the representative point of the player object 46 is updated), the turf object 54 also moves accordingly. That is, the process for moving the turf object 54 according to the movement of the player object 46 is simplified.
  • the game apparatus 10 according to the second embodiment has the same hardware configuration as that of the first embodiment (see FIG. 1). Also in the game apparatus 10 according to the second embodiment, the same virtual three-dimensional space 40 (see FIG. 2) as that in the first embodiment is constructed in the main memory 16.
  • the shoe object 50 includes a shoe body object 52 and a turf object 54.
  • the display output of the turf object 54 on the game screen is limited by arranging the whole or part of the turf object 54 in the shoe body object 52.
  • the second embodiment differs from the first embodiment in that the display output of the turf object 54 on the game screen is limited by changing the size (height or / and width) of the turf object 54. .
  • information indicating the current position of the player object 46 is stored in the main memory 16.
  • motion data of the player object 46 is stored in the optical disc 36 or the hard disk 26.
  • the turf object control data is also stored in the second embodiment.
  • This turf object control data is, for example, the same data as the turf object control data shown in FIG. 9 and 10 are diagrams for explaining position control information in the turf object control data of the second embodiment.
  • the height and width of the turf object 54 are The position of each vertex of the turf object 54 so as to have a predetermined length (hereinafter referred to as “basic length”) and a predetermined width (hereinafter referred to as “basic width”) (see FIG. 3).
  • the height of the first portion 54a of the turf object 54 becomes the basic length.
  • the positions of the vertices of the turf object 54 are set so that the height of the other parts becomes 0 (see FIG. 9).
  • the turf object 54 is set such that the height of the turf object 54 is the basic length and the width of the turf object 54 is shorter than the basic width.
  • the position of each vertex may be set. In this case, the vertex (vertex 55c, 55d: see FIG.
  • the height of the second portion 54b of the turf object 54 becomes the basic length.
  • the positions of the vertices of the turf object 54 are set so that the height of the other parts becomes 0 (see FIG. 10).
  • the turf object 54 is set such that the height of the turf object 54 is the basic length and the width of the turf object 54 is shorter than the basic width.
  • the position of each vertex may be set. In this case, the vertex (vertex 55a, 55b: see FIG. 3) of the end portion on the first portion 54a side of the turf object 54 is the vertex (vertex 55c, 55d: see FIG. 3) on the second portion 54b side.
  • the width of the turf object 54 is shortened so as to move closer.
  • each vertex of the turf object 54 is set so that the height or / and the width of the turf object 54 become zero. Is set.
  • the game apparatus 10 according to the second embodiment also executes the same process as the process (see FIG. 8) executed by the game apparatus 10 according to the first embodiment.
  • the position of each vertex of the turf object 54 is set based on the first position control information.
  • the height or / and width of the turf object 54 is zero.
  • the position of each vertex of the turf object 54 is set based on the second position control information.
  • the height and width of the turf object 54 are the basic length and the basic width (see FIG. 3).
  • the position of each vertex of the turf object 54 is set based on the third position control information.
  • the height of the first portion 54a of the turf object 54 becomes the basic length, and the height of the other portions becomes 0 (see FIG. 9).
  • the first portion 54a of the turf object 54 (the portion corresponding to the toe side portion 52a) is displayed on the game screen.
  • the display output of this part is limited. That is, the game screen shows that the toe portion of the soccer player's shoes is hidden on the grass.
  • the position of each vertex of the turf object 54 is set based on the fourth position control information.
  • the height of the second portion 54b of the turf object 54 becomes the basic length, and the height of the other portions becomes 0 (see FIG. 10).
  • the second portion 54b (the portion corresponding to the heel side portion 52b) of the turf object 54 is displayed on the game screen.
  • the display output of this part is limited. That is, the game screen shows a situation in which the heel portion of the soccer player's shoes is hidden on the grass.
  • the turf object control data is a change in the position of each vertex of the turf object 54 in each frame when the player object 46 performs various actions (for example, a running action). It is good also as data which defined.
  • the height of the turf object 54 associated with the shoe body object 52 corresponding to the right foot is set so that the width becomes zero.
  • the height and width of the turf object 54 associated with the shoe body object 52 corresponding to the right foot are the basic length and the basic width.
  • the position of each vertex of the turf object 54 is set (see FIG. 3).
  • the height of the first portion 54a of the turf object 54 associated with the shoe body object 52 corresponding to the right foot is the basic.
  • the positions of the vertices of the turf object 54 are set so that the length of the turf object 54 becomes 0 (see FIG. 9).
  • the height of the second portion 54b of the turf object 54 associated with the shoe body object 52 corresponding to the right foot is the basic.
  • the position of each vertex of the turf object 54 is set so as to be long and the height of the other part is 0 (see FIG. 10).
  • the game device 10 according to the second embodiment also expresses a state in which a part of the foot (shoe) of the soccer player is hidden by the grass growing on the field.
  • the processing load can be reduced.
  • the lawn is displayed near the foot (shoes) even though the distance between the foot (shoes) of the soccer player and the field is long. It is possible to ensure that the user does not feel a sense of incongruity caused by.
  • the game apparatus 10 according to the second embodiment also prevents the user from feeling uncomfortable due to the lawn being displayed near the portion of the soccer player's foot (shoes) that is not in contact with the field. It can be secured.
  • the game apparatus 10 according to the third embodiment has the same hardware configuration (see FIG. 1) as that of the first embodiment. Also in the game apparatus 10 according to the third embodiment, the same virtual three-dimensional space 40 (see FIG. 2) as that in the first embodiment is constructed in the main memory 16.
  • the shoe object 50 includes a shoe body object 52 and a turf object 54.
  • the display output of the turf object 54 on the game screen is limited by arranging the whole or part of the turf object 54 in the shoe body object 52.
  • the third embodiment differs from the first embodiment in that the display output of the turf object 54 on the game screen is limited by changing the transparency of the whole or part of the turf object 54.
  • information indicating the current position of the player object 46 is stored in the main memory 16.
  • motion data of the player object 46 is stored in the optical disc 36 or the hard disk 26.
  • the turf object control data is also stored in the third embodiment.
  • the turf object control data in the third embodiment includes the distance condition regarding the distance between the shoe object 50 (the shoe body object 52 or the turf object 54) and the field object 42, and each point (pixel or vertex) of the turf object 54. ), Transparency control information relating to transparency control.
  • the turf object control data in the third embodiment is data obtained by associating the posture condition related to the posture of the shoe object 50 (the shoe body object 52 or the turf object 54) with the transparency control information.
  • FIG. 11 shows an example of turf object control data in the third embodiment.
  • the turf object control data shown in FIG. 11 is data obtained by associating a combination of “distance condition” and “posture condition” with “ ⁇ value control information”.
  • the “distance condition” and “posture condition” in FIG. 11 are the same as the “distance condition” and “posture condition” of the turf object control data (see FIG. 4) in the first embodiment.
  • the “ ⁇ value control information” is information for acquiring the ⁇ value (transparency) of each point of the turf object 54, for example.
  • ⁇ value control information is defined for a case where the shoe body object 52 is not in contact with the field object 42 and a case where the shoe body object 52 is in contact with the field object 42. .
  • ⁇ value control information when the shoe body object 52 is in contact with the field object 42, (1) both the toe side portion 52a and the heel side portion 52b of the shoe body object 52 are in contact with the field object 42. And (2) the case where only the toe side portion 52a of the shoe body object 52 is in contact with the field object 42, and (3) the case where only the heel side portion 52b of the shoe body object 52 is in contact with the field object 42.
  • ⁇ value control information corresponding to three types of postures of the shoe body object 52 is defined.
  • ⁇ value control information (second ⁇ value control information) when both the toe side portion 52a and the heel side portion 52b of the shoe main body object 52 are in contact with the field object 42, ⁇ of all points of the turf object 54 is obtained.
  • the value is set to a predetermined value corresponding to complete opacity (hereinafter referred to as “basic value”).
  • the ⁇ value control information (third ⁇ value control information) when only the toe side portion 52a of the shoe main body object 52 is in contact with the field object 42, the ⁇ value of the first portion 54a of the turf object 54 becomes the basic value.
  • the ⁇ value of the other part is set to a predetermined value (for example, a value corresponding to complete transparency) indicating transparency higher than the basic value.
  • the ⁇ value of the second portion 54b of the turf object 54 becomes the basic value.
  • the ⁇ value of the other part is set to a predetermined value (for example, a value corresponding to complete transparency) indicating transparency higher than the basic value.
  • the ⁇ values of all the points of the turf object 54 exhibit a transparency higher than the basic value.
  • a value (for example, a value corresponding to complete transparency) is set.
  • the game apparatus 10 according to the third embodiment also executes a process similar to the process (see FIG. 8) executed by the game apparatus 10 according to the first embodiment.
  • the process in the third embodiment is different from the process in the first embodiment in the points described below.
  • the position of each vertex of the turf object 54 is also updated.
  • the position of each vertex of the turf object 54 is updated based on the position of the shoe body object 52.
  • data defining changes in the position of each vertex of the turf object 54 in each frame when the player object 46 performs various operations (for example, running motion) may be stored.
  • data defining a change in the position of each vertex of the turf object 54 in each frame when various types of motion data (for example, running motion data) are reproduced may be stored.
  • This data and motion data may be integrated data.
  • the position of each vertex of the turf object 54 in the current frame is specified from this data, and the position of each vertex of the turf object 54 is set to that position.
  • the ⁇ value of each point of the turf object 54 is set based on the first ⁇ value control information.
  • ⁇ values of all points of the turf object 54 are set to values corresponding to complete transparency.
  • the ⁇ value of each point of the turf object 54 is set based on the second ⁇ value control information.
  • the ⁇ values of all points of the turf object 54 are set to values corresponding to complete opacity.
  • the entire turf object 54 is displayed on the game screen, and a state in which the soccer player's shoes are hidden on the turf is displayed on the game screen.
  • the ⁇ value is completely transparent for the points associated with the area of the texture image where the turf is not drawn. It will be set to the corresponding value.
  • the ⁇ value of each point of the turf object 54 is set based on the third ⁇ value control information.
  • the ⁇ value of the first portion 54a of the turf object 54 is set to a value corresponding to complete opacity
  • the ⁇ values of the other portions are set to values corresponding to complete transparency.
  • the first portion 54a (the portion corresponding to the toe side portion 52a) of the turf object 54 is displayed on the game screen, and the display output of other portions is restricted.
  • a state in which only the toe portion of the soccer player's shoes is hidden on the grass is displayed on the game screen.
  • the ⁇ value of each point of the turf object 54 is set based on the fourth ⁇ value control information.
  • the ⁇ value of the second portion 54b of the turf object 54 is set to a value corresponding to complete opacity
  • the ⁇ value of the other portion is set to a value corresponding to complete transparency.
  • the second portion 54b (the portion corresponding to the heel side portion 52b) of the turf object 54 is displayed on the game screen, and the display output of other portions is restricted.
  • a state in which only the heel portion of the soccer player's shoes is hidden on the grass is displayed on the game screen.
  • the turf object control data in the third embodiment may be data defining the transparency of each point of the turf object 54 in each frame when the player object 46 performs various actions (for example, a running action).
  • the turf object control data may be data defining a change in transparency of each point of the turf object 54 in each frame when various types of motion data (for example, running motion data) are reproduced.
  • the ⁇ value of the point is set to a predetermined value (for example, a value corresponding to complete transparency) indicating transparency higher than a basic value (for example, a value corresponding to complete opacity).
  • the ⁇ values of all the points of the turf object 54 associated with the shoe body object 52 corresponding to the right foot are basic values (for example, completely opaque) Corresponding value).
  • the ⁇ value of the first portion 54a of the turf object 54 associated with the shoe body object 52 corresponding to the right foot is the basic value.
  • the value (for example, a value corresponding to complete opacity) is set, and the ⁇ value of the other part is set to a predetermined value (for example, a value corresponding to complete transparency) indicating transparency higher than the basic value.
  • the ⁇ value of the second portion 54b of the turf object 54 associated with the shoe body object 52 corresponding to the right foot is the basic value.
  • the value (for example, a value corresponding to complete opacity) is set, and the ⁇ value of the other part is set to a predetermined value (for example, a value corresponding to complete transparency) indicating transparency higher than the basic value.
  • the turf object control data as described above is prepared for each motion data, for example, and stored in association with each motion data.
  • the motion data and the turf object control data may be integrated data.
  • each state of the turf object 54 is synchronized with the change in the state of the foot skeleton of the player object 46 (in other words, the position of each vertex of the shoe body object 52 or the posture of the shoe body object 52) according to the motion data.
  • the transparency of the points is changed according to the turf object control data.
  • the processing described below is executed instead of the processing of S102 to S108. That is, the transparency of each point of the turf object 54 in the current frame is specified from the turf object control data, and the transparency of each point of the turf object 54 is set.
  • the game apparatus 10 according to the third embodiment also represents a situation in which a part of the foot (shoe) of a soccer player is hidden by the grass growing on the field. The processing load can be reduced. Also, with the game apparatus 10 according to the third embodiment, the lawn is displayed near the foot (shoes) even though the distance between the foot (shoes) of the soccer player and the field is long. It is possible to ensure that the user does not feel a sense of incongruity caused by. Furthermore, the game apparatus 10 according to the third embodiment also prevents the user from feeling uncomfortable due to the lawn being displayed near the portion of the foot (shoe) of the soccer player that is not in contact with the field. It can be secured.
  • the turf object 54 may be an object surrounding the shoe body object 52.
  • the shoe object 50 may include a plurality of turf objects 54.
  • the plurality of turf objects 54 may be arranged so as to surround the shoe main body object 52.
  • the present invention can be applied to cases other than expressing a state where a part of a shoe (foot) of a soccer player is hidden by a grass growing on the field.
  • the turf object 54 is associated with the ball object 48 (second object) in the same manner as the shoe main body object 52 (shoe object 50)
  • a part of the soccer ball is hidden by the turf growing on the field. It is also possible to express the situation.
  • the present invention can also be applied to games other than soccer games.
  • the present invention can be applied to an action game or a role playing game in which a character object moves in a virtual three-dimensional space.
  • an object (first object) representing grass or sand is arranged in the virtual three-dimensional space
  • an object (third object) representing grass or sand is placed on the foot object (second object) of the character object. May be associated in the same manner as the turf object 54. In this way, when the game character steps into the grass or sand, it is possible to express how the feet are hidden by the grass or sand while reducing the processing load.
  • an object (first object) representing a swamp or a puddle is arranged in the virtual three-dimensional space
  • an object (third object) representing mud or water is added to the foot object (second object) of the character object.
  • the object (third object) associated with the foot object (second object) of the character object is grass or It is not limited to objects that represent sand.
  • An object (third object) other than an object representing grass or sand may be associated with the foot object (second object) of the character object.
  • the first object for example, the field object 42
  • the second object for example, the shoe body object 52
  • the third object for example, the turf object 54
  • the display output of the third object is restricted, and the restriction on the display output of the third object is released when the first object, the second object, and the third object approach each other.
  • the display output of the third object is limited, and when the first object, the second object, and the third object are separated from each other. The restriction on the display output of the third object may be released.
  • the display output of the mud object (third object) is limited, the puddle object.
  • the restriction on the display output of the mud object may be released. In this way, it is possible to express the mud on the shoes when the game character puts his feet out of the puddle, and the mud on the shoes disappearing when the game character puts his feet in the puddle.
  • the second object for example, the shoe main body object 52
  • the first object for example, the field object 42
  • the second object may be an object that moves while in contact with the first object.
  • the third object for performing display output related to the first object depends on what posture the second object is in contact with the first object. All or part of the display output may be limited.
  • FIG. 12 is a diagram showing an overall configuration of a program distribution system using a communication network.
  • the program distribution system 100 includes a game device 10, a communication network 106, and a program distribution device 108.
  • the communication network 106 includes, for example, the Internet and a cable television network.
  • the program distribution device 108 includes a database 102 and a server 104. In this system, a database (information storage medium) 102 stores a program similar to the program stored on the optical disc 36.
  • the server 104 reads the program from the database 102 in response to the game distribution request and transmits it to the game apparatus 10.
  • the game is distributed in response to the game distribution request, but the server 104 may transmit the game unilaterally. Further, it is not always necessary to distribute (collectively distribute) all programs necessary for realizing the game at a time, and a necessary portion may be distributed (divided distribution) according to the situation of the game. If the game is distributed via the communication network 106 in this way, the consumer can easily obtain the program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

 例えば、フィールド上に生えた芝によって選手の足(靴)の一部が隠れる様子を表現する場合の処理負荷を軽減できるようになる画像処理装置を提供する。本発明は、第1オブジェクトと、第1オブジェクトとの間の距離が変化するようにして移動する第2オブジェクト(52)と、が配置された仮想3次元空間を画面に表示する画像処理装置に関する。本発明では、第1オブジェクトに関連する表示出力を行うための第3オブジェクト(54)が仮想3次元空間に配置され、第3オブジェクト(54)は第2オブジェクト(52)の移動に従って移動する。そして、第1オブジェクトと、第2オブジェクト(52)又は第3オブジェクト(54)と、の間の距離に基づいて、前記画面における第3オブジェクト(54)の表示出力が制限される。

Description

画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体
 本発明は画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体に関する。
 仮想3次元空間を画面に表示する画像処理装置が知られている。例えば、サッカーゲームを実行するゲーム装置(画像処理装置)では、フィールドを表すフィールドオブジェクトと、サッカー選手を表す選手オブジェクトと、サッカーボールを表すボールオブジェクトと、が配置された仮想3次元空間がゲーム画面に表示される。
特開2006-110218号公報
 例えば、上記のようなサッカーゲームを実行するゲーム装置では、フィールド上に生えた芝によって選手の足(靴)の一部が隠れる様子を表現したい場合がある。従来、このような表現を行うための方法としては、芝を表す多数の芝オブジェクトをフィールドオブジェクト全体に立てる方法が用いられていた。しかしながら、この方法を用いた場合、フィールドオブジェクト全体に多数の芝オブジェクトを配置しなければならなくなるため、処理負荷が増大してしまう。
 本発明は上記課題に鑑みてなされたものであって、その目的は、例えば、フィールド上に生えた芝によって選手の足(靴)の一部が隠れる様子を表現する場合の処理負荷を軽減できるようになる画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体を提供することにある。
 上記課題を解決するために、本発明に係る画像処理装置は、第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置において、前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段と、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離に基づいて、前記画面における前記第3オブジェクトの表示出力を制限する制限手段と、を含むことを特徴とする。
 また、本発明に係る画像処理装置は、第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置において、前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段と、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離の変化に伴って、前記画面における前記第3オブジェクトの表示出力を制限する制限手段と、を含むことを特徴とする。
 また、本発明に係る画像処理装置の制御方法は、第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置の制御方法において、前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させるステップと、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離に基づいて、前記画面における前記第3オブジェクトの表示出力を制限する制限ステップと、を含むことを特徴とする。
 また、本発明に係る画像処理装置の制御方法は、第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置の制御方法において、前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させるステップと、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離の変化に伴って、前記第3オブジェクトの全体又は一部の前記画面への表示出力を制限する制限ステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置としてコンピュータを機能させるプログラムであって、前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段、及び、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離に基づいて、前記画面における前記第3オブジェクトの表示出力を制限する制限手段、として前記コンピュータを機能させるためのプログラムである。
 また、本発明に係るプログラムは、第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置としてコンピュータを機能させるためのプログラムであって、前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段、及び、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離の変化に伴って、前記第3オブジェクトの全体又は一部の前記画面への表示出力を制限する制限手段、として前記コンピュータを機能させるためのプログラムである。
 また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。また、本発明に係るプログラム配信装置は、上記プログラムを記録した情報記憶媒体を備え、該情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信装置である。また、本発明に係るプログラム配信方法は、上記プログラムを記録した情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信方法である。
 本発明は、第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置に関する。本発明では、第1オブジェクトに関連する表示出力を行うための第3オブジェクトが仮想3次元空間に配置され、第3オブジェクトが第2オブジェクトの移動に従って移動する。また、第1オブジェクトと、第2オブジェクト又は第3オブジェクトと、の間の距離に基づいて(又は、第1オブジェクトと、第2オブジェクト又は第3オブジェクトと、の間の距離の変化に伴って)、画面における第3オブジェクトの表示出力が制限される。「画面における第3オブジェクトの表示出力を制限する」とは、例えば、第3オブジェクトの全体又は一部を画面に表示しないようにすることや、ユーザにとって第3オブジェクトが認識し難くなる(見難くなる)ようにすることを含む。本発明によれば、例えば、フィールドを表すオブジェクトを「第1オブジェクト」とし、サッカー選手の足(靴)を表すオブジェクトを「第2オブジェクト」とし、芝を表すオブジェクトを「第3オブジェクト」とすることによって、フィールド上に生えた芝によって選手の足(靴)の一部が隠れる様子を表現できるようになる。また本発明によれば、上記のような表現を行う場合の処理負荷を軽減できるようになる。
 また本発明の一態様では、前記第2オブジェクトは立体オブジェクトであり、前記制限手段は、前記第3オブジェクトの全体又は一部を前記第2オブジェクト内に含ませることによって、前記画面における前記第3オブジェクトの表示出力を制限するようにしてもよい。
 また本発明の一態様では、前記制限手段は、前記第3オブジェクトの大きさを小さくすることによって、前記画面における前記第3オブジェクトの表示出力を制限するようにしてもよい。
 また本発明の一態様では、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離に関する条件と、前記第3オブジェクトの頂点の位置制御に関する位置制御情報と、を対応づけてなる第3オブジェクト制御データを記憶する手段を含み、前記制限手段は、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の現在の距離が満足する前記条件に対応する前記位置制御情報に基づいて、前記第3オブジェクトの頂点の位置を制御するようにしてもよい。
 また本発明の一態様では、前記第2オブジェクトが移動する場合の各フレームにおける前記第3オブジェクトの頂点の位置を特定するための第3オブジェクト制御データを記憶する手段を含み、前記制限手段は、前記第3オブジェクト制御データに基づいて、前記第3オブジェクトの頂点の位置を制御するようにしてもよい。
 また本発明の一態様では、前記制限手段は、前記第3オブジェクトの全体又は一部の透明度を高めることによって、前記画面における前記第3オブジェクトの表示出力を制限するようにしてもよい。
 また本発明の一態様では、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離に関する条件と、前記第3オブジェクトの各点の透明度制御に関する透明度制御情報と、を対応づけてなる第3オブジェクト制御データを記憶する手段を含み、前記制限手段は、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の現在の距離が満足する前記条件に対応する前記透明度制御情報に基づいて、前記第3オブジェクトの各点の透明度を制御するようにしてもよい。
 また本発明の一態様では、前記第2オブジェクトが移動する場合の各フレームにおける前記第3オブジェクトの各点の透明度を特定するための第3オブジェクト制御データを記憶する手段を含み、前記制限手段は、前記第3オブジェクト制御データに基づいて、前記第3オブジェクトの各点の透明度を制御するようにしてもよい。
 また本発明の一態様では、前記制限手段は、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離が所定距離以上である場合に、前記画面における前記第3オブジェクトの表示出力を制限するようにしてもよい。
 またこの態様では、前記制限手段は、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離が前記所定距離未満である場合に、前記第2オブジェクトの姿勢に基づいて、前記画面における前記第3オブジェクトの一部の表示出力を制限する手段を含むようにしてもよい。
 また、本発明に係る画像処理装置は、第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置において、前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段と、前記第2オブジェクト又は前記第3オブジェクトの姿勢に基づいて、前記画面における前記第3オブジェクトの表示出力を制限する制限手段と、を含むことを特徴とする。
 また、本発明に係る画像処理装置の制御方法は、第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置の制御方法において、前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させるステップと、前記第2オブジェクト又は前記第3オブジェクトの姿勢に基づいて、前記画面における前記第3オブジェクトの表示出力を制限する制限ステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置としてコンピュータを機能させるためのプログラムであって、前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段、及び、前記第2オブジェクト又は前記第3オブジェクトの姿勢に基づいて、前記画面における前記第3オブジェクトの表示出力を制限する制限手段、として前記コンピュータを機能させるためのプログラムである。
 また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。また、本発明に係るプログラム配信装置は、上記プログラムを記録した情報記憶媒体を備え、該情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信装置である。また、本発明に係るプログラム配信方法は、上記プログラムを記録した情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信方法である。
 本発明は、第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置に関する。本発明では、第1オブジェクトに関連する表示出力を行うための第3オブジェクトが仮想3次元空間に配置され、第3オブジェクトが第2オブジェクトの移動に従って移動する。また、第2オブジェクト又は第3オブジェクトの姿勢に基づいて、画面における第3オブジェクトの表示出力が制限される。本発明によれば、例えば、フィールドを表すオブジェクトを「第1オブジェクト」とし、サッカー選手の足(靴)を表すオブジェクトを「第2オブジェクト」とし、芝を表すオブジェクトを「第3オブジェクト」とすることによって、フィールド上に生えた芝によって選手の足(靴)の一部が隠れる様子を表現できるようになる。また本発明によれば、上記のような表現を行う場合の処理負荷を軽減できるようになる。
 また本発明の一態様では、前記第2オブジェクトは立体オブジェクトであり、前記制限手段は、前記第3オブジェクトの全体又は一部を前記第2オブジェクト内に含ませることによって、前記画面における前記第3オブジェクトの表示出力を制限するようにしてもよい。
 また本発明の一態様では、前記制限手段は、前記第3オブジェクトの大きさを小さくすることによって、前記画面における前記第3オブジェクトの表示出力を制限するようにしてもよい。
 また本発明の一態様では、前記第2オブジェクト又は前記第3オブジェクトの姿勢に関する条件と、前記第3オブジェクトの頂点の位置制御に関する位置制御情報と、を対応づけてなる第3オブジェクト制御データを記憶する手段を含み、前記制限手段は、前記第2オブジェクト又は前記第3オブジェクトの現在の姿勢が満足する前記条件に対応する前記位置制御情報に基づいて、前記第3オブジェクトの頂点の位置を制御するようにしてもよい。
 また本発明の一態様では、前記第2オブジェクトが移動する場合の各フレームにおける前記第2オブジェクトの姿勢を特定するための第2オブジェクト制御データを記憶する手段と、前記第2オブジェクトが移動する場合の各フレームにおける前記第3オブジェクトの頂点の位置を特定するための第3オブジェクト制御データを記憶する手段と、前記第2オブジェクトが移動する場合、前記第2オブジェクト制御データを再生することによって、前記第2オブジェクトの姿勢を変化させる手段と、を含み、前記制限手段は、前記第2オブジェクト制御データの再生と同期して前記第3オブジェクト制御データを再生することによって、前記第3オブジェクトの頂点の位置を制御するようにしてもよい。
 また本発明の一態様では、前記制限手段は、前記第3オブジェクトの全体又は一部の透明度を高めることによって、前記画面における前記第3オブジェクトの表示出力を制限するようにしてもよい。
 また本発明の一態様では、前記第2オブジェクト又は前記第3オブジェクトの姿勢に関する条件と、前記第3オブジェクトの各点の透明度制御に関する透明度制御情報と、を対応づけてなる第3オブジェクト制御データを記憶する手段を含み、前記制限手段は、前記第2オブジェクト又は前記第3オブジェクトの現在の姿勢が満足する前記条件に対応する前記透明度制御情報に基づいて、前記第3オブジェクトの各点の透明度を制御するようにしてもよい。
 また本発明の一態様では、前記第2オブジェクトが移動する場合の各フレームにおける前記第2オブジェクトの姿勢を特定するための第2オブジェクト制御データを記憶する手段と、前記第2オブジェクトが移動する場合の各フレームにおける前記第3オブジェクトの各点の透明度を特定するための第3オブジェクト制御データを記憶する手段と、前記第2オブジェクトが移動する場合、前記第2オブジェクト制御データを再生することによって、前記第2オブジェクトの姿勢を変化させる手段と、を含み、前記制限手段は、前記第2オブジェクト制御データの再生と同期して前記第3オブジェクト制御データを再生することによって、前記第3オブジェクトの各点の透明度を制御するようにしてもよい。
本実施の形態に係るゲーム装置のハードウェア構成を示す図である。 仮想3次元空間の一例を示す図である。 靴オブジェクトの一例を示す図である。 芝オブジェクト制御データの一例を示す図である。 靴オブジェクトの状態の一例を示す図である。 靴オブジェクトの状態の一例を示す図である。 靴オブジェクトの状態の一例を示す図である。 ゲーム装置が実行する処理を示すフロー図である。 靴オブジェクトの状態の一例を示す図である。 靴オブジェクトの状態の一例を示す図である。 芝オブジェクト制御データの一例を示す図である。 本発明の他の実施形態に係るプログラム配信システムの全体構成を示す図である。
 以下、本発明の実施形態の例について図面に基づき詳細に説明する。ここでは、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置は、例えば家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)又はパーソナルコンピュータ等によって実現される。ここでは、本発明の実施形態に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。なお、本発明はゲーム装置以外の画像処理装置にも適用できる。
[第1実施形態]
 図1は、本発明の第1実施形態に係るゲーム装置(画像処理装置)の全体構成を示す。図1に示すゲーム装置10は、家庭用ゲーム機11と、モニタ32と、スピーカ34と、光ディスク36(情報記憶媒体)と、を含む。モニタ32及びスピーカ34は家庭用ゲーム機11に接続される。モニタ32としては例えば家庭用テレビ受像機が用いられ、スピーカ34としては例えば家庭用テレビ受像機に内蔵されたスピーカが用いられる。
 家庭用ゲーム機11は公知のコンピュータゲームシステムである。家庭用ゲーム機11は、バス12、マイクロプロセッサ14、主記憶16、画像処理部18、入出力処理部20、音声処理部22、光ディスク読み取り部24、ハードディスク26、通信インタフェース28及びコントローラ30を含む。コントローラ30以外の構成要素は家庭用ゲーム機11の筐体内に収容される。
 マイクロプロセッサ14は、図示しないROMに格納されるオペレーティングシステムや、光ディスク36又はハードディスク26から読み出されるプログラムに基づいて、家庭用ゲーム機11の各部を制御する。主記憶16は例えばRAMを含む。主記憶16には光ディスク36又はハードディスク26から読み出されたプログラム及びデータが必要に応じて書き込まれる。主記憶16はマイクロプロセッサ14の作業用メモリとしても用いられる。バス12はアドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。マイクロプロセッサ14、主記憶16、画像処理部18及び入出力処理部20は、バス12によって相互データ通信可能に接続される。
 画像処理部18はVRAMを含み、マイクロプロセッサ14から送られる画像データに基づいてVRAM上にゲーム画面を描画する。そして、画像処理部18はVRAM上に描画されたゲーム画面をビデオ信号に変換して所定のタイミングでモニタ32に出力する。すなわち画像処理部18は、マイクロプロセッサ14から視点座標系での各ポリゴンの頂点座標、頂点色情報(RGB値)、テクスチャ座標及びアルファ値等を受け取る。そして、それら情報を用いて表示画像を構成する各画素の色情報、Z値(奥行き情報)及びアルファ値等をVRAMの表示用バッファに描画する。このとき、VRAMにはテクスチャ画像が予め書き込まれており、各テクスチャ座標により特定されるテクスチャ画像中の領域が、それらテクスチャ座標に対応する頂点座標により特定されるポリゴンにマッピング(貼付)されるようになっている。こうして生成される表示画像は所定タイミングでモニタ32に出力される。
 入出力処理部20はマイクロプロセッサ14が音声処理部22、光ディスク読み取り部24、ハードディスク26、通信インタフェース28及びコントローラ30にアクセスするためのインタフェースである。音声処理部22はサウンドバッファを含み、光ディスク36又はハードディスク26からサウンドバッファに読み出されたゲーム音楽、ゲーム効果音、メッセージ等の各種音声データを再生してスピーカ34から出力する。通信インタフェース28はインターネット等の通信ネットワークに家庭用ゲーム機11を有線又は無線接続するためのインタフェースである。
 光ディスク読み取り部24は光ディスク36に記録されたプログラムやデータを読み取る。なお、ここではプログラムやデータを家庭用ゲーム機11に供給するために光ディスク36を用いるが、メモリカード等、他の情報記憶媒体を用いるようにしてもよい。また、例えばインターネット等の通信ネットワークを介して遠隔地からプログラムやデータを家庭用ゲーム機11に供給するようにしてもよい。ハードディスク26は一般的なハードディスク装置(補助記憶装置)である。
 コントローラ30はユーザが各種ゲーム操作を入力するための汎用操作入力手段である。入出力処理部20は一定周期毎(例えば1/60秒ごと)にコントローラ30の状態をスキャンし、そのスキャン結果を表す操作信号をバス12を介してマイクロプロセッサ14に渡す。マイクロプロセッサ14はその操作信号に基づいてプレイヤのゲーム操作を判定する。なお、コントローラ30は家庭用ゲーム機11に有線接続されてもよいし、無線接続されてもよい。
 ゲーム装置10では、光ディスク36又はハードディスク26から読み出されるプログラムによって、例えばサッカーゲームが実行される。
 主記憶16には仮想3次元空間が構築される。図2は仮想3次元空間の一例を示す。図2に示すように、仮想3次元空間40には、サッカーのフィールドを表すフィールドオブジェクト42(第1オブジェクト)が配置される。フィールドオブジェクト42上には、ゴールを表すゴールオブジェクト44と、サッカー選手を表す選手オブジェクト46と、サッカーボールを表すボールオブジェクト48と、が配置される。選手オブジェクト46はユーザの操作又は所定のアルゴリズムに従って仮想3次元空間40内で動作し、ボールオブジェクト48はユーザの操作又は所定のアルゴリズムに従って仮想3次元空間40内を移動する。図2では省略されているが、22体の選手オブジェクト46がフィールドオブジェクト42上に配置される。また図2では各オブジェクトが簡略化されている。
 各オブジェクトにはテクスチャ画像がマッピングされる。例えば、フィールドオブジェクト42には芝目、ゴールライン43やタッチライン45等が描かれたテクスチャ画像がマッピングされる。また例えば、選手オブジェクト46には、サッカー選手の顔が描かれたテクスチャ画像や靴が描かれたテクスチャ画像等がマッピングされる。
 選手オブジェクト46の各頂点(すなわち、選手オブジェクト46を構成する複数のポリゴンの各頂点)の位置は、選手オブジェクト46の代表点を原点とするローカル座標系で管理される。なお、選手オブジェクト46の代表点の位置はワールド座標系(図2に示すWxWyWz座標系)で管理される。選手オブジェクト46の各頂点のワールド座標値は、代表点のワールド座標値と、各頂点のローカル座標値と、に基づいて特定される。ボールオブジェクト48の各頂点の位置についても同様である。
 選手オブジェクト46内には複数のスケルトンが設定される。スケルトンは、関節部分に相当するジョイントと、ジョイント間を接続するボーンと、を含んで構成される。各ジョイントやボーンには、選手オブジェクト46の構成要素であるポリゴンの頂点の少なくとも一部が関連づけられる。ジョイントやボーンの状態(回転角度や位置等)が変化した場合、そのジョイントやボーンに関連づけられた頂点がそのジョイントやボーンの状態変化に基づいて移動し、その結果として、選手オブジェクト46の姿勢が変化する。
 仮想3次元空間40には仮想カメラ49(視点)も設定される。仮想カメラ49は例えばボールオブジェクト48の移動に基づいて仮想3次元空間40内を移動する。この仮想カメラ49から仮想3次元空間40を見た様子を表すゲーム画面がモニタ32に表示される。ユーザはこのゲーム画面を見ながら選手オブジェクト46を操作し、自分のチームの得点イベントを発生させることを目指す。
 以下、上記サッカーゲームにおいて、フィールド上に生えた芝によってサッカー選手の足(靴)の一部が隠れる様子を表現する場合の処理負荷を軽減するための技術について説明する。
 図3は、本実施の形態における選手オブジェクト46が履く靴を表す靴オブジェクト50の一例を示す図である。図3に示すように、靴オブジェクト50は靴本体オブジェクト52(第2オブジェクト)と芝オブジェクト54(第3オブジェクト)とを含む。靴本体オブジェクト52は立体オブジェクトであり、靴本体オブジェクト52内は空洞である。芝オブジェクト54はフィールドオブジェクト42に関連する表示出力を行うためのオブジェクトであり、フィールド上に生えた芝を表すためのオブジェクトである。芝オブジェクト54は板状のオブジェクトであり、靴本体オブジェクト52の底面に対して垂直に配置される。芝オブジェクト54は靴本体オブジェクト52に基づく位置に配置され、靴本体オブジェクト52の移動に従って移動する。靴本体オブジェクト52及び芝オブジェクト54の各頂点(すなわち、靴本体オブジェクト52及び芝オブジェクト54の構成要素であるポリゴンの各頂点)の位置はローカル座標系で管理される。なお以下では、芝オブジェクト54の、靴本体オブジェクト52のつま先側部分52aに対応する部分54aのことを「第1部分」と記載する。また、芝オブジェクト54の、靴本体オブジェクト52のかかと側部分52bに対応する部分54bのことを「第2部分」と記載する。
 選手オブジェクト46が走行等の動作を行う場合、靴本体オブジェクト52は、フィールドオブジェクト42に接したり、フィールドオブジェクト42から離れたりしながら移動する。すなわち、靴本体オブジェクト52は、フィールドオブジェクト42との間の距離が変化するようにして移動する。本実施の形態では、靴本体オブジェクト52の移動に伴って、ゲーム画面における芝オブジェクト54の表示出力を制限したり、該制限を解除したりする。言い換えれば、フィールドオブジェクト42から靴本体オブジェクト52(又は芝オブジェクト54)までの高さの変化に伴って、ゲーム画面における芝オブジェクト54の表示出力を制限したり、該制限を解除したりする。例えば、靴本体オブジェクト52がフィールドオブジェクト42に接していない場合、芝オブジェクト54はゲーム画面に表示されない。また例えば、靴本体オブジェクト52がフィールドオブジェクト42に接している場合、芝オブジェクト54の全体又は一部がゲーム画面に表示される。
 また本実施の形態では、靴本体オブジェクト52(又は芝オブジェクト54)の姿勢に基づいて、ゲーム画面における芝オブジェクト54の一部の表示出力を制限したり、該制限を解除したりする。例えば、靴本体オブジェクト52の姿勢が、フィールドオブジェクト42につま先側部分52aのみが接するような姿勢である場合には、芝オブジェクト54の第1部分54a以外の部分はゲーム画面に表示されない。また例えば、靴本体オブジェクト52の姿勢が、フィールドオブジェクト42にかかと側部分52bのみが接するような姿勢である場合には、芝オブジェクト54の第2部分54b以外の部分はゲーム画面に表示されない。また例えば、靴本体オブジェクト52の姿勢が、フィールドオブジェクト42につま先側部分52a及びかかと側部分52bが接するような姿勢である場合には、芝オブジェクト54全体がゲーム画面に表示される。
 ここで、ゲーム装置10が記憶するデータについて説明する。例えば、選手オブジェクト46の現在位置を示す情報が主記憶16に記憶される。より具体的には、選手オブジェクト46の代表点のワールド座標値や、選手オブジェクト46の各頂点のローカル座標値が記憶される。
 また、選手オブジェクト46に各種動作を行わせるためのモーションデータが光ディスク36又はハードディスク26に記憶される。モーションデータは、選手オブジェクト46が各種動作を行う場合の各フレーム(例えば1/60秒)ごとの選手オブジェクト46の頂点の位置(ローカル座標値)の変化を定めたデータである。モーションデータは、選手オブジェクト46が各種動作を行う場合の各フレームごとの選手オブジェクト46の姿勢の変化を定めたデータともいうことができる。例えば、モーションデータは、選手オブジェクト46が各種動作を行う場合の各フレームごとの各スケルトンの状態変化を定めたデータである。ゲーム装置10は、モーションデータに従って選手オブジェクト46の頂点の位置を変化させることによって、選手オブジェクト46に各種動作を行わせる。なお以下では、モーションデータに従って選手オブジェクト46の頂点の位置を変化させることを「モーションデータを再生する」と記載する。モーションデータとしては、例えば走行モーションデータ(第2オブジェクト制御データ)が記憶される。走行モーションデータは、両足を交互に上げて走行する動作を選手オブジェクト46に行わせるためのモーションデータであり、選手オブジェクト46が移動する際に再生される。
 さらに、芝オブジェクト制御データ(第3オブジェクト制御データ)が光ディスク36又はハードディスク26に記憶される。芝オブジェクト制御データは、靴オブジェクト50(靴本体オブジェクト52又は芝オブジェクト54)とフィールドオブジェクト42との間の距離に関する距離条件と、芝オブジェクト54の各頂点の位置制御に関する位置制御情報と、を対応づけてなるデータである。または、芝オブジェクト制御データは、靴オブジェクト50(靴本体オブジェクト52又は芝オブジェクト54)の姿勢に関する距離条件と、上記の位置制御情報と、を対応づけてなるデータである。
 図4は芝オブジェクト制御データの一例を示す。図4に示す芝オブジェクト制御データは、「距離条件」及び「姿勢条件」の組み合わせと、「位置制御情報」と、を対応づけてなるデータである。図4における「距離条件」は、靴本体オブジェクト52がフィールドオブジェクト42に接しているか否かの条件である。なお、ここでは、「距離条件」が、靴本体オブジェクト52とフィールドオブジェクト42との間の距離に関する条件になっているが、芝オブジェクト54は靴本体オブジェクト52に従動するため、「距離条件」は、芝オブジェクト54とフィールドオブジェクト42との間の距離に関する条件としてもよい。「姿勢条件」は、靴本体オブジェクト52の姿勢に関する条件である。図4における「姿勢条件」は、靴本体オブジェクト52がどのような姿勢でフィールドオブジェクト42に接しているかの条件である。なお、ここでは、「姿勢条件」が、靴本体オブジェクト52の姿勢に関する条件になっているが、芝オブジェクト54は靴本体オブジェクト52の底面に対して垂直に配置されるため(すなわち、芝オブジェクト54の姿勢と靴本体オブジェクト52の姿勢は一定の関係を有するため)、「姿勢条件」は、芝オブジェクト54の姿勢に関する条件としてもよい。また、図4における「位置制御情報」は、例えば芝オブジェクト54の各頂点のローカル座標値を取得するための情報である。「位置制御情報」としては、例えば、芝オブジェクト54の各頂点の、靴本体オブジェクト52(靴本体オブジェクト52の代表点及び代表方向)に対する相対的な位置を選手オブジェクト46のローカル座標系で示す情報が記憶される。
 図4に示す芝オブジェクト制御データでは、靴本体オブジェクト52がフィールドオブジェクト42に接していない場合と、靴本体オブジェクト52がフィールドオブジェクト42に接している場合と、の位置制御情報が定められている。図5~図7は位置制御情報の内容について説明するための図である。なお図5~図7において、芝オブジェクト54の点線で表された部分は靴本体オブジェクト52内に含まれていることを示している。
 靴本体オブジェクト52がフィールドオブジェクト42に接していない場合の位置制御情報(第1の位置制御情報)では、芝オブジェクト54の全体が靴本体オブジェクト52内に含まれるように、芝オブジェクト54の各頂点の位置が設定される(図5参照)。
 一方、靴本体オブジェクト52がフィールドオブジェクト42に接している場合の位置制御情報としては、(1)靴本体オブジェクト52のつま先側部分52aとかかと側部分52bの両方がフィールドオブジェクト42に接している場合と、(2)靴本体オブジェクト52のつま先側部分52aのみがフィールドオブジェクト42に接している場合と、(3)靴本体オブジェクト52のかかと側部分52bのみがフィールドオブジェクト42に接している場合と、の靴本体オブジェクト52の3種類の姿勢に対応する位置制御情報が定められている。
 靴本体オブジェクト52のつま先側部分52aとかかと側部分52bの両方がフィールドオブジェクト42に接している場合の位置制御情報(第2の位置制御情報)では、芝オブジェクト54の全体が靴本体オブジェクト52の外に出るように、芝オブジェクト54の各頂点の位置が設定される(図3参照)。
 靴本体オブジェクト52のつま先側部分52aのみがフィールドオブジェクト42に接している場合の位置制御情報(第3の位置制御情報)では、芝オブジェクト54の第1部分54a(つま先側部分52aに対応する部分)のみが靴本体オブジェクト52の外に出るように、芝オブジェクト54の各頂点の位置が設定される(図6参照)。
 靴本体オブジェクト52のかかと側部分52bのみがフィールドオブジェクト42に接している場合の位置制御情報(第4の位置制御情報)では、芝オブジェクト54の第2部分54b(かかと側部分52bに対応する部分)のみが靴本体オブジェクト52の外に出るように、芝オブジェクト54の各頂点の位置が設定される(図7参照)。
 次に、ゲーム装置10が実行する処理について説明する。図8はゲーム装置10が所定時間(例えば1/60秒)ごとに実行する処理のうち、本発明に関連するものを主として示すフロー図である。マイクロプロセッサ14は光ディスク36又はハードディスク26に記憶されるプログラムに従って、図8に示す処理を実行する。
 図8に示すように、マイクロプロセッサ14は各選手オブジェクト46やボールオブジェクト48の状態を更新する(S101)。例えば、各選手オブジェクト46やボールオブジェクト48の代表点のワールド座標値が、プレイヤの操作又は所定のアルゴリズムに従って更新される。また例えば、選手オブジェクト46のスケルトンの状態(回転角度や位置)がモーションデータに従って更新される。すなわち、現在フレームにおけるスケルトンの状態がモーションデータから取得され、選手オブジェクト46のスケルトンの状態がその状態に設定される。その結果、選手オブジェクト46の各頂点のローカル座標値も更新されることになる。なお、芝オブジェクト54の各頂点の位置(ローカル座標値)は下記に説明する処理(S102~S108)によって更新される。
 S101の処理が実行された後、マイクロプロセッサ14(制限手段)は下記に説明する処理(S102~S108)を各選手オブジェクト46ごとに実行する。また、下記に説明する処理(S102~S108)は、左足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54と、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54と、の両方に対してそれぞれ実行される。
 まず、マイクロプロセッサ14は、靴本体オブジェクト52のつま先側部分52aとかかと側部分52bの少なくとも一方がフィールドオブジェクト42に接しているか否かを判定する(S102)。このステップの処理では、つま先側部分52aの底面に設定される第1基準点がフィールドオブジェクト42に接しているか否かが判定される。具体的には、第1基準点とフィールドオブジェクト42との間の距離(すなわち、第1基準点と、第1基準点からフィールドオブジェクト42への垂線の足と、の間の距離)が0であるか否かが判定される。この距離が0である場合、第1基準点がフィールドオブジェクト42に接していると判定され、この距離が0より大きい場合、第1基準点がフィールドオブジェクト42に接していないと判定される。そして、第1基準点がフィールドオブジェクト42に接している場合、つま先側部分52aがフィールドオブジェクト42に接していると判定される。なお、第1基準点とフィールドオブジェクト42とが十分に近付いている場合には、つま先側部分52aがフィールドオブジェクト42に接していると判定されるようにしてもよい。すなわち、第1基準点とフィールドオブジェクト42との間の距離が所定距離以下であるか否かが判定されるようにしてもよい。そして、第1基準点とフィールドオブジェクト42との間の距離が所定距離以下である場合、つま先側部分52aがフィールドオブジェクト42に接していると判定し、第1基準点とフィールドオブジェクト42との間の距離が所定距離よりも大きい場合、つま先側部分52aがフィールドオブジェクト42に接していないと判定するようにしてもよい。またS102の処理では、かかと側部分52bの底面に設定される第2基準点がフィールドオブジェクト42に接しているか否かも判定される。この判定は、第1基準点がフィールドオブジェクト42に接しているか否かを判定する場合と同様に実行される。そして、第2基準点がフィールドオブジェクト42に接している場合、かかと側部分52bがフィールドオブジェクト42に接していると判定される。
 靴本体オブジェクト52のつま先側部分52aとかかと側部分52bの少なくとも一方がフィールドオブジェクト42に接していると判定されなかった場合、マイクロプロセッサ14は芝オブジェクト54の各頂点の位置を第1の位置制御情報に基づいて設定する(S103)。上述したように、位置制御情報は、芝オブジェクト54の各頂点の、靴本体オブジェクト52(靴本体オブジェクト52の代表点及び代表方向)に対する相対的な位置を選手オブジェクト46のローカル座標系で示す情報である。このため、このステップの処理では、芝オブジェクト54の各頂点のローカル座標値が、第1の位置制御情報と、靴本体オブジェクト52の代表点のローカル座標値と、靴本体オブジェクト52の代表方向と、に基づいて特定される。なお、このステップの処理が実行された場合、芝オブジェクト54の全体が靴本体オブジェクト52内に含まれることになる(図5参照)。その結果、靴本体オブジェクト52がフィールドオブジェクト42に接していない場合には、ゲーム画面における芝オブジェクト54の表示出力が制限されるようになる。すなわち、芝オブジェクト54はゲーム画面に表示されないようになる。
 一方、靴本体オブジェクト52のつま先側部分52aとかかと側部分52bの少なくとも一方がフィールドオブジェクト42に接していると判定された場合、マイクロプロセッサ14は、つま先側部分52aとかかと側部分52bの両方がフィールドオブジェクト42に接しているか否かを判定する(S104)。このステップの処理では、上記の第1基準点及び第2基準点の両方がフィールドオブジェクト42に接しているか否かが判定される。第1基準点及び第2基準点の両方がフィールドオブジェクト42に接している場合、つま先側部分52aとかかと側部分52bの両方がフィールドオブジェクト42に接していると判定される。
 靴本体オブジェクト52のつま先側部分52aとかかと側部分52bの両方がフィールドオブジェクト42に接していると判定された場合、マイクロプロセッサ14は芝オブジェクト54の各頂点の位置を第2の位置制御情報に基づいて設定する(S105)。この場合、芝オブジェクト54の全体が靴本体オブジェクト52の外に出される(図3参照)。その結果、芝オブジェクト54全体に関して、表示出力の制限が解除される。すなわち、芝オブジェクト54全体がゲーム画面に表示され、サッカー選手の靴が芝に隠れる様子がゲーム画面に表される。
 一方、靴本体オブジェクト52のつま先側部分52aとかかと側部分52bの両方がフィールドオブジェクト42に接しているとは判定されなかった場合、すなわち、つま先側部分52aとかかと側部分52bのいずれか一方がフィールドオブジェクト42に接していない場合、マイクロプロセッサ14は、つま先側部分52aのみがフィールドオブジェクト42に接しているか否かを判定する(S106)。このステップの処理では、上記の第1基準点がフィールドオブジェクト42に接しているか否かが判定される。そして、第1基準点がフィールドオブジェクト42に接していると判定された場合、つま先側部分52aのみがフィールドオブジェクト42に接していると判定される。
 靴本体オブジェクト52のつま先側部分52aのみがフィールドオブジェクト42に接していると判定された場合、マイクロプロセッサ14は芝オブジェクト54の各頂点の位置を第3の位置制御情報に基づいて設定する(S107)。この場合、芝オブジェクト54の第1部分54aが靴本体オブジェクト52の外に出される(図6参照)。その結果、芝オブジェクト54の第1部分54aに関して、表示出力の制限が解除される。すなわち、芝オブジェクト54の第1部分54a(つま先側部分52aに対応する部分)がゲーム画面に表示され、サッカー選手の靴のつま先部分が芝に隠れる様子がゲーム画面に表される。
 S106において靴本体オブジェクト52のつま先側部分52aがフィールドオブジェクト42に接していないと判定された場合、マイクロプロセッサ14は、靴本体オブジェクト52のかかと側部分52bのみがフィールドオブジェクト42に接していると判定する。そして、マイクロプロセッサ14は芝オブジェクト54の各頂点の位置を第4の位置制御情報に基づいて設定する(S108)。この場合、芝オブジェクト54の第2部分54bのみが靴本体オブジェクト52の外に出される(図7参照)。その結果、芝オブジェクト54の第2部分54bに関して、表示出力の制限が解除される。すなわち、芝オブジェクト54の第2部分54b(かかと側部分52bに対応する部分)がゲーム画面に表示され、サッカー選手の靴のかかと部分が芝に隠れる様子がゲーム画面に表される。
 S102~S108の処理が実行された後、マイクロプロセッサ14及び画像処理部18はゲーム画面を更新する(S109)。このステップの処理では、選手オブジェクト46の代表点のワールド座標値や選手オブジェクト46(芝オブジェクト54を含む)の各頂点のローカル座標値等に基づいて、仮想3次元空間40を仮想カメラ49から見た様子を表す画像がVRAMに生成される。VRAM上に生成された画像はゲーム画面としてモニタ32に表示される。ところで、このとき、芝オブジェクト54の色を、その芝オブジェクト54(又は靴本体オブジェクト52、靴オブジェクト50、選手オブジェクト46)の配置位置に対応するフィールドオブジェクト42上の位置の色に基づいて設定するようにすると好適である。芝オブジェクト54の色と、その芝オブジェクト54の付近のフィールドオブジェクト42の色と、が異なっていると、ユーザに違和感を感じさせてしまうおそれがあるが、このようにすれば、そのような違和感をユーザに感じさせないように図ることが可能になる。
 なお、S102,S104又はS106の処理では、靴本体オブジェクト52のつま先側部分52a又はかかと側部分52bがフィールドオブジェクト42に接しているか否かを、靴本体オブジェクト52内に設定される足スケルトンの状態(回転角度等)に基づいて判定するようにしてもよい。この態様では、芝オブジェクト制御データにおける「姿勢条件」とは、足スケルトンの状態に関する条件ということができる。
 ところで、芝オブジェクト制御データは、選手オブジェクト46が各種動作(例えば走行動作)を行う場合の各フレームにおける芝オブジェクト54の各頂点の位置(ローカル座標値)の変化を定めたデータとしてもよい。言い換えれば、芝オブジェクト制御データは、各種モーションデータ(例えば走行モーションデータ)が再生される場合の各フレームにおける芝オブジェクト54の各頂点の位置の変化を定めたデータとしてもよい。
 この場合、例えば、選手オブジェクト46が右足を上げているフレーム(すなわち、選手オブジェクト46の右足が接地していないフレーム)では、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54の全体が、右足に対応する靴本体オブジェクト52内に含まれるように、その芝オブジェクト54の各頂点の位置が設定される(図5参照)。
 また例えば、選手オブジェクト46の右足のつま先及びかかとが接地しているフレームでは、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54の全体が、右足に対応する靴本体オブジェクト52の外に配置されるように、その芝オブジェクト54の各頂点の位置が設定される(図3参照)。
 また例えば、選手オブジェクト46の右足のつま先が接地しており、かかとが接地していないフレームでは、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54の第1部分54aが、右足に対応する靴本体オブジェクト52の外に配置され、かつ、それ以外の部分が、右足に対応する靴本体オブジェクト52内に配置されるように、その芝オブジェクト54の各頂点の位置が設定される(図6参照)。
 また例えば、選手オブジェクト46の右足のかかとが接地しており、つま先が接地していないフレームでは、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54の第2部分54bが、右足に対応する靴本体オブジェクト52の外に配置され、かつ、それ以外の部分が、右足に対応する靴本体オブジェクト52内に配置されるように、その芝オブジェクト54の各頂点の位置が設定される(図7参照)。
 上記のような芝オブジェクト制御データは、例えば、各モーションデータごとに用意され、各モーションデータに対応づけて記憶される。また、モーションデータと芝オブジェクト制御データとは一体的なデータとしてもよい。
 また、上記のような芝オブジェクト制御データはモーションデータの再生と同期して再生される。すなわち、選手オブジェクト46の足スケルトンの状態(言い換えれば、靴本体オブジェクト52の各頂点の位置、又は靴本体オブジェクト52の姿勢)がモーションデータに従って変化されるのに同期して、芝オブジェクト54の各頂点の位置が芝オブジェクト制御データに従って変化される。例えば、図8に示す処理では、下記に説明するような処理がS102~S108の処理の代わりに実行される。すなわち、現在フレームにおける芝オブジェクト54の各頂点の位置が芝オブジェクト制御データから特定され、芝オブジェクト54の各頂点の位置が設定される。なお、このような場合においても、靴本体オブジェクト52がフィールドオブジェクト42に接しているか否かを確認し、その確認結果に基づいて、芝オブジェクト54の全部又は一部の表示出力を制限するようにしてもよい。こうすれば、例えば、靴本体オブジェクト52がフィールドオブジェクト42に接していない状態で芝オブジェクト54が表示されてしまうことを防ぐことが可能になる。
 第1実施形態に係るゲーム装置10では、靴本体オブジェクト52に芝オブジェクト54が従動する。ゲーム装置10によれば、多数の芝オブジェクトをフィールドオブジェクト42全体に配置しなくても、フィールド上に生えた芝によってサッカー選手の靴(足)の一部が隠れる様子を表現できるようになる。すなわち、ゲーム装置10によれば、仮想3次元空間40に配置される芝オブジェクトの数を減らすことが可能になる。その結果、フィールド上に生えた芝によってサッカー選手の足(靴)の一部が隠れる様子を表現する場合の処理負荷を軽減できるようになる。
 またゲーム装置10では、靴オブジェクト50(靴本体オブジェクト52又は芝オブジェクト54)とフィールドオブジェクト42との間の距離によって、芝オブジェクト54の表示出力が制限される。例えば、靴本体オブジェクト52がフィールドオブジェクト42に接していない場合には、芝オブジェクト54がゲーム画面に表示されなくなる。サッカー選手の足(靴)とフィールドとの間の距離が離れているにも関わらず、足(靴)の付近に芝が表示されてしまうと、ユーザに違和感を感じさせてしまう。この点、ゲーム装置10によれば、そのような違和感をユーザに感じさせないように担保することが可能になる。
 さらにゲーム装置10では、靴本体オブジェクト52がどのような姿勢でフィールドオブジェクト42に接しているかに基づいて、芝オブジェクト54の一部の表示出力が制限される。例えば、靴本体オブジェクト52のつま先側部分52aのみがフィールドオブジェクト42に接している場合には、つま先側部分52aに対応する芝オブジェクト54の第1部分54aのみがゲーム画面に表示され、その他の部分はゲーム画面に表示されなくなる。同様に、靴本体オブジェクト52のかかと側部分52bのみがフィールドオブジェクト42に接していない場合には、かかと側部分52bに対応する芝オブジェクト54の第2部分54bのみがゲーム画面に表示され、その他の部分はゲーム画面に表示されなくなる。つまり、靴本体オブジェクト52のうちのフィールドオブジェクト42に接していない部分に対応する芝オブジェクト54の部分についてはゲーム画面に表示されなくなる。サッカー選手の足(靴)の、フィールドに接していない部分の付近に芝が表示されてしまうと、ユーザに違和感を感じさせてしまう。この点、ゲーム装置10によれば、そのような違和感をユーザに感じさせないように担保することが可能になる。
 なお、ゲーム装置10では、芝オブジェクト54の位置が、靴本体オブジェクト52と同じく、選手オブジェクト46のローカル座標系で管理される。このため、選手オブジェクト46が移動した場合(すなわち、選手オブジェクト46の代表点のワールド座標値が更新された場合)、それに応じて、芝オブジェクト54も移動するようになる。すなわち、選手オブジェクト46の移動に従って芝オブジェクト54を移動させるための処理の簡易化が図られている。
[第2実施形態]
 次に、本発明の第2実施形態に係るゲーム装置について説明する。第2実施形態に係るゲーム装置10は第1実施形態と同様のハードウェア構成(図1参照)を備える。第2実施形態に係るゲーム装置10においても、第1実施形態と同様の仮想3次元空間40(図2参照)が主記憶16に構築される。
 また、第2実施形態においても、第1実施形態と同様に、靴オブジェクト50は靴本体オブジェク52と芝オブジェクト54とを含む。第1実施形態では、芝オブジェクト54の全体又は一部を靴本体オブジェクト52内に配置することによって、ゲーム画面における芝オブジェクト54の表示出力が制限されるようにした。この点、第2実施形態は、芝オブジェクト54の大きさ(高さ又は/及び幅)を変化させることによって、ゲーム画面における芝オブジェクト54の表示出力を制限する点で第1実施形態とは異なる。
 第2実施形態においても、選手オブジェクト46の現在位置を示す情報が主記憶16に記憶される。また、選手オブジェクト46のモーションデータが光ディスク36又はハードディスク26に記憶される。
 また、第1実施形態と同様に、第2実施形態においても芝オブジェクト制御データが記憶される。この芝オブジェクト制御データは、例えば図4に示す芝オブジェクト制御データと同様のデータである。図9及び図10は、第2実施形態の芝オブジェクト制御データにおける位置制御情報について説明するための図である。
 例えば、靴本体オブジェクト52のつま先側部分52aとかかと側部分52bの両方がフィールドオブジェクト42に接している場合の位置制御情報(第2の位置制御情報)では、芝オブジェクト54の高さ及び幅が所定長(以下「基本長」と記載する。)及び所定幅(以下「基本幅」と記載する。)になるように、芝オブジェクト54の各頂点の位置が設定される(図3参照)。
 靴本体オブジェクト52のつま先側部分52aのみがフィールドオブジェクト42に接している場合の位置制御情報(第3の位置制御情報)では、芝オブジェクト54の第1部分54aの高さが基本長になり、それ以外の部分の高さが0になるように、芝オブジェクト54の各頂点の位置が設定される(図9参照)。なお、この位置制御情報(第3の位置制御情報)では、芝オブジェクト54の高さが基本長になり、かつ、芝オブジェクト54の幅が基本幅よりも短い幅になるように、芝オブジェクト54の各頂点の位置が設定されるようにしてもよい。この場合、芝オブジェクト54の第2部分54b側の端部の頂点(頂点55c,55d:図3参照)が、第1部分54a側の端部の頂点(頂点55a,55b:図3参照)に近づくように移動するようにして、芝オブジェクト54の幅を短くする。
 靴本体オブジェクト52のかかと側部分52bのみがフィールドオブジェクト42に接している場合の位置制御情報(第4の位置制御情報)では、芝オブジェクト54の第2部分54bの高さが基本長になり、それ以外の部分の高さが0になるように、芝オブジェクト54の各頂点の位置が設定される(図10参照)。なお、この位置制御情報(第4の位置制御情報)では、芝オブジェクト54の高さが基本長になり、かつ、芝オブジェクト54の幅が基本幅よりも短い幅になるように、芝オブジェクト54の各頂点の位置が設定されるようにしてもよい。この場合、芝オブジェクト54の第1部分54a側の端部の頂点(頂点55a,55b:図3参照)が、第2部分54b側の端部の頂点(頂点55c,55d:図3参照)に近づくように移動するようにして、芝オブジェクト54の幅を短くする。
 靴本体オブジェクト52がフィールドオブジェクト42に接していない場合の位置制御情報(第1の位置制御情報)では、芝オブジェクト54の高さ又は/及び幅が0になるように、芝オブジェクト54の各頂点の位置が設定される。
 第2実施形態に係るゲーム装置10も、第1実施形態に係るゲーム装置10が実行する処理(図8参照)と同様の処理を実行する。
 すなわち、S103の処理では、芝オブジェクト54の各頂点の位置が第1の位置制御情報に基づいて設定される。この場合、芝オブジェクト54の高さ又は/及び幅が0になる。その結果、靴本体オブジェクト52がフィールドオブジェクト42に接していない場合には、ゲーム画面における芝オブジェクト54の表示出力が制限される。すなわち、芝オブジェクト54はゲーム画面に表示されなくなる。
 また、S105の処理では、芝オブジェクト54の各頂点の位置が第2の位置制御情報に基づいて設定される。この場合、芝オブジェクト54の高さ及び幅は基本長及び基本幅になる(図3参照)。その結果、靴本体オブジェクト52のつま先側部分52aとかかと側部分52bの両方がフィールドオブジェクト42に接している場合には、芝オブジェクト54全体に関して、表示出力の制限が行われない。すなわち、芝オブジェクト54全体がゲーム画面に表示され、サッカー選手の靴が芝に隠れる様子がゲーム画面に表される。
 また、S107の処理では、芝オブジェクト54の各頂点の位置が第3位置制御情報に基づいて設定される。この場合、芝オブジェクト54の第1部分54aの高さが基本長になり、それ以外の部分の高さが0になる(図9参照)。その結果、靴本体オブジェクト52のつま先側部分52aがフィールドオブジェクト42に接している場合には、芝オブジェクト54の第1部分54a(つま先側部分52aに対応する部分)がゲーム画面に表示され、その他の部分の表示出力が制限される。すなわち、サッカー選手の靴のつま先部分が芝に隠れる様子がゲーム画面に表される。
 また、S108の処理では、芝オブジェクト54の各頂点の位置が第4位置制御情報に基づいて設定される。この場合、芝オブジェクト54の第2部分54bの高さが基本長になり、それ以外の部分の高さが0になる(図10参照)。その結果、靴本体オブジェクト52のかかと側部分52bがフィールドオブジェクト42に接している場合には、芝オブジェクト54の第2部分54b(かかと側部分52bに対応する部分)がゲーム画面に表示され、その他の部分の表示出力が制限される。すなわち、サッカー選手の靴のかかと部分が芝に隠れる様子がゲーム画面に表される。
 なお、第1実施形態と同様、第2実施形態においても、芝オブジェクト制御データは、選手オブジェクト46が各種動作(例えば走行動作)を行う場合の各フレームにおける芝オブジェクト54の各頂点の位置の変化を定めたデータとしてもよい。
 この場合、例えば、選手オブジェクト46が右足を上げているフレーム(すなわち、選手オブジェクト46の右足が接地していないフレーム)では、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54の高さ又は/及び幅が0となるように、その芝オブジェクト54の各頂点の位置が設定される。
 また例えば、選手オブジェクト46の右足のつま先及びかかとが接地しているフレームでは、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54の高さ及び幅が基本長及び基本幅となるように、その芝オブジェクト54の各頂点の位置が設定される(図3参照)。
 また例えば、選手オブジェクト46が右足のつま先が接地しており、かかとが接地していないフレームでは、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54の第1部分54aの高さが基本長になり、かつ、それ以外の部分の高さが0になるように、その芝オブジェクト54の各頂点の位置が設定される(図9参照)。
 また例えば、選手オブジェクト46が右足のかかとが接地しており、つま先が接地していないフレームでは、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54の第2部分54bの高さが基本長になり、かつ、それ以外の部分の高さが0になるように、その芝オブジェクト54の各頂点の位置が設定される(図10参照)。
 第1実施形態に係るゲーム装置10と同様に、第2実施形態に係るゲーム装置10によっても、フィールド上に生えた芝によってサッカー選手の足(靴)の一部が隠れる様子を表現する場合の処理負荷を軽減できるようになる。また、第2実施形態に係るゲーム装置10によっても、サッカー選手の足(靴)とフィールドとの間の距離が離れているにも関わらず、足(靴)の付近に芝が表示されることに起因する違和感をユーザに感じさせないように担保することが可能になる。さらに、第2実施形態に係るゲーム装置10によっても、サッカー選手の足(靴)の、フィールドに接していない部分の付近に芝が表示されてしまうことに起因する違和感をユーザに感じさせないように担保することが可能になる。
[第3実施形態]
 次に、本発明の第3実施形態に係るゲーム装置について説明する。第3実施形態に係るゲーム装置10は第1実施形態と同様のハードウェア構成(図1参照)を備える。第3実施形態に係るゲーム装置10においても、第1実施形態と同様の仮想3次元空間40(図2参照)が主記憶16に構築される。
 また、第3実施形態においても、第1実施形態と同様に、靴オブジェクト50は靴本体オブジェクト52と芝オブジェクト54とを含む。第1実施形態では、芝オブジェクト54の全体又は一部を靴本体オブジェクト52内に配置することによって、ゲーム画面における芝オブジェクト54の表示出力が制限されるようにした。この点、第3実施形態は、芝オブジェクト54の全体又は一部の透明度を変化させることによって、ゲーム画面における芝オブジェクト54の表示出力を制限する点で第1実施形態とは異なる。
 第3実施形態においても、選手オブジェクト46の現在位置を示す情報が主記憶16に記憶される。また、選手オブジェクト46のモーションデータが光ディスク36又はハードディスク26に記憶される。
 また、第1実施形態と同様に、第3実施形態においても芝オブジェクト制御データが記憶される。ただし、第3実施形態における芝オブジェクト制御データは、靴オブジェクト50(靴本体オブジェクト52又は芝オブジェクト54)とフィールドオブジェクト42との間の距離に関する距離条件と、芝オブジェクト54の各点(画素又は頂点)の透明度の制御に関する透明度制御情報と、を対応づけてなるデータである。または、第3実施形態における芝オブジェクト制御データは、靴オブジェクト50(靴本体オブジェクト52又は芝オブジェクト54)の姿勢に関する姿勢条件と、上記の透明度制御情報と、を対応づけてなるデータである。
 図11は、第3実施形態における芝オブジェクト制御データの一例を示す。図11に示す芝オブジェクト制御データは、「距離条件」及び「姿勢条件」の組み合わせと、「α値制御情報」と、を対応づけてなるデータである。図11における「距離条件」や「姿勢条件」は、第1実施形態における芝オブジェクト制御データ(図4参照)の「距離条件」や「姿勢条件」と同様である。「α値制御情報」とは、例えば芝オブジェクト54の各点のα値(透明度)を取得するための情報である。「α値制御情報」としては、例えば、芝オブジェクト54の各点のα値を示す情報が記憶される。
 図11に示す芝オブジェクト制御データでは、靴本体オブジェクト52がフィールドオブジェクト42に接していない場合と、靴本体オブジェクト52がフィールドオブジェクト42に接している場合と、のα値制御情報が定められている。また、靴本体オブジェクト52がフィールドオブジェクト42に接している場合のα値制御情報としては、(1)靴本体オブジェクト52のつま先側部分52aとかかと側部分52bの両方がフィールドオブジェクト42に接している場合と、(2)靴本体オブジェクト52のつま先側部分52aのみがフィールドオブジェクト42に接している場合と、(3)靴本体オブジェクト52のかかと側部分52bのみがフィールドオブジェクト42に接している場合と、の靴本体オブジェクト52の3種類の姿勢に対応するα値制御情報が定められている。
 靴本体オブジェクト52のつま先側部分52aとかかと側部分52bの両方がフィールドオブジェクト42に接している場合のα値制御情報(第2のα値制御情報)では、芝オブジェクト54のすべての点のα値が、完全不透明に対応する所定値(以下「基本値」と記載する。)に設定される。
 靴本体オブジェクト52のつま先側部分52aのみがフィールドオブジェクト42に接している場合のα値制御情報(第3のα値制御情報)では、芝オブジェクト54の第1部分54aのα値が基本値に設定され、その他の部分のα値が、基本値よりも高い透明度を示す所定値(例えば完全透明に対応する値)に設定される。
 靴本体オブジェクト52のかかと側部分52bのみがフィールドオブジェクト42に接している場合のα値制御情報(第4のα値制御情報)では、芝オブジェクト54の第2部分54bのα値が基本値に設定され、その他の部分のα値が、基本値よりも高い透明度を示す所定値(例えば完全透明に対応する値)に設定される。
 靴本体オブジェクト52がフィールドオブジェクト42に接していない場合のα値制御情報(第1のα値制御情報)では、芝オブジェクト54のすべての点のα値が、基本値よりも高い透明度を示す所定値(例えば完全透明に対応する値)に設定される。
 第3実施形態に係るゲーム装置10も、第1実施形態に係るゲーム装置10が実行する処理(図8参照)と類似の処理を実行する。ただし、第3実施形態における処理は、下記に説明する点で、第1実施形態における処理とは相違する。
 S101の処理では、芝オブジェクト54の各頂点の位置も更新される。例えば、芝オブジェクト54の各頂点の位置は靴本体オブジェクト52の位置に基づいて更新される。なお、第3実施形態では、選手オブジェクト46が各種動作(例えば走行動作)を行う場合の各フレームにおける芝オブジェクト54の各頂点の位置の変化を定めたデータが記憶されるようにしてもよい。言い換えれば、各種モーションデータ(例えば走行モーションデータ)が再生される場合の各フレームにおける芝オブジェクト54の各頂点の位置の変化を定めたデータが記憶されるようにしてもよい。このデータとモーションデータとは一体的なデータとしてもよい。この場合、S101の処理では、現在フレームにおける芝オブジェクト54の各頂点の位置がこのデータから特定され、芝オブジェクト54の各頂点の位置がその位置に設定される。
 また、S103の処理では、芝オブジェクト54の各点のα値が第1のα値制御情報に基づいて設定される。この場合、芝オブジェクト54のすべての点のα値が、完全透明に対応する値に設定される。その結果、靴本体オブジェクト52がフィールドオブジェクト42に接していない場合には、芝オブジェクト54はゲーム画面に表示されなくなる。すなわち、ゲーム画面における芝オブジェクト54の表示出力が制限される。
 また、S105の処理では、芝オブジェクト54の各点のα値が第2のα値制御情報に基づいて設定される。この場合、芝オブジェクト54のすべての点のα値が、完全不透明に対応する値に設定される。その結果、芝オブジェクト54全体がゲーム画面に表示され、サッカー選手の靴が芝に隠れる様子がゲーム画面に表される。なお、芝オブジェクト54にテクスチャ画像がマッピングされた際には、芝オブジェクト54の点のうちで、テクスチャ画像内の芝が描かれていない領域に関連付けられた点については、α値が完全透明に対応する値に設定されることになる。
 また、S107の処理では、芝オブジェクト54の各点のα値が第3のα値制御情報に基づいて設定される。この場合、芝オブジェクト54の第1部分54aのα値が、完全不透明に対応する値に設定され、それ以外の部分のα値が、完全透明に対応する値に設定される。その結果、芝オブジェクト54の第1部分54a(つま先側部分52aに対応する部分)がゲーム画面に表示され、その他の部分の表示出力が制限される。その結果、サッカー選手の靴のつま先部分のみが芝に隠れる様子がゲーム画面に表される。
 また、S108の処理では、芝オブジェクト54の各点のα値が第4のα値制御情報に基づいて設定される。この場合、芝オブジェクト54の第2部分54bのα値が、完全不透明に対応する値に設定され、それ以外の部分のα値が、完全透明に対応する値に設定される。その結果、芝オブジェクト54の第2部分54b(かかと側部分52bに対応する部分)がゲーム画面に表示され、その他の部分の表示出力が制限される。その結果、サッカー選手の靴のかかと部分のみが芝に隠れる様子がゲーム画面に表される。
 ところで、第3実施形態における芝オブジェクト制御データは、選手オブジェクト46が各種動作(例えば走行動作)を行う場合の各フレームにおける芝オブジェクト54の各点の透明度を定義したデータとしてもよい。言い換えれば、芝オブジェクト制御データは、各種モーションデータ(例えば走行モーションデータ)を再生した場合の各フレームにおける芝オブジェクト54の各点の透明度の変化を定義したデータとしてもよい。
 この場合、例えば、選手オブジェクト46が右足を上げているフレーム(すなわち、選手オブジェクト46の右足が接地していないフレーム)では、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54のすべての点のα値が、基本値(例えば完全不透明に対応する値)よりも高い透明度を示す所定値(例えば完全透明に対応する値)に設定される。
 また例えば、選手オブジェクト46の右足のつま先及びかかとが接地しているフレームでは、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54のすべての点のα値が基本値(例えば完全不透明に対応する値)に設定される。
 また例えば、選手オブジェクト46の右足のつま先が接地しており、かかとが接地していないフレームでは、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54の第1部分54aのα値が基本値(例えば完全不透明に対応する値)に設定され、その他の部分のα値が、基本値よりも高い透明度を示す所定値(例えば完全透明に対応する値)に設定される。
 また例えば、選手オブジェクト46が右足のかかとが接地しており、つま先が接地していないフレームでは、右足に対応する靴本体オブジェクト52に関連付けられた芝オブジェクト54の第2部分54bのα値が基本値(例えば完全不透明に対応する値)に設定され、その他の部分のα値が、基本値よりも高い透明度を示す所定値(例えば完全透明に対応する値)に設定される。
 上記のような芝オブジェクト制御データは、例えば、各モーションデータごとに用意され、各モーションデータに対応づけて記憶される。また、モーションデータと芝オブジェクト制御データとは一体的なデータとしてもよい。
 また、上記のような芝オブジェクト制御データはモーションデータの再生と同期して再生される。すなわち、選手オブジェクト46の足スケルトンの状態(言い換えれば、靴本体オブジェクト52の各頂点の位置、又は靴本体オブジェクト52の姿勢)をモーションデータに従って変化されるのに同期して、芝オブジェクト54の各点の透明度が芝オブジェクト制御データに従って変化される。例えば、図8に示す処理では、下記に説明するような処理がS102~S108の処理の代わりに実行される。すなわち、現在フレームにおける芝オブジェクト54の各点の透明度が芝オブジェクト制御データから特定され、芝オブジェクト54の各点の透明度が設定される。なお、このような場合においても、靴本体オブジェクト52がフィールドオブジェクト42に接しているか否かを確認し、その確認結果に基づいて、芝オブジェクト54の全部又は一部の表示出力を制限するようにしてもよい。こうすれば、例えば、靴本体オブジェクト52がフィールドオブジェクト42に接していない状態で芝オブジェクト54が表示されてしまうことを防ぐことが可能になる。
 第1実施形態に係るゲーム装置10と同様に、第3実施形態に係るゲーム装置10によっても、フィールド上に生えた芝によってサッカー選手の足(靴)の一部が隠れる様子を表現する場合の処理負荷を軽減できるようになる。また、第3実施形態に係るゲーム装置10によっても、サッカー選手の足(靴)とフィールドとの間の距離が離れているにも関わらず、足(靴)の付近に芝が表示されることに起因する違和感をユーザに感じさせないように担保することが可能になる。さらに、第3実施形態に係るゲーム装置10によっても、サッカー選手の足(靴)の、フィールドに接していない部分の付近に芝が表示されてしまうことに起因する違和感をユーザに感じさせないように担保することが可能になる。
 なお、本発明は以上に説明した実施の形態に限定されるものではない。
 例えば、芝オブジェクト54は靴本体オブジェクト52を囲むようなオブジェクトとしてもよい。また、靴オブジェクト50は複数の芝オブジェクト54が含んで構成されるようにしてもよい。その場合、それら複数の芝オブジェクト54は靴本体オブジェクト52を囲むように配置されるようにしてもよい。
 また例えば、本発明は、フィールド上に生えた芝によってサッカー選手の靴(足)の一部が隠れる様子を表現する場合以外にも適用することができる。例えば、靴本体オブジェクト52(靴オブジェクト50)と同様にして、ボールオブジェクト48(第2オブジェクト)にも芝オブジェクト54を関連付けるようにすれば、フィールド上に生えた芝によってサッカーボールの一部が隠れる様子を表現することも可能になる。
 また、本発明はサッカーゲーム以外のゲームにも適用することができる。例えば、キャラクタオブジェクトが仮想3次元空間を移動するアクションゲームやロールプレイングゲーム等にも本発明は適用することができる。例えば、仮想3次元空間に草地又は砂地を表すオブジェクト(第1オブジェクト)が配置されている場合には、キャラクタオブジェクトの足オブジェクト(第2オブジェクト)に、草又は砂を表すオブジェクト(第3オブジェクト)を芝オブジェクト54と同様にして関連付けるようにすればよい。こうすれば、ゲームキャラクタが草地や砂地の中に足を踏み入れた場合に足が草や砂によって隠れる様子を処理負荷の軽減を図りつつ表現できるようになる。また例えば、仮想3次元空間に沼地又は水たまりを表すオブジェクト(第1オブジェクト)が配置されている場合には、キャラクタオブジェクトの足オブジェクト(第2オブジェクト)に、泥又は水を表すオブジェクト(第3オブジェクト)を芝オブジェクト54と同様にして関連付けるようにすればよい。こうすることによって、ゲームキャラクタが沼地や水たまりに足を踏み入れた場合に足が泥や水たまりによって隠れる様子を処理負荷の軽減を図りつつ表現できるようになる。なお、例えば、仮想3次元空間に草地又は砂地を表すオブジェクト(第1オブジェクト)が配置されている場合において、キャラクタオブジェクトの足オブジェクト(第2オブジェクト)に関連付けられるオブジェクト(第3オブジェクト)は草又は砂を表すオブジェクトに限られない。草又は砂を表すオブジェクト以外のオブジェクト(第3オブジェクト)がキャラクタオブジェクトの足オブジェクト(第2オブジェクト)に関連付けられるようにしてもよい。
 なお、これまでに説明した例は、いずれも、第1オブジェクト(例えばフィールドオブジェクト42)と、第2オブジェクト(例えば靴本体オブジェクト52)及び第3オブジェクト(例えば芝オブジェクト54)と、が離れた場合に第3オブジェクトの表示出力が制限され、第1オブジェクトと、第2オブジェクト及び第3オブジェクトと、が近づいた場合に第3オブジェクトの表示出力の制限が解除される例であった。しかしながら、第1オブジェクトと、第2オブジェクト及び第3オブジェクトと、が近づいた場合に第3オブジェクトの表示出力が制限され、第1オブジェクトと、第2オブジェクト及び第3オブジェクトと、が離れた場合に第3オブジェクトの表示出力の制限が解除されるようにしてもよい。例えば、フィールド上に設けられた水たまりオブジェクト(第1オブジェクト)と、靴本体オブジェクト(第2オブジェクト)と、が近づいた場合に泥オブジェクト(第3オブジェクト)の表示出力が制限され、水たまりオブジェクトと、靴本体オブジェクトと、が離れた場合に泥オブジェクトの表示出力の制限が解除されるようにしてもよい。こうすれば、ゲームキャラクタが水たまりから足を出した場合に靴に泥がつき、ゲームキャラクタが水たまりに足を入れた場合に、靴についた泥が消える様子を表現できるようになる。また、これまでに説明した例は、いずれも、第2オブジェクト(例えば靴本体オブジェクト52)が、第1オブジェクト(例えばフィールドオブジェクト42)との間の距離が変化するようにして移動する例であった。しかしながら、例えば、第2オブジェクトは第1オブジェクトに接したまま移動するようなオブジェクトであってもよい。このような態様において、第2オブジェクトの姿勢が変化する場合には、第2オブジェクトがどのような姿勢で第1オブジェクトに接しているかによって、第1オブジェクトに関する表示出力を行うための第3オブジェクトの全体又は一部の表示出力を制限するようにしてもよい。
 また例えば、以上の説明では、プログラムを情報記憶媒体たる光ディスク36を介してゲーム装置10に供給するようにしたが、通信ネットワークを介してプログラムをゲーム装置10に配信するようにしてもよい。図12は、通信ネットワークを用いたプログラム配信システムの全体構成を示す図である。図12に基づいて本発明に係るプログラム配信方法を説明する。図12に示すように、このプログラム配信システム100はゲーム装置10、通信ネットワーク106、プログラム配信装置108を含む。通信ネットワーク106は、例えばインターネットやケーブルテレビネットワークを含む。プログラム配信装置108はデータベース102、サーバ104を含む。このシステムでは、データベース(情報記憶媒体)102に、光ディスク36に記憶されたプログラムと同様のプログラムが記憶される。そして、ゲーム装置10を用いて需要者がゲーム配信要求をすることにより、それが通信ネットワーク106を介してサーバ104に伝えられる。そして、サーバ104はゲーム配信要求に応じてデータベース102からプログラムを読み出し、それをゲーム装置10に送信する。ここではゲーム配信要求に応じてゲーム配信するようにしたが、サーバ104から一方的に送信するようにしてもよい。また、必ずしも一度にゲームの実現に必要な全てのプログラムを配信(一括配信)する必要はなく、ゲームの局面に応じて必要な部分を配信(分割配信)するようにしてもよい。このように通信ネットワーク106を介してゲーム配信するようにすれば、プログラムを需要者は容易に入手することができるようになる。

Claims (17)

  1.  第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置において、
     前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段と、
     前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離に基づいて、前記画面における前記第3オブジェクトの表示出力を制限する制限手段と、
     を含むことを特徴とする画像処理装置。
  2.  第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置において、
     前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段と、
     前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離の変化に伴って、前記画面における前記第3オブジェクトの表示出力を制限する制限手段と、
     を含むことを特徴とする画像処理装置。
  3.  請求の範囲第1項又は第2項に記載の画像処理装置において、
     前記第2オブジェクトは立体オブジェクトであり、
     前記制限手段は、前記第3オブジェクトの全体又は一部を前記第2オブジェクト内に含ませることによって、前記画面における前記第3オブジェクトの表示出力を制限する、
     ことを特徴とする画像処理装置。
  4.  請求の範囲第1項又は第2項に記載の画像処理装置において、
     前記制限手段は、前記第3オブジェクトの大きさを小さくすることによって、前記画面における前記第3オブジェクトの表示出力を制限することを特徴とする画像処理装置。
  5.  請求の範囲第1項又は第2項に記載の画像処理装置において、
     前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離に関する条件と、前記第3オブジェクトの頂点の位置制御に関する位置制御情報と、を対応づけてなる第3オブジェクト制御データを記憶する手段を含み、
     前記制限手段は、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の現在の距離が満足する前記条件に対応する前記位置制御情報に基づいて、前記第3オブジェクトの頂点の位置を制御する、
     ことを特徴とする画像処理装置。
  6.  請求の範囲第1項又は第2項に記載の画像処理装置において、
     前記第2オブジェクトが移動する場合の各フレームにおける前記第3オブジェクトの頂点の位置を特定するための第3オブジェクト制御データを記憶する手段を含み、
     前記制限手段は、前記第3オブジェクト制御データに基づいて、前記第3オブジェクトの頂点の位置を制御する、
     ことを特徴とする画像処理装置。
  7.  請求の範囲第1項又は第2項に記載の画像処理装置において、
     前記制限手段は、前記第3オブジェクトの全体又は一部の透明度を高めることによって、前記画面における前記第3オブジェクトの表示出力を制限することを特徴とする画像処理装置。
  8.  請求の範囲第7項に記載の画像処理装置において、
     前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離に関する条件と、前記第3オブジェクトの各点の透明度制御に関する透明度制御情報と、を対応づけてなる第3オブジェクト制御データを記憶する手段を含み、
     前記制限手段は、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の現在の距離が満足する前記条件に対応する前記透明度制御情報に基づいて、前記第3オブジェクトの各点の透明度を制御する、
     ことを特徴とする画像処理装置。
  9.  請求の範囲第7項に記載の画像処理装置において、
     前記第2オブジェクトが移動する場合の各フレームにおける前記第3オブジェクトの各点の透明度を特定するための第3オブジェクト制御データを記憶する手段を含み、
     前記制限手段は、前記第3オブジェクト制御データに基づいて、前記第3オブジェクトの各点の透明度を制御する、
     ことを特徴とする画像処理装置。
  10.  請求の範囲第1項又は第2項に記載の画像処理装置において、
     前記制限手段は、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離が所定距離より大きい場合に、前記画面における前記第3オブジェクトの表示出力を制限することを特徴とする画像処理装置。
  11.  請求の範囲第10項に記載の画像処理装置において、
     前記制限手段は、前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離が前記所定距離以下である場合に、前記第2オブジェクトの姿勢に基づいて、前記画面における前記第3オブジェクトの一部の表示出力を制限する手段を含むことを特徴とする画像処理装置。
  12.  第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置の制御方法において、
     前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させるステップと、
     前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離に基づいて、前記画面における前記第3オブジェクトの表示出力を制限する制限ステップと、
     を含むことを特徴とする画像処理装置の制御方法。
  13.  第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置の制御方法において、
     前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させるステップと、
     前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離の変化に伴って、前記第3オブジェクトの全体又は一部の前記画面への表示出力を制限する制限ステップと、
     を含むことを特徴とする画像処理装置の制御方法。
  14.  第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置としてコンピュータを機能させるプログラムであって、
     前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段、及び、
     前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離に基づいて、前記画面における前記第3オブジェクトの表示出力を制限する制限手段、
     として前記コンピュータを機能させるためのプログラム。
  15.  第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置としてコンピュータを機能させるためのプログラムであって、
     前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段、及び、
     前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離の変化に伴って、前記第3オブジェクトの全体又は一部の前記画面への表示出力を制限する制限手段、
     として前記コンピュータを機能させるためのプログラム。
  16.  第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置としてコンピュータを機能させるプログラムを記録したコンピュータ読み取り可能な情報記憶媒体であって、
     前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段、及び、
     前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離に基づいて、前記画面における前記第3オブジェクトの表示出力を制限する制限手段、
     として前記コンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体。
  17.  第1オブジェクトと、第2オブジェクトと、が配置された仮想3次元空間を画面に表示する画像処理装置としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体であって、
     前記第1オブジェクトに関連する表示出力を行うための第3オブジェクトを前記仮想3次元空間に配置し、前記第3オブジェクトを前記第2オブジェクトの移動に従って移動させる手段、及び、
     前記第1オブジェクトと、前記第2オブジェクト又は前記第3オブジェクトと、の間の距離の変化に伴って、前記第3オブジェクトの全体又は一部の前記画面への表示出力を制限する制限手段、
     として前記コンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2009/055270 2008-03-28 2009-03-18 画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体 WO2009119399A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/934,905 US20110025687A1 (en) 2008-03-28 2009-03-18 Image processing device, image processing device control method, program, and information storage medium
KR1020107018341A KR101139747B1 (ko) 2008-03-28 2009-03-18 화상 처리 장치, 화상 처리 장치의 제어 방법 및 정보 기억 매체
CN2009801062464A CN101952857B (zh) 2008-03-28 2009-03-18 图像处理装置、图像处理装置的控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-087909 2008-03-28
JP2008087909A JP5192874B2 (ja) 2008-03-28 2008-03-28 画像処理装置、画像処理装置の制御方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2009119399A1 true WO2009119399A1 (ja) 2009-10-01

Family

ID=41113596

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/055270 WO2009119399A1 (ja) 2008-03-28 2009-03-18 画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体

Country Status (6)

Country Link
US (1) US20110025687A1 (ja)
JP (1) JP5192874B2 (ja)
KR (1) KR101139747B1 (ja)
CN (1) CN101952857B (ja)
TW (1) TW200946186A (ja)
WO (1) WO2009119399A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113610939B (zh) * 2021-07-28 2024-07-30 Oppo广东移动通信有限公司 Ui对象的定位方法、终端设备及计算机可读存储介质
CN114298915A (zh) * 2021-12-30 2022-04-08 浙江大华技术股份有限公司 图像目标的处理方法和装置、存储介质及电子装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0947576A (ja) * 1995-08-04 1997-02-18 Namco Ltd 3次元ゲーム装置及び画像合成方法
JPH10111955A (ja) * 1996-08-12 1998-04-28 Fujitsu Ltd 接触部分描画方法ならびにそのための接触部分描画装置および記憶媒体
JP2002042165A (ja) * 2000-07-27 2002-02-08 Namco Ltd 画像生成装置、方法および記録媒体
JP2004118559A (ja) * 2002-09-26 2004-04-15 Konami Co Ltd 画像処理装置及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10188028A (ja) * 1996-10-31 1998-07-21 Konami Co Ltd スケルトンによる動画像生成装置、該動画像を生成する方法、並びに該動画像を生成するプログラムを記憶した媒体
JP3599268B2 (ja) * 1999-03-08 2004-12-08 株式会社ソニー・コンピュータエンタテインメント 画像処理方法、画像処理装置及び記録媒体
CA2455359C (en) * 2004-01-16 2013-01-08 Geotango International Corp. System, computer program and method for 3d object measurement, modeling and mapping from single imagery
JP4833674B2 (ja) * 2006-01-26 2011-12-07 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0947576A (ja) * 1995-08-04 1997-02-18 Namco Ltd 3次元ゲーム装置及び画像合成方法
JPH10111955A (ja) * 1996-08-12 1998-04-28 Fujitsu Ltd 接触部分描画方法ならびにそのための接触部分描画装置および記憶媒体
JP2002042165A (ja) * 2000-07-27 2002-02-08 Namco Ltd 画像生成装置、方法および記録媒体
JP2004118559A (ja) * 2002-09-26 2004-04-15 Konami Co Ltd 画像処理装置及びプログラム

Also Published As

Publication number Publication date
TW200946186A (en) 2009-11-16
JP5192874B2 (ja) 2013-05-08
KR101139747B1 (ko) 2012-04-26
TWI376256B (ja) 2012-11-11
KR20100103878A (ko) 2010-09-28
JP2009244971A (ja) 2009-10-22
CN101952857B (zh) 2013-05-01
US20110025687A1 (en) 2011-02-03
CN101952857A (zh) 2011-01-19

Similar Documents

Publication Publication Date Title
KR100463906B1 (ko) 화상처리장치,이 처리장치를 이용한 게임기와 화상처리방법 및 매체
KR101623288B1 (ko) 렌더링 시스템, 렌더링 서버, 그 제어 방법, 및 기록 매체
JP4668655B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP4833674B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4171040B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP3926828B1 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4079378B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2008165584A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP5149547B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP5785414B2 (ja) プログラム、および、当該プログラムを記録したプログラム記録部を備えている画像処理装置
JP2019084298A (ja) 操作入力システム、操作入力装置及びゲームシステム
JP4031509B1 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP5192874B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP4567027B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP3564440B2 (ja) 動画像生成プログラム、動画像生成方法及び装置
JP4764381B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4964057B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4892454B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP3712175B2 (ja) 画像合成装置並びに方法及び情報記憶媒体
JP2012073961A (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP2005050070A (ja) 画像処理装置、画像処理方法及びプログラム
JP4838230B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP4838067B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2002052241A (ja) ゲーム装置、ゲーム機の制御方法、情報記憶媒体、プログラム配信装置及び方法
JP2008276808A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980106246.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09725137

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20107018341

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 12934905

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09725137

Country of ref document: EP

Kind code of ref document: A1