WO2007001051A1 - ネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及び情報記憶媒体 - Google Patents

ネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及び情報記憶媒体 Download PDF

Info

Publication number
WO2007001051A1
WO2007001051A1 PCT/JP2006/312994 JP2006312994W WO2007001051A1 WO 2007001051 A1 WO2007001051 A1 WO 2007001051A1 JP 2006312994 W JP2006312994 W JP 2006312994W WO 2007001051 A1 WO2007001051 A1 WO 2007001051A1
Authority
WO
WIPO (PCT)
Prior art keywords
contact
game
player
moving object
image
Prior art date
Application number
PCT/JP2006/312994
Other languages
English (en)
French (fr)
Inventor
Shigenobu Matsuyama
Hiroyuki Ashida
Nobuhiro Onodera
Shintaro Osato
Hajime Wakuda
Takahiko Shimada
Keigo Fukushima
Hiroyuki Esaka
Tsuyoshi Okino
Original Assignee
Konami Digital Entertainment Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co., Ltd. filed Critical Konami Digital Entertainment Co., Ltd.
Priority to CA002613667A priority Critical patent/CA2613667A1/en
Priority to EP06767611A priority patent/EP1900403A4/en
Priority to KR1020077029449A priority patent/KR100929995B1/ko
Priority to US11/994,401 priority patent/US20090104995A1/en
Publication of WO2007001051A1 publication Critical patent/WO2007001051A1/ja

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Definitions

  • the present invention relates to a network game system, a game device, a game device control method, and an information storage medium, and in particular, a network that applies a moving object such as a bullet object to be fired to each player object to another player object.
  • a moving object such as a bullet object to be fired to each player object to another player object.
  • the present invention has been made in view of the above-described problems, and the purpose of the present invention is when a moving object such as a bullet object touches another object in the virtual space, and where the moving object is fired. It is an object of the present invention to provide a network game system, a game device, a game control method, and an information storage medium that allow a player to immediately understand the game screen power.
  • a network game system includes a plurality of game devices connected to a communication network, and a plurality of player objects are arranged.
  • a network game system in which each player object competes with other player objects to apply the position of each player object to the other player object.
  • a contact determination unit that determines whether or not the object is in contact with another object arranged in the virtual space, and the contact determination unit determines that the moving object is in contact with the other object.
  • a contact direction acquisition unit that acquires a contact direction of the moving object with respect to the other object, and an image corresponding to the direction of the contact surface of the other object and the contact direction.
  • Contact image display means for displaying at a position corresponding to the above.
  • each of the player objects includes an invisible covering polygon model that covers the player object
  • the contact image display means is configured such that when the other object that is in contact with the moving object is the player object, You may make it map (paste) the image according to the direction of the contact surface of the said other object, and the said contact direction as a texture image to the position on the said covering polygon model according to a contact position. In this way, an image corresponding to the contact state of the moving object can be displayed immediately in the vicinity of the player object without executing complicated processing.
  • each of the game devices further includes image storage means for storing a plurality of images
  • the image display means is configured to select the other object from the plurality of images stored in the image storage means.
  • An image corresponding to the angle formed by the direction of the contact surface and the contact direction may be selectively read out and displayed. In this way, an image corresponding to the contact status of the moving object can be displayed easily.
  • the game device according to the present invention is connected to a communication network together with other game devices, shares a virtual space in which a plurality of player objects are arranged with the other game devices, and the position of each player object.
  • a contact determination means for determining whether or not the moving object is in contact with another object arranged in the virtual space, the game device competing to hit a moving object to be fired against another player object;
  • a contact direction acquisition unit that acquires a contact direction of the moving object with respect to the other object when the moving determination unit determines that the moving object is in contact with the other object; and a contact surface of the other object.
  • the image corresponding to the direction of the touch and the contact direction Contact image display means for displaying at a position corresponding to the contact position of the moving object.
  • the game control method according to the present invention is connected to a communication network together with other game devices, shares a virtual space in which a plurality of player objects are arranged with the other game devices, and Position force A game control method for competing to hit a moving object to be fired against another player object, wherein the moving object is a contact for determining whether or not the moving object contacts another object arranged in the virtual space.
  • a contact image display step of displaying the moving object at a position corresponding to the contact position of the moving object.
  • the information storage medium according to the present invention is connected to a communication network together with other game devices, shares a virtual space in which a plurality of player objects are arranged with the other game devices, and Positional force A program for causing a computer to function as a game device that competes to hit a moving object to be fired against another player object, wherein the moving object contacts another object arranged in the virtual space.
  • Contact determination means for determining whether or not to perform the movement object when the contact determination means determines that the moving object is in contact with the other object.
  • Contact direction acquisition means for acquiring the contact direction of the other object with respect to the other object, and an image corresponding to the direction of the contact surface of the other object and the contact direction, the contact position of the moving object on the other object
  • An information storage medium storing a program for causing a computer to function as a contact image display means for displaying at a position corresponding to the above.
  • the computer is, for example, an arcade game machine, a home game machine, a portable game machine, a personal computer, various server computers, a portable information terminal, a cellular phone machine, or the like.
  • the program may be stored on a CD-ROM, DVD-ROM or other computer-readable information storage medium.
  • FIG. 1 is an external perspective view of a game device according to an embodiment of the present invention.
  • FIG. 2 is an overall configuration diagram of a network shooting game system according to an embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of a game screen.
  • FIG. 4 is a diagram showing a hardware configuration of the game device.
  • FIG. 5 is a functional block diagram of the game device.
  • FIG. 6 is a diagram showing a plurality of base positions set in a virtual three-dimensional space.
  • FIG. 7 is a diagram showing a method for determining the position and posture of a player character object.
  • FIG. 8 is a diagram for explaining a method for determining a posture of a player.
  • FIG. 9 is a diagram showing a configuration of position data of a player character object.
  • FIG. 10 is a diagram showing a change direction of the base position (placement reference position).
  • FIG. 11 is a diagram showing a configuration of trajectory data of a bullet object.
  • FIG. 12 is a diagram showing a method for correcting trajectory data.
  • FIG. 13 is a diagram for explaining a method of displaying paint marks on a static object.
  • FIG. 14 is a diagram for explaining a method of displaying paint marks on a static object.
  • FIG. 15 is a diagram for explaining a method of displaying paint marks on a static object.
  • FIG. 16 is a diagram for explaining a paint mark display method for a static object.
  • FIG. 17 is a diagram for explaining a method of displaying paint marks on a static object.
  • FIG. 18 is a diagram for explaining a paint mark display method for a static object.
  • FIG. 19 is a diagram for explaining a method of displaying paint marks on a static object.
  • FIG. 20 is a diagram for explaining a method of displaying paint marks on a dynamic object.
  • FIG. 21 is a diagram illustrating a method for displaying paint marks on a dynamic object.
  • FIG. 22 is a diagram illustrating a method for displaying paint marks on a dynamic object.
  • FIG. 23 is a diagram for explaining a method of displaying paint marks on a dynamic object.
  • FIG. 1 is a perspective view showing an external appearance of a game device according to one embodiment of the present invention.
  • the game apparatus 10 shown in the figure is a commercial machine arranged in various amusement halls, and a base 18 extending forward from the case 12 is attached to the bottom of the case 12.
  • a game stage 20 thinner than the base 18 is attached to the front.
  • a foot 52 is drawn at the center of the game stage 20, and when the player stands with the foot 52, the player faces the case 12.
  • a slope is formed at the forefront of the base 18, that is, at a position where the game stage 20 is attached, and a foot controller 50 is provided on this slope.
  • the foot controller 50 has a built-in pressure-sensitive sensor. When a player standing on the game stage 20 puts his / her left or right foot forward and steps on the foot controller 50, that effect is displayed. Will be notified inside the device!
  • the casing 12 is formed higher than the height of a general adult, and a substantially rectangular frame 14 is attached to the upper portion thereof.
  • the frame body 14 is arranged slightly diagonally so that its front side is positioned higher than the rear side.
  • the back side of the frame pair 14 is fixed to the top of the housing 12, Furthermore, it is being fixed to the top part of a pair of support bar 16 on either side.
  • the pair of support bars 16 are fixed to the left and right side surfaces of the housing 12.
  • An ultrasonic transmitter 17 and ultrasonic receivers 13 and 15 are provided on the front side of the frame body 14. In other words, the ultrasonic receiver 15 is provided on the upper left side, the ultrasonic receiver 13 is provided on the upper right side, and the ultrasonic transmitter 17 is provided on the upper center side.
  • the ultrasonic transmitter 17 and the ultrasonic receivers 13 and 15 are arranged on the same straight line, and the ultrasonic transmitter 17 is mounted in the middle of the ultrasonic receivers 13 and 15.
  • the ultrasonic waves are emitted downward from the ultrasonic transmitter 17, and the time until the reflected waves are detected by the ultrasonic receivers 13 and 15 is measured.
  • the distance from the ultrasonic transmitter 17 to the player's head and the distance from the player's head strength ultrasonic receiver 13 and the distance from the ultrasonic transmitter 17 to the player's head Two distances are obtained: a distance obtained by adding the distance from the player's head to the ultrasonic receiver 15. Then, from these two distances, the posture of the player standing at the game stage 20 is detected! /.
  • a monitor 24 for displaying a game screen is directly facing, and an advertisement board 22 is attached to the top thereof.
  • a lower portion of the monitor 24 is pushed forward, and a protruding portion 26 is formed.
  • a speaker 28 for outputting game sound effects and game music is attached to the forefront portion 26 in the foreground.
  • an upper end of a front plate 38 which is a vertically long plate member having a width narrower than the casing width, is attached.
  • the lower end of the front plate 38 is attached to the upper surface of the base 18 and is erected on the base 18.
  • the front plate 38 rises substantially vertically from the base 18 and then bends toward the housing 12, and the upper end is attached below the monitor 24 as described above.
  • Selection buttons 34 and 36 and a determination button 32 are attached to the front surface of the front plate 38, and the player can perform various selection operations by pressing these buttons. Yes.
  • a gun holder is also formed below the selection buttons 34 and 36 and the decision button 32 so that the gun controller 30 can be put on when not in use.
  • the grip portion of the gun controller 30 has one each of the signal cable 48 and the holding cable 42. The end is attached.
  • the other end of the signal cable 48 is introduced into the housing 12, and the detection result (used for detecting the barrel direction) of the optical sensor provided inside the barrel of the gun controller 30 and the trigger signal are transmitted via the signal cable 48.
  • the other end of the holding cable 42 is firmly attached to the lower part of the housing 12, so that the gun controller 30 is not easily taken away.
  • a coin insertion part 40 and a coin return part 44 are provided at the lower part of the housing 12, and below that, coins inserted from the coin insertion part 40 and accumulated in a coin box (not shown) inside.
  • a coin collection door 46 is provided for collecting the coins.
  • the player stands on the game stage 20 with his / her foot in the foot form 52, and directs the barrel to the enemy displayed on the monitor 24 with the gun controller 30 in hand, Pull the trigger. Then, a bullet object is ejected in the virtual three-dimensional space and flies to the enemy. Similarly, a bullet object is ejected from the enemy toward itself. At this time, if the player shifts his / her head from side to side, or bends and lowers his / her head, the bullet object can be avoided.
  • the game apparatus 10 is connected to a communication network, and constitutes a network shooting game system together with other game apparatuses 10. That is, as shown in the figure, in this network shooting game system 60, a plurality of game devices 10 (here, game devices 10-1 to: n of LO-n) are connected to a communication network 62 such as the Internet.
  • the lobby server 64 is also connected.
  • Each game device 10 is provided with a server function 10b in addition to the client function 10a, and the lobby server 64 has a plurality of games that allows the game device 10 that is currently being accessed to participate in a networking gaming game. Determine device 10.
  • the lobby server 64 acquires the game proficiency level of the player of each game device 10, and thereby selects a plurality of game devices 10 played by players of the same game proficiency level, and selects them. Participate in network shooting games.
  • the lobby casino 64 selects one of the game devices 10 thus determined as a game server. Then, through the server function 10b of the game device 10, the client function 10a of the game device 10 and the client function 10a of the other game device 10 are in a virtual three-dimensional space. Data such as the current situation is exchanged, and the virtual three-dimensional space that becomes the stage of the shooting game is shared.
  • FIG. 3 shows an example of a game screen displayed on the monitor 24 of each game apparatus 10.
  • a player character object is associated with each game device 10, and all of the player character objects associated with the game device 10 participating in the game are arranged in a virtual three-dimensional space. It has been done. Then, in the game device 10, a state in which the virtual three-dimensional space is viewed from the viewpoint provided at the eye position of the player character object associated with the game device 10 is displayed on the monitor 24 as a game screen. It has become. In addition, on the game screen, a self-status image 70 indicating the status of the player and an other status image 66 indicating the status of other participants are displayed. An elapsed time image 68 showing the elapsed time from the start of the game is also displayed.
  • static objects such as a car object 72, a building object 78, and a ground object 76 (objects whose positions and postures do not change over time) are displayed.
  • dynamic objects objects whose position and orientation change according to the program and game operation over time
  • player character object viewpoint setting object
  • bullet object moving object
  • the game screen shown in the figure shows a state in which the viewpoint power virtual three-dimensional space arranged at the eye position of a certain player character object is seen, and a player character object 74 is displayed at substantially the center.
  • a bullet object 80 showing a paintball fired from a toy gun hit by the player character object 74 (a sphere made of grease, with paint inside). It has been done.
  • a bullet object 82 emitted by a player character object (not shown) associated with the game apparatus 10 that displays the game screen is also displayed around the player character object 74.
  • the bullet objects 80 and 82 are simulated paintballs, and the bullet objects 80 and 82 are other objects, for example, an automobile object 72, a building object 78, Ground object 76, player character object When hitting Tato 74 etc., the state of bursting and the internal paint adhering to the object is expressed.
  • a paint mark object 84 is arranged on the ground object 76 and the car object 72, and it is shown that a bullet object hits these objects.
  • the direction (contact direction) when a bullet object hits the object is calculated, and the texture corresponding to the angle formed by this direction and the direction of the contact surface (horizontal direction or normal direction) is calculated.
  • the image is used to display the paint mark object 84.
  • the paint mark object 84 is displayed using a texture image showing a close paint mark in a circle.
  • the paint mark object 84 is displayed using a texture image indicating a paint mark extending sideways as the angle between the contact direction and the horizontal direction of the contact surface approaches zero degrees.
  • the direction in which the paint mark extends that is, the direction in which the paint mark object 84 is arranged matches the contact direction of the bullet object.
  • the player can see the paint mark object 84 displayed on the game screen and immediately know where the force-launched bullet object is attached in the virtual three-dimensional space.
  • FIG. 4 is a hardware configuration diagram of the game apparatus 10.
  • the game apparatus 10 is a computer game system, and is configured around a control unit 98 configured by a CPU, a memory, and the like.
  • the control unit 98 includes a gun controller 30, an ultrasonic transmitter 17, an ultrasonic receiver 13, 15, a foot controller 50, a storage unit 90, a disk reading device 94, a communication unit 92, an audio processing unit 102, and a display control unit 100. Is connected.
  • the gun controller 30 is a gun-type game controller, and the timing at which the player pulls the trigger and the directing direction of the gun controller 30 at that timing (specifically, the position of the motor 24 is determined by the gun controller).
  • the force that 30 barrels face) is input to the control unit 98.
  • the ultrasonic transmitter 17 emits ultrasonic waves according to instructions from the control unit 98.
  • the control unit 98 starts timing force timing when the ultrasonic transmitter 17 is instructed to transmit ultrasonic waves.
  • the ultrasonic receivers 13 and 15 receive the ultrasonic waves emitted from the ultrasonic transmitter 17 and pass the received waveforms to the control unit 98.
  • control unit 98 Based on the received waveform passed from the ultrasonic receivers 13 and 15, the timing at which the reflected wave from the player's head enters the ultrasonic receivers 13 and 15 is determined. From the foot controller 50, the control unit 98 is notified that the player has stepped on the foot controller 50.
  • the storage unit 90 includes various data storage means such as a hard disk storage device and a RAM, and stores programs for realizing the client function 10a and the server function 10b.
  • the disk reading device 94 reads data from a disk 96 that is a computer-readable information storage medium such as a CD-ROM or DVD-ROM, and supplies the data to the control unit 98.
  • a disk 96 that is a computer-readable information storage medium such as a CD-ROM or DVD-ROM
  • various programs executed on the game apparatus 10 are supplied from the disk 96 to the game apparatus 10 and installed in the storage unit 90.
  • the communication unit 92 is connected to the communication network 62, and from the game device 10 operating as a game server, data indicating the status of other game devices 10 participating in the network shooting game (described later) Position data and ballistic data). Further, data (position data and ballistic data described later) indicating the situation of the own device (the game device 10) is transmitted to the game device 10 operating as a game server. Further, when the game device 10 operates as a server, when data is received from the client function 10a of another game device 10, it is further distributed to the client function 10a of the other game device 10.
  • Speakers 28, 28 are connected to the sound processing unit 102, and output game sound effects, game music and other sounds according to control from the control unit 98. For example, a bullet injection sound is output when a bullet object is emitted.
  • a monitor 24 is connected to the display control unit 100, and displays and outputs a game screen as shown in FIG. 3, for example, according to the control from the control unit 98.
  • FIG. 5 is a functional block diagram of the game apparatus 10.
  • the game apparatus 10 is a computer game system having a known configuration as described above, and realizes various functions by executing predetermined programs. As shown in the figure, this game apparatus 10 functionally includes a communication control unit 200, another character ballistic data storage unit 202, another character position data storage unit 204, a player character ballistic data storage unit 206, a player character position. Data storage unit 208, left and right shift amount update unit 210, player posture determination unit 212, basic position setting unit 216, own character ballistic data generation unit 218, hit prediction unit 220, ballistic data correction unit 222, and game image generation unit 214 Has been. These functions are realized by the control unit 98 executing a program supplied from the disk 96 to the game apparatus 10.
  • the player character ballistic data generation unit 218 generates ballistic data based on the input from the gun controller 30. That is, when data indicating the barrel direction is input from the gun controller 30, the position coordinates (absolute coordinates in the virtual three-dimensional space) of the own character at that time are based on the stored contents of the own character position data storage unit 208. And generate. This position coordinate is used as the bullet object injection position, and is stored in the own character ballistic data storage unit 206 as ballistic data together with the barrel direction (injection direction) input from the gun controller 30.
  • FIG. 11 (b) shows the structure of data stored in the player character ballistic data storage unit 206.
  • the ballistic data stored in the player character ballistic data storage unit 206 is transmitted by the communication control unit 200 to the game apparatus 10 that executes the server function 1 Ob.
  • the game apparatus 10 that executes the server function 10b distributes the received ballistic data to other game apparatuses 10 that participate in the network shooting game. This data is received by the communication control unit 200 of each game apparatus 10 and stored in the other character trajectory data storage unit 202.
  • FIG. 11 (a) shows the structure of data stored in the other character ballistic data storage unit 202.
  • the hit prediction unit 220 receives the trajectory data stored in the other character trajectory data storage unit 202 and Based on the position coordinates (absolute coordinates) of the player character object associated with the game device 10 calculated based on the stored contents of the own character position data storage unit 208, the bullet object is displayed on the player character. Predict whether or not it will hit the objectat. That is, it is determined whether or not to enter a hit check (interference determination) area (not shown) set for the player character object in the predicted trajectory of the bullet object indicated by the ballistic data.
  • the trajectory of the bullet object may be linear or parabolic. In addition, various orbits are adopted. It can be done.
  • the ballistic data correction unit 222 evaluates that the bullet object enters the hit check area, that is, if the bullet object 306 hits a predetermined position of the player character PC (see FIG. 12 (a)).
  • the ballistic data stored in the other character ballistic data storage unit 202 is corrected based on the position coordinates of the viewpoint VP set to the eye position of the player character object PC associated with the game apparatus 10. (See Figure 12 (b)).
  • the trajectory data correction unit 222 obtains the corrected emission direction 304a by shifting the emission direction 304 of the trajectory data to the viewpoint VP position set as the eye position of the player character PC.
  • the injection direction 304 (vector data) that constitutes the ballistic data so that the angular force formed by the vector connecting the injection position of the bullet object 306 and the viewpoint VP and the vector of the injection direction 304 of the bullet object 306 is reduced.
  • the corrected data is stored in the other character ballistic data storage unit 202.
  • the bullet object 306 moves within the visual field range 302 of the player character PC, and when the game screen is generated by projecting the state of the virtual three-dimensional space onto the screen 300, the bullet object 306 is there. It will be expressed reliably.
  • a plurality of basic positions are set in a virtual three-dimensional space serving as a game stage, as shown in FIG. 6, and these position coordinates and IDs are stored in advance.
  • Each game character object has its actual installation position determined based on one of the basic positions (placement reference position).
  • the base position setting unit 216 selects the base position of the player character object associated with the game apparatus 10 as the placement reference position. Specifically, at the start of the game, a predetermined basic position is selected as the arrangement reference position.
  • the player posture determination unit 212 determines that a predetermined time or more has elapsed with the body largely shifted left or right on the game stage 20, the player posture determination unit 212 sets the direction of the virtual three-dimensional space corresponding to the shifted direction. Change the placement reference position to the base position.
  • the arrangement reference position is changed to the basic position in front of the player character.
  • the base position setting unit 216 displays the opponent to which the player character object associated with the game apparatus 10 is directed in another play arranged in the virtual three-dimensional space.
  • the player character object is selected from the inside, and the basic position related to the player character is managed as the pointing position.
  • the other character position data storage unit 204 stores the basic position (placement reference position) selected in the other game apparatus 10, and selects one of these as the pointing position. is doing.
  • the selection results of the base position setting unit 216 (the placement reference position and the pointing position of the player character object associated with the game apparatus 10) are both stored in the own character position data storage unit 208.
  • FIG. 10 is a diagram for explaining a method for reselecting the arrangement reference position.
  • the opponent player character object the opponent arranged at the pointing position passes through the current position SP 'of the player character object.
  • the trajectory 250 centered on the position of the object is calculated. This orbit 250 extends counterclockwise in plan view when the player's head is displaced to the left by urging the housing 12. Moreover, when it has shifted
  • the player posture determination unit 212 uses the ultrasonic transmitter 17 and the ultrasonic receivers 13 and 15 to determine the posture of the player standing on the game stage 20. That is, as shown in FIG. 8, the ultrasonic wave is emitted from the ultrasonic wave transmitter 17, and each time from the reflection of the head of the player M to the incidence to the ultrasonic wave receivers 13 and 15 is measured. The sum of the distance 10 from the ultrasonic transmitter 17 to the head of the player M and the distance 11 from which the head strength of the player M also reaches the ultrasonic receiver 13 (10 + 1 1), and the head of the player M from the ultrasonic transmitter 17 The sum (10 + 12) of the distance 10 to reach and the head power of player M to the distance 12 to the ultrasonic receiver 15 is acquired.
  • data (X and y) for specifying the position of the head of the player M is calculated based on such information. If the absolute value of the value of y (the shift amount of the player's head left and right) exceeds a predetermined value for a predetermined time or longer, the basic position setting unit 216 is notified of the player's head misalignment direction. . In response to this, the base position setting unit 216 reselects the placement reference position.
  • the player posture determination unit 212 passes the value of y to the left / right shift amount update unit 210. Then, the left / right shift amount updating unit 210 determines the player character object based on the value of y.
  • the shift amount is calculated and stored in the own character position data storage unit 208.
  • the shift amount may be, for example, the y value itself passed from the player attitude determination unit 212, or may be calculated by performing various processes such as smoothing on the sequentially generated y value. Good.
  • FIG. 9 (b) shows the configuration of data stored in the own character position data storage unit 208.
  • the position data includes the base position ID for identifying the base position selected by the base position setting unit 216 as the placement reference position, the shift amount set by the left / right shift amount update unit 210, and the pointing position.
  • the base position setting unit 216 includes a base position ID (lock base position ID) for identifying the base position selected by the base position setting unit 216.
  • FIG. 7 shows the relationship between the shift amount, the arrangement reference position, and the current position of the player character! /
  • a thick arrow indicates the posture of the player character object.
  • SP indicates the arrangement reference position
  • SP ′ indicates the position of the player character object after the maximum distance shift
  • EP indicates the base position selected as the directivity position.
  • the player character object moves to the left and right in the state where the pointing position EP is pointed by the shift amount set by the left and right shift amount updating unit 210 with the arrangement reference position SP as the center.
  • the shift direction of the player character is perpendicular to the direction from the placement reference position SP to the pointing position EP, but it may be shifted in another direction.
  • the shift amount is limited to a certain distance (both L here).
  • the data stored in the own character position data storage unit 208 is transmitted by the communication control unit 200 to the game apparatus 10 that executes the server function 10b.
  • the game device 10 distributes the received data to other game devices 10 participating in the network game.
  • the communication control unit 200 receives the position data distributed in this way, it stores it in the other character position data storage unit 204.
  • FIG. 9 (a) shows the configuration of data stored in the other character position data storage unit 204! / Speak.
  • the game image generation unit 214 performs monitoring based on the stored contents of the other character ballistic data storage unit 202, the other character position data storage unit 204, the own character ballistic data storage unit 206, and the own character position data storage unit 208.
  • the ballistic data is read from the other character ballistic data storage unit 202 and the ballistic data is read out.
  • the bullet object is placed on the trajectory in the virtual 3D space indicated by the data, and it is moved over time.
  • the trajectory data is read from the own character trajectory data storage unit 206, a bullet object is placed on the trajectory in the virtual three-dimensional space indicated by the trajectory data, and is moved with time.
  • the position data is read from the other character position data storage unit 204, and the player character object associated with the other game device 10 is arranged at the position in the virtual three-dimensional space indicated by the position data.
  • the posture of the player character object is determined based on the pointing position (lock base position ID) so that the current position also faces the pointing position.
  • the player character object is arranged at a position where the arrangement reference position force is also shifted by the shift amount.
  • position data is read from the own character position data storage unit 208, and a player character object associated with the game apparatus 10 is placed at a position in the virtual three-dimensional space indicated by the position data.
  • the posture of the player character object is determined so as to face the current position force and the pointing position based on the pointing position (lock base position ID). Further, the player character object is arranged at a position shifted from the arrangement reference position by the shift amount.
  • this game apparatus 10 it is determined whether or not the bullet object has contacted another object. If it is in contact with another object, the ballistic data related to the bullet object is deleted from the other character ballistic data storage unit 202 or the own character ballistic data 206. Then, an image showing a paint mark is displayed at the contact position. For this reason, the paint mark object is placed at the position where the bullet object touches (or hits) another object in the virtual three-dimensional space.
  • the display method of the paint mark object the following two methods are adopted. That is, for a static object such as the building object 78, as shown in FIG. 13, when the bullet object 400 contacts the static object 402, the contact position 404 is centered as shown in FIG. Cut out from the static object 402. At this time, as shown in FIG. 16, the orbital force of the bullet object 400 also calculates the contact direction 408 and projects it onto the static object 402 to obtain the vector 409. The angle between the vector 409 and the contact direction 408 ⁇ is calculated in advance. [0050] Then, when a portion centered on the contact position 404 is cut out from the static object 402, the orientation of the cut portion is determined according to the vector 409.
  • the polygons constituting the cut paint mark object 406 are subdivided (see FIG. 17), and a texture image showing the paint marks is mapped there.
  • a plurality of texture images showing paint marks are prepared in advance, and each is stored in association with the range of the angle ⁇ (see FIG. 18).
  • a texture image corresponding to the angle ⁇ calculated as described above is selectively read out and mapped onto the paint mark object 406 (see FIG. 19).
  • the paint mark object 406 is placed at the contact position of the bullet object 400 in the original static object 402.
  • an invisible polygon model (paint mark object) that completely encloses the dynamic object around the dynamic object 500. 502 is arranged.
  • this polygon model 502 is composed of a combination of polygons finer than the dynamic object 500 itself, so that an arbitrary texture can be mapped to an arbitrary location.
  • the position of the polygon model 502 corresponding to the contact position is specified (see FIG. 22), and the paint prepared in advance as shown in FIG. Map the trace texture image (see Figure 23).
  • the texture image corresponding to the angle formed by the contact direction of the bullet object 400 with the dynamic object 500 and the direction of the contact surface is selectively read out and mapped to the contact location.
  • the game image generation unit 214 displays an image of the virtual three-dimensional space viewed from the viewpoint arranged at the eye position of the player character object associated with the game device 10, and Is displayed on the monitor 24.
  • the bullet object's trajectory is corrected and the bullet object is set on the player character. Since the point of view is moved toward the viewpoint, the state of the bullet object approaching the virtual three-dimensional space can be shown by displaying on the monitor 24.
  • the position of each player character object is constrained to any one of a plurality of predetermined basic positions, and their postures are calculated based on the basic positions where other player character objects are constrained. Therefore, the position and posture of the object associated with the game devices 10 can be shared among the plurality of game devices 10 while suppressing an increase in traffic of the communication network 62.

Abstract

 弾丸オブジェクト等の移動オブジェクトが仮想空間において他のオブジェクトに接触した場合に、該移動オブジェクトがどこから発射されたものであるかをプレイヤがゲーム画面から直ちに理解することができるネットワークゲームシステムを提供する。  弾丸オブジェクトが仮想空間に配置された他のオブジェクト(402)と接触するか否かを判定する接触判定手段と、接触判定手段により弾丸オブジェクトが前記他のオブジェクト(402)と接触すると判定される場合に、弾丸オブジェクトの前記他のオブジェクト(402)に対する接触方向を取得する接触方向取得手段と、前記他のオブジェクト(402)の接触面の方向と前記接触方向とに応じた画像(84)を、前記他のオブジェクト(402)における弾丸オブジェクトの接触位置に応じた位置に表示する接触画像表示手段と、を含む。

Description

明 細 書
ネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及び情 報記憶媒体
技術分野
[0001] 本発明はネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及び情 報記憶媒体に関し、特に各プレイヤオブジェクトの位置力 発射される弾丸オブジェ タト等の移動オブジェクトを他のプレイヤオブジェクトに当てるネットワークシユーティ ングゲームその他のネットワークゲームに関する。
背景技術
[0002] 通信ネットワークを用いたネットワークシユーティングゲームでは、複数プレイヤによ り仮想空間を共有して、この仮想空間内に配置された、プレイヤの操作対象であるプ レイヤオブジェクト同士で弾丸オブジェクトを撃ち合 、、弾丸オブジェクトを他のプレ ィャキャラクタオブジェクトに当てることを競う。
発明の開示
発明が解決しょうとする課題
[0003] 上記ネットワークシユーティングゲームでは、プレイヤオブジェクトが仮想空間の任 意の場所力 他のプレイヤオブジェクトを攻撃する。しかし、攻撃される側からは、他 のプレイヤオブジェクトがどこにいるの力、どこから攻撃を受けているのかを速やかに 判断することが困難である。
[0004] 本発明は上記課題に鑑みてなされたものであって、その目的は、弾丸オブジェクト 等の移動オブジェクトが仮想空間において他のオブジェクトに接触した場合に、該移 動オブジェクトがどこ力 発射されたものであるかをプレイヤがゲーム画面力も直ちに 理解することができるネットワークゲームシステム、ゲーム装置、ゲーム制御方法及び 情報記憶媒体を提供することにある。
課題を解決するための手段
[0005] 上記課題を解決するために、本発明に係るネットワークゲームシステムは、通信ネッ トワークに接続された複数のゲーム装置を含み、複数のプレイヤオブジェクトが配置 された仮想空間を共有して、各プレイヤオブジェクトの位置力 発射される移動ォブ ジ工タトを他のプレイヤオブジェクトに当てることを競うネットワークゲームシステムであ つて、前記各ゲーム装置は、前記移動オブジェクトが前記仮想空間に配置された他 のオブジェクトと接触するか否かを判定する接触判定手段と、前記接触判定手段に より前記移動オブジェクトが前記他のオブジェクトと接触すると判定される場合に、前 記移動オブジェクトの前記他のオブジェクトに対する接触方向を取得する接触方向 取得手段と、前記他のオブジェクトの接触面の方向と前記接触方向とに応じた画像 を、前記他のオブジェクトにおける前記移動オブジェクトの接触位置に応じた位置に 表示する接触画像表示手段と、を含むことを特徴とする。
[0006] 本発明によれば、移動オブジェクトが仮想空間に配置された他のオブジェクトと接 触する場合に、その接触面の方向と接触方向とに応じた画像が、当該他のオブジェ タトにおける移動オブジェクトの接触位置に応じた位置に表示される。このため、プレ ィャはこの画像を見て、どの方向力 移動オブジェクトが発射されたかを直ちに理解 することができ、仮想空間において各プレイヤオブジェクトの位置力も発射される移 動オブジェクトを他のプレイヤオブジェクトに当てるネットワークゲームの面白さを増大 させることがでさる。
[0007] なお、前記各プレイヤオブジェクトが、該プレイヤオブジェクトを覆う不可視の被覆 ポリゴンモデルを備え、前記接触画像表示手段は、前記移動オブジェクトが接触する 前記他のオブジェクトが前記プレイヤオブジェクトである場合、前記接触位置に応じ た前記被覆ポリゴンモデル上の位置に、前記他のオブジェクトの接触面の方向と前 記接触方向とに応じた画像をテクスチャ画像としてマッピング (貼付)するようにしても よい。こうすれば、複雑な処理を実行することなぐプレイヤオブジェクトの近傍に直ち に移動オブジェクトの接触状況に応じた画像を表示することができる。
[0008] また、前記各ゲーム装置は、複数の画像を記憶する画像記憶手段をさらに含み、 前記画像表示手段は、前記画像記憶手段に記憶される前記複数の画像の中から、 前記他のオブジェクトの接触面の方向と前記接触方向とのなす角に応じた画像を選 択的に読み出して表示するようにしてもよい。こうすれば、移動オブジェクトの接触状 況に応じた画像を簡易に表示することができる。 [0009] また、本発明に係るゲーム装置は、他のゲーム装置と共に通信ネットワークに接続 され、複数のプレイヤオブジェクトが配置された仮想空間を前記他のゲーム装置と共 有し、各プレイヤオブジェクトの位置力 発射される移動オブジェクトを他のプレイヤ オブジェクトに当てることを競うゲーム装置であって、前記移動オブジェクトが前記仮 想空間に配置された他のオブジェクトと接触する力否かを判定する接触判定手段と、 前記接触判定手段により前記移動オブジェクトが前記他のオブジェクトと接触すると 判定される場合に、前記移動オブジェクトの前記他のオブジェクトに対する接触方向 を取得する接触方向取得手段と、前記他のオブジェクトの接触面の方向と前記接触 方向とに応じた画像を、前記他のオブジェクトにおける前記移動オブジェクトの接触 位置に応じた位置に表示する接触画像表示手段と、を含むことを特徴とする。
[0010] また、本発明に係るゲーム制御方法は、他のゲーム装置と共に通信ネットワークに 接続され、複数のプレイヤオブジェ外が配置された仮想空間を前記他のゲーム装置 と共有し、各プレイヤオブジェクトの位置力 発射される移動オブジェクトを他のプレ ィャオブジェクトに当てることを競うゲーム制御方法であって、前記移動オブジェクト が前記仮想空間に配置された他のオブジェクトと接触するか否かを判定する接触判 定ステップと、前記接触判定ステップで前記移動オブジェクトが前記他のオブジェクト と接触すると判定される場合に、前記移動オブジェクトの前記他のオブジェクトに対 する接触方向を取得する接触方向取得ステップと、前記他のオブジェクトの接触面 の方向と前記接触方向とに応じた画像を、前記他のオブジェクトにおける前記移動 オブジェクトの接触位置に応じた位置に表示する接触画像表示ステップと、を含むこ とを特徴とする。
[0011] また、本発明に係る情報記憶媒体は、他のゲーム装置と共に通信ネットワークに接 続され、複数のプレイヤオブジェクトが配置された仮想空間を前記他のゲーム装置と 共有し、各プレイヤオブジェクトの位置力 発射される移動オブジェクトを他のプレイ ャオブジェクトに当てることを競うゲーム装置としてコンピュータを機能させるためのプ ログラムであって、前記移動オブジェクトが前記仮想空間に配置された他のオブジェ タトと接触するか否かを判定する接触判定手段、前記接触判定手段により前記移動 オブジェクトが前記他のオブジェクトと接触すると判定される場合に、前記移動ォブジ ェタトの前記他のオブジェクトに対する接触方向を取得する接触方向取得手段、及 び前記他のオブジェクトの接触面の方向と前記接触方向とに応じた画像を、前記他 のオブジェクトにおける前記移動オブジェクトの接触位置に応じた位置に表示する接 触画像表示手段としてコンピュータを機能させるためのプログラムを記憶した情報記 憶媒体である。コンピュータは、例えば業務用ゲーム機、家庭用ゲーム機、携帯ゲー ム機、パーソナルコンピュータ、各種サーバコンピュータ、携帯情報端末、携帯電話 機等である。また、プログラムは、 CD— ROM、 DVD— ROMその他のコンピュータ 読み取り可能な情報記憶媒体に格納されてもょ 、。
[0012] 本発明によれば、移動オブジェクトが仮想空間に配置された他のオブジェクトと接 触する場合に、その接触面の方向と接触方向とに応じた画像が、当該他のオブジェ タトにおける移動オブジェクトの接触位置に応じた位置に表示される。このため、プレ ィャはこの画像を見て、どの方向力 移動オブジェクトが発射されたかを直ちに理解 することができ、仮想空間において各プレイヤオブジェクトの位置力も発射される移 動オブジェクトを他のプレイヤオブジェクトに当てるネットワークゲームの面白さを増大 させることがでさる。
図面の簡単な説明
[0013] [図 1]本発明の実施形態に係るゲーム装置の外観斜視図である。
[図 2]本発明の実施形態に係るネットワークシユーティングゲームシステムの全体構成 図である。
[図 3]ゲーム画面の一例を示す図である。
[図 4]ゲーム装置のハードウェア構成を示す図である。
[図 5]ゲーム装置の機能ブロック図である。
[図 6]仮想 3次元空間に設定された複数の基礎位置を示す図である。
[図 7]プレイヤキャラクタオブジェクトの位置及び姿勢の決定方法を示す図である。
[図 8]プレイヤの姿勢判断の手法を説明する図である。
[図 9]プレイヤキャラクタオブジェクトの位置データの構成を示す図である。
[図 10]基礎位置 (配置基準位置)の変更方向を示す図である。
[図 11]弾丸オブジェクトの軌道データの構成を示す図である。 [図 12]軌道データの補正方法を示す図である。
[図 13]静的オブジェクトに対するペンキ跡の表示方法を説明する図である。
[図 14]静的オブジェクトに対するペンキ跡の表示方法を説明する図である。
[図 15]静的オブジェクトに対するペンキ跡の表示方法を説明する図である。
[図 16]静的オブジェクトに対するペンキ跡の表示方法を説明する図である。
[図 17]静的オブジェクトに対するペンキ跡の表示方法を説明する図である。
[図 18]静的オブジェクトに対するペンキ跡の表示方法を説明する図である。
[図 19]静的オブジェクトに対するペンキ跡の表示方法を説明する図である。
[図 20]動的オブジェクトに対するペンキ跡の表示方法を説明する図である。
[図 21]動的オブジェクトに対するペンキ跡の表示方法を説明する図である。
[図 22]動的オブジェクトに対するペンキ跡の表示方法を説明する図である。
[図 23]動的オブジェクトに対するペンキ跡の表示方法を説明する図である。
発明を実施するための最良の形態
[0014] 以下、本発明の一実施形態について図面に基づき詳細に説明する。
[0015] 図 1は、本発明の一実施形態に係るゲーム装置の外観を示す斜視図である。同図 に示すゲーム装置 10は各種遊技場に配置される業務用機であり、筐体 12の下に該 筐体 12から前方に延びる基台 18が取り付けられており、この基台 18のさらに前方に は基台 18よりも薄いゲームステージ 20が取り付けられている。ゲームステージ 20の 中央には足形 52が描かれており、この足形 52にプレイヤが足を合わせて立つと、筐 体 12に対して正対するようになつている。
[0016] 基台 18の最前方、すなわちゲームステージ 20が取り付けられる箇所はスロープが 形成されており、このスロープにフットコントローラ 50が設けられている。フットコント口 ーラ 50の内部には感圧センサが内蔵されており、ゲームステージ 20上に立ったプレ ィャが左右どちらかの足を前に出し、フットコントローラ 50上を踏むと、その旨が装置 内部に通知されるようになって!/、る。
[0017] 筐体 12は一般的な成人の身長よりも高く形成されており、その上部には略矩形の 枠体 14が取り付けられている。枠体 14は、その前側が後ろ側よりも高い位置となるよ う、やや斜めに配置されている。枠対 14の奥側は筐体 12の頂部に固定されており、 さらに左右には一対の支持棒 16の頂部に固定されている。これら一対の支持棒 16 は筐体 12の左右側面に固定されている。そして、枠体 14の前側には超音波発信器 17及び超音波受信器 13, 15が設けられている。すなわち、筐体 12に向力つて左側 上方に超音波受信器 15が、右側上方に超音波受信器 13が、中央上方に超音波発 信器 17が設けられている。超音波発信器 17と超音波受信器 13, 15は同一直線上 に配置されており、超音波発信器 17は超音波受信器 13, 15のちようど真ん中に取り 付けられている。ゲーム装置 10では、超音波発信器 17から下方に超音波を発射し、 その反射波を超音波受信器 13, 15で検知するまでの時間を計測するようにしている 。これにより、超音波発信器 17からプレイヤの頭までの距離とプレイヤの頭力 超音 波受信器 13までの距離とを足し合わせた距離と、超音波発信器 17からプレイヤの頭 までの距離とプレイヤの頭カゝら超音波受信器 15までの距離とを足し合わせた距離と 、の 2つの距離を取得するようになっている。そして、これら 2つの距離から、ゲームス テージ 20に立ったプレイヤの姿勢を検知するようになって!/、る。
[0018] 筐体 12におけるプレイヤの眼前にはゲーム画面を表示するモニタ 24が正対してお り、その上部には広告板 22が取り付けられている。モニタ 24の下方は前方に迫り出 し、迫り出し部 26が形成されている。迫り出し部 26の最前面にはゲーム効果音ゃゲ ーム音楽を出力するスピーカ 28が取り付けられている。また、モニタ 24の下方には、 筐体幅よりも狭い幅の屈曲した縦長の板部材であるフロントプレート 38の上端が取り 付けられている。このフロントプレート 38の下端は、基台 18の上面に取り付けられ、 基台 18上に立設されている。フロントプレート 38は基台 18から略垂直に立ち上がつ た後、筐体 12側に折れ曲がり、上述のように上端がモニタ 24の下方に取り付けられ ている。
[0019] フロントプレート 38の前面には選択ボタン 34, 36及び決定ボタン 32が取り付けら れており、プレイヤはこれらのボタンを押下することで各種の選択操作を行うことがで きるようになつている。また、選択ボタン 34, 36及び決定ボタン 32の下方にはガンホ ルダも形成されており、非使用時にガンコントローラ 30を掛けておくことができるように なっている。
[0020] ガンコントローラ 30のグリップ部には信号ケーブル 48及び保持ケーブル 42の各一 端が取り付けられている。信号ケーブル 48の他端は筐体 12内部に導入されており、 ガンコントローラ 30の銃身内部に設けられた光センサの検知結果 (銃身方向の検知 に用いられる)、及びトリガ信号が信号ケーブル 48により筐体 12内部に通知されてい る。また、保持ケーブル 42の他端は筐体 12の下部に強固に取り付けられており、ガ ンコントローラ 30が容易に持ち去られな 、ようにして 、る。
[0021] 筐体 12の下部にはコイン投入部 40及びコイン返却部 44が設けられており、またそ の下方にはコイン投入部 40から投入され、内部の図示しないコイン箱に溜まったコィ ンを回収するコイン回収扉 46が設けられて 、る。
[0022] 以上の構成を有するゲーム装置 10では、プレイヤは足形 52に自分の足を合わせ てゲームステージ 20上に立ち、ガンコントローラ 30を手にしてモニタ 24に表示される 敵に銃身を向け、トリガを引く。すると、仮想 3次元空間において弾丸オブジェクトが 射出され、敵に向力つて飛んでいく。また、同様に敵からも弾丸オブジェクトが自身に 向かって射出される。このとき、プレイヤが頭を左右にずらしたり、或いは体を屈めて 頭を下げたりすると、弾丸オブジェクトを避けることができるようになって 、る。
[0023] また、図 2に示すように、このゲーム装置 10は通信ネットワークに接続されており、 他のゲーム装置 10と共にネットワークシユーティングゲームシステムを構成している。 すなわち、同図に示すように、このネットワークシユーティングゲームシステム 60では 、インターネット等の通信ネットワーク 62に複数のゲーム装置 10 (ここではゲーム装 置 10— 1〜: LO— nの n台)が接続されており、さらにロビーサーバ 64も接続されてい る。各ゲーム装置 10にはクライアント機能 10aに加えて、サーバ機能 10bも備えられ ており、ロビーサーバ 64は、現在アクセスしてきているゲーム装置 10の中力もネットヮ 一クシユーティングゲームに参加させる複数のゲーム装置 10を決定する。例えばロビ 一サーバ 64は、各ゲーム装置 10のプレイヤのゲーム習熟度を取得して、それにより 同程度のゲーム習熟度のプレイヤによりプレイされている複数のゲーム装置 10を選 択し、それらを同じネットワークシユーティングゲームに参加させる。また、ロビーサ一 ノ 64は、こうして決定されるゲーム装置 10の中から一台をゲームサーバとして選出 する。そして、当該ゲーム装置 10のサーバ機能 10bを介して、当該ゲーム装置 10の クライアント機能 10a及び他のゲーム装置 10のクライアント機能 10aは仮想 3次元空 間の現在の状況を示すデータ等を授受し、それによりシユーティングゲームの舞台と なる仮想 3次元空間を共有するようになって 、る。
[0024] 図 3は、各ゲーム装置 10のモニタ 24に表示されるゲーム画面の一例を示している。
このネットワークシユーティングゲームシステム 60では、各ゲーム装置 10にプレイヤキ ャラクタオブジェクトが関連づけられており、ゲームに参加しているゲーム装置 10に 関連づけられたプレイヤキャラクタオブジェクトの全てが仮想 3次元空間に配置されて いる。そして、ゲーム装置 10では、該ゲーム装置 10に関連づけられたプレイヤキャラ クタオブジェクトの眼の位置に設けられた視点から仮想 3次元空間を見た様子が、モ ニタ 24にゲーム画面として表示されるようになっている。また、ゲーム画面には、自分 の状況を示す自ステータス画像 70及び他の参加者の状況を示す他ステータス画像 66が表示されている。また、ゲーム開始からの経過時間を示す経過時間画像 68も表 示されている。
[0025] 仮想 3次元空間には、同図に示すように自動車オブジェクト 72や建造物オブジェク ト 78や地面オブジェクト 76のような静的オブジェクト(時間が経過すると位置や姿勢 を変えな 、オブジェクト)の他に、プレイヤキャラクタオブジェクト(視点設定オブジェク ト) 74や弾丸オブジェクト(移動オブジェクト) 80, 82のような動的オブジェクト(時間 が経過するとプログラムやゲーム操作に従って位置や姿勢を変えるオブジェクト)が 配置されている。同図に示すゲーム画面は、あるプレイヤキャラクタオブジェクトの眼 の位置に配置された視点力 仮想 3次元空間を見た様子を示しており、略中央にプ レイヤキャラクタオブジェクト 74が表示されている。また、その手前にプレイヤキャラク タオブジェクト 74が手にして ヽる玩具銃から発射されたペイントボール (榭脂製の小 球であり、内部にペンキが封入されたもの)を示す弾丸オブジェクト 80が表示されて いる。また、プレイヤキャラクタオブジェクト 74の周囲には、当該ゲーム画面を表示す るゲーム装置 10に関連づけられたプレイヤキャラクタオブジェクト (不図示)により発 射された弾丸オブジェクト 82も表示されて 、る。
[0026] また、本実施形態においては、弾丸オブジェクト 80, 82はペイントボールをシミュレ ートしたものであり、弾丸オブジェクト 80, 82が他のオブジェクト、例えば自動車ォブ ジェタト 72、建造物オブジェクト 78、地面オブジェクト 76、プレイヤキャラクタオブジェ タト 74等に当たると、破裂して内部のペンキが同オブジェクトに付着する様子が表現 されるようになつている。ここでは、地面オブジェクト 76及び自動車オブジェクト 72上 にペンキ跡オブジェクト 84が配置されており、それらオブジェクトに弾丸オブジェクト が当たったことが示されている。特に、本実施形態では、弾丸オブジェクトがそれらォ ブジエタトに当たる際の方向(接触方向)を演算しており、この方向と接触面の方向( 水平方向又は法線方向)とのなす角に応じたテクスチャ画像をペンキ跡オブジェクト 84の表示に用いている。具体的には、接触方向と接触面の水平方向とのなす角が 9 0度に近づくほど、円形に近 ヽペンキ跡を示すテクスチャ画像を用 ヽてペンキ跡ォブ ジェタト 84を表示している。また、接触方向と接触面の水平方向とのなす角が零度に 近づくほど、横に延びたペンキ跡を示すテクスチャ画像を用いてペンキ跡ォブジェク ト 84を表示している。このとき、ペンキ跡の延びる方向、すなわちペンキ跡ォブジェク ト 84の配置方向は弾丸オブジェクトの接触方向に合致するようになって 、る。これに より、プレイヤはゲーム画面に表されたペンキ跡オブジェクト 84を見て、仮想 3次元空 間のどこ力 発射された弾丸オブジェクトにより付着したものかを直ちに把握すること ができる。
[0027] 以下、各ゲーム装置 10の内部処理について詳細に説明する。
[0028] 図 4は、ゲーム装置 10のハードウェア構成図である。同図に示すように、このゲーム 装置 10はコンピュータゲームシステムであり、 CPUやメモリ等により構成された制御 部 98を中心に構成されている。制御部 98には、ガンコントローラ 30、超音波発信器 17、超音波受信器 13, 15、フットコントローラ 50、記憶部 90、ディスク読み取り装置 94、通信部 92、音声処理部 102及び表示制御部 100が接続されている。
[0029] ガンコントローラ 30は、ガン型のゲームコントローラであり、プレイヤがトリガを引いた タイミング、及びそのタイミングでのガンコントローラ 30の指向方向(具体的にはモ- タ 24のどの位置をガンコントローラ 30の銃身が向いている力)が制御部 98に入力さ れるようになっている。超音波発信器 17は、制御部 98からの指示に従って超音波を 発する。また、制御部 98では超音波発信器 17に超音波の発信を指示したタイミング 力 計時を開始する。さらに、超音波受信器 13, 15は、超音波発信器 17から発せら れた超音波を受信して、その受信波形を制御部 98に渡す。そして、制御部 98では、 超音波受信器 13, 15から渡される受信波形に基づいて、プレイヤの頭での反射波 が超音波受信器 13, 15に入射するタイミングを判断している。フットコントローラ 50か らは、プレイヤがフットコントローラ 50を踏んだ旨が制御部 98に通知されている。
[0030] 記憶部 90は、ハードディスク記憶装置や RAM等の各種データ記憶手段により構 成されており、クライアント機能 10a及びサーバ機能 10bを実現するためのプログラム が格納されている。
[0031] ディスク読み取り装置 94は、 CD— ROMや DVD— ROM等のコンピュータ読み取 り可能な情報記憶媒体であるディスク 96からデータを読み取り、制御部 98に供給す る。ここでは、ゲーム装置 10で実行される各種プログラムがディスク 96からゲーム装 置 10に供給され、記憶部 90にインストールされるものとする。
[0032] 通信部 92は、通信ネットワーク 62に接続されており、ゲームサーバとして動作する ゲーム装置 10から、ネットワークシユーティングゲームに参加している他のゲーム装 置 10の状況を示すデータ (後述する位置データ及び弾道データ)を受信する。また、 自機(当該ゲーム装置 10)の状況を示すデータ (後述する位置データ及び弾道デー タ)をゲームサーバとして動作するゲーム装置 10に送信する。さらに、当該ゲーム装 置 10がサーバとして動作する場合には、他のゲーム装置 10のクライアント機能 10a からデータを受信すると、それをさらに他のゲーム装置 10のクライアント機能 10aに 配信する。
[0033] 音声処理部 102にはスピーカ 28, 28が接続されており、制御部 98からの制御に従 つてゲーム効果音、ゲーム音楽その他の音声を出力する。例えば、弾丸オブジェクト の射出時には弾丸射出音を出力する。表示制御部 100にはモニタ 24が接続されて おり、制御部 98からの制御に従って、例えば図 3に示されるようなゲーム画面を表示 出力する。
[0034] 図 5は、本ゲーム装置 10の機能ブロック図である。ゲーム装置 10は上記のように公 知の構成を有するコンピュータゲームシステムであり、所定のプログラムを実行するこ とにより種々の機能を実現している。同図に示すように、このゲーム装置 10は、機能 的には通信制御部 200、他キャラクタ弾道データ記憶部 202、他キャラクタ位置デー タ記憶部 204、自キャラクタ弾道データ記憶部 206、自キャラクタ位置データ記憶部 208、左右シフト量更新部 210、プレイヤ姿勢判定部 212、基礎位置設定部 216、自 キャラクタ弾道データ生成部 218、当たり予想部 220、弾道データ補正部 222、ゲー ム画像生成部 214を含んで構成されている。これらの機能は、ディスク 96からゲーム 装置 10に供給されるプログラムを制御部 98によって実行することにより実現されてい る。
[0035] まず、自キャラクタ弾道データ生成部 218は、ガンコントローラ 30からの入力に基づ いて弾道データを生成する。すなわち、ガンコントローラ 30から銃身方向を示すデー タが入力されると、その時点の自キャラクタの位置座標 (仮想 3次元空間における絶 対座標)を自キャラクタ位置データ記憶部 208の記憶内容に基づ 、て生成する。この 位置座標を弾丸オブジェクトの射出位置とし、それをガンコントローラ 30から入力され る銃身方向(射出方向)とともに弾道データとして自キャラクタ弾道データ記憶部 206 に格納する。図 11 (b)には、自キャラクタ弾道データ記憶部 206に格納されるデータ の構成が示されて 、る。自キャラクタ弾道データ記憶部 206に記憶された弾道データ は通信制御部 200により、サーバ機能 1 Obを実行するゲーム装置 10に送信される。 サーバ機能 10bを実行するゲーム装置 10では、受信した弾道データをネットワーク シユーティングゲームに参加する他のゲーム装置 10に配信する。そして、このデータ は各ゲーム装置 10の通信制御部 200により受信され、他キャラクタ弾道データ記憶 部 202に格納される。図 11 (a)には、他キャラクタ弾道データ記憶部 202に格納され るデータの構成が示されて 、る。
[0036] 他キャラクタ弾道データ記憶部 202に新たに他のゲーム装置 10で生成された弾道 データが格納されると、当たり予想部 220は、他キャラクタ弾道データ記憶部 202に 格納された弾道データと、自キャラクタ位置データ記憶部 208の記憶内容に基づ 、 て算出される、当該ゲーム装置 10に関連づけられたプレイヤキャラクタオブジェクト の位置座標(絶対座標)と、に基づいて、弾丸オブジェクトが該プレイヤキャラクタォ ブジエタトに当たるか否かを予測する。すなわち、弾道データにより示される弾丸ォブ ジェタトの予測軌道力 プレイヤキャラクタオブジェクトに設定されたヒットチェック (干 渉判定)用の領域 (不図示)に進入するか否かを判断する。弾丸オブジェクトの軌道 は直線状であってもよいし、放物線状であってもよい。その他、種々の軌道を採用す ることがでさる。
[0037] 弾道データ補正部 222は、弾丸オブジェクトが前記ヒットチェック用の領域に進入す る場合、すなわち弾丸オブジェクト 306がプレイヤキャラクタ PCの所定箇所に当たる と評価される場合(図 12 (a)参照)に、他キャラクタ弾道データ記憶部 202に格納され た弾道データを、当該ゲーム装置 10に関連づけられたプレイヤキャラクタオブジェク ト PCの眼の位置に設定された視点 VPの位置座標に基づ 、て補正する(図 12 (b)参 照)。具体的には、軌道データ補正部 222は、弾道データのうち射出方向 304をプレ ィャキャラクタ PCの眼の位置に設定された視点 VPの位置の側にずらして補正後の 射出方向 304aを得る。すなわち、弾丸オブジェクト 306の射出位置と視点 VPとを結 ぶベクトルと、弾丸オブジェクト 306の射出方向 304のベクトルと、のなす角力 、さく なるように、弾道データを構成する射出方向 304 (ベクトルデータ)を補正する。そし て、補正後のデータを他キャラクタ弾道データ記憶部 202に格納する。こうすれば、 弾丸オブジェクト 306はプレイヤキャラクタ PCの視野範囲 302内を移動することにな り、仮想 3次元空間の様子をスクリーン 300に投影してゲーム画面を生成した場合に 、弾丸オブジェクト 306がそこに確実に表されることになる。
[0038] また、ゲーム装置 10では、図 6に示すようにゲームの舞台となる仮想 3次元空間に 複数の基礎位置が設定されており、これらの位置座標及び IDが予め記憶されている 。そして、各ゲームキャラクタオブジェクトは、いずれかの基礎位置を基準 (配置基準 位置)として、その実際の設置位置が決定されるようになっている。基礎位置設定部 2 16は、当該ゲーム装置 10に関連づけられたプレイヤキャラクタオブジェクトの基礎位 置を配置基準位置として選択する。具体的には、ゲーム開始時には、予め定められ た基礎位置を配置基準位置として選択する。そして、プレイヤ姿勢判定部 212により プレイヤがゲームステージ 20上で左又は右に大きく体をずらしたまま所定時間以上 経過したと判断すると、そのずらした向きに対応する仮想 3次元空間の方向に設定さ れている基礎位置に配置基準位置を変更する。また、フットコントローラ 50が踏まれ ると、プレイヤキャラクタの前方にある基礎位置に配置基準位置を変更する。
[0039] さらに、基礎位置設定部 216は、当該ゲーム装置 10に関連づけられたプレイヤキ ャラクタオブジェクトが姿勢を向ける相手を、仮想 3次元空間に配置された他のプレイ ャキャラクタオブジェクトに中から選択し、そのプレイヤキャラクタに係る基礎位置を指 向位置として管理している。具体的には、他キャラクタ位置データ記憶部 204は、他 のゲーム装置 10にお 、て選択された基礎位置 (配置基準位置)を格納しており、こ の中から 1つを指向位置として選択している。基礎位置設定部 216の選択結果(当該 ゲーム装置 10に関連づけられたプレイヤキャラクタオブジェクトの配置基準位置及び 指向位置)は、いずれも自キャラクタ位置データ記憶部 208に格納されている。
[0040] 図 10は、配置基準位置の再選択の方法を説明する図である。同図に示すように仮 想 3次元空間に基礎位置 P1〜P6が配置されている場合、プレイヤキャラクタォブジ ェタトの現在位置 SP'を通り、指向位置に配置された相手プレイヤキャラクタオブジェ タト (相手オブジェクト)の位置を中心とする軌道 250を算出する。この軌道 250は、プ レイヤの頭が筐体 12に向力つて左側にずれているとき平面視で反時計回りに延びる 。また、右側にずれているとき平面視で時計回りに延びる。そして、軌道 250に最も近 V、基礎位置 (ここでは P3)を新 、配置基準位置に選出する。
[0041] プレイヤ姿勢判定部 212は、超音波発信器 17、超音波受信器 13, 15を用いて、 ゲームステージ 20上に立つプレイヤの姿勢を判定する。すなわち、図 8に示すように 、超音波発信器 17から超音波を発射し、プレイヤ Mの頭を反射して超音波受信器 1 3, 15に入射するまでの各時間を計測し、そこ力も超音波発信器 17からプレイヤ M の頭に至る距離 10とプレイヤ Mの頭力も超音波受信器 13に至る距離 11との和(10 + 1 1)、及び超音波発信器 17からプレイヤ Mの頭に至る距離 10とプレイヤ Mの頭力 超 音波受信器 15に至る距離 12との和 (10+12)を取得する。さらに、図中 Lの長さは既 知であるから、これらの情報を元に、プレイヤ Mの頭の位置を特定するデータ (X及び y)を算出する。そして、 yの値 (プレイヤの頭の左右のシフト量)の絶対値が所定値以 上の状態が所定時間以上継続する場合には、基礎位置設定部 216にプレイヤの頭 のずれ方向を通知する。これを受けて、基礎位置設定部 216は配置基準位置の再 選択を行う。
[0042] 一方、プレイヤ姿勢判定部 212は、 yの値の絶対値が所定値以上の状態が所定時 間以上継続していない場合、当該 yの値を左右シフト量更新部 210に渡す。そして、 左右シフト量更新部 210は、この yの値に基づいてプレイヤキャラクタオブジェクトの シフト量を算出し、自キャラクタ位置データ記憶部 208に記憶する。シフト量は、例え ばプレイヤ姿勢判定部 212から渡される yの値そのものであってもよいし、順次生成さ れる yの値に平滑ィ匕等の各種処理を施してシフト量を算出してもよい。
[0043] 図 9 (b)には、自キャラクタ位置データ記憶部 208に記憶されるデータの構成が示 されている。同図に示すように、位置データは、配置基準位置として基礎位置設定部 216により選択された基礎位置を識別する基礎位置 ID、左右シフト量更新部 210〖こ より設定されたシフト量、指向位置として基礎位置設定部 216により選択された基礎 位置を識別する基礎位置 ID (ロック基礎位置 ID)を含んで構成されて 、る。
[0044] 図 7は、シフト量、配置基準位置、プレイヤキャラクタの現在位置の関係を示して!/ヽ る。同図において、太線の矢印はプレイヤキャラクタオブジェクトの姿勢を示している 。同図において SPは配置基準位置を示しており、 SP'は最大距離のシフト後のプレ ィャキャラクタオブジェクトの位置を示しており、 EPは指向位置として選択された基礎 位置を示している。プレイヤキャラクタオブジェクトは配置基準位置 SPを中心として、 左右シフト量更新部 210により設定されるシフト量だけ、指向位置 EPを指向した状態 で左右に移動するようになっている。ここでは、プレイヤキャラクタのシフト方向を、配 置基準位置 SPから指向位置 EPに向かう方向に対して垂直としたが、他の方向にシ フトさせるようにしてもよい。また、シフト量は左右ともに一定距離 (ここではともに L)に 制限されている。
[0045] 自キャラクタ位置データ記憶部 208に格納されたデータは、通信制御部 200により サーバ機能 10bを実行するゲーム装置 10に送信される。このゲーム装置 10は受信 したデータをネットワークゲームに参加する他のゲーム装置 10に配信する。通信制 御部 200では、こうして配信される位置データを受信すると、他キャラクタ位置データ 記憶部 204に格納する。図 9 (a)には、他キャラクタ位置データ記憶部 204に格納さ れるデータの構成が示されて!/ヽる。
[0046] ゲーム画像生成部 214は、他キャラクタ弾道データ記憶部 202、他キャラクタ位置 データ記憶部 204、自キャラクタ弾道データ記憶部 206、自キャラクタ位置データ記 憶部 208の各記憶内容に基づき、モニタ 24に表示するゲーム画面を描画する。具体 的には、他キャラクタ弾道データ記憶部 202から弾道データを読み出し、該弾道デ ータが示す仮想 3次元空間内の軌道上に弾丸オブジェクを配置し、それを時間経過 とともに移動させる。同様に、自キャラクタ弾道データ記憶部 206から弾道データを読 み出し、該弹道データが示す仮想 3次元空間内の軌道上に弾丸オブジェクトを配置 し、それを時間経過とともに移動させる。
[0047] さらに、他キャラクタ位置データ記憶部 204から位置データを読み出し、この位置デ ータにより示される仮想 3次元空間内の位置に他のゲーム装置 10に関連づけられた プレイヤキャラクタオブジェクトを配置する。このとき、プレイヤキャラクタオブジェクトの 姿勢は、指向位置 (ロック基礎位置 ID)に基づいて、現在位置カも該指向位置を向く ように決定する。また、シフト量だけ配置基準位置力もシフトした位置にプレイヤキヤ ラクタオブジェクトを配置する。同様に、自キャラクタ位置データ記憶部 208から位置 データを読み出し、この位置データにより示される仮想 3次元空間内の位置に当該ゲ ーム装置 10に関連づけられたプレイヤキャラクタオブジェクトを配置する。このときも、 プレイヤキャラクタオブジェクトの姿勢は、指向位置(ロック基礎位置 ID)に基づいて、 現在位置力 該指向位置を向くように決定する。また、シフト量だけ配置基準位置か らシフトした位置にプレイヤキャラクタオブジェクトを配置する。
[0048] さらに、このゲーム装置 10では、弾丸オブジェクトが他のオブジェクトに接触したか 否かを判断する。そして、他のオブジェクトに接触していればその弾丸オブジェクトに 係る弾道データを他キャラクタ弾道データ記憶部 202又は自キャラクタ弾道データ 2 06から削除する。そして、接触位置にペンキ跡を示す画像を表示する。このため、仮 想 3次元空間における弾丸オブジェクトが他のオブジェクトに接触した(当たった)位 置にペンキ跡オブジェクトを配置して 、る。
[0049] ペンキ跡オブジェクトの表示方法としては、以下に示す 2通りが採用されている。す なわち、建造物オブジェクト 78等の静的オブジェクトについては、図 13に示すように 、弾丸オブジェクト 400が静的オブジェクト 402に接触する場合に、図 15に示すよう に、その接触位置 404を中心とした箇所を静的オブジェクト 402から切り取る。この際 、図 16に示すように、弾丸オブジェクト 400の軌道力も接触方向 408を算出し、それ を静的オブジェクト 402に射影してベクトル 409を得るとともに、ベクトル 409と接触方 向 408とのなす角 Θを算出しておく。 [0050] そして、接触位置 404を中心とした箇所を静的オブジェクト 402から切り取る際、そ の切り取り箇所の向きを当該ベクトル 409に従って決定する。その後、切り取ったぺ ンキ跡オブジェクト 406を構成するポリゴンを細分割し(図 17参照)、そこにペンキ跡 を示すテクスチャ画像をマッピングする。このとき、ペンキ跡を示すテクスチャ画像を 予め複数用意しておき、それぞれを上記なす角 Θの範囲と関連づけて記憶しておく (図 18参照)。そして、ペンキ跡オブジェクト 406には、上記のようにして算出したなす 角 Θに応じたテクスチャ画像を選択的に読み出し、マッピングする(図 19参照)。その 後、ペンキ跡オブジェクト 406を元の静的オブジェクト 402における弾丸オブジェクト 400の接触位置に配置する。
[0051] 一方、プレイヤキャラクタオブジェクト等の動的オブジェクトについては、図 20に示 すように、動的オブジェクト 500の周囲に該動的オブジェクトをすっぽりと包含する不 可視のポリゴンモデル(ペンキ跡オブジェクト) 502を配置しておく。このポリゴンモデ ル 502は図 21に示すように、動的オブジェクト 500そのものよりも細かいポリゴンの組 合せにより構成されており、任意の箇所に任意のテクスチャをマッピングできるように なっている。そして、弾丸オブジェクト 400が動的オブジェクト 500に接触する場合に 、その接触位置に応じたポリゴンモデル 502の位置を特定し(図 22参照)、そこに図 1 8のようにして予め準備されたペンキ跡テクスチャ画像をマッピングする(図 23参照) 。このときも、弾丸オブジェクト 400の動的オブジェクト 500に対する接触方向と、その 接触面の方向と、のなす角に応じたテクスチャ画像を選択的に読み出し、接触箇所 にマッピングする。
[0052] その後、ゲーム画像生成部 214では、当該ゲーム装置 10に関連づけられたプレイ ャキャラクタオブジェクトの眼の位置に配置された視点から、仮想 3次元空間を見た 様子を画像ィ匕し、それをモニタ 24により表示する。
[0053] 以上説明したネットワークゲームシステムによれば、弾丸オブジェクトがプレイヤキヤ ラクタオブジェクトに接触することが予測される場合に、弾丸オブジェクトの軌道を補 正して、弾丸オブジェクトがプレイヤキャラクタ上に設定された視点に向力つて移動す るようにしたので、該視点力も仮想 3次元空間を見た様子をモニタ 24に表示すること で、弾丸オブジェクトが迫りくる様子を示すことができる。 [0054] また、各プレイヤキャラクタオブジェクトの位置を、予め定めた複数の基礎位置のい ずれかに拘束しておき、それらの姿勢を、他のプレイヤキャラクタオブジェクトが拘束 された基礎位置に基づいて算出するので、通信ネットワーク 62のトラフィックの増大を 抑えつつ、複数のゲーム装置 10の間でそれらゲーム装置 10に関連づけられたォブ ジェタトの位置及び姿勢を共有することができる。
[0055] さらに、弾丸オブジェクトが他のオブジェクトに接触した場合に、接触方向と接触面 の方向とに応じた内容のテクスチャ画像がマッピングされたペンキ跡オブジェクトを表 示するようにしたので、弾丸オブジェクトがどこ力も発射されたものであるかを、プレイ ャはゲーム画面から直ちに理解することができるようになる。

Claims

請求の範囲
[1] 通信ネットワークに接続された複数のゲーム装置を含み、複数のプレイヤオブジェ タトが配置された仮想空間を共有して、各プレイヤオブジェクトの位置力 発射される 移動オブジェクトを他のプレイヤオブジェクトに当てることを競うネットワークゲームシ ステムであって、
前記各ゲーム装置は、
前記移動オブジェクトが前記仮想空間に配置された他のオブジェクトと接触するか 否かを判定する接触判定手段と、
前記接触判定手段により前記移動オブジェクトが前記他のオブジェクトと接触する と判定される場合に、前記移動オブジェクトの前記他のオブジェクトに対する接触方 向を取得する接触方向取得手段と、
前記他のオブジェクトの接触面の方向と前記接触方向とに応じた画像を、前記他の オブジェクトにおける前記移動オブジェクトの接触位置に応じた位置に表示する接触 画像表示手段と、
を含むことを特徴とするネットワークゲームシステム。
[2] 請求の範囲第 1項に記載のネットワークゲームシステムにおいて、
前記各プレイヤオブジェクトは、該プレイヤオブジェクトを覆う不可視の被覆ポリゴン モデルを備えており、
前記接触画像表示手段は、前記移動オブジェクトが接触する前記他のオブジェクト が前記プレイヤオブジェクトである場合、前記接触位置に応じた前記被覆ポリゴンモ デル上の位置に、前記他のオブジェクトの接触面の方向と前記接触方向とに応じた 画像をテクスチャ画像としてマッピングする、
ことを特徴とするネットワークゲームシステム。
[3] 請求の範囲第 1項又は第 2項に記載のネットワークゲームシステムにおいて、
前記各ゲーム装置は、
複数の画像を記憶する画像記憶手段をさらに含み、
前記画像表示手段は、前記画像記憶手段に記憶される前記複数の画像の中から 、前記他のオブジェクトの接触面の方向と前記接触方向とのなす角に応じた画像を 選択的に読み出して表示する、
ことを特徴とするネットワークゲームシステム。
[4] 他のゲーム装置と共に通信ネットワークに接続され、複数のプレイヤオブジェクトが 配置された仮想空間を前記他のゲーム装置と共有し、各プレイヤオブジェクトの位置 力 発射される移動オブジェクトを他のプレイヤオブジェクトに当てることを競うゲーム 装置であって、
前記移動オブジェクトが前記仮想空間に配置された他のオブジェクトと接触するか 否かを判定する接触判定手段と、
前記接触判定手段により前記移動オブジェクトが前記他のオブジェクトと接触する と判定される場合に、前記移動オブジェクトの前記他のオブジェクトに対する接触方 向を取得する接触方向取得手段と、
前記他のオブジェクトの接触面の方向と前記接触方向とに応じた画像を、前記他の オブジェクトにおける前記移動オブジェクトの接触位置に応じた位置に表示する接触 画像表示手段と、
を含むことを特徴とするゲーム装置。
[5] 他のゲーム装置と共に通信ネットワークに接続され、複数のプレイヤオブジェクトが 配置された仮想空間を前記他のゲーム装置と共有し、各プレイヤオブジェクトの位置 力 発射される移動オブジェクトを他のプレイヤオブジェクトに当てることを競うゲーム 制御方法であって、
前記移動オブジェクトが前記仮想空間に配置された他のオブジェクトと接触するか 否かを判定する接触判定ステップと、
前記接触判定ステップで前記移動オブジェクトが前記他のオブジェクトと接触すると 判定される場合に、前記移動オブジェクトの前記他のオブジェクトに対する接触方向 を取得する接触方向取得ステップと、
前記他のオブジェクトの接触面の方向と前記接触方向とに応じた画像を、前記他の オブジェクトにおける前記移動オブジェクトの接触位置に応じた位置に表示する接触 画像表示ステップと、
を含むことを特徴とするゲーム制御方法。 他のゲーム装置と共に通信ネットワークに接続され、複数のプレイヤオブジェクトが 配置された仮想空間を前記他のゲーム装置と共有し、各プレイヤオブジェクトの位置 力 発射される移動オブジェクトを他のプレイヤオブジェクトに当てることを競うゲーム 装置としてコンピュータを機能させるためのプログラムであって、
前記移動オブジェクトが前記仮想空間に配置された他のオブジェクトと接触するか 否かを判定する接触判定手段、
前記接触判定手段により前記移動オブジェクトが前記他のオブジェクトと接触する と判定される場合に、前記移動オブジェクトの前記他のオブジェクトに対する接触方 向を取得する接触方向取得手段、及び
前記他のオブジェクトの接触面の方向と前記接触方向とに応じた画像を、前記他の オブジェクトにおける前記移動オブジェクトの接触位置に応じた位置に表示する接触 画像表示手段
としてコンピュータを機能させるためのプログラムを記憶した情報記憶媒体。
PCT/JP2006/312994 2005-06-29 2006-06-29 ネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及び情報記憶媒体 WO2007001051A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CA002613667A CA2613667A1 (en) 2005-06-29 2006-06-29 Network game system, game machine, game machine control method, and information storage medium
EP06767611A EP1900403A4 (en) 2005-06-29 2006-06-29 NETWORK GAMING SYSTEM, GAME CONSOLE AND ITS CONTROL METHOD AND DATA STORAGE MEDIUM
KR1020077029449A KR100929995B1 (ko) 2005-06-29 2006-06-29 네트워크 게임 시스템, 게임 장치, 게임 장치의 제어 방법및 정보 기억 매체
US11/994,401 US20090104995A1 (en) 2005-06-29 2006-06-29 Network game system, game machine, game machine control method, and information storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-190329 2005-06-29
JP2005190329A JP4563266B2 (ja) 2005-06-29 2005-06-29 ネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2007001051A1 true WO2007001051A1 (ja) 2007-01-04

Family

ID=37595296

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/312994 WO2007001051A1 (ja) 2005-06-29 2006-06-29 ネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及び情報記憶媒体

Country Status (6)

Country Link
US (1) US20090104995A1 (ja)
EP (1) EP1900403A4 (ja)
JP (1) JP4563266B2 (ja)
KR (1) KR100929995B1 (ja)
CA (1) CA2613667A1 (ja)
WO (1) WO2007001051A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013085345A (ja) * 2011-10-07 2013-05-09 Nissan Motor Co Ltd コネクタホルダ及び充電スタンド

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4852555B2 (ja) 2008-01-11 2012-01-11 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理方法、ならびに、プログラム
US8393968B2 (en) * 2008-09-03 2013-03-12 Igt Gaming system, gaming device and method for providing a strategy game having a plurality of awards
JP5443832B2 (ja) * 2009-05-29 2014-03-19 任天堂株式会社 ゲームプログラム及びゲーム装置
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
JP2015166890A (ja) 2014-03-03 2015-09-24 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2015192753A (ja) * 2014-03-31 2015-11-05 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP6572137B2 (ja) * 2016-01-20 2019-09-04 株式会社東芝 3次元データ処理装置及び方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11154242A (ja) * 1997-11-21 1999-06-08 Sega Enterp Ltd 画像処理装置
JPH11226252A (ja) * 1997-12-12 1999-08-24 Namco Ltd 画像生成装置及び情報記憶媒体
JP2001218982A (ja) * 2000-02-08 2001-08-14 Taito Corp ゲーム装置
JP2005122479A (ja) * 2003-10-16 2005-05-12 Namco Ltd プログラム、情報記憶媒体及び画像生成装置
JP2005128687A (ja) * 2003-10-22 2005-05-19 Namco Ltd プログラム、情報記憶媒体、及び画像生成システム
JP2005196593A (ja) * 2004-01-08 2005-07-21 Konami Computer Entertainment Yokyo Inc 画像処理装置、プログラム及び画像処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW284870B (ja) * 1994-01-26 1996-09-01 Hitachi Ltd
DE69530824D1 (de) * 1994-06-20 2003-06-26 Sega Corp Verfahren und gerät zur bildverarbeitung
JPH08329276A (ja) * 1995-06-01 1996-12-13 Ricoh Co Ltd 3次元グラフィックス処理装置
JPH09161095A (ja) * 1995-12-07 1997-06-20 Sega Enterp Ltd 画像処理装置
TW346611B (en) * 1996-03-28 1998-12-01 Sega Enterprises Kk An image processor, a game machine using the image processor, a method of image processing and a medium
JP3269797B2 (ja) * 1997-12-12 2002-04-02 株式会社ナムコ 画像生成装置及び情報記憶媒体
JP4186136B2 (ja) * 1998-10-08 2008-11-26 株式会社セガ 画像処理装置および画像処理方法
JP3662435B2 (ja) * 1998-12-17 2005-06-22 コナミ株式会社 射的ビデオゲーム装置
US20010003708A1 (en) * 1999-12-10 2001-06-14 Takuya Aizu Entertainment system, entertainment apparatus, recording medium, and program
JP3417917B2 (ja) * 2000-10-31 2003-06-16 コナミ株式会社 3次元画像処理方法、その装置、3次元画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体及びビデオゲーム装置
KR100859927B1 (ko) * 2000-12-14 2008-09-23 가부시키가이샤 세가 게임 장치, 통신 게임 시스템, 및 기록 매체
JP3442754B2 (ja) * 2001-08-10 2003-09-02 株式会社コナミコンピュータエンタテインメント東京 ガンシューティングゲーム装置、コンピュータの制御方法及びプログラム
JP3843242B2 (ja) * 2002-02-28 2006-11-08 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、およびゲーム装置
JP3686920B2 (ja) * 2002-05-21 2005-08-24 コナミ株式会社 3次元画像処理プログラム、3次元画像処理方法及びビデオゲーム装置
JP3901644B2 (ja) * 2003-01-30 2007-04-04 株式会社東芝 テクスチャ画像圧縮装置及び方法、テクスチャ画像抽出装置及び方法、データ構造、記憶媒体
JP3735358B2 (ja) * 2003-09-12 2006-01-18 コナミ株式会社 ビデオゲームプログラム、ビデオゲーム装置及びビデオゲーム方法
JP4179162B2 (ja) * 2003-12-26 2008-11-12 株式会社セガ 情報処理装置、ゲーム装置、画像生成方法、ゲーム画像生成方法
JP4673570B2 (ja) * 2004-03-31 2011-04-20 株式会社セガ 画像生成装置、画像表示方法及びプログラム
JP3877077B2 (ja) * 2004-08-31 2007-02-07 任天堂株式会社 ゲーム装置および画像処理プログラム
US7775882B2 (en) * 2006-06-12 2010-08-17 Kabushiki Kaisha Sega Game apparatus for changing a visual point position of a virtual camera in conjunction with an attack by and enemy character
JP5101080B2 (ja) * 2006-10-19 2012-12-19 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11154242A (ja) * 1997-11-21 1999-06-08 Sega Enterp Ltd 画像処理装置
JPH11226252A (ja) * 1997-12-12 1999-08-24 Namco Ltd 画像生成装置及び情報記憶媒体
JP2001218982A (ja) * 2000-02-08 2001-08-14 Taito Corp ゲーム装置
JP2005122479A (ja) * 2003-10-16 2005-05-12 Namco Ltd プログラム、情報記憶媒体及び画像生成装置
JP2005128687A (ja) * 2003-10-22 2005-05-19 Namco Ltd プログラム、情報記憶媒体、及び画像生成システム
JP2005196593A (ja) * 2004-01-08 2005-07-21 Konami Computer Entertainment Yokyo Inc 画像処理装置、プログラム及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1900403A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013085345A (ja) * 2011-10-07 2013-05-09 Nissan Motor Co Ltd コネクタホルダ及び充電スタンド

Also Published As

Publication number Publication date
KR100929995B1 (ko) 2009-12-07
JP2007007064A (ja) 2007-01-18
EP1900403A1 (en) 2008-03-19
KR20080016654A (ko) 2008-02-21
EP1900403A4 (en) 2009-10-14
JP4563266B2 (ja) 2010-10-13
US20090104995A1 (en) 2009-04-23
CA2613667A1 (en) 2007-01-04

Similar Documents

Publication Publication Date Title
JP4861699B2 (ja) ネットワークゲームシステム、ネットワークゲームシステムの制御方法、ゲーム装置、ゲーム装置の制御方法及びプログラム
JP3561463B2 (ja) 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置
KR100509538B1 (ko) 대전식 3d 비디오 게임 장치 및 그 컨트롤러
US7059962B2 (en) Gun shooting game device, method of controlling computer and program
US8100770B2 (en) Game controller, storage medium storing game program, and game apparatus
JP4179162B2 (ja) 情報処理装置、ゲーム装置、画像生成方法、ゲーム画像生成方法
JP4563266B2 (ja) ネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及びプログラム
US6918829B2 (en) Fighting video game machine
US10653959B2 (en) Image processing apparatus and image processing method for displaying video image capable of achieving improved operability and realism, and non-transitory storage medium encoded with computer readable program for controlling image processing apparatus
JP2012239778A (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US7119817B1 (en) Image generating system and program
JP4563267B2 (ja) ネットワークゲームシステム、ネットワークゲーム制御方法、ゲーム装置、ゲーム制御方法及びプログラム
JP3818774B2 (ja) ゲーム装置
JP4861706B2 (ja) ネットワークゲームシステム、ネットワークゲームシステムの制御方法、ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4445707B2 (ja) 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置
JP4144773B2 (ja) 画像生成システム及び情報記憶媒体
JP5912289B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
KR200323983Y1 (ko) 슈팅게임 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020077029449

Country of ref document: KR

ENP Entry into the national phase

Ref document number: 2613667

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 11994401

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006767611

Country of ref document: EP