WO2012132563A1 - ゲームシステム - Google Patents

ゲームシステム Download PDF

Info

Publication number
WO2012132563A1
WO2012132563A1 PCT/JP2012/052918 JP2012052918W WO2012132563A1 WO 2012132563 A1 WO2012132563 A1 WO 2012132563A1 JP 2012052918 W JP2012052918 W JP 2012052918W WO 2012132563 A1 WO2012132563 A1 WO 2012132563A1
Authority
WO
WIPO (PCT)
Prior art keywords
air
game
sound
unit
player
Prior art date
Application number
PCT/JP2012/052918
Other languages
English (en)
French (fr)
Inventor
典洋 西村
広忠 吉田
利也 小原
慶一 尾作
克典 木水
Original Assignee
株式会社バンダイナムコゲームス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社バンダイナムコゲームス filed Critical 株式会社バンダイナムコゲームス
Priority to CN201280014105.1A priority Critical patent/CN103442775B/zh
Publication of WO2012132563A1 publication Critical patent/WO2012132563A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/302Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device specially adapted for receiving control signals not targeted to a display device or game input means, e.g. vibrating driver's seat, scent dispenser
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Definitions

  • the present invention relates to a game system.
  • an image generation system that realizes stereoscopic viewing is known (for example, Japanese Patent Application Laid-Open No. 2004-126902).
  • a binocular stereoscopic image generation system a left-eye image and a right-eye image are generated.
  • a stereoscopic eyeglass or an optical element such as a parallax barrier or lenticular
  • the player's left eye can see only the left eye image
  • the right eye can see only the right eye image.
  • a game apparatus provided with an air cannon that emits air from a launch port is known (for example, JP 2010-233783 A).
  • the stereoscopic image generation system it is possible to reproduce a depth space that appears to be retracted to the back side of the screen and a pop-up space that appears to protrude to the near side of the screen, which allows the player to reproduce the three-dimensional image.
  • the production is made to make you feel visually.
  • it is desired to reinforce the visual presentation effect by the stereoscopic vision and perform a more effective game presentation.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a game system that can reinforce a visual effect by stereoscopic viewing using an air emission device. There is to do.
  • a game system includes: An air launcher that launches air from a launch port; A processing unit for performing game processing; An air launcher controller that controls the air launcher based on the processing result of the processor; An image generation unit that generates a stereoscopic image based on a processing result of the processing unit;
  • the present invention also relates to a game system including a display unit that displays the stereoscopic image.
  • the air emission device by controlling the air emission device based on the processing result of the game process, it is possible to reinforce the visual effect by stereoscopic vision and perform a more effective game effect.
  • a game system includes: The processor is Perform processing to move the object in the object space, The image generation unit A stereoscopic image of the object may be generated.
  • the air emission device is controlled based on the processing result of the processing unit that performs the process of moving the object in the object space, thereby reinforcing the visual presentation effect by the stereoscopic view and more effective. Game production can be performed.
  • the air launcher controller is When there is an object located in the first area on the near side as viewed from the viewpoint of the projection plane in the object space, control may be performed to emit air from the emission port of the air emission device.
  • the projection plane in the object space refers to a plane where the parallax of the image of the object located on the projection plane is eliminated.
  • the present invention when there is an object in the projecting space that appears to project to the near side of the screen, it is possible to fire air from the air launching device, reinforcing the effect of the stereoscopic projecting effect. More effective game production can be performed.
  • the air launcher controller is When there is the object that moves from the second area on the back side as viewed from the perspective of the projection plane to the first area, control is performed to emit air from the outlet of the air emission device. Also good.
  • the air emission device control unit performs control to emit air from the emission port of the air emission device when the object moving from the second area to the first area passes through the projection plane. May be.
  • the present invention when there is an object moving toward the pop-out space, air can be discharged from the air launch device, and the effect of the stereoscopic pop-out effect is reinforced and a more effective game effect is performed. be able to.
  • the air launcher controller is The firing timing of air from the launching port may be changed according to the amount of movement of the object from the projection plane.
  • the present invention it is possible to change the firing timing according to the amount of jumping out of the object, and it is possible to reinforce the staging effect by the stereoscopic jumping out effect and perform a more effective game effect.
  • the air launcher controller is The timing at which the air is emitted from the outlet may be changed according to the timing at which the object reaches a position away from the projection plane by a predetermined distance.
  • the firing timing can be changed according to the timing at which the object reaches a predetermined position in the pop-out space, and the effect of the stereoscopic pop-out effect is reinforced and a more effective game effect is performed. Can do.
  • the air launcher is The caliber of the launch port is configured to be changeable,
  • the air launcher controller is Control may be performed to change the aperture of the launch port in accordance with the amount of movement of the object from the projection plane.
  • the present invention it is possible to change the moving speed of the air emitted from the air launching device according to the amount of jumping out of the object, and to reinforce the staging effect by the stereoscopic jumping out effect, and to produce a more effective game effect. It can be carried out.
  • the air launcher is The caliber of the launch port is configured to be changeable,
  • the air launcher controller is You may perform control which changes the aperture diameter of the said ejection opening according to the speed of the said object.
  • the air launcher controller is When the object enters a predetermined area in the object space, control may be performed to emit air from the outlet of the air emission device.
  • the present invention when an object enters a predetermined area in the object space, air can be emitted from the air emission device, and the visual effect of stereoscopic viewing is reinforced and a more effective game effect is achieved. It can be carried out.
  • the player is configured to play a game at a predetermined position
  • the air launcher is It may be arranged so that air blown from the launch port hits a player who plays a game at the predetermined position.
  • the game system according to the present invention further includes a player's seat arranged in front of the display unit, and the air emission device is configured such that the air emitted from the emission port strikes a player seated on the seat. It may be arranged.
  • the air emitted from the air emission device can be reliably applied to the player.
  • the air launcher is It may be arranged in the vicinity of the display unit, and the launch port may be opened toward the position of the player.
  • air emitted from the air emission device can be applied to the player from the display unit side, and a more effective game effect can be performed.
  • a seat for a player configured to vibrate may further include a vibration control unit that performs control to vibrate the seat in accordance with a timing at which the air discharged from the discharge port hits a player seated on the seat.
  • the air emission from the air emission device and the vibration of the seat can be interlocked, and the visual effect of stereoscopic viewing can be reinforced and a more effective game effect can be performed.
  • the air launcher is You may be comprised so that the emission angle of the air from the said ejection opening can be changed.
  • the present invention it is possible to change the position at which the air emitted from the air emission device is applied to the player, and a more effective game effect can be performed.
  • a sound output unit for outputting game sounds may further include a sound generation unit that generates a game sound at a timing when air is discharged from a discharge port of the air emission device and outputs the game sound to the sound output unit.
  • the present invention it is possible to make it difficult for the player to hear the sound generated when air is emitted from the air emission device.
  • a sound output unit for outputting game sounds may further include a sound generation unit that generates a game sound whose sound image localization changes according to the air emission from the air outlet of the air emission device and outputs the game sound to the sound output unit.
  • air emitted from the air emission device and sound image localization can be linked to each other, and a more effective game effect can be performed by reinforcing the visual effect of stereoscopic vision.
  • the sound output unit is You may arrange
  • a light source control unit for controlling the light source, The light source controller is Control may be performed to change the light emitted from the light source when air is emitted from the outlet of the air emission device.
  • the present invention it is possible to link the air emission from the air emission device and the change in the light from the light source, and to reinforce the visual effect by stereoscopic viewing and perform a more effective game effect. Can do.
  • a game system includes: An air launcher that launches air from a launch port; A controller that the player holds and operates; The target object is moved in the object space, the position on the display screen indicated by the controller is calculated based on the input information from the controller, and whether the calculated position matches the display position of the target object or not And a processing unit for performing a game process for displaying an effect image based on the determination result; Based on the position of the target object in the object space, an air emission device control unit that performs control to emit air from the emission port of the air emission device; An image generator for generating a stereoscopic image of the target object; A display unit for displaying the stereoscopic image; A seat for a player configured to vibrate; A vibration control unit that performs control to vibrate the seat; A sound output unit for outputting game sound, A sound generation unit that generates a game sound and outputs the game sound to the sound output unit,
  • the air launcher is Arranged so that the air launched from the launch port hits the player seated on the seat
  • control is performed to emit air from the air emission device based on the position of the target object in the object space, and the emitted air is applied to the player.
  • the air emitted from the air emission device and the vibration of the seat can be linked, and a more effective game effect can be performed.
  • FIG. 1 is a perspective view showing an example of the appearance of the game system of the present embodiment.
  • FIG. 2 is a diagram illustrating an example of the configuration of the air emission device.
  • FIG. 3 is a diagram showing an example of the configuration of the game system of the present embodiment.
  • FIG. 4 is a diagram illustrating an example of a functional block diagram of the game system according to the present embodiment.
  • FIG. 5 is a diagram for explaining a method of generating a stereoscopic image.
  • FIG. 6A is a diagram for describing a method of generating a stereoscopic image.
  • FIG. 6B is a diagram for describing a method of generating a stereoscopic image.
  • FIG. 7 is a diagram for explaining the control of the air emitting device.
  • FIG. 1 is a perspective view showing an example of the appearance of the game system of the present embodiment.
  • FIG. 2 is a diagram illustrating an example of the configuration of the air emission device.
  • FIG. 3 is a diagram showing
  • FIG. 8A is a diagram for describing control of the air emitting device.
  • FIG. 8B is a diagram for describing control of the air emitting device.
  • FIG. 9 is a diagram illustrating an example of the configuration of the air emission device.
  • FIG. 10A is a diagram for explaining control of the game sound.
  • FIG. 10B is a diagram for explaining control of the game sound.
  • FIG. 11A is a diagram for explaining control of the game sound.
  • FIG. 11B is a diagram for explaining control of the game sound.
  • FIG. 12 is a flowchart showing the processing flow of the present embodiment.
  • FIG. 1 is a perspective view showing an example of an appearance of a game system 10 (game device) according to the present embodiment.
  • the game system 10 includes a display 12 (display unit) that displays a stereoscopic image, a pedestal 14 provided on the front side of the display screen 13 of the display 12, and an upper surface of the pedestal 14.
  • the first controller 16 and the second controller 18 imitating the shape of a gun, and an air emission device 50 provided above the display 12.
  • one player may play the game, or two or more players (an example of an operator) may play the game at the same time.
  • the first controller 16 is provided so as to be rotatable about a first shaft 20 provided vertically and rotatable about a second shaft 22 provided horizontally while being fixed in position with respect to the base 14. ing.
  • the rear end of the first controller 16 is provided with a left grip 24 held by the player with the left hand and a right grip 26 held by the right hand. The player holds the left grip 24 and the right grip 26.
  • the direction of the tip corresponding to the muzzle of the first controller 16 can be arbitrarily changed by performing an operation of rotating the first controller 16 about the first axis 20 and the second axis 22.
  • the movable range of the first controller 16 is a range in which the tip of the first controller 16 can indicate a predetermined area of the display screen 13.
  • the movable range of the first controller 16 may be a range in which the tip of the first controller 16 can indicate the entire area of the display screen 13 or a range in which a partial area of the display screen 13 can be specified.
  • the first controller 16 includes a first variable resistor 28 that detects the amount of rotation of the first controller 16 around the first axis 20 and a second variable that detects the amount of rotation of the first controller 16 around the second axis 22.
  • a resistor 30 is provided.
  • the game system 10 is a position on the display screen 13 indicated by the tip of the first controller 16 based on the detection result of the first variable resistor 28 and the detection result of the second variable resistor 30 of the first controller 16.
  • the first designated position 31 is obtained as a coordinate value of a two-dimensional coordinate.
  • the game system 10 then displays the first mark 32 indicating the position indicated by the first controller 16 at the position in the virtual three-dimensional space (object space) corresponding to the first indication position 31 in the image displayed on the display screen 13. The image where is placed is displayed.
  • the game system 10 displays the target object 42 (an example of the object) indicating the target while moving the image displayed on the display screen 13, and the center of the first mark 32 overlaps the target object 42.
  • the left button 36 or the right button 38 of the first controller 16 is pressed, it is determined that the first bullet object 40 has hit the target object 42.
  • the second controller 18 has a left grip 24, a right grip 26, a first variable resistor 28, a second variable resistor 30, a left button 36, and a right button 38.
  • the second controller 18 is provided so as to be rotatable about the first axis 20 and the second axis 22 while being fixed with respect to the pedestal 14 so as not to contact the first controller 16.
  • the movable range of the second controller 18 is also a range in which the tip of the second controller 18 can indicate a predetermined area of the display screen 13.
  • the game system 10 is a position on the display screen 13 indicated by the tip of the second controller 18 based on the detection result of the first variable resistor 28 and the detection result of the second variable resistor 30 of the second controller 18.
  • the second indication position 43 is obtained as a coordinate value of a two-dimensional coordinate.
  • the second mark 44 indicating the position designated by the second controller 18 is arranged at a position in the virtual three-dimensional space corresponding to the second designated position 43. Display the image.
  • the second bullet indicating the bullet of the second gun object 46 is directed from the tip of the second gun object 46 toward the center of the second mark 44.
  • the object 48 is moved.
  • the air launcher 50 is a device that launches air from the launch port 52.
  • One air launching device 50 is disposed on the right side and the left side (near the display unit) in the figure above the display 12, and a launching port 52 is opened toward the position of the player.
  • the launch port 52 of the air launcher 50 provided on the left side above the display 12 is opened toward the player who operates the first controller 16, and the air launcher 50 provided on the right side above the display 12.
  • the launch port 52 is opened toward the player who operates the second controller 16.
  • the air emitting device 50 that emits air may be determined according to the position at which the player plays the game.
  • air is emitted from the air emitting device 50 provided on the left side above the display 12, and the player operates the second controller 18.
  • control is performed to emit air from the air emission device 50 provided on the right side above the display 12.
  • FIG. 2 is a front view and a side sectional view of the air launching device 50.
  • the air launcher 50 includes a case 53 in which a launch port 52 is formed and a speaker 54.
  • the case 53 is a container that accumulates a certain amount of air, and a launch port 52 that is a circular opening is formed on a cylindrical upper surface.
  • the speaker 54 is provided on the surface of the case 53 facing the launch port 52, and vibrates the diaphragm 55 to generate low frequency sound.
  • the speaker 54 When the speaker 54 generates low-frequency sound, the air in the case 53 is pushed out from the launch port 52 by the diaphragm 55, and the pushed-out air forms a donut-shaped vortex ring (vortex-like air) and flies.
  • the air launching device 50 of the present embodiment functions as an air cannon that launches a vortex ring from the launch port 52.
  • means for vibrating the surface of the case 53 facing the launch port 52 or the side surface of the case 53 may be provided.
  • a vortex ring may be fired from the launch port 52 by vibrating one surface of the case 53 using a motor or solenoid.
  • the game system 10 includes a player 60 seat 60 provided on the front side of the base 14 (in front of the display 12).
  • the seat 60 may be configured to vibrate by including a vibration unit that vibrates based on a control signal from the outside.
  • the player P can operate the first controller 16 (or the second controller 18) provided on the pedestal 14 while looking at the display screen 13 of the front display 12 while sitting on the seat 60.
  • the air launcher 50 is arranged so that the vortex ring VR launched from the launch port 52 hits a part of the body of the player P seated on the seat 60. It should be noted that the air launch device 50 is disposed so that the fired vortex ring VR hits a portion where the skin of the player P is exposed (a portion where it is easy to perceive that the vortex ring VR has been hit, such as the face or hand of the player P). Is desirable.
  • the present invention is not limited to the case where the player is seated on the seat, and when the player is configured to be able to play a game at a predetermined position, such as when the player operates a fixed controller or a foot pedal, the launch port 52
  • the air emitting device 50 may be arranged so that the fired vortex ring VR hits the player who plays the game at the predetermined position.
  • FIG. 4 shows an example of a functional block diagram of the game system 10 of the present embodiment. Note that the game system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 4 are omitted.
  • the input unit 160 is a device for inputting input information from the player, and outputs the input information of the player to the processing unit 100.
  • the function of the input unit 160 can be realized by the first and second controllers 16 and 18 in FIG.
  • the input unit 160 includes a detection unit 162 that detects input information of the player.
  • the function of the detection unit 162 includes a switch for detecting that the left button 36 and the right button 38 in FIG. 1 are pressed, and the rotation angles of the first and second controllers 16 and 18 (the rotation angle around the first axis 20). This can be realized by the first and second variable resistors 28 and 30 in FIG. 1 that detect the rotation angle around the second axis 22.
  • the input unit 160 includes a direction key (cross key), a control stick (analog key) capable of inputting a direction, a lever, a keyboard, a mouse, a touch panel display, an imaging unit, an acceleration sensor, an angular velocity sensor (gyro sensor), and the like.
  • An input device may be used.
  • the signal generator 56 generates a sound signal based on the control signal output from the air emission device control unit 114 and outputs the sound signal to the amplifier 58.
  • the signal generator 56 may generate a rectangular wave signal, a sine wave signal, a triangular wave, or a sawtooth wave signal having a low frequency (for example, 20 Hz) for one wavelength.
  • a signal for one wavelength having a waveform in which the duty ratio of a rectangular wave, a sine wave, a triangular wave, or a sawtooth wave is 50% or more may be generated.
  • the amplifier 58 amplifies the audio signal generated by the signal generator 56 and outputs the amplified audio signal to the speaker 54 of the air emission device 50.
  • the storage unit 170 is a work area such as the processing unit 100 or the communication unit 196, and its function can be realized by a RAM (VRAM) or the like.
  • the storage unit 170 includes a main storage unit 172 used as a work area, a drawing buffer 174 that stores final display images and the like, an object data storage unit 176 that stores object model data, and each object data A texture storage unit 178 for storing textures for use, and a Z buffer 179 for storing Z values during object image generation processing. Note that some of these may be omitted.
  • the information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).
  • the processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180.
  • the information storage medium 180 can store a program for causing a computer to function as each unit of the processing unit 100 according to the present embodiment (a program for causing a computer to execute the processing of each unit).
  • the display unit 190 (display 12) outputs an image (an image obtained by viewing the object space from a given viewpoint) generated according to the present embodiment, and its function is a CRT, LCD, touch panel type display, or the like. Can be realized.
  • the display unit 190 of the present embodiment displays a stereoscopic image.
  • the display unit 190 includes optical elements such as a parallax barrier and a lenticular on the front or back of an LCD composed of a finite number of pixels.
  • optical elements such as a parallax barrier and a lenticular on the front or back of an LCD composed of a finite number of pixels.
  • a display area for displaying one (one frame) image for the left eye and one image for the right eye are displayed on the display unit 190.
  • Display areas for the left eye are alternately arranged in a strip shape as a left eye strip image display area and a right eye strip image display area.
  • the left eye strip image displayed in the left eye strip image display area for the player's left eye and the right eye strip image display area for the right eye are displayed from the gap. Only the strip image for the right eye to be displayed is visible.
  • the left eye strip image displayed in the left eye strip image display area is displayed on the left eye of the player and the right eye is displayed on the right eye due to the photorefractive effect of the lens corresponding to each strip aggregate image. Only the right eye strip image displayed in the right eye strip image display area is visible.
  • polarizing filters having different polarization directions are alternately arranged on the odd and even lines of the display unit 190.
  • the left-eye image and the right-eye image are alternately displayed on the odd-numbered line and the even-numbered line of the display unit 190, and this is displayed on the polarizing glasses (for example, the polarizing filter that transmits the left circularly polarized light to the left eye, Stereoscopic viewing is realized by viewing with glasses with a polarizing filter that transmits polarized light.
  • the left-eye image and the right-eye image are alternately displayed on the display unit 190 every predetermined time (for example, every 1/120 seconds).
  • the left and right liquid crystal shutters of the glasses with the liquid crystal shutter are alternately opened and closed to realize stereoscopic viewing.
  • the stereoscopic image display method is not limited to the binocular method, and may be a multi-view method or an aerial image method (integral method).
  • the sound output unit 192 outputs the sound generated according to the present embodiment, and the function can be realized by a speaker or headphones.
  • the communication unit 196 performs various controls for communicating with other game systems and servers, and the functions thereof can be realized by hardware such as various processors or communication ASICs, programs, and the like.
  • a program and data for causing the computer to function as each unit of the processing unit 100 stored in the information storage medium and storage unit of the server are received via the network, and the received program and data are received in the information storage medium 180. Or may be stored in the storage unit 170.
  • the case where the game system is functioned by receiving the program or data as described above is also included in the scope of the present invention.
  • the processing unit 100 performs game processing, image generation processing, sound generation processing, air emission device control processing, and the like based on input information from the input unit 160, a program, data received via the communication unit 196, and the like.
  • Process a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a game is ended when a game end condition is satisfied.
  • the processing unit 100 displays the display screen instructed by the first controller 16 or the second controller 18 when the left button 36 or the right button 38 is pressed based on data from the detection unit 162.
  • the processing unit 100 performs various processes using the main storage unit 172 as a work area.
  • the functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.
  • the processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, an air emission device control unit 114, a virtual camera control unit 118, an image generation unit 120, and a sound generation unit 130.
  • the object space setting unit 110 includes various objects (polygons, free-form surfaces or sub-surfaces) representing display objects such as characters (player characters, non-player characters), targets, buildings, stadiums, cars, trees, pillars, walls, and maps (terrain).
  • (Placement object such as division surface) is set in the object space.
  • the position and rotation angle (synonymous with the direction and direction of the object in the world coordinate system, for example, rotation when rotating clockwise when viewed from the positive direction of each axis of the X, Y, and Z axes in the world coordinate system. The angle is determined, and the object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axis).
  • the movement / motion processing section 112 performs movement / motion calculation (movement / motion simulation) of an object (character, target, etc.). That is, based on input data input by the player through the input unit 160, a program (movement / motion algorithm), various data (motion data), a physical law, or the like, an object can be moved in the object space (game space), Performs processing to move the object (motion, animation). Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part constituting the object) are stored in one frame (1/60 seconds or 1/30). The simulation process is sequentially performed every second). A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.
  • the air emission device control unit 114 performs processing for controlling the air emission device 50 based on the processing result of the processing unit 100. That is, the air emission device control unit 114 generates air (vortex ring) from the emission port 52 of the air emission device 50 by generating a control signal based on the processing result of the processing unit 100 and outputting the control signal to the signal generator 56. Take control.
  • the air launcher control unit 114 may perform control to generate air from the launch port 52 of the air launcher 50 based on the input information from the input unit 160 and the game progress status. For example, even when the player performs an operation of attacking a predetermined object, or when the player character opens a door in the game space, control is performed to generate air from the launch port 52 of the air launcher 50. Alternatively, control is performed to generate air from the launch port 52 of the air launcher 50 in accordance with timeline information such as a predetermined time after the player character enters a predetermined area (or a predetermined game stage) in the game space. May be.
  • the air emission device control unit 114 performs processing for controlling the air emission device 50 based on the processing result (for example, the position of the object in the object space) by the movement processing unit 112. That is, the air emission device control unit 114 generates air (vortex ring) from the emission port 52 of the air emission device 50 by generating a control signal based on the processing result by the movement processing unit 112 and outputting the control signal to the signal generator 56. To control.
  • the air launching device control unit 114 has the air launching device 50. You may make it perform the control which discharges air from the ejection opening 52.
  • the projection plane is a plane where the parallax of the image of the object located on the projection plane is eliminated.
  • the air emission device control unit 114 is controlled from the emission port 52 of the air emission device 50. You may make it perform control which discharges air. For example, when an object moving from the first area toward the second area passes through the projection plane, control is performed to emit air from the emission port 52 of the air emission device 50. Good. Further, when the object moving from the first area toward the second area passes through the projection plane and reaches a position separated from the projection plane by a predetermined distance, the air emitting device 50 You may make it perform the control which discharges air from the launching opening 52 of this.
  • the air emission device control unit 114 may change the timing of air emission from the emission port 52 in accordance with the amount of movement of the object from the projection plane. In addition, the air emission device control unit 114 may change the emission timing of air from the emission port 52 in accordance with the timing at which the object reaches a position separated from the projection plane by a predetermined distance. The timing at which the object reaches a position away from the projection plane by a predetermined distance can be determined based on the speed or acceleration of the object.
  • the air launcher control unit 114 is based on the processing result by the movement processing unit 112 and the size of the launch port 52. It is also possible to perform control to change air and to generate air from the launch port 52.
  • the air emission device control unit 114 outputs a control signal to a drive unit (for example, a motor that drives the aperture mechanism) for changing the diameter of the emission port 52 of the air emission device 50, thereby You may make it perform control which changes the aperture of 52.
  • a drive unit for example, a motor that drives the aperture mechanism
  • the air emission device control unit 114 may perform control to change the diameter of the emission port 52 in accordance with the amount of movement of the object from the projection plane.
  • the air launcher control unit 114 may perform control to change the diameter of the launch port 52 according to the speed of the object.
  • the air emission device control unit 114 may perform control to emit air from the emission port 52 of the air emission device 50 when the object enters a predetermined area in the object space.
  • the virtual camera control unit 118 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, based on input information or a program (movement / motion algorithm) input by the player through the input unit 160, the position (X, Y, Z) of the virtual camera in the world coordinate system or the direction of the optical axis (for example, , X, Y, and Z axes, a rotation angle when rotating clockwise as viewed from the positive direction, and the like. In short, processing for controlling the viewpoint position, the orientation of the virtual camera, and the angle of view is performed.
  • the virtual camera control unit 118 controls the position, orientation, and angle of view of the left-eye virtual camera and the right-eye virtual camera.
  • the virtual camera control unit 118 also controls a reference virtual camera (center camera) serving as a reference for setting the left-eye virtual camera and the right-eye virtual camera, and the position, orientation, and left eye of the reference virtual camera.
  • the positions and orientations of the left-eye and right-eye virtual cameras may be controlled based on distance information between the left and right-eye virtual cameras.
  • the position and orientation of each multi-view virtual camera may be controlled.
  • the entire virtual space is controlled by controlling at least one of the position, orientation, and angle of view of the virtual camera and performing spatial coordinate conversion based thereon. Convert once. Thereafter, the above effect can be obtained by drawing an object or the like arranged in the space after conversion based on each stereoscopic display method.
  • the image generation unit 120 performs drawing processing based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting it to the display unit 190.
  • object data model data
  • vertex data vertex position coordinates, texture coordinates, color data, normal vector, ⁇ value, etc.
  • vertex processing shading by a vertex shader
  • vertex generation processing for re-dividing the polygon may be performed as necessary.
  • vertex processing according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (perspective transformation) , Projection conversion), viewport conversion (screen coordinate conversion), light source calculation, and other geometric processing are performed, and based on the processing results, the vertex data given to the vertex group constituting the object is changed (updated, adjusted).
  • coordinate transformation for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (perspective transformation) , Projection conversion), viewport conversion (screen coordinate conversion), light source calculation, and other geometric processing
  • coordinate transformation for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (perspective transformation) , Projection conversion), viewport conversion (screen coordinate conversion), light source calculation, and other geometric processing
  • coordinate transformation for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (perspect
  • rasterization scan conversion
  • pixel processing shading or fragment processing by a pixel shader for drawing pixels (fragments forming a display screen) constituting an image is performed.
  • pixel processing In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed.
  • the final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to a drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, ⁇ value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.
  • the image generation unit 120 performs texture mapping, hidden surface removal processing, ⁇ blending, and the like when drawing an object.
  • Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and ⁇ value) is read from the texture storage unit 178 of the storage unit 170 using the texture coordinates set (given) at the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.
  • hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. It can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer 179 is referred to. Then, the Z value of the referenced Z buffer 179 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 179 is updated to a new Z value.
  • a Z buffer method depth comparison method, Z test
  • ⁇ blending is a translucent composition processing (usually ⁇ blending, addition ⁇ blending, subtraction ⁇ blending, or the like) based on an ⁇ value (A value).
  • a value For example, in normal ⁇ blending, a process for obtaining a color obtained by combining two colors by performing linear interpolation with the ⁇ value as the strength of synthesis is performed.
  • the ⁇ value is information that can be stored in association with each pixel (texel, dot), and is, for example, plus alpha information other than color information indicating the luminance of each RGB color component.
  • the ⁇ value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.
  • the image generation unit 120 of the present embodiment outputs a stereoscopic image to the display unit 190.
  • the image generation unit 120 includes a left-eye image generation unit 124 and a right-eye image generation unit 126.
  • the left-eye image generating unit 124 generates a left-eye image that is an image seen from the left-eye virtual camera in the object space
  • the right-eye image generating unit 126 is from the right-eye virtual camera in the object space.
  • a right-eye image that is a visible image is generated.
  • the left-eye image generation unit 124 generates a left-eye image by perspectively projecting and drawing an object on the projection plane in the object space from the viewpoint of the left-eye virtual camera.
  • the eye image generation unit 126 generates a right eye image by perspectively projecting and drawing an object on the projection plane from the viewpoint of the right eye virtual camera. If the stereoscopic method is a multi-view method, the image generation unit 120 generates an image that can be seen from each of the multi-view virtual cameras.
  • the sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, and voices, and outputs them to the sound output unit 192.
  • the sound generation unit 130 may generate a game sound (such as a sound effect) at a timing when air is discharged from the discharge port 52 of the air emission device 50 and output it to the sound output unit 192.
  • the sound generation unit 130 may perform control to increase the volume of the game sound (sound effect, BGM, etc.) at the timing when air is emitted from the emission port 52 of the air emission device 50.
  • the sound generation unit 130 may generate a sound having an opposite phase to the air emission sound and output the sound to the sound output unit 192 at the timing when the air is emitted from the emission port 52 of the air emission device 50. Good.
  • the sound generation unit 130 may generate a game sound whose sound image localization changes according to the air emission from the emission port 52 of the air emission device 50 and output the game sound to the sound output unit 192.
  • the sound generation unit 130 may generate a sound whose sound image localization changes in conjunction with the movement of air (vortex ring) emitted from the emission port 52.
  • the sound generator 130 may generate a sound whose sound image localization changes according to the position of the object. For example, if the object is located in the first area and the object appears to jump out of the screen, the sound image localization corresponding to the object is set to a position in front of the screen. If the object is located in the second area and the object appears to be retracted from the screen, the sound image localization corresponding to the object is set to the position behind the screen. Also good. Further, the position of the sound image localization may be moved in conjunction with the movement of the object.
  • the sound generation unit 130 may perform output control of the game sound so that the game sound output from the sound output unit 192 reaches the player at the timing when the air discharged from the discharge port 52 hits the player.
  • the processing unit 100 may further include a vibration control unit that performs control to vibrate the seat 60 in accordance with the control of the air emission device 50 by the air emission device control unit 114.
  • the vibration control unit performs control to vibrate the seat 60 by generating a control signal and outputting the control signal to the vibration unit included in the seat 60.
  • the vibration control unit performs control to vibrate the seat 60 in accordance with the timing at which the air emitted from the launch port 52 hits the player seated on the seat 60.
  • the game system 10 may further include one or more light sources (production light sources) that emit light
  • the processing unit 100 may further include a light source control unit that controls the light sources.
  • the light source control unit may perform control to change the light emitted from the light source according to the progress of the game.
  • the light source control unit may perform control to change the color of light emitted from the light source (for example, change the color of light to red) when an enemy character (for example, a target object) is in an attack state.
  • the light source control unit may perform control to change the light emitted from the light source when air is emitted from the emission port 52 of the air emission device 50.
  • the light source may be disposed in the vicinity of the display unit 12 or the air emission device 50, or may be provided inside the case 53 of the air emission device 50.
  • the left-eye and right-eye view volumes VVL and VVR are determined by the left, right, and right-eye virtual cameras VCL and VCR. This is the frustum region.
  • the projection plane SP is a plane corresponding to the screen of the display unit 190 (display 12), and the positions and orientations of the left-eye and right-eye virtual cameras VCL and VCR corresponding to the viewpoint position of the player, and the viewpoint position of the player. And the positional relationship between the display unit 190 and the screen (display screen 13).
  • NPL and FPL are the near clip plane and the far clip plane of the left eye view volume VVL, respectively.
  • NPR and FPR are the near clip plane and the far clip plane of the right eye view volume VVR, respectively. is there.
  • the left-eye image which is an image that can be seen from the left-eye virtual camera VCL, is generated by perspectively projecting an object existing in the left-eye view volume VVL onto the projection plane SP and drawing it.
  • an image for the right eye which is an image that can be viewed from the virtual camera for right eye VCR, is generated by perspectively projecting an object that exists in the view volume for right eye VVR onto the projection plane SP and drawing it.
  • the drawing position of the object in the left-eye image and the drawing position of the object in the right-eye image match, and the parallax of the object image disappears. In this case, it appears to the player that the object exists on the screen of the display unit 190.
  • the object is a first area (an area sandwiched between the projection plane SP and the near clip planes NPL and NPR) as viewed from the left-eye and right-eye virtual cameras VCL and VCR with respect to the projection plane SP.
  • the drawing position of the object OBL in the left-eye image is shifted to the right with respect to the drawing position of the object OBR in the right-eye image. It appears that the object is protruding to the near side of the screen of the display unit 190.
  • the object is a second area (an area sandwiched between the projection plane SP and the far clip planes FPL and FPR) as viewed from the left and right eye virtual cameras VCL and VCR with respect to the projection plane SP.
  • the drawing position of the object OBL in the left-eye image is shifted to the left with respect to the drawing position of the object OBR in the right-eye image. It appears that the object is retracted further back than the screen of the display unit 190.
  • the air emission device 50 is controlled based on the position of the object in the object space. For example, when there is an object located in the first area AR ⁇ b> 1 that reproduces a pop-out space that appears to protrude to the near side of the screen, control is performed to discharge air from the discharge port 52 of the air discharge device 50. In this way, it is possible to reinforce the effect of the stereoscopic pop-out effect using the air emission device 50 and perform a more effective game effect. Further, when there is an object located in the second area AR2 that reproduces the depth space that seems to be retracted from the screen, control is performed so that air is emitted from the emission port 52 of the air emission device 50. It may be. If it does in this way, the presentation effect by the depth production of stereoscopic vision can be reinforced using the air emission device 50, and a more effective game production can be performed.
  • air may be emitted from the air emission device 50 at a timing when the object OB moving from the second area AR2 toward the first area AR1 passes through the projection plane SP, or the object OB may be projected onto the projection plane.
  • Air may be emitted from the air emission device 50 immediately before or after passing through the SP.
  • the air (vortex ring VR) emitted from the air emission device 50 located in the vicinity of the display screen 13 at a timing when the object OB appears to jump out from the display screen 13 to a part of the player's body.
  • the player can feel the impact of the object OB appearing popping out from the display screen 13 (or the object OB itself appearing popping out from the display screen 13) hitting the body. That is, the effect of the stereoscopic projection effect can be reinforced by the air emitted from the air emission device 50, and a more effective game effect can be performed.
  • the air emission device 50 causes the air emitted from the emission port 52 to hit the player P's body.
  • the air emission timing may be controlled.
  • the object OB is launched from the launch port 52.
  • Control is performed so that air is emitted from the outlet 52 at the emission timing (eg, time T 3 ) such that the air hits the player P's body at time T 2 .
  • the speed of the air emitted from the air emission device 50 may be changed.
  • the aperture of the air emission device 50 is configured to be changeable by a diaphragm mechanism 57 composed of a plurality of diaphragm blades, and the diaphragm mechanism 57 is driven and controlled.
  • the caliber By changing the caliber, the velocity of the air emitted from the emission port 52 can be changed. That is, the smaller the diameter of the launch port 52, the greater the speed of the air ejected from the launch port 52.
  • the emission timing or the emission speed of the air emission device 50 is controlled so that the air emitted from the emission port 52 strikes the body of the player P.
  • the emission timing or the emission speed of the air emission device 50 is controlled so that the air emitted from the emission port 52 strikes the body of the player P.
  • the seat 60 on which the player P is seated may be vibrated at the timing when the air emitted from the launch port 52 hits the body of the player P. If it does in this way, the effect by the popping-out effect of a stereoscopic view can be effectively reinforced by the vibration of the air emitted from the air emission device 50 and the seat 60.
  • control may be performed such that the velocity of the air emitted from the emission port 52 increases as the distance D from the projection plane SP of the object OB in the first area AR1 increases. In this way, it is possible to produce an effect such that the greater the amount of projection of the object OB from the display screen 13 (corresponding to the distance D), the stronger the momentum of the air emitted from the outlet 52. The effect of popping out can be reinforced.
  • the momentum (strength) of the air emitted from the launch port 52 is changed by changing the amplitude of the signal output to the speaker 54 of the air launch device 50 instead of changing the diameter of the launch port 52. You may make it make it.
  • the air emission device 50 is configured using a motor or solenoid, the current / voltage output to the motor or solenoid may be changed.
  • the air emission from the air emission device 50 and the light production by the production light source may be linked.
  • the effect light source may be turned on or blinked at the timing when air is emitted from the emission port 52 of the air emission device 50, and the intensity, color, or blinking state of the light emitted from the effect light source may be changed. It may be changed.
  • an effect light source may be provided inside the air emission device 50 so that light is emitted from the emission port 52.
  • the directing light source may be directed toward the air (vortex ring) emitted from the emission port 52 to visualize the vortex ring. If it does in this way, the effect by the popping-out effect of stereoscopic vision can be effectively reinforced by the air emitted from the air emission device 50 and the light from the effect light source.
  • game sound is generated and output to the sound output unit 192 at the timing when air is emitted from the emission port 52 of the air emission device 50.
  • a given game sound such as a sound effect
  • the control for increasing the volume of the game sound output from the sound output unit 192 may be performed only while the input signal is being input to the speaker 54 of the air emission device 50. In this way, it is possible to make it difficult for the player to hear the sound generated when air is emitted from the air emission device 50, and to prevent the player from being aware of the presence of the air emission device 50.
  • a sound having a waveform opposite in phase to the input signal is output from the sound output unit 192 as a game sound.
  • You may control. In this way, it is possible to cancel the sound emitted by the air emitting device 50 with the game sound, and make it difficult for the player to hear the sound emitted by the air emitting device 50.
  • a microphone may be installed in the vicinity of the air emitting device 50, and a sound having a phase opposite to that of the fired sound detected by the microphone may be generated and output from the sound output unit 192.
  • the waveform of the game sound output for canceling the fired sound may be changed in accordance with the change in the diameter of the launching port 52 of the air launching device 50.
  • a game sound whose sound image localization changes in response to the air emission from the air outlet 52 of the air emission device 50 may be generated and output to the sound output unit 192.
  • a game sound in which the sound image localization changes in association with the movement of the vortex ring VR launched from the launch port 52 of the air launcher 50 is generated and output.
  • FIG. 11A when a virtual sound source VS is set at the position of the launch port 52 of the air launcher 50 and the vortex ring VR is fired from the launch port 52, the vortex ring that flies toward the player P. While controlling the virtual sound source VS to move at the same speed in the same direction as VR, a game sound whose sound image is localized at the position of the moving virtual sound source VS is generated and output. If it does in this way, the effect by the popping-out effect of stereoscopic vision can be effectively reinforced by the air and game sound which were launched from air launching device 50.
  • FIG. 11B by arranging five speakers 70 on the front, front right side, front left side, rear right side, and rear left side of the player P (seat 60), the sound image localization of the game sound can be determined. Can be changed.
  • the game sound output from the sound output unit 192 may be controlled to reach the player P at the timing when the vortex ring VR launched from the launch port 52 of the air launching device 50 hits the player P. Even in this way, an effective game effect can be performed.
  • the processing unit 100 sets the projection plane SP based on the positions and orientations of the left-eye and right-eye virtual cameras VCL and VCR (step S10). Thereby, the first area AR1 on the near side of the projection plane SP as viewed from the virtual camera is set.
  • the movement / motion processing unit 112 (movement processing unit) performs a process of moving the object in the object space (step S12).
  • the air emission device control unit 114 displays an object (for example, the target object 42) that moves from the second area AR2 toward the first area AR1. It is determined whether or not the SP has been passed (step S14). When it is determined that the object has passed through the projection plane SP (Y in step S14), a control signal is generated and output to the signal generator 56, whereby air is emitted from the emission port 52 of the air emission device 50. Control is performed (step S16).
  • the sound generation unit 130 generates a game sound and outputs it to the sound output unit 192 at the timing when air is discharged from the discharge port 52 of the air emission device 50 (step S18). Further, when it is determined that the object has not passed through the projection plane SP (including the case where control has been performed so that air has already been passed through the projection plane SP and air is emitted from the launch port 52) (N in step S14). Advances to step S20.
  • the left-eye image generation unit 124 and the right-eye image generation unit 126 perform perspective projection of the object on the projection plane SP and draw it, so that the left-eye and right-eye virtual cameras VCL and VCR can see the left.
  • An eye image and a right eye image are generated (step S20).
  • the processing unit 100 determines whether or not to continue the processing (step S22). When the processing is continued, the processing unit 100 returns to the processing of step S10 and repeats the processing after step S10 every frame.
  • step S14 the air emission device control unit 114 determines the emission timing based on the distance D and the velocity when the movement amount D (the amount of protrusion) of the object from the projection plane SP and the velocity of the object are known in advance. If it is determined whether or not it is the launch timing, in step 16, control may be performed to emit air from the launch port 52 of the air launcher 50. In addition, based on the distance D and the speed of the object, the diameter of the discharge port 52 (air discharge speed) may be changed to control the discharge of air from the discharge port 52.
  • the air emission device 50 may be configured such that the air emission angle from the emission port 52 can be changed.
  • a drive mechanism that rotates the air emitting device 50 around a predetermined axis or two axes may be further provided.
  • the air emission device 50 may be rotated so that the air emitted from the emission port 52 of the air emission device 50 hits different parts of the player's body. For example, when the object moves so as to appear to jump out from the display screen 13 toward the head of the player, the air emitted from the launch port 52 is controlled to hit the head of the player, and the object is displayed on the display screen 13. ,
  • the air fired from the launch port 52 may be controlled so as to strike the abdomen of the player.
  • a plurality of air emission devices 50 that emit air toward one player may be provided, and an air emission device that emits air may be selected according to the processing result of the movement processing unit. For example, when the object moves so as to appear to jump out from the display screen 13 toward the player's head, control is performed so that air is emitted from the first air emitting device whose launch port is directed toward the player's head. When the object moves so as to appear to jump out from the display screen 13 toward the abdomen of the player, control is performed so that air is emitted from the second air emission device whose launch port is directed toward the abdomen of the player. It may be.
  • Air Launcher 52 Launch Port, 56 Signal Generator, 58 Amplifier, 100 Processing Unit, 110 Object Space Setting Unit, 112 Movement / Calculation Processing Unit (Movement Processing Unit), 114 Air emission device control unit, 118 Virtual camera control unit, 120 Image generation unit, 124 Left eye image generation unit, 126 Right eye image generation unit, 130 Sound generation unit, 160 Input unit, 162 Detection unit, 170 storage unit, 180 information storage medium, 190 display unit, 192 sound output unit, 196 communication unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 発射口から空気を発射する空気発射装置と、オブジェクトをオブジェクト空間内で移動させる処理を行う処理部と、前記処理部の処理結果に基づき前記空気発射装置を制御する空気発射装置制御部と、前記オブジェクトの立体視用画像を生成する画像生成部と、前記立体視用画像を表示する表示部とを含む。前記オブジェクト空間内の投影面よりも視点から見て手前側の第1のエリアに位置するオブジェクトがある場合に、前記空気発射装置の発射口から空気を発射させる制御を行う。

Description

ゲームシステム
 本発明は、ゲームシステムに関する。
 従来から、立体視を実現する画像生成システムが知られている(例えば、特開2004-126902号公報)。例えば、2眼式の立体視画像生成システムでは、左眼用画像と右眼用画像を生成する。そして、立体視用の眼鏡や、視差バリア或いはレンチキュラ等の光学素子を用いて、プレーヤの左眼には左眼用画像のみが見え、右眼には右眼用画像のみが見えるようにすることで、立体視を実現する。また、発射口から空気を発射させる空気砲を備えたゲーム装置が知られている(例えば、特開2010-233783号公報)。
 立体視画像生成システムでは、画面よりも奥側に引っ込んでいるように見える奥行き空間と、画面よりも手前側に飛び出しているように見える飛び出し空間とを再現することができ、これによりプレーヤに立体視感を感じさせる演出を行っている。そして、立体視画像生成システムでは、立体視による視覚的な演出効果を補強して、より効果的なゲーム演出を行うことが望まれる。
 本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、空気発射装置を用いて立体視による視覚的な演出効果を補強することが可能なゲームシステムを提供することにある。
 (1)本発明に係るゲームシステムは、
 発射口から空気を発射する空気発射装置と、
 ゲーム処理を行う処理部と、
 前記処理部の処理結果に基づき前記空気発射装置を制御する空気発射装置制御部と、
 前記処理部の処理結果に基づき立体視用画像を生成する画像生成部と、
 前記立体視用画像を表示する表示部とを含むことを特徴とするゲームシステムに関する。
 本発明によれば、ゲーム処理の処理結果に基づき前記空気発射装置を制御することで、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。
 (2)本発明に係るゲームシステムは、
 前記処理部は、
 オブジェクトをオブジェクト空間内で移動させる処理を行い、
 前記画像生成部は、
 前記オブジェクトの立体視用画像を生成してもよい。
 本発明によれば、オブジェクトをオブジェクト空間内で移動させる処理を行う処理部の処理結果に基づき前記空気発射装置を制御することで、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。
 (3)また本発明に係るゲームシステムでは、
 前記空気発射装置制御部は、
 前記オブジェクト空間内の投影面よりも視点から見て手前側の第1のエリアに位置するオブジェクトがある場合に、前記空気発射装置の発射口から空気を発射させる制御を行ってもよい。
 本発明において、オブジェクト空間内の投影面とは、投影面に位置するオブジェクトの画像の視差が無くなる面をいう。
 本発明によれば、画面よりも手前側に飛び出しているように見える飛び出し空間にオブジェクトがある場合に空気発射装置から空気を発射させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。
 (4)また本発明に係るゲームシステムでは、
 前記空気発射装置制御部は、
 前記投影面よりも視点から見て奥側の第2のエリアから前記第1のエリアまで移動する前記オブジェクトがある場合に、前記空気発射装置の発射口から空気を発射させる制御を行うようにしてもよい。
 また前記空気発射装置制御部は、前記第2のエリアから前記第1のエリアまで移動する前記オブジェクトが前記投影面を通過した場合に、前記空気発射装置の発射口から空気を発射させる制御を行ってもよい。
 本発明によれば、飛び出し空間に向かって移動するオブジェクトがある場合に空気発射装置から空気を発射させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。
 (5)また本発明に係るゲームシステムでは、
 前記空気発射装置制御部は、
 前記オブジェクトの前記投影面からの移動量に応じて、前記発射口からの空気の発射タイミングを変化させてもよい。
 本発明によれば、オブジェクトの飛び出し量に応じて発射タイミングを変化させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。
 (6)また本発明に係るゲームシステムでは、
 前記空気発射装置制御部は、
 前記オブジェクトが前記投影面から所定距離だけ離れた位置に到達するタイミングに応じて、前記発射口からの空気の発射タイミングを変化させてもよい。
 本発明によれば、オブジェクトが飛び出し空間における所定位置に到達するタイミングに応じて発射タイミングを変化させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。
 (7)また本発明に係るゲームシステムでは、
 前記空気発射装置は、
 前記発射口の口径が変更可能に構成され、
 前記空気発射装置制御部は、
 前記オブジェクトの前記投影面からの移動量に応じて、前記発射口の口径を変更する制御を行ってもよい。
 本発明によれば、オブジェクトの飛び出し量に応じて空気発射装置から発射される空気の移動速度を変化させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。
 (8)また本発明に係るゲームシステムでは、
 前記空気発射装置は、
 前記発射口の口径が変更可能に構成され、
 前記空気発射装置制御部は、
 前記オブジェクトの速度に応じて、前記発射口の口径を変更する制御を行ってもよい。
 本発明によれば、飛び出し空間にあるオブジェクトの速度に応じて空気発射装置から発射される空気の移動速度を変化させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。
 (9)また本発明に係るゲームシステムでは、
 前記空気発射装置制御部は、
 前記オブジェクトが前記オブジェクト空間内の所定のエリアに入った場合に、前記空気発射装置の発射口から空気を発射させる制御を行うようにしてもよい。
 本発明によれば、オブジェクトがオブジェクト空間内の所定エリアに入った場合に空気発射装置から空気を発射させることができ、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。
 (10)また本発明に係るゲームシステムでは、
 プレーヤが所定位置でゲームプレイ可能に構成され、
 前記空気発射装置は、
 前記発射口から発射された空気が前記所定位置でゲームプレイするプレーヤに当たるように配置されていてもよい。
 また本発明に係るゲームシステムでは、前記表示部の前方に配置されたプレーヤ用の座席を更に含み、前記空気発射装置は、前記発射口から発射された空気が前記座席に着座したプレーヤに当たるように配置されていてもよい。
 本発明によれば、空気発射装置から発射された空気をプレーヤに確実に当てることができる。
 (11)また本発明に係るゲームシステムでは、
 前記空気発射装置は、
 前記表示部の近傍に配置され、前記発射口が前記プレーヤの位置に向けて開口されていてもよい。
 本発明によれば、空気発射装置から発射された空気を表示部側からプレーヤに当てることができ、より効果的なゲーム演出を行うことができる。
 (12)また本発明に係るゲームシステムでは、
 振動可能に構成されたプレーヤ用の座席と、
 前記発射口から発射された空気が前記座席に着座したプレーヤに当たるタイミングに合わせて、前記座席を振動させる制御を行う振動制御部とを更に含むようにしてもよい。
 本発明によれば、空気発射装置からの空気の発射と座席の振動とを連動させることができ、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。
 (13)また本発明に係るゲームシステムでは、
 前記空気発射装置は、
 前記発射口からの空気の発射角度が変更可能に構成されていてもよい。
 本発明によれば、空気発射装置から発射された空気をプレーヤに当てる位置を変化させることができ、より効果的なゲーム演出を行うことができる。
 (14)また本発明に係るゲームシステムでは、
 ゲーム音を出力する音出力部と、
 前記空気発射装置の発射口から空気が発射されるタイミングでゲーム音を生成して前記音出力部に出力する音生成部とを更に含むようにしてもよい。
 本発明によれば、空気発射装置から空気が発射されるときに発生する発射音をプレーヤに聞こえ難くすることができる。
 (15)また本発明に係るゲームシステムでは、
 ゲーム音を出力する音出力部と、
 前記空気発射装置の発射口からの空気の発射に応じて音像定位が変化するゲーム音を生成して前記音出力部に出力する音生成部とを更に含むようにしてもよい。
 本発明によれば、空気発射装置から発射された空気と音像定位とを連動させることができ、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。
 (16)また本発明に係るゲームシステムでは、
 前記音出力部は、
 プレーヤの前方と後方のそれぞれに配置されていてもよい。
 本発明によれば、音像定位が変化するゲーム音を容易に出力することができる。
 (17)また本発明に係るゲームシステムでは、
 光を出射する光源と、
 前記光源を制御する光源制御部とを更に含み、
 前記光源制御部は、
 前記空気発射装置の発射口から空気が発射された場合に、前記光源から出射される光を変化させる制御を行うようにしてもよい。
 本発明によれば、空気発射装置からの空気の発射と光源からの光の変化とを連動させることができ、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。
 (18)本発明に係るゲームシステムは、
 発射口から空気を発射する空気発射装置と、
 プレーヤが把持して操作するコントローラと、
 オブジェクト空間内で標的オブジェクトを移動させ、前記コントローラからの入力情報に基づき前記コントローラが指示している表示画面上の位置を演算し、演算された位置が前記標的オブジェクトの表示位置と一致するか否かを判定し、判定結果に基づき演出画像を表示させるゲーム処理を行う処理部と、
 前記オブジェクト空間における前記標的オブジェクトの位置に基づき、前記空気発射装置の発射口から空気を発射させる制御を行う空気発射装置制御部と、
 前記標的オブジェクトの立体視用画像を生成する画像生成部と、
 前記立体視用画像を表示する表示部と、
 振動可能に構成されたプレーヤ用の座席と、
 前記座席を振動させる制御を行う振動制御部と、
 ゲーム音を出力する音出力する音出力部と、
 ゲーム音を生成して前記音出力部に出力する音生成部とを含み、
 前記空気発射装置は、
 前記発射口から発射された空気が前記座席に着座したプレーヤに当たるように配置され、
 前記振動制御部は、
 前記発射口から発射された空気が前記座席に着座したプレーヤに当たるタイミングに合わせて、前記座席を振動させる制御を行い、
 前記音生成部は、
 発射口から空気が発射されるタイミングでゲーム音を生成して前記音出力部に出力するするゲームシステムに関する。
 本発明によれば、コントローラを操作して行う立体視のシューティングゲームにおいて、オブジェクト空間における標的オブジェクトの位置に基づき空気発射装置から空気を発射させる制御を行って、発射された空気をプレーヤに当てるように構成することで、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。また、本発明によれば、空気発射装置から発射された空気と座席の振動とを連動させることができ、より効果的なゲーム演出を行うことができる。また、本発明によれば、空気発射装置から空気が発射されるときに発生する発射音をプレーヤに聞こえ難くすることができる。
図1は、本実施形態のゲームシステムの外観の一例を示す斜視図である。 図2は、空気発射装置の構成の一例を示す図である。 図3は、本実施形態のゲームシステムの構成の一例を示す図である。 図4は、本実施形態のゲームシステムの機能ブロック図の一例を示す図である。 図5は、立体視用画像を生成する手法について説明するための図である。 図6Aは、立体視用画像を生成する手法について説明するための図である。 図6Bは、立体視用画像を生成する手法について説明するための図である。 図7は、空気発射装置の制御について説明するための図である。 図8Aは、空気発射装置の制御について説明するための図である。 図8Bは、空気発射装置の制御について説明するための図である。 図9は、空気発射装置の構成の一例を示す図である。 図10Aは、ゲーム音の制御について説明するための図である。 図10Bは、ゲーム音の制御について説明するための図である。 図11Aは、ゲーム音の制御について説明するための図である。 図11Bは、ゲーム音の制御について説明するための図である。 図12は、本実施形態の処理の流れを示すフローチャート図である。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
 1.ゲームシステムの構成
 図1は、本実施形態のゲームシステム10(ゲーム装置)の外観の一例を示す斜視図である。本実施形態のゲームシステム10は、立体視用画像を表示するディスプレイ12(表示部)と、ディスプレイ12の表示画面13の手前側に設けられた台座14と、台座14の上面に設けられ、機関銃の形状を模した第1コントローラ16および第2コントローラ18)と、ディスプレイ12の上方に設けられた空気発射装置50とを有している。ゲームシステム10では、一人のプレーヤがゲームをプレイしてもよいし、2人以上のプレーヤ(操作者の一例)が同時にゲームをプレイしてもよい。
 第1コントローラ16は、台座14に対して配置位置が固定されつつ、鉛直に設けられた第1軸20回りに回転可能に、かつ水平に設けられた第2軸22回りに回転可能に設けられている。そして第1コントローラ16の後端には、プレーヤが左手で把持する左グリップ24と、右手で把持する右グリップ26とが設けられており、プレーヤはこの左グリップ24と右グリップ26とを把持して、第1コントローラ16を第1軸20回りおよび第2軸22回りに回転させる操作を行うことにより、第1コントローラ16の銃口に相当する先端の向きを任意に変化させることができる。ここで第1コントローラ16の可動範囲は、第1コントローラ16の先端が表示画面13の所定の領域を指示できる範囲となっている。例えば、第1コントローラ16の可動範囲は、第1コントローラ16の先端が表示画面13の全領域を指示できる範囲としてもよいし、表示画面13の一部の領域を指示できる範囲としてもよい。そして第1コントローラ16には、第1コントローラ16の第1軸20回りの回転量を検出する第1可変抵抗28と、第1コントローラ16の第2軸22回りの回転量を検出する第2可変抵抗30とが設けられている。
 そしてゲームシステム10は、第1コントローラ16の第1可変抵抗28の検出結果と第2可変抵抗30の検出結果とに基づいて、第1コントローラ16の先端が指示する表示画面13上の位置である第1指示位置31を2次元座標の座標値として求める。そしてゲームシステム10は、表示画面13に表示させる画像において、第1指示位置31に対応する仮想3次元空間(オブジェクト空間)内の位置に、第1コントローラ16が指示する位置を示す第1マーク32が配置されている画像を表示させる。
 そしてゲームシステム10は、表示画面13に表示させる画像において、標的を示す標的オブジェクト42(オブジェクトの一例)を移動させながら表示させており、標的オブジェクト42に第1マーク32の中心が重なっている状態で第1コントローラ16の左ボタン36あるいは右ボタン38が押下されると、標的オブジェクト42に第1弾丸オブジェクト40が命中したと判定する。
 第2コントローラ18は、第1コントローラ16と同様に、左グリップ24、右グリップ26、第1可変抵抗28、第2可変抵抗30、左ボタン36、右ボタン38を有している。そして、第2コントローラ18は第1コントローラ16と接触しないように、台座14に対して配置位置が固定されつつ、第1軸20回りおよび第2軸22回りに回転可能に設けられている。そして、第2コントローラ18の可動範囲も、第2コントローラ18の先端が表示画面13の所定の領域を指示できる範囲となっている。
 そしてゲームシステム10は、第2コントローラ18の第1可変抵抗28の検出結果と第2可変抵抗30の検出結果とに基づいて、第2コントローラ18の先端が指示する表示画面13上の位置である第2指示位置43を2次元座標の座標値として求める。そしてゲームシステム10は、表示画面13に表示させる画像において、第2指示位置43に対応する仮想3次元空間内の位置に、第2コントローラ18が指示する位置を示す第2マーク44が配置されている画像を表示させる。そして、第2コントローラ18の左ボタン36あるいは右ボタン38をプレーヤが押下すると、第2銃オブジェクト46の先端から第2マーク44の中心に向けて、第2銃オブジェクト46の弾丸を示す第2弾丸オブジェクト48を移動させる。
 空気発射装置50は、発射口52から空気を発射させる装置である。空気発射装置50は、ディスプレイ12の上方の図中右側と左側(表示部の近傍)に1つずつ配置され、発射口52がプレーヤの位置に向けて開口されている。ここで、ディスプレイ12上方の左側に設けられた空気発射装置50の発射口52は、第1コントローラ16を操作するプレーヤに向けて開口され、ディスプレイ12上方の右側に設けられた空気発射装置50の発射口52は、第2コントローラ16を操作するプレーヤに向けて開口されている。なお、プレーヤが一人でゲームプレイを行う場合、そのプレーヤがゲームプレイする位置に応じて、空気を発射させる空気発射装置50を決定するようにしてもよい。例えば、プレーヤが第1のコントローラ16を操作してゲームプレイする場合には、ディスプレイ12上方の左側に設けられた空気発射装置50から空気を発射させ、プレーヤが第2のコントローラ18を操作してゲームプレイする場合には、ディスプレイ12上方の右側に設けられた空気発射装置50から空気を発射させる制御を行う。
 図2は、空気発射装置50の正面図と、側部断面図である。図2に示すように、空気発射装置50は、発射口52が形成されたケース53と、スピーカ54から構成されている。ケース53は、一定量の空気を溜める容器であり、円柱形状の上面に円形開口である発射口52が形成されている。スピーカ54は、ケース53の発射口52と対向する面に設けられており、振動板55を振動させて低周波音を発生する。スピーカ54が低周波音を発生すると、振動板55によりケース内53内の空気が発射口52から押し出され、押し出された空気はドーナツ形状の渦輪(渦状の空気)を形成して飛行する。すなわち、本実施形態の空気発射装置50は、発射口52から渦輪を発射する空気砲として機能するものである。なお、スピーカ54を設けることに代えて、ケース53の発射口52と対向する面又はケース53の側面を振動させる手段を設けてもよい。例えば、モータやソレノイドを用いてケース53の一面を振動させることにより、発射口52から渦輪を発射させるように構成してもよい。
 図3に示すように、ゲームシステム10は、台座14の手前側(ディスプレイ12の前方)に設けられたプレーヤP用の座席60を備えている。座席60は、外部からの制御信号に基づき振動する振動部を備えることにより、振動可能に構成されていてもよい。プレーヤPは、座席60に着座した状態で、前方のディスプレイ12の表示画面13を見つつ、台座14に設けられた第1コントローラ16(又は第2コントローラ18)を操作することができる。
 そして、空気発射装置50は、発射口52から発射された渦輪VRが座席60に着座したプレーヤPの身体の一部に当たるように配置されている。なお、空気発射装置50は、発射された渦輪VRがプレーヤPの肌が露出した部分(渦輪VRが当たったことを知覚し易い部分、プレーヤPの顔面や手など)に当たるように配置されることが望ましい。
 なお、プレーヤが座席に着座する場合に限られず、プレーヤが固定型のコントローラや、フットペダルを操作する場合等、プレーヤが所定位置でゲームプレイ可能に構成されている場合には、発射口52から発射された渦輪VRが前記所定位置でゲームプレイするプレーヤに当たるように空気発射装置50を配置すればよい。
 2.機能ブロック図
 図4に本実施形態のゲームシステム10の機能ブロック図の一例を示す。なお本実施形態のゲームシステムは図4の構成要素(各部)の一部を省略した構成としてもよい。
 入力部160は、プレーヤからの入力情報を入力するための機器であり、プレーヤの入力情報を処理部100に出力する。入力部160の機能は、図1の第1及び第2コントローラ16、18により実現することができる。入力部160は、プレーヤの入力情報を検出する検出部162を備える。検出部162の機能は、図1の左ボタン36、右ボタン38が押させたことを検出するスイッチと、第1及び第2コントローラ16、18の回転角度(第1軸20回りの回転角度と第2軸22回りの回転角度)を検出する図1の第1及び第2可変抵抗28、30とにより実現することができる。
 また入力部160は、方向キー(十字キー)、方向入力可能なコントロールスティック(アナログキー)、レバー、キーボード、マウス、タッチパネル型ディスプレイ、撮像部、加速度センサ、或いは角速度センサ(ジャイロセンサ)等を備えた入力機器でもよい。
 信号発生器56は、空気発射装置制御部114から出力された制御信号に基づき音声信号を生成して増幅器58に出力するものである。例えば、信号発生器56は、1波長分の低周波(例えば、20Hz)の矩形波信号、正弦波信号、三角波或いはノコギリ波信号を生成してもよい。また、矩形波、正弦波、三角波或いはノコギリ波のデューティ比を50%以上又は以下にした波形の1波長分の信号を生成してもよい。増幅器58(アンプ)は、信号発生器56で生成された音声信号を増幅して、空気発射装置50のスピーカ54に出力する。
 記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。記憶部170は、ワーク領域として使用される主記憶部172と、最終的な表示画像等が記憶される描画バッファ174と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部176と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部178と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ179とを含む。なお、これらの一部を省略する構成としてもよい。
 情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の処理部100の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。
 表示部190(ディスプレイ12)は、本実施形態により生成された画像(オブジェクト空間を所与の視点から見た画像)を出力するものであり、その機能は、CRT、LCD、或いはタッチパネル型ディスプレイなどにより実現できる。
 本実施形態の表示部190は、立体視画像を表示する。例えば、裸眼方式では、表示部190は、有限個の画素からなるLCDの前面又は背面に、パララックスバリアやレンチキュラ等の光学素子が配置される。例えば、垂直バリアまたは垂直レンチキュラによる2眼式の場合には、表示部190に、1枚(1フレーム)の左眼用画像を表示するための表示領域と、1枚の右眼用画像を表示するための表示領域とが、短冊状に左眼用短冊画像表示領域及び右眼用短冊画像表示領域として交互に配置されている。パララックスバリアが配置される場合、その隙間からは、プレーヤの左眼には左眼用短冊画像表示領域に表示される左眼用短冊画像、右眼には右眼用短冊画像表示領域に表示される右眼用短冊画像のみが見えるようになっている。また、レンチキュラが配置される場合、各短冊集合画像に対応したレンズの光屈折効果により、プレーヤの左眼には左眼用短冊画像表示領域に表示される左眼用短冊画像、右眼には右眼用短冊画像表示領域に表示される右眼用短冊画像のみが見えるようになっている。また、偏光眼鏡方式では、表示部190の奇数ラインと偶数ラインに偏光方向の異なる偏光フィルタ(例えば、左円偏光を透過する偏光フィルタと、右円偏光を透過する偏光フィルタ)が交互に配置され、表示部190の奇数ラインと偶数ラインに左眼用画像と右眼用画像を交互に表示し、これを偏光眼鏡(例えば、左眼に左円偏光を透過する偏光フィルタ、右眼に右円偏光を透過する偏光フィルタを付けた眼鏡)で見ることで立体視を実現する。また、ページフリップ方式では、表示部190に左眼用画像と右眼用画像を所定時間毎(例えば、1/120秒毎)に交互に表示する。そして、この表示の切り替えに連動して液晶シャッター付きの眼鏡の左眼、右眼の液晶シャッターを交互に開閉することで、立体視を実現する。なお、立体視画像の表示方式は、2眼式に限られず、多眼式や空間像方式(インテグラル方式)でもよい。
 音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。
 通信部196は他のゲームシステムやサーバとの間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
 なお、サーバが有する情報記憶媒体や記憶部に記憶されている処理部100の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信してゲームシステムを機能させる場合も本発明の範囲内に含む。
 処理部100(プロセッサ)は、入力部160からの入力情報、プログラム、通信部196を介して受信したデータなどに基づいて、ゲーム処理、画像生成処理、音生成処理、空気発射装置制御処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。特に本実施形態では、処理部100は、検出部162からのデータに基づいて、左ボタン36或いは右ボタン38が押されたときに第1コントローラ16或いは第2コントローラ18が指示している表示画面13上の位置を演算し、演算された位置が、標的オブジェクト42を表示させている位置と一致するか否かを判定する。そして一致していると判定した場合には、標的オブジェクト42に銃弾が当たったことを示す演出画像を表示させる。この処理部100は主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
 処理部100は、オブジェクト空間設定部110、移動・動作処理部112、空気発射装置制御部114、仮想カメラ制御部118、画像生成部120、音生成部130を含む。
 オブジェクト空間設定部110は、キャラクタ(プレーヤキャラクタ、ノンプレーヤキャラクタ)、標的、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。
 移動・動作処理部112(移動処理部)は、オブジェクト(キャラクタ、標的等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち入力部160によりプレーヤが入力した入力データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)、物理法則などに基づいて、オブジェクトをオブジェクト空間(ゲーム空間)内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒又は1/30秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。
 空気発射装置制御部114は、処理部100の処理結果に基づいて、空気発射装置50を制御する処理を行う。すなわち、空気発射装置制御部114は、処理部100による処理結果に基づき制御信号を生成して信号発生器56に出力することで、空気発射装置50の発射口52から空気(渦輪)を発生させる制御を行う。空気発射装置制御部114は、入力部160からの入力情報やゲーム進行状況に基づき空気発射装置50の発射口52から空気を発生させる制御を行ってもよい。例えば、プレーヤが所定のオブジェクトを攻撃する操作を行った場合、或いは、プレーヤキャラクタがゲーム空間内のドアを開けた場合に、空気発射装置50の発射口52から空気を発生させる制御を行ってもよいし、プレーヤキャラクタがゲーム空間内の所定のエリア(或いは所定のゲームステージ)に入ってから所定時間経過後といったタイムライン情報に従って、空気発射装置50の発射口52から空気を発生させる制御を行ってもよい。
 また、空気発射装置制御部114は、移動処理部112による処理結果(例えば、オブジェクトのオブジェクト空間における位置)に基づいて、空気発射装置50を制御する処理を行う。すなわち、空気発射装置制御部114は、移動処理部112による処理結果に基づき制御信号を生成して信号発生器56に出力することで、空気発射装置50の発射口52から空気(渦輪)を発生させる制御を行う。
 また、空気発射装置制御部114は、オブジェクト空間内の投影面よりも視点から見て手前側の第1のエリアに位置するオブジェクト(例えば、標的オブジェクト42)がある場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。ここで、投影面とは、投影面に位置するオブジェクトの画像の視差が無くなる面である。
 また、空気発射装置制御部114は、前記投影面よりも視点から見て奥側の第2のエリアから前記第1のエリアまで移動するオブジェクトがある場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。例えば、前記第1のエリアから前記第2のエリアに向けて移動するオブジェクトが、前記投影面を通過した場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。また、前記第1のエリアから前記第2のエリアに向けて移動するオブジェクトが、前記投影面を通過して、前記投影面から所定の距離だけ離れた位置に到達した場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。
 また、空気発射装置制御部114は、前記オブジェクトの前記投影面からの移動量に応じて、発射口52からの空気の発射タイミングを変化させるようにしてもよい。また、空気発射装置制御部114は、前記オブジェクトが前記投影面から所定距離だけ離れた位置に到達するタイミングに応じて、発射口52からの空気の発射タイミングを変化させるようにしてもよい。前記オブジェクトが前記投影面から所定距離だけ離れた位置に到達するタイミングは、前記オブジェクトの速度或いは加速度に基づき判定することができる。
 また、空気発射装置制御部114は、空気発射装置50の発射口52の口径が変更可能に構成されている場合に、移動処理部112による処理結果に基づいて、発射口52の口径の大きさを変更する制御を行い、発射口52から空気を発生させる制御を行うようにしてもよい。例えば、空気発射装置制御部114は、空気発射装置50の発射口52の口径を変化させるための駆動部(例えば、絞り機構を駆動するモータ)に対して制御信号を出力することで、発射口52の口径を変更する制御を行うようにしてもよい。
 また、空気発射装置制御部114は、前記オブジェクトの前記投影面からの移動量に応じて、発射口52の口径を変更する制御を行うようにしてもよい。また、空気発射装置制御部114は、前記オブジェクトの速度に応じて、発射口52の口径を変更する制御を行うようにしてもよい。
 また、空気発射装置制御部114は、前記オブジェクトが前記オブジェクト空間内の所定のエリアに入った場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。
 仮想カメラ制御部118は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、入力部160によりプレーヤが入力した入力情報或いはプログラム(移動・動作アルゴリズム)等に基づいて、ワールド座標系における仮想カメラの位置(X、Y、Z)又は光軸の方向(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度等)を制御する処理を行う。要するに、視点位置、仮想カメラの向き、画角を制御する処理を行う。
 また、2眼式の立体視方式により立体視画像を表示する場合には、仮想カメラ制御部118は、左眼用仮想カメラ及び右眼用仮想カメラの位置、向き及び画角を制御する。また、仮想カメラ制御部118は、左眼用仮想カメラと右眼用仮想カメラを設定するための基準となる基準仮想カメラ(センターカメラ)の制御を行い、基準仮想カメラの位置、向き及び左眼用及び右眼用仮想カメラ間の距離情報に基づいて、左眼用及び右眼用仮想カメラの位置、向きを制御するようにしてもよい。多眼立体視画像の場合も同様に、多眼仮想カメラのそれぞれについて位置、向きを制御すればよい。また、空間像方式水平・垂直両方向に視差を持つ方式を含むの場合には、仮想カメラの位置、向き及び画角の少なくとも1つを制御して、それに基づく空間座標変換により、仮想空間全体をいったん変換する。その後、変換後の空間内に配置されたオブジェクト等を、それぞれの立体視表示方式に基づいて描画することで、上記の効果を得ることができる。
 画像生成部120は、処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。
 いわゆる3次元画像を生成する場合には、まずオブジェクトの各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。
 頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、射影変換(透視変換、投影変換)、ビューポート変換(スクリーン座標変換)、光源計算等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。ジオメトリ処理後のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。
 そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。
 ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。
 そして画像生成部120は、オブジェクトを描画する際に、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。
 テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。
 隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。
 αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。例えば、通常αブレンディングでは、α値を合成の強さとして線形補間を行うことにより2つの色を合成した色を求める処理を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えばRGBの各色成分の輝度を表す色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。
 特に本実施形態の画像生成部120は、立体視画像を表示部190に出力する。例えば、立体視方式が2眼式の場合であれば、画像生成部120は、左眼用画像生成部124と右眼用画像生成部126を含む。左眼用画像生成部124は、オブジェクト空間内において左眼用仮想カメラから見える画像である左眼用画像を生成し、右眼用画像生成部126は、オブジェクト空間内において右眼用仮想カメラから見える画像である右眼用画像を生成する。具体的には、左眼用画像生成部124は、オブジェクト空間内の投影面に対してオブジェクトを左眼用仮想カメラの視点で透視投影して描画することで左眼用画像を生成し、右眼用画像生成部126は、投影面に対してオブジェクトを右眼用仮想カメラの視点で透視投影して描画することで右眼用画像を生成する。また、立体視方式が多眼式の場合であれば、画像生成部120は、多眼仮想カメラのそれぞれから見える画像を生成する。
 音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。
 また、音生成部130は、空気発射装置50の発射口52から空気が発射されるタイミングでゲーム音(効果音等)を生成して音出力部192に出力してもよい。また、音生成部130は、空気発射装置50の発射口52から空気が発射されるタイミングでゲーム音(効果音、BGM等)の音量を大きくする制御を行うようにしてもよい。また、音生成部130は、空気発射装置50の発射口52から空気が発射されるタイミングで、空気の発射音に対して逆位相となる音を生成して音出力部192に出力してもよい。
 また、音生成部130は、空気発射装置50の発射口52からの空気の発射に応じて音像定位が変化するゲーム音を生成して音出力部192に出力してもよい。例えば、音生成部130は、発射口52から発射された空気(渦輪)の移動に連動して音像定位が変化する音を生成してもよい。
 また、音生成部130は、オブジェクトの位置に応じて音像定位が変化する音を生成してもよい。例えば、オブジェクトが前記第1のエリアに位置することで該オブジェクトが画面よりも手前側に飛び出して見える場合には、該オブジェクトに対応する音の音像定位を画面よりも手前側の位置に設定し、オブジェクトが前記第2のエリアに位置することで該オブジェクトが画面よりも奥側に引っ込んで見える場合には、該オブジェクトに対応する音の音像定位を画面よりも奥側の位置に設定してもよい。また、オブジェクトの移動に連動して音像定位の位置を移動させるようにしてもよい。
 また、音生成部130は、発射口52から発射された空気がプレーヤに当たるタイミングで、音出力部192から出力されたゲーム音がプレーヤに届くように、ゲーム音の出力制御を行ってもよい。
 また、処理部100は、空気発射装置制御部114による空気発射装置50の制御に応じて座席60を振動させる制御を行う振動制御部を更に備えていてもよい。振動制御部は、制御信号を生成して座席60が備える振動部に出力することで、座席60を振動させる制御を行う。例えば、振動制御部は、発射口52から発射された空気が座席60に着座したプレーヤに当たるタイミングに合わせて、座席60を振動させる制御を行う。
 また、ゲームシステム10は、光を出射する1又は複数の光源(演出用光源)を更に備えていてもよく、処理部100は、前記光源を制御する光源制御部を更に備えていてもよい。光源制御部は、ゲーム進行状況に応じて光源から出射される光を変化させる制御を行ってもよい。例えば、光源制御部は、敵キャラクタ(例えば、標的オブジェクト)が攻撃状態にある場合に、光源から出射される光の色を変化させる(例えば、光の色を赤色にする)制御を行ってもよい。また、光源制御部は、空気発射装置50の発射口52から空気が発射された場合に、前記光源から出射される光を変化させる制御を行ってもよい。光源は、表示部12或いは空気発射装置50の近傍に配置してもよいし、空気発射装置50のケース53内部に設けてもよい。
 3.本実施形態の手法
 次に本実施形態の手法について図面を用いて説明する。
 3-1.立体視用画像の生成手法
 まず、立体視用画像を生成する手法について説明する。図5に示すように、2眼式の立体視方式では、プレーヤの両眼の幅に対応する距離だけ離れた左眼用仮想カメラVCLと右眼用仮想カメラVCRをオブジェクト空間に設定する。そして、左眼用仮想カメラVCLに対応して左眼用ビューボリュームVVLが設定され、右眼用仮想カメラVCRに対応して右眼用ビューボリュームVVRが設定される。
 左眼用、右眼用ビューボリュームVVL、VVRは、左眼用、右眼用仮想カメラVCL、VCRの位置、向き、画角及び投影面SPの位置によって上下左右の構成面が決定される視錐台の領域である。投影面SPは、表示部190(ディスプレイ12)の画面に対応する面であり、プレーヤの視点位置に相当する左眼用、右眼用仮想カメラVCL、VCRの位置及び向きと、プレーヤの視点位置と表示部190の画面(表示画面13)との位置関係とに基づき設定される。なお、図5において、NPL、FPLは、それぞれ左眼用ビューボリュームVVLのニアクリップ面、ファークリップ面であり、NPR、FPRは、それぞれ右眼用ビューボリュームVVRのニアクリップ面、ファークリップ面である。
 左眼用仮想カメラVCLから見える画像である左眼用画像は、左眼用ビューボリュームVVL内に存在するオブジェクトを投影面SPに透視投影して描画することで生成される。同様に、右眼用仮想カメラVCRから見える画像である右眼用画像は、右眼用ビューボリュームVVR内に存在するオブジェクトを投影面SPに透視投影して描画することで生成される。
 ここで、オブジェクトが投影面SP上に位置する場合には、左眼用画像でのオブジェクトの描画位置と右眼用画像でのオブジェクトの描画位置は一致し、オブジェクトの画像の視差は無くなる。この場合、プレーヤからはオブジェクトが表示部190の画面上に存在するように見える。
 また、オブジェクトが、投影面SPよりも左眼用、右眼用仮想カメラVCL、VCRからみて手前側のエリア(投影面SPとニアクリップ面NPL、NPRに挟まれたエリア)である第1のエリアAR1に位置する場合には、図6Aに示すように、左眼用画像でのオブジェクトOBLの描画位置は、右眼用画像でのオブジェクトOBRの描画位置に対して右側にずれ、プレーヤからはオブジェクトが表示部190の画面よりも手前側に飛び出しているように見える。
 また、オブジェクトが、投影面SPよりも左眼用、右眼用仮想カメラVCL、VCRからみて奥側のエリア(投影面SPとファークリップ面FPL、FPRに挟まれたエリア)である第2のエリアAR2に位置する場合には、図6Bに示すように、左眼用画像でのオブジェクトOBLの描画位置は、右眼用画像でのオブジェクトOBRの描画位置に対して左側にずれ、プレーヤからはオブジェクトが表示部190の画面よりも奥側に引っ込んでいるように見える。
 本実施形態では、オブジェクト空間におけるオブジェクトの位置に基づき空気発射装置50を制御する。例えば、画面よりも手前側に飛び出しているように見える飛び出し空間を再現する第1のエリアAR1に位置するオブジェクトがある場合に、空気発射装置50の発射口52から空気を発射させる制御を行う。このようにすると、空気発射装置50を用いて立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。また、画面よりも奥側に引っ込んでいるように見える奥行き空間を再現する第2のエリアAR2に位置するオブジェクトがある場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。このようにすると、空気発射装置50を用いて立体視の奥行き演出による演出効果を補強してより効果的なゲーム演出を行うことができる。
 3-2.空気発射装置の制御
 本実施形態では、図7に示すように、投影面SPよりも仮想カメラVCL、VCRから見て奥側のエリアである第2のエリアAR2から投影面SPよりも仮想カメラVCL、VCRから見て手前側のエリアである第1のエリアAR1まで移動するオブジェクトOBが存在する場合に、空気発射装置50の発射口52から空気を発射させる制御を行う。
 例えば、第2のエリアAR2から第1のエリアAR1に向けて移動するオブジェクトOBが投影面SPを通過するタイミングで空気発射装置50から空気を発射させるようにしてもよいし、オブジェクトOBが投影面SPを通過する直前又は直後のタイミングで空気発射装置50から空気を発射させるようにしてもよい。このようにすると、オブジェクトOBが表示画面13よりも手前側に飛び出して見えるタイミングで表示画面13の近傍に位置する空気発射装置50から発射された空気(渦輪VR)をプレーヤの身体の一部に当てることができ、あたかも表示画面13から飛び出して見えるオブジェクトOBにより生じた衝撃(或いは、表示画面13から飛び出して見えるオブジェクトOB自体)が身体に当たったような感覚をプレーヤに与えることができる。すなわち、立体視の飛び出し演出による効果を、空気発射装置50から発射された空気により補強することができ、より効果的なゲーム演出を行うことができる。
 また、第2のエリアAR2から第1のエリアAR1に向けて移動するオブジェクトOBの第1のエリアAR1における投影面SPからのZ軸方向の距離D(移動量)、或いは速度に応じて、空気発射装置50からの空気の発射タイミングを変化させるようにしてもよい。
 例えば、オブジェクトOBが投影面SPを通過して投影面SPから距離Dだけ離れた位置に到達したときに、発射口52から発射された空気がプレーヤPの身体に当たるように、空気発射装置50からの空気の発射タイミングを制御してもよい。
 すなわち、図8Aに示すように、移動するオブジェクトOBが時間Tにおいて投影面SPを通過し、時間Tにおいて投影面SPから距離Dの位置に到達するとした場合に、発射口52から発射された空気が時間TにおいてプレーヤPの身体に当たるような発射タイミング(例えば時間T)で発射口52から空気を発射させる制御を行う。ここで、発射口52から空気が発射されてからプレーヤPに到達するまでに掛かる時間をΔtとすると、発射タイミングTは、T=T-Δtにより求めることができる。
 なお、図8Aに示すように、オブジェクトOBの速度が同一であれば、距離Dが小さいほどオブジェクトOBが距離Dに到達する時間Tが早くなるため、距離Dが小さいほど発射タイミングTは早いタイミングとなる。一方、距離Dが同一であれば、オブジェクトOBの速度が大きいほどオブジェクトOBが距離Dに到達する時間Tが早くなるため、オブジェクトOBの速度が大きいほど発射タイミングTは早いタイミングとなる。
 また、空気発射装置50からの空気の発射タイミングを変化させることに代えて、空気発射装置50から発射される空気の速度を変化させるようにしてもよい。例えば、図9に示すように、空気発射装置50の発射口52の口径を、複数の絞り羽根から構成される絞り機構57により変更可能に構成し、絞り機構57を駆動制御して発射口52の口径を変更することで、発射口52から発射される空気の速度を変化させることができる。すなわち、発射口52の口径を小さくするほど、発射口52から発射される空気の速度を大きくすることができる。
 例えば、図8Bに示すように、移動するオブジェクトOBが時間Tにおいて投影面SPを通過し、時間Tにおいて投影面SPから距離Dの位置に到達するとした場合に、発射口52から発射された空気が時間TにおいてプレーヤPの身体に当たるような発射速度で発射口52から空気を発射させる制御を行う。すなわち、距離Dが大きい場合(或いはオブジェクトOBの速度が小さい場合)には、発射口52の口径を大きくして発射口52から発射される空気の速度を小さくし(Δtを大きくする)、距離Dが小さい場合(或いはオブジェクトOBの速度が大きい場合)には、発射口52の口径を小さくして発射口52から発射される空気の速度を大きくする(Δtを小さくする)制御を行う。
 なお、図8A、図8Bにおいて、オブジェクトOBが投影面SPを通過してから距離Dに到達するまでの時間がΔtよりも短い場合には、オブジェクトOBが投影面OBを通過する前のタイミングで発射口52から空気を発射させることになる。
 このように、オブジェクトOBが投影面SPから距離Dの位置に到達したときに、発射口52から発射された空気がプレーヤPの身体に当たるように、空気発射装置50の発射タイミング或いは発射速度を制御することで、あたかも表示画面13から飛び出して見えるオブジェクトOBにより生じた衝撃(或いは、表示画面13から飛び出して見えるオブジェクトOB自体)が身体に当たったような感覚をプレーヤに与えることができる。すなわち、表示画面13から飛び出して見えるオブジェクトOBと、発射口52から発射された空気とを密接に関連付けることができ、立体視の飛び出し演出による効果を補強することができる。
 また、発射口52から発射された空気がプレーヤPの身体に当たるタイミングで、プレーヤPが着座する座席60を振動させるようにしてもよい。このようにすると、立体視の飛び出し演出による効果を、空気発射装置50から発射された空気と座席60の振動により効果的に補強することができる。
 なお、第1のエリアAR1におけるオブジェクトOBの投影面SPからの距離Dが大きいほど、発射口52から発射される空気の速度が大きくなるように制御してもよい。このようにすると、オブジェクトOBの表示画面13からの飛び出し量(距離Dに相当)が大きいほど、発射口52から発射される空気の勢いが強くなる、といった演出を行うことができ、立体視の飛び出し演出による効果を補強することができる。
 また、発射口52の口径を変化させることに代えて、空気発射装置50のスピーカ54に出力する信号の振幅を変化させることで、発射口52から発射される空気の勢い(強さ)を変化させるようにしてもよい。また、モータやソレノイドを用いて空気発射装置50を構成する場合には、当該モータやソレノイドに出力する電流・電圧を変化させるようにしてもよい。
 また、空気発射装置50からの空気の発射と演出用光源による光の演出を連動させるようにしてもよい。例えば、空気発射装置50の発射口52から空気が発射されるタイミングで、演出用光源を点灯或いは点滅させるようにしてもよいし、演出用光源から出射される光の強度、色或いは点滅状態を変化させるようにしてもよい。また、演出用光源を、空気発射装置50の内部に設け、発射口52から光を出射させるようにしてもよい。また、演出用光源を、発射口52から発射される空気(渦輪)に向け、渦輪を可視化するようにしてもよい。このようにすると、立体視の飛び出し演出による効果を、空気発射装置50から発射された空気と演出用光源からの光により効果的に補強することができる。
 3-3.ゲーム音の制御
 本実施形態では、空気発射装置50の発射口52から空気が発射されるタイミングでゲーム音を生成して音出力部192に出力する。例えば、図10Aに示すように、空気発射装置50のスピーカ54に入力信号(ここでは、一波長分の矩形波信号)が入力されている間、所与のゲーム音(効果音など)が音出力部192から出力されるように制御する。また、空気発射装置50のスピーカ54に入力信号が入力されている間だけ、音出力部192から出力されるゲーム音の音量を大きくする制御を行ってもよい。このようにすると、空気発射装置50から空気が発射されるときに発生する発射音をプレーヤに聞こえ難くすることができ、空気発射装置50の存在をプレーヤに意識させないようにすることができる。
 また、図10Bに示すように、空気発射装置50のスピーカ54に入力信号が入力されている間、該入力信号と逆位相の波形の音をゲーム音として音出力部192から出力されるように制御してもよい。このようにすると、空気発射装置50による発射音をゲーム音により打ち消すことができ、空気発射装置50による発射音をプレーヤに聞こえ難くすることができる。なお、空気発射装置50の近傍にマイクロフォンを設置しておき、このマイクロフォンで検出された発射音と逆位相の音を生成して音出力部192から出力するようにしてもよい。また、空気発射装置50の発射口52の口径を変更すると、発射音の音色と音圧が変化する。従って、空気発射装置50の発射口52の口径の変更に応じて、発射音を打ち消すために出力するゲーム音の波形を変化させるようにしてもよい。
 また、空気発射装置50の発射口52からの空気の発射に応じて音像定位が変化するゲーム音を生成して音出力部192に出力してもよい。例えば、空気発射装置50の発射口52から発射された渦輪VRの移動に連動して音像定位が変化するゲーム音を生成して出力する。
 例えば、図11Aに示すように、空気発射装置50の発射口52の位置に仮想音源VSを設定しておき、発射口52から渦輪VRが発射された場合に、プレーヤPに向けて飛行する渦輪VRと同一方向に同一速度で仮想音源VSが移動するように制御しつつ、移動する仮想音源VSの位置に音像が定位するゲーム音を生成して出力する。このようにすると、立体視の飛び出し演出による効果を、空気発射装置50から発射された空気とゲーム音により効果的に補強することができる。例えば、図11Bに示すように、5台のスピーカ70を、プレーヤP(座席60)の前方、前方右側、前方左側、後方右側及び後方左側のそれぞれに配置することで、ゲーム音の音像定位を変化させることができる。
 また、空気発射装置50の発射口52から発射された渦輪VRがプレーヤPに当たるタイミングで、音出力部192から出力されたゲーム音がプレーヤPに届くように制御してもよい。このようにしても効果的なゲーム演出を行うことができる。
 4.処理
 次に、本実施形態のゲームシステムの処理の一例について図12のフローチャートを用いて説明する。
 まず、処理部100は、左眼用、右眼用仮想カメラVCL、VCRの位置、向きに基づき投影面SPを設定する(ステップS10)。これにより、仮想カメラから見て投影面SPよりも手前側の第1のエリアAR1が設定される。
 次に、移動・動作処理部112(移動処理部)は、オブジェクトをオブジェクト空間内で移動させる処理を行う(ステップS12)。
 次に、空気発射装置制御部114は、移動・動作処理部112の処理結果に基づき、第2のエリアAR2から第1のエリアAR1に向けて移動するオブジェクト(例えば、標的オブジェクト42)が投影面SPを通過したか否かを判断する(ステップS14)。オブジェクトが投影面SPを通過したと判断した場合(ステップS14のY)には、制御信号を生成して信号発生器56に出力することで、空気発射装置50の発射口52から空気を発射させる制御を行う(ステップS16)。
 ここで、音生成部130は、空気発射装置50の発射口52から空気が発射されるタイミングで、ゲーム音を生成して音出力部192に出力する(ステップS18)。また、オブジェクトが投影面SPを通過していない(既に投影面SPを通過していて、発射口52から空気を発射させる制御を行った場合を含む)と判断した場合(ステップS14のN)には、ステップS20の処理に進む。
 次に、左眼用画像生成部124、右眼用画像生成部126は、投影面SPにオブジェクトを透視投影して描画することで、左眼用、右眼用仮想カメラVCL、VCRから見える左眼用画像、右眼用画像を生成する(ステップS20)。
 次に、処理部100は、処理を続けるか否かを判断し(ステップS22)、処理を続ける場合には、ステップS10の処理に戻り、ステップS10以降の処理を1フレーム毎に繰り返す。
 なお、空気発射装置制御部114は、ステップS14において、オブジェクトの投影面SPからの移動量D(飛び出し量)やオブジェクトの速度が予めわかっている場合に、当該距離Dや速度に基づき、発射タイミングであるか否かを判断して、発射タイミングであると判断した場合に、ステップ16において、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。また、オブジェクトの距離Dや速度に基づき、発射口52の口径(空気の発射速度)を変化させて、発射口52から空気を発射させる制御を行うようにしてもよい。
 5.変形例
 本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
 例えば、空気発射装置50は、発射口52からの空気の発射角度が変更可能に構成されていてもよい。具体的には、空気発射装置50を所定の1軸或いは2軸周りに回転駆動する駆動機構を更に設けるようにしてもよい。そして、移動処理部の処理結果に応じて、空気発射装置50を回転させて、空気発射装置50の発射口52から発射された空気がプレーヤの身体の異なる部分に当たるように制御してもよい。例えば、オブジェクトが表示画面13からプレーヤの頭部に向かって飛び出して見えるように移動する場合には、発射口52から発射された空気がプレーヤの頭部に当たるように制御し、オブジェクトが表示画面13からプレーヤの腹部に向かって飛び出して見えるように移動する場合には、発射口52から発射された空気がプレーヤの腹部に当たるように制御してもよい。
 また、一のプレーヤに向けて空気を発射する空気発射装置50を複数設けて、移動処理部の処理結果に応じて、空気を発射させる空気発射装置を選択するようにしてもよい。例えば、オブジェクトが表示画面13からプレーヤの頭部に向かって飛び出して見えるように移動する場合には、発射口がプレーヤの頭部に向けられた第1の空気発射装置から空気を発射させる制御を行い、オブジェクトが表示画面13からプレーヤの腹部に向かって飛び出して見えるように移動する場合には、発射口がプレーヤの腹部に向けられた第2の空気発射装置から空気を発射させる制御を行うようにしてもよい。
50 空気発射装置、52 発射口、56 信号発生器、58 増幅器、100 処理部、110 オブジェクト空間設定部、112 移動・演算処理部(移動処理部)、114
 空気発射装置制御部、118 仮想カメラ制御部、120 画像生成部、124 左眼用画像生成部、126 右眼用画像生成部、130 音生成部、160 入力部、162
 検出部、170 記憶部、180 情報記憶媒体、190 表示部、192 音出力部、196 通信部

Claims (18)

  1.  発射口から空気を発射する空気発射装置と、
     ゲーム処理を行う処理部と、
     前記処理部の処理結果に基づき前記空気発射装置を制御する空気発射装置制御部と、
     前記処理部の処理結果に基づき立体視用画像を生成する画像生成部と、
     前記立体視用画像を表示する表示部とを含むことを特徴とするゲームシステム。
  2.  請求項1において、
     前記処理部は、
     オブジェクトをオブジェクト空間内で移動させる処理を行い、
     前記画像生成部は、
     前記オブジェクトの立体視用画像を生成することを特徴とするゲームシステム。
  3.  請求項2において、
     前記空気発射装置制御部は、
     前記オブジェクト空間内の投影面よりも視点から見て手前側の第1のエリアに位置するオブジェクトがある場合に、前記空気発射装置の発射口から空気を発射させる制御を行うことを特徴とするゲームシステム。
  4.  請求項3において、
     前記空気発射装置制御部は、
     前記投影面よりも視点から見て奥側の第2のエリアから前記第1のエリアまで移動する前記オブジェクトがある場合に、前記空気発射装置の発射口から空気を発射させる制御を行うことを特徴とするゲームシステム。
  5.  請求項4において、
     前記空気発射装置制御部は、
     前記オブジェクトの前記投影面からの移動量に応じて、前記発射口からの空気の発射タイミングを変化させることを特徴とするゲームシステム。
  6.  請求項5において、
     前記空気発射装置制御部は、
     前記オブジェクトが前記投影面から所定距離だけ離れた位置に到達するタイミングに応じて、前記発射口からの空気の発射タイミングを変化させることを特徴とするゲームシステム。
  7.  請求項4乃至6のいずれかにおいて、
     前記空気発射装置は、
     前記発射口の口径が変更可能に構成され、
     前記空気発射装置制御部は、
     前記オブジェクトの前記投影面からの移動量に応じて、前記発射口の口径を変更する制御を行うことを特徴とするゲームシステム。
  8.  請求項4乃至7のいずれかにおいて、
     前記空気発射装置は、
     前記発射口の口径が変更可能に構成され、
     前記空気発射装置制御部は、
     前記オブジェクトの速度に応じて、前記発射口の口径を変更する制御を行うことを特徴とするゲームシステム。
  9.  請求項2乃至8のいずれかにおいて、
     前記空気発射装置制御部は、
     前記オブジェクトが前記オブジェクト空間内の所定のエリアに入った場合に、前記空気発射装置の発射口から空気を発射させる制御を行うことを特徴とするゲームシステム。
  10.  請求項1乃至9のいずれかにおいて、
     プレーヤが所定位置でゲームプレイ可能に構成され、
     前記空気発射装置は、
     前記発射口から発射された空気が前記所定位置でゲームプレイするプレーヤに当たるように配置されていることを特徴とするゲームシステム。
  11.  請求項10において、
     前記空気発射装置は、
     前記表示部の近傍に配置され、前記発射口が前記プレーヤの位置に向けて開口されていることを特徴とするゲームシステム。
  12.  請求項10又は11において、
     振動可能に構成されたプレーヤ用の座席と、
     前記発射口から発射された空気が前記座席に着座したプレーヤに当たるタイミングに合わせて、前記座席を振動させる制御を行う振動制御部とを更に含むことを特徴とするゲームシステム。
  13.  請求項1乃至12のいずれかにおいて、
     前記空気発射装置は、
     前記発射口からの空気の発射角度が変更可能に構成されていることを特徴とするゲームシステム。
  14.  請求項1乃至13のいずれかにおいて、
     ゲーム音を出力する音出力部と、
     前記空気発射装置の発射口から空気が発射されるタイミングでゲーム音を生成して前記音出力部に出力する音生成部とを更に含むことを特徴とすることを特徴とするゲームシステム。
  15.  請求項1乃至14のいずれかにおいて、
     ゲーム音を出力する音出力部と、
     前記空気発射装置の発射口からの空気の発射に応じて音像定位が変化するゲーム音を生成して前記音出力部に出力する音生成部とを更に含むことを特徴とすることを特徴とするゲームシステム。
  16.  請求項15において、
     前記音出力部は、
     プレーヤの前方と後方のそれぞれに配置されていることを特徴とするゲームシステム。
  17.  請求項1乃至16のいずれかにおいて、
     光を出射する光源と、
     前記光源を制御する光源制御部とを更に含み、
     前記光源制御部は、
     前記空気発射装置の発射口から空気が発射された場合に、前記光源から出射される光を変化させる制御を行うことを特徴とするゲームシステム。
  18.  発射口から空気を発射する空気発射装置と、
     プレーヤが把持して操作するコントローラと、
     オブジェクト空間内で標的オブジェクトを移動させ、前記コントローラからの入力情報に基づき前記コントローラが指示している表示画面上の位置を演算し、演算された位置が前記標的オブジェクトの表示位置と一致するか否かを判定し、判定結果に基づき演出画像を表示させるゲーム処理を行う処理部と、
     前記オブジェクト空間における前記標的オブジェクトの位置に基づき、前記空気発射装置の発射口から空気を発射させる制御を行う空気発射装置制御部と、
     前記標的オブジェクトの立体視用画像を生成する画像生成部と、
     前記立体視用画像を表示する表示部と、
     振動可能に構成されたプレーヤ用の座席と、
     前記座席を振動させる制御を行う振動制御部と、
     ゲーム音を出力する音出力する音出力部と、
     ゲーム音を生成して前記音出力部に出力する音生成部とを含み、
     前記空気発射装置は、
     前記発射口から発射された空気が前記座席に着座したプレーヤに当たるように配置され、
     前記振動制御部は、
     前記発射口から発射された空気が前記座席に着座したプレーヤに当たるタイミングに合わせて、前記座席を振動させる制御を行い、
     前記音生成部は、
     発射口から空気が発射されるタイミングでゲーム音を生成して前記音出力部に出力することを特徴とするゲームシステム。
PCT/JP2012/052918 2011-03-30 2012-02-09 ゲームシステム WO2012132563A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201280014105.1A CN103442775B (zh) 2011-03-30 2012-02-09 游戏系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011075131A JP5809428B2 (ja) 2011-03-30 2011-03-30 ゲームシステム
JP2011-075131 2011-03-30

Publications (1)

Publication Number Publication Date
WO2012132563A1 true WO2012132563A1 (ja) 2012-10-04

Family

ID=46930328

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/052918 WO2012132563A1 (ja) 2011-03-30 2012-02-09 ゲームシステム

Country Status (3)

Country Link
JP (1) JP5809428B2 (ja)
CN (1) CN202516288U (ja)
WO (1) WO2012132563A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014144080A (ja) * 2013-01-28 2014-08-14 Taito Corp ゲーム装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709229B (zh) * 2015-11-12 2019-07-12 网易(杭州)网络有限公司 一种游戏系统中npc对象优先响应的方法及装置
JP6935218B2 (ja) * 2017-03-31 2021-09-15 株式会社バンダイナムコアミューズメント シミュレーションシステム及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0747065B2 (ja) * 1986-11-17 1995-05-24 株式会社ナムコ 業務用の立体画像ゲーム装置及び業務用の立体画像の形成方法
JPH1133224A (ja) * 1997-07-22 1999-02-09 Namco Ltd 空気弾発生装置、ゲーム装置及び演出装置
JP3273038B2 (ja) * 1999-11-17 2002-04-08 株式会社ナムコ 仮想体験型ゲーム装置
JP3360837B2 (ja) * 1991-03-23 2003-01-07 株式会社ナムコ 気分転換装置
JP2003181137A (ja) * 2001-12-21 2003-07-02 Konami Co Ltd ゲーム方法、ゲームプログラム、ゲーム装置及びゲームシステム
JP2010233783A (ja) * 2009-03-31 2010-10-21 Taito Corp ゲームシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0747065B2 (ja) * 1986-11-17 1995-05-24 株式会社ナムコ 業務用の立体画像ゲーム装置及び業務用の立体画像の形成方法
JP3360837B2 (ja) * 1991-03-23 2003-01-07 株式会社ナムコ 気分転換装置
JPH1133224A (ja) * 1997-07-22 1999-02-09 Namco Ltd 空気弾発生装置、ゲーム装置及び演出装置
JP3273038B2 (ja) * 1999-11-17 2002-04-08 株式会社ナムコ 仮想体験型ゲーム装置
JP2003181137A (ja) * 2001-12-21 2003-07-02 Konami Co Ltd ゲーム方法、ゲームプログラム、ゲーム装置及びゲームシステム
JP2010233783A (ja) * 2009-03-31 2010-10-21 Taito Corp ゲームシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LET'S GO ISLAND 3D, SEGA AOU2011 AMUSEMENT EXPO SEGA BOOTH OMONA SHUTTEN KISHU NO SHOKAI, 18 February 2011 (2011-02-18) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014144080A (ja) * 2013-01-28 2014-08-14 Taito Corp ゲーム装置

Also Published As

Publication number Publication date
JP2012205827A (ja) 2012-10-25
CN103442775A (zh) 2013-12-11
CN202516288U (zh) 2012-11-07
JP5809428B2 (ja) 2015-11-10

Similar Documents

Publication Publication Date Title
JP6438207B2 (ja) 画像生成システム及びプログラム
JP5597837B2 (ja) プログラム、情報記憶媒体、及び、画像生成装置
JP5614956B2 (ja) プログラム、画像生成システム
JP5149337B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP5568230B2 (ja) プログラム、情報記憶媒体、及びゲームシステム
CN105993167B (zh) 图像生成系统、图像生成方法及信息存储介质
JPH04134489A (ja) 画像合成装置、方法及びこれを用いた射撃ゲーム装置
JP4758499B2 (ja) 画像生成システム及び情報記憶媒体
JP2011101752A (ja) プログラム、情報記憶媒体、及び、画像生成装置
JP2011212123A (ja) プログラム、情報記憶媒体、及び端末
JP5443129B2 (ja) プログラム及びネットワークシステム
JP2011053838A (ja) プログラム、情報記憶媒体、及び、画像生成装置
JP5809428B2 (ja) ゲームシステム
JPH11259686A (ja) 画像生成装置及び情報記憶媒体
JP2004298305A (ja) 画像生成情報、情報記憶媒体及び画像生成装置
JP2018171319A (ja) シミュレーションシステム及びプログラム
JP2006277722A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP4377415B2 (ja) ゲーム装置及び情報記憶媒体
WO2013118691A1 (ja) ゲームシステム
JP4367810B2 (ja) 画像生成システム及び情報記憶媒体
JP2008067853A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2011096017A (ja) プログラム、情報記憶媒体、及び端末
JP2006277352A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2011255114A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2012141826A (ja) プログラム、情報記憶媒体、画像生成システム及びサーバシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12764133

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12764133

Country of ref document: EP

Kind code of ref document: A1