JP5809428B2 - Game system - Google Patents

Game system Download PDF

Info

Publication number
JP5809428B2
JP5809428B2 JP2011075131A JP2011075131A JP5809428B2 JP 5809428 B2 JP5809428 B2 JP 5809428B2 JP 2011075131 A JP2011075131 A JP 2011075131A JP 2011075131 A JP2011075131 A JP 2011075131A JP 5809428 B2 JP5809428 B2 JP 5809428B2
Authority
JP
Japan
Prior art keywords
air
game
sound
player
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011075131A
Other languages
Japanese (ja)
Other versions
JP2012205827A (en
JP2012205827A5 (en
Inventor
典洋 西村
典洋 西村
広忠 吉田
広忠 吉田
小原 利也
利也 小原
慶一 尾作
慶一 尾作
克典 木水
克典 木水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2011075131A priority Critical patent/JP5809428B2/en
Priority to CN201220040884XU priority patent/CN202516288U/en
Priority to CN201280014105.1A priority patent/CN103442775B/en
Priority to PCT/JP2012/052918 priority patent/WO2012132563A1/en
Publication of JP2012205827A publication Critical patent/JP2012205827A/en
Publication of JP2012205827A5 publication Critical patent/JP2012205827A5/ja
Application granted granted Critical
Publication of JP5809428B2 publication Critical patent/JP5809428B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/302Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device specially adapted for receiving control signals not targeted to a display device or game input means, e.g. vibrating driver's seat, scent dispenser
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ゲームシステムに関する。   The present invention relates to a game system.

従来から、立体視を実現する画像生成システムが知られている(例えば、特許文献1)。例えば、2眼式の立体視画像生成システムでは、左眼用画像と右眼用画像を生成する。そして、立体視用の眼鏡や、視差バリア或いはレンチキュラ等の光学素子を用いて、プレーヤの左眼には左眼用画像のみが見え、右眼には右眼用画像のみが見えるようにすることで、立体視を実現する。また、発射口から空気を発射させる空気砲を備えたゲーム装置が知られている(例えば、特許文献2)。   Conventionally, an image generation system that realizes stereoscopic viewing is known (for example, Patent Document 1). For example, in a binocular stereoscopic image generation system, a left-eye image and a right-eye image are generated. Then, using a stereoscopic eyeglass or an optical element such as a parallax barrier or lenticular, the player's left eye can see only the left eye image, and the right eye can see only the right eye image. Thus, stereoscopic viewing is realized. In addition, a game device including an air cannon that emits air from a launch port is known (for example, Patent Document 2).

特開2004−126902号公報JP 2004-126902 A 特開2010−233783号公報JP 2010-233783 A

立体視画像生成システムでは、画面よりも奥側に引っ込んでいるように見える奥行き空間と、画面よりも手前側に飛び出しているように見える飛び出し空間とを再現することができ、これによりプレーヤに立体視感を感じさせる演出を行っている。そして、立体視画像生成システムでは、立体視による視覚的な演出効果を補強して、より効果的なゲーム演出を行うことが望まれる。   In the stereoscopic image generation system, it is possible to reproduce a depth space that appears to be retracted to the back side of the screen and a pop-up space that appears to protrude to the near side of the screen, which allows the player to reproduce the three-dimensional image. The production is made to make you feel visually. In the stereoscopic image generation system, it is desired to reinforce the visual presentation effect by the stereoscopic vision and perform a more effective game presentation.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、空気発射装置を用いて立体視による視覚的な演出効果を補強することが可能なゲームシステムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a game system that can reinforce a visual effect by stereoscopic viewing using an air emission device. There is to do.

(1)本発明に係るゲームシステムは、
発射口から空気を発射する空気発射装置と、
ゲーム処理を行う処理部と、
前記処理部の処理結果に基づき前記空気発射装置を制御する空気発射装置制御部と、
前記処理部の処理結果に基づき立体視用画像を生成する画像生成部と、
前記立体視用画像を表示する表示部とを含むことを特徴とするゲームシステムに関する。
(1) A game system according to the present invention includes:
An air launcher that launches air from a launch port;
A processing unit for performing game processing;
An air launcher controller that controls the air launcher based on the processing result of the processor;
An image generation unit that generates a stereoscopic image based on a processing result of the processing unit;
The present invention also relates to a game system including a display unit that displays the stereoscopic image.

本発明によれば、ゲーム処理の処理結果に基づき前記空気発射装置を制御することで、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。   According to the present invention, by controlling the air emission device based on the processing result of the game process, it is possible to reinforce the visual effect by stereoscopic viewing and perform a more effective game effect.

(2)本発明に係るゲームシステムは、
前記処理部は、
オブジェクトをオブジェクト空間内で移動させる処理を行い、
前記画像生成部は、
前記オブジェクトの立体視用画像を生成してもよい。
(2) A game system according to the present invention includes:
The processor is
Perform processing to move the object in the object space,
The image generation unit
A stereoscopic image of the object may be generated.

本発明によれば、オブジェクトをオブジェクト空間内で移動させる処理を行う処理部の処理結果に基づき前記空気発射装置を制御することで、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。   According to the present invention, the air emission device is controlled based on the processing result of the processing unit that performs the process of moving the object in the object space, thereby reinforcing the visual presentation effect by the stereoscopic view and more effective. Game production can be performed.

(3)また本発明に係るゲームシステムでは、
前記空気発射装置制御部は、
前記オブジェクト空間内の投影面よりも視点から見て手前側の第1のエリアに位置するオブジェクトがある場合に、前記空気発射装置の発射口から空気を発射させる制御を行ってもよい。
(3) In the game system according to the present invention,
The air launcher controller is
When there is an object located in the first area on the near side as viewed from the viewpoint of the projection plane in the object space, control may be performed to emit air from the emission port of the air emission device.

本発明において、オブジェクト空間内の投影面とは、投影面に位置するオブジェクトの画像の視差が無くなる面をいう。   In the present invention, the projection plane in the object space refers to a plane where the parallax of the image of the object located on the projection plane is eliminated.

本発明によれば、画面よりも手前側に飛び出しているように見える飛び出し空間にオブジェクトがある場合に空気発射装置から空気を発射させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。   According to the present invention, when there is an object in the projecting space that appears to project to the near side of the screen, it is possible to fire air from the air launching device, reinforcing the effect of the stereoscopic projecting effect. More effective game production can be performed.

(4)また本発明に係るゲームシステムでは、
前記空気発射装置制御部は、
前記投影面よりも視点から見て奥側の第2のエリアから前記第1のエリアまで移動する前記オブジェクトがある場合に、前記空気発射装置の発射口から空気を発射させる制御を行うようにしてもよい。
(4) In the game system according to the present invention,
The air launcher controller is
When there is the object that moves from the second area on the back side as viewed from the perspective of the projection plane to the first area, control is performed to emit air from the outlet of the air emission device. Also good.

また前記空気発射装置制御部は、前記第2のエリアから前記第1のエリアまで移動する前記オブジェクトが前記投影面を通過した場合に、前記空気発射装置の発射口から空気を発射させる制御を行ってもよい。   Further, the air emission device control unit performs control to emit air from the emission port of the air emission device when the object moving from the second area to the first area passes through the projection plane. May be.

本発明によれば、飛び出し空間に向かって移動するオブジェクトがある場合に空気発射装置から空気を発射させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。   According to the present invention, when there is an object moving toward the pop-out space, air can be discharged from the air launch device, and the effect of the stereoscopic pop-out effect is reinforced and a more effective game effect is performed. be able to.

(5)また本発明に係るゲームシステムでは、
前記空気発射装置制御部は、
前記オブジェクトの前記投影面からの移動量に応じて、前記発射口からの空気の発射タイミングを変化させてもよい。
(5) In the game system according to the present invention,
The air launcher controller is
The firing timing of air from the launching port may be changed according to the amount of movement of the object from the projection plane.

本発明によれば、オブジェクトの飛び出し量に応じて発射タイミングを変化させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。   According to the present invention, it is possible to change the firing timing according to the amount of jumping out of the object, and it is possible to reinforce the staging effect by the stereoscopic jumping out effect and perform a more effective game effect.

(6)また本発明に係るゲームシステムでは、
前記空気発射装置制御部は、
前記オブジェクトが前記投影面から所定距離だけ離れた位置に到達するタイミングに応じて、前記発射口からの空気の発射タイミングを変化させてもよい。
(6) In the game system according to the present invention,
The air launcher controller is
The timing at which the air is emitted from the outlet may be changed according to the timing at which the object reaches a position away from the projection plane by a predetermined distance.

本発明によれば、オブジェクトが飛び出し空間における所定位置に到達するタイミングに応じて発射タイミングを変化させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。   According to the present invention, the firing timing can be changed according to the timing at which the object reaches a predetermined position in the pop-out space, and the effect of the stereoscopic pop-out effect is reinforced and a more effective game effect is performed. Can do.

(7)また本発明に係るゲームシステムでは、
前記空気発射装置は、
前記発射口の口径が変更可能に構成され、
前記空気発射装置制御部は、
前記オブジェクトの前記投影面からの移動量に応じて、前記発射口の口径を変更する制御を行ってもよい。
(7) In the game system according to the present invention,
The air launcher is
The caliber of the launch port is configured to be changeable,
The air launcher controller is
Control may be performed to change the aperture of the launch port in accordance with the amount of movement of the object from the projection plane.

本発明によれば、オブジェクトの飛び出し量に応じて空気発射装置から発射される空気の移動速度を変化させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。   According to the present invention, it is possible to change the moving speed of the air emitted from the air launching device according to the amount of jumping out of the object, and to reinforce the staging effect by the stereoscopic jumping out effect, and to produce a more effective game effect. It can be carried out.

(8)また本発明に係るゲームシステムでは、
前記空気発射装置は、
前記発射口の口径が変更可能に構成され、
前記空気発射装置制御部は、
前記オブジェクトの速度に応じて、前記発射口の口径を変更する制御を行ってもよい。
(8) In the game system according to the present invention,
The air launcher is
The caliber of the launch port is configured to be changeable,
The air launcher controller is
You may perform control which changes the aperture diameter of the said ejection opening according to the speed of the said object.

本発明によれば、飛び出し空間にあるオブジェクトの速度に応じて空気発射装置から発射される空気の移動速度を変化させることができ、立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。   According to the present invention, it is possible to change the moving speed of the air emitted from the air launching device according to the speed of the object in the pop-up space, and to reinforce the effect of the stereoscopic pop-out effect, which is more effective. Game production can be performed.

(9)また本発明に係るゲームシステムでは、
前記空気発射装置制御部は、
前記オブジェクトが前記オブジェクト空間内の所定のエリアに入った場合に、前記空気発射装置の発射口から空気を発射させる制御を行うようにしてもよい。
(9) In the game system according to the present invention,
The air launcher controller is
When the object enters a predetermined area in the object space, control may be performed to emit air from the outlet of the air emission device.

本発明によれば、オブジェクトがオブジェクト空間内の所定エリアに入った場合に空気発射装置から空気を発射させることができ、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。   According to the present invention, when an object enters a predetermined area in the object space, air can be emitted from the air emission device, and the visual effect of stereoscopic viewing is reinforced and a more effective game effect is achieved. It can be carried out.

(10)また本発明に係るゲームシステムでは、
プレーヤが所定位置でゲームプレイ可能に構成され、
前記空気発射装置は、
前記発射口から発射された空気が前記所定位置でゲームプレイするプレーヤに当たるように配置されていてもよい。
(10) In the game system according to the present invention,
The player is configured to play a game at a predetermined position,
The air launcher is
It may be arranged so that air blown from the launch port hits a player who plays a game at the predetermined position.

また本発明に係るゲームシステムでは、前記表示部の前方に配置されたプレーヤ用の座席を更に含み、前記空気発射装置は、前記発射口から発射された空気が前記座席に着座したプレーヤに当たるように配置されていてもよい。   The game system according to the present invention further includes a player's seat arranged in front of the display unit, and the air emission device is configured such that the air emitted from the emission port strikes a player seated on the seat. It may be arranged.

本発明によれば、空気発射装置から発射された空気をプレーヤに確実に当てることができる。   According to the present invention, the air emitted from the air emission device can be reliably applied to the player.

(11)また本発明に係るゲームシステムでは、
前記空気発射装置は、
前記表示部の近傍に配置され、前記発射口が前記プレーヤの位置に向けて開口されていてもよい。
(11) In the game system according to the present invention,
The air launcher is
It may be arranged in the vicinity of the display unit, and the launch port may be opened toward the position of the player.

本発明によれば、空気発射装置から発射された空気を表示部側からプレーヤに当てることができ、より効果的なゲーム演出を行うことができる。   According to the present invention, air emitted from the air emission device can be applied to the player from the display unit side, and a more effective game effect can be performed.

(12)また本発明に係るゲームシステムでは、
振動可能に構成されたプレーヤ用の座席と、
前記発射口から発射された空気が前記座席に着座したプレーヤに当たるタイミングに合わせて、前記座席を振動させる制御を行う振動制御部とを更に含むようにしてもよい。
(12) In the game system according to the present invention,
A seat for a player configured to vibrate;
It may further include a vibration control unit that performs control to vibrate the seat in accordance with a timing at which the air discharged from the discharge port hits a player seated on the seat.

本発明によれば、空気発射装置からの空気の発射と座席の振動とを連動させることができ、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, discharge | release of the air from an air emission apparatus and vibration of a seat can be interlocked, and the visual production effect by stereoscopic vision can be reinforced and a more effective game production can be performed.

(13)また本発明に係るゲームシステムでは、
前記空気発射装置は、
前記発射口からの空気の発射角度が変更可能に構成されていてもよい。
(13) In the game system according to the present invention,
The air launcher is
You may be comprised so that the emission angle of the air from the said ejection opening can be changed.

本発明によれば、空気発射装置から発射された空気をプレーヤに当てる位置を変化させることができ、より効果的なゲーム演出を行うことができる。   According to the present invention, it is possible to change the position at which the air emitted from the air emission device is applied to the player, and a more effective game effect can be performed.

(14)また本発明に係るゲームシステムでは、
ゲーム音を出力する音出力部と、
前記空気発射装置の発射口から空気が発射されるタイミングでゲーム音を生成して前記音出力部に出力する音生成部とを更に含むようにしてもよい。
(14) In the game system according to the present invention,
A sound output unit for outputting game sounds;
It may further include a sound generation unit that generates a game sound at a timing when air is discharged from a discharge port of the air emission device and outputs the game sound to the sound output unit.

本発明によれば、空気発射装置から空気が発射されるときに発生する発射音をプレーヤに聞こえ難くすることができる。   According to the present invention, it is possible to make it difficult for the player to hear the sound generated when air is emitted from the air emission device.

(15)また本発明に係るゲームシステムでは、
ゲーム音を出力する音出力部と、
前記空気発射装置の発射口からの空気の発射に応じて音像定位が変化するゲーム音を生成して前記音出力部に出力する音生成部とを更に含むようにしてもよい。
(15) In the game system according to the present invention,
A sound output unit for outputting game sounds;
It may further include a sound generation unit that generates a game sound whose sound image localization changes according to the air emission from the air outlet of the air emission device and outputs the game sound to the sound output unit.

本発明によれば、空気発射装置から発射された空気と音像定位とを連動させることができ、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, the air and sound image localization which were emitted from the air emission apparatus can be made to interlock | cooperate, and the visual production effect by stereoscopic vision can be reinforced and a more effective game production can be performed.

(16)また本発明に係るゲームシステムでは、
前記音出力部は、
プレーヤの前方と後方のそれぞれに配置されていてもよい。
(16) In the game system according to the present invention,
The sound output unit is
You may arrange | position at each of the front and back of a player.

本発明によれば、音像定位が変化するゲーム音を容易に出力することができる。   According to the present invention, it is possible to easily output a game sound whose sound image localization changes.

(17)また本発明に係るゲームシステムでは、
光を出射する光源と、
前記光源を制御する光源制御部とを更に含み、
前記光源制御部は、
前記空気発射装置の発射口から空気が発射された場合に、前記光源から出射される光を変化させる制御を行うようにしてもよい。
(17) In the game system according to the present invention,
A light source that emits light;
A light source control unit for controlling the light source,
The light source controller is
Control may be performed to change the light emitted from the light source when air is emitted from the outlet of the air emission device.

本発明によれば、空気発射装置からの空気の発射と光源からの光の変化とを連動させることができ、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。   According to the present invention, it is possible to link the air emission from the air emission device and the change in the light from the light source, and to reinforce the visual effect by stereoscopic viewing and perform a more effective game effect. Can do.

(18)本発明に係るゲームシステムは、
発射口から空気を発射する空気発射装置と、
プレーヤが把持して操作するコントローラと、
オブジェクト空間内で標的オブジェクトを移動させ、前記コントローラからの入力情報に基づき前記コントローラが指示している表示画面上の位置を演算し、演算された位置が前記標的オブジェクトの表示位置と一致するか否かを判定し、判定結果に基づき演出画像を表示させるゲーム処理を行う処理部と、
前記オブジェクト空間における前記標的オブジェクトの位置に基づき、前記空気発射装置の発射口から空気を発射させる制御を行う空気発射装置制御部と、
前記標的オブジェクトの立体視用画像を生成する画像生成部と、
前記立体視用画像を表示する表示部と、
振動可能に構成されたプレーヤ用の座席と、
前記座席を振動させる制御を行う振動制御部と、
ゲーム音を出力する音出力する音出力部と、
ゲーム音を生成して前記音出力部に出力する音生成部とを含み、
前記空気発射装置は、
前記発射口から発射された空気が前記座席に着座したプレーヤに当たるように配置され、
前記振動制御部は、
前記発射口から発射された空気が前記座席に着座したプレーヤに当たるタイミングに合わせて、前記座席を振動させる制御を行い、
前記音生成部は、
発射口から空気が発射されるタイミングでゲーム音を生成して前記音出力部に出力するするゲームシステムに関する。
(18) A game system according to the present invention includes:
An air launcher that launches air from a launch port;
A controller that the player holds and operates;
The target object is moved in the object space, the position on the display screen indicated by the controller is calculated based on the input information from the controller, and whether the calculated position matches the display position of the target object or not And a processing unit for performing a game process for displaying an effect image based on the determination result;
Based on the position of the target object in the object space, an air emission device control unit that performs control to emit air from the emission port of the air emission device;
An image generator for generating a stereoscopic image of the target object;
A display unit for displaying the stereoscopic image;
A seat for a player configured to vibrate;
A vibration control unit that performs control to vibrate the seat;
A sound output unit for outputting game sound,
A sound generation unit that generates a game sound and outputs the game sound to the sound output unit,
The air launcher is
Arranged so that the air launched from the launch port hits the player seated on the seat,
The vibration control unit
Control the vibration of the seat in accordance with the timing at which the air fired from the launch port hits the player seated on the seat,
The sound generator is
The present invention relates to a game system that generates a game sound and outputs it to the sound output unit at a timing when air is emitted from a launch port.

本発明によれば、コントローラを操作して行う立体視のシューティングゲームにおいて、オブジェクト空間における標的オブジェクトの位置に基づき空気発射装置から空気を発射させる制御を行って、発射された空気をプレーヤに当てるように構成することで、立体視による視覚的な演出効果を補強してより効果的なゲーム演出を行うことができる。また、本発明によれば、空気発射装置から発射された空気と座席の振動とを連動させることができ、より効果的なゲーム演出を行うことができる。また、本発明によれば、空気発射装置から空気が発射されるときに発生する発射音をプレーヤに聞こえ難くすることができる。   According to the present invention, in a stereoscopic shooting game performed by operating a controller, control is performed to emit air from the air emission device based on the position of the target object in the object space, and the emitted air is applied to the player. By configuring in this way, it is possible to reinforce the visual presentation effect by stereoscopic vision and perform a more effective game presentation. Further, according to the present invention, the air emitted from the air emission device and the vibration of the seat can be linked, and a more effective game effect can be performed. In addition, according to the present invention, it is possible to make it difficult for the player to hear the sound generated when air is emitted from the air emission device.

本実施形態のゲームシステムの外観の一例を示す斜視図。The perspective view which shows an example of the external appearance of the game system of this embodiment. 図2(A)、図2(B)は、空気発射装置の構成の一例を示す図。FIG. 2A and FIG. 2B are diagrams illustrating an example of a configuration of an air emission device. 本実施形態のゲームシステムの構成の一例を示す図。The figure which shows an example of a structure of the game system of this embodiment. 本実施形態のゲームシステムの機能ブロック図の一例を示す図。The figure which shows an example of the functional block diagram of the game system of this embodiment. 立体視用画像を生成する手法について説明するための図。The figure for demonstrating the method of producing | generating the image for stereoscopic vision. 立体視用画像を生成する手法について説明するための図。The figure for demonstrating the method of producing | generating the image for stereoscopic vision. 空気発射装置の制御について説明するための図。The figure for demonstrating control of an air emission apparatus. 図8(A)、図8(B)は、空気発射装置の制御について説明するための図。FIG. 8A and FIG. 8B are diagrams for explaining control of the air emission device. 空気発射装置の構成の一例を示す図。The figure which shows an example of a structure of an air emission apparatus. 図10(A)、図10(B)は、ゲーム音の制御について説明するための図。FIG. 10A and FIG. 10B are diagrams for explaining control of the game sound. 図11(A)、図11(B)は、ゲーム音の制御について説明するための図。FIG. 11A and FIG. 11B are diagrams for explaining control of game sound. 本実施形態の処理の流れを示すフローチャート図。The flowchart figure which shows the flow of the process of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.ゲームシステムの構成
図1は、本実施形態のゲームシステム10(ゲーム装置)の外観の一例を示す斜視図である。本実施形態のゲームシステム10は、立体視用画像を表示するディスプレイ12(表示部)と、ディスプレイ12の表示画面13の手前側に設けられた台座14と、台座14の上面に設けられ、機関銃の形状を模した第1コントローラ16および第2コントローラ18)と、ディスプレイ12の上方に設けられた空気発射装置50とを有している。ゲームシステム10では、一人のプレーヤがゲームをプレイしてもよいし、2人以上のプレーヤ(操作者の一例)が同時にゲームをプレイしてもよい。
1. Configuration of Game System FIG. 1 is a perspective view showing an example of an appearance of a game system 10 (game device) according to the present embodiment. The game system 10 according to the present embodiment includes a display 12 (display unit) that displays a stereoscopic image, a pedestal 14 provided on the front side of the display screen 13 of the display 12, and an upper surface of the pedestal 14. The first controller 16 and the second controller 18) imitating the shape of a gun, and an air emission device 50 provided above the display 12. In the game system 10, one player may play the game, or two or more players (an example of an operator) may play the game at the same time.

第1コントローラ16は、台座14に対して配置位置が固定されつつ、鉛直に設けられた第1軸20回りに回転可能に、かつ水平に設けられた第2軸22回りに回転可能に設けられている。そして第1コントローラ16の後端には、プレーヤが左手で把持する左グリップ24と、右手で把持する右グリップ26とが設けられており、プレーヤはこの左グリップ24と右グリップ26とを把持して、第1コントローラ16を第1軸20回りおよび第2軸22回りに回転させる操作を行うことにより、第1コントローラ16の銃口に相当する先端の向きを任意に変化させることができる。ここで第1コントローラ16の可動範囲は、第1コントローラ16の先端が表示画面13の所定の領域を指示できる範囲となっている。例えば、第1コントローラ16の可動範囲は、第1コントローラ16の先端が表示画面13の全領域を指示できる範囲としてもよいし、表示画面13の一部の領域を指示できる範囲としてもよい。そして第1コントローラ16には、第1コントローラ16の第1軸20回りの回転量を検出する第1可変抵抗28と、第1コントローラ16の第2軸22回りの回転量を検出する第2可変抵抗30とが設けられている。   The first controller 16 is provided so as to be rotatable about a first shaft 20 provided vertically and rotatable about a second shaft 22 provided horizontally while being fixed in position with respect to the base 14. ing. The rear end of the first controller 16 is provided with a left grip 24 held by the player with the left hand and a right grip 26 held by the right hand. The player holds the left grip 24 and the right grip 26. Thus, the direction of the tip corresponding to the muzzle of the first controller 16 can be arbitrarily changed by performing an operation of rotating the first controller 16 about the first axis 20 and the second axis 22. Here, the movable range of the first controller 16 is a range in which the tip of the first controller 16 can indicate a predetermined area of the display screen 13. For example, the movable range of the first controller 16 may be a range in which the tip of the first controller 16 can indicate the entire area of the display screen 13 or a range in which a partial area of the display screen 13 can be specified. The first controller 16 includes a first variable resistor 28 that detects the amount of rotation of the first controller 16 around the first axis 20 and a second variable that detects the amount of rotation of the first controller 16 around the second axis 22. A resistor 30 is provided.

そしてゲームシステム10は、第1コントローラ16の第1可変抵抗28の検出結果と第2可変抵抗30の検出結果とに基づいて、第1コントローラ16の先端が指示する表示画面13上の位置である第1指示位置31を2次元座標の座標値として求める。そしてゲームシステム10は、表示画面13に表示させる画像において、第1指示位置31に対応する仮想3次元空間(オブジェクト空間)内の位置に、第1コントローラ16が指示する位置を示す第1マーク32が配置されている画像を表示させる。   The game system 10 is a position on the display screen 13 indicated by the tip of the first controller 16 based on the detection result of the first variable resistor 28 and the detection result of the second variable resistor 30 of the first controller 16. The first designated position 31 is obtained as a coordinate value of a two-dimensional coordinate. The game system 10 then displays the first mark 32 indicating the position indicated by the first controller 16 at the position in the virtual three-dimensional space (object space) corresponding to the first indication position 31 in the image displayed on the display screen 13. The image where is placed is displayed.

そしてゲームシステム10は、表示画面13に表示させる画像において、標的を示す標的オブジェクト42(オブジェクトの一例)を移動させながら表示させており、標的オブジェクト42に第1マーク32の中心が重なっている状態で第1コントローラ16の左ボタン36あるいは右ボタン38が押下されると、標的オブジェクト42に第1弾丸オブジェクト40が命中したと判定する。   The game system 10 displays the target object 42 (an example of the object) indicating the target while moving the image displayed on the display screen 13, and the center of the first mark 32 overlaps the target object 42. When the left button 36 or the right button 38 of the first controller 16 is pressed, it is determined that the first bullet object 40 has hit the target object 42.

第2コントローラ18は、第1コントローラ16と同様に、左グリップ24、右グリップ26、第1可変抵抗28、第2可変抵抗30、左ボタン36、右ボタン38を有している。そして、第2コントローラ18は第1コントローラ16と接触しないように、台座14に対して配置位置が固定されつつ、第1軸20回りおよび第2軸22回りに回転可能に設けられている。そして、第2コントローラ18の可動範囲も、第2コントローラ18の先端が表示画面13の所定の領域を指示できる範囲となっている。   Similar to the first controller 16, the second controller 18 includes a left grip 24, a right grip 26, a first variable resistor 28, a second variable resistor 30, a left button 36, and a right button 38. The second controller 18 is provided so as to be rotatable about the first axis 20 and the second axis 22 while being fixed with respect to the pedestal 14 so as not to contact the first controller 16. The movable range of the second controller 18 is also a range in which the tip of the second controller 18 can indicate a predetermined area of the display screen 13.

そしてゲームシステム10は、第2コントローラ18の第1可変抵抗28の検出結果と第2可変抵抗30の検出結果とに基づいて、第2コントローラ18の先端が指示する表示画面13上の位置である第2指示位置43を2次元座標の座標値として求める。そしてゲームシステム10は、表示画面13に表示させる画像において、第2指示位置43に対応する仮想3次元空間内の位置に、第2コントローラ18が指示する位置を示す第2マーク44が配置されている画像を表示させる。そして、第2コントローラ18の左ボタン36あるいは右ボタン38をプレーヤが押下すると、第2銃オブジェクト46の先端から第2マーク44の中心に向けて、第2銃オブジェクト46の弾丸を示す第2弾丸オブジェクト48を移動させる。   The game system 10 is a position on the display screen 13 indicated by the tip of the second controller 18 based on the detection result of the first variable resistor 28 and the detection result of the second variable resistor 30 of the second controller 18. The second indication position 43 is obtained as a coordinate value of a two-dimensional coordinate. In the game system 10, in the image displayed on the display screen 13, the second mark 44 indicating the position designated by the second controller 18 is arranged at a position in the virtual three-dimensional space corresponding to the second designated position 43. Display the image. When the player presses the left button 36 or the right button 38 of the second controller 18, the second bullet indicating the bullet of the second gun object 46 is directed from the tip of the second gun object 46 toward the center of the second mark 44. The object 48 is moved.

空気発射装置50は、発射口52から空気を発射させる装置である。空気発射装置50は、ディスプレイ12の上方の図中右側と左側(表示部の近傍)に1つずつ配置され、発射口52がプレーヤの位置に向けて開口されている。ここで、ディスプレイ12上方の左側に設けられた空気発射装置50の発射口52は、第1コントローラ16を操作するプレーヤに向けて開口され、ディスプレイ12上方の右側に設けられた空気発射装置50の発射口52は、第2コントローラ16を操作するプレーヤに向けて開口されている。なお、プレーヤが一人でゲームプレイを行う場合、そのプレーヤがゲームプレイする位置に応じて、空気を発射させる空気発射装置50を決定するようにしてもよい。例えば、プレーヤが第1のコントローラ16を操作してゲームプレイする場合には、ディスプレイ12上方の左側に設けられた空気発射装置50から空気を発射させ、プレーヤが第2のコントローラ18を操作してゲームプレイする場合には、ディスプレイ12上方の右側に設けられた空気発射装置50から空気を発射させる制御を行う。   The air launcher 50 is a device that launches air from the launch port 52. One air launching device 50 is disposed on the right side and the left side (near the display unit) in the figure above the display 12, and a launching port 52 is opened toward the position of the player. Here, the launch port 52 of the air launcher 50 provided on the left side above the display 12 is opened toward the player who operates the first controller 16, and the air launcher 50 provided on the right side above the display 12. The launch port 52 is opened toward the player who operates the second controller 16. When a player plays a game alone, the air emitting device 50 that emits air may be determined according to the position at which the player plays the game. For example, when the player plays the game by operating the first controller 16, air is emitted from the air emitting device 50 provided on the left side above the display 12, and the player operates the second controller 18. In the case of playing a game, control is performed to emit air from the air emission device 50 provided on the right side above the display 12.

図2(A)は、空気発射装置50の正面図であり、図2(B)は、空気発射装置50の側部断面図である。図2(A)、図2(B)に示すように、空気発射装置50は、発射口52が形成されたケース53と、スピーカ54から構成されている。ケース53は、一定量の空気を溜める容器であり、円柱形状の上面に円形開口である発射口52が形成されている。スピーカ54は、ケース53の発射口52と対向する面に設けられており、振動板55を振動させて低周波音を発生する。スピーカ54が低周波音を発生すると、振動板55によりケース内53内の空気が発射口52から押し出され、押し出された空気はドーナツ形状の渦輪(渦状の空気)を形成して飛行する。すなわち、本実施形態の空気発射装置50は、発射口52から渦輪を発射する空気砲として機能するものである。なお、スピーカ54を設けることに代えて、ケース53の発射口52と対向する面又はケース53の側面を振動させる手段を設けてもよい。例えば、モータやソレノイドを用いてケース53の一面を振動させることにより、発射口52から渦輪を発射させるように構成してもよい。   FIG. 2A is a front view of the air launching device 50, and FIG. 2B is a side cross-sectional view of the air launching device 50. As shown in FIGS. 2 (A) and 2 (B), the air launching device 50 includes a case 53 in which a launching opening 52 is formed and a speaker 54. The case 53 is a container that accumulates a certain amount of air, and a launch port 52 that is a circular opening is formed on a cylindrical upper surface. The speaker 54 is provided on the surface of the case 53 facing the launch port 52, and vibrates the diaphragm 55 to generate low frequency sound. When the speaker 54 generates low-frequency sound, the air in the case 53 is pushed out from the launch port 52 by the diaphragm 55, and the pushed-out air forms a donut-shaped vortex ring (vortex-like air) and flies. That is, the air launching device 50 of the present embodiment functions as an air cannon that launches a vortex ring from the launch port 52. Instead of providing the speaker 54, means for vibrating the surface of the case 53 facing the launch port 52 or the side surface of the case 53 may be provided. For example, a vortex ring may be fired from the launch port 52 by vibrating one surface of the case 53 using a motor or solenoid.

図3に示すように、ゲームシステム10は、台座14の手前側(ディスプレイ12の前方)に設けられたプレーヤP用の座席60を備えている。座席60は、外部からの制御信号に基づき振動する振動部を備えることにより、振動可能に構成されていてもよい。プレーヤPは、座席60に着座した状態で、前方のディスプレイ12の表示画面13を見つつ、台座14に設けられた第1コントローラ16(又は第2コントローラ18)を操作することができる。   As shown in FIG. 3, the game system 10 includes a player P seat 60 provided on the front side of the base 14 (in front of the display 12). The seat 60 may be configured to vibrate by including a vibration unit that vibrates based on a control signal from the outside. The player P can operate the first controller 16 (or the second controller 18) provided on the pedestal 14 while looking at the display screen 13 of the front display 12 while sitting on the seat 60.

そして、空気発射装置50は、発射口52から発射された渦輪VRが座席60に着座したプレーヤPの身体の一部に当たるように配置されている。なお、空気発射装置50は、発射された渦輪VRがプレーヤPの肌が露出した部分(渦輪VRが当たったことを知覚し易い部分、プレーヤPの顔面や手など)に当たるように配置されることが望ましい。   The air launching device 50 is arranged such that the vortex ring VR launched from the launching opening 52 hits a part of the body of the player P seated on the seat 60. It should be noted that the air launch device 50 is arranged so that the fired vortex ring VR hits a portion where the skin of the player P is exposed (a portion where it is easy to perceive that the vortex ring VR has been hit, such as the face or hand of the player P). Is desirable.

なお、プレーヤが座席に着座する場合に限られず、プレーヤが固定型のコントローラや、フットペダルを操作する場合等、プレーヤが所定位置でゲームプレイ可能に構成されている場合には、発射口52から発射された渦輪VRが前記所定位置でゲームプレイするプレーヤに当たるように空気発射装置50を配置すればよい。   Note that the present invention is not limited to the case where the player is seated on the seat, and when the player is configured to be able to play a game at a predetermined position, such as when the player operates a fixed controller or a foot pedal, the launch port 52 The air emitting device 50 may be arranged so that the fired vortex ring VR hits the player who plays the game at the predetermined position.

2.機能ブロック図
図4に本実施形態のゲームシステム10の機能ブロック図の一例を示す。なお本実施形態のゲームシステムは図4の構成要素(各部)の一部を省略した構成としてもよい。
2. Functional Block Diagram FIG. 4 shows an example of a functional block diagram of the game system 10 of the present embodiment. Note that the game system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 4 are omitted.

入力部160は、プレーヤからの入力情報を入力するための機器であり、プレーヤの入力情報を処理部100に出力する。入力部160の機能は、図1の第1及び第2コントローラ16、18により実現することができる。入力部160は、プレーヤの入力情報を検出する検出部162を備える。検出部162の機能は、図1の左ボタン36、右ボタン38が押させたことを検出するスイッチと、第1及び第2コントローラ16、18の回転角度(第1軸20回りの回転角度と第2軸22回りの回転角度)を検出する図1の第1及び第2可変抵抗28、30とにより実現することができる。   The input unit 160 is a device for inputting input information from the player, and outputs the input information of the player to the processing unit 100. The function of the input unit 160 can be realized by the first and second controllers 16 and 18 in FIG. The input unit 160 includes a detection unit 162 that detects input information of the player. The function of the detection unit 162 includes a switch for detecting that the left button 36 and the right button 38 in FIG. 1 are pressed, and the rotation angles of the first and second controllers 16 and 18 (the rotation angle around the first axis 20). This can be realized by the first and second variable resistors 28 and 30 in FIG. 1 that detect the rotation angle around the second axis 22.

また入力部160は、方向キー(十字キー)、方向入力可能なコントロールスティック(アナログキー)、レバー、キーボード、マウス、タッチパネル型ディスプレイ、撮像部、加速度センサ、或いは角速度センサ(ジャイロセンサ)等を備えた入力機器でもよい。   The input unit 160 includes a direction key (cross key), a control stick (analog key) capable of inputting a direction, a lever, a keyboard, a mouse, a touch panel display, an imaging unit, an acceleration sensor, an angular velocity sensor (gyro sensor), and the like. An input device may be used.

信号発生器56は、空気発射装置制御部114から出力された制御信号に基づき音声信号を生成して増幅器58に出力するものである。例えば、信号発生器56は、1波長分の低周波(例えば、20Hz)の矩形波信号、正弦波信号、三角波或いはノコギリ波信号を生成してもよい。また、矩形波、正弦波、三角波或いはノコギリ波のデューティ比を50%以上又は以下にした波形の1波長分の信号を生成してもよい。増幅器58(アンプ)は、信号発生器56で生成された音声信号を増幅して、空気発射装置50のスピーカ54に出力する。   The signal generator 56 generates a sound signal based on the control signal output from the air emission device control unit 114 and outputs the sound signal to the amplifier 58. For example, the signal generator 56 may generate a rectangular wave signal, a sine wave signal, a triangular wave, or a sawtooth wave signal having a low frequency (for example, 20 Hz) for one wavelength. Alternatively, a signal for one wavelength having a waveform in which the duty ratio of a rectangular wave, a sine wave, a triangular wave, or a sawtooth wave is 50% or more may be generated. The amplifier 58 (amplifier) amplifies the audio signal generated by the signal generator 56 and outputs the amplified audio signal to the speaker 54 of the air emission device 50.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。記憶部170は、ワーク領域として使用される主記憶部172と、最終的な表示画像等が記憶される描画バッファ174と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部176と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部178と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ179とを含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 170 includes a main storage unit 172 used as a work area, a drawing buffer 174 that stores final display images and the like, an object data storage unit 176 that stores object model data, and each object data A texture storage unit 178 for storing textures for use, and a Z buffer 179 for storing Z values during object image generation processing. Note that some of these may be omitted.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の処理部100の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the processing unit 100 according to the present embodiment (a program for causing a computer to execute the processing of each unit).

表示部190(ディスプレイ12)は、本実施形態により生成された画像(オブジェクト空間を所与の視点から見た画像)を出力するものであり、その機能は、CRT、LCD、或いはタッチパネル型ディスプレイなどにより実現できる。   The display unit 190 (display 12) outputs an image (an image obtained by viewing the object space from a given viewpoint) generated according to the present embodiment, and its function is a CRT, LCD, touch panel type display, or the like. Can be realized.

本実施形態の表示部190は、立体視画像を表示する。例えば、裸眼方式では、表示部190は、有限個の画素からなるLCDの前面又は背面に、パララックスバリアやレンチキュラ等の光学素子が配置される。例えば、垂直バリアまたは垂直レンチキュラによる2眼式の場合には、表示部190に、1枚(1フレーム)の左眼用画像を表示するための表示領域と、1枚の右眼用画像を表示するための表示領域とが、短冊状に左眼用短冊画像表示領域及び右眼用短冊画像表示領域として交互に配置されている。パララックスバリアが配置される場合、その隙間からは、プレーヤの左眼には左眼用短冊画像表示領域に表示される左眼用短冊画像、右眼には右眼用短冊画像表示領域に表示される右眼用短冊画像のみが見えるようになっている。また、レンチキュラが配置される場合、各短冊集合画像に対応したレンズの光屈折効果により、プレーヤの左眼には左眼用短冊画像表示領域に表示される左眼用短冊画像、右眼には右眼用短冊画像表示領域に表示される右眼用短冊画像のみが見えるようになっている。また、偏光眼鏡方式では、表示部190の奇数ラインと偶数ラインに偏光方向の異なる偏光フィルタ(例えば、左円偏光を透過する偏光フィルタと、右円偏光を透過する偏光フィルタ)が交互に配置され、表示部190の奇数ラインと偶数ラインに左眼用画像と右眼用画像を交互に表示し、これを偏光眼鏡(例えば、左眼に左円偏光を透過する偏光フィルタ、右眼に右円偏光を透過する偏光フィルタを付けた眼鏡)で見ることで立体視を実現する。また、ページフリップ方式では、表示部190に左眼用画像と右眼用画像を所定時間毎(例えば、1/120秒毎)に交互に表示する。そして、この表示の切り替えに連動して液晶シャッター付きの眼鏡の左眼、右眼の液晶シャッターを交互に開閉することで、立体視を実現する。なお、立体視画像の表示方式は、2眼式に限られず、多眼式や空間像方式(インテグラル方式)でもよい。   The display unit 190 of the present embodiment displays a stereoscopic image. For example, in the naked eye method, the display unit 190 includes optical elements such as a parallax barrier and a lenticular on the front or back of an LCD composed of a finite number of pixels. For example, in the case of a two-lens system using a vertical barrier or a vertical lenticular, a display area for displaying one (one frame) image for the left eye and one image for the right eye are displayed on the display unit 190. Display areas for the left eye are alternately arranged in a strip shape as a left eye strip image display area and a right eye strip image display area. When a parallax barrier is placed, the left eye strip image displayed in the left eye strip image display area for the player's left eye and the right eye strip image display area for the right eye are displayed from the gap. Only the strip image for the right eye to be displayed is visible. When the lenticular is arranged, the left eye strip image displayed in the left eye strip image display area is displayed on the left eye of the player and the right eye is displayed on the right eye due to the photorefractive effect of the lens corresponding to each strip aggregate image. Only the right eye strip image displayed in the right eye strip image display area is visible. Further, in the polarizing glasses method, polarizing filters having different polarization directions (for example, a polarizing filter that transmits left circularly polarized light and a polarizing filter that transmits right circularly polarized light) are alternately arranged on the odd and even lines of the display unit 190. The left-eye image and the right-eye image are alternately displayed on the odd-numbered line and the even-numbered line of the display unit 190, and this is displayed on the polarizing glasses (for example, the polarizing filter that transmits the left circularly polarized light to the left eye, Stereoscopic viewing is realized by viewing with glasses with a polarizing filter that transmits polarized light. In the page flip method, the left-eye image and the right-eye image are alternately displayed on the display unit 190 every predetermined time (for example, every 1/120 seconds). In conjunction with the switching of the display, the left and right liquid crystal shutters of the glasses with the liquid crystal shutter are alternately opened and closed to realize stereoscopic viewing. Note that the stereoscopic image display method is not limited to the binocular method, and may be a multi-view method or an aerial image method (integral method).

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部196は他のゲームシステムやサーバとの間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with other game systems and servers, and the function can be realized by hardware such as various processors or a communication ASIC, a program, or the like.

なお、サーバが有する情報記憶媒体や記憶部に記憶されている処理部100の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信してゲームシステムを機能させる場合も本発明の範囲内に含む。   Note that a program and data for causing the computer to function as each unit of the processing unit 100 stored in the information storage medium and storage unit of the server are received via the network, and the received program and data are received in the information storage medium 180. Or may be stored in the storage unit 170. The case where the game system is functioned by receiving the program or data as described above is also included in the scope of the present invention.

処理部100(プロセッサ)は、入力部160からの入力情報、プログラム、通信部196を介して受信したデータなどに基づいて、ゲーム処理、画像生成処理、音生成処理、空気発射装置制御処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。特に本実施形態では、処理部100は、検出部162からのデータに基づいて、左ボタン36或いは右ボタン38が押されたときに第1コントローラ16或いは第2コントローラ18が指示している表示画面13上の位置を演算し、演算された位置が、標的オブジェクト42を表示させている位置と一致するか否かを判定する。そして一致していると判定した場合には、標的オブジェクト42に銃弾が当たったことを示す演出画像を表示させる。この処理部100は主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, air emission device control processing, and the like based on input information from the input unit 160, a program, data received via the communication unit 196, and the like. Process. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a game is ended when a game end condition is satisfied. There is processing. In particular, in the present embodiment, the processing unit 100 displays the display screen instructed by the first controller 16 or the second controller 18 when the left button 36 or the right button 38 is pressed based on data from the detection unit 162. 13 is calculated, and it is determined whether or not the calculated position matches the position where the target object 42 is displayed. If it is determined that they match, an effect image indicating that a bullet has hit the target object 42 is displayed. The processing unit 100 performs various processes using the main storage unit 172 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、空気発射装置制御部114、仮想カメラ制御部118、画像生成部120、音生成部130を含む。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, an air emission device control unit 114, a virtual camera control unit 118, an image generation unit 120, and a sound generation unit 130.

オブジェクト空間設定部110は、キャラクタ(プレーヤキャラクタ、ノンプレーヤキャラクタ)、標的、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects (polygons, free-form surfaces or sub-surfaces) representing display objects such as characters (player characters, non-player characters), targets, buildings, stadiums, cars, trees, pillars, walls, and maps (terrain). (Placement object such as division surface) is set in the object space. For example, the position and rotation angle (synonymous with the direction and direction of the object in the world coordinate system, for example, rotation when rotating clockwise when viewed from the positive direction of each axis of the X, Y, and Z axes in the world coordinate system. The angle is determined, and the object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axis).

移動・動作処理部112(移動処理部)は、オブジェクト(キャラクタ、標的等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち入力部160によりプレーヤが入力した入力データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)、物理法則などに基づいて、オブジェクトをオブジェクト空間(ゲーム空間)内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒又は1/30秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 (movement processing unit) performs movement / motion calculation (movement / motion simulation) of an object (character, target, etc.). That is, based on input data input by the player through the input unit 160, a program (movement / motion algorithm), various data (motion data), a physical law, or the like, an object can be moved in the object space (game space), Performs processing to move the object (motion, animation). Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part constituting the object) are stored in one frame (1/60 seconds or 1/30). The simulation process is sequentially performed every second). A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

空気発射装置制御部114は、処理部100の処理結果に基づいて、空気発射装置50を制御する処理を行う。すなわち、空気発射装置制御部114は、処理部100による処理結果に基づき制御信号を生成して信号発生器56に出力することで、空気発射装置50の発射口52から空気(渦輪)を発生させる制御を行う。空気発射装置制御部114は、入力部160からの入力情報やゲーム進行状況に基づき空気発射装置50の発射口52から空気を発生させる制御を行ってもよい。例えば、プレーヤが所定のオブジェクトを攻撃する操作を行った場合、或いは、プレーヤキャラクタがゲーム空間内のドアを開けた場合に、空気発射装置50の発射口52から空気を発生させる制御を行ってもよいし、プレーヤキャラクタがゲーム空間内の所定のエリア(或いは所定のゲームステージ)に入ってから所定時間経過後といったタイムライン情報に従って、空気発射装置50の発射口52から空気を発生させる制御を行ってもよい。   The air emission device control unit 114 performs processing for controlling the air emission device 50 based on the processing result of the processing unit 100. That is, the air emission device control unit 114 generates air (vortex ring) from the emission port 52 of the air emission device 50 by generating a control signal based on the processing result of the processing unit 100 and outputting the control signal to the signal generator 56. Take control. The air launcher control unit 114 may perform control to generate air from the launch port 52 of the air launcher 50 based on the input information from the input unit 160 and the game progress status. For example, even when the player performs an operation of attacking a predetermined object, or when the player character opens a door in the game space, control is performed to generate air from the launch port 52 of the air launcher 50. Alternatively, control is performed to generate air from the launch port 52 of the air launcher 50 in accordance with timeline information such as a predetermined time after the player character enters a predetermined area (or a predetermined game stage) in the game space. May be.

また、空気発射装置制御部114は、移動処理部112による処理結果(例えば、オブジェクトのオブジェクト空間における位置)に基づいて、空気発射装置50を制御する処理を行う。すなわち、空気発射装置制御部114は、移動処理部112による処理結果に基づき制御信号を生成して信号発生器56に出力することで、空気発射装置50の発射口52から空気(渦輪)を発生させる制御を行う。   In addition, the air emission device control unit 114 performs processing for controlling the air emission device 50 based on the processing result (for example, the position of the object in the object space) by the movement processing unit 112. That is, the air emission device control unit 114 generates air (vortex ring) from the emission port 52 of the air emission device 50 by generating a control signal based on the processing result by the movement processing unit 112 and outputting the control signal to the signal generator 56. To control.

また、空気発射装置制御部114は、オブジェクト空間内の投影面よりも視点から見て手前側の第1のエリアに位置するオブジェクト(例えば、標的オブジェクト42)がある場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。ここで、投影面とは、投影面に位置するオブジェクトの画像の視差が無くなる面である。   In addition, when there is an object (for example, the target object 42) located in the first area on the near side as viewed from the viewpoint of the projection plane in the object space, the air launching device control unit 114 has the air launching device 50. You may make it perform the control which discharges air from the ejection opening 52. FIG. Here, the projection plane is a plane where the parallax of the image of the object located on the projection plane is eliminated.

また、空気発射装置制御部114は、前記投影面よりも視点から見て奥側の第2のエリアから前記第1のエリアまで移動するオブジェクトがある場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。例えば、前記第1のエリアから前記第2のエリアに向けて移動するオブジェクトが、前記投影面を通過した場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。また、前記第1のエリアから前記第2のエリアに向けて移動するオブジェクトが、前記投影面を通過して、前記投影面から所定の距離だけ離れた位置に到達した場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。   In addition, when there is an object that moves from the second area on the back side when viewed from the viewpoint of the projection plane to the first area, the air emission device control unit 114 is controlled from the emission port 52 of the air emission device 50. You may make it perform control which discharges air. For example, when an object moving from the first area toward the second area passes through the projection plane, control is performed to emit air from the emission port 52 of the air emission device 50. Good. Further, when the object moving from the first area toward the second area passes through the projection plane and reaches a position separated from the projection plane by a predetermined distance, the air emitting device 50 You may make it perform the control which discharges air from the launching opening 52 of this.

また、空気発射装置制御部114は、前記オブジェクトの前記投影面からの移動量に応じて、発射口52からの空気の発射タイミングを変化させるようにしてもよい。また、空気発射装置制御部114は、前記オブジェクトが前記投影面から所定距離だけ離れた位置に到達するタイミングに応じて、発射口52からの空気の発射タイミングを変化させるようにしてもよい。前記オブジェクトが前記投影面から所定距離だけ離れた位置に到達するタイミングは、前記オブジェクトの速度或いは加速度に基づき判定することができる。   Further, the air emission device control unit 114 may change the emission timing of air from the emission port 52 in accordance with the amount of movement of the object from the projection plane. In addition, the air emission device control unit 114 may change the emission timing of air from the emission port 52 in accordance with the timing at which the object reaches a position separated from the projection plane by a predetermined distance. The timing at which the object reaches a position away from the projection plane by a predetermined distance can be determined based on the speed or acceleration of the object.

また、空気発射装置制御部114は、空気発射装置50の発射口52の口径が変更可能に構成されている場合に、移動処理部112による処理結果に基づいて、発射口52の口径の大きさを変更する制御を行い、発射口52から空気を発生させる制御を行うようにしてもよい。例えば、空気発射装置制御部114は、空気発射装置50の発射口52の口径を変化させるための駆動部(例えば、絞り機構を駆動するモータ)に対して制御信号を出力することで、発射口52の口径を変更する制御を行うようにしてもよい。   In addition, when the diameter of the launch port 52 of the air launch device 50 is configured to be changeable, the air launcher control unit 114 is based on the processing result by the movement processing unit 112 and the size of the launch port 52. It is also possible to perform control to change air and to generate air from the launch port 52. For example, the air emission device control unit 114 outputs a control signal to a drive unit (for example, a motor that drives the aperture mechanism) for changing the diameter of the emission port 52 of the air emission device 50, thereby You may make it perform control which changes the aperture of 52. FIG.

また、空気発射装置制御部114は、前記オブジェクトの前記投影面からの移動量に応じて、発射口52の口径を変更する制御を行うようにしてもよい。また、空気発射装置制御部114は、前記オブジェクトの速度に応じて、発射口52の口径を変更する制御を行うようにしてもよい。   In addition, the air emission device control unit 114 may perform control to change the diameter of the emission port 52 in accordance with the amount of movement of the object from the projection plane. The air launcher control unit 114 may perform control to change the diameter of the launch port 52 according to the speed of the object.

また、空気発射装置制御部114は、前記オブジェクトが前記オブジェクト空間内の所定のエリアに入った場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。   In addition, the air emission device control unit 114 may perform control to emit air from the emission port 52 of the air emission device 50 when the object enters a predetermined area in the object space.

仮想カメラ制御部118は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、入力部160によりプレーヤが入力した入力情報或いはプログラム(移動・動作アルゴリズム)等に基づいて、ワールド座標系における仮想カメラの位置(X、Y、Z)又は光軸の方向(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度等)を制御する処理を行う。要するに、視点位置、仮想カメラの向き、画角を制御する処理を行う。   The virtual camera control unit 118 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, based on input information or a program (movement / motion algorithm) input by the player through the input unit 160, the position (X, Y, Z) of the virtual camera in the world coordinate system or the direction of the optical axis (for example, , X, Y, and Z axes, a rotation angle when rotating clockwise as viewed from the positive direction, and the like. In short, processing for controlling the viewpoint position, the orientation of the virtual camera, and the angle of view is performed.

また、2眼式の立体視方式により立体視画像を表示する場合には、仮想カメラ制御部118は、左眼用仮想カメラ及び右眼用仮想カメラの位置、向き及び画角を制御する。また、仮想カメラ制御部118は、左眼用仮想カメラと右眼用仮想カメラを設定するための基準となる基準仮想カメラ(センターカメラ)の制御を行い、基準仮想カメラの位置、向き及び左眼用及び右眼用仮想カメラ間の距離情報に基づいて、左眼用及び右眼用仮想カメラの位置、向きを制御するようにしてもよい。多眼立体視画像の場合も同様に、多眼仮想カメラのそれぞれについて位置、向きを制御すればよい。また、空間像方式水平・垂直両方向に視差を持つ方式を含むの場合には、仮想カメラの位置、向き及び画角の少なくとも1つを制御して、それに基づく空間座標変換により、仮想空間全体をいったん変換する。その後、変換後の空間内に配置されたオブジェクト等を、それぞれの立体視表示方式に基づいて描画することで、上記の効果を得ることができる。   When a stereoscopic image is displayed by the binocular stereoscopic method, the virtual camera control unit 118 controls the position, orientation, and angle of view of the left-eye virtual camera and the right-eye virtual camera. The virtual camera control unit 118 also controls a reference virtual camera (center camera) serving as a reference for setting the left-eye virtual camera and the right-eye virtual camera, and the position, orientation, and left eye of the reference virtual camera. The positions and orientations of the left-eye and right-eye virtual cameras may be controlled based on distance information between the left and right-eye virtual cameras. Similarly, in the case of a multi-view stereoscopic image, the position and orientation of each multi-view virtual camera may be controlled. In addition, in the case of a spatial image system including a system having parallax in both horizontal and vertical directions, the entire virtual space is controlled by controlling at least one of the position, orientation, and angle of view of the virtual camera and performing spatial coordinate conversion based thereon. Convert once. Thereafter, the above effect can be obtained by drawing an object or the like arranged in the space after conversion based on each stereoscopic display method.

画像生成部120は、処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。   The image generation unit 120 performs drawing processing based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190.

いわゆる3次元画像を生成する場合には、まずオブジェクトの各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   When generating a so-called three-dimensional image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object is input. Based on the vertex data included in the input object data, vertex processing (shading by a vertex shader) is performed. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、射影変換(透視変換、投影変換)、ビューポート変換(スクリーン座標変換)、光源計算等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。ジオメトリ処理後のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (perspective transformation) , Projection conversion), viewport conversion (screen coordinate conversion), light source calculation, and other geometric processing are performed, and based on the processing results, the vertex data given to the vertex group constituting the object is changed (updated, adjusted). To do. Object data after the geometry processing (position coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) is stored in the object data storage unit 176.

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed.

ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to a drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

そして画像生成部120は、オブジェクトを描画する際に、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   Then, the image generation unit 120 performs texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 178 of the storage unit 170 using the texture coordinates set (given) at the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. it can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer 179 is referred to. Then, the Z value of the referenced Z buffer 179 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 179 is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。例えば、通常αブレンディングでは、α値を合成の強さとして線形補間を行うことにより2つの色を合成した色を求める処理を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えばRGBの各色成分の輝度を表す色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). For example, in normal α blending, a process for obtaining a color obtained by combining two colors by performing linear interpolation with the α value as the strength of synthesis is performed. The α value is information that can be stored in association with each pixel (texel, dot), and is, for example, plus alpha information other than color information indicating the luminance of each RGB color component. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

特に本実施形態の画像生成部120は、立体視画像を表示部190に出力する。例えば、立体視方式が2眼式の場合であれば、画像生成部120は、左眼用画像生成部124と右眼用画像生成部126を含む。左眼用画像生成部124は、オブジェクト空間内において左眼用仮想カメラから見える画像である左眼用画像を生成し、右眼用画像生成部126は、オブジェクト空間内において右眼用仮想カメラから見える画像である右眼用画像を生成する。具体的には、左眼用画像生成部124は、オブジェクト空間内の投影面に対してオブジェクトを左眼用仮想カメラの視点で透視投影して描画することで左眼用画像を生成し、右眼用画像生成部126は、投影面に対してオブジェクトを右眼用仮想カメラの視点で透視投影して描画することで右眼用画像を生成する。また、立体視方式が多眼式の場合であれば、画像生成部120は、多眼仮想カメラのそれぞれから見える画像を生成する。   In particular, the image generation unit 120 of this embodiment outputs a stereoscopic image to the display unit 190. For example, if the stereoscopic method is a twin-lens system, the image generation unit 120 includes a left-eye image generation unit 124 and a right-eye image generation unit 126. The left-eye image generating unit 124 generates a left-eye image that is an image seen from the left-eye virtual camera in the object space, and the right-eye image generating unit 126 is from the right-eye virtual camera in the object space. A right-eye image that is a visible image is generated. Specifically, the left-eye image generation unit 124 generates a left-eye image by perspectively projecting and drawing an object on the projection plane in the object space from the viewpoint of the left-eye virtual camera. The eye image generation unit 126 generates a right eye image by perspectively projecting and drawing an object on the projection plane from the viewpoint of the right eye virtual camera. If the stereoscopic method is a multi-view method, the image generation unit 120 generates an image that can be seen from each of the multi-view virtual cameras.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

また、音生成部130は、空気発射装置50の発射口52から空気が発射されるタイミングでゲーム音(効果音等)を生成して音出力部192に出力してもよい。また、音生成部130は、空気発射装置50の発射口52から空気が発射されるタイミングでゲーム音(効果音、BGM等)の音量を大きくする制御を行うようにしてもよい。また、音生成部130は、空気発射装置50の発射口52から空気が発射されるタイミングで、空気の発射音に対して逆位相となる音を生成して音出力部192に出力してもよい。   In addition, the sound generation unit 130 may generate a game sound (such as a sound effect) at a timing when air is emitted from the emission port 52 of the air emission device 50 and output it to the sound output unit 192. In addition, the sound generation unit 130 may perform control to increase the volume of the game sound (sound effect, BGM, etc.) at the timing when air is emitted from the emission port 52 of the air emission device 50. Further, the sound generation unit 130 may generate a sound having an opposite phase to the air emission sound and output the sound to the sound output unit 192 at the timing when the air is emitted from the emission port 52 of the air emission device 50. Good.

また、音生成部130は、空気発射装置50の発射口52からの空気の発射に応じて音像定位が変化するゲーム音を生成して音出力部192に出力してもよい。例えば、音生成部130は、発射口52から発射された空気(渦輪)の移動に連動して音像定位が変化する音を生成してもよい。   In addition, the sound generation unit 130 may generate a game sound whose sound image localization changes according to the air emission from the emission port 52 of the air emission device 50 and output the game sound to the sound output unit 192. For example, the sound generation unit 130 may generate a sound whose sound image localization changes in conjunction with the movement of air (vortex ring) emitted from the emission port 52.

また、音生成部130は、オブジェクトの位置に応じて音像定位が変化する音を生成してもよい。例えば、オブジェクトが前記第1のエリアに位置することで該オブジェクトが画面よりも手前側に飛び出して見える場合には、該オブジェクトに対応する音の音像定位を画面よりも手前側の位置に設定し、オブジェクトが前記第2のエリアに位置することで該オブジェクトが画面よりも奥側に引っ込んで見える場合には、該オブジェクトに対応する音の音像定位を画面よりも奥側の位置に設定してもよい。また、オブジェクトの移動に連動して音像定位の位置を移動させるようにしてもよい。   The sound generation unit 130 may generate a sound whose sound image localization changes according to the position of the object. For example, if the object is located in the first area and the object appears to jump out of the screen, the sound image localization corresponding to the object is set to a position in front of the screen. If the object is located in the second area and the object appears to be retracted from the screen, the sound image localization corresponding to the object is set to the position behind the screen. Also good. Further, the position of the sound image localization may be moved in conjunction with the movement of the object.

また、音生成部130は、発射口52から発射された空気がプレーヤに当たるタイミングで、音出力部192から出力されたゲーム音がプレーヤに届くように、ゲーム音の出力制御を行ってもよい。   In addition, the sound generation unit 130 may perform output control of the game sound so that the game sound output from the sound output unit 192 reaches the player at a timing when the air discharged from the discharge port 52 hits the player.

また、処理部100は、空気発射装置制御部114による空気発射装置50の制御に応じて座席60を振動させる制御を行う振動制御部を更に備えていてもよい。振動制御部は、制御信号を生成して座席60が備える振動部に出力することで、座席60を振動させる制御を行う。例えば、振動制御部は、発射口52から発射された空気が座席60に着座したプレーヤに当たるタイミングに合わせて、座席60を振動させる制御を行う。   The processing unit 100 may further include a vibration control unit that performs control to vibrate the seat 60 in accordance with the control of the air emission device 50 by the air emission device control unit 114. The vibration control unit performs control to vibrate the seat 60 by generating a control signal and outputting the control signal to the vibration unit included in the seat 60. For example, the vibration control unit performs control to vibrate the seat 60 in accordance with the timing at which the air emitted from the launch port 52 hits the player seated on the seat 60.

また、ゲームシステム10は、光を出射する1又は複数の光源(演出用光源)を更に備えていてもよく、処理部100は、前記光源を制御する光源制御部を更に備えていてもよい。光源制御部は、ゲーム進行状況に応じて光源から出射される光を変化させる制御を行ってもよい。例えば、光源制御部は、敵キャラクタ(例えば、標的オブジェクト)が攻撃状態にある場合に、光源から出射される光の色を変化させる(例えば、光の色を赤色にする)制御を行ってもよい。また、光源制御部は、空気発射装置50の発射口52から空気が発射された場合に、前記光源から出射される光を変化させる制御を行ってもよい。光源は、表示部12或いは空気発射装置50の近傍に配置してもよいし、空気発射装置50のケース53内部に設けてもよい。   The game system 10 may further include one or more light sources (effect light sources) that emit light, and the processing unit 100 may further include a light source control unit that controls the light sources. The light source control unit may perform control to change the light emitted from the light source according to the progress of the game. For example, the light source control unit may perform control to change the color of light emitted from the light source (for example, change the color of light to red) when an enemy character (for example, a target object) is in an attack state. Good. Further, the light source control unit may perform control to change the light emitted from the light source when air is emitted from the emission port 52 of the air emission device 50. The light source may be disposed in the vicinity of the display unit 12 or the air emission device 50, or may be provided inside the case 53 of the air emission device 50.

3.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
3. Next, the method of this embodiment will be described with reference to the drawings.

3−1.立体視用画像の生成手法
まず、立体視用画像を生成する手法について説明する。図5に示すように、2眼式の立体視方式では、プレーヤの両眼の幅に対応する距離だけ離れた左眼用仮想カメラVCLと右眼用仮想カメラVCRをオブジェクト空間に設定する。そして、左眼用仮想カメラVCLに対応して左眼用ビューボリュームVVLが設定され、右眼用仮想カメラVCRに対応して右眼用ビューボリュームVVRが設定される。
3-1. Method for Generating Stereoscopic Image First, a method for generating a stereoscopic image will be described. As shown in FIG. 5, in the binocular stereoscopic method, the left-eye virtual camera VCL and the right-eye virtual camera VCR that are separated by a distance corresponding to the width of both eyes of the player are set in the object space. Then, a left-eye view volume VVL is set corresponding to the left-eye virtual camera VCL, and a right-eye view volume VVR is set corresponding to the right-eye virtual camera VCR.

左眼用、右眼用ビューボリュームVVL、VVRは、左眼用、右眼用仮想カメラVCL、VCRの位置、向き、画角及び投影面SPの位置によって上下左右の構成面が決定される視錐台の領域である。投影面SPは、表示部190(ディスプレイ12)の画面に対応する面であり、プレーヤの視点位置に相当する左眼用、右眼用仮想カメラVCL、VCRの位置及び向きと、プレーヤの視点位置と表示部190の画面(表示画面13)との位置関係とに基づき設定される。なお、図5において、NPL、FPLは、それぞれ左眼用ビューボリュームVVLのニアクリップ面、ファークリップ面であり、NPR、FPRは、それぞれ右眼用ビューボリュームVVRのニアクリップ面、ファークリップ面である。   The left-eye and right-eye view volumes VVL and VVR are determined by the left, right, and right-eye virtual cameras VCL and VCR. This is the frustum region. The projection plane SP is a plane corresponding to the screen of the display unit 190 (display 12), and the positions and orientations of the left-eye and right-eye virtual cameras VCL and VCR corresponding to the viewpoint position of the player, and the viewpoint position of the player. And the positional relationship between the display unit 190 and the screen (display screen 13). In FIG. 5, NPL and FPL are the near clip plane and the far clip plane of the left eye view volume VVL, respectively. NPR and FPR are the near clip plane and the far clip plane of the right eye view volume VVR, respectively. is there.

左眼用仮想カメラVCLから見える画像である左眼用画像は、左眼用ビューボリュームVVL内に存在するオブジェクトを投影面SPに透視投影して描画することで生成される。同様に、右眼用仮想カメラVCRから見える画像である右眼用画像は、右眼用ビューボリュームVVR内に存在するオブジェクトを投影面SPに透視投影して描画することで生成される。   An image for the left eye, which is an image that can be seen from the left-eye virtual camera VCL, is generated by perspectively projecting an object existing in the left-eye view volume VVL onto the projection plane SP and drawing it. Similarly, an image for the right eye, which is an image that can be viewed from the virtual camera for right eye VCR, is generated by perspectively projecting an object that exists in the view volume for right eye VVR onto the projection plane SP and drawing it.

ここで、オブジェクトが投影面SP上に位置する場合には、左眼用画像でのオブジェクトの描画位置と右眼用画像でのオブジェクトの描画位置は一致し、オブジェクトの画像の視差は無くなる。この場合、プレーヤからはオブジェクトが表示部190の画面上に存在するように見える。   Here, when the object is located on the projection plane SP, the drawing position of the object in the left-eye image and the drawing position of the object in the right-eye image match, and the parallax of the object image disappears. In this case, it appears to the player that the object exists on the screen of the display unit 190.

また、オブジェクトが、投影面SPよりも左眼用、右眼用仮想カメラVCL、VCRからみて手前側のエリア(投影面SPとニアクリップ面NPL、NPRに挟まれたエリア)である第1のエリアAR1に位置する場合には、図6(A)に示すように、左眼用画像でのオブジェクトOBLの描画位置は、右眼用画像でのオブジェクトOBRの描画位置に対して右側にずれ、プレーヤからはオブジェクトが表示部190の画面よりも手前側に飛び出しているように見える。   The object is a first area (an area sandwiched between the projection plane SP and the near clip planes NPL and NPR) as viewed from the left-eye and right-eye virtual cameras VCL and VCR with respect to the projection plane SP. When located in the area AR1, as illustrated in FIG. 6A, the drawing position of the object OBL in the left-eye image is shifted to the right with respect to the drawing position of the object OBR in the right-eye image. From the player, it seems that the object is projected to the near side of the screen of the display unit 190.

また、オブジェクトが、投影面SPよりも左眼用、右眼用仮想カメラVCL、VCRからみて奥側のエリア(投影面SPとファークリップ面FPL、FPRに挟まれたエリア)である第2のエリアAR2に位置する場合には、図6(B)に示すように、左眼用画像でのオブジェクトOBLの描画位置は、右眼用画像でのオブジェクトOBRの描画位置に対して左側にずれ、プレーヤからはオブジェクトが表示部190の画面よりも奥側に引っ込んでいるように見える。   The object is a second area (an area sandwiched between the projection plane SP and the far clip planes FPL and FPR) as viewed from the left-eye and right-eye virtual cameras VCL and VCR with respect to the projection plane SP. When located in the area AR2, as shown in FIG. 6B, the drawing position of the object OBL in the left-eye image is shifted to the left with respect to the drawing position of the object OBR in the right-eye image. From the player, it appears that the object is retracted further back than the screen of the display unit 190.

本実施形態では、オブジェクト空間におけるオブジェクトの位置に基づき空気発射装置50を制御する。例えば、画面よりも手前側に飛び出しているように見える飛び出し空間を再現する第1のエリアAR1に位置するオブジェクトがある場合に、空気発射装置50の発射口52から空気を発射させる制御を行う。このようにすると、空気発射装置50を用いて立体視の飛び出し演出による演出効果を補強してより効果的なゲーム演出を行うことができる。また、画面よりも奥側に引っ込んでいるように見える奥行き空間を再現する第2のエリアAR2に位置するオブジェクトがある場合に、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。このようにすると、空気発射装置50を用いて立体視の奥行き演出による演出効果を補強してより効果的なゲーム演出を行うことができる。   In the present embodiment, the air emission device 50 is controlled based on the position of the object in the object space. For example, when there is an object located in the first area AR <b> 1 that reproduces a pop-out space that appears to protrude to the near side of the screen, control is performed to discharge air from the discharge port 52 of the air discharge device 50. In this way, it is possible to reinforce the effect of the stereoscopic pop-out effect using the air emission device 50 and perform a more effective game effect. Further, when there is an object located in the second area AR2 that reproduces the depth space that seems to be retracted from the screen, control is performed so that air is emitted from the emission port 52 of the air emission device 50. It may be. If it does in this way, the presentation effect by the depth production of stereoscopic vision can be reinforced using the air emission device 50, and a more effective game production can be performed.

3−2.空気発射装置の制御
本実施形態では、図7に示すように、投影面SPよりも仮想カメラVCL、VCRから見て奥側のエリアである第2のエリアAR2から投影面SPよりも仮想カメラVCL、VCRから見て手前側のエリアである第1のエリアAR1まで移動するオブジェクトOBが存在する場合に、空気発射装置50の発射口52から空気を発射させる制御を行う。
3-2. Control of Air Launching Device In this embodiment, as shown in FIG. 7, the virtual camera VCL from the second area AR2 that is the area behind the virtual camera VCL, VCR from the projection plane SP and from the projection plane SP. When there is an object OB that moves to the first area AR1, which is the area on the near side when viewed from the VCR, control is performed to emit air from the launch port 52 of the air launch device 50.

例えば、第2のエリアAR2から第1のエリアAR1に向けて移動するオブジェクトOBが投影面SPを通過するタイミングで空気発射装置50から空気を発射させるようにしてもよいし、オブジェクトOBが投影面SPを通過する直前又は直後のタイミングで空気発射装置50から空気を発射させるようにしてもよい。このようにすると、オブジェクトOBが表示画面13よりも手前側に飛び出して見えるタイミングで表示画面13の近傍に位置する空気発射装置50から発射された空気(渦輪VR)をプレーヤの身体の一部に当てることができ、あたかも表示画面13から飛び出して見えるオブジェクトOBにより生じた衝撃(或いは、表示画面13から飛び出して見えるオブジェクトOB自体)が身体に当たったような感覚をプレーヤに与えることができる。すなわち、立体視の飛び出し演出による効果を、空気発射装置50から発射された空気により補強することができ、より効果的なゲーム演出を行うことができる。   For example, air may be emitted from the air emission device 50 at a timing when the object OB moving from the second area AR2 toward the first area AR1 passes through the projection plane SP, or the object OB may be projected onto the projection plane. Air may be emitted from the air emission device 50 immediately before or after passing through the SP. In this way, the air (vortex ring VR) emitted from the air emission device 50 located in the vicinity of the display screen 13 at a timing when the object OB appears to jump out from the display screen 13 to a part of the player's body. The player can feel the impact of the object OB appearing popping out from the display screen 13 (or the object OB itself appearing popping out from the display screen 13) hitting the body. That is, the effect of the stereoscopic projection effect can be reinforced by the air emitted from the air emission device 50, and a more effective game effect can be performed.

また、第2のエリアAR2から第1のエリアAR1に向けて移動するオブジェクトOBの第1のエリアAR1における投影面SPからのZ軸方向の距離D(移動量)、或いは速度に応じて、空気発射装置50からの空気の発射タイミングを変化させるようにしてもよい。   Further, according to the distance D (movement amount) in the Z-axis direction from the projection plane SP in the first area AR1 of the object OB moving from the second area AR2 toward the first area AR1, or the air speed, You may make it change the discharge timing of the air from the discharge device 50. FIG.

例えば、オブジェクトOBが投影面SPを通過して投影面SPから距離Dだけ離れた位置に到達したときに、発射口52から発射された空気がプレーヤPの身体に当たるように、空気発射装置50からの空気の発射タイミングを制御してもよい。   For example, when the object OB passes through the projection plane SP and reaches a position separated from the projection plane SP by a distance D, the air emission device 50 causes the air emitted from the emission port 52 to hit the player P's body. The air emission timing may be controlled.

すなわち、図8(A)に示すように、移動するオブジェクトOBが時間Tにおいて投影面SPを通過し、時間Tにおいて投影面SPから距離Dの位置に到達するとした場合に、発射口52から発射された空気が時間TにおいてプレーヤPの身体に当たるような発射タイミング(例えば時間T)で発射口52から空気を発射させる制御を行う。ここで、発射口52から空気が発射されてからプレーヤPに到達するまでに掛かる時間をΔtとすると、発射タイミングTは、T=T−Δtにより求めることができる。 That is, as shown in FIG. 8A, when the moving object OB passes through the projection plane SP at time T 1 and reaches the position of the distance D from the projection plane SP at time T 2 , the launch port 52 Is controlled to cause the air to be emitted from the emission port 52 at the emission timing (for example, time T 3 ) such that the air emitted from the air hits the body of the player P at time T 2 . Here, assuming that the time taken from when the air is emitted from the emission port 52 to when it reaches the player P is Δt, the emission timing T 3 can be obtained by T 3 = T 2 −Δt.

なお、図8(A)に示すように、オブジェクトOBの速度が同一であれば、距離Dが小さいほどオブジェクトOBが距離Dに到達する時間Tが早くなるため、距離Dが小さいほど発射タイミングTは早いタイミングとなる。一方、距離Dが同一であれば、オブジェクトOBの速度が大きいほどオブジェクトOBが距離Dに到達する時間Tが早くなるため、オブジェクトOBの速度が大きいほど発射タイミングTは早いタイミングとなる。 Incidentally, as shown in FIG. 8 (A), if the same speed of the object OB, the distance D smaller the object OB is faster time T 2 to reach a distance D, as the distance D is smaller firing timing T 3 is the early timing. On the other hand, if the distance D is the same, since the higher the object OB is greater velocity of the object OB is faster time T 2 to reach the distance D, the firing timing T 3 higher the speed of the object OB becomes earlier timing.

また、空気発射装置50からの空気の発射タイミングを変化させることに代えて、空気発射装置50から発射される空気の速度を変化させるようにしてもよい。例えば、図9に示すように、空気発射装置50の発射口52の口径を、複数の絞り羽根から構成される絞り機構57により変更可能に構成し、絞り機構57を駆動制御して発射口52の口径を変更することで、発射口52から発射される空気の速度を変化させることができる。すなわち、発射口52の口径を小さくするほど、発射口52から発射される空気の速度を大きくすることができる。   Further, instead of changing the timing of air emission from the air emission device 50, the speed of the air emitted from the air emission device 50 may be changed. For example, as shown in FIG. 9, the aperture of the air emission device 50 is configured to be changeable by a diaphragm mechanism 57 composed of a plurality of diaphragm blades, and the diaphragm mechanism 57 is driven and controlled. By changing the caliber, the velocity of the air emitted from the emission port 52 can be changed. That is, the smaller the diameter of the launch port 52, the greater the speed of the air ejected from the launch port 52.

例えば、図8(B)に示すように、移動するオブジェクトOBが時間Tにおいて投影面SPを通過し、時間Tにおいて投影面SPから距離Dの位置に到達するとした場合に、発射口52から発射された空気が時間TにおいてプレーヤPの身体に当たるような発射速度で発射口52から空気を発射させる制御を行う。すなわち、距離Dが大きい場合(或いはオブジェクトOBの速度が小さい場合)には、発射口52の口径を大きくして発射口52から発射される空気の速度を小さくし(Δtを大きくする)、距離Dが小さい場合(或いはオブジェクトOBの速度が大きい場合)には、発射口52の口径を小さくして発射口52から発射される空気の速度を大きくする(Δtを小さくする)制御を行う。 For example, as shown in FIG. 8B, when the moving object OB passes through the projection plane SP at time T 1 and reaches the position of the distance D from the projection plane SP at time T 2 , the launch port 52 performs control of firing air from ejection port 52 at a rate of fire, such as air fired hits the body of the player P at time T 2 from. That is, when the distance D is large (or when the speed of the object OB is small), the diameter of the launch port 52 is increased to reduce the speed of air emitted from the launch port 52 (Δt is increased), and the distance is increased. When D is small (or when the speed of the object OB is high), control is performed to reduce the diameter of the discharge port 52 and increase the speed of air discharged from the discharge port 52 (decrease Δt).

なお、図8(A)、図8(B)において、オブジェクトOBが投影面SPを通過してから距離Dに到達するまでの時間がΔtよりも短い場合には、オブジェクトOBが投影面OBを通過する前のタイミングで発射口52から空気を発射させることになる。   In FIGS. 8A and 8B, when the time from when the object OB passes through the projection plane SP until reaching the distance D is shorter than Δt, the object OB moves over the projection plane OB. Air is fired from the launch port 52 at a timing before passing.

このように、オブジェクトOBが投影面SPから距離Dの位置に到達したときに、発射口52から発射された空気がプレーヤPの身体に当たるように、空気発射装置50の発射タイミング或いは発射速度を制御することで、あたかも表示画面13から飛び出して見えるオブジェクトOBにより生じた衝撃(或いは、表示画面13から飛び出して見えるオブジェクトOB自体)が身体に当たったような感覚をプレーヤに与えることができる。すなわち、表示画面13から飛び出して見えるオブジェクトOBと、発射口52から発射された空気とを密接に関連付けることができ、立体視の飛び出し演出による効果を補強することができる。   Thus, when the object OB reaches the position of the distance D from the projection plane SP, the emission timing or the emission speed of the air emission device 50 is controlled so that the air emitted from the emission port 52 strikes the body of the player P. By doing this, it is possible to give the player a feeling as if the impact (or the object OB itself that appears to jump out of the display screen 13) generated by the object OB that appears to jump out of the display screen 13 hits the body. That is, the object OB that appears to jump out from the display screen 13 can be closely associated with the air that is blown out from the launch port 52, and the effect of the stereoscopic jump-out effect can be reinforced.

また、発射口52から発射された空気がプレーヤPの身体に当たるタイミングで、プレーヤPが着座する座席60を振動させるようにしてもよい。このようにすると、立体視の飛び出し演出による効果を、空気発射装置50から発射された空気と座席60の振動により効果的に補強することができる。   Further, the seat 60 on which the player P is seated may be vibrated at a timing when the air emitted from the launch port 52 hits the body of the player P. If it does in this way, the effect by the popping-out effect of a stereoscopic view can be effectively reinforced by the vibration of the air emitted from the air emission device 50 and the seat 60.

なお、第1のエリアAR1におけるオブジェクトOBの投影面SPからの距離Dが大きいほど、発射口52から発射される空気の速度が大きくなるように制御してもよい。このようにすると、オブジェクトOBの表示画面13からの飛び出し量(距離Dに相当)が大きいほど、発射口52から発射される空気の勢いが強くなる、といった演出を行うことができ、立体視の飛び出し演出による効果を補強することができる。   Note that control may be performed such that the velocity of the air emitted from the emission port 52 increases as the distance D from the projection plane SP of the object OB in the first area AR1 increases. In this way, it is possible to produce an effect such that the greater the amount of projection of the object OB from the display screen 13 (corresponding to the distance D), the stronger the momentum of the air emitted from the outlet 52. The effect of popping out can be reinforced.

また、発射口52の口径を変化させることに代えて、空気発射装置50のスピーカ54に出力する信号の振幅を変化させることで、発射口52から発射される空気の勢い(強さ)を変化させるようにしてもよい。また、モータやソレノイドを用いて空気発射装置50を構成する場合には、当該モータやソレノイドに出力する電流・電圧を変化させるようにしてもよい。   Further, the momentum (strength) of the air emitted from the launch port 52 is changed by changing the amplitude of the signal output to the speaker 54 of the air launch device 50 instead of changing the diameter of the launch port 52. You may make it make it. When the air emission device 50 is configured using a motor or solenoid, the current / voltage output to the motor or solenoid may be changed.

また、空気発射装置50からの空気の発射と演出用光源による光の演出を連動させるようにしてもよい。例えば、空気発射装置50の発射口52から空気が発射されるタイミングで、演出用光源を点灯或いは点滅させるようにしてもよいし、演出用光源から出射される光の強度、色或いは点滅状態を変化させるようにしてもよい。また、演出用光源を、空気発射装置50の内部に設け、発射口52から光を出射させるようにしてもよい。また、演出用光源を、発射口52から発射される空気(渦輪)に向け、渦輪を可視化するようにしてもよい。このようにすると、立体視の飛び出し演出による効果を、空気発射装置50から発射された空気と演出用光源からの光により効果的に補強することができる。   In addition, the air emission from the air emission device 50 and the light effect by the effect light source may be linked. For example, the effect light source may be turned on or blinked at the timing when air is emitted from the emission port 52 of the air emission device 50, and the intensity, color, or blinking state of the light emitted from the effect light source may be changed. It may be changed. In addition, an effect light source may be provided inside the air emission device 50 so that light is emitted from the emission port 52. Further, the directing light source may be directed toward the air (vortex ring) emitted from the emission port 52 to visualize the vortex ring. If it does in this way, the effect by the popping-out effect of stereoscopic vision can be effectively reinforced by the air emitted from the air emission device 50 and the light from the effect light source.

3−3.ゲーム音の制御
本実施形態では、空気発射装置50の発射口52から空気が発射されるタイミングでゲーム音を生成して音出力部192に出力する。例えば、図10(A)に示すように、空気発射装置50のスピーカ54に入力信号(ここでは、一波長分の矩形波信号)が入力されている間、所与のゲーム音(効果音など)が音出力部192から出力されるように制御する。また、空気発射装置50のスピーカ54に入力信号が入力されている間だけ、音出力部192から出力されるゲーム音の音量を大きくする制御を行ってもよい。このようにすると、空気発射装置50から空気が発射されるときに発生する発射音をプレーヤに聞こえ難くすることができ、空気発射装置50の存在をプレーヤに意識させないようにすることができる。
3-3. Control of Game Sound In the present embodiment, game sound is generated and output to the sound output unit 192 at the timing when air is emitted from the emission port 52 of the air emission device 50. For example, as shown in FIG. 10A, while an input signal (here, a rectangular wave signal for one wavelength) is being input to the speaker 54 of the air emission device 50, a given game sound (such as a sound effect) ) Is output from the sound output unit 192. Further, the control for increasing the volume of the game sound output from the sound output unit 192 may be performed only while the input signal is being input to the speaker 54 of the air emission device 50. In this way, it is possible to make it difficult for the player to hear the sound generated when air is emitted from the air emission device 50, and to prevent the player from being aware of the presence of the air emission device 50.

また、図10(B)に示すように、空気発射装置50のスピーカ54に入力信号が入力されている間、該入力信号と逆位相の波形の音をゲーム音として音出力部192から出力されるように制御してもよい。このようにすると、空気発射装置50による発射音をゲーム音により打ち消すことができ、空気発射装置50による発射音をプレーヤに聞こえ難くすることができる。なお、空気発射装置50の近傍にマイクロフォンを設置しておき、このマイクロフォンで検出された発射音と逆位相の音を生成して音出力部192から出力するようにしてもよい。また、空気発射装置50の発射口52の口径を変更すると、発射音の音色と音圧が変化する。従って、空気発射装置50の発射口52の口径の変更に応じて、発射音を打ち消すために出力するゲーム音の波形を変化させるようにしてもよい。   Further, as shown in FIG. 10B, while the input signal is being input to the speaker 54 of the air launcher 50, the sound output unit 192 outputs a sound having a waveform opposite in phase to the input signal as a game sound. You may control so that. In this way, it is possible to cancel the sound emitted by the air emitting device 50 with the game sound, and make it difficult for the player to hear the sound emitted by the air emitting device 50. Note that a microphone may be installed in the vicinity of the air emitting device 50, and a sound having a phase opposite to that of the fired sound detected by the microphone may be generated and output from the sound output unit 192. Further, when the diameter of the launch port 52 of the air launcher 50 is changed, the tone color and sound pressure of the launch sound change. Therefore, the waveform of the game sound output for canceling the fired sound may be changed in accordance with the change in the diameter of the launching port 52 of the air launching device 50.

また、空気発射装置50の発射口52からの空気の発射に応じて音像定位が変化するゲーム音を生成して音出力部192に出力してもよい。例えば、空気発射装置50の発射口52から発射された渦輪VRの移動に連動して音像定位が変化するゲーム音を生成して出力する。   In addition, a game sound whose sound image localization changes according to the air emission from the emission port 52 of the air emission device 50 may be generated and output to the sound output unit 192. For example, a game sound in which the sound image localization changes in association with the movement of the vortex ring VR launched from the launch port 52 of the air launcher 50 is generated and output.

例えば、図11(A)に示すように、空気発射装置50の発射口52の位置に仮想音源VSを設定しておき、発射口52から渦輪VRが発射された場合に、プレーヤPに向けて飛行する渦輪VRと同一方向に同一速度で仮想音源VSが移動するように制御しつつ、移動する仮想音源VSの位置に音像が定位するゲーム音を生成して出力する。このようにすると、立体視の飛び出し演出による効果を、空気発射装置50から発射された空気とゲーム音により効果的に補強することができる。例えば、図11(B)に示すように、5台のスピーカ70を、プレーヤP(座席60)の前方、前方右側、前方左側、後方右側及び後方左側のそれぞれに配置することで、ゲーム音の音像定位を変化させることができる。   For example, as shown in FIG. 11A, when a virtual sound source VS is set at the position of the launch port 52 of the air launcher 50 and a vortex ring VR is fired from the launch port 52, it is directed toward the player P. While controlling the virtual sound source VS to move at the same speed in the same direction as the flying vortex ring VR, the game sound in which the sound image is localized at the position of the moving virtual sound source VS is generated and output. If it does in this way, the effect by the popping-out effect of stereoscopic vision can be effectively reinforced by the air and game sound which were launched from air launching device 50. For example, as shown in FIG. 11B, by arranging five speakers 70 on the front, front right side, front left side, rear right side, and rear left side of the player P (seat 60), Sound image localization can be changed.

また、空気発射装置50の発射口52から発射された渦輪VRがプレーヤPに当たるタイミングで、音出力部192から出力されたゲーム音がプレーヤPに届くように制御してもよい。このようにしても効果的なゲーム演出を行うことができる。   Further, it may be controlled so that the game sound output from the sound output unit 192 reaches the player P at the timing when the vortex ring VR discharged from the discharge port 52 of the air emission device 50 hits the player P. Even in this way, an effective game effect can be performed.

4.処理
次に、本実施形態のゲームシステムの処理の一例について図12のフローチャートを用いて説明する。
4). Processing Next, an example of processing of the game system of the present embodiment will be described with reference to the flowchart of FIG.

まず、処理部100は、左眼用、右眼用仮想カメラVCL、VCRの位置、向きに基づき投影面SPを設定する(ステップS10)。これにより、仮想カメラから見て投影面SPよりも手前側の第1のエリアAR1が設定される。   First, the processing unit 100 sets the projection plane SP based on the positions and orientations of the left-eye and right-eye virtual cameras VCL and VCR (step S10). Thereby, the first area AR1 on the near side of the projection plane SP as viewed from the virtual camera is set.

次に、移動・動作処理部112(移動処理部)は、オブジェクトをオブジェクト空間内で移動させる処理を行う(ステップS12)。   Next, the movement / motion processing unit 112 (movement processing unit) performs a process of moving the object in the object space (step S12).

次に、空気発射装置制御部114は、移動・動作処理部112の処理結果に基づき、第2のエリアAR2から第1のエリアAR1に向けて移動するオブジェクト(例えば、標的オブジェクト42)が投影面SPを通過したか否かを判断する(ステップS14)。オブジェクトが投影面SPを通過したと判断した場合(ステップS14のY)には、制御信号を生成して信号発生器56に出力することで、空気発射装置50の発射口52から空気を発射させる制御を行う(ステップS16)。   Next, based on the processing result of the movement / motion processing unit 112, the air emission device control unit 114 displays an object (for example, the target object 42) that moves from the second area AR2 toward the first area AR1. It is determined whether or not the SP has been passed (step S14). When it is determined that the object has passed through the projection plane SP (Y in step S14), a control signal is generated and output to the signal generator 56, whereby air is emitted from the emission port 52 of the air emission device 50. Control is performed (step S16).

ここで、音生成部130は、空気発射装置50の発射口52から空気が発射されるタイミングで、ゲーム音を生成して音出力部192に出力する(ステップS18)。また、オブジェクトが投影面SPを通過していない(既に投影面SPを通過していて、発射口52から空気を発射させる制御を行った場合を含む)と判断した場合(ステップS14のN)には、ステップS20の処理に進む。   Here, the sound generation unit 130 generates a game sound and outputs it to the sound output unit 192 at the timing when air is discharged from the discharge port 52 of the air emission device 50 (step S18). Further, when it is determined that the object has not passed through the projection plane SP (including the case where control has been performed so that air has already been passed through the projection plane SP and air is emitted from the launch port 52) (N in step S14). Advances to step S20.

次に、左眼用画像生成部124、右眼用画像生成部126は、投影面SPにオブジェクトを透視投影して描画することで、左眼用、右眼用仮想カメラVCL、VCRから見える左眼用画像、右眼用画像を生成する(ステップS20)。   Next, the left-eye image generation unit 124 and the right-eye image generation unit 126 perform perspective projection of the object on the projection plane SP and draw it, so that the left-eye and right-eye virtual cameras VCL and VCR can see the left. An eye image and a right eye image are generated (step S20).

次に、処理部100は、処理を続けるか否かを判断し(ステップS22)、処理を続ける場合には、ステップS10の処理に戻り、ステップS10以降の処理を1フレーム毎に繰り返す。   Next, the processing unit 100 determines whether or not to continue the processing (step S22). When the processing is continued, the processing unit 100 returns to the processing of step S10 and repeats the processing after step S10 for each frame.

なお、空気発射装置制御部114は、ステップS14において、オブジェクトの投影面SPからの移動量D(飛び出し量)やオブジェクトの速度が予めわかっている場合に、当該距離Dや速度に基づき、発射タイミングであるか否かを判断して、発射タイミングであると判断した場合に、ステップ16において、空気発射装置50の発射口52から空気を発射させる制御を行うようにしてもよい。また、オブジェクトの距離Dや速度に基づき、発射口52の口径(空気の発射速度)を変化させて、発射口52から空気を発射させる制御を行うようにしてもよい。   In step S14, the air emission device control unit 114 determines the emission timing based on the distance D and the velocity when the movement amount D (the amount of protrusion) of the object from the projection plane SP and the velocity of the object are known in advance. If it is determined whether or not it is the launch timing, in step 16, control may be performed to emit air from the launch port 52 of the air launcher 50. In addition, based on the distance D and the speed of the object, the diameter of the discharge port 52 (air discharge speed) may be changed to control the discharge of air from the discharge port 52.

5.変形例
本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
5. Modifications The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

例えば、空気発射装置50は、発射口52からの空気の発射角度が変更可能に構成されていてもよい。具体的には、空気発射装置50を所定の1軸或いは2軸周りに回転駆動する駆動機構を更に設けるようにしてもよい。そして、移動処理部の処理結果に応じて、空気発射装置50を回転させて、空気発射装置50の発射口52から発射された空気がプレーヤの身体の異なる部分に当たるように制御してもよい。例えば、オブジェクトが表示画面13からプレーヤの頭部に向かって飛び出して見えるように移動する場合には、発射口52から発射された空気がプレーヤの頭部に当たるように制御し、オブジェクトが表示画面13からプレーヤの腹部に向かって飛び出して見えるように移動する場合には、発射口52から発射された空気がプレーヤの腹部に当たるように制御してもよい。   For example, the air emission device 50 may be configured such that the emission angle of air from the emission port 52 can be changed. Specifically, a drive mechanism that rotates the air emitting device 50 around a predetermined axis or two axes may be further provided. Then, according to the processing result of the movement processing unit, the air emission device 50 may be rotated so that the air emitted from the emission port 52 of the air emission device 50 hits different parts of the player's body. For example, when the object moves so as to appear to jump out from the display screen 13 toward the head of the player, the air emitted from the launch port 52 is controlled to hit the head of the player, and the object is displayed on the display screen 13. , The air fired from the launch port 52 may be controlled so as to strike the abdomen of the player.

また、一のプレーヤに向けて空気を発射する空気発射装置50を複数設けて、移動処理部の処理結果に応じて、空気を発射させる空気発射装置を選択するようにしてもよい。例えば、オブジェクトが表示画面13からプレーヤの頭部に向かって飛び出して見えるように移動する場合には、発射口がプレーヤの頭部に向けられた第1の空気発射装置から空気を発射させる制御を行い、オブジェクトが表示画面13からプレーヤの腹部に向かって飛び出して見えるように移動する場合には、発射口がプレーヤの腹部に向けられた第2の空気発射装置から空気を発射させる制御を行うようにしてもよい。   Further, a plurality of air emission devices 50 that emit air toward one player may be provided, and an air emission device that emits air may be selected according to the processing result of the movement processing unit. For example, when the object moves so as to appear to jump out from the display screen 13 toward the player's head, control is performed so that air is emitted from the first air emitting device whose launch port is directed toward the player's head. When the object moves so as to appear to jump out from the display screen 13 toward the abdomen of the player, control is performed so that air is emitted from the second air emission device whose launch port is directed toward the abdomen of the player. It may be.

50 空気発射装置、52 発射口、56 信号発生器、58 増幅器、100 処理部、110 オブジェクト空間設定部、112 移動・演算処理部(移動処理部)、114 空気発射装置制御部、118 仮想カメラ制御部、120 画像生成部、124 左眼用画像生成部、126 右眼用画像生成部、130 音生成部、160 入力部、162 検出部、170 記憶部、180 情報記憶媒体、190 表示部、192 音出力部、196 通信部 50 Air Launcher, 52 Launch Port, 56 Signal Generator, 58 Amplifier, 100 Processing Unit, 110 Object Space Setting Unit, 112 Movement / Calculation Processing Unit (Movement Processing Unit), 114 Air Launching Device Control Unit, 118 Virtual Camera Control Unit, 120 image generation unit, 124 left eye image generation unit, 126 right eye image generation unit, 130 sound generation unit, 160 input unit, 162 detection unit, 170 storage unit, 180 information storage medium, 190 display unit, 192 Sound output unit, 196 communication unit

Claims (15)

発射口から空気を発射する空気発射装置と、
オブジェクトをオブジェクト空間内で移動させる処理を行う処理部と、
前記処理部の処理結果に基づき前記空気発射装置を制御する空気発射装置制御部と、
前記オブジェクトの立体視用画像を生成する画像生成部と、
前記立体視用画像を表示する表示部とを含み、
前記空気発射装置制御部は、
前記オブジェクト空間内の投影面よりも視点から見て手前側の第1のエリアに位置するオブジェクトがある場合に、前記空気発射装置の発射口から空気を発射させる制御を行うことを特徴とするゲームシステム。
An air launcher that launches air from a launch port;
A processing unit that performs processing to move the object in the object space ;
An air launcher controller that controls the air launcher based on the processing result of the processor;
An image generator for generating a stereoscopic image of the object ;
Look including a display unit for displaying an image for the stereoscopic,
The air launcher controller is
A game in which, when there is an object located in a first area on the near side as viewed from the viewpoint of the projection plane in the object space, control is performed to emit air from the outlet of the air emission device. system.
請求項において、
前記空気発射装置制御部は、
前記投影面よりも視点から見て奥側の第2のエリアから前記第1のエリアまで移動する前記オブジェクトがある場合に、前記空気発射装置の発射口から空気を発射させる制御を行うことを特徴とするゲームシステム。
In claim 1 ,
The air launcher controller is
When there is the object that moves from the second area on the back side as viewed from the perspective of the projection plane to the first area, control is performed to emit air from the outlet of the air emission device. A game system.
請求項において、
前記空気発射装置制御部は、
前記オブジェクトの前記投影面からの移動量に応じて、前記発射口からの空気の発射タイミングを変化させることを特徴とするゲームシステム。
In claim 2 ,
The air launcher controller is
A game system, wherein the timing of air emission from the outlet is changed in accordance with the amount of movement of the object from the projection plane.
請求項において、
前記空気発射装置制御部は、
前記オブジェクトが前記投影面から所定距離だけ離れた位置に到達するタイミングに応じて、前記発射口からの空気の発射タイミングを変化させることを特徴とするゲームシステム。
In claim 3 ,
The air launcher controller is
A game system, wherein the timing of air emission from the outlet is changed according to the timing at which the object reaches a position separated from the projection plane by a predetermined distance.
請求項乃至のいずれかにおいて、
前記空気発射装置は、
前記発射口の口径が変更可能に構成され、
前記空気発射装置制御部は、
前記オブジェクトの前記投影面からの移動量に応じて、前記発射口の口径を変更する制御を行うことを特徴とするゲームシステム。
In any of claims 2 to 4 ,
The air launcher is
The caliber of the launch port is configured to be changeable,
The air launcher controller is
The game system characterized by performing control which changes the diameter of the said launching opening according to the movement amount of the said object from the said projection surface.
請求項乃至のいずれかにおいて、
前記空気発射装置は、
前記発射口の口径が変更可能に構成され、
前記空気発射装置制御部は、
前記オブジェクトの速度に応じて、前記発射口の口径を変更する制御を行うことを特徴とするゲームシステム。
In any of claims 2 to 5 ,
The air launcher is
The caliber of the launch port is configured to be changeable,
The air launcher controller is
A game system, wherein control is performed to change the diameter of the launch port in accordance with the speed of the object.
請求項1乃至のいずれかにおいて、
プレーヤが所定位置でゲームプレイ可能に構成され、
前記空気発射装置は、
前記発射口から発射された空気が前記所定位置でゲームプレイするプレーヤに当たるように配置されていることを特徴とするゲームシステム。
In any one of Claims 1 thru | or 6 .
The player is configured to play a game at a predetermined position,
The air launcher is
The game system is arranged so that air blown from the launch port hits a player who plays a game at the predetermined position.
請求項において、
前記空気発射装置は、
前記表示部の近傍に配置され、前記発射口が前記プレーヤの位置に向けて開口されていることを特徴とするゲームシステム。
In claim 7 ,
The air launcher is
A game system, wherein the game system is disposed in the vicinity of the display unit, and the launch port is opened toward the position of the player.
請求項又はにおいて、
振動可能に構成されたプレーヤ用の座席と、
前記発射口から発射された空気が前記座席に着座したプレーヤに当たるタイミングに合わせて、前記座席を振動させる制御を行う振動制御部とを更に含むことを特徴とするゲームシステム。
In claim 7 or 8 ,
A seat for a player configured to vibrate;
A game system further comprising: a vibration control unit that performs control to vibrate the seat in accordance with a timing at which the air discharged from the discharge port hits a player seated on the seat.
請求項1乃至のいずれかにおいて、
前記空気発射装置は、
前記発射口からの空気の発射角度が変更可能に構成されていることを特徴とするゲームシステム。
In any one of Claims 1 thru | or 9 ,
The air launcher is
A game system characterized in that an air emission angle from the emission port can be changed.
請求項1乃至10のいずれかにおいて、
ゲーム音を出力する音出力部と、
前記空気発射装置の発射口から空気が発射されるタイミングでゲーム音を生成して前記音出力部に出力する音生成部とを更に含むことを特徴とすることを特徴とするゲームシステム。
In any one of Claims 1 thru | or 10 .
A sound output unit for outputting game sounds;
A game system, further comprising: a sound generation unit that generates a game sound at a timing when air is discharged from a discharge port of the air emission device and outputs the sound to the sound output unit.
請求項1乃至11のいずれかにおいて、
ゲーム音を出力する音出力部と、
前記空気発射装置の発射口からの空気の発射に応じて音像定位が変化するゲーム音を生成して前記音出力部に出力する音生成部とを更に含むことを特徴とすることを特徴とするゲームシステム。
In any one of Claims 1 thru | or 11 ,
A sound output unit for outputting game sounds;
And a sound generation unit that generates a game sound whose sound image localization changes in response to the emission of air from a discharge port of the air emission device and outputs the game sound to the sound output unit. Game system.
請求項12において、
前記音出力部は、
プレーヤの前方と後方のそれぞれに配置されていることを特徴とするゲームシステム。
In claim 12 ,
The sound output unit is
A game system, which is disposed in front of and behind the player, respectively.
請求項1乃至13のいずれかにおいて、
光を出射する光源と、
前記光源を制御する光源制御部とを更に含み、
前記光源制御部は、
前記空気発射装置の発射口から空気が発射された場合に、前記光源から出射される光を変化させる制御を行うことを特徴とするゲームシステム。
In any one of Claims 1 thru | or 13 .
A light source that emits light;
A light source control unit for controlling the light source,
The light source controller is
The game system characterized by performing control which changes the light radiate | emitted from the said light source, when air is discharged from the launch outlet of the said air emission apparatus.
発射口から空気を発射する空気発射装置と、
プレーヤが把持して操作するコントローラと、
オブジェクト空間内で標的オブジェクトを移動させ、前記コントローラからの入力情報に基づき前記コントローラが指示している表示画面上の位置を演算し、演算された位置が前記標的オブジェクトの表示位置と一致するか否かを判定し、判定結果に基づき演出画像を表示させるゲーム処理を行う処理部と、
前記オブジェクト空間における前記標的オブジェクトの位置に基づき、前記空気発射装置の発射口から空気を発射させる制御を行う空気発射装置制御部と、
前記標的オブジェクトの立体視用画像を生成する画像生成部と、
前記立体視用画像を表示する表示部と、
振動可能に構成されたプレーヤ用の座席と、
前記座席を振動させる制御を行う振動制御部と、
ゲーム音を出力する音出力する音出力部と、
ゲーム音を生成して前記音出力部に出力する音生成部とを含み、
前記空気発射装置制御部は、
前記オブジェクト空間内の投影面よりも視点から見て手前側の第1のエリアに位置する標的オブジェクトがある場合に、前記空気発射装置の発射口から空気を発射させる制御を行い、
前記空気発射装置は、
前記発射口から発射された空気が前記座席に着座したプレーヤに当たるように配置され、
前記振動制御部は、
前記発射口から発射された空気が前記座席に着座したプレーヤに当たるタイミングに合わせて、前記座席を振動させる制御を行い、
前記音生成部は、
発射口から空気が発射されるタイミングでゲーム音を生成して前記音出力部に出力することを特徴とするゲームシステム。
An air launcher that launches air from a launch port;
A controller that the player holds and operates;
The target object is moved in the object space, the position on the display screen indicated by the controller is calculated based on the input information from the controller, and whether the calculated position matches the display position of the target object or not And a processing unit for performing a game process for displaying an effect image based on the determination result;
Based on the position of the target object in the object space, an air emission device control unit that performs control to emit air from the emission port of the air emission device;
An image generator for generating a stereoscopic image of the target object;
A display unit for displaying the stereoscopic image;
A seat for a player configured to vibrate;
A vibration control unit that performs control to vibrate the seat;
A sound output unit for outputting game sound,
A sound generation unit that generates a game sound and outputs the game sound to the sound output unit,
The air launcher controller is
When there is a target object located in the first area on the near side when viewed from the viewpoint of the projection plane in the object space, control to emit air from the outlet of the air emission device,
The air launcher is
Arranged so that the air launched from the launch port hits the player seated on the seat,
The vibration control unit
Control the vibration of the seat in accordance with the timing at which the air fired from the launch port hits the player seated on the seat,
The sound generator is
A game system that generates a game sound at a timing when air is emitted from a launch port and outputs the game sound to the sound output unit.
JP2011075131A 2011-03-30 2011-03-30 Game system Active JP5809428B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011075131A JP5809428B2 (en) 2011-03-30 2011-03-30 Game system
CN201220040884XU CN202516288U (en) 2011-03-30 2012-02-09 Game system
CN201280014105.1A CN103442775B (en) 2011-03-30 2012-02-09 Games system
PCT/JP2012/052918 WO2012132563A1 (en) 2011-03-30 2012-02-09 Game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011075131A JP5809428B2 (en) 2011-03-30 2011-03-30 Game system

Publications (3)

Publication Number Publication Date
JP2012205827A JP2012205827A (en) 2012-10-25
JP2012205827A5 JP2012205827A5 (en) 2014-02-27
JP5809428B2 true JP5809428B2 (en) 2015-11-10

Family

ID=46930328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011075131A Active JP5809428B2 (en) 2011-03-30 2011-03-30 Game system

Country Status (3)

Country Link
JP (1) JP5809428B2 (en)
CN (1) CN202516288U (en)
WO (1) WO2012132563A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6220524B2 (en) * 2013-01-28 2017-10-25 株式会社タイトー Game device
CN106709229B (en) * 2015-11-12 2019-07-12 网易(杭州)网络有限公司 The method and device of NPC object priority response in a kind of game system
JP6935218B2 (en) * 2017-03-31 2021-09-15 株式会社バンダイナムコアミューズメント Simulation system and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0747065B2 (en) * 1986-11-17 1995-05-24 株式会社ナムコ Professional stereoscopic image game device and professional stereoscopic image forming method
JP3360837B2 (en) * 1991-03-23 2003-01-07 株式会社ナムコ Diversion device
JP3767651B2 (en) * 1997-07-22 2006-04-19 株式会社ナムコ Air bullet generator
JP3273038B2 (en) * 1999-11-17 2002-04-08 株式会社ナムコ Virtual experience type game device
JP3466176B2 (en) * 2001-12-21 2003-11-10 コナミ株式会社 GAME METHOD, GAME PROGRAM, GAME DEVICE, AND GAME SYSTEM
JP5615507B2 (en) * 2009-03-31 2014-10-29 株式会社タイトー Game system

Also Published As

Publication number Publication date
JP2012205827A (en) 2012-10-25
CN202516288U (en) 2012-11-07
WO2012132563A1 (en) 2012-10-04
CN103442775A (en) 2013-12-11

Similar Documents

Publication Publication Date Title
JP6438207B2 (en) Image generation system and program
JP5597837B2 (en) Program, information storage medium, and image generation apparatus
JP5614956B2 (en) Program, image generation system
JP5149337B2 (en) Program, information storage medium, and image generation system
JP5568230B2 (en) Program, information storage medium, and game system
CN105993167B (en) Image generation system, image generating method and information storage medium
US11738270B2 (en) Simulation system, processing method, and information storage medium
JP2012212237A (en) Image generation system, server system, program, and information storage medium
JP2011212123A (en) Program, information storage medium and terminal
JP4758499B2 (en) Image generation system and information storage medium
JP2011101752A (en) Program, information storage medium, and image generating device
JP2011053838A (en) Program, information storage medium, and image generation device
JP5443129B2 (en) Program and network system
JP5628488B2 (en) Program, information storage medium, and game device
JP5809428B2 (en) Game system
JP2004298305A (en) Image formation information, information storage medium and image formation device
JP2018171319A (en) Simulation system and program
JP5649846B2 (en) Program and image generation system
JP2006277722A (en) Program, information storage medium, and image generation system
JP2011096017A (en) Program, information storage medium and terminal
WO2013118691A1 (en) Game system
JP4367810B2 (en) Image generation system and information storage medium
JP2008067853A (en) Program, information storage medium and image generation system
JP2006277352A (en) Program, information storage medium, and image generation system
JP2018171309A (en) Simulation system and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140107

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150911

R150 Certificate of patent or registration of utility model

Ref document number: 5809428

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250