JP6539224B2 - Game program and game system - Google Patents

Game program and game system Download PDF

Info

Publication number
JP6539224B2
JP6539224B2 JP2016075604A JP2016075604A JP6539224B2 JP 6539224 B2 JP6539224 B2 JP 6539224B2 JP 2016075604 A JP2016075604 A JP 2016075604A JP 2016075604 A JP2016075604 A JP 2016075604A JP 6539224 B2 JP6539224 B2 JP 6539224B2
Authority
JP
Japan
Prior art keywords
virtual camera
event
predetermined
event occurrence
occurrence point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016075604A
Other languages
Japanese (ja)
Other versions
JP2017184982A (en
Inventor
祐介 時田
祐介 時田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2016075604A priority Critical patent/JP6539224B2/en
Publication of JP2017184982A publication Critical patent/JP2017184982A/en
Application granted granted Critical
Publication of JP6539224B2 publication Critical patent/JP6539224B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ゲームプログラムおよびゲームシステムに関する。   The present invention relates to a game program and a game system.

従来、アクションゲームやロールプレイングゲームなど、ユーザの操作に応じてプレイヤキャラクタを仮想空間内で動作させ、敵キャラクタ等を攻撃するゲームがある。このようなゲームにおいては、仮想空間に配置された仮想カメラで撮像した画像がゲーム画面としてゲーム装置のディスプレイに表示される。現在、プレイヤキャラクタと同じ目線位置に仮想カメラが配置される一人称視点による映像をゲーム画面としたり、プレイヤキャラクタの周囲および/または上方に仮想カメラが配置され、プレイヤキャラクタおよびその周囲の仮想空間を撮像する三人称視点による映像をゲーム画面とするゲームがリリースされている。   2. Description of the Related Art Conventionally, there are games such as an action game and a role playing game in which a player character is moved in a virtual space in response to a user's operation to attack an enemy character or the like. In such a game, an image captured by a virtual camera disposed in a virtual space is displayed on the display of the game device as a game screen. Currently, a video from a first-person viewpoint in which a virtual camera is arranged at the same eye position as the player character is used as a game screen, or a virtual camera is arranged around and / or above the player character to image the player character and the virtual space around it The game which makes the picture by the third person viewpoint which makes it a game screen is released.

このような一人称視点または三人称視点によるゲームは、ユーザ自身の視点に近いゲーム画面とすることにより、ユーザのゲームへの没入感を高めることができる。   Such a game with a first person viewpoint or a third person viewpoint can enhance the user's sense of immersion in the game by setting the game screen closer to the user's own viewpoint.

このようなゲームにおいて、例えばプレイヤキャラクタが所定の仮想空間位置に位置する等の所定の条件を満たした場合に、飛行機またはヘリコプタ等が飛来するといった所定のイベントが発生する態様が知られている(例えばカプコン社発売の「バイオハザード」シリーズ、「デッドライジング」シリーズ等)。   In such a game, there is known a mode in which a predetermined event such as flying of an airplane or a helicopter occurs when a predetermined condition such as the player character is positioned at a predetermined virtual space position is met (for example, For example, "Resident Evil" series released by Capcom, "Dead Rising" series etc.).

しかし、このようなイベントが発生した場合でも、ユーザは、必ずしもイベントの発生方向に仮想カメラを向けるとは限らない。また、ユーザがイベントの発生方向を探すために仮想カメラを動かしている間に仮想カメラが向けられていないところでイベントが発生してしまう場合も生じ得る。その結果、ユーザがイベントの発生に気付かないまたは気付くのが遅れ、イベントの発生に対するユーザの興趣を削ぐ結果となる。現実世界では飛来音等のイベントの発生音が聞こえてきた方向に顔を向けることが可能であるが、ゲームでは音を頼りにプレイヤキャラクタまたは仮想カメラの向きをイベントの発生位置に合わせる態様とすることは困難である。   However, even when such an event occurs, the user does not necessarily point the virtual camera in the direction in which the event occurs. It may also occur that an event occurs where the virtual camera is not pointed while the user is moving the virtual camera to look for the direction of occurrence of the event. As a result, the user does not notice or notice the occurrence of the event, which results in curbing the user's interest in the occurrence of the event. In the real world, it is possible to turn the face in the direction in which the sound of the event, such as the flying sound, has been heard, but in the game, the player character or virtual camera is oriented to the event generation position using the sound. It is difficult.

このような問題を回避するために、従来のゲームでは、イベントの発生によりゲーム画面を強制的に予め準備されたムービーシーンに差し替える態様が行われている。また、ユーザの操作に拘わらずイベントが発生する地点に強制的に仮想カメラを向けたり、所定の操作ボタンを押下操作する指示を表示し、当該操作ボタンの押下操作している間は仮想カメラがイベントの発生地点に自動的に向くようにする態様も考えられる。   In order to avoid such a problem, in the conventional game, there is performed a mode of forcibly replacing the game screen with a previously prepared movie scene when an event occurs. In addition, regardless of the user's operation, the virtual camera is forcibly directed to the point where the event occurs, or an instruction to press a predetermined operation button is displayed, and while the operation button is pressed, the virtual camera It is also conceivable to automatically turn to the event occurrence point.

しかし、何れの態様にしても、ユーザの操作に制限が加わるため、ユーザに抵抗感を感じさせ易い。また、ユーザの操作によりプレイヤキャラクタが行動可能な通常のゲーム態様とイベント発生時の強制的に進行するゲーム態様との乖離が大きく、ユーザのゲームへの没入感を低減してしまう。   However, in any of the modes, since the user's operation is limited, it is easy for the user to feel resistance. In addition, the difference between the normal game mode in which the player character can act by the user's operation and the game mode which is forcibly advanced when the event occurs is large, and the user's sense of immersion in the game is reduced.

本発明は、ユーザの操作を制限することなく、イベントの発生をユーザに確実に知覚させることができるゲームプログラムおよびゲームシステムを提供することを目的とする。   An object of the present invention is to provide a game program and a game system which can make a user surely perceive the occurrence of an event without restricting the operation of the user.

本発明の一の態様に係るゲームプログラムは、仮想空間に配置した仮想カメラで撮像した画像をゲーム画面として表示する表示部と、前記仮想カメラの向きまたは位置を操作する操作部と、ゲームを進行させるコンピュータとを備えたゲームシステムにおいて前記コンピュータに実行させるゲームプログラムであって、前記コンピュータを、前記仮想空間を生成する仮想空間生成手段、ユーザによる前記操作部の操作に基づいて前記仮想カメラの向きまたは位置を変化させる撮像方向変化手段、前記仮想カメラの撮像範囲内の前記仮想空間に前記所定のイベント発生地点を設定するイベント発生地点設定手段、および前記仮想空間内において所定のイベントを発生させるイベント発生手段、として機能させ、前記イベント発生手段は、前記仮想カメラの撮像範囲内に前記イベント発生地点が設定された後、当該イベント発生地点が前記仮想カメラの撮像範囲内に継続して含まれている時間を計時し、当該イベント発生地点が前記仮想カメラの撮像範囲内に所定時間継続して含まれる場合に、前記イベント発生地点から前記所定のイベントを発生させる。   A game program according to one aspect of the present invention includes a display unit that displays an image captured by a virtual camera arranged in a virtual space as a game screen, an operation unit that controls the direction or position of the virtual camera, and a game. A game program to be executed by the computer in a game system provided with a computer, the computer comprising: virtual space generation means for generating the virtual space; and an orientation of the virtual camera based on an operation of the operation unit by a user Alternatively, imaging direction changing means for changing the position, event occurrence point setting means for setting the predetermined event occurrence point in the virtual space within the imaging range of the virtual camera, and event for generating a predetermined event in the virtual space Function as generation means, and the event generation means After the event occurrence point is set in the imaging range of the camera, the time when the event occurrence point is continuously included in the imaging range of the virtual camera is counted, and the event occurrence point is the virtual camera The predetermined event is generated from the event occurrence point when continuously included in the imaging range for a predetermined time.

前記イベント発生地点設定手段は、前記仮想カメラの撮像範囲内に所定の固定オブジェクトが存在する場合に、前記仮想カメラの位置と前記所定の固定オブジェクトの位置とを結ぶ線上において前記所定の固定オブジェクトを基準とする前記仮想カメラの位置とは反対側に前記所定のイベント発生地点を設定してもよい。   The event occurrence point setting means sets the predetermined fixed object on a line connecting the position of the virtual camera and the position of the predetermined fixed object, when the predetermined fixed object exists within the imaging range of the virtual camera. The predetermined event occurrence point may be set on the opposite side to the position of the virtual camera as a reference.

前記仮想空間生成手段は、前記仮想空間に所定のオブジェクトを生成し、前記イベント発生地点設定手段は、前記仮想カメラの撮像範囲内の前記仮想空間に複数のイベント発生地点を同時に設定し、前記イベント発生手段は、前記複数のイベント発生地点が前記仮想カメラの撮像範囲内に前記所定時間継続して含まれている場合、前記仮想カメラの撮像範囲内に設定された前記複数のイベント発生地点のうち、前記所定時間経過後の時点において前記所定のオブジェクトに最も近いイベント発生地点からイベントを発生させてもよい。   The virtual space generation unit generates a predetermined object in the virtual space, and the event generation point setting unit simultaneously sets a plurality of event generation points in the virtual space within the imaging range of the virtual camera. When the plurality of event occurrence points are continuously included in the imaging range of the virtual camera for the predetermined time, the generation unit is one of the plurality of event occurrence points set in the imaging range of the virtual camera. The event may be generated from an event occurrence point closest to the predetermined object at a time after the predetermined time has elapsed.

また、本発明の他の態様に係るゲームシステムは、上記のゲームプログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶されたプログラムを実行するコンピュータとを備えている。   A game system according to another aspect of the present invention includes a program storage unit storing the above-described game program, and a computer that executes a program stored in the program storage unit.

本発明によれば、ユーザの操作を制限することなく、イベントの発生をユーザに確実に知覚させることができるゲームプログラムおよびゲームシステムを提供することができる。   According to the present invention, it is possible to provide a game program and a game system that can make a user surely perceive the occurrence of an event without restricting the operation of the user.

本実施の形態におけるゲーム装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the game device in this Embodiment. 図1に示すゲーム装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the game device shown in FIG. 本実施の形態における3次元の仮想空間を示す平面図である。It is a top view which shows the three-dimensional virtual space in this Embodiment. 本実施の形態におけるゲーム画面を示す図である。It is a figure which shows the game screen in this Embodiment. 本実施の形態におけるイベント処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the event processing in this Embodiment. 本実施の形態の変形例における3次元の仮想空間を示す平面図である。It is a top view which shows the three-dimensional virtual space in the modification of this Embodiment. 図6におけるゲーム画面を示す図である。It is a figure which shows the game screen in FIG.

以下、本発明の実施の形態に係るゲームプログラムおよびゲームシステムについて、図面を参照しつつ説明する。   Hereinafter, a game program and a game system according to an embodiment of the present invention will be described with reference to the drawings.

[ゲーム概要]
以下の説明では、家庭用ゲーム装置において実行されるアクションゲームを例として説明する。本実施の形態に係るアクションゲームは、仮想空間内で行動するプレイヤキャラクタを操作して、敵キャラクタを全滅させる、または仮想空間内の所定の位置に到達する等といった所定の目標を達成するために、敵キャラクタと戦うことにより進行する。
[Game Summary]
In the following description, an action game executed on a home gaming device will be described as an example. The action game according to the present embodiment operates a player character acting in a virtual space to achieve a predetermined goal such as annihilating an enemy character or reaching a predetermined position in the virtual space. Proceed by fighting with the enemy characters.

[ハードウェア構成]
上述したゲームを実現するゲーム装置の構成について説明する。本実施の形態におけるゲームシステムは、下記ゲーム装置2と、当該ゲーム装置2に接続されるモニタ(表示部)19、スピーカ22およびコントローラ(操作部)24などの外部装置とで構成され、下記ディスク型記憶媒体30から読み込んだゲームプログラム30aおよびゲームデータ30bに基づいてゲームを行い得るものである。ただし、以下では、説明を簡単にするため、単にゲーム装置2と称する場合がある。
[Hardware configuration]
The configuration of a game device for realizing the above-described game will be described. The game system according to the present embodiment includes the following game device 2 and an external device such as a monitor (display unit) 19 connected to the game device 2, a speaker 22 and a controller (operation unit) 24. A game can be played based on the game program 30a and the game data 30b read from the type storage medium 30. However, in the following, in order to simplify the description, the game device 2 may be simply referred to.

図1は、本実施の形態におけるゲーム装置2のハードウェア構成を示すブロック図である。図1に示すように、ゲーム装置2は、他のゲーム装置2およびサーバ装置3との間で、インターネットまたはLANなどの通信ネットワークNWを介して互いに通信可能である。このゲーム装置2は、その動作を制御するコンピュータであるCPU10を備え、このCPU10にはバス11を介してディスクドライブ12、メモリカードスロット13、プログラム記憶部を成すHDD14、ROM15およびRAM16が接続されている。   FIG. 1 is a block diagram showing a hardware configuration of game device 2 in the present embodiment. As shown in FIG. 1, the game devices 2 can communicate with each other between the other game devices 2 and the server device 3 via a communication network NW such as the Internet or a LAN. The game apparatus 2 comprises a CPU 10 which is a computer for controlling the operation, and a disk drive 12, a memory card slot 13, an HDD 14 forming a program storage unit, a ROM 15 and a RAM 16 are connected to the CPU 10 via a bus 11. There is.

また、CPU10には、バス11を介してグラフィック処理部17、オーディオ合成部20、無線通信制御部23およびネットワークインタフェース25が接続されている。   Further, a graphic processing unit 17, an audio synthesis unit 20, a wireless communication control unit 23 and a network interface 25 are connected to the CPU 10 via the bus 11.

このうちグラフィック処理部17は、CPU10の指示にしたがってゲーム空間および各キャラクタなどを含むゲーム画像を描画する。また、グラフィック処理部17にはビデオ変換部18を介して外部のモニタ19が接続されており、グラフィック処理部17にて描画されたゲーム画像はビデオ変換部18において動画形式に変換され、モニタ19にて表示されるようになっている。   Among them, the graphic processing unit 17 draws a game image including a game space and each character according to an instruction of the CPU 10. Further, an external monitor 19 is connected to the graphic processing unit 17 via the video conversion unit 18, and the game image drawn by the graphic processing unit 17 is converted to a moving image format by the video conversion unit 18, and the monitor 19 is Is to be displayed in.

オーディオ合成部20は、CPU10の指示に従ってデジタルのゲーム音声を再生および合成する。また、オーディオ合成部20にはオーディオ変換部21を介して外部のスピーカ22が接続されている。したがって、オーディオ合成部20にて再生および合成されたゲーム音声は、オーディオ変換部21にてアナログ形式にデコードされ、さらにスピーカ22から外部へ出力されるようになっている。   The audio synthesis unit 20 reproduces and synthesizes digital game sound according to the instruction of the CPU 10. Further, an external speaker 22 is connected to the audio synthesis unit 20 via the audio conversion unit 21. Therefore, the game voice reproduced and synthesized by the audio synthesizing unit 20 is decoded into an analog format by the audio converting unit 21 and is further outputted from the speaker 22 to the outside.

さらに、オーディオ合成部20は、ゲーム装置2に接続されるヘッドセットやコントローラ24等に設けられたマイク26から入力されるユーザの音声等がオーディオ変換部21にてデジタル形式にコードされたデータを取得可能である。オーディオ合成部20は、取得したデータをCPU10に入力情報として伝えることができる。   Furthermore, the audio synthesis unit 20 may be configured such that the voice or the like of the user input from the headset connected to the game apparatus 2 or the microphone 26 provided in the controller 24 etc. It can be acquired. The audio synthesizing unit 20 can transmit the acquired data to the CPU 10 as input information.

無線通信制御部23は、2.4GHz帯の無線通信モジュールを有し、ゲーム装置2に付属するコントローラ24との間で無線により接続され、データの送受信が可能となっている。ユーザは、このコントローラ24に設けられたボタン等の操作子(後述)を操作することにより、ゲーム装置2へ信号を入力することができ、モニタ19に表示されるプレイヤキャラクタの動作を制御可能になっている。   The wireless communication control unit 23 has a wireless communication module of 2.4 GHz band, is wirelessly connected to the controller 24 attached to the game apparatus 2, and can transmit and receive data. The user can input a signal to the game apparatus 2 by operating an operation element (described later) such as a button provided on the controller 24, and can control the operation of the player character displayed on the monitor 19 It has become.

また、ネットワークインタフェース25は、インターネットまたはLANなどの通信ネットワークNWに対してゲーム装置2を接続するものであり、他のゲーム装置2またはサーバ装置3との間で通信可能である。そして、ゲーム装置2を、通信ネットワークNWを介して他のゲーム装置2と接続し、互いにデータを送受信することにより、同一の仮想空間内で同期して複数のプレイヤキャラクタを表示させることができる。 The network interface 25 connects the game device 2 to a communication network NW such as the Internet or LAN, and can communicate with other game devices 2 or the server device 3. Then, by connecting the game apparatus 2 to another game apparatus 2 via the communication network NW and mutually transmitting and receiving data, a plurality of player characters can be displayed synchronously in the same virtual space.

これにより、本ゲームにおいては、複数のユーザに対応する複数のプレイヤキャラクタが協同して敵キャラクタと戦う、または複数のユーザ同士が敵対して対戦する、マルチプレイが可能である。 Thereby, in the present game, it is possible to perform multiplay where a plurality of player characters corresponding to a plurality of users cooperate to fight an enemy character or a plurality of users compete against each other.

[ゲーム装置の機能的構成]
図2は、図1に示すゲーム装置2の機能的な構成を示すブロック図である。図1に示すようにゲーム装置2は、CPU10、HDD14、ROM15、RAM16、グラフィック処理部17、ビデオ変換部18、オーディオ合成部20、オーディオ変換部21、ネットワークインタフェース25などを含む制御部4を備えたコンピュータとして動作する。そして、図2に示すように、ゲーム装置2の制御部4は、本発明のゲームプログラム30aを実行することで、仮想空間生成手段41、撮像方向変化手段42、イベント発生地点設定手段43、イベント発生手段44、およびキャラクタ制御手段45などの機能を発揮する。
[Functional configuration of game device]
FIG. 2 is a block diagram showing a functional configuration of the game apparatus 2 shown in FIG. As shown in FIG. 1, the game apparatus 2 includes a control unit 4 including a CPU 10, an HDD 14, a ROM 15, a RAM 16, a graphic processing unit 17, a video conversion unit 18, an audio synthesis unit 20, an audio conversion unit 21, a network interface 25 and the like. Operate as a computer. Then, as shown in FIG. 2, the control unit 4 of the game apparatus 2 executes the game program 30a according to the present invention to generate virtual space generation means 41, imaging direction change means 42, event occurrence point setting means 43, and events. The functions of the generation means 44 and the character control means 45 are exhibited.

このうち、仮想空間生成手段41は、ユーザが操作するプレイヤキャラクタが行動する仮想空間(ゲーム空間)を生成する。仮想空間生成手段41は、キャラクタが動作する仮想のゲーム空間および当該ゲーム空間内で動作する各キャラクタを生成し、モニタ19に表示させる。例えば、仮想空間生成手段41は、プレイヤキャラクタの移動に伴って、ゲームデータ30bに含まれるオブジェクトおよびテクスチャなどのデータを読み出し、三次元の仮想ゲーム空間を生成する。さらに、仮想空間生成手段41は、ゲーム装置2のモニタ19にゲーム空間を表示するために、生成したゲーム空間に配置した所定の仮想カメラで撮像したときの二次元画像を生成し、モニタ19にゲーム画面として表示する。   Among these, the virtual space generation unit 41 generates a virtual space (game space) in which a player character operated by the user acts. The virtual space generation unit 41 generates a virtual game space in which the character operates and each character operating in the game space and causes the monitor 19 to display the character. For example, the virtual space generation unit 41 reads data such as objects and textures included in the game data 30b as the player character moves, and generates a three-dimensional virtual game space. Furthermore, in order to display the game space on the monitor 19 of the game apparatus 2, the virtual space generation unit 41 generates a two-dimensional image when imaged by a predetermined virtual camera disposed in the generated game space, and causes the monitor 19 to Display as a game screen.

図3は、本実施の形態における3次元の仮想空間を示す平面図である。また、図4は、本実施の形態におけるゲーム画面を示す図である。図3に示すように、3次元の仮想空間Sには、地形がポリゴン、テクスチャ等で描画され、当該地形上に各種のオブジェクト、仮想カメラC等が配置される。例えば、図3の例においては、ユーザがコントローラ24を介して操作可能なプレイヤキャラクタPが仮想空間Sに配置されている。仮想カメラCの撮像範囲ACが二次元画像としてゲーム画面Gとして表示される。   FIG. 3 is a plan view showing a three-dimensional virtual space in the present embodiment. FIG. 4 is a diagram showing a game screen in the present embodiment. As shown in FIG. 3, in the three-dimensional virtual space S, terrain is drawn with polygons, textures, etc., and various objects, virtual cameras C, etc. are arranged on the terrain. For example, in the example of FIG. 3, a player character P operable by the user via the controller 24 is disposed in the virtual space S. An imaging range AC of the virtual camera C is displayed as a game screen G as a two-dimensional image.

キャラクタ制御手段45は、少なくとも当該コンピュータを操作するユーザに対応するキャラクタ(プレイヤキャラクタP)の動作を、当該ユーザによるコントローラ24の操作入力またはゲームの進行状況に応じて制御する。プレイヤキャラクタPは、ユーザによるコントローラ24の第1種操作に基づいて、当該第1種操作に定められた所定の行動を行う。キャラクタ制御手段45は、ユーザによるコントローラ24への入力操作に基づいて、第1種操作が行われたと判定した場合に、プレイヤキャラクタに、対応する所定の行動を実行させる。さらに、キャラクタ制御手段45は、仮想空間Sにて行動するノンプレイヤキャラクタの動作を制御する。   The character control means 45 controls at least the movement of the character (player character P) corresponding to the user who operates the computer in accordance with the operation input of the controller 24 by the user or the progress of the game. The player character P performs a predetermined action determined for the first type operation based on the first type operation of the controller 24 by the user. When the character control means 45 determines that the first type operation has been performed based on an input operation to the controller 24 by the user, the character control means 45 causes the player character to execute a corresponding predetermined action. Furthermore, the character control means 45 controls the motion of the non-player character acting in the virtual space S.

撮像方向変化手段42は、ユーザによるコントローラ24の操作に基づいて仮想カメラCの向きまたは位置を変化させる。より具体的には、撮像方向変化手段42は、ユーザによるコントローラ24の第2種操作に基づいて、当該第2種操作に定められた方向または位置へ仮想カメラCの向きを変化させる。第2種操作は、第1種操作とは独立した操作態様により構成される。   The imaging direction changing means 42 changes the direction or position of the virtual camera C based on the operation of the controller 24 by the user. More specifically, the imaging direction changing means 42 changes the orientation of the virtual camera C to the direction or position determined in the second type operation based on the second type operation of the controller 24 by the user. The second type operation is configured by an operation mode independent of the first type operation.

例えば、第2種操作を行うためのコントローラ24の操作子は、第1種操作を行うためのコントローラ24の操作子とは異なる操作子として構成される。例えば、方向スティック操作子と、方向パッド操作子とを備えたような、複数の方向操作子を有するコントローラ24において、一方の方向操作子(例えば方向スティック操作子)を第1種操作(プレイヤキャラクタの移動操作)に割り当て、他方の方向操作子(例えば方向パッド操作子)を第2種操作に割り当ててもよい。   For example, the operators of the controller 24 for performing the second type operation are configured as operators different from the operators of the controller 24 for performing the first type operation. For example, in the controller 24 having a plurality of direction operators such as a direction stick operator and a direction pad operator, the first type operation (player character of one direction operator (for example, direction stick operator) is performed (player character And the other direction control (eg, direction pad control) may be assigned to the second type operation.

これに代えて、第1種操作と第2種操作とを同じ操作子において切り替えて操作可能としてもよい。例えば、所定の操作子の操作入力によって第1種操作として入力される操作モードと、第2種操作として入力される操作モードとを切り替える態様としてもよい。例えば、ゲーム画面上に操作モードの切り替え画面を表示可能とし、当該切り替え画面上においてユーザの操作に基づいて操作モードが切り替えられてもよい。また、第2種操作は、第1種操作に使用する操作子(例えば方向スティック操作子)に他の操作子(例えば所定の操作ボタン)の入力操作を同時に行うことで実現してもよい。   Instead of this, the first type operation and the second type operation may be switched in the same operation element to be operable. For example, the operation mode may be switched between an operation mode input as a first type operation and an operation mode input as a second type operation according to an operation input of a predetermined operation element. For example, the switching screen of the operation mode may be displayed on the game screen, and the operation mode may be switched based on the user's operation on the switching screen. The second type operation may be realized by simultaneously performing an input operation of another operation element (for example, a predetermined operation button) on an operation element (for example, direction stick operation element) used for the first type operation.

第2種操作による仮想カメラCの向きまたは位置の変化(例えば図3における仮想カメラの中心軸がL’からLへ変化すること)により、プレイヤキャラクタPの向きに拘わらず、仮想カメラCの撮像範囲ACが変化する。   An image of the virtual camera C is taken regardless of the direction of the player character P due to a change in the direction or position of the virtual camera C due to the second type operation (for example, the central axis of the virtual camera in FIG. 3 changes from L 'to L). The range AC changes.

なお、第2種操作による仮想カメラCの向きまたは位置の変化には、プレイヤキャラクタPを基準とする仮想カメラCの相対位置を変えずに仮想カメラCの向きが変化する態様だけでなく、プレイヤキャラクタPに対する仮想カメラCの相対位置が変化する態様も含まれ得る。すなわち、撮像方向変化手段42は、仮想空間において予め定められた注視点がゲーム画面の特定位置に撮像されるように、仮想カメラの向きまたは位置を変化させてもよい。   Note that the change in the direction or position of the virtual camera C due to the second type operation is not limited to a mode in which the direction of the virtual camera C changes without changing the relative position of the virtual camera C relative to the player character P. An aspect may also be included in which the relative position of the virtual camera C with respect to the character P changes. That is, the imaging direction changing means 42 may change the direction or the position of the virtual camera so that a predetermined fixation point in the virtual space is captured at a specific position on the game screen.

例えば、後述する図6および図7に示されるように、注視点HがプレイヤキャラクタPの所定位置(例えば頭部)に設定され、仮想カメラCが常に注視点Hをゲーム画面Gの特定位置(例えば中心)ASに位置するように撮像するように、仮想カメラCの向きまたは位置がプレイヤキャラクタPの周囲を旋回するように移動する態様としてもよい。仮想カメラCは、注視点Hを合焦点とするように仮想空間Sを撮像してもよい。   For example, as shown in FIG. 6 and FIG. 7 described later, the gaze point H is set at a predetermined position (for example, the head) of the player character P, and the virtual camera C always For example, the direction or position of the virtual camera C may be moved so as to turn around the player character P so as to be located at the center AS). The virtual camera C may capture an image of the virtual space S such that the fixation point H is in focus.

この場合、第2種操作が行われない場合には、プレイヤキャラクタPの後方上部に仮想カメラCが設置され、プレイヤキャラクタPの背後からプレイヤキャラクタPおよびプレイヤキャラクタPの前方を撮像する(図7)。第2種操作が行われ、プレイヤキャラクタPの右方上部に仮想カメラCが位置した場合、仮想カメラCは、プレイヤキャラクタPの右側方からプレイヤキャラクタPおよびプレイヤキャラクタPの左方を撮像する。   In this case, when the second type operation is not performed, the virtual camera C is installed at the upper rear of the player character P, and images the front of the player character P and the player character P behind the player character P (FIG. 7) ). When the second type operation is performed and the virtual camera C is positioned at the upper right of the player character P, the virtual camera C captures the player character P and the left of the player character P from the right of the player character P.

このように、仮想カメラCは常に注視点HであるプレイヤキャラクタPがいる方向を向くため、プレイヤキャラクタPは、仮想カメラCの撮像範囲ACに含まれる。第2種操作によって仮想カメラCの位置が変化すると、仮想カメラCで撮像した画像(ゲーム画面)におけるプレイヤキャラクタPの向きおよびその背景が変化する。なお、特定位置ASは、図7に示すような所定の領域として定義されてもよいし、所定の位置(点)として定義されてもよい。   As described above, since the virtual camera C always faces the direction in which the player character P, which is the gaze point H, is present, the player character P is included in the imaging range AC of the virtual camera C. When the position of the virtual camera C changes due to the second type operation, the direction of the player character P in the image (game screen) captured by the virtual camera C and the background thereof change. The specific position AS may be defined as a predetermined area as shown in FIG. 7 or may be defined as a predetermined position (point).

なお、注視点Hが設定された場合でも、撮像方向変化手段42は、仮想カメラCを、注視点Hをゲーム画面Gの特定位置ASに位置するように撮像しなくてもよい。また、注視点Hは、プレイヤキャラクタP以外の所定のオブジェクトに設定されてもよい。ゲーム中に注視点Hが設定されるオブジェクトが切り替えられてもよい。   Even when the fixation point H is set, the imaging direction changing means 42 does not have to image the virtual camera C so that the fixation point H is positioned at the specific position AS of the game screen G. Also, the fixation point H may be set to a predetermined object other than the player character P. An object to which a fixation point H is set may be switched during the game.

さらに、撮像方向変化手段42は、ユーザによるコントローラ24の第1種操作に基づいても仮想カメラCの向きまたは位置を変化させ得る。すなわち、プレイヤキャラクタPと同じ目線位置に仮想カメラCが配置される一人称視点モードまたはプレイヤキャラクタPの周囲(例えば後方)および/または上方に仮想カメラCが配置される三人称視点モードが実行されている場合、第2種操作が行われていなければ、撮像方向変化手段42は、仮想カメラCの位置および向きを、プレイヤキャラクタPの動きに追従するように移動させる。したがって、プレイヤキャラクタPの行動によっても仮想カメラCの撮像範囲ACは変化し得る。   Furthermore, the imaging direction changing means 42 can change the orientation or position of the virtual camera C also based on the first type operation of the controller 24 by the user. That is, the first person viewpoint mode in which the virtual camera C is disposed at the same eye position as the player character P or the third person viewpoint mode in which the virtual camera C is disposed around (for example, behind) and / or above the player character P is executed. In this case, if the second type operation is not performed, the imaging direction changing means 42 moves the position and the orientation of the virtual camera C so as to follow the movement of the player character P. Therefore, the imaging range AC of the virtual camera C can also be changed by the action of the player character P.

イベント発生手段44は、仮想空間S内において所定のイベントを発生させる。イベント発生地点設定手段43は、仮想カメラCの撮像範囲AC内の仮想空間Sに所定のイベント発生地点E(図3参照)を設定する。イベント発生手段44は、仮想カメラCの撮像範囲AC内にイベント発生地点Eが設定された後、当該イベント発生地点Eが仮想カメラCの撮像範囲AC内に継続して含まれている時間を計時し、当該イベント発生地点Eが仮想カメラCの撮像範囲AC内に所定時間継続して含まれる場合に、イベント発生地点Eから所定のイベントを発生させる。以下、順に説明する。   The event generating means 44 generates a predetermined event in the virtual space S. The event occurrence point setting unit 43 sets a predetermined event occurrence point E (see FIG. 3) in the virtual space S in the imaging range AC of the virtual camera C. After the event occurrence point E is set in the imaging range AC of the virtual camera C, the event occurrence unit 44 counts the time during which the event occurrence point E is continuously included in the imaging range AC of the virtual camera C. When the event occurrence point E is continuously included in the imaging range AC of the virtual camera C for a predetermined time, a predetermined event is generated from the event occurrence point E. The following will be described in order.

[イベント処理]
図5は、本実施の形態におけるイベント処理の流れを示すフローチャートである。以下では、所定のイベントとして、プレイヤキャラクタPが仮想空間Sにおける所定位置に位置した場合に、空(上方)に仮想カメラCを向けると当該仮想カメラCを向けた方向の空から移動オブジェクト(例えばヘリコプタ)Mが飛んでくるイベント(図4参照)が発生する例を示す。本例のイベントは、当該イベントをクリアするか否かでゲーム進行が変化するまたはクリアしないとゲームが進行しないイベントに含まれる。本例において、イベントを発生させるための所定の条件は、キャラクタ行動条件と、仮想カメラ条件とを含んでいる。
Event processing
FIG. 5 is a flowchart showing the flow of event processing in the present embodiment. In the following, when the player character P is positioned at a predetermined position in the virtual space S as a predetermined event, when the virtual camera C is directed to the sky (upward), the moving object from the sky in the direction to which the virtual camera C is directed (for example, An example in which an event (see FIG. 4) in which the helicopter M) flies is shown. The event of this example is included in the event in which the game does not progress unless the game progress changes or is cleared depending on whether or not the event is cleared. In this example, the predetermined conditions for generating an event include a character action condition and a virtual camera condition.

キャラクタ行動条件は、イベントを発生させる契機となるプレイヤキャラクタPの行動を規定する。例えば、キャラクタ行動条件は、仮想空間Sの所定領域内にプレイヤキャラクタPが位置すること、プレイヤキャラクタPが所定の対象物に対して動作する(対象物に設けられたボタン等を押す、攻撃する、アイテムを使用する等)、プレイヤキャラクタPが所定のノンプレイヤキャラクタに話しかける等を含み得る。本例においては、図3に示すように、仮想空間Sの所定領域に、イベント契機領域AEが設定される。イベント契機領域AEは、プレイヤキャラクタPが進入可能な領域として設定されている。プレイヤキャラクタPがイベント契機領域AE内に位置することがイベントの発生条件(上記所定の条件)の1つとして設定されている。   The character action condition defines the action of the player character P as a trigger for generating an event. For example, the character action condition is that the player character P is positioned in a predetermined area of the virtual space S, the player character P operates on a predetermined object (attacks a button provided on the object, etc. , An item, etc., and the player character P may talk to a predetermined non-player character. In the present example, as shown in FIG. 3, an event trigger area AE is set in a predetermined area of the virtual space S. The event trigger area AE is set as an area where the player character P can enter. The position of the player character P in the event trigger area AE is set as one of the event generation conditions (the predetermined condition described above).

仮想カメラ条件は、イベントを発生させる契機となる仮想カメラCの向きを規定する。仮想カメラ条件は、仮想カメラCの向きに関する条件、例えば、仮想カメラCを上方(空)に向ける、仮想カメラCを所定の背景(例えば、オブジェクトまたはテクスチャにより仮想空間S上に表現される山、海等)に向ける、仮想カメラCを所定の方角に向ける、仮想カメラCの向きを所定角度以上回転させる、仮想カメラCの撮像範囲AC内に所定のオブジェクト(例えば、柱、茂み、宝箱、ガラス窓等の仮想空間Sに固定配置される固定オブジェクト等)が含まれる等を含み得る。さらに、仮想カメラ条件は、第1種操作または第2種操作を行うことを含み得る。   The virtual camera condition defines the direction of the virtual camera C that is a trigger for generating an event. The virtual camera condition is a condition related to the orientation of the virtual camera C, for example, the virtual camera C is directed upward (sky), the virtual camera C has a predetermined background (for example, a mountain represented on the virtual space S by an object or texture, Directs the virtual camera C to a predetermined direction, rotates the direction of the virtual camera C by a predetermined angle or more, predetermined objects within the imaging range AC of the virtual camera C (for example, pillars, bushes, treasure chests, glass) A fixed object etc. fixedly arranged in virtual space S, such as a window, may be included. Furthermore, the virtual camera condition may include performing a first type operation or a second type operation.

すなわち、第1種操作によりプレイヤキャラクタPを移動させることで仮想カメラCの向きに関する条件を満足したことを仮想カメラ条件として含めてもよいし、これに代えて、第2種操作によりプレイヤキャラクタPの向きとは独立して仮想カメラCの向きを変化させることで仮想カメラCの向きに関する条件を満足したことを仮想カメラ条件として含めてもよい。本例においては、第1種操作または第2種操作により仮想カメラCを上方(空)に向けることがイベントの発生条件(上記の所定の条件)の1つとして設定されている。   That is, moving the player character P by the first type operation may include that the condition relating to the direction of the virtual camera C is satisfied as a virtual camera condition, and instead, the player character P may be changed by the second type operation. By changing the orientation of the virtual camera C independently of the orientation of the virtual camera C, it may be included as a virtual camera condition that the condition regarding the orientation of the virtual camera C is satisfied. In this example, turning the virtual camera C upward (empty) by the first type operation or the second type operation is set as one of the event generation conditions (the predetermined conditions described above).

イベント発生地点設定手段43は、キャラクタ行動条件を満たすか否かを判定する(ステップS1)。本例において、イベント発生地点設定手段43は、プレイヤキャラクタPがイベント契機領域AE内に位置したか否かを判定する。キャラクタ行動条件を満たすと判定された場合(ステップS1でYes)、イベント発生地点設定手段43は、仮想カメラ条件を満たすか否かを判定する(ステップS2)。本例において、イベント発生地点設定手段43は、仮想カメラCが上方に向けられたか否かを判定する。   The event occurrence point setting means 43 determines whether the character action condition is satisfied (step S1). In the present example, the event occurrence point setting means 43 determines whether or not the player character P is positioned in the event trigger area AE. When it is determined that the character action condition is satisfied (Yes in step S1), the event occurrence point setting unit 43 determines whether the virtual camera condition is satisfied (step S2). In the present example, the event occurrence point setting means 43 determines whether the virtual camera C is directed upward.

仮想カメラ条件を満たすと判定された場合(ステップS2でYes)、イベント発生地点設定手段43は、イベントのための所定の条件を満たしたと判定する。このとき、イベント発生地点設定手段43は、このときの仮想カメラCによる撮像範囲AC内の仮想空間Sにイベント発生地点Eを設定する(ステップS3)。   If it is determined that the virtual camera condition is satisfied (Yes in step S2), the event occurrence point setting unit 43 determines that the predetermined condition for the event is satisfied. At this time, the event occurrence point setting unit 43 sets an event occurrence point E in the virtual space S in the imaging range AC by the virtual camera C at this time (step S3).

例えば、イベント発生地点設定手段43は、所定の条件を満たしたときの仮想カメラCによるゲーム画面G上の所定の位置(例えばゲーム画面Gにおける上部中央位置)に対応する仮想空間Sの位置座標を特定し、当該位置座標にイベント発生地点Eを設定する。これに代えて、イベント発生地点設定手段43は、所定の条件を満たしたときの仮想カメラCの中心軸L上の位置であって、仮想カメラCの位置から所定距離離れた位置における仮想空間Sの位置座標を特定し、当該位置座標にイベント発生地点Eを設定してもよい。また、イベント発生地点設定手段43は、所定の条件を満たしたときの仮想カメラCの撮像範囲ACの仮想空間S上の領域を特定し、当該領域内からランダムに、または所定の条件に基づいて、特定された位置座標にイベント発生地点Eを設定してもよい。   For example, the event occurrence point setting unit 43 sets the position coordinates of the virtual space S corresponding to a predetermined position on the game screen G by the virtual camera C (for example, the upper center position on the game screen G) when the predetermined condition is satisfied. Identify and set the event occurrence point E in the position coordinates. Instead of this, the event occurrence point setting means 43 is a position on the central axis L of the virtual camera C when a predetermined condition is satisfied, and is a virtual space S at a position separated by a predetermined distance from the position of the virtual camera C. The position coordinates of may be specified, and the event occurrence point E may be set to the position coordinates. Further, the event occurrence point setting unit 43 specifies an area on the virtual space S of the imaging range AC of the virtual camera C when the predetermined condition is satisfied, and randomly from the area or based on the predetermined condition. The event occurrence point E may be set to the identified position coordinates.

イベント発生手段44は、イベント発生地点Eの設定に基づいて計時を開始する。イベント発生手段44は、設定されたイベント発生地点Eが仮想カメラCの撮像範囲AC内に所定時間継続して含まれるか否かを判定する。例えば、イベント発生手段44は、イベント発生地点Eの設定後の所定のタイミングごとに、設定されたイベント発生地点Eが現在の撮像範囲AC内に含まれているか否かを判定する(ステップS4)。設定されたイベント発生地点Eが現在の撮像範囲AC内に含まれている場合(ステップS4でYes)、さらに、イベント発生手段44は、イベント発生地点Eの設定時から所定時間が経過したか否かを判定する(ステップS5)。   The event generation unit 44 starts clocking based on the setting of the event generation point E. The event generation means 44 determines whether the set event generation point E is continuously included in the imaging range AC of the virtual camera C for a predetermined time. For example, the event generation unit 44 determines whether the set event occurrence point E is included in the current imaging range AC at each predetermined timing after setting the event occurrence point E (step S4). . When the set event occurrence point E is included in the current imaging range AC (Yes in step S4), the event occurrence unit 44 further determines whether a predetermined time has elapsed since the setting of the event occurrence point E. It is determined (step S5).

イベント発生地点Eの設定時から所定時間が経過したと判定された場合(ステップS5でYes)、イベント発生手段44は、設定したイベント発生地点Eから対応するイベントを発生させる(ステップS6)。本例において、イベント発生手段44は、イベント発生地点Eに移動オブジェクト(ヘリコプタ)Mを発生させ、当該イベント発生地点Eから仮想カメラCに向かって移動させる。   If it is determined that the predetermined time has elapsed since the setting of the event occurrence point E (Yes in step S5), the event occurrence means 44 generates a corresponding event from the set event occurrence point E (step S6). In this example, the event generating means 44 generates a moving object (helicopter) M at an event occurrence point E and moves it toward the virtual camera C from the event occurrence point E.

イベント発生地点Eの設定時から所定時間が経過する前に当該イベント発生地点Eが現在の撮像範囲ACから外れたと判定された場合(ステップS4でNo)、イベント発生手段44は、当該イベント発生地点Eから対応するイベントは発生させず、イベント発生地点Eの設定を解除する(ステップS7)。   When it is determined that the event occurrence point E has deviated from the current imaging range AC before the predetermined time has elapsed since the setting of the event occurrence point E (No in step S4), the event occurrence means 44 determines the event occurrence point The corresponding event is not generated from E, and the setting of the event occurrence point E is canceled (step S7).

本実施の形態によれば、仮想カメラCの向きまたは位置によらず、設定されたイベント発生地点Eが仮想カメラCの撮像範囲AC内に所定時間継続して含まれる場合に、仮想カメラCの撮像範囲AC内でイベントが発生する。したがって、ユーザによるプレイヤキャラクタPの操作(第1種操作)および仮想カメラCの向きの変更操作(第2種操作)を制限することなく、ユーザが注視していると判断される位置からイベントを発生させることができる。   According to the present embodiment, when the set event occurrence point E is continuously included in the imaging range AC of the virtual camera C for a predetermined time regardless of the direction or position of the virtual camera C, An event occurs in the imaging range AC. Therefore, without restricting the operation (first type operation) of the player character P by the user (first type operation) and the change operation of the direction of the virtual camera C (second type operation), the event is determined from the position at which the user is determined to be gazing Can be generated.

これにより、ユーザにイベントの発生をより確実に知覚させることができる。また、本実施の形態によれば、ユーザに、自身の操作に基づいてプレイヤキャラクタPまたは仮想カメラCを向けた方向でイベントが偶然発生したと思わせることができる。したがって、イベント発生時においてユーザのゲームへの没入感が低減されることが防止できる。   This allows the user to more surely perceive the occurrence of an event. Further, according to the present embodiment, it is possible to make the user think that an event has occurred by chance in the direction in which the player character P or the virtual camera C is directed based on his / her operation. Therefore, it is possible to prevent a reduction in the user's sense of immersion in the game when the event occurs.

本実施の形態においては、イベントを発生させるための所定の条件に、仮想カメラ条件が含まれている。仮想カメラ条件を容易に満足させてイベントを発生させ易くするために、ゲーム画面Gに仮想カメラCを向く方向を表示等により報知することとしてもよい。例えば、ゲーム画面G上に、矢印等による表示、「空を見ろ」、「右から何か来るぞ」等のテキストによる表示、レーダ等のサブ画面における表示等を行ってもよい。   In the present embodiment, the virtual camera condition is included in the predetermined condition for generating an event. In order to easily satisfy the virtual camera condition and make it easy to generate an event, the direction that faces the virtual camera C may be notified on the game screen G by display or the like. For example, on the game screen G, display by an arrow or the like, display by text such as “look at the sky”, “something coming from the right”, display on a sub screen such as a radar may be performed.

従来のゲームにおいても、このような仮想カメラCを向く方向を表示等により報知することで、イベントの発生をユーザに知覚し易くする態様は考えられる。しかし、本実施の形態のように、仮想カメラCの撮像範囲AC内にイベント発生地点Eを設定する態様と組み合わせることにより、イベントの発生をより確実にユーザに知覚させることができる。   Also in the conventional game, it is conceivable to make it easy for the user to perceive the occurrence of an event by announcing such a direction toward the virtual camera C by display or the like. However, by combining with the mode of setting the event occurrence point E within the imaging range AC of the virtual camera C as in the present embodiment, it is possible to make the user more surely perceive the occurrence of the event.

すなわち、本実施の形態においては、厳密な仮想カメラCの操作が不要となる。例えば、上記例のように「右から何か来るぞ」とテキストまたは矢印でイベントの発生地点を報知したとしても、ユーザの第1種操作または第2種操作による仮想カメラCの向きの変更度合い(操作角度)は、当該操作ごとに異なる。   That is, in the present embodiment, strict operation of the virtual camera C is not necessary. For example, even if the occurrence point of the event is reported by the text or the arrow with "something coming from the right" as in the above example, the degree of change in the direction of the virtual camera C by the first type operation or second type operation of the user The (operation angle) is different for each operation.

例えば所定位置におけるプレイヤキャラクタPの右方向(90°方向)からイベントが発生するように予め設定されている従来の態様においては、ユーザは、少なくとも当該イベントの発生地点を撮像範囲に含めるように仮想カメラCの向きを変更する必要がある。しかし、ユーザによっては例えば仮想カメラCの向きを右へ90°変更する操作をしたつもりでも、実際には90°より小さいまたは大きい角度に仮想カメラCの向きが変更される場合がある。このような場合には、操作後の仮想カメラCの撮像範囲にイベントの発生地点が位置しないまたは見え難い位置となる可能性がある。   For example, in a conventional mode in which an event is preset to occur from the right direction (90 ° direction) of the player character P at a predetermined position, the user is assumed to include at least the occurrence point of the event in the imaging range. It is necessary to change the orientation of the camera C. However, even if the user intended to change the orientation of the virtual camera C by 90 ° to the right, for example, the orientation of the virtual camera C may actually be changed to an angle smaller or larger than 90 °. In such a case, there is a possibility that the event occurrence point is not located or hardly visible in the imaging range of the virtual camera C after the operation.

一方、本実施の形態によれば、ユーザの操作に厳密な操作量は要求されず、上記の場合であれば少なくとも右を向こうとする操作があれば、当該操作に応じた仮想カメラCの撮像範囲AC内でイベントを発生させることができる。したがって、本実施の形態は、イベント発生地点Eを報知する態様を採用する場合においても、従来の態様に比べてイベントの発生をユーザにより確実に知覚させることができるという効果を奏する。   On the other hand, according to the present embodiment, a strict operation amount is not required for the user's operation, and in the above case, if there is an operation to at least turn the right away, imaging of the virtual camera C according to the operation Events can occur within the range AC. Therefore, in the present embodiment, even in the case of adopting an aspect in which the event occurrence point E is notified, the effect of allowing the user to more surely perceive the occurrence of an event is exhibited as compared with the conventional aspect.

なお、これに加えて、またはこれに代えて、ユーザによる仮想カメラCの操作を受けて、撮像方向変化手段42は、仮想カメラCの向きまたは位置をユーザの操作の有無に拘わらず強制的に制御してもよい。   In addition to or instead of this, in response to the user's operation of the virtual camera C, the imaging direction changing means 42 forcibly forces the direction or position of the virtual camera C regardless of the user's operation or not. You may control.

例えば、撮像方向変化手段42は、仮想カメラCの撮像範囲AC内にイベント発生地点Eが設定された場合、仮想カメラCが所定の向きおよび/または所定の位置となるまで仮想カメラCの向きおよび/または位置を強制的に制御する。仮想カメラCの所定の向きおよび/または所定の位置は、イベント発生地点Eから発生するイベントが見え易い向きおよび/または位置に設定される。   For example, when the event occurrence point E is set in the imaging range AC of the virtual camera C, the imaging direction changing means 42 changes the direction of the virtual camera C until the virtual camera C reaches a predetermined direction and / or a predetermined position. Force control of position. The predetermined orientation and / or predetermined position of the virtual camera C is set to an orientation and / or position where an event generated from the event occurrence point E can be easily seen.

これにより、ユーザからの大まかな仮想カメラCの操作に基づいて適切なイベントの発生がより見え易い向きまたは位置に仮想カメラCを補助的に変化させることができる。   As a result, based on the rough operation of the virtual camera C from the user, the virtual camera C can be supplementally changed to an orientation or position in which the occurrence of an appropriate event is more easily visible.

また、撮像方向変化手段42は、仮想カメラCの撮像範囲AC内にイベント発生地点Eが設定された後、当該イベント発生地点Eから所定の角度外れた向きまたは所定の距離離れた位置に仮想カメラCの向きまたは位置が変化した場合、仮想カメラCの撮像範囲AC内に、設定されたイベント発生地点Eが含まれるように仮想カメラCの向きまたは位置を変化させるような制御を強制的に行ってもよい。さらに、このような制御の後、撮像方向変化手段42は、仮想カメラCの向きまたは位置を維持するような制御を強制的に行ってもよい。   In addition, after the event occurrence point E is set within the imaging range AC of the virtual camera C, the imaging direction changing means 42 sets the virtual camera to a direction away from the event occurrence point E or a position away from the event occurrence point E by a predetermined distance. When the orientation or position of C changes, control is forced to change the orientation or position of the virtual camera C so that the set event occurrence point E is included in the imaging range AC of the virtual camera C May be Furthermore, after such control, the imaging direction changing means 42 may forcibly perform control to maintain the orientation or position of the virtual camera C.

このように、イベント発生地点Eが撮像範囲AC内に含まれるように仮想カメラCを継続して操作しない場合、撮像方向変化手段42が強制的に仮想カメラCを制御してもよい。   As described above, when the virtual camera C is not operated continuously so that the event occurrence point E is included in the imaging range AC, the imaging direction changing unit 42 may forcibly control the virtual camera C.

これに代えて、撮像方向変化手段42は、仮想カメラCの撮像範囲AC内にイベント発生地点Eが設定された場合、当該イベント発生地点Eが仮想カメラCの撮像範囲AC内に所定時間継続して含まれるように、当該イベントが発生するまで、および/または、当該イベントが発生してから当該イベントが終了するまで、仮想カメラCの向きおよび/または位置を強制的に制御してもよい。この場合、撮像方向変化手段42は、仮想カメラCを固定してもよい。   Instead of this, when the event occurrence point E is set in the imaging range AC of the virtual camera C, the imaging direction changing means 42 continues the event occurrence point E in the imaging range AC of the virtual camera C for a predetermined time. As described above, the direction and / or position of the virtual camera C may be forcibly controlled until the event occurs and / or until the event ends after the event occurs. In this case, the imaging direction changing means 42 may fix the virtual camera C.

あるいは、撮像方向変化手段42は、イベント発生地点Eが撮像範囲ACから外れない範囲でユーザによる仮想カメラCの操作を許容し、イベント発生地点Eが撮像範囲ACから外れそうであると判定した場合に、仮想カメラCの向きおよび/または位置を当該判定時の状態で固定する等の強制的な制御を行ってもよい。仮想カメラCの向きまたは位置が強制的に制御されることにより、ユーザに当該撮像範囲ACにおいてイベントが発生することを知覚させることができる。   Alternatively, if the imaging direction changing means 42 allows the user to operate the virtual camera C in a range where the event occurrence point E does not deviate from the imaging range AC and determines that the event occurrence point E is about to deviate from the imaging range AC In addition, forcible control may be performed such as fixing the direction and / or position of the virtual camera C in the state at the time of the determination. By forcibly controlling the direction or position of the virtual camera C, it is possible to make the user perceive that an event occurs in the imaging range AC.

[変形例]
以上、本発明の実施の形態について説明したが、本発明は上記実施の形態に限定されるものではなく、その趣旨を逸脱しない範囲内で種々の改良、変更、修正が可能である。
[Modification]
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, A various improvement, change, and correction are possible within the range which does not deviate from the meaning.

例えば、上記実施の形態において、発生するイベントは、移動オブジェクトであるヘリコプタがプレイヤキャラクタPに向かって飛んでくるイベントであった。しかし、移動オブジェクトは、ヘリコプタに限られず、例えば、ヘリコプタと同様に、空を移動(飛翔)する飛行機、ボール等の飛翔物であってもよいし、地上を移動するオブジェクト(例えば車、人、地割れ等)であってもよい。   For example, in the above embodiment, the event that occurs is an event in which a moving object, a helicopter, flies toward the player character P. However, the moving object is not limited to a helicopter, and may be, for example, an airplane moving in the sky (flying) like the helicopter, or a flying object such as a ball, or an object moving on the ground (eg car, person, It may be a ground crack etc.).

また、移動オブジェクトの移動方向も、上記のようにプレイヤキャラクタPに向かってくる態様だけでなく、例えば、所定の条件を満たしたときの撮像範囲AC(ゲーム画面G)を横切るように移動する態様としてもよい。移動オブジェクトが撮像範囲ACを横切るように移動する態様において、イベント発生地点設定手段43は、イベント発生地点Eを設定する際に、移動オブジェクトの到達地点(消失地点)を設定してもよい。   Further, the moving direction of the moving object is not only moving toward the player character P as described above, but also moving, for example, across the imaging range AC (game screen G) when a predetermined condition is satisfied. It may be In a mode in which the moving object moves so as to cross the imaging range AC, the event occurrence point setting unit 43 may set an arrival point (vanishing point) of the moving object when setting the event occurrence point E.

また、発生するイベントは、移動オブジェクトの発生に限られない。例えば、発生するイベントは、爆発(攻撃、噴火)、雲間から差し込まれる光の発生、流れ星、敵キャラクタ等のノンプレイヤキャラクタの登場(プレイヤキャラクタPに向かってくるまたは撮像範囲ACを横切る)等であってもよい。   Also, the events that occur are not limited to the occurrence of moving objects. For example, an event that occurs is an explosion (attack, eruption), the occurrence of light inserted from the clouds, the appearance of non-player characters such as shooting stars and enemy characters (coming to the player character P or crossing the imaging range AC), etc. It may be.

また、上記実施の形態において、仮想カメラ条件を満たすためには、第1種操作および第2種操作の何れの操作によるものでもよい態様を例示したが、何れか一方の種類の操作によってのみ仮想カメラ条件を満たし得るような態様としてもよい。例えば、イベント発生地点設定手段43は、第2種操作を行ったことを契機として、当該第2種操作後の仮想カメラCの撮像範囲AC内の仮想空間Sにイベント発生地点Eを設定してもよい。これにより、仮想カメラCをユーザが意識的に動かした結果、当該動かした方向においてイベントが発生したと知覚させることができる。これにより、ユーザのゲームへの没入感が低減するのを抑えつつ、ユーザの興趣を高めることができる。   Further, in the above embodiment, in order to satisfy the virtual camera condition, the aspect in which any of the first type operation and the second type operation may be used is exemplified. However, the virtual camera is virtualized only by any one type of operation. The camera conditions may be satisfied. For example, the event occurrence point setting unit 43 sets an event occurrence point E in the virtual space S in the imaging range AC of the virtual camera C after the second type operation in response to the second type operation being performed. It is also good. As a result, as a result of the user intentionally moving the virtual camera C, it can be perceived that an event has occurred in the moving direction. This makes it possible to enhance the interest of the user while suppressing the reduction in the user's sense of immersion in the game.

また、上記実施の形態において、イベントを発生させるための所定の条件には、キャラクタ行動条件および仮想カメラ条件の双方が含まれる態様について説明したが、これに限られず、キャラクタ行動条件および仮想カメラ条件の何れか一方のみを所定の条件としてもよい。また、所定の条件は、上述した例に限定されない。   Further, in the above embodiment, although the aspect in which both the character action condition and the virtual camera condition are included in the predetermined condition for generating an event has been described, the present invention is not limited thereto. Only one of them may be set as the predetermined condition. Further, the predetermined condition is not limited to the example described above.

以下に、所定の条件として、仮想カメラCの撮像範囲AC内に所定のオブジェクトが含まれるという仮想カメラ条件を満たした場合に、イベントが発生する変形例について説明する。図6は、本実施の形態の変形例における3次元の仮想空間を示す平面図であり、図7は、図6におけるゲーム画面を示す図である。   Hereinafter, a modified example in which an event occurs when the virtual camera condition that a predetermined object is included in the imaging range AC of the virtual camera C is satisfied as the predetermined condition will be described. FIG. 6 is a plan view showing a three-dimensional virtual space in a modification of the present embodiment, and FIG. 7 is a view showing the game screen in FIG.

本変形例において、イベント発生地点設定手段43は、仮想カメラCの撮像範囲AC内に所定の固定オブジェクト(本例においては柱)B1〜B6のうちの少なくとも1つが存在する場合に、所定の条件を満たすと判定する。図6には、仮想空間Sに7つの所定の固定オブジェクトB1〜B7が配置されており、ユーザの第1種操作により、プレイヤキャラクタPが移動し、プレイヤキャラクタPに追従するように移動した仮想カメラCの撮像範囲AC内に固定オブジェクトB4〜B6が含まれることになった状態が示されている。   In the present modification, the event occurrence point setting unit 43 sets the predetermined condition when at least one of the predetermined fixed objects (posts in this example) B1 to B6 is present in the imaging range AC of the virtual camera C. It is determined that In FIG. 6, seven predetermined fixed objects B1 to B7 are arranged in the virtual space S, and the player character P moves so as to follow the player character P by the user's first type operation. A state in which fixed objects B4 to B6 are included in the imaging range AC of the camera C is shown.

なお、上述した図3の例では、仮想カメラCの撮像範囲ACを中心軸Lを中心とする所定角度範囲において仮想カメラCの撮像方向(中心軸Lの延出方向を含む径方向)に無限遠の領域として設定した例を示した。しかし、本変形例においては、図6に示すように、仮想カメラCの撮像方向に有限距離で定められる仮想カメラCの撮像範囲ACが設定されている。もちろん、図3の例において撮像範囲ACが撮像方向に関して有限距離で定められるものを用いてもよいし、図6の例において撮像範囲ACが撮像方向に関して無限遠で定められるものを用いてもよい。   In the example of FIG. 3 described above, the imaging range AC of the virtual camera C is infinite in the imaging direction of the virtual camera C (radial direction including the extension direction of the central axis L) in a predetermined angle range around the central axis L An example set as the far area is shown. However, in the present modification, as shown in FIG. 6, an imaging range AC of the virtual camera C determined at a finite distance in the imaging direction of the virtual camera C is set. Of course, in the example of FIG. 3, the imaging range AC may be determined at a finite distance with respect to the imaging direction, or in the example of FIG. 6, the imaging range AC may be determined at infinity at the imaging direction. .

図6の例に示すように、7つの所定の固定オブジェクトB1〜B7のうち、固定オブジェクトB4〜B6が存在すると判定された場合、イベント発生地点設定手段43は、当該固定オブジェクトB4〜B6のうちの少なくとも1つに基づいて所定のイベントを発生させるためのイベント発生地点E1〜E3を設定する。   As shown in the example of FIG. 6, when it is determined that the fixed objects B4 to B6 exist among the seven predetermined fixed objects B1 to B7, the event occurrence point setting unit 43 selects one of the fixed objects B4 to B6. Event occurrence points E1 to E3 for generating a predetermined event based on at least one of the above.

本変形例において、イベント発生地点設定手段43は、仮想カメラCの位置と所定の固定オブジェクトB4〜B6の位置とを結ぶ線F1〜F3上において当該固定オブジェクトB4,B5を基準とする仮想カメラCの位置とは反対側にイベント発生地点E1〜E3を設定する。これにより、仮想カメラCが向いた方向にある固定オブジェクトB4〜B6の後からイベントが発生する。   In this modification, the event occurrence point setting unit 43 sets a virtual camera C based on the fixed objects B4 and B5 on lines F1 to F3 connecting the position of the virtual camera C and the positions of the predetermined fixed objects B4 to B6. The event occurrence points E1 to E3 are set on the opposite side to the position of. As a result, an event occurs after fixed objects B4 to B6 in the direction in which the virtual camera C is facing.

例えば、イベント発生地点E1〜E3に、ノンプレイヤキャラクタの発生地点を設定することにより、固定オブジェクトB4〜B6の後ろからノンプレイヤキャラクタが発生するイベントを実現できる。また、例えば、イベント発生地点E1〜E3に、ゲームを進行させる上で重要なアイテムとなるキーアイテム等が入った宝箱を設置することにより、キーアイテムを発見するイベントを実現できる。   For example, by setting occurrence points of non player characters to the event occurrence points E1 to E3, it is possible to realize an event in which non player characters occur behind the fixed objects B4 to B6. Further, for example, an event of finding a key item can be realized by installing a treasure box containing key items and the like that are important items in advancing the game, at the event occurrence points E1 to E3.

なお、撮像範囲AC内に複数の固定オブジェクトB4〜B6が含まれている場合、イベント発生地点設定手段43は、撮像範囲AC内に位置する複数の固定オブジェクトB4〜B6のすべてに基づいてイベント発生地点E1〜E3を同時に設定してもよいし、何れか一方に基づいて(例えば図6の例において固定オブジェクトB5に基づくイベント発生地点E2のみを)設定してもよい。   When a plurality of fixed objects B4 to B6 are included in the imaging range AC, the event occurrence point setting unit 43 generates an event based on all of the plurality of fixed objects B4 to B6 positioned in the imaging range AC. The points E1 to E3 may be set simultaneously, or may be set based on one of them (for example, only the event occurrence point E2 based on the fixed object B5 in the example of FIG. 6).

また、固定オブジェクトB4〜B6自体にイベント発生地点E1〜E3を設定してもよい。例えば発生するイベントは、固定オブジェクトB4〜B6である柱が変形してノンプレイヤキャラクタ(敵キャラクタ等)が発生するものであってもよい。また、発生するイベントは、固定オブジェクトB4〜B6であるガラス窓が割れるものであってもよい。   Also, the event occurrence points E1 to E3 may be set to the fixed objects B4 to B6 themselves. For example, the event that occurs may be one in which a pillar that is the fixed objects B4 to B6 is deformed to generate a non-player character (such as an enemy character). Moreover, the event which generate | occur | produces may break the glass window which is fixed object B4-B6.

注視点Hが所定のオブジェクト(プレイヤキャラクタP)に設定される態様と、イベント発生地点設定手段43が、撮像範囲AC内に含まれている複数の固定オブジェクトB4〜B6のすべてに基づいてイベント発生地点E1〜E3を同時に設定する態様と、を組み合わせてもよい。この場合、イベント発生手段44は、複数のイベント発生地点E1〜E3のうち、仮想カメラCの撮像範囲AC内に所定時間継続して含まれるイベント発生地点E1〜E3が複数存在する場合(例えばすべてのイベント発生地点E1〜E3が該当する場合)、そのうちの所定時間経過後における時点においてプレイヤキャラクタPに最も近い位置にあるイベント発生地点E2からイベントを発生させてもよい。これにより、ゲーム画面Gにおいてユーザが特に注視していると判断される位置(注視点Hの近傍)からイベントを発生させることができる。   An event is generated on the basis of a mode in which the fixation point H is set to a predetermined object (player character P), and the event occurrence point setting means 43 all of the plurality of fixed objects B4 to B6 included in the imaging range AC. You may combine with the aspect which sets the points E1-E3 simultaneously. In this case, the event generation unit 44 detects a case where a plurality of event occurrence points E1 to E3 continuously included in the imaging range AC of the virtual camera C among the plurality of event occurrence points E1 to E3 exist (for example, all of them) Event occurrence points E1 to E3)), an event may be generated from an event occurrence point E2 which is at a position closest to the player character P at a time point after a predetermined time has elapsed. Thereby, an event can be generated from a position (near the gazing point H) at which it is determined that the user is particularly watching on the game screen G.

このように、イベント発生地点E1〜E3を、仮想空間Sに複数配置されている固定オブジェクトB1〜B7に依拠しつつ仮想カメラCの撮像範囲AC内に含まれることを条件として設定することにより、様々な演出効果を創出することができる。   As described above, by setting the event occurrence points E1 to E3 to be included in the imaging range AC of the virtual camera C while relying on the plurality of fixed objects B1 to B7 arranged in the virtual space S, Various effects can be created.

例えば、プレイヤキャラクタPが向く方向にある窓ガラス(固定オブジェクト)が割れることにより、ユーザを効果的に驚かせることができる。また、例えば、プレイヤキャラクタPが向く方向にキーアイテムの入った宝箱(固定オブジェクト)を設置することにより、ユーザにキーアイテムを早く見つけさせることができる。また、例えば、はぐれた仲間のノンプレイヤキャラクタを見つけるイベントにおいてプレイヤキャラクタPが向かった場所にある柱(固定オブジェクト)の陰に当該ノンプレイヤキャラクタを配置することにより、ユーザにノンプレイヤキャラクタと早く再会させることができる。   For example, by breaking the window glass (fixed object) in the direction in which the player character P faces, it is possible to effectively surprise the user. Also, for example, by installing a treasure box (fixed object) containing key items in the direction in which the player character P points, it is possible to make the user find the key items quickly. Also, for example, by arranging the non-player character behind a pillar (fixed object) in a place where the player character P has headed in the event of finding a loose non-player character, the user rejoins the user quickly with the non-player character. It can be done.

また、例えば、「赤い扉の家へ向かえ」といった指示が与えられたイベントにおいてプレイヤキャラクタPが向かった場所にある家の扉(固定オブジェクト)を赤く彩色することで、ユーザに当該指示を簡単に達成させることができる。   In addition, for example, by coloring the door (fixed object) of the house at the place where the player character P has headed in the event given an instruction such as “Go to the house of red door”, the user can easily make the instruction to the user. It can be achieved.

事前に与えられた目的または指示を達成させるイベントにおいて、イベント発生地点設定手段43は、目的または指示が与えられてからの経過時間に応じて、仮想カメラCの撮像範囲AC内にイベント発生地点Eを設定するか否かを切り替えてもよい。例えば、イベント発生地点設定手段43は、所定の経過時間が経過するまでは、複数の固定オブジェクトのうちの予め定められた固定オブジェクトに基づいてイベント発生地点を設定するが、所定の経過時間経過後は、複数の固定オブジェクトのうちの当該経過時間経過後に初めて撮像範囲ACに含まれた固定オブジェクトに基づいてイベント発生地点を再設定してもよい。   In the event of achieving the purpose or instruction given in advance, the event occurrence point setting means 43 sets the event occurrence point E within the imaging range AC of the virtual camera C according to the elapsed time after the purpose or instruction is given. You may switch whether to set or not. For example, the event occurrence point setting unit 43 sets an event occurrence point based on a predetermined fixed object of the plurality of fixed objects until the predetermined elapsed time elapses, but after the predetermined elapsed time elapses The event occurrence point may be reset based on the fixed objects included in the imaging range AC only after the elapsed time of the plurality of fixed objects has elapsed.

また、イベント発生地点設定手段43は、ゲームの難易度が複数設定されるゲームにおいて、当該難易度に応じて仮想カメラCの撮像範囲AC内にイベント発生地点Eを設定するか否かを切り替えてもよい。例えば、イベント発生地点設定手段43は、難易度が高いゲームモードの場合には、複数の固定オブジェクトのうちの予め定められた固定オブジェクトに基づいてイベント発生地点を設定する一方、難易度が低いゲームモードの場合には、複数の固定オブジェクトのうち初めて撮像範囲ACに含まれた固定オブジェクトに基づいてイベント発生地点を設定してもよい。   The event occurrence point setting unit 43 switches whether to set the event occurrence point E in the imaging range AC of the virtual camera C according to the difficulty level in a game in which a plurality of game difficulty levels are set. It is also good. For example, in the case of the game mode in which the degree of difficulty is high, the event occurrence point setting means 43 sets the point at which the event occurrence point is based on a predetermined fixed object of a plurality of fixed objects, In the case of the mode, the event occurrence point may be set based on the fixed object included in the imaging range AC for the first time among the plurality of fixed objects.

発生するイベントは、当該イベントをクリアするか否かでゲーム進行が変化するまたはクリアしないとゲームが進行しないイベントが含まれる。イベントをクリアするか否かでゲーム進行が変化するイベントは、例えば、ヘリコプタまたは自動車等のプレイヤキャラクタPが乗ることができる移動オブジェクトが登場するイベントにおいて、当該移動オブジェクトに乗るか否かを定めるイベントが例示できる。この例においては、移動オブジェクトにプレイヤキャラクタPが乗るか否かで以降のゲームの進行が変化する。   The events that occur include events in which the game does not progress unless the game progress changes or does not clear depending on whether the event is cleared or not. An event whose game progress changes depending on whether or not the event is cleared is, for example, an event that determines whether or not to get on the moving object in an event where a moving object such as a helicopter or a car can appear. Can be illustrated. In this example, the progress of the subsequent game changes depending on whether or not the player character P is on the moving object.

また、移動オブジェクトが登場するイベントにおいて、登場した移動オブジェクトを敵キャラクタの攻撃から所定の期間防ぐことをクリア条件とするイベントとしてもよい。この例においては、クリア条件を達成すると、例えば、当該移動オブジェクトに乗れる、移動オブジェクトに乗っていたノンプレイヤキャラクタが仲間に加わる、当該ノンプレイヤキャラクタから特定のアイテムをもらえる、または、以後の特定の場面で移動オブジェクトから支援攻撃を受けることができるといった特典を得られるが、クリア条件を達成しないと、当該特典は得られない。   In addition, in an event in which a moving object appears, it may be an event where it is a clear condition to prevent the appearing moving object from being attacked by an enemy character for a predetermined period. In this example, when the clear condition is achieved, for example, a non-player character on the moving object who can ride on the moving object joins a friend, a specific item can be obtained from the non-player character, or a specific event thereafter. Although a privilege such as being able to receive a support attack from a moving object in a scene can be obtained, the privilege can not be obtained unless the clear condition is achieved.

イベントをクリアしないとゲームが進行しないイベントは、例えば、必ず倒さなければいけないノンプレイヤキャラクタ(ボスキャラクタ)の討伐イベント、必ず所持しなければいけないキーアイテムを見つけるイベント、必ず所定の場所に行かなければいけないイベント(例えば上記赤い扉の家に向かうイベント)等が例示できる。   If the event does not clear the event, for example, the event must be defeated by a non-player character (boss character) that must be defeated, an event that must find a key item that must be possessed, or must go to a predetermined location An example of a bad event (e.g., an event heading to the house of the red door) can be illustrated.

なお、発生するイベントは、上記に限られず、例えばゲームのクリア条件に関係しないノンプレイヤキャラクタの登場、ガラスが割れるイベント、通常のアイテム(が入った宝箱)を見つけるイベント等、ゲーム進行に影響しないイベントであってもよい。   The events that occur are not limited to the above, and do not affect the progress of the game, such as the appearance of non-player characters not related to the clear conditions of the game, the event that the glass breaks, the event that finds a regular item (a treasure box containing) It may be an event.

上記実施の形態においては、主にユーザの操作(第1種操作または第2種操作)を行って仮想カメラ条件を満たした場合にイベント発生地点Eを設定する態様について主に説明したが、これに限られない。例えば、ユーザの操作に基づいて仮想カメラCを移動させなくとも、現在の仮想カメラCの向きまたは位置に関する情報に基づいて、イベント発生地点設定手段43がイベント発生地点Eを設定してもよい。   In the above embodiment, the aspect of setting the event occurrence point E when the virtual camera condition is satisfied mainly by the user's operation (type 1 operation or type 2 operation) has been mainly described. It is not limited to. For example, the event occurrence point setting unit 43 may set the event occurrence point E based on information on the current orientation or position of the virtual camera C without moving the virtual camera C based on the user's operation.

例えば、イベント発生地点設定手段43は、上記実施の形態で説明したようなキャラクタ行動条件等のイベント発生条件を満たしたと判定した場合に、仮想カメラCの向きまたは位置に関する情報を取得し、当該仮想カメラCの撮像範囲AC内にイベント発生地点Eを設定する。イベント発生手段44は、当該イベント発生地点Eが仮想カメラCの撮像範囲AC内に所定時間継続して含まれる場合に、イベント発生地点Eから所定のイベントを発生させる。   For example, when it is determined that the event occurrence condition such as the character action condition as described in the above embodiment is satisfied, the event occurrence point setting unit 43 acquires information on the direction or position of the virtual camera C, and the virtual An event occurrence point E is set in the imaging range AC of the camera C. The event generation means 44 generates a predetermined event from the event occurrence point E when the event occurrence point E is continuously included in the imaging range AC of the virtual camera C for a predetermined time.

また、ゲーム画面を表示するモニタ29として、通常のディスプレイ装置だけでなく、ユーザの頭部に装着するヘッドマウントディスプレイを適用した仮想現実(VR)または拡張現実(AR)型のゲームシステムにも適用され得る。ヘッドマウントディスプレイは、その位置および姿勢を検知するセンサを備えている。このようなゲームシステムでは、ユーザが頭部に装着したヘッドマウントディスプレイの位置および姿勢が検知されることで、ユーザの動き(ヘッドマウントディスプレイの向きまたは位置)に応じた仮想空間のゲーム画像がヘッドマウントディスプレイに表示される。このようなユーザの実際の動きに応じて上記実施の形態におけるイベント発生処理が実行されてもよい。   Also, as a monitor 29 for displaying a game screen, it is applied not only to a normal display device but also to a virtual reality (VR) or augmented reality (AR) type game system to which a head mounted display mounted on the user's head is applied. It can be done. The head mounted display is provided with a sensor that detects its position and attitude. In such a game system, by detecting the position and orientation of the head mounted display worn by the user on the head, the game image of the virtual space corresponding to the user's movement (the direction or position of the head mounted display) is the head Displayed on the mount display. The event generation process in the above embodiment may be executed according to such an actual movement of the user.

また、本実施の形態では、イベント発生手段44は、仮想カメラの撮像範囲内にイベント発生地点Eが設定された後、イベント発生地点Eが仮想カメラの撮像範囲内に継続して含まれている時間を計時し、イベント発生地点Eが仮想カメラの撮像範囲内に所定時間継続して含まれる場合に、イベント発生地点Eから所定のイベントを発生させるとしたが、これに限られない。   Further, in the present embodiment, after the event occurrence point E is set within the imaging range of the virtual camera, the event occurrence means 44 continues to include the event occurrence point E within the imaging range of the virtual camera. Although the time is measured and a predetermined event is generated from the event occurrence point E when the event occurrence point E is continuously included in the imaging range of the virtual camera for a predetermined time, the invention is not limited thereto.

例えば、仮想空間に配置される所定のオブジェクト(座標位置)を、予めイベント発生地点Eが設定された候補地点として記憶しておき、この所定のオブジェクト(候補地点)が仮想カメラの撮像範囲内に継続して含まれている時間を計時する。そして、所定のオブジェクト(候補地点)が仮想カメラの撮像範囲内に所定時間継続して含まれる場合に、この所定のオブジェクト(候補地点)から所定のイベントを発生させてもよい。   For example, a predetermined object (coordinate position) arranged in the virtual space is stored in advance as a candidate point where the event occurrence point E is set, and the predetermined object (candidate point) is within the imaging range of the virtual camera Keep track of the time continuously included. Then, when the predetermined object (candidate point) is continuously included in the imaging range of the virtual camera for a predetermined time, a predetermined event may be generated from the predetermined object (candidate point).

また、上記実施の形態では据え置き型のゲーム装置について説明したが、携帯型のゲーム装置、携帯電話機、およびパーソナルコンピュータなどのコンピュータについても、本発明を好適に適用することができる。   Further, although the stationary game device has been described in the above embodiment, the present invention can be suitably applied to computers such as portable game devices, mobile phones, and personal computers.

本発明はゲームにおいて、ユーザの操作を制限することなく、イベントの発生をユーザに確実に知覚させるために有用である。   The present invention is useful in a game to ensure that the user perceives the occurrence of an event without restricting the operation of the user.

2 ゲーム装置
30a ゲームプログラム
30b ゲームデータ
41 仮想空間生成手段
42 撮像方向変化手段
43 イベント発生地点設定手段
44 イベント発生手段
45 キャラクタ制御手段
2 game apparatus 30a game program 30b game data 41 virtual space generation means 42 imaging direction change means 43 event occurrence point setting means 44 event generation means 45 character control means

Claims (4)

仮想空間に配置した仮想カメラで撮像した画像をゲーム画面として表示する表示部と、前記仮想カメラの向きまたは位置を操作する操作部と、ゲームを進行させるコンピュータとを備えたゲームシステムにおいて前記コンピュータに実行させるゲームプログラムであって、
前記コンピュータを、
前記仮想空間を生成する仮想空間生成手段、
ユーザによる前記操作部の操作に基づいて前記仮想カメラの向きまたは位置を変化させる撮像方向変化手段、
前記仮想カメラの撮像範囲内の前記仮想空間に前記所定のイベント発生地点を設定するイベント発生地点設定手段、および
前記仮想空間内において所定のイベントを発生させるイベント発生手段、として機能させ、
前記イベント発生手段は、前記仮想カメラの撮像範囲内に前記イベント発生地点が設定された後、当該イベント発生地点が前記仮想カメラの撮像範囲内に継続して含まれている時間を計時し、当該イベント発生地点が前記仮想カメラの撮像範囲内に所定時間継続して含まれる場合に、前記イベント発生地点から前記所定のイベントを発生させ、前記所定時間経過前に当該イベント発生地点が前記仮想カメラの撮像範囲から外れた場合に、前記所定のイベントを発生させないようにし、
前記イベント発生地点設定手段は、ユーザによる前記仮想カメラの向きについての所定の操作が行われたことを契機として所定の仮想カメラ条件を満たすか否かを判定し、前記仮想カメラ条件を満たす場合に、前記所定の操作後の前記仮想カメラの撮像範囲内の前記仮想空間に前記所定のイベント発生地点を設定し、前記所定時間経過前に前記イベント発生地点が前記仮想カメラの撮像範囲から外れた場合に、前記イベント発生地点の設定を解除する、ゲームプログラム。
A game system comprising: a display unit for displaying an image captured by a virtual camera arranged in a virtual space as a game screen; an operation unit for operating the direction or position of the virtual camera; and a computer for advancing a game A game program to be run,
The computer,
Virtual space generation means for generating the virtual space;
Imaging direction changing means for changing the direction or position of the virtual camera based on an operation of the operation unit by a user
It functions as an event occurrence point setting unit that sets the predetermined event occurrence point in the virtual space within the imaging range of the virtual camera, and an event generation unit that generates a predetermined event in the virtual space,
The event generation unit measures a time during which the event occurrence point is continuously included in the imaging range of the virtual camera after the event occurrence point is set in the imaging range of the virtual camera, When an event occurrence point is continuously included in an imaging range of the virtual camera for a predetermined time, the predetermined event is generated from the event occurrence point, and the event occurrence point is the virtual camera before the predetermined time elapses. When the camera deviates from the imaging range, the predetermined event is not generated.
The event occurrence point setting unit determines whether a predetermined virtual camera condition is satisfied or not when the predetermined operation of the direction of the virtual camera is performed by the user, and the virtual camera condition is satisfied. Setting the predetermined event occurrence point in the virtual space within the imaging range of the virtual camera after the predetermined operation, and the event occurrence point deviates from the imaging range of the virtual camera before the predetermined time has elapsed A game program for canceling the setting of the event occurrence point .
前記イベント発生地点設定手段は、前記仮想カメラの撮像範囲内に所定の固定オブジェクトが存在する場合に、前記仮想カメラの位置と前記所定の固定オブジェクトの位置とを結ぶ線上において前記所定の固定オブジェクトを基準とする前記仮想カメラの位置とは反対側に前記所定のイベント発生地点を設定する、請求項1に記載のゲームプログラム。   The event occurrence point setting means sets the predetermined fixed object on a line connecting the position of the virtual camera and the position of the predetermined fixed object, when the predetermined fixed object exists within the imaging range of the virtual camera. The game program according to claim 1, wherein the predetermined event occurrence point is set on the opposite side to the position of the virtual camera as a reference. 前記仮想空間生成手段は、前記仮想空間に所定のオブジェクトを生成し、
前記イベント発生地点設定手段は、前記仮想カメラの撮像範囲内の前記仮想空間に複数のイベント発生地点を同時に設定し、
前記イベント発生手段は、前記複数のイベント発生地点が前記仮想カメラの撮像範囲内に前記所定時間継続して含まれている場合、前記仮想カメラの撮像範囲内に設定された前記複数のイベント発生地点のうち、前記所定時間経過後の時点において前記所定のオブジェクトに最も近いイベント発生地点からイベントを発生させる、請求項1または2に記載のゲームプログラム。
The virtual space generation unit generates a predetermined object in the virtual space,
The event occurrence point setting means simultaneously sets a plurality of event occurrence points in the virtual space within the imaging range of the virtual camera,
The event generation unit is configured to set the plurality of event occurrence points set in the imaging range of the virtual camera when the plurality of event occurrence points are continuously included in the imaging range of the virtual camera for the predetermined time. The game program according to claim 1 or 2, wherein an event is generated from an event occurrence point closest to the predetermined object at a time after the predetermined time has elapsed.
請求項1から3の何れかに記載のゲームプログラムを記憶したプログラム記憶部と、
前記プログラム記憶部に記憶されたプログラムを実行するコンピュータとを備えた、ゲームシステム。
A program storage unit storing the game program according to any one of claims 1 to 3.
A game system comprising: a computer that executes a program stored in the program storage unit.
JP2016075604A 2016-04-05 2016-04-05 Game program and game system Active JP6539224B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016075604A JP6539224B2 (en) 2016-04-05 2016-04-05 Game program and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016075604A JP6539224B2 (en) 2016-04-05 2016-04-05 Game program and game system

Publications (2)

Publication Number Publication Date
JP2017184982A JP2017184982A (en) 2017-10-12
JP6539224B2 true JP6539224B2 (en) 2019-07-03

Family

ID=60045834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016075604A Active JP6539224B2 (en) 2016-04-05 2016-04-05 Game program and game system

Country Status (1)

Country Link
JP (1) JP6539224B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7141093B2 (en) 2018-07-17 2022-09-22 株式会社アルファコード TIMING GAME DEVICE AND TIMING GAME PROGRAM

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4392446B2 (en) * 2007-12-21 2010-01-06 株式会社コナミデジタルエンタテインメント GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP5758078B2 (en) * 2010-01-29 2015-08-05 株式会社カプコン Game system and program for realizing the game system
JP5161256B2 (en) * 2010-03-31 2013-03-13 株式会社バンダイナムコゲームス Program, information storage medium, and image generation apparatus
JP5829020B2 (en) * 2010-12-22 2015-12-09 任天堂株式会社 GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP2014236931A (en) * 2013-06-10 2014-12-18 株式会社セガ Game program and game device
JP2014184300A (en) * 2014-04-28 2014-10-02 Copcom Co Ltd Game program and game device

Also Published As

Publication number Publication date
JP2017184982A (en) 2017-10-12

Similar Documents

Publication Publication Date Title
US11654358B2 (en) Head mounted displays (HMDs) with front facing cameras for transitioning between non-transparent modes and transparent modes
US11199705B2 (en) Image rendering responsive to user actions in head mounted display
RU2639118C2 (en) Systems and methods of using abbreviated transit sites for creating scene of additional virtual reality with headset system
RU2628665C2 (en) Systems and methods of decreasing transit sites related to the nuclear system
EP3005031B1 (en) Switching mode of operation in a head mounted display
US9984505B2 (en) Display of text information on a head-mounted display
JP6706473B2 (en) Information processing apparatus, display control method, and display control program
CN114339368B (en) Display method, device and equipment for live event and storage medium
JP6509302B1 (en) Game program and game system
JP2018147377A (en) Information processing method, computer, and program for causing computer to execute the method
JP6539224B2 (en) Game program and game system
JP2018147465A (en) Information processing method, device, and program for causing computer to execute the method
JP6263292B1 (en) Information processing method, computer, and program for causing computer to execute information processing method
US20180239420A1 (en) Method executed on computer for providing virtual space to head mount device, program for executing the method on the computer, and computer apparatus
JP6703578B2 (en) Program, method and information processing apparatus
JP6330072B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2019211865A (en) Computer program, information processing device, and information processing method
JP6545761B2 (en) Information processing method, apparatus, and program for causing a computer to execute the information processing method
JP2019166325A (en) Information processing method, device, and program for causing computer to execute the information processing method
JP2018147469A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP2018143752A (en) Information processing method, device, and program for causing computer to execute the information processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190607

R150 Certificate of patent or registration of utility model

Ref document number: 6539224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250