JP2023098604A - Game program, information processing system, information processing device, and game processing method - Google Patents
Game program, information processing system, information processing device, and game processing method Download PDFInfo
- Publication number
- JP2023098604A JP2023098604A JP2022167796A JP2022167796A JP2023098604A JP 2023098604 A JP2023098604 A JP 2023098604A JP 2022167796 A JP2022167796 A JP 2022167796A JP 2022167796 A JP2022167796 A JP 2022167796A JP 2023098604 A JP2023098604 A JP 2023098604A
- Authority
- JP
- Japan
- Prior art keywords
- target range
- virtual space
- event
- predetermined
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 63
- 238000003672 processing method Methods 0.000 title claims description 11
- 238000012545 processing Methods 0.000 claims abstract description 95
- 238000000034 method Methods 0.000 claims description 252
- 230000008569 process Effects 0.000 claims description 207
- 238000009877 rendering Methods 0.000 claims description 41
- 230000004044 response Effects 0.000 claims description 26
- 230000007717 exclusion Effects 0.000 claims description 21
- 230000002829 reductive effect Effects 0.000 claims description 21
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 abstract description 15
- 230000036961 partial effect Effects 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 58
- 238000010586 diagram Methods 0.000 description 35
- 238000004364 calculation method Methods 0.000 description 28
- 238000005286 illumination Methods 0.000 description 25
- 230000009471 action Effects 0.000 description 24
- 230000000694 effects Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000007423 decrease Effects 0.000 description 5
- 230000002238 attenuated effect Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、仮想空間を描画するためのゲームプログラム、情報処理システム、情報処理装置、および、ゲーム処理方法に関する。 The present invention relates to a game program, an information processing system, an information processing device, and a game processing method for drawing a virtual space.
従来、仮想空間において、視認性の低い領域(例えば、暗く表示される領域)を、光源となるアイテムを用いて探索するゲームを実行するゲーム装置がある(例えば、非特許文献1参照)。上記ゲームにおいては、ゲームフィールドにおける暗い領域(例えば、洞窟内の領域)においてプレイヤキャラクタが例えばたいまつ等の光源となるアイテムを持つことにより、プレイヤキャラクタの周囲を明るくして視認性を確保することができる。 2. Description of the Related Art Conventionally, there is a game device that executes a game in which an area with low visibility (for example, an area that is displayed darkly) is searched using an item serving as a light source in a virtual space (see, for example, Non-Patent Document 1). In the above game, visibility can be ensured by brightening the surroundings of the player character by holding a light source item such as a torch in a dark area (for example, an area in a cave) in the game field. can.
上記のゲームにおいては、光源が設定された結果としてその周囲が明るくなるだけであって、仮想空間における所望の範囲に対して明るさが確保されるようにするものではなかった。 In the above game, setting a light source only brightens its surroundings, and does not ensure brightness for a desired range in the virtual space.
それ故、本発明の目的は、仮想空間における視認性の低い領域と視認性が確保された領域とをゲーム処理に基づいて動的に変更することができるゲームプログラム、情報処理システム、情報処理装置、および、ゲーム処理方法を提供することである。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a game program, an information processing system, and an information processing apparatus capable of dynamically changing a region of low visibility and a region of secured visibility in a virtual space based on game processing. , and to provide a game processing method.
上記の課題を解決すべく、本発明は、以下の(1)~(13)の構成を採用した。 In order to solve the above problems, the present invention employs the following configurations (1) to (13).
(1)
本発明の一例は、情報処理装置のコンピュータに、次の処理を行わせるゲームプログラムである。
・ゲーム処理に基づいて所定のイベントが発生した場合に、仮想空間内に対象範囲を設定する処理
・仮想空間の描画を行う描画処理において、仮想空間内の少なくとも一部の地形オブジェクトについて、対象範囲に含まれる部分を、仮想空間内に設定された光源を反映して描画し、対象範囲に含まれない部分を、所定の色によって、または、明るさを下げて描画する処理
(1)
An example of the present invention is a game program that causes a computer of an information processing device to perform the following processing.
・Processing to set the target range in the virtual space when a predetermined event occurs based on the game processing. A process that draws the part included in the virtual space by reflecting the light source set in the virtual space, and draws the part that is not included in the target range in a predetermined color or with reduced brightness.
上記(1)の構成によれば、仮想空間における視認性の低い領域(すなわち、対象範囲外の領域)と視認性が確保された領域(すなわち、対象範囲内の領域)とをゲーム処理に基づいて動的に変更することができる。 According to the configuration of (1) above, an area with low visibility in the virtual space (that is, the area outside the target range) and an area with secured visibility (that is, the area within the target range) are separated based on the game processing. can be changed dynamically.
(2)
上記(1)の構成において、コンピュータは、描画処理において、少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が対象範囲に含まれるか否かを少なくとも示すマスクデータを生成してもよい。また、コンピュータは、描画処理において、マスクデータにおいて少なくとも一部の地形オブジェクトの位置が対象範囲に含まれることが示される画素については、光源を反映してフレームバッファへの描画を行ってもよい。コンピュータは、描画処理において、マスクデータにおいて少なくとも一部の地形オブジェクトの位置が対象範囲に含まれないことが示される画素については、所定の色によって、または、明るさを下げてフレームバッファへの描画を行ってもよい。
(2)
In the configuration of (1) above, the computer at least indicates, for each pixel of at least some of the land objects, whether or not the position corresponding to the pixel of the land objects is included in the target range in the rendering process. Mask data may be generated. Further, in the rendering process, the computer may perform rendering in the frame buffer reflecting the light source for pixels for which the mask data indicates that at least a part of the position of the terrain object is included in the target range. In the drawing process, the computer draws pixels for which the mask data indicates that at least part of the position of the terrain object is not included in the target range, with a predetermined color or with reduced brightness, to the frame buffer. may be performed.
上記(2)の構成によれば、マスクデータを用いることによって、対象範囲外が視認不可能または視認困難な態様とする描画処理を容易に行うことができる。 According to the configuration (2) above, by using the mask data, it is possible to easily perform the drawing process in which the outside of the target range is rendered invisible or difficult to be visually recognized.
(3)
上記(2)の構成において、描画処理は、ディファードレンダリングに基づいた描画処理であってもよい。コンピュータは、描画処理における第1の段階において、仮想空間内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行ってもよい。コンピュータは、描画処理における第2の段階において、画素ごとに、当該画素に対応する位置と、深度バッファに記憶された深度値と、対象範囲とに基づいて、マスクデータを生成してもよい。コンピュータは、描画処理における第3の段階において、少なくともGバッファに記憶されるデータと、マスクデータとに基づいてフレームバッファへの描画を行ってもよい。
(3)
In the configuration (2) above, the drawing process may be a drawing process based on deferred rendering. The computer may write to the G-buffer and depth buffer for at least a portion of the terrain object in the virtual space in the first stage of the drawing process. In a second stage of the rendering process, the computer may generate mask data for each pixel based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the target range. In the third stage of the drawing process, the computer may draw to the frame buffer based on at least the data stored in the G buffer and the mask data.
上記(3)の構成によれば、ディファードレンダリングの技術を用いて、対象範囲外のオブジェクトを視認不可能または視認困難な態様で描画することができる。 With configuration (3) above, the deferred rendering technique can be used to render an object outside the target range in an invisible or difficult-to-visible manner.
(4)
上記(3)の構成において、コンピュータはさらに、描画処理における第1の段階において、所定のオブジェクトについて、Gバッファおよび深度バッファへの書き込みを画素ごとに行うとともに、当該オブジェクトに対応する画素についてマスクデータの適用を除外することを示す除外マスクデータを生成してもよい。コンピュータは、描画処理における第3の段階において、除外マスクデータが示す画素について、少なくとも一部の地形オブジェクトのうち対象範囲に含まれない部分と所定のオブジェクトとを区別して視認することができる方法で描画を行ってもよい。
(4)
In the above configuration (3), the computer further writes pixel-by-pixel to the G buffer and the depth buffer for a predetermined object in the first stage of the drawing process, and also writes mask data for pixels corresponding to the object. You may generate the exclusion mask data which shows exclusion of application of. In the third stage of the drawing process, the computer uses a method that allows the pixels indicated by the exclusion mask data to be visually distinguished from the predetermined object and the portion that is not included in the target range of at least a part of the terrain object. You can draw.
上記(4)の構成によれば、所定のオブジェクトについては対象範囲外であっても視認可能とすることができる。 According to the above configuration (4), it is possible to make the predetermined object visible even if it is out of the target range.
(5)
上記(2)から(4)のいずれかの構成において、マスクデータは、所定の色が描画される度合い、または、明るさを下げる度合いを画素ごとに示すデータであってもよい。コンピュータは、描画処理において、光源を反映して算出される画素値に対して、度合いに応じて所定の色を合成した画素値、または、当該度合いに応じて明るさを下げた画素値をフレームバッファに書き込んでもよい。
(5)
In any one of the configurations (2) to (4) above, the mask data may be data indicating the degree to which a predetermined color is drawn or the degree to which the brightness is reduced for each pixel. In the rendering process, the computer combines the pixel values calculated by reflecting the light source with a predetermined color according to the degree, or the pixel values with the brightness lowered according to the degree. You may write to the buffer.
上記(5)の構成によれば、位置に応じて視認性が次第に変化していくような仮想空間の画像を生成することができるので、より自然に見える仮想空間を示す画像を生成することができる。 According to the above configuration (5), it is possible to generate an image of the virtual space in which the visibility gradually changes according to the position. Therefore, it is possible to generate an image showing the virtual space that looks more natural. can.
(6)
上記(1)から(5)のいずれかの構成において、仮想空間内には、光源として少なくとも、仮想空間内の位置によらず所定の明るさが設定される光源が設定されてもよい。
(6)
In any one of the configurations (1) to (5) above, at least a light source for which a predetermined brightness is set regardless of the position in the virtual space may be set as the light source in the virtual space.
上記(6)の構成によれば、対象範囲について一定の明るさを確保することができ、仮想空間における地形の形状等によらず対象範囲の視認性を確保することができる。 With configuration (6) above, it is possible to ensure constant brightness for the target range, and to ensure visibility of the target range regardless of the shape of the terrain in the virtual space.
(7)
上記(1)から(6)のいずれかの構成において、コンピュータは、所定のイベントの発生に応じて、対象範囲の基準となる点を仮想空間内に設定してもよい。コンピュータは、基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように対象範囲を設定してもよい。
(7)
In any one of the configurations (1) to (6) above, the computer may set a point in the virtual space that serves as a reference for the target range in response to occurrence of a predetermined event. The computer may set the target range based on the distance from the reference point so as to include a range in which the distance is equal to or less than the threshold.
上記(7)の構成によれば、所定のイベントの発生に応じて、当該イベントに応じた位置とその周囲を対象範囲に設定することができる。 With configuration (7) above, when a predetermined event occurs, a position corresponding to the event and its surroundings can be set as the target range.
(8)
上記(7)の構成において、コンピュータは、所定のイベントの発生に応じて基準となる点が設定された後、しきい値を時間経過に応じて増加させることで対象範囲を拡大してもよい。
(8)
In the above configuration (7), the computer may expand the target range by increasing the threshold over time after the reference point is set in response to the occurrence of the predetermined event. .
上記(8)の構成によれば、仮想空間において視認性が確保される領域が所定のイベントの発生に応じて次第に拡大していくように画像を生成することができる。 With configuration (8) above, it is possible to generate an image such that the region in which visibility is ensured in the virtual space gradually expands according to the occurrence of a predetermined event.
(9)
上記(7)または(8)の構成において、コンピュータは、所定のイベントの発生に応じてさらに点光源を仮想空間内に設置してもよい。
(9)
In configuration (7) or (8) above, the computer may further install a point light source in the virtual space in response to the occurrence of a predetermined event.
上記(9)の構成によれば、所定のイベントが発生したこと、および、当該所定のイベントの発生によって仮想空間がより明るくなったことをプレイヤに認識させやすくすることができる。 With configuration (9) above, it is possible to make it easier for the player to recognize that the predetermined event has occurred and that the virtual space has become brighter due to the occurrence of the predetermined event.
(10)
上記(7)から(9)のいずれかの構成において、イベントは、所定のアイテムが仮想空間内に配置されるイベントであってもよい。コンピュータは、所定のアイテムが配置された位置に基づいて、基準となる点の位置を設定してもよい。
(10)
In any one of configurations (7) to (9) above, the event may be an event in which a predetermined item is arranged in the virtual space. The computer may set the position of the reference point based on the position where the predetermined item is placed.
上記(10)の構成によれば、プレイヤは、仮想空間における所望の位置にアイテムを配置することによって、当該位置に対象範囲を設定させることができる。 With configuration (10) above, the player can set the target range at a desired position in the virtual space by arranging the item.
(11)
上記(7)から(10)のいずれかの構成において、コンピュータはさらに、操作入力に基づいて仮想空間内におけるプレイヤキャラクタの制御を行ってもよい。所定のイベントは、操作入力に基づいて、プレイヤキャラクタの周囲が対象範囲となるイベントであってもよい。コンピュータにさらに、プレイヤキャラクタの位置を、基準となる点の位置として設定してもよい。
(11)
In any one of configurations (7) to (10) above, the computer may further control the player character in the virtual space based on the operation input. The predetermined event may be an event whose target range is the surroundings of the player character based on the operation input. The computer may further set the position of the player character as the reference point position.
上記(11)の構成によれば、プレイヤキャラクタの周囲についての視認性を継続的に確保することができる。 With configuration (11) above, it is possible to continuously ensure the visibility of the surroundings of the player character.
(12)
上記(2)から(6)のいずれかの構成において、コンピュータはさらに、操作入力に基づいて仮想空間内におけるプレイヤキャラクタの制御を行ってもよい。イベントは、仮想空間内に設定されたイベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベントであってもよい。コンピュータはさらに、イベントの発生に応じて、仮想空間における対象範囲を平面的に示す2次元範囲データを、仮想空間のうちイベント発生位置に対応する範囲が少なくとも対象範囲となるよう更新してもよい。コンピュータは、2次元範囲データにさらに基づいてマスクデータを生成してもよい。
(12)
In any one of the configurations (2) to (6) above, the computer may further control the player character in the virtual space based on the operation input. The event may be an event that occurs when a predetermined operation input is performed when the player character is positioned at an event occurrence position set in the virtual space. The computer may further update the two-dimensional range data that planarly indicates the target range in the virtual space in response to the occurrence of the event so that at least the range corresponding to the event occurrence position in the virtual space becomes the target range. . The computer may generate mask data further based on the two-dimensional range data.
上記(12)の構成によれば、プレイヤキャラクタがイベント発生位置へ到達することによって、仮想空間において視認性が確保される範囲を拡げていくゲームを提供することができる。 With configuration (12) above, it is possible to provide a game that expands the range in which visibility is ensured in the virtual space by the player character reaching the event occurrence position.
(13)
上記(1)または(2)の構成において、コンピュータは、描画処理において、少なくとも一部の地形オブジェクトに関して、対象範囲に含まれるか否かを画素ごとに判定してもよい。コンピュータは、描画処理において、対象範囲に含まれる画素については、光源を反映してフレームバッファへの描画を行ってもよい。コンピュータは、描画処理において、対象範囲に含まれない画素については、所定の色によって、または、明るさを下げてフレームバッファへの描画を行ってもよい。
(13)
In the configuration (1) or (2) above, the computer may determine, for each pixel, whether or not at least a part of the terrain object is included in the target range in the drawing process. In the rendering process, the computer may render the pixels included in the target range in the frame buffer by reflecting the light source. In the drawing process, the computer may draw pixels that are not included in the target range in a predetermined color or with reduced brightness to the frame buffer.
上記(13)の構成によれば、フォワードレンダリングの技術を用いて、対象範囲外のオブジェクトを視認不可能または視認困難な態様で描画することができる。 With configuration (13) above, forward rendering technology can be used to render an object outside the target range in an invisible or difficult-to-visible manner.
なお、本発明の別の一例は、上記(1)~(13)における処理を実行する情報処理装置または情報処理システムであってもよい。また、本発明の別の一例は、上記(1)~(13)における処理を実行するゲーム処理方法であってもよい。 Another example of the present invention may be an information processing apparatus or an information processing system that executes the processes (1) to (13) above. Another example of the present invention may be a game processing method for executing the processes (1) to (13) above.
上記ゲームプログラム、情報処理システム、情報処理装置、および、ゲーム処理方法によれば、仮想空間における視認性の低い領域と視認性が確保された領域とをイベントの発生に応じて動的に変更することができる。 According to the game program, the information processing system, the information processing device, and the game processing method described above, the low-visibility area and the high-visibility area in the virtual space are dynamically changed according to the occurrence of an event. be able to.
[1.ゲームシステムの構成]
以下、本実施形態の一例に係るゲームシステムについて説明する。本実施形態におけるゲームシステム1の一例は、本体装置(情報処理装置;本実施形態ではゲーム装置本体として機能する)2と左コントローラ3および右コントローラ4とを含む。本体装置2は、左コントローラ3および右コントローラ4がそれぞれ着脱可能である。つまり、ゲームシステム1は、左コントローラ3および右コントローラ4をそれぞれ本体装置2に装着して一体化された装置として利用できる。また、ゲームシステム1は、本体装置2と左コントローラ3および右コントローラ4とを別体として利用することもできる(図2参照)。以下では、本実施形態のゲームシステム1のハードウェア構成について説明し、その後に本実施形態のゲームシステム1の制御について説明する。
[1. Game system configuration]
A game system according to an example of the present embodiment will be described below. An example of a
図1は、本体装置2に左コントローラ3および右コントローラ4を装着した状態の一例を示す図である。図1に示すように、左コントローラ3および右コントローラ4は、それぞれ本体装置2に装着されて一体化されている。本体装置2は、ゲームシステム1における各種の処理(例えば、ゲーム処理)を実行する装置である。本体装置2は、ディスプレイ12を備える。左コントローラ3および右コントローラ4は、ユーザが入力を行うための操作部を備える装置である。
FIG. 1 is a diagram showing an example of a state in which a
図2は、本体装置2から左コントローラ3および右コントローラ4をそれぞれ外した状態の一例を示す図である。図1および図2に示すように、左コントローラ3および右コントローラ4は、本体装置2に着脱可能である。なお、以下において、左コントローラ3および右コントローラ4の総称として「コントローラ」と記載することがある。
FIG. 2 is a diagram showing an example of a state in which the
図3は、本体装置2の一例を示す六面図である。図3に示すように、本体装置2は、略板状のハウジング11を備える。本実施形態において、ハウジング11の主面(換言すれば、表側の面、すなわち、ディスプレイ12が設けられる面)は、大略的には矩形形状である。
3A and 3B are six views showing an example of the
なお、ハウジング11の形状および大きさは、任意である。一例として、ハウジング11は、携帯可能な大きさであってよい。また、本体装置2単体または本体装置2に左コントローラ3および右コントローラ4が装着された一体型装置は、携帯型装置となってもよい。また、本体装置2または一体型装置が手持ち型の装置となってもよい。また、本体装置2または一体型装置が可搬型装置となってもよい。
The shape and size of the
図3に示すように、本体装置2は、ハウジング11の主面に設けられるディスプレイ12を備える。ディスプレイ12は、本体装置2が生成した画像を表示する。本実施形態においては、ディスプレイ12は、液晶表示装置(LCD)とする。ただし、ディスプレイ12は任意の種類の表示装置であってよい。
As shown in FIG. 3 ,
また、本体装置2は、ディスプレイ12の画面上にタッチパネル13を備える。本実施形態においては、タッチパネル13は、マルチタッチ入力が可能な方式(例えば、静電容量方式)のものである。ただし、タッチパネル13は、任意の種類のものであってよく、例えば、シングルタッチ入力が可能な方式(例えば、抵抗膜方式)のものであってもよい。
The
本体装置2は、ハウジング11の内部においてスピーカ(すなわち、図6に示すスピーカ88)を備えている。図3に示すように、ハウジング11の主面には、スピーカ孔11aおよび11bが形成される。そして、スピーカ88の出力音は、これらのスピーカ孔11aおよび11bからそれぞれ出力される。
The
また、本体装置2は、本体装置2が左コントローラ3と有線通信を行うための端子である左側端子17と、本体装置2が右コントローラ4と有線通信を行うための右側端子21を備える。
The
図3に示すように、本体装置2は、スロット23を備える。スロット23は、ハウジング11の上側面に設けられる。スロット23は、所定の種類の記憶媒体を装着可能な形状を有する。所定の種類の記憶媒体は、例えば、ゲームシステム1およびそれと同種の情報処理装置に専用の記憶媒体(例えば、専用メモリカード)である。所定の種類の記憶媒体は、例えば、本体装置2で利用されるデータ(例えば、アプリケーションのセーブデータ等)、および/または、本体装置2で実行されるプログラム(例えば、アプリケーションのプログラム等)を記憶するために用いられる。また、本体装置2は、電源ボタン28を備える。
As shown in FIG. 3 , the
本体装置2は、下側端子27を備える。下側端子27は、本体装置2がクレードルと通信を行うための端子である。本実施形態において、下側端子27は、USBコネクタ(より具体的には、メス側コネクタ)である。上記一体型装置または本体装置2単体をクレードルに載置した場合、ゲームシステム1は、本体装置2が生成して出力する画像を据置型モニタに表示することができる。また、本実施形態においては、クレードルは、載置された上記一体型装置または本体装置2単体を充電する機能を有する。また、クレードルは、ハブ装置(具体的には、USBハブ)の機能を有する。
The
図4は、左コントローラ3の一例を示す六面図である。図4に示すように、左コントローラ3は、ハウジング31を備える。本実施形態においては、ハウジング31は、縦長の形状、すなわち、上下方向(すなわち、図1および図4に示すy軸方向)に長い形状である。左コントローラ3は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング31は、縦長となる向きで把持される場合に片手、特に左手で把持可能な形状および大きさをしている。また、左コントローラ3は、横長となる向きで把持されることも可能である。左コントローラ3が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。
4A and 4B are six views showing an example of the
左コントローラ3は、アナログスティック32を備える。図4に示すように、アナログスティック32は、ハウジング31の主面に設けられる。アナログスティック32は、方向を入力することが可能な方向入力部として用いることができる。ユーザは、アナログスティック32を傾倒することによって傾倒方向に応じた方向の入力(および、傾倒した角度に応じた大きさの入力)が可能である。なお、左コントローラ3は、方向入力部として、アナログスティックに代えて、十字キーまたはスライド入力が可能なスライドスティック等を備えるようにしてもよい。また、本実施形態においては、アナログスティック32を押下する入力が可能である。
The
左コントローラ3は、各種操作ボタンを備える。左コントローラ3は、ハウジング31の主面上に4つの操作ボタン33~36(具体的には、右方向ボタン33、下方向ボタン34、上方向ボタン35、および左方向ボタン36)を備える。さらに、左コントローラ3は、録画ボタン37および-(マイナス)ボタン47を備える。左コントローラ3は、ハウジング31の側面の左上に第1Lボタン38およびZLボタン39を備える。また、左コントローラ3は、ハウジング31の側面の、本体装置2に装着される際に装着される側の面に第2Lボタン43および第2Rボタン44を備える。これらの操作ボタンは、本体装置2で実行される各種プログラム(例えば、OSプログラムやアプリケーションプログラム)に応じた指示を行うために用いられる。
The
また、左コントローラ3は、左コントローラ3が本体装置2と有線通信を行うための端子42を備える。
The
図5は、右コントローラ4の一例を示す六面図である。図5に示すように、右コントローラ4は、ハウジング51を備える。本実施形態においては、ハウジング51は、縦長の形状、すなわち、上下方向に長い形状である。右コントローラ4は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング51は、縦長となる向きで把持される場合に片手、特に右手で把持可能な形状および大きさをしている。また、右コントローラ4は、横長となる向きで把持されることも可能である。右コントローラ4が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。
5A and 5B are six views showing an example of the
右コントローラ4は、左コントローラ3と同様、方向入力部としてアナログスティック52を備える。本実施形態においては、アナログスティック52は、左コントローラ3のアナログスティック32と同じ構成である。また、右コントローラ4は、アナログスティックに代えて、十字キーまたはスライド入力が可能なスライドスティック等を備えるようにしてもよい。また、右コントローラ4は、左コントローラ3と同様、ハウジング51の主面上に4つの操作ボタン53~56(具体的には、Aボタン53、Bボタン54、Xボタン55、およびYボタン56)を備える。さらに、右コントローラ4は、+(プラス)ボタン57およびホームボタン58を備える。また、右コントローラ4は、ハウジング51の側面の右上に第1Rボタン60およびZRボタン61を備える。また、右コントローラ4は、左コントローラ3と同様、第2Lボタン65および第2Rボタン66を備える。
The
また、右コントローラ4は、右コントローラ4が本体装置2と有線通信を行うための端子64を備える。
The
図6は、本体装置2の内部構成の一例を示すブロック図である。本体装置2は、図3に示す構成の他、図6に示す各構成要素81~85、87、88、91、97、および98を備える。これらの構成要素81~85、87、88、91、97、および98のいくつかは、電子部品として電子回路基板上に実装されてハウジング11内に収納されてもよい。
FIG. 6 is a block diagram showing an example of the internal configuration of the
本体装置2は、プロセッサ81を備える。プロセッサ81は、本体装置2において実行される各種の情報処理を実行する情報処理部であって、例えば、CPU(Central Processing Unit)のみから構成されてもよいし、CPU機能、GPU(Graphics Processing Unit)機能等の複数の機能を含むSoC(System-on-a-chip)から構成されてもよい。プロセッサ81は、記憶部(具体的には、フラッシュメモリ84等の内部記憶媒体、あるいは、スロット23に装着される外部記憶媒体等)に記憶される情報処理プログラム(例えば、ゲームプログラム)を実行することによって、各種の情報処理を実行する。
The
本体装置2は、自身に内蔵される内部記憶媒体の一例として、フラッシュメモリ84およびDRAM(Dynamic Random Access Memory)85を備える。フラッシュメモリ84およびDRAM85は、プロセッサ81に接続される。フラッシュメモリ84は、主に、本体装置2に保存される各種のデータ(プログラムであってもよい)を記憶するために用いられるメモリである。DRAM85は、情報処理において用いられる各種のデータを一時的に記憶するために用いられるメモリである。
The
本体装置2は、スロットインターフェース(以下、「I/F」と略記する。)91を備える。スロットI/F91は、プロセッサ81に接続される。スロットI/F91は、スロット23に接続され、スロット23に装着された所定の種類の記憶媒体(例えば、専用メモリカード)に対するデータの読み出しおよび書き込みを、プロセッサ81の指示に応じて行う。
The
プロセッサ81は、フラッシュメモリ84およびDRAM85、ならびに上記各記憶媒体との間でデータを適宜読み出したり書き込んだりして、上記の情報処理を実行する。
The
本体装置2は、ネットワーク通信部82を備える。ネットワーク通信部82は、プロセッサ81に接続される。ネットワーク通信部82は、ネットワークを介して外部の装置と通信(具体的には、無線通信)を行う。本実施形態においては、ネットワーク通信部82は、第1の通信態様としてWi-Fiの規格に準拠した方式により、無線LANに接続して外部装置と通信を行う。また、ネットワーク通信部82は、第2の通信態様として所定の通信方式(例えば、独自プロトコルによる通信や、赤外線通信)により、同種の他の本体装置2との間で無線通信を行う。なお、上記第2の通信態様による無線通信は、閉ざされたローカルネットワークエリア内に配置された他の本体装置2との間で無線通信可能であり、複数の本体装置2の間で直接通信することによってデータが送受信される、いわゆる「ローカル通信」を可能とする機能を実現する。
The
本体装置2は、コントローラ通信部83を備える。コントローラ通信部83は、プロセッサ81に接続される。コントローラ通信部83は、左コントローラ3および/または右コントローラ4と無線通信を行う。本体装置2と左コントローラ3および右コントローラ4との通信方式は任意であるが、本実施形態においては、コントローラ通信部83は、左コントローラ3との間および右コントローラ4との間で、Bluetooth(登録商標)の規格に従った通信を行う。
The
プロセッサ81は、上述の左側端子17、右側端子21、および下側端子27に接続される。プロセッサ81は、左コントローラ3と有線通信を行う場合、左側端子17を介して左コントローラ3へデータを送信するとともに、左側端子17を介して左コントローラ3から操作データを受信する。また、プロセッサ81は、右コントローラ4と有線通信を行う場合、右側端子21を介して右コントローラ4へデータを送信するとともに、右側端子21を介して右コントローラ4から操作データを受信する。また、プロセッサ81は、クレードルと通信を行う場合、下側端子27を介してクレードルへデータを送信する。このように、本実施形態においては、本体装置2は、左コントローラ3および右コントローラ4との間で、それぞれ有線通信と無線通信との両方を行うことができる。また、左コントローラ3および右コントローラ4が本体装置2に装着された一体型装置または本体装置2単体がクレードルに装着された場合、本体装置2は、クレードルを介してデータ(例えば、画像データや音声データ)を据置型モニタ等に出力することができる。
ここで、本体装置2は、複数の左コントローラ3と同時に(換言すれば、並行して)通信を行うことができる。また、本体装置2は、複数の右コントローラ4と同時に(換言すれば、並行して)通信を行うことができる。したがって、複数のユーザは、左コントローラ3および右コントローラ4のセットをそれぞれ用いて、本体装置2に対する入力を同時に行うことができる。一例として、第1ユーザが左コントローラ3および右コントローラ4の第1セットを用いて本体装置2に対して入力を行うと同時に、第2ユーザが左コントローラ3および右コントローラ4の第2セットを用いて本体装置2に対して入力を行うことが可能となる。
Here, the
また、ディスプレイ12は、プロセッサ81に接続される。プロセッサ81は、(例えば、上記の情報処理の実行によって)生成した画像および/または外部から取得した画像をディスプレイ12に表示する。
本体装置2は、コーデック回路87およびスピーカ(具体的には、左スピーカおよび右スピーカ)88を備える。コーデック回路87は、スピーカ88および音声入出力端子25に接続されるとともに、プロセッサ81に接続される。コーデック回路87は、スピーカ88および音声入出力端子25に対する音声データの入出力を制御する回路である。
本体装置2は、電力制御部97およびバッテリ98を備える。電力制御部97は、バッテリ98およびプロセッサ81に接続される。また、図示しないが、電力制御部97は、本体装置2の各部(具体的には、バッテリ98の電力の給電を受ける各部、左側端子17、および右側端子21)に接続される。電力制御部97は、プロセッサ81からの指令に基づいて、バッテリ98から上記各部への電力供給を制御する。
また、バッテリ98は、下側端子27に接続される。外部の充電装置(例えば、クレードル)が下側端子27に接続され、下側端子27を介して本体装置2に電力が供給される場合、供給された電力がバッテリ98に充電される。
Also, the
図7は、本体装置2と左コントローラ3および右コントローラ4との内部構成の一例を示すブロック図である。なお、本体装置2に関する内部構成の詳細については、図6で示しているため図7では省略している。
FIG. 7 is a block diagram showing an example of internal configurations of the
左コントローラ3は、本体装置2との間で通信を行う通信制御部101を備える。図7に示すように、通信制御部101は、端子42を含む各構成要素に接続される。本実施形態においては、通信制御部101は、端子42を介した有線通信と、端子42を介さない無線通信との両方で本体装置2と通信を行うことが可能である。通信制御部101は、左コントローラ3が本体装置2に対して行う通信方法を制御する。すなわち、左コントローラ3が本体装置2に装着されている場合、通信制御部101は、端子42を介して本体装置2と通信を行う。また、左コントローラ3が本体装置2から外されている場合、通信制御部101は、本体装置2(具体的には、コントローラ通信部83)との間で無線通信を行う。コントローラ通信部83と通信制御部101との間の無線通信は、例えばBluetooth(登録商標)の規格に従って行われる。
The
また、左コントローラ3は、例えばフラッシュメモリ等のメモリ102を備える。通信制御部101は、例えばマイコン(マイクロプロセッサとも言う)で構成され、メモリ102に記憶されるファームウェアを実行することによって各種の処理を実行する。
The
左コントローラ3は、各ボタン103(具体的には、ボタン33~39、43、44、および47)を備える。また、左コントローラ3は、アナログスティック(図7では「スティック」と記載する)32を備える。各ボタン103およびアナログスティック32は、自身に対して行われた操作に関する情報を、適宜のタイミングで繰り返し通信制御部101へ出力する。
The
通信制御部101は、各入力部(具体的には、各ボタン103、および、アナログスティック32)から、入力に関する情報(具体的には、操作に関する情報、またはセンサによる検出結果)を取得する。通信制御部101は、取得した情報(または取得した情報に所定の加工を行った情報)を含む操作データを本体装置2へ送信する。なお、操作データは、所定時間に1回の割合で繰り返し送信される。なお、入力に関する情報が本体装置2へ送信される間隔は、各入力部について同じであってもよいし、同じでなくてもよい。
The communication control unit 101 acquires input-related information (specifically, operation-related information or sensor detection results) from each input unit (specifically, each
上記操作データが本体装置2へ送信されることによって、本体装置2は、左コントローラ3に対して行われた入力を得ることができる。すなわち、本体装置2は、各ボタン103およびアナログスティック32に対する操作を、操作データに基づいて判別することができる。
By transmitting the operation data to the
左コントローラ3は、電力供給部108を備える。本実施形態において、電力供給部108は、バッテリおよび電力制御回路を有する。図示しないが、電力制御回路は、バッテリに接続されるとともに、左コントローラ3の各部(具体的には、バッテリの電力の給電を受ける各部)に接続される。
The
図7に示すように、右コントローラ4は、本体装置2との間で通信を行う通信制御部111を備える。また、右コントローラ4は、通信制御部111に接続されるメモリ112を備える。通信制御部111は、端子64を含む各構成要素に接続される。通信制御部111およびメモリ112は、左コントローラ3の通信制御部101およびメモリ102と同様の機能を有する。したがって、通信制御部111は、端子64を介した有線通信と、端子64を介さない無線通信(具体的には、Bluetooth(登録商標)の規格に従った通信)との両方で本体装置2と通信を行うことが可能であり、右コントローラ4が本体装置2に対して行う通信方法を制御する。
As shown in FIG. 7 , the
右コントローラ4は、左コントローラ3の各入力部と同様の各入力部を備える。具体的には、各ボタン113、および、アナログスティック52を備える。これらの各入力部については、左コントローラ3の各入力部と同様の機能を有し、同様に動作する。
The
右コントローラ4は、電力供給部118を備える。電力供給部118は、左コントローラ3の電力供給部108と同様の機能を有し、同様に動作する。
The
[2.ゲームシステムにおける処理の概要]
図8~図22を参照して、ゲームシステム1において実行される処理の概要について説明する。本実施形態においては、ゲームシステム1は、プレイヤ(すなわち、ゲームシステム1のユーザ)が操作可能なプレイヤキャラクタが3次元の仮想空間であるゲームフィールド(以下、単に「フィールド」と記載する)を移動するゲームを実行する。ゲームシステム1は、プレイヤキャラクタが配置されるフィールドを示すフィールド画像を表示することに加え、フィールドのマップを示すマップ画像を表示することも可能である。本実施形態においては、マップ画像は、プレイヤの指示によってフィールド画像から切り替えて表示される他、少なくとも一部が常にフィールド画像と共に表示される場合もある。
[2. Overview of Processing in Game System]
An outline of the processing executed in the
図8は、本実施形態におけるゲーム例の概要を示す図である。図8に示す左側の欄は、フィールドの状況を示しており、右側の欄は、表示されるマップ画像の例を示している。ここで、本実施形態においては、フィールドには複数の基準地点(例えば、図8に示す基準地点202)が設定される。基準地点は、プレイヤキャラクタ201が当該基準地点またはその近傍に位置する状態でプレイヤによる所定の操作入力(例えば、基準地点を調べる動作をプレイヤキャラクタに行わせるための操作入力)が行われたことに応じて、解放される。つまり、プレイヤキャラクタ201は、基準地点に到達して所定の動作(例えば、基準地点を調べる動作)を行うことで、当該基準地点を解放することができる。以下では、基準地点が解放されるゲームイベントを「解放イベント」と呼ぶ。なお、基準地点は、例えば、プレイヤキャラクタ201が解放済みである他の基準地点へワープ移動すること(いわゆるファストトラベル)ができたり、プレイヤキャラクタ201を回復することができたり、プレイヤキャラクタ201の装備やスキルや所持アイテムを変更することができたりする場所であってもよい。
FIG. 8 is a diagram showing an overview of a game example in this embodiment. The left column shown in FIG. 8 shows the status of the field, and the right column shows an example of the displayed map image. Here, in this embodiment, a plurality of reference points (for example, the
本実施形態においては、基準地点が解放される前においては、一部の例外(例えば、プレイヤキャラクタ201自身もしくはその周囲や、後述する目印オブジェクト203)を除き、フィールドは暗闇の状態となっている(図8に示す状態a)。なお、図8においては、図面をわかりやすくする目的で、暗闇となっている範囲を斜線で示しているが、ゲームシステム1は、プレイヤが視認不可能または視認困難な態様で暗闇となるフィールドを表示する(後述する図15等参照)。図8に示す状態aにおいては、プレイヤキャラクタ201の周囲と、基準地点202を示す目印オブジェクト203とを除いてフィールドは暗闇となっているので、フィールドの探索を行いにくい状態であると言える。
In this embodiment, the field is in a dark state before the reference point is released, except for some exceptions (eg, the
また、基準地点が解放される前においては、マップ画像は、フィールド情報が示されない態様で表示される(図8に示す状態a)。フィールド情報とは、フィールドに関する情報であり、例えば、フィールドを形成する地形の情報(具体的には、地形の形状等)、フィールドに設置されているオブジェクトの情報、フィールドに配置されているアイテムの情報、あるいは、フィールド上に存在するキャラクタの情報等である。図8に示す状態aにおいては、マップ画像は、プレイヤキャラクタ201の位置および向きを示すマーク204のみが示され、マーク204以外の他のフィールド情報は示されない態様で表示される。このように、基準地点が解放される前におけるマップ画像は、少なくとも一部のフィールド情報が示されない態様で表示されればよく、他の一部のフィールド情報(例えば、図8に示すマーク204)は解放前において示されていてもよい。
Also, before the reference point is released, the map image is displayed in a manner in which field information is not displayed (state a shown in FIG. 8). Field information is information about a field. For example, information about the terrain that forms the field (specifically, the shape of the terrain, etc.), information about objects placed in the field, and information about items placed in the field. It is information or information of characters existing on the field. In the state a shown in FIG. 8, the map image is displayed in such a manner that only the
一方、プレイヤキャラクタ201によって基準地点(図8に示す例では、基準地点202)が解放されると、フィールドのうち当該基準地点の周囲の領域は、暗闇ではなく、光が当たる範囲となる(図8に示す状態b)。以下では、フィールドのうち、光が当たる範囲を「照射範囲」と呼ぶ。詳細は後述するが、ゲームシステム1は、プレイヤが視認可能な態様で照射範囲を表示する(後述する図17等参照)。
On the other hand, when the reference point (the
また、基準地点が解放されると、マップ画像のうち当該基準地点の周囲についてはフィールド情報が示される態様で表示される(図8に示す状態b)。図8に示す例においては、解放された基準地点の周囲については、プレイヤキャラクタ201に関するマーク204に加えて、地形の形状を示す線と、基準地点を示すマーク205とが示されている。
Further, when the reference point is released, the area around the reference point in the map image is displayed in a manner in which field information is shown (state b shown in FIG. 8). In the example shown in FIG. 8, in addition to a
上記のように、解放イベントが発生すると、フィールドのうち解放された基準地点の周囲の領域が視認可能に表示されるようになるとともに、マップ画像においては当該基準地点の周囲の領域についてフィールド情報が表示されるようになる。これらによって、プレイヤは、解放された基準地点の周囲の探索をプレイヤキャラクタ201に行わせやすくなる。本実施形態においては、プレイヤは、フィールドにおける基準地点を解放させることを目的の1つとして、探索しやすい領域を基準地点の解放によって増やしながらゲームを進める。
As described above, when a release event occurs, the area around the released reference point in the field will be visible, and the map image will contain field information about the area around the reference point. will be displayed. These make it easier for the player to have the
[2-1.マップの開放領域の設定]
図9~図14を参照して、基準地点が解放されることでマップ画像上においてフィールド情報が表示されるようになる領域(「解放領域」と呼ぶ。)の設定方法の一例について説明する。図9は、1つの基準地点が解放された場合における、フィールド対応平面と判定値との関係を示す図である。ここで、フィールド対応平面とは、3次元のフィールドに対応する2次元平面である。フィールド対応平面は、3次元のフィールドを鉛直方向に投影した平面と言うことができ、フィールド対応平面の2次元位置は、フィールドにおける水平方向の2次元座標(すなわち、フィールドの位置を示す3次元座標から高さ方向の座標を削除した2次元座標)が示す位置である。図9においては、上側にフィールド対応平面を示し、下側に、フィールド対応平面における判定値の変化を示すグラフを示している。具体的には、上記グラフは、解放された基準地点211を通る直線AB(図9において一点鎖線で示される直線)上における判定値の変化を示す。
[2-1. Map open area setting]
9 to 14, an example of a method of setting an area (referred to as a "released area") where field information is displayed on the map image when the reference point is released will be described. FIG. 9 is a diagram showing the relationship between the field corresponding plane and the judgment value when one reference point is released. Here, the field-corresponding plane is a two-dimensional plane corresponding to a three-dimensional field. The field-corresponding plane can be said to be a plane obtained by projecting a three-dimensional field in the vertical direction, and the two-dimensional position of the field-corresponding plane is the horizontal two-dimensional coordinate in the field (that is, the three-dimensional coordinate indicating the position of the field). is the position indicated by the two-dimensional coordinates obtained by deleting the coordinates in the height direction from . In FIG. 9, the upper side shows the field correspondence plane, and the lower side shows a graph showing the change in the determination value on the field correspondence plane. Specifically, the above graph shows changes in the determination value on a straight line AB (a straight line indicated by a dashed dotted line in FIG. 9) passing through the released
判定値は、フィールド対応平面における解放領域を判定するために用いられる値である。本実施形態においては、ゲームシステム1は、フィールド対応平面における解放領域を判定するために、フィールド対応平面の各位置について判定値を算出する。なお、判定値は、フィールド対応平面において所定の単位区間毎の位置(「算出対象位置」と呼ぶ。)ごとに算出される。具体的には、マップ画像における各画素に対応する位置ごとに、判定値を用いた判定が行われる。
A determination value is a value used to determine the release area in the field correspondence plane. In this embodiment, the
本実施形態においては、各算出対象位置における判定値は、基準地点において設定される基準値に基づいて算出される。すなわち、ゲームシステム1は、基準地点について基準値を設定し、基準値に基づいて各算出対象位置における判定値をそれぞれ算出する。なお、本実施形態においては、基準地点における基準値の大きさは、基準地点ごとに設定されるものとし、基準値の大きさは基準地点ごとに異なる大きさであってもよい。例えば、各基準地点における基準値は、全ての基準地点が解放された場合にフィールド全体が解放領域となるように設定されてもよい。
In this embodiment, the determination value at each calculation target position is calculated based on the reference value set at the reference point. That is, the
本実施形態においては、1つの基準地点に基づいて算出される、ある位置の判定値(すなわち、1つの基準地点に設定される基準値に基づいて算出される判定値)は、当該基準地点からの距離に基づいて算出され、より具体的には、当該基準地点からの距離が長くなるにつれて減少するように算出される(図9参照)。例えば、図9に示す例においては、解放された基準地点211には基準値A1が設定されており、直線AB上の各算出対象位置における判定値は、基準地点211において基準値A1となり、基準地点211からの当該位置までの距離に応じて減衰するように変化する。判定値は、上記距離がある長さ以上となる位置では0になる。なお、基準値に基づいて各算出対象位置における判定値を決定する具体的な計算方法は任意である。
In the present embodiment, the determination value of a certain position calculated based on one reference point (that is, the determination value calculated based on the reference value set at one reference point) is calculated from the reference point More specifically, it is calculated so as to decrease as the distance from the reference point increases (see FIG. 9). For example, in the example shown in FIG. 9, a reference value A1 is set at the released
本実施形態においては、図9に示すように基準地点211のみが解放されている場合、ゲームシステム1は、基準地点211に基づく判定値のみを考慮して解放領域を設定する。具体的には、ゲームシステム1は、フィールド対応平面のうち、基準地点211に基づく判定値が所定のしきい値(図9におけるしきい値th)以上となる位置からなる領域を、解放領域として設定する。上記のように、判定値は、基準地点211から当該位置までの距離に応じて減衰するので、図9に示す例においては、基準地点211を中心とした円形領域212が解放領域となる。
In this embodiment, when only the
図10は、図9に示す円形領域212が解放領域となる場合に表示されるマップ画像の一例を示す図である。上記の場合、図10に示すように、マップ画像の画素のうち、フィールド対応平面において判定値がしきい値以上となる位置に対応する画素についてフィールド情報が描画されるマップ画像が表示される。図9および図10に示すように、マップ画像においてフィールド情報が描画される範囲は、円形領域212に対応する。図10においては、領域212に対応する範囲について、フィールド情報として、地形の形状を示す線が表示される。なお、本実施形態においては、基準地点を示すマーク205は、当該基準地点の位置が解放領域内であるか否かに関わらず、プレイヤキャラクタ201が当該基準地点に到達したことによって表示されるようになるものとする。なお、本実施形態においては、マップ画像は、図10に示すように、ディスプレイ12の画面全体に表示される場合と、後述する図15に示すように、フィールドを示すフィールド画像に重ねられる態様で、ディスプレイ12の画面の一部に表示される場合とがある。
FIG. 10 is a diagram showing an example of a map image displayed when the
上記のように、本実施形態においては、マップ画像は、フィールド情報を2次元的に示す画像である。また、判定値は、基準地点に対応する2次元的な位置からの2次元的な距離(すなわち、フィールド対応平面上における距離)に応じて減衰する値である。上記によれば、2次元平面上で解放領域を設定することができるので、少ない処理負荷で、2次元マップと親和性の高い領域を設定することができる。また、上記によれば、基準地点からの距離に応じて(例えば、基準地点から一定距離内の範囲が解放領域となるように)解放領域を設定することができる。なお、他の実施形態においては、ゲームシステム1は、3次元のフィールドにおける各位置について判定値を算出し、3次元のフィールド上で解放領域を設定するようにしてもよい。このとき、ゲームシステム1は、3次元のフィールド上における解放領域に基づいて、2次元のマップ画像において当該解放領域に対応する範囲を決定し、当該範囲内についてフィールド情報を示すマップ画像を生成する。また、他の実施形態においては、マップは3次元であってもよく、3次元のマップにおいて解放領域が設定され、3次元のマップを示すマップ画像が生成・表示されてもよい。
As described above, in this embodiment, the map image is an image that two-dimensionally shows field information. Also, the determination value is a value that attenuates according to the two-dimensional distance from the two-dimensional position corresponding to the reference point (that is, the distance on the field corresponding plane). According to the above, since the release area can be set on the two-dimensional plane, it is possible to set an area that has a high affinity with the two-dimensional map with a small processing load. Further, according to the above, it is possible to set the release area according to the distance from the reference point (for example, so that the range within a certain distance from the reference point becomes the release area). Note that in another embodiment, the
また、複数の基準地点が解放されている場合、ゲームシステム1は、解放済みの各基準地点のそれぞれに基づいて判定値を算出し、各判定値の合計値(「合計判定値」と呼ぶ)を算出対象位置ごとに算出する。解放領域は、合計判定値に基づいて設定される。なお、1つの基準地点のみが解放されている場合(図9参照)には、当該基準地点に設定される基準値に基づく判定値が合計判定値になる、と言うことができる。
Further, when a plurality of reference points are released, the
図11は、2つの基準地点が解放された場合における、フィールド対応平面と判定値との関係を示す図である。図11においても図9と同様、上側にフィールド対応平面を示し、下側に、解放された基準地点を通る直線(図11においては、直線CD)上における判定値および合計判定値の変化を示すグラフを示している。なお、図11に示す直線CDは、解放された2つの基準地点211および213を通る。
FIG. 11 is a diagram showing the relationship between the field corresponding plane and the judgment value when two reference points are released. In FIG. 11, as in FIG. 9, the upper side shows the field correspondence plane, and the lower side shows the change in the judgment value and the total judgment value on the straight line (the straight line CD in FIG. 11) passing through the released reference point. showing a graph. Note that the straight line CD shown in FIG. 11 passes through the two released
図11に示す場合、ゲームシステム1は、上述の算出対象位置のそれぞれについて合計判定値を算出する。合計判定値は、解放済みの各基準地点211および213に基づく各判定値の合計である。すなわち、ゲームシステム1は、各算出対象位置について、基準地点211に基づく判定値をそれぞれ算出するとともに、基準地点213に基づく判定値をそれぞれ算出する。基準地点211に基づく判定値は、基準地点211について設定される基準値A1が、基準地点211からの当該位置までの距離に応じて減衰する値として算出される。基準地点213に基づく判定値は、基準地点213について設定される基準値A2が、基準地点213からの当該位置までの距離に応じて減衰する値として算出される。ゲームシステム1は、各算出対象位置についてそれぞれ、基準地点211に基づく判定値と基準地点213に基づく判定値とを加算することで、算出対象位置ごとの合計判定値を算出する。図11の下側のグラフにおいては、実線で示される右側の山が、基準地点211に基づく判定値の変化を示し、実線で示される左側の山が、基準地点213に基づく判定値の変化を示し、太い点線で示される曲線が合計判定値の変化を示している。
In the case shown in FIG. 11, the
ゲームシステム1は、フィールド対応平面のうち、合計判定値が上述のしきい値th以上となる位置からなる領域を、解放領域として設定する。図11に示す例においては、基準地点211を中心とした円形領域212と、基準地点213を中心とした円形領域214とに対して、これら2つの円形領域を接続する領域215を加えた領域216(図11において斜線で示される領域)が解放領域となる。すなわち、複数の基準地点が解放されている場合における解放領域は、2次元のメタボールの手法によって生成されるということもできる。
The
図12は、図11に示す領域216が解放領域となる場合に表示されるマップ画像の一例を示す図である。図12に示すように、マップ画像の画素のうち、フィールド対応平面において合計判定値がしきい値以上となる画素についてフィールド情報が描画されるマップ画像が表示される。フィールド情報が描画される範囲は、円形領域216に対応する。図12においては、フィールド情報として、地形の形状を示す線が表示される。また、図12に示す例においては、プレイヤキャラクタ201の位置および向きを示すマーク204に加えて、プレイヤキャラクタ201が到達した2つの基準地点を示すマーク205および221が表示される。このように、本実施形態においては、上記の合計判定値を用いて解放領域を設定するので、基準地点211および基準地点213の両方が解放された場合には、基準地点211のみが解放された場合、および、基準地点213のみが解放された場合のいずれの場合においても解放領域とはならない領域(すなわち、図11に示す領域215)が、解放領域に設定されることもある。
FIG. 12 is a diagram showing an example of a map image displayed when the
上記のように、本実施形態においては、複数の基準地点のそれぞれについて設定される基準値(すなわち、判定値の最大値)は、大きさが基準地点ごとに設定される。これによれば、基準地点が解放された場合に、当該基準地点を基準としてどの程度の大きさの領域を開放領域とするかを、基準地点ごとに設定することができる。例えば、図11に示す例においては、基準地点211に設定される基準値A1または基準地点213に設定される基準値A2の大きさを変更することで、基準地点211および213が解放された場合における解放領域の大きさや形状を変化させることができる。例えば、基準値A1および/または基準値A2をより小さい値に変更することで、基準地点211および213が解放された場合における解放領域を、互いに接続されない2つの円形領域とすることも可能である。なお、他の実施形態においては、複数の基準地点のそれぞれについて設定される基準値は、同じ値に設定されてもよい。さらに、複数の基準地点の基準値が同じ値であっても、距離に応じた減衰の度合いが基準地点ごとに異なるように判定値の算出方法を設定することによって、解放領域の範囲が基準地点ごとに異なるようにしてもよい。
As described above, in the present embodiment, the reference value (that is, the maximum determination value) set for each of a plurality of reference points is set for each reference point. According to this, when the reference point is released, it is possible to set for each reference point how large the area to be the open area is based on the reference point. For example, in the example shown in FIG. 11, the
また、上記のように、本実施形態においては、ゲームシステム1は、解放領域として、複数の基準地点のうち解放された状態となっている1つ以上の基準地点に基づく1つ以上の判定値を少なくとも合計した合計判定値が所定値(すなわち、上記しきい値th)以上となる位置からなる領域を特定する。上記によれば、解放領域の形状や大きさを、複数の基準地点の各解放状態に応じた多様なものにすることができる。
Further, as described above, in the present embodiment, the
上記実施形態においては、ゲームシステム1は、解放済みの基準地点に設定される基準値に基づいて合計判定値を算出するようにしたが、さらに、解放済みの基準地点に加えて、未解放の基準地点に設定される基準値にも基づいて合計判定値を算出するようにしてもよい。以下、図13を参照して、未解放の基準地点に設定される基準値に基づいて合計判定値を算出する例について説明する。
In the above embodiment, the
図13は、2つの基準地点が解放され、1つの基準地点が未解放である場合における解放領域が設定されるフィールド対応平面の一例を示す図である。図13においては、3つの基準地点231~233がフィールドに配置されているものとする。また、図13においては、基準地点231および232は解放済みであり、基準地点231と基準地点232との間にある基準地点233は解放されていないものとする。
FIG. 13 is a diagram showing an example of a field corresponding plane on which a release area is set when two reference points are released and one reference point is not released. In FIG. 13, it is assumed that three
図13に示す例において、解放済みの各基準地点231および232については、上記実施形態と同様に基準値が設定される。ここで、本変形例では、未解放の基準地点233については、解放された場合とは異なる基準値が設定される。以下では、解放済みの基準地点に設定される基準値を「第1基準値」と呼び、未解放の基準地点に設定される基準値を「第2基準値」と呼ぶ。すなわち、図13において基準地点233が解放された場合には、基準地点231および233と同様に第1基準値が設定される。
In the example shown in FIG. 13, reference values are set for the released
図13に示す例においても、図9および図11に示した例と同様、ゲームシステム1は、第1基準値に基づく判定値(「第1判定値」と呼ぶ。)を、各算出対象位置について算出する。図13に示す例においては、基準地点231に設定される第1基準値に基づく第1判定値と、基準地点232に設定される第1基準値に基づく第1判定値とが、それぞれ各算出対象位置について算出される。さらに、図13に示す例においては、第2基準値に基づく判定値(「第2判定値」と呼ぶ。)を各算出対象位置について算出する。図13に示す例においては、基準地点233に設定される第2基準値に基づく第2判定値が、各算出対象位置について算出される。第2判定値は、基準地点において第2基準値となり、当該基準地点からの距離が長くなるにつれて減少し、当該距離がある長さ以上となる位置では0になる値である。
In the example shown in FIG. 13, similarly to the examples shown in FIGS. 9 and 11, the
図13においては、基準地点231および232を中心とした円形の点線は、第1基準値に基づく第1判定値が、所定の値となる位置を結ぶ線である。上記の点線のうち、点線234および235は、第1判定値が上述のしきい値となる位置を結ぶ線である。また、図13において、基準地点233を中心とした円形の一点鎖線は、第2基準値に基づく第2判定値が、所定の値となる位置を結ぶ線である。
In FIG. 13, circular dotted lines centered on
図13に示す例においては、ゲームシステム1は、第1判定値に加え、第2判定値にさらに基づいて合計判定値を算出する。具体的には、算出対象位置における合計判定値は、当該算出対象位置における第1判定値の合計から、当該算出対象位置における第2判定値の合計を減算することで得られる。図13に示す例においては、ゲームシステム1は、基準地点231の第1基準値に基づく第1判定値と、基準地点232の第1基準値に基づく第1判定値との合計値から、基準地点233の第2基準値に基づく第2判定値を減算することで合計判定値を算出する。なお、合計判定値に関する上記の算出方法は、第2基準値を負の値とし(その結果、第2判定値は負の値となる)、第1および第2判定値の合計を算出することと同義である。第1基準値と第2基準値の絶対値は、同じであってもよいし、異なっていてもよい。また、第1基準値に基づいた第1判定値の算出方法と第2基準値に基づいた第2判定値の算出方法は、同じであってもよいし、異なっていてもよい。
In the example shown in FIG. 13, the
図13に示す例においては、第1判定値との合計値から第2判定値を減算するので、第2判定値の影響を受ける位置(すなわち、第2判定値が正の値となる位置)においては、合計判定値は、第2判定値を考慮しない場合(例えば、上記実施形態の場合)よりも小さくなる。したがって、図13に示す例においては、第2判定値を考慮しない場合においては解放領域となる領域の一部が、解放領域に設定されなくなる。図13に示す例においては、斜線で示される領域236が解放領域となり、第2判定値を考慮しない場合においては解放領域となる領域(実線で示される領域)237は、解放領域とはならない。このように、図13に示す例においては、未解放の基準地点の近傍の位置については、第2判定値の絶対値が大きくなるので、解放領域になりにくくなる。
In the example shown in FIG. 13, since the second determination value is subtracted from the sum of the first determination value and the position affected by the second determination value (that is, the position where the second determination value is a positive value) , the total judgment value is smaller than when the second judgment value is not considered (for example, in the above embodiment). Therefore, in the example shown in FIG. 13, a part of the area that would be the released area would not be set as the released area if the second determination value were not considered. In the example shown in FIG. 13, a hatched
図13に示す例においては、合計判定値は、複数の基準地点のうちの解放済みの状態となっている1つ以上の基準地点についての1つ以上の第1判定値の合計から、複数の基準地点のうちの未解放の状態となっている1つ以上の基準地点についての1つ以上の第2判定値の合計を減算した値である。これによれば、未解放の基準地点およびその近傍の位置を解放領域になりにくくすることができる。 In the example shown in FIG. 13, the total determination value is obtained from the total of one or more first determination values for one or more reference points in the released state among the plurality of reference points. It is a value obtained by subtracting the total of one or more second determination values for one or more reference points that are in an unreleased state among the reference points. According to this, it is possible to make it difficult for an unreleased reference point and its vicinity to become a release area.
ここで、仮に未解放基準地点に基づく第2判定値を反映させずに合計判定値を算出するとすれば、例えば図13に示す場合には、未解放の基準地点233の近傍の位置まで解放領域となってしまう。その結果、未解放の基準地点233の近傍の位置までマップが解放され(つまり、マップ画像においてフィールド情報が表示され)、上述の照射範囲となるおそれがある。このとき、プレイヤが未解放の基準地点233を解放する動機付けが弱くなってしまい、基準地点を解放させることで探索範囲を拡げていくというゲーム性が失われるおそれがある。これに対して、上記変形例によれば、未解放の基準地点またはその近傍の位置が解放領域になりにくいので、未解放の基準地点を解放する動機付けが弱くなる可能性を低減することができ、ゲーム性を向上することができる。
Here, if the total judgment value is calculated without reflecting the second judgment value based on the unreleased reference point, for example, in the case shown in FIG. becomes. As a result, the map may be released up to a position near the unreleased reference point 233 (that is, the field information is displayed in the map image), resulting in the irradiation range described above. At this time, the player's motivation to release the
本実施形態において、ゲームシステム1は、上記の解放領域を示すデータとしてマップマスクを生成する。すなわち、マップマスクは、フィールドのうちで解放領域となっている領域を示す2次元データである。そして、ゲームシステム1は、解放領域についてフィールド情報が示されるマップ画像を、上記マップマスクを用いて生成する。
In this embodiment, the
図14は、本実施形態におけるマップ画像の生成方法の一例を示す図である。本実施形態においては、ゲームシステム1は、元マップ画像とマップマスクとに基づいて、表示されるマップ画像を生成する。元マップ画像は、表示されるマップ画像を生成する元となる画像であり、フィールド情報が含まれるマップ画像を示す。元マップ画像は、フィールド全体が解放領域となる場合におけるマップ画像であると言うことができる。
FIG. 14 is a diagram showing an example of a method for generating a map image according to this embodiment. In this embodiment, the
本実施形態においては、マップマスクのデータは、2次元の各位置についてのマップマスク値を示すデータである。マップマスク値とは、マップ画像の生成のために元マップ画像を反映させる度合いを示す。例えば、マップマスク値は最大値が1で、最小値が0となる値である。このとき、マップマスク値が1である画素では、元マップ画像がそのままマップ画像に反映され、マップマスク値が0である画素では、元マップ画像が反映されないようにマップ画像が生成される。本実施形態においては、マップマスク値は、0から1までの範囲の多値の値である。詳細は後述するが、マップマスク値を多値の値とすることによって、解放領域の境界付近においてマップ画像をぼかして表示することができる。なお、他の実施形態においては、マップマスク値は0または1の2値の値であってもよい。 In this embodiment, the map mask data is data indicating a map mask value for each two-dimensional position. The map mask value indicates the degree to which the original map image is reflected for generating the map image. For example, the map mask value has a maximum value of 1 and a minimum value of 0. At this time, the map image is generated such that the original map image is directly reflected in the map image for the pixels with the map mask value of 1, and the original map image is not reflected for the pixels with the map mask value of 0. In this embodiment, the map mask value is a multi-valued value ranging from 0 to 1. Although the details will be described later, by setting the map mask value to a multivalued value, the map image can be displayed in a blurred manner near the boundary of the released area. Note that the map mask value may be a binary value of 0 or 1 in other embodiments.
マップマスク値は、上述の合計判定値に基づいて上述の算出対象位置ごとに設定される。具体的には、ある位置についての合計判定値が第1値より大きい場合、当該位置のマップマスク値は1に設定され、ある位置についての合計判定値が第2値より小さい場合、当該位置のマップマスク値は0に設定される。なお、第2値は、第1値よりも小さく、かつ、上記しきい値thよりも大きい値である。また、ある位置についての合計判定値が第2値以上かつ第1値以下である場合、当該位置のマップマスク値は0より大きく1より小さい範囲で、合計判定値の大きさに応じた大きさの値に設定される。上記によれば、マップマスク値は、基準地点から所定距離内の範囲内の位置については1に設定され、当該範囲の外側の範囲の位置では、基準地点からの距離に応じて小さくなる値に設定され、合計判定値がしきい値thよりも小さい位置(すなわち、解放領域外の位置)については0に設定される。なお、図14に示すマップマスクにおいては、マップマスク値が1である位置を白色で示し、マップマスク値が0である位置を黒色で示し、マップマスク値が中間値(すなわち、0より大きく1未満である値)となる位置については、値が大きいほど白色に近づくように灰色で示している。 The map mask value is set for each calculation target position based on the total determination value. Specifically, if the total judgment value for a position is greater than a first value, the map mask value for that position is set to 1, and if the total judgment value for a position is less than a second value, The map mask value is set to zero. The second value is smaller than the first value and larger than the threshold value th. Also, if the total judgment value for a certain position is equal to or greater than the second value and equal to or less than the first value, the map mask value for that position is greater than 0 and smaller than 1, and has a magnitude corresponding to the magnitude of the total judgment value. is set to the value of According to the above, the map mask value is set to 1 for positions within a predetermined distance from the reference point, and is set to a value that decreases according to the distance from the reference point for positions outside the range. is set, and 0 is set for positions where the total judgment value is smaller than the threshold value th (that is, positions outside the release area). In the map mask shown in FIG. 14, positions with a map mask value of 1 are shown in white, positions with a map mask value of 0 are shown in black, and the map mask value is an intermediate value (that is, 1 greater than 0). The positions where the values are less than ) are shown in gray so that the larger the value, the closer to white.
なお、合計判定値に基づいた算出方法の例として、次の式によってマップマスク値Mpが算出されてもよい。
上記の式においては、各基準値を1としたが、上述したように、第1基準値および第2基準値は基準地点ごとに個別の値に設定されてよい。例えば、上記の式における「Oi」を「Oi*Ai」に置き換えると共に定数aiを削除し、「Ci」を「Ci*Bi」に置き換えると共に定数biを削除した式を用いることで、基準地点ごとに第1基準値および第2基準値が設定される場合におけるマップマスク値Mpを算出することができる。なお、変数Aiは、i番目の基準地点における第1基準値であり、変数Biは、i番目の基準地点における第2基準値である。また、他の実施形態においては、上記の式において定数aiおよびbiを残した上で、「Oi」を「Oi*Ai」に置き換え、「Ci」を「Ci*Bi」に置き換えた式が用いられてもよい。また、第1基準値および第2基準値のいずれかが固定値(=1)とされる場合には、上記の式において「Oi」または「Ci」のいずれかのみについて上記の置き換えを行った式を用いることでマップマスク値Mpを算出することができる。なお、マップマスク値を算出するための計算式は上記の式に限らない。他の実施形態においては、例えば、ある位置における判定値が基準位置から当該ある位置までの距離に応じて減衰する(例えば、判定値が当該距離の2乗に反比例する)ように算出される任意の計算式が用いられてもよい。 In the above formula, each reference value is 1, but as described above, the first reference value and the second reference value may be set to individual values for each reference point. For example, by using a formula in which "Oi" in the above formula is replaced with "Oi * Ai" and the constant ai is deleted, "Ci" is replaced with "Ci * Bi" and the constant bi is deleted, It is possible to calculate the map mask value Mp when the first reference value and the second reference value are set to . The variable Ai is the first reference value at the i-th reference point, and the variable Bi is the second reference value at the i-th reference point. In another embodiment, a formula is used in which constants ai and bi are retained in the above formula, and "Oi" is replaced with "Oi*Ai" and "Ci" is replaced with "Ci*Bi". may be Further, when either the first reference value or the second reference value is set to a fixed value (=1), only either "Oi" or "Ci" in the above formula is replaced as described above. The map mask value Mp can be calculated by using the formula. Note that the calculation formula for calculating the map mask value is not limited to the above formula. In another embodiment, for example, a decision value at a certain position is attenuated according to the distance from the reference position to the given position (for example, the decision value is inversely proportional to the square of the distance). may be used.
ゲームシステム1は、マップマスクを参照して、画素ごとのマップマスク値に応じた比率で、元マップ画像と未解放状態を示す画像とを合成することで、マップ画像を生成する。具体的には、ゲームシステム1は、マップマスク値が1である画素については元マップ画像がそのまま反映され、マップマスク値が0である画素については元マップ画像が反映されず、マップマスク値が中間値である画素についてはマップマスク値に応じた比率で元マップ画像が反映されるように、マップ画像を生成する。未解放状態を示す画像は、単色でもよいし、所定の模様等が描画されていてもよい。合成されたマップ画像に、さらに座標を分かり易くするための格子等が合成されてもよい。これによって、マップ画像は、解放領域内のうちの境界付近(具体的には、マップマスク値が中間値となる位置)では、薄く表示される(図14参照)。なお、図14では、マップ画像のうち薄く表示される部分を点線で示している。
The
上記のように、本実施形態においては、ゲームシステム1は、解放イベントが発生した場合、フィールドにおいて解放領域となっている範囲を示す2次元のマスクデータ(すなわち、マップマスク)を生成する。また、ゲームシステム1は、フィールド情報を含む元マップ画像にマスクデータを適用することによって、解放領域に対応する部分のフィールド情報が示されたマップ画像を生成させる。これによれば、解放領域の部分を示すマップ画像を容易に生成することができる。なお、他の実施形態においては、マップ画像の具体的な生成方法は任意であり、マスクデータを用いた方法に限定されない。
As described above, in the present embodiment, when a release event occurs, the
なお、本実施形態においては、マスクデータは、フィールド内の位置における合計判定値の大きさに応じた多値の値を各位置について示すデータである。また、ゲームシステム1は、マスクデータが示す多値の値に応じた比率で画素ごとに元マップ画像と未解放状態を示す画像とを合成することによって、マップ画像を生成する。これによれば、解放領域の境界付近がぼかされたマップ画像を生成することができる。したがって、解放されたマップを自然な見た目にすることができる。
In the present embodiment, the mask data is data indicating, for each position in the field, a multivalued value corresponding to the magnitude of the total judgment value at the position within the field. In addition, the
[2-2.照射範囲の設定]
図15~図21を参照して、フィールド上において上述の照射範囲を設定する方法の一例について説明する。本実施形態においては、ゲーム中において所定の照射イベントが発生したことに応じて、フィールドのうち、当該照射イベントに応じた範囲が照射範囲となる。上述の解放イベントは、照射イベントの1つである。本実施形態においては、照射イベントとして、上述の解放イベントの他、キャラクタ発光イベント、および、アイテム配置イベントが発生し得る。なお、照射イベントの発生に応じて設定される照射範囲の他に、フィールド上に予め設定された照射範囲等も存在してもよい。
[2-2. Irradiation range setting]
An example of a method for setting the irradiation range on the field will be described with reference to FIGS. 15 to 21. FIG. In the present embodiment, when a predetermined irradiation event occurs during the game, the range corresponding to the irradiation event in the field becomes the irradiation range. The release event mentioned above is one of the illumination events. In this embodiment, in addition to the release event described above, a character light emission event and an item placement event can occur as illumination events. In addition to the irradiation range set according to the occurrence of the irradiation event, there may be an irradiation range or the like set in advance on the field.
キャラクタ発光イベントは、プレイヤキャラクタの周囲が照射範囲となるイベントである。本実施形態においては、キャラクタ発光イベントは、プレイヤキャラクタが発光する服を装備するイベントである。キャラクタ発光イベントは、例えば、プレイヤキャラクタが発光するアイテムを把持したり、発光する乗り物に搭乗したりするイベントであってもよい。 A character light emission event is an event in which the area around the player character is illuminated. In this embodiment, the character light-emitting event is an event in which the player character equips light-emitting clothes. The character light-emitting event may be, for example, an event in which the player character holds a light-emitting item or rides a light-emitting vehicle.
アイテム配置イベントは、光源が設定されるアイテム(「光源アイテム」と呼ぶ。)がフィールドにおける地面等の地形オブジェクトに配置され、光源アイテムの周囲が照射範囲となるイベントである。 An item placement event is an event in which an item for which a light source is set (referred to as a "light source item") is placed on a terrain object such as the ground in a field, and the area around the light source item becomes an irradiation range.
図15は、プレイヤキャラクタを含むフィールドを示すフィールド画像を含むゲーム画像の一例を示す図である。図15では、キャラクタ発光イベントが発生しており、他の照射イベントは発生していない状況である。本実施形態においては、ゲームシステム1は、プレイヤによる指示に応じて(例えば、発光する服をプレイヤキャラクタに装備させる操作入力に応じて)、キャラクタ発光イベントを発生させる。図15に示すように、キャラクタ発光イベントが発生した場合、プレイヤキャラクタ201の周囲の範囲(「キャラクタ影響範囲」と呼ぶ。)が照射範囲に設定される。キャラクタ影響範囲は、例えば、プレイヤキャラクタ201の位置から所定距離内の範囲である。なお、図15に示す状況では、キャラクタ影響範囲外の範囲は、照射範囲には設定されていないので、目印オブジェクト203を除き、暗闇として(すなわち、視認不可能または視認困難な態様で)表示される。なお、プレイヤキャラクタ201自身や、目印オブジェクト203のように、照射範囲外でも視認可能に表示されるオブジェクト(後述する対象外オブジェクト)については後述する。
FIG. 15 is a diagram showing an example of a game image including a field image showing a field containing player characters. In FIG. 15, a character light emission event has occurred and no other illumination event has occurred. In the present embodiment, the
本実施形態においては、ゲームシステム1は、フィールドに環境光を設定し、キャラクタ影響範囲による照射範囲については環境光を反映して描画を行うことで、当該照射範囲を視認可能に表示する。環境光は、フィールド内の位置によらず所定の明るさが設定される光源である。詳細は後述するが、本実施形態においては、ゲームシステム1は、照射範囲外の範囲については、光源(例えば、環境光や点光源)を反映せずに描画を行うことで、視認不可能または視認困難な態様で当該範囲を表示する。
In this embodiment, the
なお、本実施形態においては、ゲームシステム1は、フィールドを示すフィールド画像とともに、ディスプレイ12の画面の一部の領域(ここでは、画面の右下の領域)にマップ画像241を表示する。図15に示す状況では、解放イベントが未発生であるので、プレイヤキャラクタ201の位置および向きを示すマーク以外のフィールド情報を含まないマップ画像241が表示される。なお、他の実施形態においては、フィールド画像が表示される際にはマップ画像は表示されなくてもよい。
In this embodiment, the
上記のように、本実施形態においては、照射イベントの一例は、プレイヤによる操作入力に基づいて、プレイヤキャラクタの周囲が照射範囲となるイベント(すなわち、キャラクタ発光イベント)である。このとき、ゲームシステム1は、プレイヤキャラクタの位置を基準となる点の位置として設定し、当該基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように照射範囲を設定する。これによれば、プレイヤキャラクタの周囲を継続的に視認可能に表示することができるので、プレイヤキャラクタの周囲が全く見えないためにフィールドの探索を行うことが困難となる状況が生じるおそれを低減することができる。なお、他の実施形態においては、ゲームシステム1は、キャラクタ発光イベントの発生の有無にかかわらず、プレイヤキャラクタの周囲を照射範囲に常時設定してもよい。また、他の実施形態においては、ゲームシステム1は、照射イベントとしてキャラクタ発光イベントを発生させなくてもよい。
As described above, in the present embodiment, an example of a lighting event is an event (that is, a character lighting event) in which the surroundings of the player character become the lighting range based on the operation input by the player. At this time, the
なお、上記においては、キャラクタ発光イベントはプレイヤキャラクタに関するイベントであったが、ゲームシステム1は、プレイヤキャラクタに加えて(または代えて)、プレイヤキャラクタとは異なる他のキャラクタ(例えば、プレイヤキャラクタの仲間のキャラクタや敵キャラクタ)についてキャラクタ発光イベントを実行し、当該他のキャラクタについても照射範囲を設定するようにしてもよい。例えば、他のキャラクタが自発光する態様に変化するキャラクタ発光イベントに応じて、当該他のキャラクタの位置に基づいて照射範囲が設定されてもよい。 In the above description, the character light emission event is an event related to the player character. character or an enemy character) may be executed, and the irradiation range may be set for the other character as well. For example, the irradiation range may be set based on the position of the other character in response to a character light emission event in which the other character changes to self-luminous mode.
図16は、プレイヤキャラクタが基準地点の近傍に位置する場合におけるゲーム画像の一例を示す図である。図16に示す状況は、図15に示す状況からプレイヤキャラクタ201が未解放の基準地点211の近傍まで移動してきた状況である。なお、本実施形態においては、目印オブジェクト203は照射範囲外であっても視認可能に表示されるので、プレイヤは、目印オブジェクト203を目標にして照射範囲外の基準地点211に向かってプレイヤキャラクタ201を移動させることができる。
FIG. 16 is a diagram showing an example of a game image when the player character is positioned near the reference point. The situation shown in FIG. 16 is a situation in which the
図16に示すようにプレイヤキャラクタ201が基準地点211の近傍(具体的には、基準地点211から所定距離内の範囲)に位置する場合、プレイヤキャラクタ201は、当該基準地点211を解放する動作を行うことができる。すなわち、上記の場合、ゲームシステム1は、当該基準地点211を解放するための操作入力を受け付け、プレイヤによって当該操作入力が行われたことに応じて当該基準地点211を解放する。本実施形態においては、上記操作入力は、「しらべる」のコマンド(すなわち、プレイヤキャラクタ201に近傍を調べる動作を行わせるコマンド)を実行するための入力であり、具体的には、右コントローラ4のAボタン53を押下する入力である。上記の場合、上記操作入力を行うことができる状態であることをプレイヤに通知するべく、ゲームシステム1は、上記コマンドが実行可能であることを示すコマンド画像242を表示する(図16参照)。なお、当該基準地点211に到達した後に上記の操作がし易いよう、目印オブジェクト203の真下等の限られた範囲を、予め設定された(すなわち、照射イベントの発生の有無にかかわらず設定される)照射範囲としてもよい。
As shown in FIG. 16, when the
基準地点211を解放するための操作入力が行われた場合、ゲームシステム1は、基準地点211の周囲の範囲を照射範囲に設定する。このとき、本実施形態においては、ゲームシステム1は、解放イベントを示すイベントシーンのアニメーションを表示する。例えば、上記イベントシーンとして、基準地点211の周囲が次第に明るくなっていく様子を示すアニメーションが表示される。
When an operation input for releasing the
図17は、基準地点が解放された後のフィールドを示すゲーム画像の一例を示す図である。図17に示すように、基準地点211が解放される解放イベントが発生した場合、基準地点211の周囲の範囲が照射範囲に設定され、当該範囲が視認可能に表示される。なお、図17では、フィールドのうち、基準地点211の周囲の丘となっている部分が照射範囲に含まれて視認可能に表示され、丘の向こうの部分については照射範囲外であり、視認不可能な態様で表示されたままである。また、図17に示す状況では、基準地点211が解放されたことによって基準地点211の周囲のマップが解放される(すなわち、基準地点211を含む解放領域が設定される)ため、マップ画像241は、解放領域内についてフィールド情報を含むものとなっている。
FIG. 17 is a diagram showing an example of a game image showing the field after the reference points have been released. As shown in FIG. 17, when a release event in which the
なお、照射範囲外でも視認可能であった目印オブジェクト203は、照射範囲内においても視認可能に表示される。ここで、本実施形態においては、ゲームシステム1は、解放イベントの発生に応じて、フィールドにおける所定の位置、例えば目印オブジェクト203の位置に点光源をさらに設定する。詳細は後述するが、描画処理においてゲームシステム1は、地形オブジェクトについて照射範囲に含まれる部分を、点光源をさらに反映して描画する。したがって、目印オブジェクト203の周囲については、環境光および点光源を反映して描画が行われるため、照射範囲のうち環境光のみを反映して描画が行われる部分よりも明るく表示される。すなわち、所定の範囲の視認性を確保した上で、点光源に基づいた明るさも表現することができる。なお、図17においては、照射範囲内であって目印オブジェクト203の位置に設定される点光源による光が特に反映されて明るい部分を白色領域で示し、照射範囲のうち点光源の影響が少ない部分を網がけ領域で示している。上記の点光源によって、解放イベントが発生したことをプレイヤに認識させやすくすることができる。
Note that the
照射イベントとして解放イベントが発生したことに応じて設定される照射範囲は、当該解放イベントに対応する基準地点に基づいて設定される。図18および図19を参照して、解放イベントが発生したことに応じて照射範囲を設定する方法について説明する。 The irradiation range set in response to the occurrence of the release event as the irradiation event is set based on the reference point corresponding to the release event. A method of setting the irradiation range in response to the occurrence of a release event will be described with reference to FIGS. 18 and 19. FIG.
図18は、1つの基準地点が解放された場合におけるフィールドを上から見た図である。図18に示す状況は、図9に示す基準地点211が解放された状況である。本実施形態においては、ゲームシステム1は、解放された基準地点に基づいた解放領域(図18では、領域212)と、当該基準地点に対応する地点影響範囲(図18では、地点影響範囲251)とに基づいて、照射範囲を設定する。なお、「基準地点に対応する地点影響範囲」とは、基準地点ごとに予め定められる範囲である。本実施形態においては、基準地点から所定距離内の範囲が地点影響範囲に設定される。なお、この所定距離は、基準地点ごとに設定され、基準地点ごとに異なる値であってもよいし、各基準地点について同じ値であってもよい。例えば、各基準地点における地点影響範囲は、全ての基準地点が解放された場合であってもフィールドの一部が地点影響範囲外となるように設定されてもよいし、当該場合にフィールドの全部が地点影響範囲内となるように設定されてもよい。前者の場合、フィールドには、全ての基準地点が解放された場合であっても照射範囲外となる部分が存在することとなる。
FIG. 18 is a top view of the field when one reference point is released. The situation shown in FIG. 18 is a situation in which the
本実施形態においては、ゲームシステム1は、フィールドのうち、上記地点影響範囲内で、かつ、上記解放領域内となる範囲を照射範囲に設定する。図18に示す例においては、解放領域212が地点影響範囲251の内側となっているので、解放領域212と同じ範囲が照射範囲となる。なお、図18においては、照射範囲外を斜線領域で示している。本実施形態においては、地点影響範囲は、上記のように基準地点ごとに設定され、当該地点影響範囲に対応する解放領域とは独立して設定される。そのため、地点影響範囲は、当該地点影響範囲に対応する解放領域よりも大きく(つまり、解放領域が地点影響範囲内に含まれるように)設定されてもよいし、当該解放領域よりも小さく(つまり、地点影響範囲が解放領域内に含まれるように)設定されてもよいし、当該解放領域と同じになるように設定されてもよい。なお、「基準地点に対応する解放領域」とは、当該基準地点のみが解放される場合に設定される解放領域である。
In the present embodiment, the
なお、照射範囲は、解放領域の少なくとも一部を含むように任意の方法で設定されてもよい。例えば、他の実施形態においては、ゲームシステム1は、解放領域をそのまま照射範囲としてもよいし、解放領域と地点影響範囲との少なくとも一方の内側となる範囲を照射範囲として設定してもよい。
Note that the irradiation range may be set by any method so as to include at least part of the release area. For example, in another embodiment, the
図19は、2つの基準地点が解放された場合におけるフィールドを上から見た図である。図19に示す状況は、図11に示す基準地点211および213が解放された状況である。
FIG. 19 is a top view of the field when two reference points are released. The situation shown in FIG. 19 is the situation in which the
図19に示すように2つの基準地点211および213が解放された場合、図11に示したように、図19に示す点線で示される解放領域216が設定される。また、上述のように、ゲームシステム1は、解放された基準地点に対応する地点影響範囲内で、かつ、解放領域内となる範囲を照射範囲に設定する。したがって、図19に示す例においては、基準地点211に対応する地点影響範囲251または基準地点213に対応する地点影響範囲252の少なくともいずれかの内側であり、かつ、解放領域216の内側となる範囲が照射範囲となる。なお、図19においては、照射範囲外を斜線領域で示している。
When the two
図19に示す例においては、地点影響範囲251が、基準地点211のみが解放される場合における解放領域(すなわち、図18に示す領域212)よりも大きく設定され、地点影響範囲252が、基準地点213のみが解放される場合における解放領域よりも大きく設定される。そのため、2つの基準地点211および213が解放される場合には、1つの基準地点211または213のみが解放される場合には照射範囲とならない範囲も照射範囲となる。例えば、図19に示す例においては、地点影響範囲251および252が互いに一部が重複するように設定されているので、2つの基準地点211および213が解放される場合には、基準地点211から基準地点213にわたって連続する1つの照射範囲が設定されることとなる。上記によれば、プレイヤは、2つの基準地点211および213を解放することで、これら2つの基準地点211および213の間のフィールドを探索しやすくなる。
In the example shown in FIG. 19, the
一方、基準地点211および213とは異なる他の2つの基準地点については、当該基準地点に対応する地点影響範囲は、当該基準地点のみが解放されるときの解放領域と同じであるかまたは小さく設定されてもよい。この場合は、図19に示す例とは異なり、上記2つの基準地点が解放されても照射範囲が2つの基準地点にわたって連続するように設定されず、連続しない2つの照射範囲が設定されることとなる。
On the other hand, for the other two reference points different from the
上記のように、本実施形態においては、解放領域とは独立して地点影響範囲を設定し、解放領域と地点影響範囲とに基づいて照射範囲を設定することで、照射範囲の大きさおよび形状を自由に設定することができる。例えば、2つの基準地点が解放された場合において、当該2つの基準地点にわたって連続するように照射範囲を設定することも可能であるし、連続しない2つの照射範囲を設定することも可能である。 As described above, in the present embodiment, the point influence range is set independently of the release area, and the irradiation range is set based on the release area and the point influence range. can be set freely. For example, when two reference points are released, it is possible to set the irradiation range continuously over the two reference points, or to set two discontinuous irradiation ranges.
なお、詳細は後述するが、本実施形態においては、解放イベントによって設定される照射範囲については、ゲームシステム1は、上述の環境光によって当該照射範囲を視認可能に表示する。
Although the details will be described later, in the present embodiment, the
上記のように、本実施形態においては、照射イベントの一例は、フィールド内に設定されたイベント発生位置(すなわち、基準位置)にプレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベント(すなわち、解放イベント)である。このとき、ゲームシステム1は、イベント発生位置を含む所定の範囲(具体的には、基準地点に基づく解放領域の範囲、または、地点影響範囲)が含まれるように照射範囲を設定する。これによれば、プレイヤキャラクタがイベント発生位置へ到達することで照射範囲を拡げていくゲームを提供することができる。このとき、照射範囲の形状は、上記のようにイベント発生位置からの距離に基づいた形状であってもよいし、他の実施形態においてはイベント発生位置を含む予め定められた形状であってもよい。
As described above, in the present embodiment, an example of an irradiation event is an event generated when the player character is positioned at the event occurrence position (that is, the reference position) set in the field. It is an event that occurs (ie a release event). At this time, the
本実施形態においては、アイテム配置イベントによっても照射範囲が設定される。図20は、光源アイテムが配置されたフィールドを示すゲーム画像の一例を示す図である。図20に示す状況は、フィールドにおける照射範囲外の位置に光源アイテム261が配置された状況である。光源アイテム261は、当該アイテムの位置に光源(具体的には、点光源)が設定されるオブジェクトである。本実施形態においては、プレイヤキャラクタ201は、所定の光源アイテムをフィールドに配置することができる。プレイヤキャラクタ201は、例えば、光源アイテムをプレイヤキャラクタ201の足下の地面においたり、投げたり、弓矢で飛ばしたりすることで光源アイテムを地面に配置する。本実施形態においては、プレイヤキャラクタ201は、アイテムとして光源アイテムを所有することができ、プレイヤの所望のタイミングで光源アイテムを地面に配置することができる。また、他の実施形態においては、例えばたいまつやろうそく等のアイテムが光源アイテムとして用いられてもよい。
In this embodiment, the irradiation range is also set by an item placement event. FIG. 20 is a diagram showing an example of a game image showing a field in which light source items are arranged. The situation shown in FIG. 20 is a situation in which the
フィールドにおける地面に光源アイテム261が配置された場合、ゲームシステム1は、光源アイテムの周囲の範囲(「アイテム影響範囲」と呼ぶ。)を照射範囲として設定する。アイテム影響範囲は、例えば、光源アイテム261の位置から所定距離内の範囲である。図20に示す例においては、フィールドにおける照射範囲外の位置に光源アイテム261が配置されることによって、当該位置に基づくアイテム影響範囲が照射範囲となり、当該範囲内のフィールドが視認可能に表示されている。このように、本実施形態においては、プレイヤは、基準地点を解放することに加えて、光源アイテムを配置することによっても、フィールドにおける視認可能な範囲を拡げることができる。例えば、プレイヤは、未解放の基準地点に向かって暗闇の領域(すなわち、照射範囲外の領域)をプレイヤキャラクタ201が進んでいく際に、当該領域に光源アイテムを配置することで、視界を確保しながらフィールドを進むことができる。
When the
本実施形態においては、アイテム配置イベントによって設定された照射範囲(すなわち、アイテム影響範囲)については、ゲームシステム1は、光源アイテムの位置に設定される点光源を反映してゲーム画像の描画を行う。つまり、アイテム配置イベントによって設定された照射範囲については、上述の環境光に加えて上記点光源を考慮して描画が行われる。なお、ゲーム画像の描画処理の詳細については後述する。
In this embodiment, the
図21は、解放イベントによる照射範囲内に光源アイテムが配置された場合におけるフィールドを示すゲーム画像の一例を示す図である。この場合、光源アイテム261によるアイテム影響範囲については、環境光および点光源を反映して描画されるため、当該アイテム影響範囲外であって解放イベントによる照射範囲内よりも明るく表示される。なお、図21においては、照射範囲内であってアイテム影響範囲外の範囲を網がけ領域で示し、アイテム影響範囲を白色領域で示している。上記より、本実施形態によれば、プレイヤは、光源アイテム261が配置されたことを容易に認識することができる。
FIG. 21 is a diagram showing an example of a game image showing a field when a light source item is arranged within an irradiation range by a release event. In this case, the item influence range of the
なお、図21に示すように解放イベントによる照射範囲内に光源アイテム261が配置された場合も、当該照射範囲外に配置される場合と同様、ゲームシステム1は、光源アイテム261によるアイテム影響範囲を照射範囲に設定する。ただし、アイテム影響範囲の全体が照射範囲にすでに設定されている範囲である場合には、フィールドにおける照射範囲は結果的に変化しないこととなる。
As shown in FIG. 21, even when the
上記の3種類の照射イベント(すなわち、キャラクタ発光イベント、解放イベント、および、アイテム配置イベント)について説明したように、本実施形態においては、フィールド内には、当該フィールド内の位置によらず所定の明るさが設定される光源(具体的には環境光)が少なくとも設定される。そして、ゲームシステム1は、描画処理において、フィールドにおける少なくとも一部の地形オブジェクト(例えば、図17に示す地面のオブジェクト)について照射範囲に含まれる部分を、上記光源を反映して描画する。これによれば、照射範囲について一定の明るさが確保されるので、フィールドの地形の形状等によらず照射範囲を見やすく(例えば、地形の陰によって暗く表示されることなく)表示することができる。
As described above for the three types of irradiation events (that is, the character light emission event, the release event, and the item placement event), in the present embodiment, in the field, a predetermined At least a light source for which brightness is set (specifically, ambient light) is set. Then, in the drawing process, the
さらに本実施形態においては、上記環境光に加えて点光源が設定される。すなわち、ゲームシステム1は、所定のイベント(具体的には、解放イベント、および、アイテム配置イベント)の発生に応じてさらに点光源をフィールド内に設置する。また、ゲームシステム1は、描画処理において、フィールドにおける少なくとも一部の地形オブジェクトについて照射範囲に含まれる部分を、点光源をさらに反映して描画する。これによれば、上記所定のイベントが発生したこと、および、当該所定のイベントの発生によってフィールドがより明るくなったことをプレイヤに認識させやすくなる。
Furthermore, in this embodiment, a point light source is set in addition to the ambient light. That is, the
なお、フィールドに設定される光源の種類は任意である。他の実施形態においては、例えば、点光源以外の形状の光源が環境光と共にフィールドに設定されてもよい。また、点光源が配置されず環境光のみがフィールドに設定されてもよい。 Any type of light source may be set in the field. In other embodiments, for example, a light source with a shape other than a point light source may be set in the field along with the ambient light. Alternatively, only ambient light may be set in the field without arranging the point light source.
また、本実施形態においては、上記所定のイベントは、所定のアイテム(具体的には光源アイテム)がフィールド上に配置されるイベントである。このとき、ゲームシステム1は、上記アイテムが配置された位置に基づいて、基準となる点の位置を設定し、当該基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲(すなわち、アイテム影響範囲)が含まれるように照射範囲を設定する。これによれば、プレイヤは、アイテムを配置することによって所望の位置に照射範囲を設定しやすくなる。
Further, in the present embodiment, the predetermined event is an event in which a predetermined item (specifically, a light source item) is placed on the field. At this time, the
なお、「所定のアイテムがフィールド上に配置されるイベント」とは、所定のアイテムが単にフィールドに配置されることによって発生するイベントに限らず、所定のアイテムが一定条件下でフィールドに配置されることによって発生するイベントをも含む意味である。例えば、「所定のアイテムがフィールド上に配置されるイベント」とは、フィールドに配置される当該アイテムに一定の衝撃が加えられたことを条件とするイベントであってもよい。上記条件は、所定のアイテムがフィールドに落下する際に落下によって一定の衝撃が加えられたことであってもよいし、フィールドに配置された所定のアイテムに対して他のオブジェクトによって一定の衝撃が加えられたことであってもよい。 Note that "an event where a specified item is placed on the field" is not limited to an event that occurs when a specified item is simply placed on the field, but where a specified item is placed on the field under certain conditions. This also includes events that occur as a result. For example, "an event in which a predetermined item is placed on the field" may be an event that requires that the item placed in the field is subjected to a certain amount of impact. The above condition may be that a certain impact is applied by dropping a predetermined item onto the field, or that a certain impact is applied to a predetermined item placed on the field by another object. It may have been added.
なお、点光源が設定されるイベントは、アイテム配置イベントに限らず、他の種類のイベントであってもよい。例えば、他の実施形態においては、ゲームシステム1は、キャラクタ発光イベントの発生に応じてプレイヤキャラクタ201の位置に点光源を設定し、キャラクタ影響範囲については当該点光源を反映して描画を行うことで、照射範囲を視認可能に表示してもよい。
Note that the event in which the point light source is set is not limited to the item placement event, and may be another type of event. For example, in another embodiment, the
上記の3種類の照射イベント(すなわち、キャラクタ発光イベント、解放イベント、および、アイテム配置イベント)について説明したように、本実施形態においては、所定のイベント(具体的には、照射イベント)の発生に応じて、照射範囲の基準となる点を仮想空間内に設定する。そして、基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように照射範囲を設定する。これによれば、イベントの発生に応じて、当該イベントに応じた位置とその周囲を照射範囲に設定することができる。 As described above for the three types of irradiation events (that is, character light emission event, release event, and item placement event), in the present embodiment, when a predetermined event (specifically, irradiation event) occurs, Accordingly, a point that serves as a reference for the irradiation range is set in the virtual space. Then, based on the distance from the reference point, the irradiation range is set so as to include a range in which the distance is equal to or less than the threshold value. According to this, according to the occurrence of an event, the position corresponding to the event and its surroundings can be set as the irradiation range.
なお、上記「当該距離がしきい値以下となる範囲」とは、キャラクタ発光イベントにおいてはキャラクタ影響範囲であり、解放イベントにおいては地点影響範囲または解放領域の範囲であり、アイテム配置イベントにおいてはアイテム影響範囲である。 In addition, the above "range where the distance is equal to or less than the threshold value" is the character influence range for character light emission events, the point influence range or the release area range for release events, and the item Influence range.
また、上記「照射範囲の基準となる点」とは、本実施形態においては、キャラクタ発光イベントにおけるプレイヤキャラクタ201の位置、解放イベントにおける基準地点の位置、および、アイテム配置イベントにおける光源アイテムの位置である。ただし、上記「照射範囲の基準となる点」とは、厳密にこれらの位置である必要はなく、これらの位置に基づいて決定される位置であってよい。例えば、上記「照射範囲の基準となる点」は、プレイヤキャラクタ201の位置、基準地点の位置、あるいは、光源アイテムの位置から少しずれた位置であってもよい。
Further, in the present embodiment, the above-mentioned "reference point of the irradiation range" is the position of the
また、本実施形態において、照射イベントの発生に応じて設定される照射範囲は、発生時から次第に拡がるように制御されてもよい。すなわち、ゲームシステム1は、照射イベントの発生に応じて上記の基準となる点が設定された後、照射範囲を判定するための上記しきい値を時間経過に応じて増加させることで照射範囲を拡大してもよい。なお、上記しきい値とは、キャラクタ発光イベントにおいては、キャラクタ影響範囲に設定される距離のしきい値であり、解放イベントにおいては、地点影響範囲に設定される距離のしきい値であり、アイテム配置イベントにおいては、アイテム影響範囲に設定される距離のしきい値である。これによれば、照射イベントが発生した際に、フィールドにおける明るい領域が次第に拡大していく様子を表示することができる。なお、上記において、照射範囲は、所定時間経過後に拡大を停止するように制御される。また、ゲームシステム1は、全ての照射イベントについて照射範囲を次第に拡大させる必要はなく、照射イベントのうち所定のイベント(例えば、解放イベントおよびアイテム配置イベント)について、照射範囲を次第に拡大させる制御を行うようにしてもよい。
Further, in the present embodiment, the irradiation range set according to the occurrence of the irradiation event may be controlled so as to gradually expand from the time of occurrence. That is, after the reference point is set in accordance with the occurrence of the irradiation event, the
上述のように、本実施形態においては、所定のオブジェクトについては、当該オブジェクトが照射範囲外に位置する場合でも視認可能に表示される。以下では、このようなオブジェクトを「対象外オブジェクト」と呼ぶ。具体的には、本実施形態においては、対象外オブジェクトは、所定の種類のキャラクタ、および、自発光オブジェクトである。所定の種類のキャラクタとは、より具体的には、プレイヤキャラクタおよび敵キャラクタである。また、自発光オブジェクトとは、描画に関する設定において、自身が光っているように表示される設定が行われるオブジェクトである。例えば、上述の目印オブジェクト203は自発光オブジェクトである。
As described above, in the present embodiment, a predetermined object is displayed so as to be visible even when the object is positioned outside the irradiation range. Such objects are hereinafter referred to as "non-target objects". Specifically, in the present embodiment, non-target objects are predetermined types of characters and self-luminous objects. The predetermined types of characters are, more specifically, player characters and enemy characters. In addition, a self-luminous object is an object that is set to appear as if it is glowing in the drawing settings. For example, the
詳細は後述するが、ゲーム画像を描画する際、ゲームシステム1は、対象外オブジェクトについては、照射範囲外に位置する場合であっても、上述の光源を反映しない描画設定でなく、当該対象外オブジェクトに予め設定される描画設定に基づいて描画を行う。本実施形態においては、所定の種類のキャラクタが照射範囲外に位置する場合には、当該キャラクタは陰が付された上で視認可能に描画される。したがって、所定の種類のキャラクタは、暗闇として表示される、照射範囲外の他のオブジェクトとは、区別可能に表示される。
Although the details will be described later, when drawing a game image, the
また、自発光オブジェクトについては、照射範囲外に位置する場合であっても、当該オブジェクトに設定されたエミッション等の描画設定に基づいて描画が行われる。その結果、例えば図15に示す目印オブジェクト203のように、自発光オブジェクトは、暗闇として表示される、照射範囲外の他のオブジェクトと区別可能に表示される。
In addition, even when the self-luminous object is positioned outside the irradiation range, drawing is performed based on drawing settings such as emission set for the object. As a result, the self-luminous object, such as the
上記のように、本実施形態においては、照射イベントは、フィールド内において基準地点に関連付けて設定されたイベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベント(すなわち、解放イベント)である。なお、図15および図16に示すように、自発光オブジェクトである目印オブジェクトは、フィールドにおいて、複数の基準地点のそれぞれに対応する位置(例えば、基準地点の上方の位置)にそれぞれ配置される。ゲームシステム1は、目印オブジェクトが照射範囲に含まれるか否かにかかわらず、照射範囲に含まれない他のオブジェクトと区別可能な表示となるように当該目印オブジェクトを描画する。これによれば、プレイヤは、目印オブジェクトを目標にすることで、照射範囲外の基準地点に向かってプレイヤキャラクタを移動させやすくなる。
As described above, in the present embodiment, the irradiation event is an event generated by performing a predetermined operation input when the player character is positioned at the event generation position set in association with the reference point within the field. (ie release event). Note that, as shown in FIGS. 15 and 16, the landmark objects, which are self-luminous objects, are arranged in the field at positions corresponding to the plurality of reference points (for example, positions above the reference points). Regardless of whether or not the mark object is included in the irradiation range, the
[2-3.画像生成処理]
次に、フィールドのうち照射範囲外の部分を暗闇として(すなわち、視認不可能または視認困難な態様で)表示されるゲーム画像の生成方法の一例について説明する。本実施形態においては、ゲームシステム1は、照射範囲内のオブジェクトについては、フィールドに設定される光源を反映して描画を行う一方、照射範囲外のオブジェクト(ただし、上記の対象外オブジェクトを除く)については、光源を反映せず、当該オブジェクトに対応する画素を黒色で描画する。これによれば、照射範囲外のオブジェクトを視認不可能にすることができ、フィールドを探索するために基準地点を解放する動機付けをプレイヤに効果的に与えることができる。以下、ゲーム画像の生成方法の具体例について説明する。
[2-3. Image generation processing]
Next, an example of a method of generating a game image in which a portion of the field outside the irradiation range is displayed as dark (that is, in a manner that is invisible or difficult to see) will be described. In this embodiment, the
本実施形態では、ゲームシステム1は、ディファードレンダリング(ディファードシェーディング、あるいは、遅延シェーディングとも言う)に基づく手法でゲーム画像の描画を行う。すなわち、ゲームシステム1は、1フレームの間に以下に説明する第1~第3の段階を経て描画処理を実行する。
In this embodiment, the
第1の段階において、ゲームシステム1は、仮想空間内の各オブジェクト(キャラクタオブジェクトや地形オブジェクトを含む)について描画に用いられる情報をGバッファ(ジオメトリバッファ)に書き込む。Gバッファには、描画される画素ごとに、例えば、当該画素に対応するポリゴンの法線の情報、および、当該画素に対応するポリゴンに設定される色の情報等が書き込まれる。本実施形態においては、これらの情報以外にさらに、画素に対応するフィールド上の位置を示す座標や、対象外オブジェクトが描画される画素であることを示す情報等がGバッファに格納される。また、第1の段階において、ゲームシステム1は、フィールド上の位置の深度(奥行き)情報を、当該位置に対応する画素ごとに深度バッファに書き込む。
In the first stage, the
第2の段階において、ゲームシステム1は、Gバッファおよび深度バッファに書き込まれた情報、および、フィールドに設定される光源の情報に基づいて、ライティングに関する情報をライトバッファに書き込む。ライトバッファには、例えば、描画される画素ごとに、対応するフィールド上の位置の明るさを示す情報が書き込まれる。なお、他の実施形態においては、ゲームシステム1は、ライティングに関する計算を第2の段階で行うものとするが、他の実施形態においては、ライティングに関する計算は、フレームバッファへの描画を行う後述の第3の段階で行われてもよい。
In the second stage, the
また、本実施形態においては、第2の段階において、ゲームシステム1は、暗闇マスクのデータを生成する。暗闇マスクは、描画される画素ごとに対応するフィールド上の位置が、暗闇として描画される位置(すなわち、照射範囲外の位置)であるか否か、もしくは暗闇として描画される度合いを画素ごとに示すデータである。本実施形態においては、暗闇マスクは、暗闇を表す色(上述のように、本実施形態においては黒色)で描画される度合いを示す暗闇マスク値を画素ごとに示す。例えば、暗闇マスク値は、0以上1以下の値であり、暗闇を表す色で描画される画素については1に設定され、暗闇を表す色が反映されない画素については0に設定される。また、暗闇マスク値が中間値(すなわち、0より大きく1未満である値)となる場合、中間値は、暗闇を表す色が当該画素に反映される度合いが大きいほど大きい値をとる。本実施形態においては、照射範囲外の位置に対応する画素については、暗闇マスク値は1に設定され、照射範囲内の位置に対応する画素については、暗闇マスク値は1未満の値に設定される。したがって、暗闇マスクは、フィールドにおける照射範囲を示すデータであると言うことができる。詳細は後述するが、当該暗闇マスクは、仮想空間内の照射範囲と、Gバッファに記憶された、フィールド上の位置を示す座標データ等に基づいて生成される。さらに、上述の対象外オブジェクトが描画される画素に対応する画素については、暗闇を反映しない値とする。なお、他の実施形態においては、照射範囲外の位置に対応する画素については、暗闇マスク値が所定値以上(この所定値は、0より大きく1より小さい値である)に設定され、照射範囲内の位置に対応する画素については、暗闇マスク値は当該所定値未満の値に設定されてもよい。また、本実施形態においては、暗闇マスク値は0から1までの範囲の多値の値であるとするが、他の実施形態においては、暗闇マスク値は0または1の2値の値であってもよい。
Also, in the present embodiment, the
第3の段階において、ゲームシステム1は、各バッファ(すなわち、Gバッファ、深度バッファ、および、ライトバッファ)に書き込まれた情報および暗闇マスクに基づいて、光源による光の影響および暗闇が反映されたフィールドを示すフィールド画像の画素値をフレームバッファに書き込む。すなわち、ゲームシステム1は、Gバッファとライトバッファの情報に基づいた、仮想空間内の光源が反映された画素値に、暗闇マスクに基づいて黒色が上書きされた画素値をフレームバッファに書き込む。
In the third stage, the
図22は、フレームバッファに書き込まれるフィールド画像を生成する方法の一例を示す図である。図22に示すように、フィールド画像の各画素の画素値は、Gバッファに記憶される色の情報と、ライトバッファに記憶される明るさの情報と、暗闇マスクの暗闇マスク値とに基づいて算出される。まず、ライトバッファに記憶される明るさの情報を反映することで、光源による光が反映されたフィールド画像を得ることができる。すなわち、環境光や点光源による光が当たっているように表現されたフィールド画像を得ることができる。さらに、暗闇マスクを用いることで、照射範囲外については暗闇で表現されたフィールド画像を生成することができる(図22参照)。以上によって、ゲームシステム1は、照射範囲内については環境光や点光源による光が当たっているように表現されるとともに、照射範囲外については暗闇で表現されたフィールド画像を得ることができる。
FIG. 22 is a diagram showing an example of a method for generating field images to be written into the frame buffer. As shown in FIG. 22, the pixel value of each pixel of the field image is determined based on the color information stored in the G buffer, the brightness information stored in the light buffer, and the darkness mask value of the darkness mask. Calculated. First, by reflecting the brightness information stored in the light buffer, it is possible to obtain a field image in which the light from the light source is reflected. That is, it is possible to obtain a field image expressed as if it were illuminated by environmental light or point light sources. Furthermore, by using a dark mask, it is possible to generate a field image expressed in darkness outside the irradiation range (see FIG. 22). As described above, the
図22に示す暗闇マスクについては、暗闇マスク値が1である位置を黒色で示し、暗闇マスク値が0である位置を白色で示し、暗闇マスク値が中間値となる位置については、値が大きいほど黒色に近づくように灰色で示している。キャラクタ発光イベントやアイテム配置イベントに基づく照射範囲に関しては、暗闇マスク値は、照射範囲の基準点から所定距離内の位置に対応する画素については0となり、基準点から当該所定距離より離れた位置に対応する画素については、基準点からの距離に応じて次第に大きくなり、照射範囲外の位置に対応する画素については1となるように、設定される。なお、照射範囲の基準点とは、照射範囲の基準となる位置であり、具体的には、解放イベントに基づく照射範囲については基準位置であり、キャラクタ発光イベントに基づく照射範囲についてはプレイヤキャラクタの位置であり、アイテム配置イベントに基づく照射範囲については光源アイテムの位置である。 For the darkness mask shown in FIG. 22, locations with a darkness mask value of 1 are shown in black, locations with a darkness mask value of 0 are shown in white, and locations with intermediate darkness mask values have large values. It is shown in gray so that it approaches black as much as possible. For illumination ranges based on character light emission events and item placement events, the darkness mask value is 0 for pixels corresponding to positions within a predetermined distance from the reference point of the illumination range, For the corresponding pixels, it is set so that it gradually increases according to the distance from the reference point, and is set to 1 for the pixels corresponding to positions outside the irradiation range. Note that the reference point of the irradiation range is a position that serves as a reference for the irradiation range. position, and for illumination ranges based on item placement events, the position of the light item.
解放イベントに基づく照射範囲については、ゲームシステム1は、暗闇マスク値を算出するために用いられる2次元範囲データを算出し、当該2次元範囲データと、Gバッファに記憶された、フィールド上の位置を示す座標データのうち、水平面成分とに基づいて暗闇マスクを生成する。2次元範囲データは、上述のフィールド対応平面における各2次元位置について、暗闇マスク値を算出するために用いられる度合い値を示すデータである。2次元範囲データは、フィールドにおける照射範囲を示すデータであると言うことができる。なお、本実施形態においては、照射範囲を示すデータとして、2次元平面上での位置に関する上記2次元範囲データを生成するものとするが、他の実施形態においては、照射範囲を示すデータは、3次元のフィールドの位置を示すデータであってもよい。
For the irradiation range based on the release event, the
上記度合い値は、暗闇マスク値と同様、描画処理において暗く描画する度合いを示す値である。度合い値は、例えば、照射範囲の基準点において最大となり、基準点からの距離に応じて次第に小さくなり、照射範囲外で0となるように変化する。したがって、度合い値は、照射範囲の基準点からの距離に応じて減衰する値に基づいて算出することができる。本実施形態においては、上記解放イベントに基づく照射範囲は、上述の合計判定値に基づいて設定される解放領域と、基準地点からの距離に基づく地点影響範囲とに基づいて設定される。そのため、解放イベントに基づく照射範囲についての度合い値は、上述の合計判定値と、基準地点からの距離に応じて減衰する値とに基づいて算出することができる。 Similar to the darkness mask value, the degree value is a value indicating the degree of dark drawing in the drawing process. For example, the degree value becomes maximum at the reference point of the irradiation range, gradually decreases according to the distance from the reference point, and changes to 0 outside the irradiation range. Therefore, the degree value can be calculated based on a value that attenuates according to the distance from the reference point of the irradiation range. In this embodiment, the irradiation range based on the release event is set based on the release area set based on the total determination value and the point influence range based on the distance from the reference point. Therefore, the degree value for the irradiation range based on the release event can be calculated based on the total determination value described above and a value that attenuates according to the distance from the reference point.
次に、ゲームシステム1は、各画素における暗闇マスク値を、各画素に対応する各位置における度合い値に基づいて算出する。例えば、上記度合い値を0以上1以下の範囲にスケーリングし、スケーリングされた値を1から減算した値として暗闇マスク値を得ることができる。以上のようにして算出される暗闇マスク値を用いることで、解放イベントに基づく照射範囲を反映した暗闇マスクを生成することができる。なお、解放領域の範囲と地点影響範囲とを同じにする場合は、上述のマップマスクが2次元範囲データとして用いられてもよい。
Next, the
上記のように、本実施形態においては、ゲームシステム1は、解放イベントの発生に基づいて、フィールドにおける照射範囲を平面的に示す2次元範囲データを、フィールドのうちイベント発生位置(すなわち、基準地点の位置)に対応する範囲が少なくとも照射範囲となるよう生成し、2次元範囲データに基づいて暗闇マスクを生成する。
As described above, in the present embodiment, the
また、本実施形態においてはさらに、ゲームシステム1は、描画処理における上記第2の段階において、プレイヤキャラクタの位置に基づく照射範囲と、光源アイテムについて設定される点光源の位置に基づく照射範囲とを反映するように、暗闇マスクを生成する。これによって、各照射イベント(すなわち、解放イベント、キャラクタ発光イベント、および、アイテム配置イベント)を反映した暗闇マスクが生成される。
Further, in the present embodiment, the
なお、暗闇マスク値の算出方法は任意であり、上記の方法に限らない。例えば、他の実施形態においては、ゲームシステム1は、上記2次元範囲データを生成せずに、描画処理において暗闇マスクを直接生成してもよい。すなわち、ゲームシステム1は、描画処理の第2の段階において、画素に対応するフィールド上の各位置についての合計判定値と、基準地点からの距離に応じて減衰する値とに基づいて、解放イベントに基づく照射範囲を反映した暗闇マスクを生成してもよい。
Note that the method for calculating the darkness mask value is arbitrary, and is not limited to the above method. For example, in another embodiment, the
上記のように、本実施形態においては、ゲームシステム1は、描画処理において、少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が照射範囲に含まれるか否かを少なくとも示すマスクデータ(すなわち、暗闇マスクのデータ)を生成する。そして、マスクデータにおいて上記地形オブジェクトの位置が照射範囲に含まれることが示される画素については、光源を反映してフレームバッファへの描画を行う。また、マスクデータにおいて上記地形オブジェクトの位置が照射範囲に含まれないことが示される画素については、所定の色によってフレームバッファへの描画を行う。これによれば、マスクデータを用いることによって、照射範囲外が視認不可能または視認困難な態様で表現されるフィールド画像を生成することができる。所定の色は、たとえば黒色である。ただし黒色に限らず、グレーであったり、他の色であったりしてもよい。また、単色に限らず、所定の模様を有する画像として描画されてもよい。
As described above, in the present embodiment, in the rendering process, the
また、本実施形態においては、上記マスクデータは、上記所定の色が描画される度合いを画素ごとに示すデータである。ゲームシステム1は、描画処理において、光源を反映して算出される画素値(すなわち、Gバッファに記憶される色の情報と、ライトバッファに記憶される明るさの情報とに基づく画素値)に対して、上記度合いに応じて所定の色を合成した画素値をフレームバッファに書き込む。これによれば、暗闇の度合いを多段階で表現することができる。例えば、上述のように、照射範囲の基準点において最大となり、基準点からの距離に応じて次第に小さくなり、照射範囲外で0となるように度合い値を設定することによって、照射範囲の境界において次第に暗闇が濃くなっていくようなフィールド画像を生成することができる(図22参照)。
Further, in the present embodiment, the mask data is data indicating the degree to which the predetermined color is drawn for each pixel. In the drawing process, the
また、本実施形態においては、ゲームシステム1は、フィールドの高さ方向以外の座標成分に対応する2次元の座標ごとに、描画処理において暗く描画する度合いを示す度合い値を示す2次元範囲データを生成する。ゲームシステム1は、上記合計判定値と、上記各座標において、基準地点に対応する2次元的な位置において基準値となり、当該2次元的な位置から当該座標への2次元的な距離に応じて減衰する値とに基づいて度合い値を算出する。描画処理においては、フレームバッファに描画する画素ごとに、フィールド内に設定された光源を反映して算出される画素値に対して、上記2次元範囲データが示す、当該画素に対応する2次元の座標における度合い値に応じて(当該度合い値に基づく暗闇マスク値に応じて、とも言うことができる。)所定の色(すなわち、黒色)を合成した画素値がフレームバッファに書き込まれる。上記によれば、フィールドを示す画像において上記所定の色を段階的に反映させることができる。これによって、例えば照射範囲の境界付近において次第に暗くなるようにフィールド画像を生成することができるので、より自然に見えるフィールド画像を生成することができる。
In addition, in the present embodiment, the
本実施形態においては、ゲームシステム1は、上述の対象外オブジェクトについては、暗闇を表す黒色ではなく、オブジェクトごとに設定されている方法で描画を行う。具体的には、上記第1の段階において、ゲームシステム1は、上記の対象外オブジェクトに関する除外マスクのデータをGバッファに書き込む。除外マスクは、対象外オブジェクトの位置に対応する画素を示すデータである。除外マスクは、対象外オブジェクトに対応する画素について上記暗闇マスクの適用を除外することを示すものであると言うことができる。なお、ゲームシステム1は、対象外オブジェクトについて設定されている描画方法(例えば、自発光することや、所定の陰が付されること)を示すデータをGバッファに書き込んでおく。
In the present embodiment, the
また、描画処理における上述の第3の段階において、ゲームシステム1は、上記除外マスクが示す画素については、暗闇マスクの暗闇マスク値にかかわらず、対象外オブジェクトについて設定された方法で描画を行う。これによって、対象外オブジェクトについては照射範囲外であっても暗闇として描画されることなく、設定された方法で描画されることとなる。なお、上記第2の段階において、上記除外マスクが示す画素については暗闇ではないことを示す値を暗闇マスクに書き込むようにしてもよい。
Also, in the third stage of the drawing process, the
上記のように、本実施形態においては、ゲームシステム1は、描画処理における第1の段階において、対象外オブジェクトについて、Gバッファおよび深度バッファへの書き込みを画素ごとに行わせるとともに、上記除外マスクのデータを生成する。そして、描画処理における第3の段階において、ゲームシステム1は、除外マスクのデータが示す画素について、地形オブジェクトのうち照射範囲に含まれない部分と対象外オブジェクトとを区別して視認することができる方法で(例えば、自発光しているように見える方法で、あるいは、所定の陰が付される方法で)描画を行う。これによれば、ゲームシステム1は、対象外オブジェクトが照射範囲外であっても視認可能な態様で当該対象外オブジェクトを表示することができる。
As described above, in the present embodiment, in the first stage of the rendering process, the
以上のように、本実施形態においては、ゲームシステム1は、いわゆるディファードレンダリングに基づいた描画処理によって、照射範囲外のオブジェクトを暗闇として描画する。すなわち、ゲームシステム1は、第1の段階において、フィールド内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行う。第2の段階において、ゲームシステム1は、画素ごとに、当該画素に対応する位置と、深度バッファに記憶された深度値と、照射範囲とに基づいて、暗闇マスクデータを生成する。第3の段階において、ゲームシステム1は、少なくともGバッファに記憶されるデータと、暗闇マスクデータとに基づいてフレームバッファへの描画を行う。上記によれば、ゲームシステム1は、ディファードレンダリングの技術を応用して、照射範囲外のオブジェクトを視認不可能または視認困難な態様で描画することができる。
As described above, in the present embodiment, the
なお、他の実施形態においては、照射範囲外のオブジェクトを暗闇として描画するための方法は任意であり、ディファードレンダリングに基づく描画処理に限られない。他の実施形態においては、フォワードレンダリング(前方シェーディングとも言う)に基づいて描画処理が実行されてもよい。すなわち、ゲームシステム1は、描画処理において、少なくとも一部の地形オブジェクト(例えば、上記対象外オブジェクトを除くオブジェクト)に関して、照射範囲に含まれるか否かを画素ごとに判定し、照射範囲に含まれる画素については、光源を反映してフレームバッファへの描画を行い、照射範囲に含まれない画素については、所定の色(例えば、黒色)によってフレームバッファへの描画を行うようにしてもよい。上記によれば、ゲームシステム1は、フォワードレンダリングに基づいて、照射範囲外のオブジェクトを視認不可能または視認困難な態様で描画することができる。
Note that in other embodiments, any method may be used to render an object outside the illumination range as dark, and is not limited to rendering processing based on deferred rendering. In other embodiments, the rendering process may be performed based on forward rendering (also called forward shading). That is, in the drawing process, the
[3.ゲームシステムにおける処理の具体例]
次に、図23~図27を参照して、ゲームシステム1における情報処理の具体例について説明する。
[3. Specific example of processing in game system]
Next, specific examples of information processing in the
図23は、ゲームシステム1における情報処理に用いられる各種データを記憶する記憶領域の一例を示す図である。図23に示す各記憶領域は、本体装置2がアクセス可能な記憶媒体(例えば、フラッシュメモリ84、DRAM85、および/または、スロット23に装着されたメモリカード等)に設けられる。図23に示すように、上記記憶媒体には、ゲームプログラムが記憶されるゲームプログラム領域が設けられる。ゲームプログラムは、本実施形態におけるゲーム処理(具体的には、図24に示すゲーム処理)を実行するためのものである。また、上記記憶媒体には、上述のGバッファ、深度バッファ、ライトバッファ、および、フレームバッファが設けられる。
FIG. 23 is a diagram showing an example of a storage area for storing various data used for information processing in the
また、上記記憶媒体には、上述の暗闇マスクのデータを記憶するための暗闇マスクデータ領域が設けられる。なお、上述の除外マスクのデータはGバッファに記憶される。さらに、上記記憶媒体には、ゲーム処理において用いられる各種のデータを記憶するための処理データ領域が設けられる。処理データ領域には、例えば、上述のマップマスクのデータ等が記憶される。また例えば、処理データ領域には、ゲームに登場する各種オブジェクト(例えば、プレイヤキャラクタや光源アイテム)に関するオブジェクトデータ(例えば、オブジェクトの位置および向きを示すデータ)が記憶される。 Further, the storage medium is provided with a darkness mask data area for storing the darkness mask data described above. It should be noted that the above exclusion mask data is stored in the G buffer. Further, the storage medium is provided with a processing data area for storing various data used in game processing. The processing data area stores, for example, the map mask data described above. Also, for example, the processing data area stores object data (eg, data indicating the position and orientation of the object) related to various objects (eg, player characters and light source items) appearing in the game.
図24は、ゲームシステム1によって実行されるゲーム処理の流れの一例を示すフローチャートである。ゲーム処理の実行は、例えば、上記ゲームプログラムの実行中において、プレイヤの指示に応じてゲームが開始されたことに応じて開始される。なお、本実施形態においては、ゲーム処理においては、フィールドを示すフィールド画像が表示されるフィールドモードと、上述のマップ画像がディスプレイ12の全体に表示されるマップ表示モードと、メニュー画像が表示されるメニュー表示モードという処理モードがある。ゲームの開始時における処理モードは任意であるが、ここでは例えばフィールドモードに設定されるものとする。
FIG. 24 is a flowchart showing an example of the flow of game processing executed by the
なお、本実施形態では、本体装置2のプロセッサ81が、ゲームシステム1に記憶されている上記ゲームプログラムを実行することによって、図24に示す各ステップの処理を実行するものとして説明する。ただし、他の実施形態においては、上記各ステップの処理のうちの一部の処理を、プロセッサ81とは別のプロセッサ(例えば、専用回路等)が実行するようにしてもよい。また、ゲームシステム1が他の情報処理装置(例えば、サーバ)と通信可能である場合、図24に示す各ステップの処理の一部は、他の情報処理装置において実行されてもよい。また、図24に示す各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えて(または代えて)別の処理が実行されてもよい。
In this embodiment, the
また、プロセッサ81は、図24に示す各ステップの処理を、メモリ(例えば、DRAM85)を用いて実行する。すなわち、プロセッサ81は、各処理ステップによって得られる情報(換言すれば、データ)をメモリに記憶し、それ以降の処理ステップにおいて当該情報を用いる場合には、メモリから当該情報を読み出して利用する。
Also, the
図14に示すステップS1において、プロセッサ81は、プレイヤによる指示を示す上記操作データを取得する。すなわち、プロセッサ81は、コントローラ通信部83および/または各端子17および21を介して各コントローラから受信される操作データを取得する。ステップS1の次にステップS2の処理が実行される。
At step S1 shown in FIG. 14, the
ステップS2において、プロセッサ81は、解放イベント等のイベントシーンの実行中であるか否かを判定する。上述のように、本実施形態においては、解放イベントが発生したことに応じて、解放イベントを示すイベントシーンのアニメーションの再生が開始される(後述するステップS26参照)。ステップS2においては、プロセッサ81は、上記イベントシーンのアニメーションが再生中であるか否かを判定する。ステップS2の判定結果が肯定である場合、ステップS3の処理が実行される。一方、ステップS2の判定結果が否定である場合、ステップS4の処理が実行される。
At step S2, the
ステップS3において、プロセッサ81は、実行中のイベントシーンを進行させる。すなわち、プロセッサ81は、上記イベントシーンのアニメーションの画像をディスプレイ12に表示させる。なお、1回のステップS3では、1フレーム分の画像が表示され、イベントシーンの実行中においてはステップS3の処理が繰り返し実行されることで、上記のアニメーションが再生されることとなる。イベント時の描画処理については、フィールド画像が表示されているフィールドモード中と同様の処理が実行される場合もあるが、異なる場面を表現する場合において異なる描画処理が行われてもよい。この異なる描画処理の具体的な内容は任意であり、詳細は省略する。なお、本実施形態においては、ゲームシステム1によって生成された画像はディスプレイ12に表示されるものとするが、当該画像は他の表示装置(例えば、上述した据置型モニタ)に表示されてもよい。ステップS3の次に、後述するステップS12の処理が実行される。
At step S3, the
ステップS4において、プロセッサ81は、マップ画像を表示するマップ表示モード中であるか否かを判定する。詳細は後述するが、本実施形態においては、フィールド画像が表示されているフィールドモード中においてプレイヤによってマップ表示指示が行われたことに応じて、マップ表示モードが開始される(後述するステップS22参照)。ステップS4の判定結果が肯定である場合、ステップS5の処理が実行される。一方、ステップS4の判定結果が否定である場合、ステップS6の処理が実行される。
In step S4,
ステップS5において、プロセッサ81は、マップ画像をディスプレイ12に表示させる。すなわち、プロセッサ81は、上記“[2-1.マップの開放領域の設定]”で述べた方法に従ってマップ画像を生成し、生成されたマップ画像をディスプレイ12に表示させる。ステップS5においては(すなわち、マップ表示モードにおいては)、フィールド画像は表示されずにマップ画像がディスプレイ12の全領域に表示される(図10および図12参照)。また、マップ表示モードにおいて、プロセッサ81は、マップ画像の表示を終了する旨の指示を受け付け、当該指示が行われた場合、処理モードをフィールドモードに移行する。この場合、次に実行される上記ステップS4における判定結果が否定となり、後述のステップS11においてフィールド画像が表示される。ステップS5の次に、後述するステップS12の処理が実行される。
At step S5, the
ステップS6において、プロセッサ81は、メニュー画像を表示するメニュー表示モード中であるか否かを判定する。詳細は後述するが、本実施形態においては、フィールド画像が表示されているフィールドモード中においてプレイヤによってメニュー表示指示が行われたことに応じて、メニュー表示モードが開始される(後述ステップS22参照)。ステップS6の判定結果が肯定である場合、ステップS7の処理が実行される。一方、ステップS6の判定結果が否定である場合、ステップS8の処理が実行される。
In step S6, the
ステップS7において、プロセッサ81は、メニュー画像をディスプレイ12に表示させる。ここで、本実施形態においては、プロセッサ81は、メニュー表示モードにおいて、各種の操作のうち少なくとも、プレイヤキャラクタの装備を変更する指示のための操作入力を受け付ける。すなわち、プレイヤは、メニュー画像においてプレイヤキャラクタの装備を変更することができ、例えば、上述の光る服をプレイヤキャラクタに装備させることができる。なお、図24に示すフローチャートにおいては省略するが、メニュー表示モードにおいては、メニュー画像に対する各種の指示(例えば、プレイヤキャラクタの装備を変更する指示や、アイテムを使用する指示等)のための操作入力が受け付けられ、プロセッサ81は、当該操作入力に応じてメニュー画像の内容を適宜変更して表示する。また、メニュー表示モードにおいて、プロセッサ81は、メニュー画像の表示を終了する旨の指示を受け付け、当該指示が行われた場合、処理モードをフィールドモードに移行する。この場合、次に実行される上記ステップS6における判定結果が否定となり、後述のステップS11においてフィールド画像が表示される。ステップS7の次に、後述するステップS12の処理が実行される。
At step S7, the
ステップS8において、プロセッサ81は、プレイヤ関連制御処理を実行する。プレイヤ関連制御処理においては、プレイヤによる操作入力に基づいて各種の処理(例えば、プレイヤキャラクタに関する制御処理)が実行される。プレイヤ関連制御処理の詳細については、後述する図25に示すフローチャートで説明する。ステップS8の次に、ステップS9の処理が実行される。
In step S8, the
ステップS9において、プロセッサ81は、他オブジェクト制御処理を実行する。他オブジェクト制御処理においては、プレイヤキャラクタ以外の他のオブジェクト(例えば、敵キャラクタや、上述の光源アイテム等)の制御が行われる。他オブジェクト制御処理の詳細については、後述する図26に示すフローチャートで説明する。ステップS9の次に、ステップS10の処理が実行される。
In step S9, the
ステップS10において、プロセッサ81は、フィールドを示すフィールド画像の描画処理を実行する。フィールド画像の描画処理においては、上述したように、照射範囲外が暗闇で表されるフィールド画像が生成される。描画処理の詳細については、後述する図27に示すフローチャートで説明する。ステップS10の次に、ステップS11の処理が実行される。
In step S10, the
ステップS11において、プロセッサ81は、ステップS10で生成されたフィールド画像をディスプレイ12に表示させる。なお、図15等において示したように、フィールドモードにおいては、プロセッサ81は、フィールド画像に加えてマップ画像をさらに生成し、フィールド画像に重ねてマップ画像を表示するようにしてもよい。ステップS11の次に、ステップS12の処理が実行される。
At step S11, the
ステップS12において、プロセッサ81は、ゲームを終了するか否かを判定する。例えば、プロセッサ81は、ゲームを終了するための所定の操作入力がプレイヤによって行われた場合、ゲームを終了すると判定する。ステップS12の判定結果が否定である場合、ステップS1の処理が再度実行される。以降、ステップS12においてゲームを終了すると判定されるまで、ステップS1~S12の一連の処理が繰り返し実行される。一方、ステップS12の判定結果が肯定である場合、プロセッサ81は、図24に示すゲーム処理を終了する。
At step S12, the
図25は、図24に示すステップS8のプレイヤ関連制御処理の詳細な流れの一例を示すサブフローチャートである。プレイヤ関連制御処理においては、まずステップS21において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、上述の処理モードを切り替える指示がプレイヤによって行われたか否かを判定する。処理モードを切り替える指示とは、具体的には、マップ画像を表示する旨の指示、または、メニュー画像を表示する旨の指示である。ステップS21の判定結果が肯定である場合、ステップS22の処理が実行される。一方、ステップS21の判定結果が否定である場合、ステップS23の処理が実行される。
FIG. 25 is a sub-flowchart showing an example of the detailed flow of the player-related control process in step S8 shown in FIG. In the player-related control process, first, in step S21, the
ステップS22において、プロセッサ81は、ステップS21で行われた指示に応じて処理モードを切り替える。すなわち、マップ画像を表示する旨の指示が行われた場合、プロセッサ81は、処理モードをマップ表示モードに切り替える。この場合、次に実行される上記ステップS4における判定結果が肯定となり、ステップS5においてマップ画像を表示する処理が実行される。また、メニュー画像を表示する旨の指示が行われた場合、プロセッサ81は、処理モードをメニュー表示モードに切り替える。この場合、次に実行される上記ステップS6における判定結果が肯定となり、ステップS7においてメニュー画像を表示する処理が実行される。ステップS22の後、プロセッサ81はプレイヤ関連制御処理を終了する。
At step S22, the
ステップS23において、プロセッサ81は、プレイヤキャラクタに対する操作入力が受け付けられる操作受付期間であるか否かを判定する。ここで、本実施形態においては、プレイヤキャラクタに対する操作入力に応じてプレイヤキャラクタが所定の動作(例えば、後述するステップS30において制御される動作)を行っている動作期間は、操作受付期間から外されるものとする。ステップS23の判定結果が肯定である場合、ステップS24の処理が実行される。一方、ステップS23の判定結果が否定である場合、後述するステップS33の処理が実行される。
In step S23, the
ステップS24において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、基準地点を解放するための操作入力が行われたか否かを判定する。すなわち、プロセッサ81は、基準地点の近傍にプレイヤキャラクタが位置する状態において、「しらべる」のコマンドを実行するための入力が行われたか否かを判定する。ステップS24の判定結果が肯定である場合、ステップS25の処理が実行される。一方、ステップS24の判定結果が否定である場合、後述するステップS29の処理が実行される。
In step S24, the
ステップS25において、プロセッサ81は、上記操作入力が行われた基準地点を解放状態とする。例えば、プロセッサ81は、メモリに記憶されている、当該基準地点の状態を示すデータを、解放済みであることを示す内容に更新する。また、プロセッサ81は、基準地点を示す目印オブジェクトの位置に点光源を設定する。これによって、後述の描画処理においては、目印オブジェクトの周囲に光が当たるように描画が行われることとなる。ステップS25の次にステップS26の処理が実行される。
In step S25, the
ステップS26において、プロセッサ81は、解放イベントが発生した場合におけるイベントシーンを開始する。すなわち、プロセッサ81は、解放された基準地点の周囲が次第に明るくなっていく様子を示すアニメーションの再生を開始する。ステップS26の処理以降、上記アニメーションの再生が終了するまでは、上記ステップS2における判定結果は肯定となり、イベントシーンの実行が継続される。ステップS26の次にステップS27の処理が実行される。
In step S26, the
ステップS27において、プロセッサ81は、ステップS26で解放された基準地点に基づいて上述の解放領域を設定する。すなわち、プロセッサ81は、上記“[2-1.マップの開放領域の設定]”で述べた方法に従って設定される解放領域を示すマップマスクを生成する。具体的には、ゲーム処理の開始時においてメモリにはマップマスクのデータが記憶されており、プロセッサ81は、設定された解放領域を示すように当該データを更新する。ステップS27の処理によって、フィールドのうち、解放された基準地点を含む領域が解放領域に設定されることとなる。ステップS27の次にステップS28の処理が実行される。
At step S27, the
ステップS28において、プロセッサ81は、ステップS26で解放された基準地点に基づいて上述の照射範囲を設定する。すなわち、プロセッサ81は、上記“[2-2.照射範囲の設定]”で述べた方法に従って設定される照射範囲を示す上述の2次元範囲データを生成する。具体的には、ゲーム処理の開始時においてメモリには2次元範囲データが記憶されており、プロセッサ81は、設定された照射範囲を示すように当該データを更新する。ステップS27の処理によって、フィールドのうち、解放された基準地点を含む領域が照射範囲に設定されることとなる。ステップS28の後、プロセッサ81はプレイヤ関連制御処理を終了する。なお、ステップS25、S27、S28の処理は、このタイミングに限らず、その後のイベントシーン中の所定のタイミングで行われてもよい。
At step S28, the
ステップS29において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、プレイヤキャラクタに対するアクション指示のための操作入力が行われたか否かを判定する。アクション指示は、プレイヤキャラクタに例えば攻撃動作やジャンプ動作等を行わせるための指示である。ステップS29の判定結果が肯定である場合、ステップS30の処理が実行される。一方、ステップS29の判定結果が否定である場合、後述するステップS31の処理が実行される。
In step S29, the
ステップS30において、プロセッサ81は、ステップS29で行われたアクション指示に応じた動作をプレイヤキャラクタに開始させる。ステップS30でプレイヤキャラクタが動作を開始した後においては、後述するステップS33の処理によって、一定期間にわたって当該動作を行うようにプレイヤキャラクタが制御される。ステップS30の後、プロセッサ81はプレイヤ関連制御処理を終了する。
In step S30, the
ステップS31において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、プレイヤキャラクタに対する移動指示のための操作入力が行われたか否かを判定する。移動指示は、フィールド上においてプレイヤキャラクタを移動させる動作を行わせるための指示である。ステップS31の判定結果が肯定である場合、ステップS32の処理が実行される。一方、ステップS31の判定結果が否定である場合、ステップS33の処理が実行される。
In step S31, the
ステップS32において、プロセッサ81は、ステップS29で行われた移動指示に応じてプレイヤキャラクタをフィールド上において移動する動作をさせる。ステップS32の後、プロセッサ81はプレイヤ関連制御処理を終了する。
In step S32, the
ステップS33において、プロセッサ81は、ステップS30で開始された動作の進行や、何も入力されていない場合の動作等、各種の動作を行うようにプレイヤキャラクタを制御する。なお、1回のステップS33においては、プロセッサ81は、1フレーム時間分の動作の進行を行うようにプレイヤキャラクタを制御する。ステップS33の処理が複数フレームにわたって繰り返し実行されることで、アクション指示に応じた一連の動作をプレイヤキャラクタが行うこととなる。なお、プレイヤキャラクタが行うべき動作がプレイヤによって指示されていない場合(例えば、ステップS30で開始された動作が終了している場合)には、ステップS33において、プロセッサ81は、プレイヤキャラクタに動作を行わせなくてもよいし、プレイヤキャラクタの挙動を自然に見せるための動作(例えば、辺りを見回したり、体を揺らしたりする動作)を行わせてもよい。ステップS33の後、プロセッサ81はプレイヤ関連制御処理を終了する。
In step S33, the
図26は、図24に示すステップS9の他オブジェクト制御処理の詳細な流れの一例を示すサブフローチャートである。他オブジェクト制御処理においては、まずステップS41において、プロセッサ81は、プレイヤキャラクタを除く制御対象となる各オブジェクトについて処理を完了したか否かを判定する。すなわち、上記各オブジェクトが、後述するステップS42において指定済みであるか否かを判定する。ステップS41の判定結果が否定である場合、ステップS42の処理が実行される。一方、ステップS41の判定結果が肯定である場合、プロセッサ81は他オブジェクト制御処理を終了する。
FIG. 26 is a sub-flowchart showing an example of the detailed flow of the other object control process in step S9 shown in FIG. In the other object control process, first, in step S41, the
ステップS42において、プロセッサ81は、制御対象となるオブジェクトのうちから、後述のステップS43の処理対象となる1つのオブジェクトを指定する。なお、ステップS42においては、今回のステップS41~S45の処理ループにおいてまだ処理対象となっていないオブジェクトが指定される。ステップS42の次に、ステップS43の処理が実行される。
In step S42, the
ステップS43において、プロセッサ81は、ステップS42で指定されたオブジェクトの動作を制御する。例えば、当該オブジェクトが敵キャラクタである場合、ゲームプログラムにおいて定められたアルゴリズムに従って敵キャラクタの動作を制御する。また例えば、当該オブジェクトが光源アイテムである場合、プレイヤキャラクタ等の他のキャラクタによる動作に応じて(例えば、プレイヤキャラクタが光源アイテムを投げる動作に応じて)光源アイテムの移動を制御する。ステップS43の次に、ステップS44の処理が実行される。
At step S43, the
ステップS44において、プロセッサ81は、上記ステップS43の処理結果に基づいて、アイテム配置イベントが発生したか否かを判定する。例えば、光源アイテムに関して、プレイヤキャラクタによって投げられた光源アイテムがフィールドにおける地面に配置された場合、プロセッサ81は、アイテム配置イベントが発生したと判定する。ステップS44の判定結果が肯定である場合、ステップS45の処理が実行される。一方、ステップS44の判定結果が否定である場合、ステップS41の処理が再度実行される。
In step S44, the
ステップS45において、プロセッサ81は、アイテム配置イベントの発生の要因となった光源アイテムの位置に点光源を設定する。これによって、後述の描画処理においては、光源アイテムの周囲に光が当たるように描画が行われることとなる。ステップS45の次に、ステップS41の処理が再度実行される。以降、ステップS41において制御対象となる全てのオブジェクトについて処理を完了したと判定されるまで、ステップS41~S45における一連の処理が繰り返し実行される。
In step S45, the
図27は、図24に示すステップS10の描画処理の詳細な流れの一例を示すサブフローチャートである。描画処理においては、まずステップS51において、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた第1の段階における処理が完了したか否かを判定する。すなわち、描画対象となる各オブジェクト(例えば、仮想カメラの視野範囲内のオブジェクト)についてGバッファへの書き込みが完了したか否かを判定する。ステップS51の判定結果が肯定である場合、後述のステップS56の処理が実行される。一方、ステップS51の判定結果が否定である場合、ステップS52の処理が実行される。
FIG. 27 is a sub-flowchart showing an example of a detailed flow of drawing processing in step S10 shown in FIG. In the drawing process, first, in step S51, the
ステップS52において、プロセッサ81は、描画対象となるオブジェクトのうちから、後述のステップS53の処理対象となる1つのオブジェクトを指定する。なお、ステップS52においては、今回のステップS51~S55の処理ループにおいてまだ処理対象となっていないオブジェクトが指定される。ステップS52の次に、ステップS53の処理が実行される。
In step S52, the
ステップS53において、プロセッサ81は、ステップS52で指定されたオブジェクトが上述の対象外オブジェクトであるか否かを判定する。ステップS53の判定結果が否定である場合、ステップS54の処理が実行される。一方、ステップS53の判定結果が肯定である場合、ステップS55の処理が実行される。
In step S53, the
ステップS54において、プロセッサ81は、ステップS52で指定されたオブジェクトに関する情報をGバッファおよび深度バッファに書き込む。すなわち、プロセッサ81は、当該オブジェクトのポリゴンに対応する画素について、当該ポリゴンの位置、法線、色等の情報をGバッファに書き込み、深度情報を深度バッファに書き込む。なお、ステップS54における処理は、従来のディファードレンダリングにおける処理と同様であってよい。ステップS54の次に、ステップS51の処理が再度実行される。
At step S54, the
一方、ステップS55において、プロセッサ81は、ステップS52で指定されたオブジェクトに関する情報をGバッファおよび深度バッファに書き込むとともに、当該オブジェクトが対象外オブジェクトであることを示す情報をGバッファに書き込む。すなわち、プロセッサ81は、対象外オブジェクトに関する上記除外マスクのデータをGバッファに書き込む。ステップS55の次に、ステップS51の処理が再度実行される。
On the other hand, in step S55, the
ステップS56において、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた第2の段階における処理が完了したか否かを判定する。すなわち、ライトバッファおよび暗闇マスクにおける各画素への値の書き込みが完了したか否かを判定する。ステップS56の判定結果が肯定である場合、後述のステップS60の処理が実行される。一方、ステップS56の判定結果が否定である場合、ステップS57の処理が実行される。
In step S56, the
ステップS57において、プロセッサ81は、各画素のうちから、後述のステップS58の処理対象となる1つの画素を指定する。なお、ステップS57においては、今回のステップS56~S59の処理ループにおいてまだ処理対象となっていない画素が指定される。ステップS57の次に、ステップS58の処理が実行される。
In step S57, the
ステップS58において、プロセッサ81は、ステップS57において指定された画素についてライトバッファへの書き込みを行う。すなわち、プロセッサ81は、環境光、および、ステップS45で設定された点光源に基づいて、当該画素における明るさの情報等を算出し、算出された情報をライトバッファに書き込む。なお、ステップS58における処理は、従来のディファードレンダリングにおける処理と同様であってよい。ステップS58の次に、ステップS59の処理が実行される。
In step S58, the
ステップS59において、プロセッサ81は、ステップS57において指定された画素について暗闇マスクの生成(すなわち、暗闇マスク値の設定)を行う。具体的には、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた方法に従って当該画素における暗闇マスク値を算出する。具体的には、ゲーム処理の開始時においてメモリには暗闇マスクのデータが記憶されており、プロセッサ81は、照射範囲が新たに設定されたことに応じて当該データを更新する。例えば、プロセッサ81は、上記ステップS28の処理によって解放イベントに基づく照射範囲が設定されている場合、上記2次元範囲データに基づいて暗闇マスクを更新する。また、上記ステップS7のメニュー表示処理が実行されるメニュー表示モードによってプレイヤキャラクタが光る服を装備している場合、プレイヤキャラクタの位置に基づくキャラクタ影響範囲内の位置に対応する画素が照射範囲となるように上記暗闇マスクを更新する。さらに、上記ステップS45の処理によって点光源が設定されている場合、光源アイテムの位置に基づくアイテム影響範囲内の位置に対応する画素が照射範囲となるように上記暗闇マスクを更新する。ステップS59の次に、ステップS56の処理が再度実行される。
In step S59,
ステップS60において、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた第3の段階における処理が完了したか否かを判定する。すなわち、フレームバッファにおける各画素への値の書き込みが完了したか否かを判定する。ステップS60の判定結果が肯定である場合、プロセッサ81は図27に示す描画処理を終了する。一方、ステップS60の判定結果が否定である場合、ステップS61の処理が実行される。
In step S60, the
ステップS61において、プロセッサ81は、各画素のうちから、後述のステップS62の処理対象となる1つの画素を指定する。なお、ステップS61においては、今回のステップS60~S62の処理ループにおいてまだ処理対象となっていない画素が指定される。ステップS61の次に、ステップS62の処理が実行される。
In step S61, the
ステップS62において、プロセッサ81は、ステップS61で指定された画素についての画素値を算出してフレームバッファに書き込む。すなわち、プロセッサ81は、各バッファ(すなわち、Gバッファ、深度バッファ、および、ライトバッファ)に書き込まれた情報および暗闇マスクに基づいて、上記“[2-3.画像生成処理]”で述べた方法に従って、当該画素における画素値を算出する。具体的には、プロセッサ81は、Gバッファ、深度バッファ、および、ライトバッファの情報に基づいて、光源による光の影響が反映された画素値を算出し、さらに、算出された画素値と、暗闇マスクにおける暗闇マスク値とに基づいて、暗闇を反映した画素値を算出する。これによって、光源による光の影響および暗闇が反映された画素値がフレームバッファに書き込まれることとなる。ステップS62の次に、ステップS60の処理が再度実行される。
At step S62, the
なお、上述したように、上記ステップS10の描画処理は、フォワードレンダリングに基づく方法で実行されてもよい。図28は、フォワードレンダリングに基づく方法で実行される描画処理の詳細な流れの一例を示すサブフローチャートである。ゲームシステム1は、ステップS10の描画処理として、図27に示す処理に代えて、図28に示す処理を実行してもよい。
Note that, as described above, the drawing process in step S10 may be performed by a method based on forward rendering. FIG. 28 is a sub-flowchart showing an example of a detailed flow of drawing processing executed by a method based on forward rendering. The
図28に示す描画処理においては、まずステップS71において、プロセッサ81は、描画対象となる各オブジェクト(例えば、仮想カメラの視野範囲内のオブジェクト)について描画が完了したか否かを判定する。ステップS71の判定結果が肯定である場合、プロセッサ81は、図28に示す描画処理を終了する。一方、ステップS71の判定結果が否定である場合、ステップS72の処理が実行される。
In the drawing process shown in FIG. 28, first, in step S71, the
ステップS72において、プロセッサ81は、描画対象となるオブジェクトのうちから、以降のステップS73~S81の処理対象となる1つのオブジェクトを指定する。なお、ステップS72においては、今回のステップS71~S81の処理ループにおいてまだ処理対象となっていないオブジェクトが指定される。ステップS72の次に、ステップS73の処理が実行される。
In step S72, the
ステップS73において、プロセッサ81は、ステップS72で指定されたオブジェクトが上述の対象外オブジェクトであるか否かを判定する。ステップS73の判定結果が肯定である場合、ステップS74の処理が実行される。一方、ステップS73の判定結果が否定である場合、ステップS75の処理が実行される。
In step S73, the
ステップS74において、プロセッサ81は、ステップS52で指定されたオブジェクトについて(すなわち、当該オブジェクトに対応する各画素について)、当該オブジェクトに予め設定される描画設定に基づいて描画を行う。これによって、当該オブジェクトが自発光オブジェクトである場合には、当該オブジェクト自身が光って見えるように描画されたり、当該オブジェクトが上記所定の種類のキャラクタである場合には、当該オブジェクトは陰が付されて見えるように描画されたりする。ステップS74の次に、上記ステップS71の処理が再度実行される。
In step S74, the
ステップS75において、プロセッサ81は、ステップS72で指定されたオブジェクトの各ポリゴンについて描画が完了したか否かを判定する。ステップS75の判定結果が肯定である場合、当該オブジェクトに関する描画が完了したこととなるので、上記ステップS71の処理が再度実行される。一方、ステップS75の判定結果が否定である場合、ステップS76の処理が実行される。
At step S75, the
ステップS76において、プロセッサ81は、ステップS72で指定されたオブジェクトの各ポリゴンのうち1つを指定する。なお、ステップS76においては、今回のステップS75~S81の処理ループにおいてまだ処理対象となっていないポリゴンが指定される。ステップS76の次に、ステップS77の処理が実行される。
At step S76, the
ステップS77において、プロセッサ81は、ステップS76で指定されたポリゴンに対応する各画素について描画が完了したか否かを判定する。ステップS77の判定結果が肯定である場合、当該ポリゴンに関する描画が完了したこととなるので、上記ステップS75の処理が再度実行される。一方、ステップS77の判定結果が否定である場合、ステップS78の処理が実行される。
At step S77, the
ステップS78において、プロセッサ81は、ステップS76で指定されたポリゴンに対応する各画素のうち1つを指定する。なお、ステップS78においては、今回のステップS77~S81の処理ループにおいてまだ処理対象となっていない画素が指定される。ステップS78の次に、ステップS79の処理が実行される。
At step S78, the
ステップS79において、プロセッサ81は、ステップS78で指定された画素に対応する位置(すなわち、フィールドにおける位置)が照射範囲内であるか否かを判定する。なお、図28に示す描画処理によって描画が行われる実施形態では、プロセッサ81は、上記ステップS28において解放イベントに基づく照射範囲を設定し、上記ステップS7のメニュー表示処理においてプレイヤキャラクタが光る服を装備した場合には、プレイヤキャラクタの位置に基づく照射範囲を設定し、上記ステップS45の処理において点光源が設定された場合には、光源アイテムの位置に基づく照射範囲を設定する。ステップS79の判定結果が肯定である場合、ステップS80の処理が実行される。一方、ステップS79の判定結果が否定である場合、ステップS81の処理が実行される。
In step S79, the
ステップS80において、プロセッサ81は、ステップS78で指定された画素について、フィールドに設定される光源(すなわち、環境光および/または点光源)を反映して描画を行う。具体的には、プロセッサ81は、当該画素に対応するポリゴンの法線の情報、当該画素に対応するポリゴンに設定される色の情報、および、フィールドに設定される光源の情報等に基づいて当該画素の画素値を算出してフレームバッファに書き込む。これによって、照射範囲内の位置に対応する画素については、光源を考慮して描画が行われることとなる。なお、ステップS80における処理は、従来のフォワードレンダリングに基づく描画処理と同様であってよい。ステップS80の次に、ステップS77の処理が再度実行される。
In step S80, the
一方、ステップS81において、プロセッサ81は、ステップS78で指定された画素について、黒色で描画を行う。これによって、照射範囲外の位置に対応する画素については黒色で描画されることとなる。ステップS81の次に、ステップS77の処理が再度実行される。
On the other hand, in step S81, the
なお、図28に示す描画処理においても図27に示す描画処理と同様、照射範囲内において照射範囲の境界に近づくにつれて次第に黒色が濃くなっていくように描画が行われてもよい。例えば、上記ステップS80において、プロセッサ81は、ステップS78で指定された画素について、上述の暗闇マスク値を算出し、光源による光の影響が反映された画素値と黒色とを、暗闇マスク値に応じた割合で合成することで当該画素の画素値を算出してもよい。
Note that in the drawing process shown in FIG. 28, similarly to the drawing process shown in FIG. 27, drawing may be performed such that black gradually becomes darker as the border of the irradiation range is approached within the irradiation range. For example, in step S80 above, the
[4.本実施形態の作用効果および変形例]
上記の実施形態におけるゲームプログラムは、情報処理装置(例えば、ゲーム装置2)のコンピュータ(例えば、プロセッサ81)に、次の処理を実行させる構成である。
・操作入力に基づいて、プレイヤキャラクタを仮想空間(上記実施形態においては、フィールド)内において制御するゲーム処理(ステップS32)
・ゲーム処理に基づいて所定のイベント(例えば、解放イベント)が発生した場合に、仮想空間内に設定された複数の地点(例えば、基準地点)のうち、発生したイベントに対応付けられる地点を第1の状態(例えば、未解放の状態)から第2の状態(例えば、解放された状態)へ遷移させる処理(ステップS25)
・地点に対応する位置において第1の基準値となり、当該位置からの距離に応じて減衰する第1判定値について、複数の地点のうち第2の状態となっている1つ以上の地点に基づく当該第1判定値を位置ごとに合計した合計判定値が所定値以上となる領域(上記実施形態においては、解放領域)を特定する処理(ステップS27)
・操作入力により行われるマップ表示指示に応じて、仮想空間のフィールド情報を示すマップ画像であって、上記領域に対応する部分のフィールド情報が示されたマップ画像を表示する処理(ステップS5)
[4. Effects and modifications of the present embodiment]
The game program in the above embodiment is configured to cause the computer (eg, processor 81) of the information processing device (eg, game device 2) to execute the following processes.
- Game processing for controlling the player character in the virtual space (the field in the above embodiment) based on the operation input (step S32)
・When a predetermined event (for example, a release event) occurs based on game processing, a point associated with the occurred event is selected as the first point among a plurality of points (for example, reference points) set in the virtual space. Processing for transitioning from state 1 (for example, unreleased state) to second state (for example, released state) (step S25)
・The first reference value at the position corresponding to the point, and the first judgment value that attenuates according to the distance from the position, is based on one or more points that are in the second state among the plurality of points A process of specifying an area (released area in the above embodiment) in which the total determination value obtained by summing the first determination values for each position is equal to or greater than a predetermined value (step S27)
A process of displaying a map image showing the field information of the virtual space in response to the map display instruction performed by the operation input, the map image indicating the field information of the portion corresponding to the area (step S5).
上記の構成によれば、解放されるマップ画像の範囲(すなわち、解放領域の範囲)を、複数のイベントの発生の有無に応じて変化させることができる。また、複数の上記地点のうちでどの地点が第2の状態となっているかによって、仮想空間の各位置における合計判定値が様々に変化するので、各地点における状態に応じて(すなわち、各地点におけるイベントの発生状況に応じて)解放領域を様々に変化させることができる。 According to the above configuration, the range of the map image to be released (that is, the range of the released area) can be changed according to the presence or absence of occurrence of a plurality of events. In addition, depending on which of the plurality of points is in the second state, the total judgment value at each position in the virtual space varies. The release area can be changed variously according to the event occurrence situation in ).
なお、解放領域を特定する処理は、上記実施形態においては、イベントが発生したタイミングで実行される(図25のステップS27参照)が、当該処理を実行するタイミングはこれに限らない。他の実施形態においては、解放領域を特定する処理は、マップ画像を生成する度に実行されてもよいし、イベント発生後において次にマップ画像を生成するタイミングで実行されてもよい。 In the above-described embodiment, the process of identifying the released area is executed at the timing when an event occurs (see step S27 in FIG. 25), but the timing of executing the process is not limited to this. In other embodiments, the process of identifying the released area may be executed each time a map image is generated, or may be executed at the timing of generating the next map image after the occurrence of an event.
上記所定のイベントは、上記実施形態においては、地点に対応して仮想空間内に設定されたイベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベントであり、具体的には、解放イベントであった。ここで、「イベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベント」とは、解放イベントに限らず、他のイベントであってもよい。例えば、上記所定のイベントは、仮想空間におけるイベント発生位置にプレイヤキャラクタが到達するイベント(この例において、プレイヤキャラクタをイベント発生位置に移動させる操作入力が、所定の操作に該当する)であってもよいし、仮想空間におけるイベント発生位置においてプレイヤキャラクタが特定のアイテムを使用するイベント(この例において、アイテムを使用させる操作入力が、所定の操作に該当する)であってもよい。また、他の実施形態においては、上記所定のイベントは、イベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベントに限らず、他の種類のイベント(例えば、所定の操作入力を条件としないイベント)であってもよい。 In the above-described embodiment, the predetermined event is an event that occurs when a predetermined operation input is performed when the player character is positioned at an event occurrence position set in the virtual space corresponding to the point, Specifically, it was a liberation event. Here, "an event that occurs when a predetermined operation input is performed when the player character is positioned at the event occurrence position" is not limited to the release event, and may be another event. For example, the predetermined event may be an event in which the player character reaches the event occurrence position in the virtual space (in this example, an operation input for moving the player character to the event occurrence position corresponds to the predetermined operation). Alternatively, the event may be an event in which the player character uses a specific item at the event occurrence position in the virtual space (in this example, the operation input for using the item corresponds to the predetermined operation). Further, in other embodiments, the predetermined event is not limited to an event that occurs when a predetermined operation input is performed when the player character is positioned at the event occurrence position, and other types of events (for example, It may be an event that does not require a predetermined operation input as a condition.
また、上記実施形態におけるゲームプログラムは、情報処理装置(例えば、ゲーム装置2)のコンピュータ(例えば、プロセッサ81)に、次の処理を実行させる構成であると言うこともできる。
・ゲーム処理に基づいて所定のイベント(例えば、照射イベント)が発生した場合に、仮想空間内に対象範囲(例えば、照射範囲)を設定する処理(ステップS28、ステップS59)
・仮想空間の描画を行う描画処理において、仮想空間内の少なくとも一部の地形オブジェクトについて、対象範囲に含まれる部分を、仮想空間内に設定された光源を反映して描画させ、対象範囲に含まれない部分を、所定の色によって描画する処理(ステップS62)
Further, it can be said that the game program in the above embodiment is configured to cause the computer (eg, processor 81) of the information processing device (eg, game device 2) to execute the following processing.
- Processing of setting a target range (eg, irradiation range) in the virtual space when a predetermined event (eg, irradiation event) occurs based on the game processing (steps S28 and S59)
・In the drawing process that draws the virtual space, for at least some terrain objects in the virtual space, the part included in the target range is drawn by reflecting the light source set in the virtual space, and the part included in the target range is drawn. A process of drawing a portion that cannot be drawn with a predetermined color (step S62)
上記の構成によれば、仮想空間における視認性の低い領域と視認性が確保された領域とをイベントの発生に応じて動的に変更することができる。これによって、フィールドのうちで視認可能な部分を、イベントを発生させることで増やしていくゲームを提供することができる。また、上記の構成によれば、対象範囲の部分については光源を反映して描画することで、視認しやすくすることができる一方、対象範囲外の部分については所定の色によって描画することで、当該部分を視認不可能または視認困難とすることができる。このように、上記の構成によれば、ゲームフィールドにおける領域の視認性を調整しやすくすることができる。 According to the above configuration, it is possible to dynamically change the area with low visibility and the area with secured visibility in the virtual space according to the occurrence of the event. As a result, it is possible to provide a game in which the visible portion of the field is increased by generating an event. In addition, according to the above configuration, the portion within the target range can be drawn by reflecting the light source to make it easier to see, while the portion outside the target range is drawn in a predetermined color, The portion can be invisible or difficult to see. Thus, according to the above configuration, it is possible to easily adjust the visibility of the area on the game field.
上記対象範囲を設定する処理は、3次元の仮想空間において範囲を設定する処理(例えば、上述したキャラクタ影響範囲およびアイテム影響範囲を仮想空間において設定する処理)であってもよいし、仮想空間に対応する2次元平面において範囲を設定する処理(例えば、上述のフィールド対応平面において2次元範囲データを生成する処理)であってもよい。また、対象範囲は、概念としては仮想空間における範囲を示すものであるが、対象範囲を示すデータは、仮想空間の位置に関するデータに限らず、仮想空間に対応する2次元平面上の位置に関するデータ(例えば、上記2次元範囲データ)であってもよいし、仮想空間に対応する画素平面上の位置に関するデータ(例えば、暗闇マスクのデータ)であってもよい。 The process of setting the target range may be a process of setting a range in a three-dimensional virtual space (for example, a process of setting the aforementioned character influence range and item influence range in the virtual space). It may be a process of setting a range on the corresponding two-dimensional plane (for example, a process of generating two-dimensional range data on the field-corresponding plane described above). In addition, although the target range conceptually indicates the range in the virtual space, the data indicating the target range is not limited to the data regarding the position in the virtual space, but the data regarding the position on the two-dimensional plane corresponding to the virtual space. (For example, the two-dimensional range data described above), or data on positions on a pixel plane corresponding to the virtual space (for example, darkness mask data).
上記「少なくとも一部の地形オブジェクト」とは、全ての地形オブジェクトについて対象範囲に応じて描画の方法を変化させる必要はない意図である。例えば、地形オブジェクトの一部は上述の対象外オブジェクトに設定されてもよい。 The above-mentioned "at least some of the terrain objects" means that it is not necessary to change the drawing method for all the terrain objects according to the target range. For example, some of the terrain objects may be set as non-target objects as described above.
上記実施形態においては、ゲームシステム1は、対象範囲に含まれない部分のオブジェクトを、黒色で描画するものとしたが、他の色で描画するようにしてもよい。他の色で描画する場合であっても当該部分を視認不可能または視認困難とすることができるので、上記実施形態と同様の効果を得ることができる。例えば、ゲームのストーリー上の設定において、霧がかかっているために視認不可能または視認困難とする領域については、ゲームシステム1は白色または灰色で描画するようにしてもよい。また、上記「所定の色」とは、描画を行う画素に対応するオブジェクトに設定される色とは独立して設定される色であり、単色である必要はない。対象範囲に含まれない部分に対応する複数の画素は、複数種類の所定の色によって模様が形成されるように描画されてもよい。
In the above embodiment, the
また、他の実施形態においては、ゲームシステム1は、対象範囲に含まれない部分のオブジェクトを、明るさを下げて描画する構成を採用してもよい。例えば、ゲームシステム1は、当該部分のオブジェクトを、光源が設定される場合における当該画素よりも明るさを下げて描画するようにしてもよい。具体的には、ゲームシステム1は、描画処理において、対象範囲に含まれない部分のオブジェクトに対応する画素について、光源による光の影響を反映した画素値から明るさを下げた画素値をフレームバッファに書き込むようにしてもよい。なお、明るさを下げる具体的な方法は任意であり、元の明るさ(すなわち、光源による光の影響を考慮したときの明るさ)を所定の割合で下げるようにしてもよいし、元の明るさを所定量だけ下げるようにしてもよいし、所定の基準以下となるように明るさを下げるようにしてもよい。上記の構成によっても、上記実施形態と同様の効果を得ることができる。
Further, in another embodiment, the
また、上記実施形態におけるゲームプログラムは、情報処理装置(例えば、ゲーム装置2)のコンピュータ(例えば、プロセッサ81)に、次の処理を実行させる構成であると言うこともできる。
・操作入力に基づいてプレイヤキャラクタを仮想空間内において制御するゲーム処理(ステップS32)
・ゲーム処理に基づいて所定のイベント(例えば、解放イベント)が発生した場合に、仮想空間内に設定された複数の地点(例えば、基準地点)のうち、発生したイベントに対応付けられる地点を第1の状態(例えば、未解放の状態)から第2の状態(例えば、解放された状態)へ遷移させる処理(ステップS25)
・複数の地点のうち第2の状態となっている地点を少なくとも含む領域(上記実施形態においては、解放領域)を特定する処理(ステップS27)
・仮想空間内の少なくとも一部の地形オブジェクトについて、上記領域の少なくとも一部を含む対象範囲(例えば、照射範囲)に含まれない部分を、所定の色によって描画する描画処理(ステップS62)
・操作入力により行われるマップ表示指示に応じて、仮想空間のフィールド情報を示すマップ画像であって、解放領域に対応する部分のフィールド情報が示されたマップ画像を表示する処理(ステップS5)
Further, it can be said that the game program in the above embodiment is configured to cause the computer (eg, processor 81) of the information processing device (eg, game device 2) to execute the following processing.
・Game processing for controlling the player character in the virtual space based on the operation input (step S32)
・When a predetermined event (for example, a release event) occurs based on game processing, a point associated with the occurred event is selected as the first point among a plurality of points (for example, reference points) set in the virtual space. Processing for transitioning from state 1 (for example, unreleased state) to second state (for example, released state) (step S25)
A process of specifying an area (released area in the above embodiment) that includes at least a point in the second state among a plurality of points (step S27)
Rendering processing for rendering, in a predetermined color, a portion of at least a portion of the terrain object in the virtual space that is not included in the target range (for example, irradiation range) that includes at least a portion of the area (step S62)
A process of displaying a map image showing the field information of the virtual space in response to the map display instruction performed by the operation input, the map image showing the field information of the portion corresponding to the release area (step S5)
上記の構成によれば、マップ画像においてフィールド情報が示されない領域の変化に応じて、仮想空間において視認性が確保される範囲(すなわち、上記対象範囲)を変化させることができる。すなわち、マップ画像において新たにフィールド情報が示されるようになった解放領域について、視認性が確保される表示態様で仮想空間が表示されるようにすることができる。また、上記の構成によれば、イベントの発生に応じて、仮想空間において視認性が確保される範囲が拡がるとともに、マップ画像においてフィールド情報が示される領域も拡がるので、イベントを発生させることで探索範囲を拡げていくというゲーム性が十分に発揮されるゲームを提供することができる。 According to the above configuration, it is possible to change the range in which visibility is ensured in the virtual space (that is, the target range) according to the change in the area where the field information is not shown in the map image. That is, it is possible to display the virtual space in a display mode that ensures visibility for the released area in which the field information is newly indicated in the map image. Further, according to the above configuration, the range in which the visibility is ensured in the virtual space is expanded in accordance with the occurrence of the event, and the region in which the field information is indicated in the map image is also expanded. It is possible to provide a game that fully exhibits the game property of expanding the range.
なお、他の実施形態においては、上記の構成における描画処理において、ゲームシステム1は、対象範囲に含まれない部分を所定の色によって描画することに代えて、対象範囲に含まれない部分を、対象範囲に含まれる部分より暗く描画するようにしてもよい。具体的には、ゲームシステム1は、描画処理において、光源による光の影響を反映した画素値に対して、明るさを所定の方法で低下させた画素値をフレームバッファに書き込むようにしてもよい。所定の方法は、例えば、元の明るさを所定の割合で(または所定値だけ)低下させる方法であってもよいし、所定の基準以下の明るさとなるように明るさを変更する方法であってもよい。
In another embodiment, in the drawing process in the above configuration, the
上記実施形態においては、ゲームシステム1は、上記対象範囲として、(a)複数の地点のうち第2の状態となっている1つ以上の地点に基づく1つ以上の判定値を少なくとも合計した合計判定値が所定値以上となる位置からなる範囲内であり、かつ、(b)地点に対応する2次元的な位置からの2次元的な距離がしきい値以下となる範囲(すなわち、解放領域の範囲内であり、かつ、地点影響範囲内となる範囲)を設定する。これによれば、仮想空間において視認性が確保される範囲が大きくなりすぎることを抑制することができるので、イベントを発生させることで探索範囲を拡げていくというゲーム性が失われる可能性を低減することができる。
In the above-described embodiment, the
なお、上記の実施形態において、ある情報処理装置においてデータ(プログラムを含む意味である)を用いて処理が実行される場合、当該処理に必要なデータの一部が、当該ある情報処理装置とは異なる他の情報処理装置から送信されてもよい。このとき、当該ある情報処理装置は、他の情報処理装置から受信されたデータと、自身に記憶されているデータとを用いて上記処理を実行してもよい。 In the above embodiment, when a process is executed using data (meaning including a program) in a certain information processing apparatus, part of the data necessary for the process is It may be transmitted from a different information processing device. At this time, the certain information processing device may perform the above process using data received from the other information processing device and data stored in itself.
なお、他の実施形態において、情報処理システムは、上記実施形態における構成の一部を備えていなくてもよいし、上記実施形態において実行される処理の一部を実行しなくてもよい。例えば、情報処理システムは、上記実施形態における一部の特定の効果を奏するためには、当該効果を奏するための構成を備え、当該効果を奏するための処理を実行すればよく、その他の構成を備えていなくてもよいし、その他の処理を実行しなくてもよい。 Note that in other embodiments, the information processing system may not include part of the configuration in the above embodiments, or may not perform part of the processes performed in the above embodiments. For example, in order to achieve a part of the specific effects of the above-described embodiments, the information processing system may be provided with a configuration for achieving the above effects, and may execute processing for achieving the above effects. It does not have to be provided, and no other processing need be performed.
上記実施形態は、仮想空間における視認性の低い領域と視認性が確保された領域とをイベントの発生に応じて動的に変更すること等を目的として、例えば、ゲームシステムやゲームプログラムとして利用することが可能である。 The above-described embodiment is used, for example, as a game system or a game program for the purpose of dynamically changing a low-visibility area and a high-visibility area in a virtual space according to the occurrence of an event. Is possible.
1 ゲームシステム
2 本体装置
81 プロセッサ
201 プレイヤキャラクタ
202 基準地点
203 目印オブジェクト
1
Claims (36)
ゲーム処理に基づいて所定のイベントが発生した場合に、仮想空間内に対象範囲を設定させ、
前記仮想空間の描画を行う描画処理において、前記仮想空間内の少なくとも一部の地形オブジェクトについて、前記対象範囲に含まれる部分を、前記仮想空間内に設定された光源を反映して描画させ、前記対象範囲に含まれない部分を、所定の色によって、または、明るさを下げて描画させる、
ゲームプログラム。 In the computer of the information processing equipment,
setting a target range in a virtual space when a predetermined event occurs based on game processing;
In the drawing process for drawing the virtual space, for at least a part of the terrain object in the virtual space, a portion included in the target range is drawn by reflecting a light source set in the virtual space; Make the part not included in the target range be drawn with a predetermined color or with reduced brightness,
game program.
前記少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が前記対象範囲に含まれるか否かを少なくとも示すマスクデータを生成させ、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれることが示される画素については、前記光源を反映してフレームバッファへの描画を行わせ、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれないことが示される画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行わせる、
請求項1に記載のゲームプログラム。 The computer, in the drawing process,
generating, for each pixel, at least mask data indicating whether or not a position corresponding to the pixel of the terrain object is included in the target range with respect to the at least part of the terrain object;
rendering to a frame buffer reflecting the light source the pixels for which the position of the at least part of the terrain object is included in the target range in the mask data;
Pixels for which the position of the at least part of the terrain object is not included in the target range in the mask data are drawn in the frame buffer with the predetermined color or with reduced brightness. let
The game program according to claim 1.
前記コンピュータに、前記描画処理において、
第1の段階において、前記仮想空間内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行わせ、
第2の段階において、画素ごとに、当該画素に対応する位置と、前記深度バッファに記憶された深度値と、前記対象範囲とに基づいて、前記マスクデータを生成させ、
第3の段階において、少なくとも前記Gバッファに記憶されるデータと、前記マスクデータとに基づいて前記フレームバッファへの描画を行わせる、
請求項2に記載のゲームプログラム。 The drawing process is a drawing process based on deferred rendering,
The computer, in the drawing process,
In a first step, writing to a G-buffer and a depth buffer for at least some terrain objects in the virtual space;
In a second step, for each pixel, generating the mask data based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the target range;
In a third step, drawing to the frame buffer is performed based on at least the data stored in the G buffer and the mask data;
3. A game program according to claim 2.
前記第1の段階において、所定のオブジェクトについて、前記Gバッファおよび前記深度バッファへの書き込みを画素ごとに行わせるとともに、当該オブジェクトに対応する画素について前記マスクデータの適用を除外することを示す除外マスクデータを生成させ、
前記第3の段階において、前記除外マスクデータが示す画素について、前記少なくとも一部の地形オブジェクトのうち前記対象範囲に含まれない部分と前記所定のオブジェクトとを区別して視認することができる方法で描画を行わせる、
請求項3に記載のゲームプログラム。 The computer further comprises, in the drawing process,
In the first stage, an exclusion mask indicating that writing to the G buffer and the depth buffer is performed for each pixel for a predetermined object, and that the pixels corresponding to the object are excluded from application of the mask data. generate data,
In the third step, the pixels indicated by the exclusion mask data are rendered by a method that allows the predetermined object and the portion of the at least part of the terrain object that is not included in the target range to be visually distinguished from the predetermined object. to do
4. A game program according to claim 3.
前記コンピュータに、前記描画処理において、
前記光源を反映して算出される画素値に対して、前記度合いに応じて前記所定の色を合成した画素値、または、当該度合いに応じて明るさを下げた画素値を前記フレームバッファに書き込ませる、
請求項2に記載のゲームプログラム。 The mask data is data indicating the degree to which the predetermined color is rendered or the degree to which the brightness is reduced for each pixel,
The computer, in the drawing process,
A pixel value obtained by synthesizing the predetermined color according to the degree or a pixel value having brightness lowered according to the degree is written to the frame buffer with respect to the pixel value calculated by reflecting the light source. let
3. A game program according to claim 2.
請求項1に記載のゲームプログラム。 In the virtual space, at least a light source is set as the light source, and a predetermined brightness is set regardless of the position in the virtual space.
The game program according to claim 1.
前記所定のイベントの発生に応じて、前記対象範囲の基準となる点を前記仮想空間内に設定させ、
前記基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように前記対象範囲を設定させる、
請求項1から請求項6のいずれか1項に記載のゲームプログラム。 to the computer;
setting a reference point for the target range in the virtual space in response to the occurrence of the predetermined event;
Based on the distance from the reference point, setting the target range so as to include a range in which the distance is less than or equal to a threshold;
A game program according to any one of claims 1 to 6.
前記所定のイベントの発生に応じて前記基準となる点が設定された後、前記しきい値を時間経過に応じて増加させることで前記対象範囲を拡大させる、
請求項7に記載のゲームプログラム。 to the computer;
After the reference point is set according to the occurrence of the predetermined event, the target range is expanded by increasing the threshold over time.
The game program according to claim 7.
前記所定のイベントの発生に応じてさらに点光源を前記仮想空間内に設置させる、
請求項7に記載のゲームプログラム。 to the computer;
further installing a point light source in the virtual space in response to the occurrence of the predetermined event;
The game program according to claim 7.
前記コンピュータに、
前記所定のアイテムが配置された位置に基づいて、前記基準となる点の位置を設定させる、
請求項7に記載のゲームプログラム。 the event is an event in which a predetermined item is arranged in the virtual space;
to the computer;
setting the position of the reference point based on the position where the predetermined item is arranged;
The game program according to claim 7.
操作入力に基づいて前記仮想空間内におけるプレイヤキャラクタの制御を行わせ、
前記所定のイベントは、操作入力に基づいて、前記プレイヤキャラクタの周囲が前記対象範囲となるイベントであり、
前記コンピュータにさらに、
前記プレイヤキャラクタの位置を、前記基準となる点の位置として設定させる、
請求項7に記載のゲームプログラム。 The computer further comprises:
controlling the player character in the virtual space based on the operation input;
The predetermined event is an event in which the surroundings of the player character become the target range based on the operation input,
The computer further comprises:
setting the position of the player character as the position of the reference point;
The game program according to claim 7.
操作入力に基づいて前記仮想空間内におけるプレイヤキャラクタの制御を行わせ、
前記イベントは、前記仮想空間内に設定されたイベント発生位置に前記プレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベントであって、
前記コンピュータにさらに、
前記イベントの発生に応じて、前記仮想空間における前記対象範囲を平面的に示す2次元範囲データを、前記仮想空間のうち前記イベント発生位置に対応する範囲が少なくとも前記対象範囲となるよう更新させ、
前記2次元範囲データにさらに基づいて前記マスクデータを生成させる、
請求項2から請求項6のいずれか1項に記載のゲームプログラム。 The computer further comprises:
controlling the player character in the virtual space based on the operation input;
The event is an event that occurs when a predetermined operation input is performed when the player character is positioned at an event occurrence position set in the virtual space,
The computer further comprises:
updating two-dimensional range data two-dimensionally indicating the target range in the virtual space in response to the occurrence of the event so that at least a range corresponding to the event occurrence position in the virtual space is the target range;
generating the mask data further based on the two-dimensional range data;
A game program according to any one of claims 2 to 6.
前記少なくとも一部の地形オブジェクトに関して、前記対象範囲に含まれるか否かを画素ごとに判定させ、
前記対象範囲に含まれる画素については、前記光源を反映してフレームバッファへの描画を行わせ、
前記対象範囲に含まれない画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行わせる、
請求項1に記載のゲームプログラム。 The computer, in the drawing process,
Determining for each pixel whether or not the at least part of the terrain object is included in the target range;
causing pixels included in the target range to be drawn in a frame buffer by reflecting the light source;
Pixels not included in the target range are drawn in the frame buffer with the predetermined color or with reduced brightness.
The game program according to claim 1.
前記少なくとも1つの情報処理装置の少なくともいずれかのプロセッサは、
ゲーム処理に基づいて所定のイベントが発生した場合に、仮想空間内に対象範囲を設定し、
前記仮想空間の描画を行う描画処理において、前記仮想空間内の少なくとも一部の地形オブジェクトについて、前記対象範囲に含まれる部分を、前記仮想空間内に設定された光源を反映して描画し、前記対象範囲に含まれない部分を、所定の色によって、または、明るさを下げて描画する、
情報処理システム。 comprising at least one information processing device comprising a processor;
At least one processor of the at least one information processing device,
When a predetermined event occurs based on game processing, a target range is set in the virtual space,
In the drawing process for drawing the virtual space, for at least a part of the terrain object in the virtual space, a portion included in the target range is drawn by reflecting a light source set in the virtual space; Draw the parts that are not included in the target area with a predetermined color or with reduced brightness,
Information processing system.
前記少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が前記対象範囲に含まれるか否かを少なくとも示すマスクデータを生成し、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれることが示される画素については、前記光源を反映してフレームバッファへの描画を行い、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれないことが示される画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項14に記載の情報処理システム。 at least one of the processors
generating, for each pixel, at least mask data indicating whether or not a position corresponding to the pixel of the terrain object is included in the target range, with respect to the at least part of the terrain object;
drawing to a frame buffer reflecting the light source for pixels for which the position of the at least part of the terrain object is included in the target range in the mask data;
Pixels for which the position of the at least part of the terrain object is not included in the target range in the mask data are drawn in the frame buffer with the predetermined color or with reduced brightness. ,
The information processing system according to claim 14.
前記少なくともいずれかのプロセッサは、前記描画処理において、
第1の段階において、前記仮想空間内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行い、
第2の段階において、画素ごとに、当該画素に対応する位置と、前記深度バッファに記憶された深度値と、前記対象範囲とに基づいて、前記マスクデータを生成し、
第3の段階において、少なくとも前記Gバッファに記憶されるデータと、前記マスクデータとに基づいて前記フレームバッファへの描画を行う、
請求項15に記載の情報処理システム。 The drawing process is a drawing process based on deferred rendering,
At least one of the processors, in the drawing process,
In a first step, writing to a G-buffer and a depth buffer for at least some terrain objects in said virtual space;
In a second step, for each pixel, generating the mask data based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the target range;
In a third stage, drawing to the frame buffer is performed based on at least the data stored in the G buffer and the mask data;
The information processing system according to claim 15.
前記第1の段階において、所定のオブジェクトについて、前記Gバッファおよび前記深度バッファへの書き込みを画素ごとに行うとともに、当該オブジェクトに対応する画素について前記マスクデータの適用を除外することを示す除外マスクデータを生成し、
前記第3の段階において、前記除外マスクデータが示す画素について、前記少なくとも一部の地形オブジェクトのうち前記対象範囲に含まれない部分と前記所定のオブジェクトとを区別して視認することができる方法で描画を行う、
請求項16に記載の情報処理システム。 At least one of the processors, in the drawing process,
In the first step, for each pixel of a predetermined object, writing to the G buffer and the depth buffer is performed, and exclusion mask data indicating that the pixels corresponding to the object are excluded from application of the mask data. to generate
In the third step, the pixels indicated by the exclusion mask data are rendered by a method that allows the predetermined object and the portion of the at least part of the terrain object that is not included in the target range to be visually distinguished from the predetermined object. I do,
The information processing system according to claim 16.
前記少なくともいずれかのプロセッサは、前記描画処理において、
前記光源を反映して算出される画素値に対して、前記度合いに応じて前記所定の色を合成した画素値、または、当該度合いに応じて明るさを下げた画素値を前記フレームバッファに書き込む、
請求項15に記載の情報処理システム。 The mask data is data indicating the degree to which the predetermined color is rendered or the degree to which the brightness is reduced for each pixel,
At least one of the processors, in the drawing process,
A pixel value obtained by synthesizing the predetermined color according to the degree, or a pixel value whose brightness is lowered according to the degree, with respect to the pixel value calculated by reflecting the light source is written to the frame buffer. ,
The information processing system according to claim 15.
請求項14に記載の情報処理システム。 In the virtual space, at least a light source is set as the light source, and a predetermined brightness is set regardless of the position in the virtual space.
The information processing system according to claim 14.
前記所定のイベントの発生に応じて、前記対象範囲の基準となる点を前記仮想空間内に設定し、
前記基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように前記対象範囲を設定する、
請求項14から請求項19のいずれか1項に記載の情報処理システム。 at least one of the processors
setting a reference point for the target range in the virtual space in response to the occurrence of the predetermined event;
Based on the distance from the reference point, the target range is set so as to include a range in which the distance is equal to or less than a threshold.
The information processing system according to any one of claims 14 to 19.
前記所定のイベントの発生に応じて前記基準となる点が設定された後、前記しきい値を時間経過に応じて増加させることで前記対象範囲を拡大する、
請求項20に記載の情報処理システム。 at least one of the processors
After the reference point is set according to the occurrence of the predetermined event, the target range is expanded by increasing the threshold over time.
The information processing system according to claim 20.
前記所定のイベントの発生に応じてさらに点光源を前記仮想空間内に設置する、
請求項20に記載の情報処理システム。 at least one of the processors
further installing a point light source in the virtual space in response to the occurrence of the predetermined event;
The information processing system according to claim 20.
前記少なくともいずれかのプロセッサは、
前記所定のアイテムが配置された位置に基づいて、前記基準となる点の位置を設定する、
請求項20に記載の情報処理システム。 the event is an event in which a predetermined item is arranged in the virtual space;
at least one of the processors
setting the position of the reference point based on the position where the predetermined item is arranged;
The information processing system according to claim 20.
操作入力に基づいて前記仮想空間内におけるプレイヤキャラクタの制御を行い、
前記所定のイベントは、操作入力に基づいて、前記プレイヤキャラクタの周囲が前記対象範囲となるイベントであり、
前記少なくともいずれかのプロセッサは、
前記プレイヤキャラクタの位置を、前記基準となる点の位置として設定する、
請求項20に記載の情報処理システム。 at least one of the processors
controlling the player character in the virtual space based on the operation input;
The predetermined event is an event in which the surroundings of the player character become the target range based on the operation input,
at least one of the processors
setting the position of the player character as the position of the reference point;
The information processing system according to claim 20.
操作入力に基づいて前記仮想空間内におけるプレイヤキャラクタの制御を行い、
前記イベントは、前記仮想空間内に設定されたイベント発生位置に前記プレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベントであって、
前記少なくともいずれかのプロセッサは、
前記イベントの発生に応じて、前記仮想空間における前記対象範囲を平面的に示す2次元範囲データを、前記仮想空間のうち前記イベント発生位置に対応する範囲が少なくとも前記対象範囲となるよう更新し、
前記2次元範囲データにさらに基づいて前記マスクデータを生成する、
請求項15から請求項19のいずれか1項に記載の情報処理システム。 at least one of the processors
controlling the player character in the virtual space based on the operation input;
The event is an event that occurs when a predetermined operation input is performed when the player character is positioned at an event occurrence position set in the virtual space,
at least one of the processors
updating two-dimensional range data two-dimensionally indicating the target range in the virtual space in response to the occurrence of the event so that at least a range corresponding to the event occurrence position in the virtual space is the target range;
generating the mask data further based on the two-dimensional range data;
The information processing system according to any one of claims 15 to 19.
前記少なくとも一部の地形オブジェクトに関して、前記対象範囲に含まれるか否かを画素ごとに判定し、
前記対象範囲に含まれる画素については、前記光源を反映してフレームバッファへの描画を行い、
前記対象範囲に含まれない画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項14に記載の情報処理システム。 At least one of the processors, in the drawing process,
determining for each pixel whether or not the at least part of the terrain object is included in the target range;
For pixels included in the target range, drawing to a frame buffer reflecting the light source,
Pixels not included in the target range are drawn in the frame buffer with the predetermined color or with reduced brightness.
The information processing system according to claim 14.
前記プロセッサは、
ゲーム処理に基づいて所定のイベントが発生した場合に、仮想空間内に対象範囲を設定し、
前記仮想空間の描画を行う描画処理において、前記仮想空間内の少なくとも一部の地形オブジェクトについて、前記対象範囲に含まれる部分を、前記仮想空間内に設定された光源を反映して描画し、前記対象範囲に含まれない部分を、所定の色によって、または、明るさを下げて描画する、
情報処理装置。 with a processor
The processor
When a predetermined event occurs based on game processing, a target range is set in the virtual space,
In the drawing process for drawing the virtual space, for at least a part of the terrain object in the virtual space, a portion included in the target range is drawn by reflecting a light source set in the virtual space; Draw the parts that are not included in the target area with a predetermined color or with reduced brightness,
Information processing equipment.
前記少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が前記対象範囲に含まれるか否かを少なくとも示すマスクデータを生成し、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれることが示される画素については、前記光源を反映してフレームバッファへの描画を行い、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれないことが示される画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項27に記載の情報処理装置。 The processor, in the drawing process,
generating, for each pixel, at least mask data indicating whether or not a position corresponding to the pixel of the terrain object is included in the target range, with respect to the at least part of the terrain object;
drawing to a frame buffer reflecting the light source for pixels for which the position of the at least part of the terrain object is included in the target range in the mask data;
Pixels for which the position of the at least part of the terrain object is not included in the target range in the mask data are drawn in the frame buffer with the predetermined color or with reduced brightness. ,
The information processing apparatus according to claim 27.
前記プロセッサは、前記描画処理において、
第1の段階において、前記仮想空間内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行い、
第2の段階において、画素ごとに、当該画素に対応する位置と、前記深度バッファに記憶された深度値と、前記対象範囲とに基づいて、前記マスクデータを生成し、
第3の段階において、少なくとも前記Gバッファに記憶されるデータと、前記マスクデータとに基づいて前記フレームバッファへの描画を行う、
請求項28に記載の情報処理装置。 The drawing process is a drawing process based on deferred rendering,
The processor, in the drawing process,
In a first step, writing to a G-buffer and a depth buffer for at least some terrain objects in said virtual space;
In a second step, for each pixel, generating the mask data based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the target range;
In a third stage, drawing to the frame buffer is performed based on at least the data stored in the G buffer and the mask data;
The information processing apparatus according to claim 28.
前記第1の段階において、所定のオブジェクトについて、前記Gバッファおよび前記深度バッファへの書き込みを画素ごとに行うとともに、当該オブジェクトに対応する画素について前記マスクデータの適用を除外することを示す除外マスクデータを生成し、
前記第3の段階において、前記除外マスクデータが示す画素について、前記少なくとも一部の地形オブジェクトのうち前記対象範囲に含まれない部分と前記所定のオブジェクトとを区別して視認することができる方法で描画を行う、
請求項29に記載の情報処理装置。 The processor, in the drawing process,
In the first step, for each pixel of a predetermined object, writing to the G buffer and the depth buffer is performed, and exclusion mask data indicating that the pixels corresponding to the object are excluded from application of the mask data. to generate
In the third step, the pixels indicated by the exclusion mask data are rendered by a method that allows the predetermined object and the portion of the at least part of the terrain object that is not included in the target range to be visually distinguished from the predetermined object. I do,
The information processing apparatus according to claim 29.
前記少なくとも一部の地形オブジェクトに関して、前記対象範囲に含まれるか否かを画素ごとに判定し、
前記対象範囲に含まれる画素については、前記光源を反映してフレームバッファへの描画を行い、
前記対象範囲に含まれない画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項27に記載の情報処理装置。 The processor, in the drawing process,
determining for each pixel whether or not the at least part of the terrain object is included in the target range;
For pixels included in the target range, drawing to a frame buffer reflecting the light source,
Pixels not included in the target range are drawn in the frame buffer with the predetermined color or with reduced brightness.
The information processing apparatus according to claim 27.
前記情報処理システムは、
ゲーム処理に基づいて所定のイベントが発生した場合に、仮想空間内に対象範囲を設定し、
前記仮想空間の描画を行う描画処理において、前記仮想空間内の少なくとも一部の地形オブジェクトについて、前記対象範囲に含まれる部分を、前記仮想空間内に設定された光源を反映して描画し、前記対象範囲に含まれない部分を、所定の色によって、または、明るさを下げて描画する、
ゲーム処理方法。 A game processing method executed by an information processing system, comprising:
The information processing system is
When a predetermined event occurs based on game processing, a target range is set in the virtual space,
In the drawing process for drawing the virtual space, for at least a part of the terrain object in the virtual space, a portion included in the target range is drawn by reflecting a light source set in the virtual space; Draw the parts that are not included in the target area with a predetermined color or with reduced brightness,
Game processing method.
前記少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が前記対象範囲に含まれるか否かを少なくとも示すマスクデータを生成し、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれることが示される画素については、前記光源を反映してフレームバッファへの描画を行い、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれないことが示される画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項32に記載のゲーム処理方法。 The information processing system, in the drawing process,
generating, for each pixel, at least mask data indicating whether or not a position corresponding to the pixel of the terrain object is included in the target range, with respect to the at least part of the terrain object;
drawing to a frame buffer reflecting the light source for pixels for which the position of the at least part of the terrain object is included in the target range in the mask data;
Pixels for which the position of the at least part of the terrain object is not included in the target range in the mask data are drawn in the frame buffer with the predetermined color or with reduced brightness. ,
33. A game processing method according to claim 32.
前記情報処理システムは、前記描画処理において、
第1の段階において、前記仮想空間内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行い、
第2の段階において、画素ごとに、当該画素に対応する位置と、前記深度バッファに記憶された深度値と、前記対象範囲とに基づいて、前記マスクデータを生成し、
第3の段階において、少なくとも前記Gバッファに記憶されるデータと、前記マスクデータとに基づいて前記フレームバッファへの描画を行う、
請求項33に記載のゲーム処理方法。 The drawing process is a drawing process based on deferred rendering,
The information processing system, in the drawing process,
In a first step, writing to a G-buffer and a depth buffer for at least some terrain objects in said virtual space;
In a second step, for each pixel, generating the mask data based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the target range;
In a third stage, drawing to the frame buffer is performed based on at least the data stored in the G buffer and the mask data;
34. A game processing method according to claim 33.
前記第1の段階において、所定のオブジェクトについて、前記Gバッファおよび前記深度バッファへの書き込みを画素ごとに行うとともに、当該オブジェクトに対応する画素について前記マスクデータの適用を除外することを示す除外マスクデータを生成し、
前記第3の段階において、前記除外マスクデータが示す画素について、前記少なくとも一部の地形オブジェクトのうち前記対象範囲に含まれない部分と前記所定のオブジェクトとを区別して視認することができる方法で描画を行う、
請求項34に記載のゲーム処理方法。 The information processing system, in the drawing process,
In the first step, for each pixel of a predetermined object, writing to the G buffer and the depth buffer is performed, and exclusion mask data indicating that the pixels corresponding to the object are excluded from application of the mask data. to generate
In the third step, the pixels indicated by the exclusion mask data are rendered by a method that allows the predetermined object and the portion of the at least part of the terrain object that is not included in the target range to be visually distinguished from the predetermined object. I do,
35. A game processing method according to claim 34.
前記少なくとも一部の地形オブジェクトに関して、前記対象範囲に含まれるか否かを画素ごとに判定し、
前記対象範囲に含まれる画素については、前記光源を反映してフレームバッファへの描画を行い、
前記対象範囲に含まれない画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項32に記載のゲーム処理方法。
The information processing system, in the drawing process,
determining for each pixel whether or not the at least part of the terrain object is included in the target range;
For pixels included in the target range, drawing to a frame buffer reflecting the light source,
Pixels not included in the target range are drawn in the frame buffer with the predetermined color or with reduced brightness.
33. A game processing method according to claim 32.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022167796A JP7530949B2 (en) | 2022-10-19 | 2022-10-19 | GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO |
US18/332,218 US20240226741A9 (en) | 2022-10-19 | 2023-06-09 | Storage medium, information processing system, information processing device, and game processing method |
US18/332,277 US20240226742A9 (en) | 2022-10-19 | 2023-06-09 | Storage medium, information processing system, information processing device, and game processing method |
US18/332,343 US20240226743A9 (en) | 2022-10-19 | 2023-06-09 | Storage medium, information processing system, information processing device, and game processing method |
EP23179824.0A EP4356989A1 (en) | 2022-10-19 | 2023-06-16 | Game program, information processing system and game processing method |
EP23179806.7A EP4356988A1 (en) | 2022-10-19 | 2023-06-16 | Game program, information processing system and game processing method |
EP23179795.2A EP4356987A1 (en) | 2022-10-19 | 2023-06-16 | Game program, information processing system and game processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022167796A JP7530949B2 (en) | 2022-10-19 | 2022-10-19 | GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023098604A true JP2023098604A (en) | 2023-07-10 |
JP7530949B2 JP7530949B2 (en) | 2024-08-08 |
Family
ID=87071949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022167796A Active JP7530949B2 (en) | 2022-10-19 | 2022-10-19 | GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7530949B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4563070B2 (en) | 2004-04-26 | 2010-10-13 | 任天堂株式会社 | GAME DEVICE AND GAME PROGRAM |
JP4591929B2 (en) | 2006-12-15 | 2010-12-01 | 株式会社スクウェア・エニックス | GAME DEVICE, GAME PROGRESSING METHOD, PROGRAM, AND RECORDING MEDIUM |
JP5072944B2 (en) | 2009-12-01 | 2012-11-14 | 株式会社スクウェア・エニックス | User interface processing device, user interface processing method, and user interface processing program |
-
2022
- 2022-10-19 JP JP2022167796A patent/JP7530949B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7530949B2 (en) | 2024-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3398666B1 (en) | Game apparatus, processing method, and information storage medium | |
US7884822B2 (en) | Game apparatus, storage medium storing a game program, and game controlling method | |
JP2010042090A (en) | Program, information storage medium and game device | |
US20180253891A1 (en) | Storage medium, image processing system, image processing apparatus and image processing method | |
JP5576061B2 (en) | Program and game device | |
KR101036056B1 (en) | Video image generating device, character appearance changing method, and information recording medium for recording the program | |
WO2015025442A1 (en) | Information processing device and information processing method | |
JP6106393B2 (en) | Program, game device, and server | |
JP2005310020A (en) | Apparatus and program for generating three-dimensional image | |
JP5210547B2 (en) | Movement control program and movement control apparatus | |
JP2006268676A (en) | Program, information storage medium and image generation system | |
KR20070107776A (en) | Game device, game control method, information recording medium, and program | |
JP5677050B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP2023098604A (en) | Game program, information processing system, information processing device, and game processing method | |
JP7565993B2 (en) | GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO | |
JP7462010B2 (en) | GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD | |
JP2023098606A (en) | Game program, information processing system, information processing device, and game processing method | |
EP4356989A1 (en) | Game program, information processing system and game processing method | |
JP7519481B2 (en) | GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD | |
JP4773153B2 (en) | GAME PROGRAM AND GAME DEVICE | |
US10748349B2 (en) | Storage medium, image-processing system, image-processing device, and image-processing method | |
CN114177616A (en) | Virtual item release method, device, equipment and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230522 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240717 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7530949 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |