JP2023098604A - Game program, information processing system, information processing device, and game processing method - Google Patents

Game program, information processing system, information processing device, and game processing method Download PDF

Info

Publication number
JP2023098604A
JP2023098604A JP2022167796A JP2022167796A JP2023098604A JP 2023098604 A JP2023098604 A JP 2023098604A JP 2022167796 A JP2022167796 A JP 2022167796A JP 2022167796 A JP2022167796 A JP 2022167796A JP 2023098604 A JP2023098604 A JP 2023098604A
Authority
JP
Japan
Prior art keywords
target range
virtual space
event
predetermined
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022167796A
Other languages
Japanese (ja)
Other versions
JP7530949B2 (en
Inventor
卓宏 堂田
Takahiro Doda
淳 朝倉
Atsushi Asakura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2022167796A priority Critical patent/JP7530949B2/en
Priority to US18/332,343 priority patent/US20240226743A9/en
Priority to US18/332,218 priority patent/US20240226741A9/en
Priority to US18/332,277 priority patent/US20240226742A9/en
Priority to EP23179824.0A priority patent/EP4356989A1/en
Priority to EP23179806.7A priority patent/EP4356988A1/en
Priority to EP23179795.2A priority patent/EP4356987A1/en
Publication of JP2023098604A publication Critical patent/JP2023098604A/en
Application granted granted Critical
Publication of JP7530949B2 publication Critical patent/JP7530949B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To dynamically change a region with low visibility in a virtual space and a region whose visibility is secured according to an occurrence of an event.SOLUTION: An information processing system sets an object range in a virtual space when a predetermined event occurs on the basis of game processing. In drawing processing for drawing the virtual space, the information processing system draws a portion included in the object range reflecting a light source set in the virtual space, and draws a portion not included in the object range in a predetermined color or at low brightness for at least partial topographic objects in the virtual space.SELECTED DRAWING: Figure 17

Description

本発明は、仮想空間を描画するためのゲームプログラム、情報処理システム、情報処理装置、および、ゲーム処理方法に関する。 The present invention relates to a game program, an information processing system, an information processing device, and a game processing method for drawing a virtual space.

従来、仮想空間において、視認性の低い領域(例えば、暗く表示される領域)を、光源となるアイテムを用いて探索するゲームを実行するゲーム装置がある(例えば、非特許文献1参照)。上記ゲームにおいては、ゲームフィールドにおける暗い領域(例えば、洞窟内の領域)においてプレイヤキャラクタが例えばたいまつ等の光源となるアイテムを持つことにより、プレイヤキャラクタの周囲を明るくして視認性を確保することができる。 2. Description of the Related Art Conventionally, there is a game device that executes a game in which an area with low visibility (for example, an area that is displayed darkly) is searched using an item serving as a light source in a virtual space (see, for example, Non-Patent Document 1). In the above game, visibility can be ensured by brightening the surroundings of the player character by holding a light source item such as a torch in a dark area (for example, an area in a cave) in the game field. can.

「ゼルダの伝説 ブレス オブ ザ ワイルド:任天堂公式ガイドブック」、小学館、2017年5月11日、p211"The Legend of Zelda Breath of the Wild: Nintendo Official Guidebook", Shogakukan, May 11, 2017, p211

上記のゲームにおいては、光源が設定された結果としてその周囲が明るくなるだけであって、仮想空間における所望の範囲に対して明るさが確保されるようにするものではなかった。 In the above game, setting a light source only brightens its surroundings, and does not ensure brightness for a desired range in the virtual space.

それ故、本発明の目的は、仮想空間における視認性の低い領域と視認性が確保された領域とをゲーム処理に基づいて動的に変更することができるゲームプログラム、情報処理システム、情報処理装置、および、ゲーム処理方法を提供することである。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a game program, an information processing system, and an information processing apparatus capable of dynamically changing a region of low visibility and a region of secured visibility in a virtual space based on game processing. , and to provide a game processing method.

上記の課題を解決すべく、本発明は、以下の(1)~(13)の構成を採用した。 In order to solve the above problems, the present invention employs the following configurations (1) to (13).

(1)
本発明の一例は、情報処理装置のコンピュータに、次の処理を行わせるゲームプログラムである。
・ゲーム処理に基づいて所定のイベントが発生した場合に、仮想空間内に対象範囲を設定する処理
・仮想空間の描画を行う描画処理において、仮想空間内の少なくとも一部の地形オブジェクトについて、対象範囲に含まれる部分を、仮想空間内に設定された光源を反映して描画し、対象範囲に含まれない部分を、所定の色によって、または、明るさを下げて描画する処理
(1)
An example of the present invention is a game program that causes a computer of an information processing device to perform the following processing.
・Processing to set the target range in the virtual space when a predetermined event occurs based on the game processing. A process that draws the part included in the virtual space by reflecting the light source set in the virtual space, and draws the part that is not included in the target range in a predetermined color or with reduced brightness.

上記(1)の構成によれば、仮想空間における視認性の低い領域(すなわち、対象範囲外の領域)と視認性が確保された領域(すなわち、対象範囲内の領域)とをゲーム処理に基づいて動的に変更することができる。 According to the configuration of (1) above, an area with low visibility in the virtual space (that is, the area outside the target range) and an area with secured visibility (that is, the area within the target range) are separated based on the game processing. can be changed dynamically.

(2)
上記(1)の構成において、コンピュータは、描画処理において、少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が対象範囲に含まれるか否かを少なくとも示すマスクデータを生成してもよい。また、コンピュータは、描画処理において、マスクデータにおいて少なくとも一部の地形オブジェクトの位置が対象範囲に含まれることが示される画素については、光源を反映してフレームバッファへの描画を行ってもよい。コンピュータは、描画処理において、マスクデータにおいて少なくとも一部の地形オブジェクトの位置が対象範囲に含まれないことが示される画素については、所定の色によって、または、明るさを下げてフレームバッファへの描画を行ってもよい。
(2)
In the configuration of (1) above, the computer at least indicates, for each pixel of at least some of the land objects, whether or not the position corresponding to the pixel of the land objects is included in the target range in the rendering process. Mask data may be generated. Further, in the rendering process, the computer may perform rendering in the frame buffer reflecting the light source for pixels for which the mask data indicates that at least a part of the position of the terrain object is included in the target range. In the drawing process, the computer draws pixels for which the mask data indicates that at least part of the position of the terrain object is not included in the target range, with a predetermined color or with reduced brightness, to the frame buffer. may be performed.

上記(2)の構成によれば、マスクデータを用いることによって、対象範囲外が視認不可能または視認困難な態様とする描画処理を容易に行うことができる。 According to the configuration (2) above, by using the mask data, it is possible to easily perform the drawing process in which the outside of the target range is rendered invisible or difficult to be visually recognized.

(3)
上記(2)の構成において、描画処理は、ディファードレンダリングに基づいた描画処理であってもよい。コンピュータは、描画処理における第1の段階において、仮想空間内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行ってもよい。コンピュータは、描画処理における第2の段階において、画素ごとに、当該画素に対応する位置と、深度バッファに記憶された深度値と、対象範囲とに基づいて、マスクデータを生成してもよい。コンピュータは、描画処理における第3の段階において、少なくともGバッファに記憶されるデータと、マスクデータとに基づいてフレームバッファへの描画を行ってもよい。
(3)
In the configuration (2) above, the drawing process may be a drawing process based on deferred rendering. The computer may write to the G-buffer and depth buffer for at least a portion of the terrain object in the virtual space in the first stage of the drawing process. In a second stage of the rendering process, the computer may generate mask data for each pixel based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the target range. In the third stage of the drawing process, the computer may draw to the frame buffer based on at least the data stored in the G buffer and the mask data.

上記(3)の構成によれば、ディファードレンダリングの技術を用いて、対象範囲外のオブジェクトを視認不可能または視認困難な態様で描画することができる。 With configuration (3) above, the deferred rendering technique can be used to render an object outside the target range in an invisible or difficult-to-visible manner.

(4)
上記(3)の構成において、コンピュータはさらに、描画処理における第1の段階において、所定のオブジェクトについて、Gバッファおよび深度バッファへの書き込みを画素ごとに行うとともに、当該オブジェクトに対応する画素についてマスクデータの適用を除外することを示す除外マスクデータを生成してもよい。コンピュータは、描画処理における第3の段階において、除外マスクデータが示す画素について、少なくとも一部の地形オブジェクトのうち対象範囲に含まれない部分と所定のオブジェクトとを区別して視認することができる方法で描画を行ってもよい。
(4)
In the above configuration (3), the computer further writes pixel-by-pixel to the G buffer and the depth buffer for a predetermined object in the first stage of the drawing process, and also writes mask data for pixels corresponding to the object. You may generate the exclusion mask data which shows exclusion of application of. In the third stage of the drawing process, the computer uses a method that allows the pixels indicated by the exclusion mask data to be visually distinguished from the predetermined object and the portion that is not included in the target range of at least a part of the terrain object. You can draw.

上記(4)の構成によれば、所定のオブジェクトについては対象範囲外であっても視認可能とすることができる。 According to the above configuration (4), it is possible to make the predetermined object visible even if it is out of the target range.

(5)
上記(2)から(4)のいずれかの構成において、マスクデータは、所定の色が描画される度合い、または、明るさを下げる度合いを画素ごとに示すデータであってもよい。コンピュータは、描画処理において、光源を反映して算出される画素値に対して、度合いに応じて所定の色を合成した画素値、または、当該度合いに応じて明るさを下げた画素値をフレームバッファに書き込んでもよい。
(5)
In any one of the configurations (2) to (4) above, the mask data may be data indicating the degree to which a predetermined color is drawn or the degree to which the brightness is reduced for each pixel. In the rendering process, the computer combines the pixel values calculated by reflecting the light source with a predetermined color according to the degree, or the pixel values with the brightness lowered according to the degree. You may write to the buffer.

上記(5)の構成によれば、位置に応じて視認性が次第に変化していくような仮想空間の画像を生成することができるので、より自然に見える仮想空間を示す画像を生成することができる。 According to the above configuration (5), it is possible to generate an image of the virtual space in which the visibility gradually changes according to the position. Therefore, it is possible to generate an image showing the virtual space that looks more natural. can.

(6)
上記(1)から(5)のいずれかの構成において、仮想空間内には、光源として少なくとも、仮想空間内の位置によらず所定の明るさが設定される光源が設定されてもよい。
(6)
In any one of the configurations (1) to (5) above, at least a light source for which a predetermined brightness is set regardless of the position in the virtual space may be set as the light source in the virtual space.

上記(6)の構成によれば、対象範囲について一定の明るさを確保することができ、仮想空間における地形の形状等によらず対象範囲の視認性を確保することができる。 With configuration (6) above, it is possible to ensure constant brightness for the target range, and to ensure visibility of the target range regardless of the shape of the terrain in the virtual space.

(7)
上記(1)から(6)のいずれかの構成において、コンピュータは、所定のイベントの発生に応じて、対象範囲の基準となる点を仮想空間内に設定してもよい。コンピュータは、基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように対象範囲を設定してもよい。
(7)
In any one of the configurations (1) to (6) above, the computer may set a point in the virtual space that serves as a reference for the target range in response to occurrence of a predetermined event. The computer may set the target range based on the distance from the reference point so as to include a range in which the distance is equal to or less than the threshold.

上記(7)の構成によれば、所定のイベントの発生に応じて、当該イベントに応じた位置とその周囲を対象範囲に設定することができる。 With configuration (7) above, when a predetermined event occurs, a position corresponding to the event and its surroundings can be set as the target range.

(8)
上記(7)の構成において、コンピュータは、所定のイベントの発生に応じて基準となる点が設定された後、しきい値を時間経過に応じて増加させることで対象範囲を拡大してもよい。
(8)
In the above configuration (7), the computer may expand the target range by increasing the threshold over time after the reference point is set in response to the occurrence of the predetermined event. .

上記(8)の構成によれば、仮想空間において視認性が確保される領域が所定のイベントの発生に応じて次第に拡大していくように画像を生成することができる。 With configuration (8) above, it is possible to generate an image such that the region in which visibility is ensured in the virtual space gradually expands according to the occurrence of a predetermined event.

(9)
上記(7)または(8)の構成において、コンピュータは、所定のイベントの発生に応じてさらに点光源を仮想空間内に設置してもよい。
(9)
In configuration (7) or (8) above, the computer may further install a point light source in the virtual space in response to the occurrence of a predetermined event.

上記(9)の構成によれば、所定のイベントが発生したこと、および、当該所定のイベントの発生によって仮想空間がより明るくなったことをプレイヤに認識させやすくすることができる。 With configuration (9) above, it is possible to make it easier for the player to recognize that the predetermined event has occurred and that the virtual space has become brighter due to the occurrence of the predetermined event.

(10)
上記(7)から(9)のいずれかの構成において、イベントは、所定のアイテムが仮想空間内に配置されるイベントであってもよい。コンピュータは、所定のアイテムが配置された位置に基づいて、基準となる点の位置を設定してもよい。
(10)
In any one of configurations (7) to (9) above, the event may be an event in which a predetermined item is arranged in the virtual space. The computer may set the position of the reference point based on the position where the predetermined item is placed.

上記(10)の構成によれば、プレイヤは、仮想空間における所望の位置にアイテムを配置することによって、当該位置に対象範囲を設定させることができる。 With configuration (10) above, the player can set the target range at a desired position in the virtual space by arranging the item.

(11)
上記(7)から(10)のいずれかの構成において、コンピュータはさらに、操作入力に基づいて仮想空間内におけるプレイヤキャラクタの制御を行ってもよい。所定のイベントは、操作入力に基づいて、プレイヤキャラクタの周囲が対象範囲となるイベントであってもよい。コンピュータにさらに、プレイヤキャラクタの位置を、基準となる点の位置として設定してもよい。
(11)
In any one of configurations (7) to (10) above, the computer may further control the player character in the virtual space based on the operation input. The predetermined event may be an event whose target range is the surroundings of the player character based on the operation input. The computer may further set the position of the player character as the reference point position.

上記(11)の構成によれば、プレイヤキャラクタの周囲についての視認性を継続的に確保することができる。 With configuration (11) above, it is possible to continuously ensure the visibility of the surroundings of the player character.

(12)
上記(2)から(6)のいずれかの構成において、コンピュータはさらに、操作入力に基づいて仮想空間内におけるプレイヤキャラクタの制御を行ってもよい。イベントは、仮想空間内に設定されたイベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベントであってもよい。コンピュータはさらに、イベントの発生に応じて、仮想空間における対象範囲を平面的に示す2次元範囲データを、仮想空間のうちイベント発生位置に対応する範囲が少なくとも対象範囲となるよう更新してもよい。コンピュータは、2次元範囲データにさらに基づいてマスクデータを生成してもよい。
(12)
In any one of the configurations (2) to (6) above, the computer may further control the player character in the virtual space based on the operation input. The event may be an event that occurs when a predetermined operation input is performed when the player character is positioned at an event occurrence position set in the virtual space. The computer may further update the two-dimensional range data that planarly indicates the target range in the virtual space in response to the occurrence of the event so that at least the range corresponding to the event occurrence position in the virtual space becomes the target range. . The computer may generate mask data further based on the two-dimensional range data.

上記(12)の構成によれば、プレイヤキャラクタがイベント発生位置へ到達することによって、仮想空間において視認性が確保される範囲を拡げていくゲームを提供することができる。 With configuration (12) above, it is possible to provide a game that expands the range in which visibility is ensured in the virtual space by the player character reaching the event occurrence position.

(13)
上記(1)または(2)の構成において、コンピュータは、描画処理において、少なくとも一部の地形オブジェクトに関して、対象範囲に含まれるか否かを画素ごとに判定してもよい。コンピュータは、描画処理において、対象範囲に含まれる画素については、光源を反映してフレームバッファへの描画を行ってもよい。コンピュータは、描画処理において、対象範囲に含まれない画素については、所定の色によって、または、明るさを下げてフレームバッファへの描画を行ってもよい。
(13)
In the configuration (1) or (2) above, the computer may determine, for each pixel, whether or not at least a part of the terrain object is included in the target range in the drawing process. In the rendering process, the computer may render the pixels included in the target range in the frame buffer by reflecting the light source. In the drawing process, the computer may draw pixels that are not included in the target range in a predetermined color or with reduced brightness to the frame buffer.

上記(13)の構成によれば、フォワードレンダリングの技術を用いて、対象範囲外のオブジェクトを視認不可能または視認困難な態様で描画することができる。 With configuration (13) above, forward rendering technology can be used to render an object outside the target range in an invisible or difficult-to-visible manner.

なお、本発明の別の一例は、上記(1)~(13)における処理を実行する情報処理装置または情報処理システムであってもよい。また、本発明の別の一例は、上記(1)~(13)における処理を実行するゲーム処理方法であってもよい。 Another example of the present invention may be an information processing apparatus or an information processing system that executes the processes (1) to (13) above. Another example of the present invention may be a game processing method for executing the processes (1) to (13) above.

上記ゲームプログラム、情報処理システム、情報処理装置、および、ゲーム処理方法によれば、仮想空間における視認性の低い領域と視認性が確保された領域とをイベントの発生に応じて動的に変更することができる。 According to the game program, the information processing system, the information processing device, and the game processing method described above, the low-visibility area and the high-visibility area in the virtual space are dynamically changed according to the occurrence of an event. be able to.

本体装置に左コントローラおよび右コントローラを装着した状態の一例を示す図A diagram showing an example of a state in which the left controller and right controller are attached to the main unit. 本体装置から左コントローラおよび右コントローラをそれぞれ外した状態の一例を示す図Diagram showing an example of a state in which the left controller and right controller are removed from the main unit. 本体装置の一例を示す六面図Six views showing an example of the main unit 左コントローラの一例を示す六面図Six views showing an example of the left controller 右コントローラの一例を示す六面図Six views showing an example of the right controller 本体装置の内部構成の一例を示すブロック図Block diagram showing an example of the internal configuration of the main unit 本体装置と左コントローラおよび右コントローラとの内部構成の一例を示すブロック図FIG. 2 is a block diagram showing an example of the internal configuration of the main unit, left controller, and right controller; 本実施形態におけるゲーム例の概要を示す図A diagram showing an overview of a game example according to the present embodiment. 1つの基準地点が解放された場合における、フィールド対応平面と判定値との関係を示す図A diagram showing the relationship between the field corresponding plane and the judgment value when one reference point is released. 図9に示す円形領域が解放領域となる場合に表示されるマップ画像の一例を示す図A diagram showing an example of a map image displayed when the circular area shown in FIG. 9 becomes a free area 2つの基準地点が解放された場合における、フィールド対応平面と判定値との関係を示す図A diagram showing the relationship between the field corresponding plane and the judgment value when the two reference points are released. 図11に示す領域が解放領域となる場合に表示されるマップ画像の一例を示す図A diagram showing an example of a map image displayed when the area shown in FIG. 11 becomes a released area 2つの基準地点が解放され、1つの基準地点が未解放である場合における解放領域が設定されるフィールド対応平面の一例を示す図A diagram showing an example of a field correspondence plane on which a release area is set when two reference points are released and one reference point is not released. 本実施形態におけるマップ画像の生成方法の一例を示す図A diagram showing an example of a map image generation method according to the present embodiment. プレイヤキャラクタを含むフィールドを示すフィールド画像を含むゲーム画像の一例を示す図A diagram showing an example of a game image including a field image showing a field containing player characters. プレイヤキャラクタが基準地点の近傍に位置する場合におけるゲーム画像の一例を示す図A diagram showing an example of a game image when the player character is positioned near the reference point. 基準地点が解放された後のフィールドを示すゲーム画像の一例を示す図A diagram showing an example of a game image showing the field after the reference point has been released. 1つの基準地点が解放された場合におけるフィールドを上から見た図Top view of the field when one reference point is released 2つの基準地点が解放された場合におけるフィールドを上から見た図Top view of the field when two reference points are released 光源アイテムが配置されたフィールドを示すゲーム画像の一例を示す図A diagram showing an example of a game image showing a field in which a light source item is arranged 解放イベントによる照射範囲内に光源アイテムが配置された場合におけるフィールドを示すゲーム画像の一例を示す図A diagram showing an example of a game image showing a field when a light source item is placed within an irradiation range by a release event. フレームバッファに書き込まれるフィールド画像を生成する方法の一例を示す図A diagram showing an example of how to generate a field image to be written to the frame buffer ゲームシステム1における情報処理に用いられる各種データを記憶する記憶領域の一例を示す図FIG. 2 shows an example of a storage area for storing various data used for information processing in the game system 1; ゲームシステム1によって実行されるゲーム処理の流れの一例を示すフローチャートFlowchart showing an example of the flow of game processing executed by the game system 1 図24に示すステップS8のプレイヤ関連制御処理の詳細な流れの一例を示すサブフローチャートA sub-flowchart showing an example of a detailed flow of player-related control processing in step S8 shown in FIG. 図24に示すステップS9の他オブジェクト制御処理の詳細な流れの一例を示すサブフローチャートA sub-flowchart showing an example of the detailed flow of the other object control process in step S9 shown in FIG. 図24に示すステップS10の描画処理の詳細な流れの一例を示すサブフローチャートA sub-flowchart showing an example of a detailed flow of drawing processing in step S10 shown in FIG. 他の実施形態における描画処理の詳細な流れの一例を示すサブフローチャートSub-flowchart showing an example of a detailed flow of drawing processing in another embodiment

[1.ゲームシステムの構成]
以下、本実施形態の一例に係るゲームシステムについて説明する。本実施形態におけるゲームシステム1の一例は、本体装置(情報処理装置;本実施形態ではゲーム装置本体として機能する)2と左コントローラ3および右コントローラ4とを含む。本体装置2は、左コントローラ3および右コントローラ4がそれぞれ着脱可能である。つまり、ゲームシステム1は、左コントローラ3および右コントローラ4をそれぞれ本体装置2に装着して一体化された装置として利用できる。また、ゲームシステム1は、本体装置2と左コントローラ3および右コントローラ4とを別体として利用することもできる(図2参照)。以下では、本実施形態のゲームシステム1のハードウェア構成について説明し、その後に本実施形態のゲームシステム1の制御について説明する。
[1. Game system configuration]
A game system according to an example of the present embodiment will be described below. An example of a game system 1 in this embodiment includes a main body device (information processing device; in this embodiment, functions as a game device main body) 2 , a left controller 3 and a right controller 4 . A left controller 3 and a right controller 4 are detachable from the main unit 2 . In other words, the game system 1 can be used as an integrated device in which the left controller 3 and the right controller 4 are attached to the main unit 2 respectively. The game system 1 can also use the main unit 2 and the left controller 3 and right controller 4 as separate bodies (see FIG. 2). The hardware configuration of the game system 1 of this embodiment will be described below, and then the control of the game system 1 of this embodiment will be described.

図1は、本体装置2に左コントローラ3および右コントローラ4を装着した状態の一例を示す図である。図1に示すように、左コントローラ3および右コントローラ4は、それぞれ本体装置2に装着されて一体化されている。本体装置2は、ゲームシステム1における各種の処理(例えば、ゲーム処理)を実行する装置である。本体装置2は、ディスプレイ12を備える。左コントローラ3および右コントローラ4は、ユーザが入力を行うための操作部を備える装置である。 FIG. 1 is a diagram showing an example of a state in which a left controller 3 and a right controller 4 are attached to a main unit 2. As shown in FIG. As shown in FIG. 1, the left controller 3 and the right controller 4 are attached to and integrated with the main unit 2 respectively. The main device 2 is a device that executes various types of processing (for example, game processing) in the game system 1 . The main unit 2 has a display 12 . The left controller 3 and the right controller 4 are devices provided with operation units for user input.

図2は、本体装置2から左コントローラ3および右コントローラ4をそれぞれ外した状態の一例を示す図である。図1および図2に示すように、左コントローラ3および右コントローラ4は、本体装置2に着脱可能である。なお、以下において、左コントローラ3および右コントローラ4の総称として「コントローラ」と記載することがある。 FIG. 2 is a diagram showing an example of a state in which the left controller 3 and the right controller 4 are removed from the main unit 2. As shown in FIG. As shown in FIGS. 1 and 2, the left controller 3 and the right controller 4 are detachable from the main unit 2 . Note that, hereinafter, the left controller 3 and the right controller 4 may be collectively referred to as "controllers".

図3は、本体装置2の一例を示す六面図である。図3に示すように、本体装置2は、略板状のハウジング11を備える。本実施形態において、ハウジング11の主面(換言すれば、表側の面、すなわち、ディスプレイ12が設けられる面)は、大略的には矩形形状である。 3A and 3B are six views showing an example of the main unit 2. FIG. As shown in FIG. 3 , the main unit 2 includes a substantially plate-shaped housing 11 . In this embodiment, the main surface of the housing 11 (in other words, the surface on the front side, that is, the surface on which the display 12 is provided) is generally rectangular.

なお、ハウジング11の形状および大きさは、任意である。一例として、ハウジング11は、携帯可能な大きさであってよい。また、本体装置2単体または本体装置2に左コントローラ3および右コントローラ4が装着された一体型装置は、携帯型装置となってもよい。また、本体装置2または一体型装置が手持ち型の装置となってもよい。また、本体装置2または一体型装置が可搬型装置となってもよい。 The shape and size of the housing 11 are arbitrary. As an example, housing 11 may be sized to be portable. Also, the main unit 2 alone or the integrated device in which the left controller 3 and the right controller 4 are attached to the main unit 2 may be a portable device. Also, the main device 2 or the integrated device may be a hand-held device. Also, the main device 2 or the integrated device may be the portable device.

図3に示すように、本体装置2は、ハウジング11の主面に設けられるディスプレイ12を備える。ディスプレイ12は、本体装置2が生成した画像を表示する。本実施形態においては、ディスプレイ12は、液晶表示装置(LCD)とする。ただし、ディスプレイ12は任意の種類の表示装置であってよい。 As shown in FIG. 3 , main unit 2 includes display 12 provided on the main surface of housing 11 . Display 12 displays an image generated by main device 2 . In this embodiment, display 12 is a liquid crystal display (LCD). However, display 12 may be any type of display device.

また、本体装置2は、ディスプレイ12の画面上にタッチパネル13を備える。本実施形態においては、タッチパネル13は、マルチタッチ入力が可能な方式(例えば、静電容量方式)のものである。ただし、タッチパネル13は、任意の種類のものであってよく、例えば、シングルタッチ入力が可能な方式(例えば、抵抗膜方式)のものであってもよい。 The main device 2 also includes a touch panel 13 on the screen of the display 12 . In this embodiment, the touch panel 13 is of a type capable of multi-touch input (for example, a capacitive type). However, the touch panel 13 may be of any type, and for example, may be of a type capable of single-touch input (for example, a resistive film type).

本体装置2は、ハウジング11の内部においてスピーカ(すなわち、図6に示すスピーカ88)を備えている。図3に示すように、ハウジング11の主面には、スピーカ孔11aおよび11bが形成される。そして、スピーカ88の出力音は、これらのスピーカ孔11aおよび11bからそれぞれ出力される。 The main unit 2 includes a speaker (that is, the speaker 88 shown in FIG. 6) inside the housing 11 . As shown in FIG. 3, speaker holes 11a and 11b are formed in the main surface of the housing 11. As shown in FIG. The sound output from the speaker 88 is output from these speaker holes 11a and 11b, respectively.

また、本体装置2は、本体装置2が左コントローラ3と有線通信を行うための端子である左側端子17と、本体装置2が右コントローラ4と有線通信を行うための右側端子21を備える。 The main unit 2 also includes a left terminal 17 that is a terminal for performing wired communication between the main unit 2 and the left controller 3 , and a right terminal 21 for performing wired communication between the main unit 2 and the right controller 4 .

図3に示すように、本体装置2は、スロット23を備える。スロット23は、ハウジング11の上側面に設けられる。スロット23は、所定の種類の記憶媒体を装着可能な形状を有する。所定の種類の記憶媒体は、例えば、ゲームシステム1およびそれと同種の情報処理装置に専用の記憶媒体(例えば、専用メモリカード)である。所定の種類の記憶媒体は、例えば、本体装置2で利用されるデータ(例えば、アプリケーションのセーブデータ等)、および/または、本体装置2で実行されるプログラム(例えば、アプリケーションのプログラム等)を記憶するために用いられる。また、本体装置2は、電源ボタン28を備える。 As shown in FIG. 3 , the main unit 2 has slots 23 . A slot 23 is provided in the upper surface of the housing 11 . The slot 23 has a shape in which a predetermined type of storage medium can be loaded. The predetermined type of storage medium is, for example, a storage medium dedicated to the game system 1 and an information processing device of the same type (eg, dedicated memory card). The predetermined type of storage medium stores, for example, data used by the main unit 2 (for example, application save data, etc.) and/or programs executed by the main unit 2 (for example, application programs, etc.). used to The main unit 2 also includes a power button 28 .

本体装置2は、下側端子27を備える。下側端子27は、本体装置2がクレードルと通信を行うための端子である。本実施形態において、下側端子27は、USBコネクタ(より具体的には、メス側コネクタ)である。上記一体型装置または本体装置2単体をクレードルに載置した場合、ゲームシステム1は、本体装置2が生成して出力する画像を据置型モニタに表示することができる。また、本実施形態においては、クレードルは、載置された上記一体型装置または本体装置2単体を充電する機能を有する。また、クレードルは、ハブ装置(具体的には、USBハブ)の機能を有する。 The main unit 2 includes lower terminals 27 . The lower terminal 27 is a terminal for the main device 2 to communicate with the cradle. In this embodiment, the lower terminal 27 is a USB connector (more specifically, a female connector). When the integrated device or main device 2 alone is placed on the cradle, the game system 1 can display an image generated and output by the main device 2 on the stationary monitor. Further, in this embodiment, the cradle has a function of charging the mounted integrated device or main device 2 alone. Also, the cradle has the function of a hub device (specifically, a USB hub).

図4は、左コントローラ3の一例を示す六面図である。図4に示すように、左コントローラ3は、ハウジング31を備える。本実施形態においては、ハウジング31は、縦長の形状、すなわち、上下方向(すなわち、図1および図4に示すy軸方向)に長い形状である。左コントローラ3は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング31は、縦長となる向きで把持される場合に片手、特に左手で把持可能な形状および大きさをしている。また、左コントローラ3は、横長となる向きで把持されることも可能である。左コントローラ3が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。 4A and 4B are six views showing an example of the left controller 3. FIG. As shown in FIG. 4 , the left controller 3 has a housing 31 . In this embodiment, the housing 31 has a vertically long shape, that is, a shape elongated in the vertical direction (that is, the y-axis direction shown in FIGS. 1 and 4). When the left controller 3 is removed from the main unit 2, the left controller 3 can be held vertically. The housing 31 has a shape and size that allows it to be held with one hand, particularly the left hand, when held in a vertically long orientation. Also, the left controller 3 can be held in a landscape orientation. When the left controller 3 is held horizontally, it may be held with both hands.

左コントローラ3は、アナログスティック32を備える。図4に示すように、アナログスティック32は、ハウジング31の主面に設けられる。アナログスティック32は、方向を入力することが可能な方向入力部として用いることができる。ユーザは、アナログスティック32を傾倒することによって傾倒方向に応じた方向の入力(および、傾倒した角度に応じた大きさの入力)が可能である。なお、左コントローラ3は、方向入力部として、アナログスティックに代えて、十字キーまたはスライド入力が可能なスライドスティック等を備えるようにしてもよい。また、本実施形態においては、アナログスティック32を押下する入力が可能である。 The left controller 3 has an analog stick 32 . As shown in FIG. 4, the analog stick 32 is provided on the main surface of the housing 31. As shown in FIG. The analog stick 32 can be used as a directional input unit capable of inputting directions. By tilting the analog stick 32, the user can input a direction according to the tilting direction (and input a magnitude according to the tilting angle). Note that the left controller 3 may be provided with a cross key or a slide stick capable of slide input as the direction input unit instead of the analog stick. Further, in the present embodiment, input by pressing the analog stick 32 is possible.

左コントローラ3は、各種操作ボタンを備える。左コントローラ3は、ハウジング31の主面上に4つの操作ボタン33~36(具体的には、右方向ボタン33、下方向ボタン34、上方向ボタン35、および左方向ボタン36)を備える。さらに、左コントローラ3は、録画ボタン37および-(マイナス)ボタン47を備える。左コントローラ3は、ハウジング31の側面の左上に第1Lボタン38およびZLボタン39を備える。また、左コントローラ3は、ハウジング31の側面の、本体装置2に装着される際に装着される側の面に第2Lボタン43および第2Rボタン44を備える。これらの操作ボタンは、本体装置2で実行される各種プログラム(例えば、OSプログラムやアプリケーションプログラム)に応じた指示を行うために用いられる。 The left controller 3 has various operation buttons. The left controller 3 has four operation buttons 33 to 36 (specifically, a right button 33 , a downward button 34 , an upward button 35 and a left button 36 ) on the main surface of the housing 31 . Further, the left controller 3 has a recording button 37 and a - (minus) button 47 . The left controller 3 has a first L button 38 and a ZL button 39 on the upper left side of the housing 31 . The left controller 3 also has a second L button 43 and a second R button 44 on the side surface of the housing 31 that is attached when attached to the main unit 2 . These operation buttons are used to give instructions according to various programs (for example, an OS program and an application program) executed by the main device 2 .

また、左コントローラ3は、左コントローラ3が本体装置2と有線通信を行うための端子42を備える。 The left controller 3 also includes a terminal 42 for wire communication between the left controller 3 and the main unit 2 .

図5は、右コントローラ4の一例を示す六面図である。図5に示すように、右コントローラ4は、ハウジング51を備える。本実施形態においては、ハウジング51は、縦長の形状、すなわち、上下方向に長い形状である。右コントローラ4は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング51は、縦長となる向きで把持される場合に片手、特に右手で把持可能な形状および大きさをしている。また、右コントローラ4は、横長となる向きで把持されることも可能である。右コントローラ4が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。 5A and 5B are six views showing an example of the right controller 4. FIG. As shown in FIG. 5 , the right controller 4 has a housing 51 . In this embodiment, the housing 51 has a vertically long shape, that is, a shape elongated in the vertical direction. When the right controller 4 is removed from the main unit 2, the right controller 4 can be held vertically. The housing 51 is shaped and sized so that it can be held with one hand, particularly with the right hand, when held in an elongated orientation. Also, the right controller 4 can be held in a landscape orientation. When the right controller 4 is held horizontally, it may be held with both hands.

右コントローラ4は、左コントローラ3と同様、方向入力部としてアナログスティック52を備える。本実施形態においては、アナログスティック52は、左コントローラ3のアナログスティック32と同じ構成である。また、右コントローラ4は、アナログスティックに代えて、十字キーまたはスライド入力が可能なスライドスティック等を備えるようにしてもよい。また、右コントローラ4は、左コントローラ3と同様、ハウジング51の主面上に4つの操作ボタン53~56(具体的には、Aボタン53、Bボタン54、Xボタン55、およびYボタン56)を備える。さらに、右コントローラ4は、+(プラス)ボタン57およびホームボタン58を備える。また、右コントローラ4は、ハウジング51の側面の右上に第1Rボタン60およびZRボタン61を備える。また、右コントローラ4は、左コントローラ3と同様、第2Lボタン65および第2Rボタン66を備える。 The right controller 4, like the left controller 3, has an analog stick 52 as a direction input unit. In this embodiment, the analog stick 52 has the same configuration as the analog stick 32 of the left controller 3 . Also, the right controller 4 may be provided with a cross key, a slide stick capable of slide input, or the like, instead of the analog stick. The right controller 4 also has four operation buttons 53 to 56 (specifically, an A button 53, a B button 54, an X button 55, and a Y button 56) on the main surface of the housing 51, similarly to the left controller 3. Prepare. Furthermore, the right controller 4 has a + (plus) button 57 and a home button 58 . The right controller 4 also has a first R button 60 and a ZR button 61 on the upper right side of the housing 51 . Also, the right controller 4 has a second L button 65 and a second R button 66, like the left controller 3 does.

また、右コントローラ4は、右コントローラ4が本体装置2と有線通信を行うための端子64を備える。 The right controller 4 also includes a terminal 64 for wire communication between the right controller 4 and the main unit 2 .

図6は、本体装置2の内部構成の一例を示すブロック図である。本体装置2は、図3に示す構成の他、図6に示す各構成要素81~85、87、88、91、97、および98を備える。これらの構成要素81~85、87、88、91、97、および98のいくつかは、電子部品として電子回路基板上に実装されてハウジング11内に収納されてもよい。 FIG. 6 is a block diagram showing an example of the internal configuration of the main unit 2. As shown in FIG. The main unit 2 includes components 81 to 85, 87, 88, 91, 97, and 98 shown in FIG. 6 in addition to the configuration shown in FIG. Some of these components 81 - 85 , 87 , 88 , 91 , 97 and 98 may be mounted as electronic components on an electronic circuit board and housed within housing 11 .

本体装置2は、プロセッサ81を備える。プロセッサ81は、本体装置2において実行される各種の情報処理を実行する情報処理部であって、例えば、CPU(Central Processing Unit)のみから構成されてもよいし、CPU機能、GPU(Graphics Processing Unit)機能等の複数の機能を含むSoC(System-on-a-chip)から構成されてもよい。プロセッサ81は、記憶部(具体的には、フラッシュメモリ84等の内部記憶媒体、あるいは、スロット23に装着される外部記憶媒体等)に記憶される情報処理プログラム(例えば、ゲームプログラム)を実行することによって、各種の情報処理を実行する。 The main unit 2 includes a processor 81 . The processor 81 is an information processing section that executes various types of information processing executed in the main unit 2, and may be composed of, for example, only a CPU (Central Processing Unit), or may be composed of a CPU function and a GPU (Graphics Processing Unit). ) function, it may be configured from a SoC (System-on-a-chip) including multiple functions. The processor 81 executes an information processing program (for example, a game program) stored in a storage unit (specifically, an internal storage medium such as the flash memory 84, or an external storage medium mounted in the slot 23, etc.). By doing so, various information processing is executed.

本体装置2は、自身に内蔵される内部記憶媒体の一例として、フラッシュメモリ84およびDRAM(Dynamic Random Access Memory)85を備える。フラッシュメモリ84およびDRAM85は、プロセッサ81に接続される。フラッシュメモリ84は、主に、本体装置2に保存される各種のデータ(プログラムであってもよい)を記憶するために用いられるメモリである。DRAM85は、情報処理において用いられる各種のデータを一時的に記憶するために用いられるメモリである。 The main unit 2 includes a flash memory 84 and a DRAM (Dynamic Random Access Memory) 85 as examples of internal storage media incorporated therein. Flash memory 84 and DRAM 85 are connected to processor 81 . Flash memory 84 is a memory mainly used for storing various data (which may be programs) to be stored in main unit 2 . The DRAM 85 is a memory used to temporarily store various data used in information processing.

本体装置2は、スロットインターフェース(以下、「I/F」と略記する。)91を備える。スロットI/F91は、プロセッサ81に接続される。スロットI/F91は、スロット23に接続され、スロット23に装着された所定の種類の記憶媒体(例えば、専用メモリカード)に対するデータの読み出しおよび書き込みを、プロセッサ81の指示に応じて行う。 The main unit 2 includes a slot interface (hereinafter abbreviated as “I/F”) 91 . Slot I/F 91 is connected to processor 81 . The slot I/F 91 is connected to the slot 23 and reads and writes data from/to a predetermined type of storage medium (for example, a dedicated memory card) attached to the slot 23 according to instructions from the processor 81 .

プロセッサ81は、フラッシュメモリ84およびDRAM85、ならびに上記各記憶媒体との間でデータを適宜読み出したり書き込んだりして、上記の情報処理を実行する。 The processor 81 appropriately reads and writes data from/to the flash memory 84 and the DRAM 85 as well as to each of the above storage media to execute the above information processing.

本体装置2は、ネットワーク通信部82を備える。ネットワーク通信部82は、プロセッサ81に接続される。ネットワーク通信部82は、ネットワークを介して外部の装置と通信(具体的には、無線通信)を行う。本実施形態においては、ネットワーク通信部82は、第1の通信態様としてWi-Fiの規格に準拠した方式により、無線LANに接続して外部装置と通信を行う。また、ネットワーク通信部82は、第2の通信態様として所定の通信方式(例えば、独自プロトコルによる通信や、赤外線通信)により、同種の他の本体装置2との間で無線通信を行う。なお、上記第2の通信態様による無線通信は、閉ざされたローカルネットワークエリア内に配置された他の本体装置2との間で無線通信可能であり、複数の本体装置2の間で直接通信することによってデータが送受信される、いわゆる「ローカル通信」を可能とする機能を実現する。 The main unit 2 has a network communication unit 82 . A network communication unit 82 is connected to the processor 81 . The network communication unit 82 communicates (specifically, wirelessly) with an external device via a network. In this embodiment, the network communication unit 82 communicates with an external device by connecting to a wireless LAN according to a method conforming to the Wi-Fi standard as the first communication mode. In addition, the network communication unit 82 performs wireless communication with other main device 2 of the same type by a predetermined communication method (for example, communication using a unique protocol or infrared communication) as a second communication mode. Note that the wireless communication according to the second communication mode is capable of wireless communication with another main unit 2 placed in a closed local network area, and direct communication is performed between a plurality of main units 2. It realizes a function that enables so-called "local communication" in which data is transmitted and received by

本体装置2は、コントローラ通信部83を備える。コントローラ通信部83は、プロセッサ81に接続される。コントローラ通信部83は、左コントローラ3および/または右コントローラ4と無線通信を行う。本体装置2と左コントローラ3および右コントローラ4との通信方式は任意であるが、本実施形態においては、コントローラ通信部83は、左コントローラ3との間および右コントローラ4との間で、Bluetooth(登録商標)の規格に従った通信を行う。 The main unit 2 includes a controller communication section 83 . Controller communication unit 83 is connected to processor 81 . The controller communication unit 83 wirelessly communicates with the left controller 3 and/or the right controller 4 . The communication method between the main unit 2 and the left controller 3 and the right controller 4 is arbitrary. (registered trademark) standards.

プロセッサ81は、上述の左側端子17、右側端子21、および下側端子27に接続される。プロセッサ81は、左コントローラ3と有線通信を行う場合、左側端子17を介して左コントローラ3へデータを送信するとともに、左側端子17を介して左コントローラ3から操作データを受信する。また、プロセッサ81は、右コントローラ4と有線通信を行う場合、右側端子21を介して右コントローラ4へデータを送信するとともに、右側端子21を介して右コントローラ4から操作データを受信する。また、プロセッサ81は、クレードルと通信を行う場合、下側端子27を介してクレードルへデータを送信する。このように、本実施形態においては、本体装置2は、左コントローラ3および右コントローラ4との間で、それぞれ有線通信と無線通信との両方を行うことができる。また、左コントローラ3および右コントローラ4が本体装置2に装着された一体型装置または本体装置2単体がクレードルに装着された場合、本体装置2は、クレードルを介してデータ(例えば、画像データや音声データ)を据置型モニタ等に出力することができる。 Processor 81 is connected to left terminal 17, right terminal 21, and bottom terminal 27 described above. When performing wired communication with the left controller 3 , the processor 81 transmits data to the left controller 3 via the left terminal 17 and receives operation data from the left controller 3 via the left terminal 17 . When performing wired communication with the right controller 4 , the processor 81 transmits data to the right controller 4 via the right terminal 21 and receives operation data from the right controller 4 via the right terminal 21 . Also, when communicating with the cradle, the processor 81 transmits data to the cradle via the lower terminal 27 . Thus, in this embodiment, the main unit 2 can perform both wired communication and wireless communication with the left controller 3 and the right controller 4, respectively. Further, when the integrated device in which the left controller 3 and the right controller 4 are attached to the main unit 2 or when the main unit 2 alone is attached to the cradle, the main unit 2 transmits data (for example, image data, voice data, etc.) via the cradle. data) can be output to a stationary monitor or the like.

ここで、本体装置2は、複数の左コントローラ3と同時に(換言すれば、並行して)通信を行うことができる。また、本体装置2は、複数の右コントローラ4と同時に(換言すれば、並行して)通信を行うことができる。したがって、複数のユーザは、左コントローラ3および右コントローラ4のセットをそれぞれ用いて、本体装置2に対する入力を同時に行うことができる。一例として、第1ユーザが左コントローラ3および右コントローラ4の第1セットを用いて本体装置2に対して入力を行うと同時に、第2ユーザが左コントローラ3および右コントローラ4の第2セットを用いて本体装置2に対して入力を行うことが可能となる。 Here, the main unit 2 can communicate with a plurality of left controllers 3 simultaneously (in other words, in parallel). Also, the main unit 2 can communicate with a plurality of right controllers 4 at the same time (in other words, in parallel). Therefore, a plurality of users can make inputs to the main unit 2 at the same time using sets of the left controller 3 and the right controller 4 respectively. As an example, a first user uses a first set of left controller 3 and right controller 4 to make an input to main unit 2, while a second user uses a second set of left controller 3 and right controller 4. It becomes possible to input to the main unit 2 by using the

また、ディスプレイ12は、プロセッサ81に接続される。プロセッサ81は、(例えば、上記の情報処理の実行によって)生成した画像および/または外部から取得した画像をディスプレイ12に表示する。 Display 12 is also connected to processor 81 . The processor 81 displays on the display 12 images generated (for example, by executing the information processing described above) and/or images obtained from the outside.

本体装置2は、コーデック回路87およびスピーカ(具体的には、左スピーカおよび右スピーカ)88を備える。コーデック回路87は、スピーカ88および音声入出力端子25に接続されるとともに、プロセッサ81に接続される。コーデック回路87は、スピーカ88および音声入出力端子25に対する音声データの入出力を制御する回路である。 Main unit 2 includes codec circuit 87 and speakers (more specifically, left speaker and right speaker) 88 . The codec circuit 87 is connected to the speaker 88 and the audio input/output terminal 25 as well as to the processor 81 . The codec circuit 87 is a circuit that controls input/output of audio data to/from the speaker 88 and the audio input/output terminal 25 .

本体装置2は、電力制御部97およびバッテリ98を備える。電力制御部97は、バッテリ98およびプロセッサ81に接続される。また、図示しないが、電力制御部97は、本体装置2の各部(具体的には、バッテリ98の電力の給電を受ける各部、左側端子17、および右側端子21)に接続される。電力制御部97は、プロセッサ81からの指令に基づいて、バッテリ98から上記各部への電力供給を制御する。 Main unit 2 includes power control unit 97 and battery 98 . Power control 97 is connected to battery 98 and processor 81 . Also, although not shown, the power control unit 97 is connected to each unit of the main unit 2 (specifically, each unit receiving power from the battery 98, the left terminal 17, and the right terminal 21). A power control unit 97 controls the power supply from the battery 98 to each of the above units based on instructions from the processor 81 .

また、バッテリ98は、下側端子27に接続される。外部の充電装置(例えば、クレードル)が下側端子27に接続され、下側端子27を介して本体装置2に電力が供給される場合、供給された電力がバッテリ98に充電される。 Also, the battery 98 is connected to the lower terminal 27 . When an external charging device (for example, a cradle) is connected to lower terminal 27 and power is supplied to main unit 2 via lower terminal 27 , battery 98 is charged with the supplied power.

図7は、本体装置2と左コントローラ3および右コントローラ4との内部構成の一例を示すブロック図である。なお、本体装置2に関する内部構成の詳細については、図6で示しているため図7では省略している。 FIG. 7 is a block diagram showing an example of internal configurations of the main unit 2, the left controller 3, and the right controller 4. As shown in FIG. The details of the internal configuration of the main unit 2 are omitted in FIG. 7 since they are shown in FIG.

左コントローラ3は、本体装置2との間で通信を行う通信制御部101を備える。図7に示すように、通信制御部101は、端子42を含む各構成要素に接続される。本実施形態においては、通信制御部101は、端子42を介した有線通信と、端子42を介さない無線通信との両方で本体装置2と通信を行うことが可能である。通信制御部101は、左コントローラ3が本体装置2に対して行う通信方法を制御する。すなわち、左コントローラ3が本体装置2に装着されている場合、通信制御部101は、端子42を介して本体装置2と通信を行う。また、左コントローラ3が本体装置2から外されている場合、通信制御部101は、本体装置2(具体的には、コントローラ通信部83)との間で無線通信を行う。コントローラ通信部83と通信制御部101との間の無線通信は、例えばBluetooth(登録商標)の規格に従って行われる。 The left controller 3 includes a communication control section 101 that communicates with the main unit 2 . As shown in FIG. 7, the communication control section 101 is connected to each component including the terminal 42 . In this embodiment, the communication control unit 101 can communicate with the main unit 2 by both wired communication via the terminal 42 and wireless communication not via the terminal 42 . The communication control unit 101 controls the method of communication performed by the left controller 3 with the main unit 2 . That is, when the left controller 3 is attached to the main unit 2 , the communication control section 101 communicates with the main unit 2 via the terminal 42 . Further, when the left controller 3 is detached from the main unit 2, the communication control unit 101 performs wireless communication with the main unit 2 (specifically, the controller communication unit 83). Wireless communication between the controller communication unit 83 and the communication control unit 101 is performed according to the Bluetooth (registered trademark) standard, for example.

また、左コントローラ3は、例えばフラッシュメモリ等のメモリ102を備える。通信制御部101は、例えばマイコン(マイクロプロセッサとも言う)で構成され、メモリ102に記憶されるファームウェアを実行することによって各種の処理を実行する。 The left controller 3 also includes a memory 102 such as a flash memory. The communication control unit 101 is composed of, for example, a microcomputer (also referred to as a microprocessor), and executes various processes by executing firmware stored in the memory 102 .

左コントローラ3は、各ボタン103(具体的には、ボタン33~39、43、44、および47)を備える。また、左コントローラ3は、アナログスティック(図7では「スティック」と記載する)32を備える。各ボタン103およびアナログスティック32は、自身に対して行われた操作に関する情報を、適宜のタイミングで繰り返し通信制御部101へ出力する。 The left controller 3 includes each button 103 (specifically, buttons 33-39, 43, 44, and 47). The left controller 3 also includes an analog stick (denoted as “stick” in FIG. 7) 32 . Each of the buttons 103 and the analog stick 32 repeatedly outputs information about operations performed on itself to the communication control unit 101 at appropriate timings.

通信制御部101は、各入力部(具体的には、各ボタン103、および、アナログスティック32)から、入力に関する情報(具体的には、操作に関する情報、またはセンサによる検出結果)を取得する。通信制御部101は、取得した情報(または取得した情報に所定の加工を行った情報)を含む操作データを本体装置2へ送信する。なお、操作データは、所定時間に1回の割合で繰り返し送信される。なお、入力に関する情報が本体装置2へ送信される間隔は、各入力部について同じであってもよいし、同じでなくてもよい。 The communication control unit 101 acquires input-related information (specifically, operation-related information or sensor detection results) from each input unit (specifically, each button 103 and analog stick 32). The communication control unit 101 transmits operation data including the acquired information (or information obtained by performing predetermined processing on the acquired information) to the main unit 2 . Note that the operation data is repeatedly transmitted at a rate of once per predetermined time. It should be noted that the interval at which the information about the input is transmitted to the main unit 2 may or may not be the same for each input section.

上記操作データが本体装置2へ送信されることによって、本体装置2は、左コントローラ3に対して行われた入力を得ることができる。すなわち、本体装置2は、各ボタン103およびアナログスティック32に対する操作を、操作データに基づいて判別することができる。 By transmitting the operation data to the main unit 2 , the main unit 2 can obtain the input made to the left controller 3 . That is, the main unit 2 can determine the operation of each button 103 and the analog stick 32 based on the operation data.

左コントローラ3は、電力供給部108を備える。本実施形態において、電力供給部108は、バッテリおよび電力制御回路を有する。図示しないが、電力制御回路は、バッテリに接続されるとともに、左コントローラ3の各部(具体的には、バッテリの電力の給電を受ける各部)に接続される。 The left controller 3 has a power supply section 108 . In this embodiment, power supply 108 includes a battery and power control circuitry. Although not shown, the power control circuit is connected to the battery and to each section of the left controller 3 (specifically, each section that receives power from the battery).

図7に示すように、右コントローラ4は、本体装置2との間で通信を行う通信制御部111を備える。また、右コントローラ4は、通信制御部111に接続されるメモリ112を備える。通信制御部111は、端子64を含む各構成要素に接続される。通信制御部111およびメモリ112は、左コントローラ3の通信制御部101およびメモリ102と同様の機能を有する。したがって、通信制御部111は、端子64を介した有線通信と、端子64を介さない無線通信(具体的には、Bluetooth(登録商標)の規格に従った通信)との両方で本体装置2と通信を行うことが可能であり、右コントローラ4が本体装置2に対して行う通信方法を制御する。 As shown in FIG. 7 , the right controller 4 includes a communication control section 111 that communicates with the main unit 2 . The right controller 4 also includes a memory 112 connected to the communication control section 111 . Communication control unit 111 is connected to each component including terminal 64 . The communication control section 111 and the memory 112 have functions similar to those of the communication control section 101 and the memory 102 of the left controller 3 . Therefore, the communication control unit 111 can communicate with the main unit 2 in both wired communication via the terminal 64 and wireless communication not via the terminal 64 (specifically, communication according to the Bluetooth (registered trademark) standard). Communication is possible, and the right controller 4 controls the method of communication with the main unit 2 .

右コントローラ4は、左コントローラ3の各入力部と同様の各入力部を備える。具体的には、各ボタン113、および、アナログスティック52を備える。これらの各入力部については、左コントローラ3の各入力部と同様の機能を有し、同様に動作する。 The right controller 4 has inputs similar to those of the left controller 3 . Specifically, each button 113 and analog stick 52 are provided. Each of these input sections has the same function as each input section of the left controller 3 and operates in the same manner.

右コントローラ4は、電力供給部118を備える。電力供給部118は、左コントローラ3の電力供給部108と同様の機能を有し、同様に動作する。 The right controller 4 has a power supply 118 . The power supply unit 118 has the same function as the power supply unit 108 of the left controller 3 and operates similarly.

[2.ゲームシステムにおける処理の概要]
図8~図22を参照して、ゲームシステム1において実行される処理の概要について説明する。本実施形態においては、ゲームシステム1は、プレイヤ(すなわち、ゲームシステム1のユーザ)が操作可能なプレイヤキャラクタが3次元の仮想空間であるゲームフィールド(以下、単に「フィールド」と記載する)を移動するゲームを実行する。ゲームシステム1は、プレイヤキャラクタが配置されるフィールドを示すフィールド画像を表示することに加え、フィールドのマップを示すマップ画像を表示することも可能である。本実施形態においては、マップ画像は、プレイヤの指示によってフィールド画像から切り替えて表示される他、少なくとも一部が常にフィールド画像と共に表示される場合もある。
[2. Overview of Processing in Game System]
An outline of the processing executed in the game system 1 will be described with reference to FIGS. 8 to 22. FIG. In this embodiment, in the game system 1, a player character operable by a player (that is, a user of the game system 1) moves in a game field (hereinafter simply referred to as "field") which is a three-dimensional virtual space. Run the game you want. The game system 1 can display a map image showing a map of the field in addition to displaying a field image showing the field in which the player character is placed. In this embodiment, the map image is displayed by switching from the field image according to the player's instruction, and in some cases, at least a part of the map image is always displayed together with the field image.

図8は、本実施形態におけるゲーム例の概要を示す図である。図8に示す左側の欄は、フィールドの状況を示しており、右側の欄は、表示されるマップ画像の例を示している。ここで、本実施形態においては、フィールドには複数の基準地点(例えば、図8に示す基準地点202)が設定される。基準地点は、プレイヤキャラクタ201が当該基準地点またはその近傍に位置する状態でプレイヤによる所定の操作入力(例えば、基準地点を調べる動作をプレイヤキャラクタに行わせるための操作入力)が行われたことに応じて、解放される。つまり、プレイヤキャラクタ201は、基準地点に到達して所定の動作(例えば、基準地点を調べる動作)を行うことで、当該基準地点を解放することができる。以下では、基準地点が解放されるゲームイベントを「解放イベント」と呼ぶ。なお、基準地点は、例えば、プレイヤキャラクタ201が解放済みである他の基準地点へワープ移動すること(いわゆるファストトラベル)ができたり、プレイヤキャラクタ201を回復することができたり、プレイヤキャラクタ201の装備やスキルや所持アイテムを変更することができたりする場所であってもよい。 FIG. 8 is a diagram showing an overview of a game example in this embodiment. The left column shown in FIG. 8 shows the status of the field, and the right column shows an example of the displayed map image. Here, in this embodiment, a plurality of reference points (for example, the reference points 202 shown in FIG. 8) are set in the field. The reference point is determined when the player performs a predetermined operation input (for example, an operation input for causing the player character to perform an action to check the reference point) while the player character 201 is positioned at or near the reference point. released accordingly. That is, the player character 201 can release the reference point by reaching the reference point and performing a predetermined action (for example, an action of checking the reference point). A game event in which a reference point is released is hereinafter referred to as a "release event". Note that the reference point can be used, for example, to warp the player character 201 to another reference point that has been released (so-called fast travel), to recover the player character 201, or to restore the player character 201's equipment. It may also be a place where you can change your skills or possessed items.

本実施形態においては、基準地点が解放される前においては、一部の例外(例えば、プレイヤキャラクタ201自身もしくはその周囲や、後述する目印オブジェクト203)を除き、フィールドは暗闇の状態となっている(図8に示す状態a)。なお、図8においては、図面をわかりやすくする目的で、暗闇となっている範囲を斜線で示しているが、ゲームシステム1は、プレイヤが視認不可能または視認困難な態様で暗闇となるフィールドを表示する(後述する図15等参照)。図8に示す状態aにおいては、プレイヤキャラクタ201の周囲と、基準地点202を示す目印オブジェクト203とを除いてフィールドは暗闇となっているので、フィールドの探索を行いにくい状態であると言える。 In this embodiment, the field is in a dark state before the reference point is released, except for some exceptions (eg, the player character 201 or its surroundings, and a landmark object 203, which will be described later). (State a shown in FIG. 8). In FIG. 8, for the purpose of making the drawing easier to understand, the range of darkness is indicated by diagonal lines. display (see FIG. 15 and the like, which will be described later). In state a shown in FIG. 8, the field is dark except for the surroundings of the player character 201 and the mark object 203 indicating the reference point 202, so it can be said that it is difficult to search the field.

また、基準地点が解放される前においては、マップ画像は、フィールド情報が示されない態様で表示される(図8に示す状態a)。フィールド情報とは、フィールドに関する情報であり、例えば、フィールドを形成する地形の情報(具体的には、地形の形状等)、フィールドに設置されているオブジェクトの情報、フィールドに配置されているアイテムの情報、あるいは、フィールド上に存在するキャラクタの情報等である。図8に示す状態aにおいては、マップ画像は、プレイヤキャラクタ201の位置および向きを示すマーク204のみが示され、マーク204以外の他のフィールド情報は示されない態様で表示される。このように、基準地点が解放される前におけるマップ画像は、少なくとも一部のフィールド情報が示されない態様で表示されればよく、他の一部のフィールド情報(例えば、図8に示すマーク204)は解放前において示されていてもよい。 Also, before the reference point is released, the map image is displayed in a manner in which field information is not displayed (state a shown in FIG. 8). Field information is information about a field. For example, information about the terrain that forms the field (specifically, the shape of the terrain, etc.), information about objects placed in the field, and information about items placed in the field. It is information or information of characters existing on the field. In the state a shown in FIG. 8, the map image is displayed in such a manner that only the mark 204 indicating the position and orientation of the player character 201 is shown, and the field information other than the mark 204 is not shown. In this way, the map image before the reference point is released may be displayed in such a manner that at least part of the field information is not shown, and other part of the field information (for example, the mark 204 shown in FIG. 8) is displayed. may be indicated prior to release.

一方、プレイヤキャラクタ201によって基準地点(図8に示す例では、基準地点202)が解放されると、フィールドのうち当該基準地点の周囲の領域は、暗闇ではなく、光が当たる範囲となる(図8に示す状態b)。以下では、フィールドのうち、光が当たる範囲を「照射範囲」と呼ぶ。詳細は後述するが、ゲームシステム1は、プレイヤが視認可能な態様で照射範囲を表示する(後述する図17等参照)。 On the other hand, when the reference point (the reference point 202 in the example shown in FIG. 8) is released by the player character 201, the area around the reference point in the field becomes a range where light hits instead of darkness (see FIG. 8). state b) shown in FIG. In the following, the range of the field on which the light hits is referred to as the "illumination range". Although the details will be described later, the game system 1 displays the irradiation range in a manner that can be visually recognized by the player (see FIG. 17 and the like, which will be described later).

また、基準地点が解放されると、マップ画像のうち当該基準地点の周囲についてはフィールド情報が示される態様で表示される(図8に示す状態b)。図8に示す例においては、解放された基準地点の周囲については、プレイヤキャラクタ201に関するマーク204に加えて、地形の形状を示す線と、基準地点を示すマーク205とが示されている。 Further, when the reference point is released, the area around the reference point in the map image is displayed in a manner in which field information is shown (state b shown in FIG. 8). In the example shown in FIG. 8, in addition to a mark 204 related to the player character 201, a line indicating the shape of the terrain and a mark 205 indicating the reference point are shown around the released reference point.

上記のように、解放イベントが発生すると、フィールドのうち解放された基準地点の周囲の領域が視認可能に表示されるようになるとともに、マップ画像においては当該基準地点の周囲の領域についてフィールド情報が表示されるようになる。これらによって、プレイヤは、解放された基準地点の周囲の探索をプレイヤキャラクタ201に行わせやすくなる。本実施形態においては、プレイヤは、フィールドにおける基準地点を解放させることを目的の1つとして、探索しやすい領域を基準地点の解放によって増やしながらゲームを進める。 As described above, when a release event occurs, the area around the released reference point in the field will be visible, and the map image will contain field information about the area around the reference point. will be displayed. These make it easier for the player to have the player character 201 search around the released reference point. In this embodiment, one of the purposes of the player is to release reference points on the field, and the player advances the game while increasing areas that are easy to search by releasing the reference points.

[2-1.マップの開放領域の設定]
図9~図14を参照して、基準地点が解放されることでマップ画像上においてフィールド情報が表示されるようになる領域(「解放領域」と呼ぶ。)の設定方法の一例について説明する。図9は、1つの基準地点が解放された場合における、フィールド対応平面と判定値との関係を示す図である。ここで、フィールド対応平面とは、3次元のフィールドに対応する2次元平面である。フィールド対応平面は、3次元のフィールドを鉛直方向に投影した平面と言うことができ、フィールド対応平面の2次元位置は、フィールドにおける水平方向の2次元座標(すなわち、フィールドの位置を示す3次元座標から高さ方向の座標を削除した2次元座標)が示す位置である。図9においては、上側にフィールド対応平面を示し、下側に、フィールド対応平面における判定値の変化を示すグラフを示している。具体的には、上記グラフは、解放された基準地点211を通る直線AB(図9において一点鎖線で示される直線)上における判定値の変化を示す。
[2-1. Map open area setting]
9 to 14, an example of a method of setting an area (referred to as a "released area") where field information is displayed on the map image when the reference point is released will be described. FIG. 9 is a diagram showing the relationship between the field corresponding plane and the judgment value when one reference point is released. Here, the field-corresponding plane is a two-dimensional plane corresponding to a three-dimensional field. The field-corresponding plane can be said to be a plane obtained by projecting a three-dimensional field in the vertical direction, and the two-dimensional position of the field-corresponding plane is the horizontal two-dimensional coordinate in the field (that is, the three-dimensional coordinate indicating the position of the field). is the position indicated by the two-dimensional coordinates obtained by deleting the coordinates in the height direction from . In FIG. 9, the upper side shows the field correspondence plane, and the lower side shows a graph showing the change in the determination value on the field correspondence plane. Specifically, the above graph shows changes in the determination value on a straight line AB (a straight line indicated by a dashed dotted line in FIG. 9) passing through the released reference point 211 .

判定値は、フィールド対応平面における解放領域を判定するために用いられる値である。本実施形態においては、ゲームシステム1は、フィールド対応平面における解放領域を判定するために、フィールド対応平面の各位置について判定値を算出する。なお、判定値は、フィールド対応平面において所定の単位区間毎の位置(「算出対象位置」と呼ぶ。)ごとに算出される。具体的には、マップ画像における各画素に対応する位置ごとに、判定値を用いた判定が行われる。 A determination value is a value used to determine the release area in the field correspondence plane. In this embodiment, the game system 1 calculates a determination value for each position on the field-corresponding plane in order to determine the release area on the field-corresponding plane. Note that the determination value is calculated for each position (referred to as “calculation target position”) for each predetermined unit section on the field corresponding plane. Specifically, determination using a determination value is performed for each position corresponding to each pixel in the map image.

本実施形態においては、各算出対象位置における判定値は、基準地点において設定される基準値に基づいて算出される。すなわち、ゲームシステム1は、基準地点について基準値を設定し、基準値に基づいて各算出対象位置における判定値をそれぞれ算出する。なお、本実施形態においては、基準地点における基準値の大きさは、基準地点ごとに設定されるものとし、基準値の大きさは基準地点ごとに異なる大きさであってもよい。例えば、各基準地点における基準値は、全ての基準地点が解放された場合にフィールド全体が解放領域となるように設定されてもよい。 In this embodiment, the determination value at each calculation target position is calculated based on the reference value set at the reference point. That is, the game system 1 sets a reference value for the reference point, and calculates the determination value at each calculation target position based on the reference value. Note that in the present embodiment, the magnitude of the reference value at the reference point is set for each reference point, and the magnitude of the reference value may be different for each reference point. For example, the reference value at each reference point may be set such that the entire field becomes an open area when all reference points are released.

本実施形態においては、1つの基準地点に基づいて算出される、ある位置の判定値(すなわち、1つの基準地点に設定される基準値に基づいて算出される判定値)は、当該基準地点からの距離に基づいて算出され、より具体的には、当該基準地点からの距離が長くなるにつれて減少するように算出される(図9参照)。例えば、図9に示す例においては、解放された基準地点211には基準値A1が設定されており、直線AB上の各算出対象位置における判定値は、基準地点211において基準値A1となり、基準地点211からの当該位置までの距離に応じて減衰するように変化する。判定値は、上記距離がある長さ以上となる位置では0になる。なお、基準値に基づいて各算出対象位置における判定値を決定する具体的な計算方法は任意である。 In the present embodiment, the determination value of a certain position calculated based on one reference point (that is, the determination value calculated based on the reference value set at one reference point) is calculated from the reference point More specifically, it is calculated so as to decrease as the distance from the reference point increases (see FIG. 9). For example, in the example shown in FIG. 9, a reference value A1 is set at the released reference point 211, and the determination value at each calculation target position on the straight line AB becomes the reference value A1 at the reference point 211. It changes so as to attenuate according to the distance from the point 211 to the position. The judgment value becomes 0 at a position where the above distance is greater than or equal to a certain length. A specific calculation method for determining the determination value at each calculation target position based on the reference value is arbitrary.

本実施形態においては、図9に示すように基準地点211のみが解放されている場合、ゲームシステム1は、基準地点211に基づく判定値のみを考慮して解放領域を設定する。具体的には、ゲームシステム1は、フィールド対応平面のうち、基準地点211に基づく判定値が所定のしきい値(図9におけるしきい値th)以上となる位置からなる領域を、解放領域として設定する。上記のように、判定値は、基準地点211から当該位置までの距離に応じて減衰するので、図9に示す例においては、基準地点211を中心とした円形領域212が解放領域となる。 In this embodiment, when only the reference point 211 is released as shown in FIG. 9, the game system 1 sets the release area by considering only the determination value based on the reference point 211. FIG. Specifically, the game system 1 designates an area of the field-corresponding plane at which the determination value based on the reference point 211 is equal to or greater than a predetermined threshold value (threshold value th in FIG. 9) as the release area. set. As described above, the determination value attenuates according to the distance from the reference point 211 to the position, so in the example shown in FIG.

図10は、図9に示す円形領域212が解放領域となる場合に表示されるマップ画像の一例を示す図である。上記の場合、図10に示すように、マップ画像の画素のうち、フィールド対応平面において判定値がしきい値以上となる位置に対応する画素についてフィールド情報が描画されるマップ画像が表示される。図9および図10に示すように、マップ画像においてフィールド情報が描画される範囲は、円形領域212に対応する。図10においては、領域212に対応する範囲について、フィールド情報として、地形の形状を示す線が表示される。なお、本実施形態においては、基準地点を示すマーク205は、当該基準地点の位置が解放領域内であるか否かに関わらず、プレイヤキャラクタ201が当該基準地点に到達したことによって表示されるようになるものとする。なお、本実施形態においては、マップ画像は、図10に示すように、ディスプレイ12の画面全体に表示される場合と、後述する図15に示すように、フィールドを示すフィールド画像に重ねられる態様で、ディスプレイ12の画面の一部に表示される場合とがある。 FIG. 10 is a diagram showing an example of a map image displayed when the circular area 212 shown in FIG. 9 is the released area. In the above case, as shown in FIG. 10, a map image is displayed in which field information is drawn for pixels corresponding to positions where the determination value is equal to or greater than the threshold value on the field corresponding plane among the pixels of the map image. As shown in FIGS. 9 and 10, the range in which the field information is drawn in the map image corresponds to the circular area 212. FIG. In FIG. 10, a line indicating the shape of the topography is displayed as field information for the range corresponding to the area 212 . In this embodiment, the mark 205 indicating the reference point is displayed when the player character 201 reaches the reference point regardless of whether or not the position of the reference point is within the release area. shall be In this embodiment, the map image is displayed on the entire screen of the display 12 as shown in FIG. 10, or is superimposed on the field image representing the field as shown in FIG. 15 described later. , may be displayed on a part of the screen of the display 12 .

上記のように、本実施形態においては、マップ画像は、フィールド情報を2次元的に示す画像である。また、判定値は、基準地点に対応する2次元的な位置からの2次元的な距離(すなわち、フィールド対応平面上における距離)に応じて減衰する値である。上記によれば、2次元平面上で解放領域を設定することができるので、少ない処理負荷で、2次元マップと親和性の高い領域を設定することができる。また、上記によれば、基準地点からの距離に応じて(例えば、基準地点から一定距離内の範囲が解放領域となるように)解放領域を設定することができる。なお、他の実施形態においては、ゲームシステム1は、3次元のフィールドにおける各位置について判定値を算出し、3次元のフィールド上で解放領域を設定するようにしてもよい。このとき、ゲームシステム1は、3次元のフィールド上における解放領域に基づいて、2次元のマップ画像において当該解放領域に対応する範囲を決定し、当該範囲内についてフィールド情報を示すマップ画像を生成する。また、他の実施形態においては、マップは3次元であってもよく、3次元のマップにおいて解放領域が設定され、3次元のマップを示すマップ画像が生成・表示されてもよい。 As described above, in this embodiment, the map image is an image that two-dimensionally shows field information. Also, the determination value is a value that attenuates according to the two-dimensional distance from the two-dimensional position corresponding to the reference point (that is, the distance on the field corresponding plane). According to the above, since the release area can be set on the two-dimensional plane, it is possible to set an area that has a high affinity with the two-dimensional map with a small processing load. Further, according to the above, it is possible to set the release area according to the distance from the reference point (for example, so that the range within a certain distance from the reference point becomes the release area). Note that in another embodiment, the game system 1 may calculate a determination value for each position in the three-dimensional field and set a release area on the three-dimensional field. At this time, the game system 1 determines a range corresponding to the released area in the two-dimensional map image based on the released area on the three-dimensional field, and generates a map image showing field information within that range. . In another embodiment, the map may be three-dimensional, and a release area may be set in the three-dimensional map, and a map image showing the three-dimensional map may be generated and displayed.

また、複数の基準地点が解放されている場合、ゲームシステム1は、解放済みの各基準地点のそれぞれに基づいて判定値を算出し、各判定値の合計値(「合計判定値」と呼ぶ)を算出対象位置ごとに算出する。解放領域は、合計判定値に基づいて設定される。なお、1つの基準地点のみが解放されている場合(図9参照)には、当該基準地点に設定される基準値に基づく判定値が合計判定値になる、と言うことができる。 Further, when a plurality of reference points are released, the game system 1 calculates a determination value based on each reference point that has been released, and sums the determination values (referred to as "total determination value"). is calculated for each calculation target position. The release area is set based on the total judgment value. In addition, when only one reference point is released (see FIG. 9), it can be said that the judgment value based on the reference value set at the reference point becomes the total judgment value.

図11は、2つの基準地点が解放された場合における、フィールド対応平面と判定値との関係を示す図である。図11においても図9と同様、上側にフィールド対応平面を示し、下側に、解放された基準地点を通る直線(図11においては、直線CD)上における判定値および合計判定値の変化を示すグラフを示している。なお、図11に示す直線CDは、解放された2つの基準地点211および213を通る。 FIG. 11 is a diagram showing the relationship between the field corresponding plane and the judgment value when two reference points are released. In FIG. 11, as in FIG. 9, the upper side shows the field correspondence plane, and the lower side shows the change in the judgment value and the total judgment value on the straight line (the straight line CD in FIG. 11) passing through the released reference point. showing a graph. Note that the straight line CD shown in FIG. 11 passes through the two released reference points 211 and 213 .

図11に示す場合、ゲームシステム1は、上述の算出対象位置のそれぞれについて合計判定値を算出する。合計判定値は、解放済みの各基準地点211および213に基づく各判定値の合計である。すなわち、ゲームシステム1は、各算出対象位置について、基準地点211に基づく判定値をそれぞれ算出するとともに、基準地点213に基づく判定値をそれぞれ算出する。基準地点211に基づく判定値は、基準地点211について設定される基準値A1が、基準地点211からの当該位置までの距離に応じて減衰する値として算出される。基準地点213に基づく判定値は、基準地点213について設定される基準値A2が、基準地点213からの当該位置までの距離に応じて減衰する値として算出される。ゲームシステム1は、各算出対象位置についてそれぞれ、基準地点211に基づく判定値と基準地点213に基づく判定値とを加算することで、算出対象位置ごとの合計判定値を算出する。図11の下側のグラフにおいては、実線で示される右側の山が、基準地点211に基づく判定値の変化を示し、実線で示される左側の山が、基準地点213に基づく判定値の変化を示し、太い点線で示される曲線が合計判定値の変化を示している。 In the case shown in FIG. 11, the game system 1 calculates the total determination value for each of the calculation target positions described above. The total decision value is the sum of each decision value based on each released reference point 211 and 213 . That is, the game system 1 calculates a determination value based on the reference point 211 and a determination value based on the reference point 213 for each calculation target position. The determination value based on the reference point 211 is calculated as a value attenuating the reference value A1 set for the reference point 211 according to the distance from the reference point 211 to the position. The determination value based on the reference point 213 is calculated as a value attenuating the reference value A2 set for the reference point 213 according to the distance from the reference point 213 to the position. The game system 1 adds the determination value based on the reference point 211 and the determination value based on the reference point 213 for each calculation target position, thereby calculating the total determination value for each calculation target position. In the graph on the lower side of FIG. 11 , the right-hand peak indicated by a solid line indicates the change in the determination value based on the reference point 211, and the left-hand peak indicated by the solid line indicates the change in the determination value based on the reference point 213. , and the curve indicated by the thick dotted line indicates the change in the total judgment value.

ゲームシステム1は、フィールド対応平面のうち、合計判定値が上述のしきい値th以上となる位置からなる領域を、解放領域として設定する。図11に示す例においては、基準地点211を中心とした円形領域212と、基準地点213を中心とした円形領域214とに対して、これら2つの円形領域を接続する領域215を加えた領域216(図11において斜線で示される領域)が解放領域となる。すなわち、複数の基準地点が解放されている場合における解放領域は、2次元のメタボールの手法によって生成されるということもできる。 The game system 1 sets, as the release area, an area of the field-corresponding plane, which consists of positions where the total determination value is equal to or greater than the threshold value th. In the example shown in FIG. 11, an area 216 is obtained by adding an area 215 connecting these two circular areas to a circular area 212 centered on a reference point 211 and a circular area 214 centered on a reference point 213. (the shaded area in FIG. 11) is the release area. In other words, it can be said that the release area in the case where a plurality of reference points are released is generated by the two-dimensional metaball method.

図12は、図11に示す領域216が解放領域となる場合に表示されるマップ画像の一例を示す図である。図12に示すように、マップ画像の画素のうち、フィールド対応平面において合計判定値がしきい値以上となる画素についてフィールド情報が描画されるマップ画像が表示される。フィールド情報が描画される範囲は、円形領域216に対応する。図12においては、フィールド情報として、地形の形状を示す線が表示される。また、図12に示す例においては、プレイヤキャラクタ201の位置および向きを示すマーク204に加えて、プレイヤキャラクタ201が到達した2つの基準地点を示すマーク205および221が表示される。このように、本実施形態においては、上記の合計判定値を用いて解放領域を設定するので、基準地点211および基準地点213の両方が解放された場合には、基準地点211のみが解放された場合、および、基準地点213のみが解放された場合のいずれの場合においても解放領域とはならない領域(すなわち、図11に示す領域215)が、解放領域に設定されることもある。 FIG. 12 is a diagram showing an example of a map image displayed when the area 216 shown in FIG. 11 becomes the released area. As shown in FIG. 12, a map image is displayed in which field information is drawn for pixels, among the pixels of the map image, for which the total determination value is equal to or greater than the threshold value on the field corresponding plane. The range in which field information is drawn corresponds to circular area 216 . In FIG. 12, a line indicating the shape of the landform is displayed as the field information. In the example shown in FIG. 12, in addition to the mark 204 indicating the position and orientation of the player character 201, marks 205 and 221 indicating two reference points reached by the player character 201 are displayed. Thus, in this embodiment, since the release area is set using the above total judgment value, only the reference point 211 is released when both the reference point 211 and the reference point 213 are released. In some cases, an area (that is, area 215 shown in FIG. 11) that does not become a released area in either case, or when only the reference point 213 is released may be set as a released area.

上記のように、本実施形態においては、複数の基準地点のそれぞれについて設定される基準値(すなわち、判定値の最大値)は、大きさが基準地点ごとに設定される。これによれば、基準地点が解放された場合に、当該基準地点を基準としてどの程度の大きさの領域を開放領域とするかを、基準地点ごとに設定することができる。例えば、図11に示す例においては、基準地点211に設定される基準値A1または基準地点213に設定される基準値A2の大きさを変更することで、基準地点211および213が解放された場合における解放領域の大きさや形状を変化させることができる。例えば、基準値A1および/または基準値A2をより小さい値に変更することで、基準地点211および213が解放された場合における解放領域を、互いに接続されない2つの円形領域とすることも可能である。なお、他の実施形態においては、複数の基準地点のそれぞれについて設定される基準値は、同じ値に設定されてもよい。さらに、複数の基準地点の基準値が同じ値であっても、距離に応じた減衰の度合いが基準地点ごとに異なるように判定値の算出方法を設定することによって、解放領域の範囲が基準地点ごとに異なるようにしてもよい。 As described above, in the present embodiment, the reference value (that is, the maximum determination value) set for each of a plurality of reference points is set for each reference point. According to this, when the reference point is released, it is possible to set for each reference point how large the area to be the open area is based on the reference point. For example, in the example shown in FIG. 11, the reference points 211 and 213 are released by changing the magnitude of the reference value A1 set at the reference point 211 or the reference value A2 set at the reference point 213. The size and shape of the release area in can vary. For example, by changing the reference value A1 and/or the reference value A2 to a smaller value, it is also possible to make the release area when the reference points 211 and 213 are released two circular areas that are not connected to each other. . Note that in other embodiments, the same reference value may be set for each of a plurality of reference points. Furthermore, even if the reference values of multiple reference points are the same, by setting the calculation method of the judgment value so that the degree of attenuation according to the distance differs for each reference point, the range of the release area can be It may be different for each.

また、上記のように、本実施形態においては、ゲームシステム1は、解放領域として、複数の基準地点のうち解放された状態となっている1つ以上の基準地点に基づく1つ以上の判定値を少なくとも合計した合計判定値が所定値(すなわち、上記しきい値th)以上となる位置からなる領域を特定する。上記によれば、解放領域の形状や大きさを、複数の基準地点の各解放状態に応じた多様なものにすることができる。 Further, as described above, in the present embodiment, the game system 1 uses, as the release area, one or more determination values based on one or more reference points that are in a released state among the plurality of reference points. is specified as a region including positions where a total judgment value obtained by summing at least the above is equal to or greater than a predetermined value (that is, the threshold value th). According to the above, the shape and size of the release area can be varied according to each release state of the plurality of reference points.

上記実施形態においては、ゲームシステム1は、解放済みの基準地点に設定される基準値に基づいて合計判定値を算出するようにしたが、さらに、解放済みの基準地点に加えて、未解放の基準地点に設定される基準値にも基づいて合計判定値を算出するようにしてもよい。以下、図13を参照して、未解放の基準地点に設定される基準値に基づいて合計判定値を算出する例について説明する。 In the above embodiment, the game system 1 calculates the total judgment value based on the reference values set for the released reference points. The total judgment value may be calculated also based on the reference value set at the reference point. Hereinafter, with reference to FIG. 13, an example of calculating the total determination value based on the reference values set at the unreleased reference points will be described.

図13は、2つの基準地点が解放され、1つの基準地点が未解放である場合における解放領域が設定されるフィールド対応平面の一例を示す図である。図13においては、3つの基準地点231~233がフィールドに配置されているものとする。また、図13においては、基準地点231および232は解放済みであり、基準地点231と基準地点232との間にある基準地点233は解放されていないものとする。 FIG. 13 is a diagram showing an example of a field corresponding plane on which a release area is set when two reference points are released and one reference point is not released. In FIG. 13, it is assumed that three reference points 231 to 233 are arranged in the field. Also, in FIG. 13, it is assumed that the reference points 231 and 232 have been released, and the reference point 233 between the reference points 231 and 232 has not been released.

図13に示す例において、解放済みの各基準地点231および232については、上記実施形態と同様に基準値が設定される。ここで、本変形例では、未解放の基準地点233については、解放された場合とは異なる基準値が設定される。以下では、解放済みの基準地点に設定される基準値を「第1基準値」と呼び、未解放の基準地点に設定される基準値を「第2基準値」と呼ぶ。すなわち、図13において基準地点233が解放された場合には、基準地点231および233と同様に第1基準値が設定される。 In the example shown in FIG. 13, reference values are set for the released reference points 231 and 232 in the same manner as in the above embodiment. Here, in this modified example, a different reference value is set for the unreleased reference point 233 than when it is released. Hereinafter, the reference value set for the released reference point is called "first reference value", and the reference value set for the unreleased reference point is called "second reference value". That is, when the reference point 233 is released in FIG. 13, the first reference value is set similarly to the reference points 231 and 233 .

図13に示す例においても、図9および図11に示した例と同様、ゲームシステム1は、第1基準値に基づく判定値(「第1判定値」と呼ぶ。)を、各算出対象位置について算出する。図13に示す例においては、基準地点231に設定される第1基準値に基づく第1判定値と、基準地点232に設定される第1基準値に基づく第1判定値とが、それぞれ各算出対象位置について算出される。さらに、図13に示す例においては、第2基準値に基づく判定値(「第2判定値」と呼ぶ。)を各算出対象位置について算出する。図13に示す例においては、基準地点233に設定される第2基準値に基づく第2判定値が、各算出対象位置について算出される。第2判定値は、基準地点において第2基準値となり、当該基準地点からの距離が長くなるにつれて減少し、当該距離がある長さ以上となる位置では0になる値である。 In the example shown in FIG. 13, similarly to the examples shown in FIGS. 9 and 11, the game system 1 sets the determination value based on the first reference value (referred to as "first determination value") to each calculation target position. Calculate about In the example shown in FIG. 13, the first determination value based on the first reference value set at the reference point 231 and the first determination value based on the first reference value set at the reference point 232 are calculated respectively. Calculated for the target location. Furthermore, in the example shown in FIG. 13, a determination value (referred to as a "second determination value") based on the second reference value is calculated for each calculation target position. In the example shown in FIG. 13, the second determination value based on the second reference value set at the reference point 233 is calculated for each calculation target position. The second determination value is a second reference value at a reference point, decreases as the distance from the reference point increases, and becomes 0 at a position where the distance is greater than or equal to a certain length.

図13においては、基準地点231および232を中心とした円形の点線は、第1基準値に基づく第1判定値が、所定の値となる位置を結ぶ線である。上記の点線のうち、点線234および235は、第1判定値が上述のしきい値となる位置を結ぶ線である。また、図13において、基準地点233を中心とした円形の一点鎖線は、第2基準値に基づく第2判定値が、所定の値となる位置を結ぶ線である。 In FIG. 13, circular dotted lines centered on reference points 231 and 232 are lines connecting positions where the first determination value based on the first reference value is a predetermined value. Of the above dotted lines, dotted lines 234 and 235 are lines connecting positions where the first determination value is the above threshold value. In FIG. 13, a circular dashed line centered on the reference point 233 is a line connecting positions at which the second determination value based on the second reference value is a predetermined value.

図13に示す例においては、ゲームシステム1は、第1判定値に加え、第2判定値にさらに基づいて合計判定値を算出する。具体的には、算出対象位置における合計判定値は、当該算出対象位置における第1判定値の合計から、当該算出対象位置における第2判定値の合計を減算することで得られる。図13に示す例においては、ゲームシステム1は、基準地点231の第1基準値に基づく第1判定値と、基準地点232の第1基準値に基づく第1判定値との合計値から、基準地点233の第2基準値に基づく第2判定値を減算することで合計判定値を算出する。なお、合計判定値に関する上記の算出方法は、第2基準値を負の値とし(その結果、第2判定値は負の値となる)、第1および第2判定値の合計を算出することと同義である。第1基準値と第2基準値の絶対値は、同じであってもよいし、異なっていてもよい。また、第1基準値に基づいた第1判定値の算出方法と第2基準値に基づいた第2判定値の算出方法は、同じであってもよいし、異なっていてもよい。 In the example shown in FIG. 13, the game system 1 calculates the total judgment value further based on the second judgment value in addition to the first judgment value. Specifically, the total judgment value at the calculation target position is obtained by subtracting the sum of the second judgment values at the calculation target position from the total of the first judgment values at the calculation target position. In the example shown in FIG. 13, the game system 1 calculates the reference A total judgment value is calculated by subtracting the second judgment value based on the second reference value of the point 233 . The above calculation method for the total judgment value is to calculate the sum of the first and second judgment values by setting the second reference value to a negative value (as a result, the second judgment value becomes a negative value). is synonymous with The absolute values of the first reference value and the second reference value may be the same or different. Moreover, the calculation method of the first determination value based on the first reference value and the calculation method of the second determination value based on the second reference value may be the same or different.

図13に示す例においては、第1判定値との合計値から第2判定値を減算するので、第2判定値の影響を受ける位置(すなわち、第2判定値が正の値となる位置)においては、合計判定値は、第2判定値を考慮しない場合(例えば、上記実施形態の場合)よりも小さくなる。したがって、図13に示す例においては、第2判定値を考慮しない場合においては解放領域となる領域の一部が、解放領域に設定されなくなる。図13に示す例においては、斜線で示される領域236が解放領域となり、第2判定値を考慮しない場合においては解放領域となる領域(実線で示される領域)237は、解放領域とはならない。このように、図13に示す例においては、未解放の基準地点の近傍の位置については、第2判定値の絶対値が大きくなるので、解放領域になりにくくなる。 In the example shown in FIG. 13, since the second determination value is subtracted from the sum of the first determination value and the position affected by the second determination value (that is, the position where the second determination value is a positive value) , the total judgment value is smaller than when the second judgment value is not considered (for example, in the above embodiment). Therefore, in the example shown in FIG. 13, a part of the area that would be the released area would not be set as the released area if the second determination value were not considered. In the example shown in FIG. 13, a hatched area 236 is a released area, and an area (solid line area) 237 that would be a released area when the second determination value is not considered is not a released area. As described above, in the example shown in FIG. 13, the absolute value of the second determination value is large for positions near the unreleased reference point, so that it is difficult to become a release area.

図13に示す例においては、合計判定値は、複数の基準地点のうちの解放済みの状態となっている1つ以上の基準地点についての1つ以上の第1判定値の合計から、複数の基準地点のうちの未解放の状態となっている1つ以上の基準地点についての1つ以上の第2判定値の合計を減算した値である。これによれば、未解放の基準地点およびその近傍の位置を解放領域になりにくくすることができる。 In the example shown in FIG. 13, the total determination value is obtained from the total of one or more first determination values for one or more reference points in the released state among the plurality of reference points. It is a value obtained by subtracting the total of one or more second determination values for one or more reference points that are in an unreleased state among the reference points. According to this, it is possible to make it difficult for an unreleased reference point and its vicinity to become a release area.

ここで、仮に未解放基準地点に基づく第2判定値を反映させずに合計判定値を算出するとすれば、例えば図13に示す場合には、未解放の基準地点233の近傍の位置まで解放領域となってしまう。その結果、未解放の基準地点233の近傍の位置までマップが解放され(つまり、マップ画像においてフィールド情報が表示され)、上述の照射範囲となるおそれがある。このとき、プレイヤが未解放の基準地点233を解放する動機付けが弱くなってしまい、基準地点を解放させることで探索範囲を拡げていくというゲーム性が失われるおそれがある。これに対して、上記変形例によれば、未解放の基準地点またはその近傍の位置が解放領域になりにくいので、未解放の基準地点を解放する動機付けが弱くなる可能性を低減することができ、ゲーム性を向上することができる。 Here, if the total judgment value is calculated without reflecting the second judgment value based on the unreleased reference point, for example, in the case shown in FIG. becomes. As a result, the map may be released up to a position near the unreleased reference point 233 (that is, the field information is displayed in the map image), resulting in the irradiation range described above. At this time, the player's motivation to release the unreleased reference point 233 is weakened, and there is a possibility that the game feature of expanding the search range by releasing the reference point may be lost. On the other hand, according to the modified example, since the unreleased reference point or the position in the vicinity thereof is less likely to become the release area, it is possible to reduce the possibility of weakening the motivation to release the unreleased reference point. You can improve the gameplay.

本実施形態において、ゲームシステム1は、上記の解放領域を示すデータとしてマップマスクを生成する。すなわち、マップマスクは、フィールドのうちで解放領域となっている領域を示す2次元データである。そして、ゲームシステム1は、解放領域についてフィールド情報が示されるマップ画像を、上記マップマスクを用いて生成する。 In this embodiment, the game system 1 generates a map mask as data indicating the release area. In other words, the map mask is two-dimensional data indicating the areas of the field that are free areas. Then, the game system 1 generates a map image showing field information for the released area using the map mask.

図14は、本実施形態におけるマップ画像の生成方法の一例を示す図である。本実施形態においては、ゲームシステム1は、元マップ画像とマップマスクとに基づいて、表示されるマップ画像を生成する。元マップ画像は、表示されるマップ画像を生成する元となる画像であり、フィールド情報が含まれるマップ画像を示す。元マップ画像は、フィールド全体が解放領域となる場合におけるマップ画像であると言うことができる。 FIG. 14 is a diagram showing an example of a method for generating a map image according to this embodiment. In this embodiment, the game system 1 generates a map image to be displayed based on the original map image and the map mask. The original map image is an image from which the map image to be displayed is generated, and indicates a map image containing field information. It can be said that the original map image is a map image in the case where the entire field becomes a free area.

本実施形態においては、マップマスクのデータは、2次元の各位置についてのマップマスク値を示すデータである。マップマスク値とは、マップ画像の生成のために元マップ画像を反映させる度合いを示す。例えば、マップマスク値は最大値が1で、最小値が0となる値である。このとき、マップマスク値が1である画素では、元マップ画像がそのままマップ画像に反映され、マップマスク値が0である画素では、元マップ画像が反映されないようにマップ画像が生成される。本実施形態においては、マップマスク値は、0から1までの範囲の多値の値である。詳細は後述するが、マップマスク値を多値の値とすることによって、解放領域の境界付近においてマップ画像をぼかして表示することができる。なお、他の実施形態においては、マップマスク値は0または1の2値の値であってもよい。 In this embodiment, the map mask data is data indicating a map mask value for each two-dimensional position. The map mask value indicates the degree to which the original map image is reflected for generating the map image. For example, the map mask value has a maximum value of 1 and a minimum value of 0. At this time, the map image is generated such that the original map image is directly reflected in the map image for the pixels with the map mask value of 1, and the original map image is not reflected for the pixels with the map mask value of 0. In this embodiment, the map mask value is a multi-valued value ranging from 0 to 1. Although the details will be described later, by setting the map mask value to a multivalued value, the map image can be displayed in a blurred manner near the boundary of the released area. Note that the map mask value may be a binary value of 0 or 1 in other embodiments.

マップマスク値は、上述の合計判定値に基づいて上述の算出対象位置ごとに設定される。具体的には、ある位置についての合計判定値が第1値より大きい場合、当該位置のマップマスク値は1に設定され、ある位置についての合計判定値が第2値より小さい場合、当該位置のマップマスク値は0に設定される。なお、第2値は、第1値よりも小さく、かつ、上記しきい値thよりも大きい値である。また、ある位置についての合計判定値が第2値以上かつ第1値以下である場合、当該位置のマップマスク値は0より大きく1より小さい範囲で、合計判定値の大きさに応じた大きさの値に設定される。上記によれば、マップマスク値は、基準地点から所定距離内の範囲内の位置については1に設定され、当該範囲の外側の範囲の位置では、基準地点からの距離に応じて小さくなる値に設定され、合計判定値がしきい値thよりも小さい位置(すなわち、解放領域外の位置)については0に設定される。なお、図14に示すマップマスクにおいては、マップマスク値が1である位置を白色で示し、マップマスク値が0である位置を黒色で示し、マップマスク値が中間値(すなわち、0より大きく1未満である値)となる位置については、値が大きいほど白色に近づくように灰色で示している。 The map mask value is set for each calculation target position based on the total determination value. Specifically, if the total judgment value for a position is greater than a first value, the map mask value for that position is set to 1, and if the total judgment value for a position is less than a second value, The map mask value is set to zero. The second value is smaller than the first value and larger than the threshold value th. Also, if the total judgment value for a certain position is equal to or greater than the second value and equal to or less than the first value, the map mask value for that position is greater than 0 and smaller than 1, and has a magnitude corresponding to the magnitude of the total judgment value. is set to the value of According to the above, the map mask value is set to 1 for positions within a predetermined distance from the reference point, and is set to a value that decreases according to the distance from the reference point for positions outside the range. is set, and 0 is set for positions where the total judgment value is smaller than the threshold value th (that is, positions outside the release area). In the map mask shown in FIG. 14, positions with a map mask value of 1 are shown in white, positions with a map mask value of 0 are shown in black, and the map mask value is an intermediate value (that is, 1 greater than 0). The positions where the values are less than ) are shown in gray so that the larger the value, the closer to white.

なお、合計判定値に基づいた算出方法の例として、次の式によってマップマスク値Mpが算出されてもよい。

Figure 2023098604000002
上式において、K、thresh、および、Overは定数であり、threshは上述のしきい値thである。Oiは、i番目の基準地点(iは1からnまでの自然数。nは基準地点の数を示す。)が解放済みであれば1、未解放であれば0となる変数である。Ciは、i番目の基準地点が解放済みであれば0、未解放であれば1となる変数である。定数aiは、i番目の基準地点において第1基準値となる第1判定値が、距離に応じて減衰する度合いを示す定数である。上式の例では第1基準値は1となる。定数biは、i番目の基準地点において第2基準値となる第2判定値が、距離に応じて減衰する度合いを示す定数である。上式の例では第2基準値は1となる。変数l(i,p)は、i番目の基準地点から位置p(具体的には、上述の算出対象位置)までの長さ(具体的には、上記フィールド対応平面上での長さ)である。上記の式においては、第1判定値の合計が大き過ぎて未開放の基準地点にどれだけ近くても第2判定値の合計を減算する効果が無いという結果を避けるため、第1判定値の合計が定数Overより大きい場合は当該合計を定数Overに置き換える計算を行っている。一方、第2判定値の合計の影響が大きくなり過ぎないよう、第2判定値の合計を2乗した値を減算する計算を行っている。また、減算の結果が負になる場合は値を0とする計算を行っている。 As an example of a calculation method based on the total judgment value, the map mask value Mp may be calculated by the following equation.
Figure 2023098604000002
where K, thresh, and Over are constants, and thresh is the threshold th above. Oi is a variable that is 1 if the i-th reference point (i is a natural number from 1 to n; n indicates the number of reference points) has been released, and 0 if it has not been released. Ci is a variable that is 0 if the i-th reference point has been released and 1 if it has not been released. A constant ai is a constant indicating the degree to which the first determination value, which is the first reference value at the i-th reference point, is attenuated according to the distance. In the example of the above expression, the first reference value is 1. The constant bi is a constant indicating the degree to which the second determination value, which is the second reference value at the i-th reference point, is attenuated according to the distance. In the example of the above formula, the second reference value is 1. The variable l(i, p) is the length (specifically, the length on the field-corresponding plane) from the i-th reference point to the position p (specifically, the calculation target position described above). be. In the above formula, in order to avoid the result that the total of the first judgment value is too large and there is no effect of subtracting the total of the second judgment value no matter how close the unopened reference point is, the first judgment value If the total is greater than the constant Over, calculation is performed to replace the total with the constant Over. On the other hand, in order to prevent the influence of the sum of the second determination values from becoming too large, calculation is performed to subtract the value obtained by squaring the sum of the second determination values. Also, if the result of subtraction is negative, the value is set to 0.

上記の式においては、各基準値を1としたが、上述したように、第1基準値および第2基準値は基準地点ごとに個別の値に設定されてよい。例えば、上記の式における「Oi」を「Oi*Ai」に置き換えると共に定数aiを削除し、「Ci」を「Ci*Bi」に置き換えると共に定数biを削除した式を用いることで、基準地点ごとに第1基準値および第2基準値が設定される場合におけるマップマスク値Mpを算出することができる。なお、変数Aiは、i番目の基準地点における第1基準値であり、変数Biは、i番目の基準地点における第2基準値である。また、他の実施形態においては、上記の式において定数aiおよびbiを残した上で、「Oi」を「Oi*Ai」に置き換え、「Ci」を「Ci*Bi」に置き換えた式が用いられてもよい。また、第1基準値および第2基準値のいずれかが固定値(=1)とされる場合には、上記の式において「Oi」または「Ci」のいずれかのみについて上記の置き換えを行った式を用いることでマップマスク値Mpを算出することができる。なお、マップマスク値を算出するための計算式は上記の式に限らない。他の実施形態においては、例えば、ある位置における判定値が基準位置から当該ある位置までの距離に応じて減衰する(例えば、判定値が当該距離の2乗に反比例する)ように算出される任意の計算式が用いられてもよい。 In the above formula, each reference value is 1, but as described above, the first reference value and the second reference value may be set to individual values for each reference point. For example, by using a formula in which "Oi" in the above formula is replaced with "Oi * Ai" and the constant ai is deleted, "Ci" is replaced with "Ci * Bi" and the constant bi is deleted, It is possible to calculate the map mask value Mp when the first reference value and the second reference value are set to . The variable Ai is the first reference value at the i-th reference point, and the variable Bi is the second reference value at the i-th reference point. In another embodiment, a formula is used in which constants ai and bi are retained in the above formula, and "Oi" is replaced with "Oi*Ai" and "Ci" is replaced with "Ci*Bi". may be Further, when either the first reference value or the second reference value is set to a fixed value (=1), only either "Oi" or "Ci" in the above formula is replaced as described above. The map mask value Mp can be calculated by using the formula. Note that the calculation formula for calculating the map mask value is not limited to the above formula. In another embodiment, for example, a decision value at a certain position is attenuated according to the distance from the reference position to the given position (for example, the decision value is inversely proportional to the square of the distance). may be used.

ゲームシステム1は、マップマスクを参照して、画素ごとのマップマスク値に応じた比率で、元マップ画像と未解放状態を示す画像とを合成することで、マップ画像を生成する。具体的には、ゲームシステム1は、マップマスク値が1である画素については元マップ画像がそのまま反映され、マップマスク値が0である画素については元マップ画像が反映されず、マップマスク値が中間値である画素についてはマップマスク値に応じた比率で元マップ画像が反映されるように、マップ画像を生成する。未解放状態を示す画像は、単色でもよいし、所定の模様等が描画されていてもよい。合成されたマップ画像に、さらに座標を分かり易くするための格子等が合成されてもよい。これによって、マップ画像は、解放領域内のうちの境界付近(具体的には、マップマスク値が中間値となる位置)では、薄く表示される(図14参照)。なお、図14では、マップ画像のうち薄く表示される部分を点線で示している。 The game system 1 generates a map image by referring to the map mask and synthesizing the original map image and the image representing the unreleased state at a ratio corresponding to the map mask value for each pixel. Specifically, in the game system 1, pixels with a map mask value of 1 reflect the original map image as they are, pixels with a map mask value of 0 do not reflect the original map image, and the map mask value is A map image is generated so that the pixels with intermediate values reflect the original map image at a ratio corresponding to the map mask value. The image indicating the unreleased state may be in a single color, or may be drawn with a predetermined pattern or the like. A grid or the like may be combined with the combined map image to make the coordinates easier to understand. As a result, the map image is displayed lightly near the boundary (specifically, the position where the map mask value is an intermediate value) within the released area (see FIG. 14). In addition, in FIG. 14, a portion of the map image that is displayed lightly is indicated by a dotted line.

上記のように、本実施形態においては、ゲームシステム1は、解放イベントが発生した場合、フィールドにおいて解放領域となっている範囲を示す2次元のマスクデータ(すなわち、マップマスク)を生成する。また、ゲームシステム1は、フィールド情報を含む元マップ画像にマスクデータを適用することによって、解放領域に対応する部分のフィールド情報が示されたマップ画像を生成させる。これによれば、解放領域の部分を示すマップ画像を容易に生成することができる。なお、他の実施形態においては、マップ画像の具体的な生成方法は任意であり、マスクデータを用いた方法に限定されない。 As described above, in the present embodiment, when a release event occurs, the game system 1 generates two-dimensional mask data (that is, map mask) indicating the range of the release area in the field. Also, the game system 1 applies mask data to the original map image including the field information to generate a map image showing the field information of the portion corresponding to the released area. According to this, it is possible to easily generate a map image showing the portion of the released area. Note that, in other embodiments, a specific map image generation method is arbitrary, and is not limited to a method using mask data.

なお、本実施形態においては、マスクデータは、フィールド内の位置における合計判定値の大きさに応じた多値の値を各位置について示すデータである。また、ゲームシステム1は、マスクデータが示す多値の値に応じた比率で画素ごとに元マップ画像と未解放状態を示す画像とを合成することによって、マップ画像を生成する。これによれば、解放領域の境界付近がぼかされたマップ画像を生成することができる。したがって、解放されたマップを自然な見た目にすることができる。 In the present embodiment, the mask data is data indicating, for each position in the field, a multivalued value corresponding to the magnitude of the total judgment value at the position within the field. In addition, the game system 1 generates a map image by synthesizing the original map image and the image indicating the unreleased state for each pixel at a ratio corresponding to the multi-valued values indicated by the mask data. According to this, it is possible to generate a map image in which the vicinity of the boundary of the released area is blurred. Therefore, the released map can be made to look natural.

[2-2.照射範囲の設定]
図15~図21を参照して、フィールド上において上述の照射範囲を設定する方法の一例について説明する。本実施形態においては、ゲーム中において所定の照射イベントが発生したことに応じて、フィールドのうち、当該照射イベントに応じた範囲が照射範囲となる。上述の解放イベントは、照射イベントの1つである。本実施形態においては、照射イベントとして、上述の解放イベントの他、キャラクタ発光イベント、および、アイテム配置イベントが発生し得る。なお、照射イベントの発生に応じて設定される照射範囲の他に、フィールド上に予め設定された照射範囲等も存在してもよい。
[2-2. Irradiation range setting]
An example of a method for setting the irradiation range on the field will be described with reference to FIGS. 15 to 21. FIG. In the present embodiment, when a predetermined irradiation event occurs during the game, the range corresponding to the irradiation event in the field becomes the irradiation range. The release event mentioned above is one of the illumination events. In this embodiment, in addition to the release event described above, a character light emission event and an item placement event can occur as illumination events. In addition to the irradiation range set according to the occurrence of the irradiation event, there may be an irradiation range or the like set in advance on the field.

キャラクタ発光イベントは、プレイヤキャラクタの周囲が照射範囲となるイベントである。本実施形態においては、キャラクタ発光イベントは、プレイヤキャラクタが発光する服を装備するイベントである。キャラクタ発光イベントは、例えば、プレイヤキャラクタが発光するアイテムを把持したり、発光する乗り物に搭乗したりするイベントであってもよい。 A character light emission event is an event in which the area around the player character is illuminated. In this embodiment, the character light-emitting event is an event in which the player character equips light-emitting clothes. The character light-emitting event may be, for example, an event in which the player character holds a light-emitting item or rides a light-emitting vehicle.

アイテム配置イベントは、光源が設定されるアイテム(「光源アイテム」と呼ぶ。)がフィールドにおける地面等の地形オブジェクトに配置され、光源アイテムの周囲が照射範囲となるイベントである。 An item placement event is an event in which an item for which a light source is set (referred to as a "light source item") is placed on a terrain object such as the ground in a field, and the area around the light source item becomes an irradiation range.

図15は、プレイヤキャラクタを含むフィールドを示すフィールド画像を含むゲーム画像の一例を示す図である。図15では、キャラクタ発光イベントが発生しており、他の照射イベントは発生していない状況である。本実施形態においては、ゲームシステム1は、プレイヤによる指示に応じて(例えば、発光する服をプレイヤキャラクタに装備させる操作入力に応じて)、キャラクタ発光イベントを発生させる。図15に示すように、キャラクタ発光イベントが発生した場合、プレイヤキャラクタ201の周囲の範囲(「キャラクタ影響範囲」と呼ぶ。)が照射範囲に設定される。キャラクタ影響範囲は、例えば、プレイヤキャラクタ201の位置から所定距離内の範囲である。なお、図15に示す状況では、キャラクタ影響範囲外の範囲は、照射範囲には設定されていないので、目印オブジェクト203を除き、暗闇として(すなわち、視認不可能または視認困難な態様で)表示される。なお、プレイヤキャラクタ201自身や、目印オブジェクト203のように、照射範囲外でも視認可能に表示されるオブジェクト(後述する対象外オブジェクト)については後述する。 FIG. 15 is a diagram showing an example of a game image including a field image showing a field containing player characters. In FIG. 15, a character light emission event has occurred and no other illumination event has occurred. In the present embodiment, the game system 1 generates a character light-emitting event in response to an instruction from the player (for example, in response to an operation input for equipping a player character with light-emitting clothes). As shown in FIG. 15, when a character light emission event occurs, the range around the player character 201 (referred to as "character influence range") is set as the irradiation range. The character influence range is, for example, a range within a predetermined distance from the position of the player character 201 . In the situation shown in FIG. 15, the range outside the character influence range is not set as the irradiation range, so it is displayed as dark (that is, in a form that is invisible or difficult to see) except for the mark object 203. be. Objects (non-target objects to be described later) such as the player character 201 itself and the mark object 203 that are visible even outside the irradiation range will be described later.

本実施形態においては、ゲームシステム1は、フィールドに環境光を設定し、キャラクタ影響範囲による照射範囲については環境光を反映して描画を行うことで、当該照射範囲を視認可能に表示する。環境光は、フィールド内の位置によらず所定の明るさが設定される光源である。詳細は後述するが、本実施形態においては、ゲームシステム1は、照射範囲外の範囲については、光源(例えば、環境光や点光源)を反映せずに描画を行うことで、視認不可能または視認困難な態様で当該範囲を表示する。 In this embodiment, the game system 1 sets the ambient light in the field, and draws the illumination range of the character influence range by reflecting the ambient light, thereby visually displaying the illumination range. Ambient light is a light source for which a predetermined brightness is set regardless of the position within the field. Although the details will be described later, in the present embodiment, the game system 1 renders the range outside the irradiation range by rendering without reflecting the light source (for example, environmental light or point light source), making it invisible or invisible. The range is displayed in a form that is difficult to see.

なお、本実施形態においては、ゲームシステム1は、フィールドを示すフィールド画像とともに、ディスプレイ12の画面の一部の領域(ここでは、画面の右下の領域)にマップ画像241を表示する。図15に示す状況では、解放イベントが未発生であるので、プレイヤキャラクタ201の位置および向きを示すマーク以外のフィールド情報を含まないマップ画像241が表示される。なお、他の実施形態においては、フィールド画像が表示される際にはマップ画像は表示されなくてもよい。 In this embodiment, the game system 1 displays the map image 241 in a partial area of the screen of the display 12 (here, the lower right area of the screen) along with the field image representing the field. In the situation shown in FIG. 15, since no release event has occurred, the map image 241 is displayed without field information other than marks indicating the position and orientation of the player character 201 . Note that in other embodiments, the map image may not be displayed when the field image is displayed.

上記のように、本実施形態においては、照射イベントの一例は、プレイヤによる操作入力に基づいて、プレイヤキャラクタの周囲が照射範囲となるイベント(すなわち、キャラクタ発光イベント)である。このとき、ゲームシステム1は、プレイヤキャラクタの位置を基準となる点の位置として設定し、当該基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように照射範囲を設定する。これによれば、プレイヤキャラクタの周囲を継続的に視認可能に表示することができるので、プレイヤキャラクタの周囲が全く見えないためにフィールドの探索を行うことが困難となる状況が生じるおそれを低減することができる。なお、他の実施形態においては、ゲームシステム1は、キャラクタ発光イベントの発生の有無にかかわらず、プレイヤキャラクタの周囲を照射範囲に常時設定してもよい。また、他の実施形態においては、ゲームシステム1は、照射イベントとしてキャラクタ発光イベントを発生させなくてもよい。 As described above, in the present embodiment, an example of a lighting event is an event (that is, a character lighting event) in which the surroundings of the player character become the lighting range based on the operation input by the player. At this time, the game system 1 sets the position of the player character as the position of the point serving as a reference, and based on the distance from the point serving as the reference, a range in which the distance is equal to or less than a threshold is included. Set the irradiation range. According to this, since the surroundings of the player character can be continuously displayed in a visible manner, it is possible to reduce the possibility of a situation in which it is difficult to search the field because the surroundings of the player character cannot be seen at all. be able to. In another embodiment, the game system 1 may always set the illumination range around the player character regardless of whether or not the character light emission event occurs. Also, in other embodiments, the game system 1 does not have to generate a character light emission event as an illumination event.

なお、上記においては、キャラクタ発光イベントはプレイヤキャラクタに関するイベントであったが、ゲームシステム1は、プレイヤキャラクタに加えて(または代えて)、プレイヤキャラクタとは異なる他のキャラクタ(例えば、プレイヤキャラクタの仲間のキャラクタや敵キャラクタ)についてキャラクタ発光イベントを実行し、当該他のキャラクタについても照射範囲を設定するようにしてもよい。例えば、他のキャラクタが自発光する態様に変化するキャラクタ発光イベントに応じて、当該他のキャラクタの位置に基づいて照射範囲が設定されてもよい。 In the above description, the character light emission event is an event related to the player character. character or an enemy character) may be executed, and the irradiation range may be set for the other character as well. For example, the irradiation range may be set based on the position of the other character in response to a character light emission event in which the other character changes to self-luminous mode.

図16は、プレイヤキャラクタが基準地点の近傍に位置する場合におけるゲーム画像の一例を示す図である。図16に示す状況は、図15に示す状況からプレイヤキャラクタ201が未解放の基準地点211の近傍まで移動してきた状況である。なお、本実施形態においては、目印オブジェクト203は照射範囲外であっても視認可能に表示されるので、プレイヤは、目印オブジェクト203を目標にして照射範囲外の基準地点211に向かってプレイヤキャラクタ201を移動させることができる。 FIG. 16 is a diagram showing an example of a game image when the player character is positioned near the reference point. The situation shown in FIG. 16 is a situation in which the player character 201 has moved from the situation shown in FIG. 15 to the vicinity of the unreleased reference point 211 . In the present embodiment, since the landmark object 203 is displayed so as to be visible even outside the irradiation range, the player aims at the landmark object 203 and directs the player character 201 toward the reference point 211 outside the irradiation range. can be moved.

図16に示すようにプレイヤキャラクタ201が基準地点211の近傍(具体的には、基準地点211から所定距離内の範囲)に位置する場合、プレイヤキャラクタ201は、当該基準地点211を解放する動作を行うことができる。すなわち、上記の場合、ゲームシステム1は、当該基準地点211を解放するための操作入力を受け付け、プレイヤによって当該操作入力が行われたことに応じて当該基準地点211を解放する。本実施形態においては、上記操作入力は、「しらべる」のコマンド(すなわち、プレイヤキャラクタ201に近傍を調べる動作を行わせるコマンド)を実行するための入力であり、具体的には、右コントローラ4のAボタン53を押下する入力である。上記の場合、上記操作入力を行うことができる状態であることをプレイヤに通知するべく、ゲームシステム1は、上記コマンドが実行可能であることを示すコマンド画像242を表示する(図16参照)。なお、当該基準地点211に到達した後に上記の操作がし易いよう、目印オブジェクト203の真下等の限られた範囲を、予め設定された(すなわち、照射イベントの発生の有無にかかわらず設定される)照射範囲としてもよい。 As shown in FIG. 16, when the player character 201 is positioned in the vicinity of the reference point 211 (specifically, within a predetermined distance from the reference point 211), the player character 201 makes an action to release the reference point 211. It can be carried out. That is, in the above case, the game system 1 accepts an operation input for releasing the reference point 211, and releases the reference point 211 in response to the operation input by the player. In the present embodiment, the operation input is an input for executing a command to "investigate" (that is, a command for causing the player character 201 to perform an action to investigate the vicinity). This is an input for pressing the A button 53 . In the above case, the game system 1 displays a command image 242 indicating that the command can be executed in order to notify the player that the operation input can be performed (see FIG. 16). In order to facilitate the above operation after reaching the reference point 211, a limited range such as directly below the mark object 203 is set in advance (that is, set regardless of whether an irradiation event occurs). ) may be the irradiation range.

基準地点211を解放するための操作入力が行われた場合、ゲームシステム1は、基準地点211の周囲の範囲を照射範囲に設定する。このとき、本実施形態においては、ゲームシステム1は、解放イベントを示すイベントシーンのアニメーションを表示する。例えば、上記イベントシーンとして、基準地点211の周囲が次第に明るくなっていく様子を示すアニメーションが表示される。 When an operation input for releasing the reference point 211 is performed, the game system 1 sets the range around the reference point 211 as the irradiation range. At this time, in the present embodiment, the game system 1 displays an event scene animation indicating the release event. For example, as the event scene, an animation is displayed showing how the surroundings of the reference point 211 gradually become brighter.

図17は、基準地点が解放された後のフィールドを示すゲーム画像の一例を示す図である。図17に示すように、基準地点211が解放される解放イベントが発生した場合、基準地点211の周囲の範囲が照射範囲に設定され、当該範囲が視認可能に表示される。なお、図17では、フィールドのうち、基準地点211の周囲の丘となっている部分が照射範囲に含まれて視認可能に表示され、丘の向こうの部分については照射範囲外であり、視認不可能な態様で表示されたままである。また、図17に示す状況では、基準地点211が解放されたことによって基準地点211の周囲のマップが解放される(すなわち、基準地点211を含む解放領域が設定される)ため、マップ画像241は、解放領域内についてフィールド情報を含むものとなっている。 FIG. 17 is a diagram showing an example of a game image showing the field after the reference points have been released. As shown in FIG. 17, when a release event in which the reference point 211 is released occurs, the range around the reference point 211 is set as the irradiation range, and the range is displayed so as to be visible. In FIG. 17, the portion of the field that is a hill around the reference point 211 is included in the irradiation range and displayed visibly, and the portion beyond the hill is outside the irradiation range and is invisible. It remains displayed in a possible manner. In addition, in the situation shown in FIG. 17, since the reference point 211 is released, the map around the reference point 211 is released (that is, a release area including the reference point 211 is set), so the map image 241 is , contains field information about the released area.

なお、照射範囲外でも視認可能であった目印オブジェクト203は、照射範囲内においても視認可能に表示される。ここで、本実施形態においては、ゲームシステム1は、解放イベントの発生に応じて、フィールドにおける所定の位置、例えば目印オブジェクト203の位置に点光源をさらに設定する。詳細は後述するが、描画処理においてゲームシステム1は、地形オブジェクトについて照射範囲に含まれる部分を、点光源をさらに反映して描画する。したがって、目印オブジェクト203の周囲については、環境光および点光源を反映して描画が行われるため、照射範囲のうち環境光のみを反映して描画が行われる部分よりも明るく表示される。すなわち、所定の範囲の視認性を確保した上で、点光源に基づいた明るさも表現することができる。なお、図17においては、照射範囲内であって目印オブジェクト203の位置に設定される点光源による光が特に反映されて明るい部分を白色領域で示し、照射範囲のうち点光源の影響が少ない部分を網がけ領域で示している。上記の点光源によって、解放イベントが発生したことをプレイヤに認識させやすくすることができる。 Note that the mark object 203 that was visible even outside the irradiation range is displayed so as to be visible even within the irradiation range. Here, in this embodiment, the game system 1 further sets a point light source at a predetermined position in the field, for example, the position of the mark object 203, in response to the occurrence of the release event. Although the details will be described later, in the rendering process, the game system 1 renders the portion of the terrain object included in the irradiation range by further reflecting the point light source. Therefore, since the surroundings of the mark object 203 are drawn by reflecting the ambient light and the point light source, they are displayed brighter than the part of the irradiation range that is drawn by reflecting only the ambient light. That is, it is possible to express brightness based on a point light source while ensuring visibility in a predetermined range. In FIG. 17, a white area indicates a bright portion in which the light from the point light source set at the position of the mark object 203 is particularly reflected within the irradiation range. is indicated by the shaded area. The above point light source can make it easier for the player to recognize that the release event has occurred.

照射イベントとして解放イベントが発生したことに応じて設定される照射範囲は、当該解放イベントに対応する基準地点に基づいて設定される。図18および図19を参照して、解放イベントが発生したことに応じて照射範囲を設定する方法について説明する。 The irradiation range set in response to the occurrence of the release event as the irradiation event is set based on the reference point corresponding to the release event. A method of setting the irradiation range in response to the occurrence of a release event will be described with reference to FIGS. 18 and 19. FIG.

図18は、1つの基準地点が解放された場合におけるフィールドを上から見た図である。図18に示す状況は、図9に示す基準地点211が解放された状況である。本実施形態においては、ゲームシステム1は、解放された基準地点に基づいた解放領域(図18では、領域212)と、当該基準地点に対応する地点影響範囲(図18では、地点影響範囲251)とに基づいて、照射範囲を設定する。なお、「基準地点に対応する地点影響範囲」とは、基準地点ごとに予め定められる範囲である。本実施形態においては、基準地点から所定距離内の範囲が地点影響範囲に設定される。なお、この所定距離は、基準地点ごとに設定され、基準地点ごとに異なる値であってもよいし、各基準地点について同じ値であってもよい。例えば、各基準地点における地点影響範囲は、全ての基準地点が解放された場合であってもフィールドの一部が地点影響範囲外となるように設定されてもよいし、当該場合にフィールドの全部が地点影響範囲内となるように設定されてもよい。前者の場合、フィールドには、全ての基準地点が解放された場合であっても照射範囲外となる部分が存在することとなる。 FIG. 18 is a top view of the field when one reference point is released. The situation shown in FIG. 18 is a situation in which the reference point 211 shown in FIG. 9 is released. In this embodiment, the game system 1 includes a release area (area 212 in FIG. 18) based on the released reference point, and a point influence range (point influence range 251 in FIG. 18) corresponding to the reference point. The irradiation range is set based on It should be noted that the "point influence range corresponding to the reference point" is a predetermined range for each reference point. In this embodiment, a range within a predetermined distance from the reference point is set as the point influence range. This predetermined distance is set for each reference point, and may be a different value for each reference point, or may be the same value for each reference point. For example, the point influence range at each reference point may be set so that even if all reference points are released, part of the field is outside the point influence range, or in such a case, the entire field may be set so as to be within the point influence range. In the former case, even if all the reference points are released, the field will have a portion outside the irradiation range.

本実施形態においては、ゲームシステム1は、フィールドのうち、上記地点影響範囲内で、かつ、上記解放領域内となる範囲を照射範囲に設定する。図18に示す例においては、解放領域212が地点影響範囲251の内側となっているので、解放領域212と同じ範囲が照射範囲となる。なお、図18においては、照射範囲外を斜線領域で示している。本実施形態においては、地点影響範囲は、上記のように基準地点ごとに設定され、当該地点影響範囲に対応する解放領域とは独立して設定される。そのため、地点影響範囲は、当該地点影響範囲に対応する解放領域よりも大きく(つまり、解放領域が地点影響範囲内に含まれるように)設定されてもよいし、当該解放領域よりも小さく(つまり、地点影響範囲が解放領域内に含まれるように)設定されてもよいし、当該解放領域と同じになるように設定されてもよい。なお、「基準地点に対応する解放領域」とは、当該基準地点のみが解放される場合に設定される解放領域である。 In the present embodiment, the game system 1 sets a range of the field within the point influence range and within the release area as the irradiation range. In the example shown in FIG. 18, since the release area 212 is inside the point influence range 251, the same range as the release area 212 becomes the irradiation range. In addition, in FIG. 18, the outside of the irradiation range is indicated by the shaded area. In this embodiment, the point influence range is set for each reference point as described above, and is set independently of the release area corresponding to the point influence range. Therefore, the point influence range may be set larger than the release area corresponding to the point influence range (that is, so that the release area is included in the point influence range), or smaller than the release area (that is, , the point influence range may be set to be included in the release area), or may be set to be the same as the release area. It should be noted that the “release area corresponding to the reference point” is the release area set when only the reference point is released.

なお、照射範囲は、解放領域の少なくとも一部を含むように任意の方法で設定されてもよい。例えば、他の実施形態においては、ゲームシステム1は、解放領域をそのまま照射範囲としてもよいし、解放領域と地点影響範囲との少なくとも一方の内側となる範囲を照射範囲として設定してもよい。 Note that the irradiation range may be set by any method so as to include at least part of the release area. For example, in another embodiment, the game system 1 may set the release area as the irradiation range as it is, or may set a range inside at least one of the release area and the point influence range as the irradiation range.

図19は、2つの基準地点が解放された場合におけるフィールドを上から見た図である。図19に示す状況は、図11に示す基準地点211および213が解放された状況である。 FIG. 19 is a top view of the field when two reference points are released. The situation shown in FIG. 19 is the situation in which the reference points 211 and 213 shown in FIG. 11 are released.

図19に示すように2つの基準地点211および213が解放された場合、図11に示したように、図19に示す点線で示される解放領域216が設定される。また、上述のように、ゲームシステム1は、解放された基準地点に対応する地点影響範囲内で、かつ、解放領域内となる範囲を照射範囲に設定する。したがって、図19に示す例においては、基準地点211に対応する地点影響範囲251または基準地点213に対応する地点影響範囲252の少なくともいずれかの内側であり、かつ、解放領域216の内側となる範囲が照射範囲となる。なお、図19においては、照射範囲外を斜線領域で示している。 When the two reference points 211 and 213 are released as shown in FIG. 19, a release area 216 indicated by dotted lines in FIG. 19 is set as shown in FIG. Further, as described above, the game system 1 sets, as the irradiation range, a range within the point influence range corresponding to the released reference point and within the release area. Therefore, in the example shown in FIG. 19, the range inside at least one of the point influence range 251 corresponding to the reference point 211 or the point influence range 252 corresponding to the reference point 213 and inside the release area 216 is the irradiation range. In addition, in FIG. 19, the outside of the irradiation range is indicated by the shaded area.

図19に示す例においては、地点影響範囲251が、基準地点211のみが解放される場合における解放領域(すなわち、図18に示す領域212)よりも大きく設定され、地点影響範囲252が、基準地点213のみが解放される場合における解放領域よりも大きく設定される。そのため、2つの基準地点211および213が解放される場合には、1つの基準地点211または213のみが解放される場合には照射範囲とならない範囲も照射範囲となる。例えば、図19に示す例においては、地点影響範囲251および252が互いに一部が重複するように設定されているので、2つの基準地点211および213が解放される場合には、基準地点211から基準地点213にわたって連続する1つの照射範囲が設定されることとなる。上記によれば、プレイヤは、2つの基準地点211および213を解放することで、これら2つの基準地点211および213の間のフィールドを探索しやすくなる。 In the example shown in FIG. 19, the point influence range 251 is set larger than the release area (that is, the area 212 shown in FIG. 18) when only the reference point 211 is released, and the point influence range 252 is set to be larger than the reference point 213 is set larger than the release area when only 213 is released. Therefore, when two reference points 211 and 213 are released, the range which is not an irradiation range when only one reference point 211 or 213 is released becomes an irradiation range. For example, in the example shown in FIG. 19, since the point influence ranges 251 and 252 are set so as to partially overlap each other, when the two reference points 211 and 213 are released, One continuous irradiation range is set over the reference point 213 . According to the above, by releasing the two reference points 211 and 213 , the player can easily explore the field between these two reference points 211 and 213 .

一方、基準地点211および213とは異なる他の2つの基準地点については、当該基準地点に対応する地点影響範囲は、当該基準地点のみが解放されるときの解放領域と同じであるかまたは小さく設定されてもよい。この場合は、図19に示す例とは異なり、上記2つの基準地点が解放されても照射範囲が2つの基準地点にわたって連続するように設定されず、連続しない2つの照射範囲が設定されることとなる。 On the other hand, for the other two reference points different from the reference points 211 and 213, the point influence range corresponding to the reference point is set equal to or smaller than the release area when only the reference point is released. may be In this case, unlike the example shown in FIG. 19, even if the two reference points are released, the irradiation range is not set so as to be continuous over the two reference points, and two discontinuous irradiation ranges are set. becomes.

上記のように、本実施形態においては、解放領域とは独立して地点影響範囲を設定し、解放領域と地点影響範囲とに基づいて照射範囲を設定することで、照射範囲の大きさおよび形状を自由に設定することができる。例えば、2つの基準地点が解放された場合において、当該2つの基準地点にわたって連続するように照射範囲を設定することも可能であるし、連続しない2つの照射範囲を設定することも可能である。 As described above, in the present embodiment, the point influence range is set independently of the release area, and the irradiation range is set based on the release area and the point influence range. can be set freely. For example, when two reference points are released, it is possible to set the irradiation range continuously over the two reference points, or to set two discontinuous irradiation ranges.

なお、詳細は後述するが、本実施形態においては、解放イベントによって設定される照射範囲については、ゲームシステム1は、上述の環境光によって当該照射範囲を視認可能に表示する。 Although the details will be described later, in the present embodiment, the game system 1 visually displays the irradiation range set by the release event using the ambient light described above.

上記のように、本実施形態においては、照射イベントの一例は、フィールド内に設定されたイベント発生位置(すなわち、基準位置)にプレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベント(すなわち、解放イベント)である。このとき、ゲームシステム1は、イベント発生位置を含む所定の範囲(具体的には、基準地点に基づく解放領域の範囲、または、地点影響範囲)が含まれるように照射範囲を設定する。これによれば、プレイヤキャラクタがイベント発生位置へ到達することで照射範囲を拡げていくゲームを提供することができる。このとき、照射範囲の形状は、上記のようにイベント発生位置からの距離に基づいた形状であってもよいし、他の実施形態においてはイベント発生位置を含む予め定められた形状であってもよい。 As described above, in the present embodiment, an example of an irradiation event is an event generated when the player character is positioned at the event occurrence position (that is, the reference position) set in the field. It is an event that occurs (ie a release event). At this time, the game system 1 sets the irradiation range so as to include a predetermined range including the event occurrence position (specifically, the range of the release area based on the reference point or the point influence range). According to this, it is possible to provide a game in which the irradiation range is expanded as the player character reaches the event occurrence position. At this time, the shape of the irradiation range may be a shape based on the distance from the event occurrence position as described above, or may be a predetermined shape including the event occurrence position in another embodiment. good.

本実施形態においては、アイテム配置イベントによっても照射範囲が設定される。図20は、光源アイテムが配置されたフィールドを示すゲーム画像の一例を示す図である。図20に示す状況は、フィールドにおける照射範囲外の位置に光源アイテム261が配置された状況である。光源アイテム261は、当該アイテムの位置に光源(具体的には、点光源)が設定されるオブジェクトである。本実施形態においては、プレイヤキャラクタ201は、所定の光源アイテムをフィールドに配置することができる。プレイヤキャラクタ201は、例えば、光源アイテムをプレイヤキャラクタ201の足下の地面においたり、投げたり、弓矢で飛ばしたりすることで光源アイテムを地面に配置する。本実施形態においては、プレイヤキャラクタ201は、アイテムとして光源アイテムを所有することができ、プレイヤの所望のタイミングで光源アイテムを地面に配置することができる。また、他の実施形態においては、例えばたいまつやろうそく等のアイテムが光源アイテムとして用いられてもよい。 In this embodiment, the irradiation range is also set by an item placement event. FIG. 20 is a diagram showing an example of a game image showing a field in which light source items are arranged. The situation shown in FIG. 20 is a situation in which the light source item 261 is placed at a position outside the irradiation range in the field. A light source item 261 is an object in which a light source (specifically, a point light source) is set at the position of the item. In this embodiment, the player character 201 can place a predetermined light source item on the field. The player character 201 places the light source item on the ground by, for example, placing the light source item on the ground under the player character 201, throwing it, or shooting it with a bow and arrow. In this embodiment, the player character 201 can possess a light source item as an item, and can place the light source item on the ground at a timing desired by the player. Also, in other embodiments, items such as torches and candles may be used as light source items.

フィールドにおける地面に光源アイテム261が配置された場合、ゲームシステム1は、光源アイテムの周囲の範囲(「アイテム影響範囲」と呼ぶ。)を照射範囲として設定する。アイテム影響範囲は、例えば、光源アイテム261の位置から所定距離内の範囲である。図20に示す例においては、フィールドにおける照射範囲外の位置に光源アイテム261が配置されることによって、当該位置に基づくアイテム影響範囲が照射範囲となり、当該範囲内のフィールドが視認可能に表示されている。このように、本実施形態においては、プレイヤは、基準地点を解放することに加えて、光源アイテムを配置することによっても、フィールドにおける視認可能な範囲を拡げることができる。例えば、プレイヤは、未解放の基準地点に向かって暗闇の領域(すなわち、照射範囲外の領域)をプレイヤキャラクタ201が進んでいく際に、当該領域に光源アイテムを配置することで、視界を確保しながらフィールドを進むことができる。 When the light source item 261 is placed on the ground in the field, the game system 1 sets the range around the light source item (referred to as "item influence range") as the illumination range. The item influence range is, for example, a range within a predetermined distance from the position of the light source item 261 . In the example shown in FIG. 20, by arranging the light source item 261 at a position outside the irradiation range in the field, the item influence range based on the position becomes the irradiation range, and the field within the range is visually displayed. there is Thus, in this embodiment, the player can expand the visible range in the field by placing light source items in addition to releasing reference points. For example, when the player character 201 advances through a dark area (that is, an area outside the irradiation range) toward an unreleased reference point, the player places a light source item in the area to ensure visibility. You can advance through the field while

本実施形態においては、アイテム配置イベントによって設定された照射範囲(すなわち、アイテム影響範囲)については、ゲームシステム1は、光源アイテムの位置に設定される点光源を反映してゲーム画像の描画を行う。つまり、アイテム配置イベントによって設定された照射範囲については、上述の環境光に加えて上記点光源を考慮して描画が行われる。なお、ゲーム画像の描画処理の詳細については後述する。 In this embodiment, the game system 1 renders a game image by reflecting the point light source set at the position of the light source item in the irradiation range (that is, the item influence range) set by the item placement event. . In other words, the irradiation range set by the item placement event is rendered in consideration of the point light source in addition to the ambient light. The details of the game image rendering process will be described later.

図21は、解放イベントによる照射範囲内に光源アイテムが配置された場合におけるフィールドを示すゲーム画像の一例を示す図である。この場合、光源アイテム261によるアイテム影響範囲については、環境光および点光源を反映して描画されるため、当該アイテム影響範囲外であって解放イベントによる照射範囲内よりも明るく表示される。なお、図21においては、照射範囲内であってアイテム影響範囲外の範囲を網がけ領域で示し、アイテム影響範囲を白色領域で示している。上記より、本実施形態によれば、プレイヤは、光源アイテム261が配置されたことを容易に認識することができる。 FIG. 21 is a diagram showing an example of a game image showing a field when a light source item is arranged within an irradiation range by a release event. In this case, the item influence range of the light source item 261 is rendered by reflecting the ambient light and the point light source, so that it is displayed outside the item influence range and brighter than the illumination range of the release event. In FIG. 21, the range within the irradiation range but outside the item influence range is indicated by a shaded area, and the item influence range is indicated by a white area. As described above, according to this embodiment, the player can easily recognize that the light source item 261 has been placed.

なお、図21に示すように解放イベントによる照射範囲内に光源アイテム261が配置された場合も、当該照射範囲外に配置される場合と同様、ゲームシステム1は、光源アイテム261によるアイテム影響範囲を照射範囲に設定する。ただし、アイテム影響範囲の全体が照射範囲にすでに設定されている範囲である場合には、フィールドにおける照射範囲は結果的に変化しないこととなる。 As shown in FIG. 21, even when the light source item 261 is placed within the irradiation range by the release event, the game system 1 sets the item influence range by the light source item 261, as in the case where it is placed outside the irradiation range. Set the irradiation range. However, if the entire item influence range is already set as the irradiation range, the irradiation range in the field will not change as a result.

上記の3種類の照射イベント(すなわち、キャラクタ発光イベント、解放イベント、および、アイテム配置イベント)について説明したように、本実施形態においては、フィールド内には、当該フィールド内の位置によらず所定の明るさが設定される光源(具体的には環境光)が少なくとも設定される。そして、ゲームシステム1は、描画処理において、フィールドにおける少なくとも一部の地形オブジェクト(例えば、図17に示す地面のオブジェクト)について照射範囲に含まれる部分を、上記光源を反映して描画する。これによれば、照射範囲について一定の明るさが確保されるので、フィールドの地形の形状等によらず照射範囲を見やすく(例えば、地形の陰によって暗く表示されることなく)表示することができる。 As described above for the three types of irradiation events (that is, the character light emission event, the release event, and the item placement event), in the present embodiment, in the field, a predetermined At least a light source for which brightness is set (specifically, ambient light) is set. Then, in the drawing process, the game system 1 draws a portion included in the illumination range of at least a part of the terrain object (for example, the ground object shown in FIG. 17) in the field, reflecting the light source. According to this, since a certain brightness is ensured for the irradiation range, the irradiation range can be displayed in an easy-to-see manner (for example, without being displayed darkly due to the shadow of the terrain) regardless of the terrain shape of the field. .

さらに本実施形態においては、上記環境光に加えて点光源が設定される。すなわち、ゲームシステム1は、所定のイベント(具体的には、解放イベント、および、アイテム配置イベント)の発生に応じてさらに点光源をフィールド内に設置する。また、ゲームシステム1は、描画処理において、フィールドにおける少なくとも一部の地形オブジェクトについて照射範囲に含まれる部分を、点光源をさらに反映して描画する。これによれば、上記所定のイベントが発生したこと、および、当該所定のイベントの発生によってフィールドがより明るくなったことをプレイヤに認識させやすくなる。 Furthermore, in this embodiment, a point light source is set in addition to the ambient light. That is, the game system 1 further installs a point light source within the field in response to the occurrence of a predetermined event (specifically, release event and item arrangement event). In addition, in the drawing process, the game system 1 draws the portion included in the illumination range of at least a part of the terrain object in the field by further reflecting the point light source. This makes it easier for the player to recognize that the predetermined event has occurred and that the field has become brighter due to the occurrence of the predetermined event.

なお、フィールドに設定される光源の種類は任意である。他の実施形態においては、例えば、点光源以外の形状の光源が環境光と共にフィールドに設定されてもよい。また、点光源が配置されず環境光のみがフィールドに設定されてもよい。 Any type of light source may be set in the field. In other embodiments, for example, a light source with a shape other than a point light source may be set in the field along with the ambient light. Alternatively, only ambient light may be set in the field without arranging the point light source.

また、本実施形態においては、上記所定のイベントは、所定のアイテム(具体的には光源アイテム)がフィールド上に配置されるイベントである。このとき、ゲームシステム1は、上記アイテムが配置された位置に基づいて、基準となる点の位置を設定し、当該基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲(すなわち、アイテム影響範囲)が含まれるように照射範囲を設定する。これによれば、プレイヤは、アイテムを配置することによって所望の位置に照射範囲を設定しやすくなる。 Further, in the present embodiment, the predetermined event is an event in which a predetermined item (specifically, a light source item) is placed on the field. At this time, the game system 1 sets the position of the reference point based on the position where the item is arranged, and based on the distance from the reference point, the distance becomes equal to or less than the threshold value. Set the irradiation range to include the range (i.e., item influence range). According to this, the player can easily set the irradiation range at a desired position by arranging the item.

なお、「所定のアイテムがフィールド上に配置されるイベント」とは、所定のアイテムが単にフィールドに配置されることによって発生するイベントに限らず、所定のアイテムが一定条件下でフィールドに配置されることによって発生するイベントをも含む意味である。例えば、「所定のアイテムがフィールド上に配置されるイベント」とは、フィールドに配置される当該アイテムに一定の衝撃が加えられたことを条件とするイベントであってもよい。上記条件は、所定のアイテムがフィールドに落下する際に落下によって一定の衝撃が加えられたことであってもよいし、フィールドに配置された所定のアイテムに対して他のオブジェクトによって一定の衝撃が加えられたことであってもよい。 Note that "an event where a specified item is placed on the field" is not limited to an event that occurs when a specified item is simply placed on the field, but where a specified item is placed on the field under certain conditions. This also includes events that occur as a result. For example, "an event in which a predetermined item is placed on the field" may be an event that requires that the item placed in the field is subjected to a certain amount of impact. The above condition may be that a certain impact is applied by dropping a predetermined item onto the field, or that a certain impact is applied to a predetermined item placed on the field by another object. It may have been added.

なお、点光源が設定されるイベントは、アイテム配置イベントに限らず、他の種類のイベントであってもよい。例えば、他の実施形態においては、ゲームシステム1は、キャラクタ発光イベントの発生に応じてプレイヤキャラクタ201の位置に点光源を設定し、キャラクタ影響範囲については当該点光源を反映して描画を行うことで、照射範囲を視認可能に表示してもよい。 Note that the event in which the point light source is set is not limited to the item placement event, and may be another type of event. For example, in another embodiment, the game system 1 sets a point light source at the position of the player character 201 in response to the occurrence of a character light emission event, and draws the character influence range by reflecting the point light source. , the irradiation range may be visually displayed.

上記の3種類の照射イベント(すなわち、キャラクタ発光イベント、解放イベント、および、アイテム配置イベント)について説明したように、本実施形態においては、所定のイベント(具体的には、照射イベント)の発生に応じて、照射範囲の基準となる点を仮想空間内に設定する。そして、基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように照射範囲を設定する。これによれば、イベントの発生に応じて、当該イベントに応じた位置とその周囲を照射範囲に設定することができる。 As described above for the three types of irradiation events (that is, character light emission event, release event, and item placement event), in the present embodiment, when a predetermined event (specifically, irradiation event) occurs, Accordingly, a point that serves as a reference for the irradiation range is set in the virtual space. Then, based on the distance from the reference point, the irradiation range is set so as to include a range in which the distance is equal to or less than the threshold value. According to this, according to the occurrence of an event, the position corresponding to the event and its surroundings can be set as the irradiation range.

なお、上記「当該距離がしきい値以下となる範囲」とは、キャラクタ発光イベントにおいてはキャラクタ影響範囲であり、解放イベントにおいては地点影響範囲または解放領域の範囲であり、アイテム配置イベントにおいてはアイテム影響範囲である。 In addition, the above "range where the distance is equal to or less than the threshold value" is the character influence range for character light emission events, the point influence range or the release area range for release events, and the item Influence range.

また、上記「照射範囲の基準となる点」とは、本実施形態においては、キャラクタ発光イベントにおけるプレイヤキャラクタ201の位置、解放イベントにおける基準地点の位置、および、アイテム配置イベントにおける光源アイテムの位置である。ただし、上記「照射範囲の基準となる点」とは、厳密にこれらの位置である必要はなく、これらの位置に基づいて決定される位置であってよい。例えば、上記「照射範囲の基準となる点」は、プレイヤキャラクタ201の位置、基準地点の位置、あるいは、光源アイテムの位置から少しずれた位置であってもよい。 Further, in the present embodiment, the above-mentioned "reference point of the irradiation range" is the position of the player character 201 in the character light emission event, the position of the reference point in the release event, and the position of the light source item in the item placement event. be. However, the above-mentioned "reference point of the irradiation range" does not have to be strictly these positions, and may be a position determined based on these positions. For example, the "reference point of the irradiation range" may be the position of the player character 201, the position of the reference point, or a position slightly deviated from the position of the light source item.

また、本実施形態において、照射イベントの発生に応じて設定される照射範囲は、発生時から次第に拡がるように制御されてもよい。すなわち、ゲームシステム1は、照射イベントの発生に応じて上記の基準となる点が設定された後、照射範囲を判定するための上記しきい値を時間経過に応じて増加させることで照射範囲を拡大してもよい。なお、上記しきい値とは、キャラクタ発光イベントにおいては、キャラクタ影響範囲に設定される距離のしきい値であり、解放イベントにおいては、地点影響範囲に設定される距離のしきい値であり、アイテム配置イベントにおいては、アイテム影響範囲に設定される距離のしきい値である。これによれば、照射イベントが発生した際に、フィールドにおける明るい領域が次第に拡大していく様子を表示することができる。なお、上記において、照射範囲は、所定時間経過後に拡大を停止するように制御される。また、ゲームシステム1は、全ての照射イベントについて照射範囲を次第に拡大させる必要はなく、照射イベントのうち所定のイベント(例えば、解放イベントおよびアイテム配置イベント)について、照射範囲を次第に拡大させる制御を行うようにしてもよい。 Further, in the present embodiment, the irradiation range set according to the occurrence of the irradiation event may be controlled so as to gradually expand from the time of occurrence. That is, after the reference point is set in accordance with the occurrence of the irradiation event, the game system 1 increases the threshold value for judging the irradiation range over time, thereby increasing the irradiation range. May be enlarged. The threshold is a distance threshold set in the character influence range in the character light emission event, and a distance threshold set in the point influence range in the release event. For item placement events, this is the distance threshold set for the item's range of influence. According to this, it is possible to display how the bright area in the field gradually expands when the irradiation event occurs. In addition, in the above, the irradiation range is controlled so as to stop expanding after a predetermined time has elapsed. In addition, the game system 1 does not need to gradually expand the irradiation range for all irradiation events, and performs control to gradually expand the irradiation range for predetermined events (for example, release events and item placement events) among the irradiation events. You may do so.

上述のように、本実施形態においては、所定のオブジェクトについては、当該オブジェクトが照射範囲外に位置する場合でも視認可能に表示される。以下では、このようなオブジェクトを「対象外オブジェクト」と呼ぶ。具体的には、本実施形態においては、対象外オブジェクトは、所定の種類のキャラクタ、および、自発光オブジェクトである。所定の種類のキャラクタとは、より具体的には、プレイヤキャラクタおよび敵キャラクタである。また、自発光オブジェクトとは、描画に関する設定において、自身が光っているように表示される設定が行われるオブジェクトである。例えば、上述の目印オブジェクト203は自発光オブジェクトである。 As described above, in the present embodiment, a predetermined object is displayed so as to be visible even when the object is positioned outside the irradiation range. Such objects are hereinafter referred to as "non-target objects". Specifically, in the present embodiment, non-target objects are predetermined types of characters and self-luminous objects. The predetermined types of characters are, more specifically, player characters and enemy characters. In addition, a self-luminous object is an object that is set to appear as if it is glowing in the drawing settings. For example, the landmark object 203 described above is a self-luminous object.

詳細は後述するが、ゲーム画像を描画する際、ゲームシステム1は、対象外オブジェクトについては、照射範囲外に位置する場合であっても、上述の光源を反映しない描画設定でなく、当該対象外オブジェクトに予め設定される描画設定に基づいて描画を行う。本実施形態においては、所定の種類のキャラクタが照射範囲外に位置する場合には、当該キャラクタは陰が付された上で視認可能に描画される。したがって、所定の種類のキャラクタは、暗闇として表示される、照射範囲外の他のオブジェクトとは、区別可能に表示される。 Although the details will be described later, when drawing a game image, the game system 1 does not use the drawing setting that does not reflect the light source, even if the non-target object is positioned outside the illumination range. Rendering is performed based on rendering settings preset for the object. In this embodiment, when a character of a predetermined type is positioned outside the irradiation range, the character is shaded and drawn to be visible. Therefore, the predetermined type of character is displayed in a distinguishable manner from other objects outside the illumination range, which are displayed as dark.

また、自発光オブジェクトについては、照射範囲外に位置する場合であっても、当該オブジェクトに設定されたエミッション等の描画設定に基づいて描画が行われる。その結果、例えば図15に示す目印オブジェクト203のように、自発光オブジェクトは、暗闇として表示される、照射範囲外の他のオブジェクトと区別可能に表示される。 In addition, even when the self-luminous object is positioned outside the irradiation range, drawing is performed based on drawing settings such as emission set for the object. As a result, the self-luminous object, such as the mark object 203 shown in FIG. 15, is displayed in such a way that it can be distinguished from other objects outside the irradiation range that are displayed as darkness.

上記のように、本実施形態においては、照射イベントは、フィールド内において基準地点に関連付けて設定されたイベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベント(すなわち、解放イベント)である。なお、図15および図16に示すように、自発光オブジェクトである目印オブジェクトは、フィールドにおいて、複数の基準地点のそれぞれに対応する位置(例えば、基準地点の上方の位置)にそれぞれ配置される。ゲームシステム1は、目印オブジェクトが照射範囲に含まれるか否かにかかわらず、照射範囲に含まれない他のオブジェクトと区別可能な表示となるように当該目印オブジェクトを描画する。これによれば、プレイヤは、目印オブジェクトを目標にすることで、照射範囲外の基準地点に向かってプレイヤキャラクタを移動させやすくなる。 As described above, in the present embodiment, the irradiation event is an event generated by performing a predetermined operation input when the player character is positioned at the event generation position set in association with the reference point within the field. (ie release event). Note that, as shown in FIGS. 15 and 16, the landmark objects, which are self-luminous objects, are arranged in the field at positions corresponding to the plurality of reference points (for example, positions above the reference points). Regardless of whether or not the mark object is included in the irradiation range, the game system 1 draws the mark object so as to be distinguishable from other objects not included in the irradiation range. According to this, by targeting the landmark object, the player can easily move the player character toward the reference point outside the irradiation range.

[2-3.画像生成処理]
次に、フィールドのうち照射範囲外の部分を暗闇として(すなわち、視認不可能または視認困難な態様で)表示されるゲーム画像の生成方法の一例について説明する。本実施形態においては、ゲームシステム1は、照射範囲内のオブジェクトについては、フィールドに設定される光源を反映して描画を行う一方、照射範囲外のオブジェクト(ただし、上記の対象外オブジェクトを除く)については、光源を反映せず、当該オブジェクトに対応する画素を黒色で描画する。これによれば、照射範囲外のオブジェクトを視認不可能にすることができ、フィールドを探索するために基準地点を解放する動機付けをプレイヤに効果的に与えることができる。以下、ゲーム画像の生成方法の具体例について説明する。
[2-3. Image generation processing]
Next, an example of a method of generating a game image in which a portion of the field outside the irradiation range is displayed as dark (that is, in a manner that is invisible or difficult to see) will be described. In this embodiment, the game system 1 draws objects within the irradiation range by reflecting the light source set in the field, while objects outside the irradiation range (excluding the above-mentioned non-target objects) For , the pixels corresponding to the object are drawn in black without reflecting the light source. According to this, the object outside the irradiation range can be made invisible, and the player can be effectively motivated to release the reference point to search the field. A specific example of the game image generation method will be described below.

本実施形態では、ゲームシステム1は、ディファードレンダリング(ディファードシェーディング、あるいは、遅延シェーディングとも言う)に基づく手法でゲーム画像の描画を行う。すなわち、ゲームシステム1は、1フレームの間に以下に説明する第1~第3の段階を経て描画処理を実行する。 In this embodiment, the game system 1 renders game images by a method based on deferred rendering (also called deferred shading or delayed shading). That is, the game system 1 executes the drawing process through the first to third stages described below during one frame.

第1の段階において、ゲームシステム1は、仮想空間内の各オブジェクト(キャラクタオブジェクトや地形オブジェクトを含む)について描画に用いられる情報をGバッファ(ジオメトリバッファ)に書き込む。Gバッファには、描画される画素ごとに、例えば、当該画素に対応するポリゴンの法線の情報、および、当該画素に対応するポリゴンに設定される色の情報等が書き込まれる。本実施形態においては、これらの情報以外にさらに、画素に対応するフィールド上の位置を示す座標や、対象外オブジェクトが描画される画素であることを示す情報等がGバッファに格納される。また、第1の段階において、ゲームシステム1は、フィールド上の位置の深度(奥行き)情報を、当該位置に対応する画素ごとに深度バッファに書き込む。 In the first stage, the game system 1 writes information used for drawing each object (including character objects and terrain objects) in the virtual space into the G buffer (geometry buffer). For each pixel to be drawn, for example, information about the normal line of the polygon corresponding to the pixel, information about the color set for the polygon corresponding to the pixel, and the like are written into the G buffer. In this embodiment, in addition to these pieces of information, the G-buffer also stores the coordinates indicating the position on the field corresponding to the pixel, the information indicating that the non-target object is drawn on the pixel, and the like. Also, in the first stage, the game system 1 writes the depth (depth) information of the position on the field to the depth buffer for each pixel corresponding to the position.

第2の段階において、ゲームシステム1は、Gバッファおよび深度バッファに書き込まれた情報、および、フィールドに設定される光源の情報に基づいて、ライティングに関する情報をライトバッファに書き込む。ライトバッファには、例えば、描画される画素ごとに、対応するフィールド上の位置の明るさを示す情報が書き込まれる。なお、他の実施形態においては、ゲームシステム1は、ライティングに関する計算を第2の段階で行うものとするが、他の実施形態においては、ライティングに関する計算は、フレームバッファへの描画を行う後述の第3の段階で行われてもよい。 In the second stage, the game system 1 writes information about lighting into the light buffer based on the information written into the G buffer and depth buffer, and the information of the light source set in the field. In the write buffer, for example, information indicating the brightness of the position on the corresponding field is written for each pixel to be drawn. Note that in another embodiment, the game system 1 performs lighting-related calculations in the second stage. It may be done in a third stage.

また、本実施形態においては、第2の段階において、ゲームシステム1は、暗闇マスクのデータを生成する。暗闇マスクは、描画される画素ごとに対応するフィールド上の位置が、暗闇として描画される位置(すなわち、照射範囲外の位置)であるか否か、もしくは暗闇として描画される度合いを画素ごとに示すデータである。本実施形態においては、暗闇マスクは、暗闇を表す色(上述のように、本実施形態においては黒色)で描画される度合いを示す暗闇マスク値を画素ごとに示す。例えば、暗闇マスク値は、0以上1以下の値であり、暗闇を表す色で描画される画素については1に設定され、暗闇を表す色が反映されない画素については0に設定される。また、暗闇マスク値が中間値(すなわち、0より大きく1未満である値)となる場合、中間値は、暗闇を表す色が当該画素に反映される度合いが大きいほど大きい値をとる。本実施形態においては、照射範囲外の位置に対応する画素については、暗闇マスク値は1に設定され、照射範囲内の位置に対応する画素については、暗闇マスク値は1未満の値に設定される。したがって、暗闇マスクは、フィールドにおける照射範囲を示すデータであると言うことができる。詳細は後述するが、当該暗闇マスクは、仮想空間内の照射範囲と、Gバッファに記憶された、フィールド上の位置を示す座標データ等に基づいて生成される。さらに、上述の対象外オブジェクトが描画される画素に対応する画素については、暗闇を反映しない値とする。なお、他の実施形態においては、照射範囲外の位置に対応する画素については、暗闇マスク値が所定値以上(この所定値は、0より大きく1より小さい値である)に設定され、照射範囲内の位置に対応する画素については、暗闇マスク値は当該所定値未満の値に設定されてもよい。また、本実施形態においては、暗闇マスク値は0から1までの範囲の多値の値であるとするが、他の実施形態においては、暗闇マスク値は0または1の2値の値であってもよい。 Also, in the present embodiment, the game system 1 generates darkness mask data in the second stage. The darkness mask indicates whether the position on the field corresponding to each pixel to be drawn is a position to be drawn as dark (i.e., a position outside the irradiation range) or the degree to which it is drawn as dark for each pixel. data shown. In this embodiment, the darkness mask indicates for each pixel a darkness mask value that indicates the degree to which the pixel is rendered in a color representing darkness (black in this embodiment, as described above). For example, the darkness mask value is a value greater than or equal to 0 and less than or equal to 1, and is set to 1 for pixels rendered in a color representing darkness, and set to 0 for pixels that do not reflect a color representing darkness. Also, when the darkness mask value is an intermediate value (that is, a value greater than 0 and less than 1), the greater the degree to which the color representing darkness is reflected in the pixel, the greater the intermediate value. In this embodiment, the darkness mask value is set to 1 for pixels corresponding to positions outside the irradiation range, and the darkness mask value is set to a value less than 1 for pixels corresponding to positions within the irradiation range. be. Thus, the darkness mask can be said to be data indicating the extent of illumination in the field. Although the details will be described later, the dark mask is generated based on the irradiation range in the virtual space, the coordinate data stored in the G buffer and indicating the position on the field, and the like. Further, the pixels corresponding to the pixels where the non-target objects are drawn are set to values that do not reflect darkness. In another embodiment, for pixels corresponding to positions outside the irradiation range, the darkness mask value is set to a predetermined value or more (this predetermined value is a value greater than 0 and less than 1), For pixels corresponding to positions within, the dark mask value may be set to a value less than the predetermined value. Also, in this embodiment, the darkness mask value is a multi-valued value ranging from 0 to 1, but in another embodiment, the darkness mask value is a binary value of 0 or 1. may

第3の段階において、ゲームシステム1は、各バッファ(すなわち、Gバッファ、深度バッファ、および、ライトバッファ)に書き込まれた情報および暗闇マスクに基づいて、光源による光の影響および暗闇が反映されたフィールドを示すフィールド画像の画素値をフレームバッファに書き込む。すなわち、ゲームシステム1は、Gバッファとライトバッファの情報に基づいた、仮想空間内の光源が反映された画素値に、暗闇マスクに基づいて黒色が上書きされた画素値をフレームバッファに書き込む。 In the third stage, the game system 1 reflects the light effects and darkness caused by the light source based on the information written in each buffer (i.e., the G buffer, the depth buffer, and the light buffer) and the darkness mask. Write the pixel values of the field image representing the field to the frame buffer. That is, the game system 1 writes to the frame buffer pixel values in which black is overwritten based on the darkness mask on the pixel values reflecting the light source in the virtual space based on the information in the G buffer and the light buffer.

図22は、フレームバッファに書き込まれるフィールド画像を生成する方法の一例を示す図である。図22に示すように、フィールド画像の各画素の画素値は、Gバッファに記憶される色の情報と、ライトバッファに記憶される明るさの情報と、暗闇マスクの暗闇マスク値とに基づいて算出される。まず、ライトバッファに記憶される明るさの情報を反映することで、光源による光が反映されたフィールド画像を得ることができる。すなわち、環境光や点光源による光が当たっているように表現されたフィールド画像を得ることができる。さらに、暗闇マスクを用いることで、照射範囲外については暗闇で表現されたフィールド画像を生成することができる(図22参照)。以上によって、ゲームシステム1は、照射範囲内については環境光や点光源による光が当たっているように表現されるとともに、照射範囲外については暗闇で表現されたフィールド画像を得ることができる。 FIG. 22 is a diagram showing an example of a method for generating field images to be written into the frame buffer. As shown in FIG. 22, the pixel value of each pixel of the field image is determined based on the color information stored in the G buffer, the brightness information stored in the light buffer, and the darkness mask value of the darkness mask. Calculated. First, by reflecting the brightness information stored in the light buffer, it is possible to obtain a field image in which the light from the light source is reflected. That is, it is possible to obtain a field image expressed as if it were illuminated by environmental light or point light sources. Furthermore, by using a dark mask, it is possible to generate a field image expressed in darkness outside the irradiation range (see FIG. 22). As described above, the game system 1 can obtain a field image in which the inside of the irradiation range is expressed as if it is illuminated by ambient light or point light source, and the outside of the irradiation range is expressed in darkness.

図22に示す暗闇マスクについては、暗闇マスク値が1である位置を黒色で示し、暗闇マスク値が0である位置を白色で示し、暗闇マスク値が中間値となる位置については、値が大きいほど黒色に近づくように灰色で示している。キャラクタ発光イベントやアイテム配置イベントに基づく照射範囲に関しては、暗闇マスク値は、照射範囲の基準点から所定距離内の位置に対応する画素については0となり、基準点から当該所定距離より離れた位置に対応する画素については、基準点からの距離に応じて次第に大きくなり、照射範囲外の位置に対応する画素については1となるように、設定される。なお、照射範囲の基準点とは、照射範囲の基準となる位置であり、具体的には、解放イベントに基づく照射範囲については基準位置であり、キャラクタ発光イベントに基づく照射範囲についてはプレイヤキャラクタの位置であり、アイテム配置イベントに基づく照射範囲については光源アイテムの位置である。 For the darkness mask shown in FIG. 22, locations with a darkness mask value of 1 are shown in black, locations with a darkness mask value of 0 are shown in white, and locations with intermediate darkness mask values have large values. It is shown in gray so that it approaches black as much as possible. For illumination ranges based on character light emission events and item placement events, the darkness mask value is 0 for pixels corresponding to positions within a predetermined distance from the reference point of the illumination range, For the corresponding pixels, it is set so that it gradually increases according to the distance from the reference point, and is set to 1 for the pixels corresponding to positions outside the irradiation range. Note that the reference point of the irradiation range is a position that serves as a reference for the irradiation range. position, and for illumination ranges based on item placement events, the position of the light item.

解放イベントに基づく照射範囲については、ゲームシステム1は、暗闇マスク値を算出するために用いられる2次元範囲データを算出し、当該2次元範囲データと、Gバッファに記憶された、フィールド上の位置を示す座標データのうち、水平面成分とに基づいて暗闇マスクを生成する。2次元範囲データは、上述のフィールド対応平面における各2次元位置について、暗闇マスク値を算出するために用いられる度合い値を示すデータである。2次元範囲データは、フィールドにおける照射範囲を示すデータであると言うことができる。なお、本実施形態においては、照射範囲を示すデータとして、2次元平面上での位置に関する上記2次元範囲データを生成するものとするが、他の実施形態においては、照射範囲を示すデータは、3次元のフィールドの位置を示すデータであってもよい。 For the irradiation range based on the release event, the game system 1 calculates the two-dimensional range data used to calculate the darkness mask value, and stores the two-dimensional range data and the position on the field stored in the G buffer. A darkness mask is generated based on the horizontal plane component of the coordinate data indicating . The two-dimensional range data is data indicating a degree value used for calculating the darkness mask value for each two-dimensional position on the field corresponding plane described above. The two-dimensional range data can be said to be data indicating the irradiation range in the field. In the present embodiment, the two-dimensional range data relating to the position on the two-dimensional plane is generated as the data indicating the irradiation range, but in other embodiments, the data indicating the irradiation range is It may be data indicating the position of a three-dimensional field.

上記度合い値は、暗闇マスク値と同様、描画処理において暗く描画する度合いを示す値である。度合い値は、例えば、照射範囲の基準点において最大となり、基準点からの距離に応じて次第に小さくなり、照射範囲外で0となるように変化する。したがって、度合い値は、照射範囲の基準点からの距離に応じて減衰する値に基づいて算出することができる。本実施形態においては、上記解放イベントに基づく照射範囲は、上述の合計判定値に基づいて設定される解放領域と、基準地点からの距離に基づく地点影響範囲とに基づいて設定される。そのため、解放イベントに基づく照射範囲についての度合い値は、上述の合計判定値と、基準地点からの距離に応じて減衰する値とに基づいて算出することができる。 Similar to the darkness mask value, the degree value is a value indicating the degree of dark drawing in the drawing process. For example, the degree value becomes maximum at the reference point of the irradiation range, gradually decreases according to the distance from the reference point, and changes to 0 outside the irradiation range. Therefore, the degree value can be calculated based on a value that attenuates according to the distance from the reference point of the irradiation range. In this embodiment, the irradiation range based on the release event is set based on the release area set based on the total determination value and the point influence range based on the distance from the reference point. Therefore, the degree value for the irradiation range based on the release event can be calculated based on the total determination value described above and a value that attenuates according to the distance from the reference point.

次に、ゲームシステム1は、各画素における暗闇マスク値を、各画素に対応する各位置における度合い値に基づいて算出する。例えば、上記度合い値を0以上1以下の範囲にスケーリングし、スケーリングされた値を1から減算した値として暗闇マスク値を得ることができる。以上のようにして算出される暗闇マスク値を用いることで、解放イベントに基づく照射範囲を反映した暗闇マスクを生成することができる。なお、解放領域の範囲と地点影響範囲とを同じにする場合は、上述のマップマスクが2次元範囲データとして用いられてもよい。 Next, the game system 1 calculates a darkness mask value at each pixel based on the degree value at each position corresponding to each pixel. For example, the degree value can be scaled to a range between 0 and 1, and the dark mask value can be obtained by subtracting the scaled value from 1. By using the darkness mask values calculated as described above, it is possible to generate a darkness mask that reflects the irradiation range based on the release event. Note that if the range of the release area and the point influence range are the same, the map mask described above may be used as the two-dimensional range data.

上記のように、本実施形態においては、ゲームシステム1は、解放イベントの発生に基づいて、フィールドにおける照射範囲を平面的に示す2次元範囲データを、フィールドのうちイベント発生位置(すなわち、基準地点の位置)に対応する範囲が少なくとも照射範囲となるよう生成し、2次元範囲データに基づいて暗闇マスクを生成する。 As described above, in the present embodiment, the game system 1, based on the occurrence of the release event, stores the two-dimensional range data that planarly indicates the irradiation range in the field at the event occurrence position (that is, the reference point) in the field. position) is generated so as to be at least the irradiation range, and a dark mask is generated based on the two-dimensional range data.

また、本実施形態においてはさらに、ゲームシステム1は、描画処理における上記第2の段階において、プレイヤキャラクタの位置に基づく照射範囲と、光源アイテムについて設定される点光源の位置に基づく照射範囲とを反映するように、暗闇マスクを生成する。これによって、各照射イベント(すなわち、解放イベント、キャラクタ発光イベント、および、アイテム配置イベント)を反映した暗闇マスクが生成される。 Further, in the present embodiment, the game system 1 divides the illumination range based on the position of the player character and the illumination range based on the position of the point light source set for the light source item in the second stage of the drawing process. Generate a darkness mask to reflect. This creates a darkness mask that reflects each lighting event (ie, release event, character lighting event, and item placement event).

なお、暗闇マスク値の算出方法は任意であり、上記の方法に限らない。例えば、他の実施形態においては、ゲームシステム1は、上記2次元範囲データを生成せずに、描画処理において暗闇マスクを直接生成してもよい。すなわち、ゲームシステム1は、描画処理の第2の段階において、画素に対応するフィールド上の各位置についての合計判定値と、基準地点からの距離に応じて減衰する値とに基づいて、解放イベントに基づく照射範囲を反映した暗闇マスクを生成してもよい。 Note that the method for calculating the darkness mask value is arbitrary, and is not limited to the above method. For example, in another embodiment, the game system 1 may directly generate a darkness mask in the rendering process without generating the two-dimensional range data. That is, in the second stage of the drawing process, the game system 1 determines the release event based on the total determination value for each position on the field corresponding to the pixel and the value that attenuates according to the distance from the reference point. A darkness mask may be generated that reflects the illumination range based on .

上記のように、本実施形態においては、ゲームシステム1は、描画処理において、少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が照射範囲に含まれるか否かを少なくとも示すマスクデータ(すなわち、暗闇マスクのデータ)を生成する。そして、マスクデータにおいて上記地形オブジェクトの位置が照射範囲に含まれることが示される画素については、光源を反映してフレームバッファへの描画を行う。また、マスクデータにおいて上記地形オブジェクトの位置が照射範囲に含まれないことが示される画素については、所定の色によってフレームバッファへの描画を行う。これによれば、マスクデータを用いることによって、照射範囲外が視認不可能または視認困難な態様で表現されるフィールド画像を生成することができる。所定の色は、たとえば黒色である。ただし黒色に限らず、グレーであったり、他の色であったりしてもよい。また、単色に限らず、所定の模様を有する画像として描画されてもよい。 As described above, in the present embodiment, in the rendering process, the game system 1 determines, for each pixel, whether the position corresponding to the pixel of the terrain object is included in the illumination range for at least a portion of the terrain object. Generate mask data (ie, dark mask data) that at least indicates whether or not. Then, the mask data indicates that the position of the terrain object is included in the irradiation range, and the pixels are drawn in the frame buffer by reflecting the light source. In addition, for pixels for which the mask data indicates that the position of the terrain object is not included in the irradiation range, drawing is performed in the frame buffer in a predetermined color. According to this, by using the mask data, it is possible to generate a field image in which the outside of the irradiation range is expressed in a form that is invisible or difficult to see. The predetermined color is black, for example. However, the color is not limited to black, and may be gray or other colors. Moreover, the image may be drawn as an image having a predetermined pattern, not limited to a single color.

また、本実施形態においては、上記マスクデータは、上記所定の色が描画される度合いを画素ごとに示すデータである。ゲームシステム1は、描画処理において、光源を反映して算出される画素値(すなわち、Gバッファに記憶される色の情報と、ライトバッファに記憶される明るさの情報とに基づく画素値)に対して、上記度合いに応じて所定の色を合成した画素値をフレームバッファに書き込む。これによれば、暗闇の度合いを多段階で表現することができる。例えば、上述のように、照射範囲の基準点において最大となり、基準点からの距離に応じて次第に小さくなり、照射範囲外で0となるように度合い値を設定することによって、照射範囲の境界において次第に暗闇が濃くなっていくようなフィールド画像を生成することができる(図22参照)。 Further, in the present embodiment, the mask data is data indicating the degree to which the predetermined color is drawn for each pixel. In the drawing process, the game system 1 uses pixel values calculated reflecting the light source (that is, pixel values based on color information stored in the G buffer and brightness information stored in the light buffer). On the other hand, a pixel value obtained by synthesizing a predetermined color according to the degree is written in the frame buffer. According to this, the degree of darkness can be expressed in multiple stages. For example, as described above, by setting the degree value so that it becomes maximum at the reference point of the irradiation range, gradually decreases according to the distance from the reference point, and becomes 0 outside the irradiation range, It is possible to generate a field image that gradually becomes darker (see FIG. 22).

また、本実施形態においては、ゲームシステム1は、フィールドの高さ方向以外の座標成分に対応する2次元の座標ごとに、描画処理において暗く描画する度合いを示す度合い値を示す2次元範囲データを生成する。ゲームシステム1は、上記合計判定値と、上記各座標において、基準地点に対応する2次元的な位置において基準値となり、当該2次元的な位置から当該座標への2次元的な距離に応じて減衰する値とに基づいて度合い値を算出する。描画処理においては、フレームバッファに描画する画素ごとに、フィールド内に設定された光源を反映して算出される画素値に対して、上記2次元範囲データが示す、当該画素に対応する2次元の座標における度合い値に応じて(当該度合い値に基づく暗闇マスク値に応じて、とも言うことができる。)所定の色(すなわち、黒色)を合成した画素値がフレームバッファに書き込まれる。上記によれば、フィールドを示す画像において上記所定の色を段階的に反映させることができる。これによって、例えば照射範囲の境界付近において次第に暗くなるようにフィールド画像を生成することができるので、より自然に見えるフィールド画像を生成することができる。 In addition, in the present embodiment, the game system 1 generates two-dimensional range data indicating a degree value indicating a degree of dark drawing in the drawing process for each two-dimensional coordinate corresponding to a coordinate component other than the height direction of the field. Generate. In the game system 1, the total determination value and the two-dimensional position corresponding to the reference point at each coordinate become a reference value, and the two-dimensional distance from the two-dimensional position to the coordinate A degree value is calculated based on the attenuation value. In the drawing process, for each pixel to be drawn in the frame buffer, the pixel value calculated reflecting the light source set in the field is converted to the two-dimensional range data corresponding to the pixel indicated by the two-dimensional range data. Depending on the degree value at the coordinates (which can also be said to be according to the darkness mask value based on the degree value), a pixel value composited with a predetermined color (ie, black) is written to the frame buffer. According to the above, the predetermined color can be reflected step by step in the image showing the field. As a result, it is possible to generate a field image that gradually darkens near the boundary of the irradiation range, for example, so that a field image that looks more natural can be generated.

本実施形態においては、ゲームシステム1は、上述の対象外オブジェクトについては、暗闇を表す黒色ではなく、オブジェクトごとに設定されている方法で描画を行う。具体的には、上記第1の段階において、ゲームシステム1は、上記の対象外オブジェクトに関する除外マスクのデータをGバッファに書き込む。除外マスクは、対象外オブジェクトの位置に対応する画素を示すデータである。除外マスクは、対象外オブジェクトに対応する画素について上記暗闇マスクの適用を除外することを示すものであると言うことができる。なお、ゲームシステム1は、対象外オブジェクトについて設定されている描画方法(例えば、自発光することや、所定の陰が付されること)を示すデータをGバッファに書き込んでおく。 In the present embodiment, the game system 1 draws the non-target objects described above using a method set for each object instead of black representing darkness. Specifically, in the first stage, the game system 1 writes exclusion mask data regarding the non-target object to the G buffer. An exclusion mask is data that indicates pixels corresponding to the location of an exclusion object. An exclusion mask can be said to indicate that pixels corresponding to non-interesting objects are excluded from application of the darkness mask. Note that the game system 1 writes in the G-buffer data indicating the drawing method (for example, self-luminous or shaded) set for the non-target object.

また、描画処理における上述の第3の段階において、ゲームシステム1は、上記除外マスクが示す画素については、暗闇マスクの暗闇マスク値にかかわらず、対象外オブジェクトについて設定された方法で描画を行う。これによって、対象外オブジェクトについては照射範囲外であっても暗闇として描画されることなく、設定された方法で描画されることとなる。なお、上記第2の段階において、上記除外マスクが示す画素については暗闇ではないことを示す値を暗闇マスクに書き込むようにしてもよい。 Also, in the third stage of the drawing process, the game system 1 draws the pixels indicated by the exclusion mask by the method set for the non-target object regardless of the darkness mask value of the darkness mask. As a result, even if the non-target object is outside the irradiation range, it will not be drawn as darkness, but will be drawn by the set method. In the second step, a value indicating that the pixel indicated by the exclusion mask is not dark may be written into the darkness mask.

上記のように、本実施形態においては、ゲームシステム1は、描画処理における第1の段階において、対象外オブジェクトについて、Gバッファおよび深度バッファへの書き込みを画素ごとに行わせるとともに、上記除外マスクのデータを生成する。そして、描画処理における第3の段階において、ゲームシステム1は、除外マスクのデータが示す画素について、地形オブジェクトのうち照射範囲に含まれない部分と対象外オブジェクトとを区別して視認することができる方法で(例えば、自発光しているように見える方法で、あるいは、所定の陰が付される方法で)描画を行う。これによれば、ゲームシステム1は、対象外オブジェクトが照射範囲外であっても視認可能な態様で当該対象外オブジェクトを表示することができる。 As described above, in the present embodiment, in the first stage of the rendering process, the game system 1 causes non-target objects to be written to the G buffer and the depth buffer for each pixel, and the exclusion mask. Generate data. Then, in the third stage of the rendering process, the game system 1 can distinguish and visually recognize a portion of the terrain object that is not included in the irradiation range and the non-target object for the pixels indicated by the data of the exclusion mask. (eg, in a way that appears to be self-luminous, or in a way that is shaded). According to this, the game system 1 can display the non-target object in a visible manner even if the non-target object is outside the irradiation range.

以上のように、本実施形態においては、ゲームシステム1は、いわゆるディファードレンダリングに基づいた描画処理によって、照射範囲外のオブジェクトを暗闇として描画する。すなわち、ゲームシステム1は、第1の段階において、フィールド内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行う。第2の段階において、ゲームシステム1は、画素ごとに、当該画素に対応する位置と、深度バッファに記憶された深度値と、照射範囲とに基づいて、暗闇マスクデータを生成する。第3の段階において、ゲームシステム1は、少なくともGバッファに記憶されるデータと、暗闇マスクデータとに基づいてフレームバッファへの描画を行う。上記によれば、ゲームシステム1は、ディファードレンダリングの技術を応用して、照射範囲外のオブジェクトを視認不可能または視認困難な態様で描画することができる。 As described above, in the present embodiment, the game system 1 draws an object outside the irradiation range as darkness by drawing processing based on so-called deferred rendering. That is, in the first stage, the game system 1 writes to the G-buffer and depth buffer about at least part of the terrain objects in the field. In the second stage, the game system 1 generates darkness mask data for each pixel based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the illumination range. In the third stage, the game system 1 draws to the frame buffer based on at least the data stored in the G-buffer and the darkness mask data. According to the above, the game system 1 can apply the technique of deferred rendering to draw an object outside the irradiation range in a manner that is invisible or difficult to see.

なお、他の実施形態においては、照射範囲外のオブジェクトを暗闇として描画するための方法は任意であり、ディファードレンダリングに基づく描画処理に限られない。他の実施形態においては、フォワードレンダリング(前方シェーディングとも言う)に基づいて描画処理が実行されてもよい。すなわち、ゲームシステム1は、描画処理において、少なくとも一部の地形オブジェクト(例えば、上記対象外オブジェクトを除くオブジェクト)に関して、照射範囲に含まれるか否かを画素ごとに判定し、照射範囲に含まれる画素については、光源を反映してフレームバッファへの描画を行い、照射範囲に含まれない画素については、所定の色(例えば、黒色)によってフレームバッファへの描画を行うようにしてもよい。上記によれば、ゲームシステム1は、フォワードレンダリングに基づいて、照射範囲外のオブジェクトを視認不可能または視認困難な態様で描画することができる。 Note that in other embodiments, any method may be used to render an object outside the illumination range as dark, and is not limited to rendering processing based on deferred rendering. In other embodiments, the rendering process may be performed based on forward rendering (also called forward shading). That is, in the drawing process, the game system 1 determines for each pixel whether or not at least some of the terrain objects (for example, objects other than the non-target objects) are included in the irradiation range. Pixels may be drawn in the frame buffer reflecting the light source, and pixels not included in the illumination range may be drawn in a predetermined color (for example, black) in the frame buffer. According to the above, the game system 1 can render an object outside the irradiation range in a manner that is invisible or difficult to see based on forward rendering.

[3.ゲームシステムにおける処理の具体例]
次に、図23~図27を参照して、ゲームシステム1における情報処理の具体例について説明する。
[3. Specific example of processing in game system]
Next, specific examples of information processing in the game system 1 will be described with reference to FIGS. 23 to 27. FIG.

図23は、ゲームシステム1における情報処理に用いられる各種データを記憶する記憶領域の一例を示す図である。図23に示す各記憶領域は、本体装置2がアクセス可能な記憶媒体(例えば、フラッシュメモリ84、DRAM85、および/または、スロット23に装着されたメモリカード等)に設けられる。図23に示すように、上記記憶媒体には、ゲームプログラムが記憶されるゲームプログラム領域が設けられる。ゲームプログラムは、本実施形態におけるゲーム処理(具体的には、図24に示すゲーム処理)を実行するためのものである。また、上記記憶媒体には、上述のGバッファ、深度バッファ、ライトバッファ、および、フレームバッファが設けられる。 FIG. 23 is a diagram showing an example of a storage area for storing various data used for information processing in the game system 1. As shown in FIG. Each storage area shown in FIG. 23 is provided in a storage medium accessible by main unit 2 (for example, flash memory 84, DRAM 85, and/or a memory card inserted in slot 23, etc.). As shown in FIG. 23, the storage medium is provided with a game program area in which a game program is stored. The game program is for executing the game processing (specifically, the game processing shown in FIG. 24) in this embodiment. Further, the storage medium is provided with the above-described G buffer, depth buffer, light buffer, and frame buffer.

また、上記記憶媒体には、上述の暗闇マスクのデータを記憶するための暗闇マスクデータ領域が設けられる。なお、上述の除外マスクのデータはGバッファに記憶される。さらに、上記記憶媒体には、ゲーム処理において用いられる各種のデータを記憶するための処理データ領域が設けられる。処理データ領域には、例えば、上述のマップマスクのデータ等が記憶される。また例えば、処理データ領域には、ゲームに登場する各種オブジェクト(例えば、プレイヤキャラクタや光源アイテム)に関するオブジェクトデータ(例えば、オブジェクトの位置および向きを示すデータ)が記憶される。 Further, the storage medium is provided with a darkness mask data area for storing the darkness mask data described above. It should be noted that the above exclusion mask data is stored in the G buffer. Further, the storage medium is provided with a processing data area for storing various data used in game processing. The processing data area stores, for example, the map mask data described above. Also, for example, the processing data area stores object data (eg, data indicating the position and orientation of the object) related to various objects (eg, player characters and light source items) appearing in the game.

図24は、ゲームシステム1によって実行されるゲーム処理の流れの一例を示すフローチャートである。ゲーム処理の実行は、例えば、上記ゲームプログラムの実行中において、プレイヤの指示に応じてゲームが開始されたことに応じて開始される。なお、本実施形態においては、ゲーム処理においては、フィールドを示すフィールド画像が表示されるフィールドモードと、上述のマップ画像がディスプレイ12の全体に表示されるマップ表示モードと、メニュー画像が表示されるメニュー表示モードという処理モードがある。ゲームの開始時における処理モードは任意であるが、ここでは例えばフィールドモードに設定されるものとする。 FIG. 24 is a flowchart showing an example of the flow of game processing executed by the game system 1. As shown in FIG. Execution of the game process is started, for example, when the game is started in response to an instruction from the player during execution of the game program. In the present embodiment, in game processing, a field mode in which a field image representing a field is displayed, a map display mode in which the above-described map image is displayed on the entire display 12, and a menu image are displayed. There is a processing mode called menu display mode. The processing mode at the start of the game is arbitrary, but here, for example, the field mode is set.

なお、本実施形態では、本体装置2のプロセッサ81が、ゲームシステム1に記憶されている上記ゲームプログラムを実行することによって、図24に示す各ステップの処理を実行するものとして説明する。ただし、他の実施形態においては、上記各ステップの処理のうちの一部の処理を、プロセッサ81とは別のプロセッサ(例えば、専用回路等)が実行するようにしてもよい。また、ゲームシステム1が他の情報処理装置(例えば、サーバ)と通信可能である場合、図24に示す各ステップの処理の一部は、他の情報処理装置において実行されてもよい。また、図24に示す各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えて(または代えて)別の処理が実行されてもよい。 In this embodiment, the processor 81 of the main device 2 executes the game program stored in the game system 1 to execute the processing of each step shown in FIG. However, in other embodiments, a part of the processing of each step described above may be executed by a processor other than the processor 81 (for example, a dedicated circuit or the like). Moreover, when the game system 1 can communicate with another information processing device (for example, a server), part of the processing of each step shown in FIG. 24 may be executed in the other information processing device. Further, the processing of each step shown in FIG. 24 is merely an example. and) other processing may be performed.

また、プロセッサ81は、図24に示す各ステップの処理を、メモリ(例えば、DRAM85)を用いて実行する。すなわち、プロセッサ81は、各処理ステップによって得られる情報(換言すれば、データ)をメモリに記憶し、それ以降の処理ステップにおいて当該情報を用いる場合には、メモリから当該情報を読み出して利用する。 Also, the processor 81 executes the processing of each step shown in FIG. 24 using a memory (for example, the DRAM 85). That is, the processor 81 stores information (in other words, data) obtained by each processing step in the memory, and when using the information in subsequent processing steps, reads the information from the memory and uses it.

図14に示すステップS1において、プロセッサ81は、プレイヤによる指示を示す上記操作データを取得する。すなわち、プロセッサ81は、コントローラ通信部83および/または各端子17および21を介して各コントローラから受信される操作データを取得する。ステップS1の次にステップS2の処理が実行される。 At step S1 shown in FIG. 14, the processor 81 acquires the operation data indicating the player's instruction. That is, processor 81 acquires operation data received from each controller via controller communication unit 83 and/or terminals 17 and 21 . After step S1, the process of step S2 is executed.

ステップS2において、プロセッサ81は、解放イベント等のイベントシーンの実行中であるか否かを判定する。上述のように、本実施形態においては、解放イベントが発生したことに応じて、解放イベントを示すイベントシーンのアニメーションの再生が開始される(後述するステップS26参照)。ステップS2においては、プロセッサ81は、上記イベントシーンのアニメーションが再生中であるか否かを判定する。ステップS2の判定結果が肯定である場合、ステップS3の処理が実行される。一方、ステップS2の判定結果が否定である場合、ステップS4の処理が実行される。 At step S2, the processor 81 determines whether or not an event scene such as a release event is being executed. As described above, in this embodiment, in response to the occurrence of the release event, the reproduction of the animation of the event scene indicating the release event is started (see step S26 described later). In step S2, the processor 81 determines whether or not the event scene animation is being reproduced. When the determination result of step S2 is affirmative, the process of step S3 is performed. On the other hand, if the determination result of step S2 is negative, the process of step S4 is executed.

ステップS3において、プロセッサ81は、実行中のイベントシーンを進行させる。すなわち、プロセッサ81は、上記イベントシーンのアニメーションの画像をディスプレイ12に表示させる。なお、1回のステップS3では、1フレーム分の画像が表示され、イベントシーンの実行中においてはステップS3の処理が繰り返し実行されることで、上記のアニメーションが再生されることとなる。イベント時の描画処理については、フィールド画像が表示されているフィールドモード中と同様の処理が実行される場合もあるが、異なる場面を表現する場合において異なる描画処理が行われてもよい。この異なる描画処理の具体的な内容は任意であり、詳細は省略する。なお、本実施形態においては、ゲームシステム1によって生成された画像はディスプレイ12に表示されるものとするが、当該画像は他の表示装置(例えば、上述した据置型モニタ)に表示されてもよい。ステップS3の次に、後述するステップS12の処理が実行される。 At step S3, the processor 81 advances the event scene being executed. That is, the processor 81 causes the display 12 to display the animation image of the event scene. Note that in one step S3, an image for one frame is displayed, and the above animation is reproduced by repeatedly executing the processing in step S3 during execution of the event scene. As for the drawing process at the time of the event, the same process as in the field mode in which the field image is displayed may be executed, but different drawing processes may be performed when different scenes are represented. The specific contents of this different rendering process are arbitrary, and the details are omitted. In this embodiment, the image generated by the game system 1 is displayed on the display 12, but the image may be displayed on another display device (for example, the stationary monitor described above). . After step S3, the process of step S12, which will be described later, is executed.

ステップS4において、プロセッサ81は、マップ画像を表示するマップ表示モード中であるか否かを判定する。詳細は後述するが、本実施形態においては、フィールド画像が表示されているフィールドモード中においてプレイヤによってマップ表示指示が行われたことに応じて、マップ表示モードが開始される(後述するステップS22参照)。ステップS4の判定結果が肯定である場合、ステップS5の処理が実行される。一方、ステップS4の判定結果が否定である場合、ステップS6の処理が実行される。 In step S4, processor 81 determines whether or not a map display mode for displaying a map image is in progress. Although the details will be described later, in this embodiment, the map display mode is started in response to the player issuing a map display instruction during the field mode in which the field image is displayed (see step S22 described later). ). When the determination result of step S4 is affirmative, the process of step S5 is performed. On the other hand, if the determination result of step S4 is negative, the process of step S6 is executed.

ステップS5において、プロセッサ81は、マップ画像をディスプレイ12に表示させる。すなわち、プロセッサ81は、上記“[2-1.マップの開放領域の設定]”で述べた方法に従ってマップ画像を生成し、生成されたマップ画像をディスプレイ12に表示させる。ステップS5においては(すなわち、マップ表示モードにおいては)、フィールド画像は表示されずにマップ画像がディスプレイ12の全領域に表示される(図10および図12参照)。また、マップ表示モードにおいて、プロセッサ81は、マップ画像の表示を終了する旨の指示を受け付け、当該指示が行われた場合、処理モードをフィールドモードに移行する。この場合、次に実行される上記ステップS4における判定結果が否定となり、後述のステップS11においてフィールド画像が表示される。ステップS5の次に、後述するステップS12の処理が実行される。 At step S5, the processor 81 causes the display 12 to display the map image. That is, the processor 81 generates a map image according to the method described in “[2-1. In step S5 (that is, in the map display mode), the map image is displayed over the entire area of display 12 without displaying the field image (see FIGS. 10 and 12). In the map display mode, the processor 81 accepts an instruction to end the display of the map image, and shifts the processing mode to the field mode when the instruction is received. In this case, the determination result in step S4, which is executed next, is negative, and the field image is displayed in step S11, which will be described later. After step S5, the process of step S12, which will be described later, is executed.

ステップS6において、プロセッサ81は、メニュー画像を表示するメニュー表示モード中であるか否かを判定する。詳細は後述するが、本実施形態においては、フィールド画像が表示されているフィールドモード中においてプレイヤによってメニュー表示指示が行われたことに応じて、メニュー表示モードが開始される(後述ステップS22参照)。ステップS6の判定結果が肯定である場合、ステップS7の処理が実行される。一方、ステップS6の判定結果が否定である場合、ステップS8の処理が実行される。 In step S6, the processor 81 determines whether or not it is in the menu display mode for displaying the menu image. Although the details will be described later, in this embodiment, the menu display mode is started in response to the player issuing a menu display instruction during the field mode in which the field image is displayed (see step S22 described later). . When the determination result of step S6 is affirmative, the process of step S7 is performed. On the other hand, if the determination result of step S6 is negative, the process of step S8 is executed.

ステップS7において、プロセッサ81は、メニュー画像をディスプレイ12に表示させる。ここで、本実施形態においては、プロセッサ81は、メニュー表示モードにおいて、各種の操作のうち少なくとも、プレイヤキャラクタの装備を変更する指示のための操作入力を受け付ける。すなわち、プレイヤは、メニュー画像においてプレイヤキャラクタの装備を変更することができ、例えば、上述の光る服をプレイヤキャラクタに装備させることができる。なお、図24に示すフローチャートにおいては省略するが、メニュー表示モードにおいては、メニュー画像に対する各種の指示(例えば、プレイヤキャラクタの装備を変更する指示や、アイテムを使用する指示等)のための操作入力が受け付けられ、プロセッサ81は、当該操作入力に応じてメニュー画像の内容を適宜変更して表示する。また、メニュー表示モードにおいて、プロセッサ81は、メニュー画像の表示を終了する旨の指示を受け付け、当該指示が行われた場合、処理モードをフィールドモードに移行する。この場合、次に実行される上記ステップS6における判定結果が否定となり、後述のステップS11においてフィールド画像が表示される。ステップS7の次に、後述するステップS12の処理が実行される。 At step S7, the processor 81 causes the display 12 to display the menu image. Here, in the present embodiment, the processor 81 receives at least an operation input for an instruction to change the player character's equipment among various operations in the menu display mode. That is, the player can change the equipment of the player character in the menu image, for example, can equip the player character with the above-described shiny clothes. Although omitted in the flowchart shown in FIG. 24, in the menu display mode, operation input for various instructions for the menu image (for example, instructions to change equipment of the player character, instructions to use items, etc.) is accepted, and the processor 81 appropriately changes and displays the contents of the menu image according to the operation input. In the menu display mode, the processor 81 accepts an instruction to end the display of the menu image, and shifts the processing mode to the field mode when the instruction is received. In this case, the determination result in step S6, which is executed next, is negative, and the field image is displayed in step S11, which will be described later. After step S7, the process of step S12, which will be described later, is executed.

ステップS8において、プロセッサ81は、プレイヤ関連制御処理を実行する。プレイヤ関連制御処理においては、プレイヤによる操作入力に基づいて各種の処理(例えば、プレイヤキャラクタに関する制御処理)が実行される。プレイヤ関連制御処理の詳細については、後述する図25に示すフローチャートで説明する。ステップS8の次に、ステップS9の処理が実行される。 In step S8, the processor 81 executes player-related control processing. In the player-related control process, various processes (for example, control process related to the player character) are executed based on the operation input by the player. Details of the player-related control process will be described later with reference to the flowchart shown in FIG. After step S8, the process of step S9 is executed.

ステップS9において、プロセッサ81は、他オブジェクト制御処理を実行する。他オブジェクト制御処理においては、プレイヤキャラクタ以外の他のオブジェクト(例えば、敵キャラクタや、上述の光源アイテム等)の制御が行われる。他オブジェクト制御処理の詳細については、後述する図26に示すフローチャートで説明する。ステップS9の次に、ステップS10の処理が実行される。 In step S9, the processor 81 executes other object control processing. In the other object control process, objects other than the player character (for example, enemy characters, light source items, etc.) are controlled. Details of the other object control processing will be described later with reference to the flowchart shown in FIG. After step S9, the process of step S10 is executed.

ステップS10において、プロセッサ81は、フィールドを示すフィールド画像の描画処理を実行する。フィールド画像の描画処理においては、上述したように、照射範囲外が暗闇で表されるフィールド画像が生成される。描画処理の詳細については、後述する図27に示すフローチャートで説明する。ステップS10の次に、ステップS11の処理が実行される。 In step S10, the processor 81 executes a process of drawing a field image representing the field. In the field image rendering process, as described above, a field image is generated in which the outside of the irradiation range is represented in darkness. Details of the drawing process will be described later with reference to the flowchart shown in FIG. After step S10, the process of step S11 is executed.

ステップS11において、プロセッサ81は、ステップS10で生成されたフィールド画像をディスプレイ12に表示させる。なお、図15等において示したように、フィールドモードにおいては、プロセッサ81は、フィールド画像に加えてマップ画像をさらに生成し、フィールド画像に重ねてマップ画像を表示するようにしてもよい。ステップS11の次に、ステップS12の処理が実行される。 At step S11, the processor 81 causes the display 12 to display the field image generated at step S10. As shown in FIG. 15 and the like, in the field mode, the processor 81 may further generate a map image in addition to the field image and display the map image superimposed on the field image. After step S11, the process of step S12 is executed.

ステップS12において、プロセッサ81は、ゲームを終了するか否かを判定する。例えば、プロセッサ81は、ゲームを終了するための所定の操作入力がプレイヤによって行われた場合、ゲームを終了すると判定する。ステップS12の判定結果が否定である場合、ステップS1の処理が再度実行される。以降、ステップS12においてゲームを終了すると判定されるまで、ステップS1~S12の一連の処理が繰り返し実行される。一方、ステップS12の判定結果が肯定である場合、プロセッサ81は、図24に示すゲーム処理を終了する。 At step S12, the processor 81 determines whether or not to end the game. For example, the processor 81 determines to end the game when the player performs a predetermined operation input for ending the game. If the determination result of step S12 is negative, the process of step S1 is executed again. Thereafter, a series of processes of steps S1 to S12 are repeatedly executed until it is determined in step S12 that the game is to be ended. On the other hand, if the determination result in step S12 is affirmative, processor 81 terminates the game processing shown in FIG.

図25は、図24に示すステップS8のプレイヤ関連制御処理の詳細な流れの一例を示すサブフローチャートである。プレイヤ関連制御処理においては、まずステップS21において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、上述の処理モードを切り替える指示がプレイヤによって行われたか否かを判定する。処理モードを切り替える指示とは、具体的には、マップ画像を表示する旨の指示、または、メニュー画像を表示する旨の指示である。ステップS21の判定結果が肯定である場合、ステップS22の処理が実行される。一方、ステップS21の判定結果が否定である場合、ステップS23の処理が実行される。 FIG. 25 is a sub-flowchart showing an example of the detailed flow of the player-related control process in step S8 shown in FIG. In the player-related control process, first, in step S21, the processor 81 determines whether or not the player has given an instruction to switch the processing mode based on the operation data acquired in step S1. The instruction to switch the processing mode is specifically an instruction to display a map image or an instruction to display a menu image. When the determination result of step S21 is affirmative, the process of step S22 is performed. On the other hand, if the determination result of step S21 is negative, the process of step S23 is executed.

ステップS22において、プロセッサ81は、ステップS21で行われた指示に応じて処理モードを切り替える。すなわち、マップ画像を表示する旨の指示が行われた場合、プロセッサ81は、処理モードをマップ表示モードに切り替える。この場合、次に実行される上記ステップS4における判定結果が肯定となり、ステップS5においてマップ画像を表示する処理が実行される。また、メニュー画像を表示する旨の指示が行われた場合、プロセッサ81は、処理モードをメニュー表示モードに切り替える。この場合、次に実行される上記ステップS6における判定結果が肯定となり、ステップS7においてメニュー画像を表示する処理が実行される。ステップS22の後、プロセッサ81はプレイヤ関連制御処理を終了する。 At step S22, the processor 81 switches the processing mode according to the instruction given at step S21. That is, when an instruction to display a map image is given, the processor 81 switches the processing mode to the map display mode. In this case, the determination result in step S4 to be executed next becomes affirmative, and the process of displaying the map image is executed in step S5. Further, when an instruction to display a menu image is given, the processor 81 switches the processing mode to the menu display mode. In this case, the determination result in step S6, which is executed next, becomes affirmative, and the process of displaying the menu image is executed in step S7. After step S22, the processor 81 ends the player-related control process.

ステップS23において、プロセッサ81は、プレイヤキャラクタに対する操作入力が受け付けられる操作受付期間であるか否かを判定する。ここで、本実施形態においては、プレイヤキャラクタに対する操作入力に応じてプレイヤキャラクタが所定の動作(例えば、後述するステップS30において制御される動作)を行っている動作期間は、操作受付期間から外されるものとする。ステップS23の判定結果が肯定である場合、ステップS24の処理が実行される。一方、ステップS23の判定結果が否定である場合、後述するステップS33の処理が実行される。 In step S23, the processor 81 determines whether or not it is an operation acceptance period during which an operation input to the player character is accepted. Here, in the present embodiment, an action period during which the player character performs a predetermined action (for example, an action controlled in step S30 described later) in response to an operation input to the player character is excluded from the operation acceptance period. shall be When the determination result of step S23 is affirmative, the process of step S24 is performed. On the other hand, if the determination result of step S23 is negative, the process of step S33, which will be described later, is executed.

ステップS24において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、基準地点を解放するための操作入力が行われたか否かを判定する。すなわち、プロセッサ81は、基準地点の近傍にプレイヤキャラクタが位置する状態において、「しらべる」のコマンドを実行するための入力が行われたか否かを判定する。ステップS24の判定結果が肯定である場合、ステップS25の処理が実行される。一方、ステップS24の判定結果が否定である場合、後述するステップS29の処理が実行される。 In step S24, the processor 81 determines whether or not an operation input for releasing the reference point has been performed based on the operation data acquired in step S1. That is, the processor 81 determines whether or not an input for executing the "investigate" command has been made while the player character is positioned near the reference point. When the determination result of step S24 is affirmative, the process of step S25 is performed. On the other hand, if the determination result of step S24 is negative, the process of step S29, which will be described later, is executed.

ステップS25において、プロセッサ81は、上記操作入力が行われた基準地点を解放状態とする。例えば、プロセッサ81は、メモリに記憶されている、当該基準地点の状態を示すデータを、解放済みであることを示す内容に更新する。また、プロセッサ81は、基準地点を示す目印オブジェクトの位置に点光源を設定する。これによって、後述の描画処理においては、目印オブジェクトの周囲に光が当たるように描画が行われることとなる。ステップS25の次にステップS26の処理が実行される。 In step S25, the processor 81 puts the reference point at which the operation input is performed into the released state. For example, the processor 81 updates the data indicating the state of the reference point stored in the memory to indicate that it has been released. Also, the processor 81 sets a point light source at the position of the landmark object indicating the reference point. As a result, in the drawing process, which will be described later, the drawing is performed so that the surroundings of the mark object are illuminated with light. After step S25, the process of step S26 is executed.

ステップS26において、プロセッサ81は、解放イベントが発生した場合におけるイベントシーンを開始する。すなわち、プロセッサ81は、解放された基準地点の周囲が次第に明るくなっていく様子を示すアニメーションの再生を開始する。ステップS26の処理以降、上記アニメーションの再生が終了するまでは、上記ステップS2における判定結果は肯定となり、イベントシーンの実行が継続される。ステップS26の次にステップS27の処理が実行される。 In step S26, the processor 81 starts an event scene when a release event occurs. That is, the processor 81 starts playing an animation showing how the surroundings of the released reference point become brighter. After the process of step S26, the determination result in step S2 is affirmative, and the execution of the event scene is continued until the reproduction of the animation is completed. After step S26, the process of step S27 is executed.

ステップS27において、プロセッサ81は、ステップS26で解放された基準地点に基づいて上述の解放領域を設定する。すなわち、プロセッサ81は、上記“[2-1.マップの開放領域の設定]”で述べた方法に従って設定される解放領域を示すマップマスクを生成する。具体的には、ゲーム処理の開始時においてメモリにはマップマスクのデータが記憶されており、プロセッサ81は、設定された解放領域を示すように当該データを更新する。ステップS27の処理によって、フィールドのうち、解放された基準地点を含む領域が解放領域に設定されることとなる。ステップS27の次にステップS28の処理が実行される。 At step S27, the processor 81 sets the release area based on the reference point released at step S26. That is, the processor 81 generates a map mask indicating the open area set according to the method described above in "[2-1. Setting open area of the map]". Specifically, the map mask data is stored in the memory at the start of the game processing, and the processor 81 updates the data to indicate the set released area. By the processing of step S27, the area including the released reference point in the field is set as the released area. After step S27, the process of step S28 is executed.

ステップS28において、プロセッサ81は、ステップS26で解放された基準地点に基づいて上述の照射範囲を設定する。すなわち、プロセッサ81は、上記“[2-2.照射範囲の設定]”で述べた方法に従って設定される照射範囲を示す上述の2次元範囲データを生成する。具体的には、ゲーム処理の開始時においてメモリには2次元範囲データが記憶されており、プロセッサ81は、設定された照射範囲を示すように当該データを更新する。ステップS27の処理によって、フィールドのうち、解放された基準地点を含む領域が照射範囲に設定されることとなる。ステップS28の後、プロセッサ81はプレイヤ関連制御処理を終了する。なお、ステップS25、S27、S28の処理は、このタイミングに限らず、その後のイベントシーン中の所定のタイミングで行われてもよい。 At step S28, the processor 81 sets the irradiation range based on the reference point released at step S26. That is, the processor 81 generates the two-dimensional range data indicating the irradiation range set according to the method described in "[2-2. Setting the irradiation range]" above. Specifically, two-dimensional range data is stored in the memory at the start of the game processing, and the processor 81 updates the data so as to indicate the set irradiation range. By the processing of step S27, the area including the released reference point in the field is set as the irradiation range. After step S28, the processor 81 ends the player-related control process. Note that the processing of steps S25, S27, and S28 is not limited to this timing, and may be performed at a predetermined timing during the subsequent event scene.

ステップS29において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、プレイヤキャラクタに対するアクション指示のための操作入力が行われたか否かを判定する。アクション指示は、プレイヤキャラクタに例えば攻撃動作やジャンプ動作等を行わせるための指示である。ステップS29の判定結果が肯定である場合、ステップS30の処理が実行される。一方、ステップS29の判定結果が否定である場合、後述するステップS31の処理が実行される。 In step S29, the processor 81 determines whether or not an operation input for instructing an action for the player character has been performed based on the operation data acquired in step S1. The action instruction is an instruction for causing the player character to perform, for example, an attack motion, a jump motion, or the like. If the determination result of step S29 is affirmative, the process of step S30 is executed. On the other hand, if the determination result of step S29 is negative, the process of step S31, which will be described later, is executed.

ステップS30において、プロセッサ81は、ステップS29で行われたアクション指示に応じた動作をプレイヤキャラクタに開始させる。ステップS30でプレイヤキャラクタが動作を開始した後においては、後述するステップS33の処理によって、一定期間にわたって当該動作を行うようにプレイヤキャラクタが制御される。ステップS30の後、プロセッサ81はプレイヤ関連制御処理を終了する。 In step S30, the processor 81 causes the player character to start moving according to the action instruction given in step S29. After the player character starts the action in step S30, the player character is controlled to perform the action for a certain period of time by the process of step S33, which will be described later. After step S30, the processor 81 ends the player-related control process.

ステップS31において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、プレイヤキャラクタに対する移動指示のための操作入力が行われたか否かを判定する。移動指示は、フィールド上においてプレイヤキャラクタを移動させる動作を行わせるための指示である。ステップS31の判定結果が肯定である場合、ステップS32の処理が実行される。一方、ステップS31の判定結果が否定である場合、ステップS33の処理が実行される。 In step S31, the processor 81 determines whether or not an operation input for instructing movement of the player character has been performed based on the operation data acquired in step S1. The movement instruction is an instruction for causing the player character to move on the field. When the determination result of step S31 is affirmative, the process of step S32 is performed. On the other hand, if the determination result of step S31 is negative, the process of step S33 is executed.

ステップS32において、プロセッサ81は、ステップS29で行われた移動指示に応じてプレイヤキャラクタをフィールド上において移動する動作をさせる。ステップS32の後、プロセッサ81はプレイヤ関連制御処理を終了する。 In step S32, the processor 81 causes the player character to move on the field according to the movement instruction given in step S29. After step S32, the processor 81 ends the player-related control process.

ステップS33において、プロセッサ81は、ステップS30で開始された動作の進行や、何も入力されていない場合の動作等、各種の動作を行うようにプレイヤキャラクタを制御する。なお、1回のステップS33においては、プロセッサ81は、1フレーム時間分の動作の進行を行うようにプレイヤキャラクタを制御する。ステップS33の処理が複数フレームにわたって繰り返し実行されることで、アクション指示に応じた一連の動作をプレイヤキャラクタが行うこととなる。なお、プレイヤキャラクタが行うべき動作がプレイヤによって指示されていない場合(例えば、ステップS30で開始された動作が終了している場合)には、ステップS33において、プロセッサ81は、プレイヤキャラクタに動作を行わせなくてもよいし、プレイヤキャラクタの挙動を自然に見せるための動作(例えば、辺りを見回したり、体を揺らしたりする動作)を行わせてもよい。ステップS33の後、プロセッサ81はプレイヤ関連制御処理を終了する。 In step S33, the processor 81 controls the player character to perform various actions such as the progress of the action started in step S30 and the action when nothing is input. Note that in one step S33, the processor 81 controls the player character so that the action progresses for one frame time. By repeatedly executing the process of step S33 over a plurality of frames, the player character performs a series of actions according to the action instruction. If the player has not instructed the action to be performed by the player character (for example, if the action started in step S30 has ended), the processor 81 instructs the player character to perform the action in step S33. Alternatively, an action (for example, looking around or shaking the body) may be performed to make the behavior of the player character appear natural. After step S33, the processor 81 ends the player-related control process.

図26は、図24に示すステップS9の他オブジェクト制御処理の詳細な流れの一例を示すサブフローチャートである。他オブジェクト制御処理においては、まずステップS41において、プロセッサ81は、プレイヤキャラクタを除く制御対象となる各オブジェクトについて処理を完了したか否かを判定する。すなわち、上記各オブジェクトが、後述するステップS42において指定済みであるか否かを判定する。ステップS41の判定結果が否定である場合、ステップS42の処理が実行される。一方、ステップS41の判定結果が肯定である場合、プロセッサ81は他オブジェクト制御処理を終了する。 FIG. 26 is a sub-flowchart showing an example of the detailed flow of the other object control process in step S9 shown in FIG. In the other object control process, first, in step S41, the processor 81 determines whether or not the process for each object to be controlled excluding the player character has been completed. That is, it is determined whether or not each of the above objects has been designated in step S42, which will be described later. If the determination result of step S41 is negative, the process of step S42 is executed. On the other hand, if the determination result of step S41 is affirmative, the processor 81 terminates the other object control process.

ステップS42において、プロセッサ81は、制御対象となるオブジェクトのうちから、後述のステップS43の処理対象となる1つのオブジェクトを指定する。なお、ステップS42においては、今回のステップS41~S45の処理ループにおいてまだ処理対象となっていないオブジェクトが指定される。ステップS42の次に、ステップS43の処理が実行される。 In step S42, the processor 81 designates one object to be processed in step S43, which will be described later, from among the objects to be controlled. In step S42, an object that has not yet been processed in the current processing loop of steps S41 to S45 is specified. After step S42, the process of step S43 is executed.

ステップS43において、プロセッサ81は、ステップS42で指定されたオブジェクトの動作を制御する。例えば、当該オブジェクトが敵キャラクタである場合、ゲームプログラムにおいて定められたアルゴリズムに従って敵キャラクタの動作を制御する。また例えば、当該オブジェクトが光源アイテムである場合、プレイヤキャラクタ等の他のキャラクタによる動作に応じて(例えば、プレイヤキャラクタが光源アイテムを投げる動作に応じて)光源アイテムの移動を制御する。ステップS43の次に、ステップS44の処理が実行される。 At step S43, the processor 81 controls the motion of the object designated at step S42. For example, if the object is an enemy character, the action of the enemy character is controlled according to an algorithm defined in the game program. Further, for example, when the object is a light source item, the movement of the light source item is controlled according to the motion of another character such as the player character (for example, according to the motion of the player character throwing the light source item). After step S43, the process of step S44 is executed.

ステップS44において、プロセッサ81は、上記ステップS43の処理結果に基づいて、アイテム配置イベントが発生したか否かを判定する。例えば、光源アイテムに関して、プレイヤキャラクタによって投げられた光源アイテムがフィールドにおける地面に配置された場合、プロセッサ81は、アイテム配置イベントが発生したと判定する。ステップS44の判定結果が肯定である場合、ステップS45の処理が実行される。一方、ステップS44の判定結果が否定である場合、ステップS41の処理が再度実行される。 In step S44, the processor 81 determines whether or not an item arrangement event has occurred based on the processing result of step S43. For example, regarding the light source item, when the light source item thrown by the player character is placed on the ground in the field, the processor 81 determines that an item placement event has occurred. When the determination result of step S44 is affirmative, the process of step S45 is performed. On the other hand, if the determination result of step S44 is negative, the process of step S41 is executed again.

ステップS45において、プロセッサ81は、アイテム配置イベントの発生の要因となった光源アイテムの位置に点光源を設定する。これによって、後述の描画処理においては、光源アイテムの周囲に光が当たるように描画が行われることとなる。ステップS45の次に、ステップS41の処理が再度実行される。以降、ステップS41において制御対象となる全てのオブジェクトについて処理を完了したと判定されるまで、ステップS41~S45における一連の処理が繰り返し実行される。 In step S45, the processor 81 sets a point light source at the position of the light source item that caused the occurrence of the item placement event. As a result, in the drawing process, which will be described later, drawing is performed so that light is applied to the surroundings of the light source item. After step S45, the process of step S41 is executed again. Thereafter, a series of processes in steps S41 to S45 are repeatedly executed until it is determined in step S41 that the processes for all objects to be controlled have been completed.

図27は、図24に示すステップS10の描画処理の詳細な流れの一例を示すサブフローチャートである。描画処理においては、まずステップS51において、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた第1の段階における処理が完了したか否かを判定する。すなわち、描画対象となる各オブジェクト(例えば、仮想カメラの視野範囲内のオブジェクト)についてGバッファへの書き込みが完了したか否かを判定する。ステップS51の判定結果が肯定である場合、後述のステップS56の処理が実行される。一方、ステップS51の判定結果が否定である場合、ステップS52の処理が実行される。 FIG. 27 is a sub-flowchart showing an example of a detailed flow of drawing processing in step S10 shown in FIG. In the drawing process, first, in step S51, the processor 81 determines whether or not the process in the first stage described in "[2-3. Image generation process]" has been completed. That is, it is determined whether writing to the G buffer has been completed for each object to be drawn (for example, objects within the visual field range of the virtual camera). If the determination result of step S51 is affirmative, the process of step S56, which will be described later, is executed. On the other hand, if the determination result of step S51 is negative, the process of step S52 is executed.

ステップS52において、プロセッサ81は、描画対象となるオブジェクトのうちから、後述のステップS53の処理対象となる1つのオブジェクトを指定する。なお、ステップS52においては、今回のステップS51~S55の処理ループにおいてまだ処理対象となっていないオブジェクトが指定される。ステップS52の次に、ステップS53の処理が実行される。 In step S52, the processor 81 designates one object to be processed in step S53, which will be described later, from among the objects to be drawn. In step S52, an object that has not yet been processed in the current processing loop of steps S51 to S55 is specified. After step S52, the process of step S53 is executed.

ステップS53において、プロセッサ81は、ステップS52で指定されたオブジェクトが上述の対象外オブジェクトであるか否かを判定する。ステップS53の判定結果が否定である場合、ステップS54の処理が実行される。一方、ステップS53の判定結果が肯定である場合、ステップS55の処理が実行される。 In step S53, the processor 81 determines whether the object specified in step S52 is the non-target object described above. If the determination result of step S53 is negative, the process of step S54 is executed. On the other hand, when the determination result of step S53 is affirmative, the process of step S55 is performed.

ステップS54において、プロセッサ81は、ステップS52で指定されたオブジェクトに関する情報をGバッファおよび深度バッファに書き込む。すなわち、プロセッサ81は、当該オブジェクトのポリゴンに対応する画素について、当該ポリゴンの位置、法線、色等の情報をGバッファに書き込み、深度情報を深度バッファに書き込む。なお、ステップS54における処理は、従来のディファードレンダリングにおける処理と同様であってよい。ステップS54の次に、ステップS51の処理が再度実行される。 At step S54, the processor 81 writes information about the object specified at step S52 to the G-buffer and the depth buffer. That is, the processor 81 writes information such as the position, normal, and color of the polygon to the G-buffer and writes depth information to the depth buffer for pixels corresponding to the polygon of the object. Note that the processing in step S54 may be the same as the processing in conventional deferred rendering. After step S54, the process of step S51 is executed again.

一方、ステップS55において、プロセッサ81は、ステップS52で指定されたオブジェクトに関する情報をGバッファおよび深度バッファに書き込むとともに、当該オブジェクトが対象外オブジェクトであることを示す情報をGバッファに書き込む。すなわち、プロセッサ81は、対象外オブジェクトに関する上記除外マスクのデータをGバッファに書き込む。ステップS55の次に、ステップS51の処理が再度実行される。 On the other hand, in step S55, the processor 81 writes information about the object specified in step S52 into the G buffer and the depth buffer, and writes information indicating that the object is an out-of-target object into the G buffer. That is, the processor 81 writes the exclusion mask data regarding the non-target object to the G buffer. After step S55, the process of step S51 is executed again.

ステップS56において、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた第2の段階における処理が完了したか否かを判定する。すなわち、ライトバッファおよび暗闇マスクにおける各画素への値の書き込みが完了したか否かを判定する。ステップS56の判定結果が肯定である場合、後述のステップS60の処理が実行される。一方、ステップS56の判定結果が否定である場合、ステップS57の処理が実行される。 In step S56, the processor 81 determines whether or not the process in the second stage described in "[2-3. Image generation process]" has been completed. That is, it determines whether the writing of values to each pixel in the write buffer and darkness mask has been completed. If the determination result of step S56 is affirmative, the process of step S60, which will be described later, is executed. On the other hand, if the determination result of step S56 is negative, the process of step S57 is executed.

ステップS57において、プロセッサ81は、各画素のうちから、後述のステップS58の処理対象となる1つの画素を指定する。なお、ステップS57においては、今回のステップS56~S59の処理ループにおいてまだ処理対象となっていない画素が指定される。ステップS57の次に、ステップS58の処理が実行される。 In step S57, the processor 81 designates one of the pixels to be processed in step S58, which will be described later. In step S57, pixels that have not yet been processed in the current processing loop of steps S56 to S59 are specified. After step S57, the process of step S58 is executed.

ステップS58において、プロセッサ81は、ステップS57において指定された画素についてライトバッファへの書き込みを行う。すなわち、プロセッサ81は、環境光、および、ステップS45で設定された点光源に基づいて、当該画素における明るさの情報等を算出し、算出された情報をライトバッファに書き込む。なお、ステップS58における処理は、従来のディファードレンダリングにおける処理と同様であってよい。ステップS58の次に、ステップS59の処理が実行される。 In step S58, the processor 81 writes the pixel specified in step S57 to the write buffer. That is, the processor 81 calculates information such as the brightness of the pixel based on the ambient light and the point light source set in step S45, and writes the calculated information into the light buffer. Note that the processing in step S58 may be the same as the processing in conventional deferred rendering. After step S58, the process of step S59 is executed.

ステップS59において、プロセッサ81は、ステップS57において指定された画素について暗闇マスクの生成(すなわち、暗闇マスク値の設定)を行う。具体的には、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた方法に従って当該画素における暗闇マスク値を算出する。具体的には、ゲーム処理の開始時においてメモリには暗闇マスクのデータが記憶されており、プロセッサ81は、照射範囲が新たに設定されたことに応じて当該データを更新する。例えば、プロセッサ81は、上記ステップS28の処理によって解放イベントに基づく照射範囲が設定されている場合、上記2次元範囲データに基づいて暗闇マスクを更新する。また、上記ステップS7のメニュー表示処理が実行されるメニュー表示モードによってプレイヤキャラクタが光る服を装備している場合、プレイヤキャラクタの位置に基づくキャラクタ影響範囲内の位置に対応する画素が照射範囲となるように上記暗闇マスクを更新する。さらに、上記ステップS45の処理によって点光源が設定されている場合、光源アイテムの位置に基づくアイテム影響範囲内の位置に対応する画素が照射範囲となるように上記暗闇マスクを更新する。ステップS59の次に、ステップS56の処理が再度実行される。 In step S59, processor 81 generates a darkness mask (ie, sets a darkness mask value) for the pixel specified in step S57. Specifically, the processor 81 calculates the darkness mask value for the pixel according to the method described in “[2-3. Image generation processing]” above. Specifically, the data of the darkness mask is stored in the memory at the start of the game processing, and the processor 81 updates the data according to the newly set irradiation range. For example, the processor 81 updates the darkness mask based on the two-dimensional range data when the irradiation range based on the release event is set by the process of step S28. Further, when the player character is equipped with shiny clothes in the menu display mode in which the menu display process of step S7 is executed, pixels corresponding to positions within the character influence range based on the position of the player character become the irradiation range. to update the darkness mask above. Further, when a point light source is set by the process of step S45, the darkness mask is updated so that the pixel corresponding to the position within the item influence range based on the position of the light source item becomes the irradiation range. After step S59, the process of step S56 is executed again.

ステップS60において、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた第3の段階における処理が完了したか否かを判定する。すなわち、フレームバッファにおける各画素への値の書き込みが完了したか否かを判定する。ステップS60の判定結果が肯定である場合、プロセッサ81は図27に示す描画処理を終了する。一方、ステップS60の判定結果が否定である場合、ステップS61の処理が実行される。 In step S60, the processor 81 determines whether the processing in the third stage described in "[2-3. Image generation processing]" has been completed. That is, it is determined whether writing of values to each pixel in the frame buffer has been completed. If the determination result in step S60 is affirmative, processor 81 terminates the drawing process shown in FIG. On the other hand, if the determination result of step S60 is negative, the process of step S61 is executed.

ステップS61において、プロセッサ81は、各画素のうちから、後述のステップS62の処理対象となる1つの画素を指定する。なお、ステップS61においては、今回のステップS60~S62の処理ループにおいてまだ処理対象となっていない画素が指定される。ステップS61の次に、ステップS62の処理が実行される。 In step S61, the processor 81 designates one of the pixels to be processed in step S62, which will be described later. In step S61, pixels that have not yet been processed in the current processing loop of steps S60 to S62 are designated. After step S61, the process of step S62 is executed.

ステップS62において、プロセッサ81は、ステップS61で指定された画素についての画素値を算出してフレームバッファに書き込む。すなわち、プロセッサ81は、各バッファ(すなわち、Gバッファ、深度バッファ、および、ライトバッファ)に書き込まれた情報および暗闇マスクに基づいて、上記“[2-3.画像生成処理]”で述べた方法に従って、当該画素における画素値を算出する。具体的には、プロセッサ81は、Gバッファ、深度バッファ、および、ライトバッファの情報に基づいて、光源による光の影響が反映された画素値を算出し、さらに、算出された画素値と、暗闇マスクにおける暗闇マスク値とに基づいて、暗闇を反映した画素値を算出する。これによって、光源による光の影響および暗闇が反映された画素値がフレームバッファに書き込まれることとなる。ステップS62の次に、ステップS60の処理が再度実行される。 At step S62, the processor 81 calculates the pixel value for the pixel specified at step S61 and writes it to the frame buffer. That is, the processor 81 performs the method described in “[2-3. , the pixel value of the pixel is calculated. Specifically, the processor 81 calculates pixel values reflecting the influence of light from the light source based on the information in the G buffer, the depth buffer, and the light buffer, and further adds the calculated pixel values to the darkness. A pixel value reflecting darkness is calculated based on the darkness mask value in the mask. As a result, a pixel value reflecting the effect of light from the light source and darkness is written to the frame buffer. After step S62, the process of step S60 is executed again.

なお、上述したように、上記ステップS10の描画処理は、フォワードレンダリングに基づく方法で実行されてもよい。図28は、フォワードレンダリングに基づく方法で実行される描画処理の詳細な流れの一例を示すサブフローチャートである。ゲームシステム1は、ステップS10の描画処理として、図27に示す処理に代えて、図28に示す処理を実行してもよい。 Note that, as described above, the drawing process in step S10 may be performed by a method based on forward rendering. FIG. 28 is a sub-flowchart showing an example of a detailed flow of drawing processing executed by a method based on forward rendering. The game system 1 may execute the process shown in FIG. 28 instead of the process shown in FIG. 27 as the drawing process in step S10.

図28に示す描画処理においては、まずステップS71において、プロセッサ81は、描画対象となる各オブジェクト(例えば、仮想カメラの視野範囲内のオブジェクト)について描画が完了したか否かを判定する。ステップS71の判定結果が肯定である場合、プロセッサ81は、図28に示す描画処理を終了する。一方、ステップS71の判定結果が否定である場合、ステップS72の処理が実行される。 In the drawing process shown in FIG. 28, first, in step S71, the processor 81 determines whether or not the drawing of each object to be drawn (for example, the object within the visual field range of the virtual camera) is completed. If the determination result in step S71 is affirmative, the processor 81 terminates the drawing process shown in FIG. On the other hand, if the determination result of step S71 is negative, the process of step S72 is executed.

ステップS72において、プロセッサ81は、描画対象となるオブジェクトのうちから、以降のステップS73~S81の処理対象となる1つのオブジェクトを指定する。なお、ステップS72においては、今回のステップS71~S81の処理ループにおいてまだ処理対象となっていないオブジェクトが指定される。ステップS72の次に、ステップS73の処理が実行される。 In step S72, the processor 81 designates one object to be processed in steps S73 to S81 from among the objects to be drawn. In step S72, an object that has not yet been processed in the current processing loop of steps S71 to S81 is designated. After step S72, the process of step S73 is executed.

ステップS73において、プロセッサ81は、ステップS72で指定されたオブジェクトが上述の対象外オブジェクトであるか否かを判定する。ステップS73の判定結果が肯定である場合、ステップS74の処理が実行される。一方、ステップS73の判定結果が否定である場合、ステップS75の処理が実行される。 In step S73, the processor 81 determines whether the object specified in step S72 is the non-target object described above. When the determination result of step S73 is affirmative, the process of step S74 is performed. On the other hand, if the determination result of step S73 is negative, the process of step S75 is executed.

ステップS74において、プロセッサ81は、ステップS52で指定されたオブジェクトについて(すなわち、当該オブジェクトに対応する各画素について)、当該オブジェクトに予め設定される描画設定に基づいて描画を行う。これによって、当該オブジェクトが自発光オブジェクトである場合には、当該オブジェクト自身が光って見えるように描画されたり、当該オブジェクトが上記所定の種類のキャラクタである場合には、当該オブジェクトは陰が付されて見えるように描画されたりする。ステップS74の次に、上記ステップS71の処理が再度実行される。 In step S74, the processor 81 draws the object specified in step S52 (that is, each pixel corresponding to the object) based on the drawing settings preset for the object. As a result, when the object is a self-luminous object, the object itself is drawn to appear to shine, and when the object is a character of the predetermined type, the object is shaded. It is drawn so that it looks like After step S74, the process of step S71 is executed again.

ステップS75において、プロセッサ81は、ステップS72で指定されたオブジェクトの各ポリゴンについて描画が完了したか否かを判定する。ステップS75の判定結果が肯定である場合、当該オブジェクトに関する描画が完了したこととなるので、上記ステップS71の処理が再度実行される。一方、ステップS75の判定結果が否定である場合、ステップS76の処理が実行される。 At step S75, the processor 81 determines whether or not the rendering of each polygon of the object designated at step S72 is completed. If the determination result of step S75 is affirmative, it means that the drawing of the object has been completed, and the process of step S71 is executed again. On the other hand, if the determination result of step S75 is negative, the process of step S76 is executed.

ステップS76において、プロセッサ81は、ステップS72で指定されたオブジェクトの各ポリゴンのうち1つを指定する。なお、ステップS76においては、今回のステップS75~S81の処理ループにおいてまだ処理対象となっていないポリゴンが指定される。ステップS76の次に、ステップS77の処理が実行される。 At step S76, the processor 81 designates one of each polygon of the object designated at step S72. In step S76, polygons that have not yet been processed in the current processing loop of steps S75 to S81 are designated. After step S76, the process of step S77 is executed.

ステップS77において、プロセッサ81は、ステップS76で指定されたポリゴンに対応する各画素について描画が完了したか否かを判定する。ステップS77の判定結果が肯定である場合、当該ポリゴンに関する描画が完了したこととなるので、上記ステップS75の処理が再度実行される。一方、ステップS77の判定結果が否定である場合、ステップS78の処理が実行される。 At step S77, the processor 81 determines whether or not drawing of each pixel corresponding to the polygon designated at step S76 is completed. If the determination result of step S77 is affirmative, it means that the drawing of the polygon has been completed, and the process of step S75 is executed again. On the other hand, if the determination result of step S77 is negative, the process of step S78 is executed.

ステップS78において、プロセッサ81は、ステップS76で指定されたポリゴンに対応する各画素のうち1つを指定する。なお、ステップS78においては、今回のステップS77~S81の処理ループにおいてまだ処理対象となっていない画素が指定される。ステップS78の次に、ステップS79の処理が実行される。 At step S78, the processor 81 designates one of the pixels corresponding to the polygon designated at step S76. In step S78, pixels that have not yet been processed in the current processing loop of steps S77 to S81 are designated. After step S78, the process of step S79 is executed.

ステップS79において、プロセッサ81は、ステップS78で指定された画素に対応する位置(すなわち、フィールドにおける位置)が照射範囲内であるか否かを判定する。なお、図28に示す描画処理によって描画が行われる実施形態では、プロセッサ81は、上記ステップS28において解放イベントに基づく照射範囲を設定し、上記ステップS7のメニュー表示処理においてプレイヤキャラクタが光る服を装備した場合には、プレイヤキャラクタの位置に基づく照射範囲を設定し、上記ステップS45の処理において点光源が設定された場合には、光源アイテムの位置に基づく照射範囲を設定する。ステップS79の判定結果が肯定である場合、ステップS80の処理が実行される。一方、ステップS79の判定結果が否定である場合、ステップS81の処理が実行される。 In step S79, the processor 81 determines whether or not the position corresponding to the pixel designated in step S78 (that is, the position in the field) is within the irradiation range. In the embodiment in which drawing is performed by the drawing process shown in FIG. 28, the processor 81 sets the irradiation range based on the release event in step S28, and equips the player character with shiny clothes in the menu display process in step S7. If so, the irradiation range is set based on the position of the player character, and if the point light source is set in the process of step S45, the irradiation range is set based on the position of the light source item. If the determination result of step S79 is affirmative, the process of step S80 is executed. On the other hand, if the determination result of step S79 is negative, the process of step S81 is executed.

ステップS80において、プロセッサ81は、ステップS78で指定された画素について、フィールドに設定される光源(すなわち、環境光および/または点光源)を反映して描画を行う。具体的には、プロセッサ81は、当該画素に対応するポリゴンの法線の情報、当該画素に対応するポリゴンに設定される色の情報、および、フィールドに設定される光源の情報等に基づいて当該画素の画素値を算出してフレームバッファに書き込む。これによって、照射範囲内の位置に対応する画素については、光源を考慮して描画が行われることとなる。なお、ステップS80における処理は、従来のフォワードレンダリングに基づく描画処理と同様であってよい。ステップS80の次に、ステップS77の処理が再度実行される。 In step S80, the processor 81 draws the pixel specified in step S78 by reflecting the light source (that is, ambient light and/or point light source) set in the field. Specifically, the processor 81 generates the polygon based on information on the normal of the polygon corresponding to the pixel, information on the color set to the polygon corresponding to the pixel, information on the light source set in the field, and the like. Calculate the pixel value of the pixel and write it to the frame buffer. As a result, pixels corresponding to positions within the irradiation range are drawn in consideration of the light source. Note that the processing in step S80 may be the same as the drawing processing based on conventional forward rendering. After step S80, the process of step S77 is executed again.

一方、ステップS81において、プロセッサ81は、ステップS78で指定された画素について、黒色で描画を行う。これによって、照射範囲外の位置に対応する画素については黒色で描画されることとなる。ステップS81の次に、ステップS77の処理が再度実行される。 On the other hand, in step S81, the processor 81 draws the pixel specified in step S78 in black. As a result, pixels corresponding to positions outside the irradiation range are drawn in black. After step S81, the process of step S77 is executed again.

なお、図28に示す描画処理においても図27に示す描画処理と同様、照射範囲内において照射範囲の境界に近づくにつれて次第に黒色が濃くなっていくように描画が行われてもよい。例えば、上記ステップS80において、プロセッサ81は、ステップS78で指定された画素について、上述の暗闇マスク値を算出し、光源による光の影響が反映された画素値と黒色とを、暗闇マスク値に応じた割合で合成することで当該画素の画素値を算出してもよい。 Note that in the drawing process shown in FIG. 28, similarly to the drawing process shown in FIG. 27, drawing may be performed such that black gradually becomes darker as the border of the irradiation range is approached within the irradiation range. For example, in step S80 above, the processor 81 calculates the above-described darkness mask value for the pixel designated in step S78, and converts the pixel value reflecting the influence of light from the light source and black according to the darkness mask value. The pixel value of the pixel may be calculated by synthesizing at a ratio equal to that of the pixel.

[4.本実施形態の作用効果および変形例]
上記の実施形態におけるゲームプログラムは、情報処理装置(例えば、ゲーム装置2)のコンピュータ(例えば、プロセッサ81)に、次の処理を実行させる構成である。
・操作入力に基づいて、プレイヤキャラクタを仮想空間(上記実施形態においては、フィールド)内において制御するゲーム処理(ステップS32)
・ゲーム処理に基づいて所定のイベント(例えば、解放イベント)が発生した場合に、仮想空間内に設定された複数の地点(例えば、基準地点)のうち、発生したイベントに対応付けられる地点を第1の状態(例えば、未解放の状態)から第2の状態(例えば、解放された状態)へ遷移させる処理(ステップS25)
・地点に対応する位置において第1の基準値となり、当該位置からの距離に応じて減衰する第1判定値について、複数の地点のうち第2の状態となっている1つ以上の地点に基づく当該第1判定値を位置ごとに合計した合計判定値が所定値以上となる領域(上記実施形態においては、解放領域)を特定する処理(ステップS27)
・操作入力により行われるマップ表示指示に応じて、仮想空間のフィールド情報を示すマップ画像であって、上記領域に対応する部分のフィールド情報が示されたマップ画像を表示する処理(ステップS5)
[4. Effects and modifications of the present embodiment]
The game program in the above embodiment is configured to cause the computer (eg, processor 81) of the information processing device (eg, game device 2) to execute the following processes.
- Game processing for controlling the player character in the virtual space (the field in the above embodiment) based on the operation input (step S32)
・When a predetermined event (for example, a release event) occurs based on game processing, a point associated with the occurred event is selected as the first point among a plurality of points (for example, reference points) set in the virtual space. Processing for transitioning from state 1 (for example, unreleased state) to second state (for example, released state) (step S25)
・The first reference value at the position corresponding to the point, and the first judgment value that attenuates according to the distance from the position, is based on one or more points that are in the second state among the plurality of points A process of specifying an area (released area in the above embodiment) in which the total determination value obtained by summing the first determination values for each position is equal to or greater than a predetermined value (step S27)
A process of displaying a map image showing the field information of the virtual space in response to the map display instruction performed by the operation input, the map image indicating the field information of the portion corresponding to the area (step S5).

上記の構成によれば、解放されるマップ画像の範囲(すなわち、解放領域の範囲)を、複数のイベントの発生の有無に応じて変化させることができる。また、複数の上記地点のうちでどの地点が第2の状態となっているかによって、仮想空間の各位置における合計判定値が様々に変化するので、各地点における状態に応じて(すなわち、各地点におけるイベントの発生状況に応じて)解放領域を様々に変化させることができる。 According to the above configuration, the range of the map image to be released (that is, the range of the released area) can be changed according to the presence or absence of occurrence of a plurality of events. In addition, depending on which of the plurality of points is in the second state, the total judgment value at each position in the virtual space varies. The release area can be changed variously according to the event occurrence situation in ).

なお、解放領域を特定する処理は、上記実施形態においては、イベントが発生したタイミングで実行される(図25のステップS27参照)が、当該処理を実行するタイミングはこれに限らない。他の実施形態においては、解放領域を特定する処理は、マップ画像を生成する度に実行されてもよいし、イベント発生後において次にマップ画像を生成するタイミングで実行されてもよい。 In the above-described embodiment, the process of identifying the released area is executed at the timing when an event occurs (see step S27 in FIG. 25), but the timing of executing the process is not limited to this. In other embodiments, the process of identifying the released area may be executed each time a map image is generated, or may be executed at the timing of generating the next map image after the occurrence of an event.

上記所定のイベントは、上記実施形態においては、地点に対応して仮想空間内に設定されたイベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベントであり、具体的には、解放イベントであった。ここで、「イベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベント」とは、解放イベントに限らず、他のイベントであってもよい。例えば、上記所定のイベントは、仮想空間におけるイベント発生位置にプレイヤキャラクタが到達するイベント(この例において、プレイヤキャラクタをイベント発生位置に移動させる操作入力が、所定の操作に該当する)であってもよいし、仮想空間におけるイベント発生位置においてプレイヤキャラクタが特定のアイテムを使用するイベント(この例において、アイテムを使用させる操作入力が、所定の操作に該当する)であってもよい。また、他の実施形態においては、上記所定のイベントは、イベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベントに限らず、他の種類のイベント(例えば、所定の操作入力を条件としないイベント)であってもよい。 In the above-described embodiment, the predetermined event is an event that occurs when a predetermined operation input is performed when the player character is positioned at an event occurrence position set in the virtual space corresponding to the point, Specifically, it was a liberation event. Here, "an event that occurs when a predetermined operation input is performed when the player character is positioned at the event occurrence position" is not limited to the release event, and may be another event. For example, the predetermined event may be an event in which the player character reaches the event occurrence position in the virtual space (in this example, an operation input for moving the player character to the event occurrence position corresponds to the predetermined operation). Alternatively, the event may be an event in which the player character uses a specific item at the event occurrence position in the virtual space (in this example, the operation input for using the item corresponds to the predetermined operation). Further, in other embodiments, the predetermined event is not limited to an event that occurs when a predetermined operation input is performed when the player character is positioned at the event occurrence position, and other types of events (for example, It may be an event that does not require a predetermined operation input as a condition.

また、上記実施形態におけるゲームプログラムは、情報処理装置(例えば、ゲーム装置2)のコンピュータ(例えば、プロセッサ81)に、次の処理を実行させる構成であると言うこともできる。
・ゲーム処理に基づいて所定のイベント(例えば、照射イベント)が発生した場合に、仮想空間内に対象範囲(例えば、照射範囲)を設定する処理(ステップS28、ステップS59)
・仮想空間の描画を行う描画処理において、仮想空間内の少なくとも一部の地形オブジェクトについて、対象範囲に含まれる部分を、仮想空間内に設定された光源を反映して描画させ、対象範囲に含まれない部分を、所定の色によって描画する処理(ステップS62)
Further, it can be said that the game program in the above embodiment is configured to cause the computer (eg, processor 81) of the information processing device (eg, game device 2) to execute the following processing.
- Processing of setting a target range (eg, irradiation range) in the virtual space when a predetermined event (eg, irradiation event) occurs based on the game processing (steps S28 and S59)
・In the drawing process that draws the virtual space, for at least some terrain objects in the virtual space, the part included in the target range is drawn by reflecting the light source set in the virtual space, and the part included in the target range is drawn. A process of drawing a portion that cannot be drawn with a predetermined color (step S62)

上記の構成によれば、仮想空間における視認性の低い領域と視認性が確保された領域とをイベントの発生に応じて動的に変更することができる。これによって、フィールドのうちで視認可能な部分を、イベントを発生させることで増やしていくゲームを提供することができる。また、上記の構成によれば、対象範囲の部分については光源を反映して描画することで、視認しやすくすることができる一方、対象範囲外の部分については所定の色によって描画することで、当該部分を視認不可能または視認困難とすることができる。このように、上記の構成によれば、ゲームフィールドにおける領域の視認性を調整しやすくすることができる。 According to the above configuration, it is possible to dynamically change the area with low visibility and the area with secured visibility in the virtual space according to the occurrence of the event. As a result, it is possible to provide a game in which the visible portion of the field is increased by generating an event. In addition, according to the above configuration, the portion within the target range can be drawn by reflecting the light source to make it easier to see, while the portion outside the target range is drawn in a predetermined color, The portion can be invisible or difficult to see. Thus, according to the above configuration, it is possible to easily adjust the visibility of the area on the game field.

上記対象範囲を設定する処理は、3次元の仮想空間において範囲を設定する処理(例えば、上述したキャラクタ影響範囲およびアイテム影響範囲を仮想空間において設定する処理)であってもよいし、仮想空間に対応する2次元平面において範囲を設定する処理(例えば、上述のフィールド対応平面において2次元範囲データを生成する処理)であってもよい。また、対象範囲は、概念としては仮想空間における範囲を示すものであるが、対象範囲を示すデータは、仮想空間の位置に関するデータに限らず、仮想空間に対応する2次元平面上の位置に関するデータ(例えば、上記2次元範囲データ)であってもよいし、仮想空間に対応する画素平面上の位置に関するデータ(例えば、暗闇マスクのデータ)であってもよい。 The process of setting the target range may be a process of setting a range in a three-dimensional virtual space (for example, a process of setting the aforementioned character influence range and item influence range in the virtual space). It may be a process of setting a range on the corresponding two-dimensional plane (for example, a process of generating two-dimensional range data on the field-corresponding plane described above). In addition, although the target range conceptually indicates the range in the virtual space, the data indicating the target range is not limited to the data regarding the position in the virtual space, but the data regarding the position on the two-dimensional plane corresponding to the virtual space. (For example, the two-dimensional range data described above), or data on positions on a pixel plane corresponding to the virtual space (for example, darkness mask data).

上記「少なくとも一部の地形オブジェクト」とは、全ての地形オブジェクトについて対象範囲に応じて描画の方法を変化させる必要はない意図である。例えば、地形オブジェクトの一部は上述の対象外オブジェクトに設定されてもよい。 The above-mentioned "at least some of the terrain objects" means that it is not necessary to change the drawing method for all the terrain objects according to the target range. For example, some of the terrain objects may be set as non-target objects as described above.

上記実施形態においては、ゲームシステム1は、対象範囲に含まれない部分のオブジェクトを、黒色で描画するものとしたが、他の色で描画するようにしてもよい。他の色で描画する場合であっても当該部分を視認不可能または視認困難とすることができるので、上記実施形態と同様の効果を得ることができる。例えば、ゲームのストーリー上の設定において、霧がかかっているために視認不可能または視認困難とする領域については、ゲームシステム1は白色または灰色で描画するようにしてもよい。また、上記「所定の色」とは、描画を行う画素に対応するオブジェクトに設定される色とは独立して設定される色であり、単色である必要はない。対象範囲に含まれない部分に対応する複数の画素は、複数種類の所定の色によって模様が形成されるように描画されてもよい。 In the above embodiment, the game system 1 renders the object outside the target range in black, but it may be rendered in another color. Even if it is drawn in another color, it is possible to make the part invisible or difficult to see, so that the same effect as in the above embodiment can be obtained. For example, in the setting of the game story, the game system 1 may render in white or gray areas that are invisible or difficult to see due to fog. The "predetermined color" is a color that is set independently of the color that is set for the object corresponding to the pixel to be drawn, and does not need to be a single color. A plurality of pixels corresponding to the portion not included in the target range may be drawn so as to form a pattern with a plurality of types of predetermined colors.

また、他の実施形態においては、ゲームシステム1は、対象範囲に含まれない部分のオブジェクトを、明るさを下げて描画する構成を採用してもよい。例えば、ゲームシステム1は、当該部分のオブジェクトを、光源が設定される場合における当該画素よりも明るさを下げて描画するようにしてもよい。具体的には、ゲームシステム1は、描画処理において、対象範囲に含まれない部分のオブジェクトに対応する画素について、光源による光の影響を反映した画素値から明るさを下げた画素値をフレームバッファに書き込むようにしてもよい。なお、明るさを下げる具体的な方法は任意であり、元の明るさ(すなわち、光源による光の影響を考慮したときの明るさ)を所定の割合で下げるようにしてもよいし、元の明るさを所定量だけ下げるようにしてもよいし、所定の基準以下となるように明るさを下げるようにしてもよい。上記の構成によっても、上記実施形態と同様の効果を得ることができる。 Further, in another embodiment, the game system 1 may employ a configuration in which the object outside the target range is rendered with reduced brightness. For example, the game system 1 may draw the object in that portion with the brightness lower than that of the pixel when the light source is set. Specifically, in the drawing process, the game system 1 stores pixel values obtained by lowering the brightness of the pixel values reflecting the effect of the light from the light source on the pixels corresponding to the object in the portion not included in the target range in the frame buffer. may be written to The specific method of lowering the brightness is arbitrary, and the original brightness (that is, the brightness when considering the influence of light from the light source) may be lowered at a predetermined rate, or the original brightness may be reduced. The brightness may be lowered by a predetermined amount, or the brightness may be lowered so as to fall below a predetermined standard. With the above configuration, the same effects as those of the above embodiment can be obtained.

また、上記実施形態におけるゲームプログラムは、情報処理装置(例えば、ゲーム装置2)のコンピュータ(例えば、プロセッサ81)に、次の処理を実行させる構成であると言うこともできる。
・操作入力に基づいてプレイヤキャラクタを仮想空間内において制御するゲーム処理(ステップS32)
・ゲーム処理に基づいて所定のイベント(例えば、解放イベント)が発生した場合に、仮想空間内に設定された複数の地点(例えば、基準地点)のうち、発生したイベントに対応付けられる地点を第1の状態(例えば、未解放の状態)から第2の状態(例えば、解放された状態)へ遷移させる処理(ステップS25)
・複数の地点のうち第2の状態となっている地点を少なくとも含む領域(上記実施形態においては、解放領域)を特定する処理(ステップS27)
・仮想空間内の少なくとも一部の地形オブジェクトについて、上記領域の少なくとも一部を含む対象範囲(例えば、照射範囲)に含まれない部分を、所定の色によって描画する描画処理(ステップS62)
・操作入力により行われるマップ表示指示に応じて、仮想空間のフィールド情報を示すマップ画像であって、解放領域に対応する部分のフィールド情報が示されたマップ画像を表示する処理(ステップS5)
Further, it can be said that the game program in the above embodiment is configured to cause the computer (eg, processor 81) of the information processing device (eg, game device 2) to execute the following processing.
・Game processing for controlling the player character in the virtual space based on the operation input (step S32)
・When a predetermined event (for example, a release event) occurs based on game processing, a point associated with the occurred event is selected as the first point among a plurality of points (for example, reference points) set in the virtual space. Processing for transitioning from state 1 (for example, unreleased state) to second state (for example, released state) (step S25)
A process of specifying an area (released area in the above embodiment) that includes at least a point in the second state among a plurality of points (step S27)
Rendering processing for rendering, in a predetermined color, a portion of at least a portion of the terrain object in the virtual space that is not included in the target range (for example, irradiation range) that includes at least a portion of the area (step S62)
A process of displaying a map image showing the field information of the virtual space in response to the map display instruction performed by the operation input, the map image showing the field information of the portion corresponding to the release area (step S5)

上記の構成によれば、マップ画像においてフィールド情報が示されない領域の変化に応じて、仮想空間において視認性が確保される範囲(すなわち、上記対象範囲)を変化させることができる。すなわち、マップ画像において新たにフィールド情報が示されるようになった解放領域について、視認性が確保される表示態様で仮想空間が表示されるようにすることができる。また、上記の構成によれば、イベントの発生に応じて、仮想空間において視認性が確保される範囲が拡がるとともに、マップ画像においてフィールド情報が示される領域も拡がるので、イベントを発生させることで探索範囲を拡げていくというゲーム性が十分に発揮されるゲームを提供することができる。 According to the above configuration, it is possible to change the range in which visibility is ensured in the virtual space (that is, the target range) according to the change in the area where the field information is not shown in the map image. That is, it is possible to display the virtual space in a display mode that ensures visibility for the released area in which the field information is newly indicated in the map image. Further, according to the above configuration, the range in which the visibility is ensured in the virtual space is expanded in accordance with the occurrence of the event, and the region in which the field information is indicated in the map image is also expanded. It is possible to provide a game that fully exhibits the game property of expanding the range.

なお、他の実施形態においては、上記の構成における描画処理において、ゲームシステム1は、対象範囲に含まれない部分を所定の色によって描画することに代えて、対象範囲に含まれない部分を、対象範囲に含まれる部分より暗く描画するようにしてもよい。具体的には、ゲームシステム1は、描画処理において、光源による光の影響を反映した画素値に対して、明るさを所定の方法で低下させた画素値をフレームバッファに書き込むようにしてもよい。所定の方法は、例えば、元の明るさを所定の割合で(または所定値だけ)低下させる方法であってもよいし、所定の基準以下の明るさとなるように明るさを変更する方法であってもよい。 In another embodiment, in the drawing process in the above configuration, the game system 1 draws the part not included in the target range with a predetermined color, instead of drawing the part not included in the target range. It may be rendered darker than the portion included in the target range. Specifically, in the drawing process, the game system 1 may write, in the frame buffer, a pixel value whose brightness is reduced by a predetermined method with respect to the pixel value that reflects the effect of the light from the light source. . The predetermined method may be, for example, a method of reducing the original brightness at a predetermined rate (or by a predetermined value), or a method of changing the brightness so that the brightness is below a predetermined standard. may

上記実施形態においては、ゲームシステム1は、上記対象範囲として、(a)複数の地点のうち第2の状態となっている1つ以上の地点に基づく1つ以上の判定値を少なくとも合計した合計判定値が所定値以上となる位置からなる範囲内であり、かつ、(b)地点に対応する2次元的な位置からの2次元的な距離がしきい値以下となる範囲(すなわち、解放領域の範囲内であり、かつ、地点影響範囲内となる範囲)を設定する。これによれば、仮想空間において視認性が確保される範囲が大きくなりすぎることを抑制することができるので、イベントを発生させることで探索範囲を拡げていくというゲーム性が失われる可能性を低減することができる。 In the above-described embodiment, the game system 1 includes, as the target range, (a) the total sum of at least one or more determination values based on one or more points in the second state among the plurality of points; Within a range consisting of positions where the judgment value is a predetermined value or more, and (b) a range where the two-dimensional distance from the two-dimensional position corresponding to the point is equal to or less than the threshold value (i.e., release area and within the point influence range). According to this, it is possible to suppress the range in which the visibility is ensured in the virtual space from becoming too large, thereby reducing the possibility of losing the game feature of expanding the search range by generating an event. can do.

なお、上記の実施形態において、ある情報処理装置においてデータ(プログラムを含む意味である)を用いて処理が実行される場合、当該処理に必要なデータの一部が、当該ある情報処理装置とは異なる他の情報処理装置から送信されてもよい。このとき、当該ある情報処理装置は、他の情報処理装置から受信されたデータと、自身に記憶されているデータとを用いて上記処理を実行してもよい。 In the above embodiment, when a process is executed using data (meaning including a program) in a certain information processing apparatus, part of the data necessary for the process is It may be transmitted from a different information processing device. At this time, the certain information processing device may perform the above process using data received from the other information processing device and data stored in itself.

なお、他の実施形態において、情報処理システムは、上記実施形態における構成の一部を備えていなくてもよいし、上記実施形態において実行される処理の一部を実行しなくてもよい。例えば、情報処理システムは、上記実施形態における一部の特定の効果を奏するためには、当該効果を奏するための構成を備え、当該効果を奏するための処理を実行すればよく、その他の構成を備えていなくてもよいし、その他の処理を実行しなくてもよい。 Note that in other embodiments, the information processing system may not include part of the configuration in the above embodiments, or may not perform part of the processes performed in the above embodiments. For example, in order to achieve a part of the specific effects of the above-described embodiments, the information processing system may be provided with a configuration for achieving the above effects, and may execute processing for achieving the above effects. It does not have to be provided, and no other processing need be performed.

上記実施形態は、仮想空間における視認性の低い領域と視認性が確保された領域とをイベントの発生に応じて動的に変更すること等を目的として、例えば、ゲームシステムやゲームプログラムとして利用することが可能である。 The above-described embodiment is used, for example, as a game system or a game program for the purpose of dynamically changing a low-visibility area and a high-visibility area in a virtual space according to the occurrence of an event. Is possible.

1 ゲームシステム
2 本体装置
81 プロセッサ
201 プレイヤキャラクタ
202 基準地点
203 目印オブジェクト
1 game system 2 main device 81 processor 201 player character 202 reference point 203 landmark object

Claims (36)

情報処理装置のコンピュータに、
ゲーム処理に基づいて所定のイベントが発生した場合に、仮想空間内に対象範囲を設定させ、
前記仮想空間の描画を行う描画処理において、前記仮想空間内の少なくとも一部の地形オブジェクトについて、前記対象範囲に含まれる部分を、前記仮想空間内に設定された光源を反映して描画させ、前記対象範囲に含まれない部分を、所定の色によって、または、明るさを下げて描画させる、
ゲームプログラム。
In the computer of the information processing equipment,
setting a target range in a virtual space when a predetermined event occurs based on game processing;
In the drawing process for drawing the virtual space, for at least a part of the terrain object in the virtual space, a portion included in the target range is drawn by reflecting a light source set in the virtual space; Make the part not included in the target range be drawn with a predetermined color or with reduced brightness,
game program.
前記コンピュータに、前記描画処理において、
前記少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が前記対象範囲に含まれるか否かを少なくとも示すマスクデータを生成させ、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれることが示される画素については、前記光源を反映してフレームバッファへの描画を行わせ、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれないことが示される画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行わせる、
請求項1に記載のゲームプログラム。
The computer, in the drawing process,
generating, for each pixel, at least mask data indicating whether or not a position corresponding to the pixel of the terrain object is included in the target range with respect to the at least part of the terrain object;
rendering to a frame buffer reflecting the light source the pixels for which the position of the at least part of the terrain object is included in the target range in the mask data;
Pixels for which the position of the at least part of the terrain object is not included in the target range in the mask data are drawn in the frame buffer with the predetermined color or with reduced brightness. let
The game program according to claim 1.
前記描画処理は、ディファードレンダリングに基づいた描画処理であって、
前記コンピュータに、前記描画処理において、
第1の段階において、前記仮想空間内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行わせ、
第2の段階において、画素ごとに、当該画素に対応する位置と、前記深度バッファに記憶された深度値と、前記対象範囲とに基づいて、前記マスクデータを生成させ、
第3の段階において、少なくとも前記Gバッファに記憶されるデータと、前記マスクデータとに基づいて前記フレームバッファへの描画を行わせる、
請求項2に記載のゲームプログラム。
The drawing process is a drawing process based on deferred rendering,
The computer, in the drawing process,
In a first step, writing to a G-buffer and a depth buffer for at least some terrain objects in the virtual space;
In a second step, for each pixel, generating the mask data based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the target range;
In a third step, drawing to the frame buffer is performed based on at least the data stored in the G buffer and the mask data;
3. A game program according to claim 2.
前記コンピュータにさらに、前記描画処理において、
前記第1の段階において、所定のオブジェクトについて、前記Gバッファおよび前記深度バッファへの書き込みを画素ごとに行わせるとともに、当該オブジェクトに対応する画素について前記マスクデータの適用を除外することを示す除外マスクデータを生成させ、
前記第3の段階において、前記除外マスクデータが示す画素について、前記少なくとも一部の地形オブジェクトのうち前記対象範囲に含まれない部分と前記所定のオブジェクトとを区別して視認することができる方法で描画を行わせる、
請求項3に記載のゲームプログラム。
The computer further comprises, in the drawing process,
In the first stage, an exclusion mask indicating that writing to the G buffer and the depth buffer is performed for each pixel for a predetermined object, and that the pixels corresponding to the object are excluded from application of the mask data. generate data,
In the third step, the pixels indicated by the exclusion mask data are rendered by a method that allows the predetermined object and the portion of the at least part of the terrain object that is not included in the target range to be visually distinguished from the predetermined object. to do
4. A game program according to claim 3.
前記マスクデータは、前記所定の色が描画される度合い、または、前記明るさを下げる度合いを画素ごとに示すデータであって、
前記コンピュータに、前記描画処理において、
前記光源を反映して算出される画素値に対して、前記度合いに応じて前記所定の色を合成した画素値、または、当該度合いに応じて明るさを下げた画素値を前記フレームバッファに書き込ませる、
請求項2に記載のゲームプログラム。
The mask data is data indicating the degree to which the predetermined color is rendered or the degree to which the brightness is reduced for each pixel,
The computer, in the drawing process,
A pixel value obtained by synthesizing the predetermined color according to the degree or a pixel value having brightness lowered according to the degree is written to the frame buffer with respect to the pixel value calculated by reflecting the light source. let
3. A game program according to claim 2.
前記仮想空間内には、前記光源として少なくとも、前記仮想空間内の位置によらず所定の明るさが設定される光源が設定される、
請求項1に記載のゲームプログラム。
In the virtual space, at least a light source is set as the light source, and a predetermined brightness is set regardless of the position in the virtual space.
The game program according to claim 1.
前記コンピュータに、
前記所定のイベントの発生に応じて、前記対象範囲の基準となる点を前記仮想空間内に設定させ、
前記基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように前記対象範囲を設定させる、
請求項1から請求項6のいずれか1項に記載のゲームプログラム。
to the computer;
setting a reference point for the target range in the virtual space in response to the occurrence of the predetermined event;
Based on the distance from the reference point, setting the target range so as to include a range in which the distance is less than or equal to a threshold;
A game program according to any one of claims 1 to 6.
前記コンピュータに、
前記所定のイベントの発生に応じて前記基準となる点が設定された後、前記しきい値を時間経過に応じて増加させることで前記対象範囲を拡大させる、
請求項7に記載のゲームプログラム。
to the computer;
After the reference point is set according to the occurrence of the predetermined event, the target range is expanded by increasing the threshold over time.
The game program according to claim 7.
前記コンピュータに、
前記所定のイベントの発生に応じてさらに点光源を前記仮想空間内に設置させる、
請求項7に記載のゲームプログラム。
to the computer;
further installing a point light source in the virtual space in response to the occurrence of the predetermined event;
The game program according to claim 7.
前記イベントは、所定のアイテムが前記仮想空間内に配置されるイベントであり、
前記コンピュータに、
前記所定のアイテムが配置された位置に基づいて、前記基準となる点の位置を設定させる、
請求項7に記載のゲームプログラム。
the event is an event in which a predetermined item is arranged in the virtual space;
to the computer;
setting the position of the reference point based on the position where the predetermined item is arranged;
The game program according to claim 7.
前記コンピュータにさらに、
操作入力に基づいて前記仮想空間内におけるプレイヤキャラクタの制御を行わせ、
前記所定のイベントは、操作入力に基づいて、前記プレイヤキャラクタの周囲が前記対象範囲となるイベントであり、
前記コンピュータにさらに、
前記プレイヤキャラクタの位置を、前記基準となる点の位置として設定させる、
請求項7に記載のゲームプログラム。
The computer further comprises:
controlling the player character in the virtual space based on the operation input;
The predetermined event is an event in which the surroundings of the player character become the target range based on the operation input,
The computer further comprises:
setting the position of the player character as the position of the reference point;
The game program according to claim 7.
前記コンピュータにさらに、
操作入力に基づいて前記仮想空間内におけるプレイヤキャラクタの制御を行わせ、
前記イベントは、前記仮想空間内に設定されたイベント発生位置に前記プレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベントであって、
前記コンピュータにさらに、
前記イベントの発生に応じて、前記仮想空間における前記対象範囲を平面的に示す2次元範囲データを、前記仮想空間のうち前記イベント発生位置に対応する範囲が少なくとも前記対象範囲となるよう更新させ、
前記2次元範囲データにさらに基づいて前記マスクデータを生成させる、
請求項2から請求項6のいずれか1項に記載のゲームプログラム。
The computer further comprises:
controlling the player character in the virtual space based on the operation input;
The event is an event that occurs when a predetermined operation input is performed when the player character is positioned at an event occurrence position set in the virtual space,
The computer further comprises:
updating two-dimensional range data two-dimensionally indicating the target range in the virtual space in response to the occurrence of the event so that at least a range corresponding to the event occurrence position in the virtual space is the target range;
generating the mask data further based on the two-dimensional range data;
A game program according to any one of claims 2 to 6.
前記コンピュータに、前記描画処理において、
前記少なくとも一部の地形オブジェクトに関して、前記対象範囲に含まれるか否かを画素ごとに判定させ、
前記対象範囲に含まれる画素については、前記光源を反映してフレームバッファへの描画を行わせ、
前記対象範囲に含まれない画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行わせる、
請求項1に記載のゲームプログラム。
The computer, in the drawing process,
Determining for each pixel whether or not the at least part of the terrain object is included in the target range;
causing pixels included in the target range to be drawn in a frame buffer by reflecting the light source;
Pixels not included in the target range are drawn in the frame buffer with the predetermined color or with reduced brightness.
The game program according to claim 1.
プロセッサを備えた少なくとも1つの情報処理装置を備え、
前記少なくとも1つの情報処理装置の少なくともいずれかのプロセッサは、
ゲーム処理に基づいて所定のイベントが発生した場合に、仮想空間内に対象範囲を設定し、
前記仮想空間の描画を行う描画処理において、前記仮想空間内の少なくとも一部の地形オブジェクトについて、前記対象範囲に含まれる部分を、前記仮想空間内に設定された光源を反映して描画し、前記対象範囲に含まれない部分を、所定の色によって、または、明るさを下げて描画する、
情報処理システム。
comprising at least one information processing device comprising a processor;
At least one processor of the at least one information processing device,
When a predetermined event occurs based on game processing, a target range is set in the virtual space,
In the drawing process for drawing the virtual space, for at least a part of the terrain object in the virtual space, a portion included in the target range is drawn by reflecting a light source set in the virtual space; Draw the parts that are not included in the target area with a predetermined color or with reduced brightness,
Information processing system.
前記少なくともいずれかのプロセッサは、
前記少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が前記対象範囲に含まれるか否かを少なくとも示すマスクデータを生成し、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれることが示される画素については、前記光源を反映してフレームバッファへの描画を行い、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれないことが示される画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項14に記載の情報処理システム。
at least one of the processors
generating, for each pixel, at least mask data indicating whether or not a position corresponding to the pixel of the terrain object is included in the target range, with respect to the at least part of the terrain object;
drawing to a frame buffer reflecting the light source for pixels for which the position of the at least part of the terrain object is included in the target range in the mask data;
Pixels for which the position of the at least part of the terrain object is not included in the target range in the mask data are drawn in the frame buffer with the predetermined color or with reduced brightness. ,
The information processing system according to claim 14.
前記描画処理は、ディファードレンダリングに基づいた描画処理であって、
前記少なくともいずれかのプロセッサは、前記描画処理において、
第1の段階において、前記仮想空間内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行い、
第2の段階において、画素ごとに、当該画素に対応する位置と、前記深度バッファに記憶された深度値と、前記対象範囲とに基づいて、前記マスクデータを生成し、
第3の段階において、少なくとも前記Gバッファに記憶されるデータと、前記マスクデータとに基づいて前記フレームバッファへの描画を行う、
請求項15に記載の情報処理システム。
The drawing process is a drawing process based on deferred rendering,
At least one of the processors, in the drawing process,
In a first step, writing to a G-buffer and a depth buffer for at least some terrain objects in said virtual space;
In a second step, for each pixel, generating the mask data based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the target range;
In a third stage, drawing to the frame buffer is performed based on at least the data stored in the G buffer and the mask data;
The information processing system according to claim 15.
前記少なくともいずれかのプロセッサは、前記描画処理において、
前記第1の段階において、所定のオブジェクトについて、前記Gバッファおよび前記深度バッファへの書き込みを画素ごとに行うとともに、当該オブジェクトに対応する画素について前記マスクデータの適用を除外することを示す除外マスクデータを生成し、
前記第3の段階において、前記除外マスクデータが示す画素について、前記少なくとも一部の地形オブジェクトのうち前記対象範囲に含まれない部分と前記所定のオブジェクトとを区別して視認することができる方法で描画を行う、
請求項16に記載の情報処理システム。
At least one of the processors, in the drawing process,
In the first step, for each pixel of a predetermined object, writing to the G buffer and the depth buffer is performed, and exclusion mask data indicating that the pixels corresponding to the object are excluded from application of the mask data. to generate
In the third step, the pixels indicated by the exclusion mask data are rendered by a method that allows the predetermined object and the portion of the at least part of the terrain object that is not included in the target range to be visually distinguished from the predetermined object. I do,
The information processing system according to claim 16.
前記マスクデータは、前記所定の色が描画される度合い、または、前記明るさを下げる度合いを画素ごとに示すデータであって、
前記少なくともいずれかのプロセッサは、前記描画処理において、
前記光源を反映して算出される画素値に対して、前記度合いに応じて前記所定の色を合成した画素値、または、当該度合いに応じて明るさを下げた画素値を前記フレームバッファに書き込む、
請求項15に記載の情報処理システム。
The mask data is data indicating the degree to which the predetermined color is rendered or the degree to which the brightness is reduced for each pixel,
At least one of the processors, in the drawing process,
A pixel value obtained by synthesizing the predetermined color according to the degree, or a pixel value whose brightness is lowered according to the degree, with respect to the pixel value calculated by reflecting the light source is written to the frame buffer. ,
The information processing system according to claim 15.
前記仮想空間内には、前記光源として少なくとも、前記仮想空間内の位置によらず所定の明るさが設定される光源が設定される、
請求項14に記載の情報処理システム。
In the virtual space, at least a light source is set as the light source, and a predetermined brightness is set regardless of the position in the virtual space.
The information processing system according to claim 14.
前記少なくともいずれかのプロセッサは、
前記所定のイベントの発生に応じて、前記対象範囲の基準となる点を前記仮想空間内に設定し、
前記基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように前記対象範囲を設定する、
請求項14から請求項19のいずれか1項に記載の情報処理システム。
at least one of the processors
setting a reference point for the target range in the virtual space in response to the occurrence of the predetermined event;
Based on the distance from the reference point, the target range is set so as to include a range in which the distance is equal to or less than a threshold.
The information processing system according to any one of claims 14 to 19.
前記少なくともいずれかのプロセッサは、
前記所定のイベントの発生に応じて前記基準となる点が設定された後、前記しきい値を時間経過に応じて増加させることで前記対象範囲を拡大する、
請求項20に記載の情報処理システム。
at least one of the processors
After the reference point is set according to the occurrence of the predetermined event, the target range is expanded by increasing the threshold over time.
The information processing system according to claim 20.
前記少なくともいずれかのプロセッサは、
前記所定のイベントの発生に応じてさらに点光源を前記仮想空間内に設置する、
請求項20に記載の情報処理システム。
at least one of the processors
further installing a point light source in the virtual space in response to the occurrence of the predetermined event;
The information processing system according to claim 20.
前記イベントは、所定のアイテムが前記仮想空間内に配置されるイベントであり、
前記少なくともいずれかのプロセッサは、
前記所定のアイテムが配置された位置に基づいて、前記基準となる点の位置を設定する、
請求項20に記載の情報処理システム。
the event is an event in which a predetermined item is arranged in the virtual space;
at least one of the processors
setting the position of the reference point based on the position where the predetermined item is arranged;
The information processing system according to claim 20.
前記少なくともいずれかのプロセッサは、
操作入力に基づいて前記仮想空間内におけるプレイヤキャラクタの制御を行い、
前記所定のイベントは、操作入力に基づいて、前記プレイヤキャラクタの周囲が前記対象範囲となるイベントであり、
前記少なくともいずれかのプロセッサは、
前記プレイヤキャラクタの位置を、前記基準となる点の位置として設定する、
請求項20に記載の情報処理システム。
at least one of the processors
controlling the player character in the virtual space based on the operation input;
The predetermined event is an event in which the surroundings of the player character become the target range based on the operation input,
at least one of the processors
setting the position of the player character as the position of the reference point;
The information processing system according to claim 20.
前記少なくともいずれかのプロセッサは、
操作入力に基づいて前記仮想空間内におけるプレイヤキャラクタの制御を行い、
前記イベントは、前記仮想空間内に設定されたイベント発生位置に前記プレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベントであって、
前記少なくともいずれかのプロセッサは、
前記イベントの発生に応じて、前記仮想空間における前記対象範囲を平面的に示す2次元範囲データを、前記仮想空間のうち前記イベント発生位置に対応する範囲が少なくとも前記対象範囲となるよう更新し、
前記2次元範囲データにさらに基づいて前記マスクデータを生成する、
請求項15から請求項19のいずれか1項に記載の情報処理システム。
at least one of the processors
controlling the player character in the virtual space based on the operation input;
The event is an event that occurs when a predetermined operation input is performed when the player character is positioned at an event occurrence position set in the virtual space,
at least one of the processors
updating two-dimensional range data two-dimensionally indicating the target range in the virtual space in response to the occurrence of the event so that at least a range corresponding to the event occurrence position in the virtual space is the target range;
generating the mask data further based on the two-dimensional range data;
The information processing system according to any one of claims 15 to 19.
前記少なくともいずれかのプロセッサは、前記描画処理において、
前記少なくとも一部の地形オブジェクトに関して、前記対象範囲に含まれるか否かを画素ごとに判定し、
前記対象範囲に含まれる画素については、前記光源を反映してフレームバッファへの描画を行い、
前記対象範囲に含まれない画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項14に記載の情報処理システム。
At least one of the processors, in the drawing process,
determining for each pixel whether or not the at least part of the terrain object is included in the target range;
For pixels included in the target range, drawing to a frame buffer reflecting the light source,
Pixels not included in the target range are drawn in the frame buffer with the predetermined color or with reduced brightness.
The information processing system according to claim 14.
プロセッサを備え、
前記プロセッサは、
ゲーム処理に基づいて所定のイベントが発生した場合に、仮想空間内に対象範囲を設定し、
前記仮想空間の描画を行う描画処理において、前記仮想空間内の少なくとも一部の地形オブジェクトについて、前記対象範囲に含まれる部分を、前記仮想空間内に設定された光源を反映して描画し、前記対象範囲に含まれない部分を、所定の色によって、または、明るさを下げて描画する、
情報処理装置。
with a processor
The processor
When a predetermined event occurs based on game processing, a target range is set in the virtual space,
In the drawing process for drawing the virtual space, for at least a part of the terrain object in the virtual space, a portion included in the target range is drawn by reflecting a light source set in the virtual space; Draw the parts that are not included in the target area with a predetermined color or with reduced brightness,
Information processing equipment.
前記プロセッサは、前記描画処理において、
前記少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が前記対象範囲に含まれるか否かを少なくとも示すマスクデータを生成し、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれることが示される画素については、前記光源を反映してフレームバッファへの描画を行い、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれないことが示される画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項27に記載の情報処理装置。
The processor, in the drawing process,
generating, for each pixel, at least mask data indicating whether or not a position corresponding to the pixel of the terrain object is included in the target range, with respect to the at least part of the terrain object;
drawing to a frame buffer reflecting the light source for pixels for which the position of the at least part of the terrain object is included in the target range in the mask data;
Pixels for which the position of the at least part of the terrain object is not included in the target range in the mask data are drawn in the frame buffer with the predetermined color or with reduced brightness. ,
The information processing apparatus according to claim 27.
前記描画処理は、ディファードレンダリングに基づいた描画処理であって、
前記プロセッサは、前記描画処理において、
第1の段階において、前記仮想空間内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行い、
第2の段階において、画素ごとに、当該画素に対応する位置と、前記深度バッファに記憶された深度値と、前記対象範囲とに基づいて、前記マスクデータを生成し、
第3の段階において、少なくとも前記Gバッファに記憶されるデータと、前記マスクデータとに基づいて前記フレームバッファへの描画を行う、
請求項28に記載の情報処理装置。
The drawing process is a drawing process based on deferred rendering,
The processor, in the drawing process,
In a first step, writing to a G-buffer and a depth buffer for at least some terrain objects in said virtual space;
In a second step, for each pixel, generating the mask data based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the target range;
In a third stage, drawing to the frame buffer is performed based on at least the data stored in the G buffer and the mask data;
The information processing apparatus according to claim 28.
前記プロセッサは、前記描画処理において、
前記第1の段階において、所定のオブジェクトについて、前記Gバッファおよび前記深度バッファへの書き込みを画素ごとに行うとともに、当該オブジェクトに対応する画素について前記マスクデータの適用を除外することを示す除外マスクデータを生成し、
前記第3の段階において、前記除外マスクデータが示す画素について、前記少なくとも一部の地形オブジェクトのうち前記対象範囲に含まれない部分と前記所定のオブジェクトとを区別して視認することができる方法で描画を行う、
請求項29に記載の情報処理装置。
The processor, in the drawing process,
In the first step, for each pixel of a predetermined object, writing to the G buffer and the depth buffer is performed, and exclusion mask data indicating that the pixels corresponding to the object are excluded from application of the mask data. to generate
In the third step, the pixels indicated by the exclusion mask data are rendered by a method that allows the predetermined object and the portion of the at least part of the terrain object that is not included in the target range to be visually distinguished from the predetermined object. I do,
The information processing apparatus according to claim 29.
前記プロセッサは、前記描画処理において、
前記少なくとも一部の地形オブジェクトに関して、前記対象範囲に含まれるか否かを画素ごとに判定し、
前記対象範囲に含まれる画素については、前記光源を反映してフレームバッファへの描画を行い、
前記対象範囲に含まれない画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項27に記載の情報処理装置。
The processor, in the drawing process,
determining for each pixel whether or not the at least part of the terrain object is included in the target range;
For pixels included in the target range, drawing to a frame buffer reflecting the light source,
Pixels not included in the target range are drawn in the frame buffer with the predetermined color or with reduced brightness.
The information processing apparatus according to claim 27.
情報処理システムによって実行されるゲーム処理方法であって、
前記情報処理システムは、
ゲーム処理に基づいて所定のイベントが発生した場合に、仮想空間内に対象範囲を設定し、
前記仮想空間の描画を行う描画処理において、前記仮想空間内の少なくとも一部の地形オブジェクトについて、前記対象範囲に含まれる部分を、前記仮想空間内に設定された光源を反映して描画し、前記対象範囲に含まれない部分を、所定の色によって、または、明るさを下げて描画する、
ゲーム処理方法。
A game processing method executed by an information processing system, comprising:
The information processing system is
When a predetermined event occurs based on game processing, a target range is set in the virtual space,
In the drawing process for drawing the virtual space, for at least a part of the terrain object in the virtual space, a portion included in the target range is drawn by reflecting a light source set in the virtual space; Draw the parts that are not included in the target area with a predetermined color or with reduced brightness,
Game processing method.
前記情報処理システムは、前記描画処理において、
前記少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が前記対象範囲に含まれるか否かを少なくとも示すマスクデータを生成し、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれることが示される画素については、前記光源を反映してフレームバッファへの描画を行い、
前記マスクデータにおいて前記少なくとも一部の地形オブジェクトの位置が前記対象範囲に含まれないことが示される画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項32に記載のゲーム処理方法。
The information processing system, in the drawing process,
generating, for each pixel, at least mask data indicating whether or not a position corresponding to the pixel of the terrain object is included in the target range, with respect to the at least part of the terrain object;
drawing to a frame buffer reflecting the light source for pixels for which the position of the at least part of the terrain object is included in the target range in the mask data;
Pixels for which the position of the at least part of the terrain object is not included in the target range in the mask data are drawn in the frame buffer with the predetermined color or with reduced brightness. ,
33. A game processing method according to claim 32.
前記描画処理は、ディファードレンダリングに基づいた描画処理であって、
前記情報処理システムは、前記描画処理において、
第1の段階において、前記仮想空間内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行い、
第2の段階において、画素ごとに、当該画素に対応する位置と、前記深度バッファに記憶された深度値と、前記対象範囲とに基づいて、前記マスクデータを生成し、
第3の段階において、少なくとも前記Gバッファに記憶されるデータと、前記マスクデータとに基づいて前記フレームバッファへの描画を行う、
請求項33に記載のゲーム処理方法。
The drawing process is a drawing process based on deferred rendering,
The information processing system, in the drawing process,
In a first step, writing to a G-buffer and a depth buffer for at least some terrain objects in said virtual space;
In a second step, for each pixel, generating the mask data based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the target range;
In a third stage, drawing to the frame buffer is performed based on at least the data stored in the G buffer and the mask data;
34. A game processing method according to claim 33.
前記情報処理システムは、前記描画処理において、
前記第1の段階において、所定のオブジェクトについて、前記Gバッファおよび前記深度バッファへの書き込みを画素ごとに行うとともに、当該オブジェクトに対応する画素について前記マスクデータの適用を除外することを示す除外マスクデータを生成し、
前記第3の段階において、前記除外マスクデータが示す画素について、前記少なくとも一部の地形オブジェクトのうち前記対象範囲に含まれない部分と前記所定のオブジェクトとを区別して視認することができる方法で描画を行う、
請求項34に記載のゲーム処理方法。
The information processing system, in the drawing process,
In the first step, for each pixel of a predetermined object, writing to the G buffer and the depth buffer is performed, and exclusion mask data indicating that the pixels corresponding to the object are excluded from application of the mask data. to generate
In the third step, the pixels indicated by the exclusion mask data are rendered by a method that allows the predetermined object and the portion of the at least part of the terrain object that is not included in the target range to be visually distinguished from the predetermined object. I do,
35. A game processing method according to claim 34.
前記情報処理システムは、前記描画処理において、
前記少なくとも一部の地形オブジェクトに関して、前記対象範囲に含まれるか否かを画素ごとに判定し、
前記対象範囲に含まれる画素については、前記光源を反映してフレームバッファへの描画を行い、
前記対象範囲に含まれない画素については、前記所定の色によって、または、明るさを下げて前記フレームバッファへの描画を行う、
請求項32に記載のゲーム処理方法。
The information processing system, in the drawing process,
determining for each pixel whether or not the at least part of the terrain object is included in the target range;
For pixels included in the target range, drawing to a frame buffer reflecting the light source,
Pixels not included in the target range are drawn in the frame buffer with the predetermined color or with reduced brightness.
33. A game processing method according to claim 32.
JP2022167796A 2022-10-19 2022-10-19 GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO Active JP7530949B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2022167796A JP7530949B2 (en) 2022-10-19 2022-10-19 GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO
US18/332,218 US20240226741A9 (en) 2022-10-19 2023-06-09 Storage medium, information processing system, information processing device, and game processing method
US18/332,277 US20240226742A9 (en) 2022-10-19 2023-06-09 Storage medium, information processing system, information processing device, and game processing method
US18/332,343 US20240226743A9 (en) 2022-10-19 2023-06-09 Storage medium, information processing system, information processing device, and game processing method
EP23179824.0A EP4356989A1 (en) 2022-10-19 2023-06-16 Game program, information processing system and game processing method
EP23179806.7A EP4356988A1 (en) 2022-10-19 2023-06-16 Game program, information processing system and game processing method
EP23179795.2A EP4356987A1 (en) 2022-10-19 2023-06-16 Game program, information processing system and game processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022167796A JP7530949B2 (en) 2022-10-19 2022-10-19 GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO

Publications (2)

Publication Number Publication Date
JP2023098604A true JP2023098604A (en) 2023-07-10
JP7530949B2 JP7530949B2 (en) 2024-08-08

Family

ID=87071949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022167796A Active JP7530949B2 (en) 2022-10-19 2022-10-19 GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO

Country Status (1)

Country Link
JP (1) JP7530949B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4563070B2 (en) 2004-04-26 2010-10-13 任天堂株式会社 GAME DEVICE AND GAME PROGRAM
JP4591929B2 (en) 2006-12-15 2010-12-01 株式会社スクウェア・エニックス GAME DEVICE, GAME PROGRESSING METHOD, PROGRAM, AND RECORDING MEDIUM
JP5072944B2 (en) 2009-12-01 2012-11-14 株式会社スクウェア・エニックス User interface processing device, user interface processing method, and user interface processing program

Also Published As

Publication number Publication date
JP7530949B2 (en) 2024-08-08

Similar Documents

Publication Publication Date Title
EP3398666B1 (en) Game apparatus, processing method, and information storage medium
US7884822B2 (en) Game apparatus, storage medium storing a game program, and game controlling method
JP2010042090A (en) Program, information storage medium and game device
US20180253891A1 (en) Storage medium, image processing system, image processing apparatus and image processing method
JP5576061B2 (en) Program and game device
KR101036056B1 (en) Video image generating device, character appearance changing method, and information recording medium for recording the program
WO2015025442A1 (en) Information processing device and information processing method
JP6106393B2 (en) Program, game device, and server
JP2005310020A (en) Apparatus and program for generating three-dimensional image
JP5210547B2 (en) Movement control program and movement control apparatus
JP2006268676A (en) Program, information storage medium and image generation system
KR20070107776A (en) Game device, game control method, information recording medium, and program
JP5677050B2 (en) GAME PROGRAM AND GAME DEVICE
JP2023098604A (en) Game program, information processing system, information processing device, and game processing method
JP7565993B2 (en) GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO
JP7462010B2 (en) GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD
JP2023098606A (en) Game program, information processing system, information processing device, and game processing method
EP4356989A1 (en) Game program, information processing system and game processing method
JP7519481B2 (en) GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD
JP4773153B2 (en) GAME PROGRAM AND GAME DEVICE
US10748349B2 (en) Storage medium, image-processing system, image-processing device, and image-processing method
CN114177616A (en) Virtual item release method, device, equipment and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240729

R150 Certificate of patent or registration of utility model

Ref document number: 7530949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150