JP7462010B2 - GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD - Google Patents

GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD Download PDF

Info

Publication number
JP7462010B2
JP7462010B2 JP2022167797A JP2022167797A JP7462010B2 JP 7462010 B2 JP7462010 B2 JP 7462010B2 JP 2022167797 A JP2022167797 A JP 2022167797A JP 2022167797 A JP2022167797 A JP 2022167797A JP 7462010 B2 JP7462010 B2 JP 7462010B2
Authority
JP
Japan
Prior art keywords
value
map image
virtual space
game
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022167797A
Other languages
Japanese (ja)
Other versions
JP2023098605A (en
Inventor
航 森
卓宏 堂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2022167797A priority Critical patent/JP7462010B2/en
Priority to US18/332,277 priority patent/US20240226742A9/en
Priority to US18/332,343 priority patent/US20240226743A9/en
Priority to US18/332,218 priority patent/US20240226741A9/en
Priority to EP23179824.0A priority patent/EP4356989A1/en
Priority to EP23179806.7A priority patent/EP4356988A1/en
Priority to EP23179795.2A priority patent/EP4356987A1/en
Publication of JP2023098605A publication Critical patent/JP2023098605A/en
Application granted granted Critical
Publication of JP7462010B2 publication Critical patent/JP7462010B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、ゲームフィールドのマップ画像を表示するためのゲームプログラム、情報処理システム、情報処理装置、および、ゲーム処理方法に関する。 The present invention relates to a game program, an information processing system, an information processing device, and a game processing method for displaying a map image of a game field.

従来、仮想空間におけるゲームフィールドのマップ画像を表示するためのゲームプログラムがある(例えば、非特許文献1参照)。例えば、ゲームプログラムは、プレイヤキャラクタが仮想空間における所定の地点を訪れることを条件に発生するイベント(すなわち、ゲームにおけるイベント)に応じて、当該地点に対応する領域のマップ画像をロック状態から解放状態にすることで当該領域のマップ画像を表示する。 Conventionally, there are game programs for displaying a map image of a game field in a virtual space (for example, see Non-Patent Document 1). For example, in response to an event (i.e., an event in the game) that occurs on the condition that the player character visits a specific point in the virtual space, the game program changes the map image of the area corresponding to the point from a locked state to an unlocked state, thereby displaying the map image of the area.

"The Legend of Zelda:Breath of the Wild"、Explore Hyrule、[online]、Nintendo of America Inc.、[令和4年9月5日検索]、インターネット<URL:https://www.zelda.com/breath-of-the-wild/features/>"The Legend of Zelda: Breath of the Wild", Explore Hyrule, [online], Nintendo of America Inc., [searched on September 5, 2022], Internet <URL: https://www.zelda.com/breath-of-the-wild/features/>

従来、1つの上記イベントに応じてマップ画像が解放される領域は、当該イベントに対応する1つの地点(例えば、プレイヤキャラクタが訪れた地点)に対応する固定された範囲であった。 Conventionally, the area of the map image that is released in response to one of the above events is a fixed range that corresponds to a single location (e.g., a location visited by the player character) that corresponds to that event.

それ故、本発明の目的は、マップ画像において解放される領域の形状を、固定形状でなく、複数のイベントそれぞれの発生の有無に応じた形状にすることができるゲームプログラム、情報処理システム、情報処理装置、および、ゲーム処理方法を提供することである。 Therefore, the object of the present invention is to provide a game program, an information processing system, an information processing device, and a game processing method that can change the shape of the area released in the map image to a shape that corresponds to whether or not each of multiple events has occurred, rather than a fixed shape.

上記の課題を解決すべく、本発明は、以下の(1)~(7)の構成を採用した。 To solve the above problems, the present invention employs the following configurations (1) to (7).

(1)
本発明の一例は、情報処理装置のコンピュータに、次の処理を実行させるゲームプログラムである。
・操作入力に基づいて、プレイヤキャラクタを仮想空間内において制御するゲーム処理
・ゲーム処理に基づいて所定のイベントが発生した場合に、仮想空間内に設定された複数の地点のうち、発生した所定のイベントに対応付けられる地点を第1の状態から第2の状態へ遷移させる処理
・地点に対応する位置において第1基準値となり、当該位置からの距離に応じて減衰する第1判定値について、複数の地点のうち第2の状態となっている1つ以上の地点に基づく当該第1判定値を位置ごとに合計した合計判定値が所定値以上となる領域を特定させる処理
・仮想空間のフィールド情報を示すマップ画像であって、領域に対応する部分のフィールド情報が示されたマップ画像を表示させる処理
(1)
An example of the present invention is a game program that causes a computer of an information processing device to execute the following processes.
- A game process for controlling a player character in a virtual space based on an operation input. - A process for transitioning a point associated with a predetermined event that has occurred, out of a plurality of points set in a virtual space, from a first state to a second state when a predetermined event has occurred based on the game process. - A process for specifying an area in which a total judgment value obtained by adding up, for each position, the first judgment value, which is a first reference value at a position corresponding to a point and which attenuates according to the distance from the position, based on one or more points among the plurality of points that are in the second state, is equal to or greater than a predetermined value. - A process for displaying a map image showing field information of a virtual space, in which the map image shows the field information of a portion corresponding to the area.

上記(1)の構成によれば、マップ画像においてフィールド情報が示される領域の形状を、複数のイベントそれぞれの発生の有無に応じた形状にすることができる。 According to the configuration (1) above, the shape of the area in the map image in which field information is displayed can be changed according to whether or not each of multiple events has occurred.

(2)
上記(1)の構成において、マップ画像は、フィールド情報を2次元的に示す画像であってもよい。第1判定値は、地点に対応する2次元的な位置からの2次元的な距離に応じて減衰する値であってもよい。
(2)
In the above configuration (1), the map image may be an image showing the field information in a two-dimensional manner, and the first determination value may be a value that attenuates according to a two-dimensional distance from a two-dimensional position corresponding to the point.

上記(2)の構成によれば、2次元平面上で領域を設定することができるので、少ない処理負荷で、2次元マップと親和性の高い領域を設定することができる。 According to the above configuration (2), since an area can be set on a two-dimensional plane, an area that has high affinity with a two-dimensional map can be set with a small processing load.

(3)
上記(2)の構成において、複数の地点のそれぞれについて設定される第1基準値は、複数の地点ごとに大きさが設定されてもよい。
(3)
In the above configuration (2), the first reference value set for each of the plurality of points may have a magnitude set for each of the plurality of points.

上記(3)の構成によれば、所定のイベントが発生した場合において上記の領域となる範囲を、地点ごとに個別に設定することができる。 According to the configuration (3) above, the range that will become the above-mentioned area when a specific event occurs can be set individually for each location.

(4)
上記(3)の構成において、合計判定値は、複数の地点のうちの第2の状態となっている1つ以上の地点についての第1判定値の合計から、複数の地点のうちの第1の状態となっている1つ以上の地点についての第2判定値の合計を減算した値であってもよい。第2判定値は、地点に対応する位置において、第1基準値と同じまたは異なる第2基準値となり、当該位置からの距離に応じて減衰する値であってもよい。
(4)
In the above configuration (3), the total determination value may be a value obtained by subtracting a sum of second determination values for one or more locations among the plurality of locations that are in the first state from a sum of first determination values for one or more locations among the plurality of locations that are in the second state. The second determination value may be a second reference value that is the same as or different from the first reference value at a position corresponding to the location, and may be a value that attenuates according to the distance from the position.

上記(4)の構成によれば、ある地点が第2の状態となったことによって、第1の状態である他の地点およびその近傍の位置が上記の領域となってしまう可能性を低減することができる。 The configuration of (4) above can reduce the possibility that a location in the second state will cause another location in the first state and its neighboring locations to become part of the above-mentioned area.

(5)
上記(1)から(4)のいずれかの構成において、所定のイベントは、地点に対応して仮想空間内に設定されたイベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベントであってもよい。
(5)
In any of the configurations (1) to (4) above, the specified event may be an event that occurs when a specified operational input is made when the player character is located at an event occurrence position that is set in the virtual space corresponding to a location.

上記(5)の構成によれば、プレイヤキャラクタがイベント発生位置へ到達することによって、マップ画像においてフィールド情報が示される範囲を拡げていくことができるゲームを提供することができる。 The above configuration (5) makes it possible to provide a game in which the area in which field information is displayed on the map image can be expanded by the player character reaching the event occurrence position.

(6)
上記(1)から(5)のいずれかの構成において、コンピュータは、所定のイベントが発生した場合、仮想空間内において領域の範囲を示す2次元のマスクデータを生成し、フィールド情報を含む元マップ画像にマスクデータを適用することによって、領域に対応する部分のフィールド情報が示されたマップ画像を生成してもよい。
(6)
In any of the above configurations (1) to (5), when a specified event occurs, the computer may generate two-dimensional mask data indicating the extent of an area in the virtual space, and apply the mask data to an original map image including the field information to generate a map image indicating the field information of the portion corresponding to the area.

上記(6)の構成によれば、上記の領域の部分についてフィールド情報が示されるマップ画像を容易に生成することができる。 The above configuration (6) makes it easy to generate a map image showing field information for the above-mentioned area.

(7)
上記(6)の構成において、マスクデータは、仮想空間内の位置における合計判定値の大きさに応じた多値の値を各位置について示すデータであってもよい。コンピュータは、マップ表示指示に応じて、マスクデータが示す多値の値に応じた比率で当該マスクデータを元マップ画像に対して画素毎に適用することによって、マップ画像を生成してもよい。
(7)
In the above configuration (6), the mask data may be data indicating, for each position in the virtual space, a multi-value corresponding to the magnitude of the total determination value at that position. In response to a map display instruction, the computer may generate the map image by applying the mask data to the original map image for each pixel in a ratio corresponding to the multi-value indicated by the mask data.

上記(7)の構成によれば、領域の境界付近がぼかされたマップ画像を生成することができる。 The configuration (7) above makes it possible to generate a map image in which the areas near the boundaries of the regions are blurred.

なお、本発明の別の一例は、上記(1)~(7)における処理を実行する情報処理装置または情報処理システムであってもよい。また、本発明の別の一例は、上記(1)~(7)における処理を実行するゲーム処理方法であってもよい。 Another example of the present invention may be an information processing device or information processing system that executes the processes in (1) to (7) above. Also, another example of the present invention may be a game processing method that executes the processes in (1) to (7) above.

上記ゲームプログラム、情報処理システム、情報処理装置、および、ゲーム処理方法によれば、マップ画像において解放される領域の形状を、複数のイベントの発生の有無に応じて変化させることができる。 The above game program, information processing system, information processing device, and game processing method allow the shape of the area released in the map image to be changed depending on whether multiple events occur.

本体装置に左コントローラおよび右コントローラを装着した状態の一例を示す図A diagram showing an example of a state in which a left controller and a right controller are attached to a main unit. 本体装置から左コントローラおよび右コントローラをそれぞれ外した状態の一例を示す図A diagram showing an example of the state when the left controller and the right controller are removed from the main unit. 本体装置の一例を示す六面図Six-sided diagram showing an example of a main unit 左コントローラの一例を示す六面図Six-sided diagram showing an example of the left controller 右コントローラの一例を示す六面図Six-sided diagram showing an example of the right controller 本体装置の内部構成の一例を示すブロック図FIG. 1 is a block diagram showing an example of an internal configuration of a main unit. 本体装置と左コントローラおよび右コントローラとの内部構成の一例を示すブロック図A block diagram showing an example of the internal configuration of the main unit, the left controller, and the right controller. 本実施形態におけるゲーム例の概要を示す図FIG. 1 is a diagram showing an overview of an example game according to the present embodiment. 1つの基準地点が解放された場合における、フィールド対応平面と判定値との関係を示す図FIG. 13 is a diagram showing the relationship between the field corresponding plane and the judgment value when one reference point is released. 図9に示す円形領域が解放領域となる場合に表示されるマップ画像の一例を示す図FIG. 10 is a diagram showing an example of a map image displayed when the circular area shown in FIG. 9 is a released area; 2つの基準地点が解放された場合における、フィールド対応平面と判定値との関係を示す図FIG. 13 is a diagram showing the relationship between the field corresponding plane and the judgment value when two reference points are released. 図11に示す領域が解放領域となる場合に表示されるマップ画像の一例を示す図FIG. 12 is a diagram showing an example of a map image displayed when the area shown in FIG. 11 is a released area; 2つの基準地点が解放され、1つの基準地点が未解放である場合における解放領域が設定されるフィールド対応平面の一例を示す図FIG. 13 is a diagram showing an example of a field correspondence plane in which a released region is set in a case where two reference points are released and one reference point is not released; 本実施形態におけるマップ画像の生成方法の一例を示す図FIG. 1 is a diagram showing an example of a method for generating a map image in this embodiment. プレイヤキャラクタを含むフィールドを示すフィールド画像を含むゲーム画像の一例を示す図FIG. 13 is a diagram showing an example of a game image including a field image showing a field including a player character. プレイヤキャラクタが基準地点の近傍に位置する場合におけるゲーム画像の一例を示す図FIG. 13 is a diagram showing an example of a game image in which a player character is located near a reference point; 基準地点が解放された後のフィールドを示すゲーム画像の一例を示す図FIG. 13 is a diagram showing an example of a game image showing the field after the reference point has been released. 1つの基準地点が解放された場合におけるフィールドを上から見た図Top view of the field when one reference point is released 2つの基準地点が解放された場合におけるフィールドを上から見た図Top view of the field when two reference points are released 光源アイテムが配置されたフィールドを示すゲーム画像の一例を示す図FIG. 13 is a diagram showing an example of a game image showing a field on which light source items are arranged. 解放イベントによる照射範囲内に光源アイテムが配置された場合におけるフィールドを示すゲーム画像の一例を示す図FIG. 13 is a diagram showing an example of a game image showing a field when a light source item is placed within an illumination range due to a release event; フレームバッファに書き込まれるフィールド画像を生成する方法の一例を示す図FIG. 1 illustrates an example of a method for generating a field image to be written to a frame buffer. ゲームシステム1における情報処理に用いられる各種データを記憶する記憶領域の一例を示す図FIG. 2 is a diagram showing an example of a storage area for storing various data used in information processing in the game system 1. ゲームシステム1によって実行されるゲーム処理の流れの一例を示すフローチャートA flowchart showing an example of the flow of a game process executed by the game system 1. 図24に示すステップS8のプレイヤ関連制御処理の詳細な流れの一例を示すサブフローチャートA sub-flowchart showing an example of a detailed flow of the player-related control process in step S8 shown in FIG. 24. 図24に示すステップS9の他オブジェクト制御処理の詳細な流れの一例を示すサブフローチャートA sub-flowchart showing an example of a detailed flow of the other object control process in step S9 shown in FIG. 24. 図24に示すステップS10の描画処理の詳細な流れの一例を示すサブフローチャートA sub-flowchart showing an example of a detailed flow of the drawing process in step S10 shown in FIG. 24. 他の実施形態における描画処理の詳細な流れの一例を示すサブフローチャート13 is a sub-flowchart showing an example of a detailed flow of a drawing process according to another embodiment.

[1.ゲームシステムの構成]
以下、本実施形態の一例に係るゲームシステムについて説明する。本実施形態におけるゲームシステム1の一例は、本体装置(情報処理装置;本実施形態ではゲーム装置本体として機能する)2と左コントローラ3および右コントローラ4とを含む。本体装置2は、左コントローラ3および右コントローラ4がそれぞれ着脱可能である。つまり、ゲームシステム1は、左コントローラ3および右コントローラ4をそれぞれ本体装置2に装着して一体化された装置として利用できる。また、ゲームシステム1は、本体装置2と左コントローラ3および右コントローラ4とを別体として利用することもできる(図2参照)。以下では、本実施形態のゲームシステム1のハードウェア構成について説明し、その後に本実施形態のゲームシステム1の制御について説明する。
[1. Game System Configuration]
A game system according to an example of this embodiment will be described below. An example of the game system 1 in this embodiment includes a main unit (information processing device; in this embodiment, it functions as a game device main unit) 2, a left controller 3, and a right controller 4. The left controller 3 and the right controller 4 are detachable from the main unit 2. In other words, the game system 1 can be used as an integrated device by attaching the left controller 3 and the right controller 4 to the main unit 2. In addition, the game system 1 can also be used as a separate device from the main unit 2, the left controller 3, and the right controller 4 (see FIG. 2). The hardware configuration of the game system 1 of this embodiment will be described below, and then the control of the game system 1 of this embodiment will be described.

図1は、本体装置2に左コントローラ3および右コントローラ4を装着した状態の一例を示す図である。図1に示すように、左コントローラ3および右コントローラ4は、それぞれ本体装置2に装着されて一体化されている。本体装置2は、ゲームシステム1における各種の処理(例えば、ゲーム処理)を実行する装置である。本体装置2は、ディスプレイ12を備える。左コントローラ3および右コントローラ4は、ユーザが入力を行うための操作部を備える装置である。 Figure 1 is a diagram showing an example of a state in which a left controller 3 and a right controller 4 are attached to a main unit 2. As shown in Figure 1, the left controller 3 and the right controller 4 are each attached to the main unit 2 and integrated together. The main unit 2 is a device that executes various processes (e.g., game processes) in the game system 1. The main unit 2 includes a display 12. The left controller 3 and the right controller 4 are devices that include an operation unit that allows the user to perform input.

図2は、本体装置2から左コントローラ3および右コントローラ4をそれぞれ外した状態の一例を示す図である。図1および図2に示すように、左コントローラ3および右コントローラ4は、本体装置2に着脱可能である。なお、以下において、左コントローラ3および右コントローラ4の総称として「コントローラ」と記載することがある。 Figure 2 is a diagram showing an example of the state in which the left controller 3 and right controller 4 have been removed from the main unit 2. As shown in Figures 1 and 2, the left controller 3 and right controller 4 are detachable from the main unit 2. In the following, the left controller 3 and right controller 4 may be collectively referred to as "controller."

図3は、本体装置2の一例を示す六面図である。図3に示すように、本体装置2は、略板状のハウジング11を備える。本実施形態において、ハウジング11の主面(換言すれば、表側の面、すなわち、ディスプレイ12が設けられる面)は、大略的には矩形形状である。 Figure 3 is a six-sided view showing an example of the main unit 2. As shown in Figure 3, the main unit 2 includes a generally plate-shaped housing 11. In this embodiment, the main surface of the housing 11 (in other words, the front surface, i.e., the surface on which the display 12 is provided) is generally rectangular.

なお、ハウジング11の形状および大きさは、任意である。一例として、ハウジング11は、携帯可能な大きさであってよい。また、本体装置2単体または本体装置2に左コントローラ3および右コントローラ4が装着された一体型装置は、携帯型装置となってもよい。また、本体装置2または一体型装置が手持ち型の装置となってもよい。また、本体装置2または一体型装置が可搬型装置となってもよい。 The shape and size of the housing 11 are arbitrary. As an example, the housing 11 may be of a size that is portable. Furthermore, the main unit 2 alone or an integrated device in which the left controller 3 and right controller 4 are attached to the main unit 2 may be a portable device. Furthermore, the main unit 2 or the integrated device may be a handheld device. Furthermore, the main unit 2 or the integrated device may be a portable device.

図3に示すように、本体装置2は、ハウジング11の主面に設けられるディスプレイ12を備える。ディスプレイ12は、本体装置2が生成した画像を表示する。本実施形態においては、ディスプレイ12は、液晶表示装置(LCD)とする。ただし、ディスプレイ12は任意の種類の表示装置であってよい。 As shown in FIG. 3, the main unit 2 includes a display 12 provided on the main surface of the housing 11. The display 12 displays images generated by the main unit 2. In this embodiment, the display 12 is a liquid crystal display (LCD). However, the display 12 may be any type of display device.

また、本体装置2は、ディスプレイ12の画面上にタッチパネル13を備える。本実施形態においては、タッチパネル13は、マルチタッチ入力が可能な方式(例えば、静電容量方式)のものである。ただし、タッチパネル13は、任意の種類のものであってよく、例えば、シングルタッチ入力が可能な方式(例えば、抵抗膜方式)のものであってもよい。 The main unit 2 also includes a touch panel 13 on the screen of the display 12. In this embodiment, the touch panel 13 is of a type that allows multi-touch input (e.g., a capacitive type). However, the touch panel 13 may be of any type, and may be of a type that allows single-touch input (e.g., a resistive film type).

本体装置2は、ハウジング11の内部においてスピーカ(すなわち、図6に示すスピーカ88)を備えている。図3に示すように、ハウジング11の主面には、スピーカ孔11aおよび11bが形成される。そして、スピーカ88の出力音は、これらのスピーカ孔11aおよび11bからそれぞれ出力される。 The main unit 2 is provided with a speaker (i.e., speaker 88 shown in FIG. 6) inside the housing 11. As shown in FIG. 3, speaker holes 11a and 11b are formed on the main surface of the housing 11. The output sound of the speaker 88 is output from these speaker holes 11a and 11b, respectively.

また、本体装置2は、本体装置2が左コントローラ3と有線通信を行うための端子である左側端子17と、本体装置2が右コントローラ4と有線通信を行うための右側端子21を備える。 The main unit 2 also includes a left side terminal 17, which is a terminal for the main unit 2 to perform wired communication with the left controller 3, and a right side terminal 21, which is a terminal for the main unit 2 to perform wired communication with the right controller 4.

図3に示すように、本体装置2は、スロット23を備える。スロット23は、ハウジング11の上側面に設けられる。スロット23は、所定の種類の記憶媒体を装着可能な形状を有する。所定の種類の記憶媒体は、例えば、ゲームシステム1およびそれと同種の情報処理装置に専用の記憶媒体(例えば、専用メモリカード)である。所定の種類の記憶媒体は、例えば、本体装置2で利用されるデータ(例えば、アプリケーションのセーブデータ等)、および/または、本体装置2で実行されるプログラム(例えば、アプリケーションのプログラム等)を記憶するために用いられる。また、本体装置2は、電源ボタン28を備える。 As shown in FIG. 3, the main unit 2 includes a slot 23. The slot 23 is provided on the upper side of the housing 11. The slot 23 has a shape that allows a predetermined type of storage medium to be attached thereto. The predetermined type of storage medium is, for example, a storage medium (e.g., a dedicated memory card) dedicated to the game system 1 and the same type of information processing device. The predetermined type of storage medium is used, for example, to store data used by the main unit 2 (e.g., application save data, etc.) and/or programs executed by the main unit 2 (e.g., application programs, etc.). The main unit 2 also includes a power button 28.

本体装置2は、下側端子27を備える。下側端子27は、本体装置2がクレードルと通信を行うための端子である。本実施形態において、下側端子27は、USBコネクタ(より具体的には、メス側コネクタ)である。上記一体型装置または本体装置2単体をクレードルに載置した場合、ゲームシステム1は、本体装置2が生成して出力する画像を据置型モニタに表示することができる。また、本実施形態においては、クレードルは、載置された上記一体型装置または本体装置2単体を充電する機能を有する。また、クレードルは、ハブ装置(具体的には、USBハブ)の機能を有する。 The main unit 2 has a lower terminal 27. The lower terminal 27 is a terminal through which the main unit 2 communicates with the cradle. In this embodiment, the lower terminal 27 is a USB connector (more specifically, a female connector). When the all-in-one device or the main unit 2 alone is placed on the cradle, the game system 1 can display images generated and output by the main unit 2 on a stationary monitor. In this embodiment, the cradle also has a function of charging the all-in-one device or the main unit 2 alone that is placed on it. The cradle also has a function of a hub device (more specifically, a USB hub).

図4は、左コントローラ3の一例を示す六面図である。図4に示すように、左コントローラ3は、ハウジング31を備える。本実施形態においては、ハウジング31は、縦長の形状、すなわち、上下方向(すなわち、図1および図4に示すy軸方向)に長い形状である。左コントローラ3は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング31は、縦長となる向きで把持される場合に片手、特に左手で把持可能な形状および大きさをしている。また、左コントローラ3は、横長となる向きで把持されることも可能である。左コントローラ3が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。 Figure 4 is a six-sided view showing an example of the left controller 3. As shown in Figure 4, the left controller 3 includes a housing 31. In this embodiment, the housing 31 has a vertically long shape, that is, a shape that is long in the up-down direction (i.e., the y-axis direction shown in Figures 1 and 4). The left controller 3 can also be held in a vertically long orientation when removed from the main unit 2. The housing 31 has a shape and size that allows it to be held in one hand, particularly the left hand, when held in a vertically long orientation. The left controller 3 can also be held in a horizontally long orientation. When the left controller 3 is held in a horizontally long orientation, it may be held with both hands.

左コントローラ3は、アナログスティック32を備える。図4に示すように、アナログスティック32は、ハウジング31の主面に設けられる。アナログスティック32は、方向を入力することが可能な方向入力部として用いることができる。ユーザは、アナログスティック32を傾倒することによって傾倒方向に応じた方向の入力(および、傾倒した角度に応じた大きさの入力)が可能である。なお、左コントローラ3は、方向入力部として、アナログスティックに代えて、十字キーまたはスライド入力が可能なスライドスティック等を備えるようにしてもよい。また、本実施形態においては、アナログスティック32を押下する入力が可能である。 The left controller 3 has an analog stick 32. As shown in FIG. 4, the analog stick 32 is provided on the main surface of the housing 31. The analog stick 32 can be used as a direction input unit capable of inputting a direction. By tilting the analog stick 32, the user can input a direction according to the tilt direction (and input a magnitude according to the tilt angle). Note that instead of an analog stick, the left controller 3 may be equipped with a cross key or a slide stick capable of slide input as the direction input unit. Also, in this embodiment, input is possible by pressing the analog stick 32.

左コントローラ3は、各種操作ボタンを備える。左コントローラ3は、ハウジング31の主面上に4つの操作ボタン33~36(具体的には、右方向ボタン33、下方向ボタン34、上方向ボタン35、および左方向ボタン36)を備える。さらに、左コントローラ3は、録画ボタン37および-(マイナス)ボタン47を備える。左コントローラ3は、ハウジング31の側面の左上に第1Lボタン38およびZLボタン39を備える。また、左コントローラ3は、ハウジング31の側面の、本体装置2に装着される際に装着される側の面に第2Lボタン43および第2Rボタン44を備える。これらの操作ボタンは、本体装置2で実行される各種プログラム(例えば、OSプログラムやアプリケーションプログラム)に応じた指示を行うために用いられる。 The left controller 3 is equipped with various operation buttons. The left controller 3 is equipped with four operation buttons 33 to 36 (specifically, a right button 33, a down button 34, an up button 35, and a left button 36) on the main surface of the housing 31. Furthermore, the left controller 3 is equipped with a record button 37 and a - (minus) button 47. The left controller 3 is equipped with a first L button 38 and a ZL button 39 on the upper left of the side of the housing 31. The left controller 3 is also equipped with a second L button 43 and a second R button 44 on the side of the housing 31 that is attached when the left controller 3 is attached to the main unit 2. These operation buttons are used to give instructions according to various programs (for example, OS programs and application programs) executed on the main unit 2.

また、左コントローラ3は、左コントローラ3が本体装置2と有線通信を行うための端子42を備える。 The left controller 3 also includes a terminal 42 that enables the left controller 3 to communicate with the main unit 2 via a wired connection.

図5は、右コントローラ4の一例を示す六面図である。図5に示すように、右コントローラ4は、ハウジング51を備える。本実施形態においては、ハウジング51は、縦長の形状、すなわち、上下方向に長い形状である。右コントローラ4は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング51は、縦長となる向きで把持される場合に片手、特に右手で把持可能な形状および大きさをしている。また、右コントローラ4は、横長となる向きで把持されることも可能である。右コントローラ4が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。 Figure 5 is a six-sided view showing an example of the right controller 4. As shown in Figure 5, the right controller 4 includes a housing 51. In this embodiment, the housing 51 has a vertically long shape, that is, a shape that is long in the up-down direction. The right controller 4 can also be held in a vertical orientation when removed from the main unit 2. When held in a vertical orientation, the housing 51 has a shape and size that allows it to be held in one hand, particularly the right hand. The right controller 4 can also be held in a horizontal orientation. When the right controller 4 is held in a horizontal orientation, it may be held with both hands.

右コントローラ4は、左コントローラ3と同様、方向入力部としてアナログスティック52を備える。本実施形態においては、アナログスティック52は、左コントローラ3のアナログスティック32と同じ構成である。また、右コントローラ4は、アナログスティックに代えて、十字キーまたはスライド入力が可能なスライドスティック等を備えるようにしてもよい。また、右コントローラ4は、左コントローラ3と同様、ハウジング51の主面上に4つの操作ボタン53~56(具体的には、Aボタン53、Bボタン54、Xボタン55、およびYボタン56)を備える。さらに、右コントローラ4は、+(プラス)ボタン57およびホームボタン58を備える。また、右コントローラ4は、ハウジング51の側面の右上に第1Rボタン60およびZRボタン61を備える。また、右コントローラ4は、左コントローラ3と同様、第2Lボタン65および第2Rボタン66を備える。 The right controller 4, like the left controller 3, has an analog stick 52 as a direction input section. In this embodiment, the analog stick 52 has the same configuration as the analog stick 32 of the left controller 3. The right controller 4 may also have a cross key or a slide stick capable of slide input, instead of an analog stick. The right controller 4, like the left controller 3, has four operation buttons 53 to 56 (specifically, an A button 53, a B button 54, an X button 55, and a Y button 56) on the main surface of the housing 51. The right controller 4 further has a + (plus) button 57 and a home button 58. The right controller 4 also has a first R button 60 and a ZR button 61 on the upper right of the side of the housing 51. The right controller 4 also has a second L button 65 and a second R button 66, like the left controller 3.

また、右コントローラ4は、右コントローラ4が本体装置2と有線通信を行うための端子64を備える。 The right controller 4 also includes a terminal 64 for wired communication between the right controller 4 and the main unit 2.

図6は、本体装置2の内部構成の一例を示すブロック図である。本体装置2は、図3に示す構成の他、図6に示す各構成要素81~85、87、88、91、97、および98を備える。これらの構成要素81~85、87、88、91、97、および98のいくつかは、電子部品として電子回路基板上に実装されてハウジング11内に収納されてもよい。 Figure 6 is a block diagram showing an example of the internal configuration of the main unit 2. In addition to the configuration shown in Figure 3, the main unit 2 includes components 81-85, 87, 88, 91, 97, and 98 shown in Figure 6. Some of these components 81-85, 87, 88, 91, 97, and 98 may be mounted on an electronic circuit board as electronic components and stored in the housing 11.

本体装置2は、プロセッサ81を備える。プロセッサ81は、本体装置2において実行される各種の情報処理を実行する情報処理部であって、例えば、CPU(Central Processing Unit)のみから構成されてもよいし、CPU機能、GPU(Graphics Processing Unit)機能等の複数の機能を含むSoC(System-on-a-chip)から構成されてもよい。プロセッサ81は、記憶部(具体的には、フラッシュメモリ84等の内部記憶媒体、あるいは、スロット23に装着される外部記憶媒体等)に記憶される情報処理プログラム(例えば、ゲームプログラム)を実行することによって、各種の情報処理を実行する。 The main unit 2 includes a processor 81. The processor 81 is an information processing unit that executes various information processing executed in the main unit 2, and may be composed of only a CPU (Central Processing Unit), for example, or may be composed of a SoC (System-on-a-chip) that includes multiple functions such as a CPU function and a GPU (Graphics Processing Unit) function. The processor 81 executes various information processing by executing an information processing program (for example, a game program) stored in a storage unit (specifically, an internal storage medium such as a flash memory 84, or an external storage medium inserted in the slot 23, etc.).

本体装置2は、自身に内蔵される内部記憶媒体の一例として、フラッシュメモリ84およびDRAM(Dynamic Random Access Memory)85を備える。フラッシュメモリ84およびDRAM85は、プロセッサ81に接続される。フラッシュメモリ84は、主に、本体装置2に保存される各種のデータ(プログラムであってもよい)を記憶するために用いられるメモリである。DRAM85は、情報処理において用いられる各種のデータを一時的に記憶するために用いられるメモリである。 The main unit 2 includes a flash memory 84 and a dynamic random access memory (DRAM) 85 as examples of internal storage media built into the main unit 2. The flash memory 84 and the DRAM 85 are connected to the processor 81. The flash memory 84 is a memory used primarily to store various data (which may be programs) saved in the main unit 2. The DRAM 85 is a memory used to temporarily store various data used in information processing.

本体装置2は、スロットインターフェース(以下、「I/F」と略記する。)91を備える。スロットI/F91は、プロセッサ81に接続される。スロットI/F91は、スロット23に接続され、スロット23に装着された所定の種類の記憶媒体(例えば、専用メモリカード)に対するデータの読み出しおよび書き込みを、プロセッサ81の指示に応じて行う。 The main unit 2 includes a slot interface (hereinafter abbreviated as "I/F") 91. The slot I/F 91 is connected to the processor 81. The slot I/F 91 is connected to the slot 23, and reads and writes data from a specific type of storage medium (e.g., a dedicated memory card) inserted in the slot 23 in response to instructions from the processor 81.

プロセッサ81は、フラッシュメモリ84およびDRAM85、ならびに上記各記憶媒体との間でデータを適宜読み出したり書き込んだりして、上記の情報処理を実行する。 The processor 81 reads and writes data from and to the flash memory 84, DRAM 85, and each of the above storage media as appropriate to perform the above information processing.

本体装置2は、ネットワーク通信部82を備える。ネットワーク通信部82は、プロセッサ81に接続される。ネットワーク通信部82は、ネットワークを介して外部の装置と通信(具体的には、無線通信)を行う。本実施形態においては、ネットワーク通信部82は、第1の通信態様としてWi-Fiの規格に準拠した方式により、無線LANに接続して外部装置と通信を行う。また、ネットワーク通信部82は、第2の通信態様として所定の通信方式(例えば、独自プロトコルによる通信や、赤外線通信)により、同種の他の本体装置2との間で無線通信を行う。なお、上記第2の通信態様による無線通信は、閉ざされたローカルネットワークエリア内に配置された他の本体装置2との間で無線通信可能であり、複数の本体装置2の間で直接通信することによってデータが送受信される、いわゆる「ローカル通信」を可能とする機能を実現する。 The main unit 2 includes a network communication unit 82. The network communication unit 82 is connected to the processor 81. The network communication unit 82 communicates with an external device via a network (specifically, wireless communication). In this embodiment, the network communication unit 82 connects to a wireless LAN and communicates with an external device using a method conforming to the Wi-Fi standard as a first communication mode. The network communication unit 82 also performs wireless communication with other main units 2 of the same type using a predetermined communication method (e.g., communication using a proprietary protocol or infrared communication) as a second communication mode. Note that the wireless communication using the second communication mode enables wireless communication with other main units 2 located within a closed local network area, and realizes a function that enables so-called "local communication" in which data is transmitted and received by directly communicating between multiple main units 2.

本体装置2は、コントローラ通信部83を備える。コントローラ通信部83は、プロセッサ81に接続される。コントローラ通信部83は、左コントローラ3および/または右コントローラ4と無線通信を行う。本体装置2と左コントローラ3および右コントローラ4との通信方式は任意であるが、本実施形態においては、コントローラ通信部83は、左コントローラ3との間および右コントローラ4との間で、Bluetooth(登録商標)の規格に従った通信を行う。 The main unit 2 includes a controller communication unit 83. The controller communication unit 83 is connected to the processor 81. The controller communication unit 83 performs wireless communication with the left controller 3 and/or right controller 4. Any communication method may be used between the main unit 2 and the left controller 3 and right controller 4, but in this embodiment, the controller communication unit 83 performs communication with the left controller 3 and right controller 4 according to the Bluetooth (registered trademark) standard.

プロセッサ81は、上述の左側端子17、右側端子21、および下側端子27に接続される。プロセッサ81は、左コントローラ3と有線通信を行う場合、左側端子17を介して左コントローラ3へデータを送信するとともに、左側端子17を介して左コントローラ3から操作データを受信する。また、プロセッサ81は、右コントローラ4と有線通信を行う場合、右側端子21を介して右コントローラ4へデータを送信するとともに、右側端子21を介して右コントローラ4から操作データを受信する。また、プロセッサ81は、クレードルと通信を行う場合、下側端子27を介してクレードルへデータを送信する。このように、本実施形態においては、本体装置2は、左コントローラ3および右コントローラ4との間で、それぞれ有線通信と無線通信との両方を行うことができる。また、左コントローラ3および右コントローラ4が本体装置2に装着された一体型装置または本体装置2単体がクレードルに装着された場合、本体装置2は、クレードルを介してデータ(例えば、画像データや音声データ)を据置型モニタ等に出力することができる。 The processor 81 is connected to the left terminal 17, the right terminal 21, and the lower terminal 27. When the processor 81 performs wired communication with the left controller 3, it transmits data to the left controller 3 via the left terminal 17 and receives operation data from the left controller 3 via the left terminal 17. When the processor 81 performs wired communication with the right controller 4, it transmits data to the right controller 4 via the right terminal 21 and receives operation data from the right controller 4 via the right terminal 21. When the processor 81 performs communication with the cradle, it transmits data to the cradle via the lower terminal 27. Thus, in this embodiment, the main unit 2 can perform both wired communication and wireless communication with the left controller 3 and the right controller 4. When the integrated device with the left controller 3 and the right controller 4 attached to the main unit 2 or the main unit 2 alone is attached to the cradle, the main unit 2 can output data (e.g., image data and audio data) to a stationary monitor or the like via the cradle.

ここで、本体装置2は、複数の左コントローラ3と同時に(換言すれば、並行して)通信を行うことができる。また、本体装置2は、複数の右コントローラ4と同時に(換言すれば、並行して)通信を行うことができる。したがって、複数のユーザは、左コントローラ3および右コントローラ4のセットをそれぞれ用いて、本体装置2に対する入力を同時に行うことができる。一例として、第1ユーザが左コントローラ3および右コントローラ4の第1セットを用いて本体装置2に対して入力を行うと同時に、第2ユーザが左コントローラ3および右コントローラ4の第2セットを用いて本体装置2に対して入力を行うことが可能となる。 Here, the main unit 2 can communicate with multiple left controllers 3 simultaneously (in other words, in parallel). The main unit 2 can also communicate with multiple right controllers 4 simultaneously (in other words, in parallel). Therefore, multiple users can simultaneously input to the main unit 2 using each set of left controllers 3 and right controllers 4. As an example, a first user can input to the main unit 2 using a first set of left controllers 3 and right controllers 4, while a second user can input to the main unit 2 using a second set of left controllers 3 and right controllers 4.

また、ディスプレイ12は、プロセッサ81に接続される。プロセッサ81は、(例えば、上記の情報処理の実行によって)生成した画像および/または外部から取得した画像をディスプレイ12に表示する。 The display 12 is also connected to the processor 81. The processor 81 displays images generated (e.g., by executing the above-mentioned information processing) and/or images acquired from the outside on the display 12.

本体装置2は、コーデック回路87およびスピーカ(具体的には、左スピーカおよび右スピーカ)88を備える。コーデック回路87は、スピーカ88および音声入出力端子25に接続されるとともに、プロセッサ81に接続される。コーデック回路87は、スピーカ88および音声入出力端子25に対する音声データの入出力を制御する回路である。 The main unit 2 includes a codec circuit 87 and speakers (specifically, a left speaker and a right speaker) 88. The codec circuit 87 is connected to the speaker 88 and the audio input/output terminal 25, and is also connected to the processor 81. The codec circuit 87 is a circuit that controls the input and output of audio data to the speaker 88 and the audio input/output terminal 25.

本体装置2は、電力制御部97およびバッテリ98を備える。電力制御部97は、バッテリ98およびプロセッサ81に接続される。また、図示しないが、電力制御部97は、本体装置2の各部(具体的には、バッテリ98の電力の給電を受ける各部、左側端子17、および右側端子21)に接続される。電力制御部97は、プロセッサ81からの指令に基づいて、バッテリ98から上記各部への電力供給を制御する。 The main unit 2 includes a power control unit 97 and a battery 98. The power control unit 97 is connected to the battery 98 and the processor 81. Although not shown, the power control unit 97 is also connected to each part of the main unit 2 (specifically, each part that receives power from the battery 98, the left terminal 17, and the right terminal 21). The power control unit 97 controls the power supply from the battery 98 to each of the above-mentioned parts based on instructions from the processor 81.

また、バッテリ98は、下側端子27に接続される。外部の充電装置(例えば、クレードル)が下側端子27に接続され、下側端子27を介して本体装置2に電力が供給される場合、供給された電力がバッテリ98に充電される。 The battery 98 is also connected to the lower terminal 27. When an external charging device (e.g., a cradle) is connected to the lower terminal 27 and power is supplied to the main unit 2 via the lower terminal 27, the supplied power is charged into the battery 98.

図7は、本体装置2と左コントローラ3および右コントローラ4との内部構成の一例を示すブロック図である。なお、本体装置2に関する内部構成の詳細については、図6で示しているため図7では省略している。 Figure 7 is a block diagram showing an example of the internal configuration of the main unit 2, the left controller 3, and the right controller 4. Note that details of the internal configuration of the main unit 2 are omitted in Figure 7 because they are shown in Figure 6.

左コントローラ3は、本体装置2との間で通信を行う通信制御部101を備える。図7に示すように、通信制御部101は、端子42を含む各構成要素に接続される。本実施形態においては、通信制御部101は、端子42を介した有線通信と、端子42を介さない無線通信との両方で本体装置2と通信を行うことが可能である。通信制御部101は、左コントローラ3が本体装置2に対して行う通信方法を制御する。すなわち、左コントローラ3が本体装置2に装着されている場合、通信制御部101は、端子42を介して本体装置2と通信を行う。また、左コントローラ3が本体装置2から外されている場合、通信制御部101は、本体装置2(具体的には、コントローラ通信部83)との間で無線通信を行う。コントローラ通信部83と通信制御部101との間の無線通信は、例えばBluetooth(登録商標)の規格に従って行われる。 The left controller 3 is equipped with a communication control unit 101 that communicates with the main unit 2. As shown in FIG. 7, the communication control unit 101 is connected to each component including the terminal 42. In this embodiment, the communication control unit 101 can communicate with the main unit 2 both by wired communication via the terminal 42 and by wireless communication not via the terminal 42. The communication control unit 101 controls the communication method that the left controller 3 uses with the main unit 2. That is, when the left controller 3 is attached to the main unit 2, the communication control unit 101 communicates with the main unit 2 via the terminal 42. Also, when the left controller 3 is removed from the main unit 2, the communication control unit 101 performs wireless communication with the main unit 2 (specifically, the controller communication unit 83). The wireless communication between the controller communication unit 83 and the communication control unit 101 is performed according to the Bluetooth (registered trademark) standard, for example.

また、左コントローラ3は、例えばフラッシュメモリ等のメモリ102を備える。通信制御部101は、例えばマイコン(マイクロプロセッサとも言う)で構成され、メモリ102に記憶されるファームウェアを実行することによって各種の処理を実行する。 The left controller 3 also includes a memory 102, such as a flash memory. The communication control unit 101 is formed, for example, by a microcomputer (also called a microprocessor), and executes firmware stored in the memory 102 to perform various processes.

左コントローラ3は、各ボタン103(具体的には、ボタン33~39、43、44、および47)を備える。また、左コントローラ3は、アナログスティック(図7では「スティック」と記載する)32を備える。各ボタン103およびアナログスティック32は、自身に対して行われた操作に関する情報を、適宜のタイミングで繰り返し通信制御部101へ出力する。 The left controller 3 is equipped with buttons 103 (specifically, buttons 33 to 39, 43, 44, and 47). The left controller 3 also has an analog stick (written as "stick" in FIG. 7) 32. Each button 103 and analog stick 32 repeatedly outputs information relating to operations performed on them to the communication control unit 101 at appropriate timing.

通信制御部101は、各入力部(具体的には、各ボタン103、および、アナログスティック32)から、入力に関する情報(具体的には、操作に関する情報、またはセンサによる検出結果)を取得する。通信制御部101は、取得した情報(または取得した情報に所定の加工を行った情報)を含む操作データを本体装置2へ送信する。なお、操作データは、所定時間に1回の割合で繰り返し送信される。なお、入力に関する情報が本体装置2へ送信される間隔は、各入力部について同じであってもよいし、同じでなくてもよい。 The communication control unit 101 acquires information related to the input (specifically, information related to the operation, or the detection results by the sensor) from each input unit (specifically, each button 103 and analog stick 32). The communication control unit 101 transmits operation data including the acquired information (or information obtained by performing a specified process on the acquired information) to the main unit 2. Note that the operation data is repeatedly transmitted once every specified time. Note that the interval at which the information related to the input is transmitted to the main unit 2 may or may not be the same for each input unit.

上記操作データが本体装置2へ送信されることによって、本体装置2は、左コントローラ3に対して行われた入力を得ることができる。すなわち、本体装置2は、各ボタン103およびアナログスティック32に対する操作を、操作データに基づいて判別することができる。 By transmitting the above operation data to the main unit 2, the main unit 2 can obtain the input made to the left controller 3. In other words, the main unit 2 can determine the operation of each button 103 and analog stick 32 based on the operation data.

左コントローラ3は、電力供給部108を備える。本実施形態において、電力供給部108は、バッテリおよび電力制御回路を有する。図示しないが、電力制御回路は、バッテリに接続されるとともに、左コントローラ3の各部(具体的には、バッテリの電力の給電を受ける各部)に接続される。 The left controller 3 is equipped with a power supply unit 108. In this embodiment, the power supply unit 108 has a battery and a power control circuit. Although not shown, the power control circuit is connected to the battery and to each part of the left controller 3 (specifically, each part that receives power from the battery).

図7に示すように、右コントローラ4は、本体装置2との間で通信を行う通信制御部111を備える。また、右コントローラ4は、通信制御部111に接続されるメモリ112を備える。通信制御部111は、端子64を含む各構成要素に接続される。通信制御部111およびメモリ112は、左コントローラ3の通信制御部101およびメモリ102と同様の機能を有する。したがって、通信制御部111は、端子64を介した有線通信と、端子64を介さない無線通信(具体的には、Bluetooth(登録商標)の規格に従った通信)との両方で本体装置2と通信を行うことが可能であり、右コントローラ4が本体装置2に対して行う通信方法を制御する。 As shown in FIG. 7, the right controller 4 includes a communication control unit 111 that communicates with the main unit 2. The right controller 4 also includes a memory 112 that is connected to the communication control unit 111. The communication control unit 111 is connected to each component including the terminal 64. The communication control unit 111 and the memory 112 have the same functions as the communication control unit 101 and the memory 102 of the left controller 3. Therefore, the communication control unit 111 can communicate with the main unit 2 both by wired communication via the terminal 64 and by wireless communication (specifically, communication according to the Bluetooth (registered trademark) standard) that does not go through the terminal 64, and controls the method of communication that the right controller 4 uses with the main unit 2.

右コントローラ4は、左コントローラ3の各入力部と同様の各入力部を備える。具体的には、各ボタン113、および、アナログスティック52を備える。これらの各入力部については、左コントローラ3の各入力部と同様の機能を有し、同様に動作する。 The right controller 4 has input sections similar to those of the left controller 3. Specifically, it has buttons 113 and an analog stick 52. Each of these input sections has the same function as the input sections of the left controller 3, and operates in the same way.

右コントローラ4は、電力供給部118を備える。電力供給部118は、左コントローラ3の電力供給部108と同様の機能を有し、同様に動作する。 The right controller 4 is equipped with a power supply unit 118. The power supply unit 118 has the same functions as the power supply unit 108 of the left controller 3 and operates in the same manner.

[2.ゲームシステムにおける処理の概要]
図8~図22を参照して、ゲームシステム1において実行される処理の概要について説明する。本実施形態においては、ゲームシステム1は、プレイヤ(すなわち、ゲームシステム1のユーザ)が操作可能なプレイヤキャラクタが3次元の仮想空間であるゲームフィールド(以下、単に「フィールド」と記載する)を移動するゲームを実行する。ゲームシステム1は、プレイヤキャラクタが配置されるフィールドを示すフィールド画像を表示することに加え、フィールドのマップを示すマップ画像を表示することも可能である。本実施形態においては、マップ画像は、プレイヤの指示によってフィールド画像から切り替えて表示される他、少なくとも一部が常にフィールド画像と共に表示される場合もある。
2. Overview of Processing in the Game System
An overview of the processing executed in the game system 1 will be described with reference to Figures 8 to 22. In this embodiment, the game system 1 executes a game in which a player character operable by a player (i.e., a user of the game system 1) moves through a game field (hereinafter, simply referred to as a "field"), which is a three-dimensional virtual space. In addition to displaying a field image showing the field on which the player character is located, the game system 1 is also capable of displaying a map image showing a map of the field. In this embodiment, the map image is switched from the field image at the instruction of the player, and in some cases, at least a part of the map image is always displayed together with the field image.

図8は、本実施形態におけるゲーム例の概要を示す図である。図8に示す左側の欄は、フィールドの状況を示しており、右側の欄は、表示されるマップ画像の例を示している。ここで、本実施形態においては、フィールドには複数の基準地点(例えば、図8に示す基準地点202)が設定される。基準地点は、プレイヤキャラクタ201が当該基準地点またはその近傍に位置する状態でプレイヤによる所定の操作入力(例えば、基準地点を調べる動作をプレイヤキャラクタに行わせるための操作入力)が行われたことに応じて、解放される。つまり、プレイヤキャラクタ201は、基準地点に到達して所定の動作(例えば、基準地点を調べる動作)を行うことで、当該基準地点を解放することができる。以下では、基準地点が解放されるゲームイベントを「解放イベント」と呼ぶ。なお、基準地点は、例えば、プレイヤキャラクタ201が解放済みである他の基準地点へワープ移動すること(いわゆるファストトラベル)ができたり、プレイヤキャラクタ201を回復することができたり、プレイヤキャラクタ201の装備やスキルや所持アイテムを変更することができたりする場所であってもよい。 Figure 8 is a diagram showing an overview of an example game in this embodiment. The left column in Figure 8 shows the state of the field, and the right column shows an example of a map image to be displayed. In this embodiment, a plurality of reference points (for example, reference point 202 shown in Figure 8) are set in the field. The reference point is released in response to a predetermined operation input by the player (for example, an operation input for making the player character perform an action to check the reference point) when the player character 201 is located at or near the reference point. In other words, the player character 201 can release the reference point by reaching the reference point and performing a predetermined action (for example, an action to check the reference point). In the following, a game event in which a reference point is released is called a "release event". Note that the reference point may be, for example, a place where the player character 201 can warp to another reference point that has already been released (so-called fast travel), where the player character 201 can be restored, or where the player character 201 can change the equipment, skills, or items possessed by the player character 201.

本実施形態においては、基準地点が解放される前においては、一部の例外(例えば、プレイヤキャラクタ201自身もしくはその周囲や、後述する目印オブジェクト203)を除き、フィールドは暗闇の状態となっている(図8に示す状態a)。なお、図8においては、図面をわかりやすくする目的で、暗闇となっている範囲を斜線で示しているが、ゲームシステム1は、プレイヤが視認不可能または視認困難な態様で暗闇となるフィールドを表示する(後述する図15等参照)。図8に示す状態aにおいては、プレイヤキャラクタ201の周囲と、基準地点202を示す目印オブジェクト203とを除いてフィールドは暗闇となっているので、フィールドの探索を行いにくい状態であると言える。 In this embodiment, before the reference point is released, the field is in darkness, with some exceptions (for example, the player character 201 or its surroundings, and the marker object 203 described below) (state a shown in FIG. 8). Note that in FIG. 8, the dark areas are shown with diagonal lines to make the drawing easier to understand, but the game system 1 displays the dark field in a manner that is invisible or difficult for the player to see (see FIG. 15, etc. described below). In state a shown in FIG. 8, the field is in darkness, with the exception of the surroundings of the player character 201 and the marker object 203 indicating the reference point 202, so it can be said that it is difficult to explore the field.

また、基準地点が解放される前においては、マップ画像は、フィールド情報が示されない態様で表示される(図8に示す状態a)。フィールド情報とは、フィールドに関する情報であり、例えば、フィールドを形成する地形の情報(具体的には、地形の形状等)、フィールドに設置されているオブジェクトの情報、フィールドに配置されているアイテムの情報、あるいは、フィールド上に存在するキャラクタの情報等である。図8に示す状態aにおいては、マップ画像は、プレイヤキャラクタ201の位置および向きを示すマーク204のみが示され、マーク204以外の他のフィールド情報は示されない態様で表示される。このように、基準地点が解放される前におけるマップ画像は、少なくとも一部のフィールド情報が示されない態様で表示されればよく、他の一部のフィールド情報(例えば、図8に示すマーク204)は解放前において示されていてもよい。 Before the reference point is released, the map image is displayed in a manner that does not show field information (state a shown in FIG. 8). Field information is information about the field, such as information about the terrain that forms the field (specifically, the shape of the terrain, etc.), information about objects placed in the field, information about items placed in the field, or information about characters that exist on the field. In state a shown in FIG. 8, the map image is displayed in a manner that shows only the mark 204 that indicates the position and orientation of the player character 201, and does not show any other field information other than the mark 204. In this way, it is sufficient that the map image before the reference point is released is displayed in a manner that does not show at least some of the field information, and some other field information (for example, the mark 204 shown in FIG. 8) may be shown before release.

一方、プレイヤキャラクタ201によって基準地点(図8に示す例では、基準地点202)が解放されると、フィールドのうち当該基準地点の周囲の領域は、暗闇ではなく、光が当たる範囲となる(図8に示す状態b)。以下では、フィールドのうち、光が当たる範囲を「照射範囲」と呼ぶ。詳細は後述するが、ゲームシステム1は、プレイヤが視認可能な態様で照射範囲を表示する(後述する図17等参照)。 On the other hand, when the reference point (reference point 202 in the example shown in FIG. 8) is released by the player character 201, the area of the field around the reference point becomes a light-illuminated area rather than a dark area (state b shown in FIG. 8). Hereinafter, the light-illuminated area of the field will be referred to as the "illuminated area". Details will be described later, but the game system 1 displays the illuminated area in a manner that is visible to the player (see FIG. 17, etc., described later).

また、基準地点が解放されると、マップ画像のうち当該基準地点の周囲についてはフィールド情報が示される態様で表示される(図8に示す状態b)。図8に示す例においては、解放された基準地点の周囲については、プレイヤキャラクタ201に関するマーク204に加えて、地形の形状を示す線と、基準地点を示すマーク205とが示されている。 When a reference point is released, the area around the reference point on the map image is displayed in a manner that shows field information (state b in FIG. 8). In the example shown in FIG. 8, in addition to the mark 204 relating to the player character 201, lines indicating the shape of the terrain and a mark 205 indicating the reference point are displayed around the released reference point.

上記のように、解放イベントが発生すると、フィールドのうち解放された基準地点の周囲の領域が視認可能に表示されるようになるとともに、マップ画像においては当該基準地点の周囲の領域についてフィールド情報が表示されるようになる。これらによって、プレイヤは、解放された基準地点の周囲の探索をプレイヤキャラクタ201に行わせやすくなる。本実施形態においては、プレイヤは、フィールドにおける基準地点を解放させることを目的の1つとして、探索しやすい領域を基準地点の解放によって増やしながらゲームを進める。 As described above, when a release event occurs, the area of the field surrounding the released reference point becomes visible, and field information for the area surrounding the reference point becomes visible on the map image. This makes it easier for the player to have the player character 201 explore the area around the released reference point. In this embodiment, one of the player's goals is to release reference points in the field, and the player progresses through the game while increasing the area that is easy to search by releasing reference points.

[2-1.マップの開放領域の設定]
図9~図14を参照して、基準地点が解放されることでマップ画像上においてフィールド情報が表示されるようになる領域(「解放領域」と呼ぶ。)の設定方法の一例について説明する。図9は、1つの基準地点が解放された場合における、フィールド対応平面と判定値との関係を示す図である。ここで、フィールド対応平面とは、3次元のフィールドに対応する2次元平面である。フィールド対応平面は、3次元のフィールドを鉛直方向に投影した平面と言うことができ、フィールド対応平面の2次元位置は、フィールドにおける水平方向の2次元座標(すなわち、フィールドの位置を示す3次元座標から高さ方向の座標を削除した2次元座標)が示す位置である。図9においては、上側にフィールド対応平面を示し、下側に、フィールド対応平面における判定値の変化を示すグラフを示している。具体的には、上記グラフは、解放された基準地点211を通る直線AB(図9において一点鎖線で示される直線)上における判定値の変化を示す。
[2-1. Setting the open area of the map]
With reference to FIG. 9 to FIG. 14, an example of a method for setting an area (called a "released area") in which field information is displayed on a map image by releasing a reference point will be described. FIG. 9 is a diagram showing the relationship between the field corresponding plane and the judgment value when one reference point is released. Here, the field corresponding plane is a two-dimensional plane corresponding to a three-dimensional field. The field corresponding plane can be said to be a plane on which the three-dimensional field is projected in the vertical direction, and the two-dimensional position of the field corresponding plane is a position indicated by two-dimensional coordinates in the horizontal direction in the field (i.e., two-dimensional coordinates obtained by deleting the coordinates in the height direction from the three-dimensional coordinates indicating the position of the field). In FIG. 9, the field corresponding plane is shown on the upper side, and a graph showing the change in the judgment value on the field corresponding plane is shown on the lower side. Specifically, the graph shows the change in the judgment value on a straight line AB (a straight line indicated by a dashed line in FIG. 9) passing through the released reference point 211.

判定値は、フィールド対応平面における解放領域を判定するために用いられる値である。本実施形態においては、ゲームシステム1は、フィールド対応平面における解放領域を判定するために、フィールド対応平面の各位置について判定値を算出する。なお、判定値は、フィールド対応平面において所定の単位区間毎の位置(「算出対象位置」と呼ぶ。)ごとに算出される。具体的には、マップ画像における各画素に対応する位置ごとに、判定値を用いた判定が行われる。 The judgment value is a value used to judge the released area on the field corresponding plane. In this embodiment, the game system 1 calculates a judgment value for each position on the field corresponding plane in order to judge the released area on the field corresponding plane. The judgment value is calculated for each position of a predetermined unit section on the field corresponding plane (referred to as a "calculation target position"). Specifically, a judgment is made using the judgment value for each position corresponding to each pixel on the map image.

本実施形態においては、各算出対象位置における判定値は、基準地点において設定される基準値に基づいて算出される。すなわち、ゲームシステム1は、基準地点について基準値を設定し、基準値に基づいて各算出対象位置における判定値をそれぞれ算出する。なお、本実施形態においては、基準地点における基準値の大きさは、基準地点ごとに設定されるものとし、基準値の大きさは基準地点ごとに異なる大きさであってもよい。例えば、各基準地点における基準値は、全ての基準地点が解放された場合にフィールド全体が解放領域となるように設定されてもよい。 In this embodiment, the judgment value at each calculation target position is calculated based on a reference value set at the reference point. That is, the game system 1 sets a reference value for the reference point, and calculates the judgment value at each calculation target position based on the reference value. Note that in this embodiment, the magnitude of the reference value at the reference point is set for each reference point, and the magnitude of the reference value may be different for each reference point. For example, the reference value at each reference point may be set such that the entire field becomes a released area when all reference points are released.

本実施形態においては、1つの基準地点に基づいて算出される、ある位置の判定値(すなわち、1つの基準地点に設定される基準値に基づいて算出される判定値)は、当該基準地点からの距離に基づいて算出され、より具体的には、当該基準地点からの距離が長くなるにつれて減少するように算出される(図9参照)。例えば、図9に示す例においては、解放された基準地点211には基準値A1が設定されており、直線AB上の各算出対象位置における判定値は、基準地点211において基準値A1となり、基準地点211からの当該位置までの距離に応じて減衰するように変化する。判定値は、上記距離がある長さ以上となる位置では0になる。なお、基準値に基づいて各算出対象位置における判定値を決定する具体的な計算方法は任意である。 In this embodiment, the judgment value of a certain position calculated based on one reference point (i.e., the judgment value calculated based on a reference value set at one reference point) is calculated based on the distance from the reference point, and more specifically, is calculated so as to decrease as the distance from the reference point increases (see FIG. 9). For example, in the example shown in FIG. 9, a reference value A1 is set at the released reference point 211, and the judgment value at each calculation target position on the line AB becomes the reference value A1 at the reference point 211, and changes so as to decrease according to the distance from the reference point 211 to the position. The judgment value becomes 0 at a position where the distance is equal to or greater than a certain length. Note that the specific calculation method for determining the judgment value at each calculation target position based on the reference value is arbitrary.

本実施形態においては、図9に示すように基準地点211のみが解放されている場合、ゲームシステム1は、基準地点211に基づく判定値のみを考慮して解放領域を設定する。具体的には、ゲームシステム1は、フィールド対応平面のうち、基準地点211に基づく判定値が所定のしきい値(図9におけるしきい値th)以上となる位置からなる領域を、解放領域として設定する。上記のように、判定値は、基準地点211から当該位置までの距離に応じて減衰するので、図9に示す例においては、基準地点211を中心とした円形領域212が解放領域となる。 In this embodiment, when only the reference point 211 is released as shown in FIG. 9, the game system 1 sets the released area taking into consideration only the judgment value based on the reference point 211. Specifically, the game system 1 sets, as the released area, an area on the field corresponding plane consisting of positions where the judgment value based on the reference point 211 is equal to or greater than a predetermined threshold value (threshold value th in FIG. 9). As described above, the judgment value attenuates according to the distance from the reference point 211 to the position in question, so in the example shown in FIG. 9, the circular area 212 centered on the reference point 211 becomes the released area.

図10は、図9に示す円形領域212が解放領域となる場合に表示されるマップ画像の一例を示す図である。上記の場合、図10に示すように、マップ画像の画素のうち、フィールド対応平面において判定値がしきい値以上となる位置に対応する画素についてフィールド情報が描画されるマップ画像が表示される。図9および図10に示すように、マップ画像においてフィールド情報が描画される範囲は、円形領域212に対応する。図10においては、領域212に対応する範囲について、フィールド情報として、地形の形状を示す線が表示される。なお、本実施形態においては、基準地点を示すマーク205は、当該基準地点の位置が解放領域内であるか否かに関わらず、プレイヤキャラクタ201が当該基準地点に到達したことによって表示されるようになるものとする。なお、本実施形態においては、マップ画像は、図10に示すように、ディスプレイ12の画面全体に表示される場合と、後述する図15に示すように、フィールドを示すフィールド画像に重ねられる態様で、ディスプレイ12の画面の一部に表示される場合とがある。 Figure 10 is a diagram showing an example of a map image displayed when the circular area 212 shown in Figure 9 is a released area. In the above case, as shown in Figure 10, a map image is displayed in which field information is drawn for pixels corresponding to positions in the field corresponding plane where the judgment value is equal to or greater than the threshold value among the pixels of the map image. As shown in Figures 9 and 10, the range in which the field information is drawn in the map image corresponds to the circular area 212. In Figure 10, a line showing the shape of the terrain is displayed as field information for the range corresponding to the area 212. Note that in this embodiment, the mark 205 showing the reference point is displayed when the player character 201 reaches the reference point, regardless of whether the position of the reference point is within the released area or not. Note that in this embodiment, the map image may be displayed on the entire screen of the display 12 as shown in Figure 10, or may be displayed on a part of the screen of the display 12 in a manner superimposed on a field image showing the field as shown in Figure 15 described later.

上記のように、本実施形態においては、マップ画像は、フィールド情報を2次元的に示す画像である。また、判定値は、基準地点に対応する2次元的な位置からの2次元的な距離(すなわち、フィールド対応平面上における距離)に応じて減衰する値である。上記によれば、2次元平面上で解放領域を設定することができるので、少ない処理負荷で、2次元マップと親和性の高い領域を設定することができる。また、上記によれば、基準地点からの距離に応じて(例えば、基準地点から一定距離内の範囲が解放領域となるように)解放領域を設定することができる。なお、他の実施形態においては、ゲームシステム1は、3次元のフィールドにおける各位置について判定値を算出し、3次元のフィールド上で解放領域を設定するようにしてもよい。このとき、ゲームシステム1は、3次元のフィールド上における解放領域に基づいて、2次元のマップ画像において当該解放領域に対応する範囲を決定し、当該範囲内についてフィールド情報を示すマップ画像を生成する。また、他の実施形態においては、マップは3次元であってもよく、3次元のマップにおいて解放領域が設定され、3次元のマップを示すマップ画像が生成・表示されてもよい。 As described above, in this embodiment, the map image is an image that shows the field information two-dimensionally. The judgment value is a value that attenuates according to the two-dimensional distance from the two-dimensional position corresponding to the reference point (i.e., the distance on the field corresponding plane). According to the above, since the released area can be set on the two-dimensional plane, an area with high affinity with the two-dimensional map can be set with a small processing load. According to the above, the released area can be set according to the distance from the reference point (for example, so that a range within a certain distance from the reference point becomes the released area). Note that in another embodiment, the game system 1 may calculate a judgment value for each position on the three-dimensional field and set the released area on the three-dimensional field. At this time, the game system 1 determines a range corresponding to the released area in the two-dimensional map image based on the released area on the three-dimensional field, and generates a map image showing the field information within that range. Also, in another embodiment, the map may be three-dimensional, and the released area may be set on the three-dimensional map, and a map image showing the three-dimensional map may be generated and displayed.

また、複数の基準地点が解放されている場合、ゲームシステム1は、解放済みの各基準地点のそれぞれに基づいて判定値を算出し、各判定値の合計値(「合計判定値」と呼ぶ)を算出対象位置ごとに算出する。解放領域は、合計判定値に基づいて設定される。なお、1つの基準地点のみが解放されている場合(図9参照)には、当該基準地点に設定される基準値に基づく判定値が合計判定値になる、と言うことができる。 In addition, when multiple reference points are released, the game system 1 calculates a judgment value based on each of the released reference points, and calculates the sum of the judgment values (called the "total judgment value") for each calculation target position. The released area is set based on the total judgment value. Note that, when only one reference point is released (see Figure 9), it can be said that the judgment value based on the reference value set for that reference point becomes the total judgment value.

図11は、2つの基準地点が解放された場合における、フィールド対応平面と判定値との関係を示す図である。図11においても図9と同様、上側にフィールド対応平面を示し、下側に、解放された基準地点を通る直線(図11においては、直線CD)上における判定値および合計判定値の変化を示すグラフを示している。なお、図11に示す直線CDは、解放された2つの基準地点211および213を通る。 Figure 11 is a diagram showing the relationship between the field corresponding plane and the judgment value when two reference points are released. As in Figure 9, Figure 11 also shows the field corresponding plane on the upper side, and a graph showing the change in judgment value and total judgment value on a straight line (line CD in Figure 11) that passes through the released reference points on the lower side. Note that line CD shown in Figure 11 passes through the two released reference points 211 and 213.

図11に示す場合、ゲームシステム1は、上述の算出対象位置のそれぞれについて合計判定値を算出する。合計判定値は、解放済みの各基準地点211および213に基づく各判定値の合計である。すなわち、ゲームシステム1は、各算出対象位置について、基準地点211に基づく判定値をそれぞれ算出するとともに、基準地点213に基づく判定値をそれぞれ算出する。基準地点211に基づく判定値は、基準地点211について設定される基準値A1が、基準地点211からの当該位置までの距離に応じて減衰する値として算出される。基準地点213に基づく判定値は、基準地点213について設定される基準値A2が、基準地点213からの当該位置までの距離に応じて減衰する値として算出される。ゲームシステム1は、各算出対象位置についてそれぞれ、基準地点211に基づく判定値と基準地点213に基づく判定値とを加算することで、算出対象位置ごとの合計判定値を算出する。図11の下側のグラフにおいては、実線で示される右側の山が、基準地点211に基づく判定値の変化を示し、実線で示される左側の山が、基準地点213に基づく判定値の変化を示し、太い点線で示される曲線が合計判定値の変化を示している。 In the case shown in FIG. 11, the game system 1 calculates a total judgment value for each of the calculation target positions. The total judgment value is the sum of the judgment values based on the released reference points 211 and 213. That is, for each calculation target position, the game system 1 calculates a judgment value based on the reference point 211 and a judgment value based on the reference point 213. The judgment value based on the reference point 211 is calculated as a value in which the reference value A1 set for the reference point 211 attenuates according to the distance from the reference point 211 to the position. The judgment value based on the reference point 213 is calculated as a value in which the reference value A2 set for the reference point 213 attenuates according to the distance from the reference point 213 to the position. The game system 1 calculates a total judgment value for each calculation target position by adding up the judgment value based on the reference point 211 and the judgment value based on the reference point 213 for each calculation target position. In the graph at the bottom of Figure 11, the peak on the right side, indicated by a solid line, shows the change in the judgment value based on reference point 211, the peak on the left side, indicated by a solid line, shows the change in the judgment value based on reference point 213, and the curve indicated by a thick dotted line shows the change in the total judgment value.

ゲームシステム1は、フィールド対応平面のうち、合計判定値が上述のしきい値th以上となる位置からなる領域を、解放領域として設定する。図11に示す例においては、基準地点211を中心とした円形領域212と、基準地点213を中心とした円形領域214とに対して、これら2つの円形領域を接続する領域215を加えた領域216(図11において斜線で示される領域)が解放領域となる。すなわち、複数の基準地点が解放されている場合における解放領域は、2次元のメタボールの手法によって生成されるということもできる。 The game system 1 sets as a released area an area on the field corresponding plane consisting of positions where the total judgment value is equal to or greater than the above-mentioned threshold value th. In the example shown in FIG. 11, the released area is area 216 (the area shown by diagonal lines in FIG. 11), which is obtained by adding area 215 connecting circular area 212 centered on reference point 211 and circular area 214 centered on reference point 213 to these two circular areas. In other words, when multiple reference points are released, the released area can be said to be generated by a two-dimensional metaball technique.

図12は、図11に示す領域216が解放領域となる場合に表示されるマップ画像の一例を示す図である。図12に示すように、マップ画像の画素のうち、フィールド対応平面において合計判定値がしきい値以上となる画素についてフィールド情報が描画されるマップ画像が表示される。フィールド情報が描画される範囲は、円形領域216に対応する。図12においては、フィールド情報として、地形の形状を示す線が表示される。また、図12に示す例においては、プレイヤキャラクタ201の位置および向きを示すマーク204に加えて、プレイヤキャラクタ201が到達した2つの基準地点を示すマーク205および221が表示される。このように、本実施形態においては、上記の合計判定値を用いて解放領域を設定するので、基準地点211および基準地点213の両方が解放された場合には、基準地点211のみが解放された場合、および、基準地点213のみが解放された場合のいずれの場合においても解放領域とはならない領域(すなわち、図11に示す領域215)が、解放領域に設定されることもある。 12 is a diagram showing an example of a map image displayed when the area 216 shown in FIG. 11 is a released area. As shown in FIG. 12, a map image is displayed in which field information is drawn for pixels of the map image whose total judgment value is equal to or greater than a threshold value on the field corresponding plane. The range in which the field information is drawn corresponds to the circular area 216. In FIG. 12, a line showing the shape of the terrain is displayed as the field information. In the example shown in FIG. 12, in addition to the mark 204 showing the position and direction of the player character 201, marks 205 and 221 showing the two reference points reached by the player character 201 are displayed. In this way, in this embodiment, the released area is set using the above total judgment value, so when both the reference point 211 and the reference point 213 are released, an area that is not a released area in either the case where only the reference point 211 is released or the case where only the reference point 213 is released (i.e., the area 215 shown in FIG. 11) may be set as a released area.

上記のように、本実施形態においては、複数の基準地点のそれぞれについて設定される基準値(すなわち、判定値の最大値)は、大きさが基準地点ごとに設定される。これによれば、基準地点が解放された場合に、当該基準地点を基準としてどの程度の大きさの領域を開放領域とするかを、基準地点ごとに設定することができる。例えば、図11に示す例においては、基準地点211に設定される基準値A1または基準地点213に設定される基準値A2の大きさを変更することで、基準地点211および213が解放された場合における解放領域の大きさや形状を変化させることができる。例えば、基準値A1および/または基準値A2をより小さい値に変更することで、基準地点211および213が解放された場合における解放領域を、互いに接続されない2つの円形領域とすることも可能である。なお、他の実施形態においては、複数の基準地点のそれぞれについて設定される基準値は、同じ値に設定されてもよい。さらに、複数の基準地点の基準値が同じ値であっても、距離に応じた減衰の度合いが基準地点ごとに異なるように判定値の算出方法を設定することによって、解放領域の範囲が基準地点ごとに異なるようにしてもよい。 As described above, in this embodiment, the size of the reference value (i.e., the maximum value of the judgment value) set for each of the multiple reference points is set for each reference point. In this way, when a reference point is released, the size of the area to be set as the open area based on the reference point can be set for each reference point. For example, in the example shown in FIG. 11, by changing the size of the reference value A1 set for the reference point 211 or the reference value A2 set for the reference point 213, the size and shape of the open area when the reference points 211 and 213 are released can be changed. For example, by changing the reference value A1 and/or the reference value A2 to a smaller value, it is also possible to make the open area when the reference points 211 and 213 are released into two circular areas that are not connected to each other. Note that in other embodiments, the reference value set for each of the multiple reference points may be set to the same value. Furthermore, even if the reference values of the multiple reference points are the same, the range of the open area may be made different for each reference point by setting the calculation method of the judgment value so that the degree of attenuation according to distance differs for each reference point.

また、上記のように、本実施形態においては、ゲームシステム1は、解放領域として、複数の基準地点のうち解放された状態となっている1つ以上の基準地点に基づく1つ以上の判定値を少なくとも合計した合計判定値が所定値(すなわち、上記しきい値th)以上となる位置からなる領域を特定する。上記によれば、解放領域の形状や大きさを、複数の基準地点の各解放状態に応じた多様なものにすることができる。 As described above, in this embodiment, the game system 1 identifies as the released area an area consisting of positions where a total judgment value obtained by adding up at least one or more judgment values based on one or more reference points that are in a released state among the multiple reference points is equal to or greater than a predetermined value (i.e., the above-mentioned threshold value th). As a result of the above, the shape and size of the released area can be varied according to the release state of each of the multiple reference points.

上記実施形態においては、ゲームシステム1は、解放済みの基準地点に設定される基準値に基づいて合計判定値を算出するようにしたが、さらに、解放済みの基準地点に加えて、未解放の基準地点に設定される基準値にも基づいて合計判定値を算出するようにしてもよい。以下、図13を参照して、未解放の基準地点に設定される基準値に基づいて合計判定値を算出する例について説明する。 In the above embodiment, the game system 1 calculates the total judgment value based on the reference values set for the released reference points, but the total judgment value may also be calculated based on the reference values set for the unreleased reference points in addition to the released reference points. Below, with reference to FIG. 13, an example of calculating the total judgment value based on the reference values set for the unreleased reference points will be described.

図13は、2つの基準地点が解放され、1つの基準地点が未解放である場合における解放領域が設定されるフィールド対応平面の一例を示す図である。図13においては、3つの基準地点231~233がフィールドに配置されているものとする。また、図13においては、基準地点231および232は解放済みであり、基準地点231と基準地点232との間にある基準地点233は解放されていないものとする。 Figure 13 is a diagram showing an example of a field corresponding plane in which a released area is set when two reference points are released and one reference point is not released. In Figure 13, it is assumed that three reference points 231 to 233 are placed in the field. Also, in Figure 13, it is assumed that reference points 231 and 232 have been released, and that reference point 233, which is between reference point 231 and reference point 232, has not been released.

図13に示す例において、解放済みの各基準地点231および232については、上記実施形態と同様に基準値が設定される。ここで、本変形例では、未解放の基準地点233については、解放された場合とは異なる基準値が設定される。以下では、解放済みの基準地点に設定される基準値を「第1基準値」と呼び、未解放の基準地点に設定される基準値を「第2基準値」と呼ぶ。すなわち、図13において基準地点233が解放された場合には、基準地点231および233と同様に第1基準値が設定される。 In the example shown in FIG. 13, for each of the released reference points 231 and 232, a reference value is set in the same manner as in the above embodiment. Here, in this modified example, for the unreleased reference point 233, a reference value different from that in the case of release is set. Hereinafter, the reference value set for the released reference point is referred to as the "first reference value," and the reference value set for the unreleased reference point is referred to as the "second reference value." That is, when the reference point 233 in FIG. 13 is released, the first reference value is set in the same manner as for the reference points 231 and 233.

図13に示す例においても、図9および図11に示した例と同様、ゲームシステム1は、第1基準値に基づく判定値(「第1判定値」と呼ぶ。)を、各算出対象位置について算出する。図13に示す例においては、基準地点231に設定される第1基準値に基づく第1判定値と、基準地点232に設定される第1基準値に基づく第1判定値とが、それぞれ各算出対象位置について算出される。さらに、図13に示す例においては、第2基準値に基づく判定値(「第2判定値」と呼ぶ。)を各算出対象位置について算出する。図13に示す例においては、基準地点233に設定される第2基準値に基づく第2判定値が、各算出対象位置について算出される。第2判定値は、基準地点において第2基準値となり、当該基準地点からの距離が長くなるにつれて減少し、当該距離がある長さ以上となる位置では0になる値である。 9 and 11, in the example shown in FIG. 13, the game system 1 calculates a judgment value based on a first reference value (called a "first judgment value") for each calculation target position. In the example shown in FIG. 13, a first judgment value based on a first reference value set at the reference point 231 and a first judgment value based on a first reference value set at the reference point 232 are calculated for each calculation target position. Furthermore, in the example shown in FIG. 13, a judgment value based on a second reference value (called a "second judgment value") is calculated for each calculation target position. In the example shown in FIG. 13, a second judgment value based on a second reference value set at the reference point 233 is calculated for each calculation target position. The second judgment value is a value that is a second reference value at the reference point, decreases as the distance from the reference point increases, and becomes 0 at a position where the distance is equal to or greater than a certain length.

図13においては、基準地点231および232を中心とした円形の点線は、第1基準値に基づく第1判定値が、所定の値となる位置を結ぶ線である。上記の点線のうち、点線234および235は、第1判定値が上述のしきい値となる位置を結ぶ線である。また、図13において、基準地点233を中心とした円形の一点鎖線は、第2基準値に基づく第2判定値が、所定の値となる位置を結ぶ線である。 In FIG. 13, the circular dotted lines centered on reference points 231 and 232 are lines that connect positions where the first judgment value based on the first reference value is a predetermined value. Of the above dotted lines, dotted lines 234 and 235 are lines that connect positions where the first judgment value is the above-mentioned threshold value. Also, in FIG. 13, the circular dashed-dotted line centered on reference point 233 is a line that connects positions where the second judgment value based on the second reference value is a predetermined value.

図13に示す例においては、ゲームシステム1は、第1判定値に加え、第2判定値にさらに基づいて合計判定値を算出する。具体的には、算出対象位置における合計判定値は、当該算出対象位置における第1判定値の合計から、当該算出対象位置における第2判定値の合計を減算することで得られる。図13に示す例においては、ゲームシステム1は、基準地点231の第1基準値に基づく第1判定値と、基準地点232の第1基準値に基づく第1判定値との合計値から、基準地点233の第2基準値に基づく第2判定値を減算することで合計判定値を算出する。なお、合計判定値に関する上記の算出方法は、第2基準値を負の値とし(その結果、第2判定値は負の値となる)、第1および第2判定値の合計を算出することと同義である。第1基準値と第2基準値の絶対値は、同じであってもよいし、異なっていてもよい。また、第1基準値に基づいた第1判定値の算出方法と第2基準値に基づいた第2判定値の算出方法は、同じであってもよいし、異なっていてもよい。 13, the game system 1 calculates the total judgment value based on the second judgment value in addition to the first judgment value. Specifically, the total judgment value at the calculation target position is obtained by subtracting the sum of the second judgment values at the calculation target position from the sum of the first judgment values at the calculation target position. In the example shown in FIG. 13, the game system 1 calculates the total judgment value by subtracting the second judgment value based on the second reference value of the reference point 233 from the sum of the first judgment value based on the first reference value of the reference point 231 and the first judgment value based on the first reference value of the reference point 232. Note that the above calculation method for the total judgment value is equivalent to setting the second reference value to a negative value (as a result, the second judgment value is a negative value) and calculating the sum of the first and second judgment values. The absolute values of the first reference value and the second reference value may be the same or different. In addition, the calculation method of the first judgment value based on the first reference value and the calculation method of the second judgment value based on the second reference value may be the same or different.

図13に示す例においては、第1判定値との合計値から第2判定値を減算するので、第2判定値の影響を受ける位置(すなわち、第2判定値が正の値となる位置)においては、合計判定値は、第2判定値を考慮しない場合(例えば、上記実施形態の場合)よりも小さくなる。したがって、図13に示す例においては、第2判定値を考慮しない場合においては解放領域となる領域の一部が、解放領域に設定されなくなる。図13に示す例においては、斜線で示される領域236が解放領域となり、第2判定値を考慮しない場合においては解放領域となる領域(実線で示される領域)237は、解放領域とはならない。このように、図13に示す例においては、未解放の基準地点の近傍の位置については、第2判定値の絶対値が大きくなるので、解放領域になりにくくなる。 In the example shown in FIG. 13, the second judgment value is subtracted from the sum of the first judgment value and the second judgment value, so that in positions affected by the second judgment value (i.e., positions where the second judgment value is a positive value), the sum judgment value is smaller than when the second judgment value is not taken into consideration (for example, in the above embodiment). Therefore, in the example shown in FIG. 13, a part of the area that would be a released area when the second judgment value is not taken into consideration is not set as a released area. In the example shown in FIG. 13, the area 236 shown with diagonal lines is a released area, and the area 237 (area shown with solid lines) that would be a released area when the second judgment value is not taken into consideration is not a released area. Thus, in the example shown in FIG. 13, the absolute value of the second judgment value is large for positions near unreleased reference points, making them less likely to become released areas.

図13に示す例においては、合計判定値は、複数の基準地点のうちの解放済みの状態となっている1つ以上の基準地点についての1つ以上の第1判定値の合計から、複数の基準地点のうちの未解放の状態となっている1つ以上の基準地点についての1つ以上の第2判定値の合計を減算した値である。これによれば、未解放の基準地点およびその近傍の位置を解放領域になりにくくすることができる。 In the example shown in FIG. 13, the total judgment value is a value obtained by subtracting the sum of one or more second judgment values for one or more reference points that are in an unreleased state from the sum of one or more first judgment values for one or more reference points that are in an unreleased state. This makes it difficult for unreleased reference points and their neighboring positions to become released areas.

ここで、仮に未解放基準地点に基づく第2判定値を反映させずに合計判定値を算出するとすれば、例えば図13に示す場合には、未解放の基準地点233の近傍の位置まで解放領域となってしまう。その結果、未解放の基準地点233の近傍の位置までマップが解放され(つまり、マップ画像においてフィールド情報が表示され)、上述の照射範囲となるおそれがある。このとき、プレイヤが未解放の基準地点233を解放する動機付けが弱くなってしまい、基準地点を解放させることで探索範囲を拡げていくというゲーム性が失われるおそれがある。これに対して、上記変形例によれば、未解放の基準地点またはその近傍の位置が解放領域になりにくいので、未解放の基準地点を解放する動機付けが弱くなる可能性を低減することができ、ゲーム性を向上することができる。 If the total judgment value were calculated without reflecting the second judgment value based on the unreleased reference point, for example in the case shown in FIG. 13, the position near the unreleased reference point 233 would become an open area. As a result, the map would be opened up to the position near the unreleased reference point 233 (i.e., field information would be displayed in the map image), which may result in the above-mentioned illumination range. In this case, the player's motivation to open the unreleased reference point 233 would be weakened, and the gameplay of expanding the search range by opening the reference point may be lost. In contrast, according to the above modified example, the unreleased reference point or a position near it is unlikely to become an open area, so the possibility of the motivation to open the unreleased reference point being weakened can be reduced, and the gameplay can be improved.

本実施形態において、ゲームシステム1は、上記の解放領域を示すデータとしてマップマスクを生成する。すなわち、マップマスクは、フィールドのうちで解放領域となっている領域を示す2次元データである。そして、ゲームシステム1は、解放領域についてフィールド情報が示されるマップ画像を、上記マップマスクを用いて生成する。 In this embodiment, the game system 1 generates a map mask as data indicating the above-mentioned released areas. In other words, the map mask is two-dimensional data indicating the areas of the field that are released areas. The game system 1 then uses the above-mentioned map mask to generate a map image in which field information about the released areas is indicated.

図14は、本実施形態におけるマップ画像の生成方法の一例を示す図である。本実施形態においては、ゲームシステム1は、元マップ画像とマップマスクとに基づいて、表示されるマップ画像を生成する。元マップ画像は、表示されるマップ画像を生成する元となる画像であり、フィールド情報が含まれるマップ画像を示す。元マップ画像は、フィールド全体が解放領域となる場合におけるマップ画像であると言うことができる。 Figure 14 is a diagram showing an example of a method for generating a map image in this embodiment. In this embodiment, the game system 1 generates a map image to be displayed based on an original map image and a map mask. The original map image is an image that is used to generate the map image to be displayed, and indicates a map image that includes field information. The original map image can be said to be a map image in which the entire field is a released area.

本実施形態においては、マップマスクのデータは、2次元の各位置についてのマップマスク値を示すデータである。マップマスク値とは、マップ画像の生成のために元マップ画像を反映させる度合いを示す。例えば、マップマスク値は最大値が1で、最小値が0となる値である。このとき、マップマスク値が1である画素では、元マップ画像がそのままマップ画像に反映され、マップマスク値が0である画素では、元マップ画像が反映されないようにマップ画像が生成される。本実施形態においては、マップマスク値は、0から1までの範囲の多値の値である。詳細は後述するが、マップマスク値を多値の値とすることによって、解放領域の境界付近においてマップ画像をぼかして表示することができる。なお、他の実施形態においては、マップマスク値は0または1の2値の値であってもよい。 In this embodiment, the map mask data is data indicating a map mask value for each two-dimensional position. The map mask value indicates the degree to which the original map image is reflected in order to generate the map image. For example, the map mask value is a value having a maximum value of 1 and a minimum value of 0. At this time, in pixels where the map mask value is 1, the original map image is reflected as is in the map image, and in pixels where the map mask value is 0, the map image is generated so that the original map image is not reflected. In this embodiment, the map mask value is a multi-value value ranging from 0 to 1. Details will be described later, but by making the map mask value a multi-value value, the map image can be displayed in a blurred manner near the boundary of the released area. Note that in other embodiments, the map mask value may be a binary value of 0 or 1.

マップマスク値は、上述の合計判定値に基づいて上述の算出対象位置ごとに設定される。具体的には、ある位置についての合計判定値が第1値より大きい場合、当該位置のマップマスク値は1に設定され、ある位置についての合計判定値が第2値より小さい場合、当該位置のマップマスク値は0に設定される。なお、第2値は、第1値よりも小さく、かつ、上記しきい値thよりも大きい値である。また、ある位置についての合計判定値が第2値以上かつ第1値以下である場合、当該位置のマップマスク値は0より大きく1より小さい範囲で、合計判定値の大きさに応じた大きさの値に設定される。上記によれば、マップマスク値は、基準地点から所定距離内の範囲内の位置については1に設定され、当該範囲の外側の範囲の位置では、基準地点からの距離に応じて小さくなる値に設定され、合計判定値がしきい値thよりも小さい位置(すなわち、解放領域外の位置)については0に設定される。なお、図14に示すマップマスクにおいては、マップマスク値が1である位置を白色で示し、マップマスク値が0である位置を黒色で示し、マップマスク値が中間値(すなわち、0より大きく1未満である値)となる位置については、値が大きいほど白色に近づくように灰色で示している。 The map mask value is set for each of the above-mentioned calculation target positions based on the above-mentioned total judgment value. Specifically, if the total judgment value for a certain position is greater than the first value, the map mask value for that position is set to 1, and if the total judgment value for a certain position is less than the second value, the map mask value for that position is set to 0. The second value is less than the first value and greater than the above-mentioned threshold value th. Also, if the total judgment value for a certain position is greater than the second value and less than the first value, the map mask value for that position is set to a value greater than 0 and less than 1, depending on the magnitude of the total judgment value. According to the above, the map mask value is set to 1 for positions within a range within a predetermined distance from the reference point, and is set to a value that decreases depending on the distance from the reference point for positions outside the range, and is set to 0 for positions where the total judgment value is less than the threshold value th (i.e., positions outside the release area). In the map mask shown in FIG. 14, positions where the map mask value is 1 are shown in white, positions where the map mask value is 0 are shown in black, and positions where the map mask value is an intermediate value (i.e., a value greater than 0 and less than 1) are shown in gray, with the larger the value the closer it approaches white.

なお、合計判定値に基づいた算出方法の例として、次の式によってマップマスク値Mpが算出されてもよい。

Figure 0007462010000001
上式において、K、thresh、および、Overは定数であり、threshは上述のしきい値thである。Oiは、i番目の基準地点(iは1からnまでの自然数。nは基準地点の数を示す。)が解放済みであれば1、未解放であれば0となる変数である。Ciは、i番目の基準地点が解放済みであれば0、未解放であれば1となる変数である。定数aiは、i番目の基準地点において第1基準値となる第1判定値が、距離に応じて減衰する度合いを示す定数である。上式の例では第1基準値は1となる。定数biは、i番目の基準地点において第2基準値となる第2判定値が、距離に応じて減衰する度合いを示す定数である。上式の例では第2基準値は1となる。変数l(i,p)は、i番目の基準地点から位置p(具体的には、上述の算出対象位置)までの長さ(具体的には、上記フィールド対応平面上での長さ)である。上記の式においては、第1判定値の合計が大き過ぎて未開放の基準地点にどれだけ近くても第2判定値の合計を減算する効果が無いという結果を避けるため、第1判定値の合計が定数Overより大きい場合は当該合計を定数Overに置き換える計算を行っている。一方、第2判定値の合計の影響が大きくなり過ぎないよう、第2判定値の合計を2乗した値を減算する計算を行っている。また、減算の結果が負になる場合は値を0とする計算を行っている。 As an example of a calculation method based on the total judgment value, the map mask value Mp may be calculated by the following formula.
Figure 0007462010000001
In the above formula, K, thresh, and Over are constants, and thresh is the above-mentioned threshold value th. Oi is a variable that is 1 if the i-th reference point (i is a natural number from 1 to n, and n indicates the number of reference points) has been released, and is 0 if it has not been released. Ci is a variable that is 0 if the i-th reference point has been released, and is 1 if it has not been released. The constant ai is a constant that indicates the degree to which the first judgment value, which is the first reference value at the i-th reference point, attenuates according to distance. In the above formula example, the first reference value is 1. The constant bi is a constant that indicates the degree to which the second judgment value, which is the second reference value at the i-th reference point, attenuates according to distance. In the above formula example, the second reference value is 1. The variable l(i,p) is the length (specifically, the length on the above-mentioned field corresponding plane) from the i-th reference point to position p (specifically, the above-mentioned calculation target position). In the above formula, in order to avoid a result in which the sum of the first judgment values is too large and there is no effect in subtracting the sum of the second judgment values no matter how close the unopened reference point is, if the sum of the first judgment values is greater than a constant Over, the calculation replaces the sum with the constant Over. On the other hand, in order to prevent the influence of the sum of the second judgment values from becoming too large, a calculation is performed in which the square of the sum of the second judgment values is subtracted. Also, if the result of the subtraction is negative, the value is set to 0.

上記の式においては、各基準値を1としたが、上述したように、第1基準値および第2基準値は基準地点ごとに個別の値に設定されてよい。例えば、上記の式における「Oi」を「Oi*Ai」に置き換えると共に定数aiを削除し、「Ci」を「Ci*Bi」に置き換えると共に定数biを削除した式を用いることで、基準地点ごとに第1基準値および第2基準値が設定される場合におけるマップマスク値Mpを算出することができる。なお、変数Aiは、i番目の基準地点における第1基準値であり、変数Biは、i番目の基準地点における第2基準値である。また、他の実施形態においては、上記の式において定数aiおよびbiを残した上で、「Oi」を「Oi*Ai」に置き換え、「Ci」を「Ci*Bi」に置き換えた式が用いられてもよい。また、第1基準値および第2基準値のいずれかが固定値(=1)とされる場合には、上記の式において「Oi」または「Ci」のいずれかのみについて上記の置き換えを行った式を用いることでマップマスク値Mpを算出することができる。なお、マップマスク値を算出するための計算式は上記の式に限らない。他の実施形態においては、例えば、ある位置における判定値が基準位置から当該ある位置までの距離に応じて減衰する(例えば、判定値が当該距離の2乗に反比例する)ように算出される任意の計算式が用いられてもよい。 In the above formula, each reference value is set to 1, but as described above, the first reference value and the second reference value may be set to individual values for each reference point. For example, by using a formula in which "Oi" in the above formula is replaced with "Oi * Ai" and the constant ai is deleted, and "Ci" is replaced with "Ci * Bi" and the constant bi is deleted, the map mask value Mp can be calculated when the first reference value and the second reference value are set for each reference point. The variable Ai is the first reference value at the i-th reference point, and the variable Bi is the second reference value at the i-th reference point. In another embodiment, a formula in which "Oi" is replaced with "Oi * Ai" and "Ci" is replaced with "Ci * Bi" while leaving the constants ai and bi in the above formula may be used. In addition, when either the first reference value or the second reference value is set to a fixed value (= 1), the map mask value Mp can be calculated by using a formula in which the above replacement is performed for only either "Oi" or "Ci" in the above formula. The formula for calculating the map mask value is not limited to the above formula. In other embodiments, any formula may be used that calculates the determination value at a certain position so that it attenuates according to the distance from the reference position to the certain position (for example, the determination value is inversely proportional to the square of the distance).

ゲームシステム1は、マップマスクを参照して、画素ごとのマップマスク値に応じた比率で、元マップ画像と未解放状態を示す画像とを合成することで、マップ画像を生成する。具体的には、ゲームシステム1は、マップマスク値が1である画素については元マップ画像がそのまま反映され、マップマスク値が0である画素については元マップ画像が反映されず、マップマスク値が中間値である画素についてはマップマスク値に応じた比率で元マップ画像が反映されるように、マップ画像を生成する。未解放状態を示す画像は、単色でもよいし、所定の模様等が描画されていてもよい。合成されたマップ画像に、さらに座標を分かり易くするための格子等が合成されてもよい。これによって、マップ画像は、解放領域内のうちの境界付近(具体的には、マップマスク値が中間値となる位置)では、薄く表示される(図14参照)。なお、図14では、マップ画像のうち薄く表示される部分を点線で示している。 The game system 1 generates a map image by combining the original map image with an image indicating an unreleased state at a ratio according to the map mask value for each pixel, with reference to the map mask. Specifically, the game system 1 generates a map image such that the original map image is reflected as is for pixels with a map mask value of 1, the original map image is not reflected for pixels with a map mask value of 0, and the original map image is reflected at a ratio according to the map mask value for pixels with an intermediate map mask value. The image indicating an unreleased state may be a single color, or may have a predetermined pattern or the like drawn on it. A grid or the like may be combined with the combined map image to make the coordinates easier to understand. As a result, the map image is displayed lightly near the boundary of the released area (specifically, at a position where the map mask value is an intermediate value) (see FIG. 14). Note that in FIG. 14, the lightly displayed parts of the map image are indicated by dotted lines.

上記のように、本実施形態においては、ゲームシステム1は、解放イベントが発生した場合、フィールドにおいて解放領域となっている範囲を示す2次元のマスクデータ(すなわち、マップマスク)を生成する。また、ゲームシステム1は、フィールド情報を含む元マップ画像にマスクデータを適用することによって、解放領域に対応する部分のフィールド情報が示されたマップ画像を生成させる。これによれば、解放領域の部分を示すマップ画像を容易に生成することができる。なお、他の実施形態においては、マップ画像の具体的な生成方法は任意であり、マスクデータを用いた方法に限定されない。 As described above, in this embodiment, when a release event occurs, the game system 1 generates two-dimensional mask data (i.e., a map mask) that indicates the area of the field that is a released area. The game system 1 also generates a map image showing the field information of the portion that corresponds to the released area by applying the mask data to the original map image that includes the field information. This makes it possible to easily generate a map image that shows the portion of the released area. Note that in other embodiments, the specific method of generating the map image is arbitrary and is not limited to a method that uses mask data.

なお、本実施形態においては、マスクデータは、フィールド内の位置における合計判定値の大きさに応じた多値の値を各位置について示すデータである。また、ゲームシステム1は、マスクデータが示す多値の値に応じた比率で画素ごとに元マップ画像と未解放状態を示す画像とを合成することによって、マップ画像を生成する。これによれば、解放領域の境界付近がぼかされたマップ画像を生成することができる。したがって、解放されたマップを自然な見た目にすることができる。 In this embodiment, the mask data is data that indicates, for each position within the field, a multi-value that corresponds to the magnitude of the total judgment value at that position. Furthermore, the game system 1 generates a map image by combining the original map image with an image that indicates an unreleased state for each pixel at a ratio that corresponds to the multi-value indicated by the mask data. This makes it possible to generate a map image in which the areas near the boundaries of the released areas are blurred. This makes it possible to give the released map a natural look.

[2-2.照射範囲の設定]
図15~図21を参照して、フィールド上において上述の照射範囲を設定する方法の一例について説明する。本実施形態においては、ゲーム中において所定の照射イベントが発生したことに応じて、フィールドのうち、当該照射イベントに応じた範囲が照射範囲となる。上述の解放イベントは、照射イベントの1つである。本実施形態においては、照射イベントとして、上述の解放イベントの他、キャラクタ発光イベント、および、アイテム配置イベントが発生し得る。なお、照射イベントの発生に応じて設定される照射範囲の他に、フィールド上に予め設定された照射範囲等も存在してもよい。
[2-2. Setting the irradiation range]
An example of a method for setting the above-mentioned illumination range on the field will be described with reference to Figures 15 to 21. In this embodiment, when a predetermined illumination event occurs during the game, the illumination range is a range of the field corresponding to the illumination event. The above-mentioned release event is one of the illumination events. In this embodiment, in addition to the above-mentioned release event, a character light emission event and an item placement event may occur as illumination events. In addition to the illumination range set in response to the occurrence of an illumination event, there may also be an illumination range or the like set in advance on the field.

キャラクタ発光イベントは、プレイヤキャラクタの周囲が照射範囲となるイベントである。本実施形態においては、キャラクタ発光イベントは、プレイヤキャラクタが発光する服を装備するイベントである。キャラクタ発光イベントは、例えば、プレイヤキャラクタが発光するアイテムを把持したり、発光する乗り物に搭乗したりするイベントであってもよい。 A character lighting event is an event in which the surroundings of the player character become the illumination range. In this embodiment, a character lighting event is an event in which the player character wears luminous clothing. A character lighting event may be, for example, an event in which the player character holds a luminous item or boards a luminous vehicle.

アイテム配置イベントは、光源が設定されるアイテム(「光源アイテム」と呼ぶ。)がフィールドにおける地面等の地形オブジェクトに配置され、光源アイテムの周囲が照射範囲となるイベントである。 An item placement event is an event in which an item for which a light source is set (called a "light source item") is placed on a terrain object such as the ground in a field, and the area around the light source item becomes the illumination range.

図15は、プレイヤキャラクタを含むフィールドを示すフィールド画像を含むゲーム画像の一例を示す図である。図15では、キャラクタ発光イベントが発生しており、他の照射イベントは発生していない状況である。本実施形態においては、ゲームシステム1は、プレイヤによる指示に応じて(例えば、発光する服をプレイヤキャラクタに装備させる操作入力に応じて)、キャラクタ発光イベントを発生させる。図15に示すように、キャラクタ発光イベントが発生した場合、プレイヤキャラクタ201の周囲の範囲(「キャラクタ影響範囲」と呼ぶ。)が照射範囲に設定される。キャラクタ影響範囲は、例えば、プレイヤキャラクタ201の位置から所定距離内の範囲である。なお、図15に示す状況では、キャラクタ影響範囲外の範囲は、照射範囲には設定されていないので、目印オブジェクト203を除き、暗闇として(すなわち、視認不可能または視認困難な態様で)表示される。なお、プレイヤキャラクタ201自身や、目印オブジェクト203のように、照射範囲外でも視認可能に表示されるオブジェクト(後述する対象外オブジェクト)については後述する。 15 is a diagram showing an example of a game image including a field image showing a field including a player character. In FIG. 15, a character light-emitting event has occurred, and no other illumination events have occurred. In this embodiment, the game system 1 generates a character light-emitting event in response to an instruction from the player (for example, in response to an operation input to equip the player character with light-emitting clothing). As shown in FIG. 15, when a character light-emitting event has occurred, the range around the player character 201 (referred to as the "character influence range") is set as the illumination range. The character influence range is, for example, a range within a predetermined distance from the position of the player character 201. In the situation shown in FIG. 15, the range outside the character influence range is not set as the illumination range, and therefore is displayed as darkness (i.e., in a manner that is invisible or difficult to see) except for the mark object 203. In addition, objects that are displayed to be visible even outside the illumination range, such as the player character 201 itself and the mark object 203 (non-target objects to be described later) will be described later.

本実施形態においては、ゲームシステム1は、フィールドに環境光を設定し、キャラクタ影響範囲による照射範囲については環境光を反映して描画を行うことで、当該照射範囲を視認可能に表示する。環境光は、フィールド内の位置によらず所定の明るさが設定される光源である。詳細は後述するが、本実施形態においては、ゲームシステム1は、照射範囲外の範囲については、光源(例えば、環境光や点光源)を反映せずに描画を行うことで、視認不可能または視認困難な態様で当該範囲を表示する。 In this embodiment, the game system 1 sets ambient light in the field, and displays the illuminated range of the character's influence by reflecting the ambient light when drawing the illuminated range. Ambient light is a light source that is set to a predetermined brightness regardless of the position in the field. Details will be described later, but in this embodiment, the game system 1 displays the range outside the illuminated range in an invisible or difficult to see manner by drawing the range without reflecting the light source (e.g., ambient light or point light source).

なお、本実施形態においては、ゲームシステム1は、フィールドを示すフィールド画像とともに、ディスプレイ12の画面の一部の領域(ここでは、画面の右下の領域)にマップ画像241を表示する。図15に示す状況では、解放イベントが未発生であるので、プレイヤキャラクタ201の位置および向きを示すマーク以外のフィールド情報を含まないマップ画像241が表示される。なお、他の実施形態においては、フィールド画像が表示される際にはマップ画像は表示されなくてもよい。 In this embodiment, the game system 1 displays a map image 241 in a partial area of the screen of the display 12 (here, the area at the bottom right of the screen) together with a field image showing the field. In the situation shown in FIG. 15, since a release event has not yet occurred, a map image 241 is displayed that does not include any field information other than marks indicating the position and orientation of the player character 201. In other embodiments, the map image does not have to be displayed when the field image is displayed.

上記のように、本実施形態においては、照射イベントの一例は、プレイヤによる操作入力に基づいて、プレイヤキャラクタの周囲が照射範囲となるイベント(すなわち、キャラクタ発光イベント)である。このとき、ゲームシステム1は、プレイヤキャラクタの位置を基準となる点の位置として設定し、当該基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように照射範囲を設定する。これによれば、プレイヤキャラクタの周囲を継続的に視認可能に表示することができるので、プレイヤキャラクタの周囲が全く見えないためにフィールドの探索を行うことが困難となる状況が生じるおそれを低減することができる。なお、他の実施形態においては、ゲームシステム1は、キャラクタ発光イベントの発生の有無にかかわらず、プレイヤキャラクタの周囲を照射範囲に常時設定してもよい。また、他の実施形態においては、ゲームシステム1は、照射イベントとしてキャラクタ発光イベントを発生させなくてもよい。 As described above, in this embodiment, an example of an illumination event is an event in which the periphery of the player character becomes the illumination range based on the operation input by the player (i.e., a character light-emitting event). At this time, the game system 1 sets the position of the player character as the position of a reference point, and sets the illumination range based on the distance from the reference point so as to include a range in which the distance is equal to or less than a threshold value. This allows the periphery of the player character to be continuously displayed so as to be visible, thereby reducing the risk of a situation occurring in which it is difficult to explore the field because the periphery of the player character is completely invisible. Note that in other embodiments, the game system 1 may always set the periphery of the player character as the illumination range regardless of whether a character light-emitting event occurs. Also, in other embodiments, the game system 1 may not generate a character light-emitting event as an illumination event.

なお、上記においては、キャラクタ発光イベントはプレイヤキャラクタに関するイベントであったが、ゲームシステム1は、プレイヤキャラクタに加えて(または代えて)、プレイヤキャラクタとは異なる他のキャラクタ(例えば、プレイヤキャラクタの仲間のキャラクタや敵キャラクタ)についてキャラクタ発光イベントを実行し、当該他のキャラクタについても照射範囲を設定するようにしてもよい。例えば、他のキャラクタが自発光する態様に変化するキャラクタ発光イベントに応じて、当該他のキャラクタの位置に基づいて照射範囲が設定されてもよい。 In the above, the character light emission event is an event related to the player character, but the game system 1 may execute a character light emission event for a character other than the player character (for example, a companion character of the player character or an enemy character) in addition to (or instead of) the player character, and set an illumination range for the other character as well. For example, in response to a character light emission event that changes the other character to a state in which the other character emits light on its own, the illumination range may be set based on the position of the other character.

図16は、プレイヤキャラクタが基準地点の近傍に位置する場合におけるゲーム画像の一例を示す図である。図16に示す状況は、図15に示す状況からプレイヤキャラクタ201が未解放の基準地点211の近傍まで移動してきた状況である。なお、本実施形態においては、目印オブジェクト203は照射範囲外であっても視認可能に表示されるので、プレイヤは、目印オブジェクト203を目標にして照射範囲外の基準地点211に向かってプレイヤキャラクタ201を移動させることができる。 Figure 16 is a diagram showing an example of a game image when the player character is located near a reference point. The situation shown in Figure 16 is a situation in which the player character 201 has moved from the situation shown in Figure 15 to the vicinity of an unreleased reference point 211. Note that in this embodiment, the marker object 203 is displayed so that it can be seen even when it is outside the illumination range, so the player can move the player character 201 toward the reference point 211 outside the illumination range, using the marker object 203 as a target.

図16に示すようにプレイヤキャラクタ201が基準地点211の近傍(具体的には、基準地点211から所定距離内の範囲)に位置する場合、プレイヤキャラクタ201は、当該基準地点211を解放する動作を行うことができる。すなわち、上記の場合、ゲームシステム1は、当該基準地点211を解放するための操作入力を受け付け、プレイヤによって当該操作入力が行われたことに応じて当該基準地点211を解放する。本実施形態においては、上記操作入力は、「しらべる」のコマンド(すなわち、プレイヤキャラクタ201に近傍を調べる動作を行わせるコマンド)を実行するための入力であり、具体的には、右コントローラ4のAボタン53を押下する入力である。上記の場合、上記操作入力を行うことができる状態であることをプレイヤに通知するべく、ゲームシステム1は、上記コマンドが実行可能であることを示すコマンド画像242を表示する(図16参照)。なお、当該基準地点211に到達した後に上記の操作がし易いよう、目印オブジェクト203の真下等の限られた範囲を、予め設定された(すなわち、照射イベントの発生の有無にかかわらず設定される)照射範囲としてもよい。 16, when the player character 201 is located near the reference point 211 (specifically, within a range within a predetermined distance from the reference point 211), the player character 201 can perform an action to release the reference point 211. That is, in the above case, the game system 1 accepts an operation input for releasing the reference point 211, and releases the reference point 211 in response to the operation input being performed by the player. In this embodiment, the above operation input is an input for executing a "search" command (i.e., a command for causing the player character 201 to perform an action to search the vicinity), and specifically, an input for pressing the A button 53 of the right controller 4. In the above case, in order to notify the player that the above operation input is in a state in which it is possible to perform the above operation input, the game system 1 displays a command image 242 indicating that the above command can be executed (see FIG. 16). In addition, to make it easier to perform the above operations after reaching the reference point 211, a limited range, such as directly below the landmark object 203, may be set as a preset illumination range (i.e., set regardless of whether an illumination event occurs).

基準地点211を解放するための操作入力が行われた場合、ゲームシステム1は、基準地点211の周囲の範囲を照射範囲に設定する。このとき、本実施形態においては、ゲームシステム1は、解放イベントを示すイベントシーンのアニメーションを表示する。例えば、上記イベントシーンとして、基準地点211の周囲が次第に明るくなっていく様子を示すアニメーションが表示される。 When an operational input is made to release the reference point 211, the game system 1 sets the area around the reference point 211 as the illumination area. At this time, in this embodiment, the game system 1 displays an animation of an event scene indicating the release event. For example, as the event scene, an animation showing the area around the reference point 211 gradually becoming brighter is displayed.

図17は、基準地点が解放された後のフィールドを示すゲーム画像の一例を示す図である。図17に示すように、基準地点211が解放される解放イベントが発生した場合、基準地点211の周囲の範囲が照射範囲に設定され、当該範囲が視認可能に表示される。なお、図17では、フィールドのうち、基準地点211の周囲の丘となっている部分が照射範囲に含まれて視認可能に表示され、丘の向こうの部分については照射範囲外であり、視認不可能な態様で表示されたままである。また、図17に示す状況では、基準地点211が解放されたことによって基準地点211の周囲のマップが解放される(すなわち、基準地点211を含む解放領域が設定される)ため、マップ画像241は、解放領域内についてフィールド情報を含むものとなっている。 Figure 17 is a diagram showing an example of a game image showing the field after the reference point has been released. As shown in Figure 17, when a release event occurs in which the reference point 211 is released, the area around the reference point 211 is set as an illuminated area, and this area is displayed so that it can be seen. In Figure 17, the hills around the reference point 211 are displayed so that they can be seen, and are included in the illuminated area, while the area beyond the hills is outside the illuminated area and remains displayed in an unseen manner. In the situation shown in Figure 17, the map around the reference point 211 is released due to the reference point 211 being released (i.e., a released area including the reference point 211 is set), and therefore the map image 241 includes field information for the area within the released area.

なお、照射範囲外でも視認可能であった目印オブジェクト203は、照射範囲内においても視認可能に表示される。ここで、本実施形態においては、ゲームシステム1は、解放イベントの発生に応じて、フィールドにおける所定の位置、例えば目印オブジェクト203の位置に点光源をさらに設定する。詳細は後述するが、描画処理においてゲームシステム1は、地形オブジェクトについて照射範囲に含まれる部分を、点光源をさらに反映して描画する。したがって、目印オブジェクト203の周囲については、環境光および点光源を反映して描画が行われるため、照射範囲のうち環境光のみを反映して描画が行われる部分よりも明るく表示される。すなわち、所定の範囲の視認性を確保した上で、点光源に基づいた明るさも表現することができる。なお、図17においては、照射範囲内であって目印オブジェクト203の位置に設定される点光源による光が特に反映されて明るい部分を白色領域で示し、照射範囲のうち点光源の影響が少ない部分を網がけ領域で示している。上記の点光源によって、解放イベントが発生したことをプレイヤに認識させやすくすることができる。 Note that the mark object 203, which was visible even outside the illumination range, is displayed so as to be visible even within the illumination range. Here, in this embodiment, the game system 1 further sets a point light source at a predetermined position in the field, for example, at the position of the mark object 203, in response to the occurrence of a release event. Although details will be described later, in the drawing process, the game system 1 draws the part of the terrain object included in the illumination range by further reflecting the point light source. Therefore, the periphery of the mark object 203 is drawn by reflecting the ambient light and the point light source, and is displayed brighter than the part of the illumination range where only the ambient light is drawn. In other words, it is possible to express brightness based on the point light source while ensuring visibility of a predetermined range. Note that in FIG. 17, the part within the illumination range where the light from the point light source set at the position of the mark object 203 is particularly reflected and is bright is shown in a white area, and the part of the illumination range where the influence of the point light source is small is shown in a shaded area. The point light source described above makes it easier for the player to recognize that a release event has occurred.

照射イベントとして解放イベントが発生したことに応じて設定される照射範囲は、当該解放イベントに対応する基準地点に基づいて設定される。図18および図19を参照して、解放イベントが発生したことに応じて照射範囲を設定する方法について説明する。 The illumination range that is set in response to the occurrence of a release event as an illumination event is set based on the reference point that corresponds to the release event. A method for setting the illumination range in response to the occurrence of a release event will be described with reference to Figures 18 and 19.

図18は、1つの基準地点が解放された場合におけるフィールドを上から見た図である。図18に示す状況は、図9に示す基準地点211が解放された状況である。本実施形態においては、ゲームシステム1は、解放された基準地点に基づいた解放領域(図18では、領域212)と、当該基準地点に対応する地点影響範囲(図18では、地点影響範囲251)とに基づいて、照射範囲を設定する。なお、「基準地点に対応する地点影響範囲」とは、基準地点ごとに予め定められる範囲である。本実施形態においては、基準地点から所定距離内の範囲が地点影響範囲に設定される。なお、この所定距離は、基準地点ごとに設定され、基準地点ごとに異なる値であってもよいし、各基準地点について同じ値であってもよい。例えば、各基準地点における地点影響範囲は、全ての基準地点が解放された場合であってもフィールドの一部が地点影響範囲外となるように設定されてもよいし、当該場合にフィールドの全部が地点影響範囲内となるように設定されてもよい。前者の場合、フィールドには、全ての基準地点が解放された場合であっても照射範囲外となる部分が存在することとなる。 Figure 18 is a top view of the field when one reference point is released. The situation shown in Figure 18 is the situation in which the reference point 211 shown in Figure 9 is released. In this embodiment, the game system 1 sets the illumination range based on the released area (area 212 in Figure 18) based on the released reference point and the point influence range corresponding to the reference point (point influence range 251 in Figure 18). Note that the "point influence range corresponding to the reference point" is a range that is predetermined for each reference point. In this embodiment, a range within a predetermined distance from the reference point is set as the point influence range. Note that this predetermined distance is set for each reference point and may be a different value for each reference point or may be the same value for each reference point. For example, the point influence range at each reference point may be set so that a part of the field is outside the point influence range even when all reference points are released, or in this case, the entire field may be set to be within the point influence range. In the former case, there will be a part of the field that is outside the illumination range even when all reference points are released.

本実施形態においては、ゲームシステム1は、フィールドのうち、上記地点影響範囲内で、かつ、上記解放領域内となる範囲を照射範囲に設定する。図18に示す例においては、解放領域212が地点影響範囲251の内側となっているので、解放領域212と同じ範囲が照射範囲となる。なお、図18においては、照射範囲外を斜線領域で示している。本実施形態においては、地点影響範囲は、上記のように基準地点ごとに設定され、当該地点影響範囲に対応する解放領域とは独立して設定される。そのため、地点影響範囲は、当該地点影響範囲に対応する解放領域よりも大きく(つまり、解放領域が地点影響範囲内に含まれるように)設定されてもよいし、当該解放領域よりも小さく(つまり、地点影響範囲が解放領域内に含まれるように)設定されてもよいし、当該解放領域と同じになるように設定されてもよい。なお、「基準地点に対応する解放領域」とは、当該基準地点のみが解放される場合に設定される解放領域である。 In this embodiment, the game system 1 sets the range of the field that is within the point influence range and the released area as the illumination range. In the example shown in FIG. 18, the released area 212 is inside the point influence range 251, so the same range as the released area 212 is the illumination range. Note that in FIG. 18, the area outside the illumination range is indicated by a hatched area. In this embodiment, the point influence range is set for each reference point as described above, and is set independently of the released area corresponding to the point influence range. Therefore, the point influence range may be set larger than the released area corresponding to the point influence range (i.e., so that the released area is included in the point influence range), smaller than the released area (i.e., so that the point influence range is included in the released area), or the same as the released area. Note that the "released area corresponding to the reference point" is the released area that is set when only the reference point is released.

なお、照射範囲は、解放領域の少なくとも一部を含むように任意の方法で設定されてもよい。例えば、他の実施形態においては、ゲームシステム1は、解放領域をそのまま照射範囲としてもよいし、解放領域と地点影響範囲との少なくとも一方の内側となる範囲を照射範囲として設定してもよい。 The illumination range may be set in any manner so as to include at least a portion of the open area. For example, in other embodiments, the game system 1 may set the open area as the illumination range as is, or may set the illumination range to a range inside at least one of the open area and the point influence range.

図19は、2つの基準地点が解放された場合におけるフィールドを上から見た図である。図19に示す状況は、図11に示す基準地点211および213が解放された状況である。 Figure 19 shows a top view of the field when two reference points are released. The situation shown in Figure 19 is when reference points 211 and 213 shown in Figure 11 are released.

図19に示すように2つの基準地点211および213が解放された場合、図11に示したように、図19に示す点線で示される解放領域216が設定される。また、上述のように、ゲームシステム1は、解放された基準地点に対応する地点影響範囲内で、かつ、解放領域内となる範囲を照射範囲に設定する。したがって、図19に示す例においては、基準地点211に対応する地点影響範囲251または基準地点213に対応する地点影響範囲252の少なくともいずれかの内側であり、かつ、解放領域216の内側となる範囲が照射範囲となる。なお、図19においては、照射範囲外を斜線領域で示している。 When two reference points 211 and 213 are released as shown in FIG. 19, a released area 216 shown by a dotted line in FIG. 19 is set, as shown in FIG. 11. Also, as described above, the game system 1 sets the range within the point influence range corresponding to the released reference points and also within the released area as the illumination range. Therefore, in the example shown in FIG. 19, the illumination range is the range inside at least either the point influence range 251 corresponding to the reference point 211 or the point influence range 252 corresponding to the reference point 213, and also inside the released area 216. Note that in FIG. 19, the area outside the illumination range is shown by a shaded area.

図19に示す例においては、地点影響範囲251が、基準地点211のみが解放される場合における解放領域(すなわち、図18に示す領域212)よりも大きく設定され、地点影響範囲252が、基準地点213のみが解放される場合における解放領域よりも大きく設定される。そのため、2つの基準地点211および213が解放される場合には、1つの基準地点211または213のみが解放される場合には照射範囲とならない範囲も照射範囲となる。例えば、図19に示す例においては、地点影響範囲251および252が互いに一部が重複するように設定されているので、2つの基準地点211および213が解放される場合には、基準地点211から基準地点213にわたって連続する1つの照射範囲が設定されることとなる。上記によれば、プレイヤは、2つの基準地点211および213を解放することで、これら2つの基準地点211および213の間のフィールドを探索しやすくなる。 19, the point influence range 251 is set to be larger than the released area when only the reference point 211 is released (i.e., the area 212 shown in FIG. 18), and the point influence range 252 is set to be larger than the released area when only the reference point 213 is released. Therefore, when the two reference points 211 and 213 are released, the range that would not be the illumination range when only one of the reference points 211 or 213 is released also becomes the illumination range. For example, in the example shown in FIG. 19, the point influence ranges 251 and 252 are set to overlap with each other partially, so that when the two reference points 211 and 213 are released, one continuous illumination range is set from the reference point 211 to the reference point 213. According to the above, by releasing the two reference points 211 and 213, the player can easily explore the field between these two reference points 211 and 213.

一方、基準地点211および213とは異なる他の2つの基準地点については、当該基準地点に対応する地点影響範囲は、当該基準地点のみが解放されるときの解放領域と同じであるかまたは小さく設定されてもよい。この場合は、図19に示す例とは異なり、上記2つの基準地点が解放されても照射範囲が2つの基準地点にわたって連続するように設定されず、連続しない2つの照射範囲が設定されることとなる。 On the other hand, for two other reference points different from reference points 211 and 213, the point influence range corresponding to the reference point may be set to be the same as or smaller than the released area when only the reference point is released. In this case, unlike the example shown in FIG. 19, even if the above two reference points are released, the illumination range is not set to be continuous across the two reference points, and two discontinuous illumination ranges are set.

上記のように、本実施形態においては、解放領域とは独立して地点影響範囲を設定し、解放領域と地点影響範囲とに基づいて照射範囲を設定することで、照射範囲の大きさおよび形状を自由に設定することができる。例えば、2つの基準地点が解放された場合において、当該2つの基準地点にわたって連続するように照射範囲を設定することも可能であるし、連続しない2つの照射範囲を設定することも可能である。 As described above, in this embodiment, the point influence range is set independently of the released area, and the illumination range is set based on the released area and the point influence range, allowing the size and shape of the illumination range to be freely set. For example, when two reference points are released, it is possible to set the illumination range so that it is continuous across the two reference points, or it is also possible to set two discontinuous illumination ranges.

なお、詳細は後述するが、本実施形態においては、解放イベントによって設定される照射範囲については、ゲームシステム1は、上述の環境光によって当該照射範囲を視認可能に表示する。 In addition, although details will be described later, in this embodiment, the game system 1 displays the illumination range set by the release event so that the illumination range is visible using the above-mentioned ambient light.

上記のように、本実施形態においては、照射イベントの一例は、フィールド内に設定されたイベント発生位置(すなわち、基準位置)にプレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベント(すなわち、解放イベント)である。このとき、ゲームシステム1は、イベント発生位置を含む所定の範囲(具体的には、基準地点に基づく解放領域の範囲、または、地点影響範囲)が含まれるように照射範囲を設定する。これによれば、プレイヤキャラクタがイベント発生位置へ到達することで照射範囲を拡げていくゲームを提供することができる。このとき、照射範囲の形状は、上記のようにイベント発生位置からの距離に基づいた形状であってもよいし、他の実施形態においてはイベント発生位置を含む予め定められた形状であってもよい。 As described above, in this embodiment, an example of an illumination event is an event (i.e., a release event) that occurs when a predetermined operation input is performed when the player character is located at an event occurrence position (i.e., a reference position) set in the field. At this time, the game system 1 sets the illumination range so that it includes a predetermined range including the event occurrence position (specifically, the range of a release area based on a reference point, or a point influence range). This makes it possible to provide a game in which the illumination range is expanded as the player character reaches the event occurrence position. At this time, the shape of the illumination range may be a shape based on the distance from the event occurrence position as described above, or in other embodiments, it may be a predetermined shape including the event occurrence position.

本実施形態においては、アイテム配置イベントによっても照射範囲が設定される。図20は、光源アイテムが配置されたフィールドを示すゲーム画像の一例を示す図である。図20に示す状況は、フィールドにおける照射範囲外の位置に光源アイテム261が配置された状況である。光源アイテム261は、当該アイテムの位置に光源(具体的には、点光源)が設定されるオブジェクトである。本実施形態においては、プレイヤキャラクタ201は、所定の光源アイテムをフィールドに配置することができる。プレイヤキャラクタ201は、例えば、光源アイテムをプレイヤキャラクタ201の足下の地面においたり、投げたり、弓矢で飛ばしたりすることで光源アイテムを地面に配置する。本実施形態においては、プレイヤキャラクタ201は、アイテムとして光源アイテムを所有することができ、プレイヤの所望のタイミングで光源アイテムを地面に配置することができる。また、他の実施形態においては、例えばたいまつやろうそく等のアイテムが光源アイテムとして用いられてもよい。 In this embodiment, the illumination range is also set by an item placement event. FIG. 20 is a diagram showing an example of a game image showing a field on which a light source item is placed. The situation shown in FIG. 20 is a situation in which a light source item 261 is placed in a position outside the illumination range in the field. The light source item 261 is an object in which a light source (specifically, a point light source) is set at the position of the item. In this embodiment, the player character 201 can place a predetermined light source item on the field. The player character 201 places the light source item on the ground, for example, by placing the light source item on the ground under the feet of the player character 201, throwing it, or shooting it with a bow and arrow. In this embodiment, the player character 201 can possess the light source item as an item, and can place the light source item on the ground at the timing desired by the player. In other embodiments, items such as torches and candles may be used as light source items.

フィールドにおける地面に光源アイテム261が配置された場合、ゲームシステム1は、光源アイテムの周囲の範囲(「アイテム影響範囲」と呼ぶ。)を照射範囲として設定する。アイテム影響範囲は、例えば、光源アイテム261の位置から所定距離内の範囲である。図20に示す例においては、フィールドにおける照射範囲外の位置に光源アイテム261が配置されることによって、当該位置に基づくアイテム影響範囲が照射範囲となり、当該範囲内のフィールドが視認可能に表示されている。このように、本実施形態においては、プレイヤは、基準地点を解放することに加えて、光源アイテムを配置することによっても、フィールドにおける視認可能な範囲を拡げることができる。例えば、プレイヤは、未解放の基準地点に向かって暗闇の領域(すなわち、照射範囲外の領域)をプレイヤキャラクタ201が進んでいく際に、当該領域に光源アイテムを配置することで、視界を確保しながらフィールドを進むことができる。 When a light source item 261 is placed on the ground in the field, the game system 1 sets the range around the light source item (referred to as the "item influence range") as the illumination range. The item influence range is, for example, a range within a predetermined distance from the position of the light source item 261. In the example shown in FIG. 20, the light source item 261 is placed in a position outside the illumination range in the field, so that the item influence range based on that position becomes the illumination range, and the field within that range is displayed visibly. In this way, in this embodiment, the player can expand the visible range in the field by placing a light source item in addition to releasing the reference point. For example, when the player character 201 advances through a dark area (i.e., an area outside the illumination range) toward an unreleased reference point, the player can advance through the field while ensuring visibility by placing a light source item in that area.

本実施形態においては、アイテム配置イベントによって設定された照射範囲(すなわち、アイテム影響範囲)については、ゲームシステム1は、光源アイテムの位置に設定される点光源を反映してゲーム画像の描画を行う。つまり、アイテム配置イベントによって設定された照射範囲については、上述の環境光に加えて上記点光源を考慮して描画が行われる。なお、ゲーム画像の描画処理の詳細については後述する。 In this embodiment, for the illumination range set by the item placement event (i.e., the item influence range), the game system 1 draws the game image by reflecting the point light source set at the position of the light source item. In other words, for the illumination range set by the item placement event, drawing is performed taking into account the point light source in addition to the above-mentioned ambient light. Details of the game image drawing process will be described later.

図21は、解放イベントによる照射範囲内に光源アイテムが配置された場合におけるフィールドを示すゲーム画像の一例を示す図である。この場合、光源アイテム261によるアイテム影響範囲については、環境光および点光源を反映して描画されるため、当該アイテム影響範囲外であって解放イベントによる照射範囲内よりも明るく表示される。なお、図21においては、照射範囲内であってアイテム影響範囲外の範囲を網がけ領域で示し、アイテム影響範囲を白色領域で示している。上記より、本実施形態によれば、プレイヤは、光源アイテム261が配置されたことを容易に認識することができる。 Figure 21 is a diagram showing an example of a game image showing a field when a light source item is placed within the illumination range of a release event. In this case, the item influence range of the light source item 261 is drawn reflecting the ambient light and point light sources, so it is displayed brighter than the area outside the item influence range that is within the illumination range of the release event. Note that in Figure 21, the area within the illumination range that is outside the item influence range is shown as a shaded area, and the item influence range is shown as a white area. As described above, according to this embodiment, the player can easily recognize that the light source item 261 has been placed.

なお、図21に示すように解放イベントによる照射範囲内に光源アイテム261が配置された場合も、当該照射範囲外に配置される場合と同様、ゲームシステム1は、光源アイテム261によるアイテム影響範囲を照射範囲に設定する。ただし、アイテム影響範囲の全体が照射範囲にすでに設定されている範囲である場合には、フィールドにおける照射範囲は結果的に変化しないこととなる。 As shown in FIG. 21, when a light source item 261 is placed within the illumination range caused by a release event, the game system 1 sets the item influence range of the light source item 261 as the illumination range, just as when the light source item is placed outside the illumination range. However, if the entire item influence range is within the range that has already been set as the illumination range, the illumination range on the field will not change as a result.

上記の3種類の照射イベント(すなわち、キャラクタ発光イベント、解放イベント、および、アイテム配置イベント)について説明したように、本実施形態においては、フィールド内には、当該フィールド内の位置によらず所定の明るさが設定される光源(具体的には環境光)が少なくとも設定される。そして、ゲームシステム1は、描画処理において、フィールドにおける少なくとも一部の地形オブジェクト(例えば、図17に示す地面のオブジェクト)について照射範囲に含まれる部分を、上記光源を反映して描画する。これによれば、照射範囲について一定の明るさが確保されるので、フィールドの地形の形状等によらず照射範囲を見やすく(例えば、地形の陰によって暗く表示されることなく)表示することができる。 As explained above for the three types of illumination events (i.e., character illumination events, release events, and item placement events), in this embodiment, at least a light source (specifically, ambient light) is set within the field, to which a predetermined brightness is set regardless of the position within the field. Then, in the drawing process, the game system 1 draws the portions of at least some of the terrain objects (e.g., the ground objects shown in FIG. 17) in the field that are included in the illumination range, reflecting the light source. This ensures a constant brightness for the illumination range, so that the illumination range can be displayed in an easy-to-see manner (e.g., without being displayed darkly due to the shadows of the terrain) regardless of the shape of the field's terrain, etc.

さらに本実施形態においては、上記環境光に加えて点光源が設定される。すなわち、ゲームシステム1は、所定のイベント(具体的には、解放イベント、および、アイテム配置イベント)の発生に応じてさらに点光源をフィールド内に設置する。また、ゲームシステム1は、描画処理において、フィールドにおける少なくとも一部の地形オブジェクトについて照射範囲に含まれる部分を、点光源をさらに反映して描画する。これによれば、上記所定のイベントが発生したこと、および、当該所定のイベントの発生によってフィールドがより明るくなったことをプレイヤに認識させやすくなる。 Furthermore, in this embodiment, a point light source is set in addition to the above-mentioned ambient light. That is, the game system 1 further sets a point light source in the field in response to the occurrence of a specified event (specifically, a release event and an item placement event). Furthermore, in the drawing process, the game system 1 draws the parts of at least some of the terrain objects in the field that are included in the illumination range by further reflecting the point light source. This makes it easier for the player to recognize that the above-mentioned specified event has occurred and that the field has become brighter as a result of the occurrence of the specified event.

なお、フィールドに設定される光源の種類は任意である。他の実施形態においては、例えば、点光源以外の形状の光源が環境光と共にフィールドに設定されてもよい。また、点光源が配置されず環境光のみがフィールドに設定されてもよい。 The type of light source set in the field is arbitrary. In other embodiments, for example, a light source having a shape other than a point light source may be set in the field together with ambient light. Also, no point light source may be placed, and only ambient light may be set in the field.

また、本実施形態においては、上記所定のイベントは、所定のアイテム(具体的には光源アイテム)がフィールド上に配置されるイベントである。このとき、ゲームシステム1は、上記アイテムが配置された位置に基づいて、基準となる点の位置を設定し、当該基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲(すなわち、アイテム影響範囲)が含まれるように照射範囲を設定する。これによれば、プレイヤは、アイテムを配置することによって所望の位置に照射範囲を設定しやすくなる。 In addition, in this embodiment, the above-mentioned specified event is an event in which a specified item (specifically, a light source item) is placed on the field. At this time, the game system 1 sets the position of a reference point based on the position where the above-mentioned item is placed, and sets an illumination range based on the distance from the reference point so as to include a range where the distance is equal to or less than a threshold value (i.e., the item influence range). This makes it easier for the player to set the illumination range to a desired position by placing the item.

なお、「所定のアイテムがフィールド上に配置されるイベント」とは、所定のアイテムが単にフィールドに配置されることによって発生するイベントに限らず、所定のアイテムが一定条件下でフィールドに配置されることによって発生するイベントをも含む意味である。例えば、「所定のアイテムがフィールド上に配置されるイベント」とは、フィールドに配置される当該アイテムに一定の衝撃が加えられたことを条件とするイベントであってもよい。上記条件は、所定のアイテムがフィールドに落下する際に落下によって一定の衝撃が加えられたことであってもよいし、フィールドに配置された所定のアイテムに対して他のオブジェクトによって一定の衝撃が加えられたことであってもよい。 Note that "an event in which a specific item is placed on the field" does not only refer to an event that occurs when a specific item is simply placed on the field, but also includes an event that occurs when a specific item is placed on the field under certain conditions. For example, "an event in which a specific item is placed on the field" may be an event that is conditioned on a specific impact being applied to the item placed on the field. The above condition may be that a specific impact is applied when the specific item falls onto the field, or that a specific impact is applied by another object to the specific item placed on the field.

なお、点光源が設定されるイベントは、アイテム配置イベントに限らず、他の種類のイベントであってもよい。例えば、他の実施形態においては、ゲームシステム1は、キャラクタ発光イベントの発生に応じてプレイヤキャラクタ201の位置に点光源を設定し、キャラクタ影響範囲については当該点光源を反映して描画を行うことで、照射範囲を視認可能に表示してもよい。 The event for which the point light source is set is not limited to an item placement event, and may be another type of event. For example, in another embodiment, the game system 1 may set a point light source at the position of the player character 201 in response to the occurrence of a character lighting event, and may visibly display the illumination range by drawing the character's influence range reflecting the point light source.

上記の3種類の照射イベント(すなわち、キャラクタ発光イベント、解放イベント、および、アイテム配置イベント)について説明したように、本実施形態においては、所定のイベント(具体的には、照射イベント)の発生に応じて、照射範囲の基準となる点を仮想空間内に設定する。そして、基準となる点からの距離に基づいて、当該距離がしきい値以下となる範囲が含まれるように照射範囲を設定する。これによれば、イベントの発生に応じて、当該イベントに応じた位置とその周囲を照射範囲に設定することができる。 As explained above for the three types of illumination events (i.e., character light emission events, release events, and item placement events), in this embodiment, a reference point for the illumination range is set in virtual space in response to the occurrence of a specific event (specifically, an illumination event). Then, based on the distance from the reference point, the illumination range is set so as to include a range where the distance is equal to or less than a threshold value. In this way, in response to the occurrence of an event, the position corresponding to the event and its surroundings can be set as the illumination range.

なお、上記「当該距離がしきい値以下となる範囲」とは、キャラクタ発光イベントにおいてはキャラクタ影響範囲であり、解放イベントにおいては地点影響範囲または解放領域の範囲であり、アイテム配置イベントにおいてはアイテム影響範囲である。 Note that the above "range where the distance is equal to or less than the threshold" refers to the character's range of influence in a character lighting event, the location's range of influence or the range of the released area in a release event, and the item's range of influence in an item placement event.

また、上記「照射範囲の基準となる点」とは、本実施形態においては、キャラクタ発光イベントにおけるプレイヤキャラクタ201の位置、解放イベントにおける基準地点の位置、および、アイテム配置イベントにおける光源アイテムの位置である。ただし、上記「照射範囲の基準となる点」とは、厳密にこれらの位置である必要はなく、これらの位置に基づいて決定される位置であってよい。例えば、上記「照射範囲の基準となる点」は、プレイヤキャラクタ201の位置、基準地点の位置、あるいは、光源アイテムの位置から少しずれた位置であってもよい。 In addition, in this embodiment, the "reference point of the illumination range" is the position of the player character 201 in a character light emission event, the position of the reference point in a release event, and the position of the light source item in an item placement event. However, the "reference point of the illumination range" does not have to be these positions exactly, and may be a position determined based on these positions. For example, the "reference point of the illumination range" may be a position slightly shifted from the position of the player character 201, the position of the reference point, or the position of the light source item.

また、本実施形態において、照射イベントの発生に応じて設定される照射範囲は、発生時から次第に拡がるように制御されてもよい。すなわち、ゲームシステム1は、照射イベントの発生に応じて上記の基準となる点が設定された後、照射範囲を判定するための上記しきい値を時間経過に応じて増加させることで照射範囲を拡大してもよい。なお、上記しきい値とは、キャラクタ発光イベントにおいては、キャラクタ影響範囲に設定される距離のしきい値であり、解放イベントにおいては、地点影響範囲に設定される距離のしきい値であり、アイテム配置イベントにおいては、アイテム影響範囲に設定される距離のしきい値である。これによれば、照射イベントが発生した際に、フィールドにおける明るい領域が次第に拡大していく様子を表示することができる。なお、上記において、照射範囲は、所定時間経過後に拡大を停止するように制御される。また、ゲームシステム1は、全ての照射イベントについて照射範囲を次第に拡大させる必要はなく、照射イベントのうち所定のイベント(例えば、解放イベントおよびアイテム配置イベント)について、照射範囲を次第に拡大させる制御を行うようにしてもよい。 In addition, in this embodiment, the illumination range set in response to the occurrence of an illumination event may be controlled to gradually expand from the time of the occurrence. That is, after the above-mentioned reference point is set in response to the occurrence of an illumination event, the game system 1 may expand the illumination range by increasing the above-mentioned threshold value for determining the illumination range as time passes. Note that the above-mentioned threshold value is a distance threshold value set for the character influence range in a character illumination event, a distance threshold value set for the point influence range in a release event, and a distance threshold value set for the item influence range in an item placement event. According to this, when an illumination event occurs, it is possible to display the state in which the bright area in the field gradually expands. Note that, in the above, the illumination range is controlled to stop expanding after a predetermined time has elapsed. Also, the game system 1 does not need to gradually expand the illumination range for all illumination events, and may control the illumination range to gradually expand for predetermined events (e.g., release events and item placement events) among the illumination events.

上述のように、本実施形態においては、所定のオブジェクトについては、当該オブジェクトが照射範囲外に位置する場合でも視認可能に表示される。以下では、このようなオブジェクトを「対象外オブジェクト」と呼ぶ。具体的には、本実施形態においては、対象外オブジェクトは、所定の種類のキャラクタ、および、自発光オブジェクトである。所定の種類のキャラクタとは、より具体的には、プレイヤキャラクタおよび敵キャラクタである。また、自発光オブジェクトとは、描画に関する設定において、自身が光っているように表示される設定が行われるオブジェクトである。例えば、上述の目印オブジェクト203は自発光オブジェクトである。 As described above, in this embodiment, a specific object is displayed so as to be visible even when the object is located outside the illumination range. Hereinafter, such objects are referred to as "non-target objects." Specifically, in this embodiment, non-target objects are characters of a specific type and self-luminous objects. More specifically, the characters of a specific type are player characters and enemy characters. Furthermore, a self-luminous object is an object that is set in the drawing settings to be displayed as if it is glowing. For example, the above-mentioned marker object 203 is a self-luminous object.

詳細は後述するが、ゲーム画像を描画する際、ゲームシステム1は、対象外オブジェクトについては、照射範囲外に位置する場合であっても、上述の光源を反映しない描画設定でなく、当該対象外オブジェクトに予め設定される描画設定に基づいて描画を行う。本実施形態においては、所定の種類のキャラクタが照射範囲外に位置する場合には、当該キャラクタは陰が付された上で視認可能に描画される。したがって、所定の種類のキャラクタは、暗闇として表示される、照射範囲外の他のオブジェクトとは、区別可能に表示される。 As will be described in detail later, when rendering game images, the game system 1 renders non-target objects based on rendering settings that are preset for the non-target objects, even if the non-target objects are located outside the illumination range, rather than rendering settings that do not reflect the above-mentioned light source. In this embodiment, when a character of a predetermined type is located outside the illumination range, the character is rendered visibly with a shadow added. Therefore, the character of the predetermined type is displayed so as to be distinguishable from other objects outside the illumination range, which are displayed as darkness.

また、自発光オブジェクトについては、照射範囲外に位置する場合であっても、当該オブジェクトに設定されたエミッション等の描画設定に基づいて描画が行われる。その結果、例えば図15に示す目印オブジェクト203のように、自発光オブジェクトは、暗闇として表示される、照射範囲外の他のオブジェクトと区別可能に表示される。 In addition, even if a self-luminous object is located outside the illumination range, it is rendered based on the rendering settings, such as the emission, set for that object. As a result, the self-luminous object, such as the marker object 203 shown in FIG. 15, is displayed in a manner that makes it distinguishable from other objects outside the illumination range that are displayed as darkness.

上記のように、本実施形態においては、照射イベントは、フィールド内において基準地点に関連付けて設定されたイベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われたことによって発生するイベント(すなわち、解放イベント)である。なお、図15および図16に示すように、自発光オブジェクトである目印オブジェクトは、フィールドにおいて、複数の基準地点のそれぞれに対応する位置(例えば、基準地点の上方の位置)にそれぞれ配置される。ゲームシステム1は、目印オブジェクトが照射範囲に含まれるか否かにかかわらず、照射範囲に含まれない他のオブジェクトと区別可能な表示となるように当該目印オブジェクトを描画する。これによれば、プレイヤは、目印オブジェクトを目標にすることで、照射範囲外の基準地点に向かってプレイヤキャラクタを移動させやすくなる。 As described above, in this embodiment, an illumination event is an event (i.e., a release event) that occurs when a predetermined operation input is performed when the player character is located at an event occurrence position set in association with a reference point in the field. As shown in Figures 15 and 16, marker objects, which are self-luminous objects, are placed in positions in the field corresponding to each of a plurality of reference points (for example, positions above the reference points). Regardless of whether the marker object is included in the illumination range, the game system 1 draws the marker object so that it is displayed in a manner that can be distinguished from other objects that are not included in the illumination range. This makes it easier for the player to move the player character toward a reference point outside the illumination range by targeting the marker object.

[2-3.画像生成処理]
次に、フィールドのうち照射範囲外の部分を暗闇として(すなわち、視認不可能または視認困難な態様で)表示されるゲーム画像の生成方法の一例について説明する。本実施形態においては、ゲームシステム1は、照射範囲内のオブジェクトについては、フィールドに設定される光源を反映して描画を行う一方、照射範囲外のオブジェクト(ただし、上記の対象外オブジェクトを除く)については、光源を反映せず、当該オブジェクトに対応する画素を黒色で描画する。これによれば、照射範囲外のオブジェクトを視認不可能にすることができ、フィールドを探索するために基準地点を解放する動機付けをプレイヤに効果的に与えることができる。以下、ゲーム画像の生成方法の具体例について説明する。
[2-3. Image generation processing]
Next, an example of a method for generating a game image in which the part of the field outside the illumination range is displayed in darkness (i.e., in a manner that is invisible or difficult to see) will be described. In this embodiment, the game system 1 draws objects within the illumination range by reflecting the light source set in the field, while for objects outside the illumination range (excluding the above-mentioned non-target objects), the light source is not reflected and pixels corresponding to the objects are drawn in black. This makes it possible to make objects outside the illumination range invisible, effectively giving the player an incentive to release the reference point in order to explore the field. A specific example of a method for generating a game image will be described below.

本実施形態では、ゲームシステム1は、ディファードレンダリング(ディファードシェーディング、あるいは、遅延シェーディングとも言う)に基づく手法でゲーム画像の描画を行う。すなわち、ゲームシステム1は、1フレームの間に以下に説明する第1~第3の段階を経て描画処理を実行する。 In this embodiment, the game system 1 draws game images using a method based on deferred rendering (also called deferred shading or delayed shading). That is, the game system 1 executes the drawing process during one frame through the first to third stages described below.

第1の段階において、ゲームシステム1は、仮想空間内の各オブジェクト(キャラクタオブジェクトや地形オブジェクトを含む)について描画に用いられる情報をGバッファ(ジオメトリバッファ)に書き込む。Gバッファには、描画される画素ごとに、例えば、当該画素に対応するポリゴンの法線の情報、および、当該画素に対応するポリゴンに設定される色の情報等が書き込まれる。本実施形態においては、これらの情報以外にさらに、画素に対応するフィールド上の位置を示す座標や、対象外オブジェクトが描画される画素であることを示す情報等がGバッファに格納される。また、第1の段階において、ゲームシステム1は、フィールド上の位置の深度(奥行き)情報を、当該位置に対応する画素ごとに深度バッファに書き込む。 In the first stage, the game system 1 writes information used for drawing each object (including character objects and terrain objects) in the virtual space into a G buffer (geometry buffer). For each pixel to be drawn, information such as normal information for the polygon corresponding to that pixel and color information set for the polygon corresponding to that pixel is written into the G buffer. In this embodiment, in addition to this information, coordinates indicating the position on the field corresponding to the pixel and information indicating that the pixel is a pixel where a non-target object is to be drawn are also stored in the G buffer. Also, in the first stage, the game system 1 writes depth information of the position on the field into the depth buffer for each pixel corresponding to that position.

第2の段階において、ゲームシステム1は、Gバッファおよび深度バッファに書き込まれた情報、および、フィールドに設定される光源の情報に基づいて、ライティングに関する情報をライトバッファに書き込む。ライトバッファには、例えば、描画される画素ごとに、対応するフィールド上の位置の明るさを示す情報が書き込まれる。なお、他の実施形態においては、ゲームシステム1は、ライティングに関する計算を第2の段階で行うものとするが、他の実施形態においては、ライティングに関する計算は、フレームバッファへの描画を行う後述の第3の段階で行われてもよい。 In the second stage, the game system 1 writes information about lighting to the light buffer based on the information written to the G buffer and the depth buffer, and on the information about the light source set in the field. For example, information indicating the brightness of the corresponding position on the field is written to the light buffer for each pixel to be drawn. Note that in other embodiments, the game system 1 performs calculations related to lighting in the second stage, but in other embodiments, calculations related to lighting may be performed in the third stage described below, in which drawing is performed in the frame buffer.

また、本実施形態においては、第2の段階において、ゲームシステム1は、暗闇マスクのデータを生成する。暗闇マスクは、描画される画素ごとに対応するフィールド上の位置が、暗闇として描画される位置(すなわち、照射範囲外の位置)であるか否か、もしくは暗闇として描画される度合いを画素ごとに示すデータである。本実施形態においては、暗闇マスクは、暗闇を表す色(上述のように、本実施形態においては黒色)で描画される度合いを示す暗闇マスク値を画素ごとに示す。例えば、暗闇マスク値は、0以上1以下の値であり、暗闇を表す色で描画される画素については1に設定され、暗闇を表す色が反映されない画素については0に設定される。また、暗闇マスク値が中間値(すなわち、0より大きく1未満である値)となる場合、中間値は、暗闇を表す色が当該画素に反映される度合いが大きいほど大きい値をとる。本実施形態においては、照射範囲外の位置に対応する画素については、暗闇マスク値は1に設定され、照射範囲内の位置に対応する画素については、暗闇マスク値は1未満の値に設定される。したがって、暗闇マスクは、フィールドにおける照射範囲を示すデータであると言うことができる。詳細は後述するが、当該暗闇マスクは、仮想空間内の照射範囲と、Gバッファに記憶された、フィールド上の位置を示す座標データ等に基づいて生成される。さらに、上述の対象外オブジェクトが描画される画素に対応する画素については、暗闇を反映しない値とする。なお、他の実施形態においては、照射範囲外の位置に対応する画素については、暗闇マスク値が所定値以上(この所定値は、0より大きく1より小さい値である)に設定され、照射範囲内の位置に対応する画素については、暗闇マスク値は当該所定値未満の値に設定されてもよい。また、本実施形態においては、暗闇マスク値は0から1までの範囲の多値の値であるとするが、他の実施形態においては、暗闇マスク値は0または1の2値の値であってもよい。 In addition, in this embodiment, in the second stage, the game system 1 generates data of a darkness mask. The darkness mask is data indicating whether or not the position on the field corresponding to each pixel to be drawn is a position to be drawn as darkness (i.e., a position outside the illumination range), or the degree to which it is drawn as darkness, for each pixel. In this embodiment, the darkness mask indicates a darkness mask value indicating the degree to which each pixel is drawn in a color representing darkness (as described above, in this embodiment, black). For example, the darkness mask value is a value between 0 and 1, and is set to 1 for pixels drawn in a color representing darkness, and is set to 0 for pixels in which the color representing darkness is not reflected. In addition, when the darkness mask value is an intermediate value (i.e., a value greater than 0 and less than 1), the intermediate value takes a larger value the greater the degree to which the color representing darkness is reflected in the pixel. In this embodiment, for pixels corresponding to positions outside the illumination range, the darkness mask value is set to 1, and for pixels corresponding to positions within the illumination range, the darkness mask value is set to a value less than 1. Therefore, it can be said that the darkness mask is data indicating the illumination range in the field. The details will be described later, but the darkness mask is generated based on the illumination range in the virtual space and the coordinate data indicating the position on the field stored in the G buffer. Furthermore, the pixels corresponding to the pixels where the above-mentioned non-target objects are drawn are set to values that do not reflect darkness. Note that in other embodiments, the darkness mask value may be set to a predetermined value or more (this predetermined value is greater than 0 and less than 1) for pixels corresponding to positions outside the illumination range, and the darkness mask value may be set to a value less than the predetermined value for pixels corresponding to positions within the illumination range. Also, in this embodiment, the darkness mask value is a multi-value value ranging from 0 to 1, but in other embodiments, the darkness mask value may be a binary value of 0 or 1.

第3の段階において、ゲームシステム1は、各バッファ(すなわち、Gバッファ、深度バッファ、および、ライトバッファ)に書き込まれた情報および暗闇マスクに基づいて、光源による光の影響および暗闇が反映されたフィールドを示すフィールド画像の画素値をフレームバッファに書き込む。すなわち、ゲームシステム1は、Gバッファとライトバッファの情報に基づいた、仮想空間内の光源が反映された画素値に、暗闇マスクに基づいて黒色が上書きされた画素値をフレームバッファに書き込む。 In the third stage, the game system 1 writes pixel values of a field image showing a field reflecting the effects of light from a light source and darkness into the frame buffer based on the information written in each buffer (i.e., the G buffer, the depth buffer, and the light buffer) and the darkness mask. That is, the game system 1 writes pixel values reflecting the light source in the virtual space based on the information in the G buffer and the light buffer, and overwritten with black based on the darkness mask into the frame buffer.

図22は、フレームバッファに書き込まれるフィールド画像を生成する方法の一例を示す図である。図22に示すように、フィールド画像の各画素の画素値は、Gバッファに記憶される色の情報と、ライトバッファに記憶される明るさの情報と、暗闇マスクの暗闇マスク値とに基づいて算出される。まず、ライトバッファに記憶される明るさの情報を反映することで、光源による光が反映されたフィールド画像を得ることができる。すなわち、環境光や点光源による光が当たっているように表現されたフィールド画像を得ることができる。さらに、暗闇マスクを用いることで、照射範囲外については暗闇で表現されたフィールド画像を生成することができる(図22参照)。以上によって、ゲームシステム1は、照射範囲内については環境光や点光源による光が当たっているように表現されるとともに、照射範囲外については暗闇で表現されたフィールド画像を得ることができる。 Figure 22 is a diagram showing an example of a method for generating a field image to be written to a frame buffer. As shown in Figure 22, the pixel value of each pixel of the field image is calculated based on the color information stored in the G buffer, the brightness information stored in the light buffer, and the darkness mask value of the darkness mask. First, by reflecting the brightness information stored in the light buffer, a field image reflecting light from a light source can be obtained. In other words, a field image that is expressed as if it is illuminated by ambient light or light from a point light source can be obtained. Furthermore, by using a darkness mask, a field image that is expressed in darkness outside the illumination range can be generated (see Figure 22). As a result of the above, the game system 1 can obtain a field image that is expressed as if it is illuminated by ambient light or light from a point light source within the illumination range, and that is expressed in darkness outside the illumination range.

図22に示す暗闇マスクについては、暗闇マスク値が1である位置を黒色で示し、暗闇マスク値が0である位置を白色で示し、暗闇マスク値が中間値となる位置については、値が大きいほど黒色に近づくように灰色で示している。キャラクタ発光イベントやアイテム配置イベントに基づく照射範囲に関しては、暗闇マスク値は、照射範囲の基準点から所定距離内の位置に対応する画素については0となり、基準点から当該所定距離より離れた位置に対応する画素については、基準点からの距離に応じて次第に大きくなり、照射範囲外の位置に対応する画素については1となるように、設定される。なお、照射範囲の基準点とは、照射範囲の基準となる位置であり、具体的には、解放イベントに基づく照射範囲については基準位置であり、キャラクタ発光イベントに基づく照射範囲についてはプレイヤキャラクタの位置であり、アイテム配置イベントに基づく照射範囲については光源アイテムの位置である。 For the darkness mask shown in FIG. 22, positions where the darkness mask value is 1 are shown in black, positions where the darkness mask value is 0 are shown in white, and positions where the darkness mask value is an intermediate value are shown in gray, with the larger the value, the closer to black the dark mask value becomes. For the illumination range based on a character light emission event or an item placement event, the darkness mask value is set to 0 for pixels corresponding to positions within a specified distance from the reference point of the illumination range, and gradually increases according to the distance from the reference point for pixels corresponding to positions farther away from the reference point than the specified distance, and to 1 for pixels corresponding to positions outside the illumination range. Note that the reference point of the illumination range is the reference position for the illumination range, and specifically, for the illumination range based on a release event, it is the reference position, for the illumination range based on a character light emission event, it is the position of the player character, and for the illumination range based on an item placement event, it is the position of the light source item.

解放イベントに基づく照射範囲については、ゲームシステム1は、暗闇マスク値を算出するために用いられる2次元範囲データを算出し、当該2次元範囲データと、Gバッファに記憶された、フィールド上の位置を示す座標データのうち、水平面成分とに基づいて暗闇マスクを生成する。2次元範囲データは、上述のフィールド対応平面における各2次元位置について、暗闇マスク値を算出するために用いられる度合い値を示すデータである。2次元範囲データは、フィールドにおける照射範囲を示すデータであると言うことができる。なお、本実施形態においては、照射範囲を示すデータとして、2次元平面上での位置に関する上記2次元範囲データを生成するものとするが、他の実施形態においては、照射範囲を示すデータは、3次元のフィールドの位置を示すデータであってもよい。 For the illumination range based on the release event, the game system 1 calculates two-dimensional range data used to calculate a darkness mask value, and generates a darkness mask based on the two-dimensional range data and the horizontal plane component of the coordinate data indicating a position on the field stored in the G buffer. The two-dimensional range data is data indicating a degree value used to calculate a darkness mask value for each two-dimensional position on the above-mentioned field corresponding plane. It can be said that the two-dimensional range data is data indicating the illumination range on the field. Note that in this embodiment, the above-mentioned two-dimensional range data relating to a position on a two-dimensional plane is generated as data indicating the illumination range, but in other embodiments, the data indicating the illumination range may be data indicating a three-dimensional field position.

上記度合い値は、暗闇マスク値と同様、描画処理において暗く描画する度合いを示す値である。度合い値は、例えば、照射範囲の基準点において最大となり、基準点からの距離に応じて次第に小さくなり、照射範囲外で0となるように変化する。したがって、度合い値は、照射範囲の基準点からの距離に応じて減衰する値に基づいて算出することができる。本実施形態においては、上記解放イベントに基づく照射範囲は、上述の合計判定値に基づいて設定される解放領域と、基準地点からの距離に基づく地点影響範囲とに基づいて設定される。そのため、解放イベントに基づく照射範囲についての度合い値は、上述の合計判定値と、基準地点からの距離に応じて減衰する値とに基づいて算出することができる。 The degree value is a value that indicates the degree to which the image is drawn dark in the drawing process, similar to the darkness mask value. For example, the degree value is maximum at the reference point of the illumination range, gradually decreases according to the distance from the reference point, and changes to 0 outside the illumination range. Therefore, the degree value can be calculated based on a value that attenuates according to the distance from the reference point of the illumination range. In this embodiment, the illumination range based on the release event is set based on the release area set based on the above-mentioned total determination value and the point influence range based on the distance from the reference point. Therefore, the degree value for the illumination range based on the release event can be calculated based on the above-mentioned total determination value and a value that attenuates according to the distance from the reference point.

次に、ゲームシステム1は、各画素における暗闇マスク値を、各画素に対応する各位置における度合い値に基づいて算出する。例えば、上記度合い値を0以上1以下の範囲にスケーリングし、スケーリングされた値を1から減算した値として暗闇マスク値を得ることができる。以上のようにして算出される暗闇マスク値を用いることで、解放イベントに基づく照射範囲を反映した暗闇マスクを生成することができる。なお、解放領域の範囲と地点影響範囲とを同じにする場合は、上述のマップマスクが2次元範囲データとして用いられてもよい。 Next, the game system 1 calculates a darkness mask value for each pixel based on the degree value at each position corresponding to each pixel. For example, the degree value can be scaled to a range of 0 to 1, and the scaled value can be subtracted from 1 to obtain the darkness mask value. By using the darkness mask value calculated in the above manner, a darkness mask that reflects the illumination range based on the release event can be generated. Note that if the range of the release area and the point influence range are to be the same, the above-mentioned map mask may be used as the two-dimensional range data.

上記のように、本実施形態においては、ゲームシステム1は、解放イベントの発生に基づいて、フィールドにおける照射範囲を平面的に示す2次元範囲データを、フィールドのうちイベント発生位置(すなわち、基準地点の位置)に対応する範囲が少なくとも照射範囲となるよう生成し、2次元範囲データに基づいて暗闇マスクを生成する。 As described above, in this embodiment, the game system 1 generates two-dimensional range data that shows the illuminated range in the field in a planar manner based on the occurrence of a release event, so that at least the range in the field that corresponds to the event occurrence position (i.e., the position of the reference point) becomes the illuminated range, and generates a darkness mask based on the two-dimensional range data.

また、本実施形態においてはさらに、ゲームシステム1は、描画処理における上記第2の段階において、プレイヤキャラクタの位置に基づく照射範囲と、光源アイテムについて設定される点光源の位置に基づく照射範囲とを反映するように、暗闇マスクを生成する。これによって、各照射イベント(すなわち、解放イベント、キャラクタ発光イベント、および、アイテム配置イベント)を反映した暗闇マスクが生成される。 Furthermore, in this embodiment, the game system 1 generates a darkness mask in the second stage of the drawing process so as to reflect the illumination range based on the position of the player character and the illumination range based on the position of the point light source set for the light source item. This generates a darkness mask that reflects each illumination event (i.e., release event, character light emission event, and item placement event).

なお、暗闇マスク値の算出方法は任意であり、上記の方法に限らない。例えば、他の実施形態においては、ゲームシステム1は、上記2次元範囲データを生成せずに、描画処理において暗闇マスクを直接生成してもよい。すなわち、ゲームシステム1は、描画処理の第2の段階において、画素に対応するフィールド上の各位置についての合計判定値と、基準地点からの距離に応じて減衰する値とに基づいて、解放イベントに基づく照射範囲を反映した暗闇マスクを生成してもよい。 The method of calculating the darkness mask value is arbitrary and is not limited to the above method. For example, in another embodiment, the game system 1 may directly generate a darkness mask in the drawing process without generating the above two-dimensional range data. That is, in the second stage of the drawing process, the game system 1 may generate a darkness mask that reflects the illumination range based on the release event based on the total judgment value for each position on the field corresponding to the pixel and a value that attenuates according to the distance from the reference point.

上記のように、本実施形態においては、ゲームシステム1は、描画処理において、少なくとも一部の地形オブジェクトに関して、画素ごとに、当該地形オブジェクトのうち当該画素に対応する位置が照射範囲に含まれるか否かを少なくとも示すマスクデータ(すなわち、暗闇マスクのデータ)を生成する。そして、マスクデータにおいて上記地形オブジェクトの位置が照射範囲に含まれることが示される画素については、光源を反映してフレームバッファへの描画を行う。また、マスクデータにおいて上記地形オブジェクトの位置が照射範囲に含まれないことが示される画素については、所定の色によってフレームバッファへの描画を行う。これによれば、マスクデータを用いることによって、照射範囲外が視認不可能または視認困難な態様で表現されるフィールド画像を生成することができる。所定の色は、たとえば黒色である。ただし黒色に限らず、グレーであったり、他の色であったりしてもよい。また、単色に限らず、所定の模様を有する画像として描画されてもよい。 As described above, in this embodiment, the game system 1 generates mask data (i.e., darkness mask data) for each pixel of at least some terrain objects in the drawing process, which at least indicates whether or not the position of the terrain object corresponding to the pixel is included in the illumination range. Then, for pixels in which the mask data indicates that the position of the terrain object is included in the illumination range, drawing is performed in the frame buffer reflecting the light source. Furthermore, for pixels in which the mask data indicates that the position of the terrain object is not included in the illumination range, drawing is performed in the frame buffer in a predetermined color. In this way, by using the mask data, it is possible to generate a field image in which the outside of the illumination range is represented in a manner that is impossible or difficult to see. The predetermined color is, for example, black. However, it is not limited to black, and it may be gray or another color. Furthermore, it is not limited to a single color, and it may be drawn as an image having a predetermined pattern.

また、本実施形態においては、上記マスクデータは、上記所定の色が描画される度合いを画素ごとに示すデータである。ゲームシステム1は、描画処理において、光源を反映して算出される画素値(すなわち、Gバッファに記憶される色の情報と、ライトバッファに記憶される明るさの情報とに基づく画素値)に対して、上記度合いに応じて所定の色を合成した画素値をフレームバッファに書き込む。これによれば、暗闇の度合いを多段階で表現することができる。例えば、上述のように、照射範囲の基準点において最大となり、基準点からの距離に応じて次第に小さくなり、照射範囲外で0となるように度合い値を設定することによって、照射範囲の境界において次第に暗闇が濃くなっていくようなフィールド画像を生成することができる(図22参照)。 In this embodiment, the mask data indicates the degree to which the predetermined color is drawn for each pixel. In the drawing process, the game system 1 writes a pixel value, which is a composite of a predetermined color according to the degree, to the pixel value calculated reflecting the light source (i.e., a pixel value based on the color information stored in the G buffer and the brightness information stored in the light buffer) and the pixel value calculated reflecting the light source into the frame buffer. This allows the degree of darkness to be expressed in multiple stages. For example, as described above, by setting the degree value to be maximum at the reference point of the illumination range, gradually decreasing according to the distance from the reference point, and 0 outside the illumination range, a field image can be generated in which the darkness gradually becomes darker at the boundary of the illumination range (see FIG. 22).

また、本実施形態においては、ゲームシステム1は、フィールドの高さ方向以外の座標成分に対応する2次元の座標ごとに、描画処理において暗く描画する度合いを示す度合い値を示す2次元範囲データを生成する。ゲームシステム1は、上記合計判定値と、上記各座標において、基準地点に対応する2次元的な位置において基準値となり、当該2次元的な位置から当該座標への2次元的な距離に応じて減衰する値とに基づいて度合い値を算出する。描画処理においては、フレームバッファに描画する画素ごとに、フィールド内に設定された光源を反映して算出される画素値に対して、上記2次元範囲データが示す、当該画素に対応する2次元の座標における度合い値に応じて(当該度合い値に基づく暗闇マスク値に応じて、とも言うことができる。)所定の色(すなわち、黒色)を合成した画素値がフレームバッファに書き込まれる。上記によれば、フィールドを示す画像において上記所定の色を段階的に反映させることができる。これによって、例えば照射範囲の境界付近において次第に暗くなるようにフィールド画像を生成することができるので、より自然に見えるフィールド画像を生成することができる。 In this embodiment, the game system 1 generates two-dimensional range data indicating a degree value indicating the degree to which the field is drawn dark in the drawing process for each two-dimensional coordinate corresponding to a coordinate component other than the height direction of the field. The game system 1 calculates the degree value based on the total judgment value and a value that becomes a reference value at a two-dimensional position corresponding to a reference point at each of the coordinates and attenuates according to the two-dimensional distance from the two-dimensional position to the coordinate. In the drawing process, for each pixel drawn in the frame buffer, a pixel value calculated by reflecting the light source set in the field and a predetermined color (i.e., black) is written to the frame buffer according to the degree value at the two-dimensional coordinate corresponding to the pixel indicated by the two-dimensional range data (also called according to the darkness mask value based on the degree value). According to the above, the predetermined color can be reflected in a stepwise manner in the image showing the field. This allows a field image to be generated so that it becomes gradually darker near the boundary of the illumination range, for example, so that a field image that looks more natural can be generated.

本実施形態においては、ゲームシステム1は、上述の対象外オブジェクトについては、暗闇を表す黒色ではなく、オブジェクトごとに設定されている方法で描画を行う。具体的には、上記第1の段階において、ゲームシステム1は、上記の対象外オブジェクトに関する除外マスクのデータをGバッファに書き込む。除外マスクは、対象外オブジェクトの位置に対応する画素を示すデータである。除外マスクは、対象外オブジェクトに対応する画素について上記暗闇マスクの適用を除外することを示すものであると言うことができる。なお、ゲームシステム1は、対象外オブジェクトについて設定されている描画方法(例えば、自発光することや、所定の陰が付されること)を示すデータをGバッファに書き込んでおく。 In this embodiment, the game system 1 draws the above-mentioned non-target objects not in black, which represents darkness, but in a method set for each object. Specifically, in the first stage, the game system 1 writes exclusion mask data for the above-mentioned non-target objects to the G buffer. The exclusion mask is data indicating pixels corresponding to the positions of the non-target objects. It can be said that the exclusion mask indicates that the application of the darkness mask is excluded for pixels corresponding to the non-target objects. The game system 1 writes data indicating the drawing method set for the non-target objects (for example, that the objects are self-luminous or that a specified shade is applied) to the G buffer.

また、描画処理における上述の第3の段階において、ゲームシステム1は、上記除外マスクが示す画素については、暗闇マスクの暗闇マスク値にかかわらず、対象外オブジェクトについて設定された方法で描画を行う。これによって、対象外オブジェクトについては照射範囲外であっても暗闇として描画されることなく、設定された方法で描画されることとなる。なお、上記第2の段階において、上記除外マスクが示す画素については暗闇ではないことを示す値を暗闇マスクに書き込むようにしてもよい。 In addition, in the above-mentioned third stage of the drawing process, the game system 1 draws the pixels indicated by the above-mentioned exclusion mask using the method set for non-target objects, regardless of the darkness mask value of the darkness mask. As a result, non-target objects are not drawn as darkness even if they are outside the illumination range, but are drawn using the set method. Note that in the above-mentioned second stage, a value indicating that the pixels indicated by the above-mentioned exclusion mask are not darkness may be written into the darkness mask.

上記のように、本実施形態においては、ゲームシステム1は、描画処理における第1の段階において、対象外オブジェクトについて、Gバッファおよび深度バッファへの書き込みを画素ごとに行わせるとともに、上記除外マスクのデータを生成する。そして、描画処理における第3の段階において、ゲームシステム1は、除外マスクのデータが示す画素について、地形オブジェクトのうち照射範囲に含まれない部分と対象外オブジェクトとを区別して視認することができる方法で(例えば、自発光しているように見える方法で、あるいは、所定の陰が付される方法で)描画を行う。これによれば、ゲームシステム1は、対象外オブジェクトが照射範囲外であっても視認可能な態様で当該対象外オブジェクトを表示することができる。 As described above, in this embodiment, in the first stage of the drawing process, the game system 1 writes non-target objects to the G buffer and depth buffer for each pixel, and generates the exclusion mask data. Then, in the third stage of the drawing process, the game system 1 draws the pixels indicated by the exclusion mask data in a manner that allows the non-target objects to be distinguished from parts of the terrain object that are not included in the illumination range (for example, in a manner that makes them appear to be self-luminous, or in a manner that casts a predetermined shadow). In this way, the game system 1 can display non-target objects in a manner that allows them to be seen even if they are outside the illumination range.

以上のように、本実施形態においては、ゲームシステム1は、いわゆるディファードレンダリングに基づいた描画処理によって、照射範囲外のオブジェクトを暗闇として描画する。すなわち、ゲームシステム1は、第1の段階において、フィールド内の少なくとも一部の地形オブジェクトについてGバッファおよび深度バッファへの書き込みを行う。第2の段階において、ゲームシステム1は、画素ごとに、当該画素に対応する位置と、深度バッファに記憶された深度値と、照射範囲とに基づいて、暗闇マスクデータを生成する。第3の段階において、ゲームシステム1は、少なくともGバッファに記憶されるデータと、暗闇マスクデータとに基づいてフレームバッファへの描画を行う。上記によれば、ゲームシステム1は、ディファードレンダリングの技術を応用して、照射範囲外のオブジェクトを視認不可能または視認困難な態様で描画することができる。 As described above, in this embodiment, the game system 1 renders objects outside the illumination range as darkness by a rendering process based on so-called deferred rendering. That is, in the first stage, the game system 1 writes at least some of the terrain objects in the field to the G buffer and the depth buffer. In the second stage, the game system 1 generates darkness mask data for each pixel based on the position corresponding to the pixel, the depth value stored in the depth buffer, and the illumination range. In the third stage, the game system 1 renders in the frame buffer based on at least the data stored in the G buffer and the darkness mask data. As described above, the game system 1 can apply the deferred rendering technique to render objects outside the illumination range in a manner that is invisible or difficult to see.

なお、他の実施形態においては、照射範囲外のオブジェクトを暗闇として描画するための方法は任意であり、ディファードレンダリングに基づく描画処理に限られない。他の実施形態においては、フォワードレンダリング(前方シェーディングとも言う)に基づいて描画処理が実行されてもよい。すなわち、ゲームシステム1は、描画処理において、少なくとも一部の地形オブジェクト(例えば、上記対象外オブジェクトを除くオブジェクト)に関して、照射範囲に含まれるか否かを画素ごとに判定し、照射範囲に含まれる画素については、光源を反映してフレームバッファへの描画を行い、照射範囲に含まれない画素については、所定の色(例えば、黒色)によってフレームバッファへの描画を行うようにしてもよい。上記によれば、ゲームシステム1は、フォワードレンダリングに基づいて、照射範囲外のオブジェクトを視認不可能または視認困難な態様で描画することができる。 In other embodiments, the method for rendering objects outside the illumination range as darkness is arbitrary and is not limited to the rendering process based on deferred rendering. In other embodiments, the rendering process may be performed based on forward rendering (also called forward shading). That is, in the rendering process, the game system 1 may determine for each pixel whether or not at least some of the terrain objects (e.g., objects excluding the above-mentioned non-target objects) are included in the illumination range, and may render the pixels included in the illumination range to the frame buffer by reflecting the light source, and render the pixels not included in the illumination range to the frame buffer in a predetermined color (e.g., black). According to the above, the game system 1 can render objects outside the illumination range in an invisible or difficult-to-visible manner based on forward rendering.

[3.ゲームシステムにおける処理の具体例]
次に、図23~図27を参照して、ゲームシステム1における情報処理の具体例について説明する。
3. Specific examples of processing in a game system
Next, a specific example of information processing in the game system 1 will be described with reference to FIGS.

図23は、ゲームシステム1における情報処理に用いられる各種データを記憶する記憶領域の一例を示す図である。図23に示す各記憶領域は、本体装置2がアクセス可能な記憶媒体(例えば、フラッシュメモリ84、DRAM85、および/または、スロット23に装着されたメモリカード等)に設けられる。図23に示すように、上記記憶媒体には、ゲームプログラムが記憶されるゲームプログラム領域が設けられる。ゲームプログラムは、本実施形態におけるゲーム処理(具体的には、図24に示すゲーム処理)を実行するためのものである。また、上記記憶媒体には、上述のGバッファ、深度バッファ、ライトバッファ、および、フレームバッファが設けられる。 Figure 23 is a diagram showing an example of a storage area that stores various data used for information processing in the game system 1. Each storage area shown in Figure 23 is provided in a storage medium accessible by the main unit 2 (e.g., flash memory 84, DRAM 85, and/or a memory card inserted in slot 23, etc.). As shown in Figure 23, the storage medium is provided with a game program area in which a game program is stored. The game program is for executing the game processing in this embodiment (specifically, the game processing shown in Figure 24). The storage medium is also provided with the above-mentioned G buffer, depth buffer, write buffer, and frame buffer.

また、上記記憶媒体には、上述の暗闇マスクのデータを記憶するための暗闇マスクデータ領域が設けられる。なお、上述の除外マスクのデータはGバッファに記憶される。さらに、上記記憶媒体には、ゲーム処理において用いられる各種のデータを記憶するための処理データ領域が設けられる。処理データ領域には、例えば、上述のマップマスクのデータ等が記憶される。また例えば、処理データ領域には、ゲームに登場する各種オブジェクト(例えば、プレイヤキャラクタや光源アイテム)に関するオブジェクトデータ(例えば、オブジェクトの位置および向きを示すデータ)が記憶される。 The storage medium also has a darkness mask data area for storing the darkness mask data described above. The exclusion mask data described above is stored in the G buffer. The storage medium also has a processing data area for storing various data used in game processing. The processing data area stores, for example, the map mask data described above. The processing data area also stores object data (for example, data indicating the position and orientation of an object) related to various objects (for example, a player character or a light source item) that appear in the game.

図24は、ゲームシステム1によって実行されるゲーム処理の流れの一例を示すフローチャートである。ゲーム処理の実行は、例えば、上記ゲームプログラムの実行中において、プレイヤの指示に応じてゲームが開始されたことに応じて開始される。なお、本実施形態においては、ゲーム処理においては、フィールドを示すフィールド画像が表示されるフィールドモードと、上述のマップ画像がディスプレイ12の全体に表示されるマップ表示モードと、メニュー画像が表示されるメニュー表示モードという処理モードがある。ゲームの開始時における処理モードは任意であるが、ここでは例えばフィールドモードに設定されるものとする。 Figure 24 is a flow chart showing an example of the flow of game processing executed by the game system 1. Execution of the game processing is started, for example, when the game program is being executed and the game is started in response to an instruction from the player. Note that in this embodiment, the game processing has processing modes including a field mode in which a field image showing a field is displayed, a map display mode in which the above-mentioned map image is displayed over the entire display 12, and a menu display mode in which a menu image is displayed. The processing mode at the start of the game is arbitrary, but here it is set to the field mode, for example.

なお、本実施形態では、本体装置2のプロセッサ81が、ゲームシステム1に記憶されている上記ゲームプログラムを実行することによって、図24に示す各ステップの処理を実行するものとして説明する。ただし、他の実施形態においては、上記各ステップの処理のうちの一部の処理を、プロセッサ81とは別のプロセッサ(例えば、専用回路等)が実行するようにしてもよい。また、ゲームシステム1が他の情報処理装置(例えば、サーバ)と通信可能である場合、図24に示す各ステップの処理の一部は、他の情報処理装置において実行されてもよい。また、図24に示す各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えて(または代えて)別の処理が実行されてもよい。 In this embodiment, the processor 81 of the main unit 2 executes the game program stored in the game system 1 to execute the processing of each step shown in FIG. 24. However, in other embodiments, some of the processing of each step may be executed by a processor (e.g., a dedicated circuit, etc.) other than the processor 81. In addition, if the game system 1 is capable of communicating with another information processing device (e.g., a server), some of the processing of each step shown in FIG. 24 may be executed in the other information processing device. In addition, the processing of each step shown in FIG. 24 is merely an example, and the processing order of each step may be changed, or another process may be executed in addition to (or instead of) the processing of each step, as long as the same result is obtained.

また、プロセッサ81は、図24に示す各ステップの処理を、メモリ(例えば、DRAM85)を用いて実行する。すなわち、プロセッサ81は、各処理ステップによって得られる情報(換言すれば、データ)をメモリに記憶し、それ以降の処理ステップにおいて当該情報を用いる場合には、メモリから当該情報を読み出して利用する。 The processor 81 also executes the processing of each step shown in FIG. 24 using a memory (e.g., DRAM 85). That is, the processor 81 stores information (in other words, data) obtained by each processing step in memory, and when using the information in a subsequent processing step, reads the information from the memory and uses it.

図14に示すステップS1において、プロセッサ81は、プレイヤによる指示を示す上記操作データを取得する。すなわち、プロセッサ81は、コントローラ通信部83および/または各端子17および21を介して各コントローラから受信される操作データを取得する。ステップS1の次にステップS2の処理が実行される。 In step S1 shown in FIG. 14, the processor 81 acquires the above-mentioned operation data indicating an instruction by the player. That is, the processor 81 acquires the operation data received from each controller via the controller communication unit 83 and/or each terminal 17 and 21. Following step S1, the process of step S2 is executed.

ステップS2において、プロセッサ81は、解放イベント等のイベントシーンの実行中であるか否かを判定する。上述のように、本実施形態においては、解放イベントが発生したことに応じて、解放イベントを示すイベントシーンのアニメーションの再生が開始される(後述するステップS26参照)。ステップS2においては、プロセッサ81は、上記イベントシーンのアニメーションが再生中であるか否かを判定する。ステップS2の判定結果が肯定である場合、ステップS3の処理が実行される。一方、ステップS2の判定結果が否定である場合、ステップS4の処理が実行される。 In step S2, the processor 81 determines whether or not an event scene such as a release event is being executed. As described above, in this embodiment, in response to the occurrence of a release event, playback of an animation of an event scene indicating the release event is started (see step S26 described below). In step S2, the processor 81 determines whether or not the animation of the event scene is being played. If the determination result of step S2 is positive, the process of step S3 is executed. On the other hand, if the determination result of step S2 is negative, the process of step S4 is executed.

ステップS3において、プロセッサ81は、実行中のイベントシーンを進行させる。すなわち、プロセッサ81は、上記イベントシーンのアニメーションの画像をディスプレイ12に表示させる。なお、1回のステップS3では、1フレーム分の画像が表示され、イベントシーンの実行中においてはステップS3の処理が繰り返し実行されることで、上記のアニメーションが再生されることとなる。イベント時の描画処理については、フィールド画像が表示されているフィールドモード中と同様の処理が実行される場合もあるが、異なる場面を表現する場合において異なる描画処理が行われてもよい。この異なる描画処理の具体的な内容は任意であり、詳細は省略する。なお、本実施形態においては、ゲームシステム1によって生成された画像はディスプレイ12に表示されるものとするが、当該画像は他の表示装置(例えば、上述した据置型モニタ)に表示されてもよい。ステップS3の次に、後述するステップS12の処理が実行される。 In step S3, the processor 81 advances the event scene being executed. That is, the processor 81 displays an image of the animation of the event scene on the display 12. Note that in one step S3, one frame of image is displayed, and the processing of step S3 is repeatedly executed while the event scene is being executed, thereby playing the animation. The drawing processing during the event may be the same as that in the field mode in which the field image is displayed, but a different drawing processing may be executed when expressing a different scene. The specific content of this different drawing processing is arbitrary, and details are omitted. Note that in this embodiment, the image generated by the game system 1 is displayed on the display 12, but the image may be displayed on another display device (for example, the stationary monitor described above). Following step S3, the processing of step S12, which will be described later, is executed.

ステップS4において、プロセッサ81は、マップ画像を表示するマップ表示モード中であるか否かを判定する。詳細は後述するが、本実施形態においては、フィールド画像が表示されているフィールドモード中においてプレイヤによってマップ表示指示が行われたことに応じて、マップ表示モードが開始される(後述するステップS22参照)。ステップS4の判定結果が肯定である場合、ステップS5の処理が実行される。一方、ステップS4の判定結果が否定である場合、ステップS6の処理が実行される。 In step S4, processor 81 determines whether or not the game is in a map display mode in which a map image is displayed. Although details will be described later, in this embodiment, the map display mode is started in response to a map display instruction being given by the player during field mode in which a field image is displayed (see step S22 described later). If the determination result of step S4 is positive, the process of step S5 is executed. On the other hand, if the determination result of step S4 is negative, the process of step S6 is executed.

ステップS5において、プロセッサ81は、マップ画像をディスプレイ12に表示させる。すなわち、プロセッサ81は、上記“[2-1.マップの開放領域の設定]”で述べた方法に従ってマップ画像を生成し、生成されたマップ画像をディスプレイ12に表示させる。ステップS5においては(すなわち、マップ表示モードにおいては)、フィールド画像は表示されずにマップ画像がディスプレイ12の全領域に表示される(図10および図12参照)。また、マップ表示モードにおいて、プロセッサ81は、マップ画像の表示を終了する旨の指示を受け付け、当該指示が行われた場合、処理モードをフィールドモードに移行する。この場合、次に実行される上記ステップS4における判定結果が否定となり、後述のステップS11においてフィールド画像が表示される。ステップS5の次に、後述するステップS12の処理が実行される。 In step S5, the processor 81 causes the display 12 to display a map image. That is, the processor 81 generates a map image according to the method described in "[2-1. Setting the open area of the map]" above, and causes the display 12 to display the generated map image. In step S5 (i.e., in the map display mode), the field image is not displayed, and the map image is displayed in the entire area of the display 12 (see Figures 10 and 12). Also, in the map display mode, the processor 81 accepts an instruction to end the display of the map image, and when this instruction is given, the processing mode is switched to the field mode. In this case, the determination result in the above step S4, which is executed next, is negative, and the field image is displayed in step S11, which will be described later. Following step S5, the processing of step S12, which will be described later, is executed.

ステップS6において、プロセッサ81は、メニュー画像を表示するメニュー表示モード中であるか否かを判定する。詳細は後述するが、本実施形態においては、フィールド画像が表示されているフィールドモード中においてプレイヤによってメニュー表示指示が行われたことに応じて、メニュー表示モードが開始される(後述ステップS22参照)。ステップS6の判定結果が肯定である場合、ステップS7の処理が実行される。一方、ステップS6の判定結果が否定である場合、ステップS8の処理が実行される。 In step S6, processor 81 determines whether or not the game is in a menu display mode in which a menu image is displayed. Although details will be described later, in this embodiment, the menu display mode is started in response to a menu display instruction being given by the player during field mode in which a field image is displayed (see step S22 described later). If the determination result of step S6 is positive, the process of step S7 is executed. On the other hand, if the determination result of step S6 is negative, the process of step S8 is executed.

ステップS7において、プロセッサ81は、メニュー画像をディスプレイ12に表示させる。ここで、本実施形態においては、プロセッサ81は、メニュー表示モードにおいて、各種の操作のうち少なくとも、プレイヤキャラクタの装備を変更する指示のための操作入力を受け付ける。すなわち、プレイヤは、メニュー画像においてプレイヤキャラクタの装備を変更することができ、例えば、上述の光る服をプレイヤキャラクタに装備させることができる。なお、図24に示すフローチャートにおいては省略するが、メニュー表示モードにおいては、メニュー画像に対する各種の指示(例えば、プレイヤキャラクタの装備を変更する指示や、アイテムを使用する指示等)のための操作入力が受け付けられ、プロセッサ81は、当該操作入力に応じてメニュー画像の内容を適宜変更して表示する。また、メニュー表示モードにおいて、プロセッサ81は、メニュー画像の表示を終了する旨の指示を受け付け、当該指示が行われた場合、処理モードをフィールドモードに移行する。この場合、次に実行される上記ステップS6における判定結果が否定となり、後述のステップS11においてフィールド画像が表示される。ステップS7の次に、後述するステップS12の処理が実行される。 In step S7, the processor 81 displays the menu image on the display 12. Here, in this embodiment, the processor 81 accepts, in the menu display mode, at least an operation input for an instruction to change the player character's equipment among various operations. That is, the player can change the player character's equipment in the menu image, for example, to equip the player character with the above-mentioned glowing clothes. Although omitted in the flowchart shown in FIG. 24, in the menu display mode, an operation input for various instructions to the menu image (for example, an instruction to change the player character's equipment, an instruction to use an item, etc.) is accepted, and the processor 81 appropriately changes and displays the contents of the menu image in response to the operation input. In addition, in the menu display mode, the processor 81 accepts an instruction to end the display of the menu image, and when the instruction is given, the processing mode is switched to the field mode. In this case, the determination result in the above step S6 executed next is negative, and a field image is displayed in step S11 described later. Following step S7, the processing of step S12 described later is executed.

ステップS8において、プロセッサ81は、プレイヤ関連制御処理を実行する。プレイヤ関連制御処理においては、プレイヤによる操作入力に基づいて各種の処理(例えば、プレイヤキャラクタに関する制御処理)が実行される。プレイヤ関連制御処理の詳細については、後述する図25に示すフローチャートで説明する。ステップS8の次に、ステップS9の処理が実行される。 In step S8, the processor 81 executes a player-related control process. In the player-related control process, various processes (e.g., control processes related to the player character) are executed based on operation input by the player. Details of the player-related control process will be explained later with reference to the flowchart shown in FIG. 25. Following step S8, the process of step S9 is executed.

ステップS9において、プロセッサ81は、他オブジェクト制御処理を実行する。他オブジェクト制御処理においては、プレイヤキャラクタ以外の他のオブジェクト(例えば、敵キャラクタや、上述の光源アイテム等)の制御が行われる。他オブジェクト制御処理の詳細については、後述する図26に示すフローチャートで説明する。ステップS9の次に、ステップS10の処理が実行される。 In step S9, the processor 81 executes another object control process. In the other object control process, other objects (e.g., enemy characters, the above-mentioned light source items, etc.) other than the player character are controlled. Details of the other object control process will be explained later with reference to the flowchart shown in FIG. 26. Following step S9, the process of step S10 is executed.

ステップS10において、プロセッサ81は、フィールドを示すフィールド画像の描画処理を実行する。フィールド画像の描画処理においては、上述したように、照射範囲外が暗闇で表されるフィールド画像が生成される。描画処理の詳細については、後述する図27に示すフローチャートで説明する。ステップS10の次に、ステップS11の処理が実行される。 In step S10, the processor 81 executes a drawing process of a field image showing a field. In the drawing process of the field image, as described above, a field image is generated in which the area outside the illumination range is shown in darkness. Details of the drawing process will be described later with reference to the flowchart shown in FIG. 27. Following step S10, the process of step S11 is executed.

ステップS11において、プロセッサ81は、ステップS10で生成されたフィールド画像をディスプレイ12に表示させる。なお、図15等において示したように、フィールドモードにおいては、プロセッサ81は、フィールド画像に加えてマップ画像をさらに生成し、フィールド画像に重ねてマップ画像を表示するようにしてもよい。ステップS11の次に、ステップS12の処理が実行される。 In step S11, the processor 81 causes the display 12 to display the field image generated in step S10. Note that, as shown in FIG. 15 etc., in the field mode, the processor 81 may generate a map image in addition to the field image and display the map image superimposed on the field image. Following step S11, the process of step S12 is executed.

ステップS12において、プロセッサ81は、ゲームを終了するか否かを判定する。例えば、プロセッサ81は、ゲームを終了するための所定の操作入力がプレイヤによって行われた場合、ゲームを終了すると判定する。ステップS12の判定結果が否定である場合、ステップS1の処理が再度実行される。以降、ステップS12においてゲームを終了すると判定されるまで、ステップS1~S12の一連の処理が繰り返し実行される。一方、ステップS12の判定結果が肯定である場合、プロセッサ81は、図24に示すゲーム処理を終了する。 In step S12, processor 81 determines whether or not to end the game. For example, processor 81 determines to end the game when a predetermined operation input for ending the game is performed by the player. If the determination result in step S12 is negative, the process of step S1 is executed again. Thereafter, the series of processes from step S1 to S12 is repeatedly executed until it is determined in step S12 that the game is to end. On the other hand, if the determination result in step S12 is positive, processor 81 ends the game process shown in FIG. 24.

図25は、図24に示すステップS8のプレイヤ関連制御処理の詳細な流れの一例を示すサブフローチャートである。プレイヤ関連制御処理においては、まずステップS21において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、上述の処理モードを切り替える指示がプレイヤによって行われたか否かを判定する。処理モードを切り替える指示とは、具体的には、マップ画像を表示する旨の指示、または、メニュー画像を表示する旨の指示である。ステップS21の判定結果が肯定である場合、ステップS22の処理が実行される。一方、ステップS21の判定結果が否定である場合、ステップS23の処理が実行される。 Figure 25 is a sub-flowchart showing an example of a detailed flow of the player-related control process of step S8 shown in Figure 24. In the player-related control process, first, in step S21, the processor 81 determines whether or not an instruction to switch the above-mentioned processing mode has been given by the player, based on the operation data acquired in step S1. An instruction to switch the processing mode is, specifically, an instruction to display a map image, or an instruction to display a menu image. If the determination result of step S21 is positive, the process of step S22 is executed. On the other hand, if the determination result of step S21 is negative, the process of step S23 is executed.

ステップS22において、プロセッサ81は、ステップS21で行われた指示に応じて処理モードを切り替える。すなわち、マップ画像を表示する旨の指示が行われた場合、プロセッサ81は、処理モードをマップ表示モードに切り替える。この場合、次に実行される上記ステップS4における判定結果が肯定となり、ステップS5においてマップ画像を表示する処理が実行される。また、メニュー画像を表示する旨の指示が行われた場合、プロセッサ81は、処理モードをメニュー表示モードに切り替える。この場合、次に実行される上記ステップS6における判定結果が肯定となり、ステップS7においてメニュー画像を表示する処理が実行される。ステップS22の後、プロセッサ81はプレイヤ関連制御処理を終了する。 In step S22, processor 81 switches the processing mode in response to the instruction given in step S21. That is, if an instruction to display a map image is given, processor 81 switches the processing mode to the map display mode. In this case, the determination result in the next step S4 is positive, and processing to display a map image is executed in step S5. Also, if an instruction to display a menu image is given, processor 81 switches the processing mode to the menu display mode. In this case, the determination result in the next step S6 is positive, and processing to display a menu image is executed in step S7. After step S22, processor 81 ends the player-related control processing.

ステップS23において、プロセッサ81は、プレイヤキャラクタに対する操作入力が受け付けられる操作受付期間であるか否かを判定する。ここで、本実施形態においては、プレイヤキャラクタに対する操作入力に応じてプレイヤキャラクタが所定の動作(例えば、後述するステップS30において制御される動作)を行っている動作期間は、操作受付期間から外されるものとする。ステップS23の判定結果が肯定である場合、ステップS24の処理が実行される。一方、ステップS23の判定結果が否定である場合、後述するステップS33の処理が実行される。 In step S23, the processor 81 determines whether or not it is an operation acceptance period during which operation input for the player character is accepted. In this embodiment, the operation period during which the player character is performing a predetermined operation (e.g., an operation controlled in step S30, described below) in response to operation input for the player character is excluded from the operation acceptance period. If the determination result in step S23 is positive, the process of step S24 is executed. On the other hand, if the determination result in step S23 is negative, the process of step S33, described below, is executed.

ステップS24において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、基準地点を解放するための操作入力が行われたか否かを判定する。すなわち、プロセッサ81は、基準地点の近傍にプレイヤキャラクタが位置する状態において、「しらべる」のコマンドを実行するための入力が行われたか否かを判定する。ステップS24の判定結果が肯定である場合、ステップS25の処理が実行される。一方、ステップS24の判定結果が否定である場合、後述するステップS29の処理が実行される。 In step S24, processor 81 determines whether or not an operation input has been made to release the reference point, based on the operation data acquired in step S1. That is, processor 81 determines whether or not an input has been made to execute the "search" command when the player character is located near the reference point. If the determination result in step S24 is positive, processing in step S25 is executed. On the other hand, if the determination result in step S24 is negative, processing in step S29, which will be described later, is executed.

ステップS25において、プロセッサ81は、上記操作入力が行われた基準地点を解放状態とする。例えば、プロセッサ81は、メモリに記憶されている、当該基準地点の状態を示すデータを、解放済みであることを示す内容に更新する。また、プロセッサ81は、基準地点を示す目印オブジェクトの位置に点光源を設定する。これによって、後述の描画処理においては、目印オブジェクトの周囲に光が当たるように描画が行われることとなる。ステップS25の次にステップS26の処理が実行される。 In step S25, the processor 81 sets the reference point where the above operation input was performed to a released state. For example, the processor 81 updates the data stored in memory indicating the state of the reference point to content indicating that the reference point has been released. The processor 81 also sets a point light source at the position of the landmark object indicating the reference point. As a result, in the drawing process described below, drawing is performed so that light shines on the periphery of the landmark object. Following step S25, the process of step S26 is executed.

ステップS26において、プロセッサ81は、解放イベントが発生した場合におけるイベントシーンを開始する。すなわち、プロセッサ81は、解放された基準地点の周囲が次第に明るくなっていく様子を示すアニメーションの再生を開始する。ステップS26の処理以降、上記アニメーションの再生が終了するまでは、上記ステップS2における判定結果は肯定となり、イベントシーンの実行が継続される。ステップS26の次にステップS27の処理が実行される。 In step S26, the processor 81 starts an event scene when a release event occurs. That is, the processor 81 starts playing an animation showing the surroundings of the released reference point gradually becoming brighter. After the processing of step S26, the determination result in step S2 above remains positive until the playback of the animation ends, and the execution of the event scene continues. Following step S26, the processing of step S27 is executed.

ステップS27において、プロセッサ81は、ステップS26で解放された基準地点に基づいて上述の解放領域を設定する。すなわち、プロセッサ81は、上記“[2-1.マップの開放領域の設定]”で述べた方法に従って設定される解放領域を示すマップマスクを生成する。具体的には、ゲーム処理の開始時においてメモリにはマップマスクのデータが記憶されており、プロセッサ81は、設定された解放領域を示すように当該データを更新する。ステップS27の処理によって、フィールドのうち、解放された基準地点を含む領域が解放領域に設定されることとなる。ステップS27の次にステップS28の処理が実行される。 In step S27, processor 81 sets the above-mentioned released area based on the reference point released in step S26. That is, processor 81 generates a map mask indicating the released area set according to the method described above in "[2-1. Setting the released area of the map]". Specifically, at the start of game processing, map mask data is stored in memory, and processor 81 updates this data to indicate the set released area. By the processing of step S27, an area of the field that includes the released reference point is set as the released area. Following step S27, the processing of step S28 is executed.

ステップS28において、プロセッサ81は、ステップS26で解放された基準地点に基づいて上述の照射範囲を設定する。すなわち、プロセッサ81は、上記“[2-2.照射範囲の設定]”で述べた方法に従って設定される照射範囲を示す上述の2次元範囲データを生成する。具体的には、ゲーム処理の開始時においてメモリには2次元範囲データが記憶されており、プロセッサ81は、設定された照射範囲を示すように当該データを更新する。ステップS27の処理によって、フィールドのうち、解放された基準地点を含む領域が照射範囲に設定されることとなる。ステップS28の後、プロセッサ81はプレイヤ関連制御処理を終了する。なお、ステップS25、S27、S28の処理は、このタイミングに限らず、その後のイベントシーン中の所定のタイミングで行われてもよい。 In step S28, processor 81 sets the above-mentioned illumination range based on the reference point released in step S26. That is, processor 81 generates the above-mentioned two-dimensional range data indicating the illumination range set according to the method described in "[2-2. Setting of illumination range]" above. Specifically, at the start of the game processing, two-dimensional range data is stored in memory, and processor 81 updates this data to indicate the set illumination range. By the processing of step S27, the area of the field including the released reference point is set as the illumination range. After step S28, processor 81 ends the player-related control processing. Note that the processing of steps S25, S27, and S28 is not limited to this timing, and may be performed at a predetermined timing during the subsequent event scene.

ステップS29において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、プレイヤキャラクタに対するアクション指示のための操作入力が行われたか否かを判定する。アクション指示は、プレイヤキャラクタに例えば攻撃動作やジャンプ動作等を行わせるための指示である。ステップS29の判定結果が肯定である場合、ステップS30の処理が実行される。一方、ステップS29の判定結果が否定である場合、後述するステップS31の処理が実行される。 In step S29, the processor 81 determines whether or not an operation input has been made to instruct the player character to take an action, based on the operation data acquired in step S1. An action instruction is an instruction to cause the player character to perform, for example, an attack action or a jump action. If the determination result in step S29 is positive, the process of step S30 is executed. On the other hand, if the determination result in step S29 is negative, the process of step S31, which will be described later, is executed.

ステップS30において、プロセッサ81は、ステップS29で行われたアクション指示に応じた動作をプレイヤキャラクタに開始させる。ステップS30でプレイヤキャラクタが動作を開始した後においては、後述するステップS33の処理によって、一定期間にわたって当該動作を行うようにプレイヤキャラクタが制御される。ステップS30の後、プロセッサ81はプレイヤ関連制御処理を終了する。 In step S30, processor 81 causes the player character to start an action corresponding to the action instruction made in step S29. After the player character starts an action in step S30, the player character is controlled to perform that action for a certain period of time by the processing of step S33 described below. After step S30, processor 81 ends the player-related control processing.

ステップS31において、プロセッサ81は、上記ステップS1において取得された操作データに基づいて、プレイヤキャラクタに対する移動指示のための操作入力が行われたか否かを判定する。移動指示は、フィールド上においてプレイヤキャラクタを移動させる動作を行わせるための指示である。ステップS31の判定結果が肯定である場合、ステップS32の処理が実行される。一方、ステップS31の判定結果が否定である場合、ステップS33の処理が実行される。 In step S31, the processor 81 determines whether or not an operation input has been made to instruct the player character to move, based on the operation data acquired in step S1. The movement instruction is an instruction to perform an action to move the player character on the field. If the determination result in step S31 is positive, the process of step S32 is executed. On the other hand, if the determination result in step S31 is negative, the process of step S33 is executed.

ステップS32において、プロセッサ81は、ステップS29で行われた移動指示に応じてプレイヤキャラクタをフィールド上において移動する動作をさせる。ステップS32の後、プロセッサ81はプレイヤ関連制御処理を終了する。 In step S32, processor 81 moves the player character on the field in response to the movement instruction made in step S29. After step S32, processor 81 ends the player-related control process.

ステップS33において、プロセッサ81は、ステップS30で開始された動作の進行や、何も入力されていない場合の動作等、各種の動作を行うようにプレイヤキャラクタを制御する。なお、1回のステップS33においては、プロセッサ81は、1フレーム時間分の動作の進行を行うようにプレイヤキャラクタを制御する。ステップS33の処理が複数フレームにわたって繰り返し実行されることで、アクション指示に応じた一連の動作をプレイヤキャラクタが行うこととなる。なお、プレイヤキャラクタが行うべき動作がプレイヤによって指示されていない場合(例えば、ステップS30で開始された動作が終了している場合)には、ステップS33において、プロセッサ81は、プレイヤキャラクタに動作を行わせなくてもよいし、プレイヤキャラクタの挙動を自然に見せるための動作(例えば、辺りを見回したり、体を揺らしたりする動作)を行わせてもよい。ステップS33の後、プロセッサ81はプレイヤ関連制御処理を終了する。 In step S33, the processor 81 controls the player character to perform various actions, such as the progress of the action started in step S30 and actions when nothing is input. In one step S33, the processor 81 controls the player character to perform an action for one frame time. The process of step S33 is repeatedly executed over multiple frames, so that the player character performs a series of actions according to the action instruction. In addition, if the action to be performed by the player character is not instructed by the player (for example, the action started in step S30 has ended), in step S33, the processor 81 may not cause the player character to perform an action, or may cause the player character to perform an action to make the player character's behavior look natural (for example, an action of looking around or shaking the body). After step S33, the processor 81 ends the player-related control process.

図26は、図24に示すステップS9の他オブジェクト制御処理の詳細な流れの一例を示すサブフローチャートである。他オブジェクト制御処理においては、まずステップS41において、プロセッサ81は、プレイヤキャラクタを除く制御対象となる各オブジェクトについて処理を完了したか否かを判定する。すなわち、上記各オブジェクトが、後述するステップS42において指定済みであるか否かを判定する。ステップS41の判定結果が否定である場合、ステップS42の処理が実行される。一方、ステップS41の判定結果が肯定である場合、プロセッサ81は他オブジェクト制御処理を終了する。 Figure 26 is a sub-flowchart showing an example of a detailed flow of the other object control processing of step S9 shown in Figure 24. In the other object control processing, first in step S41, processor 81 determines whether or not processing has been completed for each object to be controlled, excluding the player character. In other words, it determines whether or not each of the above objects has been specified in step S42, which will be described later. If the determination result in step S41 is negative, the processing of step S42 is executed. On the other hand, if the determination result in step S41 is positive, processor 81 ends the other object control processing.

ステップS42において、プロセッサ81は、制御対象となるオブジェクトのうちから、後述のステップS43の処理対象となる1つのオブジェクトを指定する。なお、ステップS42においては、今回のステップS41~S45の処理ループにおいてまだ処理対象となっていないオブジェクトが指定される。ステップS42の次に、ステップS43の処理が実行される。 In step S42, the processor 81 designates one object from among the objects to be controlled that is to be processed in step S43, which will be described later. Note that in step S42, an object that has not yet been the subject of processing in the current processing loop of steps S41 to S45 is designated. Following step S42, the processing of step S43 is executed.

ステップS43において、プロセッサ81は、ステップS42で指定されたオブジェクトの動作を制御する。例えば、当該オブジェクトが敵キャラクタである場合、ゲームプログラムにおいて定められたアルゴリズムに従って敵キャラクタの動作を制御する。また例えば、当該オブジェクトが光源アイテムである場合、プレイヤキャラクタ等の他のキャラクタによる動作に応じて(例えば、プレイヤキャラクタが光源アイテムを投げる動作に応じて)光源アイテムの移動を制御する。ステップS43の次に、ステップS44の処理が実行される。 In step S43, the processor 81 controls the action of the object specified in step S42. For example, if the object is an enemy character, the processor 81 controls the action of the enemy character according to an algorithm defined in the game program. Or, for example, if the object is a light source item, the processor 81 controls the movement of the light source item in response to the action of another character, such as the player character (for example, in response to the action of the player character throwing the light source item). Following step S43, the process of step S44 is executed.

ステップS44において、プロセッサ81は、上記ステップS43の処理結果に基づいて、アイテム配置イベントが発生したか否かを判定する。例えば、光源アイテムに関して、プレイヤキャラクタによって投げられた光源アイテムがフィールドにおける地面に配置された場合、プロセッサ81は、アイテム配置イベントが発生したと判定する。ステップS44の判定結果が肯定である場合、ステップS45の処理が実行される。一方、ステップS44の判定結果が否定である場合、ステップS41の処理が再度実行される。 In step S44, the processor 81 determines whether or not an item placement event has occurred based on the processing result of step S43. For example, with respect to a light source item, if the light source item thrown by the player character is placed on the ground in the field, the processor 81 determines that an item placement event has occurred. If the determination result of step S44 is positive, the processing of step S45 is executed. On the other hand, if the determination result of step S44 is negative, the processing of step S41 is executed again.

ステップS45において、プロセッサ81は、アイテム配置イベントの発生の要因となった光源アイテムの位置に点光源を設定する。これによって、後述の描画処理においては、光源アイテムの周囲に光が当たるように描画が行われることとなる。ステップS45の次に、ステップS41の処理が再度実行される。以降、ステップS41において制御対象となる全てのオブジェクトについて処理を完了したと判定されるまで、ステップS41~S45における一連の処理が繰り返し実行される。 In step S45, the processor 81 sets a point light source at the position of the light source item that caused the item placement event to occur. As a result, in the drawing process described below, drawing is performed so that light shines on the periphery of the light source item. After step S45, the process of step S41 is executed again. Thereafter, the series of processes in steps S41 to S45 are repeatedly executed until it is determined in step S41 that the process has been completed for all objects to be controlled.

図27は、図24に示すステップS10の描画処理の詳細な流れの一例を示すサブフローチャートである。描画処理においては、まずステップS51において、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた第1の段階における処理が完了したか否かを判定する。すなわち、描画対象となる各オブジェクト(例えば、仮想カメラの視野範囲内のオブジェクト)についてGバッファへの書き込みが完了したか否かを判定する。ステップS51の判定結果が肯定である場合、後述のステップS56の処理が実行される。一方、ステップS51の判定結果が否定である場合、ステップS52の処理が実行される。 Figure 27 is a sub-flowchart showing an example of the detailed flow of the drawing process in step S10 shown in Figure 24. In the drawing process, first in step S51, the processor 81 determines whether or not the processing in the first stage described above in "[2-3. Image generation process]" has been completed. In other words, it determines whether or not writing to the G buffer has been completed for each object to be drawn (for example, an object within the field of view of the virtual camera). If the determination result in step S51 is positive, the processing in step S56 described below is executed. On the other hand, if the determination result in step S51 is negative, the processing in step S52 is executed.

ステップS52において、プロセッサ81は、描画対象となるオブジェクトのうちから、後述のステップS53の処理対象となる1つのオブジェクトを指定する。なお、ステップS52においては、今回のステップS51~S55の処理ループにおいてまだ処理対象となっていないオブジェクトが指定される。ステップS52の次に、ステップS53の処理が実行される。 In step S52, the processor 81 designates one object from among the objects to be drawn that is to be processed in step S53, which will be described later. Note that in step S52, an object that has not yet been the subject of processing in the current processing loop of steps S51 to S55 is designated. Following step S52, the processing of step S53 is executed.

ステップS53において、プロセッサ81は、ステップS52で指定されたオブジェクトが上述の対象外オブジェクトであるか否かを判定する。ステップS53の判定結果が否定である場合、ステップS54の処理が実行される。一方、ステップS53の判定結果が肯定である場合、ステップS55の処理が実行される。 In step S53, the processor 81 determines whether or not the object specified in step S52 is the above-mentioned non-target object. If the determination result in step S53 is negative, the process of step S54 is executed. On the other hand, if the determination result in step S53 is positive, the process of step S55 is executed.

ステップS54において、プロセッサ81は、ステップS52で指定されたオブジェクトに関する情報をGバッファおよび深度バッファに書き込む。すなわち、プロセッサ81は、当該オブジェクトのポリゴンに対応する画素について、当該ポリゴンの位置、法線、色等の情報をGバッファに書き込み、深度情報を深度バッファに書き込む。なお、ステップS54における処理は、従来のディファードレンダリングにおける処理と同様であってよい。ステップS54の次に、ステップS51の処理が再度実行される。 In step S54, the processor 81 writes information about the object specified in step S52 to the G buffer and the depth buffer. That is, for pixels corresponding to polygons of the object, the processor 81 writes information such as the position, normal, and color of the polygon to the G buffer, and writes depth information to the depth buffer. Note that the processing in step S54 may be similar to processing in conventional deferred rendering. Following step S54, the processing of step S51 is executed again.

一方、ステップS55において、プロセッサ81は、ステップS52で指定されたオブジェクトに関する情報をGバッファおよび深度バッファに書き込むとともに、当該オブジェクトが対象外オブジェクトであることを示す情報をGバッファに書き込む。すなわち、プロセッサ81は、対象外オブジェクトに関する上記除外マスクのデータをGバッファに書き込む。ステップS55の次に、ステップS51の処理が再度実行される。 On the other hand, in step S55, the processor 81 writes information about the object specified in step S52 to the G buffer and the depth buffer, and writes information indicating that the object is a non-target object to the G buffer. In other words, the processor 81 writes the exclusion mask data about the non-target object to the G buffer. Following step S55, the process of step S51 is executed again.

ステップS56において、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた第2の段階における処理が完了したか否かを判定する。すなわち、ライトバッファおよび暗闇マスクにおける各画素への値の書き込みが完了したか否かを判定する。ステップS56の判定結果が肯定である場合、後述のステップS60の処理が実行される。一方、ステップS56の判定結果が否定である場合、ステップS57の処理が実行される。 In step S56, the processor 81 determines whether or not the processing in the second stage described above in "[2-3. Image generation processing]" has been completed. In other words, it determines whether or not writing of values to each pixel in the light buffer and the dark mask has been completed. If the determination result in step S56 is positive, the processing in step S60 described below is executed. On the other hand, if the determination result in step S56 is negative, the processing in step S57 is executed.

ステップS57において、プロセッサ81は、各画素のうちから、後述のステップS58の処理対象となる1つの画素を指定する。なお、ステップS57においては、今回のステップS56~S59の処理ループにおいてまだ処理対象となっていない画素が指定される。ステップS57の次に、ステップS58の処理が実行される。 In step S57, the processor 81 designates one pixel from among the pixels to be processed in step S58, which will be described later. Note that in step S57, a pixel that has not yet been the subject of processing in the current processing loop of steps S56 to S59 is designated. Following step S57, the processing of step S58 is executed.

ステップS58において、プロセッサ81は、ステップS57において指定された画素についてライトバッファへの書き込みを行う。すなわち、プロセッサ81は、環境光、および、ステップS45で設定された点光源に基づいて、当該画素における明るさの情報等を算出し、算出された情報をライトバッファに書き込む。なお、ステップS58における処理は、従来のディファードレンダリングにおける処理と同様であってよい。ステップS58の次に、ステップS59の処理が実行される。 In step S58, the processor 81 writes the pixel specified in step S57 to the light buffer. That is, the processor 81 calculates brightness information and the like for the pixel based on the ambient light and the point light source set in step S45, and writes the calculated information to the light buffer. Note that the processing in step S58 may be similar to processing in conventional deferred rendering. Following step S58, the processing in step S59 is executed.

ステップS59において、プロセッサ81は、ステップS57において指定された画素について暗闇マスクの生成(すなわち、暗闇マスク値の設定)を行う。具体的には、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた方法に従って当該画素における暗闇マスク値を算出する。具体的には、ゲーム処理の開始時においてメモリには暗闇マスクのデータが記憶されており、プロセッサ81は、照射範囲が新たに設定されたことに応じて当該データを更新する。例えば、プロセッサ81は、上記ステップS28の処理によって解放イベントに基づく照射範囲が設定されている場合、上記2次元範囲データに基づいて暗闇マスクを更新する。また、上記ステップS7のメニュー表示処理が実行されるメニュー表示モードによってプレイヤキャラクタが光る服を装備している場合、プレイヤキャラクタの位置に基づくキャラクタ影響範囲内の位置に対応する画素が照射範囲となるように上記暗闇マスクを更新する。さらに、上記ステップS45の処理によって点光源が設定されている場合、光源アイテムの位置に基づくアイテム影響範囲内の位置に対応する画素が照射範囲となるように上記暗闇マスクを更新する。ステップS59の次に、ステップS56の処理が再度実行される。 In step S59, the processor 81 generates a darkness mask (i.e., sets a darkness mask value) for the pixel specified in step S57. Specifically, the processor 81 calculates the darkness mask value for the pixel according to the method described in “[2-3. Image generation process]” above. Specifically, at the start of the game process, darkness mask data is stored in the memory, and the processor 81 updates the data in response to the new setting of the illumination range. For example, when an illumination range based on a release event is set by the process of step S28, the processor 81 updates the darkness mask based on the two-dimensional range data. Also, when the player character is equipped with glowing clothing in the menu display mode in which the menu display process of step S7 is executed, the darkness mask is updated so that the illumination range includes pixels corresponding to positions within the character influence range based on the position of the player character. Furthermore, when a point light source is set by the process of step S45, the darkness mask is updated so that the illumination range includes pixels corresponding to positions within the item influence range based on the position of the light source item. Following step S59, the process of step S56 is executed again.

ステップS60において、プロセッサ81は、上記“[2-3.画像生成処理]”で述べた第3の段階における処理が完了したか否かを判定する。すなわち、フレームバッファにおける各画素への値の書き込みが完了したか否かを判定する。ステップS60の判定結果が肯定である場合、プロセッサ81は図27に示す描画処理を終了する。一方、ステップS60の判定結果が否定である場合、ステップS61の処理が実行される。 In step S60, the processor 81 determines whether or not the processing in the third stage described above in "[2-3. Image generation processing]" has been completed. In other words, it determines whether or not writing of values to each pixel in the frame buffer has been completed. If the determination result in step S60 is positive, the processor 81 ends the drawing processing shown in FIG. 27. On the other hand, if the determination result in step S60 is negative, the processing in step S61 is executed.

ステップS61において、プロセッサ81は、各画素のうちから、後述のステップS62の処理対象となる1つの画素を指定する。なお、ステップS61においては、今回のステップS60~S62の処理ループにおいてまだ処理対象となっていない画素が指定される。ステップS61の次に、ステップS62の処理が実行される。 In step S61, the processor 81 designates one pixel from among the pixels to be processed in step S62, which will be described later. Note that in step S61, a pixel that has not yet been the subject of processing in the current processing loop of steps S60 to S62 is designated. Following step S61, the processing of step S62 is executed.

ステップS62において、プロセッサ81は、ステップS61で指定された画素についての画素値を算出してフレームバッファに書き込む。すなわち、プロセッサ81は、各バッファ(すなわち、Gバッファ、深度バッファ、および、ライトバッファ)に書き込まれた情報および暗闇マスクに基づいて、上記“[2-3.画像生成処理]”で述べた方法に従って、当該画素における画素値を算出する。具体的には、プロセッサ81は、Gバッファ、深度バッファ、および、ライトバッファの情報に基づいて、光源による光の影響が反映された画素値を算出し、さらに、算出された画素値と、暗闇マスクにおける暗闇マスク値とに基づいて、暗闇を反映した画素値を算出する。これによって、光源による光の影響および暗闇が反映された画素値がフレームバッファに書き込まれることとなる。ステップS62の次に、ステップS60の処理が再度実行される。 In step S62, the processor 81 calculates a pixel value for the pixel specified in step S61 and writes it to the frame buffer. That is, the processor 81 calculates the pixel value for the pixel according to the method described in "[2-3. Image generation process]" above, based on the information written to each buffer (i.e., the G buffer, the depth buffer, and the light buffer) and the darkness mask. Specifically, the processor 81 calculates a pixel value that reflects the influence of light from the light source based on the information in the G buffer, the depth buffer, and the light buffer, and further calculates a pixel value that reflects darkness based on the calculated pixel value and the darkness mask value in the darkness mask. In this way, the pixel value that reflects the influence of light from the light source and darkness is written to the frame buffer. Following step S62, the process of step S60 is executed again.

なお、上述したように、上記ステップS10の描画処理は、フォワードレンダリングに基づく方法で実行されてもよい。図28は、フォワードレンダリングに基づく方法で実行される描画処理の詳細な流れの一例を示すサブフローチャートである。ゲームシステム1は、ステップS10の描画処理として、図27に示す処理に代えて、図28に示す処理を実行してもよい。 As described above, the drawing process of step S10 may be performed by a method based on forward rendering. FIG. 28 is a sub-flowchart showing an example of a detailed flow of the drawing process performed by a method based on forward rendering. The game system 1 may perform the process shown in FIG. 28 as the drawing process of step S10 instead of the process shown in FIG. 27.

図28に示す描画処理においては、まずステップS71において、プロセッサ81は、描画対象となる各オブジェクト(例えば、仮想カメラの視野範囲内のオブジェクト)について描画が完了したか否かを判定する。ステップS71の判定結果が肯定である場合、プロセッサ81は、図28に示す描画処理を終了する。一方、ステップS71の判定結果が否定である場合、ステップS72の処理が実行される。 In the drawing process shown in FIG. 28, first, in step S71, the processor 81 determines whether or not drawing has been completed for each object to be drawn (e.g., an object within the field of view of the virtual camera). If the determination result in step S71 is positive, the processor 81 ends the drawing process shown in FIG. 28. On the other hand, if the determination result in step S71 is negative, the process of step S72 is executed.

ステップS72において、プロセッサ81は、描画対象となるオブジェクトのうちから、以降のステップS73~S81の処理対象となる1つのオブジェクトを指定する。なお、ステップS72においては、今回のステップS71~S81の処理ループにおいてまだ処理対象となっていないオブジェクトが指定される。ステップS72の次に、ステップS73の処理が実行される。 In step S72, the processor 81 designates one object from among the objects to be drawn that will be the subject of processing in the subsequent steps S73 to S81. Note that in step S72, an object that has not yet been the subject of processing in the current processing loop of steps S71 to S81 is designated. Following step S72, the processing of step S73 is executed.

ステップS73において、プロセッサ81は、ステップS72で指定されたオブジェクトが上述の対象外オブジェクトであるか否かを判定する。ステップS73の判定結果が肯定である場合、ステップS74の処理が実行される。一方、ステップS73の判定結果が否定である場合、ステップS75の処理が実行される。 In step S73, the processor 81 determines whether or not the object specified in step S72 is the above-mentioned non-target object. If the determination result in step S73 is positive, the process of step S74 is executed. On the other hand, if the determination result in step S73 is negative, the process of step S75 is executed.

ステップS74において、プロセッサ81は、ステップS52で指定されたオブジェクトについて(すなわち、当該オブジェクトに対応する各画素について)、当該オブジェクトに予め設定される描画設定に基づいて描画を行う。これによって、当該オブジェクトが自発光オブジェクトである場合には、当該オブジェクト自身が光って見えるように描画されたり、当該オブジェクトが上記所定の種類のキャラクタである場合には、当該オブジェクトは陰が付されて見えるように描画されたりする。ステップS74の次に、上記ステップS71の処理が再度実行される。 In step S74, the processor 81 performs drawing for the object specified in step S52 (i.e., for each pixel corresponding to the object) based on the drawing settings previously set for the object. As a result, if the object is a self-luminous object, the object is drawn so that it appears to glow, and if the object is a character of the above-mentioned predetermined type, the object is drawn so that it appears to be shaded. Following step S74, the process of step S71 above is executed again.

ステップS75において、プロセッサ81は、ステップS72で指定されたオブジェクトの各ポリゴンについて描画が完了したか否かを判定する。ステップS75の判定結果が肯定である場合、当該オブジェクトに関する描画が完了したこととなるので、上記ステップS71の処理が再度実行される。一方、ステップS75の判定結果が否定である場合、ステップS76の処理が実行される。 In step S75, the processor 81 determines whether or not drawing has been completed for each polygon of the object specified in step S72. If the determination result in step S75 is positive, drawing for the object is completed, and the processing of step S71 is executed again. On the other hand, if the determination result in step S75 is negative, the processing of step S76 is executed.

ステップS76において、プロセッサ81は、ステップS72で指定されたオブジェクトの各ポリゴンのうち1つを指定する。なお、ステップS76においては、今回のステップS75~S81の処理ループにおいてまだ処理対象となっていないポリゴンが指定される。ステップS76の次に、ステップS77の処理が実行される。 In step S76, the processor 81 designates one of the polygons of the object designated in step S72. Note that in step S76, a polygon that has not yet been the subject of processing in the current processing loop of steps S75 to S81 is designated. Following step S76, the processing of step S77 is executed.

ステップS77において、プロセッサ81は、ステップS76で指定されたポリゴンに対応する各画素について描画が完了したか否かを判定する。ステップS77の判定結果が肯定である場合、当該ポリゴンに関する描画が完了したこととなるので、上記ステップS75の処理が再度実行される。一方、ステップS77の判定結果が否定である場合、ステップS78の処理が実行される。 In step S77, the processor 81 determines whether or not drawing has been completed for each pixel corresponding to the polygon specified in step S76. If the determination result in step S77 is positive, drawing for the polygon is completed, and the processing of step S75 is executed again. On the other hand, if the determination result in step S77 is negative, the processing of step S78 is executed.

ステップS78において、プロセッサ81は、ステップS76で指定されたポリゴンに対応する各画素のうち1つを指定する。なお、ステップS78においては、今回のステップS77~S81の処理ループにおいてまだ処理対象となっていない画素が指定される。ステップS78の次に、ステップS79の処理が実行される。 In step S78, the processor 81 designates one of the pixels corresponding to the polygon designated in step S76. Note that in step S78, a pixel that has not yet been the subject of processing in the current processing loop of steps S77 to S81 is designated. Following step S78, the processing of step S79 is executed.

ステップS79において、プロセッサ81は、ステップS78で指定された画素に対応する位置(すなわち、フィールドにおける位置)が照射範囲内であるか否かを判定する。なお、図28に示す描画処理によって描画が行われる実施形態では、プロセッサ81は、上記ステップS28において解放イベントに基づく照射範囲を設定し、上記ステップS7のメニュー表示処理においてプレイヤキャラクタが光る服を装備した場合には、プレイヤキャラクタの位置に基づく照射範囲を設定し、上記ステップS45の処理において点光源が設定された場合には、光源アイテムの位置に基づく照射範囲を設定する。ステップS79の判定結果が肯定である場合、ステップS80の処理が実行される。一方、ステップS79の判定結果が否定である場合、ステップS81の処理が実行される。 In step S79, the processor 81 determines whether or not the position corresponding to the pixel specified in step S78 (i.e., the position in the field) is within the illumination range. In an embodiment in which drawing is performed by the drawing process shown in FIG. 28, the processor 81 sets the illumination range based on the release event in step S28, sets the illumination range based on the position of the player character if the player character is equipped with glowing clothing in the menu display process in step S7, and sets the illumination range based on the position of the light source item if a point light source was set in the process of step S45. If the determination result in step S79 is positive, the process of step S80 is executed. On the other hand, if the determination result in step S79 is negative, the process of step S81 is executed.

ステップS80において、プロセッサ81は、ステップS78で指定された画素について、フィールドに設定される光源(すなわち、環境光および/または点光源)を反映して描画を行う。具体的には、プロセッサ81は、当該画素に対応するポリゴンの法線の情報、当該画素に対応するポリゴンに設定される色の情報、および、フィールドに設定される光源の情報等に基づいて当該画素の画素値を算出してフレームバッファに書き込む。これによって、照射範囲内の位置に対応する画素については、光源を考慮して描画が行われることとなる。なお、ステップS80における処理は、従来のフォワードレンダリングに基づく描画処理と同様であってよい。ステップS80の次に、ステップS77の処理が再度実行される。 In step S80, the processor 81 performs drawing for the pixel specified in step S78, reflecting the light source (i.e., ambient light and/or point light source) set in the field. Specifically, the processor 81 calculates the pixel value of the pixel based on information on the normal of the polygon corresponding to the pixel, information on the color set for the polygon corresponding to the pixel, and information on the light source set in the field, and writes the pixel value to the frame buffer. As a result, pixels corresponding to positions within the illumination range are drawn taking the light source into consideration. The process in step S80 may be the same as the drawing process based on conventional forward rendering. Following step S80, the process of step S77 is executed again.

一方、ステップS81において、プロセッサ81は、ステップS78で指定された画素について、黒色で描画を行う。これによって、照射範囲外の位置に対応する画素については黒色で描画されることとなる。ステップS81の次に、ステップS77の処理が再度実行される。 On the other hand, in step S81, the processor 81 draws the pixels specified in step S78 in black. As a result, pixels that correspond to positions outside the irradiation range are drawn in black. Following step S81, the process of step S77 is executed again.

なお、図28に示す描画処理においても図27に示す描画処理と同様、照射範囲内において照射範囲の境界に近づくにつれて次第に黒色が濃くなっていくように描画が行われてもよい。例えば、上記ステップS80において、プロセッサ81は、ステップS78で指定された画素について、上述の暗闇マスク値を算出し、光源による光の影響が反映された画素値と黒色とを、暗闇マスク値に応じた割合で合成することで当該画素の画素値を算出してもよい。 In the drawing process shown in FIG. 28, as in the drawing process shown in FIG. 27, drawing may be performed such that within the illumination range, the black becomes gradually darker as the boundary of the illumination range is approached. For example, in the above step S80, the processor 81 may calculate the above-mentioned darkness mask value for the pixel specified in step S78, and calculate the pixel value of the pixel by combining the pixel value reflecting the effect of light from the light source and black in a ratio according to the darkness mask value.

[4.本実施形態の作用効果および変形例]
上記の実施形態におけるゲームプログラムは、情報処理装置(例えば、ゲーム装置2)のコンピュータ(例えば、プロセッサ81)に、次の処理を実行させる構成である。
・操作入力に基づいて、プレイヤキャラクタを仮想空間(上記実施形態においては、フィールド)内において制御するゲーム処理(ステップS32)
・ゲーム処理に基づいて所定のイベント(例えば、解放イベント)が発生した場合に、仮想空間内に設定された複数の地点(例えば、基準地点)のうち、発生したイベントに対応付けられる地点を第1の状態(例えば、未解放の状態)から第2の状態(例えば、解放された状態)へ遷移させる処理(ステップS25)
・地点に対応する位置において第1の基準値となり、当該位置からの距離に応じて減衰する第1判定値について、複数の地点のうち第2の状態となっている1つ以上の地点に基づく当該第1判定値を位置ごとに合計した合計判定値が所定値以上となる領域(上記実施形態においては、解放領域)を特定する処理(ステップS27)
・操作入力により行われるマップ表示指示に応じて、仮想空間のフィールド情報を示すマップ画像であって、上記領域に対応する部分のフィールド情報が示されたマップ画像を表示する処理(ステップS5)
[4. Effects and Modifications of the Present Embodiment]
The game program in the above embodiment is configured to cause a computer (eg, processor 81) of an information processing device (eg, game device 2) to execute the following processes.
Game processing for controlling a player character in a virtual space (a field in the above embodiment) based on operational input (step S32)
When a predetermined event (e.g., a release event) occurs based on the game processing, a process of transitioning a point associated with the occurring event, among a plurality of points (e.g., reference points) set in the virtual space, from a first state (e.g., an unreleased state) to a second state (e.g., a released state) (step S25).
A process of identifying a region (in the above embodiment, a release region) in which a total determination value obtained by adding up the first determination value based on one or more points in the second state among the multiple points for each position, the first determination value being a first reference value at a position corresponding to the point and attenuating according to the distance from the point, is equal to or greater than a predetermined value (step S27).
A process of displaying a map image showing field information of a virtual space, the map image showing field information of a portion corresponding to the above-mentioned area, in response to a map display instruction given by an operation input (step S5).

上記の構成によれば、解放されるマップ画像の範囲(すなわち、解放領域の範囲)を、複数のイベントの発生の有無に応じて変化させることができる。また、複数の上記地点のうちでどの地点が第2の状態となっているかによって、仮想空間の各位置における合計判定値が様々に変化するので、各地点における状態に応じて(すなわち、各地点におけるイベントの発生状況に応じて)解放領域を様々に変化させることができる。 According to the above configuration, the range of the map image that is released (i.e., the range of the released area) can be changed depending on whether or not multiple events have occurred. In addition, since the total determination value at each position in the virtual space varies depending on which of the multiple points is in the second state, the released area can be changed in various ways depending on the state at each point (i.e., depending on the occurrence status of events at each point).

なお、解放領域を特定する処理は、上記実施形態においては、イベントが発生したタイミングで実行される(図25のステップS27参照)が、当該処理を実行するタイミングはこれに限らない。他の実施形態においては、解放領域を特定する処理は、マップ画像を生成する度に実行されてもよいし、イベント発生後において次にマップ画像を生成するタイミングで実行されてもよい。 In the above embodiment, the process of identifying the released area is executed when an event occurs (see step S27 in FIG. 25), but the timing of executing the process is not limited to this. In other embodiments, the process of identifying the released area may be executed each time a map image is generated, or may be executed when the next map image is generated after the event occurs.

上記所定のイベントは、上記実施形態においては、地点に対応して仮想空間内に設定されたイベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベントであり、具体的には、解放イベントであった。ここで、「イベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベント」とは、解放イベントに限らず、他のイベントであってもよい。例えば、上記所定のイベントは、仮想空間におけるイベント発生位置にプレイヤキャラクタが到達するイベント(この例において、プレイヤキャラクタをイベント発生位置に移動させる操作入力が、所定の操作に該当する)であってもよいし、仮想空間におけるイベント発生位置においてプレイヤキャラクタが特定のアイテムを使用するイベント(この例において、アイテムを使用させる操作入力が、所定の操作に該当する)であってもよい。また、他の実施形態においては、上記所定のイベントは、イベント発生位置にプレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベントに限らず、他の種類のイベント(例えば、所定の操作入力を条件としないイベント)であってもよい。 In the above embodiment, the above-mentioned predetermined event is an event that occurs when a predetermined operation input is made when the player character is located at an event occurrence position set in the virtual space corresponding to the location, and specifically, it is a release event. Here, "an event that occurs when a predetermined operation input is made when the player character is located at the event occurrence position" is not limited to a release event, but may be other events. For example, the above-mentioned predetermined event may be an event in which the player character reaches the event occurrence position in the virtual space (in this example, the operation input that moves the player character to the event occurrence position corresponds to the predetermined operation), or an event in which the player character uses a specific item at the event occurrence position in the virtual space (in this example, the operation input that causes the item to be used corresponds to the predetermined operation). In other embodiments, the above-mentioned predetermined event is not limited to an event that occurs when a predetermined operation input is made when the player character is located at the event occurrence position, but may be other types of events (for example, an event that does not require a predetermined operation input).

また、上記実施形態におけるゲームプログラムは、情報処理装置(例えば、ゲーム装置2)のコンピュータ(例えば、プロセッサ81)に、次の処理を実行させる構成であると言うこともできる。
・ゲーム処理に基づいて所定のイベント(例えば、照射イベント)が発生した場合に、仮想空間内に対象範囲(例えば、照射範囲)を設定する処理(ステップS28、ステップS59)
・仮想空間の描画を行う描画処理において、仮想空間内の少なくとも一部の地形オブジェクトについて、対象範囲に含まれる部分を、仮想空間内に設定された光源を反映して描画させ、対象範囲に含まれない部分を、所定の色によって描画する処理(ステップS62)
Furthermore, it can also be said that the game program in the above-described embodiment is configured to cause a computer (eg, processor 81) of an information processing device (eg, game device 2) to execute the following processes.
When a predetermined event (e.g., a lighting event) occurs based on the game processing, a process of setting a target range (e.g., a lighting range) in a virtual space (steps S28 and S59).
In a rendering process for rendering a virtual space, a process of rendering a portion of at least a part of a terrain object in the virtual space that is included in a target range by reflecting a light source set in the virtual space, and rendering a portion that is not included in the target range in a predetermined color (step S62).

上記の構成によれば、仮想空間における視認性の低い領域と視認性が確保された領域とをイベントの発生に応じて動的に変更することができる。これによって、フィールドのうちで視認可能な部分を、イベントを発生させることで増やしていくゲームを提供することができる。また、上記の構成によれば、対象範囲の部分については光源を反映して描画することで、視認しやすくすることができる一方、対象範囲外の部分については所定の色によって描画することで、当該部分を視認不可能または視認困難とすることができる。このように、上記の構成によれば、ゲームフィールドにおける領域の視認性を調整しやすくすることができる。 According to the above configuration, areas of low visibility and areas of guaranteed visibility in the virtual space can be dynamically changed in response to the occurrence of an event. This makes it possible to provide a game in which the visible parts of the field are increased by the occurrence of an event. Furthermore, according to the above configuration, the parts within the target range can be rendered reflecting the light source, making them easier to see, while the parts outside the target range can be rendered in a predetermined color, making those parts invisible or difficult to see. In this way, according to the above configuration, it is possible to easily adjust the visibility of areas in the game field.

上記対象範囲を設定する処理は、3次元の仮想空間において範囲を設定する処理(例えば、上述したキャラクタ影響範囲およびアイテム影響範囲を仮想空間において設定する処理)であってもよいし、仮想空間に対応する2次元平面において範囲を設定する処理(例えば、上述のフィールド対応平面において2次元範囲データを生成する処理)であってもよい。また、対象範囲は、概念としては仮想空間における範囲を示すものであるが、対象範囲を示すデータは、仮想空間の位置に関するデータに限らず、仮想空間に対応する2次元平面上の位置に関するデータ(例えば、上記2次元範囲データ)であってもよいし、仮想空間に対応する画素平面上の位置に関するデータ(例えば、暗闇マスクのデータ)であってもよい。 The process of setting the target range may be a process of setting a range in a three-dimensional virtual space (e.g., a process of setting the character influence range and item influence range in the virtual space) or a process of setting a range in a two-dimensional plane corresponding to the virtual space (e.g., a process of generating two-dimensional range data in the field-corresponding plane). Furthermore, while the target range conceptually indicates a range in virtual space, the data indicating the target range is not limited to data regarding a position in virtual space, but may be data regarding a position on a two-dimensional plane corresponding to the virtual space (e.g., the two-dimensional range data) or data regarding a position on a pixel plane corresponding to the virtual space (e.g., darkness mask data).

上記「少なくとも一部の地形オブジェクト」とは、全ての地形オブジェクトについて対象範囲に応じて描画の方法を変化させる必要はない意図である。例えば、地形オブジェクトの一部は上述の対象外オブジェクトに設定されてもよい。 The above phrase "at least some terrain objects" means that it is not necessary to change the drawing method for all terrain objects depending on the target range. For example, some terrain objects may be set as the above-mentioned non-target objects.

上記実施形態においては、ゲームシステム1は、対象範囲に含まれない部分のオブジェクトを、黒色で描画するものとしたが、他の色で描画するようにしてもよい。他の色で描画する場合であっても当該部分を視認不可能または視認困難とすることができるので、上記実施形態と同様の効果を得ることができる。例えば、ゲームのストーリー上の設定において、霧がかかっているために視認不可能または視認困難とする領域については、ゲームシステム1は白色または灰色で描画するようにしてもよい。また、上記「所定の色」とは、描画を行う画素に対応するオブジェクトに設定される色とは独立して設定される色であり、単色である必要はない。対象範囲に含まれない部分に対応する複数の画素は、複数種類の所定の色によって模様が形成されるように描画されてもよい。 In the above embodiment, the game system 1 draws the object in the part not included in the target range in black, but it may be drawn in another color. Even if it is drawn in another color, the part can be made invisible or difficult to see, so the same effect as the above embodiment can be obtained. For example, in the setting of the game story, the game system 1 may draw in white or gray an area that is invisible or difficult to see because of fog. In addition, the above "predetermined color" is a color that is set independently of the color that is set for the object corresponding to the pixel to be drawn, and does not need to be a single color. A plurality of pixels corresponding to the part not included in the target range may be drawn so that a pattern is formed with multiple types of predetermined colors.

また、他の実施形態においては、ゲームシステム1は、対象範囲に含まれない部分のオブジェクトを、明るさを下げて描画する構成を採用してもよい。例えば、ゲームシステム1は、当該部分のオブジェクトを、光源が設定される場合における当該画素よりも明るさを下げて描画するようにしてもよい。具体的には、ゲームシステム1は、描画処理において、対象範囲に含まれない部分のオブジェクトに対応する画素について、光源による光の影響を反映した画素値から明るさを下げた画素値をフレームバッファに書き込むようにしてもよい。なお、明るさを下げる具体的な方法は任意であり、元の明るさ(すなわち、光源による光の影響を考慮したときの明るさ)を所定の割合で下げるようにしてもよいし、元の明るさを所定量だけ下げるようにしてもよいし、所定の基準以下となるように明るさを下げるようにしてもよい。上記の構成によっても、上記実施形態と同様の効果を得ることができる。 In another embodiment, the game system 1 may be configured to draw the object in the portion not included in the target range with a lower brightness. For example, the game system 1 may draw the object in the portion with a lower brightness than the pixel in the case where a light source is set. Specifically, the game system 1 may write, in the drawing process, pixel values in which the brightness is lowered from the pixel value reflecting the influence of light from the light source for the pixels corresponding to the object in the portion not included in the target range to the frame buffer. Note that the specific method of lowering the brightness is arbitrary, and the original brightness (i.e., the brightness when the influence of light from the light source is taken into account) may be lowered by a predetermined percentage, the original brightness may be lowered by a predetermined amount, or the brightness may be lowered to be equal to or lower than a predetermined standard. With the above configuration, the same effect as in the above embodiment can be obtained.

また、上記実施形態におけるゲームプログラムは、情報処理装置(例えば、ゲーム装置2)のコンピュータ(例えば、プロセッサ81)に、次の処理を実行させる構成であると言うこともできる。
・操作入力に基づいてプレイヤキャラクタを仮想空間内において制御するゲーム処理(ステップS32)
・ゲーム処理に基づいて所定のイベント(例えば、解放イベント)が発生した場合に、仮想空間内に設定された複数の地点(例えば、基準地点)のうち、発生したイベントに対応付けられる地点を第1の状態(例えば、未解放の状態)から第2の状態(例えば、解放された状態)へ遷移させる処理(ステップS25)
・複数の地点のうち第2の状態となっている地点を少なくとも含む領域(上記実施形態においては、解放領域)を特定する処理(ステップS27)
・仮想空間内の少なくとも一部の地形オブジェクトについて、上記領域の少なくとも一部を含む対象範囲(例えば、照射範囲)に含まれない部分を、所定の色によって描画する描画処理(ステップS62)
・操作入力により行われるマップ表示指示に応じて、仮想空間のフィールド情報を示すマップ画像であって、解放領域に対応する部分のフィールド情報が示されたマップ画像を表示する処理(ステップS5)
Furthermore, it can also be said that the game program in the above-described embodiment is configured to cause a computer (eg, processor 81) of an information processing device (eg, game device 2) to execute the following processes.
Game processing for controlling a player character in a virtual space based on operational input (step S32)
When a predetermined event (e.g., a release event) occurs based on the game processing, a process of transitioning a point associated with the occurring event, among a plurality of points (e.g., reference points) set in the virtual space, from a first state (e.g., an unreleased state) to a second state (e.g., a released state) (step S25).
A process of identifying an area (in the above embodiment, a released area) that includes at least a point in the second state among the multiple points (step S27)
A rendering process for rendering, in a predetermined color, the portions of at least a part of the terrain object in the virtual space that are not included in a target range (e.g., an illumination range) that includes at least a part of the above-mentioned area (step S62).
A process of displaying a map image showing field information of a virtual space, the map image showing field information of a portion corresponding to an open area, in response to a map display instruction given by an operational input (step S5).

上記の構成によれば、マップ画像においてフィールド情報が示されない領域の変化に応じて、仮想空間において視認性が確保される範囲(すなわち、上記対象範囲)を変化させることができる。すなわち、マップ画像において新たにフィールド情報が示されるようになった解放領域について、視認性が確保される表示態様で仮想空間が表示されるようにすることができる。また、上記の構成によれば、イベントの発生に応じて、仮想空間において視認性が確保される範囲が拡がるとともに、マップ画像においてフィールド情報が示される領域も拡がるので、イベントを発生させることで探索範囲を拡げていくというゲーム性が十分に発揮されるゲームを提供することができる。 According to the above configuration, the range in which visibility is ensured in the virtual space (i.e., the above target range) can be changed in response to changes in the areas in the map image where field information is not displayed. In other words, the virtual space can be displayed in a display mode that ensures visibility for the released areas in the map image where field information is now newly displayed. Furthermore, according to the above configuration, the range in which visibility is ensured in the virtual space expands in response to the occurrence of an event, and the area in the map image where field information is displayed also expands, so it is possible to provide a game that fully utilizes the gameplay of expanding the search range by generating an event.

なお、他の実施形態においては、上記の構成における描画処理において、ゲームシステム1は、対象範囲に含まれない部分を所定の色によって描画することに代えて、対象範囲に含まれない部分を、対象範囲に含まれる部分より暗く描画するようにしてもよい。具体的には、ゲームシステム1は、描画処理において、光源による光の影響を反映した画素値に対して、明るさを所定の方法で低下させた画素値をフレームバッファに書き込むようにしてもよい。所定の方法は、例えば、元の明るさを所定の割合で(または所定値だけ)低下させる方法であってもよいし、所定の基準以下の明るさとなるように明るさを変更する方法であってもよい。 In another embodiment, in the drawing process in the above configuration, instead of drawing the parts not included in the target range in a predetermined color, the game system 1 may draw the parts not included in the target range darker than the parts included in the target range. Specifically, in the drawing process, the game system 1 may write pixel values that reflect the effect of light from the light source, with the brightness reduced in a predetermined manner, to the frame buffer. The predetermined method may be, for example, a method of reducing the original brightness by a predetermined percentage (or by a predetermined value), or a method of changing the brightness so that it is below a predetermined standard.

上記実施形態においては、ゲームシステム1は、上記対象範囲として、(a)複数の地点のうち第2の状態となっている1つ以上の地点に基づく1つ以上の判定値を少なくとも合計した合計判定値が所定値以上となる位置からなる範囲内であり、かつ、(b)地点に対応する2次元的な位置からの2次元的な距離がしきい値以下となる範囲(すなわち、解放領域の範囲内であり、かつ、地点影響範囲内となる範囲)を設定する。これによれば、仮想空間において視認性が確保される範囲が大きくなりすぎることを抑制することができるので、イベントを発生させることで探索範囲を拡げていくというゲーム性が失われる可能性を低減することができる。 In the above embodiment, the game system 1 sets, as the target range, (a) a range consisting of positions where a total judgment value obtained by adding up at least one or more judgment values based on one or more of the multiple positions that are in the second state is equal to or greater than a predetermined value, and (b) a range where the two-dimensional distance from a two-dimensional position corresponding to the position is equal to or less than a threshold value (i.e., a range within the released area and within the position influence range). This makes it possible to prevent the range where visibility is ensured in the virtual space from becoming too large, thereby reducing the possibility of losing the gameplay of expanding the search range by generating an event.

なお、上記の実施形態において、ある情報処理装置においてデータ(プログラムを含む意味である)を用いて処理が実行される場合、当該処理に必要なデータの一部が、当該ある情報処理装置とは異なる他の情報処理装置から送信されてもよい。このとき、当該ある情報処理装置は、他の情報処理装置から受信されたデータと、自身に記憶されているデータとを用いて上記処理を実行してもよい。 In the above embodiment, when a process is executed using data (meaning a program) in an information processing device, a portion of the data required for the process may be transmitted from another information processing device different from the information processing device. In this case, the information processing device may execute the process using the data received from the other information processing device and the data stored in the information processing device.

なお、他の実施形態において、情報処理システムは、上記実施形態における構成の一部を備えていなくてもよいし、上記実施形態において実行される処理の一部を実行しなくてもよい。例えば、情報処理システムは、上記実施形態における一部の特定の効果を奏するためには、当該効果を奏するための構成を備え、当該効果を奏するための処理を実行すればよく、その他の構成を備えていなくてもよいし、その他の処理を実行しなくてもよい。 In other embodiments, the information processing system may not have some of the configurations in the above embodiments, and may not execute some of the processes executed in the above embodiments. For example, in order to achieve some of the specific effects in the above embodiments, the information processing system only needs to have a configuration for achieving that effect and execute processes for achieving that effect, and may not have other configurations or execute other processes.

上記実施形態は、マップ画像において解放される領域の形状を、複数のイベントそれぞれの発生の有無に応じた形状にすること等を目的として、例えば、ゲームシステムやゲームプログラムとして利用することが可能である。 The above embodiment can be used, for example, as a game system or game program, with the aim of changing the shape of the area that is released on the map image according to whether or not each of multiple events has occurred.

1 ゲームシステム
2 本体装置
81 プロセッサ
201 プレイヤキャラクタ
202 基準地点
203 目印オブジェクト
Reference Signs List 1 Game system 2 Main unit 81 Processor 201 Player character 202 Reference point 203 Marking object

Claims (28)

情報処理装置のコンピュータに、
操作入力に基づいて、プレイヤキャラクタを仮想空間内において制御するゲーム処理を実行させ、
前記ゲーム処理に基づいて所定のイベントが発生した場合に、前記仮想空間内に設定された複数の地点のうち、発生した前記所定のイベントに対応付けられる地点を第1の状態から第2の状態へ遷移させ、
前記地点に対応する位置において第1基準値となり、当該位置からの距離に応じて減衰する第1判定値について、前記複数の地点のうち前記第2の状態となっている1つ以上の地点に基づく当該第1判定値を位置ごとに合計した合計判定値が所定値以上となる領域を特定させ、
前記仮想空間のフィールド情報を示すマップ画像であって、前記領域に対応する部分のフィールド情報が示されたマップ画像を表示させる、
ゲームプログラム。
The computer of the information processing device
executing a game process for controlling a player character in a virtual space based on an operation input;
when a predetermined event occurs based on the game processing, a point associated with the occurring predetermined event among a plurality of points set in the virtual space is transitioned from a first state to a second state;
a region is identified in which a total determination value obtained by adding up the first determination value for each position based on one or more points among the plurality of points that are in the second state, the first determination value being a first reference value at a position corresponding to the point and attenuating according to the distance from the point, is equal to or greater than a predetermined value;
displaying a map image showing field information of the virtual space, the map image showing field information of a portion corresponding to the area;
Game program.
前記マップ画像は、前記フィールド情報を2次元的に示す画像であって、
前記第1判定値は、前記地点に対応する2次元的な位置からの2次元的な距離に応じて減衰する値である、
請求項1に記載のゲームプログラム。
The map image is an image showing the field information two-dimensionally,
The first determination value is a value that attenuates according to a two-dimensional distance from a two-dimensional position corresponding to the point.
The game program according to claim 1 .
前記複数の地点のそれぞれについて設定される前記第1基準値は、前記複数の地点ごとに大きさが設定される、
請求項2に記載のゲームプログラム。
The first reference value set for each of the plurality of points has a magnitude set for each of the plurality of points.
The game program according to claim 2.
前記合計判定値は、前記複数の地点のうちの前記第2の状態となっている1つ以上の地点についての前記第1判定値の合計から、前記複数の地点のうちの前記第1の状態となっている1つ以上の地点についての第2判定値の合計を減算した値であり、
前記第2判定値は、前記地点に対応する位置において、前記第1基準値と同じまたは異なる第2基準値となり、当該位置からの距離に応じて減衰する値である、
請求項3に記載のゲームプログラム。
the total determination value is a value obtained by subtracting a sum of the second determination values for one or more locations among the plurality of locations that are in the first state from a sum of the first determination values for one or more locations among the plurality of locations that are in the second state,
The second determination value is a second reference value that is the same as or different from the first reference value at a position corresponding to the point, and is a value that attenuates depending on the distance from the position.
The game program according to claim 3.
前記所定のイベントは、前記地点に対応して前記仮想空間内に設定されたイベント発生位置に前記プレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベントである、
請求項1から請求項4のいずれか1項に記載のゲームプログラム。
the predetermined event is an event that occurs when a predetermined operation input is performed when the player character is located at an event occurrence position that is set in the virtual space corresponding to the location;
The game program according to any one of claims 1 to 4.
前記コンピュータに、前記所定のイベントが発生した場合、
前記仮想空間内において前記領域の範囲を示す2次元のマスクデータを生成させ、
前記フィールド情報を含む元マップ画像に前記マスクデータを適用することによって、前記領域に対応する部分の前記フィールド情報が示された前記マップ画像を生成させる、
請求項1から請求項4のいずれか1項に記載のゲームプログラム。
When the predetermined event occurs in the computer,
generating two-dimensional mask data indicating the extent of the region within the virtual space;
generating a map image showing the field information of a portion corresponding to the region by applying the mask data to an original map image including the field information;
The game program according to any one of claims 1 to 4.
前記マスクデータは、前記仮想空間内の位置における前記合計判定値の大きさに応じた多値の値を各位置について示すデータであり、
前記コンピュータに、
ップ表示指示に応じて、前記マスクデータが示す多値の値に応じた比率で当該マスクデータを前記元マップ画像に対して画素毎に適用することによって、前記マップ画像を生成させる、
請求項6に記載のゲームプログラム。
the mask data is data indicating, for each position in the virtual space, a multi-value corresponding to a magnitude of the total determination value,
The computer includes:
In response to a map display instruction, the mask data is applied to the original map image for each pixel at a ratio corresponding to a multi-value indicated by the mask data, thereby generating the map image.
The game program according to claim 6.
プロセッサを備えた少なくとも1つの情報処理装置を備え、
前記少なくとも1つの情報処理装置の少なくともいずれかのプロセッサは、
操作入力に基づいて、プレイヤキャラクタを仮想空間内において制御するゲーム処理を実行し、
前記ゲーム処理に基づいて所定のイベントが発生した場合に、前記仮想空間内に設定された複数の地点のうち、発生した前記所定のイベントに対応付けられる地点を第1の状態から第2の状態へ遷移させ、
前記地点に対応する位置において第1基準値となり、当該位置からの距離に応じて減衰する第1判定値について、前記複数の地点のうち前記第2の状態となっている1つ以上の地点に基づく当該第1判定値を位置ごとに合計した合計判定値が所定値以上となる領域を特定し、
前記仮想空間のフィールド情報を示すマップ画像であって、前記領域に対応する部分のフィールド情報が示されたマップ画像を表示する、
情報処理システム。
At least one information processing device having a processor,
At least one processor of the at least one information processing device
execute a game process for controlling a player character in a virtual space based on an operation input;
when a predetermined event occurs based on the game processing, a point associated with the occurring predetermined event among a plurality of points set in the virtual space is transitioned from a first state to a second state;
a region is identified in which a total determination value obtained by adding up the first determination value for each position based on one or more points among the plurality of points that are in the second state, the first determination value being a first reference value at a position corresponding to the point and attenuating according to the distance from the point, is equal to or greater than a predetermined value;
displaying a map image showing field information of the virtual space, the map image showing field information of a portion corresponding to the area;
Information processing system.
前記マップ画像は、前記フィールド情報を2次元的に示す画像であって、
前記第1判定値は、前記地点に対応する2次元的な位置からの2次元的な距離に応じて減衰する値である、
請求項8に記載の情報処理システム。
The map image is an image showing the field information two-dimensionally,
The first determination value is a value that attenuates according to a two-dimensional distance from a two-dimensional position corresponding to the point.
The information processing system according to claim 8.
前記複数の地点のそれぞれについて設定される前記第1基準値は、前記複数の地点ごとに大きさが設定される、
請求項9に記載の情報処理システム。
The first reference value set for each of the plurality of points has a magnitude set for each of the plurality of points.
10. The information processing system according to claim 9.
前記合計判定値は、前記複数の地点のうちの前記第2の状態となっている1つ以上の地点についての前記第1判定値の合計から、前記複数の地点のうちの前記第1の状態となっている1つ以上の地点についての第2判定値の合計を減算した値であり、
前記第2判定値は、前記地点に対応する位置において、前記第1基準値と同じまたは異なる第2基準値となり、当該位置からの距離に応じて減衰する値である、
請求項10に記載の情報処理システム。
the total determination value is a value obtained by subtracting a sum of the second determination values for one or more locations among the plurality of locations that are in the first state from a sum of the first determination values for one or more locations among the plurality of locations that are in the second state,
The second determination value is a second reference value that is the same as or different from the first reference value at a position corresponding to the point, and is a value that attenuates depending on the distance from the position.
The information processing system according to claim 10.
前記所定のイベントは、前記地点に対応して前記仮想空間内に設定されたイベント発生位置に前記プレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベントである、
請求項8から請求項11のいずれか1項に記載の情報処理システム。
the predetermined event is an event that occurs when a predetermined operation input is performed when the player character is located at an event occurrence position that is set in the virtual space corresponding to the location;
The information processing system according to any one of claims 8 to 11.
前記少なくともいずれかのプロセッサは、前記所定のイベントが発生した場合、
前記仮想空間内において前記領域の範囲を示す2次元のマスクデータを生成し、
前記フィールド情報を含む元マップ画像に前記マスクデータを適用することによって、前記領域に対応する部分の前記フィールド情報が示された前記マップ画像を生成する、
請求項8から請求項11のいずれか1項に記載の情報処理システム。
When the predetermined event occurs, at least one of the processors
generating two-dimensional mask data indicating the extent of the region within the virtual space;
generating a map image showing the field information of a portion corresponding to the region by applying the mask data to an original map image including the field information;
The information processing system according to any one of claims 8 to 11.
前記マスクデータは、前記仮想空間内の位置における前記合計判定値の大きさに応じた多値の値を各位置について示すデータであり、
前記少なくともいずれかのプロセッサは、
ップ表示指示に応じて、前記マスクデータが示す多値の値に応じた比率で当該マスクデータを前記元マップ画像に対して画素毎に適用することによって、前記マップ画像を生成する、
請求項13に記載の情報処理システム。
the mask data is data indicating, for each position in the virtual space, a multi-value corresponding to a magnitude of the total determination value,
At least one of the processors
generating the map image by applying the mask data to the original map image for each pixel in a ratio according to a multi-value indicated by the mask data in response to a map display instruction;
The information processing system according to claim 13.
プロセッサを備え、
前記プロセッサは、
操作入力に基づいて、プレイヤキャラクタを仮想空間内において制御するゲーム処理を実行し、
前記ゲーム処理に基づいて所定のイベントが発生した場合に、前記仮想空間内に設定された複数の地点のうち、発生した前記所定のイベントに対応付けられる地点を第1の状態から第2の状態へ遷移させ、
前記地点に対応する位置において第1基準値となり、当該位置からの距離に応じて減衰する第1判定値について、前記複数の地点のうち前記第2の状態となっている1つ以上の地点に基づく当該第1判定値を位置ごとに合計した合計判定値が所定値以上となる領域を特定し、
前記仮想空間のフィールド情報を示すマップ画像であって、前記領域に対応する部分のフィールド情報が示されたマップ画像を表示する、
情報処理装置。
A processor is provided.
The processor,
execute a game process for controlling a player character in a virtual space based on an operation input;
when a predetermined event occurs based on the game processing, a point associated with the occurring predetermined event among a plurality of points set in the virtual space is transitioned from a first state to a second state;
a region is identified in which a total determination value obtained by adding up the first determination value for each position based on one or more points among the plurality of points that are in the second state, the first determination value being a first reference value at a position corresponding to the point and attenuating according to the distance from the point, is equal to or greater than a predetermined value;
displaying a map image showing field information of the virtual space, the map image showing field information of a portion corresponding to the area;
Information processing device.
前記マップ画像は、前記フィールド情報を2次元的に示す画像であって、
前記第1判定値は、前記地点に対応する2次元的な位置からの2次元的な距離に応じて減衰する値である、
請求項15に記載の情報処理装置。
The map image is an image showing the field information two-dimensionally,
The first determination value is a value that attenuates according to a two-dimensional distance from a two-dimensional position corresponding to the point.
The information processing device according to claim 15.
前記複数の地点のそれぞれについて設定される前記第1基準値は、前記複数の地点ごとに大きさが設定される、
請求項16に記載の情報処理装置。
The first reference value set for each of the plurality of points has a magnitude set for each of the plurality of points.
The information processing device according to claim 16.
前記合計判定値は、前記複数の地点のうちの前記第2の状態となっている1つ以上の地点についての前記第1判定値の合計から、前記複数の地点のうちの前記第1の状態となっている1つ以上の地点についての第2判定値の合計を減算した値であり、
前記第2判定値は、前記地点に対応する位置において、前記第1基準値と同じまたは異なる第2基準値となり、当該位置からの距離に応じて減衰する値である、
請求項17に記載の情報処理装置。
the total determination value is a value obtained by subtracting a sum of the second determination values for one or more locations among the plurality of locations that are in the first state from a sum of the first determination values for one or more locations among the plurality of locations that are in the second state,
The second determination value is a second reference value that is the same as or different from the first reference value at a position corresponding to the point, and is a value that attenuates depending on the distance from the position.
The information processing device according to claim 17.
前記所定のイベントは、前記地点に対応して前記仮想空間内に設定されたイベント発生位置に前記プレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベントである、
請求項15から請求項18のいずれか1項に記載の情報処理装置。
the predetermined event is an event that occurs when a predetermined operation input is performed when the player character is located at an event occurrence position that is set in the virtual space corresponding to the location;
The information processing device according to any one of claims 15 to 18.
前記プロセッサは、前記所定のイベントが発生した場合、
前記仮想空間内において前記領域の範囲を示す2次元のマスクデータを生成し、
前記フィールド情報を含む元マップ画像に前記マスクデータを適用することによって、前記領域に対応する部分の前記フィールド情報が示された前記マップ画像を生成する、
請求項15から請求項18のいずれか1項に記載の情報処理装置。
When the predetermined event occurs, the processor
generating two-dimensional mask data indicating the extent of the region within the virtual space;
generating a map image showing the field information of a portion corresponding to the region by applying the mask data to an original map image including the field information;
The information processing device according to any one of claims 15 to 18.
前記マスクデータは、前記仮想空間内の位置における前記合計判定値の大きさに応じた多値の値を各位置について示すデータであり、
前記プロセッサは、
ップ表示指示に応じて、前記マスクデータが示す多値の値に応じた比率で当該マスクデータを前記元マップ画像に対して画素毎に適用することによって、前記マップ画像を生成する、
請求項20に記載の情報処理装置。
the mask data is data indicating, for each position in the virtual space, a multi-value corresponding to a magnitude of the total determination value,
The processor,
generating the map image by applying the mask data to the original map image for each pixel in a ratio according to a multi-value indicated by the mask data in response to a map display instruction;
The information processing device according to claim 20.
情報処理システムによって実行されるゲーム処理方法であって、
前記情報処理システムは、
操作入力に基づいて、プレイヤキャラクタを仮想空間内において制御するゲーム処理を実行し、
前記ゲーム処理に基づいて所定のイベントが発生した場合に、前記仮想空間内に設定された複数の地点のうち、発生した前記所定のイベントに対応付けられる地点を第1の状態から第2の状態へ遷移させ、
前記地点に対応する位置において第1基準値となり、当該位置からの距離に応じて減衰する第1判定値について、前記複数の地点のうち前記第2の状態となっている1つ以上の地点に基づく当該第1判定値を位置ごとに合計した合計判定値が所定値以上となる領域を特定し、
前記仮想空間のフィールド情報を示すマップ画像であって、前記領域に対応する部分のフィールド情報が示されたマップ画像を表示する、
ゲーム処理方法。
A game processing method executed by an information processing system, comprising:
The information processing system includes:
execute a game process for controlling a player character in a virtual space based on an operation input;
when a predetermined event occurs based on the game processing, a point associated with the occurring predetermined event among a plurality of points set in the virtual space is transitioned from a first state to a second state;
a region is identified in which a total determination value obtained by adding up the first determination value for each position based on one or more points among the plurality of points that are in the second state, the first determination value being a first reference value at a position corresponding to the point and attenuating according to the distance from the point, is equal to or greater than a predetermined value;
displaying a map image showing field information of the virtual space, the map image showing field information of a portion corresponding to the area;
Game processing method.
前記マップ画像は、前記フィールド情報を2次元的に示す画像であって、
前記第1判定値は、前記地点に対応する2次元的な位置からの2次元的な距離に応じて減衰する値である、
請求項22に記載のゲーム処理方法。
The map image is an image showing the field information two-dimensionally,
The first determination value is a value that attenuates according to a two-dimensional distance from a two-dimensional position corresponding to the point.
The game processing method according to claim 22.
前記複数の地点のそれぞれについて設定される前記第1基準値は、前記複数の地点ごとに大きさが設定される、
請求項23に記載のゲーム処理方法。
The first reference value set for each of the plurality of points has a magnitude set for each of the plurality of points.
The game processing method according to claim 23.
前記合計判定値は、前記複数の地点のうちの前記第2の状態となっている1つ以上の地点についての前記第1判定値の合計から、前記複数の地点のうちの前記第1の状態となっている1つ以上の地点についての第2判定値の合計を減算した値であり、
前記第2判定値は、前記地点に対応する位置において、前記第1基準値と同じまたは異なる第2基準値となり、当該位置からの距離に応じて減衰する値である、
請求項24に記載のゲーム処理方法。
the total determination value is a value obtained by subtracting a sum of the second determination values for one or more locations among the plurality of locations that are in the first state from a sum of the first determination values for one or more locations among the plurality of locations that are in the second state,
The second determination value is a second reference value that is the same as or different from the first reference value at a position corresponding to the point, and is a value that attenuates depending on the distance from the position.
The game processing method according to claim 24.
前記所定のイベントは、前記地点に対応して前記仮想空間内に設定されたイベント発生位置に前記プレイヤキャラクタが位置する場合に所定の操作入力が行われることで発生するイベントである、
請求項22から請求項25のいずれか1項に記載のゲーム処理方法。
the predetermined event is an event that occurs when a predetermined operation input is performed when the player character is located at an event occurrence position that is set in the virtual space corresponding to the location;
The game processing method according to any one of claims 22 to 25.
前記情報処理システムは、前記所定のイベントが発生した場合、
前記仮想空間内において前記領域の範囲を示す2次元のマスクデータを生成し、
前記フィールド情報を含む元マップ画像に前記マスクデータを適用することによって、前記領域に対応する部分の前記フィールド情報が示された前記マップ画像を生成する、
請求項22から請求項25のいずれか1項に記載のゲーム処理方法。
When the predetermined event occurs, the information processing system
generating two-dimensional mask data indicating the extent of the region within the virtual space;
generating a map image showing the field information of a portion corresponding to the region by applying the mask data to an original map image including the field information;
The game processing method according to any one of claims 22 to 25.
前記マスクデータは、前記仮想空間内の位置における前記合計判定値の大きさに応じた多値の値を各位置について示すデータであり、
前記情報処理システムは、
ップ表示指示に応じて、前記マスクデータが示す多値の値に応じた比率で当該マスクデータを前記元マップ画像に対して画素毎に適用することによって、前記マップ画像を生成する、
請求項27に記載のゲーム処理方法。
the mask data is data indicating, for each position in the virtual space, a multi-value corresponding to a magnitude of the total determination value,
The information processing system includes:
generating the map image by applying the mask data to the original map image for each pixel in a ratio according to a multi-value indicated by the mask data in response to a map display instruction;
28. The game processing method according to claim 27.
JP2022167797A 2022-10-19 2022-10-19 GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD Active JP7462010B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2022167797A JP7462010B2 (en) 2022-10-19 2022-10-19 GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD
US18/332,343 US20240226743A9 (en) 2022-10-19 2023-06-09 Storage medium, information processing system, information processing device, and game processing method
US18/332,218 US20240226741A9 (en) 2022-10-19 2023-06-09 Storage medium, information processing system, information processing device, and game processing method
US18/332,277 US20240226742A9 (en) 2022-10-19 2023-06-09 Storage medium, information processing system, information processing device, and game processing method
EP23179824.0A EP4356989A1 (en) 2022-10-19 2023-06-16 Game program, information processing system and game processing method
EP23179806.7A EP4356988A1 (en) 2022-10-19 2023-06-16 Game program, information processing system and game processing method
EP23179795.2A EP4356987A1 (en) 2022-10-19 2023-06-16 Game program, information processing system and game processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022167797A JP7462010B2 (en) 2022-10-19 2022-10-19 GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD

Publications (2)

Publication Number Publication Date
JP2023098605A JP2023098605A (en) 2023-07-10
JP7462010B2 true JP7462010B2 (en) 2024-04-04

Family

ID=87071937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022167797A Active JP7462010B2 (en) 2022-10-19 2022-10-19 GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD

Country Status (1)

Country Link
JP (1) JP7462010B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008148860A (en) 2006-12-15 2008-07-03 Square Enix Co Ltd Game device, game proceeding method, program and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008148860A (en) 2006-12-15 2008-07-03 Square Enix Co Ltd Game device, game proceeding method, program and recording medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
16年ぶりのナンバリング新作「Age of Empires IV」がリリース。往年のシリーズ作品を彷彿とさせる,奥深いやり込みがたまらない,4Gamer,net [online],2021年10月29日,https://www.4gamer.net/games/391/G039193/20211026099/, [2024年02月14日検索]
ワンダーライフスペシャル [任天堂公式ガイドブック] ゼルダの伝説 ブレス オブ ザ ワイルド,第1版,株式会社小学館,2017年05月16日,pp. 8, 211

Also Published As

Publication number Publication date
JP2023098605A (en) 2023-07-10

Similar Documents

Publication Publication Date Title
CN106075900B (en) Terminal device
US7884822B2 (en) Game apparatus, storage medium storing a game program, and game controlling method
US7942743B2 (en) Game apparatus and storage medium storing game program
US10843074B2 (en) Object movement control apparatus, storage medium storing object movement control program, and object movement control method
US7736235B2 (en) Game system for varying parameter of a character
US8152611B2 (en) Game program
US8016671B2 (en) Game apparatus and storage medium storing game program
JP2010042090A (en) Program, information storage medium and game device
JP5269745B2 (en) Object control program, object control apparatus, object control system, and object control method
US7804502B2 (en) Method of causing first object to take motion according to positional relationship with second object
US8147305B2 (en) Attacking a virtual enemy by corresponding input to output sound
JP2018147002A (en) Image processing program, image processing system, image processing apparatus and image processing method
JP2008113762A (en) Game program and game device
JP5210547B2 (en) Movement control program and movement control apparatus
CN114404972A (en) Method, device and equipment for displaying visual field picture
JP7462010B2 (en) GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD
JP7530949B2 (en) GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO
JP2005319188A (en) Program, information storage medium and image generation system
JP2017113170A (en) Program and game device
JP2010055131A (en) Program, information storage medium, and image generation system
EP4356987A1 (en) Game program, information processing system and game processing method
JP2023098606A (en) Game program, information processing system, information processing device, and game processing method
JP7519481B2 (en) GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD
JP2005279133A (en) Game device and game program
CN114177616A (en) Virtual item release method, device, equipment and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7462010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150