JP7304701B2 - Game program, recording medium, game processing method - Google Patents

Game program, recording medium, game processing method Download PDF

Info

Publication number
JP7304701B2
JP7304701B2 JP2019011829A JP2019011829A JP7304701B2 JP 7304701 B2 JP7304701 B2 JP 7304701B2 JP 2019011829 A JP2019011829 A JP 2019011829A JP 2019011829 A JP2019011829 A JP 2019011829A JP 7304701 B2 JP7304701 B2 JP 7304701B2
Authority
JP
Japan
Prior art keywords
transparent
transparency
virtual camera
processing unit
collision determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019011829A
Other languages
Japanese (ja)
Other versions
JP2020116296A (en
Inventor
裕太郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Games Co Ltd
Original Assignee
Koei Tecmo Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Games Co Ltd filed Critical Koei Tecmo Games Co Ltd
Priority to JP2019011829A priority Critical patent/JP7304701B2/en
Publication of JP2020116296A publication Critical patent/JP2020116296A/en
Application granted granted Critical
Publication of JP7304701B2 publication Critical patent/JP7304701B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、ゲームプログラム、当該ゲームプログラムが記録された記録媒体、及びゲーム処理方法に関する。 The present invention relates to a game program, a recording medium on which the game program is recorded, and a game processing method.

従来、仮想的な3次元空間であるオブジェクト空間内において仮想カメラから見える画像を生成する画像生成システムにおいて、プレイヤの視点とキャラクタとの間に障害物となるオブジェクトが入り込んだ場合に、プレイヤの視界がその障害物オブジェクトによりふさがれてしまいキャラクタの周辺がプレイヤから見えなくなることを防止する画像処理技術が知られている。 Conventionally, in an image generation system that generates an image that can be seen from a virtual camera in an object space that is a virtual three-dimensional space, when an obstacle object enters between the player's viewpoint and the character, the player's field of view is blocked by the obstacle object, and an image processing technique is known that prevents the player from seeing the surroundings of the character.

例えば特許文献1には、視点から見て第1のオブジェクトが第2のオブジェクトの奥側にあると判断され、第1のオブジェクトの透視変換画像が第2のオブジェクトの透視変換画像に重なった場合に、第2のオブジェクトを透過して第1のオブジェクトを視点から見えるようにした画像生成システムが記載されている。 For example, in Patent Document 1, when it is determined that the first object is behind the second object when viewed from the viewpoint, and the perspective-transformed image of the first object overlaps the perspective-transformed image of the second object, describes an image generation system in which a first object is visible from a viewpoint through a second object.

特許第4707080号公報Japanese Patent No. 4707080

上記従来技術では、オブジェクトの全体に対して透過処理を行うため、例えば壁や塀等のオブジェクトの全体が透過されてその向こう側が見えてしまう等、開発者がプレイヤに見せることを意図していない画像が表示されてしまう可能性があった。 In the conventional technology described above, since transparency processing is performed on the entire object, the developer does not intend to show the object to the player, for example, the entire object such as a wall or fence is transparent and the other side can be seen. The image could have been displayed.

本発明はこのような問題点に鑑みてなされたものであり、オブジェクトの透過処理により開発者の意図しない画像が表示されることを防止できるゲームプログラム、記録媒体、及びゲーム処理方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a game program, a recording medium, and a game processing method that can prevent an image not intended by the developer from being displayed due to object transparency processing. With the goal.

上記目的を達成するために、本発明のゲームプログラムは、情報処理装置を、仮想的な3次元空間内において仮想カメラから見える画像を生成する画像生成処理部、前記画像を生成する際に、前記3次元空間内に配置された第1のオブジェクトの位置から前記仮想カメラの位置までの範囲に亘って存在する透明化オブジェクトを設定する透明化オブジェクト設定処理部、前記画像を生成する際に、前記3次元空間内に配置された第2のオブジェクトの前記透明化オブジェクトと接触する部分に透明化処理を実行する透明化実行処理部、として機能させる。 To achieve the above object, the game program of the present invention comprises an information processing device comprising: an image generation processing unit that generates an image viewed from a virtual camera in a virtual three-dimensional space; a transparent object setting processing unit that sets a transparent object that exists over a range from the position of a first object arranged in a three-dimensional space to the position of the virtual camera; It functions as a transparency execution processing unit that executes transparency processing on a portion of a second object placed in a three-dimensional space that contacts the transparent object.

上記目的を達成するために、本発明の記録媒体は、上記ゲームプログラムを記録した、情報処理装置が読み取り可能な記録媒体である。 To achieve the above object, a recording medium of the present invention is a recording medium that records the above game program and is readable by an information processing device.

上記目的を達成するために、本発明のゲーム処理方法は、情報処理装置によって実行されるゲーム処理方法であって、仮想的な3次元空間内において仮想カメラから見える画像を生成するステップと、前記画像を生成する際に、前記3次元空間内に配置された第1のオブジェクトの位置から前記仮想カメラの位置までの範囲に亘って存在する透明化オブジェクトを設定するステップと、前記画像を生成する際に、前記3次元空間内に配置された第2のオブジェクトの前記透明化オブジェクトと接触する部分に透明化処理を実行するステップと、を有する。 To achieve the above object, a game processing method according to the present invention is a game processing method executed by an information processing device, comprising the steps of generating an image viewed from a virtual camera in a virtual three-dimensional space; When generating the image, setting a transparent object existing over a range from the position of the first object arranged in the three-dimensional space to the position of the virtual camera; and generating the image. and performing transparency processing on a portion of a second object placed in the three-dimensional space that contacts the transparent object.

本発明のゲームプログラム等によれば、オブジェクトの透過処理により開発者の意図しない画像が表示されることを防止できる。 According to the game program and the like of the present invention, it is possible to prevent an image not intended by the developer from being displayed due to the transparent processing of the object.

一実施形態に係るゲームシステムの全体構成の一例を表すシステム構成図である。1 is a system configuration diagram showing an example of the overall configuration of a game system according to one embodiment; FIG. 情報処理装置の機能的構成の一例を表すブロック図である。1 is a block diagram showing an example of a functional configuration of an information processing device; FIG. 仮想カメラと各オブジェクトの配置を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining the arrangement of a virtual camera and each object; 第1の衝突判定用オブジェクトの一例を表す説明図である。FIG. 4 is an explanatory diagram showing an example of a first collision determination object; 第2の衝突判定用オブジェクトの一例を表す説明図である。FIG. 11 is an explanatory diagram showing an example of a second object for collision determination; 透明化オブジェクトの形状の一例を表す説明図である。FIG. 4 is an explanatory diagram showing an example of the shape of a transparency object; 図6に示す透明化オブジェクトの曲面形状を説明するためのグラフである。7 is a graph for explaining the curved shape of the transparent object shown in FIG. 6; 透明化オブジェクトの形状の他の例を表す説明図である。FIG. 10 is an explanatory diagram showing another example of the shape of a transparent object; 図8に示す透明化オブジェクトの曲面形状を説明するためのグラフである。9 is a graph for explaining the curved surface shape of the transparent object shown in FIG. 8; 透明化オブジェクトの形状のさらに他の例を表す説明図である。FIG. 11 is an explanatory diagram showing still another example of the shape of a transparent object; 図10に示す透明化オブジェクトの曲面形状を説明するためのグラフである。11 is a graph for explaining the curved surface shape of the transparent object shown in FIG. 10; 透明化処理を実行する際の接触判定手法の一例を表す説明図である。FIG. 10 is an explanatory diagram showing an example of a contact determination method when performing transparency processing; 透明化処理が実行された場合の画像の一例を表す図である。FIG. 10 is a diagram showing an example of an image when transparency processing is performed; 情報処理装置のCPUによって実行される処理手順の一例を表すフローチャートである。4 is a flowchart illustrating an example of a processing procedure executed by a CPU of an information processing device; 光軸に対する径が仮想カメラからプレイヤキャラクタに向けて大きくなる形状の透明化オブジェクトが設定された比較例を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining a comparative example in which a transparent object having a shape whose diameter with respect to the optical axis increases from the virtual camera toward the player character is set; 図15に示す仮想カメラによる画像の一例である。It is an example of the image by the virtual camera shown in FIG. 本実施形態の透明化オブジェクトの形状による効果を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining the effect of the shape of the transparent object according to the embodiment; 図17に示す仮想カメラによる画像の一例である。It is an example of the image by the virtual camera shown in FIG. 透明化オブジェクトの端面を楕円形状とする変形例において、透明化処理を実行する際の接触判定手法の一例を表す説明図である。FIG. 10 is an explanatory diagram showing an example of a contact determination method when performing transparency processing in a modified example in which the end faces of a transparent object are elliptical. 透明化オブジェクトの端面を楕円形状とする変形例において、透明化処理が実行された場合の画像の一例を表す図である。FIG. 10 is a diagram showing an example of an image when transparency processing is executed in a modified example in which the end faces of the transparent object are elliptical. 情報処理装置のハードウェア構成の一例を表すブロック図である。It is a block diagram showing an example of the hardware constitutions of an information processing apparatus.

以下、本発明の一実施の形態について図面を参照しつつ説明する。 An embodiment of the present invention will be described below with reference to the drawings.

<1.ゲームシステムの全体構成>
まず、図1を用いて、本実施形態に係るゲームシステム1の全体構成の一例について説明する。図1に示すように、ゲームシステム1は、情報処理装置3と、ゲームコントローラ5と、表示装置7を有する。ゲームコントローラ5及び表示装置7の各々は、情報処理装置3と有線又は無線により通信可能に接続されている。
<1. Overall Configuration of Game System>
First, an example of the overall configuration of a game system 1 according to this embodiment will be described with reference to FIG. As shown in FIG. 1 , the game system 1 has an information processing device 3 , a game controller 5 and a display device 7 . Each of the game controller 5 and the display device 7 is communicably connected to the information processing device 3 by wire or wirelessly.

情報処理装置3は、例えば据え置き型のゲーム機である。但しこれに限定されるものではなく、例えば入力部や表示部等を一体に備えた携帯型のゲーム機でもよい。また、ゲーム機以外にも、例えば、サーバコンピュータ、デスクトップ型コンピュータ、ノート型コンピュータ、タブレット型コンピュータ等のように、コンピュータとして製造、販売等されているものや、スマートフォン、携帯電話、ファブレット等のように、電話機として製造、販売等されているものでもよい。 The information processing device 3 is, for example, a stationary game machine. However, the present invention is not limited to this, and for example, a portable game machine integrally including an input section, a display section, and the like may be used. In addition to game machines, for example, server computers, desktop computers, notebook computers, tablet computers, etc., which are manufactured and sold as computers, smartphones, mobile phones, phablets, etc. As in the above, it may be manufactured and sold as a telephone.

プレイヤは、ゲームコントローラ5を用いて各種の操作入力を行う。図1に示す例では、ゲームコントローラ5は例えば十字キー9や複数のボタン11等を有する。なお、ゲームコントローラ5は上記に代えて又は加えて、例えばジョイスティックやタッチパッド等を有してもよい。 The player uses the game controller 5 to perform various operational inputs. In the example shown in FIG. 1, the game controller 5 has, for example, a cross key 9, a plurality of buttons 11, and the like. Note that the game controller 5 may have, for example, a joystick or a touch pad instead of or in addition to the above.

<2.ゲームの概略内容>
次に、本実施形態に係るゲーム、すなわち、本発明のゲームプログラム及びゲーム処理方法が情報処理装置3によって実行されることにより提供されるゲームの概略内容の一例について説明する。
<2. Overview of the game>
Next, an example of the outline contents of the game according to the present embodiment, that is, the game provided by executing the game program and the game processing method of the present invention by the information processing device 3 will be described.

本実施形態に係るゲームでは、プレイヤが操作可能なプレイヤキャラクタ(第1のオブジェクトの一例)が、仮想的な3次元空間であるゲームフィールド上を移動しながらステージを進めていく。仮想的な3次元空間内においては、プレイヤキャラクタを被写体としつつプレイヤの操作によっても移動可能な仮想カメラから見える画像が生成される。プレイヤキャラクタは、敵キャラクタと遭遇した場合には戦闘を行う。ゲームフィールドには、プレイヤキャラクタや敵キャラクタの背景を構成する多数の背景オブジェクト(第2のオブジェクトの一例)が配置される。 In the game according to the present embodiment, a player character (an example of a first object) that can be operated by the player progresses through stages while moving on a game field that is a virtual three-dimensional space. In the virtual three-dimensional space, an image is generated that can be viewed from a virtual camera that has the player character as a subject and can be moved by the player's operation. A player character fights when encountering an enemy character. A large number of background objects (an example of a second object) that constitute the background of the player character and enemy characters are arranged on the game field.

なお、「第1のオブジェクト」は、本実施形態のように例えば人間のキャラクタに限定されるものではなく、人間以外の動物、人間や動物以外の生物、仮想的な生物(例えば怪物、ゴースト、妖怪等)、ロボットやアンドロイド、物品や物体などのオブジェクト等でもよい。 It should be noted that the "first object" is not limited to, for example, a human character as in the present embodiment, but includes animals other than humans, creatures other than humans and animals, and virtual creatures (such as monsters, ghosts, etc.). monsters, etc.), robots, androids, and objects such as goods and objects.

本実施形態に係るゲームでは、仮想カメラとプレイヤキャラクタとの間に障害物となる背景オブジェクトが入り込んだ場合でも、背景オブジェクトを部分的に透明化して、プレイヤキャラクタがプレイヤの視界から見えなくなることを防止する。以下、この内容について詳細に説明する。 In the game according to the present embodiment, even if a background object acting as an obstacle enters between the virtual camera and the player character, the background object is partially made transparent so that the player character cannot be seen from the player's field of view. To prevent. This content will be described in detail below.

<3.情報処理装置の機能的構成>
次に、図2及び図3~図13を用いて、情報処理装置3の機能的構成の一例について説明する。
<3. Functional Configuration of Information Processing Device>
Next, an example of the functional configuration of the information processing device 3 will be described with reference to FIGS. 2 and 3 to 13. FIG.

図2に示すように、情報処理装置3は、画像生成処理部13と、第1衝突判定用オブジェクト設定処理部15と、第2衝突判定用オブジェクト設定処理部17と、衝突判定処理部19と、透明化オブジェクト設定処理部21と、透明化実行処理部23とを有する。 As shown in FIG. 2, the information processing device 3 includes an image generation processing unit 13, a first collision determination object setting processing unit 15, a second collision determination object setting processing unit 17, and a collision determination processing unit 19. , a transparency object setting processing unit 21 and a transparency execution processing unit 23 .

画像生成処理部13は、仮想的な3次元空間内において仮想カメラ(視点)から見える画像を生成する。仮想カメラは、プレイヤキャラクタを被写体とするように自動的に移動する。また、プレイヤの操作によって、例えばプレイヤキャラクタの周りを旋回したり、カメラの向きを変えたり、高さ方向やプレイヤキャラクタに対して遠近する方向等に移動することが可能である。 The image generation processing unit 13 generates an image seen from a virtual camera (viewpoint) in a virtual three-dimensional space. The virtual camera automatically moves so as to take the player character as a subject. In addition, by the player's operation, for example, it is possible to turn around the player character, change the direction of the camera, and move in the height direction or in the direction of approaching the player character.

第1衝突判定用オブジェクト設定処理部15は、プレイヤキャラクタの位置から仮想カメラの位置までの範囲に亘って存在する直方体形状の第1の衝突判定用オブジェクトを設定する。「プレイヤキャラクタの位置」は、処理上設定されるプレイヤキャラクタの基準となる位置であり、例えばプレイヤキャラクタの中心位置である。但し、プレイヤキャラクタの特定の部位(例えば顔)や、身体の表面、近傍位置等も含まれる。「仮想カメラの位置」は、処理上設定される仮想カメラ(視点)の基準となる位置であり、例えば仮想カメラのレンズの中心位置(光軸の位置)である。但し、仮想カメラの近傍位置等も含まれる。 The first collision determination object setting unit 15 sets a cuboid first collision determination object that exists over the range from the position of the player character to the position of the virtual camera. "Position of player character" is a reference position of the player character that is set for processing, and is, for example, the center position of the player character. However, it also includes specific parts of the player character (such as the face), the surface of the body, nearby positions, and the like. The “virtual camera position” is a reference position of the virtual camera (viewpoint) set for processing, and is, for example, the center position (optical axis position) of the lens of the virtual camera. However, it also includes a position near the virtual camera.

第1の衝突判定用オブジェクトは、直方体形状の軸平行境界ボックス(AABB:Axis-Aligned Bounding Box)であり、直方体の各面の法線がゲームフィールドのワールド座標系のX軸、Y軸、Z軸のそれぞれと平行となるように設定される。第1の衝突判定用オブジェクトは、例えばプレイヤキャラクタの位置と仮想カメラの位置とをつなぐカプセルコリジョンを包含するように設定される。 The first object for collision determination is a cuboid-shaped axis-aligned bounding box (AABB), and the normals of each surface of the cuboid are the X-axis, Y-axis, and Z-axis of the world coordinate system of the game field. It is set parallel to each of the axes. The first object for collision determination is set so as to include a capsule collision connecting, for example, the position of the player character and the position of the virtual camera.

第2衝突判定用オブジェクト設定処理部17は、背景オブジェクトを包含する直方体形状の第2の衝突判定用オブジェクトを設定する。第2の衝突判定用オブジェクトは、第1の衝突判定用オブジェクトと同様、直方体形状の軸平行境界ボックスであり、直方体の各面の法線がゲームフィールドのワールド座標系のX軸、Y軸、Z軸のそれぞれと平行となるように設定される。ゲームフィールドには多様な形状の大小様々な背景オブジェクトが配置されるが、第2の衝突判定用オブジェクトは、各背景オブジェクトに対して設定される。 The second collision determination object setting unit 17 sets a second collision determination object having a cuboid shape including a background object. Like the first object for collision determination, the second object for collision determination is an axis-parallel bounding box in the shape of a rectangular parallelepiped. It is set so as to be parallel to each of the Z-axes. Background objects of various shapes and sizes are arranged on the game field, and the second object for collision determination is set for each background object.

衝突判定処理部19は、上記第1衝突判定用オブジェクト設定処理部15により設定された第1の衝突判定用オブジェクトと、上記第2衝突判定用オブジェクト設定処理部17により設定された第2の衝突判定用オブジェクトとの衝突の有無を、公知の軸平行境界ボックスによる衝突判定手法により判定する。 The collision determination processing unit 19 is configured to set the first collision determination object set by the first collision determination object setting processing unit 15 and the second collision determination object set by the second collision determination object setting processing unit 17. Whether or not there is a collision with the determination object is determined by a known collision determination method using an axis-parallel bounding box.

図3~図5に、衝突判定用オブジェクトの一例を示す。図3は、仮想カメラと各オブジェクトの配置を説明するための説明図である。図3に示す例では、仮想的な3次元空間内に、プレイヤキャラクタ25と、床27、壁29,31,33、柱35等の背景オブジェクトと、仮想カメラ37が配置されている。仮想カメラ37は、光軸39がプレイヤキャラクタ25の基準位置41を向くように配置されている。 3 to 5 show examples of collision determination objects. FIG. 3 is an explanatory diagram for explaining the placement of the virtual camera and each object. In the example shown in FIG. 3, a player character 25, background objects such as a floor 27, walls 29, 31, 33, and a pillar 35, and a virtual camera 37 are arranged in a virtual three-dimensional space. The virtual camera 37 is arranged such that the optical axis 39 faces the reference position 41 of the player character 25 .

図4に示すように、第1の衝突判定用オブジェクト43は、プレイヤキャラクタ25の基準位置41から仮想カメラ37の基準位置45までの範囲に亘って存在するように、且つ、直方体の各面の法線がワールド座標系47のX軸、Y軸、Z軸のそれぞれと平行となるように、設定される。 As shown in FIG. 4, the first collision determination object 43 exists over a range from a reference position 41 of the player character 25 to a reference position 45 of the virtual camera 37, and is positioned on each side of the rectangular parallelepiped. The normal lines are set so as to be parallel to the X-axis, Y-axis, and Z-axis of the world coordinate system 47, respectively.

図5に示すように、第2の衝突判定用オブジェクト49は、背景オブジェクトである柱35をそれぞれ包含するように、且つ、直方体の各面の法線がワールド座標系47のX軸、Y軸、Z軸のそれぞれと平行となるように、それぞれ設定される。なお、図5では図示を省略しているが、柱35以外の床27や壁29,31,33についても第2の衝突判定用オブジェクトが設定されてもよい。 As shown in FIG. 5, the second collision determination object 49 includes the pillar 35 as the background object, and the normals of the faces of the rectangular parallelepiped are the X axis and the Y axis of the world coordinate system 47. As shown in FIG. , Z-axis, respectively. Although not shown in FIG. 5, the second collision determination object may be set for the floor 27 and the walls 29, 31, and 33 other than the pillar 35. FIG.

上述のようにして設定された第1の衝突判定用オブジェクト43と第2の衝突判定用オブジェクト49との衝突の有無が判定される。衝突判定用オブジェクト43,49はワールド座標系47に対して同じ向きであるため、衝突判定の処理を高速に実行できると共に処理負荷を大幅に軽減できる。 Whether or not there is a collision between the first collision determination object 43 and the second collision determination object 49 set as described above is determined. Since the collision determination objects 43 and 49 are oriented in the same direction with respect to the world coordinate system 47, the collision determination process can be executed at high speed and the processing load can be greatly reduced.

図2に戻り、透明化オブジェクト設定処理部21は、仮想カメラ37による画像を生成する際に、3次元空間内に配置されたプレイヤキャラクタ25の基準位置41から仮想カメラ37の基準位置45までの範囲に亘って存在する透明化オブジェクトを設定する。透明化オブジェクトは、プレイヤキャラクタ25の基準位置41と仮想カメラ37の基準位置45とを結ぶ光軸39(軸の一例)に対する径がプレイヤキャラクタ25から仮想カメラ37に向けて大きくなる形状となるように設定される。より詳細には、透明化オブジェクトは、プレイヤキャラクタ25側の先端が尖り、且つ、光軸39に対する径がプレイヤキャラクタ25から仮想カメラ37に向けて曲線状に拡大する形状となるように設定される。 Returning to FIG. 2, when generating an image by the virtual camera 37, the transparent object setting processing unit 21 sets the distance from the reference position 41 of the player character 25 placed in the three-dimensional space to the reference position 45 of the virtual camera 37. Sets a transparency object that spans the range. The transparent object is shaped so that the diameter of the optical axis 39 (an example of an axis) connecting the reference position 41 of the player character 25 and the reference position 45 of the virtual camera 37 increases from the player character 25 toward the virtual camera 37 . is set to More specifically, the transparent object is set so that the tip on the side of the player character 25 is pointed, and the diameter with respect to the optical axis 39 expands in a curved shape from the player character 25 toward the virtual camera 37. .

透明化実行処理部23は、仮想カメラ37による画像を生成する際に、3次元空間内に配置された背景オブジェクトの、上記透明化オブジェクト設定処理部21により設定された透明化オブジェクトと接触する部分に透明化処理を実行する。このとき、透明化実行処理部23は、上述した衝突判定処理部19により衝突があったと判定された第2の衝突判定用オブジェクト49に対応した衝突オブジェクトに対してのみ透明化処理を実行する。 The transparency execution processing unit 23, when generating an image by the virtual camera 37, removes the portion of the background object placed in the three-dimensional space that contacts the transparent object set by the transparent object setting processing unit 21. Executes transparency processing on . At this time, the transparency execution processing unit 23 executes the transparency processing only for the colliding object corresponding to the second collision determination object 49 determined to have collided by the collision determination processing unit 19 described above.

なお、「透明化処理」は透明化(透明度100%)する処理と半透明化(透明度が100%未満)する処理の両方を含む。透明化する場合には、本来描画される背景オブジェクトの該当するピクセルを描画しないようにする。また、半透明化する場合には、描画するピクセルと描画しないピクセルを透明度に応じた割合となるように配置することによって行う(いわゆるディザリング)。透明化実行処理部23は、光軸39に近づくにつれて透明度が高くなるように、背景オブジェクトの透明化オブジェクトと接触する部分に透明化処理を実行する。 Note that the “transparency processing” includes both processing for making transparent (transparency of 100%) and processing for semi-transparency (transparency of less than 100%). When making transparent, the corresponding pixels of the background object that should be drawn should not be drawn. In the case of semi-transparency, pixels to be drawn and pixels not to be drawn are arranged so as to have a proportion corresponding to the degree of transparency (so-called dithering). The transparency execution processing unit 23 executes transparency processing on the portion of the background object that is in contact with the transparent object so that the transparency increases as it approaches the optical axis 39 .

なお、「背景オブジェクトの透明化オブジェクトと接触する部分」の判定は、両者の位置や形状の情報を使用して厳密に行ってもよいが、処理負荷を軽減するために簡易的な手法(後述の図12参照)を採用してもよい。すなわち、当該簡易的手法により「厳密には透明化オブジェクトと接触していないが実質的に透明化オブジェクトと接触しているとみなせる部分」を含むものとする。 It should be noted that the determination of "the part of the background object that contacts the transparent object" may be strictly performed using information on the positions and shapes of both, but a simple method (described later) can be used to reduce the processing load. 12) may be employed. That is, it includes "a portion that is not in contact with the transparent object in a strict sense, but can be regarded as substantially in contact with the transparent object" by the simple method.

図6~図11に、透明化オブジェクトの形状の例を示す。図6に示す透明化オブジェクト51は、光軸39に対する径がプレイヤキャラクタ25から仮想カメラ37に向けて大きくなる形状であり、且つ、プレイヤキャラクタ25側の先端が尖り、光軸39に対する径がプレイヤキャラクタ25から仮想カメラ37に向けて曲線状に拡大する形状となるように設定されている。透明化オブジェクト51は、仮想カメラ37側の端部に光軸39に垂直な円形状の端面55を有する。 6 to 11 show examples of shapes of transparent objects. The transparent object 51 shown in FIG. 6 has a shape in which the diameter with respect to the optical axis 39 increases from the player character 25 toward the virtual camera 37, the tip on the player character 25 side is sharp, and the diameter with respect to the optical axis 39 is the diameter of the player character 25. It is set to have a shape that expands in a curved line from the character 25 toward the virtual camera 37 . The transparent object 51 has a circular end surface 55 perpendicular to the optical axis 39 at the end on the virtual camera 37 side.

図7は、図6に示す透明化オブジェクト51の曲面形状を説明するためのグラフである。図7に示す曲線は、透明化オブジェクト51を、仮想カメラ37のカメラ座標系53(基準位置45を原点としZ軸が光軸39と一致する)におけるZ軸を含む断面で見た場合における曲面形状を表している。言い換えると、透明化オブジェクト51は、図7に示す曲線を光軸39周りに回転させることにより生成される回転体である。図7において、グラフの横軸xは、透明化オブジェクト51のプレイヤキャラクタ25側の先端(基準位置41)から仮想カメラ37側の端面55への距離の割合を表しており、x=0で先端位置(基準位置41)、x=1で端面55の中心位置となる。グラフの縦軸yは、端面55の半径に乗算する値である。 FIG. 7 is a graph for explaining the curved shape of the transparent object 51 shown in FIG. The curve shown in FIG. 7 is a curved surface when the transparent object 51 is viewed in a cross section including the Z axis in the camera coordinate system 53 of the virtual camera 37 (the origin is the reference position 45 and the Z axis coincides with the optical axis 39). represents the shape. In other words, the transparent object 51 is a body of revolution generated by rotating the curve shown in FIG. 7, the horizontal axis x of the graph represents the ratio of the distance from the tip (reference position 41) of the transparent object 51 on the side of the player character 25 to the edge face 55 on the side of the virtual camera 37. When x=0, the tip The position (reference position 41), x=1, is the center position of the end face 55. FIG. The vertical axis y of the graph is the value by which the radius of the end face 55 is multiplied.

図7に示す曲線は、例えば次式の関数h(x)で表される。
f(x)=-x+1
g(x)=x
h(x)=f(g(f(x)))
なお、log(対数関数)を使うことでも同様の曲線を生成できるが、上記関数h(x)を使用することで計算負荷を軽減できる。
The curve shown in FIG. 7 is represented by the following function h(x), for example.
f(x)=-x+1
g(x)= x2
h(x)=f(g(f(x)))
A similar curve can be generated by using log (logarithmic function), but the calculation load can be reduced by using the above function h(x).

透明化オブジェクト51の形状とする場合には、以下のような効果が得られる。すなわち、透明化オブジェクト51のプレイヤキャラクタ25側の先端を尖らせることができるので、プレイヤキャラクタ25の近くにはあるが表示の障害とはならない背景オブジェクトを透明化の処理対象から除外し易くなる。また、透明化オブジェクト51は例えば直線状に拡大する形状の場合に比べて膨らみがあるため、プレイヤキャラクタ25の表示の障害とはならないがカメラ画像に割り込んで視界の煩雑さを招き易い、仮想カメラ37から近い距離にある背景オブジェクトを、より透明化し易くなる。したがって、仮想カメラ37の視界をより良好にできる。 When the shape of the transparent object 51 is used, the following effects are obtained. That is, since the tip of the transparent object 51 on the side of the player character 25 can be sharpened, background objects that are near the player character 25 but do not interfere with the display can be easily excluded from the object of transparency processing. In addition, since the transparent object 51 has a bulge compared to, for example, a shape that expands linearly, it does not interfere with the display of the player character 25, but it is likely to interrupt the camera image and cause a complicated field of view. Background objects at a short distance from 37 can be made transparent more easily. Therefore, the field of view of the virtual camera 37 can be improved.

図8に示す透明化オブジェクト57も同様に、光軸39に対する径がプレイヤキャラクタ25から仮想カメラ37に向けて大きくなる形状であり、且つ、プレイヤキャラクタ25側の先端が尖り、光軸39に対する径がプレイヤキャラクタ25から仮想カメラ37に向けて曲線状に拡大する形状となるように設定されている。透明化オブジェクト57は、仮想カメラ37側の端部に光軸39に垂直な円形状の端面59を有する。 Similarly, the transparent object 57 shown in FIG. is set to have a shape that expands in a curved line from the player character 25 toward the virtual camera 37 . The transparency object 57 has a circular end face 59 perpendicular to the optical axis 39 at the end on the virtual camera 37 side.

図9は、図8に示す透明化オブジェクト57の曲面形状を説明するためのグラフである。透明化オブジェクト57は、図9に示す曲線を光軸39周りに回転させることにより生成される回転体である。 FIG. 9 is a graph for explaining the curved shape of the transparent object 57 shown in FIG. The transparency object 57 is a body of revolution generated by rotating the curve shown in FIG. 9 around the optical axis 39 .

図9に示す曲線は、例えば次式の関数g(x)で表される。
g(x)=x
The curve shown in FIG. 9 is represented by the following function g(x), for example.
g(x)= x2

透明化オブジェクト57の形状とする場合には、以下のような効果が得られる。すなわち、透明化オブジェクト57のプレイヤキャラクタ25側の先端をより一層尖らせることができるので、プレイヤキャラクタ25の近くにはあるが表示の障害とはならない背景オブジェクトを透明化の処理対象からさらに除外し易くなる。したがって、プレイヤキャラクタ25の近くにある重要な情報の表示を阻害しないようにできる。 When the shape of the transparent object 57 is used, the following effects are obtained. That is, since the tip of the transparent object 57 on the side of the player character 25 can be further sharpened, background objects that are near the player character 25 but do not interfere with the display are further excluded from the object of transparency processing. becomes easier. Therefore, the display of important information near the player character 25 can be prevented from being obstructed.

図10に示す透明化オブジェクト61も同様に、光軸39に対する径がプレイヤキャラクタ25から仮想カメラ37に向けて大きくなる形状であり、且つ、プレイヤキャラクタ25側の先端が尖り、光軸39に対する径がプレイヤキャラクタ25から仮想カメラ37に向けて曲線状に拡大する形状となるように設定されている。透明化オブジェクト61は、仮想カメラ37側の端部に光軸39に垂直な円形状の端面63を有する。 Similarly, the transparent object 61 shown in FIG. is set to have a shape that expands in a curved line from the player character 25 toward the virtual camera 37 . The transparent object 61 has a circular end face 63 perpendicular to the optical axis 39 at the end on the virtual camera 37 side.

図11は、図10に示す透明化オブジェクト61の曲面形状を説明するためのグラフである。透明化オブジェクト61は、図11に示す曲線を光軸39周りに回転させることにより生成される回転体である。 FIG. 11 is a graph for explaining the curved shape of the transparent object 61 shown in FIG. The transparency object 61 is a body of revolution generated by rotating the curve shown in FIG. 11 around the optical axis 39 .

図11に示す曲線は、例えば次式の関数i(x)で表される。
i(x)=-2x+3x
The curve shown in FIG. 11 is represented, for example, by the following function i(x).
i(x)=−2x 3 +3x 2

透明化オブジェクト61の形状とする場合には、上記透明化オブジェクト51,57の双方の効果が得られる。 When the shape of the transparent object 61 is used, the effects of both the transparent objects 51 and 57 are obtained.

図12に、透明化処理を実行する際の接触判定手法の一例を示す。図12に示す円は、上述した透明化オブジェクト51,57,61をカメラ座標系53のZ軸に垂直な任意の位置の断面で見た形状を表している。円の半径aは、上述した関数h(x)、g(x)、i(x)によりZ軸位置に応じて求められる。 FIG. 12 shows an example of a contact determination method when performing transparency processing. The circles shown in FIG. 12 represent the shapes of the transparent objects 51 , 57 , 61 described above as viewed in a cross section at an arbitrary position perpendicular to the Z-axis of the camera coordinate system 53 . The radius a of the circle is obtained according to the Z-axis position by the functions h(x), g(x) and i(x) described above.

図12において、例えばピクセルP1に対する処理は次のように行われる。まず、ピクセルP1と透明化オブジェクトの中心線(光軸39)との間に垂線ベクトル65を生成し、当該垂線ベクトル65のカメラ座標系53におけるXZ平面での長さをX1として、当該X1の値を用いて円の式(x+y=a)よりY1を算出する。このY1の値と垂線ベクトル65の長さL1とを比較し、Y1がL1よりも大きい場合には透明化処理を実行する。ピクセルP1の場合にはY1がL1よりも大きいので、ピクセルP1には透明化処理が実行される。 In FIG. 12, for example, pixel P1 is processed as follows. First, a perpendicular vector 65 is generated between the pixel P1 and the center line (optical axis 39) of the transparent object, and the length of the perpendicular vector 65 on the XZ plane in the camera coordinate system 53 is defined as X1. Y1 is calculated from the circle formula (x 2 +y 2 =a 2 ) using the values. The value of Y1 is compared with the length L1 of the perpendicular vector 65, and if Y1 is greater than L1, transparency processing is executed. For pixel P1, Y1 is greater than L1, so pixel P1 undergoes a transparency process.

ピクセルP2に対する処理も上記と同様である。まず、ピクセルP2と透明化オブジェクトの中心線(光軸39)との間に垂線ベクトル67を生成し、当該垂線ベクトル67のカメラ座標系53におけるXZ平面での長さをX2として、当該X2の値を用いて円の式(x+y=a)よりY2を算出する。このY2の値と垂線ベクトル67の長さL2とを比較すると、Y2がL2よりも小さいので、ピクセルP2には透明化処理が実行されない。 The processing for pixel P2 is also the same as above. First, a perpendicular vector 67 is generated between the pixel P2 and the center line (optical axis 39) of the transparent object, and the length of the perpendicular vector 67 on the XZ plane in the camera coordinate system 53 is defined as X2. Y2 is calculated from the circle formula (x 2 +y 2 =a 2 ) using the values. Comparing the value of Y2 with the length L2 of the normal vector 67, Y2 is smaller than L2, so no transparency processing is performed on pixel P2.

図13に、透明化処理が実行された場合の画像の一例を示す。図13に示す例では、プレイヤキャラクタ25と仮想カメラ37との間に柱35が存在しており、上述した画像処理によって柱35が部分的に半透明化されている。半透明化は、プレイヤキャラクタ25に近づくにつれて透明度が高くなるように行われる。 FIG. 13 shows an example of an image when transparency processing is performed. In the example shown in FIG. 13, a pillar 35 exists between the player character 25 and the virtual camera 37, and the pillar 35 is partially translucent by the image processing described above. Translucency is performed so that the degree of transparency increases as the player character 25 approaches.

なお、以上説明した各処理部における処理等は、これらの処理の分担の例に限定されるものではなく、例えば、更に少ない数の処理部(例えば1つの処理部)で処理されてもよく、また、更に細分化された処理部により処理されてもよい。また、上述した各処理部の機能は、後述するCPU101(後述の図21参照)が実行するゲームプログラムにより実装されるものであるが、例えばその一部がASICやFPGA等の専用集積回路、その他の電気回路等の実際の装置により実装されてもよい。 In addition, the processing and the like in each processing unit described above are not limited to these examples of sharing the processing, for example, processing may be performed by a smaller number of processing units (for example, one processing unit), Moreover, it may be processed by a further subdivided processing unit. The functions of the processing units described above are implemented by a game program executed by the CPU 101 (see FIG. 21, which will be described later). may be implemented by an actual device such as an electrical circuit of

<4.情報処理装置が実行する処理手順>
次に、図14を用いて、情報処理装置3のCPU101によって実行される処理手順の一例について説明する。
<4. Processing Procedure Executed by Information Processing Apparatus>
Next, an example of a processing procedure executed by the CPU 101 of the information processing device 3 will be described with reference to FIG. 14 .

ステップS10では、情報処理装置3は、画像生成処理部13により、仮想的な3次元空間内において仮想カメラ37による画像を生成する。 In step S<b>10 , the image generation processing unit 13 of the information processing device 3 generates an image captured by the virtual camera 37 in a virtual three-dimensional space.

ステップS20では、情報処理装置3は、第1衝突判定用オブジェクト設定処理部15により、プレイヤキャラクタ25と仮想カメラ37の間に直方体形状の第1の衝突判定用オブジェクト43を設定する。 In step S<b>20 , the information processing device 3 uses the first collision determination object setting processing unit 15 to set the cuboid-shaped first collision determination object 43 between the player character 25 and the virtual camera 37 .

ステップS30では、情報処理装置3は、第2衝突判定用オブジェクト設定処理部17により、背景オブジェクトを包含する直方体形状の第2の衝突判定用オブジェクト49を設定する。 In step S<b>30 , the information processing device 3 uses the second collision determination object setting processing unit 17 to set the second collision determination object 49 having a cuboid shape including the background object.

ステップS40では、情報処理装置3は、衝突判定処理部19により、上記ステップS20で設定された第1の衝突判定用オブジェクト43と、上記ステップS30で設定された第2の衝突判定用オブジェクト49との衝突の有無を判定する。衝突がない場合には(ステップS40:NO)、後述するステップS70に直接移る。一方、衝突があった場合には(ステップS40:YES)、ステップS50に移る。 In step S40, the information processing device 3 causes the collision determination processing unit 19 to determine the first collision determination object 43 set in step S20 and the second collision determination object 49 set in step S30. determines whether or not there is a collision. If there is no collision (step S40: NO), the process proceeds directly to step S70, which will be described later. On the other hand, if there is a collision (step S40: YES), the process proceeds to step S50.

ステップS50では、情報処理装置3は、透明化オブジェクト設定処理部21により、プレイヤキャラクタ25と仮想カメラ37の間に透明化オブジェクト51,57,61を設定する。 In step S<b>50 , the information processing device 3 sets transparent objects 51 , 57 , 61 between the player character 25 and the virtual camera 37 using the transparent object setting processing section 21 .

ステップS60では、情報処理装置3は、透明化実行処理部23により、背景オブジェクトの上記ステップS50で設定された透明化オブジェクト51,57,61と接触する部分に透明化処理を実行する。 In step S60, the information processing apparatus 3 causes the transparency execution processing unit 23 to perform transparency processing on portions of the background object that come into contact with the transparency objects 51, 57, and 61 set in step S50.

ステップS70では、情報処理装置3は、プレイヤによりゲーム終了の指示が行われたか否かを判定する。ゲーム終了の指示が行われていない場合には(ステップS70:NO)、先のステップS10に戻り、同様の手順を繰り返す。一方、ゲーム終了の指示が行われた場合には(ステップS70:YES)、本フローチャートを終了する。 In step S70, the information processing device 3 determines whether or not the player has given an instruction to end the game. If the instruction to end the game has not been issued (step S70: NO), the process returns to step S10 and repeats the same procedure. On the other hand, if an instruction to end the game has been issued (step S70: YES), this flowchart ends.

なお、上述した処理手順は一例であって、上記手順の少なくとも一部を削除又は変更してもよいし、上記以外の手順を追加してもよい。また、上記手順の少なくとも一部の順番を変更してもよいし、複数の手順が単一の手順にまとめられてもよい。 Note that the above-described processing procedure is an example, and at least part of the above procedure may be deleted or changed, or procedures other than the above may be added. Moreover, the order of at least part of the above procedures may be changed, and a plurality of procedures may be combined into a single procedure.

<5.実施形態の効果>
本実施形態のゲームプログラムは、情報処理装置3を、仮想的な3次元空間内において仮想カメラ37から見える画像を生成する画像生成処理部13、画像を生成する際に、3次元空間内に配置されたプレイヤキャラクタ25の基準位置41から仮想カメラ37の基準位置45までの範囲に亘って存在する透明化オブジェクト51,57,61を設定する透明化オブジェクト設定処理部21、画像を生成する際に、3次元空間内に配置された背景オブジェクト35(上記実施形態では柱35)の透明化オブジェクト51,57,61と接触する部分に透明化処理を実行する透明化実行処理部23、として機能させる。
<5. Effect of Embodiment>
The game program of the present embodiment includes the information processing device 3, the image generation processing unit 13 that generates an image that can be seen from the virtual camera 37 in a virtual three-dimensional space, and the A transparent object setting processing unit 21 for setting transparent objects 51, 57, and 61 existing over a range from the reference position 41 of the player character 25 to the reference position 45 of the virtual camera 37, when generating an image. , a transparency execution processing unit 23 for executing transparency processing on the portions of the background object 35 (pillar 35 in the above embodiment) placed in the three-dimensional space that are in contact with the transparent objects 51, 57, 61. .

これにより、仮想カメラ37とプレイヤキャラクタ25との間に障害物となる背景オブジェクト35が入り込んだ場合でも、背景オブジェクト35を部分的に透明化して、プレイヤキャラクタ25が見えなくなることを防止できる。このとき、背景オブジェクト35の全体について透明化を行うのではなく必要な部分のみについて透明化を行うので、開発者の意図しないオブジェクト等が見えてしまうことを防止できる。また、オブジェクト全体の透明化を回避するために例えばオブジェクトを細かく分断して作成しておく等の必要もなくなるので、開発工数やコストが増大することを防止できる。 As a result, even when the background object 35 as an obstacle enters between the virtual camera 37 and the player character 25, the background object 35 is partially made transparent to prevent the player character 25 from becoming invisible. At this time, not the entire background object 35 is made transparent, but only the necessary portion is made transparent, so that objects unintended by the developer can be prevented from being seen. In addition, since it is not necessary to divide the object into small pieces in order to avoid making the entire object transparent, it is possible to prevent an increase in development man-hours and costs.

また、本実施形態では特に、ゲームプログラムは、情報処理装置3を、プレイヤキャラクタ25の基準位置41から仮想カメラ37の基準位置45までの範囲に亘って存在する直方体形状の第1の衝突判定用オブジェクト43を設定する第1衝突判定用オブジェクト設定処理部15、背景オブジェクト35を包含する直方体形状の第2の衝突判定用オブジェクト49を設定する第2衝突判定用オブジェクト設定処理部17、第1の衝突判定用オブジェクト43と第2の衝突判定用オブジェクト49との衝突の有無を判定する衝突判定処理部19、としてさらに機能させ、透明化実行処理部23は、衝突があったと判定された第2の衝突判定用オブジェクト49に対応した背景オブジェクト35の透明化オブジェクト51,57,61と接触する部分に透明化処理を実行する。 In the present embodiment, the game program causes the information processing device 3 to operate as a cuboid-shaped first collision determination object existing over a range from the reference position 41 of the player character 25 to the reference position 45 of the virtual camera 37 . A first collision determination object setting processing unit 15 for setting an object 43, a second collision determination object setting processing unit 17 for setting a cuboidal second collision determination object 49 including a background object 35, a first It further functions as the collision determination processing unit 19 that determines whether or not there is a collision between the collision determination object 43 and the second collision determination object 49. The portions of the background object 35 corresponding to the collision determination object 49 in , which are in contact with the transparent objects 51, 57, and 61, are subjected to transparency processing.

本実施形態では、衝突判定により衝突があったと判定された背景オブジェクト35に対してのみ透明化処理を実行する。これにより、プレイヤキャラクタ25の表示の障害とならない背景オブジェクト35に対しては透明化を行わず、障害となる背景オブジェクト35に対してのみ透明化を行うことができるので、情報処理装置3の処理負荷を軽減できる。また、衝突判定をいわゆる軸平行境界ボックスにより行うので、衝突判定の処理を高速に実行できると共に処理負荷を大幅に軽減できる。 In the present embodiment, the transparent processing is performed only for the background object 35 that has been determined to have collided by the collision determination. As a result, the background object 35 that does not hinder the display of the player character 25 is not made transparent, and only the background object 35 that becomes an obstacle can be made transparent. It can reduce the load. Further, since the collision judgment is performed by a so-called axis-parallel bounding box, the collision judgment processing can be executed at high speed and the processing load can be greatly reduced.

また、本実施形態では特に、透明化オブジェクト設定処理部21は、プレイヤキャラクタ25と仮想カメラ37とを結ぶ光軸39に対する径がプレイヤキャラクタ25から仮想カメラ37に向けて大きくなる形状の透明化オブジェクト51,57,61を設定する。 In this embodiment, the transparent object setting processing unit 21 also creates a transparent object whose diameter increases from the player character 25 toward the virtual camera 37 with respect to the optical axis 39 connecting the player character 25 and the virtual camera 37 . Set 51, 57, 61.

これによる効果を比較例を用いて説明する。図15は、光軸39に対する径が仮想カメラ37からプレイヤキャラクタ25に向けて大きくなる形状の透明化オブジェクト69が設定された比較例における配置の一例を説明するための説明図であり、図16は図15に示す仮想カメラ37による画像の一例である。この場合、図15及び図16に示すように、プレイヤキャラクタ25の近くにはあるがプレイヤキャラクタ25の表示の障害とはならないオブジェクト71(例えば宝箱等)を透明化してしまう可能性がある。また、仮想カメラ37から近い距離にあるオブジェクト73(例えば柱、壁、塀等)については透明化されず、図16に示すようにカメラ画像に割り込んで視界の煩雑さを招く可能性がある。 The effect of this will be described using a comparative example. FIG. 15 is an explanatory diagram for explaining an example of an arrangement in a comparative example in which a transparent object 69 having a shape whose diameter with respect to the optical axis 39 increases from the virtual camera 37 toward the player character 25 is set, and FIG. is an example of an image captured by the virtual camera 37 shown in FIG. In this case, as shown in FIGS. 15 and 16, there is a possibility that an object 71 (such as a treasure chest) that is near the player character 25 but does not obstruct the display of the player character 25 becomes transparent. Objects 73 (for example, pillars, walls, fences, etc.) at a short distance from the virtual camera 37 are not made transparent, and may interfere with the camera image as shown in FIG.

一方、本実施形態では、透明化オブジェクト51,57,61(図17では代表して透明化オブジェクト51を示す)を上述の形状に設定することにより、プレイヤキャラクタ25の近くにはあるが表示の障害とならないオブジェクト71を透明化の処理対象から除外し易くなる。その一方で、プレイヤキャラクタ25の表示の障害とはならなくともカメラ画像に割り込んで視界の煩雑さを招き易い、仮想カメラ37から近い距離にあるオブジェクト73については、透明化の処理対象に含め易くなる。その結果、図18に示すように、障害とならないオブジェクト71の透明化を回避しつつ良好なカメラの視界を確保できる。 On the other hand, in the present embodiment, by setting the transparent objects 51, 57, and 61 (the transparent object 51 is representatively shown in FIG. 17) in the above-described shape, it is near the player character 25 but cannot be displayed. It becomes easy to exclude the object 71 which does not become an obstacle from the processing target of transparency. On the other hand, the object 73 at a short distance from the virtual camera 37, which is likely to interfere with the view of the player character 25 by interrupting the camera image even if it does not interfere with the display of the player character 25, is likely to be included in the transparent processing target. Become. As a result, as shown in FIG. 18, a good view of the camera can be ensured while avoiding transparentization of the object 71 that does not become an obstacle.

また、本実施形態では特に、透明化オブジェクト設定処理部21は、プレイヤキャラクタ25側の先端が尖り、且つ、光軸39に対する径がプレイヤキャラクタ25から仮想カメラ37に向けて曲線状に拡大する形状の透明化オブジェクト51,57,61を設定する。 In this embodiment, the transparent object setting processing unit 21 has a shape whose tip on the player character 25 side is pointed and whose diameter with respect to the optical axis 39 expands in a curve from the player character 25 toward the virtual camera 37 . set the transparency objects 51, 57 and 61 of the .

透明化オブジェクト51,57,61のプレイヤキャラクタ25側の先端を尖らせることにより、プレイヤキャラクタ25の近くにはあるが表示の障害とならないオブジェクトを透明化の処理対象からより除外し易くなる。また、透明化オブジェクト51,57,61の径を仮想カメラ37に向けて曲線状に拡大する形状とすることにより、特に透明化オブジェクト51,61の場合には、仮想カメラ37から近い距離にあるオブジェクトをより透明化し易くなり、カメラの視界をより良好にできる。 By sharpening the tip of the transparent object 51, 57, 61 on the side of the player character 25, it becomes easier to exclude an object that is near the player character 25 but does not interfere with the display from the transparent processing target. Further, by making the diameters of the transparent objects 51 , 57 , and 61 expand in a curved shape toward the virtual camera 37 , especially in the case of the transparent objects 51 and 61 , they are located at a short distance from the virtual camera 37 . Objects can be made more transparent, giving the camera a better view.

また、本実施形態では特に、透明化実行処理部23は、光軸39に近づくにつれて透明度が高くなるように、背景オブジェクト35の透明化オブジェクト51,57,61と接触する部分に透明化処理を実行する。 Further, particularly in this embodiment, the transparency execution processing unit 23 performs transparency processing on portions of the background object 35 that are in contact with the transparent objects 51, 57, and 61 so that the degree of transparency increases as the distance to the optical axis 39 increases. Execute.

これにより、仮想カメラ37の視界の中央部分については透明度を高くしてプレイヤキャラクタ25の視認性を確保することができる。また、視界の中央部分から離れるにつれて透明度を徐々に低くすることで、図13に示すように、背景オブジェクト35の描画の変化が連続的となり、半透明化が実行されている部分と実行されていない部分との境界を不明瞭にできる。その結果、見た目に不自然な透過画像(例えばオブジェクトに穴がぽっかり空いた画像)となるのを防止できる。 As a result, the visibility of the player character 25 can be ensured by increasing the transparency of the central portion of the visual field of the virtual camera 37 . Further, by gradually decreasing the transparency as the distance from the central portion of the field of view increases, the change in rendering of the background object 35 becomes continuous, as shown in FIG. It can obscure the boundary with the non-existent part. As a result, it is possible to prevent an unnatural transparent image (for example, an image in which an object has a gaping hole).

<6.変形例等>
なお、本発明は、上記の実施形態に限られるものではなく、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。
<6. Modifications, etc.>
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications are possible without departing from the gist and technical idea of the present invention.

例えば、以上では透明化オブジェクトの仮想カメラ37側の端面が円形である場合について説明したが、当該端面の形状を楕円形状としてもよい。本変形例では、透明化オブジェクト設定処理部21は、仮想カメラ37側の端部に光軸39に垂直な楕円形状の端面(図示省略)を有する透明化オブジェクト51A,57A,61A(図示省略)を設定する。 For example, the case where the end surface of the transparent object on the side of the virtual camera 37 is circular has been described above, but the shape of the end surface may be elliptical. In this modification, the transparent object setting processing unit 21 includes transparent objects 51A, 57A, and 61A (not shown) having elliptical end faces (not shown) perpendicular to the optical axis 39 at the end on the virtual camera 37 side. set.

図19に、本変形例における透明化処理を実行する際の接触判定手法の一例を示す。図19の楕円は、前述した透明化オブジェクト51,57,61をカメラ座標系53におけるY方向に長くした透明化オブジェクト51A,57A,61Aを、カメラ座標系53のZ軸に垂直な任意の位置の断面で見た形状を表している。楕円の短半径a及び長半径bは、上述した関数h(x)、g(x)、i(x)(但し楕円の半径に応じてyの値を適宜変化させる必要がある)によりZ軸位置に応じて求められる。 FIG. 19 shows an example of a contact determination method when performing transparency processing in this modified example. The ellipses in FIG. 19 represent transparent objects 51A, 57A, and 61A obtained by extending the above-described transparent objects 51, 57, and 61 in the Y direction in the camera coordinate system 53 at arbitrary positions perpendicular to the Z axis of the camera coordinate system 53. It represents the shape seen in the cross section of The minor axis a and major axis b of the ellipse are determined by the above-mentioned functions h(x), g(x), i(x) (however, it is necessary to change the value of y according to the radius of the ellipse). Required according to location.

図19において、例えばピクセルP3に対する処理は次のように行われる。まず、ピクセルP3と透明化オブジェクトの中心線(光軸39)との間に垂線ベクトル75を生成し、当該垂線ベクトル75のカメラ座標系53におけるXZ平面での長さをX3として、当該X3の値を用いて楕円の式(x/a+y/b=1)よりY3を算出する。このY3の値と垂線ベクトル75の長さL3とを比較し、Y3がL3よりも大きい場合には透明化処理を実行する。ピクセルP3の場合にはY3がL3よりも大きいので、ピクセルP3には透明化処理が実行される。 In FIG. 19, for example, pixel P3 is processed as follows. First, a perpendicular vector 75 is generated between the pixel P3 and the center line (optical axis 39) of the transparent object, and the length of the perpendicular vector 75 on the XZ plane in the camera coordinate system 53 is defined as X3. Y3 is calculated from the ellipse formula (x 2 /a 2 +y 2 /b 2 =1) using the values. The value of Y3 is compared with the length L3 of the perpendicular vector 75, and if Y3 is greater than L3, the transparency processing is executed. For pixel P3, Y3 is greater than L3, so pixel P3 undergoes a transparency process.

ピクセルP4に対する処理も上記と同様である。まず、ピクセルP4と透明化オブジェクトの中心線(光軸39)との間に垂線ベクトル77を生成し、当該垂線ベクトル77のカメラ座標系53におけるXZ平面での長さをX4として、当該X4の値を用いて楕円の式(x/a+y/b=1)よりY4を算出する。このY4の値と垂線ベクトル77の長さL4とを比較すると、Y4がL4よりも小さいので、ピクセルP4には透明化処理が実行されない。 The processing for pixel P4 is also the same as above. First, a perpendicular vector 77 is generated between the pixel P4 and the center line (optical axis 39) of the transparent object. Y4 is calculated from the ellipse formula (x 2 /a 2 +y 2 /b 2 =1) using the values. Comparing the value of Y4 with the length L4 of the normal vector 77, Y4 is less than L4, so no transparency processing is performed on pixel P4.

図20に、透明化処理が実行された場合の画像の一例を示す。図20に示す例では、プレイヤキャラクタ25と敵キャラクタ79とが戦闘中であり、仮想カメラ37から見て上下方向に並んで表示されている。そして、プレイヤキャラクタ25と仮想カメラ37との間に柱35が存在しており、上述した画像処理によって柱35が上下方向に長い楕円形状に半透明化されている。特に、リアルタイムに進行する戦闘においてはプレイヤによる一瞬一瞬の判断及び操作が重要となるため、仮に敵キャラクタ79が見えなくなった場合には敵からの攻撃に対して適切な防御ができなかったり、効果的な攻撃のタイミングを逃す等により、戦闘において不利益を受ける可能性がある。本変形例によれば、プレイヤキャラクタ25だけでなく敵キャラクタ79についても合わせて視認性を確保することができるので、上記のような不利益を受けることを防止できる。なお、本変形例は、例えば敵をロックオンする機能等により、プレイヤキャラクタ25と敵キャラクタ79との画面上での配置が固定される場合に特に有効である。 FIG. 20 shows an example of an image when transparency processing is executed. In the example shown in FIG. 20 , the player character 25 and the enemy character 79 are in battle, and displayed side by side in the vertical direction as viewed from the virtual camera 37 . A pillar 35 exists between the player character 25 and the virtual camera 37, and the pillar 35 is translucent in an elliptical shape elongated in the vertical direction by the image processing described above. In particular, in a battle that progresses in real time, moment-by-moment judgments and operations by the player are important. There is a possibility that you will be disadvantaged in battle by missing the timing of a typical attack. According to this modification, it is possible to ensure the visibility of not only the player character 25 but also the enemy character 79, so that the above disadvantages can be prevented. Note that this modification is particularly effective when the positions of the player character 25 and the enemy character 79 on the screen are fixed by, for example, the function of locking on the enemy.

以上の変形例によれば、プレイヤキャラクタ25に関わる重要な情報(上記の例では敵キャラクタ79)がプレイヤキャラクタ25に対して特定の方向に表示されるような場合に、当該特定の方向に長い楕円形状の端面とすることで、重要な情報も合わせて視認性を確保することができる。 According to the above modified example, when the important information related to the player character 25 (the enemy character 79 in the above example) is displayed in a specific direction with respect to the player character 25, the display is long in the specific direction. By using an elliptical end face, it is possible to ensure the visibility of important information as well.

なお、本発明は、仮想カメラと被写体であるオブジェクトの間に他のオブジェクトが入り込む場合があるゲームであれば、様々なジャンルのゲームに適用可能である。例えば、シミュレーションゲーム、ロールプレイングゲーム、アクションゲーム、アクションロールプレイングゲーム、格闘ゲーム、アドベンチャーゲーム等にも、本発明は適用可能である。 It should be noted that the present invention can be applied to various genres of games as long as it is a game in which another object sometimes enters between the virtual camera and the object, which is the subject. For example, the present invention can be applied to simulation games, role-playing games, action games, action role-playing games, fighting games, adventure games, and the like.

また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。その他、一々例示はしないが、上記実施形態や各変形例は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。 In addition to the methods already described above, the methods according to the above-described embodiments and modifications may be appropriately combined and used. In addition, although not exemplified one by one, the above-described embodiment and each modified example can be implemented with various modifications within the scope not departing from the spirit thereof.

<7.情報処理装置のハードウェア構成>
次に、図21を用いて、上記で説明したCPU101等が実行するプログラムにより実装された各処理部を実現する情報処理装置3のハードウェア構成の一例について説明する。
<7. Hardware Configuration of Information Processing Device>
Next, with reference to FIG. 21, an example of the hardware configuration of the information processing device 3 that implements each processing unit implemented by the program executed by the CPU 101 and the like described above will be described.

図21に示すように、情報処理装置3は、例えば、CPU101と、ROM103と、RAM105と、GPU106と、例えばASIC又はFPGA等の特定の用途向けに構築された専用集積回路107と、入力装置113と、出力装置115と、記録装置117と、ドライブ119と、接続ポート121と、通信装置123を有する。これらの構成は、バス109や入出力インターフェース111等を介し相互に信号を伝達可能に接続されている。 As shown in FIG. 21, the information processing device 3 includes, for example, a CPU 101, a ROM 103, a RAM 105, a GPU 106, a dedicated integrated circuit 107 such as an ASIC or FPGA built for a specific application, and an input device 113. , an output device 115 , a recording device 117 , a drive 119 , a connection port 121 and a communication device 123 . These components are connected via a bus 109, an input/output interface 111, etc. so as to be able to transmit signals to each other.

ゲームプログラムは、例えば、ROM103やRAM105、記録装置117等に記録しておくことができる。 A game program can be recorded in, for example, the ROM 103, the RAM 105, the recording device 117, or the like.

また、ゲームプログラムは、例えば、フレキシブルディスクなどの磁気ディスク、各種のCD、MOディスク、DVD等の光ディスク、半導体メモリ等のリムーバブルな記録媒体125に、一時的又は永続的(非一時的)に記録しておくこともできる。このような記録媒体125は、いわゆるパッケージソフトウエアとして提供することもできる。この場合、これらの記録媒体125に記録されたゲームプログラムは、ドライブ119により読み出されて、入出力インターフェース111やバス109等を介し上記記録装置117に記録されてもよい。 In addition, the game program is temporarily or permanently (non-temporarily) recorded on a removable recording medium 125 such as a magnetic disk such as a flexible disk, an optical disk such as various CDs, MO disks, and DVDs, and a semiconductor memory. You can also keep it. Such a recording medium 125 can also be provided as so-called package software. In this case, the game programs recorded on these recording media 125 may be read by the drive 119 and recorded on the recording device 117 via the input/output interface 111, the bus 109, or the like.

また、ゲームプログラムは、例えば、ダウンロードサイト、他のコンピュータ、他の記録装置等(図示せず)に記録しておくこともできる。この場合、ゲームプログラムは、LANやインターネット等のネットワークNWを介し転送され、通信装置123がこのプログラムを受信する。そして、通信装置123が受信したプログラムは、入出力インターフェース111やバス109等を介し上記記録装置117に記録されてもよい。 Also, the game program can be recorded in, for example, a download site, another computer, another recording device, or the like (not shown). In this case, the game program is transferred via a network NW such as LAN or Internet, and the communication device 123 receives this program. The program received by the communication device 123 may be recorded in the recording device 117 via the input/output interface 111, the bus 109, or the like.

また、ゲームプログラムは、例えば、適宜の外部接続機器127に記録しておくこともできる。この場合、ゲームプログラムは、適宜の接続ポート121を介し転送され、入出力インターフェース111やバス109等を介し上記記録装置117に記録されてもよい。 Also, the game program can be recorded in an appropriate externally connected device 127, for example. In this case, the game program may be transferred via an appropriate connection port 121 and recorded in the recording device 117 via the input/output interface 111, bus 109, or the like.

そして、CPU101が、上記記録装置117に記録されたプログラムに従い各種の処理を実行することにより、前述の画像生成処理部13、透明化オブジェクト設定処理部21、透明化実行処理部23等による処理が実現される。この際、CPU101は、例えば、上記記録装置117からプログラムを、直接読み出して実行してもよく、RAM105に一旦ロードした上で実行してもよい。更にCPU101は、例えば、プログラムを通信装置123やドライブ119、接続ポート121を介し受信する場合、受信したプログラムを記録装置117に記録せずに直接実行してもよい。 Then, the CPU 101 executes various processes in accordance with the programs recorded in the recording device 117, so that the processes by the image generation processing section 13, the transparent object setting processing section 21, the transparency execution processing section 23, etc. are executed. Realized. At this time, the CPU 101 may, for example, directly read out the program from the recording device 117 and execute it, or may execute it after temporarily loading it into the RAM 105 . Further, when the CPU 101 receives a program via the communication device 123 , the drive 119 or the connection port 121 , for example, the received program may be directly executed without being recorded in the recording device 117 .

また、CPU101は、必要に応じて、前述のゲームコントローラ5を含む、例えばマウス、キーボード、マイク等(図示せず)の入力装置113から入力する信号や情報に基づいて各種の処理を行ってもよい。 The CPU 101 may also perform various processing based on signals and information input from an input device 113 such as a mouse, keyboard, microphone, etc. (not shown) including the game controller 5 as necessary. good.

GPU106は、CPU101からの指示に応じて例えばレンダリング処理などの画像表示のための処理を行う。 The GPU 106 performs processing for image display such as rendering processing in accordance with instructions from the CPU 101 .

そして、CPU101及びGPU106は、上記の処理を実行した結果を、例えば前述の表示装置7や音声出力部を含む、出力装置115から出力する。さらにCPU101及びGPU106は、必要に応じてこの処理結果を通信装置123や接続ポート121を介し送信してもよく、上記記録装置117や記録媒体125に記録させてもよい。 Then, the CPU 101 and the GPU 106 output the result of executing the above processing from the output device 115 including the aforementioned display device 7 and audio output unit, for example. Furthermore, the CPU 101 and GPU 106 may transmit this processing result via the communication device 123 or the connection port 121 as necessary, or record it in the recording device 117 or recording medium 125 .

3 情報処理装置
13 画像生成処理部
15 第1衝突判定用オブジェクト設定処理部
17 第2衝突判定用オブジェクト設定処理部
19 衝突判定処理部
21 透明化オブジェクト設定処理部
23 透明化実行処理部
25 プレイヤキャラクタ(第1のオブジェクト)
35 柱(第2のオブジェクト)
37 仮想カメラ
39 光軸(軸)
41 基準位置(第1のオブジェクトの位置)
43 第1の衝突判定用オブジェクト
45 基準位置(仮想カメラの位置)
49 第2の衝突判定用オブジェクト
51 透明化オブジェクト
57 透明化オブジェクト
61 透明化オブジェクト
125 記録媒体
3 information processing device 13 image generation processing unit 15 first collision determination object setting processing unit 17 second collision determination object setting processing unit 19 collision determination processing unit 21 transparency object setting processing unit 23 transparency execution processing unit 25 player character (first object)
35 pillar (second object)
37 virtual camera 39 optical axis (axis)
41 reference position (position of first object)
43 First collision determination object 45 Reference position (virtual camera position)
49 second collision determination object 51 transparent object 57 transparent object 61 transparent object 125 recording medium

Claims (8)

情報処理装置を、
仮想的な3次元空間内において仮想カメラから見える画像を生成する画像生成処理部、
前記画像を生成する際に、前記3次元空間内に配置された第1のオブジェクトの位置から前記仮想カメラの位置までの範囲に亘って存在する透明化オブジェクトを設定する透明化オブジェクト設定処理部、
前記画像を生成する際に、前記3次元空間内に配置された第2のオブジェクトのうち前記透明化オブジェクトと接触する部分に透明化処理を実行し、前記第2のオブジェクトのうち前記透明化オブジェクトと接触しない部分に透明化処理を実行しない透明化実行処理部、
として機能させる、ゲームプログラム。
information processing equipment,
an image generation processing unit that generates an image seen from a virtual camera in a virtual three-dimensional space;
a transparent object setting processing unit that sets a transparent object existing over a range from the position of a first object arranged in the three-dimensional space to the position of the virtual camera when generating the image;
When generating the image, a portion of a second object placed in the three-dimensional space that is in contact with the transparent object is subjected to a transparent processing , and a portion of the second object that is in contact with the transparent object is transparentized. a transparency execution processing unit that does not perform transparency processing on a portion that does not contact the
A game program that functions as
前記情報処理装置を、
前記第1のオブジェクトの位置から前記仮想カメラの位置までの範囲に亘って存在する、衝突判定を有する第1の衝突判定用オブジェクトを設定する第1衝突判定用オブジェクト設定処理部、
前記第2のオブジェクトを包含する、衝突判定を有する第2の衝突判定用オブジェクトを設定する第2衝突判定用オブジェクト設定処理部、
前記第1の衝突判定用オブジェクトと前記第2の衝突判定用オブジェクトとの衝突の有無を判定する衝突判定処理部、
として機能させ、
前記透明化実行処理部は、
前記衝突があったと判定された前記第2の衝突判定用オブジェクトに対応した前記第2のオブジェクトのうち前記透明化オブジェクトと接触する部分に前記透明化処理を実行する、
請求項1に記載のゲームプログラム。
the information processing device,
a first collision determination object setting unit that sets a first collision determination object having a collision determination that exists over a range from the position of the first object to the position of the virtual camera;
a second collision determination object setting unit that sets a second collision determination object that includes the second object and has collision determination ;
a collision determination processing unit that determines whether or not there is a collision between the first object for collision determination and the second object for collision determination;
function as
The transparency execution processing unit
executing the transparentization process on a portion of the second object corresponding to the second collision determination object determined to have collided, the portion being in contact with the transparent object;
The game program according to claim 1.
前記透明化オブジェクト設定処理部は、
前記衝突があったと判定された場合に前記透明化オブジェクトを設定し、前記衝突がないと判定された場合には前記透明化オブジェクトを設定せず、
前記透明化実行処理部は、
前記衝突があったと判定された場合に前記透明化処理を実行し、前記衝突がないと判定された場合には前記透明化処理を実行しない、
請求項に記載のゲームプログラム。
The transparency object setting processing unit
setting the transparent object when it is determined that the collision has occurred, and not setting the transparent object when it is determined that the collision has not occurred;
The transparency execution processing unit
executing the transparency processing when it is determined that the collision has occurred, and not performing the transparency processing when it is determined that the collision has not occurred;
3. A game program according to claim 2 .
前記透明化オブジェクト設定処理部は、
前記第1のオブジェクトから前記仮想カメラまでの範囲で単調増加する曲線の前記第1のオブジェクトと前記仮想カメラとを結ぶ軸を回転軸とした回転体である前記透明化オブジェクトを設定する、
請求項1乃至3のいずれか1項に記載のゲームプログラム。
The transparency object setting processing unit
setting the transparent object, which is a body of rotation whose rotation axis is an axis connecting the first object and the virtual camera, the curve monotonously increasing in the range from the first object to the virtual camera;
4. A game program according to any one of claims 1 to 3 .
前記透明化オブジェクト設定処理部は、
前記仮想カメラ側の端部に前記第1のオブジェクトと前記仮想カメラとを結ぶ軸に垂直な楕円形状の端面を有する前記透明化オブジェクトを設定する、
請求項1乃至4のいずれか1項に記載のゲームプログラム。
The transparency object setting processing unit
setting the transparent object having an elliptical end face perpendicular to an axis connecting the first object and the virtual camera at the end on the virtual camera side;
A game program according to any one of claims 1 to 4 .
前記透明化オブジェクト設定処理部は、The transparency object setting processing unit
敵キャラクタが前記第1のオブジェクトに対して特定の方向に表示される場合、前記特定の方向に長い楕円形状の前記端面を有する前記透明化オブジェクトを設定する、請求項5に記載のゲームプログラム。6. The game program according to claim 5, wherein when an enemy character is displayed in a specific direction with respect to said first object, said transparent object having said elliptical end face elongated in said specific direction is set.
請求項1乃至6のいずれか1項に記載のゲームプログラムを記録した、情報処理装置が読み取り可能な記録媒体。 A recording medium readable by an information processing device, in which the game program according to any one of claims 1 to 6 is recorded. 情報処理装置によって実行されるゲーム処理方法であって、
仮想的な3次元空間内において仮想カメラから見える画像を生成するステップと、
前記画像を生成する際に、前記3次元空間内に配置された第1のオブジェクトの位置から前記仮想カメラの位置までの範囲に亘って存在する透明化オブジェクトを設定するステップと、
前記画像を生成する際に、前記3次元空間内に配置された第2のオブジェクトのうち前記透明化オブジェクトと接触する部分に透明化処理を実行し、前記第2のオブジェクトのうち前記透明化オブジェクトと接触しない部分に透明化処理を実行しないステップと、
を有する、ゲーム処理方法。
A game processing method executed by an information processing device, comprising:
generating an image viewed by a virtual camera in a virtual three-dimensional space;
setting a transparency object existing over a range from a position of a first object arranged in the three-dimensional space to a position of the virtual camera when generating the image;
When generating the image, a portion of a second object placed in the three-dimensional space that is in contact with the transparent object is subjected to a transparent processing , and a portion of the second object that is in contact with the transparent object is transparentized. a step of not performing transparency processing on portions that do not come into contact with
A game processing method comprising:
JP2019011829A 2019-01-28 2019-01-28 Game program, recording medium, game processing method Active JP7304701B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019011829A JP7304701B2 (en) 2019-01-28 2019-01-28 Game program, recording medium, game processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019011829A JP7304701B2 (en) 2019-01-28 2019-01-28 Game program, recording medium, game processing method

Publications (2)

Publication Number Publication Date
JP2020116296A JP2020116296A (en) 2020-08-06
JP7304701B2 true JP7304701B2 (en) 2023-07-07

Family

ID=71891602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019011829A Active JP7304701B2 (en) 2019-01-28 2019-01-28 Game program, recording medium, game processing method

Country Status (1)

Country Link
JP (1) JP7304701B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005322108A (en) 2004-05-11 2005-11-17 Konami Co Ltd Display device, displaying method, and program
JP2006346507A (en) 2006-10-04 2006-12-28 Nintendo Co Ltd Game apparatus and image processing program
JP4118920B2 (en) 2006-02-22 2008-07-16 株式会社スクウェア・エニックス Game device, field boundary display method, program, and recording medium
JP2009271664A (en) 2008-05-02 2009-11-19 Konami Digital Entertainment Co Ltd Display, display method, and program
JP4707080B2 (en) 2001-07-30 2011-06-22 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP4912377B2 (en) 2008-10-07 2012-04-11 株式会社コナミデジタルエンタテインメント Display device, display method, and program
JP5154775B2 (en) 2006-08-18 2013-02-27 任天堂株式会社 GAME PROGRAM AND GAME DEVICE
JP5822655B2 (en) 2011-10-28 2015-11-24 任天堂株式会社 GAME PROCESSING SYSTEM, GAME PROCESSING METHOD, GAME PROCESSING DEVICE, AND GAME PROCESSING PROGRAM
JP6298130B2 (en) 2016-09-14 2018-03-20 株式会社バンダイナムコエンターテインメント Simulation system and program
JP2018147002A (en) 2017-03-01 2018-09-20 任天堂株式会社 Image processing program, image processing system, image processing apparatus and image processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3372832B2 (en) * 1997-07-25 2003-02-04 コナミ株式会社 GAME DEVICE, GAME IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING GAME IMAGE PROCESSING PROGRAM
JP4114824B2 (en) * 1998-04-24 2008-07-09 株式会社バンダイナムコゲームス Image generating apparatus and information storage medium

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4707080B2 (en) 2001-07-30 2011-06-22 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP2005322108A (en) 2004-05-11 2005-11-17 Konami Co Ltd Display device, displaying method, and program
JP4118920B2 (en) 2006-02-22 2008-07-16 株式会社スクウェア・エニックス Game device, field boundary display method, program, and recording medium
JP5154775B2 (en) 2006-08-18 2013-02-27 任天堂株式会社 GAME PROGRAM AND GAME DEVICE
JP2006346507A (en) 2006-10-04 2006-12-28 Nintendo Co Ltd Game apparatus and image processing program
JP2009271664A (en) 2008-05-02 2009-11-19 Konami Digital Entertainment Co Ltd Display, display method, and program
JP4912377B2 (en) 2008-10-07 2012-04-11 株式会社コナミデジタルエンタテインメント Display device, display method, and program
JP5822655B2 (en) 2011-10-28 2015-11-24 任天堂株式会社 GAME PROCESSING SYSTEM, GAME PROCESSING METHOD, GAME PROCESSING DEVICE, AND GAME PROCESSING PROGRAM
JP6298130B2 (en) 2016-09-14 2018-03-20 株式会社バンダイナムコエンターテインメント Simulation system and program
JP2018147002A (en) 2017-03-01 2018-09-20 任天堂株式会社 Image processing program, image processing system, image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2020116296A (en) 2020-08-06

Similar Documents

Publication Publication Date Title
JP3795856B2 (en) Video game apparatus, video game progress control method, program, and recording medium
KR100990304B1 (en) Object display device, object distribution method, and information recording medium for recording the program
JP3869452B1 (en) Video game processing apparatus, video game processing method, and video game processing program
JP2001276418A (en) Game device and information memory medium
JP7238143B2 (en) MOVEMENT CONTROL METHOD AND APPARATUS THEREOF, TERMINAL AND COMPUTER PROGRAM FOR VIRTUAL OBJECT
JP2006065877A5 (en)
US10102672B2 (en) Storage medium, information processing apparatus and control method
JP2006024236A5 (en)
EP1721646A2 (en) Storage medium having game program stored thereon and game apparatus
JP7058991B2 (en) Game program, recording medium, game processing method
JP2005293122A (en) Game software with function to display large-surface object, and game device
CN112233253B (en) Virtual sphere deformation control method and device, electronic equipment and storage medium
JP2003260269A (en) Game information and information memory medium
JP4788950B2 (en) Image processing program, image processing method, and image processing apparatus
JP5489195B2 (en) Video game program and video game apparatus
JP7304701B2 (en) Game program, recording medium, game processing method
JP4330412B2 (en) Game device and program for causing computer to function
JP5677050B2 (en) GAME PROGRAM AND GAME DEVICE
JP4377415B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP5088972B2 (en) Image processing apparatus, image processing method, computer program, recording medium, and semiconductor device
JP3594915B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP7422206B1 (en) Programs, methods and systems
JP2021164609A (en) Game program, recording medium, game processing method
WO2011021504A1 (en) Game device, game processing method, information storage medium, and program
JP7304702B2 (en) Game program, recording medium, game processing method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230627

R150 Certificate of patent or registration of utility model

Ref document number: 7304701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150