JP6567325B2 - Game program - Google Patents
Game program Download PDFInfo
- Publication number
- JP6567325B2 JP6567325B2 JP2015105005A JP2015105005A JP6567325B2 JP 6567325 B2 JP6567325 B2 JP 6567325B2 JP 2015105005 A JP2015105005 A JP 2015105005A JP 2015105005 A JP2015105005 A JP 2015105005A JP 6567325 B2 JP6567325 B2 JP 6567325B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual viewpoint
- view
- area
- virtual
- virtual camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Description
本発明は、ゲーム内の仮想空間における仮想カメラの動作制御を行うゲーム・プログラムに関し、より詳細には、ユーザ命令により仮想空間を移動させるプレイヤ・オブジェクトに対して仮想カメラを自動追尾すると共に、敵オブジェクトの存在も考慮して仮想カメラの位置および姿勢の制御を行うゲーム・プログラムに関するものである。 The present invention relates to a game program that controls the operation of a virtual camera in a virtual space in a game. More specifically, the present invention automatically tracks a virtual camera with respect to a player object that moves a virtual space by a user command, and The present invention relates to a game program that controls the position and orientation of a virtual camera in consideration of the existence of an object.
ゲーム内の仮想空間において、主人公となるキャラクタ(プレイヤ・オブジェクト)の後方に仮想カメラを配置し、キャラクタの仮想空間内の移動に従って当該移動の様子を映し出す技術が知られている。また、特にレーシング・ゲーム等の用途では、仮想空間内に複数の仮想カメラを設け、複数の視野からの画像を選択的に切り替えて映し出す技術が知られている。従来技術においては、特に、このような仮想カメラの動作を工夫してユーザに与える臨場感を高めるような取り組みがなされてきた。 A technique is known in which a virtual camera is placed behind a character (player object) as a main character in a virtual space in a game, and the movement is projected according to the movement of the character in the virtual space. In particular, for applications such as racing games, a technique is known in which a plurality of virtual cameras are provided in a virtual space, and images from a plurality of fields of view are selectively switched and displayed. In the prior art, in particular, efforts have been made to enhance the realistic sensation given to the user by devising the operation of such a virtual camera.
例えば、特許文献1では、対戦型ゲームにおいて、所与の経路上を移動するプレイヤ・オブジェクトの近くに敵オブジェクトが存在するような場合に、プレイヤ経路を自動的に変更して敵オブジェクトに接近させ、これに併せて仮想カメラを追跡させる。 For example, in Patent Document 1, when an enemy object exists near a player object moving on a given route in a competitive game, the player route is automatically changed to approach the enemy object. In conjunction with this, the virtual camera is tracked.
ところで、昨今において、ユーザが自らのスマートフォンのタッチ画面を用いてゲームを楽しむようなスマートフォン・ゲームが普及している。スマートフォンによるユーザ操作として、ユーザは通常、タッチ画面を縦方向に向けて片手のタッチ画面操作を行う。この点、スマートフォン・ゲームにおいても、ユーザの片手操作を可能とすべくタッチ画面を縦方向に固定してゲームを進行させるのがよい。なお、横方向にタッチ画面を固定した場合は、通常のゲーム端末と同様に、両手によるユーザ操作が必要となる。 By the way, in recent years, a smartphone game in which a user enjoys a game using a touch screen of his / her smartphone has been widespread. As a user operation using a smartphone, the user usually performs a one-hand touch screen operation with the touch screen directed in the vertical direction. In this regard, even in a smartphone game, it is preferable to advance the game by fixing the touch screen in the vertical direction so that the user can perform one-hand operation. When the touch screen is fixed in the horizontal direction, user operations with both hands are required as in a normal game terminal.
スマートフォン・ゲームにおいてタッチ画面を縦方向に固定する場合の問題点として、左右の表示範囲が必然的に狭小となり、例えば、仮想空間内での対戦型ゲームにおいて、プレイヤ・オブジェクトが横方向に高速移動する場合や、横方向に敵オブジェクトやトラップ等の障害物が存在するような場合に、これらが突然画面に登場することになる。このことは、ゲーム進行においてユーザにとって好ましくない不意打ちを構成することになる。即ち、仮想カメラからの視界表示に関し、ディスプレイを横方向に固定したときと比べたときに、ユーザに多くの不快感を与えるおそれがある。 When fixing the touch screen in the vertical direction in a smartphone game, the left and right display range is inevitably narrowed. For example, in a battle game in a virtual space, the player object moves fast in the horizontal direction If there are obstacles such as enemy objects or traps in the horizontal direction, these will suddenly appear on the screen. This constitutes a surprise that is unfavorable for the user in the progress of the game. That is, regarding the view display from the virtual camera, there is a risk of giving the user a lot of discomfort when compared to when the display is fixed in the horizontal direction.
本発明の目的は、ゲームの臨場感を損なうことなくユーザへのユーザビリティを向上させる仮想カメラのカメラワーク制御を提供することである。特に、スマートフォン・ゲームにおいてユーザがタッチ画面を操作する際に、効果的な仮想カメラのカメラワーク制御を通じて特定方向の画面表示領域の制約を解消することである。 An object of the present invention is to provide camera work control of a virtual camera that improves usability for a user without impairing the sense of reality of the game. In particular, when a user operates a touch screen in a smartphone game, the restriction of a screen display area in a specific direction is eliminated through effective camera work control of a virtual camera.
上記課題を解決するために、本発明は、仮想空間内に設けた仮想カメラをコンピュータに制御させるゲーム・プログラムを提供する。即ち、入力部からのユーザ命令に基づいて仮想空間に配置したプレイヤ・オブジェクトを移動させる移動操作部、仮想カメラからの視界領域に基づいて、表示部に表示するためのゲーム画像を生成する画像生成部、敵オブジェクトの位置を特定し、視界中心点に関連付けられる検知領域内に敵オブジェクトを検知する特定検知部、および仮想カメラからの視界領域を最適化する制御部としてコンピュータを機能させる。そして、上記制御部が、プレイヤ・オブジェクトの移動に従い、プレイヤ・オブジェクトの位置を視界領域内に含むように視界中心点を移動させて、仮想カメラにプレイヤ・オブジェクトを追尾させ、また、敵オブジェクトの位置が検知領域内であり、且つ当該特定された敵オブジェクトの位置が視界領域内でないときに、視界中心点を一定位置に保ったまま、視界中心点を中心とした球表面の一部からなる移動可能範囲内で仮想カメラを移動させて、プレイヤ・オブジェクトおよび敵オブジェクトの各位置を共に視界領域内に含めるように構成されることを特徴とする。 In order to solve the above problems, the present invention provides a game program for causing a computer to control a virtual camera provided in a virtual space. That is, an image generation unit that generates a game image to be displayed on the display unit based on a moving operation unit that moves a player object placed in the virtual space based on a user command from the input unit, and a view area from the virtual camera The computer functions as a specific detection unit that identifies the position of the enemy object, detects an enemy object within a detection region associated with the center point of view, and a control unit that optimizes the view region from the virtual camera. Then, according to the movement of the player object, the control unit moves the visual field center point so that the position of the player object is included in the visual field area, causes the virtual camera to track the player object, When the position is within the detection area and the position of the identified enemy object is not within the visual field area, the visual field central point is maintained at a fixed position, and consists of a part of the sphere surface centered on the visual field central point. The virtual camera is moved within the movable range, and each position of the player object and the enemy object is included in the visual field area.
また、本発明において上記制御部が更に、移動させた仮想カメラを、仮想空間において視界中心点に対して逆方向に移動させることを特徴とする。加えて、上記移動可能範囲が、水平面上の視界中心点に対して、所与の角度の極角範囲および方位角範囲で決定される領域であることを特徴とする。特に、方位角範囲が±10度以下の範囲であることを特徴とする。 In the present invention, the control unit further moves the moved virtual camera in a reverse direction with respect to the visual center point in the virtual space. In addition, the movable range is a region determined by a polar angle range and an azimuth angle range of a given angle with respect to a visual field center point on a horizontal plane. In particular, the azimuth angle range is a range of ± 10 degrees or less.
本発明によれば、ユーザ画面には表示されていないが近くに存在するような敵オブジェクトを自動的に検出して、プレイヤ・オブジェクトと共に敵オブジェクトを画像表示するカメラワークを提供可能とする。これにより、このような敵オブジェクトの存在を早い段階でユーザ画面に提示することができることができ、ユーザにゲーム進行上の不快感を与えることなく、ユーザビリティを向上させることができる。 According to the present invention, it is possible to automatically detect an enemy object that is not displayed on the user screen but exists nearby, and to provide camera work for displaying an image of the enemy object together with the player object. Thereby, the presence of such an enemy object can be presented on the user screen at an early stage, and usability can be improved without giving the user a sense of discomfort in the progress of the game.
そして、このような仮想カメラの球平面上の回転動作制御により、プレイヤ・オブジェクトに対して敵オブジェクトの位置を画面の中心線に近づけて表示することができ、ゲーム進行中に敵オブジェクトに関する周辺情報をより多く画面表示できる。これにより、縦方向に固定したスマートフォン画面における横方向のような特定方向の画面表示領域の制約を解消し、敵オブジェクトに対するユーザ・アクション(攻撃等)を効果的に促すことができる。 By controlling the rotation of the virtual camera on the spherical plane, the position of the enemy object can be displayed close to the center line of the screen with respect to the player object, and peripheral information about the enemy object can be displayed while the game is in progress. Can be displayed on the screen more. Thereby, the restriction | limiting of the screen display area | region of the specific direction like the horizontal direction in the smart phone screen fixed to the vertical direction can be eliminated, and a user action (attack etc.) with respect to an enemy object can be promoted effectively.
本発明において、上記のように仮想カメラの回転角度を「10度以下」に制限しているのは、ユーザによる画面酔い(映像酔い)を考慮した結果である。即ち、仮想カメラの回転を10度までに制限することにより、ユーザへの臨場感を損なわせることなく、画面酔いを生じさせない効果的なユーザビリティを提供することができる。 In the present invention, the reason why the rotation angle of the virtual camera is limited to “10 degrees or less” as described above is the result of considering screen sickness (video sickness) by the user. That is, by limiting the rotation of the virtual camera to 10 degrees, it is possible to provide effective usability that does not cause screen sickness without impairing the sense of presence for the user.
以下、図面を参照して、本発明の実施形態による仮想空間内に設けた仮想カメラの動作をコンピュータに制御させるゲーム・プログラムおよびこれに関連するゲーム・システムについて説明する。 Hereinafter, a game program for causing a computer to control the operation of a virtual camera provided in a virtual space according to an embodiment of the present invention and a game system related thereto will be described with reference to the drawings.
ゲーム・コンテンツの概要
まず図1を参照して、本発明のゲーム・プログラムが実装される一例のゲーム・コンテンツの概要を示す。ここでは図1の表示画面11のように、ゲーム・コンテンツ態様としてアクションRPGを想定する。表示画面11の中心に表示されるプレイヤ・オブジェクト1は、端末入力部を通じたユーザ命令にしたがってゲーム内仮想空間を原則水平面上に沿って移動可能である。プレイヤ・オブジェクト1の後方かつ上方には仮想カメラ3が配置され(図示せず)、仮想カメラ3からの視界領域に基づきゲーム画像6が生成され、表示画面11上に表示される。
Outline of Game Content First, referring to FIG. 1, an outline of an example of game content in which the game program of the present invention is implemented is shown. Here, as in the display screen 11 of FIG. 1, an action RPG is assumed as a game content mode. The player object 1 displayed at the center of the display screen 11 can move in the game virtual space along the horizontal plane in principle according to a user command through the terminal input unit. A virtual camera 3 is disposed behind and above the player object 1 (not shown), and a game image 6 is generated based on the field of view from the virtual camera 3 and displayed on the display screen 11.
また、表示画面11には、ゲーム画像6としてプレイヤ・オブジェクト1を中心に円形状の敵オブジェクト検知領域7が任意に表示される(後述)。更に、表示画面11上部右側には、プレイヤ・オブジェクト1を中心とした仮想空間内の広域平面情報6aが、ゲーム画像6の一部として表示される。広域平面情報6aは、プレイヤ・オブジェクト1を中心にして、垂直方向からの平面図を、プレイヤ・オブジェクト1の方位および移動可能範囲と共に示しており、仮想カメラ3からの視界領域よりも広範囲な情報をユーザに提示可能である。 In addition, a circular enemy object detection area 7 centered on the player object 1 is arbitrarily displayed as a game image 6 on the display screen 11 (described later). Further, on the upper right side of the display screen 11, wide area plane information 6 a in the virtual space centered on the player object 1 is displayed as a part of the game image 6. The wide area plane information 6 a shows a plan view from the vertical direction with the player object 1 as the center, together with the orientation and the movable range of the player object 1, and is wider than the view area from the virtual camera 3. Can be presented to the user.
この他、表示画面11上部左側には、アクションRPGにおけるプレイヤ・オブジェクト1の特性情報6bとして、キャラクタの種別、キャラクタ画像、強さ(ヒットポイント(HP)やセーブポイント(SP))等もゲーム画像6の一部として表示される。なお、図1に示したプレイヤ・オブジェクト1は、武器として剣を保有していることが示されているが、アクションRPGではこのような保有武器によってもプレイヤ・オブジェクト1の強さが変わるように構成されるため、武器情報等も特性情報に含めるのがよい。 In addition, on the upper left side of the display screen 11, as the characteristic information 6b of the player object 1 in the action RPG, the character type, character image, strength (hit points (HP) and save points (SP)), etc. are also game images. 6 is displayed. The player object 1 shown in FIG. 1 is shown to have a sword as a weapon, but in the action RPG, the strength of the player object 1 is changed by such a weapon. Since it is configured, weapon information and the like are preferably included in the characteristic information.
図1では、敵オブジェクト2(図示せず。図9以降で後述)は未だ周辺領域に存在していないため、ゲーム画像6上にも広域平面情報6aとしても表示されない。しかしながら、ユーザ命令によるプレイヤ・オブジェクト1の移動、および/または所与のプログラム命令による敵オブジェクト2の移動に伴い、これらオブジェクト同士が相互に接近した場合には、敵オブジェクト2の存在がまず広域平面情報6aに表示され、次いで、ゲーム画像6内に表示されることになる。なお、この場合は、ユーザ操作によりプレイヤ・オブジェクト1を敵オブジェクト2の位置まで更に移動させることで、ユーザはプレイヤ・オブジェクト1を敵オブジェクト2と対戦させることができる。 In FIG. 1, the enemy object 2 (not shown, which will be described later in FIG. 9 and later) does not yet exist in the peripheral area, and therefore is not displayed on the game image 6 as the wide area plane information 6 a. However, when the player object 1 is moved by the user command and / or the enemy object 2 is moved by the given program command, when these objects come close to each other, the enemy object 2 is first present in the wide area plane. It is displayed in the information 6a and then displayed in the game image 6. In this case, the user can move the player object 1 to the enemy object 2 by further moving the player object 1 to the position of the enemy object 2 by a user operation.
本発明のゲーム・プログラムのコンテンツは、このようなアクションRPGに限定されない。仮想空間内に複数のオブジェクトを同時に存在させ、仮想カメラ3からの視界に基づいて表示画面上でこれらオブジェクトの全部または一部を特定可能であり、ユーザにより空間内を移動可能なゲームであればよく、アクションRPG以外にも例えばシューティング・ゲーム等にも適用可能である。 The content of the game program of the present invention is not limited to such an action RPG. A game in which a plurality of objects can exist simultaneously in the virtual space and all or part of these objects can be specified on the display screen based on the field of view from the virtual camera 3 and can be moved in the space by the user. In addition to the action RPG, the present invention can be applied to, for example, a shooting game.
ゲーム・システムの概要
図2および図3を参照して、本発明の実施形態におけるゲーム・システム100の基本構成について説明する。なお、図2および図3は、ゲーム・システムの主要な構成要素のみを機能的に示したブロック図である。図2に示すように、ゲーム・システム100は、ユーザ端末10とゲーム・サーバ50を備える。
Outline of Game System With reference to FIG. 2 and FIG. 3, a basic configuration of the game system 100 in the embodiment of the present invention will be described. 2 and 3 are block diagrams functionally showing only main components of the game system. As shown in FIG. 2, the game system 100 includes a user terminal 10 and a game server 50.
図2を参照すると、ユーザ端末10は、端末表示部11、端末入力部12、端末処理部13、端末通信部14および端末記憶部15等を備え、ネットワークを介してゲーム・サーバ50と相互作用が可能である。 Referring to FIG. 2, the user terminal 10 includes a terminal display unit 11, a terminal input unit 12, a terminal processing unit 13, a terminal communication unit 14, a terminal storage unit 15, and the like, and interacts with the game server 50 via a network. Is possible.
端末表示部11は、ゲーム・サーバ50で生成される、端末通信部14で受信したゲーム画面を端末記憶部15に一時的に格納して表示する。端末表示部11は、例えば液晶ディスプレイ(LCD)等によって実現される。端末入力部12は、プレイヤ・オブジェクト1を各種操作(「移動」、「敵オブジェクトとの対戦」)させるため命令を入力するものであり、例えば、タッチパネルや操作ボタン等によって実現される。端末入力部12からの入力命令に基づいて、端末処理部13はユーザ命令を作成して、端末通信部14およびネットワークを通じてゲーム・サーバ50と通信を行い、ゲーム・サーバ50内でプログラムを実行させる。なお、ユーザ端末10はスマートフォンとするのがよく、この点、端末入力部12はタッチパネルとするのが好ましい。 The terminal display unit 11 temporarily stores the game screen generated by the game server 50 and received by the terminal communication unit 14 in the terminal storage unit 15 and displays the game screen. The terminal display unit 11 is realized by, for example, a liquid crystal display (LCD). The terminal input unit 12 is used to input commands for causing the player object 1 to perform various operations (“movement”, “fight against an enemy object”), and is realized by, for example, a touch panel or operation buttons. Based on the input command from the terminal input unit 12, the terminal processing unit 13 creates a user command, communicates with the game server 50 through the terminal communication unit 14 and the network, and causes the game server 50 to execute the program. . The user terminal 10 is preferably a smartphone, and in this respect, the terminal input unit 12 is preferably a touch panel.
ゲーム・サーバ50側では、通信部53を介して、ユーザ端末10からのユーザ命令を受け取ると、処理装置52は、記憶部51に格納された各種プログラム・モジュールを有するゲーム・プログラム510を、処理用データ520を用いて処理装置52に実行させ、ユーザ端末10に戻す。 On the game server 50 side, upon receiving a user command from the user terminal 10 via the communication unit 53, the processing device 52 processes the game program 510 having various program modules stored in the storage unit 51. The processing device 52 is executed using the business data 520 and returned to the user terminal 10.
図2に関連して、情報処理装置としての機能の全部または一部は、ユーザ端末10が担うように構成してもよい。この場合には、ユーザ端末10単体で情報処理装置を構成するか、またはユーザ端末10およびゲーム・サーバ50が情報処理装置を構成する。 In relation to FIG. 2, all or part of the functions as the information processing apparatus may be configured to be performed by the user terminal 10. In this case, the user terminal 10 alone constitutes the information processing apparatus, or the user terminal 10 and the game server 50 constitute the information processing apparatus.
更に、図2および図3を参照して、ゲーム・サーバ50の例示の各機能について説明する。 各種プログラム・モジュール510について説明する。プレイヤ・オブジェクト移動操作モジュール511は、ユーザ命令に従って仮想空間内でプレイヤ・オブジェクト1を移動させるプレイヤ・オブジェクト移動操作部61としての機能を実装する。ゲーム画像生成モジュール512は、仮想カメラ3からの視界領域に基づくゲーム画像6を生成するゲーム画像生成部62としての機能を実装する。敵オブジェクト特定モジュール513は、仮想空間内において敵オブジェクトの位置を特定し、特に、敵オブジェクト検知領域7内に敵オブジェクト2が進入したかを検知する敵オブジェクト特定検知部63としての機能を実装する。仮想カメラ制御モジュール514は、仮想カメラ3のカメラワーク動作を制御して視界領域を最適化する仮想カメラ制御部64としての機能を実装する(カメラワーク処理については後述)。 Further, exemplary functions of the game server 50 will be described with reference to FIGS. 2 and 3. Various program modules 510 will be described. The player / object movement operation module 511 implements a function as the player / object movement operation unit 61 that moves the player / object 1 in the virtual space in accordance with a user command. The game image generation module 512 implements a function as the game image generation unit 62 that generates the game image 6 based on the field of view from the virtual camera 3. The enemy object identification module 513 implements a function as an enemy object identification detection unit 63 that identifies the position of the enemy object in the virtual space, and in particular detects whether the enemy object 2 has entered the enemy object detection area 7. . The virtual camera control module 514 implements a function as the virtual camera control unit 64 that controls the camera work operation of the virtual camera 3 and optimizes the view area (camera work processing will be described later).
処理用データ520について説明する。仮想空間データ521は、主に仮想空間を定義するデータを含む。上記図1の例では、仮想空間内に水辺領域6A、砂場領域6B、岩壁領域6C、草場領域6Dを3次元空間データとして定義し、更にプレイヤ・オブジェクト1は砂場領域6B部分のみを水平面に沿って移動可能とするよう定義する。プレイヤ・オブジェクト・データ522は、仮想空間内における、プレイヤ・オブジェクト1の位置座標、方位、位置情報に関連付けられる敵オブジェクト検知領域7、敵オブジェクト検知領域7の形状や大きさ、およびプレイヤ特性情報等を含む。敵オブジェクト・データ523は、敵オブジェクトの数、それぞれの位置座標、動作、敵オブジェクト特性情報等を含む。仮想カメラ・データ524は、仮想カメラの座標位置、方位、視野角度、その他仮想カメラ3からの視界領域を定義するための各種データを含む。 The processing data 520 will be described. The virtual space data 521 mainly includes data that defines the virtual space. In the example of FIG. 1, the waterside area 6A, the sandbox area 6B, the rock wall area 6C, and the grassland area 6D are defined as three-dimensional space data in the virtual space. Define to be movable along. The player object data 522 includes the enemy object detection area 7 associated with the position coordinates, orientation, position information of the player object 1 in the virtual space, the shape and size of the enemy object detection area 7, player characteristic information, and the like. including. The enemy object data 523 includes the number of enemy objects, respective position coordinates, actions, enemy object characteristic information, and the like. The virtual camera data 524 includes various data for defining the coordinate position, azimuth, viewing angle, and other view areas from the virtual camera 3 of the virtual camera.
ゲーム内3次元仮想空間
図4および図5を参照して、プレイヤ・オブジェクト1および仮想カメラ3を配置した3次元仮想空間について説明する。
In-game three-dimensional virtual space With reference to FIGS. 4 and 5 , a three-dimensional virtual space in which the player object 1 and the virtual camera 3 are arranged will be described.
図4のとおり、XYZ−3次元空間内にプレイヤ・オブジェクト1および仮想カメラ3が配置される。仮想カメラ3は、視界領域8を設定して、プレイヤ・オブジェクト1の後方且つ上方からプレイヤ・オブジェクト1を撮影するように構成される。より具体的には、上記仮想カメラ制御モジュール514により、中心が視界中心点5となるように視界領域8を設定し、視界中心点5が常にゲーム画像6内の中心点となるように位置合わせする。視界中心点は、仮想カメラから延びる中心軸が水平面と交差する地点となる。 As shown in FIG. 4, the player object 1 and the virtual camera 3 are arranged in the XYZ-3D space. The virtual camera 3 is configured to set a view area 8 and photograph the player object 1 from behind and above the player object 1. More specifically, the virtual camera control module 514 sets the visual field region 8 so that the center is the visual field center point 5, and aligns the visual field central point 5 so that it is always the central point in the game image 6. To do. The visual field center point is a point where the central axis extending from the virtual camera intersects the horizontal plane.
図4の例では、視界中心点5の上にプレイヤ・オブジェクト1を配置しており、この場合は図1のように、ゲーム画像6内の中心(破線交差点)にプレイヤ・オブジェクト1が表示される。仮想空間内のプレイヤ・オブジェクト1の移動に伴い、仮想カメラ3の位置と姿勢を制御して、視界中心点を移動させることにより、視野領域8が調整される。 In the example of FIG. 4, the player object 1 is arranged on the visual field center point 5, and in this case, the player object 1 is displayed at the center (broken line intersection) in the game image 6 as shown in FIG. The As the player object 1 moves in the virtual space, the visual field region 8 is adjusted by moving the visual field center point by controlling the position and orientation of the virtual camera 3.
また、図4では、XY平面上に視界中心点5を中心にした円領域として敵オブジェクト検知領域7が示されている。図示のとおり、仮想カメラ3の視界領域8と敵オブジェクト検知領域7は、仮想空間内で独立して設定されるものであるから、これらが重複しない領域が存在する場合がある。即ち、敵オブジェクト検知領域7内に含まれるものの、視界領域8には含まれないブラインド領域9,9’が1つ以上存在する場合がある。そして、当該ブラインド領域9,9’に敵オブジェクト2が存在することになる場合には、敵オブジェクト2がプレイヤ・オブジェクト1に十分接近しているにも拘わらずゲーム画面6には映り込んでいないことを意味する。 In FIG. 4, the enemy object detection area 7 is shown as a circular area around the visual field center point 5 on the XY plane. As shown in the figure, the visual field area 8 and the enemy object detection area 7 of the virtual camera 3 are set independently in the virtual space, and therefore there may be areas where they do not overlap. That is, there may be one or more blind areas 9 and 9 ′ that are included in the enemy object detection area 7 but are not included in the view area 8. When the enemy object 2 is present in the blind areas 9 and 9 ′, the enemy object 2 is not reflected in the game screen 6 even though the enemy object 2 is sufficiently close to the player object 1. Means that.
同様に図5は、図4をZ軸上方向から見たXY平面図である。視界中心点5に向いた仮想カメラが有する固定の視野角θfは、基本的には表示画面11の縦横比に基づいて決定される。上述したように、ユーザがスマートフォン・ゲームとしてタッチ画面を縦方向に固定して使用する場合には、視野角θfが非常に狭小なものとなるため、横方向の領域表示が十分に確保できないという課題がある。即ち、ユーザ端末10としてスマートフォンを適用した場合、画面横方向において上記ブラインド領域9,9’の面積が非常に大きくなる。このことは、ゲームの進行途中で、敵オブジェクト2が好ましくない形で横方向から突然現れるという状況を発生させ、ユーザに不快感を与える。したがって、上記課題を解決するためにも仮想カメラ3の表示領域の最適化が必要となる。 Similarly, FIG. 5 is an XY plan view of FIG. 4 viewed from the Z-axis upper direction. The fixed viewing angle θ f of the virtual camera facing the visual field center point 5 is basically determined based on the aspect ratio of the display screen 11. As described above, when the user uses the touch screen fixed in the vertical direction as a smartphone game, the viewing angle θ f becomes very narrow, and thus a sufficient area display in the horizontal direction cannot be secured. There is a problem. That is, when a smartphone is applied as the user terminal 10, the area of the blind regions 9, 9 ′ is very large in the horizontal direction of the screen. This causes a situation in which the enemy object 2 suddenly appears from the lateral direction in an unfavorable manner during the progress of the game, and makes the user uncomfortable. Therefore, it is necessary to optimize the display area of the virtual camera 3 in order to solve the above problem.
なお、図4および図5では、敵オブジェクト検知領域7を、一例としてXY平面上の円領域で示したが、これに限定されず、任意の形状および大きさとすることができる。特に、当該検知領域7は、プレイヤ・オブジェクト1の強さや保有している武器の種類のような特性情報に基づいて決定するのがよい。例えば、上記のように敵オブジェクト検知領域7を円領域とした場合、当該円の半径を、プレイヤ・オブジェクト1が保有する武器の強さに基づいて決定すると対戦型ゲームとしての面白味が増す。強い武器を保有していればいるほど、プレイヤ・オブジェクト1をより多くの敵オブジェクト2と対戦させたいというユーザ・ニーズを満たすことができるためである。 In FIGS. 4 and 5, the enemy object detection area 7 is shown as a circular area on the XY plane as an example. However, the present invention is not limited to this, and can have any shape and size. In particular, the detection area 7 is preferably determined based on characteristic information such as the strength of the player object 1 and the type of weapon possessed. For example, in the case where the enemy object detection area 7 is a circle area as described above, if the radius of the circle is determined based on the strength of the weapon possessed by the player object 1, the fun as a competitive game increases. This is because the stronger the weapon is held, the more the user's need to match the player object 1 with more enemy objects 2 can be satisfied.
仮想カメラのカメラワーク動作制御処理
そこで、本発明のゲーム・プログラムおよび関連するゲーム・システムを用いた仮想カメラ3のカメラワークの動作制御処理について詳述する。
The camera work operation control process of the virtual camera The camera work operation control process of the virtual camera 3 using the game program of the present invention and the related game system will be described in detail.
図6は、仮想カメラ3のカメラワーク制御の処理概要を示すフローチャートである。まず、ステップS10では、プレイヤ・オブジェクト移動操作モジュール511により、端末入力部12からのユーザ命令に基づいて仮想空間に配置したプレイヤ・オブジェクト1を移動させる。そして、ステップS20では、仮想カメラ制御モジュール514により、プレイヤ・オブジェクト1の移動に従い、プレイヤ・オブジェクト1の位置を視界領域8内に含むように視界中心点5を移動させて、仮想カメラ3にプレイヤ・オブジェクト1を自動追尾させる。 FIG. 6 is a flowchart showing an outline of the camera work control process of the virtual camera 3. First, in step S10, the player / object moving operation module 511 moves the player / object 1 arranged in the virtual space based on a user command from the terminal input unit 12. In step S20, the visual center point 5 is moved by the virtual camera control module 514 so that the position of the player object 1 is included in the visual field area 8 in accordance with the movement of the player object 1, and the virtual camera 3 is moved to the player.・ Automatically track object 1.
ここで、自動追尾の一態様について図7を参照して説明する。プレイヤ・オブジェクト1が仮想空間内を図7の左下から右上に移動経路4に沿ってXY平面上を水平移動する場合の仮想カメラ3の自動追尾の一例は次のように実施される。 Here, an aspect of automatic tracking will be described with reference to FIG. An example of automatic tracking of the virtual camera 3 when the player object 1 moves horizontally in the virtual space from the lower left to the upper right in FIG. 7 along the movement path 4 on the XY plane is performed as follows.
先に説明したとおり、視界中心点5は、仮想カメラから延びる中心軸が水平面と交差する地点であり、常にゲーム画像6内の中心点となるように位置合わせされる。プレイヤ・オブジェクト1の移動開始時には、仮想カメラ3はプレイヤ・オブジェクト1を視界中心点5上に配置する。つまり、ゲーム画面において中心となるように捉える。次いで、プレイヤ・オブジェクト1が移動経路4に沿って移動している場合、仮想カメラ3も一定のZ方向の高さを保ちつつ移動経路4に沿って移動して(図7の点線矢印)、視界中心点5を移動させる。この際、視界中心点5’は、プレイヤ・オブジェクト1の位置に対し、移動経路4に沿って所定の距離だけ後方に下げるようにするとよい。即ち、移動経路4に沿って視界中心点5’の前方にプレイヤ・オブジェクト1が配置されることになる。最後に、プレイヤ・オブジェクト1が移動を終了すると、移動開始時と同様に、視界中心点5’’上に再度プレイヤ・オブジェクト1を配置する。このように、プレイヤ・オブジェクト1は、静止中は視界中心点5,5’’上にあり、移動中は視界中心点5’と一定の距離を空けるように配置され、即ち、視界中心点の位置に関連付けて位置合わせされることが理解される。 As described above, the visual field center point 5 is a point where the central axis extending from the virtual camera intersects the horizontal plane, and is aligned so as to always be the center point in the game image 6. At the start of movement of the player object 1, the virtual camera 3 places the player object 1 on the visual field center point 5. That is, it is captured so as to be the center on the game screen. Next, when the player object 1 is moving along the movement path 4, the virtual camera 3 also moves along the movement path 4 while maintaining a certain height in the Z direction (dotted arrow in FIG. 7). The view center point 5 is moved. At this time, the visual field center point 5 ′ may be lowered backward by a predetermined distance along the movement path 4 with respect to the position of the player object 1. That is, the player object 1 is arranged in front of the visual field center point 5 ′ along the movement path 4. Finally, when the player object 1 finishes moving, the player object 1 is placed again on the visual field center point 5 ″ as in the case of starting movement. In this way, the player object 1 is positioned on the visual field center point 5, 5 ″ when stationary, and is arranged so as to leave a certain distance from the visual field center point 5 ′ during movement, that is, the visual field center point. It is understood that the registration is performed in relation to the position.
図6に戻り、引き続いて、敵オブジェクト特定モジュール513によって、ステップS30において、近辺にいる敵オブジェクト2の位置を特定して、視界中心点5に関連付けられる敵オブジェクト検知領域7内に敵オブジェクト2が進入したかを検知し、その場合に、更にステップS40において、その位置が仮想カメラ3からの視界領域8内でない(即ち視界領域8外のブラインド領域9(9’)内である)かについて判断する。 Returning to FIG. 6, the enemy object specifying module 513 specifies the position of the enemy object 2 in the vicinity in step S <b> 30, and the enemy object 2 is located in the enemy object detection area 7 associated with the visual field center point 5. In this case, in step S40, it is determined whether the position is not within the field of view 8 from the virtual camera 3 (that is, within the blind region 9 (9 ′) outside the field of view 8). To do.
敵オブジェクト2が上記ブラインド領域9に位置すると判断される場合には、次いでステップS50に進み、仮想カメラ制御モジュール514により、視界領域8における視界中心点5を一定位置に保ちつつ、視界中心点5に対する仮想カメラの位置を変更により調整して、視界領域8を最適化する(後述)。そして、ステップS60でゲーム画像生成モジュール512により、仮想カメラ3からの視界領域8に基づくゲーム画像を生成して、端末表示部11に表示できるようにする。 If it is determined that the enemy object 2 is located in the blind area 9, then the process proceeds to step S50, where the virtual camera control module 514 keeps the visual field center point 5 in the visual field area 8 at a fixed position, while maintaining the visual field center point 5 The visual field 8 is optimized by adjusting the position of the virtual camera with respect to (see below). In step S <b> 60, the game image generation module 512 generates a game image based on the field of view 8 from the virtual camera 3 so that it can be displayed on the terminal display unit 11.
上記ステップS50の視界領域8の最適化処理について、図8以降を参照してより詳細に説明する。 図8は、カメラ制御モジュール514によって実施される上記ステップS50の最適化処理をより詳細化したフローチャートである。図9(1)のように敵オブジェクト2が敵オブジェクト検知領域7にも視界領域8にも位置していない状態に対し、図9(2)は、敵オブジェクト検知領域7内ではあるが視界領域8外である(即ちブラインド領域9に位置する)状態である。図9(2)のように敵オブジェクト2がブラインド領域に進入した場合、当該最適化処理によるカメラワーク制御が実施される。 The optimization process of the visual field area 8 in step S50 will be described in more detail with reference to FIG. FIG. 8 is a flowchart showing the details of the optimization process in step S50 performed by the camera control module 514. In contrast to the state in which the enemy object 2 is not located in the enemy object detection area 7 or the visual field area 8 as shown in FIG. 9 (1), FIG. It is in a state of being out of 8 (that is, located in the blind area 9). When the enemy object 2 enters the blind area as shown in FIG. 9 (2), camera work control by the optimization process is performed.
最初のステップ51に先立ち、最適化処理を開始する時点での仮想カメラ・データ524(特に仮想カメラ初期位置L1(x1,y1,z1))は記憶部51に記憶しておくのがよい。何故ならば、最適化処理が完了し、次いでユーザが敵オブジェクト2に対しプレイヤ・オブジェクト1に所定のアクション(例えば「対戦」)を実施させた後には、当該記憶した仮想カメラ・データ524を用いて、元の位置に仮想カメラ3を配置し直すのがゲームの進行上好ましいからである。 Prior to the first step 51, the virtual camera data 524 (particularly the virtual camera initial position L1 (x 1 , y 1 , z 1 )) at the time of starting the optimization process is stored in the storage unit 51. Good. This is because after the optimization process is completed and the user causes the player object 1 to perform a predetermined action (for example, “match”) on the enemy object 2, the stored virtual camera data 524 is used. This is because it is preferable for the progress of the game to rearrange the virtual camera 3 at the original position.
ステップS51において、まず、視界中心点5を中心とした球表面の一部からなる移動可能範囲内70を決定する。当該移動可能範囲70について図10および図11を参照して説明する。図10のように、視界中心点5を座標原点(0,0,0)とし、水平面上の当該視界中心点5を中心に3次元空間における極座標として球面座標が定義され、仮想カメラ初期位置L1をL1(r1,θ1,φ1)として定義する。そして、仮想カメラ3が移移動可能な範囲として移動可能範囲70を定義する。この際、移動する仮想カメラ3の位置は、(XYZ座標系での表記に加えて、)L(r1,θc,φc)として極座標表記できる。一般に、θcのことを極角と、またφcのことを方位角と称し、仮想カメラ3の移動可能範囲70は極角範囲および方位角範囲を有するものとして、図10で網掛けされた領域70を構成する。 In step S51, first, a movable range 70 consisting of a part of the sphere surface centered on the visual field center point 5 is determined. The movable range 70 will be described with reference to FIGS. 10 and 11. As shown in FIG. 10, the visual field center point 5 is the coordinate origin (0, 0, 0), and the spherical coordinates are defined as polar coordinates in the three-dimensional space around the visual field center point 5 on the horizontal plane, and the virtual camera initial position L1 Is defined as L1 (r 1 , θ 1 , φ 1 ). Then, a movable range 70 is defined as a range in which the virtual camera 3 can move. At this time, the position of the moving virtual camera 3 can be expressed in polar coordinates as L (r 1 , θ c , φ c ) (in addition to the description in the XYZ coordinate system). In general, θ c is referred to as a polar angle, and φ c is referred to as an azimuth angle, and the movable range 70 of the virtual camera 3 is shaded in FIG. 10 as having a polar angle range and an azimuth angle range. Region 70 is configured.
また、図11(1)はY軸方向から見たXZ平面を示し、図11(2)はZ軸方向から見たXY平面を示すが、図11のように、仮想カメラ3の移動可能範囲70は、仮想カメラ初期位置L1に対し、予め設定された極角θおよび方位角φを有することが理解される。即ち、移動可能範囲70の極角範囲はθ1<=θc<=θ1+θ、方位角範囲はφ1−φ/2<=φc<=φ1+φ/2として決定される。 11 (1) shows the XZ plane viewed from the Y-axis direction, and FIG. 11 (2) shows the XY plane viewed from the Z-axis direction. As shown in FIG. 11, the movable range of the virtual camera 3 is shown. It is understood that 70 has a preset polar angle θ and azimuth angle φ with respect to the virtual camera initial position L1. That is, the polar angle range of the movable range 70 is determined as θ 1 ≦ θ c ≦ θ 1 + θ, and the azimuth angle range is determined as φ 1 −φ / 2 <= φ c ≦ φ 1 + φ / 2.
上記のように移動可能範囲70を球表面の一部として構成し、視界中心点5と仮想カメラ3の間の距離を一定(r1)に保つことにより、ユーザにより臨場感を与えることができる。そして、移動可能範囲70を極角範囲と方位角範囲を有するように構成することにより、仮想カメラ3の移動経路設計・処理実装に際し、θおよびφの極座標パラメータのみ使用すれば良いことから、簡素化および処理効率化を図ることができる。 As described above, the movable range 70 is configured as a part of the sphere surface, and the distance between the visual field center point 5 and the virtual camera 3 is kept constant (r 1 ), so that the user can feel a sense of reality. . By configuring the movable range 70 so as to have a polar angle range and an azimuth angle range, it is only necessary to use only the polar coordinate parameters of θ and φ when the moving path of the virtual camera 3 is designed and implemented. And processing efficiency can be improved.
図5に関し、先に説明したように、視野角θfが非常に狭小なものとなり、横方向の領域表示が十分に確保でないという課題を解決すべきことを鑑みるに、仮想カメラ3を極角方向に回転させるのみならず、方位角方向にも回転により移動させる必要がある点に留意すべきである。 As described above with reference to FIG. 5, in view of the problem that the viewing angle θ f is very narrow and the lateral display of the area is not sufficiently secured, the virtual camera 3 is set to the polar angle. It should be noted that it is necessary to move not only in the direction but also in the azimuth direction by rotation.
ここで、本発明者の実験により、方位角方向の仮想カメラ回転角度は、10度以下とするのが好ましいことが確認されている。即ち、仮に、角度制限を設けずに、プレイヤ・オブジェクト1が敵オブジェクト2の周りをぐるぐる回るような動きを許す場合には、これに伴い視界領域もぐるぐる回転することになる。これは、ユーザが遊園地のコーヒーカップに乗っているのに近い状態になるため、ユーザに画面酔い(映像酔い)を起こしやすくなり、適切とはいえない。また、仮に角度制限を30度程度とした場合には、ユーザによっては「より臨場感が得られる」と評価されるものの、やはり画面酔いしやすいユーザにはこの角度も不適切であることが判明した。他方、角度制限を10度以下であれば、ユーザに画面酔いを生じさせることはほとんどなかったため、回転角度を10度以下に設定するのがよい。 Here, it has been confirmed by experiments of the present inventor that the virtual camera rotation angle in the azimuth direction is preferably 10 degrees or less. That is, if the player object 1 is allowed to move around the enemy object 2 without providing an angle limit, the visual field area rotates accordingly. This is in a state close to that the user is riding a coffee cup at an amusement park, so that it is easy for the user to experience screen sickness (video sickness), which is not appropriate. Also, if the angle limit is set to about 30 degrees, some users will be evaluated as “more realistic”, but this angle is also inappropriate for users who are prone to screen sickness. did. On the other hand, if the angle limit is 10 degrees or less, there is almost no screen sickness for the user, so the rotation angle should be set to 10 degrees or less.
なお、図10以降では、プレイヤ・オブジェクト1は移動中であることを想定し、図7に関して説明したように、プレイヤ・オブジェクト1の位置が視界中心点5からずれて示される点を注記しておく。 In FIG. 10 and subsequent figures, it is assumed that the player object 1 is moving, and note that the position of the player object 1 is shifted from the visual center point 5 as described with reference to FIG. deep.
図8に戻り、ステップS52において最適化処理における仮想カメラ3の移動先位置L2(r1,θ2,φ2)を決定する。特に方位角方向への仮想カメラの移動は、敵オブジェクト2を仮想カメラの視界領域8に含めるために、敵オブジェクト2の位置から仮想カメラ3の位置までの距離を短くする方向にしなければならない点に留意が必要である。より具体的には、図12(図9に対応)を参照して分かるように、仮想カメラ3は、敵オブジェクト2との間の距離(d2)が初期位置L1の場合の距離d1よりも短くなる方向(即ち、矢印に示す反時計回りの方向)に移動させなければならない(d1>d2)。 Returning to FIG. 8, in step S52, the movement destination position L2 (r 1 , θ 2 , φ 2 ) of the virtual camera 3 in the optimization process is determined. In particular, the movement of the virtual camera in the azimuth direction requires that the distance from the position of the enemy object 2 to the position of the virtual camera 3 must be shortened in order to include the enemy object 2 in the field of view 8 of the virtual camera. It is necessary to pay attention to. More specifically, as can be seen with reference to FIG. 12 (corresponding to FIG. 9), the virtual camera 3 is shorter than the distance d1 when the distance (d2) to the enemy object 2 is the initial position L1. Must be moved in the direction (ie, the counterclockwise direction indicated by the arrow) (d1> d2).
再度図8を参照して、ステップS52で移動先位置L2が決定すると、次いでステップS53で、仮想カメラの初期位置L1と移動後の位置L2との間における、移動可能範囲70を通る仮想カメラの移動経路72を決定する。図13にこの仮想カメラの移動経路72の一例を示す。ここでは、L2(r1,θ2,φ2)=(r1,θ1+θ,φ1−φ/2)として、L1とL2の間の移動経路72が矢印で示される。移動経路72は、移動可能範囲70を通り、位置L1とL2の間を最短距離で結ぶものとするのがよい。 Referring to FIG. 8 again, when the movement destination position L2 is determined in step S52, in step S53, the virtual camera passing through the movable range 70 between the initial position L1 of the virtual camera and the position L2 after the movement is determined. The movement path 72 is determined. FIG. 13 shows an example of the moving path 72 of this virtual camera. Here, as L2 (r 1 , θ 2 , φ 2 ) = (r 1 , θ 1 + θ, φ 1 −φ / 2), the movement path 72 between L 1 and L 2 is indicated by an arrow. The movement path 72 should pass through the movable range 70 and connect the positions L1 and L2 with the shortest distance.
図8のステップS51からS53の一連の処理を通じて仮想カメラ3の移動経路72が決定したら、次いでステップS54で、当該移動経路72に沿って、視界中心点を一定位置に保つように姿勢を調整しつつ、仮想カメラ3を実際に移動させる。この処理の結果、敵オブジェクト2が仮想カメラの視界領域8に含まれた場合(ステップS55)は、最適化処理は終了する。他方、敵オブジェクト2が尚も視界領域外のブラインド領域9に位置している場合には、更にステップS56の処理を行う。 When the movement path 72 of the virtual camera 3 is determined through a series of processes of steps S51 to S53 in FIG. 8, the posture is adjusted so as to keep the visual field center point at a fixed position along the movement path 72 in step S54. Meanwhile, the virtual camera 3 is actually moved. As a result of this processing, when the enemy object 2 is included in the field of view 8 of the virtual camera (step S55), the optimization processing ends. On the other hand, if the enemy object 2 is still located in the blind area 9 outside the field of view, the process of step S56 is further performed.
図8のステップS56では、図14の側面図にも示すように、初期位置L1(r1,θ1,φ1)からL2(r1,θ2,φ2)の位置まで移動させた仮想カメラ3を、更に視界中心点に対して反対方向に移動させる。この際、極角θ2および方位角φ2は一定にして、視界中心点5からの距離を長くするように直線移動するのがよい。この結果、仮想カメラ3の位置は、最終的にL3(r2,θ2,φ2)となる。視界中心点5から引き離すように所定の距離だけ仮想カメラ2を移動させることにより、仮想カメラの視界領域8を広域にすることができ、ブラインド領域9にいる敵オブジェクト2を広域化した視界領域に含めることができる場合がある。 In step S56 of FIG. 8, as shown also in the side view of FIG. 14, the virtual position moved from the initial position L1 (r 1 , θ 1 , φ 1 ) to the position of L2 (r 1 , θ 2 , φ 2 ). The camera 3 is further moved in the opposite direction with respect to the visual field center point. At this time, it is preferable that the polar angle θ 2 and the azimuth angle φ 2 are constant, and the linear movement is performed so as to increase the distance from the visual field center point 5. As a result, the position of the virtual camera 3 is finally L3 (r 2 , θ 2 , φ 2 ). By moving the virtual camera 2 by a predetermined distance so as to be separated from the visual field center point 5, the visual field area 8 of the virtual camera can be widened, and the enemy object 2 in the blind area 9 can be expanded into a widened visual field area. May be included.
最後に、図8に示した一連の最適化処理を実施した際の実際のゲーム画像6について、その一例を図15に示す。図15(1)では、広域平面情報6aには複数の敵オブジェクト2の存在が示唆されており、実際に敵オブジェクト検知領域7にも敵オブジェクト2が位置している。しかしながら、敵オブジェクト2はブラインド領域9内にいるため、ユーザはその存在を視界領域8からは確認できない(図9(2)も参照)。 Finally, an example of the actual game image 6 when the series of optimization processes shown in FIG. 8 is performed is shown in FIG. In FIG. 15A, the wide area plane information 6 a suggests the existence of a plurality of enemy objects 2, and the enemy object 2 is actually located in the enemy object detection area 7. However, since the enemy object 2 is in the blind area 9, the user cannot confirm its presence from the visual field area 8 (see also FIG. 9 (2)).
次いで、図15(2),(3)では、図8の最適化処理の結果として、敵オブジェクト2が視界領域8に含まれ、ゲーム画面6上でもユーザが捉えることが可能な状態となる。特に図15(2)と(3)を比較すると、仮想カメラ位置の方位角方向への移動により、敵オブジェクト2が画面中心の破線aに近づいた状態となる。このことは、点線bおよび実線cがずれていることからも理解できる。 Next, in FIGS. 15 (2) and (3), as a result of the optimization process of FIG. 8, the enemy object 2 is included in the visual field area 8 and can be captured by the user on the game screen 6. In particular, comparing FIGS. 15 (2) and (3), the enemy object 2 approaches the broken line a at the center of the screen due to the movement of the virtual camera position in the azimuth direction. This can be understood from the fact that the dotted line b and the solid line c are shifted.
このように、ブラインド領域9に位置する敵オブジェクト2を視界領域に含めるように仮想カメラ3をカメラワーク制御することにより、上述したように、スマートフォン・ゲームとしてタッチ画面を縦方向に固定する場合に横方向の表示領域が十分に確保できず、ブラインド領域が必要以上に大きなものとなるため、ブラインド領域にいる敵オブジェクトからの不意打ちを許してしまうという課題を解決することができる。特に、仮想カメラを方位角方向に移動させることにより、より高い臨場感をユーザに与え、敵オブジェクト2に対してアクションを取りやすいというユーザビリティの向上を達成できるものとなる。 As described above, when the touch screen is fixed in the vertical direction as a smartphone game by performing camera work control of the virtual camera 3 so that the enemy object 2 located in the blind area 9 is included in the view area in this manner. Since the horizontal display area cannot be sufficiently secured and the blind area becomes larger than necessary, it is possible to solve the problem of allowing an unexpected hit from an enemy object in the blind area. In particular, by moving the virtual camera in the azimuth direction, it is possible to achieve an improvement in usability that gives the user a higher sense of presence and makes it easier to take action on the enemy object 2.
なお、本明細書全般を通じて、特に、スマートフォン・ゲームとしてタッチ画面を縦方向に固定する(縦持ちの)場合に、横方向の領域表示が課題となる点について説明してきたが、必ずしも縦持ちとする必要はない。横方向に固定する(横持ちの)場合であっても、上下方向の領域表示が同様に課題となるから、上下方向からの敵オブジェクトの不意打ちを防止することができるという、上記と同様の作用効果を奏する点に留意すべきである。 In addition, throughout this specification, especially when the touch screen is fixed in the vertical direction (portrait holding) as a smartphone game, it has been explained that the display of the area in the horizontal direction becomes a problem. do not have to. Even in the case of fixing in the horizontal direction (horizontal holding), the display of the area in the vertical direction is also a problem, so that it is possible to prevent the enemy object from hitting the vertical direction in the same manner as described above. It should be noted that there is an effect.
以上、本発明の実施形態による仮想空間内に設けた仮想カメラの動作をコンピュータに制御させるゲーム・プログラムおよび関連するゲーム・システムについて説明した。上述した実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 As described above, the game program and the related game system for causing the computer to control the operation of the virtual camera provided in the virtual space according to the embodiment of the present invention have been described. The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.
1 プレイヤ・オブジェクト
2 敵オブジェクト
3 仮想カメラ
4 移動経路
5 視界中心点
6 ゲーム画像
7 敵オブジェクト検知領域
8 視界領域
9 ブラインド領域
10 ユーザ端末
11 表示画面
50 ゲーム・サーバ
51 記憶部
61 プレイヤ・オブジェクト移動操作部
62 ゲーム画像生成部
63 敵オブジェクト特定検知部
64 仮想カメラ制御部
70 仮想カメラ移動可能範囲内
71 仮想カメラ移動経路
510 ゲーム・プログラム
520 処理用データ
DESCRIPTION OF SYMBOLS 1 Player object 2 Enemy object 3 Virtual camera 4 Movement path 5 Visibility center point 6 Game image 7 Enemy object detection area 8 Visibility area 9 Blind area 10 User terminal 11 Display screen 50 Game server 51 Memory | storage part 61 Player / object movement operation Unit 62 Game image generation unit 63 Enemy object identification detection unit 64 Virtual camera control unit 70 Within virtual camera movable range 71 Virtual camera movement path 510 Game program 520 Processing data
Claims (8)
ユーザ操作に基づいて、前記第1オブジェクトを移動させるステップと、
前記仮想視点の注視点又は前記第1オブジェクトに関連付けられた第1領域を定義するステップと、
前記仮想視点からの視界が前記第1オブジェクトを捉え、かつ前記仮想視点が前記第1領域外に位置するように、前記仮想視点の位置及び姿勢の少なくとも一方を制御する第1制御ステップと、
前記第2オブジェクトが前記第1領域に含まれるが、前記視界に含まれない場合、前記第1オブジェクト及び前記第2オブジェクトの双方が前記視界に含まれ、かつ前記仮想視点が前記第1領域外に位置するように、前記仮想視点の位置及び姿勢の少なくとも一方を自動的に制御する特定の視界制御を行い、前記第2オブジェクトが前記第1領域に含まれる場合であっても前記視界にも含まれる場合は、前記特定の視界制御を行わない第2制御ステップと、
前記視界に対応する視界画像を表示部に表示するステップと、をコンピュータに実行させる、プログラム。 Defining a virtual space including a virtual viewpoint, a first object, and a second object;
Moving the first object based on a user operation;
Defining a first area associated with the gaze point of the virtual viewpoint or the first object;
A first control step of controlling at least one of the position and orientation of the virtual viewpoint such that the field of view from the virtual viewpoint captures the first object and the virtual viewpoint is located outside the first region;
When the second object is included in the first area but not included in the field of view, both the first object and the second object are included in the field of view, and the virtual viewpoint is outside the first area. Specific visual field control that automatically controls at least one of the position and orientation of the virtual viewpoint so that the second object is included in the first region even if the second object is included in the first region. If included, a second control step that does not perform the specific view control ;
Displaying a view image corresponding to the view on a display unit.
ユーザ操作に基づいて、前記第1オブジェクトを移動させるステップと、
前記仮想視点の注視点又は前記第1オブジェクトに関連付けられた第1領域を定義するステップと、
前記仮想視点からの視界が前記第1オブジェクトを捉え、かつ前記仮想視点が前記第1領域外に位置するように、前記仮想視点の位置及び姿勢の少なくとも一方を制御する第1制御ステップと、
前記第2オブジェクトが前記第1領域に含まれるが、前記視界に含まれない場合、前記第1オブジェクト及び前記第2オブジェクトの双方が前記視界に含まれ、かつ前記仮想視点が前記第1領域外に位置するように、前記仮想視点の位置及び姿勢の少なくとも一方を自動的に制御する特定の視界制御を行い、前記第2オブジェクトが前記第1領域に含まれる場合であっても前記視界にも含まれる場合は、前記特定の視界制御を行わない第2制御ステップと、
前記視界に対応する視界画像を表示部に表示するステップと、を含む方法。 Defining a virtual space including a virtual viewpoint, a first object, and a second object;
Moving the first object based on a user operation;
Defining a first area associated with the gaze point of the virtual viewpoint or the first object;
A first control step of controlling at least one of the position and orientation of the virtual viewpoint such that the field of view from the virtual viewpoint captures the first object and the virtual viewpoint is located outside the first region;
When the second object is included in the first area but not included in the field of view, both the first object and the second object are included in the field of view, and the virtual viewpoint is outside the first area. Specific visual field control that automatically controls at least one of the position and orientation of the virtual viewpoint so that the second object is included in the first region even if the second object is included in the first region. If included, a second control step that does not perform the specific view control ;
Displaying a visual field image corresponding to the visual field on a display unit.
前記プロセッサは、
仮想視点と、第1オブジェクトと、第2オブジェクトと、を含む仮想空間を定義し、
ユーザ操作に基づいて、前記第1オブジェクトを移動させ、
前記仮想視点の注視点又は前記第1オブジェクトに関連付けられた第1領域を定義し、
前記仮想視点からの視界が前記第1オブジェクトを捉え、かつ前記仮想視点が前記第1領域外に位置するように、前記仮想視点の位置及び姿勢の少なくとも一方を制御し、
前記第2オブジェクトが前記第1領域に含まれるが、前記視界に含まれない場合、前記第1オブジェクト及び前記第2オブジェクトの双方が前記視界に含まれ、かつ前記仮想視点が前記第1領域外に位置するように、前記仮想視点の位置及び姿勢の少なくとも一方を自動的に制御する特定の視界制御を行い、前記第2オブジェクトが前記第1領域に含まれる場合であっても前記視界にも含まれる場合は、前記特定の視界制御を行なわず、
前記視界に対応する視界画像を表示部に表示する、情報処理装置。 With a processor,
The processor is
Defining a virtual space including a virtual viewpoint, a first object, and a second object;
Moving the first object based on a user operation;
Defining a first area associated with the gazing point of the virtual viewpoint or the first object;
Controlling at least one of the position and orientation of the virtual viewpoint so that the field of view from the virtual viewpoint captures the first object and the virtual viewpoint is located outside the first region;
When the second object is included in the first area but not included in the field of view, both the first object and the second object are included in the field of view, and the virtual viewpoint is outside the first area. Specific visual field control that automatically controls at least one of the position and orientation of the virtual viewpoint so that the second object is included in the first region even if the second object is included in the first region. If included, the specific view control is not performed ,
An information processing apparatus that displays a visual field image corresponding to the visual field on a display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015105005A JP6567325B2 (en) | 2015-05-22 | 2015-05-22 | Game program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015105005A JP6567325B2 (en) | 2015-05-22 | 2015-05-22 | Game program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014105949A Division JP5802307B1 (en) | 2014-05-22 | 2014-05-22 | Game program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015221211A JP2015221211A (en) | 2015-12-10 |
JP6567325B2 true JP6567325B2 (en) | 2019-08-28 |
Family
ID=54784603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015105005A Active JP6567325B2 (en) | 2015-05-22 | 2015-05-22 | Game program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6567325B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018202053A (en) * | 2017-06-08 | 2018-12-27 | 株式会社カプコン | Game program, game device and server device |
CN111220174A (en) * | 2018-11-26 | 2020-06-02 | 沈阳美行科技有限公司 | Display method and device for simulated navigation and related equipment |
CN109675307B (en) * | 2019-01-10 | 2020-02-21 | 网易(杭州)网络有限公司 | In-game display control method, device, storage medium, processor and terminal |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1133955C (en) * | 1995-12-07 | 2004-01-07 | 世雅企业股份有限公司 | Image generation appts. image generation method, game machine using the mathod, and medium |
JP3145059B2 (en) * | 1997-06-13 | 2001-03-12 | 株式会社ナムコ | Information storage medium and image generation device |
JPH11137842A (en) * | 1997-09-04 | 1999-05-25 | Sega Enterp Ltd | Image processing device |
JP2001269482A (en) * | 2000-03-24 | 2001-10-02 | Konami Computer Entertainment Japan Inc | Game system, computer-readable recording medium in which program for game is stored and image displaying method |
JP3833445B2 (en) * | 2000-06-14 | 2006-10-11 | 株式会社バンダイナムコゲームス | GAME DEVICE AND INFORMATION STORAGE MEDIUM |
JP3927821B2 (en) * | 2002-01-25 | 2007-06-13 | 株式会社バンダイナムコゲームス | PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE |
JP4180065B2 (en) * | 2005-05-13 | 2008-11-12 | 株式会社スクウェア・エニックス | Image generation method, image generation apparatus, and image generation program |
JP3954629B2 (en) * | 2006-01-20 | 2007-08-08 | 株式会社コナミデジタルエンタテインメント | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM |
JP4459993B2 (en) * | 2007-10-03 | 2010-04-28 | 株式会社スクウェア・エニックス | Image generating apparatus, image generating program, and image generating program recording medium |
JP5250237B2 (en) * | 2007-10-23 | 2013-07-31 | 株式会社カプコン | Program and game system |
JP5507893B2 (en) * | 2009-05-29 | 2014-05-28 | 株式会社バンダイナムコゲームス | Program, information storage medium, and image generation system |
JP5236674B2 (en) * | 2010-03-04 | 2013-07-17 | 株式会社コナミデジタルエンタテインメント | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM |
JP6011280B2 (en) * | 2012-11-29 | 2016-10-19 | 株式会社ノーリツ | Hot water storage water heater |
-
2015
- 2015-05-22 JP JP2015105005A patent/JP6567325B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015221211A (en) | 2015-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9199164B2 (en) | Image display device, computer readable storage medium, and game control method | |
US10529134B2 (en) | Information processing device, client device, information processing method, and program | |
CN1423238B (en) | Picture processing device and method | |
JP5227431B2 (en) | Network game system, game device, and program | |
JP5450569B2 (en) | Program, electronic device and computer system | |
JP5598703B2 (en) | Program, game device, and control method thereof | |
EP2829307A2 (en) | Image processing program, image processing device and image processing method | |
US20200254343A1 (en) | Game program and game system | |
WO2013058010A1 (en) | Game device, control method for game device, program, and information storage medium | |
WO2015011741A1 (en) | Image processing program, server device, image processing system, and image processing method | |
JP6567325B2 (en) | Game program | |
JP5911628B2 (en) | Game program | |
JP7216493B2 (en) | game system and program | |
JP5802307B1 (en) | Game program | |
CN110613933A (en) | Skill release control method and device in game, storage medium and processor | |
JP2023182760A (en) | Game program, information processing device and method | |
JP5989708B2 (en) | Game program | |
JP6029906B2 (en) | Game program and game system | |
JP6608171B2 (en) | Game program | |
JP2020062116A (en) | System, method, and program for providing content using augmented reality technique | |
KR20200035460A (en) | Gaming devices, recording media and gaming systems | |
JP6219875B2 (en) | Network game system, game device, and program | |
JP6386509B2 (en) | Game program and game system | |
US20230018553A1 (en) | Processing Apparatus, Program, And Method | |
JP2017228308A (en) | Image processing program and image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180813 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20181011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181120 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181120 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190325 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190402 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6567325 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |