JP7398933B2 - Processing equipment, processing method and program - Google Patents

Processing equipment, processing method and program Download PDF

Info

Publication number
JP7398933B2
JP7398933B2 JP2019209661A JP2019209661A JP7398933B2 JP 7398933 B2 JP7398933 B2 JP 7398933B2 JP 2019209661 A JP2019209661 A JP 2019209661A JP 2019209661 A JP2019209661 A JP 2019209661A JP 7398933 B2 JP7398933 B2 JP 7398933B2
Authority
JP
Japan
Prior art keywords
virtual camera
information
environment light
image
reference environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019209661A
Other languages
Japanese (ja)
Other versions
JP2021078848A (en
Inventor
裕也 黒籔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2019209661A priority Critical patent/JP7398933B2/en
Publication of JP2021078848A publication Critical patent/JP2021078848A/en
Application granted granted Critical
Publication of JP7398933B2 publication Critical patent/JP7398933B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、処理装置、処理方法及びプログラムに関する。 The present invention relates to a processing device, a processing method, and a program.

特許文献1は、自機(プレーヤの操作対象の機体)の位置や敵機との位置関係等を示すレーダーマップ画像を画面に表示する技術を開示している。非特許文献1及び2は、IBL(image-based lighting)に関する技術を開示している。特に、非特許文献1は、任意の画像から光源を求め、その環境下に置かれたモデルへの当該光源の映り込みを示した360°画像を生成する手段を開示している。 Patent Document 1 discloses a technique for displaying on a screen a radar map image showing the position of the player's aircraft (the aircraft to be operated by the player), the positional relationship with enemy aircraft, and the like. Non-Patent Documents 1 and 2 disclose techniques related to IBL (image-based lighting). In particular, Non-Patent Document 1 discloses means for determining a light source from an arbitrary image and generating a 360° image showing the reflection of the light source on a model placed in that environment.

特開2011-212347号公報JP2011-212347A

“UnityでIBL(イメージドベースドライティング)、実写から光源を求める”、[Online]、2014年6月28日、[2019年10月31日検索]、インターネット<URL: http://tsubakit1.hateblo.jp/entry/20140628/1403893615>“IBL (Image Based Lighting) in Unity, Finding Light Sources from Live Actions”, [Online], June 28, 2014, [Retrieved October 31, 2019], Internet <URL: http://tsubakit1.hateblo .jp/entry/20140628/1403893615> “画像を光源(ライト)として活用する~環境ライティング”、[Online]、[2019年10月31日検索]、インターネット<URL: http://3dcg.homeip.net/3d_reading/light_camera_render/global_light/01_e.php>“Using images as light sources (light) - Environmental lighting”, [Online], [Retrieved October 31, 2019], Internet <URL: http://3dcg.homeip.net/3d_reading/light_camera_render/global_light/01_e .php>

オープンワールド系の3Dゲームでは、プレイヤは、操作対象オブジェクトの位置の制御(仮想カメラの位置制御)、及び、操作対象オブジェクトの視線方向の制御(仮想カメラの向き制御)という2つの制御により、操作対象オブジェクトが存在する仮想空間の中の所望の位置を画面に映して視認することができる。しかし、ゲームに慣れてないプレイヤにとって当該操作は難しいタスクとなっていた。例えば、仮想カメラの向きを変更すると、方向感覚を失ってしまい、仮想空間の中のどの方向を向いているのか直感的に把握するのが困難になる場合等があった。 In open world 3D games, the player performs operations using two types of control: controlling the position of the object to be operated (virtual camera position control) and controlling the viewing direction of the object to be operated (virtual camera orientation control). A desired position in the virtual space where the target object exists can be projected on the screen and visually recognized. However, this operation has been a difficult task for players who are not accustomed to the game. For example, when changing the orientation of the virtual camera, the user may lose their sense of direction, making it difficult to intuitively grasp which direction in the virtual space they are facing.

そこで、仮想カメラの向きを示す情報を画面に表示する技術が存在する。例えば、特許文献1は、レーダーマップにおいてPMにカメラの向いている方向(プレイヤーの視線方向)を示す表示を行うこと技術を開示している。しかし、ゲームに慣れてないプレイヤは、画面に表示されている仮想カメラの向きを示す情報を見落としたり、ゲーム中にそれを見る余裕がなかったりする。このため、単に仮想カメラの向きを示す情報を画面に表示するだけでは、上記問題を解決できない。 Therefore, there is a technology that displays information indicating the orientation of the virtual camera on the screen. For example, Patent Document 1 discloses a technique of displaying a direction in which a camera is facing (a player's line of sight direction) on a PM in a radar map. However, players who are not accustomed to the game may overlook information indicating the orientation of the virtual camera displayed on the screen, or may not have the time to view it during the game. Therefore, the above problem cannot be solved simply by displaying information indicating the orientation of the virtual camera on the screen.

本発明の課題は、プレイヤが仮想カメラの向きを把握し易くなる技術を提供することである。 An object of the present invention is to provide a technique that makes it easier for a player to grasp the orientation of a virtual camera.

本発明によれば、
コンピュータを、
操作対象オブジェクトの所定のパラメータの値を示すパラメータ情報を記憶するパラメータ情報記憶部、
仮想空間における前記操作対象オブジェクトの位置を示す位置情報を記憶する位置情報記憶部、
プレイヤが入力した入力データに基づき前記位置情報を更新する位置情報更新部、
前記操作対象オブジェクトを撮影する第1の仮想カメラの前記仮想空間における位置及び向きを示す第1の仮想カメラ情報を記憶する第1の仮想カメラ情報記憶部、
プレイヤが入力した入力データに基づき前記第1の仮想カメラ情報を更新する第1の仮想カメラ情報更新部、
前記位置情報で示される前記操作対象オブジェクトの位置における環境光である基準環境光に基づき生成された参照環境光と、前記参照環境光下に置かれた表示オブジェクトを撮影する第2の仮想カメラの撮影方向との相対的な向きを特定するための参照環境光情報を記憶する参照環境光情報記憶部、
前記第1の仮想カメラ情報の更新に基づき前記参照環境光情報を更新する参照環境光情報更新部、
前記位置情報で示される位置に存在する前記操作対象オブジェクトを、前記第1の仮想カメラ情報で示される位置に存在し、かつ、前記第1の仮想カメラ情報で示される向きとなった前記第1の仮想カメラで撮影した第1の画像を生成する第1の画像生成部、
前記参照環境光下に置かれた前記表示オブジェクトを、前記参照環境光に対する撮影方向の相対的な向きが前記参照環境光情報で特定される状態となった前記第2の仮想カメラで撮影した第2の画像を生成する第2の画像生成部、
前記第1の画像と、前記第2の画像内の前記表示オブジェクトの画像とを含み、前記表示オブジェクトで前記所定のパラメータの値を示したゲーム画面を生成するゲーム画面生成部、
として機能させるプログラムが提供される。
According to the invention,
computer,
a parameter information storage unit that stores parameter information indicating the value of a predetermined parameter of the operation target object;
a position information storage unit that stores position information indicating the position of the operation target object in virtual space;
a location information update unit that updates the location information based on input data input by the player;
a first virtual camera information storage unit that stores first virtual camera information indicating a position and orientation in the virtual space of a first virtual camera that photographs the operation target object;
a first virtual camera information update unit that updates the first virtual camera information based on input data input by the player;
a reference environment light generated based on a reference environment light that is the environment light at the position of the operation target object indicated by the position information, and a second virtual camera that photographs a display object placed under the reference environment light. a reference ambient light information storage unit that stores reference ambient light information for specifying the orientation relative to the shooting direction;
a reference environment light information update unit that updates the reference environment light information based on the update of the first virtual camera information;
The object to be operated, which is located at the position indicated by the position information, is located at the position indicated by the first virtual camera information, and is oriented in the direction indicated by the first virtual camera information. a first image generation unit that generates a first image taken with a virtual camera;
The display object placed under the reference environment light is photographed by the second virtual camera in which the relative orientation of the photographing direction with respect to the reference environment light is specified by the reference environment light information. a second image generation unit that generates the second image;
a game screen generation unit that generates a game screen that includes the first image and an image of the display object in the second image and shows the value of the predetermined parameter in the display object;
A program is provided to enable this function.

また、本発明によれば、
操作対象オブジェクトの所定のパラメータの値を示すパラメータ情報を記憶するパラメータ情報記憶部と、
仮想空間における前記操作対象オブジェクトの位置を示す位置情報を記憶する位置情報記憶部と、
プレイヤが入力した入力データに基づき前記位置情報を更新する位置情報更新部と、
前記操作対象オブジェクトを撮影する第1の仮想カメラの前記仮想空間における位置及び向きを示す第1の仮想カメラ情報を記憶する第1の仮想カメラ情報記憶部と、
プレイヤが入力した入力データに基づき前記第1の仮想カメラ情報を更新する第1の仮想カメラ情報更新部と、
前記位置情報で示される前記操作対象オブジェクトの位置における環境光である基準環境光に基づき生成された参照環境光と、前記参照環境光下に置かれた表示オブジェクトを撮影する第2の仮想カメラの撮影方向との相対的な向きを特定するための参照環境光情報を記憶する参照環境光情報記憶部と、
前記第1の仮想カメラ情報の更新に基づき前記参照環境光情報を更新する参照環境光情報更新部と、
前記位置情報で示される位置に存在する前記操作対象オブジェクトを、前記第1の仮想カメラ情報で示される位置に存在し、かつ、前記第1の仮想カメラ情報で示される向きとなった前記第1の仮想カメラで撮影した第1の画像を生成する第1の画像生成部と、
前記参照環境光下に置かれた前記表示オブジェクトを、前記参照環境光に対する撮影方向の相対的な向きが前記参照環境光情報で特定される状態となった前記第2の仮想カメラで撮影した第2の画像を生成する第2の画像生成部と、
前記第1の画像と、前記第2の画像内の前記表示オブジェクトの画像とを含み、前記表示オブジェクトで前記所定のパラメータの値を示したゲーム画面を生成するゲーム画面生成部と、
を有する処理装置が提供される。
Further, according to the present invention,
a parameter information storage unit that stores parameter information indicating the value of a predetermined parameter of the operation target object;
a position information storage unit that stores position information indicating the position of the operation target object in virtual space;
a location information update unit that updates the location information based on input data input by the player;
a first virtual camera information storage unit that stores first virtual camera information indicating a position and orientation in the virtual space of a first virtual camera that photographs the operation target object;
a first virtual camera information update unit that updates the first virtual camera information based on input data input by the player;
a reference environment light generated based on a reference environment light that is the environment light at the position of the operation target object indicated by the position information, and a second virtual camera that photographs a display object placed under the reference environment light. a reference environment light information storage unit that stores reference environment light information for specifying a direction relative to the photographing direction;
a reference environment light information update unit that updates the reference environment light information based on the update of the first virtual camera information;
The object to be operated, which is located at the position indicated by the position information, is located at the position indicated by the first virtual camera information, and is oriented in the direction indicated by the first virtual camera information. a first image generation unit that generates a first image taken with a virtual camera;
The display object placed under the reference environment light is photographed by the second virtual camera in which the relative orientation of the photographing direction with respect to the reference environment light is specified by the reference environment light information. a second image generation unit that generates the second image;
a game screen generation unit that generates a game screen that includes the first image and an image of the display object in the second image and shows the value of the predetermined parameter in the display object;
A processing device is provided.

また、本発明によれば、
コンピュータが、
操作対象オブジェクトの所定のパラメータの値を示すパラメータ情報を記憶し、
仮想空間における前記操作対象オブジェクトの位置を示す位置情報を記憶し、
プレイヤが入力した入力データに基づき前記位置情報を更新し、
前記操作対象オブジェクトを撮影する第1の仮想カメラの前記仮想空間における位置及び向きを示す第1の仮想カメラ情報を記憶し、
プレイヤが入力した入力データに基づき前記第1の仮想カメラ情報を更新し、
前記位置情報で示される前記操作対象オブジェクトの位置における環境光である基準環境光に基づき生成された参照環境光と、前記参照環境光下に置かれた表示オブジェクトを撮影する第2の仮想カメラの撮影方向との相対的な向きを特定するための参照環境光情報を記憶し、
前記第1の仮想カメラ情報の更新に基づき前記参照環境光情報を更新し、
前記位置情報で示される位置に存在する前記操作対象オブジェクトを、前記第1の仮想カメラ情報で示される位置に存在し、かつ、前記第1の仮想カメラ情報で示される向きとなった前記第1の仮想カメラで撮影した第1の画像を生成し、
前記参照環境光下に置かれた前記表示オブジェクトを、前記参照環境光に対する撮影方向の相対的な向きが前記参照環境光情報で特定される状態となった前記第2の仮想カメラで撮影した第2の画像を生成し、
前記第1の画像と、前記第2の画像内の前記表示オブジェクトの画像とを含み、前記表示オブジェクトで前記所定のパラメータの値を示したゲーム画面を生成する処理方法が提供される。
Further, according to the present invention,
The computer is
storing parameter information indicating the value of a predetermined parameter of the object to be operated;
storing position information indicating the position of the operation target object in virtual space;
updating the location information based on input data input by the player;
storing first virtual camera information indicating a position and orientation in the virtual space of a first virtual camera that photographs the operation target object;
updating the first virtual camera information based on input data input by the player;
a reference environment light generated based on a reference environment light that is the environment light at the position of the operation target object indicated by the position information, and a second virtual camera that photographs a display object placed under the reference environment light. Stores reference environment light information for identifying the orientation relative to the shooting direction,
updating the reference ambient light information based on updating the first virtual camera information;
The object to be operated, which is located at the position indicated by the position information, is located at the position indicated by the first virtual camera information, and is oriented in the direction indicated by the first virtual camera information. generate a first image taken with a virtual camera of
The display object placed under the reference environment light is photographed by the second virtual camera in which the relative orientation of the photographing direction with respect to the reference environment light is specified by the reference environment light information. Generate image 2,
A processing method is provided for generating a game screen that includes the first image and an image of the display object in the second image, and in which the display object shows a value of the predetermined parameter.

本発明によれば、プレイヤが仮想カメラの向きを把握し易くなる。 According to the present invention, it becomes easier for the player to grasp the direction of the virtual camera.

本実施形態の処理装置が生成するゲーム画面の一例を示す図である。It is a figure showing an example of the game screen which the processing device of this embodiment generates. 本実施形態の処理装置のハードウエア構成の一例を示す図である。FIG. 1 is a diagram showing an example of the hardware configuration of a processing device according to the present embodiment. 本実施形態の処理装置の機能ブロック図の一例である。It is an example of the functional block diagram of the processing device of this embodiment. 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of information processed by the processing device of the present embodiment. 本実施形態の処理装置の処理を説明するための図である。FIG. 3 is a diagram for explaining processing of the processing device according to the present embodiment. 本実施形態の処理装置の処理を説明するための図である。FIG. 3 is a diagram for explaining processing of the processing device according to the present embodiment. 本実施形態の処理装置の処理を説明するための図である。FIG. 3 is a diagram for explaining processing of the processing device according to the present embodiment. 本実施形態の処理装置の処理を説明するための図である。FIG. 3 is a diagram for explaining processing of the processing device according to the present embodiment. 本実施形態の処理装置の処理を説明するための図である。FIG. 3 is a diagram for explaining processing of the processing device according to the present embodiment. 本実施形態の処理装置の処理を説明するための図である。FIG. 3 is a diagram for explaining processing of the processing device according to the present embodiment. 本実施形態の処理装置の処理を説明するための図である。FIG. 3 is a diagram for explaining processing of the processing device according to the present embodiment. 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。2 is a flowchart illustrating an example of a processing flow of the processing device according to the present embodiment.

<概要>
まず、本実施形態の処理装置の概要を説明する。図1に、処理装置が生成するゲーム画面Dの一例を示す。図示する例は、操作対象オブジェクト1を後方から見たゲーム画面Dである。当該ゲーム画面Dには、表示オブジェクト3が表示されている。図では明示されていないが、表示オブジェクト3には、操作対象オブジェクト1が存在する位置の環境光に基づくスペキュラが表示される。スペキュラは、物体に光源自身が映り込んでできるハイライトのことであり、物体と光源との相対的な位置や向きの関係等により多様に変化する。
<Summary>
First, an overview of the processing device of this embodiment will be explained. FIG. 1 shows an example of a game screen D generated by the processing device. The illustrated example is a game screen D when the operation target object 1 is viewed from behind. On the game screen D, a display object 3 is displayed. Although not clearly shown in the figure, the display object 3 displays specular based on the environmental light at the position where the operation target object 1 is present. Specular is a highlight created when the light source itself is reflected on an object, and it varies depending on the relative position and orientation of the object and the light source.

本実施形態の処理装置によれば、プレイヤ操作に応じて操作対象オブジェクト1の視線方向、すなわち仮想カメラの向きが変化すると、それに応じて、ゲーム画面Dの表示内容(ゲーム画面Dに映る景色)が変化するとともに、表示オブジェクト3におけるスペキュラの表示内容が変化する。このような表示オブジェクト3のスペキュラを視認することで、プレイヤは、仮想空間の中のどの方向を向いているのか直感的に把握し易くなる。 According to the processing device of this embodiment, when the line of sight direction of the operation target object 1, that is, the direction of the virtual camera changes in response to the player's operation, the display contents of the game screen D (scenery reflected on the game screen D) change accordingly. As the value changes, the specular display content in the display object 3 also changes. By visually recognizing the specular of the display object 3, it becomes easier for the player to intuitively understand which direction in the virtual space the player is facing.

ところで、仮想空間内に表示オブジェクト3を存在させておけば、仮想カメラにより生成される画像の中に仮想カメラの向きに応じたスペキュラを示す表示オブジェクト3を含めることができる。しかし、操作対象オブジェクト1の位置や視線方向に関わらず、常に画像に表示オブジェクト3を含めるためには、仮想空間のあらゆる位置に表示オブジェクト3を存在させる必要がある。このような状況となった仮想空間は不自然である。また、仮想空間の所定の位置に表示オブジェクト3を固定しておく場合、操作対象オブジェクト1の位置や視線方向に応じて、ゲーム画面D内における表示オブジェクト3の位置が変化する。このように、ゲーム画面D内における表示オブジェクト3の位置が変化すると、表示オブジェクト3に表示されたスペキュラを視認するのが難しくなる。 By the way, if the display object 3 is made to exist in the virtual space, the display object 3 that shows specular according to the orientation of the virtual camera can be included in the image generated by the virtual camera. However, in order to always include the display object 3 in the image regardless of the position of the operation target object 1 or the viewing direction, the display object 3 needs to be present at every position in the virtual space. A virtual space in such a situation is unnatural. Further, when the display object 3 is fixed at a predetermined position in the virtual space, the position of the display object 3 within the game screen D changes depending on the position of the operation target object 1 and the viewing direction. As described above, when the position of the display object 3 within the game screen D changes, it becomes difficult to visually recognize the specular displayed on the display object 3.

このような課題を解決するため、処理装置は、仮想空間とは別に、操作対象オブジェクト1が存在する位置の環境光を模擬した別の空間を用意し、その別の空間に表示オブジェクト3を位置させ、仮想カメラで撮影する。そして、処理装置は、仮想空間に存在する操作対象オブジェクト1を撮影して生成された画像と、上記別の空間に位置する表示オブジェクト3を撮影して生成された画像とに基づき、図1に示すようなゲーム画面Dを生成する。なお、表示オブジェクト3は仮想空間に存在する物体ではないため、ゲーム画面Dの中の表示位置に特に制限がなく、任意の位置に配置することができる。そこで、例えば、図1に示すように、ゲームの進行等の妨げにならないゲーム画面Dの端等に表示オブジェクト3を配置することができる。また、操作対象オブジェクト1の移動や視線方向の変化に応じてゲーム画面Dに表示される仮想空間の内容が変化しても、ゲーム画面Dの中の任意の位置(例:ゲーム画面Dの端)に表示オブジェクト3を位置させ続けることができる。このような処理装置によれば、上述した仮想空間内に表示オブジェクト3を存在させる手法の課題を解決することができる。 In order to solve such problems, the processing device prepares another space apart from the virtual space that simulates the environmental light at the position where the operation target object 1 exists, and positions the display object 3 in the other space. and take pictures with the virtual camera. Then, the processing device generates the image shown in FIG. A game screen D as shown is generated. Note that since the display object 3 is not an object that exists in virtual space, there is no particular restriction on the display position on the game screen D, and it can be placed at any position. Therefore, for example, as shown in FIG. 1, the display object 3 can be placed at the edge of the game screen D, etc., where it does not interfere with the progress of the game. Furthermore, even if the contents of the virtual space displayed on the game screen D change according to the movement of the operation target object 1 or changes in the line of sight direction, it is possible to ) can continue to position the display object 3. According to such a processing device, it is possible to solve the problem of the method of making the display object 3 exist in the virtual space described above.

また、処理装置は、図1に示すように、操作対象オブジェクト1のヒットポイントを表示オブジェクト3に表示する(図中の「110」)。このように、処理装置は、限られた大きさのエリアを有効に活用して各種情報を表示したゲーム画面Dを生成することができる。また、ゲーム中にプレイヤが最も注目するパラメータの1つであるヒットポイントを表示オブジェクト3に表示することで、プレイヤの視線を表示オブジェクト3に誘導し易くなる。 Further, as shown in FIG. 1, the processing device displays the hit point of the operation target object 1 on the display object 3 ("110" in the figure). In this way, the processing device can generate the game screen D displaying various information by effectively utilizing a limited area. Furthermore, by displaying the hit point, which is one of the parameters that the player pays the most attention to during the game, on the display object 3, it becomes easier to guide the player's line of sight to the display object 3.

<ハードウエア構成>
次に、処理装置の構成を詳細に説明する。処理装置は、クライアント-サーバ型のゲームシステムのクライアント端末であってもよいし、サーバであってもよい。また、処理装置は、プレイヤからの入力を受付ける入力部、入力内容に基づき演算する演算部、及び、ゲーム画面を表示するディスプレイ等を有する装置であってもよい。また、処理装置は、入力部及び演算部を有し、外部接続されたディスプレイ(例:テレビ等)にゲーム画面を表示する装置であってもよい。
<Hardware configuration>
Next, the configuration of the processing device will be explained in detail. The processing device may be a client terminal of a client-server type game system, or may be a server. Furthermore, the processing device may be a device that includes an input section that receives input from the player, a calculation section that performs calculations based on input content, a display that displays a game screen, and the like. Further, the processing device may be a device that has an input section and a calculation section and displays a game screen on an externally connected display (eg, a television).

処理装置の各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。 Each functional part of the processing device consists of the CPU (Central Processing Unit) of any computer, the memory, the program loaded into the memory, and the storage unit such as a hard disk that stores the program (the program is stored in advance at the stage of shipping the device). (In addition to programs, it can also store programs downloaded from storage media such as CDs (Compact Discs) or servers on the Internet, etc.), and is realized by any combination of hardware and software, centering on network connection interfaces. . It will be understood by those skilled in the art that there are various modifications to the implementation method and device.

図2は、処理装置のハードウエア構成を例示するブロック図である。図2に示すように、処理装置は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。処理装置は周辺回路4Aを有さなくてもよい。なお、処理装置は物理的及び/又は論理的に分かれた複数の装置で構成されてもよいし、物理的及び/又は論理的に一体となった1つの装置で構成されてもよい。処理装置が物理的及び/又は論理的に分かれた複数の装置で構成される場合、複数の装置各々が上記ハードウエア構成を備えることができる。 FIG. 2 is a block diagram illustrating the hardware configuration of the processing device. As shown in FIG. 2, the processing device includes a processor 1A, a memory 2A, an input/output interface 3A, a peripheral circuit 4A, and a bus 5A. The peripheral circuit 4A includes various modules. The processing device does not need to have the peripheral circuit 4A. Note that the processing device may be composed of a plurality of physically and/or logically separated devices, or may be composed of one physically and/or logically integrated device. When the processing device is composed of a plurality of physically and/or logically separated devices, each of the plurality of devices can be provided with the above hardware configuration.

バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサ、カメラ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク、物理ボタン、タッチパネル、ゲームコントローラ(ジョイスティック、アナログスティック等)等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。 The bus 5A is a data transmission path through which the processor 1A, memory 2A, peripheral circuit 4A, and input/output interface 3A exchange data with each other. The processor 1A is, for example, an arithmetic processing device such as a CPU or a GPU (Graphics Processing Unit). The memory 2A is, for example, a RAM (Random Access Memory) or a ROM (Read Only Memory). The input/output interface 3A includes an interface for acquiring information from an input device, an external device, an external server, an external sensor, a camera, etc., an interface for outputting information to an output device, an external device, an external server, etc. . Input devices include, for example, a keyboard, mouse, microphone, physical button, touch panel, game controller (joystick, analog stick, etc.). Examples of the output device include a display, a speaker, a printer, and a mailer. The processor 1A can issue commands to each module and perform calculations based on the results of those calculations.

<機能構成>
次に、処理装置の機能構成を説明する。図3に、処理装置100の機能ブロック図の一例を示す。図示するように、処理装置100は、入力データ取得部101と、パラメータ情報更新部102と、パラメータ情報記憶部103と、位置情報更新部104と、位置情報記憶部105と、第1の仮想カメラ情報更新部106と、第1の仮想カメラ情報記憶部107と、参照環境光情報更新部108と、参照環境光情報記憶部109と、第1の画像生成部110と、第2の画像生成部111と、ゲーム画面生成部112と、出力部113とを有する。
<Functional configuration>
Next, the functional configuration of the processing device will be explained. FIG. 3 shows an example of a functional block diagram of the processing device 100. As illustrated, the processing device 100 includes an input data acquisition unit 101, a parameter information update unit 102, a parameter information storage unit 103, a position information update unit 104, a position information storage unit 105, and a first virtual camera. Information update section 106, first virtual camera information storage section 107, reference environment light information update section 108, reference environment light information storage section 109, first image generation section 110, and second image generation section 111, a game screen generation section 112, and an output section 113.

入力データ取得部101は、入力装置を介してプレイヤが入力した入力データを取得する。入力装置は、タッチパネル、コントローラ、キーボード、マウス、マイク、物理ボタン等が例示されるが、これらに限定されない。例えば、処理装置100にこれらの入力装置が接続されており、入力データ取得部101は、入力装置から入力データを取得してもよい。その他、外部装置にこれらの入力装置が接続されており、入力データ取得部101は、当該外部装置が送信してきた入力データを取得してもよい。 The input data acquisition unit 101 acquires input data input by a player via an input device. Examples of input devices include, but are not limited to, touch panels, controllers, keyboards, mice, microphones, physical buttons, and the like. For example, these input devices may be connected to the processing device 100, and the input data acquisition unit 101 may acquire input data from the input devices. In addition, these input devices may be connected to an external device, and the input data acquisition unit 101 may acquire input data transmitted from the external device.

パラメータ情報記憶部103は、操作対象オブジェクト1の所定のパラメータの値を示すパラメータ情報を記憶する。所定のパラメータは、ゲームの進行に応じて増加及び/又は減少するパラメータであり、例えば、ヒットポイント、攻撃力、防御力等が例示されるがこれらに限定されない。図4にパラメータ情報の一例を模式的に示す。 The parameter information storage unit 103 stores parameter information indicating the value of a predetermined parameter of the operation target object 1. The predetermined parameters are parameters that increase and/or decrease as the game progresses, and include, but are not limited to, hit points, attack power, defense power, and the like. FIG. 4 schematically shows an example of parameter information.

パラメータ情報更新部102は、プレイヤが入力した入力データに基づきパラメータ情報を更新する。その実現手段やアルゴリズムは特段制限されず、周知のあらゆる技術を採用して設計することができる。 The parameter information update unit 102 updates parameter information based on input data input by the player. The implementation means and algorithms are not particularly limited, and can be designed using any well-known technology.

位置情報記憶部105は、仮想空間における操作対象オブジェクト1の位置及び向きを示す位置情報を記憶する。図4に位置情報の一例を模式的に示す。操作対象オブジェクト1の位置は、仮想空間に設定された3次元座標系の座標により示すことができる。操作対象オブジェクト1の向きは、例えば、3次元座標系の軸回りの回転角度で示されてもよいし、単位ベクトルで示されてもよい。 The position information storage unit 105 stores position information indicating the position and orientation of the operation target object 1 in the virtual space. FIG. 4 schematically shows an example of position information. The position of the operation target object 1 can be indicated by coordinates in a three-dimensional coordinate system set in virtual space. The orientation of the operation target object 1 may be indicated, for example, by a rotation angle around an axis of a three-dimensional coordinate system, or by a unit vector.

位置情報更新部104は、プレイヤが入力した入力データに基づき位置情報を更新する。その実現手段やアルゴリズムは特段制限されず、周知のあらゆる技術を採用して設計することができる。 The location information update unit 104 updates location information based on input data input by the player. The implementation means and algorithms are not particularly limited, and can be designed using any well-known technology.

第1の仮想カメラ情報記憶部107は、操作対象オブジェクト1を撮影する第1の仮想カメラの仮想空間における位置及び向きを示す第1の仮想カメラ情報を記憶する。例えば、図1に示すようなゲーム画面Dは、図5に示すような状態となった第1の仮想カメラ2により生成された画像に基づき生成される。図4に第1の仮想カメラ情報の一例を模式的に示す。第1の仮想カメラ2の位置は、仮想空間に設定された3次元座標系の座標により示すことができる。第1の仮想カメラ2の向きは、例えば、3次元座標系の軸回りの回転角度で示されてもよいし、単位ベクトルで示されてもよい。なお、本実施形態では、図5に示すように、仮想空間の鉛直方向をy軸方向とし、水平方向をx軸方向及びz軸方向とするが、これに限定されない。 The first virtual camera information storage unit 107 stores first virtual camera information indicating the position and orientation in the virtual space of the first virtual camera that photographs the operation target object 1. For example, a game screen D as shown in FIG. 1 is generated based on an image generated by the first virtual camera 2 in a state as shown in FIG. FIG. 4 schematically shows an example of first virtual camera information. The position of the first virtual camera 2 can be indicated by coordinates in a three-dimensional coordinate system set in the virtual space. The orientation of the first virtual camera 2 may be indicated, for example, by a rotation angle around an axis of a three-dimensional coordinate system, or by a unit vector. In this embodiment, as shown in FIG. 5, the vertical direction of the virtual space is the y-axis direction, and the horizontal directions are the x-axis direction and the z-axis direction, but the present invention is not limited thereto.

第1の仮想カメラ情報更新部106は、プレイヤが入力した入力データに基づき第1の仮想カメラ情報を更新する。具体的には、第1の仮想カメラ情報更新部106は、プレイヤが入力した入力データに基づき上述した操作対象オブジェクト1の位置情報が更新されると、それに基づき第1の仮想カメラ情報を更新する。その実現手段やアルゴリズムは特段制限されず、周知のあらゆる技術を採用して設計することができる。 The first virtual camera information updating unit 106 updates the first virtual camera information based on input data input by the player. Specifically, when the position information of the operation target object 1 described above is updated based on the input data input by the player, the first virtual camera information updating unit 106 updates the first virtual camera information based on it. . The implementation means and algorithms are not particularly limited, and can be designed using any well-known technology.

参照環境光情報記憶部109は、参照環境光と、参照環境光下に置かれた表示オブジェクト3を撮影する第2の仮想カメラの撮影方向との相対的な向きを特定するための参照環境光情報を記憶する。参照環境光は、上記位置情報で示される操作対象オブジェクト1の位置における環境光(基準環境光)に基づき生成された環境光、すなわち基準環境光を模擬した環境光である。その詳細は、後述する。 The reference environment light information storage unit 109 stores reference environment light for specifying the relative direction of the reference environment light and the photographing direction of the second virtual camera that photographs the display object 3 placed under the reference environment light. Remember information. The reference environment light is an environment light generated based on the environment light (reference environment light) at the position of the operation target object 1 indicated by the position information, that is, an environment light that simulates the reference environment light. The details will be described later.

図6に、参照環境光と、参照環境光下に置かれた表示オブジェクト3と、当該表示オブジェクト3を撮影する第2の仮想カメラ4との関係を示す。第2の仮想カメラ4及び表示オブジェクト3の位置及び向きは固定される。そして、図6乃至図8に示すように、参照環境光は所定の位置を中心に回転可能に構成される。この場合、参照環境光と、第2の仮想カメラ4の撮影方向との相対的な向きを特定するための参照環境光情報は、例えば、参照環境光の回転角度(y軸回りの回転角度)とすることができる(図4参照)。すなわち、参照環境光が基準状態からy軸回りにどれだけ回転しているかにより、参照環境光と第2の仮想カメラ4の撮影方向との相対的な向きが特定される。 FIG. 6 shows the relationship between the reference environment light, the display object 3 placed under the reference environment light, and the second virtual camera 4 that photographs the display object 3. The positions and orientations of the second virtual camera 4 and display object 3 are fixed. As shown in FIGS. 6 to 8, the reference ambient light is configured to be rotatable around a predetermined position. In this case, the reference environment light information for specifying the relative direction of the reference environment light and the shooting direction of the second virtual camera 4 is, for example, the rotation angle of the reference environment light (rotation angle around the y-axis). (See Figure 4). In other words, the relative orientation of the reference environmental light and the photographing direction of the second virtual camera 4 is determined depending on how much the reference environmental light is rotated around the y-axis from the reference state.

図3に戻り、参照環境光情報更新部108は、第1の仮想カメラ情報の更新に基づき参照環境光情報を更新する。具体的には、参照環境光情報更新部108は、第1の仮想カメラの向きがy軸回りに回転すると、それに応じて、参照環境光情報を更新する。 Returning to FIG. 3, the reference environment light information updating unit 108 updates the reference environment light information based on the update of the first virtual camera information. Specifically, when the direction of the first virtual camera rotates around the y-axis, the reference environment light information updating unit 108 updates the reference environment light information accordingly.

ここで、図6乃至図11を用いて、参照環境光情報更新部108による処理例を説明する。図9乃至図11は、操作対象オブジェクト1と、第1の仮想カメラ2と、操作対象オブジェクト1が存在する位置の環境光(基準環境光)との関係を示す。 Here, an example of processing by the reference ambient light information updating unit 108 will be described using FIGS. 6 to 11. 9 to 11 show the relationship between the operation target object 1, the first virtual camera 2, and the environment light (reference environment light) at the position where the operation target object 1 exists.

例えば、図9→図10のように、プレイヤ操作に応じて第1の仮想カメラ2の向きがy軸周りを反時計回りに45°回転すると、それに応じて、図6→図7に示すように、参照環境光がy軸周りを時計回りに45°回転する。そして、図10→図11のように、プレイヤ操作に応じて第1の仮想カメラ2の向きがy軸周りを反時計回りにさらに45°回転すると、それに応じて、図7→図8に示すように、参照環境光がy軸周りを時計回りにさらに45°回転する。 For example, if the direction of the first virtual camera 2 is rotated by 45 degrees counterclockwise around the y-axis in response to the player's operation as shown in FIGS. , the reference ambient light is rotated 45 degrees clockwise around the y-axis. Then, as shown in FIG. 10 → FIG. 11, the direction of the first virtual camera 2 is further rotated by 45 degrees counterclockwise around the y-axis in response to the player's operation, and accordingly, as shown in FIGS. 7 → 8 , the reference ambient light is further rotated by 45° clockwise around the y-axis.

また、図11→図10のように、プレイヤ操作に応じて第1の仮想カメラ2の向きがy軸周りを時計回りに45°回転すると、それに応じて、図8→図7に示すように、参照環境光がy軸周りを反時計回りに45°回転する。そして、図10→図9のように、プレイヤ操作に応じて第1の仮想カメラ2の向きがy軸周りを時計回りにさらに45°回転すると、それに応じて、図7→図6に示すように、参照環境光がy軸周りを反時計回りにさらに45°回転する。 Furthermore, as shown in FIGS. 11 to 10, when the direction of the first virtual camera 2 is rotated by 45° clockwise around the y-axis in response to the player's operation, the direction changes as shown in FIGS. 8 to 7. , the reference ambient light is rotated 45° counterclockwise around the y-axis. Then, as shown in FIG. 10 → FIG. 9, when the direction of the first virtual camera 2 is further rotated by 45° clockwise around the y-axis in response to the player's operation, the orientation changes as shown in FIGS. 7 → FIG. Then, the reference ambient light is further rotated by 45 degrees counterclockwise around the y-axis.

このような関係性に基づいて、参照環境光情報更新部108は、第1の仮想カメラ情報の更新に基づき参照環境光情報を更新する。このように、第2の仮想カメラ4の撮影方向及び表示オブジェクト3の向きが固定されている本実施形態では、参照環境光情報は参照環境光の基準状態からの回転量を示し、参照環境光情報更新部108は、第1の仮想カメラ2の向きの変化量に基づき、参照環境光情報が示す上記回転量を更新する。 Based on such a relationship, the reference environment light information updating unit 108 updates the reference environment light information based on updating the first virtual camera information. As described above, in this embodiment in which the shooting direction of the second virtual camera 4 and the orientation of the display object 3 are fixed, the reference environment light information indicates the amount of rotation of the reference environment light from the reference state, and the reference environment light The information update unit 108 updates the amount of rotation indicated by the reference environmental light information based on the amount of change in the orientation of the first virtual camera 2.

なお、図9乃至図11では、プレイヤ操作に応じて第1の仮想カメラ2が操作対象オブジェクト1の周囲を回転移動することで第1の仮想カメラ2の向きが変化する例を示した。しかし、これはあくまで一例であり、これに限定されない。その他の例として、例えば、プレイヤ操作に応じて第1の仮想カメラ2がその場で回転することで第1の仮想カメラ2の向きが変更する例等が挙げられる。 Note that FIGS. 9 to 11 show an example in which the orientation of the first virtual camera 2 changes as the first virtual camera 2 rotates around the operation target object 1 in response to the player's operation. However, this is just an example and is not limited thereto. Other examples include an example in which the orientation of the first virtual camera 2 is changed by rotating the first virtual camera 2 on the spot in response to a player's operation.

図3に戻り、第1の画像生成部110は、上記位置情報で示される位置に存在する操作対象オブジェクト1を、第1の仮想カメラ情報で示される位置に存在し、かつ、第1の仮想カメラ情報で示される向きとなった第1の仮想カメラ2で撮影した第1の画像を生成する。第1の画像生成部110の構成は、周知のあらゆる技術を採用できる。 Returning to FIG. 3, the first image generation unit 110 converts the operation target object 1 existing at the position indicated by the above-mentioned position information into a first virtual camera existing at the position indicated by the first virtual camera information and A first image captured by the first virtual camera 2 oriented in the direction indicated by the camera information is generated. The configuration of the first image generation section 110 can employ any known technique.

第2の画像生成部111は、参照環境光下に置かれた表示オブジェクト3を、参照環境光に対する撮影方向の相対的な向きが参照環境光情報で特定される状態となった第2の仮想カメラ4で撮影した第2の画像を生成する。 The second image generation unit 111 generates a second virtual image in which the display object 3 placed under the reference environment light is in a state where the relative orientation of the photographing direction with respect to the reference environment light is specified by the reference environment light information. A second image captured by camera 4 is generated.

上述の通り、参照環境光は、上記位置情報で示される操作対象オブジェクト1の位置における環境光(基準環境光)に基づき生成された環境光、すなわち基準環境光を模擬した環境光である。例えば、第2の画像生成部111は、IBL(イメージドベースドライティング)の技術を用いて、第1の仮想カメラ2が生成した画像から光源(基準環境光)を求めることができる。そして、第2の画像生成部111は、当該基準光から参照境光を求めることができる。 As described above, the reference environment light is the environment light generated based on the environment light (reference environment light) at the position of the operation target object 1 indicated by the position information, that is, the environment light that simulates the reference environment light. For example, the second image generation unit 111 can determine the light source (reference environmental light) from the image generated by the first virtual camera 2 using IBL (Image Based Lighting) technology. Then, the second image generation unit 111 can obtain the reference boundary light from the reference light.

第2の画像生成部111は、基準環境光をそのまま参照環境光としてもよいし、又は、基準環境光の光の強度を調整したものを参照環境光としてもよい。例えば、第2の画像生成部111は、仮想空間の時刻情報に基づき、参照環境光の光の強度を調整してもよい。一例として、夜の時間帯には参照環境光の光の強度を基準環境光の光の強度よりも弱くしてもよい。また、昼の時間帯には参照環境光の光の強度を基準環境光の光の強度よりも強くしてもよい。 The second image generation unit 111 may use the standard environmental light as it is as the reference environmental light, or may use the standard environmental light with the intensity adjusted as the reference environmental light. For example, the second image generation unit 111 may adjust the intensity of the reference environmental light based on time information in the virtual space. For example, the intensity of the reference environmental light may be made lower than the intensity of the reference environmental light during night time. Further, during daytime hours, the intensity of the reference environmental light may be made stronger than the intensity of the reference environmental light.

また、第2の画像生成部111は、操作対象オブジェクト1が存在する位置の環境に基づき、参照環境光の光の強度を調整してもよい。例えば、操作対象オブジェクト1が、洞窟の中や家の中など、外部環境に比べて暗い環境にいる場合、第2の画像生成部111は、参照環境光の光の強度を基準環境光の光の強度よりも弱くしてもよい。 Further, the second image generation unit 111 may adjust the intensity of the reference environmental light based on the environment at the position where the operation target object 1 exists. For example, when the operation target object 1 is in an environment that is darker than the external environment, such as inside a cave or a house, the second image generation unit 111 converts the intensity of the reference environmental light into the light of the reference environmental light. The strength may be lower than that of .

そして、第2の画像生成部111は、このようにして生成した参照環光下に、向き及び位置を固定した表示オブジェクト3及び第2の仮想カメラ4を配置し、参照環境光情報に基づき参照環境光のy軸周りの回転量を調整しながら、第2の画像を生成することができる。 Then, the second image generation unit 111 arranges the display object 3 and the second virtual camera 4 whose direction and position are fixed under the reference ambient light generated in this way, and uses the reference environment light information as a reference based on the reference environment light information. The second image can be generated while adjusting the amount of rotation of the ambient light around the y-axis.

ゲーム画面生成部112は、第1の画像と、第2の画像内の表示オブジェクト3の画像とを含み、表示オブジェクト3で操作対象オブジェクト1の所定のパラメータの値を示したゲーム画面を生成する。 The game screen generation unit 112 generates a game screen that includes a first image and an image of the display object 3 in the second image, and in which the display object 3 shows the value of a predetermined parameter of the operation target object 1. .

すなわち、ゲーム画面生成部112は、第2の画像の中から表示オブジェクト3が存在する領域を特定し、その部分を切り出す。そして、ゲーム画面生成部112は、第1の画像と、第2の画像から切り出した画像とを用いて、例えば、図1に示すようなゲーム画面Dを生成する。例えば、ゲーム画面生成部112は、第1の画像に、第2の画像から切り出した画像を重畳して、ゲーム画面Dを生成してもよい。そして、第2の画像から切り出した画像を重畳する第1の画像上の位置は予め定められていてもよい。 That is, the game screen generation unit 112 identifies an area in the second image where the display object 3 exists, and cuts out that part. Then, the game screen generation unit 112 generates, for example, a game screen D as shown in FIG. 1 using the first image and an image cut out from the second image. For example, the game screen generation unit 112 may generate the game screen D by superimposing an image cut out from the second image on the first image. The position on the first image at which the image cut out from the second image is superimposed may be determined in advance.

図3に戻り、出力部113は、ゲーム画面生成部112が生成したゲーム画面を出力する。例えば、処理装置100がクライアント-サーバ型のゲームシステムのサーバである場合、出力部113は、ゲーム画面をクライアント端末に送信する。また、処理装置100が、入力部、演算部及びディスプレイ等を有する装置である場合、出力部113は、ディスプレイにデータを入力し、ゲーム画面を表示させる。また、処理装置100が、入力部及び演算部を有し、外部接続されたディスプレイ(例:テレビ等)にゲーム画面を表示する装置である場合、出力部113は、外部接続されたディスプレイにデータを入力し、ゲーム画面を表示させる。 Returning to FIG. 3, the output unit 113 outputs the game screen generated by the game screen generation unit 112. For example, if the processing device 100 is a server of a client-server type game system, the output unit 113 transmits the game screen to the client terminal. Further, when the processing device 100 is a device having an input section, a calculation section, a display, etc., the output section 113 inputs data to the display and displays a game screen. Furthermore, if the processing device 100 is a device that has an input section and a calculation section and displays a game screen on an externally connected display (e.g., a television), the output section 113 provides data to the externally connected display. Enter to display the game screen.

<処理の流れ>
次に、図12のフローチャートを用いて、処理装置100の処理の流れの一例を説明する。ここでは、プレイヤによる操作対象オブジェクト1の視線方向を変更する入力に基づき位置情報や第1の仮想カメラ情報が更新された場合に行われる処理の一例を説明する。
<Processing flow>
Next, an example of the processing flow of the processing device 100 will be described using the flowchart of FIG. 12. Here, an example of processing that is performed when the position information and the first virtual camera information are updated based on an input by the player to change the viewing direction of the operation target object 1 will be described.

まず、参照環境光情報更新部108は、第1の仮想カメラ情報の更新に基づき参照環境光情報を更新する(S10)。すなわち、図6乃至図8に示すように、第2の仮想カメラ4の撮影方向及び表示オブジェクト3の向きが固定され、参照環境光が回転する本実施形態では、参照環境光情報は参照環境光の基準状態からの回転量を示す。そして、参照環境光情報更新部108は、第1の仮想カメラ2の向きの変化量に基づき、参照環境光情報が示す上記回転量を更新する。 First, the reference environment light information updating unit 108 updates the reference environment light information based on the update of the first virtual camera information (S10). That is, as shown in FIGS. 6 to 8, in this embodiment in which the shooting direction of the second virtual camera 4 and the orientation of the display object 3 are fixed and the reference environment light is rotated, the reference environment light information is based on the reference environment light. indicates the amount of rotation from the reference state. Then, the reference environment light information updating unit 108 updates the amount of rotation indicated by the reference environment light information based on the amount of change in the orientation of the first virtual camera 2.

次に、第1の画像生成部110及び第2の画像生成部111が、更新された位置情報、第1の仮想カメラ情報及び参照環境光情報に基づき、第1の画像及び第2の画像を生成する(S11)。 Next, the first image generation unit 110 and the second image generation unit 111 generate the first image and the second image based on the updated position information, the first virtual camera information, and the reference environment light information. Generate (S11).

すなわち、第1の画像生成部110は、位置情報で示される位置に存在する操作対象オブジェクト1を、第1の仮想カメラ情報で示される位置に存在し、かつ、第1の仮想カメラ情報で示される向きとなった第1の仮想カメラ2で撮影した第1の画像を生成する。 That is, the first image generation unit 110 converts the operation target object 1 existing at the position indicated by the position information to the operation target object 1 existing at the position indicated by the first virtual camera information and indicated by the first virtual camera information. A first image captured by the first virtual camera 2 oriented in the direction of the image is generated.

また、第2の画像生成部111は、参照環境光下に置かれた表示オブジェクト3を、参照環境光に対する撮影方向の相対的な向きが参照環境光情報で特定される状態となった第2の仮想カメラ4で撮影した第2の画像を生成する。 The second image generation unit 111 also generates a second image generating unit 111 that displays the display object 3 placed under the reference environment light in a state where the relative orientation of the photographing direction with respect to the reference environment light is specified by the reference environment light information. A second image captured by the virtual camera 4 is generated.

ついで、ゲーム画面生成部112が、S11で生成された第1の画像及び第2の画像に基づき、ゲーム画面を生成する(S12)。すなわち、ゲーム画面生成部112は、第2の画像の中から表示オブジェクト3が存在する領域を特定し、その部分を切り出す。そして、ゲーム画面生成部112は、第1の画像と、第2の画像から切り出した画像とを用いて、例えば、図1に示すようなゲーム画面Dを生成する。例えば、ゲーム画面生成部112は、第1の画像に、第2の画像から切り出した画像を重畳して、ゲーム画面Dを生成してもよい。そして、第2の画像から切り出した画像を重畳する第1の画像上の位置は予め定められていてもよい。 Next, the game screen generation unit 112 generates a game screen based on the first image and second image generated in S11 (S12). That is, the game screen generation unit 112 identifies an area in the second image where the display object 3 exists, and cuts out that part. Then, the game screen generation unit 112 generates, for example, a game screen D as shown in FIG. 1 using the first image and an image cut out from the second image. For example, the game screen generation unit 112 may generate the game screen D by superimposing an image cut out from the second image on the first image. The position on the first image at which the image cut out from the second image is superimposed may be determined in advance.

図示しないが、そのあと、出力部113は、ゲーム画面生成部112が生成したゲーム画面を出力する。 Although not shown, the output unit 113 then outputs the game screen generated by the game screen generation unit 112.

<作用効果>
次に、処理装置100の作用効果を説明する。
<Effect>
Next, the effects of the processing device 100 will be explained.

処理装置100は、操作対象オブジェクト1を存在する位置の環境光が映り込んだ表示オブジェクト3を、ゲーム画面上に表示することができる。そして、処理装置100は、プレイヤ操作に応じて操作対象オブジェクト1の視線方向、すなわち第1の仮想カメラ2の向きが変化すると、それに応じて、ゲーム画面Dの表示内容を変化させるとともに、表示オブジェクト3におけるスペキュラの表示内容を変化させることができる。このような表示オブジェクト3のスペキュラを視認することで、プレイヤは、仮想空間の中のどの方向を向いているのか直感的に把握し易くなる。 The processing device 100 can display, on the game screen, the display object 3 in which the environmental light of the position where the operation target object 1 is present is reflected. Then, when the line of sight direction of the operation target object 1, that is, the direction of the first virtual camera 2 changes in accordance with the player's operation, the processing device 100 changes the display content of the game screen D accordingly, and changes the display content of the display object 1. The specular display contents in 3 can be changed. By visually recognizing the specular of the display object 3, it becomes easier for the player to intuitively understand which direction in the virtual space the player is facing.

ところで、仮想空間内に表示オブジェクト3を存在させておけば、第1の仮想カメラ2より生成される画像の中に第1の仮想カメラ2の向きに応じたスペキュラを示す表示オブジェクト3を含めることができる。しかし、操作対象オブジェクト1の位置や視線方向に関わらず、常に画像に表示オブジェクト3を含めるためには、仮想空間のあらゆる位置に表示オブジェクト3を存在させる必要がある。このような状況となった仮想空間は不自然である。また、仮想空間の所定の位置に表示オブジェクト3を固定しておく場合、操作対象オブジェクト1の位置や視線方向に応じて、ゲーム画面D内における表示オブジェクト3の位置が変化する。このように、ゲーム画面D内における表示オブジェクト3の位置が変化すると、表示オブジェクト3に表示されたスペキュラを視認するのが難しくなる。 By the way, if the display object 3 exists in the virtual space, it is possible to include the display object 3 showing specular according to the orientation of the first virtual camera 2 in the image generated by the first virtual camera 2. I can do it. However, in order to always include the display object 3 in the image regardless of the position of the operation target object 1 or the viewing direction, the display object 3 needs to be present at every position in the virtual space. A virtual space in such a situation is unnatural. Further, when the display object 3 is fixed at a predetermined position in the virtual space, the position of the display object 3 within the game screen D changes depending on the position of the operation target object 1 and the viewing direction. As described above, when the position of the display object 3 within the game screen D changes, it becomes difficult to visually recognize the specular displayed on the display object 3.

このような課題を解決するため、処理装置100は、操作対象オブジェクト1が存在する位置の環境光を模擬した仮想空間とは別の空間を用意し、その空間に表示オブジェクト3を位置させ、第2の仮想カメラ4で撮影する。そして、処理装置100は、仮想空間に存在する操作対象オブジェクト1を第1の仮想カメラ2で撮影して生成された画像と、上記別の空間に位置する表示オブジェクト3を第2の仮想カメラ4で撮影して生成された画像とに基づき、図1に示すようなゲーム画面Dを生成する。なお、表示オブジェクト3は仮想空間に存在する物体ではないため、ゲーム画面Dの中の表示位置に特に制限がなく、任意の位置に配置することができる。そこで、例えば、図1に示すように、ゲームの進行等の妨げにならないゲーム画面Dの端等に表示オブジェクト3を配置することができる。また、操作対象オブジェクト1の移動や視線方向の変化に応じてゲーム画面Dに表示される仮想空間の内容が変化しても、ゲーム画面Dの中の任意の位置(例:ゲーム画面Dの端)に表示オブジェクト3を位置させ続けることができる。このような処理装置100によれば、上述した仮想空間内に表示オブジェクト3を存在させる手法の課題を解決することができる。 In order to solve such problems, the processing device 100 prepares a space different from the virtual space that simulates the environmental light at the position where the operation target object 1 exists, positions the display object 3 in that space, and A photograph is taken using the virtual camera 4 of 2. Then, the processing device 100 uses the image generated by photographing the operation target object 1 existing in the virtual space with the first virtual camera 2 and the display object 3 located in the other space with the second virtual camera 4. A game screen D as shown in FIG. 1 is generated based on the image taken and generated. Note that since the display object 3 is not an object that exists in virtual space, there is no particular restriction on the display position on the game screen D, and it can be placed at any position. Therefore, for example, as shown in FIG. 1, the display object 3 can be placed at the edge of the game screen D, etc., where it does not interfere with the progress of the game. Furthermore, even if the contents of the virtual space displayed on the game screen D change according to the movement of the operation target object 1 or changes in the line of sight direction, it is possible to ) can continue to position the display object 3. According to such a processing device 100, the problem of the method of making the display object 3 exist in the virtual space described above can be solved.

また、処理装置100は、図1に示すように、操作対象オブジェクト1のヒットポイント(図中の「110」)を表示オブジェクト3に表示する。このように、処理装置100は、限られた大きさのエリアを有効に活用して各種情報を表示したゲーム画面Dを生成することができる。また、ゲーム中にプレイヤが最も注目するパラメータの1つであるヒットポイントを表示オブジェクト3に表示することで、プレイヤの視線を表示オブジェクト3に誘導し易くなる。 Further, as shown in FIG. 1, the processing device 100 displays the hit point (“110” in the figure) of the operation target object 1 on the display object 3. In this way, the processing device 100 can generate the game screen D displaying various information by effectively utilizing a limited area. Furthermore, by displaying the hit point, which is one of the parameters that the player pays the most attention to during the game, on the display object 3, it becomes easier to guide the player's line of sight to the display object 3.

また、処理装置100は、参照環境光の光の強度を、仮想空間の時刻情報や、操作対象オブジェクト1が存在する位置の環境等に基づき、調整することができる。結果、表示オブジェクト3に表示されたスペキュラが、時刻や環境に関わらず視認しやすくなる等の効果が得られる。 Furthermore, the processing device 100 can adjust the intensity of the reference environment light based on time information in the virtual space, the environment at the position where the operation target object 1 exists, and the like. As a result, the specular displayed on the display object 3 can be easily recognized regardless of the time or environment.

<変形例>
ここで、処理装置100の変形例を説明する。上述した実施形態では、表示オブジェクト3にヒットポイントを表示したが、その他のパラメータの値を表示してもよい。例えば、攻撃力や守備力などのように操作対象オブジェクト1に関するパラメータの値を表示オブジェクト3に表示してもよいし、仮想空間における時刻等、操作対象オブジェクト1に直接関係しないパラメータの値を表示オブジェクト3に表示してもよい。
<Modified example>
Here, a modification of the processing device 100 will be described. In the embodiment described above, hit points are displayed on the display object 3, but values of other parameters may also be displayed. For example, the display object 3 may display the value of a parameter related to the object 1 to be operated, such as attack power or defense power, or the value of a parameter that is not directly related to the object 1 to be operated, such as the time in virtual space. It may also be displayed on object 3.

また、上述した実施形態では、図6乃至図8に示すように、表示オブジェクト3及び第2の仮想カメラ4の位置及ぶ向きを固定し、参照環境光を回転させたが、変形例として、参照環境光を固定し、表示オブジェクト3の向き、及び、第2の仮想カメラ4の位置及び向きを変化させてもよい。 Furthermore, in the embodiment described above, as shown in FIGS. 6 to 8, the positions and directions of the display object 3 and the second virtual camera 4 are fixed, and the reference environment light is rotated. The environment light may be fixed, and the orientation of the display object 3 and the position and orientation of the second virtual camera 4 may be changed.

また、上述した実施形態では表示オブジェクトの形状は球としたが、これに限定されず、その他の形状を採用することもできる。 Further, in the embodiments described above, the shape of the display object is a sphere, but the present invention is not limited to this, and other shapes may also be adopted.

また、上述した実施形態では、いわゆるTPS(Third Person Shooter)ゲームとして記載されているが、FPS(First Person Shooter)ゲームにおいて本発明を適用してもよい。FPSゲームに適応した場合には本人(一人称)視点となる仮想カメラが第1の仮想カメラに相当する。 Further, in the embodiment described above, the present invention is described as a so-called TPS (Third Person Shooter) game, but the present invention may be applied to an FPS (First Person Shooter) game. When adapted to an FPS game, a virtual camera that is viewed from the user's (first person) viewpoint corresponds to the first virtual camera.

これらの変形例においても、上述した実施形態と同様の作用効果が実現される。 Even in these modified examples, the same effects as those of the above-described embodiments are achieved.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限定されない。
1. コンピュータを、
操作対象オブジェクトの所定のパラメータの値を示すパラメータ情報を記憶するパラメータ情報記憶部、
仮想空間における前記操作対象オブジェクトの位置を示す位置情報を記憶する位置情報記憶部、
プレイヤが入力した入力データに基づき前記位置情報を更新する位置情報更新部、
前記操作対象オブジェクトを撮影する第1の仮想カメラの前記仮想空間における位置及び向きを示す第1の仮想カメラ情報を記憶する第1の仮想カメラ情報記憶部、
プレイヤが入力した入力データに基づき前記第1の仮想カメラ情報を更新する第1の仮想カメラ情報更新部、
前記位置情報で示される前記操作対象オブジェクトの位置における環境光である基準環境光に基づき生成された参照環境光と、前記参照環境光下に置かれた表示オブジェクトを撮影する第2の仮想カメラの撮影方向との相対的な向きを特定するための参照環境光情報を記憶する参照環境光情報記憶部、
前記第1の仮想カメラ情報の更新に基づき前記参照環境光情報を更新する参照環境光情報更新部、
前記位置情報で示される位置に存在する前記操作対象オブジェクトを、前記第1の仮想カメラ情報で示される位置に存在し、かつ、前記第1の仮想カメラ情報で示される向きとなった前記第1の仮想カメラで撮影した第1の画像を生成する第1の画像生成部、
前記参照環境光下に置かれた前記表示オブジェクトを、前記参照環境光に対する撮影方向の相対的な向きが前記参照環境光情報で特定される状態となった前記第2の仮想カメラで撮影した第2の画像を生成する第2の画像生成部、
前記第1の画像と、前記第2の画像内の前記表示オブジェクトの画像とを含み、前記表示オブジェクトで前記所定のパラメータの値を示したゲーム画面を生成するゲーム画面生成部、
として機能させるプログラム。
2. 1に記載のプログラムにおいて、
前記第2の仮想カメラの撮影方向は固定されており、前記参照環境光情報は前記参照環境光の基準状態からの回転量を示し、
前記参照環境光情報更新部は、前記第1の仮想カメラの向きの変化量に基づき、前記回転量を更新するプログラム。
3. 2に記載のプログラムにおいて、
前記参照環境光下に置かれた前記表示オブジェクトの向きは固定されているプログラム。
4. 1から3のいずれかに記載のプログラムにおいて、
前記第2の画像生成部は、前記基準環境光を前記参照環境光とするか、又は、前記基準環境光の光の強度を調整したものを前記参照環境光とするプログラム。
5. 4に記載のプログラムにおいて、
前記第2の画像生成部は、前記仮想空間の時刻情報に基づき、前記参照環境光の光の強度を調整するプログラム。
6. 4又は5に記載のプログラムにおいて、
前記第2の画像生成部は、前記操作対象オブジェクトが存在する位置の環境に基づき、前記参照環境光の光の強度を調整するプログラム。
7. 1から6のいずれかに記載のプログラムにおいて、
前記ゲーム画面生成部は、前記表示オブジェクトで前記操作対象オブジェクトのヒットポイントを示した前記ゲーム画面を生成するプログラム。
8. 操作対象オブジェクトの所定のパラメータの値を示すパラメータ情報を記憶するパラメータ情報記憶部と、
仮想空間における前記操作対象オブジェクトの位置を示す位置情報を記憶する位置情報記憶部と、
プレイヤが入力した入力データに基づき前記位置情報を更新する位置情報更新部と、
前記操作対象オブジェクトを撮影する第1の仮想カメラの前記仮想空間における位置及び向きを示す第1の仮想カメラ情報を記憶する第1の仮想カメラ情報記憶部と、
プレイヤが入力した入力データに基づき前記第1の仮想カメラ情報を更新する第1の仮想カメラ情報更新部と、
前記位置情報で示される前記操作対象オブジェクトの位置における環境光である基準環境光に基づき生成された参照環境光と、前記参照環境光下に置かれた表示オブジェクトを撮影する第2の仮想カメラの撮影方向との相対的な向きを特定するための参照環境光情報を記憶する参照環境光情報記憶部と、
前記第1の仮想カメラ情報の更新に基づき前記参照環境光情報を更新する参照環境光情報更新部と、
前記位置情報で示される位置に存在する前記操作対象オブジェクトを、前記第1の仮想カメラ情報で示される位置に存在し、かつ、前記第1の仮想カメラ情報で示される向きとなった前記第1の仮想カメラで撮影した第1の画像を生成する第1の画像生成部と、
前記参照環境光下に置かれた前記表示オブジェクトを、前記参照環境光に対する撮影方向の相対的な向きが前記参照環境光情報で特定される状態となった前記第2の仮想カメラで撮影した第2の画像を生成する第2の画像生成部と、
前記第1の画像と、前記第2の画像内の前記表示オブジェクトの画像とを含み、前記表示オブジェクトで前記所定のパラメータの値を示したゲーム画面を生成するゲーム画面生成部と、
を有する処理装置。
9. コンピュータが、
操作対象オブジェクトの所定のパラメータの値を示すパラメータ情報を記憶し、
仮想空間における前記操作対象オブジェクトの位置を示す位置情報を記憶し、
プレイヤが入力した入力データに基づき前記位置情報を更新し、
前記操作対象オブジェクトを撮影する第1の仮想カメラの前記仮想空間における位置及び向きを示す第1の仮想カメラ情報を記憶し、
プレイヤが入力した入力データに基づき前記第1の仮想カメラ情報を更新し、
前記位置情報で示される前記操作対象オブジェクトの位置における環境光である基準環境光に基づき生成された参照環境光と、前記参照環境光下に置かれた表示オブジェクトを撮影する第2の仮想カメラの撮影方向との相対的な向きを特定するための参照環境光情報を記憶し、
前記第1の仮想カメラ情報の更新に基づき前記参照環境光情報を更新し、
前記位置情報で示される位置に存在する前記操作対象オブジェクトを、前記第1の仮想カメラ情報で示される位置に存在し、かつ、前記第1の仮想カメラ情報で示される向きとなった前記第1の仮想カメラで撮影した第1の画像を生成し、
前記参照環境光下に置かれた前記表示オブジェクトを、前記参照環境光に対する撮影方向の相対的な向きが前記参照環境光情報で特定される状態となった前記第2の仮想カメラで撮影した第2の画像を生成し、
前記第1の画像と、前記第2の画像内の前記表示オブジェクトの画像とを含み、前記表示オブジェクトで前記所定のパラメータの値を示したゲーム画面を生成する処理方法。
Part or all of the above embodiments may be described as in the following supplementary notes, but the embodiments are not limited to the following.
1. computer,
a parameter information storage unit that stores parameter information indicating the value of a predetermined parameter of the operation target object;
a position information storage unit that stores position information indicating the position of the operation target object in virtual space;
a location information update unit that updates the location information based on input data input by the player;
a first virtual camera information storage unit that stores first virtual camera information indicating a position and orientation in the virtual space of a first virtual camera that photographs the operation target object;
a first virtual camera information update unit that updates the first virtual camera information based on input data input by the player;
a reference environment light generated based on a reference environment light that is the environment light at the position of the operation target object indicated by the position information, and a second virtual camera that photographs a display object placed under the reference environment light. a reference ambient light information storage unit that stores reference ambient light information for specifying the orientation relative to the shooting direction;
a reference environment light information update unit that updates the reference environment light information based on the update of the first virtual camera information;
The object to be operated, which is located at the position indicated by the position information, is located at the position indicated by the first virtual camera information, and is oriented in the direction indicated by the first virtual camera information. a first image generation unit that generates a first image taken with a virtual camera;
The display object placed under the reference environment light is photographed by the second virtual camera in which the relative orientation of the photographing direction with respect to the reference environment light is specified by the reference environment light information. a second image generation unit that generates the second image;
a game screen generation unit that generates a game screen that includes the first image and an image of the display object in the second image and shows the value of the predetermined parameter in the display object;
A program that functions as
2. In the program described in 1.
The photographing direction of the second virtual camera is fixed, and the reference ambient light information indicates the amount of rotation of the reference ambient light from a reference state;
The reference environment light information updating unit is a program that updates the amount of rotation based on the amount of change in the orientation of the first virtual camera.
3. In the program described in 2,
The program wherein the orientation of the display object placed under the reference ambient light is fixed.
4. In the program described in any one of 1 to 3,
The second image generation unit is a program that uses the reference environmental light as the reference environmental light, or uses the reference environmental light as the reference environmental light.
5. In the program described in 4,
The second image generation unit is a program that adjusts the intensity of the reference environmental light based on time information of the virtual space.
6. In the program described in 4 or 5,
The second image generation unit is a program that adjusts the intensity of the reference environmental light based on the environment at a position where the operation target object exists.
7. In the program described in any one of 1 to 6,
The game screen generation unit is a program that generates the game screen showing hit points of the operation target object in the display object.
8. a parameter information storage unit that stores parameter information indicating the value of a predetermined parameter of the operation target object;
a position information storage unit that stores position information indicating the position of the operation target object in virtual space;
a location information update unit that updates the location information based on input data input by the player;
a first virtual camera information storage unit that stores first virtual camera information indicating a position and orientation in the virtual space of a first virtual camera that photographs the operation target object;
a first virtual camera information update unit that updates the first virtual camera information based on input data input by the player;
a reference environment light generated based on a reference environment light that is the environment light at the position of the operation target object indicated by the position information, and a second virtual camera that photographs a display object placed under the reference environment light. a reference environment light information storage unit that stores reference environment light information for specifying a direction relative to the photographing direction;
a reference environment light information update unit that updates the reference environment light information based on the update of the first virtual camera information;
The object to be operated, which is located at the position indicated by the position information, is located at the position indicated by the first virtual camera information, and is oriented in the direction indicated by the first virtual camera information. a first image generation unit that generates a first image taken with a virtual camera;
The display object placed under the reference environment light is photographed by the second virtual camera in which the relative orientation of the photographing direction with respect to the reference environment light is specified by the reference environment light information. a second image generation unit that generates the second image;
a game screen generation unit that generates a game screen that includes the first image and an image of the display object in the second image and shows the value of the predetermined parameter in the display object;
A processing device having:
9. The computer is
storing parameter information indicating the value of a predetermined parameter of the object to be operated;
storing position information indicating the position of the operation target object in virtual space;
updating the location information based on input data input by the player;
storing first virtual camera information indicating a position and orientation in the virtual space of a first virtual camera that photographs the operation target object;
updating the first virtual camera information based on input data input by the player;
a reference environment light generated based on a reference environment light that is the environment light at the position of the operation target object indicated by the position information, and a second virtual camera that photographs a display object placed under the reference environment light. Stores reference environment light information for identifying the orientation relative to the shooting direction,
updating the reference ambient light information based on updating the first virtual camera information;
The object to be operated, which is located at the position indicated by the position information, is moved to the first virtual camera, which is located at the position indicated by the first virtual camera information, and is oriented in the direction indicated by the first virtual camera information. generate a first image taken with a virtual camera of
The display object placed under the reference environment light is photographed by the second virtual camera in which the relative orientation of the photographing direction with respect to the reference environment light is specified by the reference environment light information. Generate image 2,
A processing method for generating a game screen that includes the first image and an image of the display object in the second image, and in which the display object shows a value of the predetermined parameter.

以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present invention has been described above with reference to the embodiments (and examples), the present invention is not limited to the above embodiments (and examples). The configuration and details of the present invention can be modified in various ways that can be understood by those skilled in the art within the scope of the present invention.

1A プロセッサ
2A メモリ
3A 入出力I/F
4A 周辺回路
5A バス
100 処理装置
101 入力データ取得部
102 パラメータ情報更新部
103 パラメータ情報記憶部
104 位置情報更新部
105 位置情報記憶部
106 第1の仮想カメラ情報更新部
107 第1の仮想カメラ情報記憶部
108 参照環境光情報更新部
109 参照環境光情報記憶部
110 第1の画像生成部
111 第2の画像生成部
112 ゲーム画面生成部
113 出力部
1A processor 2A memory 3A input/output I/F
4A Peripheral circuit 5A Bus 100 Processing device 101 Input data acquisition unit 102 Parameter information update unit 103 Parameter information storage unit 104 Position information update unit 105 Position information storage unit 106 First virtual camera information update unit 107 First virtual camera information storage Section 108 Reference environment light information update section 109 Reference environment light information storage section 110 First image generation section 111 Second image generation section 112 Game screen generation section 113 Output section

Claims (9)

コンピュータを、
操作対象オブジェクトの所定のパラメータの値を示すパラメータ情報を記憶するパラメータ情報記憶部、
仮想空間における前記操作対象オブジェクトの位置を示す位置情報を記憶する位置情報記憶部、
プレイヤが入力した入力データに基づき前記位置情報を更新する位置情報更新部、
前記操作対象オブジェクトを撮影する第1の仮想カメラの前記仮想空間における位置及び向きを示す第1の仮想カメラ情報を記憶する第1の仮想カメラ情報記憶部、
プレイヤが入力した入力データに基づき前記第1の仮想カメラ情報を更新する第1の仮想カメラ情報更新部、
前記位置情報で示される前記操作対象オブジェクトの位置における環境光である基準環境光に基づき生成された参照環境光と、前記参照環境光下に置かれた表示オブジェクトを撮影する第2の仮想カメラの撮影方向との相対的な向きを特定するための参照環境光情報を記憶する参照環境光情報記憶部、
前記第1の仮想カメラ情報の更新に基づき前記参照環境光情報を更新する参照環境光情報更新部、
前記位置情報で示される位置に存在する前記操作対象オブジェクトを、前記第1の仮想カメラ情報で示される位置に存在し、かつ、前記第1の仮想カメラ情報で示される向きとなった前記第1の仮想カメラで撮影した第1の画像を生成する第1の画像生成部、
前記参照環境光下に置かれた前記表示オブジェクトを、前記参照環境光に対する撮影方向の相対的な向きが前記参照環境光情報で特定される状態となった前記第2の仮想カメラで撮影した第2の画像を生成する第2の画像生成部、
前記第1の画像と、前記第2の画像内の前記表示オブジェクトの画像とを含み、前記表示オブジェクトで前記所定のパラメータの値を示したゲーム画面を生成するゲーム画面生成部、
として機能させるプログラム。
computer,
a parameter information storage unit that stores parameter information indicating the value of a predetermined parameter of the operation target object;
a position information storage unit that stores position information indicating the position of the operation target object in virtual space;
a location information update unit that updates the location information based on input data input by the player;
a first virtual camera information storage unit that stores first virtual camera information indicating a position and orientation in the virtual space of a first virtual camera that photographs the operation target object;
a first virtual camera information update unit that updates the first virtual camera information based on input data input by the player;
a reference environment light generated based on a reference environment light that is the environment light at the position of the operation target object indicated by the position information, and a second virtual camera that photographs a display object placed under the reference environment light. a reference ambient light information storage unit that stores reference ambient light information for specifying the orientation relative to the shooting direction;
a reference environment light information update unit that updates the reference environment light information based on the update of the first virtual camera information;
The object to be operated, which is located at the position indicated by the position information, is located at the position indicated by the first virtual camera information, and is oriented in the direction indicated by the first virtual camera information. a first image generation unit that generates a first image taken with a virtual camera;
The display object placed under the reference environment light is photographed by the second virtual camera in which the relative orientation of the photographing direction with respect to the reference environment light is specified by the reference environment light information. a second image generation unit that generates the second image;
a game screen generation unit that generates a game screen that includes the first image and an image of the display object in the second image and shows the value of the predetermined parameter in the display object;
A program that functions as
請求項1に記載のプログラムにおいて、
前記第2の仮想カメラの撮影方向は固定されており、前記参照環境光情報は前記参照環境光の基準状態からの回転量を示し、
前記参照環境光情報更新部は、前記第1の仮想カメラの向きの変化量に基づき、前記回転量を更新するプログラム。
The program according to claim 1,
The photographing direction of the second virtual camera is fixed, and the reference ambient light information indicates the amount of rotation of the reference ambient light from a reference state;
The reference environment light information updating unit is a program that updates the amount of rotation based on the amount of change in the orientation of the first virtual camera.
請求項2に記載のプログラムにおいて、
前記参照環境光下に置かれた前記表示オブジェクトの向きは固定されているプログラム。
The program according to claim 2,
The program wherein the orientation of the display object placed under the reference ambient light is fixed.
請求項1から3のいずれか1項に記載のプログラムにおいて、
前記第2の画像生成部は、前記基準環境光を前記参照環境光とするか、又は、前記基準環境光の光の強度を調整したものを前記参照環境光とするプログラム。
The program according to any one of claims 1 to 3,
The second image generation unit is a program that uses the reference environmental light as the reference environmental light, or uses the reference environmental light as the reference environmental light.
請求項4に記載のプログラムにおいて、
前記第2の画像生成部は、前記仮想空間の時刻情報に基づき、前記参照環境光の光の強度を調整するプログラム。
The program according to claim 4,
The second image generation unit is a program that adjusts the intensity of the reference environmental light based on time information of the virtual space.
請求項4又は5に記載のプログラムにおいて、
前記第2の画像生成部は、前記操作対象オブジェクトが存在する位置の環境に基づき、前記参照環境光の光の強度を調整するプログラム。
In the program according to claim 4 or 5,
The second image generation unit is a program that adjusts the intensity of the reference environmental light based on the environment at a position where the operation target object exists.
請求項1から6のいずれか1項に記載のプログラムにおいて、
前記ゲーム画面生成部は、前記表示オブジェクトで前記操作対象オブジェクトのヒットポイントを示した前記ゲーム画面を生成するプログラム。
The program according to any one of claims 1 to 6,
The game screen generation unit is a program that generates the game screen showing hit points of the operation target object in the display object.
操作対象オブジェクトの所定のパラメータの値を示すパラメータ情報を記憶するパラメータ情報記憶部と、
仮想空間における前記操作対象オブジェクトの位置を示す位置情報を記憶する位置情報記憶部と、
プレイヤが入力した入力データに基づき前記位置情報を更新する位置情報更新部と、
前記操作対象オブジェクトを撮影する第1の仮想カメラの前記仮想空間における位置及び向きを示す第1の仮想カメラ情報を記憶する第1の仮想カメラ情報記憶部と、
プレイヤが入力した入力データに基づき前記第1の仮想カメラ情報を更新する第1の仮想カメラ情報更新部と、
前記位置情報で示される前記操作対象オブジェクトの位置における環境光である基準環境光に基づき生成された参照環境光と、前記参照環境光下に置かれた表示オブジェクトを撮影する第2の仮想カメラの撮影方向との相対的な向きを特定するための参照環境光情報を記憶する参照環境光情報記憶部と、
前記第1の仮想カメラ情報の更新に基づき前記参照環境光情報を更新する参照環境光情報更新部と、
前記位置情報で示される位置に存在する前記操作対象オブジェクトを、前記第1の仮想カメラ情報で示される位置に存在し、かつ、前記第1の仮想カメラ情報で示される向きとなった前記第1の仮想カメラで撮影した第1の画像を生成する第1の画像生成部と、
前記参照環境光下に置かれた前記表示オブジェクトを、前記参照環境光に対する撮影方向の相対的な向きが前記参照環境光情報で特定される状態となった前記第2の仮想カメラで撮影した第2の画像を生成する第2の画像生成部と、
前記第1の画像と、前記第2の画像内の前記表示オブジェクトの画像とを含み、前記表示オブジェクトで前記所定のパラメータの値を示したゲーム画面を生成するゲーム画面生成部と、
を有する処理装置。
a parameter information storage unit that stores parameter information indicating the value of a predetermined parameter of the operation target object;
a position information storage unit that stores position information indicating the position of the operation target object in virtual space;
a location information update unit that updates the location information based on input data input by the player;
a first virtual camera information storage unit that stores first virtual camera information indicating a position and orientation in the virtual space of a first virtual camera that photographs the operation target object;
a first virtual camera information update unit that updates the first virtual camera information based on input data input by the player;
a reference environment light generated based on a reference environment light that is the environment light at the position of the operation target object indicated by the position information, and a second virtual camera that photographs a display object placed under the reference environment light. a reference environment light information storage unit that stores reference environment light information for specifying a direction relative to the photographing direction;
a reference environment light information update unit that updates the reference environment light information based on the update of the first virtual camera information;
The object to be operated, which is located at the position indicated by the position information, is located at the position indicated by the first virtual camera information, and is oriented in the direction indicated by the first virtual camera information. a first image generation unit that generates a first image taken with a virtual camera;
The display object placed under the reference environment light is photographed by the second virtual camera in which the relative orientation of the photographing direction with respect to the reference environment light is specified by the reference environment light information. a second image generation unit that generates the second image;
a game screen generation unit that generates a game screen that includes the first image and an image of the display object in the second image and shows the value of the predetermined parameter in the display object;
A processing device having:
コンピュータが、
操作対象オブジェクトの所定のパラメータの値を示すパラメータ情報を記憶し、
仮想空間における前記操作対象オブジェクトの位置を示す位置情報を記憶し、
プレイヤが入力した入力データに基づき前記位置情報を更新し、
前記操作対象オブジェクトを撮影する第1の仮想カメラの前記仮想空間における位置及び向きを示す第1の仮想カメラ情報を記憶し、
プレイヤが入力した入力データに基づき前記第1の仮想カメラ情報を更新し、
前記位置情報で示される前記操作対象オブジェクトの位置における環境光である基準環境光に基づき生成された参照環境光と、前記参照環境光下に置かれた表示オブジェクトを撮影する第2の仮想カメラの撮影方向との相対的な向きを特定するための参照環境光情報を記憶し、
前記第1の仮想カメラ情報の更新に基づき前記参照環境光情報を更新し、
前記位置情報で示される位置に存在する前記操作対象オブジェクトを、前記第1の仮想カメラ情報で示される位置に存在し、かつ、前記第1の仮想カメラ情報で示される向きとなった前記第1の仮想カメラで撮影した第1の画像を生成し、
前記参照環境光下に置かれた前記表示オブジェクトを、前記参照環境光に対する撮影方向の相対的な向きが前記参照環境光情報で特定される状態となった前記第2の仮想カメラで撮影した第2の画像を生成し、
前記第1の画像と、前記第2の画像内の前記表示オブジェクトの画像とを含み、前記表示オブジェクトで前記所定のパラメータの値を示したゲーム画面を生成する処理方法。
The computer is
storing parameter information indicating the value of a predetermined parameter of the object to be operated;
storing position information indicating the position of the operation target object in virtual space;
updating the location information based on input data input by the player;
storing first virtual camera information indicating a position and orientation in the virtual space of a first virtual camera that photographs the operation target object;
updating the first virtual camera information based on input data input by the player;
a reference environment light generated based on a reference environment light that is the environment light at the position of the operation target object indicated by the position information, and a second virtual camera that photographs a display object placed under the reference environment light. Stores reference environment light information for identifying the orientation relative to the shooting direction,
updating the reference ambient light information based on updating the first virtual camera information;
The object to be operated, which is located at the position indicated by the position information, is located at the position indicated by the first virtual camera information, and is oriented in the direction indicated by the first virtual camera information. generate a first image taken with a virtual camera of
The display object placed under the reference environment light is photographed by the second virtual camera in which the relative orientation of the photographing direction with respect to the reference environment light is specified by the reference environment light information. Generate image 2,
A processing method for generating a game screen that includes the first image and an image of the display object in the second image, and in which the display object shows a value of the predetermined parameter.
JP2019209661A 2019-11-20 2019-11-20 Processing equipment, processing method and program Active JP7398933B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019209661A JP7398933B2 (en) 2019-11-20 2019-11-20 Processing equipment, processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019209661A JP7398933B2 (en) 2019-11-20 2019-11-20 Processing equipment, processing method and program

Publications (2)

Publication Number Publication Date
JP2021078848A JP2021078848A (en) 2021-05-27
JP7398933B2 true JP7398933B2 (en) 2023-12-15

Family

ID=75961744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019209661A Active JP7398933B2 (en) 2019-11-20 2019-11-20 Processing equipment, processing method and program

Country Status (1)

Country Link
JP (1) JP7398933B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005270342A (en) 2004-03-24 2005-10-06 Namco Ltd Program, information storage medium and image generating system
JP2006263122A (en) 2005-03-24 2006-10-05 Sega Corp Game apparatus, game system, game data processing method, program for game data processing method and storage medium
JP2007164582A (en) 2005-12-15 2007-06-28 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2009140237A (en) 2007-12-06 2009-06-25 Konami Digital Entertainment Co Ltd Image processor, image processing method and program
JP2010273987A (en) 2009-05-29 2010-12-09 Namco Bandai Games Inc Program, information storage medium and image forming system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005270342A (en) 2004-03-24 2005-10-06 Namco Ltd Program, information storage medium and image generating system
JP2006263122A (en) 2005-03-24 2006-10-05 Sega Corp Game apparatus, game system, game data processing method, program for game data processing method and storage medium
JP2007164582A (en) 2005-12-15 2007-06-28 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2009140237A (en) 2007-12-06 2009-06-25 Konami Digital Entertainment Co Ltd Image processor, image processing method and program
JP2010273987A (en) 2009-05-29 2010-12-09 Namco Bandai Games Inc Program, information storage medium and image forming system

Also Published As

Publication number Publication date
JP2021078848A (en) 2021-05-27

Similar Documents

Publication Publication Date Title
JP5137970B2 (en) Reality enhancement method and apparatus for automatically tracking textured planar geometric objects in real time without marking in a video stream
Schou et al. A Wii remote, a game engine, five sensor bars and a virtual reality theatre
JP6476657B2 (en) Image processing apparatus, image processing method, and program
EP3814876B1 (en) Placement and manipulation of objects in augmented reality environment
US20130109470A1 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
JP5939733B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP6181842B1 (en) Application control program, application control method, and application control system
JP2012088782A (en) Image processing program, image processing device, image processing system, and image processing method
US11558598B2 (en) Control apparatus and control method for same
US20240127558A1 (en) Application control program, application control method, and application control system
US20130109468A1 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
WO2020226847A1 (en) Capture indicator for a virtual world
JP2012215934A (en) Program, information storage medium, terminal, and server
JP4267646B2 (en) Image generating apparatus, image generating method, and program
JP7398933B2 (en) Processing equipment, processing method and program
JP5367954B2 (en) GAME PROGRAM, GAME DEVICE, AND STORAGE MEDIUM
JP4878240B2 (en) Image display control device, image display method, and program
US6483520B1 (en) Image creating method and apparatus, recording medium for recording image creating program, and video game machine
JP7017474B2 (en) Application control program, application control method and application control system
JP2023171298A (en) Adaptation of space and content for augmented reality and composite reality
WO2022014700A1 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
JP6611383B2 (en) Application control program, application control method, and application control system
JP6600051B2 (en) Application control program, application control method, and application control system
CN109716395B (en) Maintaining object stability in virtual reality
JP6859763B2 (en) Program, information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231205

R150 Certificate of patent or registration of utility model

Ref document number: 7398933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150