JP2016093362A - Control program of virtual camera within game space, and game system - Google Patents

Control program of virtual camera within game space, and game system Download PDF

Info

Publication number
JP2016093362A
JP2016093362A JP2014231870A JP2014231870A JP2016093362A JP 2016093362 A JP2016093362 A JP 2016093362A JP 2014231870 A JP2014231870 A JP 2014231870A JP 2014231870 A JP2014231870 A JP 2014231870A JP 2016093362 A JP2016093362 A JP 2016093362A
Authority
JP
Japan
Prior art keywords
viewing angle
virtual camera
game
game space
control program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014231870A
Other languages
Japanese (ja)
Inventor
集平 寺畑
Shuhei Terahata
集平 寺畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2014231870A priority Critical patent/JP2016093362A/en
Publication of JP2016093362A publication Critical patent/JP2016093362A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a control program of a virtual camera within a game space capable of solving operational problems that may occur since the visual field visible to a player character does not agree with the visual field visible to a user via HMD, and to provide a game program including the control program.SOLUTION: A virtual center axis of a visual field angle of a virtual camera is set, and transmittance of a polygon in that a directional vector with the virtual camera as a starting point has an angle within a predetermined range to the virtual center axis from among polygons existing within the visual field angle is adjusted.SELECTED DRAWING: Figure 2

Description

本発明は、ゲーム空間内における仮想カメラの制御プログラム及びゲームシステムに関し、特にヘッドマウントディスプレイを用いたゲームを実現するためのゲーム空間内における仮想カメラの制御プログラム及びそのシステムに関する。   The present invention relates to a virtual camera control program and game system in a game space, and more particularly to a virtual camera control program and system in a game space for realizing a game using a head-mounted display.

従来より、いわゆるシューティングゲームの一種として、プレイヤの一人称視点で戦うファースト・パーソンシューティング(以下、「FPS」と呼ぶ)というジャンルが知られている。FPSにおいては、床及び壁によって区切られた3次元状の仮想空間(以下、「ゲーム空間」という)を定義して、そのゲーム空間内においてストーリを展開することが一般的である。   Conventionally, as a kind of so-called shooting game, a genre called first person shooting (hereinafter referred to as “FPS”) in which a player fights from the first person viewpoint is known. In FPS, it is common to define a three-dimensional virtual space (hereinafter referred to as “game space”) divided by a floor and a wall, and to develop a story in the game space.

FPSにおいては、プレイヤキャラクタや敵キャラクタが壁や物陰に隠れてしまい、プレイヤから見ることができない場合がある。このような場合に、プレイヤキャラクタの表示位置が背景画像中における壁又は床の陰になる部分又はその近傍であるかどうかをチェックし、プレイヤキャラクタの表示位置が背景画像中における壁又は床の陰になる部分である場合には、プレイヤキャラクタの表示位置に重なる壁又は床を半透明に表示して、その背後に位置する床、壁、プレイヤキャラクタ等を表示する技術が提案されている(特許文献1参照)   In FPS, a player character or an enemy character may be hidden behind a wall or object and cannot be seen by the player. In such a case, it is checked whether or not the display position of the player character is in the vicinity of or behind the wall or floor in the background image, and the display position of the player character is the shadow of the wall or floor in the background image. In such a case, a technique has been proposed in which a wall or floor that overlaps the display position of the player character is displayed translucently, and the floor, wall, player character, and the like located behind the display are displayed (patent) Reference 1)

特許2902352Patent 2902352

近年、加速度センサを備えたヘッドマウントディスプレイ(以下、「HMD」と呼ぶ)を用いてコンピュータゲームを行う楽しみ方が一般需要者にも浸透しつつある。このようなHMDでは、ユーザの頭部の向きに合わせて仮想空間の様子が映し出される。従来のビデオゲーム等ではプレイヤキャラクタは常に画面の中央に映し出されることが多かった(即ち、ゲーム空間内の仮想カメラは常にプレイヤキャラクタを追うようにして移動していた)。   2. Description of the Related Art In recent years, general consumers are becoming more and more popular with computer games using a head-mounted display (hereinafter referred to as “HMD”) equipped with an acceleration sensor. In such an HMD, the state of the virtual space is projected according to the orientation of the user's head. In a conventional video game or the like, the player character is often projected at the center of the screen (that is, the virtual camera in the game space always moves following the player character).

しかし、上記のHMDでは、ゲーム空間内におけるプレイヤキャラクタの位置に関わらず、プレイヤが向いた方向に広がるゲーム空間の様子がHMDに映し出される(例えば、プレイヤキャラクタが正面視界に存在している状態で横を向いたとき、プレイヤキャラクタは視界から消えることとなる)。この場合、図9に示されるように、プレイヤキャラPから一定距離Qだけ離れて仮想カメラが追従する場合、図9の(a)のように、プレイヤキャラをM方向に進ませながらユーザの頭部を右に向けると、図9(b)に示されるように、プレイヤキャラPの右側視界は壁オブジェクトWallで遮られることがないのにもかかわらず、仮想カメラVCの視界の右側視界は壁オブジェクトWallが映ってしまい視界が遮られてしまう。即ち、プレイヤキャラPを必要以上にM方向に進ませないと仮想カメラVCの視界から壁オブジェクトWallが消えないこととなる。このように、プレイヤキャラPに見えているであろう視界と、実際にユーザがHMDを介して見ている視界とが一致していないために、操作上の問題が生じてしまう。 However, in the above HMD, regardless of the position of the player character in the game space, the state of the game space spreading in the direction in which the player faces is displayed on the HMD (for example, in a state where the player character is present in the front view). When facing sideways, the player character will disappear from view). In this case, as shown in FIG. 9, if the virtual camera away from the player character P by a predetermined distance Q to follow, as in (a) of FIG. 9, the user while advancing the player character in the M P direction When the head is turned to the right, as shown in FIG. 9B, the right field of view of the virtual camera VC is the right field of view of the player character P even though the right field of view of the player character P is not obstructed by the wall object Wall. The wall object Wall is reflected and the field of view is blocked. In other words, so that that it is not allowed to proceed to M P direction more than necessary the player character P does not disappear the wall object Wall from the field of view of the virtual camera VC. As described above, since the field of view that the player character P may see and the field of view that the user actually sees through the HMD do not match, an operational problem occurs.

そこで、本発明は、上述した問題を解決することのできるゲーム空間内における仮想カメラの制御プログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide a virtual camera control program in a game space that can solve the above-described problems.

本発明によれば、第1のゲーム空間内における仮想カメラの制御プログラムとして、
前記仮想カメラの視野角及び前記視野角の仮想中心軸を設定する視野設定部と、
前記視野角内に存在し複数のポリゴンから構成されるオブジェクトであって前記仮想カメラからの距離が所定距離以下である視野角内オブジェクトを特定する視野角内オブジェクト特定部と、
前記視野角内オブジェクトを構成する前記ポリゴンの夫々に前記仮想カメラを起点とする方向ベクトルを割当てる方向ベクトル割当部、
前記仮想中心軸とのなす角度が所定範囲内である方向ベクトルが割当てられた前記ポリゴンの透過率を調整する透過率調整部、
としてコンピュータ端末を機能させる、
ゲーム空間内における仮想カメラの制御プログラム。
According to the present invention, as a virtual camera control program in the first game space,
A visual field setting unit for setting a viewing angle of the virtual camera and a virtual central axis of the viewing angle;
An object within the viewing angle that identifies an object within the viewing angle that is present within the viewing angle and is composed of a plurality of polygons and whose distance from the virtual camera is equal to or less than a predetermined distance;
A direction vector assigning unit for assigning a direction vector starting from the virtual camera to each of the polygons constituting the object within the viewing angle;
A transmittance adjusting unit that adjusts the transmittance of the polygon to which a direction vector having an angle formed with the virtual central axis is within a predetermined range;
As a computer terminal,
Virtual camera control program in game space.

また、本発明によれば第2のゲーム空間内における仮想カメラの制御プログラムとして、第1に記載の仮想カメラの制御プログラムであって、
前記透過率調整部は、前記方向ベクトルと前記仮想中心軸とのなす角度が大きくなるに従って当該方向ベクトルに割当てられた前記ポリゴンの透過率を下げる
ゲーム空間内における仮想カメラの制御プログラムが得られる。
According to the present invention, as the virtual camera control program in the second game space, the virtual camera control program according to the first aspect,
The transmittance adjusting unit obtains a virtual camera control program in the game space that lowers the transmittance of the polygon assigned to the direction vector as the angle between the direction vector and the virtual central axis increases.

また、本発明によれば、ヘッドマウントディスプレイと、当該ヘッドマウントディスプレイを装着したユーザの頭部の向きに応じたゲーム空間内画像を前記ヘッドマウントディスプレイに出力するコンピュータ端末と、を少なくとも有するゲームシステムであって、
前記コンピュータ端末は、
(1)前記ゲーム空間内において、仮想カメラの視野角及び視野角の仮想中心軸を設定し、
(2)前記視野角内に存在し複数のポリゴンから構成されるオブジェクトであって前記仮想カメラからの距離が所定距離以下である視野角内オブジェクトを特定し、
(3)前記視野角内オブジェクトを構成する前記ポリゴンの夫々に前記仮想カメラを起点とする方向ベクトルを割当て、
(4)前記仮想中心軸とのなす角度が所定範囲内である方向ベクトルが割当てられた前記ポリゴンの透過率を調整し、
(5)当該透過率が調整された後における前記視野角内の情報を前記ヘッドマウントディスプレイに出力する、ゲームシステムが得られる。
According to the present invention, there is also provided a game system having at least a head mounted display and a computer terminal that outputs an image in the game space corresponding to the orientation of the head of the user wearing the head mounted display to the head mounted display. Because
The computer terminal is
(1) In the game space, set the viewing angle of the virtual camera and the virtual central axis of the viewing angle;
(2) Identify an object within a viewing angle that is within a viewing angle and is composed of a plurality of polygons and whose distance from the virtual camera is a predetermined distance or less,
(3) assigning a direction vector starting from the virtual camera to each of the polygons constituting the object within the viewing angle;
(4) adjusting the transmittance of the polygon to which a direction vector having an angle formed with the virtual central axis is within a predetermined range;
(5) A game system is obtained in which information within the viewing angle after the transmittance is adjusted is output to the head mounted display.

本発明によれば、仮想カメラから一定距離範囲内において軸ベクトルとのなす角が一定の条件にある全てのポリゴンに対して一律に透過処理を行うこととしているため、図9(b)に示されるように、プレイヤキャラPと仮想カメラVCとの位置がずれている場合でもゲームの進行に支障を来すことがない。   According to the present invention, all the polygons having a constant angle with the axis vector within a certain distance range from the virtual camera are uniformly subjected to the transparent process. As described above, even when the positions of the player character P and the virtual camera VC are deviated, the progress of the game is not hindered.

また、本発明によれば、透過処理の他の方法として、仮想カメラの視野角内に透視視野角を設定し仮想カメラから一定距離範囲内にある全てのポリゴンに対して一律に透過処理を行うこととしているため、端末に負荷をかけない透過処理も可能である。   Further, according to the present invention, as another method of the transmission process, a transparent viewing angle is set within the viewing angle of the virtual camera, and the transmission process is uniformly performed for all polygons within a certain distance range from the virtual camera. Therefore, it is possible to perform transparent processing without imposing a load on the terminal.

本発明の一実施形態によるゲームシステムの構成例を示す図である。It is a figure which shows the structural example of the game system by one Embodiment of this invention. 本発明の一実施形態による仮想カメラとゲーム画面との関係を示す図である。It is a figure which shows the relationship between the virtual camera by one Embodiment of this invention, and a game screen. 図2において仮想カメラをXY平面と平行に動かした時の様子をZ方向に沿って見た図である。It is the figure which looked at the mode when a virtual camera was moved in parallel with XY plane in FIG. 2 along the Z direction. 本発明の一実施形態による仮想カメラとゲーム画面との関係を示す他の図である。It is another figure which shows the relationship between the virtual camera by one Embodiment of this invention, and a game screen. 本発明の一実施形態による仮想カメラとゲーム画面との関係を示す他の図である。It is another figure which shows the relationship between the virtual camera by one Embodiment of this invention, and a game screen. 仮想カメラの軸ベクトルと透過率との関係を示すグラフである。It is a graph which shows the relationship between the axis vector of a virtual camera, and the transmittance | permeability. 本発明の他の実施形態による仮想カメラとゲーム画面との関係を示す図である。It is a figure which shows the relationship between the virtual camera by other embodiment of this invention, and a game screen. 図7をZ方向に沿って見た図である。It is the figure which looked at FIG. 7 along the Z direction. プレイヤキャラと仮想カメラとの位置関係を示した従来例である。It is the prior art example which showed the positional relationship of a player character and a virtual camera.

<ゲームシステムの概要>
本発明の実施形態による、ゲーム空間内における仮想カメラの制御プログラムは、ヘッドマウントディスプレイ(以下「HMD」と呼ぶ)及びコンピュータ端末(以下「PC」と呼ぶ)を使用するゲームシステムで実行される。具体的には、図1に示されるように、ゲームシステム1は、少なくとも、PC10と、HMD20と、スマートフォン(携帯端末)30とで構成される。本発明によるゲームシステムを概略すると、ゲームプログラムは、専用のゲームサーバ(図示せず)経由でPC10にインストールされ、当該ゲームプログラムの実行中に生成される画像・映像その他の視覚的情報はHMD20に出力される。本実施の形態においては、PC10とHMD20とはケーブルで接続されているが、ブルートゥース、無線LAN等その他の方法で接続されていてもよい。スマートフォン30は、所謂ゲームコントローラーとして機能し、ユーザの操作に応じた指示をPC10に送信する。PC10とスマートフォン30とはブルートゥース、無線LAN等で接続されている。
<Outline of the game system>
A virtual camera control program in a game space according to an embodiment of the present invention is executed in a game system that uses a head mounted display (hereinafter referred to as “HMD”) and a computer terminal (hereinafter referred to as “PC”). Specifically, as shown in FIG. 1, the game system 1 includes at least a PC 10, an HMD 20, and a smartphone (portable terminal) 30. When the game system according to the present invention is outlined, the game program is installed in the PC 10 via a dedicated game server (not shown), and images, videos, and other visual information generated during the execution of the game program are stored in the HMD 20. Is output. In the present embodiment, the PC 10 and the HMD 20 are connected by a cable, but may be connected by other methods such as Bluetooth and wireless LAN. The smartphone 30 functions as a so-called game controller, and transmits an instruction according to a user operation to the PC 10. The PC 10 and the smartphone 30 are connected via Bluetooth, wireless LAN, or the like.

<PC10>
PC10は、端末表示部11、端末入力部12、端末処理部13、端末通信部14および端末記憶部15等を備え、これらはバスを介して電気的に相互に接続される。
<PC10>
The PC 10 includes a terminal display unit 11, a terminal input unit 12, a terminal processing unit 13, a terminal communication unit 14, a terminal storage unit 15, and the like, which are electrically connected to each other via a bus.

端末表示部11は、ゲームサーバから端末通信部14で受信したゲームプログラムを端末記憶部15に一時的に格納し、ブラウザ等を通じて表示する。端末表示部11は、例えば液晶ディスプレイ(LCD)等によって実現することができるが、実施形態においては、特にマルチタッチスクリーンとして構成するのがよい。   The terminal display unit 11 temporarily stores the game program received by the terminal communication unit 14 from the game server in the terminal storage unit 15 and displays it through a browser or the like. The terminal display unit 11 can be realized by, for example, a liquid crystal display (LCD) or the like, but in the embodiment, it is particularly preferable to configure as a multi-touch screen.

端末入力部12は、PC10がゲームプログラムを起動するまでの間、ユーザ命令を入力するために機能する。入力手段としては、キーボードや仮想キーボードによる文字入力、マウスによるオブジェクトのクリック、オブジェクト位置に対応するタッチスクリーン上の位置での指によるタッチ入力やスタイラスによる入力、およびその組み合わせとすることができるが、これらに限定されない。   The terminal input unit 12 functions to input user commands until the PC 10 activates the game program. As an input means, it can be a character input by a keyboard or a virtual keyboard, a click of an object by a mouse, a touch input by a finger at a position on the touch screen corresponding to the object position or an input by a stylus, and a combination thereof. It is not limited to these.

端末処理部13は、端末入力部12で受けた入力命令に基づいて、ユーザ命令を作成し、端末通信部14およびネットワーク(図示せず)を通じてゲームサーバと通信を行う。そして、ゲームサーバ内において関連のゲームプログラムが実行される。端末記憶部15は、PC10に関連付けられる各種データ、および画像データの表示に必要なブラウザ等のアプリケーションを格納すると共に、ゲームサーバから受信する画像データ等の各種データも一時的に格納する。端末処理部13はまた、ゲームサーバからダウンロードにより受信した各種データに基づいて、予め格納されたゲームプログラムを端末側で実行するようにしてもよい。   The terminal processing unit 13 creates a user command based on the input command received by the terminal input unit 12, and communicates with the game server through the terminal communication unit 14 and a network (not shown). Then, a related game program is executed in the game server. The terminal storage unit 15 stores various data associated with the PC 10 and applications such as a browser necessary for displaying image data, and temporarily stores various data such as image data received from the game server. The terminal processing unit 13 may also execute a game program stored in advance on the terminal side based on various data received by download from the game server.

<HMD20>
図示されるように、HMD20は、HMD表示部21と、HMD入力部と、HMD通信部23と、HMD加速度センサ部とを有している。HMD20は、HMD通信部23を介して端末通信部14とデータの送受信を行う。HMD端末表示部21は、PC10から受信した視覚的情報をユーザの両眼の夫々に視認させる。本実施の形態によるHMD20は、HMD加速度センサ24を備えており、ユーザの頭部の変位(姿勢の変位に起因するものを含む)に応じた変位情報をPC10に送信する。PC10側においては、受信した変位情報を基にして端末記憶部15及び端末処理部13と連携して当該変位情報に応じた視覚的情報をHMD20にフィードバックしてHMD表示部21に映し出させる。
<HMD20>
As illustrated, the HMD 20 includes an HMD display unit 21, an HMD input unit, an HMD communication unit 23, and an HMD acceleration sensor unit. The HMD 20 transmits and receives data to and from the terminal communication unit 14 via the HMD communication unit 23. The HMD terminal display unit 21 causes the visual information received from the PC 10 to be visually recognized by each of the user's eyes. The HMD 20 according to the present embodiment includes an HMD acceleration sensor 24, and transmits displacement information corresponding to the displacement of the user's head (including those caused by the displacement of the posture) to the PC 10. On the PC 10 side, the visual information corresponding to the displacement information is fed back to the HMD 20 and displayed on the HMD display unit 21 in cooperation with the terminal storage unit 15 and the terminal processing unit 13 based on the received displacement information.

<スマートフォン30>
スマートフォン30は、表示部及び入力部(タッチパネル)、処理部、通信部並びに記憶部等を備えている(いずれも図示せず)。本実施の形態においては、スマートフォン30を所謂コントローラーの代わりとしてユーザ命令(オブジェクトの「選択」「移動」等)を行うこととしているが、PC10のキーボードやマウス等の入力機器によりユーザ命令を入力することとしてもよいし、専用のコントローラーを別途用意することとしてもよい。
<Smartphone 30>
The smartphone 30 includes a display unit, an input unit (touch panel), a processing unit, a communication unit, a storage unit, and the like (all not shown). In the present embodiment, user commands (such as “selection” and “move” of an object) are performed by using the smartphone 30 as a substitute for a so-called controller, but the user commands are input using an input device such as a keyboard or mouse of the PC 10. It is also possible to prepare a dedicated controller separately.

<具体的な情報処理>
以下の説明においては、PC10がゲームサーバからゲームプログラムをダウンロードし、PC10上において当該ゲームプログラムが実行されるものとして説明する。
<Specific information processing>
In the following description, it is assumed that the PC 10 downloads a game program from the game server and the game program is executed on the PC 10.

ゲームプログラムが実行されると、当該ゲームプログラムに予め組み込まれたストーリーや、ユーザ命令の入力に応じて、HMD20にはゲーム画面が表示される。ゲーム画面は、ゲーム空間に設定された仮想カメラにより特定される領域(仮想カメラの表示領域)に対応する。本実施の形態による仮想カメラの向きはHMD20のHMD加速度センサ24と連動している。即ち、ユーザのが右を向いた場合には、現在HMD20に映し出されているゲーム画面の右方向の表示領域に対応する空間が映し出される。   When the game program is executed, a game screen is displayed on the HMD 20 in response to a story previously incorporated in the game program or an input of a user command. The game screen corresponds to an area (virtual camera display area) specified by the virtual camera set in the game space. The orientation of the virtual camera according to the present embodiment is linked to the HMD acceleration sensor 24 of the HMD 20. That is, when the user turns to the right, a space corresponding to the right display area of the game screen currently displayed on the HMD 20 is displayed.

図2に示されるように、仮想カメラVCはカメラ正面に向けて延びる軸ベクトルF中心に所定範囲の視野領域(視野角:図示せず)を有している。軸ベクトルF上のオブジェクトは画面中央に表示される。仮想カメラVRは、視野領域内にある全てのオブジェクトを捕捉することができる。本実施の形態においては、図示されるように、仮想カメラVCから所定範囲L内に壁オブジェクトWが存在している。壁オブジェクトWの一部である透過領域Iは透過処理されて透けて表示されており壁オブジェクトWの後ろにあるオブジェクトが部分的に見えている。透過領域IのX方向における端部(即ち、X方向において透過処理が行われる部分と透過処理が行われない部分との境界部)の方向ベクトルは、ベクトルP及びPベクトルで特定される。詳しくは、ベクトルP及びベクトルPは、境界部に位置するポリゴンが有している仮想カメラVCを起点とした方向ベクトルであり、X方向における軸ベクトルFとのなす角が夫々θである。即ち本実施の形態においては、軸ベクトルFとのなす角が所定角度θ以下の方向ベクトルを有するポリゴンに対して透過処理が行われる。 As shown in FIG. 2, the virtual camera VC has a predetermined range of viewing area (viewing angle: not shown) at the center of the axis vector F extending toward the front of the camera. The object on the axis vector F is displayed at the center of the screen. The virtual camera VR can capture all objects within the field of view. In the present embodiment, as illustrated, a wall object W exists within a predetermined range L from the virtual camera VC. The transparent area I which is a part of the wall object W is transparently displayed and displayed transparently, and the object behind the wall object W is partially visible. Direction vector of the end portion in the X direction of the transmission region I (i.e., the boundary portion between the portion and the transmission process is not performed parts transmission process is performed in the X direction) is specified by the vector P R and P L vector . Specifically, the vector P R and vector P L, a direction vector starting from the virtual camera VC polygons bordering portion has, the angle between the axis vector F in the X-direction is in each θ . That is, in the present embodiment, the transmission process is performed on a polygon having a direction vector whose angle formed with the axis vector F is equal to or smaller than the predetermined angle θ.

図3は、図2を上方から(即ちZ方向に沿って)表したものであり(図2に表示されているキャラクタは省力されている)、仮想カメラVCが移動した場合における透過領域の変化を示している。図3に示される壁オブジェクトWと仮想カメラとのY方向における距離はL以下である。ここで、仮想カメラがVCからVCへと移動した場合、壁Wの透過領域はIからIへと変化する。同様に、VCにある仮想カメラの軸ベクトルF、透過領域IのX方向における境界を規定する方向ベクトルPR0及びPL0ベクトルは、夫々、VCにある仮想カメラの軸ベクトルF、透過領域IのX方向における境界を規定する方向ベクトルPR1及びPL1ベクトルに対応する。 FIG. 3 shows FIG. 2 from above (that is, along the Z direction) (the character displayed in FIG. 2 is labor-saving), and changes in the transmission region when the virtual camera VC moves. Is shown. The distance in the Y direction between the wall object W and the virtual camera shown in FIG. Here, when the virtual camera moves from VC 0 to VC 1 , the transmission region of the wall W changes from I 0 to I 1 . Similarly, axial vector F of the virtual camera in the VC 0 0, the direction vector P R0 and P L0 vectors define the boundaries in the X direction of the transmission region I 0, respectively, the axial vector F 1 of the virtual camera in VC 1 , corresponding to the direction vector P R1 and P L1 vectors define the boundaries in the X direction of the transmission region I 1.

図4は、仮想カメラVCから異なる距離に位置する3つの壁オブジェクトW〜Wと透過領域との関係を示す図である。図示されているように、壁オブジェクトW及びWと仮想カメラVCとの距離はL以下であり、壁オブジェクトWと仮想カメラVCとの距離はLよりも大きい。従って、透過処理がされるのは、壁オブジェクトW及びWのみである(透過領域I及びI参照) FIG. 4 is a diagram illustrating a relationship between the three wall objects W 1 to W 3 located at different distances from the virtual camera VC and the transmissive area. As shown, the distance between the wall object W 1 and W 2 and the virtual camera VC is at L or less, a wall object W 3 distance between the virtual camera VC is greater than L. Therefore, the transmission processing is the only wall object W 1 and W 2 (see transmission region I 2 and I 3)

図5は、仮想カメラVCの軸ベクトルFと斜交するように設けられた壁オブジェクトWと透過領域Iとの関係を示す図である。上述したように本実施の形態における透過処理は、仮想カメラVCとY方向(前方)における距離がL以下であり、且つ、仮想カメラVCを起点とする方向ベクトルが仮想カメラVCの軸ベクトルFとのなす角がθ以下の方向ベクトルを有するポリゴンに対して行われる(図の透過領域I参照)。 FIG. 5 is a diagram showing the relationship between the wall object W 4 provided so as to cross the axis vector F of the virtual camera VC and the transmission region I 4 . As described above, in the transparency processing in the present embodiment, the distance from the virtual camera VC in the Y direction (forward) is L or less, and the direction vector starting from the virtual camera VC is the axis vector F of the virtual camera VC. angle between is performed for polygons having the direction vector theta (see transmission region I 4 in the drawing).

図6に示されるように、本実施の形態による透過処理は、仮想カメラの軸ベクトルとのなす角度が0である方向ベクトルを有するポリゴン(即ち、軸ベクトル上に位置するポリゴン)に対しては透過率100%となるように行われ、軸ベクトルとのなす角度が大きくなるにしたがって、徐々に透過率を下げている。ユーザから見た場合には、中心から透過領域の周辺部にかけて徐々に透過率が低くなっていく。換言すれば、透過率はθの関数と捉えることもできる。これにより、透過領域を自然に見せることができる。   As shown in FIG. 6, the transparency processing according to the present embodiment is performed for a polygon having a direction vector whose angle with the axis vector of the virtual camera is 0 (that is, a polygon located on the axis vector). The transmissivity is 100%, and the transmissivity is gradually lowered as the angle with the axis vector increases. When viewed from the user, the transmittance gradually decreases from the center to the periphery of the transmissive region. In other words, the transmittance can be regarded as a function of θ. As a result, the transmissive region can appear naturally.

本発明の他の実施の形態によるゲームプログラムは、上述したゲーム空間内における仮想カメラの制御プログラムの変形例である。従って、同一の鵜性ヨウ素には同一の参照符号を付し、その説明を省略する。   A game program according to another embodiment of the present invention is a modification of the virtual camera control program in the above-described game space. Therefore, the same fertile iodine is attached with the same reference symbol, and the description thereof is omitted.

図7及び図8に示されるように、本実施の形態による仮想カメラVCは、ユーザの視認できる範囲となる視野角E1と、当該視野角E1内に位置する透過視野角(特定視野角)E2とを設定する。仮想カメラVCは、透過視野角E2内に位置し且つ仮想カメラVCからの距離がL以下の条件を満たすオブジェクトは非表示にする。即ち、図7に示されるように、この条件を満たす壁オブジェクトWにはぽっかり穴が開いたようにユーザの目には映ることとなる。なお、透過視野角E2内にあっても非表示としないオブジェクト(例えば、プレイヤキャラ等)に予めフラグを設定することとしても良い。   As shown in FIG. 7 and FIG. 8, the virtual camera VC according to the present embodiment has a viewing angle E1 that is a range that can be visually recognized by the user, and a transmission viewing angle (specific viewing angle) E2 that is located within the viewing angle E1. And set. The virtual camera VC is not displayed if the object is located within the transmission viewing angle E2 and satisfies the condition that the distance from the virtual camera VC is L or less. That is, as shown in FIG. 7, the wall object W that satisfies this condition appears to the user's eyes as if a gap was opened. Note that a flag may be set in advance for an object (for example, a player character) that is not hidden even within the transmission viewing angle E2.

以上説明したように、図2乃至図6に示される仮想カメラの制御プログラムにおいては、壁オブジェクトの透過を自然に見せることができる反面、軸ベクトルと近似する角度を有する方向ベクトルの演算が必要となるため端末への負荷は大きい。一方、図7及び図8に示される仮想カメラの制御プログラムにおいては、透過視野角内のオブジェクトを一律に非表示しているため端末への負担は小さい一方、壁オブジェクトの透過表現が不自然と評価される場合があり得る。   As described above, the virtual camera control program shown in FIGS. 2 to 6 can naturally show the transmission of the wall object, but requires calculation of a direction vector having an angle approximate to the axis vector. Therefore, the load on the terminal is large. On the other hand, in the virtual camera control program shown in FIGS. 7 and 8, since the objects within the transmission viewing angle are uniformly hidden, the burden on the terminal is small, but the transparent expression of the wall object is unnatural. It may be evaluated.

上述した実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

1 ゲームシステム
10 ユーザ端末
11 端末表示部
12 端末入力部
13 端末処理部
14 端末通信部
15 端末記憶部
50 ゲームサーバ
51 処理部
52 メインメモリ
53 外部メモリ
54 ユーザインタフェース
55 通信部
56 ディスクドライブ
100 ゲームシステム
DESCRIPTION OF SYMBOLS 1 Game system 10 User terminal 11 Terminal display part 12 Terminal input part 13 Terminal processing part 14 Terminal communication part 15 Terminal memory | storage part 50 Game server 51 Processing part 52 Main memory 53 External memory 54 User interface 55 Communication part 56 Disk drive 100 Game system

Claims (5)

ゲーム空間内における仮想カメラの制御プログラムであって、
前記仮想カメラの視野角及び前記視野角の仮想中心軸を設定する視野設定部と、
前記視野角内に存在し複数のポリゴンから構成されるオブジェクトであって前記仮想カメラからの距離が所定距離以下である視野角内オブジェクトを特定する視野角内オブジェクト特定部と、
前記視野角内オブジェクトを構成する前記ポリゴンの夫々に前記仮想カメラを起点とする方向ベクトルを割当てる方向ベクトル割当部、
前記仮想中心軸とのなす角度が所定範囲内である方向ベクトルが割当てられた前記ポリゴンの透過率を調整する透過率調整部、
としてコンピュータ端末を機能させる、
ゲーム空間内における仮想カメラの制御プログラム。
A virtual camera control program in a game space,
A visual field setting unit for setting a viewing angle of the virtual camera and a virtual central axis of the viewing angle;
An object within the viewing angle that identifies an object within the viewing angle that is present within the viewing angle and is composed of a plurality of polygons and whose distance from the virtual camera is equal to or less than a predetermined distance;
A direction vector assigning unit for assigning a direction vector starting from the virtual camera to each of the polygons constituting the object within the viewing angle;
A transmittance adjusting unit that adjusts the transmittance of the polygon to which a direction vector having an angle formed with the virtual central axis is within a predetermined range;
As a computer terminal,
Virtual camera control program in game space.
請求項1に記載の仮想カメラの制御プログラムであって、
前記透過率調整部は、前記方向ベクトルと前記仮想中心軸とのなす角度が大きくなるに従って当該方向ベクトルに割当てられた前記ポリゴンの透過率を下げる
ゲーム空間内における仮想カメラの制御プログラム。
A virtual camera control program according to claim 1,
The transmittance adjustment unit is a virtual camera control program in a game space that reduces the transmittance of the polygon assigned to the direction vector as the angle between the direction vector and the virtual central axis increases.
ヘッドマウントディスプレイと、当該ヘッドマウントディスプレイを装着したユーザの頭部の向きに応じたゲーム空間内画像を前記ヘッドマウントディスプレイに出力するコンピュータ端末と、を少なくとも有するゲームシステムであって、
前記コンピュータ端末は、
(1)前記ゲーム空間内において、仮想カメラの視野角及び視野角の仮想中心軸を設定し、
(2)前記視野角内に存在し複数のポリゴンから構成されるオブジェクトであって前記仮想カメラからの距離が所定距離以下である視野角内オブジェクトを特定し、
(3)前記視野角内オブジェクトを構成する前記ポリゴンの夫々に前記仮想カメラを起点とする方向ベクトルを割当て、
(4)前記仮想中心軸とのなす角度が所定範囲内である方向ベクトルが割当てられた前記ポリゴンの透過率を調整し、
(5)当該透過率が調整された後における前記視野角内の情報を前記ヘッドマウントディスプレイに出力する、
ゲームシステム。
A game system having at least a head mounted display and a computer terminal that outputs an image in the game space according to the orientation of the head of a user wearing the head mounted display to the head mounted display,
The computer terminal is
(1) In the game space, set the viewing angle of the virtual camera and the virtual central axis of the viewing angle;
(2) Identify an object within a viewing angle that is within a viewing angle and is composed of a plurality of polygons and whose distance from the virtual camera is a predetermined distance or less,
(3) assigning a direction vector starting from the virtual camera to each of the polygons constituting the object within the viewing angle;
(4) adjusting the transmittance of the polygon to which a direction vector having an angle formed with the virtual central axis is within a predetermined range;
(5) Output information within the viewing angle after the transmittance is adjusted to the head mounted display.
Game system.
ゲーム空間内における仮想カメラの制御プログラムであって、
前記仮想カメラの視野角を設定する視野角設定部、
前記視野角内に特定視野角を設定する特定視野角設定部、
前記視野角内に存在するオブジェクトであって、前記仮想カメラからの距離が所定距離以下であり且つ前記特定視野角に含まれる特定オブジェクトに透過処理を行う透過処理部、
としてコンピュータ端末を機能させる
ゲーム空間内における仮想カメラの制御プログラム。
A virtual camera control program in a game space,
A viewing angle setting unit for setting a viewing angle of the virtual camera;
A specific viewing angle setting unit for setting a specific viewing angle within the viewing angle;
A transparency processing unit that performs transparency processing on a specific object that is within the viewing angle and has a distance from the virtual camera that is equal to or less than a predetermined distance and that is included in the specific viewing angle;
A virtual camera control program in a game space that causes a computer terminal to function as a computer program.
ヘッドマウントディスプレイと、当該ヘッドマウントディスプレイを装着したユーザの頭部の向きに応じたゲーム空間内画像を前記ヘッドマウントディスプレイに出力するコンピュータ端末と、を少なくとも有するゲームシステムであって、
前記コンピュータ端末は、
(1)前記ゲーム空間内において、仮想カメラの視野角を設定し、
(2)前記視野角内に特定視野角を設定し、
(3)前記視野角内に存在するオブジェクトであって、前記仮想カメラからの距離が所定距離以下であり且つ前記特定視野角に含まれる特定オブジェクトに透過処理を行い、
(4)当該透過処理が行われた後における前記視野角内の情報を前記ヘッドマウントディスプレイに出力する、
ゲームシステム。
A game system having at least a head mounted display and a computer terminal that outputs an image in the game space according to the orientation of the head of a user wearing the head mounted display to the head mounted display,
The computer terminal is
(1) In the game space, set the viewing angle of the virtual camera,
(2) A specific viewing angle is set within the viewing angle,
(3) An object existing within the viewing angle, the distance from the virtual camera being equal to or less than a predetermined distance, and performing a transmission process on a specific object included in the specific viewing angle;
(4) The information within the viewing angle after the transmission process is performed is output to the head mounted display.
Game system.
JP2014231870A 2014-11-14 2014-11-14 Control program of virtual camera within game space, and game system Pending JP2016093362A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014231870A JP2016093362A (en) 2014-11-14 2014-11-14 Control program of virtual camera within game space, and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014231870A JP2016093362A (en) 2014-11-14 2014-11-14 Control program of virtual camera within game space, and game system

Publications (1)

Publication Number Publication Date
JP2016093362A true JP2016093362A (en) 2016-05-26

Family

ID=56070131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014231870A Pending JP2016093362A (en) 2014-11-14 2014-11-14 Control program of virtual camera within game space, and game system

Country Status (1)

Country Link
JP (1) JP2016093362A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7442168B2 (en) 2019-10-07 2024-03-04 株式会社リトプラ Video processing system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950541A (en) * 1995-08-10 1997-02-18 Sega Enterp Ltd Virtual picture generating device and its method
JP2002230577A (en) * 2001-01-30 2002-08-16 Namco Ltd Game device and information storage medium
JP2006346507A (en) * 2006-10-04 2006-12-28 Nintendo Co Ltd Game apparatus and image processing program
JP2007164557A (en) * 2005-12-15 2007-06-28 Namco Bandai Games Inc Program, information recording medium and image generation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950541A (en) * 1995-08-10 1997-02-18 Sega Enterp Ltd Virtual picture generating device and its method
JP2002230577A (en) * 2001-01-30 2002-08-16 Namco Ltd Game device and information storage medium
JP2007164557A (en) * 2005-12-15 2007-06-28 Namco Bandai Games Inc Program, information recording medium and image generation system
JP2006346507A (en) * 2006-10-04 2006-12-28 Nintendo Co Ltd Game apparatus and image processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"みんなの手元にVR 第1部:動向 VRシステムが1人1台に、ゲーム用HMDが起爆剤", 日経エレクトロニクス 9月29日号, vol. 第1144号, JPN6016049162, 29 September 2014 (2014-09-29), JP, pages 28 - 35, ISSN: 0003467524 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7442168B2 (en) 2019-10-07 2024-03-04 株式会社リトプラ Video processing system

Similar Documents

Publication Publication Date Title
US10241582B2 (en) Information processing device, information processing method, and program for graphical user interface
EP3564788B1 (en) Three-dimensional user input
US11334212B2 (en) Detecting input in artificial reality systems based on a pinch and pull gesture
US10719911B2 (en) Information processing method and system for executing the information processing method
US9779702B2 (en) Method of controlling head-mounted display system
US9766793B2 (en) Information processing device, information processing method and program
CN110300994B (en) Image processing apparatus, image processing method, and image system
US10866820B2 (en) Transitioning between 2D and stereoscopic 3D webpage presentation
US10257500B2 (en) Stereoscopic 3D webpage overlay
US20140354631A1 (en) Non-transitory storage medium encoded with computer readable information processing program, information processing apparatus, information processing system, and information processing method
JP2018005516A (en) Terminal device, and program
US8591331B1 (en) Display control system, display control method, display control device, and computer-readable storage medium
JP6360509B2 (en) Information processing program, information processing system, information processing method, and information processing apparatus
US20230005101A1 (en) Information processing apparatus, information processing method, and recording medium
JP2016093363A (en) Control program of virtual camera within game space, and game system
CN110494915B (en) Electronic device, control method thereof, and computer-readable medium
JP2016093362A (en) Control program of virtual camera within game space, and game system
JP5767371B1 (en) Game program for controlling display of objects placed on a virtual space plane
CN113559501B (en) Virtual unit selection method and device in game, storage medium and electronic equipment
JP6999822B2 (en) Terminal device and control method of terminal device
JP2017027163A (en) Control method and control program of virtual camera
JP2016016319A (en) Game program for display-controlling objects arranged on virtual spatial plane
US20240103712A1 (en) Devices, Methods, and Graphical User Interfaces For Interacting with Three-Dimensional Environments
JP6332658B1 (en) Display control apparatus and program
JP6448478B2 (en) A program that controls the head-mounted display.

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170704