JP2018192272A - Game program and game device - Google Patents
Game program and game device Download PDFInfo
- Publication number
- JP2018192272A JP2018192272A JP2018128068A JP2018128068A JP2018192272A JP 2018192272 A JP2018192272 A JP 2018192272A JP 2018128068 A JP2018128068 A JP 2018128068A JP 2018128068 A JP2018128068 A JP 2018128068A JP 2018192272 A JP2018192272 A JP 2018192272A
- Authority
- JP
- Japan
- Prior art keywords
- user
- game
- head
- line
- game program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ヘッドマウントディスプレイを用いるゲームプログラム及びゲーム装置に関する。 The present invention relates to a game program and a game apparatus using a head mounted display.
近年、ヘッドマウントディスプレイ(HMD)が普及しつつある。HMDを利用したバーチャルリアリティ(VR)に対応したVRゲームでは、ユーザは、仮想3次元空間内に実際に存在しているかのような感覚が得られる。 In recent years, head mounted displays (HMD) are becoming widespread. In a VR game corresponding to virtual reality (VR) using HMD, the user can feel as if it actually exists in a virtual three-dimensional space.
従来のゲームでは、仮想3次元空間を撮影する仮想カメラを動かすためにコントローラを操作する必要があった。HMDを利用したVRゲームでは、ユーザは頭を動かすことで直感的に仮想カメラを制御できる。そのため、ユーザの視線をユーザによる操作として利用することができると考えられる。 In a conventional game, it is necessary to operate a controller to move a virtual camera that captures a virtual three-dimensional space. In the VR game using the HMD, the user can intuitively control the virtual camera by moving his head. Therefore, it is considered that the user's line of sight can be used as an operation by the user.
本発明は、上記に鑑みてなされたものであり、ユーザの視線を有効に活用したコンテンツを提供することを目的とする。 The present invention has been made in view of the above, and an object thereof is to provide content that effectively utilizes the user's line of sight.
本発明に係るゲームプログラムは、ユーザがヘッドマウントディスプレイを装着して利用するコンテンツを提供するゲームプログラムであって、コンピュータを前記ヘッドマウントディスプレイからユーザの頭の動き情報を入力する入力手段、前記ユーザの頭の向きに基づいて仮想空間内の仮想カメラを制御するカメラ制御手段、前記仮想カメラによって撮影された仮想空間の画像を前記ヘッドマウントディスプレイに表示する表示手段、前記コンテンツ内の所定のシーンにおいて前記仮想空間内の所定の範囲が前記表示手段によって表示されているか否かを判定する判定手段、前記判定手段の判定結果に応じて前記シーンの終了時又は前記シーン中の演出を変化させる演出手段、として機能させることを特徴とする。 A game program according to the present invention is a game program for providing content to be used by a user wearing a head-mounted display, wherein the computer inputs input means for inputting movement information of the user's head from the head-mounted display, the user Camera control means for controlling a virtual camera in a virtual space based on the orientation of the head, display means for displaying an image of the virtual space photographed by the virtual camera on the head-mounted display, and a predetermined scene in the content Determining means for determining whether or not a predetermined range in the virtual space is displayed by the display means, effecting means for changing the effect at the end of the scene or in the scene according to the determination result of the determining means It is characterized by functioning as.
本発明によれば、ユーザの視線を有効に活用したコンテンツを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the content which utilized a user's eyes | visual_axis effectively can be provided.
以下、本発明の実施形態について図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[ゲームシステム]
図1は、本実施形態のゲームシステムの構成を示す概略図である。
[Game system]
FIG. 1 is a schematic diagram showing the configuration of the game system of the present embodiment.
図1に示すゲームシステムは、ゲーム機100、コントローラ200、及びHMD300を備える。ゲーム機100は、ゲームプログラムを実行可能な、演算処理装置及び記憶装置を備えたコンピュータである。ゲーム機100は、家庭用のゲーム専用機、パーソナルコンピュータ、スマートフォンなどの携帯端末、あるいはアーケードゲーム機であってもよい。コントローラ200は、ユーザの入力した操作をゲーム機100へ送信する。コントローラ200は、有線あるいは無線でゲーム機100に接続される。HMD300は、ユーザの頭部に装着され、ユーザの頭部の回転角及び動きを検出してゲーム機100へ送信するとともに、ゲーム機100から受信した画像を表示する。HMD300は、有線あるいは無線でゲーム機100に接続される。 The game system shown in FIG. 1 includes a game machine 100, a controller 200, and an HMD 300. The game machine 100 is a computer including an arithmetic processing device and a storage device that can execute a game program. The game machine 100 may be a home game machine, a personal computer, a mobile terminal such as a smartphone, or an arcade game machine. The controller 200 transmits the operation input by the user to the game machine 100. The controller 200 is connected to the game machine 100 by wire or wireless. The HMD 300 is mounted on the user's head, detects the rotation angle and movement of the user's head, transmits the detected result to the game machine 100, and displays an image received from the game machine 100. The HMD 300 is connected to the game machine 100 by wire or wireless.
図2は、ゲーム機100のハードウェア構成を示すブロック図である。ゲーム機100は、中央演算処理装置(CPU)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、GPU(Graphics Processing Unit)104、SPU(Sound Processing Unit)105、インタフェース106、及びDRIVE107を備える。CPU101は、ゲームプログラムを実行する。ROM102は、システムプログラムを記憶する。RAM103は、ゲームプログラム及び各種データを記憶する。GPU104は、仮想空間の画像を生成する。SPU105は、音声を処理する。インタフェース106は、コントローラ200及びHMD300を接続し、操作情報とHMD情報を入力する。インタフェース106は、GPU104とSPU105で処理された画像と音声を出力する。DRIVE107は、ゲームプログラムを記録した記録媒体からゲームプログラムを読み出してRAM103に格納する。記録媒体は、CD、DVD、Blu−Ray(登録商標) Diskなどの光ディスクであってもよいし、磁気ディスク、あるいは半導体メモリであってもよい。ゲーム機100が通信機能を備えて、ネットワークを介してゲームプログラムを取得してもよい。 FIG. 2 is a block diagram illustrating a hardware configuration of the game machine 100. The game machine 100 includes a central processing unit (CPU) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a GPU (Graphics Processing Unit) 104, an SPU (Sound Processing Unit) 105, an interface 106, and DRIVE 107 is provided. The CPU 101 executes a game program. The ROM 102 stores a system program. The RAM 103 stores a game program and various data. The GPU 104 generates a virtual space image. The SPU 105 processes audio. The interface 106 connects the controller 200 and the HMD 300, and inputs operation information and HMD information. The interface 106 outputs images and sounds processed by the GPU 104 and the SPU 105. The DRIVE 107 reads the game program from the recording medium on which the game program is recorded and stores it in the RAM 103. The recording medium may be an optical disk such as a CD, DVD, Blu-Ray (registered trademark) Disk, a magnetic disk, or a semiconductor memory. The game machine 100 may have a communication function and acquire a game program via a network.
図3は、HMD300のハードウェア構成を示すブロック図である。HMD300は、表示部301A,301B、ジャイロセンサ302、加速度センサ303、及び制御部304を備える。表示部301A,301Bは、それぞれ右眼用画像、左眼用画像を表示する。右眼用画像と左眼用画像が視差を有すると、ユーザの見る画像は3次元立体画像となる。ジャイロセンサ302は、ユーザの頭部の回転角を検知する。HMD300を装着したユーザの頭部を原点として、ユーザの正面方向にロール軸、ユーザの左方向にピッチ軸、ユーザの頭上方向にヨー軸をとる。ジャイロセンサ302は、各軸についてユーザ頭部の回転角(ロール角、ピッチ角、ヨー角)を検知する。加速度センサ303は、ユーザの頭部の動きを検知する。制御部304は、ゲーム機100から画像を受信して表示部301A,301Bに表示させる。また、制御部304は、ジャイロセンサ302及び加速度センサ303で検知したデータをゲーム機100に送信する。 FIG. 3 is a block diagram showing a hardware configuration of the HMD 300. As shown in FIG. The HMD 300 includes display units 301A and 301B, a gyro sensor 302, an acceleration sensor 303, and a control unit 304. The display units 301A and 301B display a right-eye image and a left-eye image, respectively. When the right-eye image and the left-eye image have parallax, the image viewed by the user is a three-dimensional stereoscopic image. The gyro sensor 302 detects the rotation angle of the user's head. With the head of the user wearing the HMD 300 as the origin, the roll axis is in the front direction of the user, the pitch axis is in the left direction of the user, and the yaw axis is in the upward direction of the user. The gyro sensor 302 detects the rotation angle (roll angle, pitch angle, yaw angle) of the user's head for each axis. The acceleration sensor 303 detects the movement of the user's head. The control unit 304 receives an image from the game machine 100 and displays the image on the display units 301A and 301B. Further, the control unit 304 transmits data detected by the gyro sensor 302 and the acceleration sensor 303 to the game machine 100.
[第1の実施の形態]
まず、メニューの選択にユーザの視線を利用する実施例について説明する。本実施形態では、選択可能なメニューの項目のそれぞれに対応する複数のオブジェクトが仮想3次元空間内に配置される。例えば、ゲームの難易度を設定するためのメニューでは、「イージー」、「ノーマル」、「ハード」の3つの項目に対応する3つのオブジェクトが仮想3次元空間内に配置される。メニューの操作時には、ユーザが頭部を動かして視線を向けたオブジェクトが強調表示される。オブジェクトが強調表示されている間、強調表示されているオブジェクトはユーザの操作を受け付けて、ユーザが決定ボタンを操作すると対応する項目が選択される。
[First Embodiment]
First, an embodiment in which the user's line of sight is used for menu selection will be described. In the present embodiment, a plurality of objects corresponding to each of the selectable menu items are arranged in the virtual three-dimensional space. For example, in the menu for setting the difficulty level of the game, three objects corresponding to three items “easy”, “normal”, and “hard” are arranged in the virtual three-dimensional space. When the menu is operated, an object whose line of sight is directed by the user moving his / her head is highlighted. While the object is highlighted, the highlighted object receives the user's operation, and when the user operates the enter button, the corresponding item is selected.
図4は、本実施形態のゲーム装置50の機能的な構成を示す機能ブロック図である。図4に示すゲーム装置50は、入力部51、カメラ制御部52、判定部53、及び出力部54を備える。ゲーム機100は、本実施形態のゲームプログラムを実行することにより、図4に示す機能部を備えたゲーム装置50として動作する。ゲーム機100は、図示していない機能も発揮するが、ここでは本実施形態に関係する機能部のみを図示している。 FIG. 4 is a functional block diagram showing a functional configuration of the game apparatus 50 according to the present embodiment. A game device 50 shown in FIG. 4 includes an input unit 51, a camera control unit 52, a determination unit 53, and an output unit 54. The game machine 100 operates as the game apparatus 50 including the functional units illustrated in FIG. 4 by executing the game program of the present embodiment. Although the game machine 100 also exhibits functions that are not shown, only functional units related to the present embodiment are illustrated here.
入力部51は、コントローラ200からユーザの操作情報を入力し、HMD300からユーザの頭の向きや動きなどを含むHMD情報を入力する。 The input unit 51 inputs user operation information from the controller 200, and inputs HMD information including the orientation and movement of the user's head from the HMD 300.
カメラ制御部52は、HMD300から取得したユーザの頭の向き(視線方向)に基づいて仮想カメラの向きを設定する。本実施形態では、ユーザの視線方向と仮想カメラの視線方向が一致するように仮想カメラを制御する。 The camera control unit 52 sets the orientation of the virtual camera based on the orientation of the user's head (gaze direction) acquired from the HMD 300. In the present embodiment, the virtual camera is controlled so that the user's line-of-sight direction matches the virtual camera's line-of-sight direction.
判定部53は、ユーザの視線方向のオブジェクトを特定する。具体的には、判定部53は、仮想カメラの視線方向(光軸)上に存在するオブジェクトをユーザの視線方向のオブジェクトとする。また、コントローラ200の決定ボタンが操作された場合、判定部53は、視線方向のオブジェクトに対応する項目が選択されたと判定する。 The determination unit 53 identifies an object in the user's line-of-sight direction. Specifically, the determination unit 53 sets an object that exists on the viewing direction (optical axis) of the virtual camera as an object in the viewing direction of the user. When the determination button of the controller 200 is operated, the determination unit 53 determines that an item corresponding to the object in the line-of-sight direction has been selected.
出力部54は、メニューの項目のそれぞれに対応する複数のオブジェクトを仮想3次元空間内に配置し、仮想3次元空間を仮想カメラで撮影した2次元画像を生成する。出力部54が視差を有する右眼用画像と左眼用画像を生成し、HMD300が各画像を表示部301A,301Bのそれぞれで表示することで、ユーザはHMD300で3次元立体画像を見ることができる。 The output unit 54 arranges a plurality of objects corresponding to each of the menu items in the virtual three-dimensional space, and generates a two-dimensional image obtained by photographing the virtual three-dimensional space with a virtual camera. The output unit 54 generates a right-eye image and a left-eye image having parallax, and the HMD 300 displays each image on each of the display units 301A and 301B, so that the user can view a three-dimensional stereoscopic image on the HMD 300. it can.
また、出力部54は、ユーザの視線方向のオブジェクトを強調表示する。強調表示の方法としては、オブジェクトを仮想カメラの方向に移動させる、オブジェクトの色の濃淡を濃くする、輝度を高くするなどの方法が考えられる。 The output unit 54 highlights the object in the user's line-of-sight direction. As a highlighting method, a method of moving the object in the direction of the virtual camera, increasing the color density of the object, increasing the luminance, or the like can be considered.
図5は、本実施形態のゲーム装置50の処理の流れを示すフローチャートである。 FIG. 5 is a flowchart showing a process flow of the game apparatus 50 according to the present embodiment.
入力部51は、コントローラ200から操作情報を入力し、HMD300からHMD情報を入力する(ステップS11)。 The input unit 51 inputs operation information from the controller 200, and inputs HMD information from the HMD 300 (step S11).
カメラ制御部52は、HMD情報に含まれるユーザの頭の向きの情報に基づいて仮想カメラの向きを設定する(ステップS12)。 The camera control unit 52 sets the orientation of the virtual camera based on the information on the user's head orientation included in the HMD information (step S12).
判定部53は、仮想カメラの視線方向に選択可能なオブジェクトが存在するか否か判定する(ステップS13)。 The determination unit 53 determines whether there is a selectable object in the visual line direction of the virtual camera (step S13).
仮想カメラの視線方向に選択可能なオブジェクトが存在する場合(ステップS13のYES)、出力部54は、そのオブジェクトを強調表示する(ステップS14)。 When there is a selectable object in the viewing direction of the virtual camera (YES in step S13), the output unit 54 highlights the object (step S14).
ここで、強調表示の例を説明する。図6Aに示すように、メニューの各項目に対応するオブジェクト60A〜60Cが仮想3次元空間内に配置されているとする。図6Aの例では、オブジェクト60A〜60Cの形状は板状であるが、多面体あるいは球状であってもよい。HMD300を装着したユーザは、HMD300に表示されるオブジェクト60A〜60Cを見ることができる。 Here, an example of highlighting will be described. As shown in FIG. 6A, it is assumed that objects 60A to 60C corresponding to the items of the menu are arranged in the virtual three-dimensional space. In the example of FIG. 6A, the shape of the objects 60A to 60C is a plate shape, but may be a polyhedron or a sphere. A user wearing the HMD 300 can see the objects 60A to 60C displayed on the HMD 300.
ユーザが頭部を動かしてオブジェクト60A〜60Cのいずれかに視線を向けると、図6Bに示すように、視線方向に存在するオブジェクト60Cをユーザ(仮想カメラ)の方向に0.5秒程度の短時間で移動させる。オブジェクト60Cをユーザの方向に移動させるとき、オブジェクト60Cの色の濃淡を濃く、輝度を高くしてもよい。ユーザがオブジェクト60Cから視線を外すと、オブジェクト60Cを元の位置に移動させる。なお、ユーザが視線方向を明確に認識できるように、視線の先にユーザの頭の動きに追従するマーカーを投影してもよい。マーカーが投影されたオブジェクト60A〜60Cが手前に移動する。 When the user moves his / her head and directs his / her line of sight to any of the objects 60A to 60C, as shown in FIG. 6B, the object 60C existing in the line of sight direction has a short time of about 0.5 seconds in the direction of the user (virtual camera). Move in time. When the object 60C is moved in the direction of the user, the color of the object 60C may be darkened and the luminance may be increased. When the user removes his / her line of sight from the object 60C, the object 60C is moved to the original position. Note that a marker that follows the movement of the user's head may be projected at the end of the line of sight so that the user can clearly recognize the line of sight. The objects 60A to 60C on which the marker is projected move forward.
図7は、強調表示されたオブジェクト60Cの表示例を示す図である。手前に移動されたオブジェクト60Cには、その項目を選択するための操作を表示する。図7の例では、決定ボタンの押下を促すメッセージを表示している。 FIG. 7 is a diagram illustrating a display example of the highlighted object 60C. An operation for selecting the item is displayed on the object 60C moved to the front. In the example of FIG. 7, a message that prompts the user to press the enter button is displayed.
オブジェクト60Cが手前に移動した状態でユーザが決定ボタンを押下すると、オブジェクト60Cに対応する項目が選択されたと判定し、メニューの選択処理が完了する。 When the user presses the enter button while the object 60C has moved forward, it is determined that the item corresponding to the object 60C has been selected, and the menu selection process is completed.
以上説明したように、本実施の形態によれば、メニューの項目のそれぞれに対応する複数のオブジェクトを仮想3次元空間内に配置し、視線方向のオブジェクトを手前に移動させて選択を受け付けることで、ユーザは視線によってメニューを操作することが可能となる。 As described above, according to the present embodiment, a plurality of objects corresponding to each of the menu items are arranged in the virtual three-dimensional space, and the object in the line-of-sight direction is moved forward to accept the selection. The user can operate the menu by the line of sight.
[第2の実施の形態]
第2の実施の形態では、タイトル表示時に、ユーザの視線方向に応じて出力するタイトルコールのボイス(タイトルを読み上げる音声)を変更する。
[Second Embodiment]
In the second embodiment, when a title is displayed, the voice of a title call (sound for reading a title) to be output is changed according to the user's line-of-sight direction.
本実施形態においても、第1の実施の形態と同様に、入力部51が操作情報及びHMD情報を入力し、カメラ制御部52がユーザの頭の向きに基づいて仮想カメラの向きを設定し、判定部53がユーザの視線方向に基づいて判定処理を行う。 Also in the present embodiment, as in the first embodiment, the input unit 51 inputs operation information and HMD information, the camera control unit 52 sets the orientation of the virtual camera based on the orientation of the user's head, The determination unit 53 performs determination processing based on the user's line-of-sight direction.
図8は、本実施形態の処理の流れを示すフローチャートである。 FIG. 8 is a flowchart showing a processing flow of the present embodiment.
入力部51は、コントローラ200から操作情報を入力し、HMD300からHMD情報を入力する(ステップS21)。 The input unit 51 inputs operation information from the controller 200, and inputs HMD information from the HMD 300 (step S21).
カメラ制御部52は、HMD情報に含まれるユーザの頭の向きの情報に基づいて仮想カメラの向きを設定する(ステップS22)。 The camera control unit 52 sets the orientation of the virtual camera based on the information on the orientation of the user's head included in the HMD information (step S22).
判定部53は、コントローラ200のボタンが操作されたか否か判定する(ステップS23)。 The determination unit 53 determines whether or not the button of the controller 200 has been operated (step S23).
コントローラ200のボタンが操作されていた場合(ステップS23のYES)、判定部53は視線方向に対応するボイスを選択し(ステップS24)、出力部54は選択したボイスを出力する(ステップS25)。 When the button of the controller 200 has been operated (YES in step S23), the determination unit 53 selects a voice corresponding to the line-of-sight direction (step S24), and the output unit 54 outputs the selected voice (step S25).
図9にタイトル画面の例を示す。図9に示すタイトル画面70には、タイトルロゴ71とゲーム内に登場する8人のキャラクタ72A〜72D,72F〜72Iのシルエットが配置される。タイトルロゴ71の下にはコントローラ200のボタンの操作を促すメッセージ(PRESS ANY BUTTON)が表示される。タイトルロゴ71の背景にムービーを再生してもよい。 FIG. 9 shows an example of the title screen. On the title screen 70 shown in FIG. 9, a title logo 71 and silhouettes of eight characters 72A to 72D and 72F to 72I appearing in the game are arranged. Below the title logo 71, a message (PRESS ANY BUTTON) prompting the operation of the buttons of the controller 200 is displayed. A movie may be played on the background of the title logo 71.
タイトル画面70は、仮想3次元空間の天球内の固定位置(ユーザの正面)に大きなサイズで表示される。ユーザは頭を左右に旋回するとタイトル画面70の全体を確認できる。タイトル画面70が表示されているときに、ユーザがコントローラ200のボタンを操作すると、視線方向に基づいて選択されたボイスが出力された後、ゲーム本編が開始する。 The title screen 70 is displayed in a large size at a fixed position (in front of the user) in the celestial sphere of the virtual three-dimensional space. The user can confirm the entire title screen 70 by turning his / her head left and right. When the user operates a button on the controller 200 while the title screen 70 is displayed, the game main part starts after the voice selected based on the viewing direction is output.
図9のタイトル画面70は9個の領域73A〜73Iに分割される。ユーザがコントローラ200のボタンを操作したとき、判定部53は、視線方向が指す領域73A〜73Iに対応するボイスを選択する。図9の例では、8個の領域73A〜73D,73F〜73Iは、8人のキャラクタ72A〜72D,72F〜72Iに対応する。視線方向が領域73A〜73D,73F〜73Iのいずれかを示すときは、その領域73A〜73D,73F〜73Iに対応するキャラクタ72A〜72D,72F〜72Iの声でタイトルがコールされるボイスが選択される。視線方向が領域73Eを示すときは、8人のキャラクタ72A〜72D,72F〜72I以外の声でタイトルがコールされるボイスが選択される。 The title screen 70 of FIG. 9 is divided into nine areas 73A to 73I. When the user operates a button on the controller 200, the determination unit 53 selects a voice corresponding to the areas 73A to 73I indicated by the line-of-sight direction. In the example of FIG. 9, eight areas 73A to 73D and 73F to 73I correspond to eight characters 72A to 72D and 72F to 72I. When the line-of-sight direction indicates any of the areas 73A to 73D and 73F to 73I, the voice whose title is called by the voices of the characters 72A to 72D and 72F to 72I corresponding to the areas 73A to 73D and 73F to 73I is selected. Is done. When the line-of-sight direction indicates the region 73E, a voice whose title is called by a voice other than the eight characters 72A to 72D and 72F to 72I is selected.
タイトル画面70では、視線の移動に合わせて、視線方向が指すキャラクタ72A〜72D,72F〜72Iのシルエットを濃く表示してもよい。第1の実施の形態と同様に、シルエットを手前方向に移動させてもよい。 On the title screen 70, the silhouettes of the characters 72 </ b> A to 72 </ b> D and 72 </ b> F to 72 </ b> I indicated by the line-of-sight direction may be displayed darkly in accordance with the movement of the line of sight. Similar to the first embodiment, the silhouette may be moved forward.
以上説明したように、本実施の形態によれば、タイトル画面を複数の領域に分割し、ユーザがコントローラ200のボタンを操作したときに、視線方向が指す領域に対応するボイスでタイトルをコールすることで、ユーザの視線方向に応じて演出を変化させることができる。 As described above, according to the present embodiment, the title screen is divided into a plurality of areas, and when the user operates the button of the controller 200, the title is called with the voice corresponding to the area indicated by the line-of-sight direction. Thus, the effect can be changed according to the user's line-of-sight direction.
[第3の実施の形態]
第3の実施の形態では、ゲーム中の視線方向を判定し、ゲームの終了時あるいはシーンやステージの切替時に、ユーザが所定の範囲を見ていた場合は追加の演出を行う。
[Third Embodiment]
In the third embodiment, the line-of-sight direction during the game is determined, and an additional effect is performed if the user is looking at a predetermined range at the end of the game or when switching scenes or stages.
HMD300を使用するVRゲームでは、360度の全周分の仮想3次元空間が用意されている。しかしながら、ユーザは視線方向の空間だけを見ることができる。そこで、本実施形態では、イースター・エッグ的な要素として、ユーザが仮想3次元空間内の所定の範囲を見ていた場合、その所定の範囲に関連させてゲーム本編後の演出を変化させる。なお、本実施例はゲームだけに限らず、ユーザがHMD300で360度のパノラマムービーを見るときにも同様に適用できる。 In the VR game using the HMD 300, a virtual three-dimensional space for 360 degrees is prepared. However, the user can see only the space in the line-of-sight direction. Therefore, in the present embodiment, as a Easter / Egg element, when the user is looking at a predetermined range in the virtual three-dimensional space, the effect after the main game is changed in relation to the predetermined range. Note that the present embodiment is not limited to a game, and can be similarly applied when a user views a 360 degree panoramic movie with the HMD 300.
図10は、判定部の処理の流れを示すフローチャートである。 FIG. 10 is a flowchart showing the flow of processing of the determination unit.
第1、第2の実施の形態と同様に、入力部51がHMD情報を入力し、カメラ制御部52がユーザの頭の向きに基づいて仮想カメラの向きを設定する。出力部54は、仮想カメラの向きに応じた画像を生成してHMD300に出力する。 As in the first and second embodiments, the input unit 51 inputs HMD information, and the camera control unit 52 sets the orientation of the virtual camera based on the orientation of the user's head. The output unit 54 generates an image corresponding to the orientation of the virtual camera and outputs it to the HMD 300.
本実施形態では、判定部53は、画像内に所定の範囲が表示されたか否か判定し(ステップS31)、所定の範囲が表示された場合は(ステップS31のYES)、ユーザが所定の範囲を見たことを示すフラグを立てる(ステップS32)。 In the present embodiment, the determination unit 53 determines whether or not a predetermined range is displayed in the image (step S31). If the predetermined range is displayed (YES in step S31), the user determines the predetermined range. A flag indicating that the user has been viewed is set (step S32).
例えば、図11の画面80内の看板に所定の範囲81が設定されているとする。画面80内に所定の範囲81が入っているので、ユーザは画面80内の看板を見たとみなしてフラグを立てる。所定の範囲は、隠されたオブジェクトやアイテムに対応させて設定するとよい。 For example, assume that a predetermined range 81 is set on a signboard in the screen 80 of FIG. Since the predetermined range 81 is in the screen 80, the user sets a flag on the assumption that the user has seen the signboard in the screen 80. The predetermined range may be set corresponding to a hidden object or item.
ゲーム終了後、判定部53は、フラグが立っているか否かを判定し、フラグが立っていない場合は通常の演出を行い、フラグが立っている場合は演出を変更あるいは追加する。例えば、ユーザが看板を見ていない場合(フラグが立っていない場合)は通常の演出を行い、ユーザが看板を見ていた場合(フラグが立っている場合)は看板の内容に関連したテキストを表示する。看板の内容に関連した画像や動画を表示してもよい。 After the game is over, the determination unit 53 determines whether or not a flag is set. If the flag is not set, a normal effect is performed. If the flag is set, the effect is changed or added. For example, when the user is not looking at the signboard (when the flag is not set), a normal presentation is performed. When the user is looking at the signboard (when the flag is set), text related to the contents of the signboard is displayed. indicate. You may display the image and moving image relevant to the content of the signboard.
フラグを立てる判定については、画面内に所定の範囲の一部が表示されたか否か、画面内に所定の範囲の全部が表示されたか否か、あるいは、視線方向が所定の範囲内を指していたか否か等を条件とすることができる。また、所定の範囲が一瞬でも表示されたか否か、所定の範囲が所定の時間以上表示されたか否か等を条件としてもよい。 Regarding the determination to set the flag, whether or not a part of the predetermined range is displayed on the screen, whether or not the entire predetermined range is displayed on the screen, or the line-of-sight direction indicates the predetermined range. Or not. Moreover, it is good also as conditions, such as whether the predetermined range was displayed even for a moment, whether the predetermined range was displayed more than predetermined time, etc.
また、ゲーム内に複数の所定の範囲を設定してもよい。その場合、所定の範囲の発見数(立っているフラグの数)に基づいて演出を変えてもよい。あるいは、発見した所定の範囲に基づいて演出を変えてもよい。例えば、所定の範囲として設定された2つのオブジェクトA,Bをユーザが見た場合、ゲーム終了後に、オブジェクトA,Bのそれぞれに関する演出を追加してもよいし、オブジェクトAまたはオブジェクトBのいずれか一方に関する演出のみを追加してもよい。 A plurality of predetermined ranges may be set in the game. In that case, the effect may be changed based on the number of discoveries in the predetermined range (the number of standing flags). Or you may change an effect based on the discovered predetermined range. For example, when the user views two objects A and B set as a predetermined range, after the game is over, an effect related to each of the objects A and B may be added, or either the object A or the object B Only an effect related to one side may be added.
また、フラグの結果に応じてゲームの進行を変化させてもよい。例えば、あるゲームシーンやステージの終了時にフラグの結果に応じて演出を行った後、フラグの結果に応じて次に進むゲームシーンやステージを分岐させる。これにより、ユーザがあるオブジェクトを見たか見ていないかの状況に応じてストーリーを変化させることができる。あるいは、ゲームシーン中においても、フラグの結果に応じて演出を変えてもよい。 Further, the progress of the game may be changed according to the result of the flag. For example, after a certain game scene or stage is finished, an effect is given according to the flag result, and the next game scene or stage is branched according to the flag result. Thereby, a story can be changed according to the situation whether a user has seen or not seen a certain object. Alternatively, even during the game scene, the presentation may be changed according to the result of the flag.
以上説明したように、本実施の形態によれば、ゲーム中のユーザの視線方向を判定してフラグを立て、ゲーム終了後にフラグの結果に応じて演出を変えることで、ユーザに隠されたオブジェクトやアイテムを発見する楽しみを与えることができる。また、ユーザに仮想3次元空間のいろいろな箇所を見るように仕向けることができる。 As described above, according to the present embodiment, an object hidden by the user is determined by determining the direction of the user's line of sight in the game and setting a flag, and changing the presentation according to the result of the flag after the game ends. And can give fun to discover items. In addition, the user can be directed to see various places in the virtual three-dimensional space.
100…ゲーム機 101…CPU 102…ROM 103…RAM 104…GPU 105…SPU 106…インタフェース 107…DRIVE 200…コントローラ 300…HMD 301A,301B…表示部 302…ジャイロセンサ 303…加速度センサ 304…制御部 50…ゲーム装置 51…入力部 52…カメラ制御部 53…判定部 54…出力部 60A〜60C…オブジェクト 70…タイトル画面 71…タイトルロゴ 72A〜72D,72F〜72I…キャラクタ 73A〜73I…領域 80…画面 81…所定の範囲 DESCRIPTION OF SYMBOLS 100 ... Game machine 101 ... CPU 102 ... ROM 103 ... RAM 104 ... GPU 105 ... SPU 106 ... Interface 107 ... DRIVE 200 ... Controller 300 ... HMD 301A, 301B ... Display part 302 ... Gyro sensor 303 ... Acceleration sensor 304 ... Control part 50 ... Game device 51 ... Input unit 52 ... Camera control unit 53 ... Determining unit 54 ... Output unit 60A-60C ... Object 70 ... Title screen 71 ... Title logo 72A-72D, 72F-72I ... Character 73A-73I ... Area 80 ... Screen 81 ... predetermined range
Claims (4)
コンピュータを
前記ヘッドマウントディスプレイからユーザの頭の動き情報を入力する入力手段、
前記ユーザの頭の向きに基づいて仮想空間内の仮想カメラを制御するカメラ制御手段、
前記仮想カメラによって撮影された仮想空間の画像を前記ヘッドマウントディスプレイに表示する表示手段、
前記コンテンツ内の所定のシーンにおいて前記仮想空間内の所定の範囲が前記表示手段によって表示されているか否かを判定する判定手段、
前記判定手段の判定結果に応じて前記シーンの終了時又は前記シーン中の演出を変化させる演出手段、
として機能させることを特徴とするゲームプログラム。 A game program for providing content to be used by a user wearing a head-mounted display,
An input means for inputting movement information of the user's head from the head-mounted display;
Camera control means for controlling a virtual camera in a virtual space based on the orientation of the user's head;
Display means for displaying an image of a virtual space photographed by the virtual camera on the head mounted display;
Determination means for determining whether or not a predetermined range in the virtual space is displayed by the display means in a predetermined scene in the content;
Effecting means for changing the effect at the end of the scene or in the scene according to the determination result of the determining means,
A game program characterized by functioning as
前記判定手段は、前記所定の範囲が表示された数を判定することを特徴とする請求項1又は2に記載のゲームプログラム。 The predetermined range is set at a plurality of locations,
The game program according to claim 1, wherein the determination unit determines the number of displayed predetermined ranges.
前記プログラム記憶部に記憶されたゲームプログラムを実行するコンピュータと、
を備えたゲーム装置。 A program storage unit storing the game program according to claim 1;
A computer for executing the game program stored in the program storage unit;
A game device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018128068A JP2018192272A (en) | 2018-07-05 | 2018-07-05 | Game program and game device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018128068A JP2018192272A (en) | 2018-07-05 | 2018-07-05 | Game program and game device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016201172A Division JP2018061666A (en) | 2016-10-12 | 2016-10-12 | Game program and game device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018192272A true JP2018192272A (en) | 2018-12-06 |
Family
ID=64569269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018128068A Pending JP2018192272A (en) | 2018-07-05 | 2018-07-05 | Game program and game device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018192272A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109663351A (en) * | 2019-02-01 | 2019-04-23 | 天津欧普特科技发展有限公司 | Virtual reality interaction systems |
JP7471497B2 (en) | 2019-03-20 | 2024-04-19 | 任天堂株式会社 | IMAGE DISPLAY SYSTEM, IMAGE DISPLAY PROGRAM, DISPLAY CONTROL DEVICE, AND IMAGE DISPLAY METHOD |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012063253A (en) * | 2010-09-16 | 2012-03-29 | Olympus Corp | Image generation system, program, and information storage medium |
JP2015231443A (en) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | Program and game system |
JP2016173693A (en) * | 2015-03-17 | 2016-09-29 | セイコーエプソン株式会社 | Head-wearable display device, control method of head-wearable display device, and computer program |
-
2018
- 2018-07-05 JP JP2018128068A patent/JP2018192272A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012063253A (en) * | 2010-09-16 | 2012-03-29 | Olympus Corp | Image generation system, program, and information storage medium |
JP2015231443A (en) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | Program and game system |
JP2016173693A (en) * | 2015-03-17 | 2016-09-29 | セイコーエプソン株式会社 | Head-wearable display device, control method of head-wearable display device, and computer program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109663351A (en) * | 2019-02-01 | 2019-04-23 | 天津欧普特科技发展有限公司 | Virtual reality interaction systems |
CN109663351B (en) * | 2019-02-01 | 2023-03-31 | 天津欧普特科技发展有限公司 | Virtual reality interactive system |
JP7471497B2 (en) | 2019-03-20 | 2024-04-19 | 任天堂株式会社 | IMAGE DISPLAY SYSTEM, IMAGE DISPLAY PROGRAM, DISPLAY CONTROL DEVICE, AND IMAGE DISPLAY METHOD |
US12029979B2 (en) | 2019-03-20 | 2024-07-09 | Nintendo Co., Ltd. | Image display system, non-transitory storage medium having stored therein image display program, display control apparatus, and image display method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6124517B2 (en) | Information processing program, information processing apparatus, information processing system, and panoramic video display method | |
JP6006536B2 (en) | Information processing program, information processing apparatus, information processing system, and panoramic video display method | |
JP6450064B2 (en) | Information processing apparatus, data structure of moving image data, information processing system, moving image reproducing program, and moving image reproducing method | |
JP5975739B2 (en) | Information processing program, information processing apparatus, information processing system, and panoramic video display method | |
JP2014183380A (en) | Information processing program, information processing device, information processing system, panoramic moving image display method, and data structure of control data | |
JP2018113616A (en) | Information processing unit, information processing method, and program | |
JP6389208B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP5236674B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
JP6457989B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP2019121224A (en) | Program, information processing device, and information processing method | |
JPWO2018216402A1 (en) | Information processing apparatus, information processing method, and program | |
CN111340933A (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
CN108027694B (en) | Recording medium, content providing apparatus, and control method | |
CN113296721A (en) | Display method, display device and multi-screen linkage system | |
JP2018192272A (en) | Game program and game device | |
JP2013198520A (en) | Game device, method for controlling game device, and program | |
US20140092133A1 (en) | Computer-readable medium, image processing device, image processing system, and image processing method | |
JP2018061666A (en) | Game program and game device | |
JP2019013765A (en) | Video sound processing program and game device | |
JP6321271B1 (en) | Content providing method, program for causing computer to execute the method, and content providing apparatus | |
JP2019017755A (en) | Game program and game system | |
JP2003284095A (en) | Stereoscopic image processing method and apparatus therefor | |
JP2018026701A (en) | Sound recording device, image/sound processing program, and game device | |
CN114612637A (en) | Scene picture display method and device, computer equipment and storage medium | |
JP6446072B2 (en) | Game program and game system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180705 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190723 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190827 |