JP2019021057A - Game program and game system - Google Patents

Game program and game system Download PDF

Info

Publication number
JP2019021057A
JP2019021057A JP2017139375A JP2017139375A JP2019021057A JP 2019021057 A JP2019021057 A JP 2019021057A JP 2017139375 A JP2017139375 A JP 2017139375A JP 2017139375 A JP2017139375 A JP 2017139375A JP 2019021057 A JP2019021057 A JP 2019021057A
Authority
JP
Japan
Prior art keywords
camera
parameter
game
virtual
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017139375A
Other languages
Japanese (ja)
Other versions
JP6457593B1 (en
Inventor
服部 寛
Hiroshi Hattori
寛 服部
陽菜 阿久澤
Haruna AKUZAWA
陽菜 阿久澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2017139375A priority Critical patent/JP6457593B1/en
Application granted granted Critical
Publication of JP6457593B1 publication Critical patent/JP6457593B1/en
Publication of JP2019021057A publication Critical patent/JP2019021057A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a game program and a game system which realize setting of parameters for color adjustment suitable for a VR corresponding game.SOLUTION: A game program makes a computer function as: virtual space generating means for generating a virtual space; character controlling means for controlling a character moving in the virtual space; camera locating means for locating a virtual left camera and a virtual right camera at predetermined positions of the character with being separated from each other and for locating a virtual intermediate camera between the left camera and the right camera; parameter acquiring means for acquiring parameters for use in adjustment of color elements of an image shot by the intermediate camera on the basis of position information of the intermediate camera; and color adjustment means for adjusting color elements of each image shot by the left camera and the right camera on the basis of the parameters acquired by the parameter acquiring means in order to generate images for VR displayed on a left eye display unit and a right eye display unit and having parallax each other.SELECTED DRAWING: Figure 5

Description

本発明は、仮想空間に配置された仮想カメラから視える画像を表示するゲームを実現するゲームプログラム及びゲームシステムに関する。   The present invention relates to a game program and a game system for realizing a game that displays an image viewed from a virtual camera arranged in a virtual space.

従来から、三次元の仮想空間を生成すると共に、その中に配置された仮想カメラから視える画像をゲーム画面として表示するゲームシステムが普及している。このようなゲームシステムには、仮想カメラから視た画像に対して輝度や色調などを調整してからゲーム画面として表示するものが知られている。例えば、現実世界では人間が明るい屋外から暗い屋内に入ると、人間の目は入ってくる光の量を調節するが、このような調節に対応する色調整を、仮想カメラに対して設定された所定のパラメータを変更することにより行う。これにより、ゲームをプレイするユーザに仮想空間に入り込んだような没入感を与えることができる。   Conventionally, a game system that generates a three-dimensional virtual space and displays an image that can be viewed from a virtual camera arranged therein as a game screen has been widely used. As such a game system, there is known a game system that displays a game screen after adjusting brightness and color tone of an image viewed from a virtual camera. For example, in the real world, when a human enters a dark indoor from a bright outdoor, the human eye adjusts the amount of incoming light, and color adjustments corresponding to such adjustments are set for the virtual camera. This is done by changing predetermined parameters. Thereby, it is possible to give an immersive feeling that the user who plays the game has entered the virtual space.

このような色調整のためのパラメータは、仮想カメラの位置情報、例えば仮想空間内のどの領域に仮想カメラが位置するかという情報や、所定のオブジェクトに対する仮想カメラの相対位置情報などに応じて変更する場合がある。例えば特許文献1には、仮想カメラから遠くなるほどフォグ濃度を濃くするために、仮想カメラからの距離パラメータ(Z値)に基づいて色調整情報(α値)を設定することが開示されている。   Such parameters for color adjustment are changed according to the position information of the virtual camera, for example, information on which area in the virtual space the virtual camera is located, information on the relative position of the virtual camera with respect to a predetermined object, etc. There is a case. For example, Patent Document 1 discloses setting color adjustment information (α value) based on a distance parameter (Z value) from a virtual camera in order to increase the fog density as the distance from the virtual camera increases.

特開2007−140842号公報JP 2007-140842 A

ところで、近年、左目用と右目用の表示部を有するヘッドマウントディスプレイ(以下、HMD)を装着したユーザがバーチャルリアリティ(以下、VR)を体験できるゲーム(以下、VR対応ゲーム)が実現されている。VR対応ゲームでは、三次元の仮想空間に2つの仮想カメラを配置する。これら2つの仮想カメラは、仮想空間内のキャラクタの左目と右目に対応してそれぞれ配置されており、これら2つの仮想カメラで撮影した画像は、HMDの左目用表示部と右目用表示部にそれぞれ表示される。   By the way, in recent years, a game (hereinafter referred to as VR-compatible game) in which a user wearing a head mounted display (hereinafter referred to as HMD) having a display unit for left eye and right eye can experience virtual reality (hereinafter referred to as VR) has been realized. . In a VR-compatible game, two virtual cameras are arranged in a three-dimensional virtual space. These two virtual cameras are arranged corresponding to the left and right eyes of the character in the virtual space, and images taken by these two virtual cameras are respectively displayed on the left-eye display unit and the right-eye display unit of the HMD. Is displayed.

上述したような仮想カメラの位置情報に応じた画像の色調整を、VR対応ゲームで実行した場合、左目用表示部と右目用表示部に色調や明るさなどが異なる画像が表示される場合が生じる。これは、ユーザに違和感や酔いを生じさせることにつながるおそれがある。   When the color adjustment of the image according to the position information of the virtual camera as described above is executed in a VR-compatible game, an image with different color tone, brightness, or the like may be displayed on the left-eye display unit and the right-eye display unit. Arise. This may lead to a sense of incongruity and sickness for the user.

そこで本発明は、VR対応ゲームに適した、色調整のためのパラメータの設定を実現することができるゲームプログラム及びゲームシステムを提供することを目的とする。   Accordingly, an object of the present invention is to provide a game program and a game system that can realize setting of parameters for color adjustment suitable for a VR-compatible game.

上記課題を解決するために、本発明に係るゲームプログラムは、左目用表示部及び右目用表示部を有するVR用のHMDを備えるコンピュータに実行させるゲームプログラムであって、前記コンピュータを、仮想空間を生成する仮想空間生成手段、前記仮想空間内を移動するキャラクタを制御するキャラクタ制御手段、前記キャラクタの所定の位置に仮想の左カメラと右カメラとを離して配置すると共に、前記左カメラと前記右カメラとの間に仮想の中間カメラを配置するカメラ配置手段、前記中間カメラの位置情報に基づき、前記中間カメラで撮影した画像の色要素を調整するためのパラメータを取得するパラメータ取得手段、及び、前記左目用表示部及び前記右目用表示部にそれぞれ表示される互いに視差を有するVR用の画像を生成するために、前記パラメータ取得手段により取得したパラメータに基づき、前記左カメラ及び前記右カメラで撮影した各画像の色要素を調整する色調整手段、として機能させる。   In order to solve the above-described problems, a game program according to the present invention is a game program that causes a computer including a VR HMD having a left-eye display unit and a right-eye display unit to be executed, and the computer is used in a virtual space. A virtual space generating means for generating, a character control means for controlling a character moving in the virtual space, a virtual left camera and a right camera being placed apart from each other at a predetermined position of the character, and the left camera and the right camera Camera placement means for placing a virtual intermediate camera between the camera, parameter acquisition means for obtaining parameters for adjusting color elements of an image captured by the intermediate camera based on position information of the intermediate camera, and Generate VR images that are displayed on the left-eye display unit and the right-eye display unit and have parallax with each other. Therefore, the the basis of the parameters obtained by the parameter obtaining unit, a color adjustment means for adjusting the color components of each image taken by the left camera and the right camera, to function as a.

上記のゲームプログラムによれば、左カメラ及び右カメラで撮影した各画像の色要素を調整するためのパラメータを、中間カメラの位置に応じた取得したパラメータに統一する。このため、明るさや色調が同じ画像が左目用表示部及び右目用表示部にそれぞれ表示されるため、ユーザに違和感や酔いが生じるのを抑制することができる。   According to the above game program, the parameters for adjusting the color elements of the images taken by the left camera and the right camera are unified with the acquired parameters according to the position of the intermediate camera. For this reason, since images having the same brightness and color tone are displayed on the left-eye display unit and the right-eye display unit, respectively, it is possible to suppress the user from feeling uncomfortable or sick.

例えば、前記パラメータは、カメラの露出の度合いを調整するための露出パラメータ及び画像の色調を調整するための色調パラメータの少なくとも1つを含む。   For example, the parameters include at least one of an exposure parameter for adjusting the degree of exposure of the camera and a color parameter for adjusting the color tone of the image.

上記のゲームプログラムにおいて、前記色調整手段は、非VR用の画像を生成するために、前記パラメータ取得手段により取得したパラメータに基づき、前記中間カメラで撮影した画像の色要素を調整してもよい。このゲームプログラムによれば、中間カメラで撮影した画像も色要素を調整して非VR用画像として表示することができる。例えば、HMDにVR用の画像を表示させ、HMDとは別のディスプレイに非VR用の画像を表示させる場合に、HMDを通じてユーザが視るVR用の画像と、HMDを装着したユーザ以外の人が視る非VR用の画像の色調や明るさなどを同じにすることができる。   In the above game program, the color adjusting unit may adjust the color element of the image captured by the intermediate camera based on the parameter acquired by the parameter acquiring unit in order to generate a non-VR image. . According to this game program, an image photographed by the intermediate camera can be displayed as a non-VR image by adjusting color elements. For example, when a VR image is displayed on the HMD and a non-VR image is displayed on a display different from the HMD, a VR image viewed by the user through the HMD and a person other than the user wearing the HMD It is possible to make the color tone, brightness, etc. of the non-VR images seen by the same.

上記のゲームプログラムにおいて、前記仮想空間は、複数のエリアに画定され、前記複数のエリアのそれぞれに対して、前記パラメータの値が対応して設定されており、前記パラメータ取得手段は、前記中間カメラが前記複数のエリアのうちの一つから別のエリアに移動したときに、移動後のエリアに対応するパラメータを取得してもよい。このゲームプログラムによれば、エリア移動があったときのみパラメータを取得するため、パラメータの取得に要する処理負荷を軽減することができる。   In the above-described game program, the virtual space is defined in a plurality of areas, and the parameter values are set corresponding to the plurality of areas, and the parameter acquisition unit includes the intermediate camera. When moving from one of the plurality of areas to another area, a parameter corresponding to the moved area may be acquired. According to this game program, the parameter is acquired only when there is an area movement, so the processing load required for acquiring the parameter can be reduced.

また、本発明に係るゲームシステムは、上記のゲームプログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶されたプログラムを実行するコンピュータとを備える。   In addition, a game system according to the present invention includes a program storage unit that stores the game program and a computer that executes the program stored in the program storage unit.

本発明によれば、VR対応ゲームに適した、色調整のためのパラメータの設定を実現することができるゲームプログラム及びゲームシステムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the game program and game system which can implement | achieve the setting of the parameter for color adjustment suitable for VR corresponding | compatible game can be provided.

一実施形態に係るゲームシステムのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the game system which concerns on one Embodiment. 図1に示すゲーム装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the game device shown in FIG. 非VRモードでの仮想カメラの配置を模式的に示したキャラクタの平面図及び側面図である。It is the top view and side view of the character which showed typically arrangement | positioning of the virtual camera in non-VR mode. VRモードでの仮想カメラの配置を模式的に示したキャラクタの平面図及び側面図である。It is the top view and side view of the character which showed typically arrangement | positioning of the virtual camera in VR mode. キャラクタが屋外から屋内に入る様子を模式的に示した仮想空間の平面図である。It is a top view of virtual space which showed a mode that a character entered indoors from the outdoors. VRモード用の色調整処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the color adjustment process for VR mode.

以下、本発明の実施の形態に係るゲームプログラムおよびゲームシステムについて、図面を参照しつつ説明する。   Hereinafter, a game program and a game system according to embodiments of the present invention will be described with reference to the drawings.

[ハードウェア構成]
図1は、ゲームシステム1のハードウェア構成を示すブロック図である。ゲームシステム1は、ゲーム装置2及びサーバ装置3を備えている。ゲーム装置2は、他のゲーム装置2及びサーバ装置3との間で、インターネット又はLANなどの通信ネットワークNWを介して互いに通信可能である。また、ゲーム装置2には、HMD40、光検出装置46、ディスプレイ47、スピーカ48が接続されている。
[Hardware configuration]
FIG. 1 is a block diagram showing a hardware configuration of the game system 1. The game system 1 includes a game device 2 and a server device 3. The game apparatus 2 can communicate with another game apparatus 2 and the server apparatus 3 via a communication network NW such as the Internet or a LAN. Further, the game apparatus 2 is connected with an HMD 40, a light detection device 46, a display 47, and a speaker 48.

ゲーム装置2は、その動作を制御するCPU10を備え、このCPU10にはバス11を介して、ディスクドライブ12、メモリカードスロット13、記憶部を成すHDD14及びROM15、並びにRAM16が接続されている。   The game apparatus 2 includes a CPU 10 that controls the operation of the game apparatus 2, and a disk drive 12, a memory card slot 13, an HDD 14 and a ROM 15 that constitute a storage unit, and a RAM 16 are connected to the CPU 10 via a bus 11.

ディスクドライブ12には、DVD−ROM等のディスク型記録媒体30が装填可能である。該ディスク型記録媒体30には、本実施の形態に係るゲームプログラム30a及びゲームデータ30bが記録されている。本実施形態に係るゲームプログラム30aは、HMD40を装着したユーザがVRを体験できるVR対応ゲームを実現するプログラムである。ゲームデータ30bには、仮想空間の形成に必要なデータ、及び、ゲーム中で再生されるサウンドデータなど、本ゲームの進行に必要な各種のデータが含まれる。また、メモリカードスロット13にはカード型記録媒体31が装填でき、ゲームの途中経過等のプレイ状況を示すセーブデータを、CPU10からの指示に応じて記録可能である。   The disk drive 12 can be loaded with a disk type recording medium 30 such as a DVD-ROM. On the disc-type recording medium 30, a game program 30a and game data 30b according to the present embodiment are recorded. The game program 30a according to the present embodiment is a program that realizes a VR-compatible game in which a user wearing the HMD 40 can experience VR. The game data 30b includes various data necessary for the progress of the game, such as data necessary for forming a virtual space and sound data reproduced during the game. In addition, a card-type recording medium 31 can be loaded in the memory card slot 13, and save data indicating a play status such as a game progress can be recorded in accordance with an instruction from the CPU 10.

HDD14はゲーム装置2が内蔵する大容量記録媒体であって、ディスク型記録媒体30から読み込んだゲームプログラム30a及びゲームデータ30b、更にはセーブデータ等を記録する。ROM15は、マスクROM又はPROMなどの半導体メモリであり、ゲーム装置2を起動する起動プログラムや、ディスク型記録媒体30が装填されたときの動作を制御するプログラムなどを記録している。RAM16は、DRAM又はSRAMなどから成り、CPU10が実行すべきゲームプログラム30aや、その実行の際に必要になるゲームデータ30bなどを、ゲームのプレイ状況に応じてディスク型記録媒体30又はHDD14から読み込んで一時的に記録する。   The HDD 14 is a large-capacity recording medium built in the game apparatus 2 and records a game program 30a and game data 30b read from the disk-type recording medium 30, and save data and the like. The ROM 15 is a semiconductor memory such as a mask ROM or PROM, and stores a startup program for starting the game apparatus 2, a program for controlling an operation when the disk type recording medium 30 is loaded, and the like. The RAM 16 is composed of DRAM, SRAM, or the like, and reads a game program 30a to be executed by the CPU 10 or game data 30b necessary for the execution from the disk-type recording medium 30 or the HDD 14 in accordance with the game play status. To record temporarily.

また、CPU10には更に、バス11を介して、HMD40と接続するためのHMD用インタフェース17、光検出装置46と接続するための光検出装置用インタフェース18、グラフィック処理部19、オーディオ合成部20、スピーカ48と接続するためのオーディオインタフェース21、無線通信制御部22、及びネットワークインタフェース23が接続されている。   Further, the CPU 10 further includes an HMD interface 17 for connecting to the HMD 40 via the bus 11, an optical detection device interface 18 for connecting to the optical detection device 46, a graphic processing unit 19, an audio synthesis unit 20, An audio interface 21, a wireless communication control unit 22, and a network interface 23 for connecting to the speaker 48 are connected.

HMD40は、ユーザの頭部に装着可能である。HMD40は、一対の表示部41(41a,41b)、加速度センサ42、ジャイロセンサ43、光放出部44及び制御部45を備える。HMD40がユーザの頭部に装着されることにより、当該ユーザの左目と右目の前方には、左目用の表示部41aと右目用の表示部41bとが夫々配置される。   The HMD 40 can be worn on the user's head. The HMD 40 includes a pair of display units 41 (41a, 41b), an acceleration sensor 42, a gyro sensor 43, a light emitting unit 44, and a control unit 45. By mounting the HMD 40 on the user's head, a display unit 41a for the left eye and a display unit 41b for the right eye are respectively arranged in front of the left eye and the right eye of the user.

加速度センサ42及びジャイロセンサ43は、ユーザの頭部のモーションを検出するモーション検出システムを構成する。加速度センサ42は、例えば重力方向に対するHMD40の向き、即ちユーザの頭部の傾きを検出する。ジャイロセンサ43は、例えばHMD40の角速度、即ちユーザが頭部を傾けたり回転したりする速さを検出する。加速度センサ42及びジャイロセンサ43から得られたモーション情報は、グラフィック処理部19及びオーディオ合成部20に送られる。   The acceleration sensor 42 and the gyro sensor 43 constitute a motion detection system that detects the motion of the user's head. The acceleration sensor 42 detects, for example, the orientation of the HMD 40 with respect to the direction of gravity, that is, the inclination of the user's head. The gyro sensor 43 detects, for example, the angular velocity of the HMD 40, that is, the speed at which the user tilts or rotates the head. The motion information obtained from the acceleration sensor 42 and the gyro sensor 43 is sent to the graphic processing unit 19 and the audio synthesis unit 20.

HMD40の光放出部44は、光検出装置46と共に、ユーザの頭部の位置を検出する位置検出システムを構成する。本実施形態では、光放出部44は、例えば互いに離間してHMD40に設けられた複数のLEDライトである。光検出装置46は、例えばユーザの前方に固定的に配置され、HMD40の光放出部44から放たれる光の位置を検出する。光検出装置46は、光放出部44から放たれる光の位置を検出することにより、該光検出装置46に対するユーザの頭部の位置情報を取得する。当該位置情報は、上述のモーション情報を補正するために用いられてもよい。光検出装置46から得られた位置情報は、光検出装置用インタフェース18を介して、グラフィック処理部19及びオーディオ合成部20に送られる。   The light emitting unit 44 of the HMD 40, together with the light detection device 46, constitutes a position detection system that detects the position of the user's head. In the present embodiment, the light emitting unit 44 is, for example, a plurality of LED lights provided in the HMD 40 apart from each other. The light detection device 46 is fixedly disposed, for example, in front of the user, and detects the position of light emitted from the light emitting unit 44 of the HMD 40. The light detection device 46 acquires the position information of the user's head relative to the light detection device 46 by detecting the position of the light emitted from the light emitting unit 44. The position information may be used to correct the above-described motion information. The position information obtained from the light detection device 46 is sent to the graphic processing unit 19 and the audio synthesis unit 20 via the light detection device interface 18.

なお、ユーザの頭部の位置を検出する位置検出システムは、これに限定されない。例えば、HMD40側に光センサを設けて、ユーザの周りに配置された光放出装置から放たれた光を、当該光センサで検出することにより、ユーザの頭部の位置を検出してもよい。   In addition, the position detection system which detects the position of a user's head is not limited to this. For example, the position of the user's head may be detected by providing an optical sensor on the HMD 40 side and detecting the light emitted from the light emitting device arranged around the user with the optical sensor.

制御部45は、加速度センサ42及びジャイロセンサ43からゲーム装置2へのデータの送信や光放出部44への信号の送信など、HMD40が有する各種機器の制御を行う。   The control unit 45 controls various devices included in the HMD 40 such as transmission of data from the acceleration sensor 42 and the gyro sensor 43 to the game apparatus 2 and transmission of a signal to the light emitting unit 44.

グラフィック処理部19は、CPU10の指示に従って三次元の仮想ゲーム空間等を含むゲーム画像を描画する。グラフィック処理部19は、ゲームのモードに応じたゲーム画像を生成する。   The graphic processing unit 19 draws a game image including a three-dimensional virtual game space in accordance with an instruction from the CPU 10. The graphic processing unit 19 generates a game image corresponding to the game mode.

例えば、ユーザがVRを体験しながらゲームを進行させるモード(以下、VRモード)でゲームがプレイされる場合、グラフィック処理部19は、HMD40を装着したユーザが三次元の仮想空間を立体視できるよう、互いに視差を有する一対の仮想二次元画像を生成する。即ち、グラフィック処理部19は、仮想三次元空間に配置された一対の仮想カメラの夫々で撮影した互いに視差を有する左目用及び右目用の仮想二次元画像を生成する。そして、この一対の仮想二次元画像は、動画形式に変換されて、HMD40に送られ、左目用の表示部41aと右目用の表示部41bの夫々に表示される。また、グラフィック処理部19は、ユーザに仮想空間内に入り込んだような臨場感を与えるよう、HMD40及び光検出装置46から送られたユーザに関するモーション情報及び位置情報に合わせて、リアルタイムで上述の一対の仮想カメラの向きや位置を変化させる。   For example, when the game is played in a mode in which the user advances the game while experiencing VR (hereinafter referred to as VR mode), the graphic processor 19 allows the user wearing the HMD 40 to stereoscopically view the three-dimensional virtual space. Then, a pair of virtual two-dimensional images having parallax are generated. That is, the graphic processing unit 19 generates a virtual two-dimensional image for left eye and right eye having parallax, which are captured by each of a pair of virtual cameras arranged in the virtual three-dimensional space. The pair of virtual two-dimensional images are converted into a moving image format, sent to the HMD 40, and displayed on the left-eye display unit 41a and the right-eye display unit 41b. Further, the graphic processing unit 19 adds the above-mentioned pair of information in real time in accordance with the motion information and the position information about the user sent from the HMD 40 and the light detection device 46 so as to give the user a sense of presence as if it has entered the virtual space. Change the orientation and position of the virtual camera.

また、上記のVRモード以外のモード(以下、非VRモード)、例えばユーザがテレビモニタなどの非VR用のディスプレイ47の画面を視ながらゲームを進行させるモードでゲームがプレイされる場合、グラフィック処理部19は、仮想三次元空間に配置された1つの仮想カメラで撮影した仮想二次元画像を生成する。そして、この仮想二次元画像は、動画形式に変換されて、ディスプレイ47に送られ、その表示部に表示される。なお、ディスプレイ47の代わりに、HMD40に送ってもよく、一対の表示部41a,41bの夫々に、同じ仮想二次元画像を表示してもよい。   Further, when the game is played in a mode other than the VR mode (hereinafter referred to as non-VR mode), for example, a mode in which the user advances the game while viewing the screen of the non-VR display 47 such as a TV monitor, graphic processing is performed. The unit 19 generates a virtual two-dimensional image captured by one virtual camera arranged in the virtual three-dimensional space. The virtual two-dimensional image is converted into a moving image format, sent to the display 47, and displayed on the display unit. Instead of the display 47, the image may be sent to the HMD 40, and the same virtual two-dimensional image may be displayed on each of the pair of display units 41a and 41b.

オーディオ合成部20は、CPU10の指示に従って、ゲームデータ30bに含まれるデジタル形式のサウンドデータを再生及び合成する。オーディオ合成部20にて再生及び合成されたサウンドデータは、アナログ形式にデコードされた後、スピーカ48に送られ出力される。その結果、本ゲームをプレイしているユーザは、再生されたサウンドを聴取することができる。スピーカ48は、HMD40と一体的に構成されてもよい。また、オーディオ合成部20は、ユーザに仮想空間内に入り込んだような臨場感を与えるよう、HMD40及び光検出装置46から送られたモーション情報及び位置情報に合わせて、リアルタイムでスピーカ48から出力される音響を変化させてもよい。オーディオインタフェース21には、スピーカ48の代わりに又は加えて、ヘッドホンが接続されてもよいし、
無線通信制御部22は、2.4GHz帯の無線通信モジュールを有し、ゲーム装置2に付属するコントローラ49との間で無線により接続され、データの送受信が可能となっている。ユーザは、このコントローラ49に設けられたボタン等の操作部を操作することにより、ゲーム装置2へ信号を入力することができる。
The audio synthesizer 20 reproduces and synthesizes digital sound data included in the game data 30b in accordance with instructions from the CPU 10. The sound data reproduced and synthesized by the audio synthesis unit 20 is decoded into an analog format, and then sent to the speaker 48 for output. As a result, the user who is playing this game can listen to the reproduced sound. The speaker 48 may be configured integrally with the HMD 40. Also, the audio synthesis unit 20 is output from the speaker 48 in real time in accordance with the motion information and the position information sent from the HMD 40 and the light detection device 46 so as to give the user a sense of presence as if they entered the virtual space. The sound may be changed. A headphone may be connected to the audio interface 21 instead of or in addition to the speaker 48.
The wireless communication control unit 22 includes a 2.4 GHz band wireless communication module, and is wirelessly connected to the controller 49 attached to the game apparatus 2 so that data can be transmitted and received. The user can input a signal to the game apparatus 2 by operating an operation unit such as a button provided in the controller 49.

ネットワークインタフェース23は、インターネット又はLANなどの通信ネットワークNWに対してゲーム装置2を接続するものであり、他のゲーム装置2及びサーバ装置3との間で通信可能である。そして、ゲーム装置2を、通信ネットワークNWを介して他のゲーム装置2と接続し、互いにデータを送受信することにより、同一の仮想空間内で同期してゲームを進行させるマルチプレイが可能になっている。   The network interface 23 connects the game apparatus 2 to a communication network NW such as the Internet or a LAN, and can communicate with other game apparatuses 2 and the server apparatus 3. Then, by connecting the game device 2 to another game device 2 via the communication network NW and transmitting / receiving data to / from each other, it is possible to perform multiplayer in which the game progresses synchronously in the same virtual space. .

[ゲーム装置の機能的構成]
図2は、ゲームシステム1が備えるゲーム装置2の機能的な構成を示すブロック図である。ゲーム装置2は、本発明のゲームプログラム30aを実行することで、仮想空間生成手段51、キャラクタ制御手段52、モード設定手段53、カメラ配置手段54、パラメータ取得手段55、パラメータ設定手段56、及び色調整手段57として機能する。なお、このような各機能は、ハード的には図1に示すCPU10,HDD14,ROM15,RAM16,グラフィック処理部19,オーディオ合成部20,無線通信制御部22等から構成されている。
[Functional configuration of game device]
FIG. 2 is a block diagram illustrating a functional configuration of the game apparatus 2 included in the game system 1. By executing the game program 30a of the present invention, the game apparatus 2 performs virtual space generation means 51, character control means 52, mode setting means 53, camera placement means 54, parameter acquisition means 55, parameter setting means 56, and color It functions as the adjusting means 57. Each of these functions is composed of the CPU 10, HDD 14, ROM 15, RAM 16, graphic processing unit 19, audio composition unit 20, wireless communication control unit 22 and the like shown in FIG.

仮想空間生成手段51は、所定の広がりを有する三次元の仮想空間を生成する。この仮想空間には、三次元の直交座標系XYZ(ワールド座標系)が設定されている。仮想空間には、様々なオブジェクトやキャラクタが配置されている。例えば、仮想空間には、コントローラ49の操作によりユーザが直接的にその動作を制御することのできるプレイヤキャラクタが存在する。   The virtual space generation means 51 generates a three-dimensional virtual space having a predetermined extent. In this virtual space, a three-dimensional orthogonal coordinate system XYZ (world coordinate system) is set. Various objects and characters are arranged in the virtual space. For example, in the virtual space, there is a player character that can be directly controlled by the user by operating the controller 49.

キャラクタ制御手段52は、仮想空間内を移動するプレイヤキャラクタを制御する。具体的には、キャラクタ制御手段52は、コントローラ49の操作に応じて、仮想空間内におけるプレイヤキャラクタの移動や向き、姿勢などを制御する。なお、キャラクタ制御手段52は、コントローラ49の操作の代わりに又は加えて、HMD40が装着されたユーザの頭部の動きに応じて、仮想空間内におけるプレイヤキャラクタを制御してもよい。   The character control means 52 controls the player character that moves in the virtual space. Specifically, the character control means 52 controls the movement, orientation, posture, etc. of the player character in the virtual space in accordance with the operation of the controller 49. The character control means 52 may control the player character in the virtual space according to the movement of the head of the user wearing the HMD 40 instead of or in addition to the operation of the controller 49.

モード設定手段53は、ユーザがゲームをプレイするモードとして、HMD40に互いに視差を有する一対の画像を送るVRモードとそれ以外のモードである非VRモードのいずれかを設定する。本実施形態では、ゲーム開始時にHMD40及びディスプレイ47の少なくとも一方に表示される所定のゲーム画面にて、コントローラ49に対するユーザの操作により、VRモードのオン/オフを選択可能となっている。但し、モード設定手段53によるモードの設定は、ユーザの選択によらなくてもよい。例えば、HMD40が起動していない場合やHMD40がゲーム装置2に接続されていない場合、モード設定手段53は、ユーザがゲームをプレイするモードを自動的に非VRモードに設定してもよい。   The mode setting means 53 sets either a VR mode for sending a pair of images having parallax to the HMD 40 or a non-VR mode, which is a mode other than that, as a mode in which the user plays a game. In this embodiment, on / off of the VR mode can be selected by a user operation on the controller 49 on a predetermined game screen displayed on at least one of the HMD 40 and the display 47 at the start of the game. However, the mode setting by the mode setting means 53 may not be based on the user's selection. For example, when the HMD 40 is not activated or when the HMD 40 is not connected to the game apparatus 2, the mode setting unit 53 may automatically set the mode in which the user plays the game to the non-VR mode.

カメラ配置手段54は、仮想空間の所定の位置に仮想のカメラを配置する。カメラ配置手段54は、モード設定手段53により設定されたモードがVRモードであるか非VRモードであるかに応じて、仮想カメラの配置方法を変更する。   The camera placement unit 54 places a virtual camera at a predetermined position in the virtual space. The camera placement unit 54 changes the placement method of the virtual camera depending on whether the mode set by the mode setting unit 53 is the VR mode or the non-VR mode.

(非VRモードのカメラ配置)
図3は、モード設定手段53により設定されたモードが非VRモードである場合のプレイヤキャラクタPに対する仮想カメラCNの配置を模式的に示しており、図3(A)は、プレイヤキャラクタPの平面図であり、図3(B)は、プレイヤキャラクタPの側面図である。図3(A)及び(B)では、プレイヤキャラクタPを破線で示し、仮想カメラCNを実線で示す。なお、図3では、仮想空間Sの上下方向(鉛直方向)がY軸として設定され、プレイヤキャラクタPがZ軸方向を向いている。
(Camera placement in non-VR mode)
FIG. 3 schematically shows the placement of the virtual camera CN with respect to the player character P when the mode set by the mode setting means 53 is the non-VR mode. FIG. FIG. 3B is a side view of the player character P. 3A and 3B, the player character P is indicated by a broken line, and the virtual camera CN is indicated by a solid line. In FIG. 3, the vertical direction (vertical direction) of the virtual space S is set as the Y axis, and the player character P faces the Z axis direction.

図3に示すように、非VRモードでは、カメラ配置手段54は、プレイヤキャラクタPの前方に広がる仮想空間Sを撮影するように、プレイヤキャラクタPの所定の位置に1つの仮想のカメラ(以下、「非VR用カメラ」と呼ぶ。)CNを配置する。非VR用カメラCNは、プレイヤキャラクタPの頭部に追従するように仮想空間Sを移動したり、向きを変更したりする。例えば、非VR用カメラCNの所定の点(例えば非VR用カメラCNのレンズの中心に対応する点)Pcnは、仮想空間S内におけるプレイヤキャラクタPの頭部の移動に応じて変化する。   As shown in FIG. 3, in the non-VR mode, the camera placement unit 54 has one virtual camera (hereinafter, referred to as a “virtual camera”) at a predetermined position of the player character P so as to photograph the virtual space S spreading in front of the player character P. Called “non-VR camera.”) Place CN. The non-VR camera CN moves or changes the direction of the virtual space S so as to follow the head of the player character P. For example, a predetermined point (for example, a point corresponding to the center of the lens of the non-VR camera CN) Pcn of the non-VR camera CN changes according to the movement of the head of the player character P in the virtual space S.

非VR用カメラCNは、プレイヤキャラクタPの前方に広がる仮想空間Sを撮影する。非VR用カメラCNで撮影された画像は、非VRモード用の色調整処理により色要素を調整された後、例えばディスプレイ47の表示部に表示される。   The non-VR camera CN captures a virtual space S that extends in front of the player character P. The image captured by the non-VR camera CN is displayed on the display unit of the display 47, for example, after the color elements are adjusted by the color adjustment processing for the non-VR mode.

本実施形態では、非VR用カメラCNは、その所定の点Pcnが、図3(A)に示すように、プレイヤキャラクタPの左右方向中央、且つ前後方向中央に位置し、図3(B)に示すように、プレイヤキャラクタPの目の高さに位置するように配置される。但し、プレイヤキャラクタPに対する非VR用カメラCNの配置はこれに限定されず、例えば非VR用カメラCNの点Pcnが、プレイヤキャラクタPの頭部前側に位置してもよい。また、非VR用カメラCNは、プレイヤキャラクタPに対して必ずしも固定的でなくてもよく、例えばプレイヤキャラクタPに対してその上下方向に多少変位してもよいし、例えばプレイヤキャラクタPに対してその前後方向に多少変位してもよい。   In the present embodiment, the non-VR camera CN has its predetermined point Pcn located at the center in the left-right direction and the center in the front-rear direction of the player character P as shown in FIG. As shown, the player character P is arranged so as to be positioned at the eye level. However, the arrangement of the non-VR camera CN with respect to the player character P is not limited to this. For example, the point Pcn of the non-VR camera CN may be positioned on the front side of the player character P. Further, the non-VR camera CN is not necessarily fixed with respect to the player character P. For example, the non-VR camera CN may be slightly displaced in the vertical direction with respect to the player character P. It may be displaced slightly in the front-rear direction.

(VRモードのカメラ配置)
図4は、モード設定手段53により設定されたモードがVRモードである場合のプレイヤキャラクタPに対する3つの仮想カメラCL,CR,CMの配置を模式的に示しており、図4(A)は、プレイヤキャラクタPの平面図であり、図4(B)は、プレイヤキャラクタPの側面図である。図4(A)及び(B)では、プレイヤキャラクタPを破線で示し、仮想カメラCL,CR,CMを実線で示す。なお、図4では、仮想空間Sの上下方向(鉛直方向)がY軸として設定され、プレイヤキャラクタPがZ軸方向を向いている。
(VR mode camera layout)
FIG. 4 schematically shows the arrangement of the three virtual cameras CL, CR, and CM with respect to the player character P when the mode set by the mode setting means 53 is the VR mode. FIG. FIG. 4B is a plan view of the player character P, and FIG. 4B is a side view of the player character P. 4A and 4B, the player character P is indicated by a broken line, and the virtual cameras CL, CR, and CM are indicated by a solid line. In FIG. 4, the vertical direction (vertical direction) of the virtual space S is set as the Y axis, and the player character P faces the Z axis direction.

図4に示すように、VRモードでは、カメラ配置手段54は、プレイヤキャラクタPの所定の位置に仮想の左カメラCLと右カメラCRとを離して配置すると共に、左カメラCLと右カメラCRとの間に仮想の中間カメラCMを配置する。左カメラCL、右カメラCR及び中間カメラCMは、いずれもプレイヤキャラクタPの前方を撮影するように、プレイヤキャラクタPの頭部に配置される。   As shown in FIG. 4, in the VR mode, the camera placement unit 54 places the virtual left camera CL and the right camera CR apart from each other at a predetermined position of the player character P, and the left camera CL and the right camera CR. A virtual intermediate camera CM is placed between them. The left camera CL, the right camera CR, and the intermediate camera CM are all arranged on the head of the player character P so as to photograph the front of the player character P.

左カメラCL、右カメラCR及び中間カメラCMは、プレイヤキャラクタPの頭部に追従するように仮想空間Sを移動したり、向きを変更したりする。例えば、左カメラCLの所定の点(例えば左カメラCLのレンズの中心点)Pcl、右カメラCRの所定の点(例えば右カメラCRのレンズの中心点)Pcr、並びに、中間カメラCMの所定の点(例えば中間カメラCMのレンズの中心点)Pcmは、いずれも仮想空間S内におけるプレイヤキャラクタPの頭部の移動に応じて変化する。   The left camera CL, the right camera CR, and the intermediate camera CM move the virtual space S so as to follow the head of the player character P or change the direction thereof. For example, a predetermined point of the left camera CL (for example, the center point of the lens of the left camera CL) Pcl, a predetermined point of the right camera CR (for example, the center point of the lens of the right camera CR) Pcr, and a predetermined point of the intermediate camera CM The point (for example, the center point of the lens of the intermediate camera CM) Pcm changes according to the movement of the head of the player character P in the virtual space S.

左カメラCLと右カメラCRは、プレイヤキャラクタPの前方に広がる仮想空間Sを撮影して、互いに視差を有する一対の仮想二次元画像を生成するためのものである。左カメラCLと右カメラCRで撮影された画像は、後述の色調整処理により色要素を調整された後、HMD40の左目用の表示部41aと右目用の表示部41bの夫々に表示される。   The left camera CL and the right camera CR are for capturing a virtual space S extending in front of the player character P and generating a pair of virtual two-dimensional images having parallax. The images captured by the left camera CL and the right camera CR are displayed on the left eye display unit 41a and the right eye display unit 41b of the HMD 40 after color elements are adjusted by a color adjustment process described later.

左カメラCLと右カメラCRは、図4(A)及び(B)に示すように、それぞれプレイヤキャラクタPの左目と右目の位置に配置される。左カメラCLと右カメラCRの相対的な位置関係、即ち左カメラCLと右カメラCRの間隔や相対的な向きは、ゲーム中、一定に保たれている。言い換えれば、左カメラCLと右カメラCRは、相対的な位置および向きが固定された状態で、仮想空間S内を一体的に移動する。例えば、左カメラCLと右カメラCRの相対的な位置関係は、HMD40が装着されたユーザに応じて最適化されるよう設定されてもよい。   As shown in FIGS. 4A and 4B, the left camera CL and the right camera CR are arranged at the positions of the left eye and the right eye of the player character P, respectively. The relative positional relationship between the left camera CL and the right camera CR, that is, the interval and the relative direction between the left camera CL and the right camera CR are kept constant during the game. In other words, the left camera CL and the right camera CR move integrally in the virtual space S in a state where the relative position and orientation are fixed. For example, the relative positional relationship between the left camera CL and the right camera CR may be set so as to be optimized according to the user wearing the HMD 40.

中間カメラCMは、HMD40を通じてユーザが視ているゲーム画面と同様の画面を、ディスプレイ47に表示させるために利用される。即ち、HMD40を装着したユーザ以外の人も、ディスプレイ47を視てゲームを楽しむことが可能である。   The intermediate camera CM is used for causing the display 47 to display a screen similar to the game screen viewed by the user through the HMD 40. That is, a person other than the user wearing the HMD 40 can enjoy the game while viewing the display 47.

プレイヤキャラクタPに対する中間カメラCMの配置は、上述したプレイヤキャラクタPに対する非VR用カメラCNの配置と同じである。言い換えれば、非VRモードで仮想空間Sに配置される非VR用カメラCNは、VRモードでも中間カメラCMとして仮想空間Sに配置される。   The arrangement of the intermediate camera CM with respect to the player character P is the same as the arrangement of the non-VR camera CN with respect to the player character P described above. In other words, the non-VR camera CN arranged in the virtual space S in the non-VR mode is arranged in the virtual space S as the intermediate camera CM even in the VR mode.

(色調整処理)
図2に示したパラメータ取得手段55、パラメータ設定手段56、及び色調整手段57は、左カメラCL及び右カメラCRで撮影した各画像の色要素を調整するための色調整処理を実行する。
(Color adjustment processing)
The parameter acquisition unit 55, the parameter setting unit 56, and the color adjustment unit 57 shown in FIG. 2 execute color adjustment processing for adjusting the color elements of the images captured by the left camera CL and the right camera CR.

本実施形態では、パラメータ設定手段56が、左カメラCL、右カメラCR及び中間カメラCMのそれぞれに対して、撮影した画像の色要素を調整するためのパラメータを設定する。そして、色調整手段57が、各カメラに設定されたパラメータに基づき、当該カメラで撮影した画像の色要素を調整する。   In the present embodiment, the parameter setting unit 56 sets parameters for adjusting the color elements of the captured image for each of the left camera CL, the right camera CR, and the intermediate camera CM. Then, the color adjustment unit 57 adjusts the color elements of the image captured by the camera based on the parameters set for each camera.

ここで、「色要素を調整するためのパラメータ」(以下、「調整用パラメータ」という。)は、以下のパラメータ(a)〜(k)の少なくとも1つを含む。なお、以下に挙げたパラメータ(a)〜(k)は、互いに重複し得る。
(a)カメラの露出(カメラに入る光の総量)の度合いを調整するための露出パラメータ(露出値:Exposure Value)
(b)画像の明暗の差を調整するためのパラメータ(コントラスト値)
(c)画像の色調を調整するための色調パラメータ(カラーコレクト値)
(d)画像の明度を調整するためのパラメータ
(e)画像の彩度を調整するためのパラメータ
(f)画像の色相を調整するためのパラメータ
(g)画像の諧調を自然にするためのパラメータ
(h)特定の色が強く表現するなどカラーバランスを調整するためのパラメータ
(i)フィルタ処理など画像に対するエフェクト処理に用いるパラメータ
(j)画像に対するトーンマッピングに用いられるパラメータ
(k)フォグ濃度を調整するためのパラメータ
各カメラCL,CR,CMに対する調整用パラメータの設定方法について、図5を参照しながら説明する。なお、以下の説明では、左カメラCLに対して設定される調整用パラメータを「左カメラパラメータ」と呼び、右カメラCRに対して設定される調整用パラメータを「右カメラパラメータ」と呼び、中間カメラCMに対して設定される調整用パラメータを「中間カメラパラメータ」と呼ぶこととする。
Here, the “parameters for adjusting color elements” (hereinafter referred to as “adjustment parameters”) include at least one of the following parameters (a) to (k). Note that the parameters (a) to (k) listed below may overlap each other.
(A) Exposure parameter (exposure value) for adjusting the degree of camera exposure (total amount of light entering the camera)
(B) Parameters (contrast value) for adjusting the difference in brightness of the image
(C) Color tone parameter (color correct value) for adjusting the color tone of the image
(D) Parameters for adjusting the brightness of the image (e) Parameters for adjusting the saturation of the image (f) Parameters for adjusting the hue of the image (g) Parameters for making the gradation of the image natural (H) Parameters for adjusting color balance such as a specific color being strongly expressed (i) Parameters used for effect processing for an image such as filter processing (j) Parameters used for tone mapping for an image (k) Adjustment of fog density Parameters for Adjustment A method for setting adjustment parameters for the cameras CL, CR, and CM will be described with reference to FIG. In the following description, the adjustment parameter set for the left camera CL is called “left camera parameter”, and the adjustment parameter set for the right camera CR is called “right camera parameter”. The adjustment parameters set for the camera CM are referred to as “intermediate camera parameters”.

図5(A)及び(B)には、プレイヤキャラクタPがある建物オブジェクトAの外から中に入る様子が時系列順に示されている。本実施形態では、仮想空間Sが、複数のエリアに画定されており、当該複数のエリアのそれぞれに対して、調整用パラメータの値が対応して設定されている。互いに隣接する画定されたエリアは、互いに異なる値の調整用パラメータが設定されている。図5(A)及び(B)に示した例では、建物オブジェクトAの外のエリアR1と中のエリアR2で異なる値の調整用パラメータが設定されている。なお、図5(A)に、エリアR1,R2に設定された調整用パラメータの一例として、エリアR1に露出値「15」が設定されており、エリアR2に露出値「5」が設定されていることが示されている。   5A and 5B show a state in which the player character P enters the building object A from the outside in order of time series. In the present embodiment, the virtual space S is demarcated into a plurality of areas, and the value of the adjustment parameter is set corresponding to each of the plurality of areas. In the defined areas adjacent to each other, adjustment parameters having different values are set. In the example shown in FIGS. 5A and 5B, adjustment parameters having different values are set in the area R1 outside the building object A and the area R2 inside. In FIG. 5A, as an example of the adjustment parameters set in the areas R1 and R2, the exposure value “15” is set in the area R1, and the exposure value “5” is set in the area R2. It has been shown that

本実施形態では、上述のパラメータ取得手段55が、中間カメラCMが位置するエリアに設定された調整用パラメータを取得する。図5(A)では、中間カメラCMの所定の点Pcmの位置座標がエリアR1内にあるため、パラメータ取得手段55は、エリアR1に設定された露出値「15」を取得する。   In the present embodiment, the parameter acquisition unit 55 described above acquires the adjustment parameters set in the area where the intermediate camera CM is located. In FIG. 5A, since the position coordinate of the predetermined point Pcm of the intermediate camera CM is in the area R1, the parameter acquisition means 55 acquires the exposure value “15” set in the area R1.

次に、パラメータ設定手段56は、パラメータ取得手段55により取得した調整用パラメータを、中間カメラパラメータとして設定する。さらに、パラメータ設定手段56は、中間カメラパラメータを、左カメラパラメータと右カメラパラメータに複製する。図5(A)では、中間カメラパラメータ、左カメラパラメータ及び右カメラパラメータがいずれも、エリアR1に設定された調整用パラメータと同じ値(即ち、露出値「15」)に設定される。   Next, the parameter setting unit 56 sets the adjustment parameter acquired by the parameter acquisition unit 55 as an intermediate camera parameter. Further, the parameter setting means 56 duplicates the intermediate camera parameter into the left camera parameter and the right camera parameter. In FIG. 5A, the intermediate camera parameter, the left camera parameter, and the right camera parameter are all set to the same value as the adjustment parameter set in the area R1 (ie, the exposure value “15”).

即ち、図5(A)に示すように、左カメラCLがエリアA2に入っている場合でも、中間カメラCMがエリアA1にある限り、左カメラパラメータには、エリアA2の調整用パラメータではなく、エリアA1の調整用パラメータが設定される。   That is, as shown in FIG. 5A, even when the left camera CL is in the area A2, as long as the intermediate camera CM is in the area A1, the left camera parameter is not the adjustment parameter for the area A2, The adjustment parameters for area A1 are set.

そして、図5(B)に示したように、パラメータ取得手段55は、中間カメラCMがエリアR1から別のエリアR2に移動したときに、移動後のエリアR2に対応する調整用パラメータを取得する。その後、パラメータ設定手段56は、パラメータ取得手段55により取得した調整用パラメータを、中間カメラパラメータとして設定すると共に、中間カメラパラメータを、左カメラパラメータと右カメラパラメータに複製する。一度設定された中間カメラパラメータ、左カメラパラメータ及び右カメラパラメータは、中間カメラCMのエリア移動がない限り、維持される。   Then, as shown in FIG. 5B, when the intermediate camera CM moves from the area R1 to another area R2, the parameter acquisition means 55 acquires the adjustment parameters corresponding to the area R2 after the movement. . Thereafter, the parameter setting unit 56 sets the adjustment parameter acquired by the parameter acquisition unit 55 as an intermediate camera parameter, and copies the intermediate camera parameter to the left camera parameter and the right camera parameter. Once set, the intermediate camera parameter, the left camera parameter, and the right camera parameter are maintained unless the area of the intermediate camera CM is moved.

次に、VRモード用の色調整処理の流れについて、図6に示すフローチャートを参照しながら説明する。色調整処理は、HMD40に互いに視差を有する一対の画像を表示される間、毎フレーム又は数フレームおきに実行される。   Next, the flow of color adjustment processing for the VR mode will be described with reference to the flowchart shown in FIG. The color adjustment process is executed every frame or every several frames while a pair of images having parallax are displayed on the HMD 40.

色調整処理が開始されると、パラメータ取得手段55は、中間カメラCMが位置するエリアが変わったか否かを判定する(ステップS1)。   When the color adjustment process is started, the parameter acquisition unit 55 determines whether or not the area where the intermediate camera CM is located has changed (step S1).

中間カメラCMが位置するエリアが変わったと判定された場合(ステップS1:Yes)、パラメータ取得手段55は、中間カメラCMが位置するエリアに設定された調整用パラメータを取得し、パラメータ設定手段56は、取得された調整用パラメータを中間カメラパラメータとして設定する(ステップS2)。なお、ステップS1で、ゲーム開始時など中間カメラパラメータが未設定である場合にも、ステップS2に進む。   When it is determined that the area where the intermediate camera CM is located has changed (step S1: Yes), the parameter acquisition unit 55 acquires the adjustment parameter set in the area where the intermediate camera CM is located, and the parameter setting unit 56 The acquired adjustment parameters are set as intermediate camera parameters (step S2). Note that if the intermediate camera parameter is not set in step S1, such as at the start of the game, the process proceeds to step S2.

ステップS2で中間カメラパラメータを設定した後、パラメータ設定手段56は、中間カメラパラメータを、左カメラパラメータと右カメラパラメータに複製する(ステップS3)。   After setting the intermediate camera parameters in step S2, the parameter setting means 56 duplicates the intermediate camera parameters into the left camera parameter and the right camera parameter (step S3).

その後、左目用表示部41aに表示される画像を生成するために、色調整手段57が、左カメラパラメータに基づき、左カメラCLで撮影した画像の色要素を調整する(ステップS4)。そして、右目用表示部41bに表示される画像を生成するために、色調整手段57が、右カメラパラメータに基づき、右カメラCRで撮影した画像の色要素を調整し(ステップS5)、色調整処理を終了する。   Thereafter, in order to generate an image to be displayed on the left-eye display unit 41a, the color adjusting unit 57 adjusts the color elements of the image captured by the left camera CL based on the left camera parameter (step S4). Then, in order to generate an image to be displayed on the right-eye display unit 41b, the color adjustment unit 57 adjusts the color element of the image captured by the right camera CR based on the right camera parameter (step S5), and the color adjustment The process ends.

ステップS5の後に、ディスプレイ47の表示部に表示される画像を生成するために、色調整手段57が、中間カメラパラメータに基づき、中間カメラCMで撮影した画像の色要素を調整してもよい。   After step S5, in order to generate an image to be displayed on the display unit of the display 47, the color adjustment unit 57 may adjust the color elements of the image captured by the intermediate camera CM based on the intermediate camera parameters.

ステップS1で、中間カメラCMが位置するエリアが変わったと判定されなかった場合(ステップS1:No)、既に設定された中間カメラパラメータ、左カメラパラメータ及び右カメラパラメータを維持し、ステップS4に進む。   If it is not determined in step S1 that the area where the intermediate camera CM is located has changed (step S1: No), the already set intermediate camera parameter, left camera parameter, and right camera parameter are maintained, and the process proceeds to step S4.

なお、非VRモード用の色調整処理は、上述の中間カメラCMで撮影した画像に対して行う色調整処理と同様のものとなる。具体的には、パラメータ取得手段55が、非VR用カメラCNが位置するエリアに設定された調整用パラメータを取得し、当該取得した調整用パラメータに基づき、色調整手段57が、非VR用カメラCNで撮影した画像の色要素を調整する。   Note that the color adjustment processing for the non-VR mode is the same as the color adjustment processing performed on the image captured by the intermediate camera CM described above. Specifically, the parameter acquisition unit 55 acquires the adjustment parameter set in the area where the non-VR camera CN is located, and based on the acquired adjustment parameter, the color adjustment unit 57 performs the non-VR camera. Adjust the color elements of images shot with CN.

以上に示したように、本実施形態に係るゲームシステム1では、左カメラCL及び右カメラCRで撮影した各画像の色を調整するためのパラメータを、中間カメラCMの位置に応じて取得したパラメータに統一する。このため、明るさや色調が同じ画像が左目用表示部41a及び右目用表示部41bにそれぞれ表示されるため、ユーザに違和感や酔いが生じるのを抑制することができる。   As described above, in the game system 1 according to the present embodiment, parameters for adjusting the color of each image captured by the left camera CL and the right camera CR are parameters acquired according to the position of the intermediate camera CM. To unify. For this reason, images having the same brightness and color tone are displayed on the left-eye display unit 41a and the right-eye display unit 41b, respectively, so that the user can be prevented from feeling uncomfortable or sick.

本発明は上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形が可能である。   The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

例えば、上記実施形態で説明されたハードウェアの構成も一例にすぎず、互いに視差を有する一対の仮想二次元画像を表示するHMD40を備えた構成であればよい。当該構成を実現できれば、HMD40が有する加速度センサ42、ジャイロセンサ43及び光放出部44や光検出装置46のいずれかが、なくてもよい。また、ゲーム装置2にディスプレイ47が接続されていなくてもよい。   For example, the configuration of the hardware described in the above embodiment is merely an example, and any configuration including an HMD 40 that displays a pair of virtual two-dimensional images having parallax with each other may be used. If the configuration can be realized, any of the acceleration sensor 42, the gyro sensor 43, the light emitting unit 44, and the light detection device 46 included in the HMD 40 may be omitted. Further, the display 47 may not be connected to the game apparatus 2.

また、左カメラCL及び右カメラCRの配置方法は、上記実施形態で説明されたものに限定されない。例えば、上記実施形態では、左カメラCLと右カメラCRが、それぞれプレイヤキャラクタPの左目と右目の位置に配置されたが、左カメラCLと右カメラCRは、プレイヤキャラクタPの前後方向中央に位置してもよい。また、左カメラCLと右カメラCRは、プレイヤキャラクタPに対して必ずしも固定的でなくてもよく、例えばプレイヤキャラクタPに対してその上下方向に多少変位してもよいし、例えばプレイヤキャラクタPに対してその前後方向に多少変位してもよい。   Further, the arrangement method of the left camera CL and the right camera CR is not limited to that described in the above embodiment. For example, in the above embodiment, the left camera CL and the right camera CR are arranged at the positions of the left eye and the right eye of the player character P, respectively, but the left camera CL and the right camera CR are positioned at the center in the front-rear direction of the player character P. May be. Further, the left camera CL and the right camera CR are not necessarily fixed with respect to the player character P. For example, the left camera CL and the right camera CR may be slightly displaced in the vertical direction with respect to the player character P. On the other hand, it may be slightly displaced in the front-rear direction.

また、中間カメラCMの配置方法は、上記実施形態で説明されたものに限定されない。例えば、上記実施形態では、中間カメラCMと非VR用カメラCNとは、プレイヤキャラクタPに対して同じ位置に配置されたが、プレイヤキャラクタPに対して互いに異なる位置に配置されてもよい。左カメラCL及び右カメラCRに対する中間カメラCMの相対位置は、一定でなくてもよい。また、プレイヤキャラクタPの頭部への追従性が、左カメラCL及び右カメラCRと中間カメラCMとの間で異なってもよい。例えば、プレイヤキャラクタPが頭部を回転する際の加速度が、左カメラCL及び右カメラCRと中間カメラCMとの間で異なってもよい。   Further, the arrangement method of the intermediate camera CM is not limited to the one described in the above embodiment. For example, in the above embodiment, the intermediate camera CM and the non-VR camera CN are arranged at the same position with respect to the player character P, but may be arranged at different positions with respect to the player character P. The relative position of the intermediate camera CM with respect to the left camera CL and the right camera CR may not be constant. Further, the followability of the player character P to the head may be different between the left camera CL, the right camera CR, and the intermediate camera CM. For example, the acceleration when the player character P rotates the head may be different between the left camera CL, the right camera CR, and the intermediate camera CM.

また、上記実施形態では、非VRモードでは、カメラ配置手段54が、プレイヤキャラクタPの所定の位置に1つの非VR用カメラCNを配置したが、非VRモードでも、VRモードと同様、プレイヤキャラクタPに対し、3つのカメラCL,CR,CMを配置してもよい。この場合、非VR用カメラCNとして、例えば中間カメラCMを使用してもよい。   In the above embodiment, in the non-VR mode, the camera placement unit 54 places one non-VR camera CN at a predetermined position of the player character P. However, in the non-VR mode, the player character is the same as in the VR mode. Three cameras CL, CR, and CM may be arranged for P. In this case, for example, an intermediate camera CM may be used as the non-VR camera CN.

また、上記実施形態では、パラメータ設定手段56が、左カメラCL、右カメラCR及び中間カメラCMのそれぞれに対して、調整用パラメータを設定したが、このようにカメラごとに調整用パラメータを管理しなくてもよい。即ち、パラメータ取得手段55により取得した調整用パラメータを、左カメラCL、右カメラCR及び中間カメラCMに共有の調整用パラメータとして管理してもよい。   In the above embodiment, the parameter setting unit 56 sets the adjustment parameters for each of the left camera CL, the right camera CR, and the intermediate camera CM. In this way, the adjustment parameters are managed for each camera. It does not have to be. That is, the adjustment parameter acquired by the parameter acquisition unit 55 may be managed as a common adjustment parameter for the left camera CL, the right camera CR, and the intermediate camera CM.

また、図5(A)及び(B)では、屋外と屋内とで互いに異なる値の調整用パラメータが設定されたが、エリアの画定方法は特に限定されない。例えば、建物内の部屋とそれに隣接する別の部屋とで互いに異なる値の調整用パラメータが設定されてもよいし、あるオブジェクトから一定の範囲内の領域とその範囲外の領域とで互いに異なる値の調整用パラメータが設定されてもよい。また、各エリアに設定される調整用パラメータの値は、固定でなくてもよく、所定の条件が満たされることにより変化してもよいし、経時的に変化してもよい。   In FIGS. 5A and 5B, adjustment parameters having different values are set for outdoor and indoor, but the area delimiting method is not particularly limited. For example, adjustment parameters with different values may be set for a room in a building and another room adjacent to the room, or different values may be set for an area within a certain range and an area outside the range from a certain object. The adjustment parameters may be set. Further, the value of the adjustment parameter set in each area may not be fixed, but may change when a predetermined condition is satisfied, or may change over time.

40 :HMD
41a :左目用表示部
41b :右目用表示部
47 :ディスプレイ
51 :仮想空間生成手段
52 :キャラクタ制御手段
53 :モード設定手段
54 :カメラ配置手段
55 :パラメータ取得手段
56 :パラメータ設定手段
57 :色調整手段
CL :左カメラ
CR :右カメラ
CM :中間カメラ
CN :非VR用カメラ
P :プレイヤキャラクタ
S :仮想空間
40: HMD
41a: Left eye display
41b: Right eye display
47: Display
51: Virtual space generation means
52: Character control means
53: Mode setting means
54: Camera placement means
55: Parameter acquisition means
56: Parameter setting method
57: Color adjustment means
CL: Left camera
CR: Right camera
CM: Intermediate camera
CN: Non-VR camera
P: Player character
S: Virtual space

Claims (5)

左目用表示部及び右目用表示部を有するバーチャルリアリティ(以下、VR)用のヘッドマウントディスプレイを備えるコンピュータに実行させるゲームプログラムであって、
前記コンピュータを、
仮想空間を生成する仮想空間生成手段、
前記仮想空間内を移動するキャラクタを制御するキャラクタ制御手段、
前記キャラクタの所定の位置に仮想の左カメラと右カメラとを離して配置すると共に、前記左カメラと前記右カメラとの間に仮想の中間カメラを配置するカメラ配置手段、
前記中間カメラの位置情報に基づき、前記中間カメラで撮影した画像の色要素を調整するためのパラメータを取得するパラメータ取得手段、及び、
前記左目用表示部及び前記右目用表示部にそれぞれ表示される互いに視差を有するVR用の画像を生成するために、前記パラメータ取得手段により取得したパラメータに基づき、前記左カメラ及び前記右カメラで撮影した各画像の色要素を調整する色調整手段、として機能させる、ゲームプログラム。
A game program to be executed by a computer having a virtual reality (VR) head-mounted display having a left-eye display unit and a right-eye display unit,
The computer,
Virtual space generation means for generating a virtual space;
Character control means for controlling a character moving in the virtual space;
Camera placement means for placing a virtual left camera and a right camera apart at a predetermined position of the character, and placing a virtual intermediate camera between the left camera and the right camera;
Based on the position information of the intermediate camera, parameter acquisition means for acquiring parameters for adjusting color elements of an image captured by the intermediate camera, and
Photographed by the left camera and the right camera on the basis of the parameters acquired by the parameter acquisition means to generate VR images having parallax displayed on the left eye display unit and the right eye display unit, respectively. A game program that functions as a color adjustment unit that adjusts color elements of each image.
前記パラメータは、カメラの露出の度合いを調整するための露出パラメータ及び画像の色調を調整するための色調パラメータの少なくとも1つを含む、請求項1に記載のゲームプログラム。   The game program according to claim 1, wherein the parameters include at least one of an exposure parameter for adjusting a degree of exposure of a camera and a color parameter for adjusting a color tone of an image. 前記色調整手段は、非VR用の画像を生成するために、前記パラメータ取得手段により取得したパラメータに基づき、前記中間カメラで撮影した画像の色要素を調整する、請求項1又は2に記載のゲームプログラム。   The said color adjustment means adjusts the color component of the image image | photographed with the said intermediate camera based on the parameter acquired by the said parameter acquisition means, in order to produce | generate the image for non-VR. Game program. 前記仮想空間は、複数のエリアに画定され、前記複数のエリアのそれぞれに対して、前記パラメータの値が対応して設定されており、
前記パラメータ取得手段は、前記中間カメラが前記複数のエリアのうちの一つから別のエリアに移動したときに、移動後のエリアに対応するパラメータを取得する、請求項1〜3のいずれか1項に記載のゲームプログラム。
The virtual space is defined in a plurality of areas, and the value of the parameter is set corresponding to each of the plurality of areas,
The parameter acquisition unit acquires a parameter corresponding to the area after the movement when the intermediate camera moves from one of the plurality of areas to another area. The game program according to the item.
請求項1〜4のいずれか1項に記載のゲームプログラムを記憶したプログラム記憶部と、
前記プログラム記憶部に記憶されたプログラムを実行するコンピュータとを備えた、ゲームシステム。
A program storage unit storing the game program according to any one of claims 1 to 4,
A game system comprising: a computer that executes a program stored in the program storage unit.
JP2017139375A 2017-07-18 2017-07-18 Game program and game system Active JP6457593B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017139375A JP6457593B1 (en) 2017-07-18 2017-07-18 Game program and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017139375A JP6457593B1 (en) 2017-07-18 2017-07-18 Game program and game system

Publications (2)

Publication Number Publication Date
JP6457593B1 JP6457593B1 (en) 2019-01-23
JP2019021057A true JP2019021057A (en) 2019-02-07

Family

ID=65037059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017139375A Active JP6457593B1 (en) 2017-07-18 2017-07-18 Game program and game system

Country Status (1)

Country Link
JP (1) JP6457593B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07155464A (en) * 1993-12-07 1995-06-20 Sega Enterp Ltd Display method of radiating surface in game machine
JP2007140842A (en) * 2005-11-17 2007-06-07 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2009162747A (en) * 2007-12-10 2009-07-23 Fujifilm Corp Distance image processing device and method, distance image regenerating device and method, and program
JP2012015777A (en) * 2010-06-30 2012-01-19 Fujifilm Corp Image processing apparatus, method, and program for stereoscopic view display, and image display apparatus
JP2012141819A (en) * 2010-12-29 2012-07-26 Nintendo Co Ltd Image processing system, image processing program, image processing method and image processing device
JP2017102298A (en) * 2015-12-02 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント Display control device and display control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07155464A (en) * 1993-12-07 1995-06-20 Sega Enterp Ltd Display method of radiating surface in game machine
JP2007140842A (en) * 2005-11-17 2007-06-07 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2009162747A (en) * 2007-12-10 2009-07-23 Fujifilm Corp Distance image processing device and method, distance image regenerating device and method, and program
JP2012015777A (en) * 2010-06-30 2012-01-19 Fujifilm Corp Image processing apparatus, method, and program for stereoscopic view display, and image display apparatus
JP2012141819A (en) * 2010-12-29 2012-07-26 Nintendo Co Ltd Image processing system, image processing program, image processing method and image processing device
JP2017102298A (en) * 2015-12-02 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント Display control device and display control method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
""「バイオハザード7」体験版「ミッドナイトバージョン」に密着!!"", [ONLINE], JPN7018004117, 28 December 2016 (2016-12-28), ISSN: 0003934550 *

Also Published As

Publication number Publication date
JP6457593B1 (en) 2019-01-23

Similar Documents

Publication Publication Date Title
JP6847148B2 (en) Real-time lens aberration correction by eye tracking
US10463962B2 (en) Spectator view perspectives in VR environments
KR102197544B1 (en) Mixed reality system with spatialized audio
CN105377117B (en) The head-mounted display of optical prescription based on user
KR102331780B1 (en) Privacy-Sensitive Consumer Cameras Coupled to Augmented Reality Systems
JP6714625B2 (en) Computer system
JP2018524134A (en) Expanded field of view re-rendering for VR watching
WO2016014234A1 (en) Virtual reality headset with see-through mode
US20190005731A1 (en) Program executed on computer for providing virtual space, information processing apparatus, and method of providing virtual space
JP7382954B2 (en) VR sickness reduction system, head mounted display, VR sickness reduction method and program
JP2019087226A (en) Information processing device, information processing system, and method of outputting facial expression images
JP2017111515A (en) Information processor and warning presentation method
JP2019152899A (en) Simulation system and program
JP2019128721A (en) Program for reflecting user motion on avatar, information processing device for executing the same and method for distributing image containing avatar
JP2021512402A (en) Multi-viewing virtual reality user interface
JP6530453B2 (en) Game program and game system
JP6457593B1 (en) Game program and game system
TWI537770B (en) Interactive three - dimensional image display system
JP6916896B2 (en) Information processing device and image generation method
JP6603291B2 (en) Game program and game system
JP6921204B2 (en) Information processing device and image output method
JP2018190432A (en) Information processor and warning presentation method
JP6446072B2 (en) Game program and game system
JP2018129692A (en) Head mounted display device and simulation system
JP6499728B2 (en) Game program and game system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181220

R150 Certificate of patent or registration of utility model

Ref document number: 6457593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250