JP2017199237A - Virtual space display system, game system, virtual space display program and game program - Google Patents

Virtual space display system, game system, virtual space display program and game program Download PDF

Info

Publication number
JP2017199237A
JP2017199237A JP2016090343A JP2016090343A JP2017199237A JP 2017199237 A JP2017199237 A JP 2017199237A JP 2016090343 A JP2016090343 A JP 2016090343A JP 2016090343 A JP2016090343 A JP 2016090343A JP 2017199237 A JP2017199237 A JP 2017199237A
Authority
JP
Japan
Prior art keywords
virtual space
virtual
space
real
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016090343A
Other languages
Japanese (ja)
Other versions
JP6360851B2 (en
Inventor
実 中井
Minoru Nakai
実 中井
中島 健太郎
Kentaro Nakajima
健太郎 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2016090343A priority Critical patent/JP6360851B2/en
Publication of JP2017199237A publication Critical patent/JP2017199237A/en
Application granted granted Critical
Publication of JP6360851B2 publication Critical patent/JP6360851B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a virtual space display system and the like that enhance a feeling (immersive feeling) as if actually entering the virtual space generated in the game of a virtual reality.SOLUTION: A virtual space display system includes: a head mount display; a first detection unit; an image generation unit; and a real object and a second detection unit. The head mount display is mounted by a user in a predetermined actual space. The first detection unit detects a position and a posture of the head mount display in a real space. The image generation unit generates a virtual space corresponding to the real space, and generates an image of the virtual space that must be viewable via the head mount display by a user on the basis of the detection result of the first detection unit. The real object is arranged in the real space. The second detection unit detects the position and the posture of the real body in the real space. The image generation unit generates the image of a virtual object corresponding to the real body in the virtual space by the position and the posture based on the detection result of the second detection unit.SELECTED DRAWING: Figure 3

Description

この発明は、所定の実空間でユーザが装着するヘッドマウントディスプレイに仮想空間の画像を表示するための仮想空間表示システム、ゲームシステム、仮想空間表示プログラムおよびゲームプログラムに関する。   The present invention relates to a virtual space display system, a game system, a virtual space display program, and a game program for displaying an image of a virtual space on a head mounted display worn by a user in a predetermined real space.

近年、ヘッドマウントディスプレイを利用したバーチャルリアリティ(仮想現実)に関するゲーム(ゲームシステム)が実現されている(たとえば、非特許文献1参照)。このようなゲームでは、ユーザが装着したヘッドマウントディスプレイに仮想空間の画像が表示される。そして、ユーザが移動するなどの動きに応じて同ディスプレイに表示される仮想空間の画像も変化していく。これにより、ユーザは、仮想空間に実際に入り込んだかのような感覚(没入感)を得ることができる。   In recent years, games (game systems) related to virtual reality (virtual reality) using a head-mounted display have been realized (see Non-Patent Document 1, for example). In such a game, an image of the virtual space is displayed on a head mounted display worn by the user. And the image of the virtual space displayed on the same display changes according to the movement of the user moving. Thereby, the user can obtain a feeling (immersive feeling) as if the user actually entered the virtual space.

http://game.watch.impress.co.jp/docs/series/vrgaming/20150818_716564.htmlhttp://game.watch.impress.co.jp/docs/series/vrgaming/20150818_716564.html

上述したバーチャルリアリティに関するゲームでは、視覚的及び聴覚的には仮想空間に実際に入り込んだかのような感覚(没入感)が得られるものの、より没入感を向上させるには触覚などの他の感覚に関する情報をユーザに与える必要がある。   In the above-mentioned game related to virtual reality, a feeling (immersive feeling) as if it has actually entered the virtual space is obtained visually and auditorily, but in order to further improve the immersive feeling, it is related to other senses such as tactile sensation. Information needs to be given to the user.

この発明は、バーチャルリアリティのゲームなどで生成される仮想空間に実際に入り込んだかのような感覚(没入感)を向上させる仮想空間表示システム、ゲームシステム、仮想空間表示プログラムおよびゲームプログラムを提供することを目的とする。   The present invention provides a virtual space display system, a game system, a virtual space display program, and a game program that improve a feeling (immersion feeling) as if actually entering a virtual space generated by a virtual reality game or the like. With the goal.

本願発明の第1の側面によって提供される仮想空間表示システムは、ヘッドマウントディスプレイ、第一検知部、画像生成部、実物体および第二検知部を備える。ヘッドマウントディスプレイは、所定の実空間でユーザが装着する。第一検知部は、ヘッドマウントディスプレイの実空間内での位置および姿勢を検知する。画像生成部は、実空間に対応する仮想空間を生成し、第一検知部の検知結果に基づいて、ユーザがヘッドマウントディスプレイを介して見えるべき仮想空間の画像を生成する。実物体は、実空間に配置される。第二検知部は、実物体の実空間内での位置および姿勢を検知する。また、画像生成部は、実物体に対応する仮想オブジェクトの画像を、第二検知部の検知結果に基づく位置および姿勢で生成する。   The virtual space display system provided by the first aspect of the present invention includes a head mounted display, a first detection unit, an image generation unit, a real object, and a second detection unit. The user mounts the head mounted display in a predetermined real space. A 1st detection part detects the position and attitude | position in the real space of a head mounted display. An image generation part produces | generates the virtual space corresponding to real space, and produces | generates the image of the virtual space which a user should see via a head mounted display based on the detection result of a 1st detection part. Real objects are placed in real space. The second detection unit detects the position and orientation of the real object in real space. The image generation unit generates an image of the virtual object corresponding to the real object with a position and orientation based on the detection result of the second detection unit.

本願発明の第2の側面によって提供されるゲームシステムは、上記仮想空間表示システムを含み、仮想空間でのゲームを実行する。   A game system provided by the second aspect of the present invention includes the virtual space display system, and executes a game in a virtual space.

本願発明の第3の側面によって提供される仮想空間表示プログラムは、所定の実空間でユーザが装着するヘッドマウントディスプレイに仮想空間の画像を表示する仮想空間表示システムのコンピュータを、ヘッドマウントディスプレイの実空間内での位置および姿勢を検知する第一検知手段、実空間に対応する仮想空間を生成し、第一検知手段の検知結果に基づいて、ユーザがヘッドマウントディスプレイを介して見えるべき仮想空間の画像を生成する画像生成手段、実空間に配置された実物体の実空間内での位置および姿勢を検知する第二検知手段、として機能させる。また、画像生成手段は、実物体に対応する仮想オブジェクトの画像を、第二検知手段の検知結果に基づく位置および姿勢で生成する。
本願発明の第4の側面によって提供されるゲームプログラムは、上記仮想空間表示プログラムを含み、コンピュータに仮想空間でのゲームを実行させる。
A virtual space display program provided by the third aspect of the present invention provides a computer for a virtual space display system that displays a virtual space image on a head mounted display worn by a user in a predetermined real space. First detection means for detecting the position and orientation in the space, a virtual space corresponding to the real space is generated, and based on the detection result of the first detection means, the virtual space that the user should see through the head mounted display It functions as an image generation means for generating an image and a second detection means for detecting the position and orientation of the real object arranged in the real space in the real space. The image generation means generates an image of the virtual object corresponding to the real object with a position and orientation based on the detection result of the second detection means.
A game program provided by the fourth aspect of the present invention includes the virtual space display program, and causes a computer to execute a game in a virtual space.

この発明によれば、ヘッドマウントディスプレイを装着したユーザと同一の実空間に配置された実物体の仮想オブジェクトが、仮想空間に配置される。しかも、実空間において、ユーザと実物体との位置関係に対応する仮想空間の位置に配置される。すなわち、実空間の実物体と仮想空間の仮想オブジェクトとが連動した状態となる。したがって、ユーザが仮想オブジェクトに向かって移動して接触した場合、実空間においてもユーザは実物体に接触することとなるので、視覚および聴覚に加えて、仮想空間において仮想オブジェクトに触れる感覚(触覚)をユーザに与えることができる。これにより、仮想空間に実際に入り込んだかのような感覚(没入感)を向上させることができる。   According to this invention, the virtual object of the real object arranged in the same real space as the user wearing the head mounted display is arranged in the virtual space. Moreover, in the real space, it is arranged at a position in the virtual space corresponding to the positional relationship between the user and the real object. That is, the real object in the real space and the virtual object in the virtual space are linked. Therefore, when the user moves toward and touches the virtual object, the user touches the real object even in the real space. In addition to visual and auditory senses, a sense of touching the virtual object in the virtual space (tactile sense) Can be given to the user. Thereby, the feeling (immersion feeling) as if it actually entered the virtual space can be improved.

この発明が適用される実施形態のゲームシステムの構成を示す図である。It is a figure showing composition of a game system of an embodiment to which this invention is applied. 同ゲームシステムのゲーム端末装置、ヘッドマウントディスプレイおよび検知装置のブロック図である。It is a block diagram of a game terminal device, a head mounted display, and a detection device of the game system. ヘッドマウントディスプレイに表示されるゲーム画像の一例を示す図である。It is a figure which shows an example of the game image displayed on a head mounted display. ヘッドマウントディスプレイに表示されるゲーム画像の一例を示す図である。It is a figure which shows an example of the game image displayed on a head mounted display. ヘッドマウントディスプレイに表示されるゲーム画像の一例を示す図である。It is a figure which shows an example of the game image displayed on a head mounted display. ヘッドマウントディスプレイを装着したユーザと物体との実空間での位置関係を示す図である。It is a figure which shows the positional relationship in the real space of the user and object which mounted | wore the head mounted display. ヘッドマウントディスプレイを装着したユーザと物体との実空間での位置関係を示す図である。It is a figure which shows the positional relationship in the real space of the user and object which mounted | wore the head mounted display. ヘッドマウントディスプレイを装着したユーザと物体との実空間での位置関係を示す図である。It is a figure which shows the positional relationship in the real space of the user and object which mounted | wore the head mounted display. 同ゲームシステムの機能ブロック図である。It is a functional block diagram of the game system. 同ゲームシステムが実行する空間生成処理および画像生成処理を示すフローチャートである。It is a flowchart which shows the space generation process and image generation process which the game system performs.

図面を参照して、この発明の実施形態であるゲームシステム(仮想空間表示システム)について説明する。なお、この発明の構成は、実施形態に限定されるものではない。また、各フローチャートの処理手順は、実施形態に限定されず矛盾等が生じない範囲で順不同である。   A game system (virtual space display system) according to an embodiment of the present invention will be described with reference to the drawings. The configuration of the present invention is not limited to the embodiment. Further, the processing procedures of the respective flowcharts are not limited to the embodiment and are in no particular order as long as no contradiction occurs.

図1は、この実施形態のゲームシステム1の構成を示す図である。また、図2は、この実施形態のゲーム端末装置2およびヘッドマウントディスプレイ3,検知装置5の構成を示すブロック図である。   FIG. 1 is a diagram showing the configuration of the game system 1 of this embodiment. FIG. 2 is a block diagram showing the configuration of the game terminal device 2, the head mounted display 3, and the detection device 5 of this embodiment.

ゲームシステム1は、床面Fを有する部屋R内に設置されている。部屋Rは、四方が壁面Wに囲まれているが、本発明において壁面Wは必須ではない。ゲームシステム1は、ゲーム端末装置2、ヘッドマウントディスプレイ(HMD)3、レーザ照射装置4(4A,4B)および物体(実物体)6を備えている。ヘッドマウントディスプレイ3には、その位置および姿勢を検知(sense)する機能が備わっている。また、物体6には、その位置および姿勢を検知する検知装置5が設けられている。ゲームシステム1は、これらのデバイスを用いて所定のバーチャルリアリティ(VR)のゲーム(以下、VRゲームという)を実行する。   The game system 1 is installed in a room R having a floor surface F. The room R is surrounded by the wall surface W on all sides, but the wall surface W is not essential in the present invention. The game system 1 includes a game terminal device 2, a head mounted display (HMD) 3, a laser irradiation device 4 (4A, 4B), and an object (real object) 6. The head mounted display 3 has a function of sensing its position and posture. The object 6 is provided with a detection device 5 that detects the position and orientation of the object 6. The game system 1 executes a predetermined virtual reality (VR) game (hereinafter referred to as a VR game) using these devices.

ゲーム端末装置2は、ゲームプログラムが記憶された記憶部27(図2参照)からゲームプログラム70を読み出して実行し、部屋Rを含む実空間に対応する三次元の仮想空間を生成する。そして、生成した仮想空間の画像を含むゲーム画像をヘッドマウントディスプレイ3に表示する。ゲーム端末装置2としては、たとえば、専用ゲーム機やパーソナルコンピュータなどが適用可能である。   The game terminal device 2 reads and executes the game program 70 from the storage unit 27 (see FIG. 2) in which the game program is stored, and generates a three-dimensional virtual space corresponding to the real space including the room R. Then, the game image including the generated virtual space image is displayed on the head mounted display 3. As the game terminal device 2, for example, a dedicated game machine or a personal computer can be applied.

本実施形態のVRゲームでは、ユーザPが装着したヘッドマウントディスプレイ3の位置および姿勢が検知されることで、ユーザPの動き(移動、姿勢の変化など)に応じた仮想空間のゲーム画像がヘッドマウントディスプレイ3に表示される(図3参照)。すなわち、ユーザPの視線に応じた仮想空間のゲーム画像が表示され、ユーザPは、仮想空間に実際に入り込んだかのような感覚を得られる。   In the VR game of this embodiment, the position and orientation of the head mounted display 3 worn by the user P is detected, so that the game image in the virtual space corresponding to the movement (movement, change in posture, etc.) of the user P is recorded on the head. It is displayed on the mount display 3 (see FIG. 3). That is, the game image in the virtual space corresponding to the line of sight of the user P is displayed, and the user P can feel as if he / she actually entered the virtual space.

また、本実施形態のVRゲームでは、ユーザPと同一の実空間に配置された物体6に対応する仮想オブジェクトA(図3参照)も仮想空間に配置される。物体6もヘッドマウントディスプレイ3と同様に位置および姿勢が検知され、物体6に対応する仮想空間内の位置に仮想オブジェクトAが配置される。すなわち、仮想オブジェクトAは、位置および姿勢に関して物体6に連動する。たとえば、実空間において物体6が持ち上げられた場合には、仮想空間における仮想オブジェクトAも同様に持ち上げられた状態となる。   In the VR game of this embodiment, a virtual object A (see FIG. 3) corresponding to the object 6 arranged in the same real space as the user P is also arranged in the virtual space. Similarly to the head mounted display 3, the position and orientation of the object 6 are detected, and the virtual object A is arranged at a position in the virtual space corresponding to the object 6. That is, the virtual object A is linked to the object 6 with respect to the position and orientation. For example, when the object 6 is lifted in the real space, the virtual object A in the virtual space is also lifted in the same manner.

なお、物体6はユーザPによって持ち上げられたり、移動したりできる可動物に限定されず、固定物であってもよい。その場合、ユーザPによって力が加えられても物体6は移動しないため、仮想オブジェクトAも移動しない。   The object 6 is not limited to a movable object that can be lifted or moved by the user P, and may be a fixed object. In that case, even if force is applied by the user P, the object 6 does not move, so the virtual object A also does not move.

図2において、ヘッドマウントディスプレイ3は、ユーザPの両目を覆うアイマスク52を有し、アイマスクの内部に左目用ディスプレイ46および右目用のディスプレイ47が左右に配置されている。左目用ディスプレイ46および右目用のディスプレイ47のそれぞれがユーザPがアイマスク52を頭部(両目の前)に当接させてヘッドマウントディスプレイ3を装着すると、アイマスク52がユーザPの実空間に対する視界を塞ぐとともに、左目用ディスプレイ46および右目用のディスプレイ47がユーザPの左目および右目の前方に位置する。これにより、ユーザPは、左目用ディスプレイ46、右目用のディスプレイ47に表示される仮想空間のみを視認することとなる。   In FIG. 2, the head mounted display 3 has an eye mask 52 that covers both eyes of the user P, and a left-eye display 46 and a right-eye display 47 are arranged on the left and right in the eye mask. When the user P puts the eye mask 52 against the head (in front of both eyes) and the head mounted display 3 is mounted on each of the left eye display 46 and the right eye display 47, the eye mask 52 is attached to the real space of the user P. The field of view is blocked, and the left-eye display 46 and the right-eye display 47 are positioned in front of the left eye and right eye of the user P. As a result, the user P views only the virtual space displayed on the left-eye display 46 and the right-eye display 47.

レーザ照射装置(発光部)4A,4Bは、それぞれ交互に赤外線レーザで部屋Rをスキャンする。ヘッドマントディスプレイ3および検知装置5は、この赤外線レーザを受光する受光センサ50、65をそれぞれ複数ずつ備えており、どのスキャンタイミングにどの受光センサ50、65がレーザを受光したか等に基づいてヘッドマウントディスプレイ3および物体6の位置および姿勢が算出(検知)される。なお、レーザ照射装置4は、2つに限定されるものではなく、1以上であればよい。なお、この実施形態において、物体6は、箱型の立方体であり、ユーザPが持ち運べる程度の重量である。なお、物体6の形状等は、特にこれに限定されるものではない。また、図1において、検知装置5は、物体6の上面に設けられているが、検知装置5が設けられる位置は上面に限定されない。赤外線レーザを受光可能な位置であればよい。また、検知装置5は物体6の全体に設けられる必要はない。ゲームプログラム70が検知装置5と仮想オブジェクトAとの位置関係を記憶していればよい。   The laser irradiation devices (light emitting units) 4A and 4B scan the room R with an infrared laser alternately. The head cloak display 3 and the detection device 5 each include a plurality of light receiving sensors 50 and 65 for receiving the infrared laser, and the heads are based on which light receiving sensors 50 and 65 receive the laser at which scan timing. The positions and orientations of the mount display 3 and the object 6 are calculated (detected). In addition, the laser irradiation apparatus 4 is not limited to two, What is necessary is just one or more. In this embodiment, the object 6 is a box-shaped cube and has a weight that can be carried by the user P. The shape of the object 6 is not particularly limited to this. In FIG. 1, the detection device 5 is provided on the upper surface of the object 6, but the position where the detection device 5 is provided is not limited to the upper surface. Any position that can receive an infrared laser is acceptable. Further, the detection device 5 does not need to be provided on the entire object 6. The game program 70 should just memorize | store the positional relationship of the detection apparatus 5 and the virtual object A. FIG.

ゲーム機2は、バス29上に制御部20、操作部26、記憶部27および無線通信回路部28を有している。制御部20は、CPU21、ROM(フラッシュメモリ)22、RAM23、画像プロセッサ24および音声プロセッサ25を含んでいる。画像プロセッサ24には、ビデオRAM(VRAM)30が接続されている。   The game machine 2 has a control unit 20, an operation unit 26, a storage unit 27, and a wireless communication circuit unit 28 on a bus 29. The control unit 20 includes a CPU 21, a ROM (flash memory) 22, a RAM 23, an image processor 24 and an audio processor 25. A video RAM (VRAM) 30 is connected to the image processor 24.

無線通信回路部28は、Wi−Fi通信により、ヘッドマウントディスプレイ3および検知装置5と通信する。操作部26は、ユーザによるキーボードなどの操作を検出し、その操作信号をCPU21に入力する。記憶部27は、たとえばハードディスクであり、ゲームプログラム70が記憶されている。ゲームプログラム70は、プログラム本体のほか、VRゲームの進行に必要な仮想オブジェクトAの形状・画像などのゲームデータを含んでいる。   The wireless communication circuit unit 28 communicates with the head mounted display 3 and the detection device 5 by Wi-Fi communication. The operation unit 26 detects an operation of the keyboard or the like by the user and inputs the operation signal to the CPU 21. The storage unit 27 is a hard disk, for example, and stores a game program 70. The game program 70 includes game data such as the shape and image of the virtual object A necessary for the progress of the VR game, in addition to the program main body.

RAM23には、CPU21がゲームプログラム70を実行する際に使用されるワークエリアが設定される。ワークエリアには、VRゲームの進行に伴って発生する各種パラメータなどが含まれる。ROM22には、ゲームプログラム70を実行するための基本プログラムが記憶されている。   In the RAM 23, a work area used when the CPU 21 executes the game program 70 is set. The work area includes various parameters generated as the VR game progresses. The ROM 22 stores a basic program for executing the game program 70.

画像プロセッサ24は、ゲーム画像を生成可能なGPU(Graphics Processing Unit,グラフィックス・プロセッシング・ユニット)を備えている。画像プロセッサ24は、CPU21の指示に従って仮想空間を生成し、この仮想空間を仮想のカメラで撮影した画像をゲーム画像としてVRAM30上に描画する。本実施形態では、ヘッドマウントディスプレイ3の位置および姿勢の情報に基づいて推測されるユーザの視線に応じた左目用ゲーム画像および右目用ゲーム画像が生成される。そして、生成されたゲーム画像の情報はヘッドマウントディスプレイ3に送信される。   The image processor 24 includes a GPU (Graphics Processing Unit) that can generate a game image. The image processor 24 generates a virtual space in accordance with an instruction from the CPU 21, and draws an image obtained by photographing the virtual space with a virtual camera on the VRAM 30 as a game image. In the present embodiment, a left-eye game image and a right-eye game image corresponding to the user's line of sight estimated based on the position and orientation information of the head mounted display 3 are generated. The generated game image information is transmitted to the head mounted display 3.

音声プロセッサ25は、ゲーム音声を生成するDSP(Digital Signal Processor:デジタル・シグナル・プロセッサ)を有している。音声プロセッサ25は、生成したゲーム音声をヘッドマウントディスプレイ3に送信する。そして、ゲーム音声は、ヘッドマウントディスプレイ3に接続されたイヤホンから出力される。   The sound processor 25 has a DSP (Digital Signal Processor) that generates game sound. The sound processor 25 transmits the generated game sound to the head mounted display 3. The game sound is output from the earphone connected to the head mounted display 3.

ヘッドマウントディスプレイ3は、バス51上に制御部40、無線通信回路部44、VRAM45、アンプ48および(複数の)受光センサ50を有している。制御部40は、CPU41、ROM(フラッシュメモリ)42およびRAM43を含んでいる。VRAM45には、左目用ディスプレイ46および右目用ディスプレイ47が接続されている。アンプ48には、イヤホン端子49が接続されている。   The head mounted display 3 includes a control unit 40, a wireless communication circuit unit 44, a VRAM 45, an amplifier 48, and (a plurality of) light receiving sensors 50 on a bus 51. The control unit 40 includes a CPU 41, a ROM (flash memory) 42, and a RAM 43. A left-eye display 46 and a right-eye display 47 are connected to the VRAM 45. An earphone terminal 49 is connected to the amplifier 48.

無線通信回路部44は、Wi−Fi通信により、ゲーム端末装置2と通信する。VRAM45には、CPU41による指示によって、ゲーム端末装置2から受信したゲーム画像が描画される。描画されたゲーム画像は、左目用ディスプレイ46および右目用ディスプレイ47に出力される。アンプ48には、ゲーム端末装置2から受信したゲーム音声が出力される。アンプ48は、ゲーム音声の信号を増幅してイヤホン端子49に出力する。イヤホン端子49には、ユーザPが両耳に装着するステレオイヤホンが接続され、このイヤホンによりユーザPに対してゲーム音声が出力される。   The wireless communication circuit unit 44 communicates with the game terminal device 2 by Wi-Fi communication. A game image received from the game terminal device 2 is drawn on the VRAM 45 according to an instruction from the CPU 41. The drawn game image is output to the left-eye display 46 and the right-eye display 47. The game sound received from the game terminal device 2 is output to the amplifier 48. The amplifier 48 amplifies the game sound signal and outputs it to the earphone terminal 49. The earphone terminal 49 is connected to a stereo earphone worn by the user P on both ears, and game sound is output to the user P by the earphone.

受光センサ50は、ヘッドマウントディスプレイ3(アイマスク52)の周面に複数配置され、それぞれレーザ照射装置4から照射される赤外線レーザを検出し、検出したことを示す検出信号をCPU41に入力する。CPU41は、上述したようにレーザ照射装置4で赤外線レーザがスキャンされたタイミングおよびどの受光センサ50がレーザを受光したか等に基づいて、ヘッドマウントディスプレイ3の実空間における位置および姿勢を検知する。そして、検知した位置および姿勢に関する情報は、ゲーム端末装置2に送信される。   A plurality of light receiving sensors 50 are arranged on the peripheral surface of the head mounted display 3 (eye mask 52), detect each infrared laser irradiated from the laser irradiation device 4, and input a detection signal indicating the detection to the CPU 41. As described above, the CPU 41 detects the position and posture of the head mounted display 3 in the real space based on the timing when the infrared laser is scanned by the laser irradiation device 4 and which light receiving sensor 50 receives the laser. Then, information regarding the detected position and orientation is transmitted to the game terminal device 2.

検知装置5は、バス66上に制御部60、無線通信回路部64および受光センサ65を有している。制御部60は、CPU61、ROM(フラッシュメモリ)62およびRAM63を含んでいる。無線通信回路部64は、Wi−Fi通信により、ゲーム端末装置2と通信する。   The detection device 5 includes a control unit 60, a wireless communication circuit unit 64, and a light receiving sensor 65 on a bus 66. The control unit 60 includes a CPU 61, a ROM (flash memory) 62 and a RAM 63. The wireless communication circuit unit 64 communicates with the game terminal device 2 by Wi-Fi communication.

受光センサ65は、ヘッドマウントディスプレイ3の受光センサ50と同一のセンサであり、たとえば、物体6の上面に複数配置される。また、受光センサ65は、受光センサ50と同様に、レーザ照射装置4から照射される赤外線レーザを検出し、検出したことを示す検出信号をCPU61に入力する。CPU61は、レーザ照射装置4で赤外線レーザがスキャンされたタイミングおよびどの受光センサ60がレーザを受光したか等に基づいて、物体6の実空間における位置および姿勢を検知する。そして、検知した位置および姿勢に関する情報は、ゲーム端末装置2に送信される。   The light receiving sensor 65 is the same sensor as the light receiving sensor 50 of the head mounted display 3. For example, a plurality of light receiving sensors 65 are arranged on the upper surface of the object 6. Similarly to the light receiving sensor 50, the light receiving sensor 65 detects the infrared laser emitted from the laser irradiation device 4 and inputs a detection signal indicating the detection to the CPU 61. The CPU 61 detects the position and orientation of the object 6 in the real space based on the timing when the infrared laser is scanned by the laser irradiation device 4 and which light receiving sensor 60 receives the laser. Then, information regarding the detected position and orientation is transmitted to the game terminal device 2.

次に、ゲームシステム1およびゲームプログラム70の協働により実行されるゲームの一場面について説明する。まず、ヘッドマウントディスプレイ3を装着したユーザPと物体6とは実空間である部屋R内にあり、それぞれ図3(D)の位置関係である。ユーザPは物体6(仮想空間内の仮想オブジェクトA)の方向を向いているものとする。このときヘッドマウントディスプレイ3には図3(A)に示すゲーム画像が表示される。図3(A)−(C)のゲーム画像は、ヘッドマウントディスプレイ3において、左右の視差などによりユーザPに対して立体的に表示される。したがって、ゲーム画像は、それぞさ視差のある左目画像、右目画像が作成されるが、この図ではその一方のみを表示する。なお、図3(D)において、物体6は、部屋Rの床面Fに配置されているが、配置場所は床面Fに限定されない。たとえば、床面F上に設置された台の上や空中であってもよい。   Next, a scene of a game executed by the cooperation of the game system 1 and the game program 70 will be described. First, the user P wearing the head mounted display 3 and the object 6 are in a room R that is a real space, and each has the positional relationship shown in FIG. It is assumed that the user P is facing the direction of the object 6 (virtual object A in the virtual space). At this time, the game image shown in FIG. The game images shown in FIGS. 3A to 3C are three-dimensionally displayed to the user P by the left and right parallax on the head mounted display 3. Therefore, a left-eye image and a right-eye image having parallax are created as game images, but only one of them is displayed in this figure. In FIG. 3D, the object 6 is arranged on the floor surface F of the room R, but the arrangement location is not limited to the floor surface F. For example, it may be on a table installed on the floor F or in the air.

図3(D)の状態から、ユーザPが物体6に近づく方向に移動して図3(E)の位置関係になると、すなわち、仮想空間内でユーザPが仮想オブジェクトAに近づく方向に移動すると、ヘッドマウントディスプレイ3には図3(B)のようなゲーム画像が表示される。この距離で、ユーザPは物体6を両手で掴むことが可能である。ユーザPは、手を伸ばしてヘッドマウントディスプレイ3内に見えている仮想オブジェクトAに触れようとした場合、仮想オブジェクトAに対応する実空間の位置に物体6が存在するので、ユーザPの手は物体6に触れることとなる。したがって、ユーザPは、実際に仮想オブジェクトAに触れたかのような感覚を得られる。   From the state of FIG. 3D, when the user P moves in the direction approaching the object 6 and becomes the positional relationship of FIG. 3E, that is, when the user P moves in the direction approaching the virtual object A in the virtual space. The game image as shown in FIG. 3B is displayed on the head mounted display 3. At this distance, the user P can hold the object 6 with both hands. When the user P reaches out and touches the virtual object A that is visible in the head mounted display 3, the object 6 is present at the position in the real space corresponding to the virtual object A. The object 6 will be touched. Therefore, the user P can feel as if he / she actually touched the virtual object A.

ユーザPがヘッドマウントディスプレイ3内に見えている仮想オブジェクトAを持ち上げた場合、ユーザPは、図3(F)に示すように実空間の物体6を掴んで持ち上げることになる。したがって、ユーザPは、物体6の感触および重さを感じるので、実際に仮想オブジェクトAを持ち上げて移動させたかのような感覚を得られる。そしてこれにより物体6が移動するため、検知装置5の位置検知に基づいて仮想オブジェクトAも物体6の移動に対応して移動する。   When the user P lifts the virtual object A visible in the head mounted display 3, the user P grasps and lifts the real space object 6 as shown in FIG. Therefore, since the user P feels the feel and weight of the object 6, the user P can feel as if the virtual object A is actually lifted and moved. As a result, the object 6 moves, so that the virtual object A also moves corresponding to the movement of the object 6 based on the position detection of the detection device 5.

また、仮想オブジェクトA(物体6)が移動されたとき、図3(C)に示すように仮想オブジェクトAが配置されていた仮想空間の床面Fにヒント(メッセージ)HMが現れるようにしてもよい。あるいは、仮想オブジェクトAの裏面にヒントHMが現れるようにしてもよい。これにより、ユーザPはヒントHMを参考にしてVRゲームを進行させることができる。すなわち、物体6を回転させると仮想オブジェクトAも回転する。これにより、ユーザPに仮想オブジェクトAの裏面が見えるようになり、そこに記載されたヒントHMが見えるようになる。   Further, when the virtual object A (object 6) is moved, a hint (message) HM may appear on the floor F of the virtual space in which the virtual object A is arranged as shown in FIG. Good. Alternatively, the hint HM may appear on the back surface of the virtual object A. Accordingly, the user P can advance the VR game with reference to the hint HM. That is, when the object 6 is rotated, the virtual object A is also rotated. As a result, the back surface of the virtual object A can be seen by the user P, and the hint HM described therein can be seen.

図4は、ゲームシステム1の機能ブロック図である。この図では、ゲームシステム1のうち本発明に関連する機能のみ記載している。ゲームシステム1は、ゲーム端末装置2、ヘッドマウントディスプレイ3および検知装置5と、ゲーム端末装置2に記憶されているゲームプログラム70との協働によって実現される。   FIG. 4 is a functional block diagram of the game system 1. In this figure, only the functions related to the present invention in the game system 1 are shown. The game system 1 is realized by the cooperation of the game terminal device 2, the head mounted display 3 and the detection device 5, and the game program 70 stored in the game terminal device 2.

ゲームシステム1は、ヘッドマウントディスプレイ検知部(第一検知部)110、物体検知部(第二検知部)111、画像生成部112等として機能する。ヘッドマウントディスプレイ検知部110は、レーザ照射装置4およびヘッドマウントディスプレイ3等から構成され、ヘッドマウントディスプレイ3の位置および姿勢を検知する。物体検知部111は、レーザ照射装置4および検知装置5等から構成され、物体6の位置および姿勢を検知する。画像生成部112は、仮想空間生成部113および仮想オブジェクト生成部114を含み、VRゲームの進行に伴うゲーム画像の生成を制御する。   The game system 1 functions as a head mounted display detection unit (first detection unit) 110, an object detection unit (second detection unit) 111, an image generation unit 112, and the like. The head mounted display detection unit 110 includes the laser irradiation device 4, the head mounted display 3, and the like, and detects the position and orientation of the head mounted display 3. The object detection unit 111 includes a laser irradiation device 4, a detection device 5, and the like, and detects the position and orientation of the object 6. The image generation unit 112 includes a virtual space generation unit 113 and a virtual object generation unit 114, and controls generation of a game image as the VR game progresses.

仮想空間生成部113は、ゲーム端末装置2の制御部20等から構成され、仮想オブジェクトAが存在する仮想空間を生成する。仮想オブジェクト生成部114は、仮想オブジェクトAの外観(テクスチャ)を生成し、物体検知部111によって検知された物体6の位置に対応する仮想空間内の位置に配置する。画像生成部112は、ゲーム端末装置2の制御部20等から構成され、仮想空間生成部113によって生成され、(仮想オブジェクトAが配置されている)仮想空間のユーザPの視線に基づくゲーム画像(左目用ゲーム画像、右目用ゲーム画像)を生成する。   The virtual space generation unit 113 includes the control unit 20 of the game terminal device 2 and the like, and generates a virtual space where the virtual object A exists. The virtual object generation unit 114 generates the appearance (texture) of the virtual object A and arranges it at a position in the virtual space corresponding to the position of the object 6 detected by the object detection unit 111. The image generation unit 112 includes the control unit 20 of the game terminal device 2 and the like, is generated by the virtual space generation unit 113, and is a game image based on the line of sight of the user P in the virtual space (where the virtual object A is arranged) ( Left-eye game image, right-eye game image).

次に、上述の空間生成処理および画像生成処理をフローチャートを参照しつつ説明する。図5は、この実施形態の空間生成処理および画像生成処理を示すフローチャートである。
空間生成処理および画像生成処理は、たとえば、1フレーム単位(1/60秒)でゲーム進行制御部によって繰り返し実行される。
Next, the above-described space generation processing and image generation processing will be described with reference to flowcharts. FIG. 5 is a flowchart showing the space generation processing and image generation processing of this embodiment.
The space generation process and the image generation process are repeatedly executed by the game progress control unit in units of one frame (1/60 seconds), for example.

画像生成部112は、物体検知部111によって検知された物体6の位置および姿勢に関する情報に基づいて仮想オブジェクトAの位置および姿勢を更新する(ステップS10)。次に、ヘッドマウントディスプレイ検知部110によって検知されたヘッドマウントディスプレイ3の位置および姿勢に関する情報に基づいてユーザPの三次元仮想空間における位置および姿勢を更新し、更新されたユーザPの仮想空間における位置および姿勢に応じたユーザPの視線に基づいて左目用ゲーム画像および右目用ゲーム画像の生成を行う(ステップS20)。   The image generation unit 112 updates the position and orientation of the virtual object A based on information on the position and orientation of the object 6 detected by the object detection unit 111 (step S10). Next, the position and posture of the user P in the three-dimensional virtual space are updated based on the information on the position and posture of the head mounted display 3 detected by the head mounted display detection unit 110, and the updated user P in the virtual space is updated. A left-eye game image and a right-eye game image are generated based on the line of sight of the user P according to the position and orientation (step S20).

以上のように、ヘッドマウントディスプレイ3を装着したユーザPと同一の実空間に配置された物体6の仮想オブジェクトAが、ユーザPと物体6との位置関係に対応する仮想空間の位置に配置される。すなわち、実空間の物体6と仮想空間の仮想オブジェクトAとが連動した状態となる。したがって、視覚および聴覚に加えて、仮想空間において仮想オブジェクトAに触れる感覚(触覚)をユーザPに与えることができる。これにより、ユーザの仮想空間に実際に入り込んだかのような感覚(没入感)をさらに向上させることができる。   As described above, the virtual object A of the object 6 arranged in the same real space as the user P wearing the head mounted display 3 is arranged at the position of the virtual space corresponding to the positional relationship between the user P and the object 6. The That is, the real space object 6 and the virtual space virtual object A are linked. Therefore, in addition to vision and hearing, the user P can be given a feeling (tactile sense) of touching the virtual object A in the virtual space. Thereby, the feeling (immersion feeling) as if the user actually entered the virtual space can be further improved.

なお、上述の実施形態では、物体6の位置および姿勢を検知しているが、少なくとも物体の位置が検知されればよい。また、上述の実施形態では、1つの物体6について説明したが、実空間に2以上の物体を配置し、それぞれの物体に連動する仮想オブジェクトを仮想空間に配置するようにしてもよい。さらに、連動させる仮想オブジェクトは、仮想空間内の全てのオブジェクトでなくてもよく、一部のオブジェクトを仮想オブジェクトとして連動させてもよい。   In the above-described embodiment, the position and orientation of the object 6 are detected, but at least the position of the object may be detected. In the above-described embodiment, one object 6 has been described. However, two or more objects may be arranged in the real space, and virtual objects that are linked to the respective objects may be arranged in the virtual space. Furthermore, the virtual objects to be linked may not be all objects in the virtual space, and some objects may be linked as virtual objects.

また、上述の実施形態では、ヘッドマウントディスプレイ3および物体6に受光センサを配置して位置などを検知する構成であるが、位置などを検知できれば特にこれに限定されるものではない。たとえば、ヘッドマウントディスプレイ3および物体6に発光素子を設け、部屋R内の所定の位置に受光素子を設ける構成でもよい。   In the above-described embodiment, the light receiving sensor is disposed on the head mounted display 3 and the object 6 to detect the position and the like. However, the position is not particularly limited as long as the position and the like can be detected. For example, the head mounted display 3 and the object 6 may be provided with light emitting elements, and the light receiving elements may be provided at predetermined positions in the room R.

<その他の実施形態>
上述の実施形態では、物体6と仮想オブジェクトAとが常に連動しているが、特にこれに限定されるものではない。所定条件に基づいて一時的に連動を解除してもよい。所定条件としては、たとえば、物体6(仮想オブジェクトA)とユーザPとの距離が所定距離以上であることが含まれる。この場合、所定距離以上の場合は、たとえば、連動を解除して仮想オブジェクトAを仮想空間に配置しない(非表示とする)。あるいは、物体6の位置に連動させず、仮想オブジェクトAを仮想空間の空中に浮遊させるように制御するようにしてもよい。そして、ユーザPと物体6との距離が所定距離以下となった場合、浮遊中の仮想オブジェクトAを降下させて物体6の位置に対応する位置に移動させて、物体6との連動を開始させる。
<Other embodiments>
In the above-described embodiment, the object 6 and the virtual object A are always linked, but the present invention is not particularly limited to this. The interlock may be temporarily released based on a predetermined condition. The predetermined condition includes, for example, that the distance between the object 6 (virtual object A) and the user P is not less than a predetermined distance. In this case, when the distance is equal to or greater than the predetermined distance, for example, the interlock is released and the virtual object A is not placed in the virtual space (not displayed). Alternatively, the virtual object A may be controlled to float in the virtual space without being linked to the position of the object 6. When the distance between the user P and the object 6 is equal to or less than the predetermined distance, the floating virtual object A is lowered and moved to a position corresponding to the position of the object 6 to start the interlocking with the object 6. .

また、上述の実施形態では、形状の変化しない物体6を用いて説明したが、形状が変化する物体を用い、物体の形状変化に応じて仮想オブジェクトの形状も変化させてもよい。たとえば、伸縮機構を有する棒状の物体がある。   In the above-described embodiment, the object 6 whose shape does not change has been described, but an object whose shape changes may be used, and the shape of the virtual object may be changed according to the shape change of the object. For example, there is a rod-like object having a telescopic mechanism.

また、上述の実施形態では、物体6を用いて説明したが、いずれの物体であっても本発明を適用可能である。たとえば、押しボタン装置であってもよい。この場合、押しボタン装置を、図1に示すような部屋の壁面W(又は床面F)に配置するとともに、操作信号がゲーム端末装置2に送信されるように押しボタン装置とゲーム端末装置2とを有線などで接続しておく。そして、仮想空間の壁面W(又は床面F)においても、押しボタン装置の疑似ボタンを配置する。たとえば、ユーザPが、疑似押しボタンを押下することで、仮想空間においてボスモンスターがユーザPの目の前に現れる。また、この場合においても、ユーザPは、実際に疑似押しボタンを押下したかのような感覚を得られる。   In the above-described embodiment, the object 6 has been described. However, the present invention can be applied to any object. For example, a push button device may be used. In this case, the push button device and the game terminal device 2 are arranged on the wall surface W (or floor surface F) of the room as shown in FIG. 1 and the operation signal is transmitted to the game terminal device 2. And are connected by wire. And the pseudo button of the push button device is also arranged on the wall surface W (or floor surface F) of the virtual space. For example, when the user P presses the pseudo push button, a boss monster appears in front of the user P in the virtual space. Also in this case, the user P can feel as if he / she actually pressed the pseudo push button.

さらに、上述の実施形態では、ユーザPの姿は仮想空間には生成されていないが、仮想空間に登場させてもよい。この場合、たとえば、ユーザPの体の各部に赤外線レーザを受光する受光センサを設けてユーザPの位置および姿勢を検知すればよい。   Furthermore, in the above-described embodiment, the appearance of the user P is not generated in the virtual space, but may appear in the virtual space. In this case, for example, a light receiving sensor that receives an infrared laser may be provided in each part of the user P's body to detect the position and posture of the user P.

物体6にバイブレーション機能があってもよい。たとえば、仮想空間で爆発等が起こったときに振動するなどして、ゲームの進行に合わせた演出に使用すればよい。また、物体6に駆動部を設けて自走できるようにしてもよい。この場合、自由に移動する物体6の位置を検出して仮想空間内で仮想オブジェクトAを追従させてもよく、物体6の移動を制御する機能を設け、仮想空間内でのゲームの進行に合わせて物体6を移動させてもよい。また、物体6はユーザPが腰掛ける椅子のようなものであってもよい。   The object 6 may have a vibration function. For example, it may be used for an effect in accordance with the progress of the game by vibrating when an explosion or the like occurs in the virtual space. In addition, the object 6 may be provided with a drive unit so that it can run on its own. In this case, the position of the freely moving object 6 may be detected to cause the virtual object A to follow in the virtual space. Then, the object 6 may be moved. The object 6 may be a chair on which the user P sits.

本発明は、バーチャルリアリティのゲームなどの仮想空間表示システムにおいて仮想空間に実際に入り込んだかのような感覚(没入感)を向上させるのに有用である。   INDUSTRIAL APPLICABILITY The present invention is useful for improving a feeling (immersion feeling) as if the user actually entered the virtual space in a virtual space display system such as a virtual reality game.

1 ゲームシステム
2 ゲーム端末装置
3 ヘッドマウントディスプレイ
4(4A,4B) レーザ照射装置
5 検知装置
43 記憶部
70 ゲームプログラム
110 ヘッドマウントディスプレイ検知部
111 物体検知部
112 画像生成部
113 仮想空間生成部
114 仮想オブジェクト生成部
A 仮想オブジェクト
R 部屋
F 床面
W 壁面
DESCRIPTION OF SYMBOLS 1 Game system 2 Game terminal device 3 Head mounted display 4 (4A, 4B) Laser irradiation apparatus 5 Detection apparatus 43 Memory | storage part 70 Game program 110 Head mounted display detection part 111 Object detection part 112 Image generation part 113 Virtual space generation part 114 Virtual Object generator A Virtual object R Room F Floor W Wall

Claims (7)

所定の実空間でユーザが装着するヘッドマウントディスプレイと、
前記ヘッドマウントディスプレイの前記実空間内での位置および姿勢を検知する第一検知部と、
前記実空間に対応する仮想空間を生成し、前記第一検知部の検知結果に基づいて、前記ユーザが前記ヘッドマウントディスプレイを介して見える前記仮想空間の画像を生成する画像生成部と、
を備えた仮想空間表示システムであって、
前記実空間に配置された実物体と、
該実物体の前記実空間内での位置および姿勢を検知する第二検知部と、
をさらに備え、
前記画像生成部は、前記実物体に対応する仮想オブジェクトの画像を、前記第二検知部の検知結果に基づく位置および姿勢で前記仮想空間内に生成する仮想空間表示システム。
A head mounted display worn by the user in a predetermined real space;
A first detector for detecting the position and orientation of the head-mounted display in the real space;
An image generation unit that generates a virtual space corresponding to the real space, and generates an image of the virtual space that the user sees through the head mounted display based on a detection result of the first detection unit;
A virtual space display system comprising:
A real object disposed in the real space;
A second detector for detecting the position and orientation of the real object in the real space;
Further comprising
The virtual space display system, wherein the image generation unit generates an image of a virtual object corresponding to the real object in the virtual space with a position and orientation based on a detection result of the second detection unit.
前記実物体は、前記実空間内で移動可能に配置されており、
前記画像生成部は、該移動による前記第二検知部の検知結果の変化に応じて前記仮想物体の前記仮想空間内での位置および姿勢を変化させる
請求項1に記載の仮想空間表示システム。
The real object is arranged to be movable in the real space,
The virtual space display system according to claim 1, wherein the image generation unit changes the position and orientation of the virtual object in the virtual space according to a change in a detection result of the second detection unit due to the movement.
前記仮想空間は、前記実空間の床面に対応する仮想の床面を有し、
前記実物体は、前記床面、または、前記床面に設けられた台上に配置されている
請求項1または請求項2に記載の仮想空間表示システム。
The virtual space has a virtual floor corresponding to the floor of the real space,
The virtual space display system according to claim 1, wherein the real object is arranged on the floor surface or a stand provided on the floor surface.
前記仮想物体の画像は、前記実物体と略同形状に生成される請求項1乃至請求項3のいずれかに記載の仮想空間表示システム。   The virtual space display system according to claim 1, wherein the image of the virtual object is generated in substantially the same shape as the real object. 請求項1乃至請求項4のいずれかに記載の仮想空間表示システムを含み、前記仮想空間でのゲームを実行するゲームシステム。   A game system that includes the virtual space display system according to claim 1 and that executes a game in the virtual space. 所定の実空間でユーザが装着するヘッドマウントディスプレイに仮想空間の画像を表示する仮想空間表示システムのコンピュータを、
前記ヘッドマウントディスプレイの前記実空間内での位置および姿勢を検知する第一検知手段、
前記実空間に対応する仮想空間を生成し、前記第一検知手段の検知結果に基づいて、前記ユーザが前記ヘッドマウントディスプレイを介して見えるべき前記仮想空間の画像を生成する画像生成手段、
前記実空間に配置された実物体の該実空間内での位置および姿勢を検知する第二検知手段、
として機能させ、
前記画像生成手段は、前記実物体に対応する仮想オブジェクトの画像を、前記第二検知手段の検知結果に基づく位置および姿勢で生成する仮想空間表示プログラム。
A virtual space display system computer that displays a virtual space image on a head mounted display worn by a user in a predetermined real space,
First detection means for detecting the position and orientation of the head mounted display in the real space;
Image generating means for generating a virtual space corresponding to the real space, and generating an image of the virtual space that the user should be able to see through the head mounted display based on a detection result of the first detecting means;
Second detection means for detecting the position and orientation of the real object arranged in the real space in the real space;
Function as
The image generation unit is a virtual space display program that generates an image of a virtual object corresponding to the real object with a position and orientation based on a detection result of the second detection unit.
請求項6に記載の仮想空間表示プログラムを含み、コンピュータに前記仮想空間でのゲームを実行させるゲームプログラム。   A game program comprising the virtual space display program according to claim 6 and causing a computer to execute a game in the virtual space.
JP2016090343A 2016-04-28 2016-04-28 Virtual space display system, game system, virtual space display program, and game program Active JP6360851B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016090343A JP6360851B2 (en) 2016-04-28 2016-04-28 Virtual space display system, game system, virtual space display program, and game program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016090343A JP6360851B2 (en) 2016-04-28 2016-04-28 Virtual space display system, game system, virtual space display program, and game program

Publications (2)

Publication Number Publication Date
JP2017199237A true JP2017199237A (en) 2017-11-02
JP6360851B2 JP6360851B2 (en) 2018-07-18

Family

ID=60237903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016090343A Active JP6360851B2 (en) 2016-04-28 2016-04-28 Virtual space display system, game system, virtual space display program, and game program

Country Status (1)

Country Link
JP (1) JP6360851B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101870922B1 (en) 2017-04-18 2018-06-25 주식회사 미디어썸 Method and system for providing two-way broadcast contents
WO2021020068A1 (en) * 2019-07-26 2021-02-04 ソニー株式会社 Information processing device, information processing method, and program
JP6933849B1 (en) * 2020-09-03 2021-09-08 株式会社Abal Experience-based interface system and motion experience system
JPWO2021240601A1 (en) * 2020-05-25 2021-12-02

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014191718A (en) * 2013-03-28 2014-10-06 Sony Corp Display control device, display control method, and recording medium
JP2015125641A (en) * 2013-12-26 2015-07-06 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014191718A (en) * 2013-03-28 2014-10-06 Sony Corp Display control device, display control method, and recording medium
JP2015125641A (en) * 2013-12-26 2015-07-06 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101870922B1 (en) 2017-04-18 2018-06-25 주식회사 미디어썸 Method and system for providing two-way broadcast contents
WO2021020068A1 (en) * 2019-07-26 2021-02-04 ソニー株式会社 Information processing device, information processing method, and program
JPWO2021240601A1 (en) * 2020-05-25 2021-12-02
WO2021240601A1 (en) * 2020-05-25 2021-12-02 株式会社Abal Virtual space body sensation system
JP6933849B1 (en) * 2020-09-03 2021-09-08 株式会社Abal Experience-based interface system and motion experience system
WO2022049707A1 (en) * 2020-09-03 2022-03-10 株式会社Abal Somatosensory interface system, and action somatosensation system

Also Published As

Publication number Publication date
JP6360851B2 (en) 2018-07-18

Similar Documents

Publication Publication Date Title
JP5689707B2 (en) Display control program, display control device, display control system, and display control method
JP6017664B1 (en) Information processing method and information processing program
US20150352437A1 (en) Display control method for head mounted display (hmd) and image generation device
WO2015111283A1 (en) Image display device and image display method
JP6360851B2 (en) Virtual space display system, game system, virtual space display program, and game program
JP2016194744A (en) Information processing apparatus and information processing method, and computer program
US11865448B2 (en) Information processing apparatus and user guide presentation method
JP5757790B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP2012174237A (en) Display control program, display control device, display control system and display control method
JP2019175323A (en) Simulation system and program
JP2015084002A (en) Mirror display system and image display method thereof
JP5876983B2 (en) Display control program, display control device, display control method, and display control system
JP7085578B2 (en) Information processing device, user guide presentation method, and head-mounted display
US10831443B2 (en) Content discovery
JP2016001476A (en) Display control program, display control device, display control system and display control method
JP2012106005A (en) Image display device, game program, and game control method
GB2517008A (en) Head-mountable apparatus and systems
JP7104539B2 (en) Simulation system and program
JP6535699B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
WO2023162668A1 (en) Information processing device and floor height adjustment method
JP5798334B2 (en) Display control program, display control apparatus, display control system, and display control method
JP2019219702A (en) Method for controlling virtual camera in virtual space
JP2017199238A (en) Virtual space display system
JP5934768B2 (en) Game device
JP2019091510A (en) Information processing method, information processing program, and information processing device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180625

R150 Certificate of patent or registration of utility model

Ref document number: 6360851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250