JP2017199238A - Virtual space display system - Google Patents
Virtual space display system Download PDFInfo
- Publication number
- JP2017199238A JP2017199238A JP2016090344A JP2016090344A JP2017199238A JP 2017199238 A JP2017199238 A JP 2017199238A JP 2016090344 A JP2016090344 A JP 2016090344A JP 2016090344 A JP2016090344 A JP 2016090344A JP 2017199238 A JP2017199238 A JP 2017199238A
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- virtual
- space
- user
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 238000005192 partition Methods 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
この発明は、ユーザが装着するヘッドマウントディスプレイに仮想空間の画像を表示するための仮想空間表示システムに関する。 The present invention relates to a virtual space display system for displaying a virtual space image on a head mounted display worn by a user.
近年、ヘッドマウントディスプレイを利用したバーチャルリアリティ(仮想現実)に関するゲーム(ゲームシステム)が実現されている(たとえば、非特許文献1参照)。このようなゲームでは、ユーザが装着したヘッドマウントディスプレイに仮想空間の画像が表示される。そして、ユーザが移動するなどの動きに応じて同ディスプレイに表示される仮想空間の画像も変化していく。これにより、ユーザは、仮想空間に実際に入り込んだかのような感覚(没入感)を得ることができる。 In recent years, games (game systems) related to virtual reality (virtual reality) using a head-mounted display have been realized (see Non-Patent Document 1, for example). In such a game, an image of the virtual space is displayed on a head mounted display worn by the user. And the image of the virtual space displayed on the same display changes according to the movement of the user moving. Thereby, the user can obtain a feeling (immersive feeling) as if the user actually entered the virtual space.
一方、いわゆるテーマパークなどの遊戯施設に設置されているアミューズメント・アトラクションには、大規模な設備を用い、顧客に対して日常と異なる擬似体験をさせるものがある。この種のアトラクションは顧客の人気が高いが、大規模な設備を設置するために費用や期間が掛かるという問題点がある。 On the other hand, there are amusement attractions installed in amusement facilities such as so-called theme parks, which use large-scale facilities and give customers a simulated experience different from daily life. This type of attraction is very popular with customers, but there is a problem that it takes cost and time to install large-scale facilities.
この発明は、顧客(ユーザ)にバーチャルリアリティの仮想空間を表示し、且つその中に仮想オブジェクトを登場させることにより、仮想空間に実際に入り込んだかのような感覚(没入感)を持たせる仮想空間表示システムを提供することを目的とする。 The present invention displays a virtual space of virtual reality to a customer (user) and makes a virtual object appear in the virtual space, thereby giving a sense (immersive feeling) as if actually entering the virtual space. An object is to provide a display system.
本願発明の第1の仮想空間表示システムは、所定の実空間でユーザが装着するヘッドマウントディスプレイと、ヘッドマウントディスプレイの実空間内での位置および/または姿勢を検知する検知部と、実空間に対応する仮想空間を生成し、検知部の検知結果に基づいて、ユーザがヘッドマウントディスプレイを介して見える仮想空間の画像を生成する画像生成部と、を備え、画像生成部は、検知部の検知内容に応じて、仮想オブジェクトを仮想空間内に生成する仮想オブジェクト生成部を含んでいる。 A first virtual space display system of the present invention includes a head mounted display worn by a user in a predetermined real space, a detection unit for detecting the position and / or posture of the head mounted display in the real space, and a real space. An image generation unit that generates a corresponding virtual space and generates an image of the virtual space that the user can see through the head-mounted display based on the detection result of the detection unit, and the image generation unit detects the detection unit A virtual object generation unit that generates a virtual object in the virtual space according to the contents is included.
画像生成部は、実空間内のユーザの位置に対応する仮想空間内の位置の近傍に仮想オブジェクトを生成してもよい。 The image generation unit may generate a virtual object in the vicinity of the position in the virtual space corresponding to the position of the user in the real space.
画像生成部は、仮想空間を仕切る仕切りを表示して、この仕切りで区切られた仮想空間のユーザがいる側である第1仮想空間と、仕切りで区切られた仮想空間のユーザと反対側である第2仮想空間に分割し、仮想オブジェクトを第1仮想空間に生成して第2仮想空間へ移動させる(去らせる)ようにしてもよい。 The image generation unit displays a partition that partitions the virtual space, and is on the side opposite to the first virtual space on the side where the user of the virtual space partitioned by the partition is located and the user of the virtual space partitioned by the partition The virtual object may be divided into the second virtual space, and the virtual object may be generated in the first virtual space and moved (leaved) to the second virtual space.
本願発明の第2の仮想空間表示システムは、所定の実空間でユーザが装着するヘッドマウントディスプレイと、ヘッドマウントディスプレイの実空間内での位置および/または姿勢を検知する検知部と、実空間に対応する仮想空間を生成し、検知部の検知結果に基づいて、ユーザがヘッドマウントディスプレイを介して見える仮想空間の画像を生成する画像生成部と、操作部と、を備える。画像生成部は、操作部の操作に応じて仮想オブジェクトを仮想空間内に生成する。 A second virtual space display system according to the present invention includes a head mounted display worn by a user in a predetermined real space, a detection unit for detecting the position and / or posture of the head mounted display in the real space, and a real space. An image generation unit that generates a corresponding virtual space and generates an image of the virtual space that the user can see through the head mounted display based on a detection result of the detection unit, and an operation unit. The image generation unit generates a virtual object in the virtual space according to the operation of the operation unit.
操作部が制御用表示部およびその前面に設けられたタッチパネルを含み、制御用表示部に仮想空間およびユーザの位置を示す制御用画像を表示してもよい。 The operation unit may include a control display unit and a touch panel provided in front of the control display unit, and a control image indicating the virtual space and the position of the user may be displayed on the control display unit.
上記発明において、実空間に実物体をさらに設置し、仮想オブジェクト生成部は、実空間における実物体の位置に対応する仮想空間内の位置に仮想オブジェクトを生成するものであってもよい。 In the above invention, a real object may be further installed in the real space, and the virtual object generation unit may generate the virtual object at a position in the virtual space corresponding to the position of the real object in the real space.
上記発明において、仮想オブジェクト生成部は、仮想オブジェクトを仮想空間内で移動させる手段を含み、仮想オブジェクトの移動に追従して、実物体を前記実空間内で移動させる移動機構をさらに備えてもよい。 In the above invention, the virtual object generation unit may further include a moving mechanism that includes means for moving the virtual object in the virtual space, and moves the real object in the real space following the movement of the virtual object. .
この発明によれば、ヘッドマウントディスプレイを装着したユーザに対して仮想オブジェクトを生成することができるため、仮想空間に実際に入り込み、そのなかで出来事が発生しているような感覚(没入感)をユーザに持たせることができる。 According to the present invention, a virtual object can be generated for a user wearing a head-mounted display, so that the user can actually enter the virtual space and feel that an event has occurred (immersive feeling). Can be given to the user.
図面を参照して、この発明の実施形態である仮想空間表示システムについて説明する。なお、この発明の構成は、実施形態に限定されるものではない。また、各フローチャートの処理手順は、実施形態に限定されず矛盾等が生じない範囲で順不同である。 A virtual space display system according to an embodiment of the present invention will be described with reference to the drawings. The configuration of the present invention is not limited to the embodiment. Further, the processing procedures of the respective flowcharts are not limited to the embodiment and are in no particular order as long as no contradiction occurs.
図1(A)は、この実施形態の仮想空間表示システム1の構成を示す図、図1(B)は、ユーザPによるヘッドマウントディスプレイ(HMD)3の装着形態を示す図である。この実施形態では、仮想空間表示システム1を仮想空間VSを用いたアミューズメント・アトラクションに適用した例を示している。この実施形態のアトラクションは、お化けを仮想オブジェクトVOとして形成することで顧客であるユーザPを驚かせるお化け屋敷である。 FIG. 1A is a diagram illustrating a configuration of the virtual space display system 1 of this embodiment, and FIG. 1B is a diagram illustrating a mounting form of a head mounted display (HMD) 3 by a user P. In this embodiment, an example in which the virtual space display system 1 is applied to an amusement / attraction using a virtual space VS is shown. The attraction of this embodiment is a haunted house that surprises the user P who is a customer by forming a ghost as a virtual object VO.
仮想空間表示システム1は、仮想空間制御装置2、ヘッドマウントディスプレイ3、レーザ照射装置4(4A,4B)、物体(実物体)5および物体駆動装置6を備えている。ヘッドマウントディスプレイ3には、その位置および姿勢を検知(sense)する機能が備えられている。
The virtual space display system 1 includes a virtual
レーザ照射装置4(4A,4B)は、通路Rの図中左側の入口RI近傍、および、図中右側の出口RO近傍に設置されている。これらレーザ照射装置4(4A,4B)の照射範囲が、この仮想空間表示システム1による表示制御可能範囲になる。このアトラクションの顧客であるユーザPは、入口RIから通路Rに入り、出口ROから出てゆく。ユーザPが通路Rにいる間の所定のタイミングに仮想オブジェクト(お化け)VOが仮想空間内VSに形成される。 The laser irradiation device 4 (4A, 4B) is installed in the vicinity of the inlet RI on the left side of the passage R in the drawing and in the vicinity of the outlet RO on the right side of the drawing. The irradiation range of these laser irradiation devices 4 (4A, 4B) is a display controllable range by the virtual space display system 1. The user P who is a customer of this attraction enters the passage R from the entrance RI and exits from the exit RO. A virtual object (ghost) VO is formed in the virtual space VS at a predetermined timing while the user P is in the passage R.
アトラクションは、図示している通路Rの前後に、さらに同様または類似の構成の他の通路が連続していてもよい。また、通路Rの側方(図中上下)に壁面Wが設けられているが本発明において壁面Wは必須ではない。すなわち、ユーザPに表示する仮想空間VSは、ユーザPの通行可能範囲を除いて、実際の通路Rの形状から自由である。 In the attraction, other passages having a similar or similar configuration may be continuous before and after the passage R shown in the drawing. Moreover, although the wall surface W is provided in the side (upper and lower in the figure) of the channel | path R, the wall surface W is not essential in this invention. That is, the virtual space VS displayed to the user P is free from the actual shape of the passage R except for the user P's passable range.
通路Rには物体駆動装置6によって移動可能な実物体5が設けられている。実物体5は、たとえばカーテンのような柔軟なものが好適である。仮想空間制御装置2は、仮想オブジェクトVOの動きと連動させて実物体5を移動させる。実物体5は、物体駆動装置6により移動範囲60の範囲で移動可能である。これにより、仮想オブジェクトVOとユーザPの触覚とを連動させて、仮想オブジェクトVOをよりリアルにすることができる。
An
本実施形態の仮想空間表示システム1では、ユーザPが装着したヘッドマウントディスプレイ3の位置および姿勢が検知されることで、ユーザPの動き(移動、姿勢の変化など)に応じた仮想空間(お化け屋敷)VSの画像がヘッドマウントディスプレイ3に表示される。すなわち、ユーザPの視線に応じた仮想空間VSの画像が表示され、その仮想空間VS内に仮想オブジェクト(お化け)VOが表示される。
In the virtual space display system 1 of the present embodiment, the position and posture of the head mounted
仮想空間制御装置2は、仮想お化け屋敷のプログラム(以下、単にプログラムという)70が記憶されたメモリ22(図2参照)からプログラム70を読み出して実行し、通路Rを含む実空間に対応する三次元の仮想空間を生成する。そして、生成した仮想空間の画像を含むゲーム画像をヘッドマウントディスプレイ3に表示する。仮想空間制御装置2としては、たとえば、パーソナルコンピュータなどが適用可能である。
The virtual
図2(A)、(B)は、この実施形態の仮想空間制御装置2およびヘッドマウントディスプレイ3の構成を示すブロック図である。また、図3は、仮想空間制御装置2の制御表示部27および操作部26の構成を示す図である。図2(B)において、ヘッドマウントディスプレイ3は、ユーザPの両目を覆うアイマスク52を有し、アイマスクの内部に左目用ディスプレイ46および右目用のディスプレイ47が左右に配置されている。左目用ディスプレイ46および右目用のディスプレイ47のそれぞれがユーザPがアイマスク52を頭部(両目の前)に当接させてヘッドマウントディスプレイ3を装着すると、アイマスク52がユーザPの実空間に対する視界を塞ぐとともに、左目用ディスプレイ46および右目用のディスプレイ47がユーザPの左目および右目の前方に位置する。これにより、ユーザPは、左目用ディスプレイ46、右目用のディスプレイ47に表示される仮想空間VSのみを目視することとなる。
2A and 2B are block diagrams showing configurations of the virtual
レーザ照射装置(発光部)4A,4Bは、それぞれ交互に赤外線レーザで通路Rをスキャンする。ヘッドマウントディスプレイ3は、この赤外線レーザを受光する受光センサ50を複数備えており、どのスキャンタイミングにどの受光センサ50がレーザを受光したか等に基づいてヘッドマウントディスプレイ3の位置および姿勢が算出(検知)される。なお、レーザ照射装置4は、2つに限定されるものではなく、1以上であればよい。
The laser irradiation devices (light emitting units) 4A and 4B scan the path R alternately with an infrared laser. The head mounted
図2(A)において、仮想空間制御装置2は、バス23上に制御部20、操作部26、表示部27、無線通信回路部28および周辺機器インタフェース29を有している。制御部20は、CPU21、メモリ22、画像プロセッサ24および音声プロセッサ25を含んでいる。
2A, the virtual
無線通信回路部28は、Wi−Fi通信により、ヘッドマウントディスプレイ3と通信する。操作部26は、図3に示すように、タッチパネル260および複数のボタンスイッチ261を有し、ユーザによる操作を検出する。メモリ22は、RAM、ROM、ストレージデバイスなどを含み、ゲームプログラム70が記憶されている。ゲームプログラム70は、プログラム本体のほか、仮想空間VSの生成および仮想オブジェクトVOの形成に必要な画像などのデータを含んでいる。
The wireless
画像プロセッサ24は、ゲーム画像を生成可能なGPU(Graphics Processing Unit,グラフィックス・プロセッシング・ユニット)を備えている。画像プロセッサ24は、CPU21の指示に従って仮想空間VOを生成し、この仮想空間をユーザPの視線から見た画像を生成する。生成された画像はヘッドマウントディスプレイ3に送信される。本実施形態では、ヘッドマウントディスプレイ3の位置および姿勢の情報に基づいて推測されるユーザの視線に応じた左目用ゲーム画像および右目用ゲーム画像が生成される。
The
音声プロセッサ25は、仮想空間VS内で発生する音声を生成するDSP(Digital Signal Processor:デジタル・シグナル・プロセッサ)を有している。音声プロセッサ25は、生成した音声をヘッドマウントディスプレイ3に送信する。そして、ゲーム音声は、ヘッドマウントディスプレイ3に接続されたイヤホン49から出力される。
The sound processor 25 has a DSP (Digital Signal Processor) that generates sound generated in the virtual space VS. The sound processor 25 transmits the generated sound to the head mounted
ヘッドマウントディスプレイ3は、バス51上に制御部40、無線通信回路部44、VRAM45、アンプ48および(複数の)受光センサ50を有している。制御部40は、CPU41、メモリ42およびVRAM45を含んでいる。VRAM45には、左目用ディスプレイ46および右目用ディスプレイ47が接続されている。アンプ48には、イヤホン49が接続される。
The head mounted
無線通信回路部44は、Wi−Fi通信により、仮想空間制御装置2と通信する。VRAM45には、CPU41による指示によって、仮想空間制御装置2から受信したゲーム画像が描画される。描画されたゲーム画像は、左目用ディスプレイ46および右目用ディスプレイ47に出力される。アンプ48には、仮想空間制御装置2から受信したゲーム音声が出力される。アンプ48は、ゲーム音声の信号を増幅してイヤホン端子49に出力する。イヤホン端子49には、ユーザPが両耳に装着するステレオイヤホンが接続され、このイヤホンによりユーザPに対してゲーム音声が出力される。
The wireless
受光センサ50は、ヘッドマウントディスプレイ3(アイマスク52)の周面に複数配置され、それぞれレーザ照射装置4から照射される赤外線レーザを検出し、検出したことを示す検出信号をCPU41に入力する。CPU41は、上述したようにレーザ照射装置4で赤外線レーザがスキャンされたタイミングおよびどの受光センサ50がレーザを受光したか等に基づいて、ヘッドマウントディスプレイ3の実空間における位置および姿勢を検知する。そして、検知した位置および姿勢に関する情報は、仮想空間制御装置2に送信される。
A plurality of
図3を参照して仮想空間制御装置2の表示部27および操作部26について説明する。表示部27は、液晶ディスプレイ270を有し、画像プロセッサ24で生成される仮想空間の画像とは別の制御用画像を表示する。図3に示す例では、通路Rを上から見た平面図が表示されており、その中に、ユーザPの位置および実物体5の位置を示す図形が表示されている。なお、図中の番号に括弧をつけているのは、それぞれその構成部そのものではなく、その構成部を示す画像を表している意である。また、ディスプレイ270には、フローティングウィンドウ275が表示されている。フローティングウィンドウ275は、ユーザPのヘッドマウントディスプレイ3に表示されている画像、すなわちユーザPが見ている仮想空間VSの画像が2D(二次元)で表示される。フローティングウィンドウ275は、ディスプレイ270上のユーザPを示す画像(P)の斜め後ろに表示され、ユーザPの移動に追従して移動する。ディスプレイ270の表面には、タッチパネル260が設けられている。タッチパネル260は、係員Dによる表示部27のタッチを検出する。また、ディスプレイ270の下方には、複数の仮想オブジェクト選択ボタン261が設けられている。これらの仮想オブジェクト選択ボタン261はボタンスイッチであり、それぞれが別々の仮想オブジェクトVOに対応している。係員Dが一方の手指でいずれかの仮想オブジェクト選択ボタン261(261−1〜3)を押しながら、他方の手指でディスプレイ270のどこかをタッチすると、そのタッチ位置271をタッチパネル260が検出し、タッチ位置271に対応する仮想空間VS内の位置に選択された仮想オブジェクト(お化け)VOが登場する。仮想オブジェクト選択ボタン261の押下情報およびタッチ位置情報は、操作部26からCPU21に送信され、CPU21の指示により、画像プロセッサ24が仮想空間VS内に仮想オブジェクトVOを生成する。
The
また、仮想オブジェクト選択ボタン261−3は、実物体5に対応付けられた仮想オブジェクトVOを指定するボタンスイッチである。この仮想オブジェクト選択ボタン261−3が押下された状態で、ディスプレイ270のどこかがタッチされると、図3(B)に示すように、タッチ位置272から通路R方向に引いた線と実物体5の移動範囲60とが交わる位置に仮想オブジェクトVOを生成するとともに、その位置に実物体5を移動させる。仮想オブジェクト選択ボタン261−3の押下情報およびタッチ位置情報は、操作部26からCPU21に送信される。CPU21は、画像プロセッサ24に仮想オブジェクトVOを生成するよう指示するとともに、周辺機器インタフェース29を介して物体駆動装置6を制御し、仮想オブジェクトVOに対応する位置に実物体5を移動させる。係員Dがタッチ位置272を移動させると、これに追従するよう生成される仮想オブジェクトVOの位置を移動させるとともに、これに追従するように実物体5を移動させる。
The virtual object selection button 261-3 is a button switch for designating the virtual object VO associated with the
以上のように、表示部27(ディスプレイ270)に通路RのどこにユーザPが居るかを表示し、これに応じて係員Dが操作部26を操作することにより、ユーザPが見ている仮想空間VSに仮想オブジェクトVOを登場させることができるため、ユーザPの位置などを見計らって最も高い演出効果が得られるタイミングおよび位置に仮想オブジェクト(お化け)VOを登場させることができる。なお、制御用画像は、通路Rの平面図に限定されない。例えば、鳥瞰図や俯瞰図でもよい。
As described above, where the user P is in the passage R is displayed on the display unit 27 (display 270), and the clerk D operates the
次に、上述の仮想空間および仮想オブジェクトの生成処理を図5のフローチャートを参照しつつ説明する。この処理動作は、一定周期で、たとえば、1フレーム単位(1/60秒)で繰り返し実行される。 Next, the virtual space and virtual object generation processing described above will be described with reference to the flowchart of FIG. This processing operation is repeatedly executed at regular intervals, for example, in units of one frame (1/60 seconds).
制御部20は、無線通信回路部28を介してヘッドマウンドディスプレイ3の位置および方向を取得する(S10)。そして、この位置および方向に基づき、ユーザPが仮想空間VSを見る画像を生成する(S20)。さらに、仮想オブジェクト選択ボタン261が押下され、且つ、ディスプレイ270がタッチされているかを判断する(S30、S40)。仮想オブジェクト選択ボタン261が押下され、且つ、ディスプレイ270がタッチされている場合には(S30でYES且つS40でYES)、さらに押下された仮想オブジェクト選択ボタン261が第3ボタン261−3であるかを判断する(S50)。押下された仮想オブジェクト選択ボタン261が第3ボタン261−3でない場合には(S50でNO)、タッチ位置271に対応する位置に、仮想オブジェクトVOを生成する(S60)。
The
一方、押下された仮想オブジェクト選択ボタン261が第3ボタン261−3の場合には(S50でYES)、実物体5の移動範囲60でタッチ位置272から通路Rの方向に伸ばした線と交差する位置に仮想オブジェクトVOを生成する(S70)。そして、物体駆動装置6を駆動して実物体5を仮想オブジェクトVOに対応する位置に移動させる(S80)。そして、仮想空間VSおよび仮想空間VS内の仮想オブジェクトVOの画像をヘッドマウントディスプレイ3に送信する(S90)。
On the other hand, when the pressed virtual
また、上述の実施形態では、ヘッドマウントディスプレイ3に受光センサを配置して位置などを検知する構成であるが、位置などを検知できれば特にこれに限定されるものではない。たとえば、ヘッドマウントディスプレイ3に発光素子を設け、通路R内の所定の位置に受光素子を設ける構成でもよい。
In the above-described embodiment, the light receiving sensor is arranged on the head mounted
<その他の実施形態>
上述の実施形態では、係員Dが表示部27の表示を見ながら操作部26を操作することで、仮想オブジェクトVOを仮想空間OS内に登場させているが、各仮想オブジェクトVOにそれぞれ通路R上のエリアを割り当てておき、ユーザPがそのエリアに差し掛かったとき、対応する仮想オブジェクトVOを自動的に登場させるようにしてもよい。この場合、仮想オブジェクトVOが登場する位置は、予め決めておけばよい。また、仮想オブジェクトVOを移動させる場合、その経路を予め決めておけばよい。また、仮想オブジェクトVOは自ら動作をする動画状のものであってもよい。
<Other embodiments>
In the above-described embodiment, the clerk D operates the
図5のフローチャートを参照して、仮想オブジェクトVOを自動的に登場させる場合の処理を説明する。この処理動作は、一定周期で、たとえば、1フレーム単位(1/60秒)で繰り返し実行される。 With reference to the flowchart of FIG. 5, a process when the virtual object VO appears automatically will be described. This processing operation is repeatedly executed at regular intervals, for example, in units of one frame (1/60 seconds).
制御部20は、無線通信回路部28を介してヘッドマウンドディスプレイ3の位置および方向を取得する(S110)。そして、この位置および方向に基づき、ユーザPが仮想空間VSを見る画像を生成する(S120)。さらに、ユーザP(ヘッドマウントディススプレイ3)の位置が仮想オブジェクトVOの表示エリア内であるかを判断する(S130)。ユーザPの位置が仮想オブジェクト表示エリア内の場合には(S130でYES)、そのエリアに対応する仮想オブジェクトVOを所定位置に生成する(S140)。そして生成された仮想空間の画像をヘッドマウントディスプレイ3に送信する(S150)。このとき、実物体5を仮想オブジェクトVOに連動させてもよい。
The
なお、ユーザPの位置が仮想オブジェクト表示エリア外の場合には(S130でNO)、仮想オブジェクトVOのいない仮想空間VSの画像をヘッドマウントディスプレイ3に送信する(S150)。 When the position of the user P is outside the virtual object display area (NO in S130), an image of the virtual space VS without the virtual object VO is transmitted to the head mounted display 3 (S150).
さらに、上述の実施形態では、ユーザPの姿は仮想空間には生成されていないが、仮想空間に登場させてもよい。この場合、たとえば、ユーザPの体の各部に赤外線レーザを受光する受光センサを設けてユーザPの位置および姿勢を検知すればよい。 Furthermore, in the above-described embodiment, the appearance of the user P is not generated in the virtual space, but may appear in the virtual space. In this case, for example, a light receiving sensor that receives an infrared laser may be provided in each part of the user P's body to detect the position and posture of the user P.
上の実施形態では、仮想オブジェクトVOに実物体5を連動させる例を示したが、仮想オブジェクトVOに対して他の要素を連動させてもよい。たとえば、風(温風・冷風等)や霧を吹き出してユーザPに当ててもよく、床などを振動させてもよい。
In the above embodiment, an example in which the
また、予め通路Rの床に凹凸を形成したり、ユーザPの足が沈むようなスポンジなどの実体物を配置してもよい。この場合、凹凸に血溜り、水溜り、死体などを画像表示し、ユーザPがスポンジを踏めば、ビチャビチャと音を鳴らすようにすればよい。 In addition, an unevenness may be formed on the floor of the passage R in advance, or an entity such as a sponge that may sink the user's P foot may be disposed. In this case, blood pools, water pools, dead bodies, and the like may be displayed as images on the unevenness, and if the user P steps on the sponge, a sound is generated.
実物体として椅子を配置して、仮想空間VSの対応する位置にも椅子の画像を表示し、ユーザPがこの椅子に座ったとき何らかのイベントを発生させてもよい。イベントとしては、たとえば、椅子の周囲からお化けが現れるなどがある。 A chair may be arranged as a real object, an image of the chair may be displayed at a corresponding position in the virtual space VS, and some event may be generated when the user P sits on the chair. As an event, for example, a ghost appears from around a chair.
また、通路Rを仮想的または現実に、複数(2つ)に仕切ってもよい。現実の仕切りを設ける場合は、仮想の仕切りは現実の仕切りに対応する位置に設ける。仕切りは、ユーザPが通過可能なようにカーテンや扉などの開閉部を含んでいる。 Further, the passage R may be divided into a plurality (two) of virtual or actual. When an actual partition is provided, the virtual partition is provided at a position corresponding to the actual partition. The partition includes opening / closing parts such as curtains and doors so that the user P can pass through.
上記の仕切りを設けた構成において、ユーザPが所定の位置にきたとき、仮想オブジェクト(お化け)VOを仕切りで区切られた仮想空間VSのユーザPがいる側(第1仮想空間)に生成してもよい。そして、この仮想オブジェクトVOをカーテンや扉を通って第2仮想空間に去っていく演出をしてもよい。ここで、第2仮想空間とは、仕切りで区切られた仮想空間VSのユーザPがいない側である。また、この仮想オブジェクトVOの移動に応じて、カーテンがなびく、扉が開く/閉まるなど、仮想の開閉部の表示態様を変更してもよい。 In the configuration in which the partition is provided, when the user P comes to a predetermined position, the virtual object (ghost) VO is generated on the side (first virtual space) where the user P of the virtual space VS divided by the partition is present. Also good. And you may produce this virtual object VO leaving the 2nd virtual space through a curtain or a door. Here, the second virtual space is a side where the user P of the virtual space VS divided by the partition is not present. Further, according to the movement of the virtual object VO, the display mode of the virtual opening / closing unit may be changed such that the curtain flutters and the door opens / closes.
さらに、ユーザPが仕切りに対する所定の動作を行うことに応じて、カーテンがなびく、扉が開くなど、仮想の開閉部の表示態様を変更してもよい。ユーザPの仕切りに対する所定の動作とは、カーテンを開ける、扉を開くなどの操作や、扉の前に立つなどの動作である。 Furthermore, according to the user P performing a predetermined operation on the partition, the display mode of the virtual opening / closing unit may be changed such that the curtain flutters and the door opens. The predetermined operation on the partition of the user P is an operation such as opening a curtain or opening a door, or an operation such as standing in front of the door.
本発明は、従来は実空間で大掛かりな設備を用いて実現されていた(例えばお化け屋敷のような)施設を、仮想空間および仮想オブジェクトを用いて、簡単な設備で実現するために有用である。 INDUSTRIAL APPLICABILITY The present invention is useful for realizing a facility (such as a haunted house) that has been realized using a large-scale facility in real space with a simple facility using a virtual space and a virtual object. .
1 仮想空間表示システム
2 仮想空間制御装置
3 ヘッドマウントディスプレイ
4(4A,4B) レーザ照射装置
5 実物体
6 物体駆動装置
260 タッチパネル
261 仮想オブジェクト選択ボタン
P ユーザ(顧客)
D 係員
R 通路
RI 通路入口
RO 通路出口
VO 仮想オブジェクト
DESCRIPTION OF SYMBOLS 1 Virtual
D Personnel R Passage RI Passage entrance RO Passage exit VO Virtual object
Claims (7)
前記ヘッドマウントディスプレイの前記実空間内での位置および/または姿勢を検知する検知部と、
前記実空間に対応する仮想空間を生成し、前記検知部の検知結果に基づいて、前記ユーザが前記ヘッドマウントディスプレイを介して見える前記仮想空間の画像を生成する画像生成部と、
を備えた仮想空間表示システムであって、
前記画像生成部は、前記検知部の検知内容に応じて、仮想オブジェクトを前記仮想空間内に生成する仮想オブジェクト生成部を含む仮想空間表示システム。 A head mounted display worn by the user in a predetermined real space;
A detection unit for detecting a position and / or posture of the head-mounted display in the real space;
An image generation unit that generates a virtual space corresponding to the real space, and generates an image of the virtual space that the user sees through the head mounted display based on a detection result of the detection unit;
A virtual space display system comprising:
The image generation unit is a virtual space display system including a virtual object generation unit that generates a virtual object in the virtual space according to the detection content of the detection unit.
前記仮想空間を仕切る仕切りを表示して、該仕切りで区切られた前記仮想空間のユーザがいる側である第1仮想空間と、前記仕切りで区切られた前記仮想空間のユーザと反対側である第2仮想空間に分割し、
前記仮想オブジェクトを、前記第1仮想空間に生成して前記第2仮想空間へ移動させる請求項1または請求項2に記載の仮想空間表示システム。 The image generation unit
A partition that divides the virtual space is displayed, and a first virtual space that is a side where the user of the virtual space partitioned by the partition is present and a user that is opposite to the user of the virtual space partitioned by the partition. Divided into two virtual spaces,
The virtual space display system according to claim 1, wherein the virtual object is generated in the first virtual space and moved to the second virtual space.
前記ヘッドマウントディスプレイの前記実空間内での位置および/または姿勢を検知する検知部と、
前記実空間に対応する仮想空間を生成し、前記検知部の検知結果に基づいて、前記ユーザが前記ヘッドマウントディスプレイを介して見える前記仮想空間の画像を生成する画像生成部と、
を備えた仮想空間表示システムであって、
さらに操作部を備え、
前記画像生成部は、前記操作部の操作に応じて仮想オブジェクトを前記仮想空間内に生成する仮想オブジェクト生成部を含む仮想空間表示システム。 A head mounted display worn by the user in a predetermined real space;
A detection unit for detecting a position and / or posture of the head-mounted display in the real space;
An image generation unit that generates a virtual space corresponding to the real space, and generates an image of the virtual space that the user sees through the head mounted display based on a detection result of the detection unit;
A virtual space display system comprising:
Furthermore, it has an operation part,
The virtual space display system, wherein the image generation unit includes a virtual object generation unit that generates a virtual object in the virtual space in accordance with an operation of the operation unit.
前記制御用表示部は、前記仮想空間および前記ユーザの位置を示す制御用画像を表示する
請求項4に記載の仮想空間表示システム。 The operation unit includes a control display unit, and a touch panel provided on the front surface of the control display unit,
The virtual space display system according to claim 4, wherein the control display unit displays a control image indicating the virtual space and the position of the user.
前記仮想オブジェクト生成部は、前記実空間における前記実物体の位置に対応する前記仮想空間内の位置に前記仮想オブジェクトを生成する
請求項1乃至請求項5のいずれかに記載の仮想空間表示システム。 Further installing a real object in the real space,
The virtual space display system according to claim 1, wherein the virtual object generation unit generates the virtual object at a position in the virtual space corresponding to a position of the real object in the real space.
前記仮想オブジェクトの移動に追従して、前記実物体を前記実空間内で移動させる移動機構をさらに備えた
請求項6に記載の仮想空間表示システム。
The virtual object generation unit includes means for moving the virtual object in the virtual space,
The virtual space display system according to claim 6, further comprising a moving mechanism that moves the real object in the real space following the movement of the virtual object.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016090344A JP2017199238A (en) | 2016-04-28 | 2016-04-28 | Virtual space display system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016090344A JP2017199238A (en) | 2016-04-28 | 2016-04-28 | Virtual space display system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017199238A true JP2017199238A (en) | 2017-11-02 |
Family
ID=60239333
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016090344A Pending JP2017199238A (en) | 2016-04-28 | 2016-04-28 | Virtual space display system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017199238A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019150579A (en) * | 2019-02-28 | 2019-09-12 | 合同会社ユー・エス・ジェイ | Virtual reality device |
| JP2023513250A (en) * | 2020-02-10 | 2023-03-30 | マジック リープ, インコーポレイテッド | Dynamic co-location of virtual content |
| JP2023523442A (en) * | 2020-09-30 | 2023-06-05 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Method, apparatus, apparatus and program for controlling interface display |
| US12315094B2 (en) | 2020-02-14 | 2025-05-27 | Magic Leap, Inc. | Session manager |
| WO2025110461A1 (en) * | 2023-11-22 | 2025-05-30 | 삼성전자주식회사 | Wearable device, method, and computer-readable storage medium for displaying one or more virtual objects on basis of external object |
| US12495094B2 (en) | 2018-07-24 | 2025-12-09 | Magic Leap, Inc. | Application sharing |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06236432A (en) * | 1991-12-02 | 1994-08-23 | Texas Instr Inc <Ti> | Virtual-reality system and generation method of virtual-reality world of virtual-reality image |
| JP2007026129A (en) * | 2005-07-19 | 2007-02-01 | Nintendo Co Ltd | Object movement control program and information processing apparatus |
| JP2007042073A (en) * | 2005-07-01 | 2007-02-15 | Canon Inc | Video presentation system, video presentation method, program for causing computer to execute video presentation method, and storage medium |
| JP2014515130A (en) * | 2011-03-10 | 2014-06-26 | マイクロソフト コーポレーション | Theme-based expansion of photorealistic views |
| WO2015159561A1 (en) * | 2014-04-16 | 2015-10-22 | 株式会社ソニー・コンピュータエンタテインメント | Information-processing device, information-processing system, and information-processing method |
-
2016
- 2016-04-28 JP JP2016090344A patent/JP2017199238A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06236432A (en) * | 1991-12-02 | 1994-08-23 | Texas Instr Inc <Ti> | Virtual-reality system and generation method of virtual-reality world of virtual-reality image |
| JP2007042073A (en) * | 2005-07-01 | 2007-02-15 | Canon Inc | Video presentation system, video presentation method, program for causing computer to execute video presentation method, and storage medium |
| JP2007026129A (en) * | 2005-07-19 | 2007-02-01 | Nintendo Co Ltd | Object movement control program and information processing apparatus |
| JP2014515130A (en) * | 2011-03-10 | 2014-06-26 | マイクロソフト コーポレーション | Theme-based expansion of photorealistic views |
| WO2015159561A1 (en) * | 2014-04-16 | 2015-10-22 | 株式会社ソニー・コンピュータエンタテインメント | Information-processing device, information-processing system, and information-processing method |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12495094B2 (en) | 2018-07-24 | 2025-12-09 | Magic Leap, Inc. | Application sharing |
| JP2019150579A (en) * | 2019-02-28 | 2019-09-12 | 合同会社ユー・エス・ジェイ | Virtual reality device |
| JP2023513250A (en) * | 2020-02-10 | 2023-03-30 | マジック リープ, インコーポレイテッド | Dynamic co-location of virtual content |
| JP7658977B2 (en) | 2020-02-10 | 2025-04-08 | マジック リープ, インコーポレイテッド | Dynamic collocation of virtual content |
| JP2025067980A (en) * | 2020-02-10 | 2025-04-24 | マジック リープ, インコーポレイテッド | Dynamic co-location of virtual content |
| JP7778260B2 (en) | 2020-02-10 | 2025-12-01 | マジック リープ, インコーポレイテッド | Dynamic collocation of virtual content |
| US12315094B2 (en) | 2020-02-14 | 2025-05-27 | Magic Leap, Inc. | Session manager |
| JP2023523442A (en) * | 2020-09-30 | 2023-06-05 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Method, apparatus, apparatus and program for controlling interface display |
| US12478872B2 (en) | 2020-09-30 | 2025-11-25 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for controlling interface display, device, and storage medium |
| WO2025110461A1 (en) * | 2023-11-22 | 2025-05-30 | 삼성전자주식회사 | Wearable device, method, and computer-readable storage medium for displaying one or more virtual objects on basis of external object |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2017199238A (en) | Virtual space display system | |
| JP4616543B2 (en) | Multi-person shared display device | |
| CN110352085B (en) | Systems and methods for layered virtual features in amusement park environments | |
| US10269180B2 (en) | Information processing apparatus and information processing method, display apparatus and display method, and information processing system | |
| JP2022140779A (en) | Massive simultaneous remote digital presence world | |
| JP4995313B2 (en) | Multi-view display system | |
| JP6629528B2 (en) | Virtual reality display system, virtual reality display method, and computer program | |
| Slater et al. | An experimental exploration of presence in virtual environments | |
| US20170132845A1 (en) | System and Method for Reducing Virtual Reality Simulation Sickness | |
| JPH10504917A (en) | Collision warning system for head mounted display | |
| JP2005141102A (en) | Stereoscopic two-dimensional image display device and its method | |
| WO2010026519A1 (en) | Method of presenting head-pose feedback to a user of an interactive display system | |
| JP6200023B1 (en) | Simulation control apparatus and simulation control program | |
| JP7351638B2 (en) | Image generation device, image display system, and information presentation method | |
| JP2015084002A (en) | Mirror display system and video display method thereof | |
| US20180256974A1 (en) | Information processing apparatus, information processing method, and program | |
| JP6360851B2 (en) | Virtual space display system, game system, virtual space display program, and game program | |
| CN112269472A (en) | Method and system for constructing virtual boundary object and VR glasses thereof | |
| JP2002108196A (en) | System for virtual experience of refuge | |
| CN112419509A (en) | Virtual object generation processing method and system and VR glasses thereof | |
| JP5282705B2 (en) | Stereoscopic image display device | |
| JP2003271891A (en) | System for virtually experiencing commodity | |
| CN112363628A (en) | Virtual object interactive processing method and system and VR glasses thereof | |
| KR20180098936A (en) | HMD Working VR(virtual reality) Contents experience system based on Position Sensors | |
| JP2020061186A (en) | Simulation control device and simulation control program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180122 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180130 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180724 |