JP2017211912A - Display control method and program for causing computer to execute the method - Google Patents
Display control method and program for causing computer to execute the method Download PDFInfo
- Publication number
- JP2017211912A JP2017211912A JP2016106168A JP2016106168A JP2017211912A JP 2017211912 A JP2017211912 A JP 2017211912A JP 2016106168 A JP2016106168 A JP 2016106168A JP 2016106168 A JP2016106168 A JP 2016106168A JP 2017211912 A JP2017211912 A JP 2017211912A
- Authority
- JP
- Japan
- Prior art keywords
- virtual camera
- control method
- display control
- hmd
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000000007 visual effect Effects 0.000 claims abstract description 49
- 238000004519 manufacturing process Methods 0.000 claims abstract description 29
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 23
- 238000004891 communication Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 238000013459 approach Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本開示は、表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラムに関する。 The present disclosure relates to a display control method and a program for causing a computer to execute the display control method.
ユーザの頭部に装着され、仮想現実(VR:Virtual Reality)空間や拡張現実(AR:Augmented Reality)空間等の仮想空間として仮想空間画像を表示可能なヘッドマウントディスプレイ(HMD:Head‐Mounted Display)が知られている。特許文献1は、仮想空間を利用して建築物等の物件の設計支援を行うための視点情報表示機能付き設計支援システムを開示している。特許文献1には、リアルタイムで視点位置を変更する手段として、操作ボタン群を操作してユーザが仮想空間内で前後左右にウォークスルーする従来手段の他に、平面図表示部で視点位置を入力することにより瞬時に視点位置を移動させたり、視野角を変更することによって現実空間におけるユーザの移動量を仮想空間における移動量に変換する際の倍率(スケール)を変更させたりする手段が記載されている。 A head-mounted display (HMD: Head-Mounted Display) that is mounted on the user's head and can display a virtual space image as a virtual space such as a virtual reality (VR) space or an augmented reality (AR) space. It has been known. Patent Document 1 discloses a design support system with a viewpoint information display function for supporting design of an object such as a building using a virtual space. In Patent Document 1, as a means for changing the viewpoint position in real time, in addition to the conventional means in which a user walks through the virtual space in the virtual space, the viewpoint position is input on the plan view display unit. The means for instantaneously moving the viewpoint position by changing the viewing angle, or changing the magnification (scale) when converting the movement amount of the user in the real space into the movement amount in the virtual space by changing the viewing angle is described. ing.
三次元の仮想空間内に背景画像や建造物オブジェクトなどの静的オブジェクトを配置してゲーム空間を生成する場合には、レンダリング処理等の負荷を軽減するため、通常は視認されることが想定されていないゲーム空間の裏側(例えば、背景画像の裏面や静的オブジェクトの内側)は作り込まない、すなわちゲーム画面としてレンダリングされることが想定されていない。しかしながら、このようなゲーム空間において、特許文献1に記載のように仮想空間内におけるユーザの移動や視野角の変更に応じて視点位置を変更すると、レンダリングされることが想定されていないゲーム空間の裏側(以下、これらを「非制作領域」と称する)までもがユーザに視認されてしまう場合がある。 When creating a game space by placing static objects such as background images and building objects in a three-dimensional virtual space, it is usually assumed that the game space is visually recognized in order to reduce the load of rendering processing. It is not assumed that the back side of the non-game space (for example, the back side of the background image or the inside of the static object) is not created, that is, rendered as a game screen. However, in such a game space, as described in Patent Document 1, when the viewpoint position is changed according to the movement of the user or the change of the viewing angle in the virtual space, the game space that is not supposed to be rendered. Even the back side (hereinafter referred to as “non-production area”) may be visually recognized by the user.
本開示は、仮想空間における非制作領域の視認を制限可能な表示制御方法を提供することを目的とする。また、本開示は、当該表示制御方法をコンピュータに実行させるためのプログラムを提供することを目的とする。 An object of this indication is to provide the display control method which can restrict | limit the visual recognition of the non-production area | region in virtual space. Moreover, this indication aims at providing the program for making a computer perform the said display control method.
本開示が示す一態様によれば、ヘッドマウントディスプレイを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)仮想カメラと、非制作領域を有する少なくとも一つの対象物とを含む仮想空間を示す仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記ヘッドマウントディスプレイの移動量に応じて前記仮想カメラを移動させるステップと、
(d)前記移動量に基づいて前記仮想カメラと前記対象物との間の距離を特定するステップと、
(e)前記距離が所定の閾値以下であると判定された場合には、前記距離が所定の下限値を下回らないように、前記仮想カメラの位置を制御するステップと、
を含む。
According to one aspect of the present disclosure, a display control method in a system including a head mounted display,
The display control method is
(A) generating virtual space data indicating a virtual space including a virtual camera and at least one object having a non-production area;
(B) displaying a visual field image on the head mounted display based on the visual field of the virtual camera and the virtual space data;
(C) moving the virtual camera in accordance with the amount of movement of the head mounted display;
(D) identifying a distance between the virtual camera and the object based on the amount of movement;
(E) controlling the position of the virtual camera so that the distance does not fall below a predetermined lower limit when it is determined that the distance is less than or equal to a predetermined threshold;
including.
本開示によれば、仮想空間における非制作領域の視認を制限可能な表示制御方法を提供することができる。 According to the present disclosure, it is possible to provide a display control method capable of restricting visual recognition of a non-production area in a virtual space.
[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)ヘッドマウントディスプレイを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)仮想カメラと、非制作領域を有する少なくとも一つの対象物とを含む仮想空間を示す仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記ヘッドマウントディスプレイの移動量に応じて前記仮想カメラを移動させるステップと、
(d)前記移動量に基づいて前記仮想カメラと前記対象物との間の距離を特定するステップと、
(e)前記距離が所定の閾値以下であると判定された場合には、前記距離が所定の下限値を下回らないように、前記仮想カメラの位置を制御するステップと、
を含む。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) A display control method in a system including a head mounted display,
The display control method is
(A) generating virtual space data indicating a virtual space including a virtual camera and at least one object having a non-production area;
(B) displaying a visual field image on the head mounted display based on the visual field of the virtual camera and the virtual space data;
(C) moving the virtual camera in accordance with the amount of movement of the head mounted display;
(D) identifying a distance between the virtual camera and the object based on the amount of movement;
(E) controlling the position of the virtual camera so that the distance does not fall below a predetermined lower limit when it is determined that the distance is less than or equal to a predetermined threshold;
including.
上記方法によれば、非制作領域を有する対象物に対して仮想カメラが所定の距離までしか近づくことができないように仮想カメラの位置が制御される。これにより、例えばヘッドマウントディスプレイの予期しない動きに連動して仮想カメラが対象物をすり抜けて、非制作領域が視認されてしまうことを防止することができる。そのため、ゲーム空間の裏側まで作り込む必要がなくなる。 According to the above method, the position of the virtual camera is controlled so that the virtual camera can approach only a predetermined distance from an object having a non-production area. Thereby, for example, it is possible to prevent the virtual camera from slipping through the object in conjunction with an unexpected movement of the head mounted display and visually recognizing the non-production area. For this reason, it is not necessary to create the back of the game space.
(2)前記ステップ(d)では、前記ヘッドマウントディスプレイの前記移動量に基づいて前記仮想カメラが移動されたと想定された場合の前記仮想カメラと前記対象物との間の想定距離を特定し、
前記ステップ(e)では、前記想定距離が所定の閾値以下である場合には、前記仮想カメラと前記対象物との前記仮想空間内における実際の距離が前記所定の下限値を下回らないように、前記仮想カメラの位置を制御しても良い。
(2) In the step (d), an assumed distance between the virtual camera and the object when the virtual camera is assumed to be moved based on the amount of movement of the head mounted display is specified,
In the step (e), when the assumed distance is equal to or less than a predetermined threshold value, an actual distance in the virtual space between the virtual camera and the object is not less than the predetermined lower limit value. The position of the virtual camera may be controlled.
上記方法によれば、対象物へ向かう方向への仮想カメラが移動した場合の仮想カメラと対象物との想定距離に対して仮想カメラと対象物との実際の距離を制限することで、非制作領域の視認を確実に制限することができる。 According to the above method, non-production is performed by limiting the actual distance between the virtual camera and the target with respect to the assumed distance between the virtual camera and the target when the virtual camera moves in the direction toward the target. The visual recognition of the area can be surely limited.
(3)前記所定の下限値は、前記距離がゼロ以上の範囲で任意に設定可能であっても良い。 (3) The predetermined lower limit value may be arbitrarily set within a range where the distance is zero or more.
(4)前記所定の下限値は、前記対象物の表面と一致した位置となるように設定されても良い。 (4) The predetermined lower limit value may be set to be a position that coincides with the surface of the object.
(5)前記下限値は、前記閾値よりも前記対象物に近い位置となるように設定されても良い。 (5) The lower limit value may be set to be closer to the object than the threshold value.
(6)前記下限値は、前記閾値よりも前記対象物に対して離れた位置となるように設定されても良い。 (6) The lower limit value may be set so as to be a position farther from the object than the threshold value.
これらの方法によれば、生成される仮想空間あるいは対象物に応じて、対象物にどの程度まで近づくことができるかを任意に設定することができる。 According to these methods, it is possible to arbitrarily set the extent to which the object can be approached according to the generated virtual space or the object.
(7)前記ステップ(e)では、前記下限値以上の距離を保った所定位置に前記仮想カメラを瞬時に移動させても良い。 (7) In the step (e), the virtual camera may be instantaneously moved to a predetermined position maintaining a distance equal to or greater than the lower limit value.
上記方法によれば、仮想カメラは、対象物と一定の距離を保った位置に瞬間移動される。これにより、非制作領域が視認されないように処理しつつ、ユーザに対して対象物に向かう方向への移動が制限されていることを伝えることができる。 According to the above method, the virtual camera is instantaneously moved to a position keeping a certain distance from the object. Accordingly, it is possible to inform the user that the movement in the direction toward the target object is restricted while performing processing so that the non-production area is not visually recognized.
(8)前記ステップ(e)では、前記ヘッドマウントディスプレイの前記移動量を前記仮想カメラの移動量に変換する際の変換率を、前記距離が前記所定の閾値以上であると判定された場合の前記変換率よりも下げても良い。 (8) In the step (e), the conversion rate when the movement amount of the head mounted display is converted into the movement amount of the virtual camera is determined when the distance is determined to be greater than or equal to the predetermined threshold. You may lower than the said conversion rate.
上記方法によれば、対象物に向かう方向への移動時には、仮想カメラの通常の移動速度よりも遅い速度で仮想カメラの視野が変更される。すなわち、ヘッドマウントディスプレイの移動に対する仮想カメラの反応速度を鈍くする。これにより、非制作領域が視認されないように処理しつつ、ユーザに対して対象物へ向かう方向への移動が制限されていることを伝えることができる。 According to the above method, when moving in the direction toward the object, the visual field of the virtual camera is changed at a speed slower than the normal moving speed of the virtual camera. That is, the response speed of the virtual camera to the movement of the head mounted display is slowed down. Accordingly, it is possible to inform the user that the movement in the direction toward the target object is restricted while performing processing so that the non-production area is not visually recognized.
(9)前記ステップ(e)では、前記仮想カメラの位置を変更しなくても良い。 (9) In the step (e), the position of the virtual camera need not be changed.
上記方法によれば、ヘッドマウントディスプレイの対象物に向かう方向への移動を仮想カメラの移動に反映させないように、仮想カメラの位置が制御される。これにより、非制作領域が視認されないように処理しつつ、ユーザに対して対象物に向かう方向への移動が制限されていることを伝えることができる。 According to the above method, the position of the virtual camera is controlled so that the movement of the head mounted display in the direction toward the object is not reflected in the movement of the virtual camera. Accordingly, it is possible to inform the user that the movement in the direction toward the target object is restricted while performing processing so that the non-production area is not visually recognized.
(10)前記ステップ(e)は、前記仮想カメラの視野内に警告メッセージを表示するステップ、あるいは前記ヘッドマウントディスプレイに付随するイヤホンから警告音を再生するステップをさらに含んでも良い。 (10) The step (e) may further include a step of displaying a warning message in the visual field of the virtual camera or a step of reproducing a warning sound from an earphone attached to the head mounted display.
上記方法によれば、対象物に向かう方向への移動が制限されている旨のメッセージをユーザに報知することができる。 According to the above method, the user can be notified of a message that the movement in the direction toward the object is restricted.
(11)一実施形態に係るプログラムは、(1)から(10)のうちいずれかに記載の表示制御方法をコンピュータに実行させるためのプログラムである。 (11) A program according to an embodiment is a program for causing a computer to execute the display control method according to any one of (1) to (10).
この構成によれば、仮想空間における非制作領域の視認を制限可能なプログラムを提供することができる。 According to this configuration, it is possible to provide a program capable of limiting the visual recognition of the non-production area in the virtual space.
[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.
図1は、本開示が示す実施形態(以下、単に本実施形態という。)に係るヘッドマウントディスプレイ(以下、単にHMDという。)システム1を示す概略図である。図1に示すように、HMDシステム1は、ユーザUの頭部に装着されたHMD110と、位置センサ130と、制御装置120と、外部コントローラ320とを備える。
FIG. 1 is a schematic diagram showing a head-mounted display (hereinafter simply referred to as HMD) system 1 according to an embodiment (hereinafter simply referred to as this embodiment) shown in the present disclosure. As shown in FIG. 1, the HMD system 1 includes an
HMD110は、表示部112と、HMDセンサ114と、ヘッドフォン116とを備えている。なお、HMD110にヘッドフォン116を設けずに、HMD110とは独立したスピーカやヘッドフォンを用いても良い。
The
表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。なお、表示部112は、ユーザUの左目に投影される左目用の表示部とユーザUの右目に投影される右目用の表示部とから構成されてもよい。
The
HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動きを検出することができる。
The
位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110の位置を検出するように構成されている。位置センサ130は、制御装置120に無線または有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾きまたは発光強度に関する情報を検出するように構成されている。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。
The
制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。
The
次に、図2を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図2は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130および/またはHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交し表示部112の中心とユーザUとを結ぶ方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130および/またはHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、視野情報を定義する仮想カメラの視軸を制御するための角度情報を決定する。
Next, with reference to FIG. 2, a method for acquiring information related to the position and inclination of the
次に、図3を参照することで、制御装置120のハードウェア構成について説明する。図3は、制御装置120のハードウェア構成を示す図である。図3に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125とは、バス126を介して互いに通信可能に接続されている。
Next, the hardware configuration of the
制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレットまたはウェアラブルデバイスとして構成されてもよいし、HMD110の内部に搭載されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。
The
制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)および/またはGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。
The
特に、プロセッサが本実施形態に係る表示制御方法をコンピュータに実行させるための表示制御プログラム(後述する)をRAM上に展開し、RAMとの協働で当該プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、メモリや記憶部123に格納された所定のアプリケーション(ゲームプログラム)を実行することで、HMD110の表示部112に仮想空間(視野画像)を提供する。これにより、ユーザUは、表示部112に提供された仮想空間に没入することができる。
In particular, the
記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123には、表示制御プログラムが組み込まれてもよい。また、ユーザの認証プログラムや各種画像やオブジェクトに関するデータを含むゲームプログラム等が格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。
The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The
I/Oインターフェース124は、位置センサ130と、HMD110と、外部コントローラ320をそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。なお、制御装置120は、位置センサ130と、HMD110と、外部コントローラ320のそれぞれと無線接続されていてもよい。
The I /
通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)またはインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介して外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。
The
次に、図4から図6を参照することで視野画像をHMD110に表示するための処理について説明する。図4は、視野画像VをHMD110に表示するための処理を示すフローチャートである。図5は、仮想空間200の一例を示すxyz空間図を示す。図6(a)は、図5に示す仮想空間200のyx平面図であって、図6(b)は、図5に示す仮想空間200のzx平面図である。
Next, processing for displaying a field-of-view image on the
図4に示すように、ステップS1において、制御部121(図3参照)は、仮想カメラ300が配置された仮想空間200を示す仮想空間データを生成する。図5および図6に示すように、仮想空間200は、中心位置21を中心とした全天球として規定される(図5および図6では、上半分の天球のみが図示されている)。また、仮想空間200には、中心位置21を原点とするxyz座標系が設定されている。HMDシステム1の初期状態では、仮想カメラ300が仮想空間200の中心位置21に配置されている。
仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、仮想カメラ300を仮想空間200内で移動させてもよい。
As shown in FIG. 4, in step S1, the control unit 121 (see FIG. 3) generates virtual space data indicating the
The uvw coordinate system that defines the visual field of the
次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図6参照)を特定する。具体的には、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを決定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸に相当する基準視線Lを決定し、決定された基準視線Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域と一致する(換言すれば、HMD110に表示される仮想空間200の一部の領域に一致する)。また、視野CVは、図6(a)に示すxy平面において、基準視線Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図6(b)に示すxz平面において、基準視線Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。
Next, in step S2, the
このように、制御部121は、位置センサ130および/またはHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを特定することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを移動させることができる。
As described above, the
次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像を示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。
Next, in step S <b> 3, the
次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像を表示する。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。
Next, in step S <b> 4, the
なお、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成すると共に、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。そして、制御部121は、左目用視野画像データと右目用視野画像データとに基づいて、HMD110の表示部112に左目用視野画像および右目用視野画像を表示する。このように、ユーザUは、左目用視野画像および右目用視野画像から、視野画像を3次元画像として視認することができる。また、本明細書では、説明の便宜上、仮想カメラ300の数は一つとするが、本開示の実施形態は、仮想カメラの数が2つ以上の場合でも適用可能である。
Note that the
図7は、HMD110の表示部112に表示される視野画像Vの一例を示している。
図7に示す視野画像Vにおいて、部屋の壁部分は、仮想空間200を形成する天球(図5および図6参照)に貼られた背景画像(以下、壁画像Wと称する)から構成されている。また、壁画像Wで囲まれた部屋の内部には、テーブルやソファ、ベッド等の家具オブジェクトFが配置されている。このような視野画像Vを作成するに際し、背景画像である壁画像Wの裏面や家具オブジェクトFの内側は、通常はユーザに視認されないため、ゲーム画面としてレンダリングされることが想定されていない。本実施形態では、このようなゲーム画面としてレンダリングされることが想定されていない領域を非制作領域NR(図9(a)参照)と称する。
FIG. 7 shows an example of the visual field image V displayed on the
In the visual field image V shown in FIG. 7, the wall portion of the room is composed of a background image (hereinafter referred to as a wall image W) attached to a celestial sphere (see FIGS. 5 and 6) that forms the
次に、図8および図9を参照して、HMD110の視野CVの変化に伴い、仮想カメラ300が非制作領域を有する対象物に近づいた場合の処理(図3におけるステップS2の処理)を説明する。
図8に示すように、ステップS21において、制御部121は、HMD110を装着したユーザUが動いた否か、すなわち、位置センサ130および/またはHMDセンサ114からHMD110の動きを示すデータを受信したか否かを判定する。そして、制御部121は、位置センサ130および/またはHMDセンサ114からHMD110の動きを示すデータを受信した場合には、HMD110が移動したと判定し(ステップS21のYes)、ステップS22において、当該データに基づいて仮想空間内で仮想カメラ300を移動させる。具体的には、図9(a),(b)に示すように、HMD110を装着したユーザUが非制作領域NRを有する壁画像W(対象物の一例)に近づく方向に移動した場合、制御部121は、HMD110の移動量に応じて仮想カメラ300を第一の移動速度V1で壁画像Wに近づく方向(矢印Aの方向)に移動させる。
Next, with reference to FIG. 8 and FIG. 9, a process when the
As shown in FIG. 8, in step S21, the
次に、ステップS23において、制御部121は、壁画像Wから一定の距離離れた地点(図9の処理開始地点L1)に仮想カメラ300が到達したか否かを判定する。そして、制御部121は、仮想カメラ300が処理開始地点L1に到達したと判定された場合に(ステップS23のYes)、ステップS24において、仮想カメラ300を、第一の移動速度V1よりも遅い第二の移動速度V2(図9(b)参照)で壁画像Wに近づく方向(図9(a)矢印A´の方向)に移動させる。
Next, in step S <b> 23, the
次に、ステップS25において、制御部121は、壁画像Wの表面からわずかに手前の地点であるデッドラインL2(所定の下限値の一例)に仮想カメラ300が到達したか否かを判定する。そして、制御部121は、仮想カメラ300がデッドラインL2に到達したと判定された場合に(ステップS25のYes)、ステップS26において、仮想カメラ300の移動を停止する。なお、デッドラインL2は、壁画像Wの表面と一致した位置となるように設定されてもよい。
Next, in step S <b> 25, the
このように、制御部121は、HMD110の移動量に基づいて仮想カメラ300と壁画像Wとの間の想定距離を特定し、当該想定距離が処理開始地点L1以下であると判定された場合には、仮想カメラ300がデッドラインL2を超えないように、すなわち、仮想カメラ300と壁画像Wとの間の実際の距離が下限値を下回らないように、仮想カメラ300の位置を制御する。その後、制御部121は、仮想カメラ300の位置に基づいて、視野画像データを生成して、生成された視野画像データに基づいて、視野画像VをHMD110の表示部112に表示する(図4のステップS3,S4参照)。
As described above, the
本実施形態によれば、非制作領域を有する対象物(例えば、裏面が非制作領域NRである壁画像W)に対して仮想カメラ300が所定の距離までしか近づくことができないようにその位置が制御される。これにより、例えばHMD110の予期しない動きに連動して仮想カメラ300が壁画像Wをすり抜けて、非制作領域NRが視認されてしまうことを制限することができる。そのため、想定されるゲーム空間の裏側まで作り込む必要がなくなり、レンダリング処理の負荷を軽減させることができる。
According to this embodiment, the position of the
また、本実施形態によれば、制御部121は、HMD110の移動量を仮想カメラ300の移動量に変換する際の変換率を、仮想カメラ300と壁画像Wとの間の距離が処理開始地点L1以上であると判定された場合の変換率よりも下げるように制御している。これにより、図9(b)に示すように、壁画像Wに向かう方向への仮想カメラ300の移動時には、通常の移動速度V1よりも遅い速度V2で仮想カメラ300の視野が変更される。このように、HMD110の移動に対する仮想カメラ300の反応速度を鈍くすることで、非制作領域NRが視認されないように処理しつつ、ユーザUに対して壁画像W方向への移動が制限されていることを的確に伝えることができる。
Further, according to the present embodiment, the
なお、仮想カメラ300が壁画像Wに近づく場合だけではなく、家具オブジェクトFに近づく場合にも、上記と同様の処理を行っても良い。すなわち、制御部121は、非制作領域を有する家具オブジェクトFに対して仮想カメラ300が所定の距離までしか近づくことができないように、仮想カメラ300の位置を制御してもよい。これにより、家具オブジェクトFの内部まで作り込む必要がなくなり、レンダリング処理の負荷を軽減させることができる。
Note that the same processing as described above may be performed not only when the
また、制御部121によって実行される各種処理をソフトウェアによって実現するために、本実施形態に係る表示制御方法をコンピュータ(プロセッサ)に実行させるための表示制御プログラムが記憶部123またはROMに予め組み込まれていてもよい。または、表示制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納されたプログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた表示制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は本実施形態に係る表示制御方法を実行する。
In addition, in order to implement various processes executed by the
また、表示制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部123に組み込まれる。
The display control program may be downloaded from a computer on the
以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲およびその均等の範囲に基づいて定められるべきである。 As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.
上記の実施形態においては、図9(b)に示すように、制御部121は、仮想カメラ300が処理開始地点L1からデッドラインL2に到達するまで仮想カメラ300を一定の移動速度(第二の移動速度V2)で移動させるようにしているが、この例に限られない。例えば、制御部121は、デッドラインL2に近づくにつれて移動速度が徐々に遅くなるように、仮想カメラ300の移動速度を制御してもよい。
In the above embodiment, as shown in FIG. 9B, the
図10に示すように、制御部121は、処理開始地点L1とデットラインL2とを同位置に設定しても良い。すなわち、制御部121は、仮想カメラ300が処理開始地点L1に到達したと判定された場合には、仮想カメラ300の位置を変更しないように制御する。このように、壁画像Wに向かう方向へのHMD110の移動を仮想カメラ300の移動に反映させないようにすることでも、ユーザUに対して壁画像Wに向かう方向への移動が制限されていることを的確に伝えることができる。
As shown in FIG. 10, the
上記の実施形態においては、デッドラインL2は、壁画像Wの表面と一致した位置あるいは壁画像Wの表面からわずかに手前の位置となるように設定されているが、これらに限られない。例えば、図11に示すように、デッドラインL2を処理開始地点L1よりも壁画像Wに対して離れた位置となるように設定しても良い。このような設定によれば、HMD110が壁画像Wに近づくように移動した場合に、処理開始地点L1に到達した仮想カメラ300がデッドラインL2へ移動することで、仮想カメラ300は、例えば、壁画像Wの周囲を覆うバリアによって跳ね返されるような挙動をとる。これにより、ユーザUに対して壁画像Wへ向かう方向への移動が制限されていることを伝えることができる。
In the above embodiment, the deadline L2 is set so as to coincide with the surface of the wall image W or to be slightly in front of the surface of the wall image W, but is not limited thereto. For example, as shown in FIG. 11, the deadline L2 may be set so as to be located farther from the wall image W than the processing start point L1. According to such a setting, when the
制御部121は、仮想カメラ300が処理開始地点L1に到達したと判定された場合には、図12(a),(b)に示すように、デッドラインL2以上の距離を保った所定の位置に仮想カメラ300を瞬時に移動させるように制御してもよい。仮想カメラ300を壁画像Wと一定の距離を保った位置に瞬間移動させることで、非制作領域が視認されないように処理しつつ、ユーザUに対して壁画像Wへ向かう方向への移動が制限されていることを的確に伝えることができる。
When it is determined that the
さらに、図13に示すように、制御部121は、仮想カメラ300がデットラインL2に到達したと判定された場合には、視野画像V内に警告メッセージMを表示しても良い。あるいは、HMD110に付随するイヤホンから警告音を再生することもできる。この方法によっても、ユーザUに対して壁画像Wに向かう方向への移動が制限されていることを的確に伝えることができる。
Furthermore, as illustrated in FIG. 13, the
1:HMDシステム
3:通信ネットワーク
21:中心位置
110:ヘッドマウントディスプレイ(HMD)
112:表示部
114:HMDセンサ
116:ヘッドフォン
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
200:仮想空間
300:仮想カメラ
L1:処理開始地点
L2:デッドライン(下限値)
F:家具オブジェクト
M:警告メッセージ
U:ユーザ
V:視野画像
W:壁画像(対象物)
1: HMD system 3: Communication network 21: Center position 110: Head mounted display (HMD)
112: Display unit 114: HMD sensor 116: Headphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 200: Virtual space 300: Virtual camera L1: Processing start point L2: deadline (lower limit)
F: Furniture object M: Warning message U: User V: View image W: Wall image (object)
Claims (11)
(a)仮想カメラと、非制作領域を有する少なくとも一つの対象物とを含む仮想空間を示す仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記ヘッドマウントディスプレイの移動量に応じて前記仮想カメラを移動させるステップと、
(d)前記移動量に基づいて前記仮想カメラと前記対象物との間の距離を特定するステップと、
(e)前記距離が所定の閾値以下であると判定された場合には、前記距離が所定の下限値を下回らないように、前記仮想カメラの位置を制御するステップと、
を含む、表示制御方法。 A display control method in a system including a head mounted display,
(A) generating virtual space data indicating a virtual space including a virtual camera and at least one object having a non-production area;
(B) displaying a visual field image on the head mounted display based on the visual field of the virtual camera and the virtual space data;
(C) moving the virtual camera in accordance with the amount of movement of the head mounted display;
(D) identifying a distance between the virtual camera and the object based on the amount of movement;
(E) controlling the position of the virtual camera so that the distance does not fall below a predetermined lower limit when it is determined that the distance is less than or equal to a predetermined threshold;
Including a display control method.
前記ステップ(e)では、前記想定距離が所定の閾値以下である場合には、前記仮想カメラと前記対象物との前記仮想空間内における実際の距離が前記所定の下限値を下回らないように、前記仮想カメラの位置を制御する、請求項1に記載の表示制御方法。 In the step (d), an assumed distance between the virtual camera and the object when the virtual camera is assumed to be moved based on the movement amount of the head mounted display is specified,
In the step (e), when the assumed distance is equal to or less than a predetermined threshold value, an actual distance in the virtual space between the virtual camera and the object is not less than the predetermined lower limit value. The display control method according to claim 1, wherein the position of the virtual camera is controlled.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016106168A JP6342448B2 (en) | 2016-05-27 | 2016-05-27 | Display control method and program for causing a computer to execute the display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016106168A JP6342448B2 (en) | 2016-05-27 | 2016-05-27 | Display control method and program for causing a computer to execute the display control method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018094155A Division JP2018171455A (en) | 2018-05-15 | 2018-05-15 | Display control method and program for causing computer to execute the method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017211912A true JP2017211912A (en) | 2017-11-30 |
JP6342448B2 JP6342448B2 (en) | 2018-06-13 |
Family
ID=60474752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016106168A Active JP6342448B2 (en) | 2016-05-27 | 2016-05-27 | Display control method and program for causing a computer to execute the display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6342448B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021215246A1 (en) * | 2020-04-21 | 2021-10-28 | ソニーグループ株式会社 | Image processing device, image processing method, and program |
WO2021230073A1 (en) * | 2020-05-13 | 2021-11-18 | ソニーグループ株式会社 | Information processing device, information processing method, and display device |
WO2023231488A1 (en) * | 2022-06-01 | 2023-12-07 | 网易(杭州)网络有限公司 | Virtual lens control method and apparatus, storage medium and electronic device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003271992A (en) * | 2002-03-13 | 2003-09-26 | Fukui Computer Kk | Virtual model house experience system, method and program, and computer-readable storage medium storing virtual model house experience program |
JP2004341572A (en) * | 2003-05-12 | 2004-12-02 | Namco Ltd | Image generation system, program, and information storage medium |
JP2005250800A (en) * | 2004-03-03 | 2005-09-15 | Konami Co Ltd | Game program and game device |
JP2006297114A (en) * | 2006-05-02 | 2006-11-02 | Sega Corp | Game processing method, record medium and game device |
JP2013257716A (en) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | Obstacle avoiding device and obstacle avoidance method |
JP2013258614A (en) * | 2012-06-13 | 2013-12-26 | Sony Computer Entertainment Inc | Image generation device and image generation method |
-
2016
- 2016-05-27 JP JP2016106168A patent/JP6342448B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003271992A (en) * | 2002-03-13 | 2003-09-26 | Fukui Computer Kk | Virtual model house experience system, method and program, and computer-readable storage medium storing virtual model house experience program |
JP2004341572A (en) * | 2003-05-12 | 2004-12-02 | Namco Ltd | Image generation system, program, and information storage medium |
JP2005250800A (en) * | 2004-03-03 | 2005-09-15 | Konami Co Ltd | Game program and game device |
JP2006297114A (en) * | 2006-05-02 | 2006-11-02 | Sega Corp | Game processing method, record medium and game device |
JP2013257716A (en) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | Obstacle avoiding device and obstacle avoidance method |
JP2013258614A (en) * | 2012-06-13 | 2013-12-26 | Sony Computer Entertainment Inc | Image generation device and image generation method |
Non-Patent Citations (3)
Title |
---|
"【非公式翻訳】DK2によるポジション・トラッキング", ゲームは初心者にやさしく, JPN6017012970, 6 August 2014 (2014-08-06), ISSN: 0003538472 * |
"VR酔い対策の事例", GREE ENGINEERS' BLOG, JPN6017012971, 5 December 2015 (2015-12-05), ISSN: 0003776721 * |
"みんなの手元にVR 第1部:動向 VRシステムが1人1台に、ゲーム用HMDが起爆剤", 日経エレクトロニクス 2014年9月29日号, vol. 第1144号, JPN6017032244, 29 September 2014 (2014-09-29), JP, pages 28 - 35, ISSN: 0003627922 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021215246A1 (en) * | 2020-04-21 | 2021-10-28 | ソニーグループ株式会社 | Image processing device, image processing method, and program |
WO2021230073A1 (en) * | 2020-05-13 | 2021-11-18 | ソニーグループ株式会社 | Information processing device, information processing method, and display device |
WO2023231488A1 (en) * | 2022-06-01 | 2023-12-07 | 网易(杭州)网络有限公司 | Virtual lens control method and apparatus, storage medium and electronic device |
Also Published As
Publication number | Publication date |
---|---|
JP6342448B2 (en) | 2018-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5996814B1 (en) | Method and program for providing image of virtual space to head mounted display | |
JP6058855B1 (en) | Information processing method and program for causing computer to execute information processing method | |
WO2017115635A1 (en) | Information processing method and information processing program | |
JP6228640B1 (en) | Display control method and program for causing a computer to execute the display control method | |
US20180151001A1 (en) | Information processing method and system for executing the information processing method | |
JP2017138973A (en) | Method and program for providing virtual space | |
JP6095830B1 (en) | Visual field information collection method and program for causing a computer to execute the visual field information collection method | |
JP2018171455A (en) | Display control method and program for causing computer to execute the method | |
JP6342448B2 (en) | Display control method and program for causing a computer to execute the display control method | |
JP6212666B1 (en) | Information processing method, program, virtual space distribution system, and apparatus | |
JP6113337B1 (en) | Display control method and program for causing a computer to execute the display control method | |
JP2017045296A (en) | Program for controlling head-mounted display system | |
JP6207691B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP6298874B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP6118444B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP6266823B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
JP2018147504A (en) | Display control method and program for causing computer to execute the display control method | |
JP2018109940A (en) | Information processing method and program for causing computer to execute the same | |
JP2018195172A (en) | Information processing method, information processing program, and information processing device | |
JP2018007227A (en) | Information processing method and program for computer to execute the information processing method | |
JP6738308B2 (en) | Information processing method, program, virtual space distribution system and device | |
JP6333893B2 (en) | Display control method and program for causing a computer to execute the display control method | |
JP2017224275A (en) | Display control method, and program for causing computer to implement display control method | |
JP2018092656A (en) | Information processing method and program for causing computer to execute information processing method | |
JP2018000987A (en) | Display control method and program for allowing computer to execute display control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180417 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180516 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6342448 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |