JP2017224244A - Display control method, and program for causing computer to implement display control method - Google Patents

Display control method, and program for causing computer to implement display control method Download PDF

Info

Publication number
JP2017224244A
JP2017224244A JP2016121076A JP2016121076A JP2017224244A JP 2017224244 A JP2017224244 A JP 2017224244A JP 2016121076 A JP2016121076 A JP 2016121076A JP 2016121076 A JP2016121076 A JP 2016121076A JP 2017224244 A JP2017224244 A JP 2017224244A
Authority
JP
Japan
Prior art keywords
virtual camera
image
eye
visual field
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016121076A
Other languages
Japanese (ja)
Other versions
JP6113337B1 (en
Inventor
篤 猪俣
Atsushi Inomata
篤 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016121076A priority Critical patent/JP6113337B1/en
Application granted granted Critical
Publication of JP6113337B1 publication Critical patent/JP6113337B1/en
Publication of JP2017224244A publication Critical patent/JP2017224244A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display control method capable of limiting visibility of a non-created region in a virtual space.SOLUTION: A display control method in a system with a head mounted display (HMD) comprises: generating virtual space data defining a virtual space, which includes a virtual camera 300 equipped with an image acquisition unit 301 and includes at least one object F having a non-created region NR; causing the HMD to display a visual field image on the basis of the visual field of the virtual camera 300 and the virtual space data; adjusting the orientation of the image acquisition unit 301 in accordance with the orientation of the HMD; moving the virtual camera 300 in accordance with movement input to the virtual camera 300; and, when it is determined that the image acquisition unit 301 has entered the non-created region NR, causing the HMD to display a mask image B that makes the non-created region NR invisible.SELECTED DRAWING: Figure 9

Description

本開示は、表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラムに関する。   The present disclosure relates to a display control method and a program for causing a computer to execute the display control method.

ユーザの頭部に装着され、仮想現実(VR:Virtual Reality)空間や拡張現実(AR:Augmented Reality)空間等の仮想空間として仮想空間画像を表示可能なヘッドマウントディスプレイ(HMD:Head‐Mounted Display)が知られている。特許文献1は、仮想空間を利用して建築物等の物件の設計支援を行うための視点情報表示機能付き設計支援システムを開示している。特許文献1には、リアルタイムで視点位置を変更する手段として、操作ボタン群を操作してユーザが仮想空間内で前後左右にウォークスルーする従来手段の他に、平面図表示部で視点位置を入力することにより瞬時に視点位置を移動させたり、視野角を変更することによって現実空間におけるユーザの移動量を仮想空間における移動量に変換する際の倍率(スケール)を変更させたりする手段が記載されている。   A head-mounted display (HMD: Head-Mounted Display) that is mounted on the user's head and can display a virtual space image as a virtual space such as a virtual reality (VR) space or an augmented reality (AR) space. It has been known. Patent Document 1 discloses a design support system with a viewpoint information display function for supporting design of an object such as a building using a virtual space. In Patent Document 1, as a means for changing the viewpoint position in real time, in addition to the conventional means in which a user walks through the virtual space in the virtual space, the viewpoint position is input on the plan view display unit. The means for instantaneously moving the viewpoint position by changing the viewing angle, or changing the magnification (scale) when converting the movement amount of the user in the real space into the movement amount in the virtual space by changing the viewing angle is described. ing.

特開2000−172740号公報JP 2000-172740 A

三次元の仮想空間内に背景画像や建造物オブジェクトなどの静的オブジェクトを配置してゲーム空間を生成する場合には、レンダリング処理等の負荷を軽減するため、通常は視認されることが想定されていないゲーム空間の裏側(例えば、背景画像の裏面や静的オブジェクトの内側)は作り込まない、すなわちゲーム画面としてレンダリングされることが想定されていない。しかしながら、このようなゲーム空間において、特許文献1に記載のように仮想空間内におけるユーザの移動や視野角の変更に応じて視点位置を変更すると、レンダリングされることが想定されていないゲーム空間の裏側(以下、これらを「非制作領域」と称する)までもがユーザに視認されてしまう場合がある。   When creating a game space by placing static objects such as background images and building objects in a three-dimensional virtual space, it is usually assumed that the game space is visually recognized in order to reduce the load of rendering processing. It is not assumed that the back side of the non-game space (for example, the back side of the background image or the inside of the static object) is not created, that is, rendered as a game screen. However, in such a game space, as described in Patent Document 1, when the viewpoint position is changed according to the movement of the user or the change of the viewing angle in the virtual space, the game space that is not supposed to be rendered. Even the back side (hereinafter referred to as “non-production area”) may be visually recognized by the user.

本開示は、仮想空間における非制作領域の視認を制限可能な表示制御方法を提供することを目的とする。また、本開示は、当該表示制御方法をコンピュータに実行させるためのプログラムを提供することを目的とする。   An object of this indication is to provide the display control method which can restrict | limit the visual recognition of the non-production area | region in virtual space. Moreover, this indication aims at providing the program for making a computer perform the said display control method.

本開示が示す一態様によれば、ヘッドマウントディスプレイを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)画像取得部を備える仮想カメラと、非制作領域を有する少なくとも一つの対象物と、を含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記ヘッドマウントディスプレイの向きに応じて前記画像取得部の向きを調整するステップと、
(d)前記仮想カメラに対する移動入力に応じて前記仮想カメラを移動させるステップと、
(e)前記画像取得部が前記非制作領域内に進入したと判定された場合には、前記非制作領域が視認されないようなマスク画像を前記ヘッドマウントディスプレイに表示させるステップと、
を含む。
According to one aspect of the present disclosure, a display control method in a system including a head mounted display,
The display control method is
(A) generating virtual space data defining a virtual space including a virtual camera including an image acquisition unit and at least one object having a non-production area;
(B) displaying a visual field image on the head mounted display based on the visual field of the virtual camera and the virtual space data;
(C) adjusting the orientation of the image acquisition unit in accordance with the orientation of the head mounted display;
(D) moving the virtual camera in response to a movement input to the virtual camera;
(E) When it is determined that the image acquisition unit has entered the non-production area, a step of displaying a mask image on the head-mounted display so that the non-production area is not visually recognized;
including.

本開示によれば、仮想空間における非制作領域の視認を制限可能な表示制御方法を提供することができる。   According to the present disclosure, it is possible to provide a display control method capable of restricting visual recognition of a non-production area in a virtual space.

本実施形態に係るヘッドマウントディスプレイ(HMD)システムを示す概略図である。It is the schematic which shows the head mounted display (HMD) system which concerns on this embodiment. HMDを装着したユーザの頭部を示す図である。It is a figure which shows the head of the user with which HMD was mounted | worn. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a control apparatus. 視野画像をHMDに表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays a visual field image on HMD. 仮想空間の一例を示すxyz空間図である。It is xyz space figure which shows an example of virtual space. (a)は、図4に示す仮想空間のyx平面図であり、(b)は、図4に示す仮想空間のzx平面図である。(A) is a yx plan view of the virtual space shown in FIG. 4, and (b) is a zx plan view of the virtual space shown in FIG. 4. HMDに表示される視野画像の一例を示す図である。It is a figure which shows an example of the visual field image displayed on HMD. 仮想カメラの画像取得部が対象物の非制作領域に進入した場合の処理を説明するためのフローチャートである。It is a flowchart for demonstrating a process when the image acquisition part of a virtual camera enters into the non-production area | region of a target object. (a)は、仮想カメラの画像取得部が対象物の非制作領域に進入した状態を示す図であり、(b)は、(a)の場合の視野画像を示す図である。(A) is a figure which shows the state which the image acquisition part of the virtual camera entered into the non-production area | region of a target object, (b) is a figure which shows the visual field image in the case of (a). (a)は、仮想カメラの画像取得部の一部が対象物の非制作領域に進入した状態を示す図であり、(b)は、(a)の場合の視野画像を示す図である。(A) is a figure which shows the state which a part of image acquisition part of the virtual camera entered into the non-production area | region of a target object, (b) is a figure which shows the visual field image in the case of (a). (a)は、仮想空間内に配置された左眼用仮想カメラと右眼用仮想カメラのうち左眼用仮想カメラの画像取得部の一部が対象物の非制作領域に進入した状態を示す図であり、(b)は、(a)の場合の左眼用視野画像および右眼用視野画像を示す図である。(A) shows a state in which a part of the image acquisition unit of the left-eye virtual camera among the left-eye virtual camera and the right-eye virtual camera arranged in the virtual space has entered the non-production area of the target object. (B) is a figure which shows the visual field image for left eyes and the visual field image for right eyes in the case of (a). 図11に示す状態において、一方の仮想カメラの画像取得部が対象物の非制作領域に進入した場合の処理を説明するためのフローチャートである。FIG. 12 is a flowchart for explaining processing when the image acquisition unit of one virtual camera enters the non-production area of the target object in the state shown in FIG. 11.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)ヘッドマウントディスプレイを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)画像取得部を備える仮想カメラと、非制作領域を有する少なくとも一つの対象物と、を含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記ヘッドマウントディスプレイの向きに応じて前記画像取得部の向きを調整するステップと、
(d)前記仮想カメラに対する移動入力に応じて前記仮想カメラを移動させるステップと、
(e)前記画像取得部が前記非制作領域内に進入したと判定された場合には、前記非制作領域が視認されないようなマスク画像を前記ヘッドマウントディスプレイに表示させるステップと、
を含む。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) A display control method in a system including a head mounted display,
The display control method is
(A) generating virtual space data defining a virtual space including a virtual camera including an image acquisition unit and at least one object having a non-production area;
(B) displaying a visual field image on the head mounted display based on the visual field of the virtual camera and the virtual space data;
(C) adjusting the orientation of the image acquisition unit in accordance with the orientation of the head mounted display;
(D) moving the virtual camera in response to a movement input to the virtual camera;
(E) When it is determined that the image acquisition unit has entered the non-production area, a step of displaying a mask image on the head-mounted display so that the non-production area is not visually recognized;
including.

上記方法によれば、非制作領域内に仮想カメラの画像取得部が進入した場合には視野画像を覆うようにマスク画像が表示されるため、仮想カメラが対象物内に入り込んだ状態でも非制作領域が視認されてしまうことがない。   According to the above method, when the image acquisition unit of the virtual camera enters the non-production area, the mask image is displayed so as to cover the visual field image, so that the non-production is performed even when the virtual camera enters the target object. The area is not visually recognized.

(2)前記マスク画像は、暗転画像、白紙画像、および前記対象物の表面画像の少なくとも一つから構成されても良い。   (2) The mask image may include at least one of a dark image, a blank image, and a surface image of the object.

マスク画像の表示として上記のような画像処理を行うことで、非制作領域の視認を容易に制限することができる。   By performing the image processing as described above for displaying the mask image, it is possible to easily limit the visibility of the non-production area.

(3)前記ステップ(d)では、前記非制作領域内に進入したと判定された前記画像取得部の面積割合に応じて、前記視野画像内における前記マスク画像の表示割合を決定しても良い。   (3) In the step (d), a display ratio of the mask image in the visual field image may be determined according to an area ratio of the image acquisition unit determined to have entered the non-production area. .

上記方法によれば、仮想カメラの画像取得部が対象物に入り込んだ部分だけ視野画像を覆うようにマスク画像が表示されるため、ユーザ主導の自然な画像表示を行うことができる。   According to the above method, the mask image is displayed so as to cover the field-of-view image only in the part where the image acquisition unit of the virtual camera enters the target object, and therefore, user-driven natural image display can be performed.

(4)前記仮想カメラは、左眼用仮想カメラと右眼用仮想カメラとを含み、
前記ステップ(d)では、前記左眼用仮想カメラと前記右眼用仮想カメラのいずれか一方の画像取得部が前記非制作領域内に進入したと判定された場合には、左眼用視野画像および右眼用視野画像の両方を覆うように前記マスク画像を表示させても良い。
(4) The virtual camera includes a left-eye virtual camera and a right-eye virtual camera,
In the step (d), if it is determined that one of the image acquisition units of either the left-eye virtual camera or the right-eye virtual camera has entered the non-production area, the left-eye visual field image The mask image may be displayed so as to cover both the right-eye visual field image.

上記方法によれば、片方の仮想カメラの画像取得部のみが対象物に入り込んだ場合にも、左眼用視野画像へのマスク画像の表示と右眼用視野画像へのマスク画像の表示を連動させることで、非制作領域の視認を確実に制限することができる。   According to the above method, even when only the image acquisition unit of one virtual camera enters the target, the display of the mask image on the left eye view image and the display of the mask image on the right eye view image are linked. By doing so, it is possible to reliably limit the visibility of the non-production area.

(5)前記ステップ(d)は、
前記左眼用仮想カメラおよび前記右眼用仮想カメラのうち少なくとも一方の仮想カメラが前記対象物へ近接したときに、前記左眼用仮想カメラと前記右眼用仮想カメラとの視差情報を取得するステップと、
当該一方の仮想カメラの画像取得部が前記非制作領域へ進入したときに、前記非制作領域内に含まれる前記画像取得部の面積割合を判定するステップと、
前記視差情報および前記面積割合に基づいて、他方の仮想カメラにより生成された視野画像に対する前記マスク画像の表示割合を決定するステップと、を含んでいても良い。
(5) The step (d)
When at least one of the left-eye virtual camera and the right-eye virtual camera approaches the object, parallax information between the left-eye virtual camera and the right-eye virtual camera is acquired. Steps,
Determining an area ratio of the image acquisition unit included in the non-production area when the image acquisition unit of the one virtual camera enters the non-production area;
And determining a display ratio of the mask image with respect to the visual field image generated by the other virtual camera based on the parallax information and the area ratio.

上記方法によれば、左眼用視野画像へのマスク画像表示と右眼用視野画像へのマスク画像表示を適切に連動させることができる。   According to the above method, the mask image display on the left eye visual field image and the mask image display on the right eye visual field image can be appropriately interlocked.

(6)一実施形態に係るプログラムは、(1)から(5)のうちいずれかに記載の表示制御方法をコンピュータに実行させるためのプログラムである。   (6) A program according to an embodiment is a program for causing a computer to execute the display control method according to any one of (1) to (5).

この構成によれば、仮想空間における非制作領域の視認を制限可能なプログラムを提供することができる。   According to this configuration, it is possible to provide a program capable of limiting the visual recognition of the non-production area in the virtual space.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

図1は、本開示が示す実施形態(以下、単に本実施形態という。)に係るヘッドマウントディスプレイ(以下、単にHMDという。)システム1を示す概略図である。図1に示すように、HMDシステム1は、ユーザUの頭部に装着されたHMD110と、位置センサ130と、制御装置120と、外部コントローラ320とを備える。   FIG. 1 is a schematic diagram showing a head-mounted display (hereinafter simply referred to as HMD) system 1 according to an embodiment (hereinafter simply referred to as this embodiment) shown in the present disclosure. As shown in FIG. 1, the HMD system 1 includes an HMD 110 mounted on the head of the user U, a position sensor 130, a control device 120, and an external controller 320.

HMD110は、表示部112と、HMDセンサ114と、ヘッドフォン116とを備えている。なお、HMD110にヘッドフォン116を設けずに、HMD110とは独立したスピーカやヘッドフォンを用いても良い。   The HMD 110 includes a display unit 112, an HMD sensor 114, and a headphone 116. Note that a speaker or headphones independent of the HMD 110 may be used without providing the headphones 116 on the HMD 110.

表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。なお、表示部112は、ユーザUの左眼に投影される左眼用の表示部とユーザUの右眼に投影される右眼用の表示部とから構成されてもよい。   The display unit 112 includes a non-transmissive display device configured to completely cover the field of view (field of view) of the user U wearing the HMD 110. Thereby, the user U can immerse in the virtual space by viewing only the visual field image displayed on the display unit 112. Note that the display unit 112 may include a display unit for the left eye that is projected onto the left eye of the user U and a display unit for the right eye that is projected onto the right eye of the user U.

HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動きを検出することができる。   The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (such as an angular velocity sensor and a gyro sensor), and can detect various movements of the HMD 110 mounted on the head of the user U.

位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110の位置を検出するように構成されている。位置センサ130は、制御装置120に無線または有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾きまたは発光強度に関する情報を検出するように構成されている。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。   The position sensor 130 is composed of, for example, a position tracking camera, and is configured to detect the position of the HMD 110. The position sensor 130 is communicably connected to the control device 120 by wireless or wired communication, and is configured to detect information on the position, inclination, or light emission intensity of a plurality of detection points (not shown) provided in the HMD 110. . The position sensor 130 may include an infrared sensor and a plurality of optical cameras.

制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。   The control device 120 acquires the position information of the HMD 110 based on the information acquired from the position sensor 130, and wears the position of the virtual camera in the virtual space and the HMD 110 in the real space based on the acquired position information. Thus, the position of the user U can be accurately associated.

次に、図2を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図2は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130および/またはHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交し表示部112の中心とユーザUとを結ぶ方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130および/またはHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、視野情報を定義する仮想カメラの視軸を制御するための角度情報を決定する。   Next, with reference to FIG. 2, a method for acquiring information related to the position and inclination of the HMD 110 will be described. FIG. 2 is a diagram illustrating the head of the user U wearing the HMD 110. Information regarding the position and inclination of the HMD 110 that is linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands upright is defined as the v axis, the direction orthogonal to the v axis and connecting the center of the display unit 112 and the user U is defined as the w axis, and the direction perpendicular to the v axis and the w axis is the u axis. It prescribes as The position sensor 130 and / or the HMD sensor 114 is an angle around each uvw axis (that is, a yaw angle indicating rotation about the v axis, a pitch angle indicating rotation about the u axis, and a center about the w axis). The inclination determined by the roll angle indicating rotation) is detected. The control device 120 determines angle information for controlling the visual axis of the virtual camera that defines the visual field information based on the detected angle change around each uvw axis.

次に、図3を参照することで、制御装置120のハードウェア構成について説明する。図3は、制御装置120のハードウェア構成を示す図である。図3に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125とは、バス126を介して互いに通信可能に接続されている。   Next, the hardware configuration of the control device 120 will be described with reference to FIG. FIG. 3 is a diagram illustrating a hardware configuration of the control device 120. As shown in FIG. 3, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are connected to each other via a bus 126 so as to communicate with each other.

制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレットまたはウェアラブルデバイスとして構成されてもよいし、HMD110の内部に搭載されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。   The control device 120 may be configured as a personal computer, a tablet, or a wearable device separately from the HMD 110, or may be mounted inside the HMD 110. In addition, some functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.

制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)および/またはGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。   The control unit 121 includes a memory and a processor. The memory includes, for example, a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit), and a program specified from various programs incorporated in the ROM is expanded on the RAM. It is comprised so that various processes may be performed in cooperation with.

特に、プロセッサが本実施形態に係る表示制御方法をコンピュータに実行させるための表示制御プログラム(後述する)をRAM上に展開し、RAMとの協働で当該プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、メモリや記憶部123に格納された所定のアプリケーション(ゲームプログラム)を実行することで、HMD110の表示部112に仮想空間(視野画像)を提供する。これにより、ユーザUは、表示部112に提供された仮想空間に没入することができる。   In particular, the controller 121 develops a display control program (to be described later) for causing the computer to execute the display control method according to the present embodiment on the RAM, and executes the program in cooperation with the RAM. May control various operations of the control device 120. The control unit 121 provides a virtual space (view image) to the display unit 112 of the HMD 110 by executing a predetermined application (game program) stored in the memory or the storage unit 123. Thereby, the user U can be immersed in the virtual space provided on the display unit 112.

記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123には、表示制御プログラムが組み込まれてもよい。また、ユーザの認証プログラムや各種画像やオブジェクトに関するデータを含むゲームプログラム等が格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。   The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may incorporate a display control program. In addition, a user authentication program, a game program including data on various images and objects, and the like may be stored. Furthermore, a database including tables for managing various data may be constructed in the storage unit 123.

I/Oインターフェース124は、位置センサ130と、HMD110と、外部コントローラ320をそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。なお、制御装置120は、位置センサ130と、HMD110と、外部コントローラ320のそれぞれと無線接続されていてもよい。   The I / O interface 124 is configured to connect the position sensor 130, the HMD 110, and the external controller 320 to the control device 120 in a communicable manner. For example, the I / O interface 124 includes a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Bus), and the like. An interface) terminal, an HDMI (registered trademark) (high-definition multimedia interface) terminal, and the like. Note that the control device 120 may be wirelessly connected to each of the position sensor 130, the HMD 110, and the external controller 320.

通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)またはインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介して外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。   The communication interface 125 is configured to connect the control device 120 to a communication network 3 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with an external device via the communication network 3 and various processing circuits for wireless connection. The communication interface 125 conforms to a communication standard for communicating via the communication network 3. Configured to fit.

次に、図4から図6を参照することで視野画像をHMD110に表示するための処理について説明する。図4は、視野画像VをHMD110に表示するための処理を示すフローチャートである。図5は、仮想空間200の一例を示すxyz空間図を示す。図6(a)は、図5に示す仮想空間200のyx平面図であって、図6(b)は、図5に示す仮想空間200のzx平面図である。   Next, processing for displaying a field-of-view image on the HMD 110 will be described with reference to FIGS. 4 to 6. FIG. 4 is a flowchart showing a process for displaying the visual field image V on the HMD 110. FIG. 5 shows an xyz space diagram showing an example of the virtual space 200. 6A is a yx plan view of the virtual space 200 shown in FIG. 5, and FIG. 6B is a zx plan view of the virtual space 200 shown in FIG.

図4に示すように、ステップS1において、制御部121(図3参照)は、仮想カメラ300が配置された仮想空間200を示す仮想空間データを生成する。図5および図6に示すように、仮想空間200は、中心位置21を中心とした全天球として規定される(図5および図6では、上半分の天球のみが図示されている)。また、仮想空間200には、中心位置21を原点とするxyz座標系が設定されている。HMDシステム1の初期状態では、仮想カメラ300が仮想空間200の中心位置21に配置されている。
仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、仮想カメラ300を仮想空間200内で移動させてもよい。
As shown in FIG. 4, in step S1, the control unit 121 (see FIG. 3) generates virtual space data indicating the virtual space 200 in which the virtual camera 300 is arranged. As shown in FIGS. 5 and 6, the virtual space 200 is defined as a celestial sphere centered on the center position 21 (only the upper half celestial sphere is shown in FIGS. 5 and 6). In the virtual space 200, an xyz coordinate system with the center position 21 as the origin is set. In the initial state of the HMD system 1, the virtual camera 300 is disposed at the center position 21 of the virtual space 200.
The uvw coordinate system that defines the visual field of the virtual camera 300 is determined so as to be linked to the uvw coordinate system that is defined around the head of the user U in the real space. Further, the virtual camera 300 may be moved in the virtual space 200 in conjunction with the movement of the user U wearing the HMD 110 in the real space.

次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図6参照)を特定する。具体的には、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを決定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸に相当する基準視線Lを決定し、決定された基準視線Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域と一致する(換言すれば、HMD110に表示される仮想空間200の一部の領域に一致する)。また、視野CVは、図6(a)に示すxy平面において、基準視線Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図6(b)に示すxz平面において、基準視線Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。   Next, in step S2, the control unit 121 specifies the field of view CV (see FIG. 6) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 determines the position and orientation of the virtual camera 300 in the virtual space 200 based on information regarding the position and inclination of the HMD 110. Next, the control unit 121 determines a reference line of sight L corresponding to the visual axis of the virtual camera 300 from the position and orientation of the virtual camera 300, and specifies the field of view CV of the virtual camera 300 from the determined reference line of sight L. Here, the visual field CV of the virtual camera 300 coincides with a part of the virtual space 200 visible to the user U wearing the HMD 110 (in other words, a part of the virtual space 200 displayed on the HMD 110). To match). The field of view CV is a first region CVa set as an angular range of the polar angle α around the reference line of sight L in the xy plane shown in FIG. 6A, and in the xz plane shown in FIG. 6B. And a second region CVb set as an angle range of the azimuth angle β with the reference line of sight L as the center.

このように、制御部121は、位置センサ130および/またはHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを特定することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを移動させることができる。   As described above, the control unit 121 can specify the visual field CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U wearing the HMD 110 moves, the control unit 121 specifies the visual field CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can move the visual field CV according to the movement of the HMD 110.

次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像を示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。   Next, in step S <b> 3, the control unit 121 generates visual field image data indicating the visual field image displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300.

次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像を表示する。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。   Next, in step S <b> 4, the control unit 121 displays a field image on the display unit 112 of the HMD 110 based on the field image data. As described above, the visual field CV of the virtual camera 300 is changed according to the movement of the user U wearing the HMD 110, and the visual field image V displayed on the HMD 110 is changed, so that the user U is immersed in the virtual space 200. be able to.

図7は、HMD110の表示部112に表示される視野画像Vの一例を示している。
図7に示す視野画像Vにおいて、部屋の壁部分は、仮想空間200を形成する天球(図5および図6参照)に貼られた背景画像である壁画像W(対象物の一例)から構成されている。また、壁画像Wで囲まれた部屋の内部には、テーブルやソファ、ベッド等の家具オブジェクトF(対象物の一例)が配置されている。このような視野画像Vを作成するに際し、壁画像Wの裏面や家具オブジェクトFの内側は、通常はユーザに視認されないため、ゲーム画面としてレンダリングされることが想定されていない。本実施形態では、このようなゲーム画面としてレンダリングされることが想定されていない領域を非制作領域NR(図9(a)参照)と称する。
FIG. 7 shows an example of the visual field image V displayed on the display unit 112 of the HMD 110.
In the visual field image V shown in FIG. 7, the wall portion of the room is composed of a wall image W (an example of an object) that is a background image attached to a celestial sphere (see FIGS. 5 and 6) that forms a virtual space 200. ing. In addition, a furniture object F (an example of an object) such as a table, a sofa, or a bed is arranged inside the room surrounded by the wall image W. When creating such a field-of-view image V, the back side of the wall image W and the inside of the furniture object F are not normally viewed by the user, and therefore are not assumed to be rendered as a game screen. In the present embodiment, an area that is not supposed to be rendered as such a game screen is referred to as a non-production area NR (see FIG. 9A).

次に、図8および図9(a)および(b)を参照して、HMD110の視野CVの変化に伴い、仮想カメラ300の画像取得部301が非制作領域を有する対象物(例えば、家具オブジェクトF)に進入した場合の処理を説明する。なお、画像取得部301は、仮想カメラ300の位置または向きにより決定される視野を定義し得るものであればその構成が限定されるものではないが、本例では説明の簡略化のため、例えば図9(a)に示すような仮想カメラ300のレンズを示すものとして説明する。   Next, referring to FIG. 8 and FIG. 9A and FIG. 9B, the object (for example, furniture object) in which the image acquisition unit 301 of the virtual camera 300 has a non-production area in accordance with the change in the field of view CV of the HMD 110. The process when entering F) will be described. Note that the configuration of the image acquisition unit 301 is not limited as long as it can define a field of view determined by the position or orientation of the virtual camera 300, but in this example, for simplicity of description, for example, Description will be made assuming that the lens of the virtual camera 300 as shown in FIG.

図8に示すように、ステップS11において、制御部121は、HMD110を装着したユーザUが動いた否か、あるいは、コントローラ320から仮想カメラ300を移動させるための操作が入力された否か、すなわち、仮想カメラ300に対する移動入力の有無を判定する。そして、制御部121は、仮想カメラ300に対する移動入力を受けた場合には(ステップS11のYes)、ステップS12において、当該移動入力に基づいて仮想空間内で仮想カメラ300を移動させる。   As shown in FIG. 8, in step S <b> 11, the control unit 121 determines whether or not the user U wearing the HMD 110 moves or whether or not an operation for moving the virtual camera 300 is input from the controller 320. The presence / absence of a movement input to the virtual camera 300 is determined. When the movement input to the virtual camera 300 is received (Yes in Step S11), the control unit 121 moves the virtual camera 300 in the virtual space based on the movement input in Step S12.

次に、ステップS13において、制御部121は、仮想カメラ300の画像取得部301が対象物の非制作領域内に進入したか否かを判定する。そして、図9(a)に示すように、画像取得部301が例えば家具オブジェクトFの非制作領域NR内に進入した場合には(ステップS13のYes)、制御部121は、ステップS14において、非制作領域NR内に進入した画像取得部301の面積割合を判定する。   Next, in step S13, the control unit 121 determines whether or not the image acquisition unit 301 of the virtual camera 300 has entered the non-production area of the target object. Then, as shown in FIG. 9A, when the image acquisition unit 301 enters, for example, the non-production area NR of the furniture object F (Yes in step S13), the control unit 121 determines that the non-production area NR is not in step S14. The area ratio of the image acquisition unit 301 that has entered the production area NR is determined.

次に、制御部121は、ステップS15において、非制作領域NR内に進入した画像取得部301の面積割合に応じてHMD110の表示部112に表示されるマスク画像の表示割合を決定する。そして、制御部121は、ステップS16において、決定した表示割合に応じてマスク画像データを生成し、生成したマスク画像データに応じてHMD110の表示部112にマスク画像を表示させる。例えば、仮想カメラ300の画像取得部301が非制作領域NR内に完全に進入した場合には、図9(b)に示すように、視野画像Vの全体がマスク画像である暗転画像(黒画像)Bで覆われる。一方、図10(a)に示すように、仮想カメラ300の画像取得部301の一部のみが非制作領域NR内に進入した場合には、非制作領域NR内に進入した画像取得部301の面積割合に応じて、図10(b)に示すように、視野画像Vの一部のみが暗転画像Bで覆われる。なお、マスク画像は、図9(b)や図10(b)に示す暗転画像Bに限られず、白紙(ホワイトアウト)画像や家具オブジェクトFの表面画像であってもよい。   Next, in step S15, the control unit 121 determines the display ratio of the mask image displayed on the display unit 112 of the HMD 110 in accordance with the area ratio of the image acquisition unit 301 that has entered the non-production area NR. In step S16, the control unit 121 generates mask image data according to the determined display ratio, and causes the display unit 112 of the HMD 110 to display the mask image according to the generated mask image data. For example, when the image acquisition unit 301 of the virtual camera 300 has completely entered the non-production area NR, as shown in FIG. 9B, a dark image (black image) in which the entire view image V is a mask image. ) Covered with B. On the other hand, as shown in FIG. 10A, when only a part of the image acquisition unit 301 of the virtual camera 300 enters the non-production region NR, the image acquisition unit 301 that has entered the non-production region NR. Depending on the area ratio, only a part of the visual field image V is covered with the dark image B as shown in FIG. The mask image is not limited to the dark image B shown in FIGS. 9B and 10B, and may be a white paper image or a surface image of the furniture object F.

このように、本実施形態によれば、画像取得部301が非制作領域NR内に進入した場合には、視野画像Vを覆うようにマスク画像がHMD110の表示部112に表示される。これにより、仮想カメラ300に対する予期しない移動入力に応じて仮想カメラ300が家具オブジェクトF内に進入して、非制作領域NRが視認されてしまうことを制限することができる。そのため、想定されるゲーム空間の裏側まで作り込む必要がなくなり、レンダリング処理の負荷を軽減させることができる。なお、仮想カメラ300が家具オブジェクトF内に進入した場合だけではなく、背景画像である壁画像Wをすり抜けた場合にも、上記と同様の処理を行っても良い。   Thus, according to the present embodiment, when the image acquisition unit 301 enters the non-production area NR, the mask image is displayed on the display unit 112 of the HMD 110 so as to cover the visual field image V. Thereby, it can be restricted that the virtual camera 300 enters the furniture object F in response to an unexpected movement input to the virtual camera 300 and the non-production area NR is visually recognized. For this reason, it is not necessary to create the assumed game space, and the load of rendering processing can be reduced. Note that the same processing as described above may be performed not only when the virtual camera 300 enters the furniture object F but also when the virtual camera 300 passes through the wall image W that is the background image.

また、非制作領域NR内に進入したと判定された画像取得部301の面積割合に応じて、視野画像V内におけるマスク画像の表示割合を決定している。これにより、画像取得部301が非制作領域NR内に入り込んだ部分だけ視野画像Vを覆うようにマスク画像が表示されるため、ユーザ主導の自然な画像表示を行うことができる。   In addition, the display ratio of the mask image in the field-of-view image V is determined according to the area ratio of the image acquisition unit 301 determined to have entered the non-production area NR. As a result, the mask image is displayed so as to cover only the portion of the image acquisition unit 301 that has entered the non-production area NR so as to cover the visual field image V, so that a user-driven natural image display can be performed.

また、制御部121によって実行される各種処理をソフトウェアによって実現するために、本実施形態に係る表示制御方法をコンピュータ(プロセッサ)に実行させるための表示制御プログラムが記憶部123またはROMに予め組み込まれていてもよい。または、表示制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納されたプログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた表示制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は本実施形態に係る表示制御方法を実行する。   In addition, in order to implement various processes executed by the control unit 121 by software, a display control program for causing a computer (processor) to execute the display control method according to the present embodiment is incorporated in the storage unit 123 or the ROM in advance. It may be. Alternatively, the display control program can be a magnetic disk (HDD, floppy disk), optical disk (CD-ROM, DVD-ROM, Blu-ray disk, etc.), magneto-optical disk (MO, etc.), flash memory (SD card, USB memory, It may be stored in a computer-readable storage medium such as SSD. In this case, the program stored in the storage medium is incorporated into the storage unit 123 by connecting the storage medium to the control device 120. Then, the display control program incorporated in the storage unit 123 is loaded on the RAM, and the control unit 121 executes the display control method according to the present embodiment by executing the loaded program.

また、表示制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部123に組み込まれる。   The display control program may be downloaded from a computer on the communication network 3 via the communication interface 125. Similarly in this case, the downloaded program is incorporated in the storage unit 123.

以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲およびその均等の範囲に基づいて定められるべきである。   As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.

上記の実施形態においては、図9(b)に示すように、仮想空間内に配置される仮想カメラが1つであるとして説明を行っているが、例えば、図11(a)に示すように、仮想カメラは、視点位置が互いに異なる左眼用仮想カメラ300Lと右眼用仮想カメラ300Rとを含んでも良い。この場合、制御部121は、仮想空間データと左眼用仮想カメラ300Lの視野に基づいて、左眼用視野画像データを生成するとともに、仮想空間データと右眼用仮想カメラ300Rの視野に基づいて、右眼用視野画像データを生成する。そして、制御部121は、左眼用視野画像データと右眼用視野画像データとに基づいて、図11(b)に示すように、HMD110の表示部112に左眼用視野画像VLおよび右眼用視野画像VRを表示することで、ユーザUは、視野画像を3次元画像として視認することができる。   In the above embodiment, as illustrated in FIG. 9B, the description has been made assuming that there is one virtual camera arranged in the virtual space. For example, as illustrated in FIG. The virtual camera may include a left-eye virtual camera 300L and a right-eye virtual camera 300R having different viewpoint positions. In this case, the control unit 121 generates left-eye visual field image data based on the virtual space data and the visual field of the left-eye virtual camera 300L, and based on the virtual space data and the visual field of the right-eye virtual camera 300R. The right eye field-of-view image data is generated. Then, based on the left-eye view image data and the right-eye view image data, the control unit 121 displays the left-eye view image VL and the right-eye on the display unit 112 of the HMD 110 as illustrated in FIG. By displaying the visual field image VR, the user U can visually recognize the visual field image as a three-dimensional image.

次に、図11(a),(b)および図12を参照して、左眼用仮想カメラ300Lおよび右眼用仮想カメラ300Rを用いた場合の本実施形態に係る視野画像の表示制御処理について説明する。
図12に示すように、ステップS21において、制御部121は、左眼用仮想カメラ300Lおよび右眼用仮想カメラ300Rに対する移動入力に基づいて左眼用仮想カメラ300Lおよび右眼用仮想カメラ300Rの少なくとも一方が非制作領域NRを有する対象物(例えば、家具オブジェクトF)に対して所定の距離まで近接したか否かを判定する。そして、仮想カメラ300L,300Rの少なくとも一方が家具オブジェクトFに対して所定の距離まで近接したと判定した場合には(ステップS21のYes)、制御部121は、ステップS22において、その時点における左眼用仮想カメラ300Lと右眼用仮想カメラ300Rとの視差(視差情報)を特定する。左眼用仮想カメラ300Lと右眼用仮想カメラ300Rとの視差は、例えば、図11(a)に示されるように、左眼用仮想カメラ300Lの画像取得部301Lの中心と右眼用仮想カメラ300Rの画像取得部301Rの中心との距離L1により特定される。
Next, with reference to FIGS. 11A, 11 </ b> B, and 12, the visual field image display control process according to the present embodiment when the left-eye virtual camera 300 </ b> L and the right-eye virtual camera 300 </ b> R are used. explain.
As illustrated in FIG. 12, in step S21, the control unit 121 determines at least the left-eye virtual camera 300L and the right-eye virtual camera 300R based on the movement input to the left-eye virtual camera 300L and the right-eye virtual camera 300R. It is determined whether one of the objects having the non-production area NR is close to a predetermined distance (for example, the furniture object F). When it is determined that at least one of the virtual cameras 300L and 300R has approached the furniture object F up to a predetermined distance (Yes in step S21), the control unit 121 determines in step S22 that the left eye at that time point. The parallax (parallax information) between the virtual camera for camera 300L and the virtual camera for the right eye 300R is specified. For example, as shown in FIG. 11A, the parallax between the left-eye virtual camera 300L and the right-eye virtual camera 300R is the center of the image acquisition unit 301L of the left-eye virtual camera 300L and the right-eye virtual camera. It is specified by the distance L1 from the center of the 300R image acquisition unit 301R.

次に、ステップS23において、制御部121は、左眼用仮想カメラ300Lおよび右眼用仮想カメラ300Rの少なくとも一方が家具オブジェクFの非制作領域NR内に進入したか否かを判定する。そして、図11(a)に示すように、例えば左眼用仮想カメラ300Lの画像取得部301Lが家具オブジェクトFの非制作領域NR内に進入した場合には(ステップS22のYes)、制御部121は、ステップS24において、非制作領域NR内に進入した左眼用仮想カメラ300Lの画像取得部301Lの面積割合を判定し、左眼用視野画像に対するマスク画像の表示割合を決定する。   Next, in step S23, the control unit 121 determines whether or not at least one of the left-eye virtual camera 300L and the right-eye virtual camera 300R has entered the non-production area NR of the furniture object F. 11A, for example, when the image acquisition unit 301L of the left-eye virtual camera 300L enters the non-production area NR of the furniture object F (Yes in step S22), the control unit 121 In step S24, the area ratio of the image acquisition unit 301L of the left-eye virtual camera 300L that has entered the non-production area NR is determined, and the display ratio of the mask image with respect to the left-eye visual field image is determined.

次に、制御部121は、ステップS22で特定した視差L1およびステップS24で判定した左眼用仮想カメラ300Lの画像取得部301Lの面積割合に基づいて、右眼用視野画像に対するマスク画像の表示割合を決定する。具体的には、制御部121は、ステップS25において、左眼用視野画像に対するマスク画像の表示割合から視差L1を差し引くことで、右眼用視野画像に対するマスク画像の表示割合を決定する(ステップS26)。そして、制御部121は、ステップS26において、ステップS24およびステップS26においてそれぞれ決定した左眼用視野画像および右眼用視野画像に対するマスク画像の表示割合に応じてマスク画像データを生成し、生成したマスク画像データに応じてHMD110の表示部112に表示される左眼用視野画像および右眼用視野画像に対してマスク画像Bをそれぞれ表示させる。例えば、左眼用仮想カメラ300Lの画像取得部301Lが家具オブジェクトFに近接したと判定された時の視差がL1とすると、左眼用視野画像VLについては非制作領域NRに進入した画像取得部301Lの面積割合に応じてマスク画像Bを表示させる一方、右眼用視野画像VRについては左眼用視野画像VLに対するマスク画像Bの表示割合から視差L1に基づいて算出される所定の割合(例えば、図11(b)の右眼用視野画像VRにおけるL2)を差し引いた状態の表示割合にてマスク画像Bを表示させる。   Next, the control unit 121 displays the mask image display ratio with respect to the right-eye visual field image based on the parallax L1 specified in step S22 and the area ratio of the image acquisition unit 301L of the left-eye virtual camera 300L determined in step S24. To decide. Specifically, in step S25, the control unit 121 determines the display ratio of the mask image with respect to the right eye view image by subtracting the parallax L1 from the display ratio of the mask image with respect to the left eye view image (step S26). ). In step S26, the control unit 121 generates mask image data in accordance with the display ratio of the mask image with respect to the left-eye visual field image and the right-eye visual field image determined in step S24 and step S26, respectively. The mask image B is displayed on the left eye field image and the right eye field image displayed on the display unit 112 of the HMD 110 according to the image data. For example, if the parallax when the image acquisition unit 301L of the left-eye virtual camera 300L is determined to be close to the furniture object F is L1, the image acquisition unit that has entered the non-production area NR for the left-eye viewing image VL. While the mask image B is displayed according to the area ratio of 301L, for the right eye visual field image VR, a predetermined ratio (for example, calculated based on the parallax L1 from the display ratio of the mask image B with respect to the left eye visual field image VL) The mask image B is displayed at a display ratio in a state where L2) in the right eye visual field image VR in FIG. 11B is subtracted.

このように、仮想カメラが左眼用仮想カメラ300Lおよび右眼用仮想カメラ300Rを含んでいる場合には、仮想カメラ300Lおよび300Rの少なくとも一方が非制作領域NR内に進入したときに、当該一方の仮想カメラに対応する視野画像に対してマスク画像を表示させるだけではなく、他方の仮想カメラに対応する視野画像に対してもマスク画像を表示させる。このように、左眼用視野画像へのマスク画像表示と右眼用視野画像へのマスク画像表示を適切に連動させることで、非制作領域NRに進入した部分のみ視界が奪われるように制御することができる。さらに、左眼用仮想カメラ300Lと右眼用仮想カメラ300Rとの視差情報を用いて他方の仮想カメラに対するマスク画像の表示割合を補正することで、良好な三次元画像表示を損なうことなく、非制作領域NRの視認を制限することができる。   Thus, when the virtual camera includes the left-eye virtual camera 300L and the right-eye virtual camera 300R, when at least one of the virtual cameras 300L and 300R enters the non-production area NR, In addition to displaying the mask image for the visual field image corresponding to the virtual camera, the mask image is displayed for the visual field image corresponding to the other virtual camera. In this way, by appropriately interlocking the mask image display on the left-eye visual field image and the mask image display on the right-eye visual field image, control is performed so that only the part that has entered the non-production area NR is deprived of the field of view. be able to. Furthermore, by correcting the display ratio of the mask image with respect to the other virtual camera using the parallax information between the left-eye virtual camera 300L and the right-eye virtual camera 300R, the non-defective 3D image display is not impaired. The visual recognition of the production area NR can be limited.

1:HMDシステム
3:通信ネットワーク
21:中心位置
110:ヘッドマウントディスプレイ(HMD)
112:表示部
114:HMDセンサ
116:ヘッドフォン
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
200:仮想空間
300:仮想カメラ
300L:左眼用仮想カメラ
300R:右眼用仮想カメラ
301:画像取得部
B:マスク画像
F:家具オブジェクト
NR:非制作領域
U:ユーザ
V:視野画像
VL:左眼用視野画像
VR:右眼用視野画像
W:壁画像(対象物)
1: HMD system 3: Communication network 21: Center position 110: Head mounted display (HMD)
112: Display unit 114: HMD sensor 116: Headphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 200: Virtual space 300: Virtual camera 300L: Left-eye virtual camera 300R: right-eye virtual camera 301: image acquisition unit B: mask image F: furniture object NR: non-production area U: user V: visual field image VL: left-eye visual field VR: visual field for right eye Image W: Wall image (object)

Claims (6)

ヘッドマウントディスプレイを備えたシステムにおける表示制御方法であって、
(a)画像取得部を備える仮想カメラと、非制作領域を有する少なくとも一つの対象物と、を含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記ヘッドマウントディスプレイの向きに応じて前記画像取得部の向きを調整するステップと、
(d)前記仮想カメラに対する移動入力に応じて前記仮想カメラを移動させるステップと、
(e)前記画像取得部が前記非制作領域内に進入したと判定された場合には、前記非制作領域が視認されないようなマスク画像を前記ヘッドマウントディスプレイに表示させるステップと、
を含む、表示制御方法。
A display control method in a system including a head mounted display,
(A) generating virtual space data defining a virtual space including a virtual camera including an image acquisition unit and at least one object having a non-production area;
(B) displaying a visual field image on the head mounted display based on the visual field of the virtual camera and the virtual space data;
(C) adjusting the orientation of the image acquisition unit in accordance with the orientation of the head mounted display;
(D) moving the virtual camera in response to a movement input to the virtual camera;
(E) When it is determined that the image acquisition unit has entered the non-production area, a step of displaying a mask image on the head-mounted display so that the non-production area is not visually recognized;
Including a display control method.
前記マスク画像は、暗転画像、白紙画像、および前記対象物の表面画像の少なくとも一つから構成される、請求項1に記載の表示制御方法。   The display control method according to claim 1, wherein the mask image includes at least one of a dark image, a blank image, and a surface image of the object. 前記ステップ(d)では、前記非制作領域内に進入したと判定された前記画像取得部の面積割合に応じて、前記視野画像内における前記マスク画像の表示割合を決定する、請求項1に記載の表示制御方法。   2. The display ratio of the mask image in the field-of-view image is determined in the step (d) according to an area ratio of the image acquisition unit determined to have entered the non-production area. Display control method. 前記仮想カメラは、左眼用仮想カメラと右眼用仮想カメラとを含み、
前記ステップ(d)では、前記左眼用仮想カメラと前記右眼用仮想カメラのいずれか一方の画像取得部が前記非制作領域内に進入したと判定された場合には、左眼用視野画像および右眼用視野画像の両方を覆うように前記マスク画像を表示させる、請求項1から3のいずれか一項に記載の表示制御方法。
The virtual camera includes a left-eye virtual camera and a right-eye virtual camera,
In the step (d), if it is determined that one of the image acquisition units of either the left-eye virtual camera or the right-eye virtual camera has entered the non-production area, the left-eye visual field image The display control method according to any one of claims 1 to 3, wherein the mask image is displayed so as to cover both the visual field image for right eye and the visual field image for right eye.
前記ステップ(d)は、
前記左眼用仮想カメラおよび前記右眼用仮想カメラのうち少なくとも一方の仮想カメラが前記対象物へ近接したときに、前記左眼用仮想カメラと前記右眼用仮想カメラとの視差情報を取得するステップと、
当該一方の仮想カメラの画像取得部が前記非制作領域へ進入したときに、前記非制作領域内に含まれる前記画像取得部の面積割合を判定するステップと、
前記視差情報および前記面積割合に基づいて、他方の仮想カメラにより生成された視野画像に対する前記マスク画像の表示割合を決定するステップと、を含む、請求項4に記載の表示制御方法。
The step (d)
When at least one of the left-eye virtual camera and the right-eye virtual camera approaches the object, parallax information between the left-eye virtual camera and the right-eye virtual camera is acquired. Steps,
Determining an area ratio of the image acquisition unit included in the non-production area when the image acquisition unit of the one virtual camera enters the non-production area;
The display control method according to claim 4, further comprising: determining a display ratio of the mask image with respect to a visual field image generated by the other virtual camera based on the parallax information and the area ratio.
請求項1から5のいずれか一項に記載の表示制御方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the display control method according to any one of claims 1 to 5.
JP2016121076A 2016-06-17 2016-06-17 Display control method and program for causing a computer to execute the display control method Active JP6113337B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016121076A JP6113337B1 (en) 2016-06-17 2016-06-17 Display control method and program for causing a computer to execute the display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016121076A JP6113337B1 (en) 2016-06-17 2016-06-17 Display control method and program for causing a computer to execute the display control method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017047657A Division JP2017224275A (en) 2017-03-13 2017-03-13 Display control method, and program for causing computer to implement display control method

Publications (2)

Publication Number Publication Date
JP6113337B1 JP6113337B1 (en) 2017-04-12
JP2017224244A true JP2017224244A (en) 2017-12-21

Family

ID=58666655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016121076A Active JP6113337B1 (en) 2016-06-17 2016-06-17 Display control method and program for causing a computer to execute the display control method

Country Status (1)

Country Link
JP (1) JP6113337B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021131935A1 (en) * 2019-12-26 2021-07-01 株式会社コロプラ Program, method, and information processing device
JP7514076B2 (en) 2019-12-26 2024-07-10 株式会社コロプラ Program, method and information processing device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3416381A1 (en) * 2017-06-12 2018-12-19 Thomson Licensing Method and apparatus for providing information to a user observing a multi view content
CN117197149A (en) * 2023-11-08 2023-12-08 太原理工大学 Cooperative control method of tunneling and anchoring machine and anchor rod trolley

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311857A (en) * 1994-05-16 1995-11-28 Fujitsu Ltd Picture compositing and display device and simulation system
JPH0970481A (en) * 1995-09-05 1997-03-18 Namco Ltd Three-dimensional game device and image synthesizing method
JP2009064356A (en) * 2007-09-07 2009-03-26 Cellius Inc Program, information storage medium, and image generation system
WO2013190766A1 (en) * 2012-06-18 2013-12-27 ソニー株式会社 Image display device, image display program, and image display method
WO2015093129A1 (en) * 2013-12-17 2015-06-25 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311857A (en) * 1994-05-16 1995-11-28 Fujitsu Ltd Picture compositing and display device and simulation system
JPH0970481A (en) * 1995-09-05 1997-03-18 Namco Ltd Three-dimensional game device and image synthesizing method
JP2009064356A (en) * 2007-09-07 2009-03-26 Cellius Inc Program, information storage medium, and image generation system
WO2013190766A1 (en) * 2012-06-18 2013-12-27 ソニー株式会社 Image display device, image display program, and image display method
WO2015093129A1 (en) * 2013-12-17 2015-06-25 ソニー株式会社 Information processing device, information processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大石岳史, 外4名: ""3次元計測モデルを利用したMRにおける幾何学的整合性の実現"", 日本バーチャルリアリティ学会論文誌, vol. 第17巻, 第4号, JPN6016047334, 31 December 2012 (2012-12-31), JP, pages 399 - 408, ISSN: 0003499782 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021131935A1 (en) * 2019-12-26 2021-07-01 株式会社コロプラ Program, method, and information processing device
JP7514076B2 (en) 2019-12-26 2024-07-10 株式会社コロプラ Program, method and information processing device

Also Published As

Publication number Publication date
JP6113337B1 (en) 2017-04-12

Similar Documents

Publication Publication Date Title
JP5996814B1 (en) Method and program for providing image of virtual space to head mounted display
JP6058184B1 (en) Method and program for controlling head mounted display system
JP6211144B1 (en) Display control method and program for causing a computer to execute the display control method
US10607398B2 (en) Display control method and system for executing the display control method
US10277814B2 (en) Display control method and system for executing the display control method
JP6087453B1 (en) Method and program for providing virtual space
JP2018097427A (en) Information processing method, and program for causing computer to execute the information processing method
US20180151001A1 (en) Information processing method and system for executing the information processing method
JP2017138973A (en) Method and program for providing virtual space
JP6113337B1 (en) Display control method and program for causing a computer to execute the display control method
JP2017207898A (en) Visual field information collection method and program making computer execute visual field information collection method
JP2018171455A (en) Display control method and program for causing computer to execute the method
JP6342448B2 (en) Display control method and program for causing a computer to execute the display control method
JP2018026048A (en) Information processing method, and program for allowing computer to execute the information processing method
JP2018147504A (en) Display control method and program for causing computer to execute the display control method
JP6266823B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP2018109940A (en) Information processing method and program for causing computer to execute the same
JP6333893B2 (en) Display control method and program for causing a computer to execute the display control method
JP2018195172A (en) Information processing method, information processing program, and information processing device
JP2017224275A (en) Display control method, and program for causing computer to implement display control method
JP2018000987A (en) Display control method and program for allowing computer to execute display control method
JP6216851B1 (en) Information processing method and program for causing computer to execute information processing method
JP6275809B1 (en) Display control method and program for causing a computer to execute the display control method
JP2017142769A (en) Method and program for providing head-mounted display with virtual space image
JP6611143B1 (en) Image display method, image display system, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170314

R150 Certificate of patent or registration of utility model

Ref document number: 6113337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250