JP2017200494A - Method for providing virtual space, program and recording medium - Google Patents

Method for providing virtual space, program and recording medium Download PDF

Info

Publication number
JP2017200494A
JP2017200494A JP2016076840A JP2016076840A JP2017200494A JP 2017200494 A JP2017200494 A JP 2017200494A JP 2016076840 A JP2016076840 A JP 2016076840A JP 2016076840 A JP2016076840 A JP 2016076840A JP 2017200494 A JP2017200494 A JP 2017200494A
Authority
JP
Japan
Prior art keywords
virtual space
virtual
hmd
user
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016076840A
Other languages
Japanese (ja)
Other versions
JP6275185B2 (en
Inventor
篤 猪俣
Atsushi Inomata
篤 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016076840A priority Critical patent/JP6275185B2/en
Publication of JP2017200494A publication Critical patent/JP2017200494A/en
Application granted granted Critical
Publication of JP6275185B2 publication Critical patent/JP6275185B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enhance entertainment property in a virtual space.SOLUTION: A control circuit part controls HMD to display a view image including lock-on (EA) as an additional image when a virtual right hand (HR) and a virtual left hand (HL) generated in a virtual space have a specific relationship in the virtual space.SELECTED DRAWING: Figure 12

Description

本発明は、仮想空間を提供する方法、プログラム、および記録媒体に関する。   The present invention relates to a method for providing a virtual space, a program, and a recording medium.

特許文献1には、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで電子的な出版物を表示する表示部と、前記出版物のページをめくる操作を行う物体を検出する検出部と、前記検出部の検出結果に応じて、前記出版物のページのうち、新たな表示されるページに対応付けられたオブジェクトを前記表示部に表示させる制御部とを備える表示装置が開示されている。   Patent Document 1 detects a display unit that displays an electronic publication by displaying an image corresponding to each of the user's eyes when worn, and an object that performs an operation of turning the page of the publication. And a control unit that causes the display unit to display an object associated with a new page to be displayed among the pages of the publication according to the detection result of the detection unit. It is disclosed.

特開2014−71498号公報(2014年4月21日公開)JP 2014-71498 A (released on April 21, 2014)

特許文献1の表示装置では、仮想空間の状態を変化させるためのユーザの操作が、仮想的な出版物のページをめくったり千切ったりするなどの、ユーザの片手の動きのみに基づく操作に限られている。ユーザが片手でできる動きには限りがあるため、特許文献1の表示装置を用いる場合、ユーザは、限られた範囲内での動きでしか仮想空間の状態を変化させることができない。したがって、仮想空間におけるエンタテインメント性が低いという問題がある。   In the display device of Patent Document 1, the user's operation for changing the state of the virtual space is limited to an operation based only on the movement of one hand of the user, such as turning or tearing a virtual publication page. It has been. Since the movement that the user can perform with one hand is limited, when using the display device of Patent Document 1, the user can change the state of the virtual space only by movement within a limited range. Therefore, there is a problem that entertainment property in the virtual space is low.

本発明は前記の課題を解決するためになされたものである。そして、その目的は、仮想空間におけるエンタテインメント性を高めることにある。   The present invention has been made to solve the above-described problems. And the objective is to improve the entertainment property in virtual space.

前記の課題を解決するために、本開示に係る仮想空間を提供する方法は、ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに仮想空間を提供する方法であって、仮想空間を規定するステップと、仮想空間におけるユーザの基準視線を特定するステップと、ユーザの右手の状態を表す情報およびユーザの左手の状態を表す情報を取得するステップと、右手の状態を表す情報および左手の状態の双方に基づく付加画像を、仮想空間に生成するステップと、基準視線に基づき、付加画像とを少なくとも含む視界画像を生成するステップと、視界画像をHMDに表示させるステップとを有する。   In order to solve the above problems, a method for providing a virtual space according to the present disclosure is a method for providing a virtual space to a user wearing a head mounted display (hereinafter, HMD), the step of defining the virtual space Both the step of identifying the user's reference line of sight in the virtual space, the step of obtaining information representing the state of the user's right hand and the state of the user's left hand, and the information representing the state of the right hand and the state of the left hand Generating an additional image based on the virtual space, generating a view image including at least the additional image based on the reference line of sight, and displaying the view image on the HMD.

本開示によれば、仮想空間におけるエンタテインメント性を高めることができる。   According to the present disclosure, entertainment properties in the virtual space can be improved.

HHMDシステムの構成を示す図である。It is a figure which shows the structure of a HHMD system. 制御回路部のハード構成を示す図である。It is a figure which shows the hardware constitutions of a control circuit part. HMDに設定される視野座標系を例示する図である。It is a figure which illustrates the visual field coordinate system set to HMD. ユーザに提供される仮想空間とHMDとの関係を示す図である。It is a figure which shows the relationship between the virtual space provided to a user, and HMD. 視界領域の断面を示す図である。It is a figure which shows the cross section of a visual field area | region. ユーザの視線方向を決定する方法を例示する図である。It is a figure which illustrates the method of determining a user's gaze direction. コントローラの構成を表す図である。It is a figure showing the structure of a controller. 制御回路部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a control circuit part. HMDシステムが仮想空間をユーザに提供する処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of the process in which an HMD system provides a virtual space to a user. 仮想空間におけるゲームの進行を説明するシーケンス図である。It is a sequence diagram explaining progress of the game in virtual space. 判定テーブルの詳細を示す図である。It is a figure which shows the detail of the determination table. ディスプレイに表示される視界画像の一例を示す図である。It is a figure which shows an example of the visual field image displayed on a display. ロックオンによる影響を受けるオブジェクトを特定する方法を説明する図である。It is a figure explaining the method of specifying the object affected by lock-on. ディスプレイに表示される視界画像の他の例を示す図である。It is a figure which shows the other example of the visual field image displayed on a display. ディスプレイに表示される視界画像のさらに他の例を示す図である。It is a figure which shows the further another example of the visual field image displayed on a display.

[本発明の実施形態の詳細]
本発明の実施形態に係る仮想空間を提供する方法、および、プログラムの具体例を、以下に図面を参照しつつ説明する。本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本発明に含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。
[Details of the embodiment of the present invention]
A specific example of a method and program for providing a virtual space according to an embodiment of the present invention will be described below with reference to the drawings. The present invention is not limited to these exemplifications, but is defined by the scope of claims for patent, and it is intended that all modifications within the meaning and scope equivalent to the scope of claims for patent are included in the present invention. In the following description, the same reference numerals are given to the same elements in the description of the drawings, and repeated description is not repeated.

(HMDシステム100の構成)
図1は、HMDシステム100の構成を示す図である。この図に示すように、HMDシステム100は、HMD110、HMDセンサ120、コントローラセンサ140、制御回路部200、およびコントローラ300を備えている。
(Configuration of HMD system 100)
FIG. 1 is a diagram showing a configuration of the HMD system 100. As shown in this figure, the HMD system 100 includes an HMD 110, an HMD sensor 120, a controller sensor 140, a control circuit unit 200, and a controller 300.

HMD110は、ユーザの頭部に装着される。HMD110は、非透過型の表示装置であるディスプレイ112、センサ114、および注視センサ130を備えている。HMD110は、右目用画像および左目用画像をディスプレイ112にそれぞれ表示することにより、ユーザの両目の視差に基づきユーザに立体的に視認される3次元画像を、ユーザに視認させる。これにより仮想空間をユーザに提供する。ディスプレイ112がユーザの眼前に配置されているので、ユーザは、ディスプレイ112に表示される画像を通じて仮想空間に没入できる。仮想空間は、背景、ならびにユーザが操作可能な各種のオブジェクトおよびメニュー画像等を含む。   The HMD 110 is worn on the user's head. The HMD 110 includes a display 112 which is a non-transmissive display device, a sensor 114, and a gaze sensor 130. The HMD 110 displays a right-eye image and a left-eye image on the display 112, thereby allowing the user to visually recognize a three-dimensional image that is stereoscopically viewed by the user based on the parallax between both eyes of the user. This provides a virtual space to the user. Since the display 112 is disposed in front of the user's eyes, the user can immerse in the virtual space through an image displayed on the display 112. The virtual space includes a background, various objects that can be operated by the user, menu images, and the like.

ディスプレイ112は、右目用画像を表示する右目用サブディスプレイと、左目用画像を表示する左目用サブディスプレイとを含んでもよい。または、ディスプレイ112は、右目用画像および左目用画像を共通の画面に表示する1つの表示装置であってもよい。このような表示装置として、たとえば、表示画像が一方の目にしか認識できないようにするシャッターを高速に切り替えることにより、右目用画像および左目用画像を独立して交互に表示する表示装置が挙げられる。   The display 112 may include a right-eye sub-display that displays a right-eye image and a left-eye sub-display that displays a left-eye image. Alternatively, the display 112 may be a single display device that displays the right-eye image and the left-eye image on a common screen. As such a display device, for example, a display device that alternately displays a right-eye image and a left-eye image independently by switching a shutter so that the display image can be recognized only by one eye. .

(制御回路部200のハード構成)
図2は、制御回路部200のハード構成を示す図である。制御回路部200は、HMD110に仮想空間を提供させるためのコンピュータである。図2に示すように、制御回路部200は、プロセッサ、メモリ、ストレージ、入出力インターフェース、および通信インターフェースを備えている。これらは、データ伝送路としてのバスを通じて、制御回路部200内において互いに接続されている。
(Hard structure of the control circuit unit 200)
FIG. 2 is a diagram illustrating a hardware configuration of the control circuit unit 200. The control circuit unit 200 is a computer for causing the HMD 110 to provide a virtual space. As shown in FIG. 2, the control circuit unit 200 includes a processor, a memory, a storage, an input / output interface, and a communication interface. These are connected to each other in the control circuit unit 200 through a bus as a data transmission path.

プロセッサは、CPU(Central Processing Unit)、MPU(Micro-processing unit)、またはGPU(Graphics Processing Unit)等を含んで構成され、制御回路部200およびHMDシステム100全体の動作を制御する。   The processor includes a central processing unit (CPU), a micro-processing unit (MPU), a graphics processing unit (GPU), and the like, and controls operations of the control circuit unit 200 and the HMD system 100 as a whole.

メモリは、主記憶として機能する。メモリには、プロセッサによって処理されるプログラムおよび制御用データ(演算パラメータなど)が記憶される。メモリは、ROM(Read Only Memory)またはRAM(Random Access Memory)等を含んで構成され得る。   The memory functions as main memory. The memory stores a program processed by the processor and control data (such as calculation parameters). The memory may include a ROM (Read Only Memory) or a RAM (Random Access Memory).

ストレージは、補助記憶として機能する。ストレージには、HMDシステム100全体の動作を制御するためのプログラム、各種のシミュレーションプログラム、ユーザ認証プログラム、および、仮想空間を規定するための各種のデータ(画像およびオブジェクト等)が格納されている。さらには、各種のデータを管理するためのテーブルを含むデータベースがストレージに構築されていてもよい。ストレージは、フラッシュメモリまたはHDD(Hard Disc Drive)等を含んで構成され得る。   The storage functions as auxiliary storage. The storage stores a program for controlling the operation of the entire HMD system 100, various simulation programs, a user authentication program, and various data (images, objects, etc.) for defining a virtual space. Furthermore, a database including a table for managing various data may be constructed in the storage. The storage can be configured to include a flash memory or an HDD (Hard Disc Drive).

入出力インターフェースは、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High-Definition Multimedia Interface)端子等の各種の有線接続端子、および、無線接続のための各種の処理回路を含んで構成されている。入出力インターフェースは、HMD110と、HMDセンサ120およびコントローラセンサ140を含む各種のセンサと、コントローラ300とを互いに接続する。   The input / output interface includes various wired connection terminals such as a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Interface) terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal, and various wireless connection terminals. These processing circuits are included. The input / output interface connects the HMD 110, various sensors including the HMD sensor 120 and the controller sensor 140, and the controller 300 to each other.

通信インターフェースは、ネットワークNWを介して外部装置と通信するための各種の有線接続端子、および、無線接続のための各種の処理回路を含んで構成される。通信インターフェースは、LAN(Local Area Network)またはインターネットを介して通信するための各種の通信規格およびプロトコルに適合するように、構成されている。   The communication interface includes various wired connection terminals for communicating with an external device via the network NW, and various processing circuits for wireless connection. The communication interface is configured to conform to various communication standards and protocols for communicating via a LAN (Local Area Network) or the Internet.

制御回路部200は、ストレージに格納された所定のアプリケーションプログラムをメモリにロードして実行することによって、ユーザに仮想空間を提供する。プログラムの実行時に、メモリおよびストレージには、仮想空間内に配置される各種のオブジェクトを操作したり、各種のメニュー画像等を表示および制御したりするための各種のプログラムが格納される。   The control circuit unit 200 provides a virtual space to the user by loading a predetermined application program stored in the storage into a memory and executing it. When the program is executed, the memory and the storage store various programs for operating various objects arranged in the virtual space and displaying and controlling various menu images and the like.

制御回路部200は、HMD110に搭載されていてもよいし、されていなくてもよい。すなわち制御回路部200は、HMD110から独立した別のハードウェア(たとえば、パーソナルコンピュータ、またはネットワークを通じてHMD110と通信可能なサーバ装置)であってもよい。制御回路部200は、複数のハードウェアの協働によって1または複数の機能が実装される形態の装置であってもよい。または、制御回路部200が有する全機能のうち一部の機能のみがHMD110に実装され、残りの機能が別のハードウェアに実装されていてもよい。   The control circuit unit 200 may or may not be mounted on the HMD 110. That is, the control circuit unit 200 may be another hardware independent of the HMD 110 (for example, a personal computer or a server device that can communicate with the HMD 110 through a network). The control circuit unit 200 may be a device in which one or a plurality of functions are implemented by cooperation of a plurality of hardware. Alternatively, only a part of all the functions of the control circuit unit 200 may be mounted on the HMD 110, and the remaining functions may be mounted on different hardware.

HMDシステム100を構成するHMD110等の各要素には、予め、グローバル座標系が設定されている。このグローバル座標系は、現実空間における、鉛直方向、鉛直方向と直交する横方向、ならびに、鉛直方向および横方向の双方と直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。本実施形態では、グローバル座標系は視点座標系の一種であるため、グローバル座標系における横方向、鉛直方向(上下方向)、および前後方向を、それぞれx軸、y軸、z軸とする。具体的には、グローバル座標系のx軸は現実空間の横方向に平行であり、y軸は現実空間の鉛直方向に平行であり、z軸は現実空間の前後方向に平行である。   A global coordinate system is set in advance for each element such as the HMD 110 constituting the HMD system 100. This global coordinate system has three reference directions (axes) parallel to the vertical direction, the horizontal direction orthogonal to the vertical direction, and the front-rear direction orthogonal to both the vertical direction and the horizontal direction in the real space. In the present embodiment, since the global coordinate system is a kind of viewpoint coordinate system, the horizontal direction, vertical direction (vertical direction), and front-rear direction in the global coordinate system are set as an x-axis, a y-axis, and a z-axis, respectively. Specifically, the x-axis of the global coordinate system is parallel to the horizontal direction of the real space, the y-axis is parallel to the vertical direction of the real space, and the z-axis is parallel to the front-rear direction of the real space.

HMDセンサ120は、HMD110の動きを検出するためのポジション・トラッキング機能を有する。HMDセンサ120は、この機能によって、現実空間内におけるHMD110の位置および傾きを検出する。この検出を実現するために、HMD110は、図示しない複数の光源を備えている。各光源は、たとえば赤外線を発するLEDである。HMDセンサ120は、たとえば赤外線センサを含んで構成される。HMDセンサ120は、HMD110の光源から照射された赤外線を、赤外線センサによって検出することによって、HMD110の検出点を検出する。さらに、HMD110の検出点の検出値に基づき、ユーザの動きに応じたHMD110の現実空間内における位置および傾きを検出する。HMDセンサ120は、検出値の経時的変化に基づいて、HMD110の位置および傾きの時間変化を決定することができる。   The HMD sensor 120 has a position tracking function for detecting the movement of the HMD 110. With this function, the HMD sensor 120 detects the position and inclination of the HMD 110 in the real space. In order to realize this detection, the HMD 110 includes a plurality of light sources (not shown). Each light source is, for example, an LED that emits infrared rays. The HMD sensor 120 includes, for example, an infrared sensor. The HMD sensor 120 detects the detection point of the HMD 110 by detecting the infrared ray irradiated from the light source of the HMD 110 with the infrared sensor. Further, based on the detection value of the detection point of the HMD 110, the position and inclination of the HMD 110 in the real space according to the user's movement are detected. The HMD sensor 120 can determine the time change of the position and inclination of the HMD 110 based on the change with time of the detected value.

HMDセンサ120は、光学カメラを含んで構成されてもよい。この場合、HMDセンサ120は、光学カメラによって得られたHMD110の画像情報に基づいて、HMD110の位置および傾きを検出する。   The HMD sensor 120 may include an optical camera. In this case, the HMD sensor 120 detects the position and inclination of the HMD 110 based on the image information of the HMD 110 obtained by the optical camera.

HMDセンサ120の代わりに、HMD110が、センサ114を用いて自身の位置および傾きを検出してもよい。この場合、センサ114は、たとえば角速度センサ、地磁気センサ、加速度センサ、またはジャイロセンサであればよい。HMD110は、これらのうち少なくとも1つを用いる。センサ114が角速度センサである場合、センサ114は、HMD110の動きに応じて、HMD110の現実空間における3軸回りの角速度を経時的に検出する。HMD110は、角速度の検出値に基づき、HMD110の3軸回りの角度の時間的変化を決定し、さらに、角度の時間的変化に基づきHMD110の傾きを検出することができる。   Instead of the HMD sensor 120, the HMD 110 may detect its position and inclination using the sensor 114. In this case, the sensor 114 may be an angular velocity sensor, a geomagnetic sensor, an acceleration sensor, or a gyro sensor, for example. The HMD 110 uses at least one of these. When the sensor 114 is an angular velocity sensor, the sensor 114 detects the angular velocity around the three axes in the real space of the HMD 110 over time according to the movement of the HMD 110. The HMD 110 can determine the temporal change of the angle around the three axes of the HMD 110 based on the detected value of the angular velocity, and can detect the inclination of the HMD 110 based on the temporal change of the angle.

HMD110がセンサ114による検出値に基づきHMD110の位置および傾きを自ら検出する場合、HMDシステム100にHMDセンサ120は不要である。逆に、HMD110から離れた位置に配置されるHMDセンサ120がHMD110の位置および傾きを検出する場合、HMD110にセンサ114は不要である。   When the HMD 110 detects the position and inclination of the HMD 110 based on the detection value of the sensor 114, the HMD sensor 120 is not necessary for the HMD system 100. Conversely, when the HMD sensor 120 arranged at a position away from the HMD 110 detects the position and inclination of the HMD 110, the sensor 114 is not necessary for the HMD 110.

上述したように、グローバル座標系は現実空間の座標系と平行である。そのため、HMDセンサ120によって検出されたHMD110の各傾きは、グローバル座標系におけるHMD110の3軸周りの各傾きに相当する。HMDセンサ120は、グローバル座標系におけるHMDセンサ120の傾きの検出値に基づき、uvw視野座標系をHMD110に設定する。HMD110に設定されるuvw視野座標系は、HMD110を装着したユーザが物体を見る際の視点座標系に対応する。   As described above, the global coordinate system is parallel to the real space coordinate system. Therefore, each inclination of the HMD 110 detected by the HMD sensor 120 corresponds to each inclination around the three axes of the HMD 110 in the global coordinate system. The HMD sensor 120 sets the uvw visual field coordinate system to the HMD 110 based on the detected value of the inclination of the HMD sensor 120 in the global coordinate system. The uvw visual field coordinate system set in the HMD 110 corresponds to a viewpoint coordinate system when a user wearing the HMD 110 views an object.

(uwv視野座標系)
図3は、HMD110に設定されるuwv視野座標系を例示する図である。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置および傾きを検出する。そして、傾きの検出値に基づく3次元のuvw視野座標系を、HMD110に設定する。図3に示すように、HMDセンサ120は、HMD110を装着したユーザの頭部を中心(原点)とした3次元のuvw視野座標系を、HMD110に設定する。具体的には、グローバル座標系を規定する横方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって得られる新たな3つの方向を、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)として設定する。
(Uuv visual field coordinate system)
FIG. 3 is a diagram illustrating a uwv visual field coordinate system set in the HMD 110. The HMD sensor 120 detects the position and inclination of the HMD 110 in the global coordinate system when the HMD 110 is activated. Then, a three-dimensional uvw visual field coordinate system based on the detected tilt value is set in the HMD 110. As shown in FIG. 3, the HMD sensor 120 sets a three-dimensional uvw visual field coordinate system around the head of the user wearing the HMD 110 as the center (origin) in the HMD 110. Specifically, the horizontal direction, the vertical direction, and the front-rear direction (x axis, y axis, z axis) that define the global coordinate system are respectively set around each axis by an inclination around each axis of the HMD 110 in the global coordinate system. Three new directions obtained by tilting are set as the pitch direction (u-axis), yaw direction (v-axis), and roll direction (w-axis) of the uvw visual field coordinate system in the HMD 110.

図3に示すように、HMDセンサ120は、HMD110を装着したユーザが直立しかつ正面を視認している場合、グローバル座標系に平行なuvw視野座標系をHMD110に設定する。この場合、グローバル座標系の横方向(x軸)、鉛直方向(y軸)、および前後方向(z軸)が、そのまま、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)に一致する。   As shown in FIG. 3, when the user wearing the HMD 110 stands upright and visually recognizes the front, the HMD sensor 120 sets the uvw visual field coordinate system parallel to the global coordinate system to the HMD 110. In this case, the horizontal direction (x-axis), the vertical direction (y-axis), and the front-back direction (z-axis) of the global coordinate system are the same as the pitch direction (u-axis) and yaw direction (v of the uvw visual field coordinate system in the HMD 110. Axis) and the roll direction (w-axis).

HMDセンサ120は、HMD110にuvw視野座標系を設定した後、HMD110の動きに応じて、現在設定中のuvw視野座標系におけるHMD110の傾き(傾きの変化量)を検出することができる。この場合、HMDセンサ120は、HMD110の傾きとして、現在設定中のuvw視野座標系におけるHMD110のピッチ角(θu)、ヨー角(θv)、およびロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ方向周りのHMD110の傾き角度である。ヨー角(θv)は、uvw視野座標系におけるヨー方向周りのHMD110の傾き角度である。ロール角(θw)は、uvw視野座標系におけるロール方向周りのHMD110の傾き角度である。   After setting the uvw visual field coordinate system in the HMD 110, the HMD sensor 120 can detect the inclination (the amount of change in inclination) of the HMD 110 in the currently set uvw visual field coordinate system in accordance with the movement of the HMD 110. In this case, the HMD sensor 120 detects the pitch angle (θu), yaw angle (θv), and roll angle (θw) of the HMD 110 in the currently set uvw visual field coordinate system as the inclination of the HMD 110. The pitch angle (θu) is an inclination angle of the HMD 110 around the pitch direction in the uvw visual field coordinate system. The yaw angle (θv) is an inclination angle of the HMD 110 around the yaw direction in the uvw visual field coordinate system. The roll angle (θw) is an inclination angle of the HMD 110 around the roll direction in the uvw visual field coordinate system.

HMDセンサ120は、HMD110の傾きの検出値に基づき、動いた後のHMD110におけるuvw視野座標系を、新たにHMD110に設定する。HMD110と、HMD110のuvw視野座標系との関係は、HMD110の位置および傾きによらず常に一定である。HMD110の位置および傾きが変わると、それの変化に連動して、グローバル座標系におけるHMD110のuvw視野座標系の位置および傾きが同様に変化する。   Based on the detected value of the inclination of the HMD 110, the HMD sensor 120 newly sets the uvw visual field coordinate system in the HMD 110 after moving to the HMD 110. The relationship between the HMD 110 and the uvw visual field coordinate system of the HMD 110 is always constant regardless of the position and inclination of the HMD 110. When the position and inclination of the HMD 110 change, the position and inclination of the uvw visual field coordinate system of the HMD 110 in the global coordinate system similarly change in conjunction with the change.

HMDセンサ120は、赤外線センサによって取得される赤外線の光強度および複数の検出点間の相対位置関係(検出点間の距離等)に基づいて、HMD110の現実空間内における位置を、HMDセンサ120に対する相対位置として特定してもよい。また、特定した相対位置に基づいて、現実空間内(グローバル座標系)におけるHMD110のuvw視野座標系の原点を決定してもよい。また、HMDセンサ120は、複数の検出点間の相対位置関係に基づきHMD110の現実空間内における傾きを検出し、さらに、その検出値に基づき現実空間内(グローバル座標系)におけるHMD110のuvw視野座標系の向きを決定してもよい。   The HMD sensor 120 determines the position of the HMD 110 in the real space with respect to the HMD sensor 120 based on the infrared light intensity acquired by the infrared sensor and the relative positional relationship between the detection points (distance between the detection points, etc.). You may specify as a relative position. The origin of the uvw visual field coordinate system of the HMD 110 in the real space (global coordinate system) may be determined based on the specified relative position. The HMD sensor 120 detects the inclination of the HMD 110 in the real space based on the relative positional relationship between the plurality of detection points, and further, based on the detected value, the uvw visual field coordinates of the HMD 110 in the real space (global coordinate system). The orientation of the system may be determined.

(仮想空間2の概要)
図4は、ユーザに提供される仮想空間2の概要を説明する図である。この図に示すように、仮想空間2は、中心21の360°方向全体を覆う全天球状の構造を有する。図4には、仮想空間2の全体のうち上半分の天球のみを例示する。仮想空間2には、略正方形または略長方形の複数のメッシュが関連付けられている。仮想空間2における各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標として、予め規定されている。制御回路部200は、仮想空間2に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間2における対応する各メッシュに対応付けることによって、ユーザによって視認可能な仮想空間画像22が展開される仮想空間2をユーザに提供する。
(Outline of virtual space 2)
FIG. 4 is a diagram illustrating an outline of the virtual space 2 provided to the user. As shown in this figure, the virtual space 2 has a spherical structure that covers the entire 360 ° direction of the center 21. FIG. 4 illustrates only the upper half celestial sphere in the entire virtual space 2. A plurality of substantially square or substantially rectangular meshes are associated with the virtual space 2. The position of each mesh in the virtual space 2 is defined in advance as coordinates in the XYZ coordinate system defined in the virtual space 2. The control circuit unit 200 associates each partial image constituting content (still image, moving image, etc.) that can be developed in the virtual space 2 with each corresponding mesh in the virtual space 2, thereby enabling the virtual space image that can be visually recognized by the user. The virtual space 2 in which 22 is expanded is provided to the user.

仮想空間2には、中心21を原点とするXYZ空間座標系が規定されている。XYZ座標系は、たとえばグローバル座標系に平行である。XYZ座標系は視点座標系の一種であるため、XYZ座標系における横方向、鉛直方向(上下方向)、および前後方向を、それぞれX軸、Y軸、Z軸とする。すなわち、XYZ座標系のX軸(横方向)がグローバル座標系のx軸と平行であり、XYZ座標系のY軸(上下方向)がグローバル座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)がグローバル座標系のz軸と平行である。   The virtual space 2 defines an XYZ space coordinate system with the center 21 as the origin. The XYZ coordinate system is parallel to the global coordinate system, for example. Since the XYZ coordinate system is a kind of viewpoint coordinate system, the horizontal direction, vertical direction (vertical direction), and front-rear direction in the XYZ coordinate system are defined as an X axis, a Y axis, and a Z axis, respectively. That is, the X axis (horizontal direction) of the XYZ coordinate system is parallel to the x axis of the global coordinate system, the Y axis (vertical direction) of the XYZ coordinate system is parallel to the y axis of the global coordinate system, and The Z axis (front-rear direction) is parallel to the z axis of the global coordinate system.

HMD110の起動時(初期状態)において、仮想空間2の中心21に仮想カメラ1が配置されている。仮想カメラ1は、現実空間内におけるHMD110の動きに連動して、仮想空間2内において同様に動く。これにより、現実空間内におけるHMD110の位置および向きの変化が、仮想空間2内において同様に再現される。   When the HMD 110 is activated (initial state), the virtual camera 1 is arranged at the center 21 of the virtual space 2. The virtual camera 1 moves similarly in the virtual space 2 in conjunction with the movement of the HMD 110 in the real space. Thereby, changes in the position and orientation of the HMD 110 in the real space are similarly reproduced in the virtual space 2.

仮想カメラ1には、HMD110と同様にuvw視野座標系が規定される。仮想空間2内における仮想カメラ1のuvw視野座標系は、現実空間(グローバル座標系)内におけるHMD110のuvw視野座標系に変動するように規定されている。したがって、HMD110の傾きが変化すると、それに連動して仮想カメラ1の傾きも変化する。仮想カメラ1は、HMD110を装着したユーザの現実空間における移動に連動して、仮想空間2において移動することもできる。   As with the HMD 110, the uvw visual field coordinate system is defined for the virtual camera 1. The uvw visual field coordinate system of the virtual camera 1 in the virtual space 2 is defined to change to the uvw visual field coordinate system of the HMD 110 in the real space (global coordinate system). Therefore, when the inclination of the HMD 110 changes, the inclination of the virtual camera 1 also changes accordingly. The virtual camera 1 can also move in the virtual space 2 in conjunction with the movement of the user wearing the HMD 110 in the real space.

仮想空間2における仮想カメラ1の位置および傾きに応じて、仮想空間2における仮想カメラ1の向きが決まる。これにより、仮想空間2に展開される仮想空間画像22をユーザが視認する際の基準となる視線(基準視線5)が決まる。制御回路部200は、基準視線5に基づき、仮想空間2における視界領域23を決定する。視界領域23は、仮想空間2のうち、HMD110を装着したユーザの視界に対応する領域である。   The orientation of the virtual camera 1 in the virtual space 2 is determined according to the position and inclination of the virtual camera 1 in the virtual space 2. As a result, a line of sight (reference line of sight 5) as a reference when the user visually recognizes the virtual space image 22 developed in the virtual space 2 is determined. The control circuit unit 200 determines the visual field region 23 in the virtual space 2 based on the reference visual line 5. The visual field area 23 is an area corresponding to the visual field of the user wearing the HMD 110 in the virtual space 2.

図5は、視界領域23の断面を示す図である。図5の(a)に、仮想空間2において視界領域23をX方向から見たYZ断面を示す。図5の(b)に、仮想空間2において視界領域23をY方向から見たXZ断面を示す。視界領域23は、基準視線5と仮想空間2のYZ断面とによって定義される範囲である第1領域24(図5の(a)参照)と、基準視線5と仮想空間2のXZ断面とによって定義される範囲である第2領域25(図5の(b)参照)とを有する。制御回路部200は、仮想空間2における基準視線5を中心として極角αを含む範囲を、第1領域24として設定する。また、仮想空間2における基準視線5を中心とした方位角βを含む範囲を、第2領域25として設定する。   FIG. 5 is a view showing a cross section of the visual field region 23. FIG. 5A shows a YZ cross section of the visual field region 23 viewed from the X direction in the virtual space 2. FIG. 5B shows an XZ cross-section of the visual field region 23 viewed from the Y direction in the virtual space 2. The visual field region 23 is defined by the first region 24 (see FIG. 5A) that is a range defined by the reference line of sight 5 and the YZ section of the virtual space 2, and the reference line of sight 5 and the XZ section of the virtual space 2. And a second region 25 (see FIG. 5B) which is a defined range. The control circuit unit 200 sets a range including the polar angle α around the reference line of sight 5 in the virtual space 2 as the first region 24. In addition, a range including the azimuth angle β around the reference line of sight 5 in the virtual space 2 is set as the second region 25.

HMDシステム100は、仮想空間画像22のうち視界領域23に重畳する部分である視界画像26をHMD110のディスプレイ112に表示させることによって、ユーザに仮想空間2を提供する。ユーザがHMD110を動かせば、それに連動して仮想カメラ1も動き、その結果、仮想空間2における視界領域23の位置が変化する。これによりディスプレイ112に表示される視界画像26が、仮想空間画像22のうち、仮想空間2においてユーザが向いた箇所(=視界領域23)に重畳する画像に更新される。したがってユーザは、仮想空間2における所望の箇所を視認することができる。   The HMD system 100 provides the user with the virtual space 2 by causing the display image 112 of the HMD 110 to display a view image 26 that is a portion of the virtual space image 22 that is superimposed on the view region 23. If the user moves the HMD 110, the virtual camera 1 also moves in conjunction with it, and as a result, the position of the visual field area 23 in the virtual space 2 changes. As a result, the view image 26 displayed on the display 112 is updated to an image that is superimposed on a portion of the virtual space image 22 where the user faces (= view region 23). Therefore, the user can visually recognize a desired location in the virtual space 2.

ユーザは、HMD110を装着している間、現実世界を目にすることなく、仮想空間2に展開される仮想空間画像22のみを視認する。そのためHMDシステム100は、仮想空間2への高い没入感覚をユーザに与えることができる。   While wearing the HMD 110, the user visually recognizes only the virtual space image 22 developed in the virtual space 2 without seeing the real world. Therefore, the HMD system 100 can give the user a high sense of immersion in the virtual space 2.

制御回路部200は、HMD110を装着したユーザの現実空間における移動に連動して、仮想カメラ1を仮想空間2内において移動させてもよい。この場合、制御回路部200は、仮想カメラ1の仮想空間2内における位置および向きに基づいて、仮想空間2のうちHMD110のディスプレイ112に投影されることによってユーザが視認する視界領域23を特定する。   The control circuit unit 200 may move the virtual camera 1 in the virtual space 2 in conjunction with the movement of the user wearing the HMD 110 in the real space. In this case, the control circuit unit 200 specifies the visual field region 23 that is visually recognized by the user by being projected on the display 112 of the HMD 110 in the virtual space 2 based on the position and orientation of the virtual camera 1 in the virtual space 2. .

仮想カメラ1は、右眼用画像を提供する右眼用仮想カメラと、左眼用画像を提供する左眼用仮想カメラとを含むことが好ましい。さらに、2つの仮想カメラには、ユーザが三次元の仮想空間2を認識できるように適切な視差が設定されていることが好ましい。本実施形態では、このような2つの仮想カメラのロール方向が合成されることによって生成されるロール方向(w)がHMD110のロール方向(w)に適合されるような仮想カメラ1のみを、代表して図示および説明するものとする。   The virtual camera 1 preferably includes a right-eye virtual camera that provides a right-eye image and a left-eye virtual camera that provides a left-eye image. Furthermore, it is preferable that appropriate parallax is set for the two virtual cameras so that the user can recognize the three-dimensional virtual space 2. In the present embodiment, only the virtual camera 1 in which the roll direction (w) generated by combining the roll directions of the two virtual cameras is adapted to the roll direction (w) of the HMD 110 is represented. Will be shown and described.

(視線方向の検出)
注視センサ130は、ユーザの右目および左目の視線が向けられる方向(視線方向)を検出するアイトラッキング機能を有する。注視センサ130として、アイトラッキング機能を有する公知のセンサを採用することができる。注視センサ130は、右目用センサおよび左目用センサを備えていることが好ましい。注視センサ130は、たとえば、ユーザの右目および左目に赤外光を照射すると共に、照射光に対する角膜および虹彩からの反射光を受光することによって、各眼球の回転角を検出するセンサでもよい。注視センサ130は、検出した各回転角に基づき、ユーザの視線方向を検知することができる。
(Gaze direction detection)
The gaze sensor 130 has an eye tracking function that detects the direction (gaze direction) in which the line of sight of the user's right eye and left eye is directed. As the gaze sensor 130, a known sensor having an eye tracking function can be employed. The gaze sensor 130 preferably includes a right eye sensor and a left eye sensor. The gaze sensor 130 may be, for example, a sensor that detects the rotation angle of each eyeball by irradiating the user's right eye and left eye with infrared light and receiving reflected light from the cornea and iris with respect to the irradiated light. The gaze sensor 130 can detect the direction of the user's line of sight based on each detected rotation angle.

注視センサ130によって検出されるユーザの視線方向は、ユーザが物体を視認する際の視点座標系における方向である。上述したように、HMD110のuvw視野座標系は、ユーザがディスプレイ112を視認する際の視点座標系に等しい。また、仮想カメラ1のuvw視野座標系は、HMD110のuvw視野座標系に連動している。したがってHMDシステム100では、注視センサ130によって検出されたユーザの視線方向を、仮想カメラ1のuvw視野座標系におけるユーザの視線方向と見なすことができる。   The user's gaze direction detected by the gaze sensor 130 is a direction in the viewpoint coordinate system when the user visually recognizes the object. As described above, the uvw visual field coordinate system of the HMD 110 is equal to the viewpoint coordinate system when the user visually recognizes the display 112. Further, the uvw visual field coordinate system of the virtual camera 1 is linked to the uvw visual field coordinate system of the HMD 110. Therefore, in the HMD system 100, the user's line-of-sight direction detected by the gaze sensor 130 can be regarded as the user's line-of-sight direction in the uvw visual field coordinate system of the virtual camera 1.

図6は、ユーザの視線方向を決定する方法を例示する図である。この図に示すように、注視センサ130は、ユーザUの右目および左目の視線を検出する。ユーザUが近くを見ている場合、注視センサ130は、ユーザUの視線R1およびL1を検出する。ユーザが遠くを見ている場合、注視センサ130は、ユーザの視線R1およびL1よりも、HMD110のロール方向(w)とのなす角が小さい視線R2およびL2を特定する。注視センサ130は、検出値を制御回路部200に送信する。   FIG. 6 is a diagram illustrating a method of determining the user's line-of-sight direction. As shown in this figure, the gaze sensor 130 detects the line of sight of the right eye and the left eye of the user U. When the user U is looking nearby, the gaze sensor 130 detects the line of sight R1 and L1 of the user U. When the user looks far away, the gaze sensor 130 identifies the line of sight R2 and L2 that are smaller in angle with the roll direction (w) of the HMD 110 than the line of sight R1 and L1 of the user. The gaze sensor 130 transmits the detection value to the control circuit unit 200.

制御回路部200は、視線の検出値として視線R1およびL1を受信した場合、両者の交点である注視点N1を特定する。一方、視線R2およびL2を受信した場合も、両者の交点である注視点N1(不図示)を特定する。制御回路部200は、特定した注視点N1に基づき、ユーザUの視線方向N0を検出する。制御回路部200は、たとえば、ユーザUの右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の伸びる方向を、視線方向N0として検出する。視線方向N0は、ユーザUが両目により実際に視線を向けている方向である。視線方向N0はまた、視界領域23に対してユーザUが実際に視線を向けている方向でもある。   When receiving the line of sight R1 and L1 as the line-of-sight detection value, the control circuit unit 200 specifies the gazing point N1 that is the intersection of the two. On the other hand, also when the lines of sight R2 and L2 are received, the gazing point N1 (not shown) that is the intersection of both is specified. The control circuit unit 200 detects the gaze direction N0 of the user U based on the identified gazing point N1. For example, the control circuit unit 200 detects, as the line-of-sight direction N0, the direction in which the straight line passing through the midpoint of the straight line connecting the right eye R and the left eye L of the user U and the gazing point N1 extends. The line-of-sight direction N0 is a direction in which the user U actually points the line of sight with both eyes. The line-of-sight direction N0 is also a direction in which the user U actually directs his / her line of sight with respect to the visual field region 23.

HMDシステム100は、HMDシステム100を構成するいずれかの要素に、マイクおよびスピーカを備えていてもよい。これにより、ユーザは仮想空間2内に対して、音声による指示を与えることができる。また、仮想空間内の仮想テレビにテレビ番組の放送を受信するために、HMDシステム100はいずれかの要素にテレビジョン受像機を含んでいても良い。また、ユーザが取得した電子メール等を表示させるための、通信機能等を含んでいても良い。   The HMD system 100 may include a microphone and a speaker in any element constituting the HMD system 100. Thereby, the user can give a voice instruction to the virtual space 2. Further, in order to receive a broadcast of a television program on a virtual television in a virtual space, the HMD system 100 may include a television receiver in any element. Moreover, a communication function or the like for displaying an electronic mail or the like acquired by the user may be included.

(コントローラ300)
図7は、コントローラ300の構成を表す図である。コントローラ300は、ユーザがコンピュータゲーム内のオブジェクトの動きを制御するために用いる装置である。図1および図7に示すように、コントローラ300は、ユーザが右手に持って使用する右コントローラ320と、ユーザが左手に持って使用する左コントローラ330とからなる。右コントローラ320および左コントローラ330は、それぞれ別体の装置として構成される。ユーザは、右コントローラ320を持った右手と、左コントローラ330を持った左手とを、相互に自由に動かすことができる。
(Controller 300)
FIG. 7 is a diagram illustrating the configuration of the controller 300. The controller 300 is a device used by a user to control the movement of an object in a computer game. As shown in FIG. 1 and FIG. 7, the controller 300 includes a right controller 320 that the user uses with the right hand and a left controller 330 that the user uses with the left hand. The right controller 320 and the left controller 330 are configured as separate devices. The user can freely move the right hand holding the right controller 320 and the left hand holding the left controller 330 to each other.

図1および図7に示すように、右コントローラ320および左コントローラ330は、それぞれ、操作ボタン302、赤外線LED(Light Emitting Diode)304、センサ306、およびトランシーバ308を備えている。後述するように、右コントローラ320および左コントローラ330は、赤外線LED304およびセンサ306のうちいずれか一方のみを備えていてもよい。   As shown in FIGS. 1 and 7, the right controller 320 and the left controller 330 each include an operation button 302, an infrared LED (Light Emitting Diode) 304, a sensor 306, and a transceiver 308. As will be described later, the right controller 320 and the left controller 330 may include only one of the infrared LED 304 and the sensor 306.

操作ボタン302は、コントローラ300に対するユーザからの操作入力を受け取るように構成された複数のボタン群である。本実施形態では、操作ボタン302は、プッシュ式ボタン、トリガー式ボタン、およびアナログスティックを含む。   The operation buttons 302 are a group of buttons configured to receive operation inputs from the user for the controller 300. In the present embodiment, the operation button 302 includes a push button, a trigger button, and an analog stick.

プッシュ式ボタンは、親指で下向きに押下する動作によって操作するように構成されたボタンである。右コントローラ320は、プッシュ式ボタンとして、天面322上に親指ボタン302aおよび302bを備えている。左コントローラ330は、プッシュ式ボタンとして、天面332上に2つの親指ボタン302cおよび302dを備えている。親指ボタン302aおよび302bは、いずれも右手の親指によって操作(押下)される。親指ボタン302cおよび302dは、いずれも左手の親指によって操作(押下)される。   The push-type button is a button configured to be operated by an operation of pressing downward with a thumb. The right controller 320 includes thumb buttons 302a and 302b on the top surface 322 as push buttons. The left controller 330 includes two thumb buttons 302c and 302d on the top surface 332 as push buttons. Both thumb buttons 302a and 302b are operated (pressed) with the thumb of the right hand. Both thumb buttons 302c and 302d are operated (pressed) with the thumb of the left hand.

トリガー式ボタンは、人差し指または中指で引き金を引くような動作によって操作するように構成されたボタンである。右コントローラ320は、トリガー式ボタンとして、グリップ324の前面部分に人差し指ボタン302eを備えており、さらに、グリップ324の側面部分に中指ボタン302fを備えている。左コントローラ330は、トリガー式ボタンとして、グリップ334の前面部分に人差し指ボタン302gを備えており、さらに、グリップ334の側面部分に中指ボタン302hを備えている。人差し指ボタン302e、中指ボタン302f、人差し指ボタン302g、および中指ボタン302hは、それぞれ右手の人差し指、右手の中指、左手の人差し指、および左手の中指によって操作(押下)される。   The trigger type button is a button configured to be operated by an operation of pulling a trigger with an index finger or a middle finger. The right controller 320 includes a forefinger button 302e on the front surface portion of the grip 324 as a trigger button, and further includes a middle finger button 302f on a side surface portion of the grip 324. The left controller 330 includes a forefinger button 302g on the front portion of the grip 334 as a trigger type button, and further includes a middle finger button 302h on a side portion of the grip 334. The index finger button 302e, the middle finger button 302f, the index finger button 302g, and the middle finger button 302h are operated (pressed) by the index finger of the right hand, the middle finger of the right hand, the index finger of the left hand, and the middle finger of the left hand, respectively.

右コントローラ320は、親指ボタン302aおよび302b、人差し指ボタン302e、ならびに中指ボタン302fの押下状態をそれぞれ検出し、これらの検出値を制御回路部200に出力する。一方、左コントローラ330は、親指ボタン302cおよび302d、人差し指ボタン302g、ならびに中指ボタン302hの押下状態をそれぞれ検出し、これらの検出値を制御回路部200に出力する。   The right controller 320 detects the pressed state of the thumb buttons 302 a and 302 b, the index finger button 302 e, and the middle finger button 302 f, and outputs these detected values to the control circuit unit 200. On the other hand, the left controller 330 detects the pressed state of the thumb buttons 302c and 302d, the index finger button 302g, and the middle finger button 302h, and outputs these detected values to the control circuit unit 200.

本実施形態では、右コントローラ320および左コントローラ330の各ボタンの押下状態の検出値は、0から1のいずれかの値を取り得る。たとえば、ユーザが親指ボタン302aをまったく押下していない場合、親指ボタン302aの押下状態として「0」が検出される。一方、ユーザが親指ボタン302aを完全に(最も深く)押下している場合、親指ボタン302aの押下状態として「1」が検出される。   In the present embodiment, the detection value of the pressed state of each button of the right controller 320 and the left controller 330 can take any value from 0 to 1. For example, when the user has not pressed the thumb button 302a at all, “0” is detected as the pressing state of the thumb button 302a. On the other hand, when the user presses the thumb button 302a completely (deepest), “1” is detected as the pressing state of the thumb button 302a.

アナログスティックは、所定のニュートラル位置から360°任意の方向へ傾けて操作することが可能なスティック型のボタンである。右コントローラ320の天面322上にアナログスティック302iが設けられ、左コントローラ330の天面332上にアナログスティック302jが設けられる。アナログスティック302iおよび302jは、それぞれ右手および左手の親指によって操作される。   The analog stick is a stick-type button that can be operated by being tilted 360 degrees from a predetermined neutral position. An analog stick 302 i is provided on the top surface 322 of the right controller 320, and an analog stick 302 j is provided on the top surface 332 of the left controller 330. Analog sticks 302i and 302j are operated by the thumbs of the right hand and the left hand, respectively.

右コントローラ320および左コントローラ330は、それぞれ、グリップ(324および334)の両側面から天面(322および332)とは反対側の方向へ延びて半円状のリングを形成するフレーム326および336を備えている。各フレーム326および336の外表面には、複数の赤外線LED304が埋め込まれている。複数(たとえば10個程度)の赤外線LED304が、フレーム326、336の円周方向に沿って一列に並んで設けられる。フレーム326および336の円周方向に沿って、複数列(たとえば2列)の赤外線LED304が配置されていてもよい。   The right controller 320 and the left controller 330 respectively have frames 326 and 336 that form semicircular rings extending from opposite sides of the grips (324 and 334) in a direction opposite to the top surface (322 and 332). I have. A plurality of infrared LEDs 304 are embedded on the outer surfaces of the frames 326 and 336. A plurality of (for example, about 10) infrared LEDs 304 are provided in a line along the circumferential direction of the frames 326 and 336. A plurality of rows (for example, two rows) of infrared LEDs 304 may be arranged along the circumferential direction of the frames 326 and 336.

ユーザがコントローラ300を握る際、ユーザの各指はグリップ(324または334)とフレーム(326または336)との間にある。したがって、各フレーム326および336の外表面に配置された赤外線LED304は、ユーザの手または指によって覆い隠されてしまうことはない。フレーム326および336の外表面に加えて、さらに、グリップ324および334の表面のうちユーザの指で隠されない部分にも、赤外線LED304が設けられていてもよい。赤外線LED304は、コンピュータゲームのプレイ中に赤外線を発光する。赤外線LED304から発せられた赤外光は、右コントローラ320および左コントローラ330のそれぞれの位置および傾きを検出するために利用される。   When the user grips the controller 300, each finger of the user is between the grip (324 or 334) and the frame (326 or 336). Therefore, the infrared LED 304 arranged on the outer surface of each of the frames 326 and 336 is not covered by the user's hand or finger. In addition to the outer surfaces of the frames 326 and 336, infrared LEDs 304 may also be provided on portions of the surfaces of the grips 324 and 334 that are not hidden by the user's finger. The infrared LED 304 emits infrared light during the play of a computer game. Infrared light emitted from the infrared LED 304 is used to detect the respective positions and inclinations of the right controller 320 and the left controller 330.

右コントローラ320および左コントローラ330は、赤外線LED304の代わりに、または赤外線LED304に加えて、さらにセンサ306を内蔵する。センサ306は、たとえば磁気センサ、角速度センサ、若しくは加速度センサのいずれか、またはこれらの組み合わせであってよい。センサ306によっても、右コントローラ320および左コントローラ330の位置および傾きを検出することができる。   The right controller 320 and the left controller 330 further incorporate a sensor 306 instead of or in addition to the infrared LED 304. The sensor 306 may be, for example, a magnetic sensor, an angular velocity sensor, an acceleration sensor, or a combination thereof. The position and inclination of the right controller 320 and the left controller 330 can also be detected by the sensor 306.

センサ306は、ユーザが右コントローラ320および左コントローラ330をそれぞれ右手および左手で持って動かした際、右コントローラ320および左コントローラ330の向きおよび動きに応じた値(磁気、角速度、または加速度の値)を、出力する。制御回路部200は、センサ306からの出力値を適宜の方法によって加工することによって、右コントローラ320および左コントローラ330のそれぞれの位置および傾きを検出することができる。   When the user moves the right controller 320 and the left controller 330 with the right hand and the left hand, respectively, the sensor 306 is a value corresponding to the direction and movement of the right controller 320 and the left controller 330 (magnetic, angular velocity, or acceleration value). Is output. The control circuit unit 200 can detect the positions and inclinations of the right controller 320 and the left controller 330 by processing the output value from the sensor 306 by an appropriate method.

トランシーバ308は、右コントローラ320および左コントローラ330と、制御回路部200との間でデータを送受信するように構成される。トランシーバ308は、ユーザが操作ボタン302を介して右コントローラ320または左コントローラ330に与えた操作入力に基づくデータを、制御回路部200へ送信する。また、トランシーバ308は、赤外線LED304の発光を右コントローラ320または左コントローラ330に指示する命令を、制御回路部200から受信する。さらに、トランシーバ308は、センサ306によって検出した各種の値に対応するデータを、制御回路部200へ送信する。   The transceiver 308 is configured to transmit and receive data between the right controller 320 and the left controller 330 and the control circuit unit 200. The transceiver 308 transmits data based on the operation input given by the user to the right controller 320 or the left controller 330 via the operation button 302 to the control circuit unit 200. Further, the transceiver 308 receives a command for instructing the right controller 320 or the left controller 330 to emit the infrared LED 304 from the control circuit unit 200. Further, the transceiver 308 transmits data corresponding to various values detected by the sensor 306 to the control circuit unit 200.

右コントローラ320および左コントローラ330は、ユーザの手に振動による触覚フィードバックを伝えるためのバイブレータを備えていてもよい。この構成では、トランシーバ308は、上述した各データの送受信に加えて、バイブレータに触覚フィードバックを行わせるための命令を制御回路部200から受信することができる。トランシーバ308は、無線通信によってデータを送受信するように構成されるのが好適である。この構成では、右コントローラ320および左コントローラ330に有線通信用のケーブルが接続されないので、ユーザは、右コントローラ320を持った右手および左コントローラ330を持った左手を、より自由にそれぞれ動かせる。   The right controller 320 and the left controller 330 may include a vibrator for transmitting tactile feedback by vibration to the user's hand. In this configuration, the transceiver 308 can receive a command for causing the vibrator to perform tactile feedback from the control circuit unit 200 in addition to the transmission / reception of each data described above. The transceiver 308 is preferably configured to send and receive data via wireless communication. In this configuration, since the cable for wired communication is not connected to the right controller 320 and the left controller 330, the user can move the right hand holding the right controller 320 and the left hand holding the left controller 330 more freely.

コントローラセンサ140は、右コントローラ320および左コントローラ330の動きを検出するためのポジション・トラッキング機能を有する。コントローラセンサ140は、この機能によって、現実空間内における右コントローラ320および左コントローラ330の位置および傾きを検出する。この検出を実現するために、コントローラセンサ140は、右コントローラ320および左コントローラ330の赤外線LED304から発せられた赤外光を、それぞれ検出する。コントローラセンサ140は、たとえば、赤外波長領域において画像を撮像する赤外カメラを備えており、この赤外カメラによって撮像した画像のデータに基づき、右コントローラ320および左コントローラ330の位置および傾きを検出する。   The controller sensor 140 has a position tracking function for detecting the movement of the right controller 320 and the left controller 330. With this function, the controller sensor 140 detects the position and inclination of the right controller 320 and the left controller 330 in the real space. In order to realize this detection, the controller sensor 140 detects infrared light emitted from the infrared LEDs 304 of the right controller 320 and the left controller 330, respectively. The controller sensor 140 includes, for example, an infrared camera that captures an image in the infrared wavelength region, and detects the positions and inclinations of the right controller 320 and the left controller 330 based on image data captured by the infrared camera. To do.

赤外カメラによって撮像された画像は、右コントローラ320および左コントローラ330の表面に埋め込まれている多数の赤外線LED304の配置を反映した明暗画像である。ある1つの撮像画像には、互いに左右に離れた2つの明点の集団が含まれ得る。2つの集団のうち左側の集団は、ユーザが右手で持っている右コントローラ320の赤外線LED304に対応する。右側の集団は、ユーザが左手で持っている左コントローラ330の赤外線LED304に対応する。コントローラセンサ140は、左側の集団を構成している明点の並んでいる方向から、右コントローラ320の傾きを検出する。たとえば、明点が撮像画像内で横方向(即ち水平方向)に並んでいる場合、右コントローラ320の傾きを、フレーム326が水平に保持された傾きとして検出すればよい。また、撮像画像内で明点の並んでいる方向が横方向からある角度だけ斜めになっている場合、右コントローラ320の傾きを、フレーム326が水平から当該角度だけ傾いた傾きとして検出すればよい。同様に、コントローラセンサ140は、撮像画像内における右側の集団を構成している明点の並んでいる方向から、左コントローラ330の傾きを検出する。   The image picked up by the infrared camera is a bright and dark image reflecting the arrangement of a large number of infrared LEDs 304 embedded in the surfaces of the right controller 320 and the left controller 330. A certain captured image may include a group of two bright spots that are separated from each other on the left and right. The left group of the two groups corresponds to the infrared LED 304 of the right controller 320 that the user has with the right hand. The group on the right side corresponds to the infrared LED 304 of the left controller 330 that the user has with his left hand. The controller sensor 140 detects the inclination of the right controller 320 from the direction in which the bright spots constituting the left group are arranged. For example, when the bright spots are arranged in the horizontal direction (that is, in the horizontal direction) in the captured image, the inclination of the right controller 320 may be detected as the inclination in which the frame 326 is held horizontally. Further, when the direction in which the bright spots are arranged in the captured image is inclined by a certain angle from the horizontal direction, the inclination of the right controller 320 may be detected as the inclination in which the frame 326 is inclined by the angle from the horizontal. . Similarly, the controller sensor 140 detects the inclination of the left controller 330 from the direction in which the bright spots constituting the right group in the captured image are arranged.

コントローラセンサ140は、撮像画像内の明点(赤外線LED304)を識別することによって、右コントローラ320および左コントローラ330の位置をそれぞれ検出する。たとえば、撮像画像から検出したされた2つの明点の集団のうち、左側の集団を構成している複数の明点の重心位置を、右コントローラ320の位置として検出する。さらに、右側の集団を構成している複数の明点の重心位置を、左コントローラ330の位置として検出する。   The controller sensor 140 detects the positions of the right controller 320 and the left controller 330 by identifying a bright point (infrared LED 304) in the captured image. For example, among the two bright spot groups detected from the captured image, the barycentric positions of a plurality of bright spots constituting the left group are detected as the position of the right controller 320. Further, the barycentric positions of a plurality of bright spots constituting the right group are detected as positions of the left controller 330.

コントローラセンサ140の代わりに、右コントローラ320および左コントローラ330が、センサ306を用いて自身の位置および傾きを検出してもよい。この場合、たとえば、右コントローラ320の三軸角速度センサ(センサ306)が、右コントローラ320の3つの直交する各軸回りの回転を検出する。右コントローラ320は、各検出値に基づいて、右コントローラ320がどちらの方向にどれだけ回転したかを検出し、さらに、逐次検出した回転方向と回転量とを累積することによって、右コントローラ320の傾きを算出する。同様に、左コントローラ330は、左コントローラ330の三軸角速度センサ(センサ306)からの検出値を用いて、左コントローラ330の傾きを算出すればよい。右コントローラ320および左コントローラ330は、三軸角速度センサの検出値に加えて、たとえば三軸磁気センサおよび/または三軸加速度センサからの検出値を併用してもよい。   Instead of the controller sensor 140, the right controller 320 and the left controller 330 may detect their position and inclination using the sensor 306. In this case, for example, the three-axis angular velocity sensor (sensor 306) of the right controller 320 detects the rotation of the right controller 320 around three orthogonal axes. The right controller 320 detects how much the right controller 320 has rotated in which direction based on each detection value, and further accumulates the rotation direction and the rotation amount that are sequentially detected. Calculate the slope. Similarly, the left controller 330 may calculate the inclination of the left controller 330 using the detection value from the triaxial angular velocity sensor (sensor 306) of the left controller 330. The right controller 320 and the left controller 330 may use a detection value from, for example, a triaxial magnetic sensor and / or a triaxial acceleration sensor in addition to the detection value of the triaxial angular velocity sensor.

詳細な説明は省略するが、右コントローラ320は、三軸角速度センサ(センサ306)からの検出値を用いて、右コントローラ320の位置を検出することができる。また、左コントローラ330は、三軸角速度センサ(センサ306)からの検出値を用いて、左コントローラ330の位置を検出することができる。   Although a detailed description is omitted, the right controller 320 can detect the position of the right controller 320 using a detection value from the triaxial angular velocity sensor (sensor 306). Further, the left controller 330 can detect the position of the left controller 330 using the detection value from the triaxial angular velocity sensor (sensor 306).

(制御回路部200の機能的構成)
図8は、制御回路部200の機能的構成を示すブロック図である。制御回路部200は、HMDセンサ120、コントローラセンサ140、注視センサ130、およびコントローラ300から受信した各種のデータを用いることによって、ユーザに提供される仮想空間2を制御すると共に、HMD110のディスプレイ112への画像表示を制御する。図8に示すように、制御回路部200は、検出部210、表示制御部220、仮想空間制御部230、記憶部240、および通信部250を備えている。制御回路部200は、図2に示す各ハードウェアの協働によって、検出部210、表示制御部220、仮想空間制御部230、記憶部240、および通信部250として機能する。検出部210、表示制御部220、および仮想空間制御部230は、主としてプロセッサおよびメモリの協働によってその機能が実現され得る。記憶部240は、主としてメモリおよびストレージの協働によってその機能が実現され得る。通信部250は、主としてプロセッサおよび通信インターフェースの協働によってその機能が実現され得る。
(Functional configuration of control circuit unit 200)
FIG. 8 is a block diagram showing a functional configuration of the control circuit unit 200. The control circuit unit 200 uses the various data received from the HMD sensor 120, the controller sensor 140, the gaze sensor 130, and the controller 300 to control the virtual space 2 provided to the user and to the display 112 of the HMD 110. Control image display. As illustrated in FIG. 8, the control circuit unit 200 includes a detection unit 210, a display control unit 220, a virtual space control unit 230, a storage unit 240, and a communication unit 250. The control circuit unit 200 functions as a detection unit 210, a display control unit 220, a virtual space control unit 230, a storage unit 240, and a communication unit 250 by the cooperation of the hardware illustrated in FIG. The functions of the detection unit 210, the display control unit 220, and the virtual space control unit 230 can be realized mainly by the cooperation of the processor and the memory. The function of the storage unit 240 can be realized mainly by the cooperation of the memory and the storage. The function of the communication unit 250 can be realized mainly by the cooperation of the processor and the communication interface.

検出部210は、制御回路部200に接続される各種のセンサ(HMDセンサ120等)から検出値を受信する。また、必要に応じて、受信した検出値を用いた所定の処理を実行する。検出部210は、HMD検出部211、視線検出部212、およびコントローラ検出部213を備えている。HMD検出部211は、HMD110およびHMDセンサ120から検出値をそれぞれ受信する。視線検出部212は、注視センサ130から検出値を受信する。コントローラ検出部213は、コントローラセンサ140、右コントローラ320、および左コントローラ330から、それぞれの検出値を受信する。   The detection unit 210 receives detection values from various sensors (such as the HMD sensor 120) connected to the control circuit unit 200. Moreover, the predetermined process using the received detected value is performed as needed. The detection unit 210 includes an HMD detection unit 211, a line-of-sight detection unit 212, and a controller detection unit 213. The HMD detection unit 211 receives detection values from the HMD 110 and the HMD sensor 120, respectively. The line-of-sight detection unit 212 receives the detection value from the gaze sensor 130. The controller detection unit 213 receives detection values from the controller sensor 140, the right controller 320, and the left controller 330.

表示制御部220は、HMD110のディスプレイ112への画像表示を制御する。表示制御部220は、仮想カメラ制御部221、視界領域決定部222、および視野画像生成部223を備えている。仮想カメラ制御部221は、仮想空間2内に仮想カメラ1を配置すると共に、仮想空間2内における仮想カメラ1の挙動を制御する。視界領域決定部222は、視界領域23を決定する。視野画像生成部223は、決定された視界領域23に基づき、ディスプレイ112に表示される視界画像26を生成する。   The display control unit 220 controls image display on the display 112 of the HMD 110. The display control unit 220 includes a virtual camera control unit 221, a visual field region determination unit 222, and a visual field image generation unit 223. The virtual camera control unit 221 arranges the virtual camera 1 in the virtual space 2 and controls the behavior of the virtual camera 1 in the virtual space 2. The view area determination unit 222 determines the view area 23. The visual field image generation unit 223 generates a visual field image 26 displayed on the display 112 based on the determined visual field region 23.

仮想空間制御部230は、ユーザに提供される仮想空間2を制御する。仮想空間制御部230は、仮想空間規定部231、仮想手制御部232、関係判定部233、付加オブジェクト制御部234、影響対象特定部235、および影響反映部236を備えている。   The virtual space control unit 230 controls the virtual space 2 provided to the user. The virtual space control unit 230 includes a virtual space defining unit 231, a virtual hand control unit 232, a relationship determination unit 233, an additional object control unit 234, an influence target specifying unit 235, and an influence reflection unit 236.

仮想空間規定部231は、ユーザに提供される仮想空間2を表す仮想空間データを生成することによって、HMDシステム100における仮想空間2を規定する。仮想手制御部232は、ユーザによる右コントローラ320および左コントローラ330の操作に応じたユーザの各仮想手(仮想右手および仮想左手)を仮想空間2内に配置すると共に、仮想空間2内における各仮想手の挙動を制御する。関係判定部233は、仮想空間2内におけるユーザの仮想手同士の位置関係を判定する。付加オブジェクト制御部234は、判定された位置関係に基づく付加オブジェクトを仮想空間2内に配置すると共に、仮想空間2における付加オブジェクトの挙動を制御する。付加オブジェクトとは、仮想右手および仮想左手が仮想空間2において特定の関係を満たす場合に仮想空間2に規定されるオブジェクトである。言い換えると、付加オブジェクトは、ユーザの右手の状態を表す情報およびユーザの左手の状態を表す情報の双方に基づき仮想空間2に生成される付加画像の一種である。影響対象特定部235は、仮想空間2において付加オブジェクトによる影響を受けるオブジェクトを特定する。影響反映部236は、特定されたオブジェクトへの影響を仮想空間2に反映させる。   The virtual space defining unit 231 defines the virtual space 2 in the HMD system 100 by generating virtual space data representing the virtual space 2 provided to the user. The virtual hand control unit 232 arranges each virtual hand (virtual right hand and virtual left hand) of the user in accordance with the operation of the right controller 320 and the left controller 330 by the user in the virtual space 2 and each virtual hand in the virtual space 2 Control hand behavior. The relationship determination unit 233 determines the positional relationship between the user's virtual hands in the virtual space 2. The additional object control unit 234 arranges the additional object based on the determined positional relationship in the virtual space 2 and controls the behavior of the additional object in the virtual space 2. The additional object is an object defined in the virtual space 2 when the virtual right hand and the virtual left hand satisfy a specific relationship in the virtual space 2. In other words, the additional object is a type of additional image generated in the virtual space 2 based on both information representing the state of the user's right hand and information representing the state of the user's left hand. The influence target specifying unit 235 specifies an object affected by the additional object in the virtual space 2. The influence reflecting unit 236 reflects the influence on the identified object in the virtual space 2.

記憶部240は、制御回路部200が仮想空間2をユーザに提供するために用いる各種のデータを格納している。記憶部240は、雛形格納部241、コンテンツ格納部242、および判定テーブル243を備えている。雛形格納部241は、仮想空間2の雛形を表す各種の雛形データを格納している。コンテンツ格納部242は、仮想空間2において再生可能な各種のコンテンツを格納している。判定テーブル243は、仮想空間2における仮想右手と仮想左手との関係の判定に用いられる各種の判定値を格納している。   The storage unit 240 stores various data used by the control circuit unit 200 to provide the virtual space 2 to the user. The storage unit 240 includes a template storage unit 241, a content storage unit 242, and a determination table 243. The template storage unit 241 stores various template data representing the template of the virtual space 2. The content storage unit 242 stores various types of content that can be reproduced in the virtual space 2. The determination table 243 stores various determination values used for determining the relationship between the virtual right hand and the virtual left hand in the virtual space 2.

通信部250は、ネットワークNWを介して外部機器400(たとえばゲームサーバ)との間でデータを送受信する。   The communication unit 250 transmits / receives data to / from an external device 400 (for example, a game server) via the network NW.

(仮想空間2の提供処理)
図9は、HMDシステム100が仮想空間2をユーザに提供する処理の流れを示すシーケンス図である。仮想空間2は、基本的に、HMD110および制御回路部200の協働によってユーザに提供される。図9に示す処理が開始されると、まず、S1において、仮想空間規定部231が、ユーザに提供される仮想空間2を表す仮想空間データを生成することによって、仮想空間2を規定する。生成の手順は次の通りである。まず仮想空間規定部231は、仮想空間2の雛形データを、雛形格納部241から取得する。雛形データは、仮想空間2の空間構造を規定する空間構造データを有する。空間構造データは、たとえば、中心21を中心とする360°の全天球の空間構造を規定するデータである。雛形データは、仮想空間2のXYZ座標系を規定するデータをさらに有する。雛形データは、天球を構成する各メッシュのXYZ座標系における位置を特定する座標データをさらに有する。また、雛形データは、仮想空間2内にオブジェクトを配置可能であるか否かを示すフラグをさらに有する。コンテンツには、HMD110の初期状態(起動時)にユーザに見せる画像を向いた初期方向が、予め規定されている。
(Process of providing virtual space 2)
FIG. 9 is a sequence diagram showing a flow of processing in which the HMD system 100 provides the virtual space 2 to the user. The virtual space 2 is basically provided to the user through the cooperation of the HMD 110 and the control circuit unit 200. When the process shown in FIG. 9 is started, first, in S1, the virtual space defining unit 231 generates virtual space data representing the virtual space 2 provided to the user, thereby defining the virtual space 2. The generation procedure is as follows. First, the virtual space defining unit 231 acquires the template data of the virtual space 2 from the template storage unit 241. The template data has spatial structure data that defines the spatial structure of the virtual space 2. The spatial structure data is data that defines the spatial structure of a 360-degree celestial sphere centered on the center 21, for example. The template data further includes data defining the XYZ coordinate system of the virtual space 2. The template data further includes coordinate data for specifying the position of each mesh constituting the celestial sphere in the XYZ coordinate system. The template data further includes a flag indicating whether or not an object can be arranged in the virtual space 2. In the content, an initial direction in which an image to be shown to the user in the initial state (at startup) of the HMD 110 is defined in advance.

仮想空間規定部231は、さらに、仮想空間2において再生されるコンテンツを、コンテンツ格納部242から取得する。本実施形態では、このコンテンツはゲームコンテンツである。コンテンツは、ゲームの背景画像、および、ゲームに登場するオブジェクト(キャラクタ、アイテム等)を規定するデータを少なくとも有する。   The virtual space defining unit 231 further acquires content to be played back in the virtual space 2 from the content storage unit 242. In the present embodiment, this content is game content. The content includes at least data defining a background image of the game and objects (characters, items, etc.) appearing in the game.

仮想空間規定部231は、取得した雛形データに、取得したコンテンツを適合することによって、仮想空間2を規定する仮想空間データを生成する。仮想空間規定部231は、仮想空間データにおいて、仮想空間2の天球を構成する各メッシュの管理データに、コンテンツに含まれる背景画像を構成する各部分画像を適宜関連付ける。仮想空間規定部231は、コンテンツに規定される初期方向を仮想空間2のXYZ座標系におけるZ方向に合致させるように、各部分画像と各メッシュとを関連付けることが好ましい。   The virtual space defining unit 231 generates virtual space data defining the virtual space 2 by adapting the acquired content to the acquired template data. The virtual space defining unit 231 appropriately associates each partial image constituting the background image included in the content with management data of each mesh constituting the celestial sphere of the virtual space 2 in the virtual space data. The virtual space defining unit 231 preferably associates each partial image with each mesh so that the initial direction defined in the content matches the Z direction in the XYZ coordinate system of the virtual space 2.

仮想空間規定部231は、さらに、コンテンツに含まれる各オブジェクトの管理データを、仮想空間データに追加する。その際、各管理データに、対応するオブジェクトが仮想空間2において配置される位置を表す座標を、設定する。これにより各オブジェクトが、仮想空間2における当該座標の位置にそれぞれ配置される。   The virtual space defining unit 231 further adds management data of each object included in the content to the virtual space data. At that time, coordinates representing the position where the corresponding object is arranged in the virtual space 2 are set in each management data. Thereby, each object is arranged at the position of the coordinate in the virtual space 2.

その後、ユーザによってHMD110が起動されると、S2において、HMDセンサ120が、HMD110の初期状態における位置および傾きを検出して、S3において、検出値を制御回路部200に出力する。HMD検出部211は、この検出値を受信する。この後、S4において、仮想カメラ制御部221は、仮想空間2において仮想カメラ1を初期化する。   After that, when the HMD 110 is activated by the user, the HMD sensor 120 detects the position and inclination of the HMD 110 in the initial state in S2, and outputs the detected value to the control circuit unit 200 in S3. The HMD detection unit 211 receives this detection value. Thereafter, in S4, the virtual camera control unit 221 initializes the virtual camera 1 in the virtual space 2.

初期化の手順は次の通りである。まず仮想カメラ制御部221は、仮想空間2内における初期位置(図4における中心21等)に、仮想カメラ1を配置する。次に、仮想空間2における仮想カメラ1の向きを設定する。その際、仮想カメラ制御部221は、HMDセンサ120からの検出値に基づき初期状態のHMD110のuvw視野座標系を特定すると共に、HMD110のuvw視野座標系に一致するuvw視野座標系を仮想カメラ1に設定することによって、仮想カメラ1の向きを設定すればよい。   The initialization procedure is as follows. First, the virtual camera control unit 221 places the virtual camera 1 at an initial position in the virtual space 2 (eg, the center 21 in FIG. 4). Next, the orientation of the virtual camera 1 in the virtual space 2 is set. At that time, the virtual camera control unit 221 specifies the uvw visual field coordinate system of the HMD 110 in the initial state based on the detection value from the HMD sensor 120 and sets the uvw visual field coordinate system that matches the uvw visual field coordinate system of the HMD 110 to the virtual camera 1. The orientation of the virtual camera 1 may be set by setting to.

視界領域決定部222は、仮想カメラ1のuvw視野座標系に基づいて、仮想空間2における視界領域23を決定する(詳細は後述する)。S5において、視界画像生成部223は、仮想空間データを処理することによって、仮想空間2に展開される仮想空間画像22の全体のうち、仮想空間2における視界領域23に投影される部分に相当する視界画像26を生成(レンダリング)する。S6において、視野画像生成部223は、生成した視界画像26を初期視界画像としてHMD110に出力する。S7において、HMD110は、受信した初期視界画像をディスプレイ112に表示する。これによりユーザは初期視界画像を視認する。   The visual field area determination unit 222 determines the visual field area 23 in the virtual space 2 based on the uvw visual field coordinate system of the virtual camera 1 (details will be described later). In S <b> 5, the visual field image generation unit 223 corresponds to a portion projected on the visual field region 23 in the virtual space 2 out of the entire virtual space image 22 developed in the virtual space 2 by processing the virtual space data. A view image 26 is generated (rendered). In S <b> 6, the visual field image generation unit 223 outputs the generated visual field image 26 to the HMD 110 as an initial visual field image. In S <b> 7, the HMD 110 displays the received initial view image on the display 112. Thereby, the user visually recognizes the initial view image.

その後、S8において、HMDセンサ120が、HMD110の現在の位置および傾きを検出して、S9において、これらの検出値を制御回路部200に出力する。HMD検出部211は、各検出値を受信する。仮想カメラ制御部221は、HMD110の位置および傾きの検出値に基づき、HMD110における現在のuvw視野座標系を特定する。さらに、S10において、仮想カメラ制御部221は、XYZ座標系におけるuvw視野座標系のロール方向(w軸)を、HMD110の視界方向として特定する。   Thereafter, in S8, the HMD sensor 120 detects the current position and inclination of the HMD 110, and outputs these detected values to the control circuit unit 200 in S9. The HMD detection unit 211 receives each detection value. The virtual camera control unit 221 specifies the current uvw visual field coordinate system in the HMD 110 based on the position and tilt detection values of the HMD 110. Furthermore, in S <b> 10, the virtual camera control unit 221 specifies the roll direction (w axis) of the uvw visual field coordinate system in the XYZ coordinate system as the visual field direction of the HMD 110.

本実施形態では、S11において、仮想カメラ制御部221が、特定したHMD110の視界方向を、仮想空間2におけるユーザの基準視線5として特定する。S12において、仮想カメラ制御部221は、特定した基準視線5に基づき、仮想カメラ1を制御する。仮想カメラ制御部221は、基準視線5の位置(起点)および方向が仮想カメラ1の初期状態と同一であれば、仮想カメラ1の位置および方向をそのまま維持する。一方、基準視線5の位置(起点)および/または方向が、仮想カメラ1の初期状態から変化していれば、仮想空間2内における仮想カメラ1の位置および/または傾きを、変化後の基準視線5に応じた位置および/または傾きに変更する。また、制御後の仮想カメラ1に対してuvw視野座標系を再設定する。   In the present embodiment, in S <b> 11, the virtual camera control unit 221 identifies the identified visual field direction of the HMD 110 as the user's reference visual line 5 in the virtual space 2. In S <b> 12, the virtual camera control unit 221 controls the virtual camera 1 based on the identified reference line of sight 5. If the position (starting point) and direction of the reference line of sight 5 are the same as the initial state of the virtual camera 1, the virtual camera control unit 221 maintains the position and direction of the virtual camera 1 as they are. On the other hand, if the position (starting point) and / or direction of the reference line of sight 5 has changed from the initial state of the virtual camera 1, the position and / or inclination of the virtual camera 1 in the virtual space 2 is changed to the reference line of sight after the change. Change the position and / or inclination according to 5. Further, the uvw visual field coordinate system is reset for the virtual camera 1 after the control.

S13において、視界領域決定部222は、特定した基準視線5に基づき、仮想空間2における視界領域23を決定する。その後、S14において、視界画像生成部223は、仮想空間データを処理することによって、仮想空間2に展開される仮想空間画像22の全体のうち、仮想空間2における視界領域23に投影(重畳)される部分である視界画像26を生成(レンダリング)する。S15において、視野画像生成部223は、生成した視界画像26を更新用の視界画像としてHMD110に出力する。S16において、HMD110は、受信した視界画像26をディスプレイ112に表示することによって、視界画像26を更新する。これにより、ユーザがHMD110を動かせば、それに連動して視界画像26が更新される。   In S <b> 13, the visual field region determination unit 222 determines the visual field region 23 in the virtual space 2 based on the identified reference visual line 5. Thereafter, in S14, the visual field image generation unit 223 projects (superimposes) the entire virtual space image 22 developed in the virtual space 2 onto the visual field region 23 in the virtual space 2 by processing the virtual space data. A view field image 26 is generated (rendered). In S15, the visual field image generation unit 223 outputs the generated visual field image 26 to the HMD 110 as a visual field image for update. In S <b> 16, the HMD 110 updates the view image 26 by displaying the received view image 26 on the display 112. Thereby, if a user moves HMD110, the view image 26 will be updated in response to it.

(仮想空間ゲームの提供)
本実施形態では、ユーザは、右コントローラ320および左コントローラ330を操作することによって、仮想空間2内においてシューティングゲームをプレイする。たとえばユーザは、仮想空間内に登場する敵キャラクタを、短距離攻撃用の武器(剣など)または遠距離攻撃用の武器(銃など)を用いて攻撃する。
(Provide virtual space game)
In the present embodiment, the user plays a shooting game in the virtual space 2 by operating the right controller 320 and the left controller 330. For example, the user attacks an enemy character appearing in the virtual space using a short-range attack weapon (such as a sword) or a long-range attack weapon (such as a gun).

図10は、仮想空間2におけるゲームの進行を説明するフローチャートである。図10の処理が開始されると、S21において、コントローラセンサ140は、右コントローラ320の位置および傾き、ならびに、左コントローラ330の位置および傾きをそれぞれ検出する。S22において、HMDセンサ120は、各検出値を制御回路部200に送信する。コントローラ検出部213は、これらの検出値を受信する。   FIG. 10 is a flowchart for explaining the progress of the game in the virtual space 2. When the process of FIG. 10 is started, in S21, the controller sensor 140 detects the position and inclination of the right controller 320 and the position and inclination of the left controller 330, respectively. In S <b> 22, the HMD sensor 120 transmits each detection value to the control circuit unit 200. The controller detection unit 213 receives these detection values.

次に、S23において、コントローラ300が、各ボタンの押下状態を検出する。具体的には、右コントローラ320は、親指ボタン302a、人差し指ボタン302e、および中指ボタン302fの押下状態をそれぞれ検出する。一方、左コントローラ330は、親指ボタン302c、人差し指ボタン302g、および中指ボタン302hの押下状態をそれぞれ検出する。S24において、右コントローラ320および左コントローラ330は、各検出値を制御回路部200に送信する。コントローラ検出部213は、これらの検出値を受信する。   Next, in S23, the controller 300 detects the pressed state of each button. Specifically, the right controller 320 detects the pressed state of the thumb button 302a, the index finger button 302e, and the middle finger button 302f, respectively. On the other hand, the left controller 330 detects the pressed state of the thumb button 302c, the index finger button 302g, and the middle finger button 302h, respectively. In S <b> 24, the right controller 320 and the left controller 330 transmit each detection value to the control circuit unit 200. The controller detection unit 213 receives these detection values.

この後、S25において、仮想手制御部232が、受信された各検出値を用いて、ユーザの各仮想手(仮想右手および仮想左手)を、仮想空間2に生成する。具体的には、仮想右手を規定するデータおよび仮想左手を規定するデータをそれぞれ生成し、仮想空間データに追加する。   Thereafter, in S <b> 25, the virtual hand control unit 232 generates each virtual hand (virtual right hand and virtual left hand) of the user in the virtual space 2 using each received detection value. Specifically, data defining the virtual right hand and data defining the virtual left hand are respectively generated and added to the virtual space data.

仮想手制御部232は、右コントローラ320位置および傾きの検出値、ならびに右コントローラ320の各ボタンの押下状態の検出値を用いて、ユーザの仮想右手を規定する。その際、仮想空間2における仮想右手の位置として、グローバル座標系における右コントローラ320の位置を規定する。仮想手制御部232は、さらに、右コントローラ320の傾きの検出値に基づき、右コントローラ320に設定されたuvw視野座標系に連動するuvw視野座標系を仮想右手に設定することによって、仮想空間2内における仮想右手の傾きを規定する。   The virtual hand control unit 232 defines the user's virtual right hand using the detected value of the position and tilt of the right controller 320 and the detected value of the pressed state of each button of the right controller 320. At this time, the position of the right controller 320 in the global coordinate system is defined as the position of the virtual right hand in the virtual space 2. The virtual hand control unit 232 further sets the uvw visual field coordinate system linked to the uvw visual field coordinate system set in the right controller 320 based on the detected value of the tilt of the right controller 320 to the virtual right hand 2. Defines the inclination of the virtual right hand inside.

仮想手制御部232は、さらに、右コントローラ320の親指ボタン302a、人差し指ボタン302e、および中指ボタン302fの各検出値に基づき、仮想右手を構成する右親指、右人差し指、および右中指の表示状態を規定する。なお、右薬指および右小指の表示状態は、右中指に合致させるように規定する。   The virtual hand control unit 232 further displays the display states of the right thumb, right index finger, and right middle finger constituting the virtual right hand based on the detected values of the thumb button 302a, the index finger button 302e, and the middle finger button 302f of the right controller 320. Stipulate. The display states of the right ring finger and the right little finger are defined to match the right middle finger.

仮想手制御部232は、あるボタンの押下状態の検出値が「0」の場合、そのボタンに対応する仮想手の指の表示状態として、指を完全に伸ばした状態を規定する。一方、あるボタンの押下状態が「1」の場合、そのボタンに対応する仮想手の指の表示状態として、指を完全に折り曲げた状態を規定する。また、あるボタンの押下状態が「中間(0と1との間の値)」の場合、そのボタンに対応する仮想手の指の表示状態として、押下状態に応じた程度に指を折り曲げた表示状態を規定する。   When the detected value of the pressed state of a button is “0”, the virtual hand control unit 232 defines a state where the finger is fully extended as the display state of the finger of the virtual hand corresponding to the button. On the other hand, when the pressed state of a certain button is “1”, the state in which the finger is completely bent is defined as the display state of the finger of the virtual hand corresponding to the button. When the pressed state of a button is “intermediate (value between 0 and 1)”, the display state of the finger of the virtual hand corresponding to the button is displayed by bending the finger to the extent corresponding to the pressed state. Specify the state.

同様に、仮想手制御部232は、左コントローラ330の各検出値に基づき、仮想空間2における仮想左手の位置、傾き、および各指の状態を規定する。これらの処理によって、仮想手制御部232は、仮想右手および仮想左手を、仮想空間2に配置する。この後、S26において、関係判定部233は、判定テーブル243を参照することによって、仮想空間2における仮想右手と仮想左手との関係を判定する。   Similarly, the virtual hand control unit 232 defines the position and inclination of the virtual left hand in the virtual space 2 and the state of each finger based on the detection values of the left controller 330. Through these processes, the virtual hand control unit 232 places the virtual right hand and the virtual left hand in the virtual space 2. Thereafter, in S26, the relationship determination unit 233 determines the relationship between the virtual right hand and the virtual left hand in the virtual space 2 by referring to the determination table 243.

図11は、判定テーブル243の詳細を示す図である。判定テーブル243は、複数の行および列によって構成されており、行ごとに、付加オブジェクトの種類(名称)、右コントローラ320の各ボタンの押下状態、位置、および傾きの各判定値、左コントローラ330の各ボタンの押下状態、位置、および傾きの各判定値、ならびに付加オブジェクトへの視線の各判定値を、互いに関連づけて格納している。   FIG. 11 is a diagram showing details of the determination table 243. The determination table 243 is composed of a plurality of rows and columns. For each row, the type (name) of the additional object, the pressed state of each button of the right controller 320, the position and inclination determination values, and the left controller 330 Each determination value of the pressed state, position, and inclination of each button, and each determination value of the line of sight to the additional object are stored in association with each other.

仮想空間2における仮想右手の状態(位置、傾き、各指の曲げ具合)は、右コントローラ320の各検出値によって決まる。同様に、仮想空間2における仮想左手の状態(位置、傾き、各指の曲げ具合)は、左コントローラ330の各検出値によって決まる。そこで関係判定部233は、仮想右手および仮想左手が特定の関係を満たすか否かを、右コントローラ320および左コントローラ330の各検出値と、判定テーブル243に格納されている各判定値とを照合することによって、判定する。   The state of the virtual right hand in the virtual space 2 (position, inclination, bending condition of each finger) is determined by each detection value of the right controller 320. Similarly, the state of the virtual left hand (position, inclination, bending state of each finger) in the virtual space 2 is determined by each detection value of the left controller 330. Therefore, the relationship determination unit 233 collates the detection values of the right controller 320 and the left controller 330 with the determination values stored in the determination table 243 to determine whether the virtual right hand and the virtual left hand satisfy a specific relationship. To make a decision.

関係判定部233は、右コントローラ320の各検出値に一致する右コントローラ320の各判定値と、左コントローラ330の各検出値に一致する左コントローラ330の各判定値とが、判定テーブル243内において互いに関連付けて格納されている場合、仮想右手および仮想左手が特定の関係を満たすと判定する。具体的には、関係判定部233は、右コントローラ320の各検出値に一致する右コントローラ320の判定値と、左コントローラ330の各検出値に一致する左コントローラ330の判定値とを格納している行を、判定テーブル243から検索する。関係判定部233は、そのような行を判定テーブル243から発見した場合、仮想右手および仮想左手が特定の関係を満たすと判定する。   In the determination table 243, the relationship determination unit 233 displays the determination values of the right controller 320 that match the detection values of the right controller 320 and the determination values of the left controller 330 that match the detection values of the left controller 330. When stored in association with each other, it is determined that the virtual right hand and the virtual left hand satisfy a specific relationship. Specifically, the relationship determination unit 233 stores the determination value of the right controller 320 that matches each detection value of the right controller 320 and the determination value of the left controller 330 that matches each detection value of the left controller 330. Is searched from the determination table 243. When the relationship determination unit 233 finds such a row from the determination table 243, the relationship determination unit 233 determines that the virtual right hand and the virtual left hand satisfy a specific relationship.

S27において、付加オブジェクト制御部234は、関係判定部233による判定結果に応じた付加オブジェクトを、仮想空間2に生成する。具体的には、付加オブジェクト制御部234は、発見された行に格納されている付加オブジェクトの名称を、判定テーブル243から取得し、その名称の付加オブジェクトを規定するデータを生成して仮想空間データに追加する。付加オブジェクト制御部234は、仮想空間2における付加オブジェクトの位置を、仮想右手および仮想左手の位置に関連した位置に設定する。たとえば、仮想右手と仮想左手との中間位置を、仮想空間2における付加オブジェクトの位置として設定する。付加オブジェクト制御部234は、仮想右手および仮想左手が特定の関係に無いと判定された場合、付加オブジェクトを仮想空間2に生成しない。   In S <b> 27, the additional object control unit 234 generates an additional object corresponding to the determination result by the relationship determination unit 233 in the virtual space 2. Specifically, the additional object control unit 234 acquires the name of the additional object stored in the found row from the determination table 243, generates data defining the additional object with the name, and generates virtual space data. Add to The additional object control unit 234 sets the position of the additional object in the virtual space 2 to a position related to the positions of the virtual right hand and the virtual left hand. For example, an intermediate position between the virtual right hand and the virtual left hand is set as the position of the additional object in the virtual space 2. The additional object control unit 234 does not generate an additional object in the virtual space 2 when it is determined that the virtual right hand and the virtual left hand are not in a specific relationship.

この後、S28において、注視センサ130は、ユーザの右目の視線および左目の視線をそれぞれ検出し、S29において、各検出値を制御回路部200に送信する。視線検出部212が、この検出値を受信する。S30において、視線検出部212は、受信した検出値を用いて、仮想カメラ1のuvw視野座標系におけるユーザの視線方向N0を特定する。   Thereafter, in S28, the gaze sensor 130 detects the line of sight of the user's right eye and the line of sight of the left eye, and transmits each detected value to the control circuit unit 200 in S29. The line-of-sight detection unit 212 receives this detection value. In S30, the line-of-sight detection unit 212 specifies the line-of-sight direction N0 of the user in the uvw visual field coordinate system of the virtual camera 1 using the received detection value.

次に、S31において、影響対象特定部235は、仮想空間2内に配置される各オブジェクトのうち、付加オブジェクトによる影響を受けるオブジェクトを特定する。影響対象特定部235は、たとえば、仮想空間2内において、付加オブジェクトに規定される表示範囲内に位置するオブジェクトを、付加オブジェクトによる影響を受けるオブジェクトとして特定する。なお、詳しくは後述するが、影響対象特定部235は、付加オブジェクトの表示範囲内に視線方向N0が向いている場合に、付加オブジェクトの影響を受けるオブジェクトを特定すると共に、付加オブジェクトの表示範囲内に視線方向N0が向いていない場合には、付加オブジェクトの影響を受けるオブジェクトを特定しない。   Next, in S <b> 31, the influence target specifying unit 235 specifies an object affected by the additional object among the objects arranged in the virtual space 2. For example, in the virtual space 2, the influence target specifying unit 235 specifies an object located within the display range defined by the additional object as an object affected by the additional object. As will be described in detail later, the influence target specifying unit 235 specifies an object that is affected by the additional object when the line-of-sight direction N0 is in the display range of the additional object, and within the display range of the additional object. When the line-of-sight direction N0 does not face, the object affected by the additional object is not specified.

S32において、影響反映部236は、特定されたオブジェクトへの付加オブジェクトによる影響を、仮想空間2に反映させる。具体的には、たとえば、仮想空間データにおける、特定されたオブジェクトの表示状態を規定する値を、付加オブジェクトによる影響に応じた表示状態に更新する。S27において付加オブジェクトが規定されない場合、S31およびS32は実行されない。   In S <b> 32, the influence reflecting unit 236 reflects the influence of the additional object on the identified object in the virtual space 2. Specifically, for example, a value defining the display state of the specified object in the virtual space data is updated to a display state corresponding to the influence of the additional object. If no additional object is defined in S27, S31 and S32 are not executed.

その後、視野画像生成部223は、現在の基準視線5に基づいて、仮想空間2における視界領域23を決定する。S33において、視界画像生成部223は、仮想空間データを処理することによって、仮想空間2に展開される仮想空間画像22の全体のうち、仮想空間2における視界領域23に投影される部分である視界画像26を生成(レンダリング)する。   Thereafter, the visual field image generation unit 223 determines the visual field region 23 in the virtual space 2 based on the current reference visual line 5. In S <b> 33, the visual field image generation unit 223 processes the virtual space data, so that the visual field that is a portion projected to the visual field region 23 in the virtual space 2 out of the entire virtual space image 22 developed in the virtual space 2. An image 26 is generated (rendered).

仮想空間2に仮想右手および仮想左手が規定されているので、生成される視界画像26には、少なくとも仮想右手および仮想左手がさらに含まれる。また、付加オブジェクトが仮想空間2に規定された場合、視界画像26には付加オブジェクトがさらに含まれる。また、付加オブジェクトによる他のオブジェクトへの影響が仮想空間2に反映された場合、視界画像には、その影響により表示状態が変化したオブジェクトがさらに含まれる。   Since a virtual right hand and a virtual left hand are defined in the virtual space 2, the generated view field image 26 further includes at least a virtual right hand and a virtual left hand. When the additional object is defined in the virtual space 2, the visual field image 26 further includes the additional object. Further, when the effect of the additional object on other objects is reflected in the virtual space 2, the view image further includes an object whose display state has changed due to the effect.

S34において、視野画像生成部223は、生成した視界画像26を更新用の視界画像としてHMD110に出力する。S35において、HMD110は、受信した視界画像26をディスプレイ112に表示することによって、視界画像26を更新する。   In S <b> 34, the visual field image generation unit 223 outputs the generated visual field image 26 to the HMD 110 as a visual field image for update. In S <b> 35, the HMD 110 updates the view image 26 by displaying the received view image 26 on the display 112.

(ロックオンEA)
図10の処理によってディスプレイ112に表示される視界画像26の一例を、図12に示す。図12は、ディスプレイ112に表示される視界画像26の一例を示す図である。図12の(a)では、視界画像26は、背景画像、敵キャラクタ(オブジェクト)OA〜OC、仮想右手HR、仮想左手HL、およびロックオンEAを含んでいる。仮想右手HRは、右親指FRa、右人差し指FRb、および右中指FRcを含んでいる。仮想左手HLは、左親指FLa、左人差し指FLb、および左中指FLcを含んでいる。
(Lock on EA)
An example of the visual field image 26 displayed on the display 112 by the process of FIG. 10 is shown in FIG. FIG. 12 is a diagram illustrating an example of the field-of-view image 26 displayed on the display 112. In FIG. 12A, the view field image 26 includes a background image, enemy characters (objects) OA to OC, a virtual right hand HR, a virtual left hand HL, and a lock-on EA. The virtual right hand HR includes a right thumb FRa, a right index finger FRb, and a right middle finger FRc. The virtual left hand HL includes a left thumb FLa, a left index finger FLb, and a left middle finger FLc.

ロックオンEAは、付加オブジェクトの一種である。ユーザは、シューティングゲームの実行中に、敵キャラクタOA〜OCを攻撃対象にするために、ロックオンEAを利用する。ロックオンEAは、視界画像26に含まれる仮想右手HRおよび仮想左手HLが特定の関係にある場合、視界画像26に現れる。言い換えると、ユーザは、ゲーム中にロックオンEAを用いるために、両手を適宜動かす必要がある。   The lock on EA is a kind of additional object. During execution of the shooting game, the user uses the lock-on EA in order to make the enemy characters OA to OC attack targets. The lock-on EA appears in the view image 26 when the virtual right hand HR and the virtual left hand HL included in the view image 26 have a specific relationship. In other words, the user needs to move both hands appropriately in order to use the lock-on EA during the game.

図12の(a)では、敵キャラクタOAがロックオンEAの表示範囲に含まれている。そのため、視界画像26における敵キャラクタOAは、攻撃対象として選択されていることを示す状態となっている。一方、敵キャラクタOBおよびOCはロックオンEAの表示範囲に含まれないので、視界画像26における敵キャラクタOBおよびOCは、攻撃対象から外れていることを示す状態となっている。   In FIG. 12A, the enemy character OA is included in the display range of the lock-on EA. Therefore, the enemy character OA in the view field image 26 is in a state indicating that it is selected as an attack target. On the other hand, since the enemy characters OB and OC are not included in the display range of the lock-on EA, the enemy characters OB and OC in the view field image 26 are in a state indicating that they are out of the attack target.

図12の(a)に示す視界画像26をディスプレイ112に表示させるための手順を、以下に説明する。まずユーザは、ロックオンEAを表示させるための操作を、右コントローラ320および左コントローラ330に対して行う。本実施形態では、この操作は、図12の(a)に示す状態の仮想右手HRおよび仮想左手HLが視界画像26に含まれるように、右コントローラ320を持つ右手と左コントローラ330を持つ左手とを適宜動かすことである。   A procedure for displaying the visual field image 26 shown in FIG. 12A on the display 112 will be described below. First, the user performs an operation for displaying lock-on EA on the right controller 320 and the left controller 330. In the present embodiment, this operation includes a right hand having a right controller 320 and a left hand having a left controller 330 so that the virtual right hand HR and the virtual left hand HL in the state shown in FIG. It is to move appropriately.

ロックオンEAを表示させるために、ユーザはまず、右コントローラ320の親指ボタン302aおよび人差し指ボタン302eを押下せず、かつ、右コントローラ320の中指ボタン302fを完全に押下する。さらにユーザは、右コントローラ320の親指ボタン302aおよび人差し指ボタン302eを押下せず、かつ、右コントローラ320の中指ボタン302fを完全に押下する。   In order to display the lock-on EA, the user first presses the middle finger button 302f of the right controller 320 completely without pressing the thumb button 302a and the index finger button 302e of the right controller 320. Further, the user does not press the thumb button 302a and the index finger button 302e of the right controller 320, and completely presses the middle finger button 302f of the right controller 320.

ユーザはさらに、右親指FRaが視界画像26において上を向くと共に、右人差し指FRbが視界画像26において左を向くように、右コントローラ320を傾ける。また、左親指FLaが視界画像26において下を向くと共に、左人差し指FLbが視界画像26において右を向くように、左コントローラ330を傾ける。ユーザはさらに、右親指FRaの先端と左人差し指FLbの先端とが視界画像26内で接触すると共に、右人差し指FRbの先端と左親指FLaの先端とが視界画像26内において接触するように、右コントローラ320および左コントローラ330の位置を変化させる。   The user further tilts the right controller 320 so that the right thumb FRa faces upward in the view image 26 and the right index finger FRb faces left in the view image 26. Further, the left controller 330 is tilted so that the left thumb FLa faces downward in the view image 26 and the left index finger FLb faces right in the view image 26. The user further moves the right thumb FRa and the left index finger FLb so that the tip of the left index finger FLb contacts in the view image 26 and the tip of the right index finger FRb and the tip of the left thumb FLa contact in the view image 26. The positions of the controller 320 and the left controller 330 are changed.

ユーザが上述したように右コントローラ320および左コントローラ330を操作すると、制御回路部200は、右コントローラ320の親指ボタン302a、人差し指ボタン302e、および中指ボタン302fの押下状態の検出値として、それぞれ「0」、「0」、および「1」を受信する。また、右コントローラ320の位置および傾きの検出値として、位置PR1および傾きDR1を受信する。さらに、左コントローラ330の親指ボタン302c、人差し指ボタン302g、中指ボタン302hの検出値として、それぞれ「0」、「0」、および「1」を受信する。さらに、左コントローラ330の位置および傾きの検出値として、位置PL1および傾きDL1を受信する。   When the user operates the right controller 320 and the left controller 330 as described above, the control circuit unit 200 sets “0” as the detected value of the pressed state of the thumb button 302a, forefinger button 302e, and middle finger button 302f of the right controller 320, respectively. ”,“ 0 ”, and“ 1 ”. Further, the position PR1 and the slope DR1 are received as detected values of the position and the slope of the right controller 320. Further, “0”, “0”, and “1” are received as detection values of the thumb button 302c, the index finger button 302g, and the middle finger button 302h of the left controller 330, respectively. Further, the position PL1 and the inclination DL1 are received as detected values of the position and inclination of the left controller 330.

これらの検出値は、判定テーブル243において「ロックオン」に関連付けられている右コントローラ320および左コントローラ330の各判定値に一致する。したがって、付加オブジェクト制御部234は、付加オブジェクトとしてロックオンEAを仮想空間2に規定する。   These detection values match the determination values of the right controller 320 and the left controller 330 associated with “lock on” in the determination table 243. Therefore, the additional object control unit 234 defines the lock-on EA in the virtual space 2 as an additional object.

判定テーブル243において、「ロックオン」に対して視線の判定値として「必要」が関連付けられている。図12の(a)では、ロックオンEAが視界画像26に中央に配置されている。視線として視界方向を用いる場合、図12の(a)では、視界方向は視界画像26の中央に向かっているので、視線はロックオンEAに向けられている。そこで、影響対象特定部235は、ロックオンEAによる影響を受けるオブジェクトの特定を実行する。   In the determination table 243, “necessary” is associated with “lock on” as the determination value of the line of sight. In FIG. 12A, the lock-on EA is disposed in the center of the view field image 26. When the visual field direction is used as the visual line, the visual line direction is directed to the center of the visual field image 26 in FIG. Therefore, the influence target specifying unit 235 specifies an object affected by the lock-on EA.

図12の(a)では、仮想空間2において、敵キャラクタOAの位置は、ロックオンEAの表示範囲に含まれているが、敵キャラクタOBおよびOCの位置は、ロックオンEAの表示範囲に含まれていない。そこで影響対象特定部235は、ロックオンEAによる影響を受けるオブジェクトとして、ロックオンEAの表示範囲に含まれる敵キャラクタOAを特定する。特定された敵キャラクタOAへの影響は、ロックオンEAによる攻撃対象としての選択である。これにより影響反映部236は、敵キャラクタOAの表示状態を規定する値を、ロックオンEAによる選択がなされていることを示す値に更新する。   In FIG. 12A, in the virtual space 2, the position of the enemy character OA is included in the lock-on EA display range, but the positions of the enemy characters OB and OC are included in the lock-on EA display range. Not. Therefore, the influence target specifying unit 235 specifies an enemy character OA included in the lock-on EA display range as an object affected by the lock-on EA. The influence on the identified enemy character OA is selection as an attack target by lock-on EA. As a result, the influence reflecting unit 236 updates the value that defines the display state of the enemy character OA to a value indicating that the selection by the lock-on EA has been made.

この後、制御回路部200が視界画像26を生成することによって、図12の(a)に示す視界画像26をHMD110のディスプレイ112に表示させることができる。   Thereafter, the control circuit unit 200 generates the view image 26, whereby the view image 26 shown in FIG. 12A can be displayed on the display 112 of the HMD 110.

図13は、ロックオンEAによる影響を受けるオブジェクトを特定する方法を説明する図である。影響対象特定部235は、仮想空間2内におけるロックオンEAの表示範囲および仮想カメラ1の位置に基づき、ロックオンEAによる影響を受けるオブジェクトを特定してもよい。図13に示すように、影響対象特定部235は、仮想空間2における仮想カメラ1の位置を起点としてロックオンEAの表示範囲の外枠に向かう方向をそれぞれ特定し、さらに、これらの方向によって規定されるロックオンEAの広がり角γ1およびγ2を特定する。そして、これらの広がり角γ1およびγ2によって規定される仮想空間2内の広がり領域に位置するオブジェクトを、ロックオンEAによる影響を受けるオブジェクトとして特定する。なお、拡大ロックオンEBの場合も上記と同様である。   FIG. 13 is a diagram for explaining a method for identifying an object affected by lock-on EA. The influence target specifying unit 235 may specify an object affected by the lock-on EA based on the display range of the lock-on EA in the virtual space 2 and the position of the virtual camera 1. As illustrated in FIG. 13, the influence target specifying unit 235 specifies the directions toward the outer frame of the lock-on EA display range starting from the position of the virtual camera 1 in the virtual space 2, and is further defined by these directions. The spread angles γ1 and γ2 of the lock-on EA to be performed are specified. Then, an object located in a spread area in the virtual space 2 defined by the spread angles γ1 and γ2 is specified as an object affected by the lock-on EA. The same applies to the expansion lock-on EB.

(ロックオンEAの拡大)
ユーザは、ロックオンEAをディスプレイ112に表示させた後、右コントローラ320および左コントローラ330を適宜操作することによって、図12の(b)に示すように、ロックオンEAを拡大させることができる。図12の(b)では、視界画像26は、背景画像、敵キャラクタOA〜OC、仮想右手HR、仮想左手HL、および拡大ロックオンEBを含んでいる。
(Expansion of lock-on EA)
After the lock-on EA is displayed on the display 112, the user can enlarge the lock-on EA as shown in FIG. 12B by appropriately operating the right controller 320 and the left controller 330. In FIG. 12B, the view image 26 includes a background image, enemy characters OA to OC, a virtual right hand HR, a virtual left hand HL, and an enlarged lock-on EB.

拡大ロックオンEBは、付加オブジェクトの一種である。拡大ロックオンEBの表示範囲はロックオンEAよりも大きいので、敵キャラクタOA〜OCが拡大ロックオンEBの表示範囲に含まれている。したがって、敵キャラクタOAに加えて、敵キャラクタOBおよびOCも、攻撃対象として選択されていることを示す状態となっている。ユーザは、ロックオンEAを拡大することによって、より多くの敵キャラクタを攻撃対象として選択することができる。   The enlargement lock-on EB is a kind of additional object. Since the display range of the enlarged lock on EB is larger than the lock on EA, the enemy characters OA to OC are included in the display range of the enlarged lock on EB. Therefore, in addition to the enemy character OA, the enemy characters OB and OC are in a state indicating that they are selected as attack targets. The user can select more enemy characters as attack targets by enlarging the lock-on EA.

図12の(b)に示す視界画像26をディスプレイ112に表示させるための手順を以下に説明する。ロックオンEAを拡大するために、ユーザは、右コントローラ320の傾きおよび左コントローラ330の傾きをそれぞれ維持したまま、仮想右手HRと仮想左手HLとが視界画像26において互いに遠ざかるように、右手と左手とを互いに遠ざける。これにより、右コントローラ320および左コントローラ330の位置が、互いに離間するように経時的に変化する。   A procedure for displaying the visual field image 26 shown in FIG. 12B on the display 112 will be described below. In order to enlarge the lock-on EA, the user keeps the tilt of the right controller 320 and the tilt of the left controller 330, respectively, so that the virtual right hand HR and the virtual left hand HL move away from each other in the view image 26. And keep them away from each other. As a result, the positions of the right controller 320 and the left controller 330 change over time so as to be separated from each other.

コントローラ検出部213は、経時的にコントローラセンサ140から受信する位置の各検出値に基づき、右コントローラ320の位置および左コントローラ330の位置が、互いに離間するようにそれぞれ移動していることを検出する。コントローラ検出部213は、この検出に基づき、右コントローラ320および左コントローラ330の位置の検出値として、いずれも「離間移動」を生成する。右コントローラ320の押下状態および傾きの検出値、ならびに左コントローラ330の押下状態および傾きの検出値は、ロックオンEAの表示時から変わりない。これらの各検出値は、判定テーブル243において「拡大ロックオン」に関連付けられている各判定値に一致する。そこで付加オブジェクト制御部234は、付加オブジェクトとして拡大ロックオンEBを仮想空間2に規定する。   The controller detection unit 213 detects that the position of the right controller 320 and the position of the left controller 330 have moved away from each other based on the detected values of the positions received from the controller sensor 140 over time. . Based on this detection, the controller detection unit 213 generates “separation movement” as detection values of the positions of the right controller 320 and the left controller 330. The pressed state of the right controller 320 and the detected value of the tilt, and the pressed state of the left controller 330 and the detected value of the tilt remain unchanged from when the lock-on EA is displayed. Each of these detection values corresponds to each determination value associated with “enlarged lock on” in the determination table 243. Therefore, the additional object control unit 234 defines the enlarged lock-on EB in the virtual space 2 as an additional object.

判定テーブル243において、「拡大ロックオン」に対して視線の判定値として「必要」が規定されている。図12の(b)では、拡大ロックオンEBが視界画像26に中央に配置されている。視線として視界方向を用いる場合、図12の(b)では、視界方向は視界画像26の中央に向かっているので、視線は拡大ロックオンEBに向けられている。そこで、影響対象特定部235は、拡大ロックオンEBによる影響を受けるオブジェクトの特定を実行する。   In the determination table 243, “necessary” is defined as the line-of-sight determination value for “enlarged lock on”. In FIG. 12B, the enlarged lock-on EB is disposed in the center of the view field image 26. When the visual field direction is used as the visual line, in FIG. 12B, since the visual field direction is toward the center of the visual field image 26, the visual line is directed to the enlarged lock-on EB. Therefore, the influence target specifying unit 235 specifies an object affected by the enlarged lock-on EB.

図12の(b)では、仮想空間2において、敵キャラクタOA〜OCの各位置は、いずれも拡大ロックオンEBの表示範囲に含まれている。そのため影響対象特定部235は、拡大ロックオンEBによる影響を受けるオブジェクトとして、敵キャラクタOA〜OCを特定する。特定された敵キャラクタOA〜OCへの影響は、拡大ロックオンEBによる攻撃対象としての選択である。敵キャラクタOAはすでにロックオンEAによる影響を受けているので、表示状態を変える必要はない。影響反映部236は、仮想空間データにおいて、敵キャラクタOBおよびOCの表示状態を規定する値を、拡大ロックオンEBによる選択がなされていることを示す値に更新する。   In FIG. 12B, each position of the enemy characters OA to OC in the virtual space 2 is included in the display range of the enlarged lock-on EB. Therefore, the influence target specifying unit 235 specifies the enemy characters OA to OC as objects that are affected by the enlarged lock-on EB. The influence on the identified enemy characters OA to OC is selection as an attack target by the expanded lock-on EB. Since the enemy character OA has already been affected by the lock-on EA, there is no need to change the display state. The influence reflecting unit 236 updates the value defining the display state of the enemy characters OB and OC in the virtual space data to a value indicating that the selection by the enlarged lock-on EB has been made.

この後、制御回路部200が視界画像26を生成することによって、図12の(b)に示す視界画像26をHMD110のディスプレイ112に表示させることができる。   Thereafter, the control circuit unit 200 generates the view image 26, whereby the view image 26 shown in FIG. 12B can be displayed on the display 112 of the HMD 110.

制御回路部200は、視界画像26におけるロックオンEA(または拡大ロックオンEB)に重なる部分を、ユーザによる指示(たとえば特定のボタンの押下)に基づきスクリーンショットとして取得してもよい。この場合、制御回路部200は、図13に示す広がり角を考慮することなく、視界画像26においてロックオンEA(または拡大ロックオンEB)にちょうど重なる箇所の部分画像を、スクリーンショットとして取得する。   The control circuit unit 200 may acquire a portion overlapping the lock-on EA (or the enlarged lock-on EB) in the view field image 26 as a screen shot based on a user instruction (for example, pressing a specific button). In this case, the control circuit unit 200 acquires, as a screen shot, a partial image of a portion that exactly overlaps the lock-on EA (or the enlarged lock-on EB) in the view image 26 without considering the spread angle shown in FIG.

(エネルギーEC)
図11の処理によってディスプレイ112に表示される視界画像26の他の例を、図14に示す。図14は、ディスプレイ112に表示される視界画像26の他の例を示す図である。図14の(a)では、視界画像26は、背景画像、敵キャラクタ(オブジェクト)OBおよびOC、仮想右手HR、仮想左手HL、およびエネルギーECを含んでいる。
(Energy EC)
FIG. 14 shows another example of the visual field image 26 displayed on the display 112 by the processing of FIG. FIG. 14 is a diagram illustrating another example of the view field image 26 displayed on the display 112. In FIG. 14A, the view field image 26 includes a background image, enemy characters (objects) OB and OC, a virtual right hand HR, a virtual left hand HL, and energy EC.

エネルギーECは、付加オブジェクトの一種である。ユーザは、シューティングゲームの実行中に、敵キャラクタを攻撃するためのソードまたは敵キャラクタから身を守るためにシールドを利用するために、まず、エネルギーECを仮想空間2に生成する。エネルギーECは、視界画像26に含まれる仮想右手HRおよび仮想左手HLが特定の関係にある場合、視界画像26に現れる。言い換えると、ユーザは、エネルギーECをディスプレイ112に表示させるために、両手を適宜動かす必要がある。   The energy EC is a kind of additional object. During the execution of the shooting game, the user first generates energy EC in the virtual space 2 in order to use the sword for attacking the enemy character or the shield to protect himself from the enemy character. The energy EC appears in the view image 26 when the virtual right hand HR and the virtual left hand HL included in the view image 26 have a specific relationship. In other words, in order to display the energy EC on the display 112, the user needs to move both hands appropriately.

図14の(a)に示す視界画像26をディスプレイ112に表示させるための手順を、以下に説明する。まずユーザは、エネルギーECを表示させるための操作を、右コントローラ320および左コントローラ330に対して行う。本実施形態では、この操作は、図14の(a)に示す状態の仮想右手HRおよび仮想左手HLが視界画像26に含まれるように、右コントローラ320を持つ右手と左コントローラ330を持つ左手とを適宜動かすことである。   A procedure for displaying the visual field image 26 shown in FIG. 14A on the display 112 will be described below. First, the user performs an operation for displaying the energy EC on the right controller 320 and the left controller 330. In the present embodiment, this operation includes a right hand having a right controller 320 and a left hand having a left controller 330 so that the virtual right hand HR and the virtual left hand HL in the state shown in FIG. It is to move appropriately.

エネルギーECを表示させるために、ユーザはまず、右コントローラ320の親指ボタン302aおよび人差し指ボタン302eを中程度に押下し、かつ、右コントローラ320の中指ボタン302fを完全に押下する。さらにユーザは、左コントローラ330の親指ボタン302cおよび人差し指ボタン302gを中程度に、かつ、左コントローラ330の中指ボタン302hを完全に押下する。   In order to display the energy EC, the user first presses the thumb button 302a and the index finger button 302e of the right controller 320 moderately, and presses the middle finger button 302f of the right controller 320 completely. Further, the user presses the thumb button 302c and the index finger button 302g of the left controller 330 to the middle, and presses the middle finger button 302h of the left controller 330 completely.

ユーザはさらに、仮想右手HRの甲が視界画像26に表示され、かつ、右親指FRaおよび右人差し指FRbが視界画像26において斜め左下を向くように、右コントローラ320を傾ける。また、仮想左手HLの手のひらが視界画像26に表示され、左親指FLaおよび左人差し指FLbが視界画像26において斜め右上を向くように、左コントローラ330を傾ける。ユーザはさらに、右親指FRaの先端、左人差し指FLbの先端、右人差し指FRbの先端、左親指FLaの先端が視界画像26内の小さな領域を取り囲むように、右コントローラ320および左コントローラ330の位置を変化させる。   The user further tilts the right controller 320 so that the back of the virtual right hand HR is displayed in the view image 26 and the right thumb FRa and the right index finger FRb are directed obliquely to the lower left in the view image 26. Further, the left controller 330 is tilted so that the palm of the virtual left hand HL is displayed in the view image 26 and the left thumb FLa and the left index finger FLb are directed diagonally to the upper right in the view image 26. The user further positions the right controller 320 and the left controller 330 so that the tip of the right thumb FRa, the tip of the left index finger FLb, the tip of the right index finger FRb, and the tip of the left thumb FLa surround a small area in the field-of-view image 26. Change.

ユーザが上述したように右コントローラ320および左コントローラ330を操作すると、制御回路部200は、右コントローラ320の親指ボタン302a、人差し指ボタン302e、および中指ボタン302fの押下状態の検出値として、それぞれ「中間」、「中間」、および「1」を受信する。また、右コントローラ320の位置および傾きの検出値として、位置PR2および傾きDR2を受信する。さらに、左コントローラ330の親指ボタン302c、人差し指ボタン302g、中指ボタン302hの検出値として、それぞれ「中間」、「中間」、および「1」を受信する。さらに、左コントローラ330の位置および傾きの検出値として、位置PL2および傾きDL2を受信する。   When the user operates the right controller 320 and the left controller 330 as described above, the control circuit unit 200 displays “intermediate” as detection values of the pressed state of the thumb button 302a, the index finger button 302e, and the middle finger button 302f of the right controller 320, respectively. ”,“ Intermediate ”, and“ 1 ”. Further, the position PR2 and the slope DR2 are received as detected values of the position and the slope of the right controller 320. Furthermore, “intermediate”, “intermediate”, and “1” are received as detection values of the thumb button 302c, the index finger button 302g, and the middle finger button 302h of the left controller 330, respectively. Further, the position PL2 and the inclination DL2 are received as detected values of the position and inclination of the left controller 330.

これらの検出値は、判定テーブル243において「エネルギーEC」に関連付けられている右コントローラ320および左コントローラ330の各判定値に一致する。したがって、付加オブジェクト制御部234は、付加オブジェクトとしてエネルギーECを仮想空間2に規定する。   These detection values match the determination values of the right controller 320 and the left controller 330 that are associated with the “energy EC” in the determination table 243. Therefore, the additional object control unit 234 defines the energy EC as an additional object in the virtual space 2.

この後、制御回路部200が視界画像26を生成することによって、図14の(a)に示す視界画像26をHMD110のディスプレイ112に表示させることができる。   Thereafter, the control circuit unit 200 generates the view image 26, whereby the view image 26 shown in FIG. 14A can be displayed on the display 112 of the HMD 110.

ユーザは、エネルギーECをディスプレイ112に表示させた後、右コントローラ320および左コントローラ330を適宜操作することによって、図14の(b)に示すように、敵キャラクタを攻撃するためのソードEDを、ディスプレイ112に表示させることができる。図14の(b)では、視界画像26は、背景画像、敵キャラクタOBおよびOC、仮想右手HR、仮想左手HL、およびソードEDを含んでいる。ソードEDは、付加オブジェクトの一種である。   After the user displays the energy EC on the display 112, the user appropriately operates the right controller 320 and the left controller 330 to obtain a sword ED for attacking an enemy character, as shown in FIG. It can be displayed on the display 112. In FIG. 14B, the field-of-view image 26 includes a background image, enemy characters OB and OC, a virtual right hand HR, a virtual left hand HL, and a sword ED. The sword ED is a kind of additional object.

図14の(b)に示す視界画像26をディスプレイ112に表示させるための手順を以下に説明する。エネルギーECの表示後、ユーザは、右コントローラ320の傾きおよび左コントローラ330の傾きをそれぞれ維持したまま、仮想右手HRと仮想左手HLとが視界画像26において互いに遠ざかるように、右手と左手とを互いに遠ざける。これにより、右コントローラ320および左コントローラ330の位置が、互いに離間するように経時的に変化する。   A procedure for displaying the visual field image 26 shown in FIG. 14B on the display 112 will be described below. After displaying the energy EC, the user holds the right hand and the left hand with each other so that the virtual right hand HR and the virtual left hand HL move away from each other in the view image 26 while maintaining the tilt of the right controller 320 and the tilt of the left controller 330, respectively. keep away. As a result, the positions of the right controller 320 and the left controller 330 change over time so as to be separated from each other.

コントローラ検出部213は、経時的にコントローラセンサ140から受信する位置の各検出値に基づき、右コントローラ320の位置および左コントローラ330の位置が、互いに離間するようにそれぞれ移動していることを検出する。コントローラ検出部213は、この検出に基づき、右コントローラ320および左コントローラ330の位置の検出値として、いずれも「離間移動」を生成する。右コントローラ320の押下状態および傾きの検出値、ならびに左コントローラ330の押下状態および傾きの検出値は、エネルギーECの表示時から変わりない。これらの各検出値は、判定テーブル243において「ソードED」に関連付けられている各判定値に一致する。そこで付加オブジェクト制御部234は、付加オブジェクトとしてソードEDを仮想空間2に規定する。   The controller detection unit 213 detects that the position of the right controller 320 and the position of the left controller 330 have moved away from each other based on the detected values of the positions received from the controller sensor 140 over time. . Based on this detection, the controller detection unit 213 generates “separation movement” as detection values of the positions of the right controller 320 and the left controller 330. The pressed state of the right controller 320 and the detected value of the tilt, and the pressed state of the left controller 330 and the detected value of the tilt remain unchanged from when the energy EC is displayed. Each of these detection values corresponds to each determination value associated with “Sword ED” in the determination table 243. Therefore, the additional object control unit 234 defines the sword ED as an additional object in the virtual space 2.

この後、制御回路部200が視界画像26を生成することによって、図14の(b)に示す視界画像26をHMD110のディスプレイ112に表示させることができる。図14の(c)に示すように、ユーザは、生成したソードEDを仮想右手HRまたは仮想左手HLで掴んで利用することができる。たとえば、ソードEDを振り回して敵キャラクタOBまたはOCを斬りつけたり、ソードEDを敵キャラクタOBまたはOCに投げつけたりすることができる。   Thereafter, the control circuit unit 200 generates the view image 26, whereby the view image 26 shown in FIG. 14B can be displayed on the display 112 of the HMD 110. As shown in FIG. 14C, the user can use the generated sword ED by grasping it with the virtual right hand HR or the virtual left hand HL. For example, the sword ED can be swung to slash the enemy character OB or OC, or the sword ED can be thrown to the enemy character OB or OC.

(シールドEE)
図11の処理によってディスプレイ112に表示される視界画像26の他の例を、図15に示す。図15は、ディスプレイ112に表示される視界画像26のさらに他の例を示す図である。図15の(a)では、視界画像26は、背景画像、敵キャラクタ(オブジェクト)OBおよびOC、仮想右手HR、仮想左手HL、およびシールドEEを含んでいる。
(Shield EE)
FIG. 15 shows another example of the view field image 26 displayed on the display 112 by the process of FIG. FIG. 15 is a diagram showing still another example of the view field image 26 displayed on the display 112. In FIG. 15A, the field-of-view image 26 includes a background image, enemy characters (objects) OB and OC, a virtual right hand HR, a virtual left hand HL, and a shield EE.

シールドEEは、付加オブジェクトの一種である。ユーザは、図14の(b)に示すソードEDを表示させた後、両手を回転移動させることによって、シールドEEを表示させることができる。   The shield EE is a kind of additional object. After displaying the sword ED shown in FIG. 14B, the user can display the shield EE by rotating both hands.

図15の(b)に示す視界画像26をディスプレイ112に表示させるための手順を、以下に説明する。ソードEDの表示後、ユーザは、右コントローラ320の傾きおよび左コントローラ330の傾きをそれぞれ維持したまま、仮想右手HRと仮想左手HLとがソードEDの中央を原点とする円上を動くように、右手および左手を動かす。これにより、右コントローラ320および左コントローラ330の位置が、いずれも回転運動をするように経時的に変化する。   The procedure for displaying the visual field image 26 shown in FIG. 15B on the display 112 will be described below. After the display of the sword ED, the user maintains the inclination of the right controller 320 and the inclination of the left controller 330 so that the virtual right hand HR and the virtual left hand HL move on a circle whose center is the sword ED. Move your right and left hand. As a result, the positions of the right controller 320 and the left controller 330 change with time so that both of them rotate.

コントローラ検出部213は、経時的にコントローラセンサ140から受信する位置の各検出値に基づき、右コントローラ320の位置および左コントローラ330の位置が、いずれも回転移動していることを検出する。コントローラ検出部213は、この検出に基づき、右コントローラ320および左コントローラ330の位置の検出値として、いずれも「回転移動」を生成する。右コントローラ320の押下状態および傾きの検出値、ならびに左コントローラ330の押下状態および傾きの検出値は、ソードEDの表示時から変わりない。これらの各検出値は、判定テーブル243において「シールド」に関連付けられている各判定値に一致する。そこで付加オブジェクト制御部234は、付加オブジェクトとしてシールドEEを仮想空間2に規定する。   The controller detection unit 213 detects that both the position of the right controller 320 and the position of the left controller 330 are rotationally moved based on the detected values of the positions received from the controller sensor 140 over time. Based on this detection, the controller detection unit 213 generates “rotation movement” as detection values of the positions of the right controller 320 and the left controller 330. The pressed state of the right controller 320 and the detected value of the tilt, and the pressed state of the left controller 330 and the detected value of the tilt remain unchanged from when the sword ED is displayed. Each of these detection values corresponds to each determination value associated with “shield” in the determination table 243. Therefore, the additional object control unit 234 defines the shield EE in the virtual space 2 as an additional object.

この後、制御回路部200が視界画像26を生成することによって、図15の(a)に示す視界画像26をHMD110のディスプレイ112に表示させることができる。図15の(b)に示すように、ユーザは、生成したシールドEEを仮想右手HRまたは仮想左手HLで掴んで利用することができる。たとえば、シールドEEを敵キャラクタの前に配置することによって、敵キャラクタからの攻撃を防ぐことができる。   Thereafter, the control circuit unit 200 generates the view image 26, whereby the view image 26 shown in FIG. 15A can be displayed on the display 112 of the HMD 110. As shown in FIG. 15B, the user can use the generated shield EE by grasping it with the virtual right hand HR or the virtual left hand HL. For example, by placing the shield EE in front of the enemy character, an attack from the enemy character can be prevented.

本実施形態では、図12、図14、および図15に示すように、ユーザの仮想右手HRおよび仮想左手HLとの関係(位置関係)に応じた様々な付加オブジェクトが、仮想空間2に登場する。すなわちユーザは、両手を用いた幅広い範囲内での様々なポーズを取ることによって、仮想空間2の状態を様々に変化させることができる。ユーザは、両手を使った様々なポーズを取るために、両手をダイナミックに動かす必要がある。このような動きを通じて、ユーザは、仮想空間2における己の姿に高い躍動感と満足感(自尊心)を覚えることもできる。したがって、本実施形態によれば、エンタテインメント性の高い仮想空間2をユーザに提供することができる。   In the present embodiment, as shown in FIGS. 12, 14, and 15, various additional objects appearing in the virtual space 2 according to the relationship (positional relationship) between the virtual right hand HR and the virtual left hand HL of the user. . That is, the user can change the state of the virtual space 2 in various ways by taking various poses within a wide range using both hands. The user needs to move both hands dynamically in order to take various poses using both hands. Through such a movement, the user can also learn a high sense of liveliness and satisfaction (self-esteem) in his / her appearance in the virtual space 2. Therefore, according to this embodiment, the virtual space 2 with high entertainment property can be provided to the user.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態も、本発明の技術的範囲に含まれる。各実施形態にそれぞれ開示された技術的手段を組み合わせることによって、新しい技術的特徴を形成することもできる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims. Embodiments obtained by appropriately combining technical means disclosed in different embodiments are also included in the technical scope of the present invention. A new technical feature can also be formed by combining the technical means disclosed in each embodiment.

たとえば制御回路部200は、視界方向ではなく視線方向N0を、基準視線5として特定してもよい。この場合、ユーザが視線を変化させるとそれに連動して仮想カメラ1の向きが変わるので、視界領域23の位置も視線変化に連動して変化する。その結果、視界画像26の内容が視線変化に応じて変化することになる。   For example, the control circuit unit 200 may specify the line-of-sight direction N0 as the reference line-of-sight 5 instead of the line-of-sight direction. In this case, when the user changes the line of sight, the orientation of the virtual camera 1 changes in conjunction with the change of the line of sight, so the position of the visual field region 23 also changes in conjunction with the line of sight change. As a result, the contents of the view field image 26 change according to the line of sight change.

また、制御回路部200は、ユーザの右手の状態を表す情報およびユーザの左手の状態を表す情報の双方に基づき、オブジェクトとしての機能を持たない単なる付加画像を、仮想空間2に生成してもよい。   Further, the control circuit unit 200 may generate a simple additional image in the virtual space 2 that does not have a function as an object based on both the information indicating the state of the user's right hand and the information indicating the state of the user's left hand. Good.

〔ソフトウェアによる実現例〕
制御回路部200の制御ブロック(検出部210、表示制御部220、仮想空間制御部230、記憶部240、および通信部250)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
A control block (detection unit 210, display control unit 220, virtual space control unit 230, storage unit 240, and communication unit 250) of the control circuit unit 200 is a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. ) Or by software using a CPU (Central Processing Unit).

後者の場合、制御ブロックは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、前記プログラムおよび各種データがコンピュータ(又はCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、前記プログラムを展開するRAM(Random Access Memory)等を備えている。そして、コンピュータ(又はCPU)が前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路等を用いることができる。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the control block includes a CPU that executes instructions of a program that is software that realizes each function, a ROM (Read Only Memory) or a memory in which the program and various data are recorded so as to be readable by a computer (or CPU). A device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like are provided. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

〔付記事項〕
本発明の一側面にかかる内容を列記すると以下の通りである。
[Additional Notes]
The contents according to one aspect of the present invention are listed as follows.

(項目1)ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに仮想空間を提供する方法であって、前記仮想空間を規定するステップと、前記仮想空間における前記ユーザの基準視線を特定するステップと、前記ユーザの右手の状態を表す情報および前記ユーザの左手の状態を表す情報を取得するステップと、前記右手の状態を表す情報および前記左手の状態の双方に基づく付加画像を、前記仮想空間に生成するステップと、前記基準視線に基づき、前記付加画像を少なくとも含む視界画像を生成するステップと、前記視界画像を前記HMDに表示させるステップとを有する、仮想空間を提供する方法。ユーザが両手を用いた幅広い範囲内の様々なポーズを取ることによって仮想空間の状態を様々に変化させることができるので、エンタテインメント性の高い仮想空間をユーザに提供することができる。   (Item 1) A method for providing a virtual space to a user wearing a head-mounted display (hereinafter, HMD), the step of defining the virtual space, and the step of specifying the reference line of sight of the user in the virtual space; Obtaining information indicating the state of the right hand of the user and information indicating the state of the left hand of the user, and an additional image based on both the information indicating the state of the right hand and the state of the left hand in the virtual space. A method of providing a virtual space, comprising: generating, generating a view image including at least the additional image based on the reference line of sight, and displaying the view image on the HMD. Since the user can change the state of the virtual space variously by taking various poses within a wide range using both hands, it is possible to provide the user with a highly entertaining virtual space.

(項目2)前記右手の状態を表す情報に基づき、前記仮想空間に仮想右手を生成するステップと、前記左手の状態を表す情報に基づき、前記仮想空間に仮想左手を生成するステップと、をさらに有しており、前記付加画像を生成するステップにおいて、前記仮想空間における前記仮想右手および前記仮想左手の関係に基づく前記付加画像を生成し、前記視界画像を生成するステップにおいて、前記仮想右手および前記仮想左手をさらに含む前記視界画像を生成する、項目1の仮想空間を提供する方法。ユーザの右手および左手にそれぞれ対応した仮想右手および仮想左手が生成されるので、仮想空間のリアリティをより高めることができる。   (Item 2) A step of generating a virtual right hand in the virtual space based on information representing the state of the right hand, and a step of generating a virtual left hand in the virtual space based on the information representing the state of the left hand And generating the additional image in the step of generating the additional image based on the relationship between the virtual right hand and the virtual left hand in the virtual space, and generating the view image in the step of generating the additional image. A method for providing a virtual space of item 1 for generating the view image further including a virtual left hand. Since the virtual right hand and the virtual left hand corresponding to the user's right hand and left hand, respectively, are generated, the reality of the virtual space can be further enhanced.

(項目3)前記右手の状態を表す情報および前記左手の状態を表す情報を取得するステップにおいて、前記ユーザが右手に持つ右コントローラの検出値および前記ユーザが左手に持つ左コントローラの検出値を、前記右手の状態を表す情報および前記左手の状態を表す情報としてそれぞれ取得する、項目1または2の仮想空間を提供する方法。ユーザの右手の状態を表す情報および左手を表す情報を簡易に取得することができる。   (Item 3) In the step of acquiring information representing the state of the right hand and information representing the state of the left hand, the detected value of the right controller that the user has on the right hand and the detected value of the left controller that the user has on the left hand, The method of providing the virtual space of the item 1 or 2 acquired as information showing the state of the right hand and information showing the state of the left hand, respectively. Information representing the state of the user's right hand and information representing the left hand can be easily obtained.

(項目4)前記付加画像を生成するステップにおいて、前記仮想空間に前記付加画像として付加オブジェクトを生成する、項目1〜3のいずれか1つの仮想空間を提供する方法。ユーザの両手の関係に応じた付加オブジェクトを仮想空間内に登場させることができる。   (Item 4) The method of providing any one virtual space of items 1 to 3, wherein, in the step of generating the additional image, an additional object is generated as the additional image in the virtual space. An additional object corresponding to the relationship between the user's hands can appear in the virtual space.

(項目5)前記仮想空間において前記付加画像による影響を受けるオブジェクトを特定するステップと、特定された前記オブジェクトに対する前記影響を、前記仮想空間に反映させるステップとをさらに有する、項目1〜4のいずれか1つの仮想空間を提供する方法。ユーザが両手を適宜動かすことによって仮想空間内のオブジェクトに影響を与えることができる。   (Item 5) The item according to any one of items 1 to 4, further comprising: specifying an object affected by the additional image in the virtual space; and reflecting the influence on the specified object in the virtual space. A method for providing a single virtual space. The user can influence the object in the virtual space by appropriately moving both hands.

(項目6)前記影響を受けるオブジェクトを特定するステップにおいて、前記仮想空間において前記付加画像の表示範囲に重畳するオブジェクトを、前記付加画像による影響を受けるオブジェクトとして特定する、項目5の仮想空間を提供する方法。影響を受けるオブジェクトを適切に特定することができる。   (Item 6) The virtual space of item 5 is provided, wherein in the step of specifying the affected object, an object to be superimposed on the display range of the additional image in the virtual space is specified as an object affected by the additional image. how to. The affected object can be identified appropriately.

(項目7)前記ユーザの視線方向を特定するステップをさらに有し、前記影響を受けるオブジェクトを特定するステップにおいて、前記付加画像および前記視線方向に基づき、前記影響を受けるオブジェクトを特定する、項目4または5の仮想空間を提供する方法。ユーザが注意を向けた領域内のオブジェクトに影響を与えることができる。   (Item 7) The method further includes the step of specifying the user's line-of-sight direction, and in the step of specifying the affected object, the affected object is specified based on the additional image and the line-of-sight direction. Or a method of providing 5 virtual spaces. It can affect objects in the area that the user has focused on.

(項目8)前記HMDのロール方向を特定するステップをさらに有し、前記影響を受けるオブジェクトを特定するステップにおいて、前記付加画像および前記ロール方向に基づき、前記影響を受けるオブジェクトを特定する、項目5または6の仮想空間を提供する方法。ユーザの正面にある領域内のオブジェクトに影響を与えることができる。   (Item 8) The method further includes a step of specifying a roll direction of the HMD, and specifying the affected object based on the additional image and the roll direction in the step of specifying the affected object. Alternatively, a method for providing six virtual spaces. It can affect objects in the area in front of the user.

(項目9)項目1〜8のいずれか1つの仮想空間を提供する方法の各ステップを、コンピュータに実行させるプログラム。   (Item 9) A program that causes a computer to execute each step of the method for providing a virtual space of any one of items 1 to 8.

(項目10)項目9のプログラムを記録したコンピュータ読み取り可能な記録媒体。   (Item 10) A computer-readable recording medium on which the program of item 9 is recorded.

1 仮想カメラ、2 仮想空間、5 基準視線、21 中心、22 仮想空間画像、23 視界領域、24 第1領域、25 第2領域、26 視界画像、100 HMDシステム、110 HMD、112 ディスプレイ、114、306 センサ、120 HMDセンサ、130 注視センサ、140 コントローラセンサ、200 制御回路部、210 検出部、211 HMD検出部、212 視線検出部、213 コントローラ検出部、220 表示制御部、221 仮想カメラ制御部、222 視界領域決定部、223 視野画像生成部、230 仮想空間制御部、231 仮想空間規定部、232 仮想手制御部、233 位置関係判定部、234 付加オブジェクト制御部、235 影響対象特定部、236 影響反映部、240 記憶部、241 雛形格納部、242 コンテンツ格納部、243 判定テーブル、250 通信部、300 コントローラ、302 操作ボタン、302a〜302d 親指ボタン、302e、302g 人差し指ボタン、302f、302h 中指ボタン、302i、302j アナログスティック、320 右コントローラ、322、332 天面、324、334 グリップ、326 フレーム、330 左コントローラ、HR 仮想右手、HL 仮想左手、FL1、FL2、FR1、FR2 位置、FLa 左親指、FLc 左中指、FRa 右親指、FRc 右中指 1 virtual camera, 2 virtual space, 5 reference line of sight, 21 center, 22 virtual space image, 23 view area, 24 first area, 25 second area, 26 view image, 100 HMD system, 110 HMD, 112 display, 114, 306 sensor, 120 HMD sensor, 130 gaze sensor, 140 controller sensor, 200 control circuit unit, 210 detection unit, 211 HMD detection unit, 212 gaze detection unit, 213 controller detection unit, 220 display control unit, 221 virtual camera control unit, 222 Field-of-view determination unit, 223 Field-of-view image generation unit, 230 Virtual space control unit, 231 Virtual space definition unit, 232 Virtual hand control unit, 233 Position relation determination unit, 234 Additional object control unit, 235 Influence target specification unit, 236 Influence Reflection unit, 240 storage unit, 241 Template storage unit, 242 Content storage unit, 243 Determination table, 250 Communication unit, 300 Controller, 302 Operation buttons, 302a to 302d Thumb buttons, 302e, 302g Index finger buttons, 302f, 302h Middle finger buttons, 302i, 302j Analog stick, 320 Right Controller, 322, 332 Top, 324, 334 Grip, 326 Frame, 330 Left controller, HR Virtual right hand, HL Virtual left hand, FL1, FL2, FR1, FR2 Position, FLa Left thumb, FLc Middle left finger, FRa Right thumb, FRc Middle right finger

Claims (10)

ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに仮想空間を提供する方法であって、
前記仮想空間を規定するステップと、
前記仮想空間における前記ユーザの基準視線を特定するステップと、
前記ユーザの右手の状態を表す情報および前記ユーザの左手の状態を表す情報を取得するステップと、
前記右手の状態を表す情報および前記左手の状態の双方に基づく付加画像を、前記仮想空間に生成するステップと、
前記基準視線に基づき、前記付加画像を少なくとも含む視界画像を生成するステップと、
前記視界画像を前記HMDに表示させるステップとを有する、仮想空間を提供する方法。
A method of providing a virtual space to a user wearing a head mounted display (hereinafter, HMD),
Defining the virtual space;
Identifying a reference line of sight of the user in the virtual space;
Obtaining information representing the state of the right hand of the user and information representing the state of the left hand of the user;
Generating an additional image in the virtual space based on both the information indicating the state of the right hand and the state of the left hand;
Generating a visual field image including at least the additional image based on the reference visual line;
Displaying the view image on the HMD, and providing a virtual space.
前記右手の状態を表す情報に基づき、前記仮想空間に仮想右手を生成するステップと、
前記左手の状態を表す情報に基づき、前記仮想空間に仮想左手を生成するステップと、をさらに有しており、
前記付加画像を生成するステップにおいて、前記仮想空間における前記仮想右手および前記仮想左手の関係に基づく前記付加画像を生成し、
前記視界画像を生成するステップにおいて、前記仮想右手および前記仮想左手をさらに含む前記視界画像を生成する、請求項1に記載の仮想空間を提供する方法。
Generating a virtual right hand in the virtual space based on information representing the state of the right hand;
Generating a virtual left hand in the virtual space based on information representing the state of the left hand,
Generating the additional image based on a relationship between the virtual right hand and the virtual left hand in the virtual space in the step of generating the additional image;
The method of providing a virtual space according to claim 1, wherein in the step of generating the view image, the view image further including the virtual right hand and the virtual left hand is generated.
前記右手の状態を表す情報および前記左手の状態を表す情報を取得するステップにおいて、前記ユーザが右手に持つ右コントローラの検出値および前記ユーザが左手に持つ左コントローラの検出値を、前記右手の状態を表す情報および前記左手の状態を表す情報としてそれぞれ取得する、請求項1または2に記載の仮想空間を提供する方法。   In the step of acquiring the information indicating the state of the right hand and the information indicating the state of the left hand, the detection value of the right controller that the user has in the right hand and the detection value of the left controller that the user has in the left hand The method for providing a virtual space according to claim 1, wherein the virtual space is acquired as information indicating the left hand state and information indicating the state of the left hand. 前記付加画像を生成するステップにおいて、前記仮想空間に前記付加画像として付加オブジェクトを生成する、請求項1〜3のいずれか1項に記載の仮想空間を提供する方法。   The method for providing a virtual space according to claim 1, wherein, in the step of generating the additional image, an additional object is generated as the additional image in the virtual space. 前記仮想空間において前記付加画像による影響を受けるオブジェクトを特定するステップと、
特定された前記オブジェクトに対する前記影響を、前記仮想空間に反映させるステップとをさらに有する、請求項1〜4のいずれか1項に記載の仮想空間を提供する方法。
Identifying an object affected by the additional image in the virtual space;
The method for providing the virtual space according to claim 1, further comprising reflecting the influence on the identified object in the virtual space.
前記影響を受けるオブジェクトを特定するステップにおいて、前記仮想空間において前記付加画像の表示範囲に重畳するオブジェクトを、前記付加画像による影響を受けるオブジェクトとして特定する、請求項5に記載の仮想空間を提供する方法。   6. The virtual space according to claim 5, wherein in the step of specifying the affected object, an object to be superimposed on a display range of the additional image in the virtual space is specified as an object affected by the additional image. Method. 前記ユーザの視線方向を特定するステップをさらに有し、
前記影響を受けるオブジェクトを特定するステップにおいて、前記付加画像および前記視線方向に基づき、前記影響を受けるオブジェクトを特定する、請求項5または6に記載の仮想空間を提供する方法。
Further comprising identifying the user's line-of-sight direction;
The method for providing a virtual space according to claim 5 or 6, wherein, in the step of identifying the affected object, the affected object is identified based on the additional image and the line-of-sight direction.
前記HMDのロール方向を特定するステップをさらに有し、
前記影響を受けるオブジェクトを特定するステップにおいて、前記付加画像および前記ロール方向に基づき、前記影響を受けるオブジェクトを特定する、請求項5または6に記載の仮想空間を提供する方法。
Further comprising identifying a roll direction of the HMD;
The method for providing a virtual space according to claim 5 or 6, wherein, in the step of identifying the affected object, the affected object is identified based on the additional image and the roll direction.
請求項1〜8のいずれか1項に記載の仮想空間を提供する方法の各ステップを、コンピュータに実行させるプログラム。   The program which makes a computer perform each step of the method of providing the virtual space of any one of Claims 1-8. 請求項9に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 9 is recorded.
JP2016076840A 2016-04-06 2016-04-06 Method, program, and recording medium for providing virtual space Active JP6275185B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016076840A JP6275185B2 (en) 2016-04-06 2016-04-06 Method, program, and recording medium for providing virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016076840A JP6275185B2 (en) 2016-04-06 2016-04-06 Method, program, and recording medium for providing virtual space

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017185492A Division JP2018028920A (en) 2017-09-26 2017-09-26 Method for providing virtual space, program and recording medium

Publications (2)

Publication Number Publication Date
JP2017200494A true JP2017200494A (en) 2017-11-09
JP6275185B2 JP6275185B2 (en) 2018-02-07

Family

ID=60264283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016076840A Active JP6275185B2 (en) 2016-04-06 2016-04-06 Method, program, and recording medium for providing virtual space

Country Status (1)

Country Link
JP (1) JP6275185B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019113942A (en) * 2017-12-21 2019-07-11 株式会社コナミデジタルエンタテインメント Display control apparatus, display control system, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013013739A (en) * 2012-08-21 2013-01-24 Nintendo Co Ltd Game unit and game program
WO2014126966A1 (en) * 2013-02-14 2014-08-21 Qualcomm Incorporated Human-body-gesture-based region and volume selection for hmd
JP2015232783A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image creating device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013013739A (en) * 2012-08-21 2013-01-24 Nintendo Co Ltd Game unit and game program
WO2014126966A1 (en) * 2013-02-14 2014-08-21 Qualcomm Incorporated Human-body-gesture-based region and volume selection for hmd
JP2015232783A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image creating device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019113942A (en) * 2017-12-21 2019-07-11 株式会社コナミデジタルエンタテインメント Display control apparatus, display control system, and program

Also Published As

Publication number Publication date
JP6275185B2 (en) 2018-02-07

Similar Documents

Publication Publication Date Title
US10776991B2 (en) Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods
JP6189497B1 (en) Method for providing virtual space, method for providing virtual experience, program, and recording medium
JP6523233B2 (en) Information processing method, apparatus, and program for causing a computer to execute the information processing method
JP6368411B1 (en) Method, program and computer executed on a computer to provide a virtual experience
JP6509938B2 (en) INFORMATION PROCESSING METHOD, COMPUTER, AND PROGRAM
JP2018028920A (en) Method for providing virtual space, program and recording medium
JP2018194889A (en) Information processing method, computer and program
JP6203346B1 (en) Method, program, and recording medium for providing virtual space
JP6113897B1 (en) Method for providing virtual space, method for providing virtual experience, program, and recording medium
JP2019133309A (en) Program, information processor and information processing method
JP6275185B2 (en) Method, program, and recording medium for providing virtual space
JP6159455B1 (en) Method, program, and recording medium for providing virtual space
JP6368404B1 (en) Information processing method, program, and computer
JP6728111B2 (en) Method of providing virtual space, method of providing virtual experience, program, and recording medium
JP7064265B2 (en) Programs, information processing devices, and information processing methods for providing virtual experiences
JP2018014110A (en) Method for providing virtual space, method for providing virtual experience, program and recording medium
JP2018014084A (en) Method for providing virtual space, method for providing virtual experience, program and recording medium
JP2019155115A (en) Program, information processor and information processing method
JP6189495B1 (en) Method for providing virtual space, method for providing virtual experience, program, and recording medium
JP2018028900A (en) Method, program, and recording medium for providing virtual space
JP2019016358A (en) Information processing method, program and computer
JP6189496B1 (en) Method for providing virtual space, method for providing virtual experience, program, and recording medium
JP2019023869A (en) Information processing method, computer, and program
JP6389305B1 (en) Information processing method, computer, and program
JP2019155113A (en) Information processing method, computer, and program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171002

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20171011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180109

R150 Certificate of patent or registration of utility model

Ref document number: 6275185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250