JP2018018499A - Information processing method and program for causing computer to execute the method - Google Patents

Information processing method and program for causing computer to execute the method Download PDF

Info

Publication number
JP2018018499A
JP2018018499A JP2017047906A JP2017047906A JP2018018499A JP 2018018499 A JP2018018499 A JP 2018018499A JP 2017047906 A JP2017047906 A JP 2017047906A JP 2017047906 A JP2017047906 A JP 2017047906A JP 2018018499 A JP2018018499 A JP 2018018499A
Authority
JP
Japan
Prior art keywords
user
hmd
information processing
processing method
relative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017047906A
Other languages
Japanese (ja)
Inventor
篤 猪俣
Atsushi Inomata
篤 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017047906A priority Critical patent/JP2018018499A/en
Publication of JP2018018499A publication Critical patent/JP2018018499A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To further improve a user's experience for a virtual object.SOLUTION: An information processing method includes the steps of: generating virtual space data for defining a virtual space containing a virtual camera 300, a left hand object, a right hand object, and a wall object 500; updating a visual field CV of the virtual camera according to the movement of an HMD; generating visual field image data on the basis of the visual field CV of the virtual camera and the virtual space data; displaying a visual field image M in the HMD on the basis of the visual field image data; moving the left hand object according to the movement of an external controller for left hand; specifying a relative relationship (distance and relative speed) between the HMD and the external controller for left hand; and setting collision effects for defining the influence of the left hand object on the wall object 500 according to the specified relative relationship.SELECTED DRAWING: Figure 11

Description

本開示は、情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラムに関する。   The present disclosure relates to an information processing method and a program for causing a computer to execute the information processing method.

非特許文献1は、現実空間におけるユーザの手の状態(位置や傾き等)に応じて、VR(Virtual Reality)空間における手オブジェクトの状態を変化させると共に、当該手オブジェクトを操作することでVR空間内の所定のオブジェクトに所定の作用を与えることを開示している。   Non-Patent Document 1 discloses that a VR space is obtained by changing the state of a hand object in a VR (Virtual Reality) space according to the state (position, inclination, etc.) of the user's hand in the real space and operating the hand object. It is disclosed that a predetermined action is given to a predetermined object.

“Toybox Demo for Oculus Touch”、[online]、平成27年10月 13日、Oculus、[平成28年7月6日検索]、インターネット<https://ww w.youtube.com/watch?v=iFEMiyGMa58>“Toybox Demo for Oculus Touch”, [online], October 13, 2015, Oculus, [Search July 6, 2016], Internet <https://www.youtube.com/watch?v= iFEMiyGMa58>

しかしながら、非特許文献1では、現実空間におけるユーザの動きに応じて、VR空間内の所定のオブジェクトに与える所定の効果を設定することは開示されていない。特に、非特許文献1では、ユーザの手の動きに応じて、手オブジェクトと仮想オブジェクト(対象オブジェクト)との間のコリジョン(衝突)に起因して手オブジェクトが仮想オブジェクトに与える影響を規定する効果(以下、コリジョン効果という。)を変化させることは開示されていない。従って、ユーザの動きに応じて仮想オブジェクトに与える影響を改善することにより、ユーザのVR空間、AR(Augmented Reality)空間およびMR(Mixed Reality) 空間における体験を改善する余地がある。   However, Non-Patent Document 1 does not disclose setting a predetermined effect given to a predetermined object in the VR space in accordance with the user's movement in the real space. In particular, in Non-Patent Document 1, the effect of defining the influence of the hand object on the virtual object due to the collision (collision) between the hand object and the virtual object (target object) according to the movement of the user's hand. It is not disclosed to change (hereinafter referred to as the collision effect). Therefore, there is room for improving the user's experience in the VR space, AR (Augmented Reality) space, and MR (Mixed Reality) space by improving the influence on the virtual object in accordance with the movement of the user.

本開示は、仮想オブジェクトに対するユーザの体験をさらに改善することが可能な情報処理方法及び当該情報処理方法をコンピュータに実現させるためのプログラムを提供することを目的とする。   An object of the present disclosure is to provide an information processing method capable of further improving a user's experience with a virtual object and a program for causing a computer to realize the information processing method.

本開示が示す一態様によれば、ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイの位置とユーザの頭部以外の身体の一部の位置を検出するように構成された位置センサとを備えたシステムにおける情報処理方法が提供される。
当該情報処理方法は、
(a)仮想カメラと、操作オブジェクトと、対象オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)前記ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を更新するステップと、
(c)前記仮想カメラの視野と前記仮想空間データに基づいて、視野画像データを生成するステップと、
(d)前記視野画像データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(e)前記ユーザの身体の一部の動きに応じて、前記操作オブジェクトを移動させるステップと、
(f)前記ヘッドマウントディスプレイと前記ユーザの身体の前記一部との間の相対的な関係を特定するステップと、
(g)前記特定された相対的な関係に応じて、前記操作オブジェクトが前記対象オブジェクトに与える影響を規定するコリジョン効果を設定するステップと、を含む。
According to one aspect of the present disclosure, in a system comprising a head mounted display and a position sensor configured to detect the position of the head mounted display and the position of a part of the body other than the user's head An information processing method is provided.
The information processing method is as follows:
(A) generating virtual space data defining a virtual space including a virtual camera, an operation object, and a target object;
(B) updating the field of view of the virtual camera in response to the movement of the head mounted display;
(C) generating visual field image data based on the visual field of the virtual camera and the virtual space data;
(D) displaying a field image on the head-mounted display based on the field image data;
(E) moving the operation object in response to movement of a part of the user's body;
(F) identifying a relative relationship between the head mounted display and the part of the user's body;
(G) setting a collision effect that defines an influence of the operation object on the target object according to the specified relative relationship.

本開示によれば、仮想オブジェクト(対象オブジェクト)に対するユーザの体験をさらに改善することが可能な情報処理方法及び当該情報処理方法をコンピュータに実現させるためのプログラムを提供することができる。   According to the present disclosure, it is possible to provide an information processing method capable of further improving a user's experience with respect to a virtual object (target object) and a program for causing a computer to realize the information processing method.

ヘッドマウントディスプレイ(Head Mounted Display:HMD)システムを示す概略図である。It is the schematic which shows a head mounted display (Head Mounted Display: HMD) system. HMDを装着したユーザの頭部を示す図である。It is a figure which shows the head of the user wearing HMD. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a control apparatus. 外部コントローラの具体的な構成の一例を示す図である。It is a figure which shows an example of a specific structure of an external controller. 視野画像をHMDに表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays a visual field image on HMD. 仮想空間の一例を示すxyz空間図である。It is xyz space figure which shows an example of virtual space. (a)は、図6に示す仮想空間のyx平面図である。(b)は、図6に示す仮想空間のzx平面図である。(A) is yx top view of the virtual space shown in FIG. FIG. 7B is a zx plan view of the virtual space illustrated in FIG. 6. HMDに表示された視野画像の一例を示す図である。It is a figure which shows an example of the visual field image displayed on HMD. (a)は、HMDと外部コントローラを装着したユーザを示す図である。(b)は、仮想カメラと、手オブジェクトと、壁オブジェクトを含む仮想空間を示す図である。(A) is a figure showing a user wearing HMD and an external controller. (B) is a figure which shows the virtual space containing a virtual camera, a hand object, and a wall object. 本実施形態に係る情報処理方法を説明するためのフローチャートである。It is a flowchart for demonstrating the information processing method which concerns on this embodiment. (a)は、ユーザが左手用外部コントローラを前方に大きく移動させた状態を示す図である。(b)は、(a)に示す状態において、左手オブジェクトによって破壊される壁オブジェクトを示す図である。(A) is a figure which shows the state which the user moved the external controller for left hands largely ahead. (B) is a figure which shows the wall object destroyed by the left hand object in the state shown to (a). (a)は、ユーザが左手用外部コントローラを前方に小さく移動させた状態を示す図である。(b)は、(a)に示す状態において、左手オブジェクトによって破壊される壁オブジェクトを示す図である。(A) is a figure which shows the state which the user moved the left-hand external controller small forward. (B) is a figure which shows the wall object destroyed by the left hand object in the state shown to (a). (a)は、左手オブジェクトのコリジョンエリアと壁オブジェクトに影響を与える影響範囲を示す図(その1)である。(b)は、左手オブジェクトのコリジョンエリアと壁オブジェクトに影響を与える影響範囲を示す図(その2)である。(A) is a figure (the 1) which shows the influence area which affects the collision area and wall object of a left-hand object. (B) is a figure (the 2) which shows the influence area which affects the collision area and wall object of a left-hand object.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイの位置とユーザの頭部以外の身体の一部の位置を検出するように構成された位置センサとを備えたシステムにおける情報処理方法であって、
(a)仮想カメラと、操作オブジェクトと、対象オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)前記ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を更新するステップと、
(c)前記仮想カメラの視野と前記仮想空間データに基づいて、視野画像データを生成するステップと、
(d)前記視野画像データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(e)前記ユーザの身体の一部の動きに応じて、前記操作オブジェクトを移動させるステップと、
(f)前記ヘッドマウントディスプレイと前記ユーザの身体の前記一部との間の相対的な関係を特定するステップと、
(g)前記特定された相対的な関係に応じて、前記操作オブジェクトが前記対象オブジェクトに与える影響を規定するコリジョン効果を設定するステップと、を含む。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) An information processing method in a system comprising a head mounted display, and a position sensor configured to detect the position of the head mounted display and a position of a part of the body other than the user's head,
(A) generating virtual space data defining a virtual space including a virtual camera, an operation object, and a target object;
(B) updating the field of view of the virtual camera in response to the movement of the head mounted display;
(C) generating visual field image data based on the visual field of the virtual camera and the virtual space data;
(D) displaying a field image on the head-mounted display based on the field image data;
(E) moving the operation object in response to movement of a part of the user's body;
(F) identifying a relative relationship between the head mounted display and the part of the user's body;
(G) setting a collision effect that defines an influence of the operation object on the target object according to the specified relative relationship.

上記方法によれば、ヘッドマウントディスプレイとユーザの身体の一部(ユーザの頭部を除く)との間の相対的な関係に応じて、コリジョン効果が設定されるので、仮想オブジェクト(対象オブジェクト)に対するユーザの体験(以下、仮想体験と称する)をさらに改善することが可能となる。   According to the above method, since the collision effect is set according to the relative relationship between the head mounted display and a part of the user's body (excluding the user's head), the virtual object (target object) It is possible to further improve the user experience (hereinafter referred to as virtual experience).

(2)前記ステップ(g)は、
(g1)前記特定された相対的な関係に応じて、前記操作オブジェクトのコリジョンエリアの大きさを設定するステップと、
(g2)前記操作オブジェクトのコリジョンエリアと前記対象オブジェクトとの間の位置関係に応じて、前記対象オブジェクトに対して影響を与えるステップと、を含む、項目(1)に記載の情報処理方法。
(2) The step (g)
(G1) setting a size of a collision area of the operation object according to the specified relative relationship;
(G2) The information processing method according to item (1), including the step of affecting the target object according to a positional relationship between the collision area of the operation object and the target object.

上記方法によれば、ヘッドマウントディスプレイとユーザの身体の一部(ユーザの頭部を除く)との間の相対的な関係に応じて、操作オブジェクトのコリジョンエリアの大きさが設定される、さらに、操作オブジェクトのコリジョンエリアと対象オブジェクトとの間の位置関係に応じて、対象オブジェクトに影響が与えられる。このように、仮想体験をさらに改善することが可能となる。   According to the above method, the size of the collision area of the operation object is set according to the relative relationship between the head mounted display and a part of the user's body (excluding the user's head). The target object is influenced according to the positional relationship between the collision area of the operation object and the target object. In this way, the virtual experience can be further improved.

(3)前記ステップ(f)は、前記ヘッドマウントディスプレイとユーザの身体の前記一部との間の相対位置関係を特定するステップを含み、
前記ステップ(g)では、前記特定された相対位置関係に応じて、前記コリジョン効果が設定される、項目(1)又は(2)に記載の情報処理方法。
(3) The step (f) includes identifying a relative positional relationship between the head mounted display and the part of the user's body,
The information processing method according to item (1) or (2), wherein in step (g), the collision effect is set according to the specified relative positional relationship.

上記方法によれば、ヘッドマウントディスプレイとユーザの身体の一部(ユーザの頭部を除く)との間の相対位置関係に応じてコリジョン効果が設定されるので、仮想体験をさらに改善することが可能となる。   According to the above method, since the collision effect is set according to the relative positional relationship between the head mounted display and a part of the user's body (excluding the user's head), the virtual experience can be further improved. It becomes possible.

(4)前記ステップ(f)は、前記ヘッドマウントディスプレイと前記ユーザの身体の前記一部との間の距離を特定するステップを含み、
前記ステップ(g)では、前記特定された距離に応じて、前記コリジョン効果が設定される、項目(3)に記載の情報処理方法。
(4) The step (f) includes identifying a distance between the head mounted display and the part of the user's body;
The information processing method according to item (3), wherein in step (g), the collision effect is set according to the specified distance.

上記方法によれば、ヘッドマウントディスプレイとユーザの身体の一部(ユーザの頭部を除く)との間の距離に応じてコリジョン効果が設定されるので、仮想体験をさらに改善することが可能となる。   According to the above method, since the collision effect is set according to the distance between the head mounted display and a part of the user's body (excluding the user's head), the virtual experience can be further improved. Become.

(5)前記ステップ(f)は、前記ヘッドマウントディスプレイに対する前記ユーザの身体の前記一部の相対速度を特定するステップを含み、
前記ステップ(g)では、前記特定された相対速度に応じて、前記コリジョン効果が設定される、項目(1)又は(2)に記載の情報処理方法。
(5) The step (f) includes identifying a relative speed of the part of the user's body with respect to the head mounted display;
The information processing method according to item (1) or (2), wherein in step (g), the collision effect is set according to the specified relative speed.

上記方法によれば、ヘッドマウントディスプレイに対するユーザの身体の一部(ユーザの頭部を除く)の相対速度に応じてコリジョン効果が設定されるので、仮想体験をさらに高めることが可能となる。   According to the above method, since the collision effect is set according to the relative speed of a part of the user's body (excluding the user's head) with respect to the head mounted display, the virtual experience can be further enhanced.

(6)前記ステップ(f)は、前記ヘッドマウントディスプレイに対する前記ユーザの身体の前記一部の相対速度を特定するステップを含み、
前記ステップ(g)では、前記特定された距離と前記特定された相対速度に応じて、前記コリジョン効果が設定される、項目(4)に記載の情報処理方法。
(6) The step (f) includes identifying a relative velocity of the part of the user's body with respect to the head mounted display;
The information processing method according to item (4), wherein in step (g), the collision effect is set according to the specified distance and the specified relative speed.

上記方法によれば、ヘッドマウントディスプレイとユーザの身体の一部(ユーザの頭部を除く)との間の距離とヘッドマウントディスプレイに対する当該ユーザの身体の一部の相対速度に応じてコリジョン効果が設定されるので、仮想体験をさらに改善することが可能となる。   According to the above method, the collision effect depends on the distance between the head mounted display and a part of the user's body (excluding the user's head) and the relative speed of the part of the user's body with respect to the head mounted display. Because it is set, the virtual experience can be further improved.

(7)前記ステップ(f)は、前記ヘッドマウントディスプレイに対する前記ユーザの身体の前記一部の相対加速度を特定するステップをさらに含み、
前記ステップ(g)では、前記特定された相対加速度に応じて、前記コリジョン効果が設定される、項目(1)又は(2)に記載の情報処理方法。
(7) The step (f) further includes specifying a relative acceleration of the part of the user's body with respect to the head mounted display;
The information processing method according to item (1) or (2), wherein in step (g), the collision effect is set according to the specified relative acceleration.

上記方法によれば、ヘッドマウントディスプレイに対するユーザの身体の一部(ユーザの頭部を除く)の相対加速度に応じてコリジョン効果が設定されるので、仮想体験をさらに改善することが可能となる。   According to the above method, since the collision effect is set according to the relative acceleration of a part of the user's body (excluding the user's head) with respect to the head mounted display, the virtual experience can be further improved.

(8)前記ステップ(f)は、前記ヘッドマウントディスプレイに対する前記ユーザの身体の前記一部の相対加速度を特定するステップをさらに含み、
前記ステップ(g)では、前記特定された距離と前記特定された相対加速度に応じて、前記コリジョン効果が設定される、項目(4)に記載の情報処理方法。
(8) The step (f) further includes identifying a relative acceleration of the part of the user's body with respect to the head mounted display;
The information processing method according to item (4), wherein in step (g), the collision effect is set according to the specified distance and the specified relative acceleration.

上記方法によれば、ヘッドマウントディスプレイとユーザの身体の一部(ユーザの頭部を除く)との間の距離とヘッドマウントディスプレイに対する当該ユーザの身体の一部の相対加速度に応じてコリジョン効果が設定されるので、仮想体験をさらに改善することが可能となる。   According to the above-described method, the collision effect depends on the distance between the head mounted display and a part of the user's body (excluding the user's head) and the relative acceleration of the part of the user's body with respect to the head mounted display. Because it is set, the virtual experience can be further improved.

(9)項目(1)から(8)のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるためのプログラム。   (9) A program for causing a computer to execute the information processing method according to any one of items (1) to (8).

仮想体験をさらに改善することが可能なプログラムを提供することができる。   A program that can further improve the virtual experience can be provided.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

最初に、図1を参照してヘッドマウントディスプレイ(HMD)システム1の構成について説明する。図1は、HMDシステム1を示す概略図である。図1に示すように、HMDシステム1は、ユーザUの頭部に装着されたHMD110と、位置センサ130と、制御装置120と、外部コントローラ320とを備える。   First, the configuration of the head mounted display (HMD) system 1 will be described with reference to FIG. FIG. 1 is a schematic diagram showing an HMD system 1. As shown in FIG. 1, the HMD system 1 includes an HMD 110 mounted on the head of the user U, a position sensor 130, a control device 120, and an external controller 320.

HMD110は、表示部112と、HMDセンサ114と、注視センサ140とを備える。表示部112は、HMD110を装着したユーザUの視界(視野)を覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。尚、表示部112は、ユーザUの左目に画像を提供するように構成された左目用の表示部とユーザUの右目に画像を提供するように構成された右目用の表示部から構成されてもよい。また、HMD110は、透過型表示装置を備えてもよい。この場合、当該透過型表示装置は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。   The HMD 110 includes a display unit 112, an HMD sensor 114, and a gaze sensor 140. The display unit 112 includes a non-transmissive display device configured to cover the field of view (field of view) of the user U wearing the HMD 110. Thereby, the user U can immerse in the virtual space by viewing only the visual field image displayed on the display unit 112. The display unit 112 includes a display unit for the left eye configured to provide an image to the left eye of the user U and a display unit for the right eye configured to provide an image to the right eye of the user U. Also good. The HMD 110 may include a transmissive display device. In this case, the transmissive display device may be temporarily configured as a non-transmissive display device by adjusting the transmittance.

HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動きを検出することができる。   The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (such as an angular velocity sensor and a gyro sensor), and can detect various movements of the HMD 110 mounted on the head of the user U.

注視センサ140は、ユーザUの視線方向を検出するアイトラッキング機能を有する。注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。   The gaze sensor 140 has an eye tracking function that detects the direction of the line of sight of the user U. The gaze sensor 140 may include, for example, a right eye gaze sensor and a left eye gaze sensor. The right eye gaze sensor irradiates, for example, infrared light to the right eye of the user U, and detects reflected light reflected from the right eye (particularly the cornea and iris), thereby acquiring information related to the rotation angle of the right eye's eyeball. May be. On the other hand, the left eye gaze sensor irradiates the left eye of the user U with, for example, infrared light, and detects reflected light reflected from the left eye (particularly the cornea and iris), thereby providing information on the rotation angle of the left eye's eyeball. May be obtained.

位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110と外部コントローラ320の位置を検出するように構成されている。位置センサ130は、制御装置120に無線又は有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾き又は発光強度に関する情報を検出するように構成されている。さらに、位置センサ130は、外部コントローラ320に設けられた複数の検知点304(図4参照)の位置、傾き及び/又は発光強度に関する情報を検出するように構成されている。検知点は、例えば、赤外線や可視光を放射する発光部である。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。   The position sensor 130 is configured by, for example, a position tracking camera, and is configured to detect the positions of the HMD 110 and the external controller 320. The position sensor 130 is communicably connected to the control device 120 by wireless or wired communication, and is configured to detect information on the position, inclination, or light emission intensity of a plurality of detection points (not shown) provided in the HMD 110. . Further, the position sensor 130 is configured to detect information on the position, inclination, and / or emission intensity of a plurality of detection points 304 (see FIG. 4) provided in the external controller 320. The detection point is, for example, a light emitting unit that emits infrared light or visible light. The position sensor 130 may include an infrared sensor and a plurality of optical cameras.

制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。さらに、制御装置120は、位置センサ130から取得された情報に基づいて、外部コントローラ320の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間内に表示される手指オブジェクト(後述する)の位置と現実空間における外部コントローラ320とHMD110との間の相対関係位置を正確に対応付けることができる。   The control device 120 acquires the position information of the HMD 110 based on the information acquired from the position sensor 130, and wears the position of the virtual camera in the virtual space and the HMD 110 in the real space based on the acquired position information. Thus, the position of the user U can be accurately associated. Furthermore, the control device 120 acquires position information of the external controller 320 based on the information acquired from the position sensor 130, and based on the acquired position information, a finger object (described later) is displayed in the virtual space. And the relative relationship position between the external controller 320 and the HMD 110 in the real space can be accurately associated with each other.

また、制御装置120は、注視センサ140から送信された情報に基づいて、ユーザUの右目の視線と左目の視線をそれぞれ特定し、当該右目の視線と当該左目の視線の交点である注視点を特定することができる。さらに、制御装置120は、特定された注視点に基づいて、ユーザUの視線方向を特定することができる。ここで、ユーザUの視線方向は、ユーザUの両目の視線方向であって、ユーザUの右目と左目を結ぶ線分の中点と注視点を通る直線の方向に一致する。   Further, the control device 120 specifies the gaze of the right eye and the gaze of the left eye of the user U based on the information transmitted from the gaze sensor 140, and determines the gaze point that is the intersection of the gaze of the right eye and the gaze of the left eye. Can be identified. Furthermore, the control device 120 can specify the line-of-sight direction of the user U based on the specified gaze point. Here, the line-of-sight direction of the user U is the line-of-sight direction of both eyes of the user U and coincides with the direction of a straight line passing through the middle point of the line segment connecting the right eye and the left eye of the user U and the gazing point.

次に、図2を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図2は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130及び/又はHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交しHMD110の中心を通る方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130及び/又はHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、仮想カメラの視軸を制御するための角度情報を決定する。   Next, with reference to FIG. 2, a method for acquiring information related to the position and inclination of the HMD 110 will be described. FIG. 2 is a diagram illustrating the head of the user U wearing the HMD 110. Information on the position and inclination of the HMD 110 that is linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands up is defined as the v-axis, the direction orthogonal to the v-axis and passing through the center of the HMD 110 is defined as the w-axis, and the direction orthogonal to the v-axis and the w-axis is defined as the u-axis. The position sensor 130 and / or the HMD sensor 114 is an angle around each uvw axis (that is, a yaw angle indicating rotation around the v axis, a pitch angle indicating rotation around the u axis, and a center around the w axis). The inclination determined by the roll angle indicating rotation) is detected. The control device 120 determines angle information for controlling the visual axis of the virtual camera based on the detected angle change around each uvw axis.

次に、図3を参照することで、制御装置120のハードウェア構成について説明する。図3は、制御装置120のハードウェア構成を示す図である。図3に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125は、バス126を介して互いに通信可能に接続されている。   Next, the hardware configuration of the control device 120 will be described with reference to FIG. FIG. 3 is a diagram illustrating a hardware configuration of the control device 120. As shown in FIG. 3, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are connected to each other via a bus 126 so as to communicate with each other.

制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレット又はウェアラブルデバイスとして構成されてもよいし、HMD110に内蔵されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。   The control device 120 may be configured as a personal computer, a tablet, or a wearable device separately from the HMD 110, or may be built in the HMD 110. In addition, some functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.

制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。   The control unit 121 includes a memory and a processor. The memory includes, for example, a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit), and a program specified from various programs embedded in the ROM is expanded on the RAM. It is comprised so that various processes may be performed in cooperation with.

特に、プロセッサが本実施形態に係る情報処理方法をコンピュータに実行させるためのプログラム(後述する)をRAM上に展開し、RAMとの協働で当該プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、メモリや記憶部123に格納された所定のアプリケーションプログラム(ゲームプログラム)を実行することで、HMD110の表示部112に仮想空間(視野画像)を表示する。これにより、ユーザUは、表示部112に表示された仮想空間に没入することができる。   In particular, the processor 121 develops a program (described later) for causing the computer to execute the information processing method according to the present embodiment on the RAM, and executes the program in cooperation with the RAM. Various operations of the control device 120 may be controlled. The control unit 121 displays a virtual space (view image) on the display unit 112 of the HMD 110 by executing a predetermined application program (game program) stored in the memory or the storage unit 123. Thereby, the user U can be immersed in the virtual space displayed on the display unit 112.

記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123は、本実施形態に係る情報処理方法をコンピュータに実行させるプログラムを格納してもよい。また、ユーザUの認証プログラムや各種画像やオブジェクトに関するデータを含むゲームプログラム等が格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。   The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may store a program that causes a computer to execute the information processing method according to the present embodiment. In addition, a user U authentication program, a game program including data on various images and objects, and the like may be stored. Furthermore, a database including tables for managing various data may be constructed in the storage unit 123.

I/Oインターフェース124は、位置センサ130と、HMD110と、外部コントローラ320とをそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。尚、制御装置120は、位置センサ130と、HMD110と、外部コントローラ320とのそれぞれと無線接続されていてもよい。   The I / O interface 124 is configured to connect the position sensor 130, the HMD 110, and the external controller 320 to the control device 120 in a communicable manner. For example, a USB (Universal Serial Bus) terminal, a DVI (Digital) The terminal includes a Visual Interface (HDMI) terminal, a High-Definition Multimedia Interface (HDMI) (registered trademark) terminal, and the like. The control device 120 may be wirelessly connected to each of the position sensor 130, the HMD 110, and the external controller 320.

通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)又はインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介してネットワーク上の外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。   The communication interface 125 is configured to connect the control device 120 to a communication network 3 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with external devices on the network via the communication network 3 and various processing circuits for wireless connection, and for communicating via the communication network 3. It is configured to conform to the communication standard.

次に、図4を参照して外部コントローラ320の具体的構成の一例について説明する。外部コントローラ320は、ユーザUの身体の一部(頭部以外の部位であり、本実施形態においてはユーザUの手)の動きを検知することにより、仮想空間内に表示される手オブジェクトの動作を制御するために使用される。外部コントローラ320は、ユーザUの右手によって操作される右手用外部コントローラ320R(以下、単にコントローラ320Rという。)と、ユーザUの左手によって操作される左手用外部コントローラ320L(以下、単にコントローラ320Lという。)と、を有する。コントローラ320Rは、ユーザUの右手の位置や右手の手指の動きを示す装置である。また、コントローラ320Rの動きに応じて仮想空間内に存在する右手オブジェクト400R(図9参照)が移動する。コントローラ320Lは、ユーザUの左手の位置や左手の手指の動きを示す装置である。また、コントローラ320Lの動きに応じて仮想空間内に存在する左手オブジェクト400L(図9参照)が移動する。コントローラ320Rとコントローラ320Lは略同一の構成を有するので、以下では、図4を参照してコントローラ320Rの具体的構成についてのみ説明する。尚、以降の説明では、便宜上、コントローラ320L,320Rを単に外部コントローラ320と総称する場合がある。   Next, an example of a specific configuration of the external controller 320 will be described with reference to FIG. The external controller 320 detects the movement of a part of the body of the user U (a part other than the head, which is the user U's hand in the present embodiment), thereby moving the hand object displayed in the virtual space. Used to control. The external controller 320 is an external controller 320R for right hand operated by the right hand of the user U (hereinafter simply referred to as controller 320R) and an external controller 320L for left hand operated by the left hand of the user U (hereinafter simply referred to as controller 320L). And). The controller 320R is a device that indicates the position of the right hand of the user U and the movement of the finger of the right hand. Further, the right hand object 400R (see FIG. 9) that exists in the virtual space moves according to the movement of the controller 320R. The controller 320L is a device that indicates the position of the left hand of the user U and the movement of the finger of the left hand. Further, the left hand object 400L (see FIG. 9) that exists in the virtual space moves according to the movement of the controller 320L. Since the controller 320R and the controller 320L have substantially the same configuration, only the specific configuration of the controller 320R will be described below with reference to FIG. In the following description, the controllers 320L and 320R may be simply referred to as the external controller 320 for convenience.

図4に示すように、コントローラ320Rは、操作ボタン302と、複数の検知点304と、図示しないセンサと、図示しないトランシーバとを備える。検知点304とセンサは、どちらか一方のみが設けられていてもよい。操作ボタン302は、ユーザUからの操作入力を受付けるように構成された複数のボタン群により構成されている。操作ボタン302は、プッシュ式ボタン、トリガー式ボタン及びアナログスティックを含む。プッシュ式ボタンは、親指による押下する動作によって操作されるボタンである。例えば、天面322上に2つのプッシュ式ボタン302a,302bが設けられている。トリガー式ボタンは、人差し指や中指で引き金を引くような動作によって操作されるボタンである。例えば、グリップ324の前面部分にトリガー式ボタン302eが設けられると共に、グリップ324の側面部分にトリガー式ボタン302fが設けられる。トリガー式ボタン302e,302fは、人差し指と中指によってそれぞれ操作されることが想定されている。アナログスティックは、所定のニュートラル位置から360度任意の方向へ傾けて操作されうるスティック型のボタンである。例えば、天面322上にアナログスティック320iが設けられており、親指を用いて操作されることが想定されている。   As shown in FIG. 4, the controller 320R includes an operation button 302, a plurality of detection points 304, a sensor (not shown), and a transceiver (not shown). Only one of the detection point 304 and the sensor may be provided. The operation button 302 includes a plurality of button groups configured to accept an operation input from the user U. The operation button 302 includes a push button, a trigger button, and an analog stick. The push-type button is a button operated by an operation of pressing with a thumb. For example, two push buttons 302 a and 302 b are provided on the top surface 322. The trigger type button is a button operated by an operation of pulling a trigger with an index finger or a middle finger. For example, a trigger button 302 e is provided on the front surface portion of the grip 324, and a trigger button 302 f is provided on the side surface portion of the grip 324. The trigger type buttons 302e and 302f are assumed to be operated by the index finger and the middle finger, respectively. The analog stick is a stick-type button that can be operated by being tilted 360 degrees from a predetermined neutral position in an arbitrary direction. For example, it is assumed that an analog stick 320i is provided on the top surface 322 and is operated using a thumb.

コントローラ320Rは、グリップ324の両側面から天面322とは反対側の方向へ延びて半円状のリングを形成するフレーム326を備える。フレーム326の外側面には、複数の検知点304が埋め込まれている。複数の検知点304は、例えば、フレーム326の円周方向に沿って一列に並んだ複数の赤外線LEDである。位置センサ130は、複数の検知点304の位置、傾き又は発光強度に関する情報を検出した後に、制御装置120は、位置センサ130によって検出された情報に基づいて、コントローラ320Rの位置や姿勢(傾き・向き)に関する情報を取得する。   The controller 320R includes a frame 326 that extends from both side surfaces of the grip 324 in a direction opposite to the top surface 322 to form a semicircular ring. A plurality of detection points 304 are embedded on the outer surface of the frame 326. The plurality of detection points 304 are, for example, a plurality of infrared LEDs arranged in a line along the circumferential direction of the frame 326. After the position sensor 130 detects information on the position, inclination, or light emission intensity of the plurality of detection points 304, the control device 120 detects the position or orientation (inclination / posture) of the controller 320R based on the information detected by the position sensor 130. Get information about (orientation).

コントローラ320Rのセンサは、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせであってもよい。センサは、ユーザUがコントローラ320Rを動かしたときに、コントローラ320Rの向きや動きに応じた信号(例えば、磁気、角速度、又は加速度に関する情報を示す信号)を出力する。制御装置120は、センサから出力された信号に基づいて、コントローラ320Rの位置や姿勢に関する情報を取得する。   The sensor of the controller 320R may be, for example, a magnetic sensor, an angular velocity sensor, an acceleration sensor, or a combination thereof. When the user U moves the controller 320R, the sensor outputs a signal (for example, a signal indicating information related to magnetism, angular velocity, or acceleration) according to the direction or movement of the controller 320R. The control device 120 acquires information related to the position and orientation of the controller 320R based on the signal output from the sensor.

コントローラ320Rのトランシーバは、コントローラ320Rと制御装置120との間でデータを送受信するように構成されている。例えば、トランシーバは、ユーザUの操作入力に対応する操作信号を制御装置120に送信してもよい。また、トランシーバは、検知点304の発光をコントローラ320Rに指示する指示信号を制御装置120から受信してもよい。さらに、トランシーバは、センサによって検出された値を示す信号を制御装置120に送信してもよい。   The transceiver of the controller 320R is configured to transmit and receive data between the controller 320R and the control device 120. For example, the transceiver may transmit an operation signal corresponding to the operation input of the user U to the control device 120. The transceiver may receive an instruction signal for instructing the controller 320 </ b> R to emit light at the detection point 304 from the control device 120. Further, the transceiver may send a signal to the controller 120 indicating the value detected by the sensor.

次に、図5から図8を参照することで視野画像をHMD110に表示するための処理について説明する。図5は、視野画像をHMD110に表示する処理を示すフローチャートである。図6は、仮想空間200の一例を示すxyz空間図である。図7(a)は、図6に示す仮想空間200のyx平面図である。図7(b)は、図6に示す仮想空間200のzx平面図である。図8は、HMD110に表示された視野画像Mの一例を示す図である。   Next, processing for displaying a field-of-view image on the HMD 110 will be described with reference to FIGS. FIG. 5 is a flowchart showing a process for displaying the visual field image on the HMD 110. FIG. 6 is an xyz space diagram showing an example of the virtual space 200. FIG. 7A is a yx plan view of the virtual space 200 shown in FIG. FIG. 7B is a zx plan view of the virtual space 200 shown in FIG. FIG. 8 is a diagram illustrating an example of the visual field image M displayed on the HMD 110.

図5に示すように、ステップS1において、制御部121(図3参照)は、仮想カメラ300と、各種オブジェクトとを含む仮想空間200を示す仮想空間データを生成する。図6に示すように、仮想空間200は、中心位置21を中心とした全天球として規定される(図6では、上半分の天球のみが図示されている)。また、仮想空間200では、中心位置21を原点とするxyz座標系が設定されている。仮想カメラ300は、HMD110に表示される視野画像M(図8参照)を特定するための視軸Lを規定している。仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、制御部121は、HMD110を装着したユーザUの現実空間における移動に応じて、仮想カメラ300を仮想空間200内で移動させてもよい。また、仮想空間200内における各種オブジェクトは、例えば、左手オブジェクト400L、右手オブジェクト400R、壁オブジェクト500を含む(図9参照)。   As shown in FIG. 5, in step S1, the control unit 121 (see FIG. 3) generates virtual space data indicating the virtual space 200 including the virtual camera 300 and various objects. As shown in FIG. 6, the virtual space 200 is defined as an omnidirectional sphere with the center position 21 as the center (in FIG. 6, only the upper half celestial sphere is shown). In the virtual space 200, an xyz coordinate system with the center position 21 as the origin is set. The virtual camera 300 defines a visual axis L for specifying a visual field image M (see FIG. 8) displayed on the HMD 110. The uvw coordinate system that defines the visual field of the virtual camera 300 is determined so as to be linked to the uvw coordinate system that is defined around the head of the user U in the real space. Further, the control unit 121 may move the virtual camera 300 in the virtual space 200 according to the movement of the user U wearing the HMD 110 in the real space. Various objects in the virtual space 200 include, for example, a left hand object 400L, a right hand object 400R, and a wall object 500 (see FIG. 9).

次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図7参照)を特定する。具体的には、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを特定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸Lを決定し、決定された視軸Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域に相当する。換言すれば、視野CVは、HMD110に表示される仮想空間200の一部の領域に相当する。また、視野CVは、図7(a)に示すxy平面において、視軸Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図7(b)に示すxz平面において、視軸Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。尚、制御部121は、注視センサ140から送信されたユーザUの視線方向を示すデータに基づいて、ユーザUの視線方向を特定し、ユーザUの視線方向に基づいて仮想カメラ300の向きを決定してもよい。   Next, in step S <b> 2, the control unit 121 specifies the field of view CV (see FIG. 7) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 identifies the position and orientation of the virtual camera 300 in the virtual space 200 based on information regarding the position and tilt of the HMD 110. Next, the control unit 121 determines the visual axis L of the virtual camera 300 from the position and orientation of the virtual camera 300 and specifies the visual field CV of the virtual camera 300 from the determined visual axis L. Here, the visual field CV of the virtual camera 300 corresponds to a partial area of the virtual space 200 that can be viewed by the user U wearing the HMD 110. In other words, the visual field CV corresponds to a partial area of the virtual space 200 displayed on the HMD 110. Further, the visual field CV has a first region CVa set as an angular range of the polar angle α around the visual axis L in the xy plane shown in FIG. 7A and an xz plane shown in FIG. 7B. And a second region CVb set as an angular range of the azimuth angle β with the visual axis L as the center. The control unit 121 identifies the line of sight of the user U based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140, and determines the direction of the virtual camera 300 based on the line of sight of the user U. May be.

このように、制御部121は、位置センサ130及び/又はHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを変化させることができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを変化させることができる。同様に、ユーザUの視線方向が変化すると、制御部121は、注視センサ140から送信されたユーザUの視線方向を示すデータに基づいて、仮想カメラ300の視野CVを移動させることができる。つまり、制御部121は、ユーザUの視線方向の変化に応じて、視野CVを変化させることができる。   As described above, the control unit 121 can specify the visual field CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U wearing the HMD 110 moves, the control unit 121 changes the visual field CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can change the visual field CV according to the movement of the HMD 110. Similarly, when the line-of-sight direction of the user U changes, the control unit 121 can move the visual field CV of the virtual camera 300 based on the data indicating the line-of-sight direction of the user U transmitted from the gaze sensor 140. That is, the control unit 121 can change the visual field CV according to the change in the user U's line-of-sight direction.

次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像Mを示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。   Next, in step S <b> 3, the control unit 121 generates visual field image data indicating the visual field image M displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300.

次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像Mを表示する(図7参照)。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが更新され、HMD110の表示部112に表示される視野画像Mが更新されるので、ユーザUは仮想空間200に没入することができる。   Next, in step S4, the control unit 121 displays the field image M on the display unit 112 of the HMD 110 based on the field image data (see FIG. 7). As described above, the visual field CV of the virtual camera 300 is updated according to the movement of the user U wearing the HMD 110, and the visual field image M displayed on the display unit 112 of the HMD 110 is updated. It is possible to immerse in the space 200.

尚、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成する。さらに、制御部121は、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。その後、制御部121は、左目用視野画像データと右目用視野画像データに基づいて、HMD110の表示部112に左目用視野画像と右目用視野画像を表示する。このようにして、ユーザUは、左目用視野画像と右目用視野画像から、視野画像を3次元画像として視認することができる。尚、本明細書では、説明の便宜上、仮想カメラ300の数は一つとする。勿論、本開示の実施形態は、仮想カメラの数が2つの場合でも適用可能である。   Note that the virtual camera 300 may include a left-eye virtual camera and a right-eye virtual camera. In this case, the control unit 121 generates left-eye view image data indicating the left-eye view image based on the virtual space data and the view of the left-eye virtual camera. Further, the control unit 121 generates right-eye view image data indicating a right-eye view image based on the virtual space data and the view of the right-eye virtual camera. Thereafter, the control unit 121 displays the left-eye view image and the right-eye view image on the display unit 112 of the HMD 110 based on the left-eye view image data and the right-eye view image data. In this way, the user U can visually recognize the visual field image as a three-dimensional image from the left-eye visual field image and the right-eye visual field image. In this specification, for convenience of explanation, the number of virtual cameras 300 is one. Of course, the embodiment of the present disclosure is applicable even when the number of virtual cameras is two.

次に、仮想空間200に含まれる左手オブジェクト400L、右手オブジェクト400R及び壁オブジェクト500について図9を参照して説明する。図9(a)は、HMD110とコントローラ320L,320Rを装着したユーザUを示す図である。図9(b)は、仮想カメラ300と、左手オブジェクト400L(操作オブジェクトの一例)と、右手オブジェクト400R(操作オブジェクトの一例)と、壁オブジェクト500(仮想オブジェクトである対象オブジェクトの一例)とを含む仮想空間200を示す図である。   Next, the left hand object 400L, the right hand object 400R, and the wall object 500 included in the virtual space 200 will be described with reference to FIG. FIG. 9A is a diagram showing the user U wearing the HMD 110 and the controllers 320L and 320R. FIG. 9B includes a virtual camera 300, a left hand object 400L (an example of an operation object), a right hand object 400R (an example of an operation object), and a wall object 500 (an example of a target object that is a virtual object). 2 is a diagram illustrating a virtual space 200. FIG.

図9に示すように、仮想空間200は、仮想カメラ300と、左手オブジェクト400Lと、右手オブジェクト400Rと、壁オブジェクト500とを含む。制御部121は、これらのオブジェクトを含む仮想空間200を規定する仮想空間データを生成している。上述したように、仮想カメラ300は、ユーザUが装着しているHMD110の動きに連動する。つまり、仮想カメラ300の視野は、HMD110の動きに応じて更新される。左手オブジェクト400Lは、ユーザUの左手に装着されるコントローラ320Lの動きに応じて移動する。同様に、右手オブジェクト400Rは、ユーザUの右手に装着されるコントローラ320Rの動きに応じて移動する。尚、以降では、説明の便宜上、左手オブジェクト400Lと右手オブジェクト400Rを単に手オブジェクト400と総称する場合がある。また、左手オブジェクト400Lと右手オブジェクト400Rは、それぞれコリジョンエリアCAを有する。コリジョンエリアCAは、手オブジェクト400と対象オブジェクト(例えば、壁オブジェクト500)とのコリジョン判定(当たり判定)に供される。例えば、手オブジェクト400のコリジョンエリアCAと対象オブジェクトのコリジョンエリアとが接触することで、壁オブジェクト500等の対象オブジェクトに所定の影響が与えられる。図9に示すように、コリジョンエリアCAは、例えば、手オブジェクト400の中心位置を中心とした直径Rを有する球により規定されてもよい。以下の説明では、コリジョンエリアCAは、オブジェクトの中心位置を中心とした直径Rの球状に形成されているものとする。   As illustrated in FIG. 9, the virtual space 200 includes a virtual camera 300, a left hand object 400 </ b> L, a right hand object 400 </ b> R, and a wall object 500. The control unit 121 generates virtual space data that defines the virtual space 200 including these objects. As described above, the virtual camera 300 is linked to the movement of the HMD 110 worn by the user U. That is, the visual field of the virtual camera 300 is updated according to the movement of the HMD 110. The left hand object 400L moves according to the movement of the controller 320L attached to the left hand of the user U. Similarly, the right hand object 400R moves according to the movement of the controller 320R attached to the right hand of the user U. Hereinafter, for convenience of explanation, the left hand object 400L and the right hand object 400R may be simply referred to as the hand object 400 in some cases. The left hand object 400L and the right hand object 400R each have a collision area CA. The collision area CA is used for collision determination (hit determination) between the hand object 400 and a target object (for example, the wall object 500). For example, when the collision area CA of the hand object 400 comes into contact with the collision area of the target object, the target object such as the wall object 500 has a predetermined influence. As shown in FIG. 9, the collision area CA may be defined by, for example, a sphere having a diameter R with the center position of the hand object 400 as the center. In the following description, it is assumed that the collision area CA is formed in a spherical shape having a diameter R with the center position of the object as the center.

壁オブジェクト500は、左手オブジェクト400L,右手オブジェクト400Rによって影響を受ける仮想オブジェクトである。例えば、左手オブジェクト400Lが壁オブジェクト500に接触した場合、左手オブジェクト400LのコリジョンエリアCAに接触する壁オブジェクト500の部分が破壊される。また、壁オブジェクト500もコリジョンエリアを有しており、本実施形態では、壁オブジェクト500のコリジョンエリアは、壁オブジェクト500を構成する領域に一致しているものとする。   The wall object 500 is a virtual object affected by the left hand object 400L and the right hand object 400R. For example, when the left hand object 400L contacts the wall object 500, the portion of the wall object 500 that contacts the collision area CA of the left hand object 400L is destroyed. The wall object 500 also has a collision area. In this embodiment, it is assumed that the collision area of the wall object 500 coincides with the area constituting the wall object 500.

次に、本実施形態に係る情報処理方法について図10から図12を参照して説明する。図10は、本実施形態に係る情報処理方法を説明するためのフローチャートである。図11(a)は、ユーザUがコントローラ320Lを前方(+W方向)に大きく移動させた状態を示す図である。図11(b)は、図11(a)に示す状態において、左手オブジェクト400Lによって破壊された壁オブジェクト500を示す図である。図12(a)は、ユーザUがコントローラ320Lを前方(+w方向)に小さく移動させた状態を示す図である。図12(b)は、図12(a)に示す状態において、左手オブジェクト400Lによって破壊された壁オブジェクト500を示す図である。   Next, an information processing method according to the present embodiment will be described with reference to FIGS. FIG. 10 is a flowchart for explaining the information processing method according to the present embodiment. FIG. 11A is a diagram showing a state where the user U has moved the controller 320L greatly forward (+ W direction). FIG. 11B is a diagram showing the wall object 500 destroyed by the left hand object 400L in the state shown in FIG. FIG. 12A is a diagram illustrating a state where the user U has moved the controller 320L forward (+ w direction) small. FIG. 12B shows the wall object 500 destroyed by the left hand object 400L in the state shown in FIG.

本実施形態に係る情報処理方法では、制御部121は、コントローラ320Lが壁オブジェクト500に与える影響を規定するコリジョン効果を設定すると共に、コントローラ320Rが壁オブジェクト500に与える影響を規定するコリジョン効果を設定するように構成されている。一方、コントローラ320L,320Rは略同一の構成を有するため、以降では、説明の便宜上、コントローラ320Lが壁オブジェクト500に与える影響を規定するコリジョン効果についてのみ言及する。また、制御部121は、図10に示す各処理をフレーム(動画像を構成する静止画像)毎に実行するものとする。尚、制御部121は、図10に示す各処理を所定の時間間隔ごとに実行してもよい。   In the information processing method according to the present embodiment, the control unit 121 sets a collision effect that defines the influence of the controller 320L on the wall object 500 and sets a collision effect that defines the influence of the controller 320R on the wall object 500. Is configured to do. On the other hand, since the controllers 320L and 320R have substantially the same configuration, only the collision effect that defines the influence of the controller 320L on the wall object 500 will be referred to for convenience of explanation. In addition, the control unit 121 executes each process illustrated in FIG. 10 for each frame (a still image constituting a moving image). Note that the control unit 121 may execute the processes illustrated in FIG. 10 at predetermined time intervals.

図10に示すように、ステップS11において、制御部121は、HMD110とコントローラ320Lとの間の距離D(相対的な関係の一例)を特定する。具体的には、制御部121は、位置センサ130から取得された情報に基づいて、HMD110の位置情報と、コントローラ320Lの位置情報を取得し、当該取得された各位置情報に基づいて、HMD110のw軸方向におけるHMD110とコントローラ320Lとの間の距離Dを特定する。尚、本実施形態では、制御部121は、w軸方向におけるHMD110とコントローラ320Lとの間の距離Dを特定しているが、w軸方向以外の所定方向におけるHMD110とコントローラ320Lとの間の距離を特定してもよい。さらに、制御部121は、HMD110とコントローラ320Lとの間の直線距離を特定してもよい。この場合、HMD110の位置ベクトルをP H とし、コントローラ320Lの位置ベクトルをPL とした場合、HMD110とコントローラ320Lとの間の直線距離は |P H −P L|となる。   As illustrated in FIG. 10, in step S11, the control unit 121 specifies a distance D (an example of a relative relationship) between the HMD 110 and the controller 320L. Specifically, the control unit 121 acquires the position information of the HMD 110 and the position information of the controller 320L based on the information acquired from the position sensor 130. Based on the acquired position information, the control unit 121 acquires the position information of the HMD 110. A distance D between the HMD 110 and the controller 320L in the w-axis direction is specified. In the present embodiment, the control unit 121 specifies the distance D between the HMD 110 and the controller 320L in the w-axis direction, but the distance between the HMD 110 and the controller 320L in a predetermined direction other than the w-axis direction. May be specified. Furthermore, the control unit 121 may specify a linear distance between the HMD 110 and the controller 320L. In this case, when the position vector of the HMD 110 is P H and the position vector of the controller 320L is PL, the linear distance between the HMD 110 and the controller 320L is | P H −P L |.

次に、ステップS12において、制御部121は、HMD110に対するコントローラ320Lの相対速度Vを特定する。具体的には、制御部121は、位置センサ130から取得された情報に基づいて、HMD110の位置情報と、コントローラ320Lの位置情報を取得し、当該取得された各位置情報に基づいて、w軸方向におけるHMD110に対するコントローラ320Lの相対速度V(相対的な関係の一例)を特定する。   Next, in step S <b> 12, the control unit 121 specifies the relative speed V of the controller 320 </ b> L with respect to the HMD 110. Specifically, the control unit 121 acquires the position information of the HMD 110 and the position information of the controller 320L based on the information acquired from the position sensor 130, and the w-axis based on the acquired position information. A relative speed V (an example of a relative relationship) of the controller 320L with respect to the HMD 110 in the direction is specified.

例えば、n番目(nは1以上の整数)のフレームのときのw軸方向におけるHMD110とコントローラ320Lとの間の距離をD n とし、(n+1)番目のフレームのときのw軸方向におけるHMD110とコントローラ320Lとの間の距離をD n+1 とし、各フレーム間の時間間隔をΔTとした場合、n番目のフレームのときのw軸方向における相対速度V n はV n =(D n −D n+1 )/ΔTとなる。ここで、動画像のフレームレートが90fpsである場合、ΔTは1/90となる。   For example, the distance between the HMD 110 and the controller 320L in the w-axis direction at the n-th (n is an integer of 1 or more) frame is D n, and the HMD 110 in the w-axis direction at the (n + 1) -th frame is When the distance to the controller 320L is D n + 1 and the time interval between each frame is ΔT, the relative velocity V n in the w-axis direction at the n-th frame is V n = (D n −D n + 1). / ΔT. Here, when the frame rate of the moving image is 90 fps, ΔT is 1/90.

次に、ステップS13において、制御部121は、特定された距離Dが所定の距離Dthよりも大きいかどうかを判定すると共に、特定された相対速度Vが所定の相対速度Vthよりも大きいかどうかを判定する。ここで、所定の距離Dthと所定の相対速度Vthはゲーム内容に応じて適宜設定されてもよい。制御部121は、特定された距離Dが所定の距離Dthよりも大きく(D>Dth)、且つ特定された相対速度Vが所定の相対速度Vthよりも大きい(V>Vth)と判定した場合(ステップS13でYES)、図11(b)に示すように、左手オブジェクト400LのコリジョンエリアCAの直径Rを直径R2に設定する(ステップS14)。一方、制御部121は、D>Dth且つV>Vthでないと判定した場合(ステップS13でNO)、図12(b)に示すように、左手オブジェクト400LのコリジョンエリアCAの直径Rを直径R1(R1<R2)に設定する(ステップS15)。このように、HMD110とコントローラ320Lとの間の距離DとHMD110に対するコントローラ320Lの相対速度Vに応じて、コリジョンエリアCAの大きさが設定される。尚、ステップS14,S15では、コリジョンエリアCAの直径の代わりに、距離Dと相対速度Vに応じてコリジョンエリアCAの半径が設定されてもよい。   Next, in step S13, the control unit 121 determines whether or not the specified distance D is greater than the predetermined distance Dth, and determines whether or not the specified relative speed V is greater than the predetermined relative speed Vth. judge. Here, the predetermined distance Dth and the predetermined relative speed Vth may be appropriately set according to the content of the game. When the control unit 121 determines that the specified distance D is greater than the predetermined distance Dth (D> Dth) and the specified relative speed V is greater than the predetermined relative speed Vth (V> Vth) ( As shown in FIG. 11 (b), the diameter R of the collision area CA of the left hand object 400L is set to the diameter R2 (step S14). On the other hand, when the control unit 121 determines that D> Dth and V> Vth are not satisfied (NO in step S13), as illustrated in FIG. 12B, the diameter R of the collision area CA of the left-hand object 400L is set to the diameter R1 ( R1 <R2) is set (step S15). Thus, the size of the collision area CA is set according to the distance D between the HMD 110 and the controller 320L and the relative speed V of the controller 320L with respect to the HMD 110. In steps S14 and S15, the radius of the collision area CA may be set according to the distance D and the relative speed V instead of the diameter of the collision area CA.

次に、ステップS16において、制御部121は、壁オブジェクト500が左手オブジェクト400LのコリジョンエリアCAに接触しているかどうかを判定する。制御部121は、壁オブジェクト500が左手オブジェクト400LのコリジョンエリアCAに接触していると判定した場合(ステップS16でYES)、コリジョンエリアCAに接触している壁オブジェクト500の部分に所定の影響を与える(ステップS17)。例えば、コリジョンエリアCAに接触している壁オブジェクト500の部分が破壊されてもよいし、所定のダメージ量が壁オブジェクト500に与えられてもよい。図11(b)に示すように、左手オブジェクト400LのコリジョンエリアCAに接触する壁オブジェクト500の部分が破壊される。また、図11(b)に示す左手オブジェクト400LのコリジョンエリアCAは、図12(b)に示す左手オブジェクト400LのコリジョンエリアCAよりも大きいので(R2>R1であるため)、図11に示す状態では、図12に示す状態よりも左手オブジェクト400Lにより破壊される壁オブジェクト500の量が大きくなる。   Next, in step S16, the control unit 121 determines whether or not the wall object 500 is in contact with the collision area CA of the left hand object 400L. When the control unit 121 determines that the wall object 500 is in contact with the collision area CA of the left hand object 400L (YES in step S16), the control unit 121 has a predetermined influence on the portion of the wall object 500 that is in contact with the collision area CA. (Step S17). For example, a portion of the wall object 500 that is in contact with the collision area CA may be destroyed, or a predetermined amount of damage may be given to the wall object 500. As shown in FIG. 11B, the portion of the wall object 500 that contacts the collision area CA of the left hand object 400L is destroyed. Further, the collision area CA of the left-hand object 400L shown in FIG. 11B is larger than the collision area CA of the left-hand object 400L shown in FIG. 12B (since R2> R1), the state shown in FIG. Then, the amount of the wall object 500 destroyed by the left hand object 400L becomes larger than that in the state shown in FIG.

一方、制御部121は、壁オブジェクト500が左手オブジェクト400LのコリジョンエリアCAに接触していないと判定した場合(ステップS16でNO)、壁オブジェクト500には所定の影響は与えられない。その後、制御部121は、壁オブジェクト500を含む仮想空間を規定する仮想空間データを更新した上で、更新された仮想空間データに基づいて次のフレーム(静止画像)をHMD110に表示する(ステップS18)。その後、処理がステップS11に戻る。   On the other hand, when the control unit 121 determines that the wall object 500 is not in contact with the collision area CA of the left hand object 400L (NO in step S16), the wall object 500 is not given a predetermined influence. Thereafter, the control unit 121 updates the virtual space data defining the virtual space including the wall object 500, and displays the next frame (still image) on the HMD 110 based on the updated virtual space data (step S18). ). Thereafter, the process returns to step S11.

このように、本実施形態によれば、HMD110とコントローラ320Lとの間の相対的な関係(相対位置関係と相対速度)に応じて、コントローラ320Lが壁オブジェクト500に与える影響(コリジョン効果)が設定されるので、仮想空間200に対するユーザUの没入感をさらに高めることが可能となる。特に、HMD110とコントローラ320Lとの間の距離DとHMD110に対するコントローラ320Lの相対速度Vとに応じて、左手オブジェクト400LのコリジョンエリアCAの大きさ(直径)が設定される。さらに、左手オブジェクト400LのコリジョンエリアCAと壁オブジェクト500との間の位置関係に応じて、壁オブジェクト500に所定の影響が与えられる。このため、仮想空間200に対するユーザUの没入感をさらに高めることが可能となる。   Thus, according to the present embodiment, the influence (collision effect) that the controller 320L has on the wall object 500 is set according to the relative relationship (relative positional relationship and relative speed) between the HMD 110 and the controller 320L. Therefore, it is possible to further enhance the user U's immersive feeling with respect to the virtual space 200. In particular, the size (diameter) of the collision area CA of the left hand object 400L is set according to the distance D between the HMD 110 and the controller 320L and the relative speed V of the controller 320L with respect to the HMD 110. Furthermore, a predetermined influence is given to the wall object 500 in accordance with the positional relationship between the collision area CA of the left hand object 400L and the wall object 500. For this reason, it becomes possible to further enhance the immersive feeling of the user U with respect to the virtual space 200.

より具体的には、図11に示すように、ユーザUがコントローラ320Lを大きく且つ素早く動かしたときに(つまり、ユーザUがD>Dth且つV>Vthを満たすようにコントローラ320Lを動かしたときに)、左手オブジェクト400LのコリジョンエリアCAが大きくなるため、左手オブジェクト400Lによって破壊される壁オブジェクト500の量が大きくなる。一方、図12に示すように、ユーザUがコントローラ320Lを小さく動かしたときに(少なくともユーザUがD≦Dthとなるようにコントローラ320Lを動かしたときに)、左手オブジェクト400によって破壊される壁オブジェクト500の量が小さくなる。このため、ユーザUの動作に応じて破壊される壁オブジェクト500の量が変化するため、ユーザUはさらに仮想空間に没入することができ、リッチな仮想体験が提供される。   More specifically, as shown in FIG. 11, when the user U moves the controller 320L large and quickly (that is, when the user U moves the controller 320L to satisfy D> Dth and V> Vth). ) Since the collision area CA of the left hand object 400L increases, the amount of the wall object 500 that is destroyed by the left hand object 400L increases. On the other hand, as shown in FIG. 12, when the user U moves the controller 320L small (at least when the user U moves the controller 320L so that D ≦ Dth), the wall object destroyed by the left hand object 400 The amount of 500 becomes smaller. For this reason, since the quantity of the wall object 500 destroyed according to the operation | movement of the user U changes, the user U can further immerse in a virtual space, and a rich virtual experience is provided.

尚、本実施形態では、ステップS13において距離D>Dth且つ相対速度V>Vthであるかどうかが判定されているが、距離D>Dthのみが判定されてもよい。この場合、制御部121は、距離D>Dthであると判定した場合、左手オブジェクト400LのコリジョンエリアCAの直径Rを直径R2に設定する。一方、制御部121は、距離D≦Dthであると判定した場合、左手オブジェクト400LのコリジョンエリアCAの直径Rを直径R1に設定する。さらに、ステップS13において、相対速度V>Vthのみが判定されてもよい。この場合も同様に、制御部121は、相対速度V>Vthであると判定した場合、左手オブジェクト400LのコリジョンエリアCAの直径Rを直径R2に設定する。一方、制御部121は、相対速度V≦Vthであると判定した場合、左手オブジェクト400LのコリジョンエリアCAの直径Rを直径R1に設定する。   In this embodiment, whether or not the distance D> Dth and the relative speed V> Vth is determined in step S13, but only the distance D> Dth may be determined. In this case, when it is determined that the distance D> Dth, the control unit 121 sets the diameter R of the collision area CA of the left hand object 400L to the diameter R2. On the other hand, when determining that the distance D ≦ Dth, the control unit 121 sets the diameter R of the collision area CA of the left hand object 400L to the diameter R1. Furthermore, in step S13, only the relative speed V> Vth may be determined. Similarly, in this case, when it is determined that the relative speed V> Vth, the control unit 121 sets the diameter R of the collision area CA of the left hand object 400L to the diameter R2. On the other hand, when determining that the relative speed V ≦ Vth, the control unit 121 sets the diameter R of the collision area CA of the left hand object 400L to the diameter R1.

さらに、ステップS13において、HMD110に対するコントローラ320Lの相対加速度aが所定の相対加速度athよりも大きいかどうか(a>ath)が判定されてもよい。この場合、ステップS13の前において、制御部121は、w軸方向におけるHMD110に対するコントローラ320Lの相対加速度a(相対的な関係の一例)を特定する。   Furthermore, in step S13, it may be determined whether the relative acceleration a of the controller 320L with respect to the HMD 110 is greater than a predetermined relative acceleration ath (a> ath). In this case, before step S13, the control unit 121 specifies the relative acceleration a (an example of a relative relationship) of the controller 320L with respect to the HMD 110 in the w-axis direction.

例えば、n番目(nは1以上の整数)のフレームのときのw軸方向におけるHMD110に対するコントローラ320Lの相対速度をV n+1 とし、(n+1)番目のフレームのときのw軸方向におけるHMD110に対するコントローラ320Lの相対速度をV n+1 とし、各フレーム間の時間間隔をΔTとした場合、n番目のフレームのときのw軸方向における相対加速度a n はa n =(V n −V n+1 )/ΔTとなる。   For example, the relative speed of the controller 320L with respect to the HMD 110 in the w-axis direction at the n-th (n is an integer of 1 or more) frame is V n + 1, and the controller 320L with respect to the HMD 110 in the w-axis direction at the (n + 1) -th frame Is a relative speed V n + 1 and a time interval between frames is ΔT, the relative acceleration an in the w-axis direction at the n-th frame is an = (V n −V n + 1) / ΔT. .

この場合、制御部121は、相対加速度a>athであると判定した場合、左手オブジェクト400LのコリジョンエリアCAの直径Rを直径R2に設定する。一方、制御部121は、相対加速度a≦athであると判定した場合、左手オブジェクト400LのコリジョンエリアCAの直径Rを直径R1に設定する。   In this case, when it is determined that the relative acceleration a> ath, the control unit 121 sets the diameter R of the collision area CA of the left hand object 400L to the diameter R2. On the other hand, when determining that the relative acceleration a ≦ ath, the control unit 121 sets the diameter R of the collision area CA of the left hand object 400L to the diameter R1.

さらに、ステップS13において、距離D>Dth且つ相対加速度a>athであるかどうかが判定されてもよい。この場合も同様に、制御部121は、距離D>Dth且つ相対加速度a>athであると判定した場合、左手オブジェクト400LのコリジョンエリアCAの直径Rを直径R2に設定する。一方、制御部121は、距離D>Dth且つ相対加速度a>athでないと判定した場合、左手オブジェクト400LのコリジョンエリアCAの直径Rを直径R1に設定する。   Further, in step S13, it may be determined whether or not the distance D> Dth and the relative acceleration a> ath. Similarly, in this case, when the control unit 121 determines that the distance D> Dth and the relative acceleration a> ath, the diameter R of the collision area CA of the left hand object 400L is set to the diameter R2. On the other hand, when the control unit 121 determines that the distance D> Dth and the relative acceleration a> ath, the diameter R of the collision area CA of the left hand object 400L is set to the diameter R1.

また、本実施形態では、ステップS13で規定された判定条件が満たされた場合に、左手オブジェクト400LのコリジョンエリアCAの直径Rが直径R1に設定されている。しかしながら、当該判定条件が満たされた場合に、制御部121は、コリジョンエリアCAの直径Rと相対速度Vとの間の関係を示すテーブルや関数を参照することで、相対速度Vの大きさに応じて連続的又は段階的にコリジョンエリアCAの直径R(換言すれば、コリジョンエリアCAの大きさ)を変化させてもよい。例えば、制御部121は、相対速度Vが大きくなるに連れて、連続的又は段階的にコリジョンエリアCAの直径R(換言すれば、コリジョンエリアCAの大きさ)を増大させてもよい。   In the present embodiment, the diameter R of the collision area CA of the left hand object 400L is set to the diameter R1 when the determination condition defined in step S13 is satisfied. However, when the determination condition is satisfied, the control unit 121 refers to a table or a function indicating the relationship between the diameter R of the collision area CA and the relative speed V, thereby increasing the relative speed V. Accordingly, the diameter R of the collision area CA (in other words, the size of the collision area CA) may be changed continuously or stepwise. For example, the control unit 121 may increase the diameter R of the collision area CA (in other words, the size of the collision area CA) continuously or stepwise as the relative speed V increases.

同様に、当該判定条件が満たされた場合に、制御部121は、コリジョンエリアCAの直径Rと距離Dとの間の関係を示すテーブルや関数を参照することで、距離Dの大きさに応じて連続的又は段階的にコリジョンエリアCAの直径R(換言すれば、コリジョンエリアCAの大きさ)を変化させてもよい。例えば、制御部121は、距離Dが大きくなるに連れて、連続的又は段階的にコリジョンエリアCAの直径R(換言すれば、コリジョンエリアCAの大きさ)を増大させてもよい。   Similarly, when the determination condition is satisfied, the control unit 121 refers to a table or a function indicating the relationship between the diameter R of the collision area CA and the distance D, and thus according to the size of the distance D. The diameter R of the collision area CA (in other words, the size of the collision area CA) may be changed continuously or stepwise. For example, the control unit 121 may increase the diameter R of the collision area CA (in other words, the size of the collision area CA) continuously or stepwise as the distance D increases.

(変形例)
図10と図13を参照して本実施形態の変形例に係る情報処理方法について説明する。図13(a)及び(b)は、左手オブジェクト400LのコリジョンエリアCAと壁オブジェクト500に影響を与える影響範囲EAを示している。図13(a)に示すコリジョンエリアCAの大きさ(直径)は、図13(b)に示すコリジョンエリアCAの大きさ(直径)と同一である一方で、図13(a)に示す影響範囲EAの大きさ(直径)は、図13(b)に示す影響範囲EAの大きさ(直径)よりも小さい。ここで、左手オブジェクト400Lの影響範囲EAは、左手オブジェクト400Lが壁オブジェクト500等の対象オブジェクトに影響を与える範囲として規定される。
(Modification)
An information processing method according to a modification of the present embodiment will be described with reference to FIGS. 10 and 13. FIGS. 13A and 13B show the influence area EA that affects the collision area CA and the wall object 500 of the left hand object 400L. The size (diameter) of the collision area CA shown in FIG. 13 (a) is the same as the size (diameter) of the collision area CA shown in FIG. 13 (b), while the influence range shown in FIG. 13 (a). The size (diameter) of EA is smaller than the size (diameter) of the influence range EA shown in FIG. Here, the influence range EA of the left hand object 400L is defined as a range in which the left hand object 400L affects a target object such as the wall object 500.

本実施形態に係る情報処理方法では、図10に示すステップS13で規定される判定条件が満たされた場合(ステップS13でYES)、コリジョンエリアCAの直径Rが直径R2に設定される一方(ステップS14)、当該判定条件が満たされない場合(ステップS13でNO)、コリジョンエリアCAの直径Rが直径R1(R2>R1)に設定される(ステップS15)。   In the information processing method according to the present embodiment, when the determination condition defined in Step S13 shown in FIG. 10 is satisfied (YES in Step S13), the diameter R of the collision area CA is set to the diameter R2 (Step S13). S14) If the determination condition is not satisfied (NO in step S13), the diameter R of the collision area CA is set to the diameter R1 (R2> R1) (step S15).

これに対して、変形例に係る情報処理方法では、ステップS13で規定される判定条件が満たされた場合(ステップS13でYES)、図13(b)に示すように、コリジョンエリアCAの直径Rが直径R1に設定されると共に、影響範囲EAの直径がRbに設定される。一方、当該判定条件が満たされない場合(ステップS13でNO)、図13(a)に示すように、コリジョンエリアCAの直径Rが直径R1に設定されると共に、影響範囲EAの直径がRa(Rb>Ra)に設定される。このように、変形例に係る情報処理方法では、ステップS13で規定される判定条件に応じて、コリジョンエリアCAの直径は変更されない一方で、影響範囲EAの直径が変更される。   On the other hand, in the information processing method according to the modified example, when the determination condition defined in step S13 is satisfied (YES in step S13), the diameter R of the collision area CA as shown in FIG. Is set to the diameter R1, and the diameter of the influence range EA is set to Rb. On the other hand, when the determination condition is not satisfied (NO in step S13), as shown in FIG. 13A, the diameter R of the collision area CA is set to the diameter R1, and the diameter of the influence range EA is Ra (Rb > Ra). As described above, in the information processing method according to the modified example, the diameter of the collision area CA is changed while the diameter of the collision area CA is changed according to the determination condition defined in step S13.

その後、ステップS16において、制御部121は、壁オブジェクト500が左手オブジェクト400LのコリジョンエリアCA又は影響範囲EAに接触しているかどうかを判定する。制御部121は、壁オブジェクト500が左手オブジェクト400LのコリジョンエリアCA又は影響範囲EAに接触していると判定した場合(ステップS16でYES)、コリジョンエリアCA又は影響範囲EAに接触している壁オブジェクト500の部分に所定の影響を与える(ステップS17)。例えば、図13に示すように、コリジョンエリアCA又は影響範囲EAに接触している壁オブジェクト500の部分が破壊される。また、図13(b)に示す左手オブジェクト400Lの影響範囲EAは、図13(a)に示す左手オブジェクト400Lの影響範囲EAよりも大きいので(Rb>Raであるため)、図13(b)に示す状態では、図13(a)に示す状態よりも左手オブジェクト400Lにより破壊される壁オブジェクト500の量が大きくなる。   Thereafter, in step S16, the control unit 121 determines whether or not the wall object 500 is in contact with the collision area CA or the influence range EA of the left hand object 400L. When it is determined that the wall object 500 is in contact with the collision area CA or the influence range EA of the left hand object 400L (YES in step S16), the control unit 121 is in contact with the collision area CA or the influence range EA. A predetermined influence is given to the portion 500 (step S17). For example, as shown in FIG. 13, the portion of the wall object 500 that is in contact with the collision area CA or the influence range EA is destroyed. Further, since the influence range EA of the left hand object 400L shown in FIG. 13B is larger than the influence range EA of the left hand object 400L shown in FIG. 13A (because Rb> Ra), FIG. In the state shown in FIG. 13, the amount of the wall object 500 destroyed by the left hand object 400L is larger than that in the state shown in FIG.

一方、制御部121は、壁オブジェクト500が左手オブジェクト400LのコリジョンエリアCA又は影響範囲EAに接触していないと判定した場合(ステップS16でNO)、壁オブジェクト500には所定の影響は与えられない。   On the other hand, when the control unit 121 determines that the wall object 500 is not in contact with the collision area CA or the influence range EA of the left hand object 400L (NO in step S16), the wall object 500 is not given a predetermined influence. .

このように、本変形例によれば、HMD110とコントローラ320Lとの間の相対的な関係(距離と相対速度)に応じて、コントローラ320Lが壁オブジェクト500に与える影響(コリジョン効果)が設定されるので、仮想空間200に対するユーザUの没入感をさらに高めることが可能となる。特に、ステップS13で規定される判定条件に応じて、左手オブジェクト400Lの影響範囲EAの大きさ(直径)が設定される。さらに、コリジョンエリアCA及び影響範囲EAと壁オブジェクト500との間の位置関係に応じて、壁オブジェクト500に所定の影響が与えられる。このため、仮想空間200に対するユーザUの没入感をさらに高め、リッチな仮想体験を提供することが可能となる。   Thus, according to this modification, the influence (collision effect) that the controller 320L has on the wall object 500 is set according to the relative relationship (distance and relative speed) between the HMD 110 and the controller 320L. Therefore, it becomes possible to further enhance the immersive feeling of the user U with respect to the virtual space 200. In particular, the size (diameter) of the influence range EA of the left hand object 400L is set according to the determination condition defined in step S13. Furthermore, a predetermined influence is given to the wall object 500 according to the positional relationship between the collision area CA and the influence range EA and the wall object 500. For this reason, it becomes possible to further enhance the immersive feeling of the user U with respect to the virtual space 200 and provide a rich virtual experience.

制御部121によって実行される各種処理をソフトウェアによって実現するために、本実施形態に係る情報処理方法をコンピュータ(プロセッサ)に実行させるための情報処理プログラムが記憶部123又はROMに予め組み込まれていてもよい。または、情報処理プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納されたプログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた情報処理プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は本実施形態に係る情報処理方法を実行する。   An information processing program for causing a computer (processor) to execute the information processing method according to the present embodiment is incorporated in advance in the storage unit 123 or the ROM in order to implement various processes executed by the control unit 121 by software. Also good. Alternatively, the information processing program includes a magnetic disk (HDD, floppy disk), an optical disk (CD-ROM, DVD-ROM, Blu-ray disk, etc.), a magneto-optical disk (MO, etc.), flash memory (SD card, USB memory, It may be stored in a computer-readable storage medium such as SSD. In this case, the program stored in the storage medium is incorporated into the storage unit 123 by connecting the storage medium to the control device 120. The control unit 121 executes the information processing method according to the present embodiment by loading the information processing program incorporated in the storage unit 123 onto the RAM and executing the program loaded by the processor.

また、情報処理プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部123に組み込まれる。   Further, the information processing program may be downloaded from a computer on the communication network 3 via the communication interface 125. Similarly in this case, the downloaded program is incorporated in the storage unit 123.

以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。   As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.

本実施形態では、ユーザUの手の動きを示す外部コントローラ320の動きに応じて、手オブジェクトの移動が制御されているが、ユーザUの手自体の移動量に応じて、仮想空間内における手オブジェクトの移動が制御されてもよい。例えば、外部コントローラを用いる代わりに、ユーザの手指に装着されるグローブ型デバイスや指輪型デバイスを用いることで、位置センサ130により、ユーザUの手の位置や移動量を検出することができると共に、ユーザUの手指の動きや状態を検出することができる。また、位置センサ130は、ユーザUの手(手指を含む)を撮像するように構成されたカメラであってもよい。この場合、カメラを用いてユーザの手を撮像することにより、ユーザの手指に直接何らかのデバイスを装着させることなく、ユーザの手が表示された画像データに基づいて、ユーザUの手の位置や移動量を検出することができると共に、ユーザUの手指の動きや状態を検出することができる。   In the present embodiment, the movement of the hand object is controlled according to the movement of the external controller 320 indicating the movement of the user U's hand, but the hand in the virtual space is controlled according to the movement amount of the user U's hand itself. The movement of the object may be controlled. For example, instead of using an external controller, by using a glove-type device or a ring-type device worn on the user's finger, the position sensor 130 can detect the position and movement amount of the user U's hand, The movement and state of the user's U finger can be detected. Further, the position sensor 130 may be a camera configured to image the user U's hand (including fingers). In this case, by capturing the user's hand using a camera, the position and movement of the user's U hand can be determined based on the image data on which the user's hand is displayed without directly attaching any device to the user's finger. The amount can be detected, and the movement and state of the finger of the user U can be detected.

また、本実施形態では、ユーザUの頭部以外の身体の一部である手の位置及び/又は動きに応じて、手オブジェクトが壁オブジェクトに与える影響を規定するコリジョン効果が設定されているが、本実施形態はこれには限定されない。例えば、ユーザUの頭部以外の身体の一部である足の位置及び/又は動きに応じて、ユーザUの足の動きに連動する足オブジェクト(操作オブジェクトの一例)が対象オブジェクトに与える影響を規定するコリジョン効果が設定されてもよい。このように、本実施形態では、HMD110とユーザUの身体の一部との間の相対的な関係(距離及び相対速度)を特定し、特定された相対的な関係に応じて、当該ユーザUの身体の一部と連動する操作オブジェクトが対象オブジェクトに与える影響を規定するコリジョン効果が設定されてもよい。   In the present embodiment, the collision effect that defines the influence of the hand object on the wall object is set according to the position and / or movement of the hand that is a part of the body other than the head of the user U. The present embodiment is not limited to this. For example, depending on the position and / or movement of a foot that is a part of the body other than the head of the user U, the influence of a foot object (an example of an operation object) linked to the movement of the user U's foot on the target object A prescribed collision effect may be set. Thus, in this embodiment, the relative relationship (distance and relative speed) between the HMD 110 and a part of the body of the user U is specified, and the user U is determined according to the specified relative relationship. A collision effect may be set that regulates the influence of an operation object linked to a part of the body on the target object.

また、本実施形態では、手オブジェクトにより所定の影響を受ける仮想オブジェクト(対象オブジェクト)の一例として壁オブジェクト500が説明されているが、仮想オブジェクトの属性は特に限定されない。例えば、仮想オブジェクトが土オブジェクトの場合、図10に示すステップS13の判定条件に応じて、手オブジェクト400によって掘削される土オブジェクトの掘削量が設定されてもよい。また、仮想オブジェクトが他のユーザにより操作されるアバターオブジェクトの場合、図10に示すステップS13の判定条件に応じて、アバターオブジェクトに与えられるダメージ量が設定されてもよい。   In the present embodiment, the wall object 500 is described as an example of a virtual object (target object) that has a predetermined influence by the hand object, but the attributes of the virtual object are not particularly limited. For example, when the virtual object is a soil object, the excavation amount of the soil object excavated by the hand object 400 may be set according to the determination condition in step S13 illustrated in FIG. When the virtual object is an avatar object operated by another user, the amount of damage given to the avatar object may be set according to the determination condition in step S13 shown in FIG.

1:HMDシステム
3:通信ネットワーク
21:中心位置
112:表示部
114:HMDセンサ
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200:仮想空間
300:仮想カメラ
302:操作ボタン
302a,302b:プッシュ式ボタン
302e,302f:トリガー式ボタン
304:検知点
320:外部コントローラ
320i:アナログスティック
320L:左手用外部コントローラ(コントローラ)
320R:右手用外部コントローラ(コントローラ)
322:天面
324:グリップ
326:フレーム
400:手オブジェクト
400L:左手オブジェクト
400R:右手オブジェクト
500:壁オブジェクト
CA:コリジョンエリア
CV:視野
CVa:第1領域
CVb:第2領域
EA:影響範囲

1: HMD system 3: Communication network 21: Center position 112: Display unit 114: HMD sensor 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 140 : Gaze sensor 200: virtual space 300: virtual camera 302: operation buttons 302a, 302b: push buttons 302e, 302f: trigger buttons 304: detection point 320: external controller 320i: analog stick 320L: external controller for left hand (controller)
320R: External controller for right hand (controller)
322: Top surface 324: Grip 326: Frame 400: Hand object 400L: Left hand object 400R: Right hand object 500: Wall object CA: Collision area CV: Field of view CVa: First area CVb: Second area EA: Influence range

Claims (9)

ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイの位置とユーザの頭部以外の身体の一部の位置を検出するように構成された位置センサとを備えたシステムにおける情報処理方法であって、
(a)仮想カメラと、操作オブジェクトと、対象オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)前記ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を更新するステップと、
(c)前記仮想カメラの視野と前記仮想空間データに基づいて、視野画像データを生成するステップと、
(d)前記視野画像データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(e)前記ユーザの身体の前記一部の動きに応じて、前記操作オブジェクトを移動させるステップと、
(f)前記ヘッドマウントディスプレイと前記ユーザの身体の前記一部との間の相対的な関係を特定するステップと、
(g)前記特定された相対的な関係に応じて、前記操作オブジェクトが前記対象オブジェクトに与える影響を規定するコリジョン効果を設定するステップと、を含む、情報処理方法。
An information processing method in a system comprising: a head mounted display; and a position sensor configured to detect the position of the head mounted display and a position of a body part other than a user's head,
(A) generating virtual space data defining a virtual space including a virtual camera, an operation object, and a target object;
(B) updating the field of view of the virtual camera in response to the movement of the head mounted display;
(C) generating visual field image data based on the visual field of the virtual camera and the virtual space data;
(D) displaying a field image on the head-mounted display based on the field image data;
(E) moving the operation object in response to the movement of the part of the user's body;
(F) identifying a relative relationship between the head mounted display and the part of the user's body;
(G) setting a collision effect that defines an influence of the operation object on the target object according to the specified relative relationship, and an information processing method.
前記ステップ(g)は、
(g1)前記特定された相対的な関係に応じて、前記操作オブジェクトのコリジョンエリアの大きさを設定するステップと、
(g2)前記操作オブジェクトのコリジョンエリアと前記対象オブジェクトとの間の位置関係に応じて、前記対象オブジェクトに対して影響を与えるステップと、を含む、請求項1に記載の情報処理方法。
The step (g)
(G1) setting a size of a collision area of the operation object according to the specified relative relationship;
The information processing method according to claim 1, further comprising: (g2) affecting the target object according to a positional relationship between the collision area of the operation object and the target object.
前記ステップ(f)は、前記ヘッドマウントディスプレイと前記ユーザの身体の前記一部との間の相対位置関係を特定するステップを含み、
前記ステップ(g)では、前記特定された相対位置関係に応じて、前記コリジョン効果が設定される、請求項1又は2に記載の情報処理方法。
The step (f) includes identifying a relative positional relationship between the head mounted display and the part of the user's body;
The information processing method according to claim 1 or 2, wherein in the step (g), the collision effect is set according to the specified relative positional relationship.
前記ステップ(f)は、前記ヘッドマウントディスプレイと前記ユーザの身体の前記一部との間の距離を特定するステップを含み、
前記ステップ(g)では、前記特定された距離に応じて、前記コリジョン効果が設定される、請求項3に記載の情報処理方法。
Said step (f) comprises identifying a distance between said head mounted display and said part of said user's body;
The information processing method according to claim 3, wherein in the step (g), the collision effect is set according to the specified distance.
前記ステップ(f)は、前記ヘッドマウントディスプレイに対する前記ユーザの身体の前記一部の相対速度を特定するステップを含み、
前記ステップ(g)では、前記特定された相対速度に応じて、前記コリジョン効果が設定される、請求項1又は2に記載の情報処理方法。
Said step (f) comprises identifying the relative velocity of said part of said user's body relative to said head mounted display;
The information processing method according to claim 1 or 2, wherein in the step (g), the collision effect is set according to the specified relative speed.
前記ステップ(f)は、前記ヘッドマウントディスプレイに対する前記ユーザの身体の前記一部の相対速度を特定するステップを含み、
前記ステップ(g)では、前記特定された距離と前記特定された相対速度に応じて、前記コリジョン効果が設定される、請求項4に記載の情報処理方法。
Said step (f) comprises identifying the relative velocity of said part of said user's body relative to said head mounted display;
The information processing method according to claim 4, wherein in the step (g), the collision effect is set according to the specified distance and the specified relative speed.
前記ステップ(f)は、前記ヘッドマウントディスプレイに対する前記ユーザの身体の前記一部の相対加速度を特定するステップをさらに含み、
前記ステップ(g)では、前記特定された相対加速度に応じて、前記コリジョン効果が設定される、請求項1又は2に記載の情報処理方法。
Said step (f) further comprises identifying a relative acceleration of said part of said user's body relative to said head mounted display;
The information processing method according to claim 1 or 2, wherein in the step (g), the collision effect is set according to the specified relative acceleration.
前記ステップ(f)は、前記ヘッドマウントディスプレイに対する前記ユーザの身体の前記一部の相対加速度を特定するステップをさらに含み、
前記ステップ(g)では、前記特定された距離と前記特定された相対加速度に応じて、前記コリジョン効果が設定される、請求項4に記載の情報処理方法。
Said step (f) further comprises identifying a relative acceleration of said part of said user's body relative to said head mounted display;
5. The information processing method according to claim 4, wherein in the step (g), the collision effect is set according to the specified distance and the specified relative acceleration.
請求項1から8のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるためのプログラム。


The program for making a computer perform the information processing method as described in any one of Claims 1-8.


JP2017047906A 2017-03-13 2017-03-13 Information processing method and program for causing computer to execute the method Pending JP2018018499A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017047906A JP2018018499A (en) 2017-03-13 2017-03-13 Information processing method and program for causing computer to execute the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017047906A JP2018018499A (en) 2017-03-13 2017-03-13 Information processing method and program for causing computer to execute the method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016148490A Division JP6117414B1 (en) 2016-07-28 2016-07-28 Information processing method and program for causing computer to execute information processing method

Publications (1)

Publication Number Publication Date
JP2018018499A true JP2018018499A (en) 2018-02-01

Family

ID=61081902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017047906A Pending JP2018018499A (en) 2017-03-13 2017-03-13 Information processing method and program for causing computer to execute the method

Country Status (1)

Country Link
JP (1) JP2018018499A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019155115A (en) * 2018-01-30 2019-09-19 株式会社コロプラ Program, information processor and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019155115A (en) * 2018-01-30 2019-09-19 株式会社コロプラ Program, information processor and information processing method

Similar Documents

Publication Publication Date Title
JP6093473B1 (en) Information processing method and program for causing computer to execute information processing method
JP6117414B1 (en) Information processing method and program for causing computer to execute information processing method
JP6087453B1 (en) Method and program for providing virtual space
JP6122537B1 (en) Information processing method and program for causing computer to execute information processing method
WO2018020735A1 (en) Information processing method and program for causing computer to execute information processing method
JP2017187952A (en) Display control method and program for causing computer to execute the method
JP6220937B1 (en) Information processing method, program for causing computer to execute information processing method, and computer
JP2017138973A (en) Method and program for providing virtual space
JP6118444B1 (en) Information processing method and program for causing computer to execute information processing method
JP6140871B1 (en) Information processing method and program for causing computer to execute information processing method
JP6113897B1 (en) Method for providing virtual space, method for providing virtual experience, program, and recording medium
JP6416338B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP2018026105A (en) Information processing method, and program for causing computer to implement information processing method
JP6449922B2 (en) Information processing method and program for causing computer to execute information processing method
JP2018018499A (en) Information processing method and program for causing computer to execute the method
JP6122194B1 (en) Information processing method and program for causing computer to execute information processing method
JP2018110871A (en) Information processing method, program enabling computer to execute method and computer
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus
JP2018195172A (en) Information processing method, information processing program, and information processing device
JP6934374B2 (en) How it is performed by a computer with a processor
JP2018026099A (en) Information processing method and program for causing computer to execute the information processing method
JP6469752B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING APPARATUS
JP6290493B2 (en) Information processing method, program for causing computer to execute information processing method, and computer
JP2018018497A (en) Information processing method, and program for causing computer to implement information processing method
JP2018045338A (en) Information processing method and program for causing computer to execute the information processing method