JP2018195172A - Information processing method, information processing program, and information processing device - Google Patents

Information processing method, information processing program, and information processing device Download PDF

Info

Publication number
JP2018195172A
JP2018195172A JP2017099827A JP2017099827A JP2018195172A JP 2018195172 A JP2018195172 A JP 2018195172A JP 2017099827 A JP2017099827 A JP 2017099827A JP 2017099827 A JP2017099827 A JP 2017099827A JP 2018195172 A JP2018195172 A JP 2018195172A
Authority
JP
Japan
Prior art keywords
user
movement
information processing
virtual
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017099827A
Other languages
Japanese (ja)
Other versions
JP6535699B2 (en
Inventor
健志 加田
Kenji Kada
健志 加田
野口 裕弘
Yasuhiro Noguchi
裕弘 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017099827A priority Critical patent/JP6535699B2/en
Publication of JP2018195172A publication Critical patent/JP2018195172A/en
Priority to JP2019056502A priority patent/JP6941130B2/en
Application granted granted Critical
Publication of JP6535699B2 publication Critical patent/JP6535699B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To improve the convenience of a user in a virtual space.SOLUTION: An information processing method executed by a processor includes the steps of: a) generating virtual space data for defining a virtual space including a left hand object 5L, a right hand object 5R, a first instruction object 3, and a second instruction object 4; b) generating visual field image data indicating a visual field image displayed on an HMD on the basis of the movement of the HMD and the virtual space data; and c) moving the left hand object 5L and the right hand object 5R according to the movement of left hand and right hand of a user U wearing the HMD. The second instruction object 4 guides a finger of the user U to take a second motion, and is visually associated with the left hand object 5L and the right hand object 5R. The first instruction object 3 guides a hand of the user U to take the second motion.SELECTED DRAWING: Figure 8

Description

本開示は、情報処理方法、情報処理プログラム及び情報処理装置に関する。   The present disclosure relates to an information processing method, an information processing program, and an information processing apparatus.

特許文献1では、現実空間におけるユーザの手の動きに応じて、仮想空間内における仮想手の動きを制御する技術が開示されている。このように、ユーザの手の動きに応じて仮想手を動かすことで、ユーザに自由度の高い仮想空間内の体験(以下、仮想体験という。)を提供することができる。   Patent Document 1 discloses a technique for controlling the movement of a virtual hand in a virtual space according to the movement of a user's hand in a real space. Thus, by moving the virtual hand according to the movement of the user's hand, it is possible to provide the user with an experience in a virtual space with a high degree of freedom (hereinafter referred to as a virtual experience).

特許第5996138号公報Japanese Patent No. 5996138

ところで、ユーザに様々な仮想体験を提供する場合において、ユーザの手の動きを様々なアクションのトリガーとして設定することが考えられる。しかしながら、ユーザの手の動きを様々なアクションのトリガーとして設定すると、ユーザは、様々なアクションに関連付けられた様々な手の動きを習得する必要がある。従って、仮想空間におけるユーザの利便性を高める上では、改善の余地がある。   By the way, when providing various virtual experiences to the user, it is conceivable to set the movement of the user's hand as a trigger for various actions. However, if the user's hand movement is set as a trigger for various actions, the user needs to learn the various hand movements associated with the various actions. Therefore, there is room for improvement in improving user convenience in the virtual space.

本開示は、仮想空間におけるユーザの利便性を高めることが可能な情報処理方法、情報処理プログラム及び情報処理装置を提供することを目的とする。   It is an object of the present disclosure to provide an information processing method, an information processing program, and an information processing apparatus that can improve user convenience in a virtual space.

本開示が示す一態様によれば、プロセッサによって事項される情報処理方法は、
a)操作オブジェクトと、指示オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
b)ヘッドマウントデバイスの動きと、前記仮想空間データとに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
c)前記ヘッドマウントデバイスを装着したユーザの頭部以外の身体の一部の動きに応じて、前記操作オブジェクトを動かすステップと、
を含む。
前記指示オブジェクトは、前記操作オブジェクトに視覚的に関連付けられ、前記ユーザの身体の前記一部に誘導動作をさせるように誘導する。
According to one aspect of the present disclosure, an information processing method that is processed by a processor is:
a) generating virtual space data defining a virtual space including an operation object and an instruction object;
b) generating visual field image data indicating a visual field image displayed on the head mounted device based on the movement of the head mounted device and the virtual space data;
c) moving the operation object in response to movement of a part of the body other than the head of the user wearing the head-mounted device;
including.
The pointing object is visually associated with the operation object and guides the part of the user's body to perform a guiding action.

本開示によれば、仮想空間におけるユーザの利便性を高めることが可能な情報処理方法、情報処理プログラム及び情報処理装置を提供することができる。   According to the present disclosure, it is possible to provide an information processing method, an information processing program, and an information processing apparatus that can improve user convenience in a virtual space.

ユーザ端末を示す概略図である。It is the schematic which shows a user terminal. HMDを装着したユーザの頭部を示す図である。It is a figure which shows the head of the user with which HMD was mounted | worn. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a control apparatus. 視野画像をHMDに表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays a visual field image on HMD. 仮想空間の一例を示すxyz空間図である。It is xyz space figure which shows an example of virtual space. 状態(a)は、図5に示す仮想空間のyx平面図である。状態(b)は、図5に示す仮想空間のzx平面図である。The state (a) is a yx plan view of the virtual space shown in FIG. The state (b) is a zx plan view of the virtual space shown in FIG. HMDに表示された視野画像の一例を示す図である。It is a figure which shows an example of the visual field image displayed on HMD. 第1実施形態に係る仮想空間を模式的に示した図である。It is the figure which showed typically the virtual space which concerns on 1st Embodiment. 第2指示オブジェクトが仮想カメラの視野内の所定の位置に移動する様子を示した模式図である。It is the schematic diagram which showed a mode that the 2nd instruction | indication object moved to the predetermined position in the visual field of a virtual camera. 第2指示オブジェクトを仮想カメラの視野内に移動させる処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process which moves a 2nd instruction | indication object in the visual field of a virtual camera. 第2実施形態に係る仮想空間を模式的に示した図である。It is the figure which showed typically the virtual space which concerns on 2nd Embodiment. アバターの動きを説明するための図である。It is a figure for demonstrating a motion of an avatar.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)a)操作オブジェクトと、指示オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
b)ヘッドマウントデバイスの動きと、前記仮想空間データとに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
c)前記ヘッドマウントデバイスを装着したユーザの頭部以外の身体の一部の動きに応じて、前記操作オブジェクトを動かすステップと、
を含み、
前記指示オブジェクトは、
前記操作オブジェクトに視覚的に関連付けられ、前記ユーザの身体の前記一部に誘導動作をさせるように誘導する、
プロセッサによって実行される情報処理方法。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) a) generating virtual space data defining a virtual space including an operation object and an instruction object;
b) generating visual field image data indicating a visual field image displayed on the head mounted device based on the movement of the head mounted device and the virtual space data;
c) moving the operation object in response to movement of a part of the body other than the head of the user wearing the head-mounted device;
Including
The pointing object is
Visually associated with the manipulation object and guiding the part of the user's body to perform a guiding action;
An information processing method executed by a processor.

上記方法によれば、指示オブジェクトは、ユーザの身体の一部(例えば、手や指)に誘導動作をさせるように誘導する。このように、ユーザは、指示オブジェクトを視認することで、身体の一部が誘導動作を行うように当該身体の一部を動かすことができる。例えば、ユーザは、チュートリアル等において、指示オブジェクトを視認することで、仮想空間内での所定のアクションに関連付けられたユーザの手や指(ユーザの身体の一部の一例)の動きを比較的容易に習得することができる。このように、仮想空間におけるユーザの利便性を高めることが可能な情報処理方法を提供することができる。   According to the above method, the pointing object guides a part of the user's body (for example, a hand or a finger) to perform a guiding operation. In this way, the user can move the body part so that the body part performs a guiding operation by visually recognizing the pointing object. For example, the user can relatively easily move the user's hand or finger (an example of a part of the user's body) associated with a predetermined action in the virtual space by visually recognizing the pointing object in a tutorial or the like. Can be learned. In this manner, an information processing method that can improve the convenience of the user in the virtual space can be provided.

(2)前記仮想空間は、前記操作オブジェクトと前記指示オブジェクトとを視覚的に関連付けるように連結する第1連結オブジェクトをさらに含む、項目(1)に記載の情報処理方法。   (2) The information processing method according to item (1), wherein the virtual space further includes a first connection object that connects the operation object and the instruction object so as to be visually associated with each other.

上記方法によれば、操作オブジェクトと指示オブジェクトを視覚的に関連付けるように連結する第1連結オブジェクトによって、ユーザの視線を指示オブジェクトに誘導させることができる。   According to the above method, the user's line of sight can be guided to the instruction object by the first connection object that connects the operation object and the instruction object so as to be visually associated with each other.

(3)d)前記操作オブジェクトの移動に応じて、前記第1連結オブジェクトの視覚的態様を、前記操作オブジェクトと前記指示オブジェクトとを視覚的に関連付け続けるように更新するステップをさらに含む、項目(2)に記載の情報処理方法。   (3) d) updating the visual aspect of the first connected object so as to keep the operation object and the pointing object visually associated with each other according to the movement of the operation object; The information processing method according to 2).

上記方法によれば、操作オブジェクトの移動に応じて、操作オブジェクトと指示オブジェクトとを視覚的に関連付け続けるように、第1連結オブジェクトの視覚的態様が更新される。このように、操作オブジェクトを動かした場合でも、第1連結オブジェクトによってユーザの視線を指示オブジェクトに誘導させることができる。   According to the above method, the visual aspect of the first connected object is updated so that the operation object and the instruction object are continuously visually associated with the movement of the operation object. Thus, even when the operation object is moved, the user's line of sight can be guided to the instruction object by the first connected object.

(4)前記仮想空間は、
仮想ボタンを有し、前記操作オブジェクトに関連付けられた仮想コントローラと、
前記指示オブジェクトと前記仮想ボタンを視覚的に関連付けるように連結する第2連結オブジェクトを更に含む、
項目(2)又は(3)に記載の情報処理方法。
(4) The virtual space is
A virtual controller having a virtual button and associated with the operation object;
A second connected object for connecting the pointing object and the virtual button so as to be visually associated;
The information processing method according to item (2) or (3).

上記方法によれば、指示オブジェクトと仮想コントローラの仮想ボタンを視覚的に関連付けるように連結する第2連結オブジェクトによって、ユーザの視線を仮想ボタンと指示オブジェクトに誘導させることができる。このため、ユーザは、チュートリアル等において、指示オブジェクトと仮想ボタンの両方を視認することで、ユーザの指(ユーザの身体の一部の一例)の動きと仮想空間内でのアクションの関連付けを覚えることができる。   According to the above method, the user's line of sight can be guided to the virtual button and the pointing object by the second linked object that links the pointing object and the virtual button of the virtual controller so as to be visually associated with each other. For this reason, in a tutorial or the like, the user learns the association between the movement of the user's finger (an example of a part of the user's body) and the action in the virtual space by visually recognizing both the pointing object and the virtual button. Can do.

(5)e)前記ユーザの視野の移動に応じて、前記指示オブジェクトが前記視野内の所定位置に配置され続けるように前記指示オブジェクトを移動させるステップを更に含む、項目(1)から(4)うちいずれか一項に記載の情報処理方法。   (5) Items (1) to (4), further comprising: e) moving the pointing object so that the pointing object continues to be arranged at a predetermined position in the visual field in response to movement of the visual field of the user. The information processing method as described in any one of them.

上記方法によれば、ユーザの視野の移動に応じて、指示オブジェクトがユーザの視野内の所定位置に配置され続けるように移動する。このように、指示オブジェクトがユーザの視野に追随するため、仮想空間におけるユーザの利便性を高めることができる。   According to the above method, according to the movement of the user's visual field, the pointing object moves so as to continue to be arranged at a predetermined position in the user's visual field. Thus, since the pointing object follows the user's field of view, the convenience of the user in the virtual space can be improved.

(6)前記指示オブジェクトは、前記仮想空間内に固定的に配置される、項目(1)から(4)のうちいずれか一項に記載の情報処理方法。   (6) The information processing method according to any one of items (1) to (4), wherein the instruction object is fixedly arranged in the virtual space.

上記方法によれば、指示オブジェクトが仮想空間内に固定的に配置される。このため、指示オブジェクトがユーザの視野外に位置する場合でも、操作オブジェクトと指示オブジェクトを連結する第1連結オブジェクトによって、ユーザの視線を指示オブジェクトに誘導させることができる。   According to the above method, the pointing object is fixedly arranged in the virtual space. For this reason, even when the pointing object is located outside the user's field of view, the user's line of sight can be guided to the pointing object by the first linked object that links the operation object and the pointing object.

(7)前記指示オブジェクトは、前記仮想空間内に配置されたアバターであり、
前記アバターの仮想身体の一部が、前記誘導動作を実行させるべき前記ユーザの身体の前記一部に相当する部分を含むことにより、前記指示オブジェクトは前記操作オブジェクトに視覚的に関連付けられ、
前記部分の動きが誘導動作を実行することにより、前記指示オブジェクトは前記ユーザの身体の前記一部に前記誘導動作を実行させるように誘導する、
項目(6)に記載の情報処理方法。
(7) The instruction object is an avatar arranged in the virtual space,
The pointing object is visually associated with the operation object by including a part of the virtual body of the avatar corresponding to the part of the user's body that is to perform the guidance operation,
When the movement of the part performs a guiding operation, the pointing object guides the part of the user's body to perform the guiding operation.
The information processing method according to item (6).

上記方法によれば、アバターの仮想身体の一部の動きが誘導動作を実行することにより、指示オブジェクトは、ユーザの身体の一部(例えば、手や指)に誘導動作を実行させるように誘導する。このように、ユーザは、アバターの仮想身体の一部の動きを視認することで、身体の一部が誘導動作を行うように当該身体の一部を動かすことができる。例えば、ユーザは、チュートリアル等において、アバターの仮想身体の一部の動きを視認することで、仮想空間内での所定のアクションに関連付けられたユーザの手や指(ユーザの身体の一部の一例)の所定の動きを比較的容易に習得することができる。   According to the above method, when the movement of a part of the virtual body of the avatar performs the guiding operation, the pointing object guides the part of the user's body (for example, a hand or a finger) to perform the guiding operation. To do. Thus, the user can move a part of the body so that the part of the body performs a guiding operation by visually recognizing the movement of the part of the virtual body of the avatar. For example, in a tutorial or the like, a user visually recognizes a movement of a part of a virtual body of an avatar, thereby allowing a user's hand or finger associated with a predetermined action in the virtual space (an example of a part of the user's body). ) Can be learned relatively easily.

(8)前記ユーザの視野内に前記アバターが存在する場合に、前記アバターの背面が前記視野画像上に表示されるように、前記アバターの向きが設定される、項目(7)に記載の情報処理方法。   (8) The information according to item (7), wherein the orientation of the avatar is set so that the back surface of the avatar is displayed on the visual field image when the avatar exists in the visual field of the user. Processing method.

上記方法によれば、ユーザの視野内にアバターが存在する場合に、アバターの背面が視野画像上に表示されるようにアバターの向きが設定される。このように、アバターはユーザに対して背を向けているため、ユーザは、アバターの仮想身体の一部の動きを比較的容易に真似ることができる。   According to the above method, when the avatar exists in the user's field of view, the avatar's orientation is set so that the back surface of the avatar is displayed on the field of view image. Thus, since the avatar turns away from the user, the user can imitate the movement of a part of the virtual body of the avatar relatively easily.

(9)前記アバターは、前記仮想身体のうち前記部分のみが動くように制御される、項目(7)又は(8)に記載の情報処理方法。   (9) The information processing method according to item (7) or (8), wherein the avatar is controlled so that only the portion of the virtual body moves.

上記方法によれば、アバターは仮想身体のうちユーザの身体の一部に相当する部分のみが動くように制御されるので、ユーザの視線をアバターの仮想身体の一部分(例えば、仮想手)に誘導させることができる。   According to the above method, since the avatar is controlled so that only a part of the virtual body corresponding to a part of the user's body moves, the user's line of sight is guided to a part of the virtual body of the avatar (for example, a virtual hand). Can be made.

(10)前記誘導動作は、第1の動きと第2の動きを含み、
前記ユーザの身体の前記一部は、手と指を含み、
前記指示オブジェクトは、前記手に前記第1の動きをさせるように誘導する第1指示オブジェクトと、前記指に前記第2の動きをさせるように誘導する第2指示オブジェクトと、
を有し、
f)前記第1の動きに引き続いて実行される前記第2の動きに応じて、前記操作オブジェクトによって操作される対象オブジェクトを生成するステップをさらに含む、
項目(1)から(3)のうちいずれか一項に記載の情報処理方法。
(10) The guidance operation includes a first movement and a second movement,
The part of the user's body includes a hand and a finger;
The pointing object includes a first pointing object that guides the hand to make the first movement, a second pointing object that guides the finger to make the second movement,
Have
f) further comprising generating a target object operated by the operation object in response to the second movement executed subsequent to the first movement.
The information processing method according to any one of items (1) to (3).

上記方法によれば、第1指示オブジェクトは、ユーザの手に第1の動きをさせるように誘導すると共に、第2指示オブジェクトは、ユーザの指に第2の動きをさせるように誘導する。さらに、第1の動きに引き続いて実行される第2の動きに応じて、操作オブジェクトによって操作される対象オブジェクトが生成される。このように、ユーザは、第1指示オブジェクトを視認することで、ユーザの手の動きが第1の動きとなるようにユーザの手を動かすことができると共に、第2指示オブジェクトを視認することで、ユーザの指の動きが第2の動きとなるようにユーザの指を動かすことができる。例えば、ユーザは、チュートリアル等において、第1指示オブジェクトと第2指示オブジェクトを視認することで、仮想空間内での対象オブジェクトの出現に関するアクションに関連付けられたユーザの手の第1の動きとユーザの指の第2の動きを比較的容易に習得することができる。   According to the above method, the first pointing object guides the user's hand to make the first movement, and the second pointing object guides the user's finger to make the second movement. Furthermore, a target object that is operated by the operation object is generated in accordance with the second movement that is executed following the first movement. Thus, the user can move the user's hand so that the movement of the user's hand becomes the first movement by visually recognizing the first instruction object, and can also visually recognize the second instruction object. The user's finger can be moved so that the movement of the user's finger becomes the second movement. For example, in a tutorial or the like, the user visually recognizes the first instruction object and the second instruction object, so that the first movement of the user's hand associated with the action related to the appearance of the target object in the virtual space and the user's The second movement of the finger can be learned relatively easily.

(11)項目(1)から(10)のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるための情報処理プログラムが提供される。   (11) An information processing program for causing a computer to execute the information processing method according to any one of items (1) to (10) is provided.

上記によれば、仮想空間におけるユーザの利便性を高めることが可能な情報処理プログラムを提供することができる。   According to the above, it is possible to provide an information processing program that can improve the convenience of the user in the virtual space.

(12)プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は項目(1)から(10)のうちいずれか一項に記載の情報処理方法を実行する、情報処理装置。
(12) a processor;
An information processing apparatus comprising a memory for storing computer-readable instructions,
When the computer-readable instruction is executed by the processor, the information processing apparatus executes the information processing method according to any one of items (1) to (10).

上記によれば、仮想空間におけるユーザの利便性を高めることが可能な情報処理装置を提供することができる。   According to the above, it is possible to provide an information processing apparatus that can improve the convenience of the user in the virtual space.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

最初に、図1を参照してユーザ端末1の構成について説明する。図1は、ユーザ端末1を示す概略図である。図1に示すように、ユーザ端末1は、ユーザUの頭部に装着されたヘッドマウントデバイス(HMD)110と、ヘッドフォン116と、マイク118と、位置センサ130と、外部コントローラ320と、制御装置120とを備える。   First, the configuration of the user terminal 1 will be described with reference to FIG. FIG. 1 is a schematic diagram showing a user terminal 1. As shown in FIG. 1, the user terminal 1 includes a head mounted device (HMD) 110, a headphone 116, a microphone 118, a position sensor 130, an external controller 320, and a control device mounted on the head of the user U. 120.

HMD110は、表示部112と、HMDセンサ114と、注視センサ140とを備えている。表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。尚、表示部112は、ユーザUの左目に画像を提供するように構成された左目用表示部と、ユーザUの右目に画像を提供するように構成された右目用表示部とから構成されてもよい。また、HMD110は、透過型の表示装置を備えてもよい。この場合、透過型の表示装置は、その透過率を調整することで、一時的に非透過型の表示装置として構成されてもよい。   The HMD 110 includes a display unit 112, an HMD sensor 114, and a gaze sensor 140. The display unit 112 includes a non-transmissive display device configured to completely cover the field of view (field of view) of the user U wearing the HMD 110. Thereby, the user U can immerse in the virtual space by viewing only the visual field image displayed on the display unit 112. The display unit 112 includes a left-eye display unit configured to provide an image to the user U's left eye and a right-eye display unit configured to provide an image to the user U's right eye. Also good. Further, the HMD 110 may include a transmissive display device. In this case, the transmissive display device may be temporarily configured as a non-transmissive display device by adjusting the transmittance.

HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動き(傾き等)を検出することができる。   The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (such as an angular velocity sensor and a gyro sensor), and detects various movements (tilt and the like) of the HMD 110 mounted on the user U's head. be able to.

注視センサ140は、ユーザUの視線を検出するアイトラッキング機能を有する。注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。   The gaze sensor 140 has an eye tracking function that detects the line of sight of the user U. The gaze sensor 140 may include, for example, a right eye gaze sensor and a left eye gaze sensor. The right eye gaze sensor irradiates, for example, infrared light to the right eye of the user U, and detects reflected light reflected from the right eye (particularly the cornea and iris), thereby acquiring information related to the rotation angle of the right eye's eyeball. May be. On the other hand, the left eye gaze sensor irradiates the left eye of the user U with, for example, infrared light, and detects reflected light reflected from the left eye (particularly the cornea and iris), thereby providing information on the rotation angle of the left eye's eyeball. May be obtained.

ヘッドフォン116(音声出力部)は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドフォン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。マイク118(音声入力部)は、ユーザUから発声された音声を収集し、当該収集された音声に基づいて音声データ(電気信号)を生成するように構成されている。さらに、マイク118は、音声データを制御装置120に送信するように構成されている。   Headphones 116 (audio output units) are attached to the left and right ears of the user U, respectively. The headphones 116 are configured to receive audio data (electrical signals) from the control device 120 and output audio based on the received audio data. The microphone 118 (voice input unit) is configured to collect voice uttered by the user U and generate voice data (electrical signal) based on the collected voice. Furthermore, the microphone 118 is configured to transmit audio data to the control device 120.

位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110と外部コントローラ320の位置を検出するように構成されている。位置センサ130は、制御装置120に無線又は有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾き又は発光強度に関する情報を検出するように構成されている。さらに、位置センサ130は、外部コントローラ320に設けられた図示しない複数の検知点の位置、傾き及び/又は発光強度に関する情報を検出するように構成されている。検知点は、例えば、赤外線や可視光を放射する発光部である。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。   The position sensor 130 is configured by, for example, a position tracking camera, and is configured to detect the positions of the HMD 110 and the external controller 320. The position sensor 130 is communicably connected to the control device 120 by wireless or wired communication, and is configured to detect information on the position, inclination, or light emission intensity of a plurality of detection points (not shown) provided in the HMD 110. . Further, the position sensor 130 is configured to detect information on the position, inclination and / or light emission intensity of a plurality of detection points (not shown) provided in the external controller 320. The detection point is, for example, a light emitting unit that emits infrared light or visible light. The position sensor 130 may include an infrared sensor and a plurality of optical cameras.

外部コントローラ320は、ユーザUの身体の一部(頭部以外の部位であり、本実施形態においてはユーザUの手)の動きを検知することにより、仮想空間内に表示される手オブジェクト(アバターの仮想手ともいう。)の動作を制御するために使用される。外部コントローラ320は、ユーザUの右手によって操作される右手用外部コントローラ320R(以下、単にコントローラ320Rという。)と、ユーザUの左手によって操作される左手用外部コントローラ320L(以下、単にコントローラ320Lという。)と、を有する。   The external controller 320 detects a movement of a part of the body of the user U (a part other than the head, and in this embodiment, the hand of the user U), thereby detecting a hand object (avatar) displayed in the virtual space. It is also used to control the movement of the virtual hand. The external controller 320 is an external controller 320R for right hand operated by the right hand of the user U (hereinafter simply referred to as controller 320R) and an external controller 320L for left hand operated by the left hand of the user U (hereinafter simply referred to as controller 320L). And).

コントローラ320Rは、ユーザUの右手の位置や右手の指の動きを示す装置であって、右手の指によって操作される複数の操作ボタンを備えてもよい。コントローラ320Rの動きに応じて仮想空間内に存在する右手オブジェクト(アバターの仮想右手ともいう。)が動く。例えば、ユーザUがコントローラ320Rの所定の操作ボタンを押すことで、右手オブジェクトの所定の指が折れ曲がる一方、ユーザUがコントローラ320Rの所定の操作ボタンを離すことで、右手オブジェクトの所定の指が伸びてもよい。このように、コントローラ320Rの操作ボタンに対する操作に応じて右手オブジェクトの指が制御されてもよい。   The controller 320R is a device that indicates the position of the right hand of the user U and the movement of the finger of the right hand, and may include a plurality of operation buttons that are operated by the finger of the right hand. A right hand object (also referred to as an avatar's virtual right hand) that exists in the virtual space moves in accordance with the movement of the controller 320R. For example, when the user U presses a predetermined operation button of the controller 320R, the predetermined finger of the right hand object bends, while when the user U releases the predetermined operation button of the controller 320R, the predetermined finger of the right hand object extends. May be. As described above, the finger of the right-hand object may be controlled in accordance with an operation on the operation button of the controller 320R.

コントローラ320Lは、ユーザUの左手の位置や左手の指の動きを示す装置であって、左手の指によって操作される複数の操作ボタンを備えてもよい。コントローラ320Lの動きに応じて仮想空間内に存在する左手オブジェクト(アバターの仮想左手ともいう。)が動く。例えば、ユーザUがコントローラ320Lの所定の操作ボタンを押すことで、左手オブジェクトの所定の指が折れ曲がる一方、ユーザUがコントローラ320Lの所定の操作ボタンを離すことで、左手オブジェクトの所定の指が伸びてもよい。このように、コントローラ320Lの操作ボタンに対する操作に応じて左手オブジェクトの指が制御されてもよい。   The controller 320L is a device that indicates the position of the left hand of the user U and the movement of the finger of the left hand, and may include a plurality of operation buttons operated by the finger of the left hand. A left hand object (also referred to as an avatar's virtual left hand) moves in the virtual space in accordance with the movement of the controller 320L. For example, when the user U presses a predetermined operation button of the controller 320L, the predetermined finger of the left hand object bends, while when the user U releases the predetermined operation button of the controller 320L, the predetermined finger of the left hand object extends. May be. As described above, the finger of the left hand object may be controlled in accordance with an operation on the operation button of the controller 320L.

制御装置120は、HMD110を制御するように構成されたコンピュータである。制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を特定し、当該特定された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。さらに、制御装置120は、位置センサ130及び/又は外部コントローラ320から送信された情報に基づいて、外部コントローラ320の動作を特定し、当該特定された外部コントローラ320の動作に基づいて、仮想空間内に表示される手オブジェクトの動作と現実空間における外部コントローラ320の動作を正確に対応付けることができる。特に、制御装置120は、位置センサ130及び/又はコントローラ320Lから送信された情報に基づいて、コントローラ320Lの動作を特定し、当該特定されたコントローラ320Lの動作に基づいて、仮想空間内に表示される左手オブジェクトの動作と現実空間におけるコントローラ320Lの動作(ユーザUの左手の動作)を正確に対応付けることができる。同様に、制御装置120は、位置センサ及び/コントローラ320Rから送信された情報に基づいて、コントローラ320Rの動作を特定し、当該特定されたコントローラ320Rの動作に基づいて、仮想空間内に表示される右手オブジェクトの動作と現実空間におけるコントローラ320Rの動作(ユーザUの右手の動作)を正確に対応付けることができる。   The control device 120 is a computer configured to control the HMD 110. The control device 120 identifies the position information of the HMD 110 based on the information acquired from the position sensor 130, and installs the position of the virtual camera in the virtual space and the HMD 110 in the real space based on the identified position information. Thus, the position of the user U can be accurately associated. Furthermore, the control device 120 identifies the operation of the external controller 320 based on the information transmitted from the position sensor 130 and / or the external controller 320, and in the virtual space based on the identified operation of the external controller 320. The motion of the hand object displayed on the screen can be accurately associated with the motion of the external controller 320 in the real space. In particular, the control device 120 identifies the operation of the controller 320L based on information transmitted from the position sensor 130 and / or the controller 320L, and is displayed in the virtual space based on the identified operation of the controller 320L. The motion of the left hand object and the motion of the controller 320L in the real space (the motion of the left hand of the user U) can be accurately associated with each other. Similarly, the control device 120 identifies the operation of the controller 320R based on the information transmitted from the position sensor and / or the controller 320R, and is displayed in the virtual space based on the identified operation of the controller 320R. The movement of the right hand object and the movement of the controller 320R in the real space (the movement of the right hand of the user U) can be accurately associated.

また、制御装置120は、注視センサ140(左目用注視センサと右目用注視センサ)から送信された情報に基づいて、ユーザUの右目の視線と左目の視線をそれぞれ特定し、当該右目の視線と当該左目の視線の交点である注視点を特定することができる。さらに、制御装置120は、特定された注視点に基づいて、ユーザUの両目の視線(ユーザUの視線)を特定することができる。ここで、ユーザUの視線は、ユーザUの両目の視線であって、ユーザUの右目と左目を結ぶ線分の中点と注視点を通る直線の方向に一致する。   Further, the control device 120 specifies the gaze of the right eye and the gaze of the left eye of the user U based on the information transmitted from the gaze sensor 140 (the left eye gaze sensor and the right eye gaze sensor), and the right eye gaze. It is possible to specify the point of gaze that is the intersection of the left eye gaze. Furthermore, the control device 120 can specify the line of sight of both eyes of the user U (the line of sight of the user U) based on the specified gazing point. Here, the line of sight of the user U is the line of sight of both eyes of the user U, and coincides with the direction of a straight line passing through the middle point of the line connecting the right eye and the left eye of the user U and the gazing point.

次に、図2を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図2は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130及び/又はHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交しHMD110の中心を通る方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130及び/又はHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、仮想カメラの視軸を制御するための角度情報を決定する。   Next, with reference to FIG. 2, a method for acquiring information related to the position and inclination of the HMD 110 will be described. FIG. 2 is a diagram illustrating the head of the user U wearing the HMD 110. Information on the position and inclination of the HMD 110 that is linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands up is defined as the v-axis, the direction orthogonal to the v-axis and passing through the center of the HMD 110 is defined as the w-axis, and the direction orthogonal to the v-axis and the w-axis is defined as the u-axis. The position sensor 130 and / or the HMD sensor 114 is an angle around each uvw axis (that is, a yaw angle indicating rotation around the v axis, a pitch angle indicating rotation around the u axis, and a center around the w axis). The inclination determined by the roll angle indicating rotation) is detected. The control device 120 determines angle information for controlling the visual axis of the virtual camera based on the detected angle change around each uvw axis.

次に、図3を参照することで、制御装置120のハードウェア構成について説明する。図3は、制御装置120のハードウェア構成を示す図である。図3に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125は、バス126を介して互いに通信可能に接続されている。   Next, the hardware configuration of the control device 120 will be described with reference to FIG. FIG. 3 is a diagram illustrating a hardware configuration of the control device 120. As shown in FIG. 3, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are connected to each other via a bus 126 so as to communicate with each other.

制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレット又はウェアラブルデバイスとして構成されてもよいし、HMD110に内蔵されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。   The control device 120 may be configured as a personal computer, a tablet, or a wearable device separately from the HMD 110, or may be built in the HMD 110. In addition, some functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.

制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。   The control unit 121 includes a memory and a processor. The memory includes, for example, a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit), and a program specified from various programs embedded in the ROM is expanded on the RAM. It is comprised so that various processes may be performed in cooperation with.

特に、プロセッサが制御プログラムをRAM上に展開し、RAMとの協働で制御プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、視野画像データに基づいてHMD110の表示部112に視野画像を表示する。これにより、ユーザUは、仮想空間に没入することができる。   In particular, the control unit 121 may control various operations of the control device 120 by a processor developing a control program on a RAM and executing the control program in cooperation with the RAM. The control unit 121 displays a field image on the display unit 112 of the HMD 110 based on the field image data. Thereby, the user U can be immersed in the virtual space.

記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現するための制御プログラムを格納してもよい。また、記憶部123には、ユーザUの認証プログラムや各種画像やオブジェクト(指示オブジェクト等)に関するデータが格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。   The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, or a control program for realizing sharing of a virtual space by a plurality of users. The storage unit 123 may store data related to the user U authentication program, various images, and objects (such as instruction objects). Furthermore, a database including tables for managing various data may be constructed in the storage unit 123.

I/Oインターフェース124は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とをそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。尚、制御装置120は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とのそれぞれと無線接続されていてもよい。   The I / O interface 124 is configured to connect the position sensor 130, the HMD 110, the external controller 320, the headphones 116, and the microphone 118 to the control device 120 so that they can communicate with each other, for example, a USB (Universal) The terminal includes a serial bus (D) terminal, a digital visual interface (DVI) terminal, a high-definition multimedia interface (HDMI) (registered trademark) terminal, and the like. The control device 120 may be wirelessly connected to each of the position sensor 130, the HMD 110, the external controller 320, the headphones 116, and the microphone 118.

通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)又はインターネット等の通信ネットワーク30に接続させるように構成されている。通信インターフェース125は、通信ネットワーク30を介してサーバ等の外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク30を介して通信するための通信規格に適合するように構成されている。   The communication interface 125 is configured to connect the control device 120 to a communication network 30 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with an external device such as a server via the communication network 30 and various processing circuits for wireless connection, for communicating via the communication network 30. It is configured to conform to the communication standard.

次に、図4から図7を参照することで視野画像をHMD110に表示するための処理について説明する。図4は、視野画像をHMD110に表示する処理を示すフローチャートである。図5は、仮想空間200の一例を示すxyz空間図である。図6の状態(a)は、図5に示す仮想空間200のyx平面図である。図6の状態(b)は、図5に示す仮想空間200のzx平面図である。図7は、HMD110に表示された視野画像Vの一例を示す図である。   Next, processing for displaying a field-of-view image on the HMD 110 will be described with reference to FIGS. 4 to 7. FIG. 4 is a flowchart showing a process for displaying the visual field image on the HMD 110. FIG. 5 is an xyz space diagram showing an example of the virtual space 200. The state (a) in FIG. 6 is a yx plan view of the virtual space 200 shown in FIG. The state (b) in FIG. 6 is a zx plan view of the virtual space 200 shown in FIG. FIG. 7 is a diagram illustrating an example of the visual field image V displayed on the HMD 110.

図4に示すように、ステップS1において、制御部121(図3参照)は、仮想カメラ300と、各種オブジェクトとを含む仮想空間200を示す仮想空間データを生成する。図5に示すように、仮想空間200は、中心位置210を中心とした全天球として規定される(図5では、上半分の天球のみが図示されている)。また、仮想空間200では、中心位置210を原点とするxyz座標系が設定されている。仮想カメラ300は、HMD110に表示される視野画像V(図7参照)を特定するための視軸Lを規定している。仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、制御部121は、仮想カメラ300を仮想空間200内で移動させてもよい。   As shown in FIG. 4, in step S1, the control unit 121 (see FIG. 3) generates virtual space data indicating the virtual space 200 including the virtual camera 300 and various objects. As shown in FIG. 5, the virtual space 200 is defined as an omnidirectional sphere centered on the center position 210 (in FIG. 5, only the upper half celestial sphere is shown). In the virtual space 200, an xyz coordinate system with the center position 210 as the origin is set. The virtual camera 300 defines a visual axis L for specifying the visual field image V (see FIG. 7) displayed on the HMD 110. The uvw coordinate system that defines the visual field of the virtual camera 300 is determined so as to be linked to the uvw coordinate system that is defined around the head of the user U in the real space. Further, the control unit 121 may move the virtual camera 300 in the virtual space 200 in conjunction with the movement of the user U wearing the HMD 110 in the real space.

次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図6参照)を特定する。具体的には、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを特定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸Lを決定し、決定された視軸Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域に相当する(換言すれば、HMD110に表示される仮想空間200の一部の領域に相当する)。また、視野CVは、図6の状態(a)に示すxy平面において、視軸Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図6の状態(b)に示すxz平面において、視軸Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。尚、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいてユーザUの視線を特定し、特定されたユーザUの視線とHMD110の位置や傾きに関する情報に基づいて、仮想カメラ300の向き(仮想カメラの野軸L)を決定してもよい。   Next, in step S2, the control unit 121 specifies the field of view CV (see FIG. 6) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 identifies the position and orientation of the virtual camera 300 in the virtual space 200 based on information regarding the position and tilt of the HMD 110. Next, the control unit 121 determines the visual axis L of the virtual camera 300 from the position and orientation of the virtual camera 300 and specifies the visual field CV of the virtual camera 300 from the determined visual axis L. Here, the visual field CV of the virtual camera 300 corresponds to a part of the virtual space 200 visible to the user U wearing the HMD 110 (in other words, a part of the virtual space 200 displayed on the HMD 110). Equivalent to Further, the visual field CV includes a first region CVa set as an angular range of the polar angle α around the visual axis L in the xy plane shown in the state (a) of FIG. 6, and the state (b) of FIG. 6. The xz plane shown has a second region CVb set as an angle range of the azimuth angle β with the visual axis L as the center. The control unit 121 identifies the line of sight of the user U based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140, and based on the information regarding the identified line of sight of the user U and the position and inclination of the HMD 110. The orientation of the virtual camera 300 (virtual camera field axis L) may be determined.

このように、制御部121は、位置センサ130及び/又はHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを更新することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを更新することができる。同様に、ユーザUの視線が変化すると、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいて、仮想カメラ300の視野CVを更新してもよい。つまり、制御部121は、ユーザUの視線の変化に応じて、視野CVを変化させてもよい。   As described above, the control unit 121 can specify the visual field CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U wearing the HMD 110 moves, the control unit 121 updates the visual field CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can update the visual field CV according to the movement of the HMD 110. Similarly, when the line of sight of the user U changes, the control unit 121 may update the visual field CV of the virtual camera 300 based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140. That is, the control unit 121 may change the visual field CV according to the change in the line of sight of the user U.

次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像Vを示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。   Next, in step S <b> 3, the control unit 121 generates visual field image data indicating the visual field image V displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300.

次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像Vを表示する(図7参照)。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110の表示部112に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。   Next, in step S4, the control unit 121 displays the field image V on the display unit 112 of the HMD 110 based on the field image data (see FIG. 7). As described above, the visual field CV of the virtual camera 300 is changed according to the movement of the user U wearing the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110 is changed. I can immerse myself in 200.

尚、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成する。さらに、制御部121は、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。その後、制御部121は、左目用視野画像データに基づいて、左目用表示部に左目用の視野画像を表示すると共に、右目用視野画像データに基づいて、右目用表示部に右目用の視野画像を表示する。このようにして、ユーザUは、左目用視野画像と右目用視野画像との間の視差により、視野画像を3次元的に視認することができる。尚、仮想カメラは、後述するように、ユーザによって操作されるアバターの目の位置に配置されてもよい。例えば、左目用仮想カメラは、アバターの左目に配置される一方で、右目用仮想カメラは、アバターの右目に配置されてもよい。   Note that the virtual camera 300 may include a left-eye virtual camera and a right-eye virtual camera. In this case, the control unit 121 generates left-eye view image data indicating the left-eye view image based on the virtual space data and the view of the left-eye virtual camera. Further, the control unit 121 generates right-eye view image data indicating a right-eye view image based on the virtual space data and the view of the right-eye virtual camera. Thereafter, the control unit 121 displays the left-eye field image on the left-eye display unit based on the left-eye field image data, and also displays the right-eye field image on the right-eye display unit based on the right-eye field image data. Is displayed. In this way, the user U can visually recognize the visual field image three-dimensionally due to the parallax between the left-eye visual field image and the right-eye visual field image. As will be described later, the virtual camera may be arranged at the position of the avatar eye operated by the user. For example, the left-eye virtual camera may be placed in the left eye of the avatar, while the right-eye virtual camera may be placed in the right eye of the avatar.

また、図4に示すステップS1〜S4の処理は1フレーム(動画を構成する静止画像)毎に実行されてもよい。例えば、動画のフレームレートが90fpsである場合、ステップS1〜S4の処理はΔT=1/90(秒)間隔で繰り返し実行されてもよい。このように、ステップS1〜S4の処理が所定間隔ごとに繰り返し実行されるため、HMD110の動作に応じて仮想カメラ300の視野が更新されると共に、HMD110の表示部112に表示される視野画像Vが更新される。   Further, the processing in steps S1 to S4 shown in FIG. 4 may be executed for each frame (a still image constituting a moving image). For example, when the frame rate of the moving image is 90 fps, the processes in steps S1 to S4 may be repeatedly executed at intervals of ΔT = 1/90 (seconds). As described above, since the processes in steps S1 to S4 are repeatedly performed at predetermined intervals, the visual field of the virtual camera 300 is updated according to the operation of the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110. Is updated.

(第1実施形態)
次に、図8を参照して本開示の第1実施形態について以下に説明する。図8は、第1実施形態に係る仮想空間200Aを模式的に示した図である。図8に示すように、仮想空間200Aは、仮想カメラ300と、左手オブジェクト5Lと、右手オブジェクト5Rと、左仮想コントローラ6Lと、右仮想コントローラ6Rとを含む。更に、仮想空間200Aは、第1指示オブジェクト3と、第2指示オブジェクト4と、第1連結オブジェクト12,13と、第2連結オブジェクト14,16とを含む。
(First embodiment)
Next, a first embodiment of the present disclosure will be described below with reference to FIG. FIG. 8 is a diagram schematically illustrating the virtual space 200A according to the first embodiment. As shown in FIG. 8, the virtual space 200A includes a virtual camera 300, a left hand object 5L, a right hand object 5R, a left virtual controller 6L, and a right virtual controller 6R. Furthermore, the virtual space 200 </ b> A includes a first instruction object 3, a second instruction object 4, first connection objects 12 and 13, and second connection objects 14 and 16.

図8に示す仮想空間200Aは、アクションゲーム等の開始前にユーザUに所定のアクション(例えば、仮想剣を取り出すアクション)に関連付けられた所定の手の動きと指の動きを習得させるためのチュートリアル用の仮想空間である。制御部121(図3参照)は、図8に示す仮想空間200Aを規定する仮想空間データを生成した上で、仮想カメラ300の視野CVと仮想空間データに基づいて視野画像データを生成する。その後、制御部121は、視野画像データに基づいて視野画像VをHMD110上に表示する。   The virtual space 200A shown in FIG. 8 is a tutorial for allowing the user U to learn a predetermined hand movement and finger movement associated with a predetermined action (for example, an action for taking out a virtual sword) before starting an action game or the like. Virtual space for The control unit 121 (see FIG. 3) generates virtual space data defining the virtual space 200A illustrated in FIG. 8, and then generates visual field image data based on the visual field CV of the virtual camera 300 and the virtual space data. Thereafter, the control unit 121 displays the field image V on the HMD 110 based on the field image data.

制御部121は、ユーザUの左手の動きを示すコントローラ320L(図1参照)の動きに応じて、仮想空間200A内で左手オブジェクト5L(操作オブジェクトの一例)を動かす。特に、制御部121は、位置センサ130及び/又はコントローラ320Lから送信された情報に基づいて、コントローラ320Lの動作を特定し、当該特定されたコントローラ320Lの動作に基づいて、左手オブジェクト5Lの動作とコントローラ320Lの動作(ユーザUの左手の動作)を正確に対応付ける。例えば、制御部121は、コントローラ320Lの移動に応じて左手オブジェクト5Lを移動させると共に、コントローラ320Lの操作ボタンに対する操作に応じて左手オブジェクト5Lの指を動かしてもよい。   The control unit 121 moves the left hand object 5L (an example of an operation object) in the virtual space 200A in accordance with the movement of the controller 320L (see FIG. 1) indicating the movement of the user U's left hand. In particular, the control unit 121 specifies the operation of the controller 320L based on the information transmitted from the position sensor 130 and / or the controller 320L, and determines the operation of the left hand object 5L based on the specified operation of the controller 320L. The operation of the controller 320L (the operation of the left hand of the user U) is accurately associated. For example, the control unit 121 may move the left hand object 5L according to the movement of the controller 320L and move the finger of the left hand object 5L according to the operation on the operation button of the controller 320L.

同様に、制御部121は、ユーザUの右手の動きを示すコントローラ320R(図1参照)の動きに応じて、仮想空間200A内で右手オブジェクト5R(操作オブジェクトの一例)を動かす。特に、制御部121は、位置センサ130及び/又はコントローラ320Rから送信された情報に基づいて、コントローラ320Rの動作を特定し、当該特定されたコントローラ320Rの動作に基づいて、右手オブジェクト5Rの動作とコントローラ320Rの動作(ユーザUの右手の動作)を正確に対応付ける。例えば、制御部121は、コントローラ320Rの移動に応じて右手オブジェクト5Rを移動させると共に、コントローラ320Rの操作ボタンに対する操作に応じて右手オブジェクト5Rの指を動かしてもよい。   Similarly, the control unit 121 moves the right hand object 5R (an example of an operation object) in the virtual space 200A according to the movement of the controller 320R (see FIG. 1) indicating the movement of the right hand of the user U. In particular, the control unit 121 identifies the operation of the controller 320R based on the information transmitted from the position sensor 130 and / or the controller 320R, and the operation of the right hand object 5R based on the identified operation of the controller 320R. The operation of the controller 320R (the operation of the right hand of the user U) is accurately associated. For example, the control unit 121 may move the right hand object 5R according to the movement of the controller 320R and move the finger of the right hand object 5R according to an operation on the operation button of the controller 320R.

左仮想コントローラ6Lは、コントローラ320Lに対応するオブジェクトであって、左手オブジェクト5Lと視覚的に関連付けられる。左仮想コントローラ6Lは、仮想ボタン7L,8Lを備える。仮想ボタン7Lは、コントローラ320Lの第1ボタンに対応するオブジェクトである一方、仮想ボタン8Lは、コントローラ320Lの第2ボタンに対応するオブジェクトである。左仮想コントローラ6Lは、左手オブジェクト5Lと共に移動してもよい。現実空間においてコントローラ320Lの第1ボタンがユーザUによって押されることで、左仮想コントローラ6Lの仮想ボタン7Lが左手オブジェクト5Lの指によって押されてもよい。   The left virtual controller 6L is an object corresponding to the controller 320L, and is visually associated with the left hand object 5L. The left virtual controller 6L includes virtual buttons 7L and 8L. The virtual button 7L is an object corresponding to the first button of the controller 320L, while the virtual button 8L is an object corresponding to the second button of the controller 320L. The left virtual controller 6L may move together with the left hand object 5L. The virtual button 7L of the left virtual controller 6L may be pressed by the finger of the left hand object 5L by pressing the first button of the controller 320L by the user U in the real space.

右仮想コントローラ6Rは、現実空間のコントローラ320Rに対応するオブジェクトであって、右手オブジェクト5Rと視覚的に関連付けられる。右仮想コントローラ6Rは、仮想ボタン7R,8Rを備える。仮想ボタン7Rは、コントローラ320Rの第1ボタンに対応するオブジェクトである一方、仮想ボタン8Rは、コントローラ320Rの第2ボタンに対応するオブジェクトである。右仮想コントローラ6Rは、右手オブジェクト5Rと共に移動してもよい。現実空間においてコントローラ320Rの第1ボタンがユーザUによって押されることで、右仮想コントローラ6Rの仮想ボタン7Rが右手オブジェクト5Rの指によって押されてもよい。   The right virtual controller 6R is an object corresponding to the real space controller 320R, and is visually associated with the right hand object 5R. The right virtual controller 6R includes virtual buttons 7R and 8R. The virtual button 7R is an object corresponding to the first button of the controller 320R, while the virtual button 8R is an object corresponding to the second button of the controller 320R. The right virtual controller 6R may move together with the right hand object 5R. The virtual button 7R of the right virtual controller 6R may be pressed by the finger of the right hand object 5R by pressing the first button of the controller 320R by the user U in the real space.

また、制御部121は、コントローラ320L(320R)から送信されたコントローラ320L(320R)の種類を示す情報に基づいて、左仮想コントローラ6L(右仮想コントローラ6R)の形状等の視覚的態様を特定してもよい。   Further, the control unit 121 identifies a visual aspect such as the shape of the left virtual controller 6L (right virtual controller 6R) based on the information indicating the type of the controller 320L (320R) transmitted from the controller 320L (320R). May be.

第1指示オブジェクト3は、ユーザUの手(手全体)に誘導動作をさせるように誘導するように構成されている。ここで、誘導動作とは、第1指示オブジェクト3によって誘導されるユーザUの動作をいう。特に、第1指示オブジェクト3は、ユーザUの手(手全体の動き)に第1の動きをさせるように誘導するように構成されている。本実施形態では、「左手を下から上に動かしてください」旨の動作指示が第1指示オブジェクト3に表示されている。ユーザUは、第1指示オブジェクト3を視認することで、左手を下から上に動かすように誘導される。第1指示オブジェクト3は、仮想空間200Aに固定的に配置されてもよい。   The first instruction object 3 is configured to guide the user U's hand (the entire hand) to perform a guiding operation. Here, the guiding operation refers to the operation of the user U guided by the first pointing object 3. In particular, the first indication object 3 is configured to guide the user U's hand (movement of the entire hand) to cause the first movement. In the present embodiment, an operation instruction “Please move your left hand from the bottom to the top” is displayed on the first instruction object 3. The user U is guided to move the left hand from the bottom to the top by visually recognizing the first indication object 3. The first instruction object 3 may be fixedly arranged in the virtual space 200A.

第2指示オブジェクト4は、ユーザUの指に誘導動作をさせるように誘導するように構成されている。ここで、誘導動作とは、第2指示オブジェクト4によって誘導されるユーザUの動作をいう。特に、第2指示オブジェクト4は、ユーザUの指に第2の動きをさせるように誘導するように構成されている。本実施形態では、「左コントローラの第1ボタンと第2ボタンを押してください」旨の動作指示が第2指示オブジェクト4に表示されている。ユーザUは、第2指示オブジェクト4を視認することで、コントローラ320Lの第1ボタンと、第2ボタンを押すように誘導される。   The second instruction object 4 is configured to guide the user U's finger to perform a guiding operation. Here, the guiding operation refers to the operation of the user U guided by the second pointing object 4. In particular, the second pointing object 4 is configured to guide the user U's finger to make a second movement. In the present embodiment, an operation instruction “Please press the first button and the second button of the left controller” is displayed on the second instruction object 4. The user U is guided to press the first button and the second button of the controller 320L by visually recognizing the second pointing object 4.

第1連結オブジェクト12は、左手オブジェクト5Lと第2指示オブジェクト4とを視覚的に関連付けるように連結するように構成される。このように、第1連結オブジェクト12によって、第2指示オブジェクト4は、左手オブジェクト5Lに視覚的に関連付けられる。また、左手オブジェクト5Lの移動に応じて、左手オブジェクト5Lと第2指示オブジェクト4とを視覚的に関連付け続けるように、第1連結オブジェクト12の視覚的態様(形状等)が更新されてもよい。この点において、制御部121は、左手オブジェクト5Lの位置を更新した後に、第1連結オブジェクト12の視覚的態様を更新する。左手オブジェクト5Lと第2指示オブジェクト4との間の距離が大きい程、第1連結オブジェクト12の長さは大きくなる。その反対に、左手オブジェクト5Lと第2指示オブジェクト4との間の距離が小さい程、第1連結オブジェクト12の長さは小さくなる。尚、第1連結オブジェクト12によって第2指示オブジェクト4が左手オブジェクト5Lに視覚的に関連付けられていることをユーザUが視認できる限りにおいて、第1連結オブジェクト12の表示形態は特に限定されない。例えば、第1連結オブジェクト12の一部が可視化されていなくてもよい(透明化されてもよい)。   The first connected object 12 is configured to connect the left hand object 5L and the second pointing object 4 so as to be visually associated with each other. In this way, the second linked object 4 is visually associated with the left hand object 5L by the first connected object 12. In addition, the visual aspect (shape, etc.) of the first connected object 12 may be updated so that the left hand object 5L and the second pointing object 4 are continuously visually associated with the movement of the left hand object 5L. In this regard, the control unit 121 updates the visual aspect of the first connected object 12 after updating the position of the left hand object 5L. The longer the distance between the left hand object 5L and the second pointing object 4 is, the longer the length of the first connected object 12 is. On the contrary, the shorter the distance between the left hand object 5L and the second pointing object 4 is, the smaller the length of the first connected object 12 is. The display form of the first connected object 12 is not particularly limited as long as the user U can visually recognize that the second pointing object 4 is visually associated with the left hand object 5L by the first connected object 12. For example, a part of the first connected object 12 may not be visualized (it may be made transparent).

第1連結オブジェクト13は、右手オブジェクト5Rと第2指示オブジェクト4とを視覚的に関連付けるように連結するように構成される。このように、第1連結オブジェクト13によって、第2指示オブジェクト4は、右手オブジェクト5Rに視覚的に関連付けられる。また、右手オブジェクト5Rの移動に応じて、右手オブジェクト5Rと第2指示オブジェクト4とを視覚的に関連付け続けるように、第1連結オブジェクト13の視覚的態様(形状等)が更新されてもよい。尚、第1連結オブジェクト13によって第2指示オブジェクト4が右手オブジェクト5Rに視覚的に関連付けられていることをユーザUが視認できる限りにおいて、第1連結オブジェクト13の表示形態は特に限定されない。例えば、第1連結オブジェクト13の一部が可視化されていなくてもよい。   The first connected object 13 is configured to connect the right hand object 5R and the second pointing object 4 so as to be visually associated with each other. Thus, the second linked object 4 is visually associated with the right hand object 5R by the first connected object 13. Further, the visual mode (shape, etc.) of the first connected object 13 may be updated so that the right hand object 5R and the second pointing object 4 are kept visually associated with each other in accordance with the movement of the right hand object 5R. The display form of the first connected object 13 is not particularly limited as long as the user U can visually recognize that the second pointing object 4 is visually associated with the right hand object 5R by the first connected object 13. For example, a part of the first linked object 13 may not be visualized.

第2連結オブジェクト14は、左仮想コントローラ6Lの仮想ボタン7Lと第2指示オブジェクト4とを連結するように構成される。第2連結オブジェクト14によって、第2指示オブジェクト4は、仮想ボタン7Lに視覚的に関連付けられる。尚、第2連結オブジェクト14の表示形態は特に限定されない。例えば、第2連結オブジェクト14の一部が可視化されなくてもよい。   The second connection object 14 is configured to connect the virtual button 7L of the left virtual controller 6L and the second instruction object 4. By the second connection object 14, the second instruction object 4 is visually associated with the virtual button 7L. The display form of the second connected object 14 is not particularly limited. For example, a part of the second connected object 14 may not be visualized.

第2連結オブジェクト16は、左仮想コントローラ6Lの仮想ボタン8Lと第2指示オブジェクト4とを連結するように構成される。第2連結オブジェクト16によって、第2指示オブジェクト4は、仮想ボタン8Lに視覚的に関連付けられる。また、左手オブジェクト5Lの移動に応じて、第2連結オブジェクト14,16の視覚的態様(形状等)が更新されてもよい。尚、第2連結オブジェクト16の表示形態は特に限定されない。例えば、第2連結オブジェクト16の一部が可視化されなくてもよい。また、本実施形態では、「左コントローラの第1ボタンと第2ボタンを押してください」旨の動作指示が第2指示オブジェクト4に表示されていることから、2つの第2連結オブジェクト14,16が生成されている。一方、「左コントローラの第1ボタンを押してください」旨の動作指示が第2指示オブジェクト4に表示される場合、第2連結オブジェクト14のみが生成されてもよい。   The second connection object 16 is configured to connect the virtual button 8L of the left virtual controller 6L and the second instruction object 4. By the second connection object 16, the second instruction object 4 is visually associated with the virtual button 8L. Further, the visual mode (shape, etc.) of the second connected objects 14 and 16 may be updated according to the movement of the left hand object 5L. The display form of the second connected object 16 is not particularly limited. For example, a part of the second connected object 16 may not be visualized. In this embodiment, since the operation instruction “Please press the first button and the second button of the left controller” is displayed on the second instruction object 4, the two second linked objects 14 and 16 are displayed. Has been generated. On the other hand, when the operation instruction “Please press the first button of the left controller” is displayed on the second instruction object 4, only the second linked object 14 may be generated.

本実施形態では、ユーザUの左手を下から上に動かした後に、コントローラ320Lの第1ボタンと第2ボタンを押すことで、仮想剣(対象オブジェクトの一例)を取り出すアクションが実行される場合、第1指示オブジェクト3は、当該アクションに関連付けられた手の動き(第1の動き)を示すと共に、第2指示オブジェクト4は、当該アクションに関連付けられた指の動き(第2の動き)を示す。このように、ユーザUは、第1指示オブジェクト3を視認することで、仮想剣を取り出すアクションに関連付けられた手の動き(即ち、左手を下から上に動かすこと)となるように手を動かすことができると共に、第2指示オブジェクト4を視認することで、当該アクションに関連付けられた指の動き(即ち、コントローラ320Lの第1ボタンと、第2ボタンを押すこと)となるように指を動かすことができる。このように、ユーザUは、チュートリアルにおいて、第1指示オブジェクト3と第2指示オブジェクト4を視認することで、仮想空間200A内での仮想剣の出現に関するアクションに関連付けられた手の動きと指の動きを比較的容易に習得することができる。このように、仮想空間におけるユーザの利便性を高めることができる。   In the present embodiment, when the left hand of the user U is moved from the bottom to the top and then the action of taking out the virtual sword (an example of the target object) is executed by pressing the first button and the second button of the controller 320L, The first instruction object 3 indicates a hand movement (first movement) associated with the action, and the second instruction object 4 indicates a finger movement (second movement) associated with the action. . In this way, the user U moves the hand so that the movement of the hand associated with the action of taking out the virtual sword (that is, moving the left hand from the bottom to the top) by visually recognizing the first pointing object 3. In addition, by visually recognizing the second indication object 4, the finger is moved so as to be a finger movement associated with the action (that is, pressing the first button and the second button of the controller 320 </ b> L). be able to. In this way, in the tutorial, the user U visually recognizes the first instruction object 3 and the second instruction object 4, so that the movement of the hand and the finger associated with the action related to the appearance of the virtual sword in the virtual space 200 </ b> A are displayed. You can learn movements relatively easily. Thus, the convenience of the user in the virtual space can be improved.

また、本実施形態によれば、第1連結オブジェクト12,13によって、ユーザUの視線を第2指示オブジェクト4に誘導させることができる。さらに、左手オブジェクト5Lの移動に応じて第1連結オブジェクト12の視覚的態様が更新されると共に、右手オブジェクト5Rの移動に応じて第1連結オブジェクト13の視覚的態様が更新される。このように、左手オブジェクト5L又は右手オブジェクト5Rを動かした場合でも、第1連結オブジェクトによってユーザUの視線を第2指示オブジェクト4に誘導させることができる。   In addition, according to the present embodiment, the first connected objects 12 and 13 can guide the user U's line of sight to the second pointing object 4. Further, the visual aspect of the first connected object 12 is updated according to the movement of the left hand object 5L, and the visual aspect of the first connected object 13 is updated according to the movement of the right hand object 5R. Thus, even when the left hand object 5L or the right hand object 5R is moved, the line of sight of the user U can be guided to the second pointing object 4 by the first connected object.

さらに、第2連結オブジェクト14,16によって、ユーザUの視線を仮想ボタン7L,8Lと第2指示オブジェクト4に誘導させることができる。このため、ユーザUは、チュートリアルにおいて、第2指示オブジェクト4と仮想ボタン7L,8Lの両方を視認することで、仮想空間200A内での所定のアクションに関連付けられた指の動きを比較的容易に習得することができる。   Further, the user U's line of sight can be guided to the virtual buttons 7L and 8L and the second pointing object 4 by the second connected objects 14 and 16. For this reason, the user U can relatively easily move the finger associated with the predetermined action in the virtual space 200A by visually recognizing both the second pointing object 4 and the virtual buttons 7L and 8L in the tutorial. Can be learned.

尚、本実施形態では、所定のアクションの一例として仮想剣を取り出すアクションについて説明したが、本実施形態は様々なアクションのチュートリアルに適用可能である。例えば、ユーザUの手の動きが第1の動きとなるようにユーザUの手を動かすと共に、ユーザUの指の動きが第2の動きとなるようにユーザUの指を動かすことで、第1のアクションが実行される場合では、第1指示オブジェクト3は、第1の動きを示す動作指示を表示することで、ユーザUの手に第1の動きをさせるように誘導する。第2指示オブジェクト4は、第2の動きを示す動作指示を表示することで、ユーザUの指に第2の動きをさせるように誘導する。   In the present embodiment, the action of taking out the virtual sword has been described as an example of the predetermined action. However, the present embodiment is applicable to various action tutorials. For example, by moving the user U's hand so that the movement of the user U's hand becomes the first movement, and moving the user U's finger so that the movement of the user U's finger becomes the second movement, When one action is executed, the first instruction object 3 guides the user U's hand to perform the first movement by displaying an operation instruction indicating the first movement. The second instruction object 4 guides the user U's finger to perform the second movement by displaying an operation instruction indicating the second movement.

また、本実施形態では、2つの第1連結オブジェクト12,13が生成されているが、第1連結オブジェクト12,13のうちの一方のみが生成されてもよい。仮想空間200Aは、第1指示オブジェクト3と左手オブジェクト5Lを視覚的に関連付けるように連結する連結表示オブジェクト及び/又は第1指示オブジェクト3と右手オブジェクト5Rとを視覚的に関連付けるように連結する連結表示オブジェクトをさらに含んでもよい。この場合、第1指示オブジェクト3は仮想空間200A内に固定的に配置されている。このため、第1指示オブジェクト3が仮想カメラ300の視野CV外に位置する場合でも、連結表示オブジェクトによってユーザUの視線を第1指示オブジェクト3に誘導させることができる。特に、連結表示オブジェクトが視野画像上に表示されるので、ユーザUの視線を第1指示オブジェクト3に誘導させることができる。   In the present embodiment, two first connected objects 12 and 13 are generated, but only one of the first connected objects 12 and 13 may be generated. The virtual space 200A is a connected display object that connects the first pointing object 3 and the left hand object 5L so as to be visually related and / or a connected display that connects the first pointing object 3 and the right hand object 5R so as to be visually related. An object may further be included. In this case, the first instruction object 3 is fixedly arranged in the virtual space 200A. For this reason, even when the first instruction object 3 is located outside the field of view CV of the virtual camera 300, the line of sight of the user U can be guided to the first instruction object 3 by the connected display object. In particular, since the connected display object is displayed on the visual field image, the user U's line of sight can be guided to the first indication object 3.

また、第2指示オブジェクト4には、所定のアクションに関連するユーザUの指の動きを示す動作指示だけでなく、所定のアクションに関連するユーザUの手の動きを示す動作指示が表示されてもよい。この場合、第1指示オブジェクト3は、仮想空間200A内に配置されなくてもよい。   The second instruction object 4 displays not only an operation instruction indicating the movement of the user U's finger related to the predetermined action but also an operation instruction indicating the movement of the user U's hand related to the predetermined action. Also good. In this case, the first instruction object 3 may not be arranged in the virtual space 200A.

次に、図9及び図10を参照して第2指示オブジェクト4を移動させる処理について以下に説明する。図9は、第2指示オブジェクト4が仮想カメラ300の視野CV内の所定の位置に移動する様子を示した模式図である。図10は、第2指示オブジェクト4を仮想カメラ300の視野CV(ユーザUの視野ともいう。)内の所定の位置に移動させる処理を説明するためのフローチャートである。   Next, processing for moving the second pointing object 4 will be described below with reference to FIGS. FIG. 9 is a schematic diagram illustrating a state in which the second pointing object 4 moves to a predetermined position within the field of view CV of the virtual camera 300. FIG. 10 is a flowchart for explaining processing for moving the second pointing object 4 to a predetermined position in the field of view CV (also referred to as the field of view of the user U) of the virtual camera 300.

図9に示すように、前提条件として、仮想カメラ300の視野CVの移動に伴い第2指示オブジェクト4が仮想カメラ300の視野CV(ユーザUの視野)外に位置したとする。このとき、図10に示すように、制御部121は、第2指示オブジェクト4が視野CV内に位置しているかどうかを判定する(ステップS10)。次に、制御部121は、第2指示オブジェクト4が視野CV内に位置していないと判定した場合(ステップS10でNO)、第2指示オブジェクト4が視野CV内の所定の位置に配置され続けるように第2指示オブジェクト4を移動させる。一方、制御部121は、第2指示オブジェクト4が視野CV内に位置していると判定した場合(ステップS10でYES)、本処理は終了する。   As shown in FIG. 9, as a precondition, it is assumed that the second pointing object 4 is located outside the field of view CV of the virtual camera 300 (the field of view of the user U) with the movement of the field of view CV of the virtual camera 300. At this time, as shown in FIG. 10, the control unit 121 determines whether or not the second pointing object 4 is located within the field of view CV (step S10). Next, when the control unit 121 determines that the second instruction object 4 is not located in the field of view CV (NO in step S10), the second instruction object 4 continues to be disposed at a predetermined position in the field of view CV. In this way, the second pointing object 4 is moved. On the other hand, when the control unit 121 determines that the second pointing object 4 is located in the visual field CV (YES in step S10), the process ends.

ステップS11の処理において、制御部121は、仮想カメラ300の動作が終了した後の所定期間経過後に、視野CV内の所定の位置に向けて第2指示オブジェクト4を徐々に移動させてもよい。または、制御部121は、第2指示オブジェクト4が視野CV外に位置したと判定した後の次フレームにおいて、第2指示オブジェクト4の移動処理を開始してもよい。また、視野CV内の所定の位置は、特に限定されない。   In the process of step S11, the control unit 121 may gradually move the second pointing object 4 toward a predetermined position in the visual field CV after a predetermined period after the operation of the virtual camera 300 ends. Alternatively, the control unit 121 may start the movement process of the second instruction object 4 in the next frame after determining that the second instruction object 4 is located outside the field of view CV. Moreover, the predetermined position in the visual field CV is not particularly limited.

本実施形態によれば、仮想カメラ300の視野CVの移動に応じて、第2指示オブジェクト4が視野CV内の所定の位置に配置され続けるように移動する。このように、第2指示オブジェクト4が視野CVに追随するため、仮想空間におけるユーザUの利便性を高めることができる。換言すれば、第2指示オブジェクト4が視野画像上の所定の位置に表示されるため、仮想空間におけるユーザUの利便性を高めることができる。   According to the present embodiment, according to the movement of the visual field CV of the virtual camera 300, the second pointing object 4 moves so as to continue being arranged at a predetermined position in the visual field CV. Thus, since the 2nd instruction | indication object 4 follows the visual field CV, the convenience of the user U in virtual space can be improved. In other words, since the second pointing object 4 is displayed at a predetermined position on the visual field image, the convenience of the user U in the virtual space can be improved.

(第2実施形態)
次に、図11及び図12を参照して本開示の第2実施形態について以下に説明する。図11は、第2実施形態に係る仮想空間200Bを模式的に示した図である。図12は、仮想空間200Bに配置されたアバター9(指示オブジェクトの一例)の動きを説明するための図である。特に、図12は、仮想剣80(対象オブジェクトの一例)を取り出すアクションに関連する手の動きを演じるアバター9の右側面を示している。図12の状態(a)は、仮想剣を取り出すアクションの第1段階におけるアバター9の左手93Lの動きを示す。図12の状態(b)は、当該アクションの第2段階における左手93Lの動きを示す。図12の状態(c)は、当該アクションの第3段階における左手93Lの動きを示す。図12の状態(d)は、仮想剣80を取り出したアバター9を示す。第2実施形態に係る仮想空間200Bは、第1指示オブジェクト3の代わりにアバター9が仮想空間上に配置されている点で第1実施形態に係る仮想空間200Aとは相違する。
(Second Embodiment)
Next, a second embodiment of the present disclosure will be described below with reference to FIGS. 11 and 12. FIG. 11 is a diagram schematically illustrating a virtual space 200B according to the second embodiment. FIG. 12 is a diagram for explaining the movement of the avatar 9 (an example of the pointing object) arranged in the virtual space 200B. In particular, FIG. 12 shows the right side of the avatar 9 performing hand movements related to the action of taking out the virtual sword 80 (an example of a target object). The state (a) in FIG. 12 shows the movement of the left hand 93L of the avatar 9 in the first stage of the action of taking out the virtual sword. The state (b) in FIG. 12 shows the movement of the left hand 93L in the second stage of the action. The state (c) in FIG. 12 shows the movement of the left hand 93L in the third stage of the action. The state (d) of FIG. 12 shows the avatar 9 from which the virtual sword 80 has been taken out. The virtual space 200 </ b> B according to the second embodiment is different from the virtual space 200 </ b> A according to the first embodiment in that an avatar 9 is arranged on the virtual space instead of the first indication object 3.

図12に示すように、アバター9は、ユーザUの手の動き(手全体の動き)に第1の動きをさせるように誘導するように構成されている。特に、アバター9は、第1の動きを実行させるべきユーザUの左手に相当する左手93Lを含んでいる。このように、アバター9は、左手オブジェクト5Lに視覚的に関連付けられる。アバター9の動作は、制御部121によって制御される(つまり、アバター9は、プロセッサによって制御されるアバターであって、他のユーザによって操作されるアバターではない。)。本実施形態では、アバター9は、仮想剣80を取り出すアクションに関連付けられた手の動きの手本を示している。具体的には、アバター9は、左手93Lを動かすことで、仮想剣80を取り出すアクションに関連付けられた左手の動きの手本を示している(尚、本アクションでは右手を動かさないため、アバター9は右手を動かしていない)。このように、ユーザUは、チュートリアルにおいて、アバター9の左手93Lの動きと第2指示オブジェクト4を視認することで、仮想剣80を取り出すアクションに関連付けられた手の動き(第1の動き)と指の動き(第2の動き)を比較的容易に習得することができる。また、仮想剣80を取り出すアクションに関連付けられた手の動きに引き続いて実行される指の動きに応じて、制御部121は、左手オブジェクト5Lによって操作される仮想剣80を生成する(図12の状態(d)参照)。   As shown in FIG. 12, the avatar 9 is configured to guide the user U's hand movement (movement of the entire hand) to cause the first movement. In particular, the avatar 9 includes a left hand 93L corresponding to the left hand of the user U who should execute the first movement. Thus, the avatar 9 is visually associated with the left hand object 5L. The operation of the avatar 9 is controlled by the control unit 121 (that is, the avatar 9 is an avatar controlled by a processor, not an avatar operated by another user). In the present embodiment, the avatar 9 shows a model of hand movement associated with the action of taking out the virtual sword 80. Specifically, the avatar 9 shows an example of the left hand movement associated with the action of taking out the virtual sword 80 by moving the left hand 93L (note that the avatar 9 does not move the right hand in this action). Is not moving his right hand). Thus, in the tutorial, the user U visually recognizes the movement of the left hand 93 </ b> L of the avatar 9 and the second pointing object 4, thereby moving the hand (first movement) associated with the action of taking out the virtual sword 80. The movement of the finger (second movement) can be learned relatively easily. Further, the control unit 121 generates the virtual sword 80 operated by the left hand object 5L in accordance with the finger movement executed following the hand movement associated with the action of taking out the virtual sword 80 (FIG. 12). State (d)).

また、アバター9は、仮想剣80を取り出すアクションに関連付けられた左手の動きの手本を示しているため、左手オブジェクト5Lに視覚的に関連付けられている。つまり、ユーザUは、アバター9の左手93Lを視認することで、自身の左手を動かすため、アバター9(より具体的には、アバター9の左手93L)は、左手オブジェクト5Lに視覚的に関連付けられている。また、アバター9は、仮想剣80を取り出すアクションに関連する左手93Lのみが動くように制御部121によって制御されるため、ユーザUの視線をアバター9の左手93Lに誘導させることができる。尚、習得すべきアクションがユーザUの右手の動きに関連する場合、アバター9は、アバター9の右手のみが動くように制御部121によって制御される。この場合、アバター9の右手は、右手オブジェクト5Rに関連付けられると共に、ユーザUの視線をアバター9の右手に誘導させることができる。   Further, since the avatar 9 shows a model of the left hand movement associated with the action of taking out the virtual sword 80, the avatar 9 is visually associated with the left hand object 5L. That is, since the user U moves his / her left hand by visually recognizing the left hand 93L of the avatar 9, the avatar 9 (more specifically, the left hand 93L of the avatar 9) is visually associated with the left hand object 5L. ing. Further, since the avatar 9 is controlled by the control unit 121 so that only the left hand 93L related to the action of taking out the virtual sword 80 is moved, the line of sight of the user U can be guided to the left hand 93L of the avatar 9. When the action to be learned is related to the movement of the right hand of the user U, the avatar 9 is controlled by the control unit 121 so that only the right hand of the avatar 9 moves. In this case, the right hand of the avatar 9 is associated with the right hand object 5 </ b> R, and the user U's line of sight can be guided to the right hand of the avatar 9.

また、図11に示すように、アバター9は、仮想カメラ300に対して背を向けているため、アバター9はユーザUに対して背を向けた状態で視野画像上に表示される。特に、仮想カメラ300の視野CV内にアバター9が存在する場合に、制御部121は、アバター9の背面が視野画像上に表示されるように、アバター9の向きを設定している。このように、アバター9はユーザUに対して背を向けているため、アバター9とユーザUの向きが一致することで両者の動作の向きが一致するので、ユーザUは、アバター9の手の動きを比較的容易に真似することができる。   Further, as shown in FIG. 11, since the avatar 9 faces away from the virtual camera 300, the avatar 9 is displayed on the visual field image with the back facing away from the user U. In particular, when the avatar 9 is present in the visual field CV of the virtual camera 300, the control unit 121 sets the orientation of the avatar 9 so that the back surface of the avatar 9 is displayed on the visual field image. Since the avatar 9 faces away from the user U as described above, the direction of the movement of both the avatar 9 and the user U coincides. The movement can be imitated relatively easily.

尚、本実施形態では、仮想空間200Bは、アバター9(特に、アバター9の左手)と左手オブジェクト5Lを視覚的に関連付けるように連結する連結表示オブジェクト及び/又はアバター9(特に、アバター9の右手)と右手オブジェクト5Rとを連結する連結表示オブジェクトをさらに含んでもよい。   In the present embodiment, the virtual space 200B includes the connected display object and / or the avatar 9 (particularly the right hand of the avatar 9) that connects the avatar 9 (particularly, the left hand of the avatar 9) and the left hand object 5L so as to be visually associated. ) And the right hand object 5R may be further included.

また、ユーザ端末1の制御部121によって実行される各種処理をソフトウェアによって実現するために、各種処理をコンピュータ(プロセッサ)に実行させるための制御プログラムが記憶部123又はメモリに予め組み込まれていてもよい。または、制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−ray(登録商標)ディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納された制御プログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は各種処理を実行する。   Further, in order to implement various processes executed by the control unit 121 of the user terminal 1 by software, a control program for causing the computer (processor) to execute various processes may be incorporated in the storage unit 123 or the memory in advance. Good. Alternatively, the control program can be a magnetic disk (HDD, floppy disk), optical disk (CD-ROM, DVD-ROM, Blu-ray (registered trademark) disk, etc.), magneto-optical disk (MO, etc.), flash memory (SD card, It may be stored in a computer-readable storage medium such as a USB memory or SSD. In this case, when the storage medium is connected to the control device 120, the control program stored in the storage medium is incorporated into the storage unit 123. The control unit 121 executes various processes by loading the control program incorporated in the storage unit 123 onto the RAM and executing the loaded program.

また、制御プログラムは、通信ネットワーク30上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該制御プログラムが記憶部123に組み込まれる。   The control program may be downloaded from a computer on the communication network 30 via the communication interface 125. Similarly in this case, the downloaded control program is incorporated into the storage unit 123.

以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。   As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.

本実施形態では、ユーザUの手の動きを示す外部コントローラ320の動きに応じて、アバターの手の移動が制御されているが、ユーザUの手自体の移動量に応じて、仮想空間内における手オブジェクトの移動が制御されてもよい。例えば、外部コントローラを用いる代わりに、ユーザの指に装着されるグローブ型デバイスや指輪型デバイスを用いることで、位置センサ130により、ユーザUの手の位置や移動量を検出することができると共に、ユーザUの指の動きや状態を検出することができる。また、位置センサ130は、ユーザUの手(指を含む)を撮像するように構成されたカメラであってもよい。この場合、カメラを用いてユーザの手を撮像することにより、ユーザの指に直接何らかのデバイスを装着させることなく、ユーザの手が表示された画像に基づいて、ユーザUの手の位置や移動量を検出することができると共に、ユーザUの指の動きや状態を検出することができる。   In the present embodiment, the movement of the avatar's hand is controlled according to the movement of the external controller 320 indicating the movement of the user U's hand, but in the virtual space according to the movement amount of the user U's hand itself. The movement of the hand object may be controlled. For example, instead of using an external controller, by using a glove-type device or a ring-type device worn on the user's finger, the position sensor 130 can detect the position and movement amount of the user U's hand, The movement and state of the user U's finger can be detected. Further, the position sensor 130 may be a camera configured to image the user U's hand (including a finger). In this case, the position and amount of movement of the user U's hand can be captured based on the image on which the user's hand is displayed without capturing any device directly on the user's finger by imaging the user's hand using the camera. And the movement and state of the finger of the user U can be detected.

また、本実施形態では、ユーザUの身体の一部である手(左手と右手)の動きに応じて手オブジェクト(左手オブジェクトと右手オブジェクト)が動かされているが、本実施形態はこれには限定されない。例えば、ユーザUの身体の一部であるユーザUの足(左足、右足)の動きに応じて足オブジェクト(左足オブジェクトと右足オブジェクト)が動かされてもよい。所定のアクションがユーザUの足の動きに関連する場合、ユーザUの足に誘導動作をさせるように誘導すると共に、足オブジェクトに視覚的に関連付けられた指示オブジェクトが生成されてもよい。   In the present embodiment, hand objects (left hand object and right hand object) are moved according to the movement of the hands (left hand and right hand) that are part of the user U's body. It is not limited. For example, the foot objects (left foot object and right foot object) may be moved according to the movement of the user U's foot (left foot, right foot) which is a part of the user U's body. When the predetermined action is related to the movement of the foot of the user U, an instruction object that is guided to cause the user U's foot to perform a guiding motion and is visually associated with the foot object may be generated.

本実施形態において、仮想空間は、ユーザにVR(Virtual Reality)、AR(Argumented Reality)及びMR(Mixed Reality)といった、仮想体験を提供するために用いられる。仮想空間がVRを提供する場合、仮想空間の背景にはメモリに保存された背景データが使用される。仮想空間がAR又はMRを提供する場合、仮想空間の背景には現実空間が使用される。この場合、HMD110が透過型の表示装置(光学シースルーまたはビデオシースルー型の表示装置)を備えることにより、現実空間が仮想空間の背景として使用され得る。仮想空間がMRに適用される場合、オブジェクトは、現実空間によって影響を与えられてもよい。このように、仮想空間が背景や仮想オブジェクトといった仮想シーンを少なくとも一部に含むことにより、ユーザには当該仮想シーンとの相互作用が可能な仮想体験が提供され得る。また、仮想空間がAR又はMRに適用される場合、手オブジェクトの代わりにユーザの手が用いられてもよい。この場合、図8に示す左手オブジェクト5Lに代わりにユーザの左手が仮想空間200Aに配置されると共に、右手オブジェクト5Rの代わりにユーザの右手が仮想空間200Aに配置される。第2指示オブジェクト4は、第1連結オブジェクト12によってユーザの左手に視覚的に関連付けられると共に、第1連結オブジェクト13によってユーザの右手に視覚的に関連付けられる。   In this embodiment, the virtual space is used to provide a virtual experience such as VR (Virtual Reality), AR (Arranged Reality), and MR (Mixed Reality) to the user. When the virtual space provides VR, background data stored in the memory is used as the background of the virtual space. When the virtual space provides AR or MR, the real space is used as the background of the virtual space. In this case, the HMD 110 includes a transmissive display device (optical see-through or video see-through display device), so that the real space can be used as the background of the virtual space. If virtual space is applied to MR, the object may be influenced by real space. As described above, when the virtual space includes at least a part of a virtual scene such as a background or a virtual object, the user can be provided with a virtual experience capable of interacting with the virtual scene. When the virtual space is applied to AR or MR, the user's hand may be used instead of the hand object. In this case, the user's left hand is placed in the virtual space 200A instead of the left hand object 5L shown in FIG. 8, and the user's right hand is placed in the virtual space 200A instead of the right hand object 5R. The second pointing object 4 is visually associated with the left hand of the user by the first connected object 12 and visually associated with the right hand of the user by the first connected object 13.

1:ユーザ端末
3:第1指示オブジェクト
4:第2指示オブジェクト
5L:左手オブジェクト(操作オブジェクトの一例)
5R:右手オブジェクト(操作オブジェクトの一例)
6L:左仮想コントローラ
6R:右仮想コントローラ
7L:仮想ボタン
7R:仮想ボタン
8L:仮想ボタン
8R:仮想ボタン
9:アバター
12,13:第1連結オブジェクト
14,16:第2連結オブジェクト
30:通信ネットワーク
80:仮想剣
93L:左手
110:ヘッドマウントデバイス(HMD)
112:表示部
114:センサ
116:ヘッドフォン
118:マイク
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200,200A,200B:仮想空間
210:中心位置
300:仮想カメラ
320:外部コントローラ
320L:左手用外部コントローラ(コントローラ)
320R:右手用外部コントローラ(コントローラ)
1: User terminal 3: First indication object 4: Second indication object 5L: Left hand object (an example of an operation object)
5R: Right hand object (an example of an operation object)
6L: Left virtual controller 6R: Right virtual controller 7L: Virtual button 7R: Virtual button 8L: Virtual button 8R: Virtual button 9: Avatar 12, 13: First connected object 14, 16: Second connected object 30: Communication network 80 : Virtual sword 93L: Left hand 110: Head mounted device (HMD)
112: Display unit 114: Sensor 116: Headphone 118: Microphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 140: Gaze sensor 200, 200A, 200B: Virtual space 210: Center position 300: Virtual camera 320: External controller 320L: Left hand external controller (controller)
320R: External controller for right hand (controller)

Claims (12)

a)操作オブジェクトと、指示オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
b)ヘッドマウントデバイスの動きと、前記仮想空間データとに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
c)前記ヘッドマウントデバイスを装着したユーザの頭部以外の身体の一部の動きに応じて、前記操作オブジェクトを動かすステップと、
を含み、
前記指示オブジェクトは、
前記操作オブジェクトに視覚的に関連付けられ、前記ユーザの身体の前記一部に誘導動作をさせるように誘導する、
プロセッサによって実行される情報処理方法。
a) generating virtual space data defining a virtual space including an operation object and an instruction object;
b) generating visual field image data indicating a visual field image displayed on the head mounted device based on the movement of the head mounted device and the virtual space data;
c) moving the operation object in response to movement of a part of the body other than the head of the user wearing the head-mounted device;
Including
The pointing object is
Visually associated with the manipulation object and guiding the part of the user's body to perform a guiding action;
An information processing method executed by a processor.
前記仮想空間は、前記操作オブジェクトと前記指示オブジェクトとを視覚的に関連付けるように連結する第1連結オブジェクトをさらに含む、請求項1に記載の情報処理方法。   The information processing method according to claim 1, wherein the virtual space further includes a first connection object that connects the operation object and the instruction object so as to be visually associated with each other. d)前記操作オブジェクトの移動に応じて、前記第1連結オブジェクトの視覚的態様を、前記操作オブジェクトと前記指示オブジェクトとを視覚的に関連付け続けるように更新するステップをさらに含む、請求項2に記載の情報処理方法。   3. The method according to claim 2, further comprising: d) updating the visual aspect of the first connected object so as to keep the operation object and the pointing object visually associated with each other according to the movement of the operation object. Information processing method. 前記仮想空間は、
仮想ボタンを有し、前記操作オブジェクトに関連付けられた仮想コントローラと、
前記指示オブジェクトと前記仮想ボタンを視覚的に関連付けるように連結する第2連結オブジェクトを更に含む、
請求項2又は3に記載の情報処理方法。
The virtual space is
A virtual controller having a virtual button and associated with the operation object;
A second connected object for connecting the pointing object and the virtual button so as to be visually associated;
The information processing method according to claim 2 or 3.
e)前記ユーザの視野の移動に応じて、前記指示オブジェクトが前記視野内の所定位置に配置され続けるように前記指示オブジェクトを移動させるステップを更に含む、請求項1から4のうちいずれか一項に記載の情報処理方法。   5. The method according to claim 1, further comprising: e) moving the pointing object so that the pointing object continues to be disposed at a predetermined position in the visual field in accordance with the movement of the user's visual field. Information processing method described in 1. 前記指示オブジェクトは、前記仮想空間内に固定的に配置される、請求項1から4のうちいずれか一項に記載の情報処理方法。   The information processing method according to any one of claims 1 to 4, wherein the instruction object is fixedly arranged in the virtual space. 前記指示オブジェクトは、前記仮想空間内に配置されたアバターであり、
前記アバターの仮想身体の一部が、前記誘導動作を実行させるべき前記ユーザの身体の前記一部に相当する部分を含むことにより、前記指示オブジェクトは前記操作オブジェクトに視覚的に関連付けられ、
前記部分の動きが誘導動作を実行することにより、前記指示オブジェクトは前記ユーザの身体の前記一部に前記誘導動作を実行させるように誘導する、
請求項6に記載の情報処理方法。
The pointing object is an avatar arranged in the virtual space,
The pointing object is visually associated with the operation object by including a part of the virtual body of the avatar corresponding to the part of the user's body that is to perform the guidance operation,
When the movement of the part performs a guiding operation, the pointing object guides the part of the user's body to perform the guiding operation.
The information processing method according to claim 6.
前記ユーザの視野内に前記アバターが存在する場合に、前記アバターの背面が前記視野画像上に表示されるように、前記アバターの向きが設定される、請求項7に記載の情報処理方法。   The information processing method according to claim 7, wherein when the avatar exists in the user's field of view, the orientation of the avatar is set so that a back surface of the avatar is displayed on the field-of-view image. 前記アバターは、前記仮想身体のうち前記部分のみが動くように制御される、請求項7又は8に記載の情報処理方法。   The information processing method according to claim 7 or 8, wherein the avatar is controlled so that only the portion of the virtual body moves. 前記誘導動作は、第1の動きと第2の動きを含み、
前記ユーザの身体の前記一部は、手と指を含み、
前記指示オブジェクトは、前記手に前記第1の動きをさせるように誘導する第1指示オブジェクトと、前記指に前記第2の動きをさせるように誘導する第2指示オブジェクトと、
を有し、
f)前記第1の動きに引き続いて実行される前記第2の動きに応じて、前記操作オブジェクトによって操作される対象オブジェクトを生成するステップをさらに含む、
請求項1から3のうちいずれか一項に記載の情報処理方法。
The guiding operation includes a first movement and a second movement,
The part of the user's body includes a hand and a finger;
The pointing object includes a first pointing object that guides the hand to make the first movement, a second pointing object that guides the finger to make the second movement,
Have
f) further comprising generating a target object operated by the operation object in response to the second movement executed subsequent to the first movement.
The information processing method according to any one of claims 1 to 3.
請求項1から10のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるための情報処理プログラム。   An information processing program for causing a computer to execute the information processing method according to any one of claims 1 to 10. プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は請求項1から10のうちいずれか一項に記載の情報処理方法を実行する、情報処理装置。
A processor;
An information processing apparatus comprising a memory for storing computer-readable instructions,
The information processing apparatus that executes the information processing method according to any one of claims 1 to 10, when the computer-readable instruction is executed by the processor.
JP2017099827A 2017-05-19 2017-05-19 INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS Active JP6535699B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017099827A JP6535699B2 (en) 2017-05-19 2017-05-19 INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP2019056502A JP6941130B2 (en) 2017-05-19 2019-03-25 Information processing method, information processing program and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017099827A JP6535699B2 (en) 2017-05-19 2017-05-19 INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019056502A Division JP6941130B2 (en) 2017-05-19 2019-03-25 Information processing method, information processing program and information processing device

Publications (2)

Publication Number Publication Date
JP2018195172A true JP2018195172A (en) 2018-12-06
JP6535699B2 JP6535699B2 (en) 2019-06-26

Family

ID=64570526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017099827A Active JP6535699B2 (en) 2017-05-19 2017-05-19 INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS

Country Status (1)

Country Link
JP (1) JP6535699B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091774A (en) * 2018-12-07 2020-06-11 株式会社gumi Program, information processing device, information processing system, information processing method, and head mount display
WO2020209184A1 (en) * 2019-04-09 2020-10-15 ソニー株式会社 Information processing device, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010240185A (en) * 2009-04-07 2010-10-28 Kanazawa Inst Of Technology Apparatus for supporting motion learning
JP2013066613A (en) * 2011-09-22 2013-04-18 Konami Digital Entertainment Co Ltd Game device, display method and program
JP2013116311A (en) * 2011-11-04 2013-06-13 Konami Digital Entertainment Co Ltd Game device, detail presentation method, and program
JP2015118556A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Augmented reality overlay for control devices
WO2017065126A1 (en) * 2015-10-15 2017-04-20 株式会社ソニー・インタラクティブエンタテインメント Image processing device, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010240185A (en) * 2009-04-07 2010-10-28 Kanazawa Inst Of Technology Apparatus for supporting motion learning
JP2013066613A (en) * 2011-09-22 2013-04-18 Konami Digital Entertainment Co Ltd Game device, display method and program
JP2013116311A (en) * 2011-11-04 2013-06-13 Konami Digital Entertainment Co Ltd Game device, detail presentation method, and program
JP2015118556A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Augmented reality overlay for control devices
WO2017065126A1 (en) * 2015-10-15 2017-04-20 株式会社ソニー・インタラクティブエンタテインメント Image processing device, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091774A (en) * 2018-12-07 2020-06-11 株式会社gumi Program, information processing device, information processing system, information processing method, and head mount display
WO2020209184A1 (en) * 2019-04-09 2020-10-15 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6535699B2 (en) 2019-06-26

Similar Documents

Publication Publication Date Title
JP6266814B1 (en) Information processing method and program for causing computer to execute information processing method
JP6342038B1 (en) Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space
JP6058855B1 (en) Information processing method and program for causing computer to execute information processing method
JP6117414B1 (en) Information processing method and program for causing computer to execute information processing method
JP6212666B1 (en) Information processing method, program, virtual space distribution system, and apparatus
JP6535699B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP6140871B1 (en) Information processing method and program for causing computer to execute information processing method
JP6118444B1 (en) Information processing method and program for causing computer to execute information processing method
JP6289703B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6266823B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus
JP2018120583A (en) Information processing method and program for causing computer to execute the same
JP2018109940A (en) Information processing method and program for causing computer to execute the same
JP2019036239A (en) Information processing method, information processing program, information processing system, and information processing device
JP2018026105A (en) Information processing method, and program for causing computer to implement information processing method
JP2019020516A (en) Information processing method, information processing program, information processing system, and information processing device
JP6941130B2 (en) Information processing method, information processing program and information processing device
JP6190497B1 (en) Information processing method and program for causing computer to execute information processing method
JP6275809B1 (en) Display control method and program for causing a computer to execute the display control method
JP2018185567A (en) Information processing method, information processing program, information processing system and information processing apparatus
JP2019021331A (en) Information processing method, information processing program and information processing device
JP2018018499A (en) Information processing method and program for causing computer to execute the method
JP6205047B1 (en) Information processing method and program for causing computer to execute information processing method
JP2018116484A (en) Information processing method, and program for causing computer to execute the information processing method
JP2018026099A (en) Information processing method and program for causing computer to execute the information processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190325

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R150 Certificate of patent or registration of utility model

Ref document number: 6535699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250