JP6403843B1 - Information processing method, information processing program, and information processing apparatus - Google Patents

Information processing method, information processing program, and information processing apparatus Download PDF

Info

Publication number
JP6403843B1
JP6403843B1 JP2017137124A JP2017137124A JP6403843B1 JP 6403843 B1 JP6403843 B1 JP 6403843B1 JP 2017137124 A JP2017137124 A JP 2017137124A JP 2017137124 A JP2017137124 A JP 2017137124A JP 6403843 B1 JP6403843 B1 JP 6403843B1
Authority
JP
Japan
Prior art keywords
range
user
virtual space
action
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017137124A
Other languages
Japanese (ja)
Other versions
JP2019020905A (en
Inventor
健志 加田
健志 加田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017137124A priority Critical patent/JP6403843B1/en
Application granted granted Critical
Publication of JP6403843B1 publication Critical patent/JP6403843B1/en
Publication of JP2019020905A publication Critical patent/JP2019020905A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】リッチな仮想体験をユーザに提供することが可能な情報処理方法を提供する。
【解決手段】プロセッサによって実行される情報処理方法は、(a)敵キャラクタオブジェクトECを含む仮想空間200を規定する仮想空間データを生成するステップと、(b)ユーザの頭部に装着されたヘッドマウントデバイス(HMD)の動きと仮想空間データに基づいて、HMDに表示される視野画像を示す視野画像データを更新するステップと、(c)現実空間における第1プレイエリアを特定するステップと、(d)仮想空間200において、第1プレイエリアに相当する第2プレイエリアA2を特定するステップと、(e)第2プレイエリアA2の範囲に応じて、仮想空間200におけるユーザと敵キャラクタオブジェクトECとの間のインタラクションを可能にするように、仮想空間データを調整するステップと、を含む。
【選択図】図11
An information processing method capable of providing a user with a rich virtual experience is provided.
An information processing method executed by a processor includes: (a) generating virtual space data defining a virtual space 200 including an enemy character object EC; and (b) a head mounted on a user's head. Updating the visual field image data indicating the visual field image displayed on the HMD based on the movement of the mount device (HMD) and the virtual space data; and (c) identifying the first play area in the real space; d) in the virtual space 200, the step of specifying the second play area A2 corresponding to the first play area; and (e) the user and the enemy character object EC in the virtual space 200 according to the range of the second play area A2. Adjusting virtual space data to allow interaction between the two.
[Selection] Figure 11

Description

本開示は、情報処理方法、情報処理プログラム及び情報処理装置に関する。   The present disclosure relates to an information processing method, an information processing program, and an information processing apparatus.

ヘッドマウントデバイス(Head Mounted Device:以下、単にHMDという。)を用いた仮想空間の体験をする前において、現実空間においてユーザの行動範囲を規定するプレイエリアを設定する必要がある。プレイエリアは、例えば、HMDを装着したユーザの挙動を位置センサ等によって検出可能な範囲(以下、検出可能範囲という。)内に設定される。   Before experiencing a virtual space using a head-mounted device (hereinafter simply referred to as HMD), it is necessary to set a play area that defines the user's action range in the real space. The play area is set, for example, within a range in which the behavior of the user wearing the HMD can be detected by a position sensor or the like (hereinafter referred to as a detectable range).

特許文献1は、計測装置(位置センサ)の計測可能領域(検出可能範囲)内に安全領域と警告領域を設けた上で、ユーザが安全領域に位置していない場合に警告を出力する方法を開示している。   Patent Document 1 discloses a method for outputting a warning when a user is not positioned in a safe area after providing a safe area and a warning area within a measurable area (detectable range) of a measurement device (position sensor). Disclosure.

また、非特許文献1では、ユーザが、外部コントローラを握った状態で対角線上に位置する2つの位置センサが配置された部屋内を歩き回ることで、現実空間におけるプレイエリアが手動で設定されることが開示されている。   Further, in Non-Patent Document 1, a user walks around in a room where two position sensors located on a diagonal line are arranged while holding an external controller, so that a play area in a real space is manually set. Is disclosed.

特開2005−165848号公報JP 2005-165848 A

” Vive - Set up Vive for Room-scale”,[online]、平成28年4月5日、Vive Tutorials、[平成29年5月12日検索]、インターネット<https://www.youtube.com/watch?v=rv6nVPPDmEI>“Vive-Set up Vive for Room-scale”, [online], April 5, 2016, Vive Tutorials, [Search May 12, 2017], Internet <https://www.youtube.com/ watch? v = rv6nVPPDmEI>

ところで、現実空間においてプレイエリアが設定された後に、現実空間のプレイエリアに対応するプレイエリア(仮想プレイエリア)が仮想空間内に設定される。このため、現実空間のプレイエリアの範囲が狭い場合、仮想空間内に設定された仮想プレイエリアも小さくなる。このような場合、仮想空間内におけるユーザ(アバター)の行動範囲が制限されるため、例えば、仮想空間内に配置された敵アバターオブジェクトを攻撃できない等の不都合が生じる可能性がある。このように、現実空間のプレイエリアの範囲の大きさに応じて生じる上記不都合を解消することで、仮想空間におけるユーザ体験(仮想体験)をさらに改善する余地がある。   By the way, after a play area is set in the real space, a play area (virtual play area) corresponding to the play area in the real space is set in the virtual space. For this reason, when the range of the play space in the real space is narrow, the virtual play area set in the virtual space is also reduced. In such a case, since the action range of the user (avatar) in the virtual space is limited, there is a possibility that inconveniences such as an inability to attack the enemy avatar object arranged in the virtual space may occur. In this way, there is room for further improvement of the user experience (virtual experience) in the virtual space by eliminating the above-mentioned disadvantages that occur according to the size of the range of the play area in the real space.

本開示は、リッチな仮想体験をユーザに提供することが可能な情報処理方法を提供することを目的とする。さらに、本開示は、リッチな仮想体験をユーザに提供することが可能な情報処理プログラム及び情報処理装置を提供することを目的とする。   An object of the present disclosure is to provide an information processing method capable of providing a user with a rich virtual experience. Furthermore, this indication aims at providing the information processing program and information processing apparatus which can provide a rich virtual experience to a user.

本開示が示す一態様によれば、プロセッサによって実行される情報処理方法は、
(a)第1オブジェクトを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)ユーザの頭部に装着されたヘッドマウントデバイスの動きと前記仮想空間データに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを更新するステップと、
(c)現実空間における第1エリアを特定するステップと、
(d)前記仮想空間において、前記第1エリアに相当する第2エリアを特定するステップと、
(e)前記第2エリアの範囲に応じて、前記仮想空間における前記ユーザと前記第1オブジェクトとの間のインタラクションを可能にするように、前記仮想空間データを調整するステップと、
を含む。
According to one aspect of the present disclosure, an information processing method executed by a processor is:
(A) generating virtual space data defining a virtual space including the first object;
(B) updating the visual field image data indicating the visual field image displayed on the head mounted device based on the movement of the head mounted device mounted on the user's head and the virtual space data;
(C) identifying a first area in real space;
(D) identifying a second area corresponding to the first area in the virtual space;
(E) adjusting the virtual space data to allow interaction between the user and the first object in the virtual space according to a range of the second area;
including.

本開示によれば、リッチな仮想体験をユーザに提供することが可能な情報処理方法を提供することができる情報処理方法、情報処理プログラム及び情報処理装置を提供することができる。   According to the present disclosure, it is possible to provide an information processing method, an information processing program, and an information processing apparatus that can provide an information processing method capable of providing a user with a rich virtual experience.

ユーザ端末を示す概略図である。It is the schematic which shows a user terminal. HMDを装着したユーザの頭部を示す図である。It is a figure which shows the head of the user with which HMD was mounted | worn. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a control apparatus. 外部コントローラの具体的構成の一例を示す図である。It is a figure which shows an example of the specific structure of an external controller. 視野画像をHMDに表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays a visual field image on HMD. 仮想空間の一例を示すxyz空間図である。It is xyz space figure which shows an example of virtual space. 状態(a)は、図6に示す仮想空間のyx平面図である。状態(b)は、図6に示す仮想空間のzx平面図である。The state (a) is a yx plan view of the virtual space shown in FIG. The state (b) is a zx plan view of the virtual space shown in FIG. HMDに表示された視野画像の一例を示す図である。It is a figure which shows an example of the visual field image displayed on HMD. 本開示の第1実施形態に係る情報処理方法の一例を説明するためのフローチャートである。5 is a flowchart for explaining an example of an information processing method according to the first embodiment of the present disclosure. 状態(a)は、現実空間における第1プレイエリアを示す図である。状態(b)は、仮想空間における第2プレイエリアを示す図である。The state (a) is a diagram showing the first play area in the real space. State (b) is a diagram showing the second play area in the virtual space. 状態(a)は、敵キャラクタオブジェクトの行動範囲が第2プレイエリアの一部と重複する様子を示す図である。状態(b)は、敵キャラクタオブジェクトの行動軌跡が第2プレイエリアの一部と重複する様子を示す図である。State (a) is a diagram showing a state in which the action range of the enemy character object overlaps with a part of the second play area. State (b) is a diagram showing a state where the action trajectory of the enemy character object overlaps with a part of the second play area. 本開示の第2実施形態に係る情報処理方法の一例を説明するためのフローチャートである。12 is a flowchart for describing an example of an information processing method according to a second embodiment of the present disclosure. 敵キャラクタオブジェクトの行動範囲がユーザの攻撃範囲の一部と重複する様子を示す図である。It is a figure which shows a mode that the action range of an enemy character object overlaps with a part of user's attack range. 本開示の第3実施形態に係る情報処理方法の一例を説明するためのフローチャートである。14 is a flowchart for describing an example of an information processing method according to a third embodiment of the present disclosure. 状態(a)は、敵キャラクタオブジェクトの行動範囲がユーザの最大攻撃範囲の一部と重複する様子を示す図である。状態(b)は、敵キャラクタオブジェクトの行動範囲がユーザの攻撃範囲と重複しない様子を示す図である。State (a) is a diagram showing a state where the action range of the enemy character object overlaps with a part of the user's maximum attack range. The state (b) is a diagram illustrating a state where the action range of the enemy character object does not overlap with the attack range of the user. 本開示の第4実施形態に係る情報処理方法の一例を説明するためのフローチャートである。14 is a flowchart for describing an example of an information processing method according to a fourth embodiment of the present disclosure. 状態(a)は、敵キャラクタオブジェクトの行動範囲がユーザの攻撃範囲と重複しない様子を示す図である。状態(b)は、装備された武器オブジェクトの射程範囲が大きくなることで敵キャラクタオブジェクトの行動範囲がユーザの攻撃範囲と重複する様子を示す図である。The state (a) is a diagram illustrating a state where the action range of the enemy character object does not overlap with the attack range of the user. The state (b) is a diagram illustrating a state in which the action range of the enemy character object overlaps with the attack range of the user as the range of the equipped weapon object increases.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)(a)第1オブジェクトを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)ユーザの頭部に装着されたヘッドマウントデバイスの動きと前記仮想空間データに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを更新するステップと、
(c)現実空間における第1エリアを特定するステップと、
(d)前記仮想空間において、前記第1エリアに相当する第2エリアを特定するステップと、
(e)前記第2エリアの範囲に応じて、前記仮想空間における前記ユーザと前記第1オブジェクトとの間のインタラクションを可能にするように、前記仮想空間データを調整するステップと、
を含む、プロセッサによって実行される情報処理方法。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) (a) generating virtual space data defining a virtual space including the first object;
(B) updating the visual field image data indicating the visual field image displayed on the head mounted device based on the movement of the head mounted device mounted on the user's head and the virtual space data;
(C) identifying a first area in real space;
(D) identifying a second area corresponding to the first area in the virtual space;
(E) adjusting the virtual space data to allow interaction between the user and the first object in the virtual space according to a range of the second area;
An information processing method executed by a processor.

上記方法によれば、ユーザと第1オブジェクトとの間のインタラクションを確実に生じさせることが可能となる。したがって、リッチな仮想体験をユーザに提供することが可能となる。   According to the above method, it is possible to reliably cause an interaction between the user and the first object. Therefore, it is possible to provide a rich virtual experience to the user.

(2)前記ステップ(e)は、
(e1)前記第2エリアの範囲に応じて、前記第1オブジェクトの行動範囲又は行動軌跡を設定するステップを含む、項目(1)に記載の情報処理方法。
(2) The step (e)
(E1) The information processing method according to item (1), including a step of setting an action range or action locus of the first object according to the range of the second area.

上記方法によれば、ユーザと第1オブジェクトとの間のインタラクションを確実に生じさせることが可能となる。   According to the above method, it is possible to reliably cause an interaction between the user and the first object.

(3)前記ステップ(e1)は、
前記第1オブジェクトの行動範囲又は行動軌跡が前記第2エリアの少なくとも一部と重複するように、前記第1オブジェクトの行動範囲又は行動軌跡を設定するステップを含む、項目(2)に記載の情報処理方法。
(3) The step (e1)
The information according to item (2), including the step of setting the action range or action trajectory of the first object so that the action range or action trajectory of the first object overlaps at least a part of the second area. Processing method.

上記方法によれば、仮想空間におけるユーザと第1オブジェクトとの間のインタラクションを確実に生じさせることが可能となる。   According to the above method, it is possible to reliably cause an interaction between the user and the first object in the virtual space.

(4)(f)前記第2エリアの範囲と、前記ユーザの射程範囲に基づいて前記ユーザの作用範囲を特定するステップをさらに含み、
前記ステップ(e1)は、
前記第1オブジェクトの行動範囲又は行動軌跡が前記作用範囲の少なくとも一部と重複するように、前記第1オブジェクトの行動範囲又は行動軌跡を設定するステップを含む、項目(2)に記載の情報処理方法。
(4) (f) further comprising the step of specifying the user's action range based on the range of the second area and the range of the user's range,
The step (e1)
The information processing according to item (2), including the step of setting the action range or action trajectory of the first object so that the action range or action trajectory of the first object overlaps at least a part of the action range. Method.

上記方法によれば、仮想空間におけるユーザと第1オブジェクトとの間のインタラクションを確実に生じさせることが可能となる。   According to the above method, it is possible to reliably cause an interaction between the user and the first object in the virtual space.

(5)(g)前記ユーザの身体の一部の動きに応じて操作オブジェクトを動かすステップをさらに含み、
前記ユーザの射程範囲は、前記操作オブジェクトによって操作される作用オブジェクトの射程範囲である、項目(4)に記載の情報処理方法。
(5) (g) further including a step of moving the operation object in accordance with a movement of a part of the user's body,
The information processing method according to item (4), wherein the range of the user is a range of an action object operated by the operation object.

上記方法によれば、仮想空間におけるユーザと第1オブジェクトとの間のインタラクションを確実に生じさせることが可能となる。   According to the above method, it is possible to reliably cause an interaction between the user and the first object in the virtual space.

(6)(g)前記ユーザの身体の一部の動きに応じて操作オブジェクトを動かすステップと、
(h)前記ユーザの操作に応じて、複数の候補オブジェクトから前記操作オブジェクトによって操作される作用オブジェクトを特定するステップと、
(i)前記第2エリアの範囲と、前記複数の候補オブジェクトの射程範囲のうちの最大の射程範囲とに基づいて、前記ユーザの最大作用範囲を特定するステップと、
をさらに含み、
前記ステップ(e1)は、
前記第1オブジェクトの行動範囲又は行動軌跡が前記最大作用範囲の少なくとも一部と重複するように、前記第1オブジェクトの行動範囲又は行動軌跡を設定するステップを含む、項目(2)に記載の情報処理方法。
(6) (g) moving the operation object in accordance with the movement of a part of the user's body;
(H) identifying an action object operated by the operation object from a plurality of candidate objects according to the operation of the user;
(I) identifying the maximum action range of the user based on the range of the second area and the maximum range of the range of the plurality of candidate objects;
Further including
The step (e1)
The information according to item (2), including the step of setting the action range or action trajectory of the first object so that the action range or action trajectory of the first object overlaps at least a part of the maximum action range. Processing method.

上記方法によれば、複数の候補オブジェクトの中から、適切な射程範囲を有する作用オブジェクトを装備するようにユーザに促すことができるため、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, since the user can be prompted to equip an action object having an appropriate range from a plurality of candidate objects, the entertainment property of the virtual space can be improved.

(7)(g)前記ユーザの身体の一部の動きに応じて操作オブジェクトを動かすステップをさらに含み、
前記ステップ(e)は、
(e2)前記第2エリアの範囲に応じて、前記操作オブジェクトによって操作される作用オブジェクトの射程範囲を設定するステップを含む、項目(1)に記載の情報処理方法。
(7) (g) further includes a step of moving the operation object in accordance with a movement of a part of the user's body,
The step (e)
(E2) The information processing method according to item (1), including a step of setting a range of an action object operated by the operation object according to the range of the second area.

上記方法によれば、ユーザと第1オブジェクトとの間のインタラクションを確実に生じさせることが可能となる。   According to the above method, it is possible to reliably cause an interaction between the user and the first object.

(8)項目(1)から(7)のうちのいずれか一項に記載の情報処理方法をコンピュータに実行させるための情報処理プログラム。   (8) An information processing program for causing a computer to execute the information processing method according to any one of items (1) to (7).

上記によれば、リッチな仮想体験をユーザに提供することが可能な情報処理プログラムを提供することができる。   According to the above, it is possible to provide an information processing program that can provide a rich virtual experience to a user.

(9)プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は、項目(1)から(7)のうちのいずれか一項に記載の情報処理方法を実行する、情報処理装置。
(9) a processor;
An information processing apparatus comprising a memory for storing computer-readable instructions,
When the computer readable instruction is executed by the processor, the information processing apparatus executes the information processing method according to any one of items (1) to (7).

上記によれば、リッチな仮想体験をユーザに提供することが可能な情報処理装置を提供することができる。   According to the above, it is possible to provide an information processing apparatus that can provide a rich virtual experience to a user.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

最初に、図1を参照してユーザ端末1の構成について説明する。図1は、ユーザ端末1を示す概略図である。図1に示すように、ユーザ端末1は、ユーザUの頭部に装着されたヘッドマウントデバイス(HMD)110と、ヘッドフォン116と、マイク118と、位置センサ130と、外部コントローラ320と、制御装置120とを備える。   First, the configuration of the user terminal 1 will be described with reference to FIG. FIG. 1 is a schematic diagram showing a user terminal 1. As shown in FIG. 1, the user terminal 1 includes a head mounted device (HMD) 110, a headphone 116, a microphone 118, a position sensor 130, an external controller 320, and a control device mounted on the head of the user U. 120.

HMD110は、表示部112と、HMDセンサ114と、注視センサ140とを備えている。表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。尚、表示部112は、ユーザUの左目に画像を提供するように構成された左目用表示部と、ユーザUの右目に画像を提供するように構成された右目用表示部とから構成されてもよい。また、HMD110は、透過型の表示装置を備えてもよい。この場合、透過型の表示装置は、その透過率を調整することで、一時的に非透過型の表示装置として構成されてもよい。   The HMD 110 includes a display unit 112, an HMD sensor 114, and a gaze sensor 140. The display unit 112 includes a non-transmissive display device configured to completely cover the field of view (field of view) of the user U wearing the HMD 110. Thereby, the user U can immerse in the virtual space by viewing only the visual field image displayed on the display unit 112. The display unit 112 includes a left-eye display unit configured to provide an image to the user U's left eye and a right-eye display unit configured to provide an image to the user U's right eye. Also good. Further, the HMD 110 may include a transmissive display device. In this case, the transmissive display device may be temporarily configured as a non-transmissive display device by adjusting the transmittance.

HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動き(傾き等)を検出することができる。   The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (such as an angular velocity sensor and a gyro sensor), and detects various movements (tilt and the like) of the HMD 110 mounted on the user U's head. be able to.

注視センサ140は、ユーザUの視線を検出するアイトラッキング機能を有する。注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。   The gaze sensor 140 has an eye tracking function that detects the line of sight of the user U. The gaze sensor 140 may include, for example, a right eye gaze sensor and a left eye gaze sensor. The right eye gaze sensor irradiates, for example, infrared light to the right eye of the user U, and detects reflected light reflected from the right eye (particularly the cornea and iris), thereby acquiring information related to the rotation angle of the right eye's eyeball. May be. On the other hand, the left eye gaze sensor irradiates the left eye of the user U with, for example, infrared light, and detects reflected light reflected from the left eye (particularly the cornea and iris), thereby providing information on the rotation angle of the left eye's eyeball. May be obtained.

ヘッドフォン116は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドフォン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。マイク118は、ユーザUから発声された音声を収集し、当該収集された音声に基づいて音声データ(電気信号)を生成するように構成されている。さらに、マイク118は、音声データを制御装置120に送信するように構成されている。   The headphones 116 are respectively attached to the left ear and the right ear of the user U. The headphones 116 are configured to receive audio data (electrical signals) from the control device 120 and output audio based on the received audio data. The microphone 118 is configured to collect the voice uttered by the user U and generate voice data (electrical signal) based on the collected voice. Furthermore, the microphone 118 is configured to transmit audio data to the control device 120.

位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110と外部コントローラ320の位置を検出するように構成されている。位置センサ130は、制御装置120に無線又は有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾き又は発光強度に関する情報を検出するように構成されている。さらに、位置センサ130は、外部コントローラ320に設けられた図示しない複数の検知点の位置、傾き及び/又は発光強度に関する情報を検出するように構成されている。検知点は、例えば、赤外線や可視光を放射する発光部である。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。   The position sensor 130 is configured by, for example, a position tracking camera, and is configured to detect the positions of the HMD 110 and the external controller 320. The position sensor 130 is communicably connected to the control device 120 by wireless or wired communication, and is configured to detect information on the position, inclination, or light emission intensity of a plurality of detection points (not shown) provided in the HMD 110. . Further, the position sensor 130 is configured to detect information on the position, inclination and / or light emission intensity of a plurality of detection points (not shown) provided in the external controller 320. The detection point is, for example, a light emitting unit that emits infrared light or visible light. The position sensor 130 may include an infrared sensor and a plurality of optical cameras.

外部コントローラ320は、ユーザUの身体の一部(頭部以外の部位であり、本実施形態においてはユーザUの手)の動きを検知することにより、仮想空間内に表示される手オブジェクトの動作を制御するために使用される。外部コントローラ320は、ユーザUの右手によって操作される右手用外部コントローラ320R(以下、単にコントローラ320Rという。)と、ユーザUの左手によって操作される左手用外部コントローラ320L(以下、単にコントローラ320Lという。)と、を有する。   The external controller 320 detects the movement of a part of the body of the user U (a part other than the head, which is the user U's hand in the present embodiment), thereby moving the hand object displayed in the virtual space. Used to control. The external controller 320 is an external controller 320R for right hand operated by the right hand of the user U (hereinafter simply referred to as controller 320R) and an external controller 320L for left hand operated by the left hand of the user U (hereinafter simply referred to as controller 320L). And).

コントローラ320Rは、ユーザUの右手の位置や右手の指の動きを示す装置であって、右手の指によって操作される複数の操作ボタンを備えてもよい。コントローラ320Rの動きに応じて仮想空間内に存在する右手オブジェクト400R(図10(b)参照)が動く。例えば、ユーザUがコントローラ320Rの所定の操作ボタンを押すことで、右手オブジェクト400Rの所定の指が折れ曲がる一方、ユーザUがコントローラ320Rの所定の操作ボタンを離すことで、右手オブジェクト400Rの所定の指が伸びてもよい。このように、コントローラ320Rの操作ボタンに対する操作に応じて右手オブジェクト400Rの指が制御されてもよい。   The controller 320R is a device that indicates the position of the right hand of the user U and the movement of the finger of the right hand, and may include a plurality of operation buttons that are operated by the finger of the right hand. The right-hand object 400R (see FIG. 10B) existing in the virtual space moves according to the movement of the controller 320R. For example, when the user U presses a predetermined operation button of the controller 320R, the predetermined finger of the right hand object 400R bends, while when the user U releases the predetermined operation button of the controller 320R, the predetermined finger of the right hand object 400R May extend. As described above, the finger of the right hand object 400R may be controlled in accordance with an operation on the operation button of the controller 320R.

コントローラ320Lは、ユーザUの左手の位置や左手の指の動きを示す装置であって、左手の指によって操作される複数の操作ボタンを備えてもよい。コントローラ320Lの動きに応じて仮想空間内に存在する左手オブジェクト400L(図10(b)参照)が動く。例えば、ユーザUがコントローラ320Lの所定の操作ボタンを押すことで、左手オブジェクト400Lの所定の指が折れ曲がる一方、ユーザUがコントローラ320Lの所定の操作ボタンを離すことで、左手オブジェクトの所定の指が伸びてもよい。このように、コントローラ320Lの操作ボタンに対する操作に応じて左手オブジェクト400Lの指が制御されてもよい。   The controller 320L is a device that indicates the position of the left hand of the user U and the movement of the finger of the left hand, and may include a plurality of operation buttons operated by the finger of the left hand. The left hand object 400L (see FIG. 10B) that exists in the virtual space moves according to the movement of the controller 320L. For example, when the user U presses a predetermined operation button of the controller 320L, the predetermined finger of the left hand object 400L bends, while when the user U releases the predetermined operation button of the controller 320L, the predetermined finger of the left hand object moves. It may stretch. As described above, the finger of the left hand object 400L may be controlled in accordance with an operation on the operation button of the controller 320L.

制御装置120は、HMD110を制御するように構成されたコンピュータである。制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を特定し、当該特定された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。さらに、制御装置120は、位置センサ130及び/又は外部コントローラ320から送信された情報に基づいて、外部コントローラ320の動作を特定し、当該特定された外部コントローラ320の動作に基づいて、仮想空間内に表示される手オブジェクトの動作と現実空間における外部コントローラ320の動作を正確に対応付けることができる。特に、制御装置120は、位置センサ130及び/又はコントローラ320Lから送信された情報に基づいて、コントローラ320Lの動作を特定し、当該特定されたコントローラ320Lの動作に基づいて、仮想空間内に表示される左手オブジェクトの動作と現実空間におけるコントローラ320Lの動作(ユーザUの左手の動作)を正確に対応付けることができる。同様に、制御装置120は、位置センサ及び/コントローラ320Rから送信された情報に基づいて、コントローラ320Rの動作を特定し、当該特定されたコントローラ320Rの動作に基づいて、仮想空間内に表示される右手オブジェクトの動作と現実空間におけるコントローラ320Rの動作(ユーザUの右手の動作)を正確に対応付けることができる。   The control device 120 is a computer configured to control the HMD 110. The control device 120 identifies the position information of the HMD 110 based on the information acquired from the position sensor 130, and installs the position of the virtual camera in the virtual space and the HMD 110 in the real space based on the identified position information. Thus, the position of the user U can be accurately associated. Furthermore, the control device 120 identifies the operation of the external controller 320 based on the information transmitted from the position sensor 130 and / or the external controller 320, and in the virtual space based on the identified operation of the external controller 320. The motion of the hand object displayed on the screen can be accurately associated with the motion of the external controller 320 in the real space. In particular, the control device 120 identifies the operation of the controller 320L based on information transmitted from the position sensor 130 and / or the controller 320L, and is displayed in the virtual space based on the identified operation of the controller 320L. The motion of the left hand object and the motion of the controller 320L in the real space (the motion of the left hand of the user U) can be accurately associated with each other. Similarly, the control device 120 identifies the operation of the controller 320R based on the information transmitted from the position sensor and / or the controller 320R, and is displayed in the virtual space based on the identified operation of the controller 320R. The movement of the right hand object and the movement of the controller 320R in the real space (the movement of the right hand of the user U) can be accurately associated.

また、制御装置120は、注視センサ140(左目用注視センサと右目用注視センサ)から送信された情報に基づいて、ユーザUの右目の視線と左目の視線をそれぞれ特定し、当該右目の視線と当該左目の視線の交点である注視点を特定することができる。さらに、制御装置120は、特定された注視点に基づいて、ユーザUの両目の視線(ユーザUの視線)を特定することができる。ここで、ユーザUの視線は、ユーザUの両目の視線であって、ユーザUの右目と左目を結ぶ線分の中点と注視点を通る直線の方向に一致する。   Further, the control device 120 specifies the gaze of the right eye and the gaze of the left eye of the user U based on the information transmitted from the gaze sensor 140 (the left eye gaze sensor and the right eye gaze sensor), and the right eye gaze. It is possible to specify the point of gaze that is the intersection of the left eye gaze. Furthermore, the control device 120 can specify the line of sight of both eyes of the user U (the line of sight of the user U) based on the specified gazing point. Here, the line of sight of the user U is the line of sight of both eyes of the user U, and coincides with the direction of a straight line passing through the middle point of the line connecting the right eye and the left eye of the user U and the gazing point.

次に、図2を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図2は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130及び/又はHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交しHMD110の中心を通る方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130及び/又はHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、仮想カメラの視軸を制御するための角度情報を決定する。   Next, with reference to FIG. 2, a method for acquiring information related to the position and inclination of the HMD 110 will be described. FIG. 2 is a diagram illustrating the head of the user U wearing the HMD 110. Information on the position and inclination of the HMD 110 that is linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands up is defined as the v-axis, the direction orthogonal to the v-axis and passing through the center of the HMD 110 is defined as the w-axis, and the direction orthogonal to the v-axis and the w-axis is defined as the u-axis. The position sensor 130 and / or the HMD sensor 114 is an angle around each uvw axis (that is, a yaw angle indicating rotation around the v axis, a pitch angle indicating rotation around the u axis, and a center around the w axis). The inclination determined by the roll angle indicating rotation) is detected. The control device 120 determines angle information for controlling the visual axis of the virtual camera based on the detected angle change around each uvw axis.

次に、図3を参照することで、制御装置120のハードウェア構成について説明する。図3は、制御装置120のハードウェア構成を示す図である。図3に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125は、バス126を介して互いに通信可能に接続されている。   Next, the hardware configuration of the control device 120 will be described with reference to FIG. FIG. 3 is a diagram illustrating a hardware configuration of the control device 120. As shown in FIG. 3, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are connected to each other via a bus 126 so as to communicate with each other.

制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレット又はウェアラブルデバイスとして構成されてもよいし、HMD110に内蔵されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。   The control device 120 may be configured as a personal computer, a tablet, or a wearable device separately from the HMD 110, or may be built in the HMD 110. In addition, some functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.

制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。   The control unit 121 includes a memory and a processor. The memory includes, for example, a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit), and a program specified from various programs embedded in the ROM is expanded on the RAM. It is comprised so that various processes may be performed in cooperation with.

特に、プロセッサが制御プログラムをRAM上に展開し、RAMとの協働で制御プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、視野画像データに基づいてHMD110の表示部112に視野画像を表示する。これにより、ユーザUは、仮想空間に没入することができる。   In particular, the control unit 121 may control various operations of the control device 120 by a processor developing a control program on a RAM and executing the control program in cooperation with the RAM. The control unit 121 displays a field image on the display unit 112 of the HMD 110 based on the field image data. Thereby, the user U can be immersed in the virtual space.

記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現するための制御プログラムを格納してもよい。また、記憶部123には、ユーザUの認証プログラムや各種画像やオブジェクトに関するデータが格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。   The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, or a control program for realizing sharing of a virtual space by a plurality of users. In addition, the storage unit 123 may store an authentication program of the user U and data regarding various images and objects. Furthermore, a database including tables for managing various data may be constructed in the storage unit 123.

I/Oインターフェース124は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とをそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。尚、制御装置120は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とのそれぞれと無線接続されていてもよい。   The I / O interface 124 is configured to connect the position sensor 130, the HMD 110, the external controller 320, the headphones 116, and the microphone 118 to the control device 120 so that they can communicate with each other, for example, a USB (Universal) The terminal includes a serial bus (D) terminal, a digital visual interface (DVI) terminal, a high-definition multimedia interface (HDMI) (registered trademark) terminal, and the like. The control device 120 may be wirelessly connected to each of the position sensor 130, the HMD 110, the external controller 320, the headphones 116, and the microphone 118.

通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)又はインターネット等の通信ネットワーク30に接続させるように構成されている。通信インターフェース125は、通信ネットワーク30を介してサーバ等の外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク30を介して通信するための通信規格に適合するように構成されている。   The communication interface 125 is configured to connect the control device 120 to a communication network 30 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with an external device such as a server via the communication network 30 and various processing circuits for wireless connection, for communicating via the communication network 30. It is configured to conform to the communication standard.

次に、図4を参照して外部コントローラ320の具体的構成の一例について説明する。コントローラ320Rとコントローラ320Lは略同一の構成を有するので、以下では、図4を参照してコントローラ320Rの具体的構成についてのみ説明する。尚、以降の説明では、便宜上、コントローラ320L,320Rを単に外部コントローラ320と総称する場合がある。   Next, an example of a specific configuration of the external controller 320 will be described with reference to FIG. Since the controller 320R and the controller 320L have substantially the same configuration, only the specific configuration of the controller 320R will be described below with reference to FIG. In the following description, the controllers 320L and 320R may be simply referred to as the external controller 320 for convenience.

図4に示すように、コントローラ320Rは、操作ボタン302と、複数の検知点304と、図示しないセンサと、図示しないトランシーバとを備える。検知点304とセンサは、どちらか一方のみが設けられていてもよい。操作ボタン302は、ユーザUからの操作入力を受付けるように構成された複数のボタン群により構成されている。操作ボタン302は、プッシュ式ボタン、トリガー式ボタン及びアナログスティックを含む。プッシュ式ボタンは、親指による押下する動作によって操作されるボタンである。例えば、天面322上に2つのプッシュ式ボタン302a,302bが設けられている。トリガー式ボタンは、人差し指や中指で引き金を引くような動作によって操作されるボタンである。例えば、グリップ324の前面部分にトリガー式ボタン302eが設けられると共に、グリップ324の側面部分にトリガー式ボタン302fが設けられる。トリガー式ボタン302e,302fは、人差し指と中指によってそれぞれ操作される。アナログスティックは、所定のニュートラル位置から360度任意の方向へ傾けて操作されうるスティック型のボタンである。例えば、天面322上にアナログスティック320iが設けられており、親指を用いて操作される。   As shown in FIG. 4, the controller 320R includes an operation button 302, a plurality of detection points 304, a sensor (not shown), and a transceiver (not shown). Only one of the detection point 304 and the sensor may be provided. The operation button 302 includes a plurality of button groups configured to accept an operation input from the user U. The operation button 302 includes a push button, a trigger button, and an analog stick. The push-type button is a button operated by an operation of pressing with a thumb. For example, two push buttons 302 a and 302 b are provided on the top surface 322. The trigger type button is a button operated by an operation of pulling a trigger with an index finger or a middle finger. For example, a trigger button 302 e is provided on the front surface portion of the grip 324, and a trigger button 302 f is provided on the side surface portion of the grip 324. The trigger type buttons 302e and 302f are operated by the index finger and the middle finger, respectively. The analog stick is a stick-type button that can be operated by being tilted 360 degrees from a predetermined neutral position in an arbitrary direction. For example, an analog stick 320i is provided on the top surface 322, and is operated using a thumb.

コントローラ320Rは、グリップ324の両側面から天面322とは反対側の方向へ延びて半円状のリングを形成するフレーム326を備える。フレーム326の外側面には、複数の検知点304が埋め込まれている。複数の検知点304は、例えば、フレーム326の円周方向に沿って一列に並んだ複数の赤外線LEDである。位置センサ130は、複数の検知点304の位置、傾き又は発光強度に関する情報を検出した後に、制御装置120は、位置センサ130によって検出された情報に基づいて、コントローラ320Rの位置や姿勢(傾き・向き)に関する情報を取得する。   The controller 320R includes a frame 326 that extends from both side surfaces of the grip 324 in a direction opposite to the top surface 322 to form a semicircular ring. A plurality of detection points 304 are embedded on the outer surface of the frame 326. The plurality of detection points 304 are, for example, a plurality of infrared LEDs arranged in a line along the circumferential direction of the frame 326. After the position sensor 130 detects information on the position, inclination, or light emission intensity of the plurality of detection points 304, the control device 120 detects the position or orientation (inclination / posture) of the controller 320R based on the information detected by the position sensor 130. Get information about (orientation).

コントローラ320Rのセンサは、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせであってもよい。センサは、ユーザUがコントローラ320Rを動かしたときに、コントローラ320Rの向きや位置に応じた信号(例えば、磁気、角速度、又は加速度に関する情報を示す信号)を出力する。制御装置120は、センサから出力された信号に基づいて、コントローラ320Rの位置や姿勢に関する情報を取得する。   The sensor of the controller 320R may be, for example, a magnetic sensor, an angular velocity sensor, an acceleration sensor, or a combination thereof. When the user U moves the controller 320R, the sensor outputs a signal (for example, a signal indicating information related to magnetism, angular velocity, or acceleration) according to the orientation and position of the controller 320R. The control device 120 acquires information related to the position and orientation of the controller 320R based on the signal output from the sensor.

コントローラ320Rのトランシーバは、コントローラ320Rと制御装置120との間でデータを送受信するように構成されている。例えば、トランシーバは、ユーザUの操作入力に対応する操作信号を制御装置120に送信してもよい。また、トランシーバは、検知点304の発光をコントローラ320Rに指示する指示信号を制御装置120から受信してもよい。さらに、トランシーバは、センサによって検出された値を示す信号を制御装置120に送信してもよい。   The transceiver of the controller 320R is configured to transmit and receive data between the controller 320R and the control device 120. For example, the transceiver may transmit an operation signal corresponding to the operation input of the user U to the control device 120. The transceiver may receive an instruction signal for instructing the controller 320 </ b> R to emit light at the detection point 304 from the control device 120. Further, the transceiver may send a signal to the controller 120 indicating the value detected by the sensor.

次に、図5から図8を参照することで視野画像をHMD110に表示するための処理について説明する。図5は、視野画像をHMD110に表示する処理を示すフローチャートである。図6は、仮想空間200の一例を示すxyz空間図である。図7の状態(a)は、図6に示す仮想空間200のyx平面図である。図7の状態(b)は、図6に示す仮想空間200のzx平面図である。図8は、HMD110に表示された視野画像Vの一例を示す図である。   Next, processing for displaying a field-of-view image on the HMD 110 will be described with reference to FIGS. FIG. 5 is a flowchart showing a process for displaying the visual field image on the HMD 110. FIG. 6 is an xyz space diagram showing an example of the virtual space 200. The state (a) in FIG. 7 is a yx plan view of the virtual space 200 shown in FIG. The state (b) in FIG. 7 is a zx plan view of the virtual space 200 shown in FIG. FIG. 8 is a diagram illustrating an example of the visual field image V displayed on the HMD 110.

図5に示すように、ステップS1において、制御部121(図3参照)は、仮想カメラ300と、各種オブジェクトとを含む仮想空間200を示す仮想空間データを生成する。図6に示すように、仮想空間200は、中心位置210を中心とした全天球として規定される(図6では、上半分の天球のみが図示されている)。また、仮想空間200では、中心位置210を原点とするxyz座標系が設定されている。仮想カメラ300は、HMD110に表示される視野画像V(図8参照)を特定するための視軸Lを規定している。仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、制御部121は、仮想カメラ300を仮想空間200内で移動させてもよい。   As shown in FIG. 5, in step S1, the control unit 121 (see FIG. 3) generates virtual space data indicating the virtual space 200 including the virtual camera 300 and various objects. As shown in FIG. 6, the virtual space 200 is defined as an omnidirectional sphere centered on the center position 210 (in FIG. 6, only the upper half celestial sphere is shown). In the virtual space 200, an xyz coordinate system with the center position 210 as the origin is set. The virtual camera 300 defines a visual axis L for specifying the visual field image V (see FIG. 8) displayed on the HMD 110. The uvw coordinate system that defines the visual field of the virtual camera 300 is determined so as to be linked to the uvw coordinate system that is defined around the head of the user U in the real space. Further, the control unit 121 may move the virtual camera 300 in the virtual space 200 in conjunction with the movement of the user U wearing the HMD 110 in the real space.

次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図7参照)を特定する。具体的には、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを特定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸Lを決定し、決定された視軸Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域に相当する(換言すれば、HMD110に表示される仮想空間200の一部の領域に相当する)。また、視野CVは、図7の状態(a)に示すxy平面において、視軸Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図7の状態(b)に示すxz平面において、視軸Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。尚、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいてユーザUの視線を特定し、特定されたユーザUの視線とHMD110の位置や傾きに関する情報に基づいて、仮想カメラ300の向き(仮想カメラの野軸L)を決定してもよい。   Next, in step S <b> 2, the control unit 121 specifies the field of view CV (see FIG. 7) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 identifies the position and orientation of the virtual camera 300 in the virtual space 200 based on information regarding the position and tilt of the HMD 110. Next, the control unit 121 determines the visual axis L of the virtual camera 300 from the position and orientation of the virtual camera 300 and specifies the visual field CV of the virtual camera 300 from the determined visual axis L. Here, the visual field CV of the virtual camera 300 corresponds to a part of the virtual space 200 visible to the user U wearing the HMD 110 (in other words, a part of the virtual space 200 displayed on the HMD 110). Equivalent to Further, the visual field CV includes a first region CVa set as an angular range of the polar angle α around the visual axis L in the xy plane shown in the state (a) of FIG. 7, and the state (b) of FIG. 7. The xz plane shown has a second region CVb set as an angle range of the azimuth angle β with the visual axis L as the center. The control unit 121 identifies the line of sight of the user U based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140, and based on the information regarding the identified line of sight of the user U and the position and inclination of the HMD 110. The orientation of the virtual camera 300 (virtual camera field axis L) may be determined.

このように、制御部121は、位置センサ130及び/又はHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを更新することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを更新することができる。同様に、ユーザUの視線が変化すると、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいて、仮想カメラ300の視野CVを更新してもよい。つまり、制御部121は、ユーザUの視線の変化に応じて、視野CVを変化させてもよい。   As described above, the control unit 121 can specify the visual field CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U wearing the HMD 110 moves, the control unit 121 updates the visual field CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can update the visual field CV according to the movement of the HMD 110. Similarly, when the line of sight of the user U changes, the control unit 121 may update the visual field CV of the virtual camera 300 based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140. That is, the control unit 121 may change the visual field CV according to the change in the line of sight of the user U.

次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像Vを示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。   Next, in step S <b> 3, the control unit 121 generates visual field image data indicating the visual field image V displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300.

次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像Vを表示する(図8参照)。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110の表示部112に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。   Next, in step S4, the control unit 121 displays the field image V on the display unit 112 of the HMD 110 based on the field image data (see FIG. 8). As described above, the visual field CV of the virtual camera 300 is changed according to the movement of the user U wearing the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110 is changed. I can immerse myself in 200.

尚、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成する。さらに、制御部121は、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。その後、制御部121は、左目用視野画像データに基づいて、左目用表示部に左目用の視野画像を表示すると共に、右目用視野画像データに基づいて、右目用表示部に右目用の視野画像を表示する。このようにして、ユーザUは、左目用視野画像と右目用視野画像との間の視差により、視野画像を3次元的に視認することができる。尚、仮想カメラは、後述するように、ユーザによって操作されるアバターの目の位置に配置されてもよい。例えば、左目用仮想カメラは、アバターの左目に配置される一方で、右目用仮想カメラは、アバターの右目に配置されてもよい。   Note that the virtual camera 300 may include a left-eye virtual camera and a right-eye virtual camera. In this case, the control unit 121 generates left-eye view image data indicating the left-eye view image based on the virtual space data and the view of the left-eye virtual camera. Further, the control unit 121 generates right-eye view image data indicating a right-eye view image based on the virtual space data and the view of the right-eye virtual camera. Thereafter, the control unit 121 displays the left-eye field image on the left-eye display unit based on the left-eye field image data, and also displays the right-eye field image on the right-eye display unit based on the right-eye field image data. Is displayed. In this way, the user U can visually recognize the visual field image three-dimensionally due to the parallax between the left-eye visual field image and the right-eye visual field image. As will be described later, the virtual camera may be arranged at the position of the avatar eye operated by the user. For example, the left-eye virtual camera may be placed in the left eye of the avatar, while the right-eye virtual camera may be placed in the right eye of the avatar.

また、図5に示すステップS1〜S4の処理は1フレーム(動画を構成する静止画像)毎に実行されてもよい。例えば、動画のフレームレートが90fpsである場合、ステップS1〜S4の処理はΔT=1/90(秒)間隔で繰り返し実行されてもよい。このように、ステップS1〜S4の処理が所定間隔ごとに繰り返し実行されるため、HMD110の動作に応じて仮想カメラ300の視野が更新されると共に、HMD110の表示部112に表示される視野画像Vが更新される。   Further, the processes in steps S1 to S4 shown in FIG. 5 may be executed for each frame (a still image constituting a moving image). For example, when the frame rate of the moving image is 90 fps, the processes in steps S1 to S4 may be repeatedly executed at intervals of ΔT = 1/90 (seconds). As described above, since the processes in steps S1 to S4 are repeatedly performed at predetermined intervals, the visual field of the virtual camera 300 is updated according to the operation of the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110. Is updated.

(第1実施形態)
次に、図9から図11を参照して本開示の第1実施形態(以下、単に第1実施形態という。)について以下に説明する。図9は、第1実施形態に係る情報処理方法の一例を説明するためのフローチャートである。図10の状態(a)は、現実空間における第1プレイエリアA1(第1エリアの一例)を示す図である。図10の状態(b)は、仮想空間200における第2プレイエリアA2(第2エリアの一例)を示す図である。図11の状態(a)は、敵キャラクタオブジェクトECの行動範囲S1が第2プレイエリアA2の一部と重複する様子を示す図である。図11の状態(b)は、敵キャラクタオブジェクトECの行動軌跡P1が第2プレイエリアA2の一部と重複する様子を示す図である。
(First embodiment)
Next, a first embodiment of the present disclosure (hereinafter simply referred to as the first embodiment) will be described below with reference to FIGS. 9 to 11. FIG. 9 is a flowchart for explaining an example of the information processing method according to the first embodiment. The state (a) in FIG. 10 is a diagram showing the first play area A1 (an example of the first area) in the real space. The state (b) of FIG. 10 is a diagram showing the second play area A2 (an example of the second area) in the virtual space 200. The state (a) in FIG. 11 is a diagram showing a state where the action range S1 of the enemy character object EC overlaps with a part of the second play area A2. The state (b) of FIG. 11 is a diagram showing a state where the action trajectory P1 of the enemy character object EC overlaps with a part of the second play area A2.

図9に示すように、ステップS10において、制御部121(図3参照)は、現実空間におけるユーザUの行動範囲を規定する第1プレイエリアA1を特定する。図10の状態(a)に示すように、制御部121は、対角線上に配置された2つの位置センサ130a,130bの検出可能領域に基づいて第1プレイエリアA1を自動的に特定してもよい。ここで、位置センサ130a,130bは、既に説明した位置センサ130と同一の構成及び機能を有するものとする。ユーザUが位置センサ130a(130b)の検出可能領域内に存在する場合、位置センサ130a(130b)は、ユーザUの動き(HMD110の動きや外部コントローラ320の動き)を検出することができる。一方、ユーザUが位置センサ130a(130b)の検出可能領域外に存在する場合、位置センサ130a(130b)は、ユーザUの動き(HMD110の動きや外部コントローラ320の動き)を検出することができない。第1プレイエリアA1は、位置センサ130aの検出可能領域と位置センサ130bの検出可能領域とを合成した検出可能領域の内側に設けられてもよい。また、第1プレイエリアA1は、ユーザUによって指定されてもよい。この場合、制御部121は、ユーザUの入力操作に応じて、第1プレイエリアA1を特定してもよい。   As shown in FIG. 9, in step S10, the control unit 121 (see FIG. 3) specifies the first play area A1 that defines the action range of the user U in the real space. As shown in the state (a) of FIG. 10, the control unit 121 may automatically identify the first play area A1 based on the detectable areas of the two position sensors 130a and 130b arranged on the diagonal line. Good. Here, it is assumed that the position sensors 130a and 130b have the same configuration and function as the position sensor 130 described above. When the user U exists within the detectable region of the position sensor 130a (130b), the position sensor 130a (130b) can detect the movement of the user U (the movement of the HMD 110 or the movement of the external controller 320). On the other hand, when the user U exists outside the detectable region of the position sensor 130a (130b), the position sensor 130a (130b) cannot detect the movement of the user U (the movement of the HMD 110 or the movement of the external controller 320). . The first play area A1 may be provided inside a detectable area obtained by combining the detectable area of the position sensor 130a and the detectable area of the position sensor 130b. The first play area A1 may be specified by the user U. In this case, the control unit 121 may specify the first play area A1 according to the input operation of the user U.

また、ユーザUが第1プレイエリアA1の外側に移動した場合に、ヘッドフォン116から警告音が出力されてもよいし、又は視野画像上に警告情報が表示されてもよい。具体的には、制御部121は、位置センサ130a,130bによって取得されたデータに基づいて、ユーザUが第1プレイエリアAの外側に位置していると判定した場合、ヘッドフォン116から警告音を出力させてもよいし、又はHMD110に警告情報を表示させてもよい。   Further, when the user U moves outside the first play area A1, a warning sound may be output from the headphones 116, or warning information may be displayed on the visual field image. Specifically, when the control unit 121 determines that the user U is located outside the first play area A based on the data acquired by the position sensors 130a and 130b, the control unit 121 generates a warning sound from the headphones 116. The warning information may be displayed on the HMD 110.

次に、ステップS11において、制御部121は、仮想空間200において、第1プレイエリアA1に相当する第2プレイエリアA2を特定する。図10の状態(b)に示すように、仮想空間200は、仮想カメラ300と、左手オブジェクト400L(操作オブジェクトの一例)と、右手オブジェクト400R(操作オブジェクトの一例)と、敵キャラクタオブジェクトEC(第1オブジェクトの一例)を含む。   Next, in step S11, the control unit 121 specifies a second play area A2 corresponding to the first play area A1 in the virtual space 200. As shown in the state (b) of FIG. 10, the virtual space 200 includes a virtual camera 300, a left hand object 400L (an example of an operation object), a right hand object 400R (an example of an operation object), and an enemy character object EC (first object). An example of one object).

仮想カメラ300は、既に説明したように、ユーザUの視野を規定する。制御部121は、仮想空間200を規定する仮想空間データを生成した上で、ユーザUの頭部に装着されたHMD110の動きに応じて仮想カメラ300の視野を更新する。その後、制御部121は、仮想カメラ300の視野と仮想空間200を示す仮想空間データに基づいて、HMD110に表示される視野画像V(図8参照)を示す視野画像データを更新する。   As described above, the virtual camera 300 defines the field of view of the user U. The control unit 121 generates virtual space data defining the virtual space 200 and then updates the field of view of the virtual camera 300 according to the movement of the HMD 110 attached to the user U's head. Thereafter, the control unit 121 updates the visual field image data indicating the visual field image V (see FIG. 8) displayed on the HMD 110 based on the virtual space data indicating the visual field of the virtual camera 300 and the virtual space 200.

左手オブジェクト400Lは、ユーザUの左手の動きを示すオブジェクトである。制御部121は、ユーザUの左手の動きを示すコントローラ320L(図1参照)の動きに応じて、仮想空間200A内で左手オブジェクト400Lを動かす。特に、制御部121は、位置センサ130及び/又はコントローラ320Lから送信された情報に基づいて、コントローラ320Lの動作を特定し、当該特定されたコントローラ320Lの動作に基づいて、左手オブジェクト400Lの動作とコントローラ320Lの動作(ユーザUの左手の動作)を正確に対応付ける。例えば、制御部121は、コントローラ320Lの移動に応じて左手オブジェクト400Lを移動させると共に、コントローラ320Lの操作ボタンに対する操作に応じて左手オブジェクト400Lの指を動かしてもよい。   The left hand object 400L is an object that indicates the movement of the left hand of the user U. The control unit 121 moves the left hand object 400L in the virtual space 200A according to the movement of the controller 320L (see FIG. 1) indicating the movement of the user U's left hand. In particular, the control unit 121 specifies the operation of the controller 320L based on the information transmitted from the position sensor 130 and / or the controller 320L, and determines the operation of the left hand object 400L based on the specified operation of the controller 320L. The operation of the controller 320L (the operation of the left hand of the user U) is accurately associated. For example, the control unit 121 may move the left hand object 400L according to the movement of the controller 320L and move the finger of the left hand object 400L according to an operation on the operation button of the controller 320L.

右手オブジェクト400Rは、ユーザUの右手の動きを示すオブジェクトである。制御部121は、ユーザUの右手の動きを示すコントローラ320R(図1参照)の動きに応じて、仮想空間200A内で右手オブジェクト400Rを動かす。特に、制御部121は、位置センサ130及び/又はコントローラ320Rから送信された情報に基づいて、コントローラ320Rの動作を特定し、当該特定されたコントローラ320Rの動作に基づいて、右手オブジェクト400Rの動作とコントローラ320Rの動作(ユーザUの右手の動作)を正確に対応付ける。例えば、制御部121は、コントローラ320Rの移動に応じて右手オブジェクト400Rを移動させると共に、コントローラ320Rの操作ボタンに対する操作に応じて右手オブジェクト400Rの指を動かしてもよい。   The right hand object 400R is an object that indicates the movement of the right hand of the user U. The control unit 121 moves the right hand object 400R in the virtual space 200A according to the movement of the controller 320R (see FIG. 1) indicating the movement of the user U's right hand. In particular, the control unit 121 specifies the operation of the controller 320R based on the information transmitted from the position sensor 130 and / or the controller 320R, and determines the operation of the right hand object 400R based on the specified operation of the controller 320R. The operation of the controller 320R (the operation of the right hand of the user U) is accurately associated. For example, the control unit 121 may move the right hand object 400R according to the movement of the controller 320R and move the finger of the right hand object 400R according to an operation on the operation button of the controller 320R.

敵キャラクタオブジェクトECは、例えば、仮想空間200においてユーザU(ユーザUのアバター)に攻撃を仕掛けるオブジェクトである。仮想空間200において、ユーザUと敵キャラクタオブジェクトECとの間のインタラクション(相互作用)によって、ユーザUと敵キャラクタオブジェクトECとの間のコリジョン効果が発生する。例えば、ユーザUと敵キャラクタオブジェクトECとの間のインタラクションによって、ユーザUは敵キャラクタオブジェクトECにダメージを与えることができる。一方、当該インタラクションによって、ユーザUは敵キャラクタオブジェクトECによってダメージを受ける。また、敵キャラクタオブジェクトECの動作は、制御部121(プロセッサ)によって制御されてもよい。   The enemy character object EC is an object that attacks the user U (user U's avatar) in the virtual space 200, for example. In the virtual space 200, a collision effect between the user U and the enemy character object EC is generated by the interaction (interaction) between the user U and the enemy character object EC. For example, the user U can damage the enemy character object EC due to the interaction between the user U and the enemy character object EC. On the other hand, the user U is damaged by the enemy character object EC due to the interaction. Further, the operation of the enemy character object EC may be controlled by the control unit 121 (processor).

第2プレイエリアA2は、仮想空間200におけるユーザUの行動範囲を規定するエリアである。ユーザU(ユーザUのアバター)は、第2プレイエリアA2内を移動できる一方で、第2プレイエリアA2の外側に移動することはできない。第2プレイエリアA2の範囲は、第1プレイエリアA1の範囲に基づいて決定される。例えば、第2プレイエリアA2の範囲は、第1プレイエリアA1の範囲に等しくてもよい。さらに、第1プレイエリアA1の範囲が小さくなる又は大きくなるに連れて、第2プレイエリアA2の範囲が小さくなる又は大きくなる。   The second play area A2 is an area that defines the action range of the user U in the virtual space 200. The user U (user U's avatar) can move in the second play area A2, but cannot move outside the second play area A2. The range of the second play area A2 is determined based on the range of the first play area A1. For example, the range of the second play area A2 may be equal to the range of the first play area A1. Furthermore, as the range of the first play area A1 becomes smaller or larger, the range of the second play area A2 becomes smaller or larger.

次に、ステップS12において、制御部121は、敵キャラクタオブジェクトECの行動範囲S1が第2プレイエリアA2の少なくとも一部と重複するように、敵キャラクタオブジェクトECの行動範囲S1を設定する。図11の状態(a)に示すように、敵キャラクタオブジェクトECの行動範囲S1は、第2プレイエリアA2の一部と重複している。このように、第1実施形態によれば、第2プレイエリアA2の範囲に応じて、敵キャラクタオブジェクトECの行動範囲S1が設定されるので、仮想空間200におけるユーザUと敵キャラクタオブジェクトECとの間のインタラクションを確実に生じさせることが可能となる。特に、敵キャラクタオブジェクトECの行動範囲S1が第2プレイエリアA2に重複する場合、ユーザUが敵キャラクタオブジェクトECを攻撃できないといった不都合を回避することが可能となる。このように、リッチな仮想空間をユーザUに提供することが可能となる。制御部121は、行動範囲S1が第2プレイエリアA2の少なくとも一部と重複するように仮想空間データを調整した後に、ユーザUと敵キャラクタオブジェクトECとの間の戦いを開始させてもよい。   Next, in step S12, the control unit 121 sets the action range S1 of the enemy character object EC so that the action range S1 of the enemy character object EC overlaps at least a part of the second play area A2. As shown in the state (a) of FIG. 11, the action range S1 of the enemy character object EC overlaps with a part of the second play area A2. Thus, according to the first embodiment, the action range S1 of the enemy character object EC is set according to the range of the second play area A2, so that the user U and the enemy character object EC in the virtual space 200 are set. It is possible to reliably cause an interaction between the two. In particular, when the action range S1 of the enemy character object EC overlaps with the second play area A2, it is possible to avoid the inconvenience that the user U cannot attack the enemy character object EC. In this way, a rich virtual space can be provided to the user U. The control unit 121 may start the battle between the user U and the enemy character object EC after adjusting the virtual space data so that the action range S1 overlaps at least a part of the second play area A2.

また、図11の状態(b)に示すように、制御部121は、敵キャラクタオブジェクトECの行動軌跡P1が第2プレイエリアA2の少なくとも一部と重複するように、行動軌跡P1を設定してもよい。この場合も同様に、第2プレイエリアA2の範囲に応じて、行動軌跡P1が設定されるので、仮想空間200におけるユーザUと敵キャラクタオブジェクトECとの間のインタラクションを確実に生じさせることが可能となる。   Further, as shown in the state (b) of FIG. 11, the control unit 121 sets the action trajectory P1 so that the action trajectory P1 of the enemy character object EC overlaps at least a part of the second play area A2. Also good. In this case as well, since the action trajectory P1 is set according to the range of the second play area A2, it is possible to reliably cause an interaction between the user U and the enemy character object EC in the virtual space 200. It becomes.

尚、図11に示す例では、行動範囲S1又は行動軌跡P1の一部が第2プレイエリアA2の一部に重複しているが、行動範囲S1又は行動軌跡P1の全部が第2プレイエリアA2の一部に重複してもよい。さらに、行動範囲S1又は行動軌跡P1の一部が第2プレイエリアA2の全部に重複してもよい。   In the example shown in FIG. 11, a part of the action range S1 or the action trajectory P1 overlaps a part of the second play area A2, but the entire action range S1 or the action trajectory P1 is the second play area A2. It may overlap with a part of. Furthermore, a part of the action range S1 or the action locus P1 may overlap the entire second play area A2.

また、敵キャラクタオブジェクトECの行動範囲S1は、初期設定値としての行動範囲S0を有してもよい。この場合、ステップS12において、制御部121は、敵キャラクタオブジェクトECの行動範囲S0が第2プレイエリアA2に重複しているかどうかを判定してもよい。その後、制御部121は、行動範囲S0が第2プレイエリアA2に重複していると判定した場合、ユーザUと敵キャラクタオブジェクトECとの間の戦いを開始させてもよい。一方、制御部121は、行動範囲S0が第2プレイエリアA2に重複していないと判定した場合、敵キャラクタオブジェクトECの行動範囲S1が第2プレイエリアA2の少なくとも一部と重複するように行動範囲S1を設定してもよい。   The action range S1 of the enemy character object EC may have an action range S0 as an initial setting value. In this case, in step S12, the control unit 121 may determine whether or not the action range S0 of the enemy character object EC overlaps the second play area A2. Thereafter, when it is determined that the action range S0 overlaps the second play area A2, the control unit 121 may start a battle between the user U and the enemy character object EC. On the other hand, if the control unit 121 determines that the action range S0 does not overlap with the second play area A2, the action is performed so that the action range S1 of the enemy character object EC overlaps at least a part of the second play area A2. The range S1 may be set.

(第2実施形態)
次に、図12及び図13を参照して本開示の第2実施形態(以下、単に第2実施形態という。)について以下に説明する。図12は、第2実施形態に係る情報処理方法の一例を説明するためのフローチャートである。図13は、敵キャラクタオブジェクトECの行動範囲S1がユーザUの攻撃範囲C1の一部と重複する様子を示す図である。
(Second Embodiment)
Next, a second embodiment of the present disclosure (hereinafter simply referred to as the second embodiment) will be described below with reference to FIGS. 12 and 13. FIG. 12 is a flowchart for explaining an example of the information processing method according to the second embodiment. FIG. 13 is a diagram illustrating a state in which the action range S1 of the enemy character object EC overlaps with a part of the attack range C1 of the user U.

図12に示すように、ステップS20において、制御部121は、現実空間における第1プレイエリアA1を特定する。次に、制御部121は、仮想空間200における第2プレイエリアA2を特定する(ステップS21)。ステップS22において、制御部121は、ユーザUの入力操作に従って、ユーザUによって所持されると共に、ユーザUに装備可能な複数の武器オブジェクト(候補オブジェクトの一例)から装備する武器オブジェクト(作用オブジェクトの一例)を特定する。第2実施形態の説明では、剣オブジェクト500(作用オブジェクトの一例)が複数の武器オブジェクトから選択され、ユーザUに装備されるものとする。この場合、図13に示すように、剣オブジェクト500は、左手オブジェクト400Lによって操作される。尚、剣オブジェクト500は、右手オブジェクト400Rによって操作されてもよい。ユーザUは、左手を動かすことで、剣オブジェクト500を操作することができると共に、剣オブジェクト500を操作することで敵キャラクタオブジェクトECにダメージを与えることができる。   As shown in FIG. 12, in step S20, the control unit 121 specifies the first play area A1 in the real space. Next, the control part 121 specifies 2nd play area A2 in the virtual space 200 (step S21). In step S <b> 22, the control unit 121 is equipped with a weapon object (an example of an action object) equipped from a plurality of weapon objects (an example of a candidate object) that is possessed by the user U and can be equipped on the user U according to an input operation of the user U. ). In the description of the second embodiment, it is assumed that the sword object 500 (an example of an action object) is selected from a plurality of weapon objects and is equipped to the user U. In this case, as shown in FIG. 13, the sword object 500 is operated by the left hand object 400L. The sword object 500 may be operated by the right hand object 400R. The user U can operate the sword object 500 by moving the left hand, and can also damage the enemy character object EC by operating the sword object 500.

次に、ステップS23において、制御部121は、装備した武器オブジェクトである剣オブジェクト500の射程範囲R1を特定する。この点において、各武器オブジェクトは、攻撃力や射程範囲等の属性情報を有しているため、制御部121は、剣オブジェクト500の属性情報に基づいて剣オブジェクト500の射程範囲R1を特定してもよい。剣オブジェクト500の射程範囲R1は、ユーザUの射程範囲に等しい。   Next, in step S23, the control unit 121 specifies the range R1 of the sword object 500 that is the equipped weapon object. In this regard, since each weapon object has attribute information such as attack power and range, the control unit 121 specifies the range R1 of the sword object 500 based on the attribute information of the sword object 500. Also good. The range R1 of the sword object 500 is equal to the range of the user U.

ステップS24において、制御部121は、第2プレイエリアA2と、剣オブジェクト500の射程範囲R1(ユーザUの射程範囲)に基づいて、ユーザUの攻撃範囲C1(ユーザUの作用範囲の一例)を特定する。ユーザUの攻撃範囲C1とは、ユーザUが剣オブジェクト500を用いて敵キャラクタオブジェクトECを攻撃することができる範囲をいう。図13に示すように、ユーザUが第2プレイエリアA2の境界線上に位置するときの剣オブジェクト500の射程範囲R1の境界線の一部がユーザUの攻撃範囲C1の境界線を形成する。装備した武器オブジェクトの射程範囲が大きく(又は小さく)なるに連れて、ユーザUの攻撃範囲C1は大きく(又は小さく)なる。   In step S24, the control unit 121 determines the attack range C1 of the user U (an example of the range of action of the user U) based on the second play area A2 and the range R1 of the sword object 500 (the range of the user U). Identify. The attack range C1 of the user U is a range in which the user U can attack the enemy character object EC using the sword object 500. As shown in FIG. 13, a part of the boundary line of the range R1 of the sword object 500 when the user U is positioned on the boundary line of the second play area A2 forms the boundary line of the attack range C1 of the user U. As the range of the equipped weapon object increases (or decreases), the attack range C1 of the user U increases (or decreases).

次に、ステップS25において、制御部121は、敵キャラクタオブジェクトECの行動範囲S1がユーザUの攻撃範囲C1の少なくとも一部と重複するように、敵キャラクタオブジェクトECの行動範囲S1を設定する。図13に示すように、行動範囲S1は、攻撃範囲C1の一部と重複している。このように、第2実施形態によれば、攻撃範囲C1に応じて、行動範囲S1が設定されるので、仮想空間200におけるユーザUと敵キャラクタオブジェクトECとの間のインタラクションを確実に生じさせることが可能となる。特に、行動範囲S1が攻撃範囲C1に重複する場合、ユーザUが敵キャラクタオブジェクトECを攻撃できないといった不都合を回避することが可能となる。このように、リッチな仮想空間をユーザUに提供することが可能となる。制御部121は、行動範囲S1が攻撃範囲C1の少なくとも一部と重複するように仮想空間データを調整した後に、ユーザUと敵キャラクタオブジェクトECとの間の戦いを開始させてもよい。   Next, in step S25, the control unit 121 sets the action range S1 of the enemy character object EC so that the action range S1 of the enemy character object EC overlaps at least a part of the attack range C1 of the user U. As shown in FIG. 13, the action range S1 overlaps with a part of the attack range C1. Thus, according to the second embodiment, since the action range S1 is set according to the attack range C1, it is possible to reliably cause an interaction between the user U and the enemy character object EC in the virtual space 200. Is possible. In particular, when the action range S1 overlaps the attack range C1, it is possible to avoid the inconvenience that the user U cannot attack the enemy character object EC. In this way, a rich virtual space can be provided to the user U. The control unit 121 may start the battle between the user U and the enemy character object EC after adjusting the virtual space data so that the action range S1 overlaps at least a part of the attack range C1.

また、図11の状態(b)に示すように、制御部121は、敵キャラクタオブジェクトECの行動軌跡P1が攻撃範囲C1の少なくとも一部と重複するように、行動軌跡P1を設定してもよい。この場合も同様に、攻撃範囲C1に応じて、行動軌跡P1が設定されるので、仮想空間200におけるユーザUと敵キャラクタオブジェクトECとの間のインタラクションを確実に生じさせることが可能となる。   Further, as shown in the state (b) of FIG. 11, the control unit 121 may set the action trajectory P1 so that the action trajectory P1 of the enemy character object EC overlaps at least a part of the attack range C1. . In this case as well, since the action locus P1 is set according to the attack range C1, it is possible to surely cause an interaction between the user U and the enemy character object EC in the virtual space 200.

尚、図13に示す例では、行動範囲S1の一部が攻撃範囲C1の一部に重複しているが、行動範囲S1の全部が攻撃範囲C1の一部に重複してもよい。さらに、行動範囲S1の一部が攻撃範囲C1の全部に重複してもよい。   In the example shown in FIG. 13, part of the action range S1 overlaps with part of the attack range C1, but all of the action range S1 may overlap with part of the attack range C1. Furthermore, a part of the action range S1 may overlap the entire attack range C1.

また、敵キャラクタオブジェクトECの行動範囲S1は、初期設定値としての行動範囲S0を有してもよい。この場合、ステップS25において、制御部121は、敵キャラクタオブジェクトECの行動範囲S0が攻撃範囲C1に重複しているかどうかを判定してもよい。その後、制御部121は、行動範囲S0が攻撃範囲C1に重複していると判定した場合、ユーザUと敵キャラクタオブジェクトECとの間の戦いを開始させてもよい。一方、制御部121は、行動範囲S0が攻撃範囲C1に重複していないと判定した場合、敵キャラクタオブジェクトECの行動範囲S1が攻撃範囲C1の少なくとも一部と重複するように行動範囲S1を設定してもよい。   The action range S1 of the enemy character object EC may have an action range S0 as an initial setting value. In this case, in step S25, the control unit 121 may determine whether or not the action range S0 of the enemy character object EC overlaps the attack range C1. Thereafter, when it is determined that the action range S0 overlaps the attack range C1, the control unit 121 may start a battle between the user U and the enemy character object EC. On the other hand, when the control unit 121 determines that the action range S0 does not overlap with the attack range C1, the control unit 121 sets the action range S1 so that the action range S1 of the enemy character object EC overlaps at least a part of the attack range C1. May be.

(第3実施形態)
次に、図14及び図15を参照して本開示の第3実施形態(以下、単に第3実施形態という。)について以下に説明する。図14は、第3実施形態に係る情報処理方法の一例を説明するためのフローチャートである。図15の状態(a)は、敵キャラクタオブジェクトECの行動範囲S1がユーザUの最大攻撃範囲C2の一部と重複する様子を示す図である。図15の状態(b)は、敵キャラクタオブジェクトECの行動範囲S1がユーザUの攻撃範囲C1と重複しない様子を示す図である。
(Third embodiment)
Next, a third embodiment of the present disclosure (hereinafter simply referred to as a third embodiment) will be described below with reference to FIGS. 14 and 15. FIG. 14 is a flowchart for explaining an example of the information processing method according to the third embodiment. The state (a) of FIG. 15 is a diagram showing a state where the action range S1 of the enemy character object EC overlaps with a part of the maximum attack range C2 of the user U. The state (b) of FIG. 15 is a diagram showing a state where the action range S1 of the enemy character object EC does not overlap with the attack range C1 of the user U.

図14に示すように、ステップS30において、制御部121は、現実空間における第1プレイエリアA1を特定する。次に、制御部121は、仮想空間200における第2プレイエリアA2を特定する(ステップS31)。ステップS32において、制御部121は、ユーザUに所持されると共に、ユーザUに装備可能な複数の武器オブジェクトから装備する武器オブジェクトを特定する。第3実施形態の説明では、ユーザUは、剣オブジェクト500と槍オブジェクト(図示せず)の2つの武器オブジェクトを所持しており、剣オブジェクト500又は槍オブジェクトを装備可能であるものとする(つまり、剣オブジェクト500と槍オブジェクトは、候補オブジェクトの一例である)。さらに、剣オブジェクト500と槍オブジェクトの中から剣オブジェクト500(作用オブジェクトの一例)が装選択されて、ユーザUに装備されるものとする。図15に示すように、仮想空間200において、ユーザUは、剣オブジェクト500を装備しており、剣オブジェクト500は左手オブジェクト400Lによって操作される。   As shown in FIG. 14, in step S30, the control unit 121 specifies the first play area A1 in the real space. Next, the control unit 121 specifies the second play area A2 in the virtual space 200 (step S31). In step S <b> 32, the control unit 121 specifies a weapon object to be equipped from a plurality of weapon objects that are possessed by the user U and can be equipped by the user U. In the description of the third embodiment, it is assumed that the user U has two weapon objects, a sword object 500 and a spear object (not shown), and can equip the sword object 500 or the spear object (that is, The sword object 500 and the spear object are examples of candidate objects). Furthermore, it is assumed that the sword object 500 (an example of an action object) is selected from the sword object 500 and the spear object and is mounted on the user U. As shown in FIG. 15, in the virtual space 200, the user U is equipped with a sword object 500, and the sword object 500 is operated by the left hand object 400L.

次に、ステップS33において、制御部121は、複数の武器オブジェクトの射程範囲のうち最大の射程範囲を特定する。ここで、槍オブジェクトの射程範囲R2は、剣オブジェクト500の射程範囲R1よりも大きいものとする。この場合、制御部121は、剣オブジェクト500の属性情報に基づいて剣オブジェクト500の射程範囲R1を特定すると共に、槍オブジェクトの属性情報に基づいて槍オブジェクトの射程範囲R2を特定する。その後、制御部121は、剣オブジェクト500の射程範囲R1と槍オブジェクトの射程範囲R2を比較することで、最大の射程範囲として槍オブジェクトの射程範囲R2を特定する。   Next, in step S33, the control unit 121 identifies the maximum range of the range of the plurality of weapon objects. Here, the range R2 of the spear object is assumed to be larger than the range R1 of the sword object 500. In this case, the control unit 121 specifies the range R1 of the sword object 500 based on the attribute information of the sword object 500, and specifies the range R2 of the spear object based on the attribute information of the spear object. After that, the control unit 121 compares the range R1 of the sword object 500 with the range R2 of the spear object to identify the range R2 of the spear object as the maximum range.

ステップS34において、制御部121は、第2プレイエリアA2と、槍オブジェクトの射程範囲R2(候補オブジェクトの最大射程範囲)に基づいて、ユーザの最大攻撃範囲C2(ユーザUの最大作用範囲の一例)を特定する。ユーザUの最大攻撃範囲C2とは、ユーザUが最大射程範囲を有する槍オブジェクトを用いて敵キャラクタオブジェクトECを攻撃することができる範囲をいう。図15の状態(a)に示すように、ユーザUが第2プレイエリアA2の境界線上に位置するときの槍オブジェクトの射程範囲R2の境界線の一部がユーザUの最大攻撃範囲C2の境界線を形成する。   In step S34, the control unit 121 determines the maximum attack range C2 of the user (an example of the maximum action range of the user U) based on the second play area A2 and the range R2 (maximum range of the candidate object) of the spear object Is identified. The maximum attack range C2 of the user U refers to a range in which the user U can attack the enemy character object EC using the trap object having the maximum range. As shown in the state (a) of FIG. 15, when the user U is positioned on the boundary line of the second play area A2, a part of the boundary line of the range R2 of the heel object is the boundary of the maximum attack range C2 of the user U Form a line.

次に、ステップS35において、制御部121は、敵キャラクタオブジェクトECの行動範囲S1がユーザUの最大攻撃範囲C2の少なくとも一部に重複するように、敵キャラクタオブジェクトECの行動範囲S1を設定する。図15の状態(a)に示すように、行動範囲S1は、最大攻撃範囲C2の一部と重複している。一方、図15の状態(b)に示すように、行動範囲S1は、装備した剣オブジェクト500の射程範囲R1と第2プレイエリアA2に基づいて特定されるユーザUの攻撃範囲C1とは重複しなくてもよい。このように、第3実施形態によれば、最大攻撃範囲C2に応じて、行動範囲S1が設定されるので、仮想空間200におけるユーザUと敵キャラクタオブジェクトECとの間のインタラクションを確実に生じさせることが可能となる。特に、行動範囲S1と最大攻撃範囲C2に重複する場合、ユーザUが敵キャラクタオブジェクトECを攻撃できないといった不都合を回避することが可能となる。さらに、複数の武器オブジェクトから適切な射程範囲を有する武器オブジェクトを装備するようにユーザUに促すことができるため、仮想空間200のエンターテイメント性を向上させることができる。制御部121は、行動範囲S1が最大攻撃範囲C2の少なくとも一部と重複するように仮想空間データを調整した後に、ユーザUと敵キャラクタオブジェクトECとの間の戦いを開始させてもよい。   Next, in step S35, the control unit 121 sets the action range S1 of the enemy character object EC so that the action range S1 of the enemy character object EC overlaps at least a part of the maximum attack range C2 of the user U. As shown in the state (a) of FIG. 15, the action range S1 overlaps with a part of the maximum attack range C2. On the other hand, as shown in the state (b) of FIG. 15, the action range S1 overlaps the range R1 of the equipped sword object 500 and the attack range C1 of the user U specified based on the second play area A2. It does not have to be. As described above, according to the third embodiment, since the action range S1 is set according to the maximum attack range C2, an interaction between the user U and the enemy character object EC in the virtual space 200 is surely generated. It becomes possible. In particular, when the action range S1 and the maximum attack range C2 overlap, it is possible to avoid the inconvenience that the user U cannot attack the enemy character object EC. Furthermore, since the user U can be prompted to equip a weapon object having an appropriate range from a plurality of weapon objects, the entertainment property of the virtual space 200 can be improved. The control unit 121 may start the battle between the user U and the enemy character object EC after adjusting the virtual space data so that the action range S1 overlaps at least a part of the maximum attack range C2.

また、図11の状態(b)に示すように、制御部121は、敵キャラクタオブジェクトECの行動軌跡P1が最大攻撃範囲C2の少なくとも一部と重複するように、行動軌跡P1を設定してもよい。この場合も同様に、最大攻撃範囲C2に応じて、行動軌跡P1が設定されるので、仮想空間200におけるユーザUと敵キャラクタオブジェクトECとの間のインタラクションを確実に生じさせることが可能となる。   Further, as shown in the state (b) of FIG. 11, the control unit 121 sets the action trajectory P1 so that the action trajectory P1 of the enemy character object EC overlaps at least a part of the maximum attack range C2. Good. In this case as well, since the action locus P1 is set according to the maximum attack range C2, it is possible to surely cause an interaction between the user U and the enemy character object EC in the virtual space 200.

尚、図15の状態(a)に示す例では、行動範囲S1の一部が最大攻撃範囲C2の一部に重複しているが、行動範囲S1の全部が最大攻撃範囲C2の一部に重複してもよい。さらに、行動範囲S1の一部が最大攻撃範囲C2の全部に重複してもよい。   In the example shown in the state (a) of FIG. 15, a part of the action range S1 overlaps with a part of the maximum attack range C2, but the entire action range S1 overlaps with a part of the maximum attack range C2. May be. Furthermore, a part of the action range S1 may overlap the entire maximum attack range C2.

また、敵キャラクタオブジェクトECの行動範囲S1は、初期設定値としての行動範囲S0を有してもよい。この場合、ステップS35において、制御部121は、敵キャラクタオブジェクトECの行動範囲S0が最大攻撃範囲C2に重複しているかどうかを判定してもよい。その後、制御部121は、行動範囲S0が最大攻撃範囲C2に重複していると判定した場合、ユーザUと敵キャラクタオブジェクトECとの間の戦いを開始させてもよい。一方、制御部121は、行動範囲S0が最大攻撃範囲C2に重複していないと判定した場合、敵キャラクタオブジェクトECの行動範囲S1が最大攻撃範囲C2の少なくとも一部と重複するように行動範囲S1を設定してもよい。   The action range S1 of the enemy character object EC may have an action range S0 as an initial setting value. In this case, in step S35, the control unit 121 may determine whether or not the action range S0 of the enemy character object EC overlaps the maximum attack range C2. Thereafter, when it is determined that the action range S0 overlaps the maximum attack range C2, the control unit 121 may start a battle between the user U and the enemy character object EC. On the other hand, if the control unit 121 determines that the action range S0 does not overlap the maximum attack range C2, the action range S1 so that the action range S1 of the enemy character object EC overlaps at least a part of the maximum attack range C2. May be set.

(第4実施形態)
次に、図16及び図17を参照して本開示の第4実施形態(以下、単に第4実施形態という。)について以下に説明する。図16は、第4実施形態に係る情報処理方法の一例を説明するためのフローチャートである。図17の状態(a)は、敵キャラクタオブジェクトECの行動範囲S1がユーザUの攻撃範囲C1と重複しない様子を示す図である。図17の状態(b)は、装備された剣オブジェクト500の射程範囲R1が大きくなることで敵キャラクタオブジェクトECの行動範囲S1がユーザUの攻撃範囲C1と重複する様子を示す図である。
(Fourth embodiment)
Next, a fourth embodiment of the present disclosure (hereinafter simply referred to as the fourth embodiment) will be described below with reference to FIGS. 16 and 17. FIG. 16 is a flowchart for explaining an example of the information processing method according to the fourth embodiment. The state (a) of FIG. 17 is a diagram illustrating a state where the action range S1 of the enemy character object EC does not overlap with the attack range C1 of the user U. The state (b) of FIG. 17 is a diagram showing a state where the action range S1 of the enemy character object EC overlaps the attack range C1 of the user U as the range R1 of the equipped sword object 500 increases.

図16に示すように、ステップS40において、制御部121は、現実空間における第1プレイエリアA1を特定する。次に、制御部121は、仮想空間200における第2プレイエリアA2を特定する(ステップS41)。ステップS42において、制御部121は、ユーザUに所持されると共に、ユーザUに装備可能な複数の武器オブジェクト(複数の候補オブジェクトの一例)から装備する武器オブジェクト(作用オブジェクトの一例)を特定する。第4実施形態の説明では、複数の武器オブジェクトから剣オブジェクト500が選択され、ユーザUにより装備されるものとする。   As shown in FIG. 16, in step S40, the control unit 121 specifies the first play area A1 in the real space. Next, the control part 121 specifies 2nd play area A2 in the virtual space 200 (step S41). In step S <b> 42, the control unit 121 specifies a weapon object (an example of an action object) to be equipped from a plurality of weapon objects (an example of a plurality of candidate objects) possessed by the user U and equipable to the user U. In the description of the fourth embodiment, it is assumed that the sword object 500 is selected from a plurality of weapon objects and is equipped by the user U.

次に、ステップS43において、制御部121は、敵キャラクタオブジェクトECの行動範囲S1がユーザUの攻撃範囲C1の少なくとも一部と重複するように、装備した剣オブジェクト500の射程範囲R1を設定する。このように、第4実施形態では、行動範囲S1ではなく、射程範囲R1が設定される点で第1〜3実施形態とは異なる。図17の状態(a)に示すように、剣オブジェクト500の属性情報に基づいて特定された剣オブジェクト500の射程範囲R1の場合、敵キャラクタオブジェクトECの行動範囲S1は、第2プレイエリアA2と射程範囲R1に基づいて特定されるユーザUの攻撃範囲C1とは重複しない。一方、図17の状態(b)に示すように、制御部121は、剣オブジェクト500の射程範囲R1を大きくすることで、ユーザUの攻撃範囲C1を大きくすることができる。この結果、敵キャラクタオブジェクトECの行動範囲S1をユーザUの攻撃範囲C1の少なくとも一部に重複させることが可能となる。   Next, in step S43, the control unit 121 sets the range R1 of the equipped sword object 500 so that the action range S1 of the enemy character object EC overlaps at least a part of the attack range C1 of the user U. As described above, the fourth embodiment differs from the first to third embodiments in that the range R1 is set instead of the action range S1. As shown in the state (a) of FIG. 17, in the range R1 of the sword object 500 specified based on the attribute information of the sword object 500, the action range S1 of the enemy character object EC is the second play area A2. It does not overlap with the attack range C1 of the user U specified based on the range R1. On the other hand, as shown in the state (b) of FIG. 17, the control unit 121 can increase the attack range C1 of the user U by increasing the range R1 of the sword object 500. As a result, the action range S1 of the enemy character object EC can be overlapped with at least a part of the attack range C1 of the user U.

従って、第4実施形態によれば、第2プレイエリアA2の範囲に応じて、剣オブジェクト500の射程範囲R1が設定されるので、仮想空間200におけるユーザUと敵キャラクタオブジェクトECとの間のインタラクションを確実に生じさせることが可能となる。特に、行動範囲S1が攻撃範囲C1に重複する場合、ユーザUが敵キャラクタオブジェクトECを攻撃できないといった不都合を回避することが可能となる。このように、リッチな仮想空間をユーザUに提供することが可能となる。制御部121は、行動範囲S1が攻撃範囲C1の少なくとも一部と重複するように仮想空間データを調整した後に、ユーザUと敵キャラクタオブジェクトECとの間の戦いを開始させてもよい。   Therefore, according to the fourth embodiment, since the range R1 of the sword object 500 is set according to the range of the second play area A2, the interaction between the user U and the enemy character object EC in the virtual space 200 is set. Can be reliably generated. In particular, when the action range S1 overlaps the attack range C1, it is possible to avoid the inconvenience that the user U cannot attack the enemy character object EC. In this way, a rich virtual space can be provided to the user U. The control unit 121 may start the battle between the user U and the enemy character object EC after adjusting the virtual space data so that the action range S1 overlaps at least a part of the attack range C1.

また、図11の状態(b)に示すように、制御部121は、敵キャラクタオブジェクトECの行動軌跡P1が攻撃範囲C1の少なくとも一部と重複するように、剣オブジェクト500の射程範囲R1の大きさを変更してもよい。この場合も同様に、第2プレイエリアA2の範囲に応じて、射程範囲R1が設定されるので、仮想空間200におけるユーザUと敵キャラクタオブジェクトECとの間のインタラクションを確実に生じさせることが可能となる。   Further, as shown in the state (b) of FIG. 11, the control unit 121 increases the range R1 of the sword object 500 so that the action trajectory P1 of the enemy character object EC overlaps at least a part of the attack range C1. You may change the size. Similarly, in this case, since the range R1 is set according to the range of the second play area A2, it is possible to reliably cause an interaction between the user U and the enemy character object EC in the virtual space 200. It becomes.

尚、図17の状態(b)に示す例では、行動範囲S1の一部が攻撃範囲C1の一部に重複しているが、行動範囲S1の全部が攻撃範囲C1の一部に重複してもよい。さらに、行動範囲S1の一部が攻撃範囲C1の全部に重複してもよい。   In the example shown in the state (b) of FIG. 17, a part of the action range S1 overlaps with a part of the attack range C1, but the whole action range S1 overlaps with a part of the attack range C1. Also good. Furthermore, a part of the action range S1 may overlap the entire attack range C1.

また、ユーザ端末1の制御部121によって実行される各種処理をソフトウェアによって実現するために、各種処理をコンピュータ(プロセッサ)に実行させるための制御プログラムが記憶部123又はメモリに予め組み込まれていてもよい。または、制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−ray(登録商標)ディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納された制御プログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は各種処理を実行する。   Further, in order to implement various processes executed by the control unit 121 of the user terminal 1 by software, a control program for causing the computer (processor) to execute various processes may be incorporated in the storage unit 123 or the memory in advance. Good. Alternatively, the control program can be a magnetic disk (HDD, floppy disk), optical disk (CD-ROM, DVD-ROM, Blu-ray (registered trademark) disk, etc.), magneto-optical disk (MO, etc.), flash memory (SD card, It may be stored in a computer-readable storage medium such as a USB memory or SSD. In this case, when the storage medium is connected to the control device 120, the control program stored in the storage medium is incorporated into the storage unit 123. The control unit 121 executes various processes by loading the control program incorporated in the storage unit 123 onto the RAM and executing the loaded program.

また、制御プログラムは、通信ネットワーク30上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該制御プログラムが記憶部123に組み込まれる。   The control program may be downloaded from a computer on the communication network 30 via the communication interface 125. Similarly in this case, the downloaded control program is incorporated into the storage unit 123.

以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。   As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.

本実施形態では、ユーザUの手(左手、右手)の動きを示す外部コントローラ320の動きに応じて、手オブジェクト(左手オブジェクト、右手オブジェクト)の移動が制御されているが、ユーザUの手自体の移動量に応じて、仮想空間内における手オブジェクトの移動が制御されてもよい。例えば、外部コントローラを用いる代わりに、ユーザの指に装着されるグローブ型デバイスや指輪型デバイスを用いることで、位置センサ130により、ユーザUの手の位置や移動量を検出することができると共に、ユーザUの指の動きや状態を検出することができる。また、位置センサ130は、ユーザUの手(指を含む)を撮像するように構成されたカメラであってもよい。この場合、カメラを用いてユーザの手を撮像することにより、ユーザの指に直接何らかのデバイスを装着させることなく、ユーザの手が表示された画像に基づいて、ユーザUの手の位置や移動量を検出することができると共に、ユーザUの指の動きや状態を検出することができる。   In this embodiment, the movement of the hand object (left hand object, right hand object) is controlled according to the movement of the external controller 320 indicating the movement of the user U's hand (left hand, right hand). The movement of the hand object in the virtual space may be controlled according to the amount of movement. For example, instead of using an external controller, by using a glove-type device or a ring-type device worn on the user's finger, the position sensor 130 can detect the position and movement amount of the user U's hand, The movement and state of the user U's finger can be detected. Further, the position sensor 130 may be a camera configured to image the user U's hand (including a finger). In this case, the position and amount of movement of the user U's hand can be captured based on the image on which the user's hand is displayed without capturing any device directly on the user's finger by imaging the user's hand using the camera. And the movement and state of the finger of the user U can be detected.

また、本実施形態では、ユーザUの身体の一部である手(左手、右手)の動きに応じて手オブジェクト(左手オブジェクトと右手オブジェクト)が動かされているが、本実施形態はこれには限定されない。例えば、ユーザUの身体の一部であるユーザUの足(左足、右足)の動きに応じて足オブジェクト(左足オブジェクトと右足オブジェクト)が動かされてもよい。また、剣オブジェクト等の武器オブジェクトは、足オブジェクトによって操作されてもよい。   In the present embodiment, hand objects (left hand object and right hand object) are moved according to the movement of the hands (left hand, right hand) that are part of the user U's body. It is not limited. For example, the foot objects (left foot object and right foot object) may be moved according to the movement of the user U's foot (left foot, right foot) which is a part of the user U's body. A weapon object such as a sword object may be operated by a foot object.

本実施形態において、仮想空間は、ユーザにVR(Virtual Reality)、AR(Argumented Reality)及びMR(Mixed Reality)といった、仮想体験を提供するために用いられる。仮想空間がVRを提供する場合、仮想空間の背景にはメモリに保存された背景データが使用される。仮想空間がAR又はMRを提供する場合、仮想空間の背景には現実空間が使用される。この場合、HMD110が透過型の表示装置(光学シースルーまたはビデオシースルー型の表示装置)を備えることにより、現実空間が仮想空間の背景として使用され得る。仮想空間がMRに適用される場合、オブジェクトは、現実空間によって影響を与えられてもよい。このように、仮想空間が背景や仮想オブジェクトといった仮想シーンを少なくとも一部に含むことにより、ユーザには当該仮想シーンとの相互作用が可能な仮想体験が提供され得る。また、仮想空間がAR又はMRに適用される場合、手オブジェクトの代わりにユーザの手が用いられてもよい。この場合、左手オブジェクト400Lに代わりにユーザの左手が仮想空間200に配置されると共に、右手オブジェクト400Rの代わりにユーザの右手が仮想空間200に配置される。また、剣オブジェクト等の武器オブジェクトは、ユーザの左手又は右手によって操作されてもよい。   In this embodiment, the virtual space is used to provide a virtual experience such as VR (Virtual Reality), AR (Arranged Reality), and MR (Mixed Reality) to the user. When the virtual space provides VR, background data stored in the memory is used as the background of the virtual space. When the virtual space provides AR or MR, the real space is used as the background of the virtual space. In this case, the HMD 110 includes a transmissive display device (optical see-through or video see-through display device), so that the real space can be used as the background of the virtual space. If virtual space is applied to MR, the object may be influenced by real space. As described above, when the virtual space includes at least a part of a virtual scene such as a background or a virtual object, the user can be provided with a virtual experience capable of interacting with the virtual scene. When the virtual space is applied to AR or MR, the user's hand may be used instead of the hand object. In this case, the user's left hand is placed in the virtual space 200 instead of the left hand object 400L, and the user's right hand is placed in the virtual space 200 instead of the right hand object 400R. A weapon object such as a sword object may be operated by the left hand or right hand of the user.

1:ユーザ端末
30:通信ネットワーク
110:ヘッドマウントデバイス(HMD)
112:表示部
114:HMDセンサ
116:ヘッドフォン
118:マイク
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130,130a,130b:位置センサ
140:注視センサ
200:仮想空間
210:中心位置
300:仮想カメラ
302:操作ボタン
302a,302b:プッシュ式ボタン
302e,302f:トリガー式ボタン
304:検知点
320:外部コントローラ
320i:アナログスティック
320L:左手用外部コントローラ(コントローラ)
320R:右手用外部コントローラ(コントローラ)
322:天面
324:グリップ
326:フレーム
400L:左手オブジェクト
400R:右手オブジェクト
500:剣オブジェクト
1: User terminal 30: Communication network 110: Head mounted device (HMD)
112: Display unit 114: HMD sensor 116: Headphone 118: Microphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130, 130a, 130b: Position sensor 140: Gaze Sensor 200: Virtual space 210: Center position 300: Virtual camera 302: Operation button 302a, 302b: Push button 302e, 302f: Trigger button 304: Detection point 320: External controller 320i: Analog stick 320L: External controller for left hand ( controller)
320R: External controller for right hand (controller)
322: Top surface 324: Grip 326: Frame 400L: Left hand object 400R: Right hand object 500: Sword object

Claims (8)

(a)第1オブジェクトを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)ユーザの頭部に装着されたヘッドマウントデバイスの動きと前記仮想空間データに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを更新するステップと、
(c)現実空間における第1エリアを特定するステップと、
(d)前記仮想空間において、前記第1エリアに相当する第2エリアを特定するステップと、
(e)前記第2エリアの範囲に応じて、前記仮想空間における前記ユーザと前記第1オブジェクトとの間のインタラクションを可能にするように、前記第1オブジェクトの行動範囲又は行動軌跡を設定するステップと、を含む、プロセッサによって実行される情報処理方法。
(A) generating virtual space data defining a virtual space including the first object;
(B) updating the visual field image data indicating the visual field image displayed on the head mounted device based on the movement of the head mounted device mounted on the user's head and the virtual space data;
(C) identifying a first area in real space;
(D) identifying a second area corresponding to the first area in the virtual space;
(E) setting an action range or action locus of the first object so as to enable interaction between the user and the first object in the virtual space according to the range of the second area; And an information processing method executed by a processor.
前記ステップ(e)は、
前記第1オブジェクトの行動範囲又は行動軌跡が前記第2エリアの少なくとも一部と重複するように、前記第1オブジェクトの行動範囲又は行動軌跡を設定するステップを含む、請求項に記載の情報処理方法。
The step ( e)
The information processing according to claim 1 , further comprising: setting an action range or an action trajectory of the first object so that an action range or an action trajectory of the first object overlaps at least a part of the second area. Method.
(a)第1オブジェクトを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)ユーザの頭部に装着されたヘッドマウントデバイスの動きと前記仮想空間データに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを更新するステップと、
(c)現実空間における第1エリアを特定するステップと、
(d)前記仮想空間において、前記第1エリアに相当する第2エリアを特定するステップと、
(e)前記第2エリアの範囲に応じて、前記仮想空間における前記ユーザと前記第1オブジェクトとの間のインタラクションを可能にするように、前記第1オブジェクトの行動範囲又は行動軌跡を設定するステップと、
(f)前記第2エリアの範囲と、前記ユーザの射程範囲に基づいて前記ユーザの作用範囲を特定するステップと、を含み、
前記ステップ(e)は、
前記第1オブジェクトの行動範囲又は行動軌跡が前記作用範囲の少なくとも一部と重複するように、前記第1オブジェクトの行動範囲又は行動軌跡を設定するステップを含む、プロセッサによって実行される情報処理方法。
(A) generating virtual space data defining a virtual space including the first object;
(B) updating the visual field image data indicating the visual field image displayed on the head mounted device based on the movement of the head mounted device mounted on the user's head and the virtual space data;
(C) identifying a first area in real space;
(D) identifying a second area corresponding to the first area in the virtual space;
(E) setting an action range or action locus of the first object so as to enable interaction between the user and the first object in the virtual space according to the range of the second area; When,
(F) the range of the second area, viewed including the steps of: identifying a working range of the user based on range range of the user,
The step ( e)
An information processing method executed by a processor , comprising: setting an action range or an action locus of the first object so that an action range or an action locus of the first object overlaps at least a part of the action range.
(g)前記ユーザの身体の一部の動きに応じて操作オブジェクトを動かすステップをさらに含み、
前記ユーザの射程範囲は、前記操作オブジェクトによって操作される作用オブジェクトの射程範囲である、請求項に記載の情報処理方法。
(G) further comprising a step of moving an operation object in accordance with a movement of a part of the user's body;
The information processing method according to claim 3 , wherein the range of the user is a range of an action object operated by the operation object.
(a)第1オブジェクトを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)ユーザの頭部に装着されたヘッドマウントデバイスの動きと前記仮想空間データに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを更新するステップと、
(c)現実空間における第1エリアを特定するステップと、
(d)前記仮想空間において、前記第1エリアに相当する第2エリアを特定するステップと、
(e)前記第2エリアの範囲に応じて、前記仮想空間における前記ユーザと前記第1オブジェクトとの間のインタラクションを可能にするように、前記第1オブジェクトの行動範囲又は行動軌跡を設定するステップと、
)前記ユーザの身体の一部の動きに応じて操作オブジェクトを動かすステップと、
)前記ユーザの操作に応じて、複数の候補オブジェクトから前記操作オブジェクトによって操作される作用オブジェクトを特定するステップと、
)前記第2エリアの範囲と、前記複数の候補オブジェクトの射程範囲のうちの最大の射程範囲とに基づいて、前記ユーザの最大作用範囲を特定するステップと、を含み、
前記ステップ(e)は、
前記第1オブジェクトの行動範囲又は行動軌跡が前記最大作用範囲の少なくとも一部と重複するように、前記第1オブジェクトの行動範囲又は行動軌跡を設定するステップを含む、プロセッサによって実行される情報処理方法。
(A) generating virtual space data defining a virtual space including the first object;
(B) updating the visual field image data indicating the visual field image displayed on the head mounted device based on the movement of the head mounted device mounted on the user's head and the virtual space data;
(C) identifying a first area in real space;
(D) identifying a second area corresponding to the first area in the virtual space;
(E) setting an action range or action locus of the first object so as to enable interaction between the user and the first object in the virtual space according to the range of the second area; When,
( F ) moving the operation object in accordance with the movement of a part of the user's body;
( G ) identifying an action object operated by the operation object from a plurality of candidate objects according to the operation of the user;
(H) the extent of the second area, based on the maximum range range of range range of the plurality of candidate objects, seen including the steps of: identifying a maximum working range of the user,
The step ( e)
An information processing method executed by a processor , including the step of setting the action range or action trajectory of the first object so that the action range or action trajectory of the first object overlaps at least a part of the maximum action range. .
(a)第1オブジェクトを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)ユーザの頭部に装着されたヘッドマウントデバイスの動きと前記仮想空間データに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを更新するステップと、
(c)現実空間における第1エリアを特定するステップと、
(d)前記仮想空間において、前記第1エリアに相当する第2エリアを特定するステップと、
(e)前記第2エリアの範囲に応じて、前記仮想空間における前記ユーザと前記第1オブジェクトとの間のインタラクションを可能にするように、前記仮想空間データを調整するステップと、
)前記ユーザの身体の一部の動きに応じて操作オブジェクトを動かすステップと、
を含み、
前記ステップ(e)は、
記第2エリアの範囲に応じて、前記操作オブジェクトによって操作される作用オブジェクトの射程範囲を設定するステップを含む、プロセッサによって実行される情報処理方法。
(A) generating virtual space data defining a virtual space including the first object;
(B) updating the visual field image data indicating the visual field image displayed on the head mounted device based on the movement of the head mounted device mounted on the user's head and the virtual space data;
(C) identifying a first area in real space;
(D) identifying a second area corresponding to the first area in the virtual space;
(E) adjusting the virtual space data to allow interaction between the user and the first object in the virtual space according to a range of the second area;
( F ) moving the operation object in accordance with the movement of a part of the user's body ;
Only including,
The step (e)
Before SL according to the range of the second area, comprising the step of setting a range range of action object being manipulated by the manipulation object, an information processing method performed by a processor.
請求項1からのうちのいずれか一項に記載の情報処理方法をコンピュータに実行させるための情報処理プログラム。 An information processing program for causing a computer to execute the information processing method according to any one of claims 1 to 6 . プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は、請求項1からのうちのいずれか一項に記載の情報処理方法を実行する、情報処理装置。
A processor;
An information processing apparatus comprising a memory for storing computer-readable instructions,
The information processing apparatus that executes the information processing method according to any one of claims 1 to 6 when the computer-readable instruction is executed by the processor.
JP2017137124A 2017-07-13 2017-07-13 Information processing method, information processing program, and information processing apparatus Active JP6403843B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017137124A JP6403843B1 (en) 2017-07-13 2017-07-13 Information processing method, information processing program, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017137124A JP6403843B1 (en) 2017-07-13 2017-07-13 Information processing method, information processing program, and information processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018169230A Division JP2019021331A (en) 2018-09-10 2018-09-10 Information processing method, information processing program and information processing device

Publications (2)

Publication Number Publication Date
JP6403843B1 true JP6403843B1 (en) 2018-10-10
JP2019020905A JP2019020905A (en) 2019-02-07

Family

ID=63788231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017137124A Active JP6403843B1 (en) 2017-07-13 2017-07-13 Information processing method, information processing program, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP6403843B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102393012B1 (en) * 2020-10-07 2022-05-03 주식회사 헬스맥스 method of testing coordination and agility using VR

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165848A (en) * 2003-12-04 2005-06-23 Canon Inc Method and device for presenting augmented reality
JP2011258160A (en) * 2010-06-11 2011-12-22 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2012085736A (en) * 2010-10-18 2012-05-10 Namco Bandai Games Inc Program, information storage medium, and game device
JP6074525B1 (en) * 2016-02-12 2017-02-01 株式会社コロプラ Visual area adjustment method and program in virtual space
US20170154471A1 (en) * 2014-06-26 2017-06-01 Korea Advanced Institute Of Science And Technology Apparatus and method for providing augmented reality interaction service

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165848A (en) * 2003-12-04 2005-06-23 Canon Inc Method and device for presenting augmented reality
JP2011258160A (en) * 2010-06-11 2011-12-22 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2012085736A (en) * 2010-10-18 2012-05-10 Namco Bandai Games Inc Program, information storage medium, and game device
US20170154471A1 (en) * 2014-06-26 2017-06-01 Korea Advanced Institute Of Science And Technology Apparatus and method for providing augmented reality interaction service
JP6074525B1 (en) * 2016-02-12 2017-02-01 株式会社コロプラ Visual area adjustment method and program in virtual space

Also Published As

Publication number Publication date
JP2019020905A (en) 2019-02-07

Similar Documents

Publication Publication Date Title
JP6093473B1 (en) Information processing method and program for causing computer to execute information processing method
JP6058855B1 (en) Information processing method and program for causing computer to execute information processing method
JP6266814B1 (en) Information processing method and program for causing computer to execute information processing method
JP6122537B1 (en) Information processing method and program for causing computer to execute information processing method
WO2018020735A1 (en) Information processing method and program for causing computer to execute information processing method
JP6117414B1 (en) Information processing method and program for causing computer to execute information processing method
JP6220937B1 (en) Information processing method, program for causing computer to execute information processing method, and computer
JP6118444B1 (en) Information processing method and program for causing computer to execute information processing method
JP6207691B1 (en) Information processing method and program for causing computer to execute information processing method
JP6416338B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6535699B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus
JP6289703B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6368404B1 (en) Information processing method, program, and computer
JP6266823B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6159455B1 (en) Method, program, and recording medium for providing virtual space
JP2018120583A (en) Information processing method and program for causing computer to execute the same
JP6449922B2 (en) Information processing method and program for causing computer to execute information processing method
JP6122194B1 (en) Information processing method and program for causing computer to execute information processing method
JP2019021331A (en) Information processing method, information processing program and information processing device
JP2019016358A (en) Information processing method, program and computer
JP6941130B2 (en) Information processing method, information processing program and information processing device
JP2018018499A (en) Information processing method and program for causing computer to execute the method
JP2018029969A (en) Information processing method, and program for allowing computer to execute the information processing method
JP2018185567A (en) Information processing method, information processing program, information processing system and information processing apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180911

R150 Certificate of patent or registration of utility model

Ref document number: 6403843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250