JP7211778B2 - Application processing system, application processing method, and application processing program - Google Patents

Application processing system, application processing method, and application processing program Download PDF

Info

Publication number
JP7211778B2
JP7211778B2 JP2018221981A JP2018221981A JP7211778B2 JP 7211778 B2 JP7211778 B2 JP 7211778B2 JP 2018221981 A JP2018221981 A JP 2018221981A JP 2018221981 A JP2018221981 A JP 2018221981A JP 7211778 B2 JP7211778 B2 JP 7211778B2
Authority
JP
Japan
Prior art keywords
action
menu item
user
character
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018221981A
Other languages
Japanese (ja)
Other versions
JP2019136487A (en
Inventor
貴志 桑谷
誠 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2018221981A priority Critical patent/JP7211778B2/en
Priority to CN202310030111.6A priority patent/CN116328317A/en
Priority to CN201910108605.5A priority patent/CN110115842B/en
Priority to EP19155566.3A priority patent/EP3520867B1/en
Priority to US16/268,800 priority patent/US10983590B2/en
Publication of JP2019136487A publication Critical patent/JP2019136487A/en
Priority to US17/176,587 priority patent/US11467658B2/en
Priority to JP2021093004A priority patent/JP2021164649A/en
Priority to US17/902,218 priority patent/US11644893B2/en
Application granted granted Critical
Publication of JP7211778B2 publication Critical patent/JP7211778B2/en
Priority to JP2023031972A priority patent/JP2023085260A/en
Priority to US18/295,456 priority patent/US20230244302A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本明細書における開示は、仮想キャラクタとのインタラクションを提供するアプリケーション処理システム、アプリケーション処理方法、及びアプリケーション処理プログラムに関する。より具体的には、本明細書における開示は、ヘッドマウントディスプレイにより検出される検出情報に応じた仮想キャラクタとのインタラクションを提供するアプリケーション処理システム、アプリケーション処理方法、及びアプリケーション処理プログラムに関する。 The disclosure herein relates to an application processing system, an application processing method, and an application processing program that provide interaction with a virtual character. More specifically, the disclosure herein relates to an application processing system, an application processing method, and an application processing program that provide interaction with a virtual character according to information detected by a head-mounted display.

仮想キャラクタとのインタラクションを提供するアプリケーションとして、仮想キャラクタとインタラクションを行うことが可能なシミュレーションゲームが知られている。かかるシミュレーションゲームは、例えば、特開2012-055644号公報(特許文献1)に開示されている。 A simulation game that allows interaction with a virtual character is known as an application that provides interaction with a virtual character. Such a simulation game is disclosed, for example, in Japanese Unexamined Patent Application Publication No. 2012-055644 (Patent Document 1).

このような仮想キャラクタとのインタラクションを提供するゲームにおいて、ゲームへの没入感を高めるために、ヘッドマウントディスプレイ(以下、「HMD」ということがある。)が利用されることがある。例えば、HMDに仮想空間を表示し、この仮想空間内に登場する仮想キャラクタとHMDを用いてインタラクションできるVRゲームが知られている。この種のVRゲームとして、株式会社バンダイナムコエンターテインメントの「サマーレッスン」がある(非特許文献1参照)。 In games that provide interaction with such virtual characters, a head-mounted display (hereinafter sometimes referred to as "HMD") is sometimes used in order to enhance the sense of immersion in the game. For example, a VR game is known in which a virtual space is displayed on an HMD, and a virtual character appearing in this virtual space can be interacted with using the HMD. As this type of VR game, there is "Summer Lesson" by BANDAI NAMCO Entertainment Inc. (see Non-Patent Document 1).

HMDは、特開2017-058969号公報(特許文献2)に記載されているように、ユーザの頭部の位置及び向きを検出するためのトラッキングセンサを備えている。HMDを用いてプレイするVRゲームでは、このトラッキングセンサにより検出された検出情報に基づいて仮想空間内における視点が定められ、このようにして定められた視点から見た仮想空間の画像がHMDに表示される。 The HMD includes a tracking sensor for detecting the position and orientation of the user's head, as described in Japanese Patent Laying-Open No. 2017-058969 (Patent Document 2). In a VR game played using an HMD, a viewpoint in the virtual space is determined based on the detection information detected by the tracking sensor, and an image of the virtual space seen from the thus determined viewpoint is displayed on the HMD. be done.

上記の「サマーレッスン」では、HMDのトラッキングセンサにより検出された検出情報に応じて、仮想キャラクタに対するアクションを特定し、この特定されたアクションに対するリアクションを仮想キャラクタに行わせることで、ユーザと仮想キャラクタとの間でのインタクラクションが実現されている。例えば、HMDに表示されている仮想キャラクタの問いかけに応答して当該HMDを装着したユーザが頷くと、この頷きに対応するユーザの頭部の動きが検出され、この検出された頭部の動きに基づいて仮想空間内におけるユーザから仮想キャラクタへのアクションが特定される。例えば、頷きに対応するユーザの頭部の動きが検出された場合には、仮想空間におけるユーザから仮想キャラクタへのアクションとして、当該仮想キャラクタからの問いかけに肯定的な返答を行うというアクションが特定される。また、HMDにより首を振る動きに対応するユーザの頭部の動きが検出された場合には、仮想キャラクタへのアクションとして、当該仮想キャラクタからの問いかけに否定的な返答を行うという仮想空間内でのアクションが特定される。このようにして特定されたユーザのアクションに対する仮想キャラクタのリアクションが決定され、この決定されたリアクションを行う仮想キャラクタの画像がHMDに表示される。 In the above "summer lesson", an action for the virtual character is specified according to the detection information detected by the tracking sensor of the HMD, and by making the virtual character react to the specified action, the user and the virtual character Interaction between is realized. For example, when a user wearing the HMD nods in response to a question from a virtual character displayed on the HMD, the movement of the user's head corresponding to the nod is detected, and the detected head movement is detected. Based on this, an action from the user to the virtual character in the virtual space is specified. For example, when a movement of the user's head corresponding to a nod is detected, an action of giving an affirmative response to the question from the virtual character is specified as the action from the user to the virtual character in the virtual space. be. Further, when the HMD detects a motion of the user's head corresponding to the motion of shaking the head, the action to the virtual character is to give a negative response to the question from the virtual character in the virtual space. actions are identified. The virtual character's reaction to the user's action specified in this way is determined, and an image of the virtual character performing the determined reaction is displayed on the HMD.

HMDの検出情報に基づいて特定されるユーザの仮想空間におけるアクションは、頷く、首を横に振るといったユーザの頭部の動き及び仮想キャラクタの特定の部位を凝視するというユーザの視線の動きと関連づけられたものに限られている。このように、HMDの検出信号によって特定されるユーザから仮想キャラクタへのアクションのバリエーションは限定的である。 The user's action in the virtual space, which is specified based on the HMD detection information, is associated with the user's head movement such as nodding or shaking his head, and the user's line of sight movement such as gazing at a specific part of the virtual character. is limited to In this way, the variation of actions from the user to the virtual character specified by the detection signal of the HMD is limited.

ユーザの身体の頭部以外の部位(例えば、手)に関連づけられたアクションを仮想空間における当該ユーザのアクションとして特定することができれば、仮想キャラクタとユーザとの間でのインタラクションのバリエーションが豊富化される。ユーザの身体の頭部以外の部位に関連づけられたアクションは、従来、HMDとは別の操作コントローラからの入力に基づいて特定されている。従来の典型的な操作コントローラは、ユーザによって把持されるように構成されている。例えば、特許第6189497号明細書には、ユーザによって把持される操作コントローラへの操作に基づいて、仮想空間内においてユーザの仮想的な手の位置を特定し、この仮想的な手により当該仮想空間内のオブジェクトに触れるアクションを行うことが開示されている。 If an action associated with a part of the user's body other than the head (for example, a hand) can be specified as the action of the user in the virtual space, variations in interaction between the virtual character and the user will be enriched. be. Actions associated with parts of the user's body other than the head have conventionally been identified based on input from an operation controller separate from the HMD. A typical conventional manipulation controller is configured to be held by a user. For example, Japanese Patent No. 6189497 discloses that the position of a user's virtual hand is specified in a virtual space based on the operation of an operation controller held by the user, and the virtual space is operated by the virtual hand. It is disclosed to perform an action of touching an object within.

特開2012-055644号公報JP 2012-055644 A 特開2017-058969号公報JP 2017-058969 A 特許第6189497号明細書Patent No. 6189497

“サマーレッスン”、[online]、平成29年12月12日検索、インターネット(URL: HYPERLINK "http://summer-lesson.bn-ent.net/" http://summer-lesson.bn-ent.net/)"Summer Lesson", [online], December 12, 2017, Internet (URL: HYPERLINK "http://summer-lesson.bn-ent.net/" http://summer-lesson.bn-ent .net/)

上記のように、従来は、仮想空間におけるユーザのアクションのうちユーザの頭部の動きと関連づけられていないアクション(例えば、仮想空間において手で触れるというアクション)を特定するために、HMDとは別の操作コントローラが使用されている。このような操作コントローラの使用は、アプリケーションへの没入感を損なうことがある。また、HMDの装着時には、実空間における視界が遮られるため、操作コントローラの操作が難しいという問題がある。 As described above, conventionally, in order to identify an action that is not associated with the movement of the user's head (for example, the action of touching with a hand in the virtual space) among the user's actions in the virtual space, of operation controllers are used. The use of such manipulation controllers may detract from the immersion in the application. Moreover, when the HMD is worn, the field of view in the real space is blocked, so there is a problem that it is difficult to operate the operation controller.

HMDとは別の操作コントローラを用いなくとも、仮想空間においてユーザの頭部の動きと関連づけられていない仮想キャラクタへのアクションを行うことが可能なアプリケーション処理システムが求められる。 There is a need for an application processing system capable of performing actions on a virtual character that are not associated with the movement of the user's head in virtual space without using an operation controller separate from the HMD.

本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。 It is an object of the present disclosure to provide technical improvements that solve or alleviate at least some of the problems in the prior art discussed above.

本開示の具体的な目的の一つは、ユーザの頭部の動きと関連づけられていないアクションを仮想キャラクタに対して行うことが可能なアプリケーション処理システムにおける技術的な改善を提供することである。 One specific object of the present disclosure is to provide technical improvements in application processing systems that can perform actions on virtual characters that are not associated with user head movements.

本開示のより具体的な目的の一つは、ヘッドマウントディスプレイによる検出情報に基づいて、ユーザの頭部の動きと関連づけられていないアクションを仮想キャラクタに対して行うことが可能なアプリケーション処理システムを提供することである。 One of the more specific objects of the present disclosure is to provide an application processing system that can perform actions unrelated to the movement of the user's head on a virtual character based on information detected by a head-mounted display. to provide.

本開示のより具体的な目的の一つは、仮想キャラクタに対して行われるユーザの頭部の動きと関連づけられていないアクションのバリエーションを豊富化することである。 One of the more specific purposes of the present disclosure is to enrich the variations of actions that are not associated with the movement of the user's head performed on a virtual character.

本開示のこれら以外の目的は、本明細書全体を参照することにより明らかとなる。 These and other objects of the disclosure will become apparent upon reference to the specification as a whole.

本発明の一態様によるアプリケーション処理システムは、一又は複数のコンピュータプロセッサを備え、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することにより前記ユーザに前記仮想キャラクタとのインタラクションを提供する。一態様において、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定し、前記仮想空間に含まれている特定オブジェクトが選択されたことに応じて、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する。 An application processing system according to an aspect of the present invention includes one or more computer processors, and outputs an image of a virtual space including a virtual character to a head-mounted display worn on the user's head to provide the user with the virtual space. Provide character interaction. In one aspect, the one or more computer processors execute computer readable instructions to perform on the virtual character based on one or more detected information detected by the head-mounted display. identifying a first action that is an action and is associated with movement of the user's head in the virtual space, and selecting a specific object included in the virtual space; based on the detection information, a second action that is an action performed on the virtual character and is not associated with the movement of the user's head in the virtual space.

本発明の一態様によるアプリケーション処理システムにおいて、前記第2アクションは、前記仮想空間における前記ユーザの手の動きに関連づけられたアクションである。 In the application processing system according to one aspect of the present invention, the second action is an action associated with hand movement of the user in the virtual space.

本発明の一態様によるアプリケーション処理システムにおいて、前記第2アクションは、前記仮想空間における前記ユーザによる道具の使用に関連づけられたアクションである。 In the application processing system according to one aspect of the present invention, the second action is an action associated with use of tools by the user in the virtual space.

本発明の一態様によるアプリケーション処理システムにおいて、前記特定オブジェクトの選択に応じて、前記仮想キャラクタ上に一又は複数のキャラクタ注視位置が設定され、前記仮想キャラクタ上に設定された一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されたことに応じて前記第2アクションが特定される。 In the application processing system according to one aspect of the present invention, one or more character gaze positions are set on the virtual character according to the selection of the specific object, and one or more character gaze positions set on the virtual character are set. The second action is identified responsive to at least one of the locations being gazed at.

本発明の一態様によるアプリケーション処理システムにおいて、前記一又は複数のキャラクタ注視位置は、第1キャラクタ注視位置及び第2キャラクタ注視位置を含み、前記第2アクションは、第1注視位置アクション及び第2注視位置アクションを含み、前記第1キャラクタ注視位置の注視により、第1注視位置アクションが前記第2アクションとして特定され、前記第2キャラクタ注視位置の注視により、第2注視位置アクションが前記第2アクションとして特定される。 In the application processing system according to one aspect of the present invention, the one or more character gaze positions include a first character gaze position and a second character gaze position, and the second action includes a first gaze position action and a second gaze position action. A position action is included, a first gaze position action is specified as the second action by the gaze at the first character gaze position, and a second gaze position action is specified as the second action by the gaze at the second character gaze position identified.

本発明の一態様によるアプリケーション処理システムにおいて、前記特定オブジェクトは、第1メニューアイテム及び第2メニューアイテムに関連づけられており、前記第2アクションは、前記第1メニューアイテムに関連づけられた第1メニューアイテムアクション、及び、前記第2メニューアイテムに関連づけられた第2メニューアイテムアクションを含み、前記第1メニューアイテムの注視後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されることにより、前記第1メニューアイテムアクションが前記第2アクションとして特定され、前記第2メニューアイテムの注視後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されることにより、前記第2メニューアイテムアクションが前記第2アクションとして特定される。 In the application processing system according to one aspect of the present invention, the specific object is associated with a first menu item and a second menu item, and the second action is the first menu item associated with the first menu item. and a second menu item action associated with the second menu item, wherein at least one of the one or more character gaze positions is gazed after the first menu item is gazed at, whereby the A first menu item action is identified as the second action, and at least one of the one or more character gaze positions is gazed after the second menu item is gazed, whereby the second menu item action is determined as the Identified as the second action.

本発明の一態様によるアプリケーション処理システムにおいて、前記一又は複数のコンピュータプロセッサは、第1シーンにおいて前記仮想空間における第1主表示領域を特定し、前記特定オブジェクトは、前記第1シーンにおいて、前記第1主表示領域の外に配置される。 In the application processing system according to an aspect of the present invention, the one or more computer processors specify a first main display area in the virtual space in the first scene, and the specified object is the first main display area in the first scene. 1 is located outside the main display area.

本発明の一態様によるアプリケーション処理システムにおいて、前記一又は複数のコンピュータプロセッサは、第2シーンにおいて前記仮想空間における第2主表示領域を特定し、前記特定オブジェクトは、前記第2シーンにおいて、前記第2主表示領域の外に配置される。 In the application processing system according to an aspect of the present invention, the one or more computer processors specify a second main display area in the virtual space in the second scene, and the specified object is the second main display area in the second scene. 2 Located outside the main display area.

本発明の一態様によるアプリケーション処理システムにおいて、前記一又は複数のコンピュータプロセッサは、前記仮想空間に前記第1アクション又は前記第2アクションに応じたリアクションを行う前記仮想キャラクタが含まれるように前記仮想空間を構成する。 In the application processing system according to one aspect of the present invention, the one or more computer processors are configured to perform the virtual space so that the virtual space includes the virtual character that reacts according to the first action or the second action. configure.

一態様によるアプリケーション処理方法は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することで前記ユーザに前記仮想キャラクタとのインタラクションを提供する。当該アプリケーション処理方法は、前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定する工程と、前記仮想空間に含まれている特定オブジェクトが選択されたことに応じて、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する工程と、を備える。 An application processing method according to one aspect includes outputting an image of a virtual space including a virtual character to a head-mounted display worn on a user's head by one or more computer processors executing computer-readable instructions. provides the user with interaction with the virtual character. The application processing method is an action performed on the virtual character and associated with the movement of the user's head in the virtual space based on one or more pieces of detection information detected by the head-mounted display. an action to be performed on the virtual character based on the one or more pieces of detection information in response to selection of a specific object contained in the virtual space; and identifying a second action that is not associated with movement of the user's head in the virtual space.

本発明の一態様によるアプリケーション処理プログラムは、一又は複数のコンピュータプロセッサに実行されることにより、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することで前記ユーザに前記仮想キャラクタとのインタラクションを提供する。当該アプリケーション処理プログラムは、前記一又は複数のコンピュータプロセッサに、前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定する工程と、前記仮想空間に含まれている特定オブジェクトが選択されたことに応じて、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する工程と、を実行させる。 An application processing program according to an aspect of the present invention outputs an image of a virtual space including a virtual character to a head-mounted display worn on a user's head by being executed by one or more computer processors. Providing a user with interaction with said virtual character. The application processing program instructs the one or more computer processors, based on one or more pieces of detection information detected by the head-mounted display, to perform an action on the virtual character in the virtual space. identifying a first action associated with movement of the user's head; and in response to selection of a specific object included in the virtual space, based on the one or more pieces of detection information, and identifying a second action to be performed on the virtual character that is not associated with movement of the user's head in the virtual space.

本明細書に開示された実施形態によれば、ユーザの頭部の動きと関連づけられていないアクションを仮想キャラクタに対して行うことが可能なアプリケーション処理システムにおける技術的な改善が提供される。 Embodiments disclosed herein provide technical improvements in application processing systems that can perform actions on virtual characters that are not associated with user head movements.

一実施形態によるアプリケーション処理システムを示すブロック図である。1 is a block diagram illustrating an application processing system according to one embodiment; FIG. 図1のアプリケーション処理システムにおいて利用可能なヘッドマウントディスプレイを示す模式図である。FIG. 2 is a schematic diagram showing a head-mounted display that can be used in the application processing system of FIG. 1; ユーザに装着されたヘッドマウントディスプレイを模式的に示す図である。FIG. 4 is a diagram schematically showing a head-mounted display worn by a user; 一実施形態によるアプリケーション処理システムにおける仮想空間を模式的に示す図である。図4aにおいては、仮想空間においてユーザが立位姿勢を取っている。1 is a diagram schematically showing a virtual space in an application processing system according to one embodiment; FIG. In Figure 4a, the user is in a standing position in the virtual space. 一実施形態によるアプリケーション処理システムにおける仮想空間を模式的に示す図である。図4bにおいては、仮想空間においてユーザが仰臥位姿勢を取っている。1 is a diagram schematically showing a virtual space in an application processing system according to one embodiment; FIG. In FIG. 4b, the user is in a supine position in virtual space. 一実施形態によるアプリケーション処理システムにより処理されるゲームのモード移行を説明する図である。FIG. 4 is a diagram illustrating mode transition of a game processed by the application processing system according to one embodiment; 一実施形態におけるチャットモードでの処理の流れを示すフロー図である。It is a flow figure showing a flow of processing in chat mode in one embodiment. 一実施形態におけるチャットモードでの表示画像の例を示す図である。FIG. 10 is a diagram showing an example of a display image in chat mode in one embodiment; 一実施形態におけるVRモードでの処理の流れを示すフロー図である。FIG. 4 is a flow diagram showing the flow of processing in VR mode in one embodiment; 一実施形態におけるVRモードでの表示画像の例を示す図である。FIG. 4 is a diagram showing an example of a display image in VR mode in one embodiment; 一実施形態において第2アクションを特定する処理の流れを示すフロー図である。FIG. 10 is a flow diagram showing the flow of processing for identifying a second action in one embodiment; 一実施形態におけるVRモードでの表示画像の例を示す図である。図11aの表示画像には、メニューアイテムアイコンを示す画像が含まれている。FIG. 4 is a diagram showing an example of a display image in VR mode in one embodiment; The display image of FIG. 11a includes an image showing a menu item icon. 一実施形態におけるVRモードでの表示画像の例を示す図である。図11bの仮想キャラクタには、複数のキャラクタ注視位置が設定されている。FIG. 4 is a diagram showing an example of a display image in VR mode in one embodiment; A plurality of character gaze positions are set for the virtual character in FIG. 11b. 一実施形態におけるVRモードでの表示画像の例を示す図である。図11cの表示画像には、仮想空間におけるユーザの第2アクションを示す画像が含まれている。FIG. 4 is a diagram showing an example of a display image in VR mode in one embodiment; The display image of FIG. 11c includes an image showing the user's second action in the virtual space. 一実施形態におけるVRモードでの表示画像の例を示す図である。図11dの表示画像には、仮想空間におけるユーザの第2アクションを示す画像が含まれている。FIG. 4 is a diagram showing an example of a display image in VR mode in one embodiment; The display image of FIG. 11d includes an image showing the user's second action in the virtual space. 本発明の他の実施形態によるアプリケーション処理システムを示すブロック図である。FIG. 4 is a block diagram illustrating an application processing system according to another embodiment of the invention;

以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。 Various embodiments of the present invention will now be described with appropriate reference to the drawings. Identical or similar components are provided with the same reference numerals in several drawings.

図1から図3を参照して、一実施形態によるアプリケーション処理システムについて説明する。図1は、一実施形態によるアプリケーション処理システム1を示すブロック図であり、図2は、アプリケーション処理システム1において用いられるヘッドマウントディスプレイ10(以下、「HMD10」という。)の模式図であり、図3は、ユーザ5に装着されたHMD10を模式的に示す図である。 An application processing system according to one embodiment will be described with reference to FIGS. 1 to 3. FIG. FIG. 1 is a block diagram showing an application processing system 1 according to one embodiment, and FIG. 2 is a schematic diagram of a head-mounted display 10 (hereinafter referred to as "HMD 10") used in the application processing system 1. FIG. 3 is a diagram schematically showing the HMD 10 worn by the user 5. FIG.

一実施形態によるアプリケーション処理システム1は、アプリケーション処理プログラムを実行することにより様々なアプリケーションを提供する。このアプリケーションの例は、ビデオゲームである。ユーザは、アプリケーション処理システム1を利用して、ゲーム媒体を利用した各種ゲームをプレイすることができる。ゲーム媒体は、アプリケーション処理システム1で実現されるゲームにおいて使用される電子データであり、ユーザによってゲーム内で取得、所有、使用、管理、交換、合成、強化、売却、廃棄、贈与、又は前記以外の方法で使用され得る。ゲーム媒体には、例えば、カード、アイテム、仮想通貨、チケット、キャラクタ、アバタ、レベル情報、ステータス情報、及びパラメータ情報(体力値や攻撃力など)、能力情報スキル、アビリティ、呪文、ジョブ、及びこれら以外のゲームで利用可能な各種電子データを含む。アプリケーション処理システム1で利用可能なゲーム媒体及びその利用態様は本明細書で明示されるものに限られない。アプリケーション処理システム1は、例えば、仮想空間において仮想キャラクタとユーザとがインタラクションを行うゲームを実現することができる。アプリケーション処理システム1により実現されるゲームは、第1モードと第2モードとを有する。第1モードの例はチャットモードであり、第2モードの例はVRモードである。第1モード及び第2モードについては後述される。 The application processing system 1 according to one embodiment provides various applications by executing application processing programs. An example of this application is video games. A user can use the application processing system 1 to play various games using game media. A game medium is electronic data used in a game realized by the application processing system 1, and is acquired, owned, used, managed, exchanged, combined, enhanced, sold, discarded, gifted, or otherwise used in the game by a user. can be used in the manner of Game media include, for example, cards, items, virtual currency, tickets, characters, avatars, level information, status information, parameter information (physical strength, attack power, etc.), ability information skills, abilities, spells, jobs, and the like. Includes various electronic data that can be used in games other than The game media that can be used in the application processing system 1 and the mode of use thereof are not limited to those specified in this specification. The application processing system 1 can realize, for example, a game in which a virtual character and a user interact in a virtual space. A game realized by the application processing system 1 has a first mode and a second mode. An example of the first mode is chat mode and an example of the second mode is VR mode. The first mode and second mode will be described later.

アプリケーション処理システム1は、ゲーム以外のアプリケーションを処理するように構成されてもよい。アプリケーション処理システム1は、例えば、運転やその他の分野におけるシミュレーション、医療又はそれ以外の分野におけるトレーニング用アプリケーション、製品やサービスを体験するためのアプリケーション、映画やそれ以外の各種エンターテインメントを鑑賞するためのアプリケーション、及びこれら以外の各種アプリケーションを提供するように構成されてもよい。 The application processing system 1 may be configured to process applications other than games. The application processing system 1 includes, for example, simulations in driving and other fields, training applications in medical and other fields, applications for experiencing products and services, and applications for watching movies and various other forms of entertainment. , and may be configured to provide various applications other than these.

アプリケーション処理システム1は、HMD10と、サーバ50と、を備える。HMD10とサーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。 The application processing system 1 has an HMD 10 and a server 50 . The HMD 10 and the server 50 are connected via a network 40 so as to be able to communicate with each other.

HMD10は、図2に示されているように、人間の頭部に装着される装着具11と、この装着具11に取り付けられる情報処理装置20と、を備えている。 As shown in FIG. 2, the HMD 10 includes an attachment 11 to be worn on the head of a person, and an information processing device 20 attached to the attachment 11 .

装着具11は、開口11dが形成されたゴーグル型の筐体11aと、この筐体11aに取り付けられた第1ベルト11b及び第2ベルト11cと、蓋11eと、を有する。蓋11eは、筐体11aに開閉自在に取り付けられている。筐体11aの前方には開口11dが形成されている。図2においては、蓋11eは開放されている。HME10の使用時には、蓋11eは、開口11dを閉塞するように閉じられる。 The wearing tool 11 has a goggle-shaped housing 11a formed with an opening 11d, a first belt 11b and a second belt 11c attached to the housing 11a, and a lid 11e. The lid 11e is attached to the housing 11a so as to be openable and closable. An opening 11d is formed in front of the housing 11a. In FIG. 2, the lid 11e is open. When the HME 10 is in use, the lid 11e is closed to block the opening 11d.

情報処理装置20は、HMD10の蓋11eの内側に、着脱可能に設けられる。情報処理装置20は、ディスプレイ24を備えている。情報処理装置20は、蓋11eが閉じられたときに、ディスプレイ24が筐体11aの内側を向くように蓋11eに取り付けられる。情報処理装置20は、HMD10の使用時に装着具11に取り付けられる。情報処理装置20は、HMD10を使用しないときには、装着具11から取り外される。 The information processing device 20 is detachably provided inside the lid 11 e of the HMD 10 . The information processing device 20 has a display 24 . The information processing device 20 is attached to the lid 11e such that the display 24 faces the inside of the housing 11a when the lid 11e is closed. The information processing device 20 is attached to the wearing tool 11 when the HMD 10 is used. The information processing device 20 is removed from the wearing tool 11 when the HMD 10 is not used.

図示の実施形態において、情報処理装置20は、スマートフォンである。情報処理装置20は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の各種情報処理装置であってもよい。HMD10から取り外された情報処理装置20は、その本来の目的に応じて利用される。 In the illustrated embodiment, the information processing device 20 is a smart phone. The information processing device 20 may be a mobile phone, a tablet terminal, a personal computer, an electronic book reader, a wearable computer, a game console, or various information processing devices other than a smart phone. The information processing device 20 removed from the HMD 10 is used for its original purpose.

情報処理装置20は、上記のように、ディスプレイ24を備えている。図示の実施形態においては、情報処理装置20が装着具11に取り付けられたときには、ディスプレイ24がHMD10における画像表示のための装置として機能する。よって、HMD10を用いてゲームをプレイする場合には、ディスプレイ24に当該ゲームの仮想空間、仮想キャラクタ、及びこれら以外のゲームに関連する画像が表示される。 The information processing device 20 includes the display 24 as described above. In the illustrated embodiment, when the information processing device 20 is attached to the wearing tool 11 , the display 24 functions as a device for displaying images on the HMD 10 . Therefore, when playing a game using the HMD 10, the display 24 displays the virtual space of the game, the virtual characters, and other images related to the game.

装着具11の形状は、図示されたゴーグル型に限られない。装着具11は、装着されたユーザの頭部の動きに追従して動き、装着されたときにディスプレイ24を当該ユーザの眼前に配置できる任意の形状の構造体を含み得る。装着具11は、例えば眼鏡を模した形状、帽子を模した形状、又はヘルメットを模した形状であってもよい。ユーザの没入感を向上させるためには、HMD10は、装着具11がユーザの頭部に装着されたときに、ディスプレイ24が当該ユーザの両目を覆うように構成されていることが望ましい。 The shape of the wearing tool 11 is not limited to the illustrated goggle shape. The wearer 11 may include a structure of any shape that follows the movement of the user's head to which it is worn, and which allows the display 24 to be placed in front of the user's eyes when worn. The wearing tool 11 may have, for example, a shape that imitates glasses, a shape that imitates a hat, or a shape that imitates a helmet. In order to improve the user's sense of immersion, the HMD 10 is desirably configured so that the display 24 covers the user's eyes when the wearer 11 is worn on the user's head.

HMD10は、使用時において、図3に示されているように、装着具11を介してユーザ5の頭部に取り付けられる。ユーザ5の頭部に装着されている装着具11には、情報処理装置20が取り付けられている。 When in use, the HMD 10 is attached to the head of the user 5 via the attachment 11, as shown in FIG. An information processing device 20 is attached to the wearing tool 11 worn on the head of the user 5 .

再び図1を参照して、情報処理装置20についてさらに説明する。図示のように、一実施形態において、情報処理装置20は、コンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27を備えている。 The information processing apparatus 20 will be further described with reference to FIG. 1 again. As illustrated, in one embodiment, the information processing device 20 includes a computer processor 21 , a memory 22 , a communication I/F 23 , a display 24 , a sensor unit 25 , a sound collector 26 and a storage 27 .

コンピュータプロセッサ21は、ストレージ27又はそれ以外のストレージからオペレーティングシステムやゲームロジックを実現する様々なプログラムをメインメモリ22にロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU又はこれら以外の各種演算装置である。プロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより分散して実行されてもよい。 The computer processor 21 is an arithmetic device that loads various programs that implement an operating system and game logic from the storage 27 or other storage into the main memory 22 and executes instructions contained in the loaded programs. The computer processor 21 is, for example, a CPU, MPU, DSP, GPU, or any other arithmetic device. The processor 21 may be realized by integrated circuits such as ASIC, PLD, FPGA, and MCU. Although computer processor 21 is illustrated as a single component in FIG. 1, computer processor 21 may be a collection of a plurality of physically separate computer processors. In this specification, a program or instructions included in the program described as being executed by the computer processor 21 may be executed by a single computer processor, or may be executed by a plurality of computer processors in a distributed manner. good too. Also, the program executed by the computer processor 21 or instructions included in the program may be distributed and executed by a plurality of virtual computer processors.

メモリ22は、コンピュータプロセッサ21が実行する命令及びそれ以外の各種データを格納するために用いられる。一実施形態によるアプリケーション処理プログラムの少なくとも一部は、ゲームの進行に応じて、随時メモリ22にロードされる。メモリ22は、例えば、コンピュータプロセッサ21が高速にアクセス可能な主記憶装置(メインメモリ)である。メモリ22は、例えば、DRAMやSRAM等のRAMによって構成される。 The memory 22 is used to store instructions executed by the computer processor 21 and various other data. At least part of the application processing program according to one embodiment is loaded into the memory 22 from time to time as the game progresses. The memory 22 is, for example, a main storage device (main memory) that can be accessed at high speed by the computer processor 21 . The memory 22 is, for example, a RAM such as a DRAM or an SRAM.

通信I/F23は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。情報処理装置20は、通信I/F23を介して、他の装置とデータを送受信することができる。 The communication I/F 23 is implemented as hardware, firmware, communication software such as a TCP/IP driver or PPP driver, or a combination thereof. The information processing device 20 can transmit and receive data to and from other devices via the communication I/F 23 .

ディスプレイ24は、表示パネル24aと、タッチパネル24bと、を有する。例えば、タッチパネル24bは、表示パネル24aの上面又は下面に積層されている。表示パネル24aは、液晶パネル、有機ELパネル、無機ELパネル、又はこれら以外の画像を表示可能な任意の表示パネルである。タッチパネル24bは、ユーザのタッチ操作を検出することができるように構成されている。タッチパネル24bは、ユーザのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。 The display 24 has a display panel 24a and a touch panel 24b. For example, the touch panel 24b is laminated on the upper surface or the lower surface of the display panel 24a. The display panel 24a is a liquid crystal panel, an organic EL panel, an inorganic EL panel, or any other display panel capable of displaying an image. The touch panel 24b is configured to detect a user's touch operation. The touch panel 24b can detect various touch operations such as a user's tap, double tap, and drag.

センサユニット25は、一又は複数のセンサを備える。センサユニット25は、例えば、ジャイロセンサ、加速度センサ、および地磁気センサのうち少なくとも1つのセンサを含む。センサユニット25は、ユーザの眼球の動きを直接的に検出するアイトラッキングセンサを備えてもよい。アイトラッキングセンサは、例えば、虹彩内に近赤外光を入射しその反射光を検出する視線検出センサである。センサユニット25により検出された検出情報に基づいて、ユーザ5の頭部に装着されたHMD10の位置及び向きが特定される。HMD10の位置及び向きは、例えば、三次元直交座標系での位置および各軸回りの角度として算出される。この三次元直交座標系は、例えば、前後方向に沿ったロール軸、上下方向に沿ったヨー軸、左右方向に沿ったピッチ軸から成る直交座標系である。センサユニット25を構成する各種センサの少なくとも一部は、装着具11及び/又は装着具11以外の情報処理装置20とは異なる部材に設けられてもよい。 The sensor unit 25 comprises one or more sensors. Sensor unit 25 includes, for example, at least one of a gyro sensor, an acceleration sensor, and a geomagnetic sensor. The sensor unit 25 may comprise an eye tracking sensor that directly detects the movement of the user's eyeballs. An eye tracking sensor is, for example, a line-of-sight sensor that receives near-infrared light into the iris and detects the reflected light. The position and orientation of the HMD 10 worn on the head of the user 5 are specified based on the detection information detected by the sensor unit 25 . The position and orientation of the HMD 10 are calculated as, for example, the position in a three-dimensional orthogonal coordinate system and the angle around each axis. This three-dimensional orthogonal coordinate system is, for example, an orthogonal coordinate system composed of a roll axis along the front-rear direction, a yaw axis along the vertical direction, and a pitch axis along the left-right direction. At least some of the various sensors that make up the sensor unit 25 may be provided on the mounting tool 11 and/or a member different from the information processing device 20 other than the mounting tool 11 .

集音装置26は、音声を集音することができるように構成されている。集音装置26は、例えば、マイクロフォンである。集音装置26により集音された音声情報に基づいて、ユーザ5の音声が検出される。 The sound collector 26 is configured to be able to collect sound. The sound collecting device 26 is, for example, a microphone. The voice of the user 5 is detected based on the voice information collected by the sound collector 26 .

ストレージ27は、コンピュータプロセッサ21によりアクセスされる外部記憶装置である。ストレージ27は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ27には、アプリケーション処理プログラム等の様々なプログラムが記憶される。また、ストレージ27には、ゲームにおいて用いられる各種データも記憶される。ストレージ27に記憶され得るプログラム及び各種データの少なくとも一部は、情報処理装置20とは物理的に別体のストレージに格納されてもよい。 Storage 27 is an external storage device accessed by computer processor 21 . The storage 27 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various other storage devices capable of storing data. The storage 27 stores various programs such as an application processing program. The storage 27 also stores various data used in the game. At least part of the programs and various data that can be stored in the storage 27 may be stored in a storage that is physically separate from the information processing device 20 .

図示の実施形態において、ストレージ27には、画像データ28a、チャットデータ28b、シナリオデータ28c、イベントデータ28d、ゲーム進行データ28e、及び前記以外のゲームの進行のために必要な様々なデータが記憶される。 In the illustrated embodiment, the storage 27 stores image data 28a, chat data 28b, scenario data 28c, event data 28d, game progress data 28e, and various other data necessary for the progress of the game. be.

画像データ28aには、ゲームの行われる仮想空間の背景を描画するためのデータ、仮想キャラクタを描画するためのデータ、及びゲームで用いられる仮想キャラクタ以外のオブジェクトを描画するためのデータが含まれる。画像データ28aには、仮想空間内におけるオブジェクトの位置情報を含んでもよい。画像データ28aには、上記の各データが、シナリオごと、イベントごと、又はシーンごとに関連づけて記憶されていてもよい。 The image data 28a includes data for drawing the background of the virtual space in which the game is played, data for drawing virtual characters, and data for drawing objects other than the virtual characters used in the game. The image data 28a may include position information of the object in the virtual space. The above data may be stored in the image data 28a in association with each scenario, each event, or each scene.

チャットデータ28bには、仮想キャラクタのアイコンを描画するためのデータ、ユーザ5のアイコンを描画するためのデータ、仮想キャラクタの複数のメッセージを特定するためのデータ、当該仮想キャラクタの複数のメッセージの各々に対する応答メッセージの選択肢を示すデータ、及びこれら以外のチャットモードで用いられるデータが含まれる。仮想キャラクタの複数のメッセージは、各メッセージに対応するノードを有し、当該ノード同士がアークで接続されたツリー構造で定義されてもよい。このツリー構造では、例えば、最上位のルートノードである開始メッセージから複数のアークが伸びており、各アークが下位ノードに接続される。この下位ノードからもアークが延び、当該アークがさらに下位のノードに接続される。下位ノードの各々は、開始メッセージよりも後に表示され得る仮想キャラクタのメッセージの候補に対応する。また、チャットデータ28bには、チャットモードからVRモードへの移行を開始する条件であるモード移行条件が含まれてもよい。モード移行条件には、例えば、ゲームがチャットモードで開始されてからの経過時間が所定時間以上であること、ツリー構造のメッセージにおいて末端のノードまでチャットが進行したこと、及びこれら以外の条件が含まれる。チャットデータ28bには、移行オブジェクトの選択が完了しなかった後に再開されたチャットモードで表示されるメッセージを示すデータが含まれてもよい。 The chat data 28b includes data for drawing the icon of the virtual character, data for drawing the icon of the user 5, data for specifying a plurality of messages of the virtual character, and each of the plurality of messages of the virtual character. and data used in other chat modes. A plurality of messages of the virtual character may be defined in a tree structure having nodes corresponding to each message and connecting the nodes with arcs. In this tree structure, for example, a plurality of arcs extend from the start message, which is the root node of the highest level, and each arc is connected to a lower node. Arcs also extend from this lower node, and the arcs are connected to further lower nodes. Each of the lower nodes corresponds to a candidate message of the virtual character that can be displayed after the starting message. Also, the chat data 28b may include a mode transition condition, which is a condition for starting transition from the chat mode to the VR mode. Mode transition conditions include, for example, that the elapsed time since the game was started in chat mode is equal to or longer than a predetermined time, that the chat has progressed to the terminal node in the message of the tree structure, and other conditions. be Chat data 28b may include data indicative of messages to be displayed in the resumed chat mode after incomplete selection of transition objects.

シナリオデータ28cには、ゲームにおいてユーザ5によって体験されるシナリオを定義するデータが含まれる。ゲームにおいてユーザ5によって体験されるシナリオが複数ある場合、シナリオデータ28cは、複数のシナリオの各々についてシナリオデータを定義してもよい。シナリオデータ28cは、複数のイベントの集合として定義されてもよい。シナリオデータ28cに含まれる複数のイベントは、各イベントに対応するノードを有し、当該ノード同士がアークで接続されたツリー構造で定義されてもよい。このツリー構造では、例えば、最上位のルートノードである冒頭イベントから複数のアークが伸びており、各アークが下位ノードに接続されている。この下位ノードからもアークが延び、当該アークがさらに下位のノードに接続される。あるシナリオにおける下位ノードの各々は、当該シナリオにおいて冒頭イベントよりも後に発生し得るイベントの候補に対応する。シナリオデータ28cには、上記の各データが、シナリオごとごとに関連づけて記憶されていてもよい。 Scenario data 28c includes data defining the scenario experienced by user 5 in the game. If there are multiple scenarios experienced by the user 5 in the game, the scenario data 28c may define scenario data for each of the multiple scenarios. Scenario data 28c may be defined as a set of multiple events. A plurality of events included in the scenario data 28c may be defined in a tree structure having nodes corresponding to each event and connecting the nodes with arcs. In this tree structure, for example, a plurality of arcs extend from the initial event, which is the highest root node, and each arc is connected to lower nodes. Arcs also extend from this lower node, and the arcs are connected to further lower nodes. Each lower node in a scenario corresponds to an event candidate that can occur after the opening event in the scenario. The above data may be stored in the scenario data 28c in association with each scenario.

イベントデータ28dは、シナリオデータ28cを構成するイベントの各々を定義するためのデータである。イベントデータ28dは、ゲームにおける仮想キャラクタの複数のアクションを特定するためのデータの集合として定義されてもよい。仮想キャラクタの複数のアクションは、各アクションに対応するノードを有し、当該ノード同士がアークで接続されたツリー構造で定義されてもよい。このツリー構造では、例えば、最上位のルートノードである冒頭アクションから複数のアークが伸びており、各アークが下位ノードに接続されている。この下位ノードからもアークが延び、当該アークがさらに下位のノードに接続される。あるイベントにおける下位ノードの各々は、当該イベントにおいて冒頭アクションよりも後に発生し得るアクションの候補に対応する。イベントデータ28dは、ノードごとに、当該ノードに対応するアクションに対応する動画像データ、仮想キャラクタに対してユーザが取ることができるアクションに関するデータ、及びこれら以外の仮想キャラクタのアクションに関するデータを含むことができる。 The event data 28d is data for defining each of the events forming the scenario data 28c. The event data 28d may be defined as a set of data for specifying multiple actions of the virtual character in the game. A plurality of actions of the virtual character may be defined in a tree structure having nodes corresponding to each action and connecting the nodes with arcs. In this tree structure, for example, a plurality of arcs extend from the top root node, the beginning action, and each arc is connected to a lower node. Arcs also extend from this lower node, and the arcs are connected to further lower nodes. Each subordinate node in an event corresponds to a candidate action that can occur after the initial action in the event. The event data 28d includes, for each node, moving image data corresponding to the action corresponding to the node, data regarding actions that the user can take with respect to the virtual character, and data regarding other actions of the virtual character. can be done.

ゲーム進行データ28eには、ゲームの進行の管理に用いられるデータが含まれる。ゲーム進行データ28eは、ゲームの進行に応じて更新されてもよい。ゲーム進行データ28eには、例えば、仮想キャラクタのユーザに対する好感度に関するデータ、ゲームにおいてユーザが獲得したポイントに関するデータ、及びこれら以外のゲームの進行に応じて変化しえる各種データが含まれ得る。 The game progress data 28e includes data used for managing the progress of the game. The game progress data 28e may be updated as the game progresses. The game progress data 28e may include, for example, data relating to the user's favorability of the virtual character, data relating to points earned by the user in the game, and various other data that may change according to the progress of the game.

図1に示されている情報処理装置20の構成要素及び機能は例示である。本発明に適用可能な情報処理装置20は、図示されていない様々な構成要素を備え得る。例えば、情報処理装置20は、ゲームの効果音や仮想キャラクタの音声を出力するスピーカを備えてもよい。 The components and functions of the information processing device 20 shown in FIG. 1 are exemplary. The information processing device 20 applicable to the present invention may include various components not shown. For example, the information processing device 20 may include a speaker that outputs game sound effects and virtual character voices.

図1に示されている情報処理装置20の構成要素及び機能は例示である。本発明に適用可能な情報処理装置20は、図示されていない様々な構成要素を備え得る。例えば、情報処理装置20は、ゲームの効果音や仮想キャラクタの音声を出力するスピーカを備えてもよい。 The components and functions of the information processing device 20 shown in FIG. 1 are exemplary. The information processing device 20 applicable to the present invention may include various components not shown. For example, the information processing device 20 may include a speaker that outputs game sound effects and virtual character voices.

続いて、HMD10の機能について説明する。図示の実施形態においては、情報処理装置20のコンピュータプロセッサ21においてコンピュータ読み取り可能な命令を実行することにより、HMD10の各種機能が実現される。コンピュータプロセッサ21において実行される命令には、一実施形態によるアプリケーション処理プログラムに含まれる命令が含まれる。 Next, functions of the HMD 10 will be described. In the illustrated embodiment, various functions of the HMD 10 are implemented by executing computer readable instructions in the computer processor 21 of the information processing device 20 . The instructions executed by computer processor 21 include instructions contained in an application processing program according to one embodiment.

コンピュータプロセッサ21によって一実施形態によるアプリケーション処理プログラムが実行されることにより、アプリケーション処理システム1において第1モード及び当該第1モードとは異なる第2モードを有するゲームが実現される。アプリケーション処理システム1において実現されるゲームは、第1モード及び第2モード以外のモードを有していてもよい。 A game having a first mode and a second mode different from the first mode is realized in the application processing system 1 by executing the application processing program according to one embodiment by the computer processor 21 . A game implemented in the application processing system 1 may have modes other than the first mode and the second mode.

アプリケーション処理システム1において実現されるゲームの第1モードでは、HMD10がユーザ5に装着されていないときに、すなわち、情報処理装置20が装着具11から取り外されているときに、情報処理装置20により検出された第1検出情報に応じてゲームに関する処理が行われる。この第1検出情報には、情報処理装置20のタッチパネル24bにより検出されるユーザ5のタッチ操作に関する情報、集音装置26により検出されるユーザの音声に関する情報、及びHMD10がユーザ5に装着されていない場合に情報処理装置20において検出可能な前記以外の検出情報を含み得る。ユーザ5は、第1モードにおいては、装着具11から取り外された情報処理装置20を用いてゲームに関する操作を行うことができる。第1モードにおいては、HMD10がユーザ5に装着されていないときにゲームを進行させることが想定されているため、一実施形態において、ディスプレイ24には、立体視画像以外の画像が表示される。 In the first mode of the game realized in the application processing system 1, the information processing device 20 performs the A game-related process is performed according to the detected first detection information. The first detection information includes information about the touch operation of the user 5 detected by the touch panel 24b of the information processing device 20, information about the user's voice detected by the sound collector 26, and whether the HMD 10 is worn by the user 5. It may include detection information other than the above that can be detected by the information processing device 20 when it is not present. In the first mode, the user 5 can perform game-related operations using the information processing device 20 removed from the wearing tool 11 . In the first mode, it is assumed that the game progresses when the HMD 10 is not worn by the user 5, so in one embodiment, the display 24 displays an image other than the stereoscopic image.

アプリケーション処理システム1において実現されるゲームの第2モードでは、ユーザ5の頭部に装着されたHMD10によって検出される第2検出情報を用いてゲームが進行される。この第2検出情報は、例えば、センサユニット25によって検出される検出情報である。この第2検出情報に基づいて、ユーザ5の頭部の位置及び向きを特定するためのヘッドトラッキング情報が算出される。第2モードにおけるゲームの進行のための処理は、例えば、第2検出情報に基づいて算出されたヘッドトラッキング情報に基づいて実行される。第2モードにおけるゲームの進行のための処理は、ヘッドトラッキング情報に加えて、当該ヘッドトラッキング情報以外の情報も用いて実行されてもよい。ユーザ5は、第2モードでゲームをプレイする準備として、情報処理装置20を装着具11に取付け、この情報処理装置20が取り付けられた装着具11を頭部に装着する。このように、第2モードにおいては、HMD10がユーザ5に装着されているときにゲームを進行させることが想定されているため、一実施形態において、第2モードでは、ユーザ5によって立体視される立体視画像がディスプレイ24に表示される。立体視画像は、例えば、視差バリア方式によって、ディスプレイ24に表示される。視差バリア方式においては、左目用画像及び右目用画像がディスプレイ24に表示される。このように、立体視画像は、ディスプレイに表示されることによって、左右の目の視差を利用して立体視されるように構成された左目用画像及び右目用画像を含む画像のセットである。 In the second mode of the game implemented in the application processing system 1, the game proceeds using the second detection information detected by the HMD 10 worn on the user's 5 head. This second detection information is, for example, detection information detected by the sensor unit 25 . Based on this second detection information, head tracking information for specifying the position and orientation of the head of the user 5 is calculated. The processing for progressing the game in the second mode is executed based on, for example, head tracking information calculated based on the second detection information. The processing for progressing the game in the second mode may be executed using information other than the head tracking information in addition to the head tracking information. In preparation for playing the game in the second mode, the user 5 attaches the information processing device 20 to the wearing tool 11 and wears the wearing tool 11 to which the information processing device 20 is attached on the head. Thus, in the second mode, it is assumed that the game progresses while the HMD 10 is worn by the user 5. Therefore, in one embodiment, in the second mode, the user 5 stereoscopically A stereoscopic image is displayed on the display 24 . A stereoscopic image is displayed on the display 24 by, for example, a parallax barrier method. In the parallax barrier method, a left-eye image and a right-eye image are displayed on the display 24 . Thus, a stereoscopic image is a set of images including a left-eye image and a right-eye image that are configured to be stereoscopically viewed using the parallax of the left and right eyes by being displayed on a display.

第1モードは、例えば、チャットモードである。チャットモードは第1モードの例示である。チャットモードにおいては、ユーザが仮想キャラクタとテキストメッセージを介してチャットする機能が実現される。ユーザは、第1モードにおいては、仮想キャラクタとチャットを行うことにより、当該仮想キャラクタとのインタラクションを体験することができる。チャットモードにおける処理の具体的な内容は後述される。インタラクションとは、広義には、プレイヤが実行したアクションに対して仮想キャラクタがリアクションすることを意味する。仮想キャラクタとのインタラクションには、仮想キャラクタとの会話などによるコミュニケーションとしてなされるインタラクションが含まれる。本明細書においては、仮想キャラクタとのコミュニケーションとして行われるインタラクションをコミュニケーティブインタラクションと呼ぶことがある。仮想キャラクタとのインタラクションには、コミュニケーティブインタラクションの他に、仮想キャラクタとの対戦、仮想キャラクタと協力してゲームをプレイする協力プレイ、及びこれら以外の仮想キャラクタとの相互作用が含まれ得る。本明細書においては、仮想キャラクタとの対戦として行われるインタラクションを対戦インタラクションと呼ぶことがある。本明細書においては、仮想キャラクタとの協力プレイとして行われるインタラクションを協力インタラクションと呼ぶことがある。 The first mode is, for example, chat mode. Chat mode is an example of the first mode. The chat mode implements the ability for users to chat with virtual characters via text messages. In the first mode, the user can experience interaction with the virtual character by chatting with the virtual character. Specific contents of processing in the chat mode will be described later. Interaction, in a broad sense, means that a virtual character reacts to an action performed by a player. Interaction with a virtual character includes interaction made as communication such as conversation with a virtual character. In this specification, an interaction performed as communication with a virtual character is sometimes called a communicative interaction. Interactions with virtual characters can include, in addition to communicative interactions, battles with virtual characters, cooperative play in which a game is played in cooperation with virtual characters, and interactions with other virtual characters. In this specification, an interaction performed as a battle with a virtual character is sometimes referred to as a battle interaction. In this specification, an interaction performed as cooperative play with a virtual character may be referred to as a cooperative interaction.

第2モードは、例えば、VRモードである。VRモードにおいては、情報処理装置20のディスプレイに表示される仮想空間に登場する仮想キャラクタと様々なインタラクションを行うための機能が実現される。VRモードにおける処理の具体的な内容は後述される。VRモードは第2モードの例示であり、第2モードには、ヘッドトラッキング情報を用いてゲーム進行のための処理が行われる任意のゲームモードが含まれ得る。 The second mode is VR mode, for example. In the VR mode, functions for performing various interactions with virtual characters appearing in the virtual space displayed on the display of the information processing device 20 are implemented. Specific contents of processing in the VR mode will be described later. The VR mode is an example of the second mode, and the second mode may include any game mode in which processing for progressing the game is performed using head tracking information.

一実施形態において、アプリケーション処理システム1で実現される第1モード及び第2モードを有するゲームは、仮想キャクタとコミュニケーティブインタラクション以外のインタラクションを行うゲームであってもよい。アプリケーション処理システム1で実現されるゲームでは、コミュニケーティブインタラクションが行われなくともよい。一実施形態におけるゲームでは、第1モードでは2次元空間でプレイされ、第2モードでは3次元空間でプレイされる。一実施形態におけるゲームでは、第1モードでは3次元空間でプレイされ、第2モードでは当該第1モードの3次元空間とは異なる表示態様で表示される(又は当該第1モードの3次元空間とは異なる態様で構成される)3次元空間でプレイされる。一実施形態において、アプリケーション処理システム1で実現されるゲームは、第1モード及び第2モードで共通のゲーム媒体を使用するものであってもよい。このゲーム媒体に関連付けられたパラメータは、第1モードと第2モードとの間で引き継がれてもよい。例えば、第1モードでのプレイ中に特定のゲーム媒体のパラメータが変更され、その後に第2モードへ移行した場合には、変更後のパラメータが設定された当該特定のゲーム媒体が第2モードで用いられる。一実施形態において、特定のゲーム媒体のパラメータは、第1モードから第2モードへの移行時及び第2モードから第1モードへの移行時の少なくとも一方において、変更されてもよい。このゲーム媒体のパラメータの変更は、プレイヤ5にとってゲームの進行上有利となる変更であってもよいし、不利となる変更であってもよい。一実施形態において、第1モードでのプレイ結果が第2モードでのゲームに反映されてもよいし、第2モードでのプレイ結果が第1モードでのゲームに反映されてもよい。例えば、第1モードで獲得されたプレイヤ5の経験値が第2モードにおいて引き継がれてもよい。 In one embodiment, the game having the first mode and the second mode realized by the application processing system 1 may be a game in which interaction other than communicative interaction with a virtual character is performed. A game realized by the application processing system 1 does not have to involve communicative interaction. In one embodiment, the game is played in a two-dimensional space in a first mode and in a three-dimensional space in a second mode. In one embodiment, the game is played in a three-dimensional space in the first mode, and displayed in a display mode different from the three-dimensional space in the first mode in the second mode (or similar to the three-dimensional space in the first mode). are played in a three-dimensional space (configured in different ways). In one embodiment, the game realized by the application processing system 1 may use common game media in the first mode and the second mode. Parameters associated with this game content may be carried over between the first mode and the second mode. For example, if the parameters of a specific game medium are changed during play in the first mode, and then the mode is shifted to the second mode, the specific game medium in which the changed parameters are set is played in the second mode. Used. In one embodiment, certain game content parameters may be changed during transitions from the first mode to the second mode and/or during transitions from the second mode to the first mode. This change in the parameters of the game media may be a change that is advantageous or disadvantageous to the player 5 in terms of the progress of the game. In one embodiment, the result of playing in the first mode may be reflected in the game in the second mode, and the result of playing in the second mode may be reflected in the game in the first mode. For example, the experience value of player 5 acquired in the first mode may be inherited in the second mode.

上記のとおり、アプリケーション処理システム1において実現されるゲームの第1モードと第2モードとは互いから識別されるモードである。つまり、第1モードは第2モードと異なるモードである。一実施形態においては、アプリケーション処理システム1において実現されるゲームが第1モードでプレイされる場合には、HMD10がユーザ5の頭部に装着されないのに対し、当該ゲームが第2モードでプレイされる場合には、HMD10がユーザ5の頭部の頭部に装着される。この場合、第1モードにおいては、ユーザ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じてゲームの処理が行われ、第2モードにおいては、ユーザ5の頭部に装着されたHMD10により検出された第2検出情報に応じてゲームの処理が行われる。 As described above, the first mode and the second mode of the game implemented in the application processing system 1 are modes that are distinguished from each other. That is, the first mode is a mode different from the second mode. In one embodiment, the HMD 10 is not worn on the head of the user 5 when the game realized in the application processing system 1 is played in the first mode, whereas the game is played in the second mode. In this case, the HMD 10 is worn on the head of the user 5 . In this case, in the first mode, game processing is performed according to the first detection information detected by the information processing device 20 that is not worn on the head of the user 5, and in the second mode, the Game processing is performed according to the second detection information detected by the HMD 10 mounted on the head.

一実施形態において、第2モードでは、立体視画像がディスプレイ24に表示されるのに対し、上述したように、第1モードでは立体視画像以外の画像がディスプレイ24に表示される。第2モードでは、ゲーム用の画像のうち少なくとも仮想キャラクタの画像が立体視画像として表示され、第1モードでは、仮想キャラクタの画像が立体視画像以外の画像として表示される。 In one embodiment, a stereoscopic image is displayed on the display 24 in the second mode, whereas an image other than the stereoscopic image is displayed on the display 24 in the first mode, as described above. In the second mode, at least the virtual character image among the game images is displayed as a stereoscopic image, and in the first mode, the virtual character image is displayed as an image other than the stereoscopic image.

一実施形態において、第1モードにおいては第2検出情報に基づいて算出されるヘッドトラッキング情報を用いずにゲームを進行させる処理がなされるのに対して、第2モードにおいては当該ヘッドトラッキング情報に基づいてゲームを進行させる処理がなされる。 In one embodiment, in the first mode, processing is performed to progress the game without using head tracking information calculated based on the second detection information, whereas in the second mode, the head tracking information is not used. Based on this, processing for advancing the game is performed.

一実施形態において、第1モードにおいてはタッチパネル24bにより検出されるタッチ操作に応じてゲームを進行させる処理がなされるのに対して、第2モードにおいてはタッチパネル24bのタッチ操作に応じた処理はなされない。 In one embodiment, in the first mode, the game progresses according to the touch operation detected by the touch panel 24b, whereas in the second mode, there is no process according to the touch operation of the touch panel 24b. not.

一実施形態において、アプリケーション処理システム1において実現されるゲームにおいて仮想キャラクタとのインタラクションが提供される場合には、第1モードにおいては、ユーザ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じた当該仮想キャラクタとのインタラクションが提供され、第2モードにおいては、ユーザ5の頭部に装着されたHMD10により検出された第2検出情報に応じた当該仮想キャラクタとのインタラクションが提供される。 In one embodiment, when interaction with a virtual character is provided in a game implemented in the application processing system 1, in the first mode, the information processing device 20 that is not worn on the head of the user 5 detects In the second mode, interaction with the virtual character is provided according to the detected first detection information, and in the second mode, interaction with the virtual character is provided according to the second detection information detected by the HMD 10 mounted on the head of the user 5. interaction is provided.

ゲームを開始した後には、上記のように区別される第1モードと第2モードとの間での移行が可能となる。図5を参照して、アプリケーション処理システム1により処理されるゲームのモード移行の概略を説明する。図示のように、ステップS1においてゲームが開始されると、ステップS2において第1モードであるチャットモードS2が開始される。このチャットモードにおいて、第2モードであるVRモードへ移行するための移行処理が開始されると、ステップS3に移行し、第2モードへの移行処理が行われる。移行処理が完了すると、ステップS4において第2モードであるVRモードが開始される。VRモードが終了又は中断されると、チャットモードへの復帰処理が行われる。 After starting the game, it is possible to switch between the first mode and the second mode, which are distinguished as described above. With reference to FIG. 5, an outline of mode transition of the game processed by the application processing system 1 will be described. As shown in the figure, when the game is started in step S1, chat mode S2, which is the first mode, is started in step S2. In this chat mode, when transition processing for transitioning to the VR mode, which is the second mode, is started, the process proceeds to step S3, and transition processing to the second mode is performed. When the transition process is completed, the VR mode, which is the second mode, is started in step S4. When the VR mode ends or is interrupted, processing for returning to the chat mode is performed.

次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、コンピュータ読み取り可能な命令を実行することにより、チャットモード実行部21a、移行処理部21b、及びVRモード実行部21cとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、ゲームシステム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サーバ50に搭載されているコンピュータプロセッサにより実現されてもよい。 Next, functions realized by the computer processor 21 will be described more specifically. The computer processor 21 functions as a chat mode execution unit 21a, a transition processing unit 21b, and a VR mode execution unit 21c by executing computer-readable instructions. At least part of the functions implemented by computer processor 21 may be implemented by a computer processor other than computer processor 21 of game system 1 . At least part of the functions implemented by the computer processor 21 may be implemented by a computer processor installed in the server 50, for example.

チャットモード実行部21aは、一実施形態によるアプリケーション処理プログラムを実行することにより、第1モードであるチャットモードでゲームを提供するための処理を行う。チャットモード実行部21aは、ユーザ5と仮想キャラクタとの間でチャットを行うための機能を実現する。チャットモード実行部21aは、チャットモードへのログイン後に、仮想キャラクタのメッセージ及びユーザ5により入力又は選択されたメッセージをディスプレイ24に表示し、当該仮想キャラクタとユーザ5との間でチャットを行わせることができる。チャットモード実行部21aは、仮想キャラクタのメッセージに続けて、当該メッセージ対するユーザ5の応答に関する複数の選択肢をディスプレイ24に表示してもよい。ユーザ5の操作に応じて当該複数の選択肢からユーザ5のメッセージが特定され、この特定されたメッセージが、仮想キャラクタのメッセージに続けて、ユーザ5のメッセージとして表示される。ユーザ5は、タッチパネル24bへのタッチ操作により、表示された選択肢のうち所望のものを選択することができる。仮想キャラクタのメッセージ及び当該メッセージに対するユーザの選択肢は、アプリケーション処理プログラムに従って、チャットデータ28bを参照して特定することができる。仮想キャラクタのメッセージは、当該仮想キャラクタの画像とともに表示されてもよく、ユーザ5のメッセージは、当該ユーザ5の画像とともに表示されてもよい。仮想キャラクタのメッセージには、第2モードであるVRモードへの移行を促すメッセージ、当該VRモードにおける設定をユーザ5に選択させるためのメッセージ、及びこれら以外の当該VRモードに関連づけられたメッセージが含まれていてもよい。 The chat mode execution unit 21a performs processing for providing a game in the chat mode, which is the first mode, by executing an application processing program according to one embodiment. The chat mode execution unit 21a realizes a function for chatting between the user 5 and the virtual character. After logging into the chat mode, the chat mode execution unit 21a displays the message of the virtual character and the message input or selected by the user 5 on the display 24, and causes the virtual character and the user 5 to chat. can be done. The chat mode execution unit 21a may display on the display 24, following the message of the virtual character, a plurality of options regarding the user's 5 response to the message. A message for the user 5 is specified from the plurality of options according to the operation of the user 5, and the specified message is displayed as the message for the user 5 following the message of the virtual character. The user 5 can select a desired one of the displayed options by performing a touch operation on the touch panel 24b. The virtual character's message and the user's options for the message can be specified by referring to the chat data 28b according to the application processing program. The message of the virtual character may be displayed together with the image of the virtual character, and the message of the user 5 may be displayed together with the image of the user 5 . The virtual character's message includes a message prompting the transition to the VR mode, which is the second mode, a message for allowing the user 5 to select settings in the VR mode, and other messages associated with the VR mode. It may be

チャットモードにおいては、チャットの進行に応じて、第2モードであるVRモードへの移行を開始するための移行開始オブジェクトが表示される。移行開始オブジェクトの表示は、アプリケーション処理プログラムに従って、モード移行条件が成立したときに行われる。タッチパネル24b又はそれ以外のユーザインタフェースからの検出信号に基づいて移行開始オブジェクトが選択されたことが検知されると、第2モードであるVRモードへの移行処理が開始される。 In the chat mode, a transition start object for starting transition to the VR mode, which is the second mode, is displayed according to the progress of the chat. The transition start object is displayed when the mode transition condition is satisfied according to the application processing program. When it is detected that the transition start object has been selected based on a detection signal from the touch panel 24b or another user interface, processing for transitioning to the VR mode, which is the second mode, is started.

移行処理部21bは、第1モードから第2モードへ移行するための移行処理を行う。この移行処理には、情報処理装置20を装着具11へ装着するように促すガイダンスをディスプレイ24に表示すること、及び、ユーザの注視によって選択可能な移行オブジェクトをディスプレイ24に表示させること、を含んでもよい。この移行オブジェクトを表示させた後、移行処理部21bは、センサユニット25又はそれ以外のセンサの検出信号を受信し、この検出信号に基づいて移行オブジェクトが注視によって選択されたか否かを判定することができる。この判定のために、移行処理部21bは、センサユニット25の検出信号に基づいてHMD10の位置及び向きを算出し、この算出されたHMD10の位置及び向きに基づいて、ユーザ5の注視位置を特定する。注視位置の特定は、様々な公知の方法により行われ得る。例えば、アイトラッキングセンサの検出信号に基づいて注視位置を特定してもよい。移行処理部21bは、例えば、注視位置が移行開始オブジェクト上にある時間(注視時間)を計測し、この注視時間が所定時間に達したときに、移行開始オブジェクトの選択が完了したと判断する。移行処理部21bは、移行オブジェクトの選択が完了したと判断すると第2モードであるVRモードを開始させる。 The transition processing unit 21b performs transition processing for transitioning from the first mode to the second mode. This transition processing includes displaying on the display 24 guidance prompting the user to attach the information processing device 20 to the mounting tool 11, and displaying on the display 24 a transition object that can be selected by the user's gaze. It's okay. After displaying this transitional object, the transition processing unit 21b receives a detection signal from the sensor unit 25 or other sensors, and determines whether or not the transitional object has been selected by gaze based on this detection signal. can be done. For this determination, the transition processing unit 21b calculates the position and orientation of the HMD 10 based on the detection signal from the sensor unit 25, and specifies the gaze position of the user 5 based on the calculated position and orientation of the HMD 10. do. Identification of the gaze position can be performed by various known methods. For example, the gaze position may be specified based on the detection signal of an eye tracking sensor. The transition processing unit 21b measures, for example, the time the gaze position is on the transition start object (gazing time), and determines that the selection of the transition start object has been completed when the gaze time reaches a predetermined time. When the migration processing unit 21b determines that the selection of the migration object is completed, it starts the VR mode, which is the second mode.

VRモード実行部21cは、仮想キャラクタ及びそれ以外のオブジェクトを含む仮想空間を構成し、この仮想空間を表示するための画像情報をディスプレイ24に出力する。VRモード実行部21cは、仮想空間60の画像情報を、ゲームの進行に応じて定められるシーンに対応するように生成することができる。 The VR mode execution unit 21c constructs a virtual space including virtual characters and other objects, and outputs image information for displaying this virtual space to the display 24. FIG. The VR mode execution unit 21c can generate the image information of the virtual space 60 so as to correspond to the scene determined according to the progress of the game.

VRモード実行部21cによって構成される仮想空間について、図4aをさらに参照して説明する。図4aは、VRモード実行部21cによって構成される仮想空間60を模式的に示す図である。図4aには、第1シーンにおける初期設定時の仮想空間60が示されている。VRモード実行部21cは、第1シーンの初期設定に基づいて、仮想空間60内でのユーザ61の位置及び基準視線62を特定し、また、仮想空間60全体のうち基準視線62を中心として所定の範囲にある領域を初期表示領域63として特定する。この初期表示領域63は、例えば、基準視線62を中心として所定の画角内にある範囲とされる。初期表示領域63は、非表示領域と境界線63aによって区画される。VRモード実行部21cは、第1シーンの処理が開始されるときに、仮想空間60全体のうち初期表示領域63内の仮想空間の画像を示す画像情報を生成し、生成した画像情報をディスプレイ24に出力する。このようにして生成された画像情報に基づいて、初期表示領域63に相当する仮想空間60の画像がディスプレイ24に表示される。画像情報の生成には、例えば、ストレージ27に記憶された画像データ28a、シナリオデータ28c、イベントデータ28d、ゲーム進行データ28e、及びこれら以外のデータが用いられ得る。 The virtual space constructed by the VR mode execution unit 21c will be described with further reference to FIG. 4a. FIG. 4a is a diagram schematically showing the virtual space 60 configured by the VR mode execution section 21c. FIG. 4a shows the virtual space 60 at the time of initialization in the first scene. The VR mode execution unit 21c specifies the position of the user 61 and the reference line of sight 62 in the virtual space 60 based on the initial settings of the first scene, and also specifies a predetermined position centered on the reference line of sight 62 in the entire virtual space 60. is specified as the initial display area 63 . The initial display area 63 is, for example, a range within a predetermined angle of view centered on the reference line of sight 62 . The initial display area 63 is defined by the non-display area and the boundary line 63a. When the processing of the first scene is started, the VR mode execution unit 21c generates image information indicating an image of the virtual space within the initial display area 63 of the entire virtual space 60, and displays the generated image information on the display 24. output to An image of the virtual space 60 corresponding to the initial display area 63 is displayed on the display 24 based on the image information thus generated. Image data 28a, scenario data 28c, event data 28d, game progress data 28e, and other data stored in the storage 27, for example, can be used to generate image information.

VRモードにおいて第1シーンの処理を開始した後にHMD10によってユーザ5の頭部の動きが検出されると、VRモード実行部21cは、この検出されたユーザ5の頭部の動きに追従するように、基準視線62を移動させ、この移動後の基準視線62を中心として所定の画角内にある範囲を新たな表示領域として特定する。このように、VRモード実行部21cは、HMD10によってユーザ5の頭部の動きに応じて表示領域を随時更新し、この更新された表示領域に対応する仮想空間60の画像をディスプレイ24に出力する。この結果、ディスプレイ24に表示される仮想空間60の画像も表示領域に応じて変化する。ユーザ5は、このようにして、自らの頭部の動きに応じて変化する仮想空間60の画像を見ることができる。ユーザ61が仮想空間60内で移動する場合には、基準視線62の向きは、当該ユーザ61の仮想空間60内の位置に応じて変化する。 When the motion of the head of the user 5 is detected by the HMD 10 after starting the processing of the first scene in the VR mode, the VR mode execution unit 21c follows the detected motion of the head of the user 5. , the reference line of sight 62 is moved, and a range within a predetermined angle of view centered on the reference line of sight 62 after movement is specified as a new display area. In this way, the VR mode execution unit 21c updates the display area as needed according to the movement of the user's 5 head by the HMD 10, and outputs the image of the virtual space 60 corresponding to the updated display area to the display 24. . As a result, the image of the virtual space 60 displayed on the display 24 also changes according to the display area. The user 5 can thus see an image of the virtual space 60 that changes according to the movement of his head. When the user 61 moves within the virtual space 60 , the orientation of the reference line of sight 62 changes according to the position of the user 61 within the virtual space 60 .

仮想空間60には、主表示領域64が設けられている。主表示領域64は、第1主表示領域の例である。この主表示領域64は、シーンごとに定められる仮想空間60の所定の位置に設けられる。主表示領域64は、境界線64aによって他の領域と区画される。主表示領域64は、例えば、各シーンにおいて、ユーザ5の視線が向けられやすい位置を含む領域とされる。主表示領域64は、例えば、各シーンの初期設定に基づいて定められる初期表示領域63の内部に配置される。あるシーンにおける主表示領域64は、例えば、当該シーンの初期設定に基づいて定められる初期表示領域63の中に、インタラクションを行う仮想キャラクタを示すオブジェクトの少なくとも一部が含まれるように設定される。主表示領域64は、初期表示領域63の一部をなす領域であってもよいし、初期表示領域63と一致する領域であってもよい。図4aに示されている第1シーンにおいては、立位姿勢にあるユーザ61の基準視線62の周囲に主表示領域64が設けられている。 A main display area 64 is provided in the virtual space 60 . The main display area 64 is an example of a first main display area. The main display area 64 is provided at a predetermined position in the virtual space 60 determined for each scene. The main display area 64 is separated from other areas by a boundary line 64a. The main display area 64 is, for example, an area including a position to which the line of sight of the user 5 is likely to be directed in each scene. The main display area 64 is arranged, for example, inside the initial display area 63 determined based on the initial settings of each scene. A main display area 64 in a certain scene is set, for example, so that at least part of an object representing a virtual character that performs interaction is included in an initial display area 63 determined based on the initial settings of the scene. The main display area 64 may be an area that forms part of the initial display area 63 or may be an area that coincides with the initial display area 63 . In the first scene shown in FIG. 4a, a main display area 64 is provided around a reference line of sight 62 of a user 61 in a standing posture.

仮想空間60内には、仮想キャラクタのオブジェクト及びそれ以外の様々なオブジェクトが配置される。仮想空間60に含まれるオブジェクトには、ユーザ5の注視によって選択可能な特定オブジェクトが含まれてもよい。図4aには、このような特定オブジェクトの例として、メニューオブジェクト66が示されている。 A virtual character object and various other objects are placed in the virtual space 60 . Objects included in the virtual space 60 may include a specific object that can be selected by the user 5's gaze. A menu object 66 is shown in FIG. 4a as an example of such a specific object.

メニューオブジェクト66には、ユーザ5の注視によって選択可能な一又は複数のメニューアイテムが関連づけられていてもよい。この一又は複数のメニューアイテムの各々は、仮想空間60内でのユーザ61のアクションと関連づけられていてもよい。メニューオブジェクト66に含まれるメニューアイテムは、仮想空間60におけるユーザ61の頭部の動きと関連づけられていないアクション、例えば、仮想空間60におけるユーザ61の手の動きに関連するハンドアクション、又は、仮想空間60におけるユーザ61による道具の使用に関する道具アクションに関連づけられていてもよい。道具アクションは、例えば、ユーザ61が仮想空間60内でカメラを用いて写真撮影を行う写真アクションである。メニューオブジェクト66に複数のメニューアイテムが関連づけられている場合、ゲームの進行に応じて、そのうちの一部のみが選択可能とされてもよい。 The menu object 66 may be associated with one or more menu items that can be selected by the gaze of the user 5 . Each of the one or more menu items may be associated with an action of user 61 within virtual space 60 . The menu items included in the menu object 66 are actions that are not associated with movement of the user's 61 head in the virtual space 60, such as hand actions associated with movement of the user's 61 hand in the virtual space 60, or It may be associated with a tool action related to the use of a tool by user 61 at 60 . A tool action is, for example, a photograph action in which the user 61 takes a photograph in the virtual space 60 using a camera. When multiple menu items are associated with the menu object 66, only some of them may be selectable as the game progresses.

図4aに示されているように、メニューオブジェクト66は、仮想空間60において主表示領域64に含まれない位置に配置される。つまり、メニューオブジェクト66は、主表示領域64の外に配置される。メニューオブジェクト66は、初期表示領域63の内側に配置されてもよく、初期表示領域63の外側に配置されてもよい。 As shown in FIG. 4a, the menu object 66 is positioned in the virtual space 60 at a location not included in the main display area 64. As shown in FIG. That is, the menu object 66 is arranged outside the main display area 64 . The menu object 66 may be placed inside the initial display area 63 or outside the initial display area 63 .

図4bには、第2シーンにおける仮想空間60が示されている。第2シーンは、第1シーンとは異なるゲームシーンである。第2シーンは、第1シーンよりも前に又は第2シーンよりも後に実行される図示のように、第2シーンにおいては、仰臥位姿勢にあるユーザ61の基準視線62の周囲に主表示領域64が設けられている。この第2シーンにおいても、メニューオブジェクト66は、主表示領域64の外に配置されている。 Figure 4b shows the virtual space 60 in the second scene. The second scene is a game scene different from the first scene. The second scene is executed before the first scene or after the second scene. 64 are provided. Also in this second scene, the menu object 66 is arranged outside the main display area 64 .

VRモード実行部21cは、アプリケーション処理プログラムに従って、仮想空間に仮想キャラクタの画像を表示し、この仮想キャラクタとユーザ5との間でのインタラクションを実現する。VRモード実行部21cは、アプリケーション処理プログラムに従って、仮想空間内での仮想キャラクタの行動を決定し、この仮想キャラクタの行動に対応する画像情報及び音声情報を生成する。当該画像情報はディスプレイ24に出力され、当該音声情報はHMD10が有するスピーカに出力される。これにより、ディスプレイ24には、仮想空間内で仮想キャラクタが動く画像が表示され、スピーカからは仮想キャラクタの動きに対応した音声が出力される。例えば、仮想キャラクタがユーザ5に話しかける場合には、仮想キャラクタの頭部及び口が動く動く画像がディスプレイ24に表示され、仮想キャラクタの発言に対応する音声がスピーカから出力される。仮想キャラクタの行動に対応する画像情報及び音声情報の生成には、例えば、ストレージ27に記憶された画像データ28a、シナリオデータ28c、イベントデータ28d、ゲーム進行データ28e、及びこれら以外のデータが用いられ得る。一実施形態において、VRモード及びチャットモードの各々においてユーザ5とインタラクトする仮想キャラクタは、同じ仮想キャラクタである。例えば、VRモードに登場する仮想キャラクタとチャットモードに登場するキャラクタと同じ名前を有し、同一のキャラクタと認識できる程度の外観上の共通性を有する。ただし、VRモードにおいては仮想キャラクタの画像が立体視画像として表示されるのに対し、チャットモードにおいては仮想キャラクタの画像が立体視画像以外の画像として表示される点で、両モードにおける仮想キャラクタの画像は互いと相違している。しかし、このような表現形式の相違は、仮想キャラクタの同一性を妨げることはない。 The VR mode execution unit 21c displays an image of the virtual character in the virtual space according to the application processing program, and realizes interaction between the virtual character and the user 5. FIG. The VR mode execution unit 21c determines the action of the virtual character in the virtual space according to the application processing program, and generates image information and audio information corresponding to the action of the virtual character. The image information is output to the display 24 , and the audio information is output to the speaker of the HMD 10 . As a result, an image in which the virtual character moves in the virtual space is displayed on the display 24, and sound corresponding to the movement of the virtual character is output from the speaker. For example, when the virtual character speaks to the user 5, an image in which the head and mouth of the virtual character move is displayed on the display 24, and the voice corresponding to the speech of the virtual character is output from the speaker. For example, image data 28a, scenario data 28c, event data 28d, game progress data 28e, and other data stored in the storage 27 are used to generate image information and audio information corresponding to actions of the virtual character. obtain. In one embodiment, the virtual character that interacts with user 5 in each of VR mode and chat mode is the same virtual character. For example, a virtual character appearing in the VR mode and a character appearing in the chat mode have the same name, and have similarities in appearance to the extent that they can be recognized as the same character. However, while the virtual character image is displayed as a stereoscopic image in the VR mode, the virtual character image is displayed as an image other than the stereoscopic image in the chat mode. The images are different from each other. However, such a difference in representation does not prevent the identity of the virtual characters.

上記の機能に加えて、VRモード実行部21cは、センサユニット25からの検出信号に基づいて、仮想空間60におけるユーザ61のアクションを特定する機能を有する。仮想空間60におけるユーザ61のアクションは、例えば、仮想空間60に登場する仮想キャラクタに対するユーザ61からのアクションである。仮想空間60におけるユーザ61のアクションは、仮想空間60内における仮想的なものであるため、現実空間におけるユーザ5の身体動作又は現実空間におけるユーザ5の動きと一致する場合もあるし一致しない場合もある。 In addition to the functions described above, the VR mode execution unit 21 c has a function of identifying actions of the user 61 in the virtual space 60 based on detection signals from the sensor unit 25 . Actions of the user 61 in the virtual space 60 are, for example, actions by the user 61 with respect to virtual characters appearing in the virtual space 60 . Since the action of the user 61 in the virtual space 60 is virtual in the virtual space 60, it may or may not match the body movement of the user 5 in the real space or the movement of the user 5 in the real space. be.

仮想空間60におけるユーザ61のアクションには、ユーザ61の頭部の動きと関連づけられる第1アクションと、ユーザ61の頭部の動きと関連づけられていない第2アクションと、が含まれる。仮想空間60におけるユーザ61の頭部の動きと関連づけられる第1アクションには、ユーザ61が仮想空間60において頷くというアクション、ユーザ61が仮想空間60において首を横に振るというアクション、及びこれら以外の仮想空間60におけるユーザ61の頭部の動きと関連づけられたアクションが含まれる。VRモード実行部21cは、ユーザ5の頭部に装着されているHMD10に備えられたセンサユニット25によって検出された検出情報に基づいてHMD10の位置及び向きを算出することにより、現実空間におけるユーザ5の頭部の動きを特定することができる。 Actions of the user 61 in the virtual space 60 include a first action associated with the movement of the user's 61 head and a second action not associated with the movement of the user's 61 head. The first action associated with the movement of the head of the user 61 in the virtual space 60 includes an action in which the user 61 nods in the virtual space 60, an action in which the user 61 shakes his head in the virtual space 60, and other actions. Actions associated with head movements of user 61 in virtual space 60 are included. The VR mode execution unit 21c calculates the position and orientation of the HMD 10 based on the detection information detected by the sensor unit 25 provided in the HMD 10 worn on the head of the user 5, thereby allowing the user 5 in the real space. head movements can be identified.

VRモード実行部21cは、HMD10により検出された一又は複数の検出情報に基づいて、実世界におけるユーザ5の頭部の動きを検出し、この検出したユーザ5の頭部の実世界における動きに一致又は対応するアクションを、仮想空間60におけるユーザ61の第1アクションとして特定する。例えば、ユーザ5が頷く動作を行ったことが検出された場合には、仮想空間60におけるユーザ61の第1アクションとして、(仮想空間60において)ユーザ61が頷くというアクションが特定される。仮想空間60におけるユーザ61の第1アクションは、仮想空間60が一人称視点の画像としてディスプレイ24に表示される場合には、その仮想空間60の画像には含まれない。 The VR mode execution unit 21c detects movement of the head of the user 5 in the real world based on one or more pieces of detection information detected by the HMD 10, and detects the movement of the head of the user 5 in the real world. A matching or corresponding action is identified as the first action of user 61 in virtual space 60 . For example, when it is detected that the user 5 has performed a nodding motion, the action of the user 61 nodding (in the virtual space 60 ) is specified as the first action of the user 61 in the virtual space 60 . The first action of the user 61 in the virtual space 60 is not included in the image of the virtual space 60 when the virtual space 60 is displayed on the display 24 as a first-person viewpoint image.

仮想空間60におけるユーザ61の第2アクションは、仮想空間60におけるユーザ61の頭部の動きと関連づけられていない。この第2アクションは、仮想空間60におけるユーザ61の頭部以外の部位の動き、例えばユーザ61の手の動きと関連づけられている。第2アクションには、ユーザ61が仮想空間60において「撫でる」というアクション、ユーザ61が仮想空間60において「つつく」というアクション、及びこれら以外の仮想空間60におけるユーザ61の頭部以外の部位の動きと関連づけられたアクションが含まれる。「撫でる」というアクションは第1注視位置アクションの例であり、「つつく」というアクションは第2注視位置アクションの例である。 The second action of user 61 in virtual space 60 is not associated with the movement of the head of user 61 in virtual space 60 . This second action is associated with movement of a part other than the head of the user 61 in the virtual space 60, for example movement of the hand of the user 61. FIG. The second action includes an action of "stroking" the user 61 in the virtual space 60, an action of "poking" the user 61 in the virtual space 60, and movements of parts other than the head of the user 61 in the virtual space 60 other than these. Contains actions associated with The action "stroking" is an example of a first gaze position action, and the action "poking" is an example of a second gaze position action.

一実施形態において、VRモード実行部21cは、メニューオブジェクト66が選択されたことに応じて、第2アクションの特定を行うように構成される。VRモード実行部21cは、HMD10の検出信号に基づいて算出される注視位置に基づいて、メニューオブジェクト66が選択されたことを検出することができる。例えば、VRモード実行部21cは、注視位置がメニューオブジェクト66上に所定時間以上あるか否かによって、メニューオブジェクト66の選択が完了したか否かを判定することができる。例えば、注視位置がメニューオブジェクト66上に所定時間以上あれば、メニューオブジェクト66の選択が完了したと判定される。 In one embodiment, the VR mode execution unit 21c is configured to specify the second action in response to the menu object 66 being selected. The VR mode execution unit 21c can detect that the menu object 66 has been selected based on the gaze position calculated based on the detection signal of the HMD 10. FIG. For example, the VR mode execution unit 21c can determine whether or not the selection of the menu object 66 has been completed based on whether or not the gaze position is on the menu object 66 for a predetermined time or longer. For example, if the gaze position is on the menu object 66 for a predetermined time or longer, it is determined that the selection of the menu object 66 has been completed.

メニューオブジェクト66に複数のメニューアイテムが含まれる場合には、VRモード実行部21cは、当該複数のメニューアイテムのうちの一つの上に注視位置が所定時間以上ある場合に、当該メニューアイテムが選択されたことを検出することができる。 When the menu object 66 includes a plurality of menu items, the VR mode execution unit 21c selects the menu item when the gaze position is on one of the plurality of menu items for a predetermined time or longer. can be detected.

VRモード実行部21cは、メニューオブジェクト66の選択又はメニューオブジェクト66に含まれるメニューアイテムのうちの一つの選択を検出すると、この選択されたメニューオブジェクト66又は選択されたメニューアイテムに対応するアクションを、ユーザ61が仮想キャラクタに対して行う選択アクションとして設定する。上述のように、メニューアイテムには、仮想空間60におけるユーザ61の手の動きに関連するハンドアクションに対応するメニューアイテム、及び、仮想空間60における写真撮影に関連する写真アクションに対応するメニューアイテムが含まれていてもよい。このハンドアクションに関連づけられているメニューアイテムが選択された場合、VRモード実行部21cは、このハンドアクションを仮想キャラクタに対する選択アクションとして設定する。 When the VR mode execution unit 21c detects the selection of the menu object 66 or the selection of one of the menu items included in the menu object 66, the action corresponding to the selected menu object 66 or the selected menu item is This is set as a selection action that the user 61 performs on the virtual character. As described above, the menu items include menu items corresponding to hand actions related to hand movements of the user 61 in the virtual space 60 and menu items corresponding to photo actions related to taking a picture in the virtual space 60. may be included. When the menu item associated with this hand action is selected, the VR mode execution unit 21c sets this hand action as the selected action for the virtual character.

VRモード実行部21cは、第2アクションが設定されると、仮想キャラクタ上に一又は複数のキャラクタ注視位置を設定してもよい。VRモード実行部21cは、当該一又は複数の注視位置のうちの少なくとも一つの注視位置が選択されたときに、その選択された注視位置と選択アクションとに基づいて、仮想キャラクタに対するアクションを特定することができる。例えば、ハンドアクションに対応するメニューアイテムが選択された場合に、仮想キャラクタの頭部に設定された注視位置が選択されると、当該仮想キャラクタの頭を撫でるというアクションが特定され、この特定されたアクションが仮想空間60において行われる。 When the second action is set, the VR mode execution unit 21c may set one or more character gaze positions on the virtual character. When at least one of the one or more gaze positions is selected, the VR mode execution unit 21c specifies an action for the virtual character based on the selected gaze position and the selected action. be able to. For example, when a menu item corresponding to a hand action is selected and a gaze position set to the head of a virtual character is selected, an action of stroking the head of the virtual character is specified, and this specified action is specified. Actions take place in virtual space 60 .

VRモード実行部21cは、ユーザ61のアクションに応じて仮想キャラクタの仮想空間内での行動(リアクション)を決定することができる。VRモード実行部21cは、ユーザ5のアクションに応じて決定された仮想キャラクタの行動を表示するための画像情報を生成し、この生成された画像情報を立体視画像としてディスプレイ24に出力する。これにより、ディスプレイ24には、ユーザ5のアクションに応じて決定された行動を行う仮想キャラクタの画像が表示される。このように、VRモード実行部21cは、ユーザ61のアクションに対する仮想キャラクタの行動(リアクション)を決定し、その決定された行動に対応する仮想キャラクタの画像情報をディスプレイ24に出力する。VRモードでは、このようにしてユーザ5と立体視画像として表示される仮想キャラクタとの間でのインタラクションを実現している。 The VR mode execution unit 21c can determine the action (reaction) of the virtual character in the virtual space according to the action of the user 61. FIG. The VR mode execution unit 21c generates image information for displaying the action of the virtual character determined according to the action of the user 5, and outputs the generated image information to the display 24 as a stereoscopic image. As a result, the display 24 displays an image of the virtual character performing the action determined according to the action of the user 5 . In this way, the VR mode execution unit 21c determines the action (reaction) of the virtual character in response to the action of the user 61, and outputs image information of the virtual character corresponding to the determined action to the display 24. FIG. In the VR mode, interaction between the user 5 and the virtual character displayed as a stereoscopic image is realized in this way.

VRモード実行部21cは、終了条件が満たされるとVRモードを終了するための終了処理を行う。終了条件は、例えば、VRモードの開始から所定時間(例えば、1分)経過したこと、終了対象操作が検知されたこと、VRモードで実行されているシナリオに含まれる最後のイベントが終了したこと、及びこれら以外の条件である。終了条件が満たされたときに行われる終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。 The VR mode execution unit 21c performs termination processing for terminating the VR mode when the termination condition is satisfied. The end conditions are, for example, that a predetermined time (for example, one minute) has elapsed since the start of the VR mode, that an end target operation has been detected, and that the last event included in the scenario being executed in the VR mode has ended. , and other conditions. The termination process performed when the termination condition is satisfied includes displaying guidance on the display 24 prompting the user to remove the information processing device 20 from the wearing tool 11, and displaying a login screen for the chat mode, which is the first mode. Displaying may be included.

次に、図6及び図7を参照して、チャットモードにおけるチャット処理について説明する。図6は、一実施形態におけるチャットモードでの処理の流れを示すフロー図であり、図7は、チャットモードにおける表示画像の例を示す。チャットモードの開始時においては、HMD10はユーザ5の頭部に装着されておらず、また、情報処理装置20は装着具11から取り外されていることが想定されている。 Next, chat processing in the chat mode will be described with reference to FIGS. 6 and 7. FIG. FIG. 6 is a flowchart showing the flow of processing in chat mode in one embodiment, and FIG. 7 shows an example of a display image in chat mode. At the start of the chat mode, it is assumed that the HMD 10 is not worn on the head of the user 5 and the information processing device 20 is removed from the wearing tool 11 .

アプリケーション処理システム1において、ゲームは、チャットモードで開始される。ステップS11では、チャットモードへログインするためのログイン画面が情報処理装置20のディスプレイ24に表示される。ユーザ5によってログイン処理がなされると、当該チャット処理は、ステップS12に移行する。 In the application processing system 1, the game is started in chat mode. In step S<b>11 , a login screen for logging into the chat mode is displayed on the display 24 of the information processing device 20 . When the user 5 performs the login process, the chat process proceeds to step S12.

ステップS12においては、ユーザ5と仮想キャラクタとの間でメッセージが交換され、これにより両者の間でチャットが行われる。チャットモードへのログインがなされると、ユーザ5と仮想キャラクタとの間で行われるチャットを表示するためのチャット表示画像が生成され、当該チャット表示画像がディスプレイ24に表示される。図7は、ディスプレイ24に表示されるチャット表示画像の一例であるチャット表示画像70を示す。チャット表示画像70は、ユーザ5に対応するアイコン73と、仮想キャラクタに対応するアイコン74と、ユーザ5のメッセージ75aと、仮想キャラクタのメッセージ76a,76bと、移行開始オブジェクト78と、を含むチャット表示領域71を含む。また、チャット表示画像70は、チャット表示領域71の上部に配されたメニュー領域72を含む。仮想キャラクタのメッセージ76a,76bは、アプリケーション処理プログラムに従って、ストレージ72に記憶されているチャットデータ28b及びこれ以外のデータに基づいて特定される。例えば、仮想キャラクタのメッセージは、ツリー構造で定義されているチャットデータ28bを参照して、ルートノードにあるメッセージから順に表示される。ノードの分岐点においては、分岐条件に応じたノードが選択され、当該選択されたノードに対応するメッセージが表示される。 In step S12, messages are exchanged between the user 5 and the virtual character, whereby a chat is conducted between them. When the chat mode is logged in, a chat display image for displaying a chat between the user 5 and the virtual character is generated and displayed on the display 24 . FIG. 7 shows a chat display image 70, which is an example of a chat display image displayed on the display 24. As shown in FIG. The chat display image 70 includes an icon 73 corresponding to the user 5, an icon 74 corresponding to the virtual character, a message 75a of the user 5, messages 76a and 76b of the virtual character, and a transition start object 78. Includes area 71 . The chat display image 70 also includes a menu area 72 arranged above the chat display area 71 . The virtual character messages 76a and 76b are specified based on the chat data 28b and other data stored in the storage 72 according to the application processing program. For example, virtual character messages are displayed in order from the message at the root node with reference to the chat data 28b defined in the tree structure. At a node branch point, a node is selected according to the branch condition, and a message corresponding to the selected node is displayed.

ユーザ5は、チャット表示画像70に含まれる選択肢のうちの一つを選択することができる。この選択は、ディスプレイ24において選択したい選択肢が表示されている領域を指で接触することで行われる。この選択がなされると、選択された選択肢に対応するメッセージ75bが、ユーザ5のメッセージとしてチャット表示領域71に新たに表示される。 User 5 can select one of the options included in chat display image 70 . This selection is made by touching with a finger the area where the option to be selected is displayed on the display 24 . When this selection is made, a message 75b corresponding to the selected option is newly displayed in the chat display area 71 as the message for the user 5. FIG.

ステップS13では、第1モードから第2モードへのモード移行条件が成立したか否かが判定される。第1モードから第2モードへのモード移行条件として、例えば、チャットモード開始から所定時間(例えば、1分)が経過したことという条件が用いられる。チャットモード開始からの経過時間は、例えばシステムクロックを用いて計測される。モード移行条件が成立したと判断されるまで、ステップS12に戻ってチャット処理が継続される。他方、モード移行条件が成立したと判断されると、チャット処理は、ステップS14に移行する。 In step S13, it is determined whether or not the condition for mode transition from the first mode to the second mode is satisfied. As a mode transition condition from the first mode to the second mode, for example, a condition that a predetermined time (for example, one minute) has passed since the start of the chat mode is used. Elapsed time from the start of the chat mode is measured using, for example, the system clock. The process returns to step S12 and the chat process continues until it is determined that the mode transition condition is satisfied. On the other hand, if it is determined that the mode transition condition is satisfied, the chat process proceeds to step S14.

ステップS14においては、移行開始オブジェクト78移行開始オブジェクト78がディスプレイ24に表示され、チャット処理は、ステップS15に進む。図7に示されているように、移行開始オブジェクト78は、例えばチャット領域71内に、外縁が円形のオブジェクトとして表示される。ステップS15において、移行開始オブジェクトの選択が確認されると、チャット処理は、ステップS16に進む。他方、移行開始オブジェクトが表示されてから所定時間(例えば、10秒)経過しても移行開始オブジェクトの選択が確認されない場合には、移行開始オブジェクトの選択がなされなかったと判定され、チャット処理が終了する。移行開始オブジェクトの選択がなされなかったと判定されたときに、ステップS12に戻り、チャットを再開するための処理が行われてもよい。移行開始オブジェクトの選択がなされたか否かは、タッチパネル24bへの操作に応じて判断されてもよい。例えば、移行開始オブジェクトの表示領域と重複する位置へのタッチ操作(例えば、タップ操作)がなされたことがタッチパネル24bによる検出信号から検出されたときに、当該移行開始オブジェクトが選択されたと判断される。 In step S14, the transition start object 78 is displayed on the display 24, and the chat process proceeds to step S15. As shown in FIG. 7, the transition start object 78 is displayed, for example, in the chat area 71 as an object with a circular outer edge. In step S15, when the selection of the transition start object is confirmed, the chat process proceeds to step S16. On the other hand, if the selection of the transition start object is not confirmed even after a predetermined time (for example, 10 seconds) has elapsed since the transition start object was displayed, it is determined that the transition start object was not selected, and the chat process ends. do. When it is determined that the transition start object has not been selected, the process may return to step S12 and perform processing for resuming the chat. Whether or not the transition start object has been selected may be determined according to the operation on the touch panel 24b. For example, when it is detected from the detection signal from the touch panel 24b that a touch operation (for example, a tap operation) has been performed on a position overlapping the display area of the transition start object, it is determined that the transition start object has been selected. .

ステップS16では、第2モードであるVRモードへの移行処理が開始される。移行処理が開始されると、チャット処理は終了する。チャットモードにおいては、移行先のVRモードにおけるシーンの選択肢がディスプレイ24に表示されてもよい。ユーザ5は、この選択肢の中から好みのシーンを選択することができる。 In step S16, processing for shifting to the VR mode, which is the second mode, is started. Once the transition process is started, the chat process ends. In the chat mode, scene options in the destination VR mode may be displayed on the display 24 . The user 5 can select a favorite scene from these options.

以上のチャット処理は、チャットモード実行部21aにより実行される。チャットモード実行部21aは、単独で又は他の機能と適宜協働して、上記のチャット処理を実行することができる。チャット処理の実行に際しては、ストレージ27に格納されているデータ以外にも、必要に応じて、他のストレージに格納されているデータ、各種センサによって検出された検出情報、またはこれら以外のデータが用いられ得る。 The chat processing described above is executed by the chat mode execution unit 21a. The chat mode execution unit 21a can execute the above-described chat processing independently or appropriately in cooperation with other functions. When executing the chat process, in addition to the data stored in the storage 27, data stored in other storages, detection information detected by various sensors, or data other than these are used as necessary. can be

第1モードであるチャットモードから第2モードであるVRモードへのモード移行処理においては、HMD10を装着するように促すガイダンスが、情報処理装置20のディスプレイ24に表示される。このガイダンスに続いて、ディスプレイ24には、移行オブジェクトが表示される。この移行オブジェクトがユーザ5によって選択されるとVRモードが開始される。ユーザ5は、HMD10を装着し、移行オブジェクトを所定時間継続して注視することにより、この移行オブジェクトを選択することができる。 In the mode transition processing from the chat mode, which is the first mode, to the VR mode, which is the second mode, guidance prompting the user to wear the HMD 10 is displayed on the display 24 of the information processing device 20 . Following this guidance, display 24 displays transition objects. When this transition object is selected by user 5, the VR mode is started. The user 5 can select this transitional object by wearing the HMD 10 and continuously gazing at the transitional object for a predetermined period of time.

次に、図8及び図9を参照して、VRモードにおけるVR処理について説明する。図8は、一実施形態におけるVRモードでのVR処理の流れを示すフロー図であり、図9は、VRモードにおける表示画像の例を示す。VRモードの開始時においては、HMD10はユーザ5の頭部に装着されていることが想定されている。以下のVRモードに関する説明では、チャットモードにおいて、ユーザ5により第1シーンが選択されたものとする。第1シーンとして、様々なシーンが設定され得る。例えば、第1シーンは、屋内又は屋外の任意の場所において会話を行うためのシーンであってもよい。図8のVR処理は、終了条件が成立するまで繰り返し行われる。終了条件は、例えば、VRモードの開始から所定時間(例えば、1分)経過したこと、終了対象操作が検知されたこと、VRモードで実行されているシナリオに含まれる最後のイベントが終了したこと、及びこれら以外の条件である。 Next, VR processing in the VR mode will be described with reference to FIGS. 8 and 9. FIG. FIG. 8 is a flow diagram showing the flow of VR processing in VR mode in one embodiment, and FIG. 9 shows an example of a display image in VR mode. It is assumed that the HMD 10 is worn on the head of the user 5 at the start of the VR mode. In the following description of the VR mode, it is assumed that the user 5 has selected the first scene in the chat mode. Various scenes can be set as the first scene. For example, the first scene may be a scene for having a conversation anywhere indoors or outdoors. The VR processing in FIG. 8 is repeatedly performed until the termination condition is satisfied. The end conditions are, for example, that a predetermined time (for example, one minute) has elapsed since the start of the VR mode, that an end target operation has been detected, and that the last event included in the scenario being executed in the VR mode has ended. , and other conditions.

VRモードが開始されると、ステップS21において、第1シーンに対応する仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。第1シーンにおける仮想空間60の画像情報は、例えば画像データ28aを参照することにより生成される。ステップS21においては、まず、第1シーンにおける仮想空間60のうち初期表示領域63の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。図9は、第1シーンの初期表示領域63の表示画像の例を示している。図9に示されているVR画像80は、仮想キャラクタ65、メニューオブジェクト66、背景に相当するオブジェクト82a~82c、及びこれら以外の各種オブジェクトを示す画像を含んでいる。メニューオブジェクト66は、主表示領域64の外に配されている。VR画像80は、一人称視点の画像であるため、ユーザ61を示す画像は表示されていない。 When the VR mode is started, image information of the virtual space corresponding to the first scene is generated and an image corresponding to the image information is output to the display 24 in step S21. The image information of the virtual space 60 in the first scene is generated by referring to the image data 28a, for example. In step S<b>21 , first, image information of the initial display area 63 in the virtual space 60 in the first scene is generated, and an image corresponding to the image information is output to the display 24 . FIG. 9 shows an example of the display image of the initial display area 63 of the first scene. The VR image 80 shown in FIG. 9 includes images showing a virtual character 65, a menu object 66, objects 82a to 82c corresponding to the background, and various other objects. A menu object 66 is arranged outside the main display area 64 . Since the VR image 80 is a first-person viewpoint image, an image representing the user 61 is not displayed.

仮想キャラクタ画像65は、様々なアクションを仮想空間内で行うことができる。例えば、仮想キャラクタ画像65のアクションには、ユーザ61に向かって(仮想空間内のユーザ61の位置に向かって)話しかける、仮想空間内を移動する、仮想空間内に配置されたオブジェクトを手に取る、及びこれら以外の仮想空間内における様々なアクションが含まれる。 The virtual character image 65 can perform various actions within the virtual space. For example, the actions of the virtual character image 65 include speaking to the user 61 (toward the position of the user 61 in the virtual space), moving in the virtual space, and picking up an object placed in the virtual space. , and various other actions in the virtual space.

VR画像80がディスプレイ24に表示されている間に、HMD10のセンサユニット25によってユーザ5の頭部の動きが検出されると、この検出された頭部の動きに基づいて仮想空間60内でのユーザ61の第1アクションが特定される。そして、特定されたユーザ61の第1アクションに応じた仮想キャラクタの行動(リアクション)が決定され、この決定された行動を行う仮想キャラクタ65の画像情報が生成される。このようにして生成された画像情報は、ディスプレイ24に出力される。例えば、ユーザ5が首を縦方向に振る動作(頷く動作)を行ったことが検出されると、HMD10の検出情報に基づいてユーザ61の仮想空間60内における第1アクションとして頷くというアクションが特定される。そして、このユーザ61の頷くという第1アクションへのリアクションを取る仮想キャラクタ画像65の画像情報が生成され、当該画像情報がディスプレイ24に表示される。このように、VRモードでは、仮想キャラクタの立体視画像を用いて、ユーザと仮想キャラクタ65との間でのインタラクションが実現される。 When the sensor unit 25 of the HMD 10 detects the movement of the head of the user 5 while the VR image 80 is being displayed on the display 24, the movement in the virtual space 60 is performed based on the detected movement of the head. A first action of user 61 is identified. Then, a behavior (reaction) of the virtual character according to the specified first action of the user 61 is determined, and image information of the virtual character 65 performing the determined behavior is generated. The image information generated in this manner is output to the display 24 . For example, when it is detected that the user 5 performs a motion of shaking the head in the vertical direction (nodding motion), the action of nodding is specified as the first action of the user 61 in the virtual space 60 based on the detection information of the HMD 10 . be done. Then, image information of the virtual character image 65 that takes the reaction to the first action of nodding by the user 61 is generated, and the image information is displayed on the display 24 . Thus, in the VR mode, interaction between the user and the virtual character 65 is realized using the stereoscopic image of the virtual character.

ステップS22では、VR画像表示処理を終了するための終了条件が成立したか否かが判定される。終了条件が成立していないと判定された場合には、ステップS21に戻ってVR画像表示処理が継続される。他方、終了条件が成立したと判定された場合には、VR処理は、ステップS23に進む。 In step S22, it is determined whether or not an end condition for ending the VR image display processing is satisfied. If it is determined that the termination condition is not satisfied, the process returns to step S21 to continue the VR image display processing. On the other hand, if it is determined that the end condition is met, the VR process proceeds to step S23.

ステップS23では、VRモードの終了処理がなされる。この終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。 In step S23, VR mode end processing is performed. This termination process may include displaying on the display 24 guidance prompting the user to remove the information processing device 20 from the wearing tool 11, and displaying a login screen for the chat mode, which is the first mode. .

以上のVR処理は、VRモード実行部21cにより実行される。VRモード実行部21cは、単独で又は他の機能と適宜協働して、上記のVR処理を実行することができる。 The above VR processing is executed by the VR mode execution unit 21c. The VR mode execution unit 21c can execute the above-described VR processing independently or appropriately in cooperation with other functions.

次に、図10及び図11a~図11dを参照して、第2アクションを特定するための第2アクション特定処理について説明する。図10は、一実施形態における第2アクション特定処理の流れを示すフロー図であり、図11a~図11dは、第2アクションを特定するための処理における表示画像の例を示す。第2アクションを特定するための処理は、図8を参照して説明したVR処理と並行して行われる。 Next, a second action identifying process for identifying a second action will be described with reference to FIGS. 10 and 11a to 11d. FIG. 10 is a flow diagram showing the flow of the second action specifying process in one embodiment, and FIGS. 11a to 11d show examples of display images in the process for specifying the second action. The processing for identifying the second action is performed in parallel with the VR processing described with reference to FIG.

まず、ステップS31において、メニューオブジェクト66の選択が行われたか否かが判断される。例えば、メニューオブジェクト66を注視する注視時間が所定時間に達したときに、メニューオブジェクト66の選択が行われたと判断される。メニューオブジェクト66の選択が行われなかった場合には、ステップ31の判断が繰り返し行われる。他方、メニューオブジェクト66の選択が行われたと判断された場合には、第2アクション特定処理は、ステップS32に移行する。 First, in step S31, it is determined whether or not the menu object 66 has been selected. For example, when the gaze time for gazing at the menu object 66 reaches a predetermined time, it is determined that the menu object 66 has been selected. If the menu object 66 has not been selected, the determination of step 31 is repeated. On the other hand, if it is determined that the menu object 66 has been selected, the second action specifying process proceeds to step S32.

ステップS32では、当該メニューオブジェクト66に関連づけられているメニューアイテムがディスプレイ24に表示される。図11aに、メニューオブジェクト66に関連づけられているメニューアイテムを含む仮想空間の画像の例を示す。図11aに示されているVR画像80は、2つのメニューアイテムにそれぞれ対応するアイコンを含んでいる。具体的には、VR画像80は、メニュー画像67を含み、このメニュー画像67に、メニューアイテムアイコン68a及びメニューアイテムアイコン68bが含まれている。メニューアイテムアイコン68aは、仮想空間60におけるユーザ61の手の動きに関連するハンドアクションに対応するメニューアイテムを示すアイコンであり、メニューアイテムアイコン68bは、仮想空間60における写真撮影に関連する写真アクションに対応するメニューアイテムを示すアイコンである。メニューアイテムをディスプレイ24へ表示するための処理が行われると、第2アクション特定処理は、ステップS33へ移行する。仮想空間内に表示されるメニューアイテムアイコン68a及びメニューアイテムアイコン68bは、当該仮想空間内に配置されている仮想的な構造物の一つの面に平行となるように表示されてもよい。例えば、図示の実施形態においては、メニューアイテムアイコン68a及びメニューアイテムアイコン68bは、図11aに示されている仮想空間における部屋の床面、壁面、又は天井面に平行となるように表示されてもよい。メニューアイテムアイコン68a及びメニューアイテムアイコン68bのこのような配置により、当該メニューアイテムアイコン68a及びメニューアイテムアイコン68bを仮想空間内に配置された仮想的な物体であるかのように表示することができる。これにより、ユーザ61の没入感を損なわないようにすることができる。メニューアイテムアイコン68aは、仮想空間において、メニューアイテムアイコン68bが配置されている面と異なる面に配置されてもよい。メニューアイテムアイコン68a及びメニューアイテムアイコン68b以外のメニュー画像67の構成要素も仮想空間内に配置されている仮想的な構造物の一つの面に平行となるように表示されてもよい。 At step S32, the menu items associated with the menu object 66 are displayed on the display 24. FIG. FIG. 11a shows an example image of a virtual space including menu items associated with menu object 66. FIG. The VR image 80 shown in FIG. 11a includes icons corresponding to two menu items respectively. Specifically, the VR image 80 includes a menu image 67, which includes a menu item icon 68a and a menu item icon 68b. The menu item icon 68a is an icon indicating a menu item corresponding to a hand action related to movement of the hand of the user 61 in the virtual space 60, and the menu item icon 68b is an icon representing a photo action related to taking a picture in the virtual space 60. It is an icon indicating the corresponding menu item. After the processing for displaying the menu item on the display 24 is performed, the second action specifying processing proceeds to step S33. The menu item icon 68a and the menu item icon 68b displayed in the virtual space may be displayed parallel to one plane of the virtual structure arranged in the virtual space. For example, in the illustrated embodiment, menu item icon 68a and menu item icon 68b may be displayed parallel to the floor, wall, or ceiling of the room in the virtual space shown in Figure 11a. good. Such arrangement of the menu item icon 68a and the menu item icon 68b allows the menu item icon 68a and the menu item icon 68b to be displayed as if they were virtual objects arranged in the virtual space. Thereby, it is possible to prevent the user 61 from impairing the sense of immersion. The menu item icon 68a may be arranged on a plane different from the plane on which the menu item icon 68b is arranged in the virtual space. Components of the menu image 67 other than the menu item icon 68a and the menu item icon 68b may also be displayed parallel to one plane of the virtual structure arranged in the virtual space.

ステップS33では、ステップS32で表示されたメニューアイテムアイコンのうちのいずれかの選択がなされたか否かが判断される。例えば、VR画像80に含まれているメニューアイテムアイコンのうちのいずれかを注視する注視時間が所定時間に達したときに、当該メニューアイテムアイコンが選択されたと判断される。図示の例においては、メニューアイテムアイコン68aを注視する注視時間が所定時間に達したときにメニューアイテムアイコン68aの選択が行われたと判断され、メニューアイテムアイコン68bを注視する注視時間が所定時間に達したときにメニューアイテムアイコン68bの選択が行われたと判断される。2つ以上のメニューアイテムアイコンが選択されてもよい。ステップ33において、メニューアイテムアイコンの選択が確認されない場合には、当該メニューアイテムアイコンの表示を中止し、第2アクション特定処理は、ステップS31へ戻る。他方、メニューアイテムアイコンが選択されたと判断された場合には、第2アクション特定処理は、ステップS34へ進む。 At step S33, it is determined whether or not any of the menu item icons displayed at step S32 has been selected. For example, when the gaze time for gazing at any one of the menu item icons included in the VR image 80 reaches a predetermined time, it is determined that the menu item icon has been selected. In the illustrated example, it is determined that the menu item icon 68a has been selected when the gaze time for gazing at the menu item icon 68a reaches the predetermined time, and the gazing time for gazing at the menu item icon 68b reaches the predetermined time. It is determined that the selection of the menu item icon 68b is performed when the menu item icon 68b is selected. More than one menu item icon may be selected. If the selection of the menu item icon is not confirmed in step 33, the display of the menu item icon is stopped, and the second action specifying process returns to step S31. On the other hand, if it is determined that the menu item icon has been selected, the second action specifying process proceeds to step S34.

ステップS34では、仮想キャラクタ65上に、一又は複数のキャラクタ注視位置が設定される。仮想キャラクタ65上におけるキャラクタ注視位置の設定について、図11bを参照して説明する。図11bは、仮想キャラクタ65の上に設定されたキャラクタ注視位置を説明するために、VR画像80内にキャラクタ注視位置を模式的に示している。キャラクタ注視位置は、VR画像80においてユーザ5によって視認可能に設定されてもよいし、視認できないように設定されてもよい。図11bに示した例では、仮想キャラクタ65上に複数のキャラクタ注視位置81a~81dが設定されている。仮想キャラクタ65上に設定される一又は複数のキャラクタ注視位置はそれぞれ、仮想キャラクタ65の特定の部位に対応付けられている。図11bの例においては、キャラクタ注視位置81a~81dはそれぞれ、女性の人物を模した仮想キャラクタ65の頭部、頭髪、肩、及び腕に対応付けられている。仮想キャラクタ65上にキャラクタ注視位置が設定されると、第2アクション特定処理は、ステップS35へ移行する。 In step S<b>34 , one or more character gaze positions are set on the virtual character 65 . The setting of the character gaze position on the virtual character 65 will be described with reference to FIG. 11b. FIG. 11b schematically shows the character gaze position within the VR image 80 in order to explain the character gaze position set on the virtual character 65 . The character gaze position may be set so as to be visible by the user 5 in the VR image 80, or may be set so as not to be visible. In the example shown in FIG. 11b, a plurality of character gaze positions 81a to 81d are set on the virtual character 65. In the example shown in FIG. One or more character gaze positions set on the virtual character 65 are each associated with a specific part of the virtual character 65 . In the example of FIG. 11b, the character gaze positions 81a-81d are respectively associated with the head, hair, shoulders, and arms of a virtual character 65 modeled after a female person. When the character gaze position is set on the virtual character 65, the second action specifying process proceeds to step S35.

ステップS35では、仮想キャラクタ65上に設定された一又は複数のキャラクタ注視位置のうち、いずれかのキャラクタ注視位置が注視されたか否かが判断される。図11bに示されている例においては、キャラクタ注視位置81a~81dのいずれかを注視する注視時間が所定時間に達したときに、当該キャラクタ注視位置が選択されたと判断される。ステップ35において、いずれのキャラクタ注視位置も注視されなかった場合には、キャラクタ注視位置の設定を取り消し、第2アクション特定処理は、ステップS31へ戻る。他方、いずれのキャラクタ注視位置に対して注視がなされたと判断された場合には、第2アクション特定処理は、ステップS36へ進む。 In step S35, it is determined whether or not any of the one or more character gaze positions set on the virtual character 65 has been gazed at. In the example shown in FIG. 11b, when the gaze time for gazing at any of the character gaze positions 81a to 81d reaches a predetermined time, it is determined that the character gaze position has been selected. In step S35, if no character gaze position is gazed at, the setting of the character gaze position is cancelled, and the second action specifying process returns to step S31. On the other hand, if it is determined that any character gaze position has been gazed at, the second action specifying process proceeds to step S36.

ステップS36では、ステップS33で選択されたメニューアイテム及びステップS35で注視されたキャラクタ注視位置に基づいて、仮想キャラクタ65に対するアクションが特定され、特定されたアクションが仮想キャラクタ65に対して行われる。例えば、ステップS33において、ハンドアクションに対応付けられているメニューアイテムアイコン68aが選択され、ステップS35において仮想キャラクタ65の頭部に対応付けられたキャラクタ注視位置81aが注視された場合には、仮想キャラクタ65の頭部を撫でるというアクションが、仮想空間60内におけるユーザ61の仮想キャラクタ65に対する第2アクションとして特定される。 In step S36, an action for the virtual character 65 is specified based on the menu item selected in step S33 and the character gaze position gazed in step S35, and the specified action is performed for the virtual character 65. For example, when the menu item icon 68a associated with the hand action is selected in step S33 and the character gaze position 81a associated with the head of the virtual character 65 is gazed in step S35, the virtual character The action of stroking the head of 65 is specified as the second action for the virtual character 65 of the user 61 in the virtual space 60 .

メニューアイテムアイコン68aが選択された場合において、注視されたキャラクタ注視位置に応じて、異なる第2アクションが特定されてもよい。例えば、上記の例と同様にメニューアイテムアイコン68aが選択された場合であっても、キャラクタ注視位置81aに代えてキャラクタ注視位置81cが注視された場合には、「撫でる」というアクションとは異なるアクションが第2アクションとして特定されてもよい。メニューアイテムアイコン68aが選択され、キャラクタ注視位置81cが注視された場合には、例えば、仮想キャラクタ65の肩を「つつく」というアクションが第2アクションとして特定されてもよい。 When the menu item icon 68a is selected, different second actions may be specified depending on the gaze position of the gazed character. For example, even if the menu item icon 68a is selected as in the above example, if the character gaze position 81c is gazed instead of the character gaze position 81a, an action different from the action of "stroking" will be performed. may be specified as the second action. When the menu item icon 68a is selected and the character gaze position 81c is gazed upon, for example, an action of "poking" the shoulder of the virtual character 65 may be specified as the second action.

第2アクションが特定されると、この特定された第2アクションが仮想キャラクタ65に対して行われる。例えば、仮想キャラクタ65の頭部を撫でるというアクションが第2アクションとして特定された場合には、図11cに示すように、当該第2アクションを表現する画像がVR画像80としてディスプレイ24に表示される。図11cに示されている例では、ユーザ61が仮想空間60内で仮想キャラクタ65の頭部を撫でるというアクションを示すために、仮想キャラクタ65の頭部付近にユーザ61の仮想的な手を示す画像83aが表示される。他の例において、仮想キャラクタ65の肩をつつくというアクションが第2アクションとして特定された場合には、図11dに示すように、ユーザ61が仮想空間60内で仮想キャラクタ65の肩をつつくというアクションを示すために、仮想キャラクタ65の肩付近にユーザ61の仮想的な手を示す画像83bが表示される。画像83a及び画像83bは、仮想キャラクタ65に対して行われるアクションの違いを表現するために、互いに異なっていてもよい。仮想キャラクタ65は、このユーザ61の第2アクションに応じて、アプリケーション処理プログラムに従った動作(リアクション)を行う。 When the second action is specified, the specified second action is performed on the virtual character 65 . For example, when the action of stroking the head of the virtual character 65 is specified as the second action, an image representing the second action is displayed as a VR image 80 on the display 24 as shown in FIG. 11c. . In the example shown in FIG. 11c, a virtual hand of user 61 is shown near the head of virtual character 65 to illustrate the action of user 61 stroking the head of virtual character 65 in virtual space 60. An image 83a is displayed. In another example, when the action of pecking the shoulder of the virtual character 65 is specified as the second action, the action of pecking the shoulder of the virtual character 65 by the user 61 in the virtual space 60 as shown in FIG. 11d. , an image 83b showing a virtual hand of the user 61 is displayed near the shoulder of the virtual character 65. As shown in FIG. The images 83a and 83b may be different from each other in order to represent different actions performed on the virtual character 65 . The virtual character 65 behaves (reacts) according to the application processing program in response to the second action of the user 61 .

ステップS33では、写真アクションに対応付けられているメニューアイテムアイコン68bが選択され、ステップS35において仮想キャラクタ65上に設定されたキャラクタ注視位置のうちの一つ(例えばキャラクタ注視位置81a)が注視されてもよい。この場合には、当該仮想キャラクタ65を含む写真を撮影するというアクションが第2アクションとして特定される。メニューアイテムアイコン68bが選択されたことに応じて、仮想キャラクタ65は、ユーザ61が構えるカメラに対してポーズを取るアクションを行ってもよい。また、仮想キャラクタ65上に設定されたキャラクタ注視位置のうちの一つの選択に応じて、シャッターを切る動作がおこなわれても良い。この場合、キャラクタ注視位置のうちの一つが選択されたときにディスプレイ24に出力されている画像が、写真アクションにより撮影されたアクションとして、ストレージ27に記憶される。 In step S33, the menu item icon 68b associated with the photo action is selected, and one of the character gaze positions set on the virtual character 65 in step S35 (for example, the character gaze position 81a) is gazed at. good too. In this case, the action of taking a picture including the virtual character 65 is specified as the second action. In response to the menu item icon 68b being selected, the virtual character 65 may perform an action of posing for the camera held by the user 61. FIG. Further, an action of releasing the shutter may be performed according to selection of one of the character gaze positions set on the virtual character 65 . In this case, the image that is being output to the display 24 when one of the character gaze positions is selected is stored in the storage 27 as an action taken by the photo action.

以上の第2アクション特定処理は、VRモード実行部21cにより実行される。VRモード実行部21cは、単独で又は他の機能と適宜協働して、上記の第2アクション特定処理を実行することができる。 The second action specifying process described above is executed by the VR mode execution unit 21c. The VR mode execution unit 21c can execute the above-described second action specifying process independently or appropriately in cooperation with other functions.

続いて、他の実施形態によるアプリケーション処理システムについて図12を参照して説明する。図12は、他の実施形態によるアプリケーション処理システム101を示すブロック図である。アプリケーション処理システム101は、情報処理装置20、HMD110、及びHMD110を備えている。アプリケーション処理システム101は、情報処理装置20をHMD110に取り付けることなくVRモードを提供できる点で、アプリケーション処理システム1と異なっている。以下、アプリケーション処理システム101について、アプリケーション処理システム1と相違する点に着目して説明する。 Next, an application processing system according to another embodiment will be described with reference to FIG. FIG. 12 is a block diagram illustrating application processing system 101 according to another embodiment. The application processing system 101 includes an information processing device 20 , an HMD 110 and an HMD 110 . The application processing system 101 differs from the application processing system 1 in that the VR mode can be provided without attaching the information processing device 20 to the HMD 110 . The application processing system 101 will be described below, focusing on the differences from the application processing system 1 .

HMD110と、情報処理装置20と、サーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。HMD110と情報処理装置20とは、ネットワーク40を介さずに、Bluetooth(登録商標)などの近距離無線方式に従って通信可能に接続されていてもよい。HMD110は、情報処理装置20が取り付けられなくともVRモードを提供可能な点で、アプリケーション処理システム1のHMD10と異なっている。 The HMD 110, the information processing device 20, and the server 50 are connected via a network 40 so as to be able to communicate with each other. The HMD 110 and the information processing apparatus 20 may be communicably connected according to a short-range wireless system such as Bluetooth (registered trademark) without going through the network 40 . The HMD 110 differs from the HMD 10 of the application processing system 1 in that the VR mode can be provided without the information processing device 20 attached.

HMD110は、コンピュータプロセッサ121と、メモリ122と、通信I/F123と、ディスプレイ124と、センサユニット125と、集音装置126と、ストレージ127と、を備えている。コンピュータプロセッサ121、メモリ122、通信I/F123、ディスプレイ124、センサユニット125、集音装置126、及びストレージ127は、情報処理装置20のコンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27と同様に構成される。ただし、ディスプレイ124は、タッチパネルを備えなくともよい。これらのHMD110の各構成要素は、筐体内に組み付けられている。この筐体は、筐体11aと同様にゴーグル型に形成されてもよい。画像データ28a、チャットデータ28b、シナリオデータ28c、イベントデータ28d、及びゲーム進行データ28eは、ストレージ127に記憶されてもよいし、ストレージ27又はそれ以外のストレージに記憶されてもよい。 The HMD 110 includes a computer processor 121, a memory 122, a communication I/F 123, a display 124, a sensor unit 125, a sound collector 126, and a storage 127. The computer processor 121, the memory 122, the communication I/F 123, the display 124, the sensor unit 125, the sound collector 126, and the storage 127 are the computer processor 21, the memory 22, the communication I/F 23, the display 24, and the sensor of the information processing device 20. It is configured similarly to the unit 25 , sound collector 26 and storage 27 . However, the display 124 may not have a touch panel. Each component of these HMD 110 is assembled in the housing. This housing may be formed in a goggle shape like the housing 11a. Image data 28a, chat data 28b, scenario data 28c, event data 28d, and game progress data 28e may be stored in storage 127, storage 27, or other storage.

チャットモード実行部21a、移行処理部21b、及びVRモード実行部21cの機能は、情報処理装置20とHMD110とで分担して担われる。具体的には、チャットモード実行部21aの機能は情報処理装置20において実現され、VRモード実行部21cの機能はHMD110において実現される。移行処理部21bの機能は、その一部が情報処理装置20で実現され、残部がHMD110において実現される。 The functions of the chat mode execution unit 21a, the transition processing unit 21b, and the VR mode execution unit 21c are shared between the information processing device 20 and the HMD 110. FIG. Specifically, the function of the chat mode execution unit 21 a is implemented in the information processing device 20 , and the function of the VR mode execution unit 21 c is implemented in the HMD 110 . A part of the function of the transition processing unit 21 b is realized by the information processing device 20 and the remaining part is realized by the HMD 110 .

アプリケーション処理システム101においてゲームを開始するときには、ユーザ5は、情報処理装置20を用いてチャットモードを開始する。このチャットモードの処理は、情報処理装置20のチャットモード実行部21aにより行われる。 When starting the game in the application processing system 101 , the user 5 uses the information processing device 20 to start the chat mode. This chat mode processing is performed by the chat mode execution unit 21 a of the information processing device 20 .

チャットモードにおいてモード移行条件が成立し、移行開始オブジェクトが選択された場合には、VRモードへのモード移行処理が開始される。 When the mode transition condition is satisfied in the chat mode and the transition start object is selected, mode transition processing to the VR mode is started.

VRモードが開始されたときには、当該VRモードの処理は、HMD110のVRモード実行部21cにより行われる。 When the VR mode is started, the VR mode processing is performed by the VR mode execution unit 21 c of the HMD 110 .

このように、アプリケーション処理システム101は、HMD110を介して仮想キャラクタをとのインタラクションをユーザ5に提供することができる。 In this manner, application processing system 101 can provide user 5 with interaction with a virtual character via HMD 110 .

上記の実施形態によれば、以下の効果が得られる。上記のアプリケーション処理システム1,101によれば、メニューオブジェクト66の選択後に仮想キャラクタ65上のキャラクタ注視位置81a~81dを注視することにより、仮想空間60においてユーザ61の頭部の動きと関連づけられていない第2アクションを特定することが出来る。これにより、手で把持するように設計されている操作コントローラ等のヘッドマウントディスプレイ10,110以外の操作機器を用いずに、仮想空間60におけるユーザ61の頭部の動きと関連づけられていない第2アクションを行うことができる。 According to the above embodiment, the following effects are obtained. According to the application processing systems 1 and 101 described above, by gazing at the character gazing positions 81a to 81d on the virtual character 65 after selecting the menu object 66, movement of the head of the user 61 in the virtual space 60 can be correlated. It is possible to specify a second action that does not exist. As a result, the second display that is not associated with the movement of the head of the user 61 in the virtual space 60 can be performed without using an operation device other than the head-mounted displays 10 and 110 such as an operation controller designed to be held by hand. can take action.

仮想空間60におけるユーザの手の動きと関連づけられた第2アクションには、例えば、仮想空間60において仮想キャラクタ65に対する「撫でる」、「叩く」、「つつく」、及び「つねる」というアクション、仮想キャラクタの「手を握る」というアクション、手により物品を扱うアクション(例えば、写真を撮るというアクション)、及びこれら以外の仮想空間60におけるユーザ61の手の動きに関連づけられるアクションが含まれる。 The second actions associated with the motions of the user's hand in the virtual space 60 include, for example, actions of "stroking", "hitting", "poking", and "pinching" the virtual character 65 in the virtual space 60; , an action of handling an item with the hand (for example, an action of taking a picture), and other actions associated with hand movements of the user 61 in the virtual space 60 .

上記のアプリケーション処理システム1,101によれば、仮想空間60におけるユーザ61の手の動きと関連づけられた第2アクションが、現実世界におけるユーザの手の位置や動きではなく、仮想キャラクタ65に設定されたキャラクタ注視位置81a~81dの注視により特定される。これにより、ユーザは、ヘッドマウントディスプレイ10,110以外の操作機器を用いずに、ユーザの頭部の動きと関連づけられていない第2アクションを行うことができる。 According to the application processing systems 1 and 101 described above, the second action associated with the movement of the hand of the user 61 in the virtual space 60 is set to the virtual character 65 instead of the position and movement of the hand of the user in the real world. This is specified by gazing at the character gazing positions 81a to 81d. Thereby, the user can perform the second action that is not associated with the movement of the user's head without using any operation device other than the head mounted displays 10 and 110 .

上記のアプリケーション処理システム1,101によれば、特定オブジェクトの選択を行うことにより、ユーザの頭部の動きと関連づけられていない第2アクションを行うことが可能となる。 According to the application processing systems 1 and 101 described above, it is possible to perform a second action that is not associated with the movement of the user's head by selecting a specific object.

上記のアプリケーション処理システム1,101によれば、キャラクタ注視位置81a~81dに応じて、第1注視位置アクション及び第2注視位置アクションを含む複数の第2アクションを使い分けることが可能となる。これにより、ユーザ61の頭部の動きと関連づけられていない第2アクションのバリエーションが豊富となる。 According to the application processing systems 1 and 101 described above, it is possible to selectively use a plurality of second actions including the first gaze position action and the second gaze position action according to the character gaze positions 81a to 81d. As a result, there are many variations of the second action that are not associated with the movement of the user's 61 head.

上記のアプリケーション処理システム1,101によれば、選択されるメニューアイテムに応じて、様々な種類の第2アクションを使い分けることが可能となる。これにより、ユーザ61の頭部の動きと関連づけられていない第2アクションのバリエーションが豊富となる。 According to the application processing systems 1 and 101 described above, it is possible to selectively use various types of second actions according to the selected menu item. As a result, there are many variations of the second action that are not associated with the movement of the user's 61 head.

上記の実施形態において、メニューオブジェクト66は、第2アクションを可能とするための機能的なオブジェクトである。仮想空間における配置や表示態様によっては、ユーザ5は、メニューオブジェクト66を意図せずに選択してしまう可能性がある。また、メニューオブジェクト66のような機能的オブジェクトは、ユーザの仮想空間への没入感を減退させ得る。上記のアプリケーション処理システム1,101によれば、メニューオブジェクト66が仮想空間61における主表示領域63の外に配置されるため、誤選択や没入感の減退を抑制することが可能となる。 In the above embodiment, menu object 66 is a functional object for enabling the second action. The user 5 may unintentionally select the menu object 66 depending on the arrangement and display mode in the virtual space. Also, functional objects such as the menu object 66 can reduce the user's sense of immersion in the virtual space. According to the application processing systems 1 and 101 described above, since the menu object 66 is arranged outside the main display area 63 in the virtual space 61, it is possible to suppress erroneous selection and a decrease in the sense of immersion.

上記のアプリケーション処理システム1,101によれば、シーンに応じて適切な主表示領域を定めることができる。例えば、第1シーンと第2シーンとでは、ユーザ61の姿勢に応じて主表示領域63の位置が変更されている。 According to the application processing systems 1 and 101 described above, an appropriate main display area can be determined according to the scene. For example, between the first scene and the second scene, the position of the main display area 63 is changed according to the posture of the user 61 .

上記のアプリケーション処理システム1,101によれば、ユーザ61のアクションに応じたリアクションを仮想キャラクタ65に行わせ、これによりユーザと仮想キャラクタ65とのインタラクションを実現することができる。 According to the application processing systems 1 and 101 described above, it is possible to make the virtual character 65 react according to the action of the user 61 , thereby realizing an interaction between the user and the virtual character 65 .

本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、コンピュータプロセッサ21及びコンピュータプロセッサ121で実行される機能の一部又は全部は、発明の趣旨を逸脱しない限り、上記の実施形態では図示されていないコンピュータプロセッサにより実現されてもよい。例えば、アプリケーション処理システム1及びアプリケーション処理システム101は、アプリケーション処理プログラムの少なくとも一部を実行するゲーム機を備えてもよく、コンピュータプロセッサ21又はコンピュータプロセッサ121の処理によって実現される機能の一部は、当該ゲーム機における処理によって実現されてもよい。 Embodiments of the present invention are not limited to the embodiments described above, and various modifications are possible without departing from the scope of the invention. For example, some or all of the functions performed by computer processor 21 and computer processor 121 may be implemented by computer processors not shown in the above embodiments without departing from the spirit of the invention. For example, the application processing system 1 and the application processing system 101 may include a game machine that executes at least part of an application processing program, and part of the functions realized by the processing of the computer processor 21 or the computer processor 121 is It may be realized by processing in the game machine.

本願発明の実施形態には、上記以外にも様々な装置、デバイス、及び電子部品を備えることができる。例えば、アプリケーション処理システム1及びアプリケーション処理システム101は、情報処理装置20及びHMD10,110以外に、ユーザ5の操作を受け付けるための操作機器を備えてもよい。アプリケーション処理システム1及びアプリケーション処理システム101は、当該操作機器によってユーザ5の操作を検出し、当該検出した操作に応じてゲームの処理をおこなっても良い。 Embodiments of the present invention may include various apparatus, devices, and electronic components in addition to those described above. For example, the application processing system 1 and the application processing system 101 may include an operation device for accepting the operation of the user 5 in addition to the information processing device 20 and the HMDs 10 and 110 . The application processing system 1 and the application processing system 101 may detect an operation by the user 5 using the operation device, and perform game processing according to the detected operation.

本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。 In the processing procedures described in this specification, especially in the processing procedures described using flow diagrams, some of the steps that make up the processing procedure are omitted, and as a step that makes up the processing procedure It is possible to add unspecified steps and/or change the order of the steps, and the processing procedures in which such omissions, additions, and order changes do not deviate from the spirit of the present invention. Included within the scope of the invention.

以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
一又は複数のコンピュータプロセッサを備え、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することにより前記ユーザに前記仮想キャラクタとのインタラクションを提供するアプリケーション処理システムであって、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定し、
前記仮想空間に含まれている特定オブジェクトが選択されたことに応じ、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する、
アプリケーション処理システム。
[2]
前記第2アクションは、前記仮想空間における前記ユーザの手の動きに関連づけられたアクションである、
[1]に記載のアプリケーション処理システム。
[3]
前記第2アクションは、前記仮想空間における前記ユーザによる道具の使用に関連づけられたアクションである、
[1]に記載のアプリケーション処理システム。
[4]
前記特定オブジェクトの選択に応じて、前記仮想キャラクタ上に一又は複数のキャラクタ注視位置が設定され、
前記仮想キャラクタ上に設定された一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されたことに応じて前記第2アクションが特定される、
[1]から[3]のいずれか1項に記載のアプリケーション処理システム。
[5]
前記一又は複数のキャラクタ注視位置は、第1キャラクタ注視位置及び第2キャラクタ注視位置を含み、
前記第2アクションは、第1注視位置アクション及び第2注視位置アクションを含み、
前記第1キャラクタ注視位置の注視により、第1注視位置アクションが前記第2アクションとして特定され、前記第2キャラクタ注視位置の注視により、第2注視位置アクションが前記第2アクションとして特定される、
[4]に記載のアプリケーション処理システム。
[6]
前記特定オブジェクトは、第1メニューアイテム及び第2メニューアイテムに関連づけられており、
前記第2アクションは、前記第1メニューアイテムに関連づけられた第1メニューアイテムアクション、及び、前記第2メニューアイテムに関連づけられた第2メニューアイテムアクションを含み、
前記第1メニューアイテムの注視後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されることにより、前記第1メニューアイテムアクションが前記第2アクションとして特定され、前記第2メニューアイテムの注視後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されることにより、前記第2メニューアイテムアクションが前記第2アクションとして特定される、
[5]に記載のアプリケーション処理システム。
[7]
前記一又は複数のコンピュータプロセッサは、第1シーンにおいて前記仮想空間における第1主表示領域を特定し、
前記特定オブジェクトは、前記第1シーンにおいて、前記第1主表示領域の外に配置される、
[1]から[6]のいずれか1項に記載のアプリケーション処理システム。
[8]
前記一又は複数のコンピュータプロセッサは、第2シーンにおいて前記仮想空間における第2主表示領域を特定し、
前記特定オブジェクトは、前記第2シーンにおいて、前記第2主表示領域の外に配置される、
[7]に記載のアプリケーション処理システム。
[9]
前記一又は複数のコンピュータプロセッサは、前記仮想空間に前記第1アクション又は前記第2アクションに応じたリアクションを行う前記仮想キャラクタが含まれるように前記仮想空間を構成する、[1]から[8]のいずれか1項に記載のアプリケーション処理システム。
[10]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することで前記ユーザに前記仮想キャラクタとのインタラクションを提供するアプリケーション処理方法であって、
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定する工程と、
前記仮想空間に含まれている特定オブジェクトが選択されたことに応じて、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する工程と、
を備えるゲーム処理方法。
[11]
一又は複数のコンピュータプロセッサに実行されることにより、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することで前記ユーザに前記仮想キャラクタとのインタラクションを提供するアプリケーション処理プログラムであって、
前記一又は複数のコンピュータプロセッサに、
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定する工程と、
前記仮想空間に含まれている特定オブジェクトが選択されたことに応じて、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する工程と、
、を実行させるアプリケーション処理プログラム。
The invention described in the scope of claims as originally filed in the original application of the present application will be additionally described below.
[1]
An application processing system that includes one or more computer processors and provides the user with interaction with the virtual character by outputting an image of a virtual space containing the virtual character to a head-mounted display worn on the user's head. There is
The one or more computer processors, by executing computer readable instructions,
A first action, which is an action to be performed on the virtual character and is associated with movement of the user's head in the virtual space, based on one or more pieces of detection information detected by the head-mounted display. identify,
an action performed on the virtual character based on the one or more pieces of detection information in response to the selection of a specific object contained in the virtual space, the action being the user's head in the virtual space; identify secondary actions not associated with the movement of
Application processing system.
[2]
The second action is an action associated with the movement of the user's hand in the virtual space.
The application processing system according to [1].
[3]
the second action is an action associated with use of a tool by the user in the virtual space;
The application processing system according to [1].
[4]
one or more character gaze positions are set on the virtual character according to the selection of the specific object;
The second action is specified in response to at least one of one or more character gaze positions set on the virtual character being gazed at;
The application processing system according to any one of [1] to [3].
[5]
the one or more character gaze positions include a first character gaze position and a second character gaze position;
the second action includes a first gaze position action and a second gaze position action;
A first gaze position action is specified as the second action by the gaze at the first character gaze position, and a second gaze position action is specified as the second action by the gaze at the second character gaze position,
The application processing system according to [4].
[6]
the specific object is associated with a first menu item and a second menu item;
the second action includes a first menu item action associated with the first menu item and a second menu item action associated with the second menu item;
By gazing at least one of the one or more character gazing positions after gazing at the first menu item, the first menu item action is identified as the second action and gazing at the second menu item. Later, at least one of the one or more character gaze positions is gazed at, thereby specifying the second menu item action as the second action;
The application processing system according to [5].
[7]
The one or more computer processors identify a first main display region in the virtual space in the first scene,
wherein the specific object is arranged outside the first main display area in the first scene;
The application processing system according to any one of [1] to [6].
[8]
The one or more computer processors identify a second main display region in the virtual space in a second scene,
the specific object is arranged outside the second main display area in the second scene;
The application processing system according to [7].
[9]
The one or more computer processors configure the virtual space so that the virtual space includes the virtual character that reacts according to the first action or the second action, [1] to [8]. The application processing system according to any one of Claims 1 to 3.
[10]
One or more computer processors execute computer-readable instructions to output an image of a virtual space including the virtual character to a head-mounted display worn on the user's head, thereby providing the user with the virtual character. An application processing method that provides an interaction of
A first action, which is an action to be performed on the virtual character and is associated with movement of the user's head in the virtual space, based on one or more pieces of detection information detected by the head-mounted display. a step of identifying;
an action performed on the virtual character based on the one or more pieces of detection information in response to the selection of a specific object contained in the virtual space, the action being performed on the user's head in the virtual space; identifying a second action not associated with body movement;
A game processing method comprising:
[11]
By being executed by one or more computer processors, an image of a virtual space including a virtual character is output to a head-mounted display worn on the user's head, thereby providing the user with an interaction with the virtual character. An application processing program,
to the one or more computer processors;
A first action, which is an action performed on the virtual character and is associated with movement of the user's head in the virtual space, based on one or more pieces of detection information detected by the head-mounted display. a step of identifying;
an action performed on the virtual character based on the one or more pieces of detection information in response to the selection of a specific object contained in the virtual space, the action being performed on the user's head in the virtual space; identifying a second action not associated with body movement;
, the application processing program that causes the .

1,101 アプリケーション処理システム

1,101 application processing system

Claims (9)

一又は複数のコンピュータプロセッサを備え、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することにより前記ユーザに前記仮想キャラクタとのインタラクションを提供するアプリケーションを処理するアプリケーション処理システムであって、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて現実世界における前記ユーザの頭部の動きを検出し、検出された前記ユーザの頭部の動きに一致するアクションを前記仮想空間において前記ユーザから前記仮想キャラクタに対して行われる第1アクションとして特定し、
記ヘッドマウントディスプレイに出力された前記仮想空間の画像に含まれている特定オブジェクトが、前記一又は複数の検出情報に基づいて選択されたと判断されたことに応じ、前記仮想キャラクタに対して行われるアクションであって前記ユーザの頭部の動きと関連づけられていない前記仮想空間における第2アクションに対応するメニューアイテムであって、前記第2アクションに含まれる第1メニューアイテムアクション及び前記第1メニューアイテムアクションとは異なる第2メニューアイテムアクションにそれぞれ対応する第1メニューアイテム及び第2メニューアイテムを含むメニューアイテムを前記一又は複数の検出情報に基づいて選択可能に表示することで、前記第2アクションを前記一又は複数の検出情報に基づいて特定可能とし、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムまたは前記第2メニューアイテムが選択されたと判定した場合に、選択された前記第1メニューアイテムに対応する前記第1メニューアイテムアクション又は前記第2メニューアイテムに対応する前記第2メニューアイテムアクションを前記第2アクションとして特定し、
前記特定オブジェクトの選択後に前記第1メニューアイテムまたは前記第2メニューアイテムが選択されたと判定したことに応じて前記仮想キャラクタ上に一又は複数のキャラクタ注視位置を設定し、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムの選択後に前記仮想キャラクタ上に設定された一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第1メニューアイテムアクションを前記第2アクションとして特定し、前記一又は複数の検出情報に基づいて前記第2メニューアイテムの選択後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第2メニューアイテムアクションを前記第2アクションとして特定する、
アプリケーション処理システム。
One or more computer processors for processing an application that provides the user with interaction with the virtual character by outputting an image of a virtual space containing the virtual character to a head-mounted display worn on the user's head An application processing system,
The one or more computer processors, by executing computer readable instructions,
detecting movement of the user's head in the real world based on one or more pieces of detection information detected by the head-mounted display; is specified as the first action performed by the user on the virtual character in
In response to determining that a specific object included in the image of the virtual space output to the head-mounted display has been selected based on the one or more pieces of detection information, a line is executed for the virtual character. a menu item corresponding to a second action in the virtual space which is an action to be performed and which is not associated with the movement of the user's head, wherein the first menu item action and the first menu item are included in the second action; By displaying a menu item including a first menu item and a second menu item corresponding to a second menu item action different from the item action in a selectable manner based on the one or more pieces of detection information, the second action is performed. is identifiable based on the one or more detected information,
When it is determined that the first menu item or the second menu item has been selected based on the one or more detection information, the first menu item action or the second menu item corresponding to the selected first menu item identifying the second menu item action corresponding to the second menu item as the second action;
setting one or more character gaze positions on the virtual character in response to determining that the first menu item or the second menu item has been selected after the selection of the specific object;
when it is determined that at least one of the one or more character gaze positions set on the virtual character has been selected after the selection of the first menu item based on the one or more detection information; One menu item action is specified as the second action, and it is determined that at least one of the one or more character gaze positions is selected after the second menu item is selected based on the one or more detection information. identifying the second menu item action as the second action if
Application processing system.
前記第2アクションは、前記仮想空間における前記ユーザの手の動きに関連づけられた前記仮想空間におけるアクションである、
請求項1に記載のアプリケーション処理システム。
the second action is an action in the virtual space associated with the movement of the user's hand in the virtual space;
The application processing system of claim 1.
前記第2アクションは、前記仮想空間における前記ユーザによる道具の使用に関連づけられた前記仮想空間におけるアクションである、
請求項1に記載のアプリケーション処理システム。
the second action is an action in the virtual space associated with use of a tool by the user in the virtual space;
The application processing system of claim 1.
前記一又は複数のキャラクタ注視位置は、第1キャラクタ注視位置及び第2キャラクタ注視位置を含み、
前記第2アクションは、第1注視位置アクション及び第2注視位置アクションを含み、
前記第1キャラクタ注視位置が選択されたと判断された場合に、前記第1注視位置アクションを前記第2アクションとして特定し、前記第2キャラクタ注視位置が選択されたと判断された場合に、前記第2注視位置アクションを前記第2アクションとして特定する、
請求項1に記載のアプリケーション処理システム。
the one or more character gaze positions include a first character gaze position and a second character gaze position;
the second action includes a first gaze position action and a second gaze position action;
When it is determined that the first character gaze position has been selected, the first gaze position action is specified as the second action, and when it is determined that the second character gaze position has been selected, the second character gaze position action is specified. identifying a gaze position action as the second action;
The application processing system of claim 1.
前記仮想空間の画像は、前記ユーザの基準視線を中心とする表示領域における画像であり、
前記仮想空間は、前記アプリケーションにおいて実行される第1シーンについて定められている第1仮想空間と、前記アプリケーションにおいて前記第1シーンよりも後に実行される第2シーンについて定められている第2仮想空間と、を含み、
前記一又は複数のコンピュータプロセッサは、前記第1シーンの前記第1仮想空間における特定の位置に第1主表示領域を設定
記特定オブジェクトは、前記第1シーンにおいて、前記第1主表示領域の外に配置される、
請求項1から請求項4のいずれか1項に記載のアプリケーション処理システム。
the image of the virtual space is an image in a display area centered on the reference line of sight of the user;
The virtual space includes a first virtual space defined for a first scene executed in the application and a second virtual space defined for a second scene executed after the first scene in the application. and including
The one or more computer processors set a first main display area at a specific position in the first virtual space of the first scene ,
wherein the specific object is arranged outside the first main display area in the first scene;
The application processing system according to any one of claims 1 to 4.
前記一又は複数のコンピュータプロセッサは、前記第2シーンの前記第2仮想空間における特定の位置に第2主表示領域を設定
記特定オブジェクトは、前記第2シーンにおいて、前記第2主表示領域の外に配置される、
請求項5に記載のアプリケーション処理システム。
The one or more computer processors set a second main display area at a specific position in the second virtual space of the second scene ,
the specific object is arranged outside the second main display area in the second scene;
The application processing system according to claim 5.
前記一又は複数のコンピュータプロセッサは、前記仮想空間に前記第1アクション又は前記第2アクションに応じたリアクションを行う前記仮想キャラクタが含まれるように前記仮想空間を構成する、請求項1から請求項6のいずれか1項に記載のアプリケーション処理システム。 7. The one or more computer processors configure the virtual space so that the virtual space includes the virtual character that reacts according to the first action or the second action. The application processing system according to any one of Claims 1 to 3. 一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することで前記ユーザに前記仮想キャラクタとのインタラクションを提供するアプリケーションを処理するアプリケーション処理方法であって、
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて現実世界における前記ユーザの頭部の動きを検出し、検出された前記ユーザの頭部の動きに一致するアクションを前記仮想空間において前記ユーザから前記仮想キャラクタに対して行われる第1アクションとして特定する工程と、
前記ヘッドマウントディスプレイに出力された前記仮想空間の画像に含まれている特定オブジェクトが、前記一又は複数の検出情報に基づいて選択されたと判断されたことに応じ、前記仮想キャラクタに対して行われるアクションであって前記ユーザの頭部の動きと関連づけられていない前記仮想空間における第2アクションに対応するメニューアイテムであって、前記第2アクションに含まれる第1メニューアイテムアクション及び前記第1メニューアイテムアクションとは異なる第2メニューアイテムアクションにそれぞれ対応する第1メニューアイテム及び第2メニューアイテムを含むメニューアイテムを前記一又は複数の検出情報に基づいて選択可能に表示することで、前記第2アクションを前記一又は複数の検出情報に基づいて特定可能とする工程と、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムまたは前記第2メニューアイテムが選択されたと判定したことに応じて前記仮想キャラクタ上に一又は複数のキャラクタ注視位置を設定する工程と、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムの選択後に前記仮想キャラクタ上に設定された一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第1メニューアイテムアクションを前記第2アクションとして特定し、前記一又は複数の検出情報に基づいて前記第2メニューアイテムの選択後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第2メニューアイテムアクションを前記第2アクションとして特定する工程と、
を備えるゲーム処理方法。
One or more computer processors execute computer-readable instructions to output an image of a virtual space including the virtual character to a head-mounted display worn on the user's head, thereby providing the user with the virtual character. An application processing method for processing an application that provides an interaction of
detecting movement of the user's head in the real world based on one or more pieces of detection information detected by the head-mounted display; a step of specifying as a first action performed by the user on the virtual character in
performed on the virtual character in response to determining that a specific object included in the image of the virtual space output to the head-mounted display has been selected based on the one or more pieces of detection information A menu item corresponding to a second action in the virtual space that is an action and is not associated with movement of the user's head, wherein the first menu item action and the first menu item are included in the second action. By displaying menu items including a first menu item and a second menu item respectively corresponding to a second menu item action different from the action in a selectable manner based on the one or more pieces of detection information, the second action is performed. identifiable based on the one or more pieces of detected information;
setting one or more character gaze positions on the virtual character in response to determining that the first menu item or the second menu item has been selected based on the one or more detection information;
when it is determined that at least one of the one or more character gaze positions set on the virtual character has been selected after the selection of the first menu item based on the one or more detection information; One menu item action is specified as the second action, and it is determined that at least one of the one or more character gaze positions is selected after the second menu item is selected based on the one or more detection information. then identifying the second menu item action as the second action;
A game processing method comprising:
一又は複数のコンピュータプロセッサに実行されることにより、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することで前記ユーザに前記仮想キャラクタとのインタラクションを提供するアプリケーションを処理するアプリケーション処理プログラムであって、
前記一又は複数のコンピュータプロセッサに、
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて現実世界における前記ユーザの頭部の動きを検出し、検出された前記ユーザの頭部の動きに一致するアクションを前記仮想空間において前記ユーザから前記仮想キャラクタに対して行われる第1アクションとして特定する工程と
記ヘッドマウントディスプレイに出力された前記仮想空間の画像に含まれている特定オブジェクトが、前記一又は複数の検出情報に基づいて選択されたと判断されたことに応じ、前記仮想キャラクタに対して行われるアクションであって前記ユーザの頭部の動きと関連づけられていない前記仮想空間における第2アクションに対応するメニューアイテムであって、前記第2アクションに含まれる第1メニューアイテムアクション及び前記第1メニューアイテムアクションとは異なる第2メニューアイテムアクションにそれぞれ対応する第1メニューアイテム及び第2メニューアイテムを含むメニューアイテムを前記一又は複数の検出情報に基づいて選択可能に表示することで、前記第2アクションを前記一又は複数の検出情報に基づいて特定可能とする工程と、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムまたは前記第2メニューアイテムが選択されたと判定したことに応じて前記仮想キャラクタ上に一又は複数のキャラクタ注視位置を設定する工程と、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムの選択後に前記仮想キャラクタ上に設定された一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第1メニューアイテムアクションを前記第2アクションとして特定し、前記一又は複数の検出情報に基づいて前記第2メニューアイテムの選択後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第2メニューアイテムアクションを前記第2アクションとして特定する工程と、
を実行させるアプリケーション処理プログラム。
By being executed by one or more computer processors, an image of a virtual space including a virtual character is output to a head-mounted display worn on the user's head, thereby providing the user with interaction with the virtual character. An application processing program for processing an application,
to the one or more computer processors;
detecting movement of the user's head in the real world based on one or more pieces of detection information detected by the head-mounted display; a step of specifying as a first action performed by the user on the virtual character in
In response to determining that a specific object included in the image of the virtual space output to the head-mounted display has been selected based on the one or more pieces of detection information, a line is executed for the virtual character. a menu item corresponding to a second action in the virtual space which is an action to be performed and which is not associated with the movement of the user's head, wherein the first menu item action and the first menu item are included in the second action; By displaying a menu item including a first menu item and a second menu item corresponding to a second menu item action different from the item action in a selectable manner based on the one or more pieces of detection information, the second action is performed. is identifiable based on the one or more detected information;
setting one or more character gaze positions on the virtual character in response to determining that the first menu item or the second menu item has been selected based on the one or more detection information;
when it is determined that at least one of the one or more character gaze positions set on the virtual character has been selected after the selection of the first menu item based on the one or more detection information; One menu item action is specified as the second action, and it is determined that at least one of the one or more character gaze positions is selected after the second menu item is selected based on the one or more detection information. then identifying the second menu item action as the second action;
The application processing program that causes the .
JP2018221981A 2018-02-06 2018-11-28 Application processing system, application processing method, and application processing program Active JP7211778B2 (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2018221981A JP7211778B2 (en) 2018-11-28 2018-11-28 Application processing system, application processing method, and application processing program
CN202310030111.6A CN116328317A (en) 2018-02-06 2019-02-02 Application processing system, application processing method, and application processing program
CN201910108605.5A CN110115842B (en) 2018-02-06 2019-02-02 Application processing system, application processing method, and application processing program
EP19155566.3A EP3520867B1 (en) 2018-02-06 2019-02-05 Application processing system, method of processing application, and storage medium storing program for processing application
US16/268,800 US10983590B2 (en) 2018-02-06 2019-02-06 Application processing system, method of processing application and storage medium storing program for processing application
US17/176,587 US11467658B2 (en) 2018-02-06 2021-02-16 Application processing system, method of processing application, and storage medium storing program for processing application
JP2021093004A JP2021164649A (en) 2018-11-28 2021-06-02 Application processing system, application processing method, and application processing program
US17/902,218 US11644893B2 (en) 2018-02-06 2022-09-02 Application processing system, method of processing application, and storage medium storing program for processing application
JP2023031972A JP2023085260A (en) 2018-11-28 2023-03-02 Application processing system, application processing method and application processing program
US18/295,456 US20230244302A1 (en) 2018-02-06 2023-04-04 Application processing system, method of processing application, and storage medium storing program for processing application

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018221981A JP7211778B2 (en) 2018-11-28 2018-11-28 Application processing system, application processing method, and application processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018019002A Division JP2019136066A (en) 2018-02-06 2018-02-06 Application processing system, application processing method, and application processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021093004A Division JP2021164649A (en) 2018-11-28 2021-06-02 Application processing system, application processing method, and application processing program

Publications (2)

Publication Number Publication Date
JP2019136487A JP2019136487A (en) 2019-08-22
JP7211778B2 true JP7211778B2 (en) 2023-01-24

Family

ID=67692554

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018221981A Active JP7211778B2 (en) 2018-02-06 2018-11-28 Application processing system, application processing method, and application processing program
JP2021093004A Pending JP2021164649A (en) 2018-11-28 2021-06-02 Application processing system, application processing method, and application processing program
JP2023031972A Pending JP2023085260A (en) 2018-11-28 2023-03-02 Application processing system, application processing method and application processing program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021093004A Pending JP2021164649A (en) 2018-11-28 2021-06-02 Application processing system, application processing method, and application processing program
JP2023031972A Pending JP2023085260A (en) 2018-11-28 2023-03-02 Application processing system, application processing method and application processing program

Country Status (1)

Country Link
JP (3) JP7211778B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016189999A (en) 2015-03-31 2016-11-10 株式会社バンダイナムコエンターテインメント Program and game system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5103538B2 (en) * 2011-02-25 2012-12-19 株式会社コナミデジタルエンタテインメント GAME DEVICE, GAME CONTROL PROGRAM, AND GAME CONTROL METHOD
JP5767386B1 (en) * 2014-12-15 2015-08-19 株式会社コロプラ Head mounted display system, method for displaying on head mounted display, and program
US9858718B2 (en) * 2015-01-27 2018-01-02 Microsoft Technology Licensing, Llc Dynamically adaptable virtual lists
JP6684559B2 (en) * 2015-09-16 2020-04-22 株式会社バンダイナムコエンターテインメント Program and image generation device
JP6189497B1 (en) * 2016-07-20 2017-08-30 株式会社コロプラ Method for providing virtual space, method for providing virtual experience, program, and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016189999A (en) 2015-03-31 2016-11-10 株式会社バンダイナムコエンターテインメント Program and game system

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
[PSVR]『サマーレッスン:宮本ひかり セブンデイズルーム』彼女は本当にそこにいる,Mogura VR[online],2016年10月1日,[2020年7月3日検索],インターネット<URL:https://www.moguravr.com/summer-lesson-psvr/>
「パンチライン VRミュージアム」大型アップデート!女の子にイタズラ「シナモンモード」実装,PANORA[online],2017年2月3日,[2019年12月20日検索],インターネット<URL:http://panora.tokyo/19917/>
Androidアプリで「メニューアイコン」が表示されない場合の対処方法,@IT[online],2015年7月24日,[2021年8月26日検索],インターネット<URL:https://atmarkit.itmedia.co.jp/ait/articles/1507/24/news036.html>
V.A.T.S. | フォールアウト4 攻略,Andraste(The Wayback Machine)[online],2017年12月20日,[2021年8月26日検索],インターネット<URL:https://web.archive.org/web/20171220161735/https://andraste.info/g/fallout_4/08-technologies-02-vats.html>
VRカフェかのをじっくり遊んで徹底レビュー!,スマホゲームCH[online],2017年5月1日,[2019年12月19日検索],インターネット<URL:https://gameappch.com/app/?app=04317>

Also Published As

Publication number Publication date
JP2019136487A (en) 2019-08-22
JP2023085260A (en) 2023-06-20
JP2021164649A (en) 2021-10-14

Similar Documents

Publication Publication Date Title
EP3520867B1 (en) Application processing system, method of processing application, and storage medium storing program for processing application
JP6908573B2 (en) Game processing system, game processing method, and game processing program
US11638879B2 (en) Game processing system, method of processing game, and storage medium storing program for processing game
JP2019136066A (en) Application processing system, application processing method, and application processing program
JP6691151B2 (en) Game processing system, game processing method, and game processing program
JP6815373B2 (en) Game processing system, game processing method, and game processing program
JP7269192B2 (en) Game processing system, game processing method, and game processing program
JP7211778B2 (en) Application processing system, application processing method, and application processing program
JP6792604B2 (en) Game processing system, game processing method, and game processing program
JP6775870B2 (en) Game processing system, game processing method, and game processing program
JP7148590B2 (en) Game processing system, game processing method, and game processing program
JP6850769B2 (en) Game processing system, game processing method, and game processing program
JP6855416B2 (en) Game processing system, game processing method, and game processing program
JP7227314B2 (en) Game processing system, game processing method, and game processing program
JP7005435B2 (en) Game processing system, game processing method, and game processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200923

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210602

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210611

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210615

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210903

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210907

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220412

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220822

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20221102

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221122

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221213

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230110

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230112

R150 Certificate of patent or registration of utility model

Ref document number: 7211778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150