JP7211778B2 - Application processing system, application processing method, and application processing program - Google Patents
Application processing system, application processing method, and application processing program Download PDFInfo
- Publication number
- JP7211778B2 JP7211778B2 JP2018221981A JP2018221981A JP7211778B2 JP 7211778 B2 JP7211778 B2 JP 7211778B2 JP 2018221981 A JP2018221981 A JP 2018221981A JP 2018221981 A JP2018221981 A JP 2018221981A JP 7211778 B2 JP7211778 B2 JP 7211778B2
- Authority
- JP
- Japan
- Prior art keywords
- action
- menu item
- user
- character
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
本明細書における開示は、仮想キャラクタとのインタラクションを提供するアプリケーション処理システム、アプリケーション処理方法、及びアプリケーション処理プログラムに関する。より具体的には、本明細書における開示は、ヘッドマウントディスプレイにより検出される検出情報に応じた仮想キャラクタとのインタラクションを提供するアプリケーション処理システム、アプリケーション処理方法、及びアプリケーション処理プログラムに関する。 The disclosure herein relates to an application processing system, an application processing method, and an application processing program that provide interaction with a virtual character. More specifically, the disclosure herein relates to an application processing system, an application processing method, and an application processing program that provide interaction with a virtual character according to information detected by a head-mounted display.
仮想キャラクタとのインタラクションを提供するアプリケーションとして、仮想キャラクタとインタラクションを行うことが可能なシミュレーションゲームが知られている。かかるシミュレーションゲームは、例えば、特開2012-055644号公報(特許文献1)に開示されている。 A simulation game that allows interaction with a virtual character is known as an application that provides interaction with a virtual character. Such a simulation game is disclosed, for example, in Japanese Unexamined Patent Application Publication No. 2012-055644 (Patent Document 1).
このような仮想キャラクタとのインタラクションを提供するゲームにおいて、ゲームへの没入感を高めるために、ヘッドマウントディスプレイ(以下、「HMD」ということがある。)が利用されることがある。例えば、HMDに仮想空間を表示し、この仮想空間内に登場する仮想キャラクタとHMDを用いてインタラクションできるVRゲームが知られている。この種のVRゲームとして、株式会社バンダイナムコエンターテインメントの「サマーレッスン」がある(非特許文献1参照)。 In games that provide interaction with such virtual characters, a head-mounted display (hereinafter sometimes referred to as "HMD") is sometimes used in order to enhance the sense of immersion in the game. For example, a VR game is known in which a virtual space is displayed on an HMD, and a virtual character appearing in this virtual space can be interacted with using the HMD. As this type of VR game, there is "Summer Lesson" by BANDAI NAMCO Entertainment Inc. (see Non-Patent Document 1).
HMDは、特開2017-058969号公報(特許文献2)に記載されているように、ユーザの頭部の位置及び向きを検出するためのトラッキングセンサを備えている。HMDを用いてプレイするVRゲームでは、このトラッキングセンサにより検出された検出情報に基づいて仮想空間内における視点が定められ、このようにして定められた視点から見た仮想空間の画像がHMDに表示される。 The HMD includes a tracking sensor for detecting the position and orientation of the user's head, as described in Japanese Patent Laying-Open No. 2017-058969 (Patent Document 2). In a VR game played using an HMD, a viewpoint in the virtual space is determined based on the detection information detected by the tracking sensor, and an image of the virtual space seen from the thus determined viewpoint is displayed on the HMD. be done.
上記の「サマーレッスン」では、HMDのトラッキングセンサにより検出された検出情報に応じて、仮想キャラクタに対するアクションを特定し、この特定されたアクションに対するリアクションを仮想キャラクタに行わせることで、ユーザと仮想キャラクタとの間でのインタクラクションが実現されている。例えば、HMDに表示されている仮想キャラクタの問いかけに応答して当該HMDを装着したユーザが頷くと、この頷きに対応するユーザの頭部の動きが検出され、この検出された頭部の動きに基づいて仮想空間内におけるユーザから仮想キャラクタへのアクションが特定される。例えば、頷きに対応するユーザの頭部の動きが検出された場合には、仮想空間におけるユーザから仮想キャラクタへのアクションとして、当該仮想キャラクタからの問いかけに肯定的な返答を行うというアクションが特定される。また、HMDにより首を振る動きに対応するユーザの頭部の動きが検出された場合には、仮想キャラクタへのアクションとして、当該仮想キャラクタからの問いかけに否定的な返答を行うという仮想空間内でのアクションが特定される。このようにして特定されたユーザのアクションに対する仮想キャラクタのリアクションが決定され、この決定されたリアクションを行う仮想キャラクタの画像がHMDに表示される。 In the above "summer lesson", an action for the virtual character is specified according to the detection information detected by the tracking sensor of the HMD, and by making the virtual character react to the specified action, the user and the virtual character Interaction between is realized. For example, when a user wearing the HMD nods in response to a question from a virtual character displayed on the HMD, the movement of the user's head corresponding to the nod is detected, and the detected head movement is detected. Based on this, an action from the user to the virtual character in the virtual space is specified. For example, when a movement of the user's head corresponding to a nod is detected, an action of giving an affirmative response to the question from the virtual character is specified as the action from the user to the virtual character in the virtual space. be. Further, when the HMD detects a motion of the user's head corresponding to the motion of shaking the head, the action to the virtual character is to give a negative response to the question from the virtual character in the virtual space. actions are identified. The virtual character's reaction to the user's action specified in this way is determined, and an image of the virtual character performing the determined reaction is displayed on the HMD.
HMDの検出情報に基づいて特定されるユーザの仮想空間におけるアクションは、頷く、首を横に振るといったユーザの頭部の動き及び仮想キャラクタの特定の部位を凝視するというユーザの視線の動きと関連づけられたものに限られている。このように、HMDの検出信号によって特定されるユーザから仮想キャラクタへのアクションのバリエーションは限定的である。 The user's action in the virtual space, which is specified based on the HMD detection information, is associated with the user's head movement such as nodding or shaking his head, and the user's line of sight movement such as gazing at a specific part of the virtual character. is limited to In this way, the variation of actions from the user to the virtual character specified by the detection signal of the HMD is limited.
ユーザの身体の頭部以外の部位(例えば、手)に関連づけられたアクションを仮想空間における当該ユーザのアクションとして特定することができれば、仮想キャラクタとユーザとの間でのインタラクションのバリエーションが豊富化される。ユーザの身体の頭部以外の部位に関連づけられたアクションは、従来、HMDとは別の操作コントローラからの入力に基づいて特定されている。従来の典型的な操作コントローラは、ユーザによって把持されるように構成されている。例えば、特許第6189497号明細書には、ユーザによって把持される操作コントローラへの操作に基づいて、仮想空間内においてユーザの仮想的な手の位置を特定し、この仮想的な手により当該仮想空間内のオブジェクトに触れるアクションを行うことが開示されている。 If an action associated with a part of the user's body other than the head (for example, a hand) can be specified as the action of the user in the virtual space, variations in interaction between the virtual character and the user will be enriched. be. Actions associated with parts of the user's body other than the head have conventionally been identified based on input from an operation controller separate from the HMD. A typical conventional manipulation controller is configured to be held by a user. For example, Japanese Patent No. 6189497 discloses that the position of a user's virtual hand is specified in a virtual space based on the operation of an operation controller held by the user, and the virtual space is operated by the virtual hand. It is disclosed to perform an action of touching an object within.
上記のように、従来は、仮想空間におけるユーザのアクションのうちユーザの頭部の動きと関連づけられていないアクション(例えば、仮想空間において手で触れるというアクション)を特定するために、HMDとは別の操作コントローラが使用されている。このような操作コントローラの使用は、アプリケーションへの没入感を損なうことがある。また、HMDの装着時には、実空間における視界が遮られるため、操作コントローラの操作が難しいという問題がある。 As described above, conventionally, in order to identify an action that is not associated with the movement of the user's head (for example, the action of touching with a hand in the virtual space) among the user's actions in the virtual space, of operation controllers are used. The use of such manipulation controllers may detract from the immersion in the application. Moreover, when the HMD is worn, the field of view in the real space is blocked, so there is a problem that it is difficult to operate the operation controller.
HMDとは別の操作コントローラを用いなくとも、仮想空間においてユーザの頭部の動きと関連づけられていない仮想キャラクタへのアクションを行うことが可能なアプリケーション処理システムが求められる。 There is a need for an application processing system capable of performing actions on a virtual character that are not associated with the movement of the user's head in virtual space without using an operation controller separate from the HMD.
本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。 It is an object of the present disclosure to provide technical improvements that solve or alleviate at least some of the problems in the prior art discussed above.
本開示の具体的な目的の一つは、ユーザの頭部の動きと関連づけられていないアクションを仮想キャラクタに対して行うことが可能なアプリケーション処理システムにおける技術的な改善を提供することである。 One specific object of the present disclosure is to provide technical improvements in application processing systems that can perform actions on virtual characters that are not associated with user head movements.
本開示のより具体的な目的の一つは、ヘッドマウントディスプレイによる検出情報に基づいて、ユーザの頭部の動きと関連づけられていないアクションを仮想キャラクタに対して行うことが可能なアプリケーション処理システムを提供することである。 One of the more specific objects of the present disclosure is to provide an application processing system that can perform actions unrelated to the movement of the user's head on a virtual character based on information detected by a head-mounted display. to provide.
本開示のより具体的な目的の一つは、仮想キャラクタに対して行われるユーザの頭部の動きと関連づけられていないアクションのバリエーションを豊富化することである。 One of the more specific purposes of the present disclosure is to enrich the variations of actions that are not associated with the movement of the user's head performed on a virtual character.
本開示のこれら以外の目的は、本明細書全体を参照することにより明らかとなる。 These and other objects of the disclosure will become apparent upon reference to the specification as a whole.
本発明の一態様によるアプリケーション処理システムは、一又は複数のコンピュータプロセッサを備え、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することにより前記ユーザに前記仮想キャラクタとのインタラクションを提供する。一態様において、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定し、前記仮想空間に含まれている特定オブジェクトが選択されたことに応じて、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する。 An application processing system according to an aspect of the present invention includes one or more computer processors, and outputs an image of a virtual space including a virtual character to a head-mounted display worn on the user's head to provide the user with the virtual space. Provide character interaction. In one aspect, the one or more computer processors execute computer readable instructions to perform on the virtual character based on one or more detected information detected by the head-mounted display. identifying a first action that is an action and is associated with movement of the user's head in the virtual space, and selecting a specific object included in the virtual space; based on the detection information, a second action that is an action performed on the virtual character and is not associated with the movement of the user's head in the virtual space.
本発明の一態様によるアプリケーション処理システムにおいて、前記第2アクションは、前記仮想空間における前記ユーザの手の動きに関連づけられたアクションである。 In the application processing system according to one aspect of the present invention, the second action is an action associated with hand movement of the user in the virtual space.
本発明の一態様によるアプリケーション処理システムにおいて、前記第2アクションは、前記仮想空間における前記ユーザによる道具の使用に関連づけられたアクションである。 In the application processing system according to one aspect of the present invention, the second action is an action associated with use of tools by the user in the virtual space.
本発明の一態様によるアプリケーション処理システムにおいて、前記特定オブジェクトの選択に応じて、前記仮想キャラクタ上に一又は複数のキャラクタ注視位置が設定され、前記仮想キャラクタ上に設定された一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されたことに応じて前記第2アクションが特定される。 In the application processing system according to one aspect of the present invention, one or more character gaze positions are set on the virtual character according to the selection of the specific object, and one or more character gaze positions set on the virtual character are set. The second action is identified responsive to at least one of the locations being gazed at.
本発明の一態様によるアプリケーション処理システムにおいて、前記一又は複数のキャラクタ注視位置は、第1キャラクタ注視位置及び第2キャラクタ注視位置を含み、前記第2アクションは、第1注視位置アクション及び第2注視位置アクションを含み、前記第1キャラクタ注視位置の注視により、第1注視位置アクションが前記第2アクションとして特定され、前記第2キャラクタ注視位置の注視により、第2注視位置アクションが前記第2アクションとして特定される。 In the application processing system according to one aspect of the present invention, the one or more character gaze positions include a first character gaze position and a second character gaze position, and the second action includes a first gaze position action and a second gaze position action. A position action is included, a first gaze position action is specified as the second action by the gaze at the first character gaze position, and a second gaze position action is specified as the second action by the gaze at the second character gaze position identified.
本発明の一態様によるアプリケーション処理システムにおいて、前記特定オブジェクトは、第1メニューアイテム及び第2メニューアイテムに関連づけられており、前記第2アクションは、前記第1メニューアイテムに関連づけられた第1メニューアイテムアクション、及び、前記第2メニューアイテムに関連づけられた第2メニューアイテムアクションを含み、前記第1メニューアイテムの注視後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されることにより、前記第1メニューアイテムアクションが前記第2アクションとして特定され、前記第2メニューアイテムの注視後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されることにより、前記第2メニューアイテムアクションが前記第2アクションとして特定される。 In the application processing system according to one aspect of the present invention, the specific object is associated with a first menu item and a second menu item, and the second action is the first menu item associated with the first menu item. and a second menu item action associated with the second menu item, wherein at least one of the one or more character gaze positions is gazed after the first menu item is gazed at, whereby the A first menu item action is identified as the second action, and at least one of the one or more character gaze positions is gazed after the second menu item is gazed, whereby the second menu item action is determined as the Identified as the second action.
本発明の一態様によるアプリケーション処理システムにおいて、前記一又は複数のコンピュータプロセッサは、第1シーンにおいて前記仮想空間における第1主表示領域を特定し、前記特定オブジェクトは、前記第1シーンにおいて、前記第1主表示領域の外に配置される。 In the application processing system according to an aspect of the present invention, the one or more computer processors specify a first main display area in the virtual space in the first scene, and the specified object is the first main display area in the first scene. 1 is located outside the main display area.
本発明の一態様によるアプリケーション処理システムにおいて、前記一又は複数のコンピュータプロセッサは、第2シーンにおいて前記仮想空間における第2主表示領域を特定し、前記特定オブジェクトは、前記第2シーンにおいて、前記第2主表示領域の外に配置される。 In the application processing system according to an aspect of the present invention, the one or more computer processors specify a second main display area in the virtual space in the second scene, and the specified object is the second main display area in the second scene. 2 Located outside the main display area.
本発明の一態様によるアプリケーション処理システムにおいて、前記一又は複数のコンピュータプロセッサは、前記仮想空間に前記第1アクション又は前記第2アクションに応じたリアクションを行う前記仮想キャラクタが含まれるように前記仮想空間を構成する。 In the application processing system according to one aspect of the present invention, the one or more computer processors are configured to perform the virtual space so that the virtual space includes the virtual character that reacts according to the first action or the second action. configure.
一態様によるアプリケーション処理方法は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することで前記ユーザに前記仮想キャラクタとのインタラクションを提供する。当該アプリケーション処理方法は、前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定する工程と、前記仮想空間に含まれている特定オブジェクトが選択されたことに応じて、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する工程と、を備える。 An application processing method according to one aspect includes outputting an image of a virtual space including a virtual character to a head-mounted display worn on a user's head by one or more computer processors executing computer-readable instructions. provides the user with interaction with the virtual character. The application processing method is an action performed on the virtual character and associated with the movement of the user's head in the virtual space based on one or more pieces of detection information detected by the head-mounted display. an action to be performed on the virtual character based on the one or more pieces of detection information in response to selection of a specific object contained in the virtual space; and identifying a second action that is not associated with movement of the user's head in the virtual space.
本発明の一態様によるアプリケーション処理プログラムは、一又は複数のコンピュータプロセッサに実行されることにより、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することで前記ユーザに前記仮想キャラクタとのインタラクションを提供する。当該アプリケーション処理プログラムは、前記一又は複数のコンピュータプロセッサに、前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定する工程と、前記仮想空間に含まれている特定オブジェクトが選択されたことに応じて、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する工程と、を実行させる。 An application processing program according to an aspect of the present invention outputs an image of a virtual space including a virtual character to a head-mounted display worn on a user's head by being executed by one or more computer processors. Providing a user with interaction with said virtual character. The application processing program instructs the one or more computer processors, based on one or more pieces of detection information detected by the head-mounted display, to perform an action on the virtual character in the virtual space. identifying a first action associated with movement of the user's head; and in response to selection of a specific object included in the virtual space, based on the one or more pieces of detection information, and identifying a second action to be performed on the virtual character that is not associated with movement of the user's head in the virtual space.
本明細書に開示された実施形態によれば、ユーザの頭部の動きと関連づけられていないアクションを仮想キャラクタに対して行うことが可能なアプリケーション処理システムにおける技術的な改善が提供される。 Embodiments disclosed herein provide technical improvements in application processing systems that can perform actions on virtual characters that are not associated with user head movements.
以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。 Various embodiments of the present invention will now be described with appropriate reference to the drawings. Identical or similar components are provided with the same reference numerals in several drawings.
図1から図3を参照して、一実施形態によるアプリケーション処理システムについて説明する。図1は、一実施形態によるアプリケーション処理システム1を示すブロック図であり、図2は、アプリケーション処理システム1において用いられるヘッドマウントディスプレイ10(以下、「HMD10」という。)の模式図であり、図3は、ユーザ5に装着されたHMD10を模式的に示す図である。
An application processing system according to one embodiment will be described with reference to FIGS. 1 to 3. FIG. FIG. 1 is a block diagram showing an
一実施形態によるアプリケーション処理システム1は、アプリケーション処理プログラムを実行することにより様々なアプリケーションを提供する。このアプリケーションの例は、ビデオゲームである。ユーザは、アプリケーション処理システム1を利用して、ゲーム媒体を利用した各種ゲームをプレイすることができる。ゲーム媒体は、アプリケーション処理システム1で実現されるゲームにおいて使用される電子データであり、ユーザによってゲーム内で取得、所有、使用、管理、交換、合成、強化、売却、廃棄、贈与、又は前記以外の方法で使用され得る。ゲーム媒体には、例えば、カード、アイテム、仮想通貨、チケット、キャラクタ、アバタ、レベル情報、ステータス情報、及びパラメータ情報(体力値や攻撃力など)、能力情報スキル、アビリティ、呪文、ジョブ、及びこれら以外のゲームで利用可能な各種電子データを含む。アプリケーション処理システム1で利用可能なゲーム媒体及びその利用態様は本明細書で明示されるものに限られない。アプリケーション処理システム1は、例えば、仮想空間において仮想キャラクタとユーザとがインタラクションを行うゲームを実現することができる。アプリケーション処理システム1により実現されるゲームは、第1モードと第2モードとを有する。第1モードの例はチャットモードであり、第2モードの例はVRモードである。第1モード及び第2モードについては後述される。
The
アプリケーション処理システム1は、ゲーム以外のアプリケーションを処理するように構成されてもよい。アプリケーション処理システム1は、例えば、運転やその他の分野におけるシミュレーション、医療又はそれ以外の分野におけるトレーニング用アプリケーション、製品やサービスを体験するためのアプリケーション、映画やそれ以外の各種エンターテインメントを鑑賞するためのアプリケーション、及びこれら以外の各種アプリケーションを提供するように構成されてもよい。
The
アプリケーション処理システム1は、HMD10と、サーバ50と、を備える。HMD10とサーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。
The
HMD10は、図2に示されているように、人間の頭部に装着される装着具11と、この装着具11に取り付けられる情報処理装置20と、を備えている。
As shown in FIG. 2, the
装着具11は、開口11dが形成されたゴーグル型の筐体11aと、この筐体11aに取り付けられた第1ベルト11b及び第2ベルト11cと、蓋11eと、を有する。蓋11eは、筐体11aに開閉自在に取り付けられている。筐体11aの前方には開口11dが形成されている。図2においては、蓋11eは開放されている。HME10の使用時には、蓋11eは、開口11dを閉塞するように閉じられる。
The wearing
情報処理装置20は、HMD10の蓋11eの内側に、着脱可能に設けられる。情報処理装置20は、ディスプレイ24を備えている。情報処理装置20は、蓋11eが閉じられたときに、ディスプレイ24が筐体11aの内側を向くように蓋11eに取り付けられる。情報処理装置20は、HMD10の使用時に装着具11に取り付けられる。情報処理装置20は、HMD10を使用しないときには、装着具11から取り外される。
The
図示の実施形態において、情報処理装置20は、スマートフォンである。情報処理装置20は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の各種情報処理装置であってもよい。HMD10から取り外された情報処理装置20は、その本来の目的に応じて利用される。
In the illustrated embodiment, the
情報処理装置20は、上記のように、ディスプレイ24を備えている。図示の実施形態においては、情報処理装置20が装着具11に取り付けられたときには、ディスプレイ24がHMD10における画像表示のための装置として機能する。よって、HMD10を用いてゲームをプレイする場合には、ディスプレイ24に当該ゲームの仮想空間、仮想キャラクタ、及びこれら以外のゲームに関連する画像が表示される。
The
装着具11の形状は、図示されたゴーグル型に限られない。装着具11は、装着されたユーザの頭部の動きに追従して動き、装着されたときにディスプレイ24を当該ユーザの眼前に配置できる任意の形状の構造体を含み得る。装着具11は、例えば眼鏡を模した形状、帽子を模した形状、又はヘルメットを模した形状であってもよい。ユーザの没入感を向上させるためには、HMD10は、装着具11がユーザの頭部に装着されたときに、ディスプレイ24が当該ユーザの両目を覆うように構成されていることが望ましい。
The shape of the wearing
HMD10は、使用時において、図3に示されているように、装着具11を介してユーザ5の頭部に取り付けられる。ユーザ5の頭部に装着されている装着具11には、情報処理装置20が取り付けられている。
When in use, the
再び図1を参照して、情報処理装置20についてさらに説明する。図示のように、一実施形態において、情報処理装置20は、コンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27を備えている。
The
コンピュータプロセッサ21は、ストレージ27又はそれ以外のストレージからオペレーティングシステムやゲームロジックを実現する様々なプログラムをメインメモリ22にロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU又はこれら以外の各種演算装置である。プロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより分散して実行されてもよい。
The computer processor 21 is an arithmetic device that loads various programs that implement an operating system and game logic from the
メモリ22は、コンピュータプロセッサ21が実行する命令及びそれ以外の各種データを格納するために用いられる。一実施形態によるアプリケーション処理プログラムの少なくとも一部は、ゲームの進行に応じて、随時メモリ22にロードされる。メモリ22は、例えば、コンピュータプロセッサ21が高速にアクセス可能な主記憶装置(メインメモリ)である。メモリ22は、例えば、DRAMやSRAM等のRAMによって構成される。
The
通信I/F23は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。情報処理装置20は、通信I/F23を介して、他の装置とデータを送受信することができる。
The communication I/
ディスプレイ24は、表示パネル24aと、タッチパネル24bと、を有する。例えば、タッチパネル24bは、表示パネル24aの上面又は下面に積層されている。表示パネル24aは、液晶パネル、有機ELパネル、無機ELパネル、又はこれら以外の画像を表示可能な任意の表示パネルである。タッチパネル24bは、ユーザのタッチ操作を検出することができるように構成されている。タッチパネル24bは、ユーザのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。
The
センサユニット25は、一又は複数のセンサを備える。センサユニット25は、例えば、ジャイロセンサ、加速度センサ、および地磁気センサのうち少なくとも1つのセンサを含む。センサユニット25は、ユーザの眼球の動きを直接的に検出するアイトラッキングセンサを備えてもよい。アイトラッキングセンサは、例えば、虹彩内に近赤外光を入射しその反射光を検出する視線検出センサである。センサユニット25により検出された検出情報に基づいて、ユーザ5の頭部に装着されたHMD10の位置及び向きが特定される。HMD10の位置及び向きは、例えば、三次元直交座標系での位置および各軸回りの角度として算出される。この三次元直交座標系は、例えば、前後方向に沿ったロール軸、上下方向に沿ったヨー軸、左右方向に沿ったピッチ軸から成る直交座標系である。センサユニット25を構成する各種センサの少なくとも一部は、装着具11及び/又は装着具11以外の情報処理装置20とは異なる部材に設けられてもよい。
The
集音装置26は、音声を集音することができるように構成されている。集音装置26は、例えば、マイクロフォンである。集音装置26により集音された音声情報に基づいて、ユーザ5の音声が検出される。
The
ストレージ27は、コンピュータプロセッサ21によりアクセスされる外部記憶装置である。ストレージ27は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ27には、アプリケーション処理プログラム等の様々なプログラムが記憶される。また、ストレージ27には、ゲームにおいて用いられる各種データも記憶される。ストレージ27に記憶され得るプログラム及び各種データの少なくとも一部は、情報処理装置20とは物理的に別体のストレージに格納されてもよい。
図示の実施形態において、ストレージ27には、画像データ28a、チャットデータ28b、シナリオデータ28c、イベントデータ28d、ゲーム進行データ28e、及び前記以外のゲームの進行のために必要な様々なデータが記憶される。
In the illustrated embodiment, the
画像データ28aには、ゲームの行われる仮想空間の背景を描画するためのデータ、仮想キャラクタを描画するためのデータ、及びゲームで用いられる仮想キャラクタ以外のオブジェクトを描画するためのデータが含まれる。画像データ28aには、仮想空間内におけるオブジェクトの位置情報を含んでもよい。画像データ28aには、上記の各データが、シナリオごと、イベントごと、又はシーンごとに関連づけて記憶されていてもよい。
The
チャットデータ28bには、仮想キャラクタのアイコンを描画するためのデータ、ユーザ5のアイコンを描画するためのデータ、仮想キャラクタの複数のメッセージを特定するためのデータ、当該仮想キャラクタの複数のメッセージの各々に対する応答メッセージの選択肢を示すデータ、及びこれら以外のチャットモードで用いられるデータが含まれる。仮想キャラクタの複数のメッセージは、各メッセージに対応するノードを有し、当該ノード同士がアークで接続されたツリー構造で定義されてもよい。このツリー構造では、例えば、最上位のルートノードである開始メッセージから複数のアークが伸びており、各アークが下位ノードに接続される。この下位ノードからもアークが延び、当該アークがさらに下位のノードに接続される。下位ノードの各々は、開始メッセージよりも後に表示され得る仮想キャラクタのメッセージの候補に対応する。また、チャットデータ28bには、チャットモードからVRモードへの移行を開始する条件であるモード移行条件が含まれてもよい。モード移行条件には、例えば、ゲームがチャットモードで開始されてからの経過時間が所定時間以上であること、ツリー構造のメッセージにおいて末端のノードまでチャットが進行したこと、及びこれら以外の条件が含まれる。チャットデータ28bには、移行オブジェクトの選択が完了しなかった後に再開されたチャットモードで表示されるメッセージを示すデータが含まれてもよい。
The
シナリオデータ28cには、ゲームにおいてユーザ5によって体験されるシナリオを定義するデータが含まれる。ゲームにおいてユーザ5によって体験されるシナリオが複数ある場合、シナリオデータ28cは、複数のシナリオの各々についてシナリオデータを定義してもよい。シナリオデータ28cは、複数のイベントの集合として定義されてもよい。シナリオデータ28cに含まれる複数のイベントは、各イベントに対応するノードを有し、当該ノード同士がアークで接続されたツリー構造で定義されてもよい。このツリー構造では、例えば、最上位のルートノードである冒頭イベントから複数のアークが伸びており、各アークが下位ノードに接続されている。この下位ノードからもアークが延び、当該アークがさらに下位のノードに接続される。あるシナリオにおける下位ノードの各々は、当該シナリオにおいて冒頭イベントよりも後に発生し得るイベントの候補に対応する。シナリオデータ28cには、上記の各データが、シナリオごとごとに関連づけて記憶されていてもよい。
イベントデータ28dは、シナリオデータ28cを構成するイベントの各々を定義するためのデータである。イベントデータ28dは、ゲームにおける仮想キャラクタの複数のアクションを特定するためのデータの集合として定義されてもよい。仮想キャラクタの複数のアクションは、各アクションに対応するノードを有し、当該ノード同士がアークで接続されたツリー構造で定義されてもよい。このツリー構造では、例えば、最上位のルートノードである冒頭アクションから複数のアークが伸びており、各アークが下位ノードに接続されている。この下位ノードからもアークが延び、当該アークがさらに下位のノードに接続される。あるイベントにおける下位ノードの各々は、当該イベントにおいて冒頭アクションよりも後に発生し得るアクションの候補に対応する。イベントデータ28dは、ノードごとに、当該ノードに対応するアクションに対応する動画像データ、仮想キャラクタに対してユーザが取ることができるアクションに関するデータ、及びこれら以外の仮想キャラクタのアクションに関するデータを含むことができる。
The
ゲーム進行データ28eには、ゲームの進行の管理に用いられるデータが含まれる。ゲーム進行データ28eは、ゲームの進行に応じて更新されてもよい。ゲーム進行データ28eには、例えば、仮想キャラクタのユーザに対する好感度に関するデータ、ゲームにおいてユーザが獲得したポイントに関するデータ、及びこれら以外のゲームの進行に応じて変化しえる各種データが含まれ得る。 The game progress data 28e includes data used for managing the progress of the game. The game progress data 28e may be updated as the game progresses. The game progress data 28e may include, for example, data relating to the user's favorability of the virtual character, data relating to points earned by the user in the game, and various other data that may change according to the progress of the game.
図1に示されている情報処理装置20の構成要素及び機能は例示である。本発明に適用可能な情報処理装置20は、図示されていない様々な構成要素を備え得る。例えば、情報処理装置20は、ゲームの効果音や仮想キャラクタの音声を出力するスピーカを備えてもよい。
The components and functions of the
図1に示されている情報処理装置20の構成要素及び機能は例示である。本発明に適用可能な情報処理装置20は、図示されていない様々な構成要素を備え得る。例えば、情報処理装置20は、ゲームの効果音や仮想キャラクタの音声を出力するスピーカを備えてもよい。
The components and functions of the
続いて、HMD10の機能について説明する。図示の実施形態においては、情報処理装置20のコンピュータプロセッサ21においてコンピュータ読み取り可能な命令を実行することにより、HMD10の各種機能が実現される。コンピュータプロセッサ21において実行される命令には、一実施形態によるアプリケーション処理プログラムに含まれる命令が含まれる。
Next, functions of the
コンピュータプロセッサ21によって一実施形態によるアプリケーション処理プログラムが実行されることにより、アプリケーション処理システム1において第1モード及び当該第1モードとは異なる第2モードを有するゲームが実現される。アプリケーション処理システム1において実現されるゲームは、第1モード及び第2モード以外のモードを有していてもよい。
A game having a first mode and a second mode different from the first mode is realized in the
アプリケーション処理システム1において実現されるゲームの第1モードでは、HMD10がユーザ5に装着されていないときに、すなわち、情報処理装置20が装着具11から取り外されているときに、情報処理装置20により検出された第1検出情報に応じてゲームに関する処理が行われる。この第1検出情報には、情報処理装置20のタッチパネル24bにより検出されるユーザ5のタッチ操作に関する情報、集音装置26により検出されるユーザの音声に関する情報、及びHMD10がユーザ5に装着されていない場合に情報処理装置20において検出可能な前記以外の検出情報を含み得る。ユーザ5は、第1モードにおいては、装着具11から取り外された情報処理装置20を用いてゲームに関する操作を行うことができる。第1モードにおいては、HMD10がユーザ5に装着されていないときにゲームを進行させることが想定されているため、一実施形態において、ディスプレイ24には、立体視画像以外の画像が表示される。
In the first mode of the game realized in the
アプリケーション処理システム1において実現されるゲームの第2モードでは、ユーザ5の頭部に装着されたHMD10によって検出される第2検出情報を用いてゲームが進行される。この第2検出情報は、例えば、センサユニット25によって検出される検出情報である。この第2検出情報に基づいて、ユーザ5の頭部の位置及び向きを特定するためのヘッドトラッキング情報が算出される。第2モードにおけるゲームの進行のための処理は、例えば、第2検出情報に基づいて算出されたヘッドトラッキング情報に基づいて実行される。第2モードにおけるゲームの進行のための処理は、ヘッドトラッキング情報に加えて、当該ヘッドトラッキング情報以外の情報も用いて実行されてもよい。ユーザ5は、第2モードでゲームをプレイする準備として、情報処理装置20を装着具11に取付け、この情報処理装置20が取り付けられた装着具11を頭部に装着する。このように、第2モードにおいては、HMD10がユーザ5に装着されているときにゲームを進行させることが想定されているため、一実施形態において、第2モードでは、ユーザ5によって立体視される立体視画像がディスプレイ24に表示される。立体視画像は、例えば、視差バリア方式によって、ディスプレイ24に表示される。視差バリア方式においては、左目用画像及び右目用画像がディスプレイ24に表示される。このように、立体視画像は、ディスプレイに表示されることによって、左右の目の視差を利用して立体視されるように構成された左目用画像及び右目用画像を含む画像のセットである。
In the second mode of the game implemented in the
第1モードは、例えば、チャットモードである。チャットモードは第1モードの例示である。チャットモードにおいては、ユーザが仮想キャラクタとテキストメッセージを介してチャットする機能が実現される。ユーザは、第1モードにおいては、仮想キャラクタとチャットを行うことにより、当該仮想キャラクタとのインタラクションを体験することができる。チャットモードにおける処理の具体的な内容は後述される。インタラクションとは、広義には、プレイヤが実行したアクションに対して仮想キャラクタがリアクションすることを意味する。仮想キャラクタとのインタラクションには、仮想キャラクタとの会話などによるコミュニケーションとしてなされるインタラクションが含まれる。本明細書においては、仮想キャラクタとのコミュニケーションとして行われるインタラクションをコミュニケーティブインタラクションと呼ぶことがある。仮想キャラクタとのインタラクションには、コミュニケーティブインタラクションの他に、仮想キャラクタとの対戦、仮想キャラクタと協力してゲームをプレイする協力プレイ、及びこれら以外の仮想キャラクタとの相互作用が含まれ得る。本明細書においては、仮想キャラクタとの対戦として行われるインタラクションを対戦インタラクションと呼ぶことがある。本明細書においては、仮想キャラクタとの協力プレイとして行われるインタラクションを協力インタラクションと呼ぶことがある。 The first mode is, for example, chat mode. Chat mode is an example of the first mode. The chat mode implements the ability for users to chat with virtual characters via text messages. In the first mode, the user can experience interaction with the virtual character by chatting with the virtual character. Specific contents of processing in the chat mode will be described later. Interaction, in a broad sense, means that a virtual character reacts to an action performed by a player. Interaction with a virtual character includes interaction made as communication such as conversation with a virtual character. In this specification, an interaction performed as communication with a virtual character is sometimes called a communicative interaction. Interactions with virtual characters can include, in addition to communicative interactions, battles with virtual characters, cooperative play in which a game is played in cooperation with virtual characters, and interactions with other virtual characters. In this specification, an interaction performed as a battle with a virtual character is sometimes referred to as a battle interaction. In this specification, an interaction performed as cooperative play with a virtual character may be referred to as a cooperative interaction.
第2モードは、例えば、VRモードである。VRモードにおいては、情報処理装置20のディスプレイに表示される仮想空間に登場する仮想キャラクタと様々なインタラクションを行うための機能が実現される。VRモードにおける処理の具体的な内容は後述される。VRモードは第2モードの例示であり、第2モードには、ヘッドトラッキング情報を用いてゲーム進行のための処理が行われる任意のゲームモードが含まれ得る。
The second mode is VR mode, for example. In the VR mode, functions for performing various interactions with virtual characters appearing in the virtual space displayed on the display of the
一実施形態において、アプリケーション処理システム1で実現される第1モード及び第2モードを有するゲームは、仮想キャクタとコミュニケーティブインタラクション以外のインタラクションを行うゲームであってもよい。アプリケーション処理システム1で実現されるゲームでは、コミュニケーティブインタラクションが行われなくともよい。一実施形態におけるゲームでは、第1モードでは2次元空間でプレイされ、第2モードでは3次元空間でプレイされる。一実施形態におけるゲームでは、第1モードでは3次元空間でプレイされ、第2モードでは当該第1モードの3次元空間とは異なる表示態様で表示される(又は当該第1モードの3次元空間とは異なる態様で構成される)3次元空間でプレイされる。一実施形態において、アプリケーション処理システム1で実現されるゲームは、第1モード及び第2モードで共通のゲーム媒体を使用するものであってもよい。このゲーム媒体に関連付けられたパラメータは、第1モードと第2モードとの間で引き継がれてもよい。例えば、第1モードでのプレイ中に特定のゲーム媒体のパラメータが変更され、その後に第2モードへ移行した場合には、変更後のパラメータが設定された当該特定のゲーム媒体が第2モードで用いられる。一実施形態において、特定のゲーム媒体のパラメータは、第1モードから第2モードへの移行時及び第2モードから第1モードへの移行時の少なくとも一方において、変更されてもよい。このゲーム媒体のパラメータの変更は、プレイヤ5にとってゲームの進行上有利となる変更であってもよいし、不利となる変更であってもよい。一実施形態において、第1モードでのプレイ結果が第2モードでのゲームに反映されてもよいし、第2モードでのプレイ結果が第1モードでのゲームに反映されてもよい。例えば、第1モードで獲得されたプレイヤ5の経験値が第2モードにおいて引き継がれてもよい。
In one embodiment, the game having the first mode and the second mode realized by the
上記のとおり、アプリケーション処理システム1において実現されるゲームの第1モードと第2モードとは互いから識別されるモードである。つまり、第1モードは第2モードと異なるモードである。一実施形態においては、アプリケーション処理システム1において実現されるゲームが第1モードでプレイされる場合には、HMD10がユーザ5の頭部に装着されないのに対し、当該ゲームが第2モードでプレイされる場合には、HMD10がユーザ5の頭部の頭部に装着される。この場合、第1モードにおいては、ユーザ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じてゲームの処理が行われ、第2モードにおいては、ユーザ5の頭部に装着されたHMD10により検出された第2検出情報に応じてゲームの処理が行われる。
As described above, the first mode and the second mode of the game implemented in the
一実施形態において、第2モードでは、立体視画像がディスプレイ24に表示されるのに対し、上述したように、第1モードでは立体視画像以外の画像がディスプレイ24に表示される。第2モードでは、ゲーム用の画像のうち少なくとも仮想キャラクタの画像が立体視画像として表示され、第1モードでは、仮想キャラクタの画像が立体視画像以外の画像として表示される。
In one embodiment, a stereoscopic image is displayed on the
一実施形態において、第1モードにおいては第2検出情報に基づいて算出されるヘッドトラッキング情報を用いずにゲームを進行させる処理がなされるのに対して、第2モードにおいては当該ヘッドトラッキング情報に基づいてゲームを進行させる処理がなされる。 In one embodiment, in the first mode, processing is performed to progress the game without using head tracking information calculated based on the second detection information, whereas in the second mode, the head tracking information is not used. Based on this, processing for advancing the game is performed.
一実施形態において、第1モードにおいてはタッチパネル24bにより検出されるタッチ操作に応じてゲームを進行させる処理がなされるのに対して、第2モードにおいてはタッチパネル24bのタッチ操作に応じた処理はなされない。 In one embodiment, in the first mode, the game progresses according to the touch operation detected by the touch panel 24b, whereas in the second mode, there is no process according to the touch operation of the touch panel 24b. not.
一実施形態において、アプリケーション処理システム1において実現されるゲームにおいて仮想キャラクタとのインタラクションが提供される場合には、第1モードにおいては、ユーザ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じた当該仮想キャラクタとのインタラクションが提供され、第2モードにおいては、ユーザ5の頭部に装着されたHMD10により検出された第2検出情報に応じた当該仮想キャラクタとのインタラクションが提供される。
In one embodiment, when interaction with a virtual character is provided in a game implemented in the
ゲームを開始した後には、上記のように区別される第1モードと第2モードとの間での移行が可能となる。図5を参照して、アプリケーション処理システム1により処理されるゲームのモード移行の概略を説明する。図示のように、ステップS1においてゲームが開始されると、ステップS2において第1モードであるチャットモードS2が開始される。このチャットモードにおいて、第2モードであるVRモードへ移行するための移行処理が開始されると、ステップS3に移行し、第2モードへの移行処理が行われる。移行処理が完了すると、ステップS4において第2モードであるVRモードが開始される。VRモードが終了又は中断されると、チャットモードへの復帰処理が行われる。
After starting the game, it is possible to switch between the first mode and the second mode, which are distinguished as described above. With reference to FIG. 5, an outline of mode transition of the game processed by the
次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、コンピュータ読み取り可能な命令を実行することにより、チャットモード実行部21a、移行処理部21b、及びVRモード実行部21cとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、ゲームシステム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サーバ50に搭載されているコンピュータプロセッサにより実現されてもよい。
Next, functions realized by the computer processor 21 will be described more specifically. The computer processor 21 functions as a chat mode execution unit 21a, a
チャットモード実行部21aは、一実施形態によるアプリケーション処理プログラムを実行することにより、第1モードであるチャットモードでゲームを提供するための処理を行う。チャットモード実行部21aは、ユーザ5と仮想キャラクタとの間でチャットを行うための機能を実現する。チャットモード実行部21aは、チャットモードへのログイン後に、仮想キャラクタのメッセージ及びユーザ5により入力又は選択されたメッセージをディスプレイ24に表示し、当該仮想キャラクタとユーザ5との間でチャットを行わせることができる。チャットモード実行部21aは、仮想キャラクタのメッセージに続けて、当該メッセージ対するユーザ5の応答に関する複数の選択肢をディスプレイ24に表示してもよい。ユーザ5の操作に応じて当該複数の選択肢からユーザ5のメッセージが特定され、この特定されたメッセージが、仮想キャラクタのメッセージに続けて、ユーザ5のメッセージとして表示される。ユーザ5は、タッチパネル24bへのタッチ操作により、表示された選択肢のうち所望のものを選択することができる。仮想キャラクタのメッセージ及び当該メッセージに対するユーザの選択肢は、アプリケーション処理プログラムに従って、チャットデータ28bを参照して特定することができる。仮想キャラクタのメッセージは、当該仮想キャラクタの画像とともに表示されてもよく、ユーザ5のメッセージは、当該ユーザ5の画像とともに表示されてもよい。仮想キャラクタのメッセージには、第2モードであるVRモードへの移行を促すメッセージ、当該VRモードにおける設定をユーザ5に選択させるためのメッセージ、及びこれら以外の当該VRモードに関連づけられたメッセージが含まれていてもよい。
The chat mode execution unit 21a performs processing for providing a game in the chat mode, which is the first mode, by executing an application processing program according to one embodiment. The chat mode execution unit 21a realizes a function for chatting between the
チャットモードにおいては、チャットの進行に応じて、第2モードであるVRモードへの移行を開始するための移行開始オブジェクトが表示される。移行開始オブジェクトの表示は、アプリケーション処理プログラムに従って、モード移行条件が成立したときに行われる。タッチパネル24b又はそれ以外のユーザインタフェースからの検出信号に基づいて移行開始オブジェクトが選択されたことが検知されると、第2モードであるVRモードへの移行処理が開始される。 In the chat mode, a transition start object for starting transition to the VR mode, which is the second mode, is displayed according to the progress of the chat. The transition start object is displayed when the mode transition condition is satisfied according to the application processing program. When it is detected that the transition start object has been selected based on a detection signal from the touch panel 24b or another user interface, processing for transitioning to the VR mode, which is the second mode, is started.
移行処理部21bは、第1モードから第2モードへ移行するための移行処理を行う。この移行処理には、情報処理装置20を装着具11へ装着するように促すガイダンスをディスプレイ24に表示すること、及び、ユーザの注視によって選択可能な移行オブジェクトをディスプレイ24に表示させること、を含んでもよい。この移行オブジェクトを表示させた後、移行処理部21bは、センサユニット25又はそれ以外のセンサの検出信号を受信し、この検出信号に基づいて移行オブジェクトが注視によって選択されたか否かを判定することができる。この判定のために、移行処理部21bは、センサユニット25の検出信号に基づいてHMD10の位置及び向きを算出し、この算出されたHMD10の位置及び向きに基づいて、ユーザ5の注視位置を特定する。注視位置の特定は、様々な公知の方法により行われ得る。例えば、アイトラッキングセンサの検出信号に基づいて注視位置を特定してもよい。移行処理部21bは、例えば、注視位置が移行開始オブジェクト上にある時間(注視時間)を計測し、この注視時間が所定時間に達したときに、移行開始オブジェクトの選択が完了したと判断する。移行処理部21bは、移行オブジェクトの選択が完了したと判断すると第2モードであるVRモードを開始させる。
The
VRモード実行部21cは、仮想キャラクタ及びそれ以外のオブジェクトを含む仮想空間を構成し、この仮想空間を表示するための画像情報をディスプレイ24に出力する。VRモード実行部21cは、仮想空間60の画像情報を、ゲームの進行に応じて定められるシーンに対応するように生成することができる。
The VR
VRモード実行部21cによって構成される仮想空間について、図4aをさらに参照して説明する。図4aは、VRモード実行部21cによって構成される仮想空間60を模式的に示す図である。図4aには、第1シーンにおける初期設定時の仮想空間60が示されている。VRモード実行部21cは、第1シーンの初期設定に基づいて、仮想空間60内でのユーザ61の位置及び基準視線62を特定し、また、仮想空間60全体のうち基準視線62を中心として所定の範囲にある領域を初期表示領域63として特定する。この初期表示領域63は、例えば、基準視線62を中心として所定の画角内にある範囲とされる。初期表示領域63は、非表示領域と境界線63aによって区画される。VRモード実行部21cは、第1シーンの処理が開始されるときに、仮想空間60全体のうち初期表示領域63内の仮想空間の画像を示す画像情報を生成し、生成した画像情報をディスプレイ24に出力する。このようにして生成された画像情報に基づいて、初期表示領域63に相当する仮想空間60の画像がディスプレイ24に表示される。画像情報の生成には、例えば、ストレージ27に記憶された画像データ28a、シナリオデータ28c、イベントデータ28d、ゲーム進行データ28e、及びこれら以外のデータが用いられ得る。
The virtual space constructed by the VR
VRモードにおいて第1シーンの処理を開始した後にHMD10によってユーザ5の頭部の動きが検出されると、VRモード実行部21cは、この検出されたユーザ5の頭部の動きに追従するように、基準視線62を移動させ、この移動後の基準視線62を中心として所定の画角内にある範囲を新たな表示領域として特定する。このように、VRモード実行部21cは、HMD10によってユーザ5の頭部の動きに応じて表示領域を随時更新し、この更新された表示領域に対応する仮想空間60の画像をディスプレイ24に出力する。この結果、ディスプレイ24に表示される仮想空間60の画像も表示領域に応じて変化する。ユーザ5は、このようにして、自らの頭部の動きに応じて変化する仮想空間60の画像を見ることができる。ユーザ61が仮想空間60内で移動する場合には、基準視線62の向きは、当該ユーザ61の仮想空間60内の位置に応じて変化する。
When the motion of the head of the
仮想空間60には、主表示領域64が設けられている。主表示領域64は、第1主表示領域の例である。この主表示領域64は、シーンごとに定められる仮想空間60の所定の位置に設けられる。主表示領域64は、境界線64aによって他の領域と区画される。主表示領域64は、例えば、各シーンにおいて、ユーザ5の視線が向けられやすい位置を含む領域とされる。主表示領域64は、例えば、各シーンの初期設定に基づいて定められる初期表示領域63の内部に配置される。あるシーンにおける主表示領域64は、例えば、当該シーンの初期設定に基づいて定められる初期表示領域63の中に、インタラクションを行う仮想キャラクタを示すオブジェクトの少なくとも一部が含まれるように設定される。主表示領域64は、初期表示領域63の一部をなす領域であってもよいし、初期表示領域63と一致する領域であってもよい。図4aに示されている第1シーンにおいては、立位姿勢にあるユーザ61の基準視線62の周囲に主表示領域64が設けられている。
A
仮想空間60内には、仮想キャラクタのオブジェクト及びそれ以外の様々なオブジェクトが配置される。仮想空間60に含まれるオブジェクトには、ユーザ5の注視によって選択可能な特定オブジェクトが含まれてもよい。図4aには、このような特定オブジェクトの例として、メニューオブジェクト66が示されている。
A virtual character object and various other objects are placed in the
メニューオブジェクト66には、ユーザ5の注視によって選択可能な一又は複数のメニューアイテムが関連づけられていてもよい。この一又は複数のメニューアイテムの各々は、仮想空間60内でのユーザ61のアクションと関連づけられていてもよい。メニューオブジェクト66に含まれるメニューアイテムは、仮想空間60におけるユーザ61の頭部の動きと関連づけられていないアクション、例えば、仮想空間60におけるユーザ61の手の動きに関連するハンドアクション、又は、仮想空間60におけるユーザ61による道具の使用に関する道具アクションに関連づけられていてもよい。道具アクションは、例えば、ユーザ61が仮想空間60内でカメラを用いて写真撮影を行う写真アクションである。メニューオブジェクト66に複数のメニューアイテムが関連づけられている場合、ゲームの進行に応じて、そのうちの一部のみが選択可能とされてもよい。
The
図4aに示されているように、メニューオブジェクト66は、仮想空間60において主表示領域64に含まれない位置に配置される。つまり、メニューオブジェクト66は、主表示領域64の外に配置される。メニューオブジェクト66は、初期表示領域63の内側に配置されてもよく、初期表示領域63の外側に配置されてもよい。
As shown in FIG. 4a, the
図4bには、第2シーンにおける仮想空間60が示されている。第2シーンは、第1シーンとは異なるゲームシーンである。第2シーンは、第1シーンよりも前に又は第2シーンよりも後に実行される図示のように、第2シーンにおいては、仰臥位姿勢にあるユーザ61の基準視線62の周囲に主表示領域64が設けられている。この第2シーンにおいても、メニューオブジェクト66は、主表示領域64の外に配置されている。
Figure 4b shows the
VRモード実行部21cは、アプリケーション処理プログラムに従って、仮想空間に仮想キャラクタの画像を表示し、この仮想キャラクタとユーザ5との間でのインタラクションを実現する。VRモード実行部21cは、アプリケーション処理プログラムに従って、仮想空間内での仮想キャラクタの行動を決定し、この仮想キャラクタの行動に対応する画像情報及び音声情報を生成する。当該画像情報はディスプレイ24に出力され、当該音声情報はHMD10が有するスピーカに出力される。これにより、ディスプレイ24には、仮想空間内で仮想キャラクタが動く画像が表示され、スピーカからは仮想キャラクタの動きに対応した音声が出力される。例えば、仮想キャラクタがユーザ5に話しかける場合には、仮想キャラクタの頭部及び口が動く動く画像がディスプレイ24に表示され、仮想キャラクタの発言に対応する音声がスピーカから出力される。仮想キャラクタの行動に対応する画像情報及び音声情報の生成には、例えば、ストレージ27に記憶された画像データ28a、シナリオデータ28c、イベントデータ28d、ゲーム進行データ28e、及びこれら以外のデータが用いられ得る。一実施形態において、VRモード及びチャットモードの各々においてユーザ5とインタラクトする仮想キャラクタは、同じ仮想キャラクタである。例えば、VRモードに登場する仮想キャラクタとチャットモードに登場するキャラクタと同じ名前を有し、同一のキャラクタと認識できる程度の外観上の共通性を有する。ただし、VRモードにおいては仮想キャラクタの画像が立体視画像として表示されるのに対し、チャットモードにおいては仮想キャラクタの画像が立体視画像以外の画像として表示される点で、両モードにおける仮想キャラクタの画像は互いと相違している。しかし、このような表現形式の相違は、仮想キャラクタの同一性を妨げることはない。
The VR
上記の機能に加えて、VRモード実行部21cは、センサユニット25からの検出信号に基づいて、仮想空間60におけるユーザ61のアクションを特定する機能を有する。仮想空間60におけるユーザ61のアクションは、例えば、仮想空間60に登場する仮想キャラクタに対するユーザ61からのアクションである。仮想空間60におけるユーザ61のアクションは、仮想空間60内における仮想的なものであるため、現実空間におけるユーザ5の身体動作又は現実空間におけるユーザ5の動きと一致する場合もあるし一致しない場合もある。
In addition to the functions described above, the VR
仮想空間60におけるユーザ61のアクションには、ユーザ61の頭部の動きと関連づけられる第1アクションと、ユーザ61の頭部の動きと関連づけられていない第2アクションと、が含まれる。仮想空間60におけるユーザ61の頭部の動きと関連づけられる第1アクションには、ユーザ61が仮想空間60において頷くというアクション、ユーザ61が仮想空間60において首を横に振るというアクション、及びこれら以外の仮想空間60におけるユーザ61の頭部の動きと関連づけられたアクションが含まれる。VRモード実行部21cは、ユーザ5の頭部に装着されているHMD10に備えられたセンサユニット25によって検出された検出情報に基づいてHMD10の位置及び向きを算出することにより、現実空間におけるユーザ5の頭部の動きを特定することができる。
Actions of the
VRモード実行部21cは、HMD10により検出された一又は複数の検出情報に基づいて、実世界におけるユーザ5の頭部の動きを検出し、この検出したユーザ5の頭部の実世界における動きに一致又は対応するアクションを、仮想空間60におけるユーザ61の第1アクションとして特定する。例えば、ユーザ5が頷く動作を行ったことが検出された場合には、仮想空間60におけるユーザ61の第1アクションとして、(仮想空間60において)ユーザ61が頷くというアクションが特定される。仮想空間60におけるユーザ61の第1アクションは、仮想空間60が一人称視点の画像としてディスプレイ24に表示される場合には、その仮想空間60の画像には含まれない。
The VR
仮想空間60におけるユーザ61の第2アクションは、仮想空間60におけるユーザ61の頭部の動きと関連づけられていない。この第2アクションは、仮想空間60におけるユーザ61の頭部以外の部位の動き、例えばユーザ61の手の動きと関連づけられている。第2アクションには、ユーザ61が仮想空間60において「撫でる」というアクション、ユーザ61が仮想空間60において「つつく」というアクション、及びこれら以外の仮想空間60におけるユーザ61の頭部以外の部位の動きと関連づけられたアクションが含まれる。「撫でる」というアクションは第1注視位置アクションの例であり、「つつく」というアクションは第2注視位置アクションの例である。
The second action of
一実施形態において、VRモード実行部21cは、メニューオブジェクト66が選択されたことに応じて、第2アクションの特定を行うように構成される。VRモード実行部21cは、HMD10の検出信号に基づいて算出される注視位置に基づいて、メニューオブジェクト66が選択されたことを検出することができる。例えば、VRモード実行部21cは、注視位置がメニューオブジェクト66上に所定時間以上あるか否かによって、メニューオブジェクト66の選択が完了したか否かを判定することができる。例えば、注視位置がメニューオブジェクト66上に所定時間以上あれば、メニューオブジェクト66の選択が完了したと判定される。
In one embodiment, the VR
メニューオブジェクト66に複数のメニューアイテムが含まれる場合には、VRモード実行部21cは、当該複数のメニューアイテムのうちの一つの上に注視位置が所定時間以上ある場合に、当該メニューアイテムが選択されたことを検出することができる。
When the
VRモード実行部21cは、メニューオブジェクト66の選択又はメニューオブジェクト66に含まれるメニューアイテムのうちの一つの選択を検出すると、この選択されたメニューオブジェクト66又は選択されたメニューアイテムに対応するアクションを、ユーザ61が仮想キャラクタに対して行う選択アクションとして設定する。上述のように、メニューアイテムには、仮想空間60におけるユーザ61の手の動きに関連するハンドアクションに対応するメニューアイテム、及び、仮想空間60における写真撮影に関連する写真アクションに対応するメニューアイテムが含まれていてもよい。このハンドアクションに関連づけられているメニューアイテムが選択された場合、VRモード実行部21cは、このハンドアクションを仮想キャラクタに対する選択アクションとして設定する。
When the VR
VRモード実行部21cは、第2アクションが設定されると、仮想キャラクタ上に一又は複数のキャラクタ注視位置を設定してもよい。VRモード実行部21cは、当該一又は複数の注視位置のうちの少なくとも一つの注視位置が選択されたときに、その選択された注視位置と選択アクションとに基づいて、仮想キャラクタに対するアクションを特定することができる。例えば、ハンドアクションに対応するメニューアイテムが選択された場合に、仮想キャラクタの頭部に設定された注視位置が選択されると、当該仮想キャラクタの頭を撫でるというアクションが特定され、この特定されたアクションが仮想空間60において行われる。
When the second action is set, the VR
VRモード実行部21cは、ユーザ61のアクションに応じて仮想キャラクタの仮想空間内での行動(リアクション)を決定することができる。VRモード実行部21cは、ユーザ5のアクションに応じて決定された仮想キャラクタの行動を表示するための画像情報を生成し、この生成された画像情報を立体視画像としてディスプレイ24に出力する。これにより、ディスプレイ24には、ユーザ5のアクションに応じて決定された行動を行う仮想キャラクタの画像が表示される。このように、VRモード実行部21cは、ユーザ61のアクションに対する仮想キャラクタの行動(リアクション)を決定し、その決定された行動に対応する仮想キャラクタの画像情報をディスプレイ24に出力する。VRモードでは、このようにしてユーザ5と立体視画像として表示される仮想キャラクタとの間でのインタラクションを実現している。
The VR
VRモード実行部21cは、終了条件が満たされるとVRモードを終了するための終了処理を行う。終了条件は、例えば、VRモードの開始から所定時間(例えば、1分)経過したこと、終了対象操作が検知されたこと、VRモードで実行されているシナリオに含まれる最後のイベントが終了したこと、及びこれら以外の条件である。終了条件が満たされたときに行われる終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。
The VR
次に、図6及び図7を参照して、チャットモードにおけるチャット処理について説明する。図6は、一実施形態におけるチャットモードでの処理の流れを示すフロー図であり、図7は、チャットモードにおける表示画像の例を示す。チャットモードの開始時においては、HMD10はユーザ5の頭部に装着されておらず、また、情報処理装置20は装着具11から取り外されていることが想定されている。
Next, chat processing in the chat mode will be described with reference to FIGS. 6 and 7. FIG. FIG. 6 is a flowchart showing the flow of processing in chat mode in one embodiment, and FIG. 7 shows an example of a display image in chat mode. At the start of the chat mode, it is assumed that the
アプリケーション処理システム1において、ゲームは、チャットモードで開始される。ステップS11では、チャットモードへログインするためのログイン画面が情報処理装置20のディスプレイ24に表示される。ユーザ5によってログイン処理がなされると、当該チャット処理は、ステップS12に移行する。
In the
ステップS12においては、ユーザ5と仮想キャラクタとの間でメッセージが交換され、これにより両者の間でチャットが行われる。チャットモードへのログインがなされると、ユーザ5と仮想キャラクタとの間で行われるチャットを表示するためのチャット表示画像が生成され、当該チャット表示画像がディスプレイ24に表示される。図7は、ディスプレイ24に表示されるチャット表示画像の一例であるチャット表示画像70を示す。チャット表示画像70は、ユーザ5に対応するアイコン73と、仮想キャラクタに対応するアイコン74と、ユーザ5のメッセージ75aと、仮想キャラクタのメッセージ76a,76bと、移行開始オブジェクト78と、を含むチャット表示領域71を含む。また、チャット表示画像70は、チャット表示領域71の上部に配されたメニュー領域72を含む。仮想キャラクタのメッセージ76a,76bは、アプリケーション処理プログラムに従って、ストレージ72に記憶されているチャットデータ28b及びこれ以外のデータに基づいて特定される。例えば、仮想キャラクタのメッセージは、ツリー構造で定義されているチャットデータ28bを参照して、ルートノードにあるメッセージから順に表示される。ノードの分岐点においては、分岐条件に応じたノードが選択され、当該選択されたノードに対応するメッセージが表示される。
In step S12, messages are exchanged between the
ユーザ5は、チャット表示画像70に含まれる選択肢のうちの一つを選択することができる。この選択は、ディスプレイ24において選択したい選択肢が表示されている領域を指で接触することで行われる。この選択がなされると、選択された選択肢に対応するメッセージ75bが、ユーザ5のメッセージとしてチャット表示領域71に新たに表示される。
ステップS13では、第1モードから第2モードへのモード移行条件が成立したか否かが判定される。第1モードから第2モードへのモード移行条件として、例えば、チャットモード開始から所定時間(例えば、1分)が経過したことという条件が用いられる。チャットモード開始からの経過時間は、例えばシステムクロックを用いて計測される。モード移行条件が成立したと判断されるまで、ステップS12に戻ってチャット処理が継続される。他方、モード移行条件が成立したと判断されると、チャット処理は、ステップS14に移行する。 In step S13, it is determined whether or not the condition for mode transition from the first mode to the second mode is satisfied. As a mode transition condition from the first mode to the second mode, for example, a condition that a predetermined time (for example, one minute) has passed since the start of the chat mode is used. Elapsed time from the start of the chat mode is measured using, for example, the system clock. The process returns to step S12 and the chat process continues until it is determined that the mode transition condition is satisfied. On the other hand, if it is determined that the mode transition condition is satisfied, the chat process proceeds to step S14.
ステップS14においては、移行開始オブジェクト78移行開始オブジェクト78がディスプレイ24に表示され、チャット処理は、ステップS15に進む。図7に示されているように、移行開始オブジェクト78は、例えばチャット領域71内に、外縁が円形のオブジェクトとして表示される。ステップS15において、移行開始オブジェクトの選択が確認されると、チャット処理は、ステップS16に進む。他方、移行開始オブジェクトが表示されてから所定時間(例えば、10秒)経過しても移行開始オブジェクトの選択が確認されない場合には、移行開始オブジェクトの選択がなされなかったと判定され、チャット処理が終了する。移行開始オブジェクトの選択がなされなかったと判定されたときに、ステップS12に戻り、チャットを再開するための処理が行われてもよい。移行開始オブジェクトの選択がなされたか否かは、タッチパネル24bへの操作に応じて判断されてもよい。例えば、移行開始オブジェクトの表示領域と重複する位置へのタッチ操作(例えば、タップ操作)がなされたことがタッチパネル24bによる検出信号から検出されたときに、当該移行開始オブジェクトが選択されたと判断される。
In step S14, the
ステップS16では、第2モードであるVRモードへの移行処理が開始される。移行処理が開始されると、チャット処理は終了する。チャットモードにおいては、移行先のVRモードにおけるシーンの選択肢がディスプレイ24に表示されてもよい。ユーザ5は、この選択肢の中から好みのシーンを選択することができる。
In step S16, processing for shifting to the VR mode, which is the second mode, is started. Once the transition process is started, the chat process ends. In the chat mode, scene options in the destination VR mode may be displayed on the
以上のチャット処理は、チャットモード実行部21aにより実行される。チャットモード実行部21aは、単独で又は他の機能と適宜協働して、上記のチャット処理を実行することができる。チャット処理の実行に際しては、ストレージ27に格納されているデータ以外にも、必要に応じて、他のストレージに格納されているデータ、各種センサによって検出された検出情報、またはこれら以外のデータが用いられ得る。
The chat processing described above is executed by the chat mode execution unit 21a. The chat mode execution unit 21a can execute the above-described chat processing independently or appropriately in cooperation with other functions. When executing the chat process, in addition to the data stored in the
第1モードであるチャットモードから第2モードであるVRモードへのモード移行処理においては、HMD10を装着するように促すガイダンスが、情報処理装置20のディスプレイ24に表示される。このガイダンスに続いて、ディスプレイ24には、移行オブジェクトが表示される。この移行オブジェクトがユーザ5によって選択されるとVRモードが開始される。ユーザ5は、HMD10を装着し、移行オブジェクトを所定時間継続して注視することにより、この移行オブジェクトを選択することができる。
In the mode transition processing from the chat mode, which is the first mode, to the VR mode, which is the second mode, guidance prompting the user to wear the
次に、図8及び図9を参照して、VRモードにおけるVR処理について説明する。図8は、一実施形態におけるVRモードでのVR処理の流れを示すフロー図であり、図9は、VRモードにおける表示画像の例を示す。VRモードの開始時においては、HMD10はユーザ5の頭部に装着されていることが想定されている。以下のVRモードに関する説明では、チャットモードにおいて、ユーザ5により第1シーンが選択されたものとする。第1シーンとして、様々なシーンが設定され得る。例えば、第1シーンは、屋内又は屋外の任意の場所において会話を行うためのシーンであってもよい。図8のVR処理は、終了条件が成立するまで繰り返し行われる。終了条件は、例えば、VRモードの開始から所定時間(例えば、1分)経過したこと、終了対象操作が検知されたこと、VRモードで実行されているシナリオに含まれる最後のイベントが終了したこと、及びこれら以外の条件である。
Next, VR processing in the VR mode will be described with reference to FIGS. 8 and 9. FIG. FIG. 8 is a flow diagram showing the flow of VR processing in VR mode in one embodiment, and FIG. 9 shows an example of a display image in VR mode. It is assumed that the
VRモードが開始されると、ステップS21において、第1シーンに対応する仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。第1シーンにおける仮想空間60の画像情報は、例えば画像データ28aを参照することにより生成される。ステップS21においては、まず、第1シーンにおける仮想空間60のうち初期表示領域63の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。図9は、第1シーンの初期表示領域63の表示画像の例を示している。図9に示されているVR画像80は、仮想キャラクタ65、メニューオブジェクト66、背景に相当するオブジェクト82a~82c、及びこれら以外の各種オブジェクトを示す画像を含んでいる。メニューオブジェクト66は、主表示領域64の外に配されている。VR画像80は、一人称視点の画像であるため、ユーザ61を示す画像は表示されていない。
When the VR mode is started, image information of the virtual space corresponding to the first scene is generated and an image corresponding to the image information is output to the
仮想キャラクタ画像65は、様々なアクションを仮想空間内で行うことができる。例えば、仮想キャラクタ画像65のアクションには、ユーザ61に向かって(仮想空間内のユーザ61の位置に向かって)話しかける、仮想空間内を移動する、仮想空間内に配置されたオブジェクトを手に取る、及びこれら以外の仮想空間内における様々なアクションが含まれる。
The
VR画像80がディスプレイ24に表示されている間に、HMD10のセンサユニット25によってユーザ5の頭部の動きが検出されると、この検出された頭部の動きに基づいて仮想空間60内でのユーザ61の第1アクションが特定される。そして、特定されたユーザ61の第1アクションに応じた仮想キャラクタの行動(リアクション)が決定され、この決定された行動を行う仮想キャラクタ65の画像情報が生成される。このようにして生成された画像情報は、ディスプレイ24に出力される。例えば、ユーザ5が首を縦方向に振る動作(頷く動作)を行ったことが検出されると、HMD10の検出情報に基づいてユーザ61の仮想空間60内における第1アクションとして頷くというアクションが特定される。そして、このユーザ61の頷くという第1アクションへのリアクションを取る仮想キャラクタ画像65の画像情報が生成され、当該画像情報がディスプレイ24に表示される。このように、VRモードでは、仮想キャラクタの立体視画像を用いて、ユーザと仮想キャラクタ65との間でのインタラクションが実現される。
When the
ステップS22では、VR画像表示処理を終了するための終了条件が成立したか否かが判定される。終了条件が成立していないと判定された場合には、ステップS21に戻ってVR画像表示処理が継続される。他方、終了条件が成立したと判定された場合には、VR処理は、ステップS23に進む。 In step S22, it is determined whether or not an end condition for ending the VR image display processing is satisfied. If it is determined that the termination condition is not satisfied, the process returns to step S21 to continue the VR image display processing. On the other hand, if it is determined that the end condition is met, the VR process proceeds to step S23.
ステップS23では、VRモードの終了処理がなされる。この終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。
In step S23, VR mode end processing is performed. This termination process may include displaying on the
以上のVR処理は、VRモード実行部21cにより実行される。VRモード実行部21cは、単独で又は他の機能と適宜協働して、上記のVR処理を実行することができる。
The above VR processing is executed by the VR
次に、図10及び図11a~図11dを参照して、第2アクションを特定するための第2アクション特定処理について説明する。図10は、一実施形態における第2アクション特定処理の流れを示すフロー図であり、図11a~図11dは、第2アクションを特定するための処理における表示画像の例を示す。第2アクションを特定するための処理は、図8を参照して説明したVR処理と並行して行われる。 Next, a second action identifying process for identifying a second action will be described with reference to FIGS. 10 and 11a to 11d. FIG. 10 is a flow diagram showing the flow of the second action specifying process in one embodiment, and FIGS. 11a to 11d show examples of display images in the process for specifying the second action. The processing for identifying the second action is performed in parallel with the VR processing described with reference to FIG.
まず、ステップS31において、メニューオブジェクト66の選択が行われたか否かが判断される。例えば、メニューオブジェクト66を注視する注視時間が所定時間に達したときに、メニューオブジェクト66の選択が行われたと判断される。メニューオブジェクト66の選択が行われなかった場合には、ステップ31の判断が繰り返し行われる。他方、メニューオブジェクト66の選択が行われたと判断された場合には、第2アクション特定処理は、ステップS32に移行する。
First, in step S31, it is determined whether or not the
ステップS32では、当該メニューオブジェクト66に関連づけられているメニューアイテムがディスプレイ24に表示される。図11aに、メニューオブジェクト66に関連づけられているメニューアイテムを含む仮想空間の画像の例を示す。図11aに示されているVR画像80は、2つのメニューアイテムにそれぞれ対応するアイコンを含んでいる。具体的には、VR画像80は、メニュー画像67を含み、このメニュー画像67に、メニューアイテムアイコン68a及びメニューアイテムアイコン68bが含まれている。メニューアイテムアイコン68aは、仮想空間60におけるユーザ61の手の動きに関連するハンドアクションに対応するメニューアイテムを示すアイコンであり、メニューアイテムアイコン68bは、仮想空間60における写真撮影に関連する写真アクションに対応するメニューアイテムを示すアイコンである。メニューアイテムをディスプレイ24へ表示するための処理が行われると、第2アクション特定処理は、ステップS33へ移行する。仮想空間内に表示されるメニューアイテムアイコン68a及びメニューアイテムアイコン68bは、当該仮想空間内に配置されている仮想的な構造物の一つの面に平行となるように表示されてもよい。例えば、図示の実施形態においては、メニューアイテムアイコン68a及びメニューアイテムアイコン68bは、図11aに示されている仮想空間における部屋の床面、壁面、又は天井面に平行となるように表示されてもよい。メニューアイテムアイコン68a及びメニューアイテムアイコン68bのこのような配置により、当該メニューアイテムアイコン68a及びメニューアイテムアイコン68bを仮想空間内に配置された仮想的な物体であるかのように表示することができる。これにより、ユーザ61の没入感を損なわないようにすることができる。メニューアイテムアイコン68aは、仮想空間において、メニューアイテムアイコン68bが配置されている面と異なる面に配置されてもよい。メニューアイテムアイコン68a及びメニューアイテムアイコン68b以外のメニュー画像67の構成要素も仮想空間内に配置されている仮想的な構造物の一つの面に平行となるように表示されてもよい。
At step S32, the menu items associated with the
ステップS33では、ステップS32で表示されたメニューアイテムアイコンのうちのいずれかの選択がなされたか否かが判断される。例えば、VR画像80に含まれているメニューアイテムアイコンのうちのいずれかを注視する注視時間が所定時間に達したときに、当該メニューアイテムアイコンが選択されたと判断される。図示の例においては、メニューアイテムアイコン68aを注視する注視時間が所定時間に達したときにメニューアイテムアイコン68aの選択が行われたと判断され、メニューアイテムアイコン68bを注視する注視時間が所定時間に達したときにメニューアイテムアイコン68bの選択が行われたと判断される。2つ以上のメニューアイテムアイコンが選択されてもよい。ステップ33において、メニューアイテムアイコンの選択が確認されない場合には、当該メニューアイテムアイコンの表示を中止し、第2アクション特定処理は、ステップS31へ戻る。他方、メニューアイテムアイコンが選択されたと判断された場合には、第2アクション特定処理は、ステップS34へ進む。
At step S33, it is determined whether or not any of the menu item icons displayed at step S32 has been selected. For example, when the gaze time for gazing at any one of the menu item icons included in the
ステップS34では、仮想キャラクタ65上に、一又は複数のキャラクタ注視位置が設定される。仮想キャラクタ65上におけるキャラクタ注視位置の設定について、図11bを参照して説明する。図11bは、仮想キャラクタ65の上に設定されたキャラクタ注視位置を説明するために、VR画像80内にキャラクタ注視位置を模式的に示している。キャラクタ注視位置は、VR画像80においてユーザ5によって視認可能に設定されてもよいし、視認できないように設定されてもよい。図11bに示した例では、仮想キャラクタ65上に複数のキャラクタ注視位置81a~81dが設定されている。仮想キャラクタ65上に設定される一又は複数のキャラクタ注視位置はそれぞれ、仮想キャラクタ65の特定の部位に対応付けられている。図11bの例においては、キャラクタ注視位置81a~81dはそれぞれ、女性の人物を模した仮想キャラクタ65の頭部、頭髪、肩、及び腕に対応付けられている。仮想キャラクタ65上にキャラクタ注視位置が設定されると、第2アクション特定処理は、ステップS35へ移行する。
In step S<b>34 , one or more character gaze positions are set on the
ステップS35では、仮想キャラクタ65上に設定された一又は複数のキャラクタ注視位置のうち、いずれかのキャラクタ注視位置が注視されたか否かが判断される。図11bに示されている例においては、キャラクタ注視位置81a~81dのいずれかを注視する注視時間が所定時間に達したときに、当該キャラクタ注視位置が選択されたと判断される。ステップ35において、いずれのキャラクタ注視位置も注視されなかった場合には、キャラクタ注視位置の設定を取り消し、第2アクション特定処理は、ステップS31へ戻る。他方、いずれのキャラクタ注視位置に対して注視がなされたと判断された場合には、第2アクション特定処理は、ステップS36へ進む。
In step S35, it is determined whether or not any of the one or more character gaze positions set on the
ステップS36では、ステップS33で選択されたメニューアイテム及びステップS35で注視されたキャラクタ注視位置に基づいて、仮想キャラクタ65に対するアクションが特定され、特定されたアクションが仮想キャラクタ65に対して行われる。例えば、ステップS33において、ハンドアクションに対応付けられているメニューアイテムアイコン68aが選択され、ステップS35において仮想キャラクタ65の頭部に対応付けられたキャラクタ注視位置81aが注視された場合には、仮想キャラクタ65の頭部を撫でるというアクションが、仮想空間60内におけるユーザ61の仮想キャラクタ65に対する第2アクションとして特定される。
In step S36, an action for the
メニューアイテムアイコン68aが選択された場合において、注視されたキャラクタ注視位置に応じて、異なる第2アクションが特定されてもよい。例えば、上記の例と同様にメニューアイテムアイコン68aが選択された場合であっても、キャラクタ注視位置81aに代えてキャラクタ注視位置81cが注視された場合には、「撫でる」というアクションとは異なるアクションが第2アクションとして特定されてもよい。メニューアイテムアイコン68aが選択され、キャラクタ注視位置81cが注視された場合には、例えば、仮想キャラクタ65の肩を「つつく」というアクションが第2アクションとして特定されてもよい。
When the
第2アクションが特定されると、この特定された第2アクションが仮想キャラクタ65に対して行われる。例えば、仮想キャラクタ65の頭部を撫でるというアクションが第2アクションとして特定された場合には、図11cに示すように、当該第2アクションを表現する画像がVR画像80としてディスプレイ24に表示される。図11cに示されている例では、ユーザ61が仮想空間60内で仮想キャラクタ65の頭部を撫でるというアクションを示すために、仮想キャラクタ65の頭部付近にユーザ61の仮想的な手を示す画像83aが表示される。他の例において、仮想キャラクタ65の肩をつつくというアクションが第2アクションとして特定された場合には、図11dに示すように、ユーザ61が仮想空間60内で仮想キャラクタ65の肩をつつくというアクションを示すために、仮想キャラクタ65の肩付近にユーザ61の仮想的な手を示す画像83bが表示される。画像83a及び画像83bは、仮想キャラクタ65に対して行われるアクションの違いを表現するために、互いに異なっていてもよい。仮想キャラクタ65は、このユーザ61の第2アクションに応じて、アプリケーション処理プログラムに従った動作(リアクション)を行う。
When the second action is specified, the specified second action is performed on the
ステップS33では、写真アクションに対応付けられているメニューアイテムアイコン68bが選択され、ステップS35において仮想キャラクタ65上に設定されたキャラクタ注視位置のうちの一つ(例えばキャラクタ注視位置81a)が注視されてもよい。この場合には、当該仮想キャラクタ65を含む写真を撮影するというアクションが第2アクションとして特定される。メニューアイテムアイコン68bが選択されたことに応じて、仮想キャラクタ65は、ユーザ61が構えるカメラに対してポーズを取るアクションを行ってもよい。また、仮想キャラクタ65上に設定されたキャラクタ注視位置のうちの一つの選択に応じて、シャッターを切る動作がおこなわれても良い。この場合、キャラクタ注視位置のうちの一つが選択されたときにディスプレイ24に出力されている画像が、写真アクションにより撮影されたアクションとして、ストレージ27に記憶される。
In step S33, the
以上の第2アクション特定処理は、VRモード実行部21cにより実行される。VRモード実行部21cは、単独で又は他の機能と適宜協働して、上記の第2アクション特定処理を実行することができる。
The second action specifying process described above is executed by the VR
続いて、他の実施形態によるアプリケーション処理システムについて図12を参照して説明する。図12は、他の実施形態によるアプリケーション処理システム101を示すブロック図である。アプリケーション処理システム101は、情報処理装置20、HMD110、及びHMD110を備えている。アプリケーション処理システム101は、情報処理装置20をHMD110に取り付けることなくVRモードを提供できる点で、アプリケーション処理システム1と異なっている。以下、アプリケーション処理システム101について、アプリケーション処理システム1と相違する点に着目して説明する。
Next, an application processing system according to another embodiment will be described with reference to FIG. FIG. 12 is a block diagram illustrating
HMD110と、情報処理装置20と、サーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。HMD110と情報処理装置20とは、ネットワーク40を介さずに、Bluetooth(登録商標)などの近距離無線方式に従って通信可能に接続されていてもよい。HMD110は、情報処理装置20が取り付けられなくともVRモードを提供可能な点で、アプリケーション処理システム1のHMD10と異なっている。
The
HMD110は、コンピュータプロセッサ121と、メモリ122と、通信I/F123と、ディスプレイ124と、センサユニット125と、集音装置126と、ストレージ127と、を備えている。コンピュータプロセッサ121、メモリ122、通信I/F123、ディスプレイ124、センサユニット125、集音装置126、及びストレージ127は、情報処理装置20のコンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27と同様に構成される。ただし、ディスプレイ124は、タッチパネルを備えなくともよい。これらのHMD110の各構成要素は、筐体内に組み付けられている。この筐体は、筐体11aと同様にゴーグル型に形成されてもよい。画像データ28a、チャットデータ28b、シナリオデータ28c、イベントデータ28d、及びゲーム進行データ28eは、ストレージ127に記憶されてもよいし、ストレージ27又はそれ以外のストレージに記憶されてもよい。
The
チャットモード実行部21a、移行処理部21b、及びVRモード実行部21cの機能は、情報処理装置20とHMD110とで分担して担われる。具体的には、チャットモード実行部21aの機能は情報処理装置20において実現され、VRモード実行部21cの機能はHMD110において実現される。移行処理部21bの機能は、その一部が情報処理装置20で実現され、残部がHMD110において実現される。
The functions of the chat mode execution unit 21a, the
アプリケーション処理システム101においてゲームを開始するときには、ユーザ5は、情報処理装置20を用いてチャットモードを開始する。このチャットモードの処理は、情報処理装置20のチャットモード実行部21aにより行われる。
When starting the game in the
チャットモードにおいてモード移行条件が成立し、移行開始オブジェクトが選択された場合には、VRモードへのモード移行処理が開始される。 When the mode transition condition is satisfied in the chat mode and the transition start object is selected, mode transition processing to the VR mode is started.
VRモードが開始されたときには、当該VRモードの処理は、HMD110のVRモード実行部21cにより行われる。
When the VR mode is started, the VR mode processing is performed by the VR
このように、アプリケーション処理システム101は、HMD110を介して仮想キャラクタをとのインタラクションをユーザ5に提供することができる。
In this manner,
上記の実施形態によれば、以下の効果が得られる。上記のアプリケーション処理システム1,101によれば、メニューオブジェクト66の選択後に仮想キャラクタ65上のキャラクタ注視位置81a~81dを注視することにより、仮想空間60においてユーザ61の頭部の動きと関連づけられていない第2アクションを特定することが出来る。これにより、手で把持するように設計されている操作コントローラ等のヘッドマウントディスプレイ10,110以外の操作機器を用いずに、仮想空間60におけるユーザ61の頭部の動きと関連づけられていない第2アクションを行うことができる。
According to the above embodiment, the following effects are obtained. According to the
仮想空間60におけるユーザの手の動きと関連づけられた第2アクションには、例えば、仮想空間60において仮想キャラクタ65に対する「撫でる」、「叩く」、「つつく」、及び「つねる」というアクション、仮想キャラクタの「手を握る」というアクション、手により物品を扱うアクション(例えば、写真を撮るというアクション)、及びこれら以外の仮想空間60におけるユーザ61の手の動きに関連づけられるアクションが含まれる。
The second actions associated with the motions of the user's hand in the
上記のアプリケーション処理システム1,101によれば、仮想空間60におけるユーザ61の手の動きと関連づけられた第2アクションが、現実世界におけるユーザの手の位置や動きではなく、仮想キャラクタ65に設定されたキャラクタ注視位置81a~81dの注視により特定される。これにより、ユーザは、ヘッドマウントディスプレイ10,110以外の操作機器を用いずに、ユーザの頭部の動きと関連づけられていない第2アクションを行うことができる。
According to the
上記のアプリケーション処理システム1,101によれば、特定オブジェクトの選択を行うことにより、ユーザの頭部の動きと関連づけられていない第2アクションを行うことが可能となる。
According to the
上記のアプリケーション処理システム1,101によれば、キャラクタ注視位置81a~81dに応じて、第1注視位置アクション及び第2注視位置アクションを含む複数の第2アクションを使い分けることが可能となる。これにより、ユーザ61の頭部の動きと関連づけられていない第2アクションのバリエーションが豊富となる。
According to the
上記のアプリケーション処理システム1,101によれば、選択されるメニューアイテムに応じて、様々な種類の第2アクションを使い分けることが可能となる。これにより、ユーザ61の頭部の動きと関連づけられていない第2アクションのバリエーションが豊富となる。
According to the
上記の実施形態において、メニューオブジェクト66は、第2アクションを可能とするための機能的なオブジェクトである。仮想空間における配置や表示態様によっては、ユーザ5は、メニューオブジェクト66を意図せずに選択してしまう可能性がある。また、メニューオブジェクト66のような機能的オブジェクトは、ユーザの仮想空間への没入感を減退させ得る。上記のアプリケーション処理システム1,101によれば、メニューオブジェクト66が仮想空間61における主表示領域63の外に配置されるため、誤選択や没入感の減退を抑制することが可能となる。
In the above embodiment,
上記のアプリケーション処理システム1,101によれば、シーンに応じて適切な主表示領域を定めることができる。例えば、第1シーンと第2シーンとでは、ユーザ61の姿勢に応じて主表示領域63の位置が変更されている。
According to the
上記のアプリケーション処理システム1,101によれば、ユーザ61のアクションに応じたリアクションを仮想キャラクタ65に行わせ、これによりユーザと仮想キャラクタ65とのインタラクションを実現することができる。
According to the
本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、コンピュータプロセッサ21及びコンピュータプロセッサ121で実行される機能の一部又は全部は、発明の趣旨を逸脱しない限り、上記の実施形態では図示されていないコンピュータプロセッサにより実現されてもよい。例えば、アプリケーション処理システム1及びアプリケーション処理システム101は、アプリケーション処理プログラムの少なくとも一部を実行するゲーム機を備えてもよく、コンピュータプロセッサ21又はコンピュータプロセッサ121の処理によって実現される機能の一部は、当該ゲーム機における処理によって実現されてもよい。
Embodiments of the present invention are not limited to the embodiments described above, and various modifications are possible without departing from the scope of the invention. For example, some or all of the functions performed by computer processor 21 and computer processor 121 may be implemented by computer processors not shown in the above embodiments without departing from the spirit of the invention. For example, the
本願発明の実施形態には、上記以外にも様々な装置、デバイス、及び電子部品を備えることができる。例えば、アプリケーション処理システム1及びアプリケーション処理システム101は、情報処理装置20及びHMD10,110以外に、ユーザ5の操作を受け付けるための操作機器を備えてもよい。アプリケーション処理システム1及びアプリケーション処理システム101は、当該操作機器によってユーザ5の操作を検出し、当該検出した操作に応じてゲームの処理をおこなっても良い。
Embodiments of the present invention may include various apparatus, devices, and electronic components in addition to those described above. For example, the
本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。 In the processing procedures described in this specification, especially in the processing procedures described using flow diagrams, some of the steps that make up the processing procedure are omitted, and as a step that makes up the processing procedure It is possible to add unspecified steps and/or change the order of the steps, and the processing procedures in which such omissions, additions, and order changes do not deviate from the spirit of the present invention. Included within the scope of the invention.
以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
一又は複数のコンピュータプロセッサを備え、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することにより前記ユーザに前記仮想キャラクタとのインタラクションを提供するアプリケーション処理システムであって、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定し、
前記仮想空間に含まれている特定オブジェクトが選択されたことに応じ、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する、
アプリケーション処理システム。
[2]
前記第2アクションは、前記仮想空間における前記ユーザの手の動きに関連づけられたアクションである、
[1]に記載のアプリケーション処理システム。
[3]
前記第2アクションは、前記仮想空間における前記ユーザによる道具の使用に関連づけられたアクションである、
[1]に記載のアプリケーション処理システム。
[4]
前記特定オブジェクトの選択に応じて、前記仮想キャラクタ上に一又は複数のキャラクタ注視位置が設定され、
前記仮想キャラクタ上に設定された一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されたことに応じて前記第2アクションが特定される、
[1]から[3]のいずれか1項に記載のアプリケーション処理システム。
[5]
前記一又は複数のキャラクタ注視位置は、第1キャラクタ注視位置及び第2キャラクタ注視位置を含み、
前記第2アクションは、第1注視位置アクション及び第2注視位置アクションを含み、
前記第1キャラクタ注視位置の注視により、第1注視位置アクションが前記第2アクションとして特定され、前記第2キャラクタ注視位置の注視により、第2注視位置アクションが前記第2アクションとして特定される、
[4]に記載のアプリケーション処理システム。
[6]
前記特定オブジェクトは、第1メニューアイテム及び第2メニューアイテムに関連づけられており、
前記第2アクションは、前記第1メニューアイテムに関連づけられた第1メニューアイテムアクション、及び、前記第2メニューアイテムに関連づけられた第2メニューアイテムアクションを含み、
前記第1メニューアイテムの注視後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されることにより、前記第1メニューアイテムアクションが前記第2アクションとして特定され、前記第2メニューアイテムの注視後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが注視されることにより、前記第2メニューアイテムアクションが前記第2アクションとして特定される、
[5]に記載のアプリケーション処理システム。
[7]
前記一又は複数のコンピュータプロセッサは、第1シーンにおいて前記仮想空間における第1主表示領域を特定し、
前記特定オブジェクトは、前記第1シーンにおいて、前記第1主表示領域の外に配置される、
[1]から[6]のいずれか1項に記載のアプリケーション処理システム。
[8]
前記一又は複数のコンピュータプロセッサは、第2シーンにおいて前記仮想空間における第2主表示領域を特定し、
前記特定オブジェクトは、前記第2シーンにおいて、前記第2主表示領域の外に配置される、
[7]に記載のアプリケーション処理システム。
[9]
前記一又は複数のコンピュータプロセッサは、前記仮想空間に前記第1アクション又は前記第2アクションに応じたリアクションを行う前記仮想キャラクタが含まれるように前記仮想空間を構成する、[1]から[8]のいずれか1項に記載のアプリケーション処理システム。
[10]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することで前記ユーザに前記仮想キャラクタとのインタラクションを提供するアプリケーション処理方法であって、
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定する工程と、
前記仮想空間に含まれている特定オブジェクトが選択されたことに応じて、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する工程と、
を備えるゲーム処理方法。
[11]
一又は複数のコンピュータプロセッサに実行されることにより、ユーザの頭部に装着されるヘッドマウントディスプレイに仮想キャラクタを含む仮想空間の画像を出力することで前記ユーザに前記仮想キャラクタとのインタラクションを提供するアプリケーション処理プログラムであって、
前記一又は複数のコンピュータプロセッサに、
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられている第1アクションを特定する工程と、
前記仮想空間に含まれている特定オブジェクトが選択されたことに応じて、前記一又は複数の検出情報に基づいて、前記仮想キャラクタに対して行われるアクションであって前記仮想空間における前記ユーザの頭部の動きと関連づけられていない第2アクションを特定する工程と、
、を実行させるアプリケーション処理プログラム。
The invention described in the scope of claims as originally filed in the original application of the present application will be additionally described below.
[1]
An application processing system that includes one or more computer processors and provides the user with interaction with the virtual character by outputting an image of a virtual space containing the virtual character to a head-mounted display worn on the user's head. There is
The one or more computer processors, by executing computer readable instructions,
A first action, which is an action to be performed on the virtual character and is associated with movement of the user's head in the virtual space, based on one or more pieces of detection information detected by the head-mounted display. identify,
an action performed on the virtual character based on the one or more pieces of detection information in response to the selection of a specific object contained in the virtual space, the action being the user's head in the virtual space; identify secondary actions not associated with the movement of
Application processing system.
[2]
The second action is an action associated with the movement of the user's hand in the virtual space.
The application processing system according to [1].
[3]
the second action is an action associated with use of a tool by the user in the virtual space;
The application processing system according to [1].
[4]
one or more character gaze positions are set on the virtual character according to the selection of the specific object;
The second action is specified in response to at least one of one or more character gaze positions set on the virtual character being gazed at;
The application processing system according to any one of [1] to [3].
[5]
the one or more character gaze positions include a first character gaze position and a second character gaze position;
the second action includes a first gaze position action and a second gaze position action;
A first gaze position action is specified as the second action by the gaze at the first character gaze position, and a second gaze position action is specified as the second action by the gaze at the second character gaze position,
The application processing system according to [4].
[6]
the specific object is associated with a first menu item and a second menu item;
the second action includes a first menu item action associated with the first menu item and a second menu item action associated with the second menu item;
By gazing at least one of the one or more character gazing positions after gazing at the first menu item, the first menu item action is identified as the second action and gazing at the second menu item. Later, at least one of the one or more character gaze positions is gazed at, thereby specifying the second menu item action as the second action;
The application processing system according to [5].
[7]
The one or more computer processors identify a first main display region in the virtual space in the first scene,
wherein the specific object is arranged outside the first main display area in the first scene;
The application processing system according to any one of [1] to [6].
[8]
The one or more computer processors identify a second main display region in the virtual space in a second scene,
the specific object is arranged outside the second main display area in the second scene;
The application processing system according to [7].
[9]
The one or more computer processors configure the virtual space so that the virtual space includes the virtual character that reacts according to the first action or the second action, [1] to [8]. The application processing system according to any one of
[10]
One or more computer processors execute computer-readable instructions to output an image of a virtual space including the virtual character to a head-mounted display worn on the user's head, thereby providing the user with the virtual character. An application processing method that provides an interaction of
A first action, which is an action to be performed on the virtual character and is associated with movement of the user's head in the virtual space, based on one or more pieces of detection information detected by the head-mounted display. a step of identifying;
an action performed on the virtual character based on the one or more pieces of detection information in response to the selection of a specific object contained in the virtual space, the action being performed on the user's head in the virtual space; identifying a second action not associated with body movement;
A game processing method comprising:
[11]
By being executed by one or more computer processors, an image of a virtual space including a virtual character is output to a head-mounted display worn on the user's head, thereby providing the user with an interaction with the virtual character. An application processing program,
to the one or more computer processors;
A first action, which is an action performed on the virtual character and is associated with movement of the user's head in the virtual space, based on one or more pieces of detection information detected by the head-mounted display. a step of identifying;
an action performed on the virtual character based on the one or more pieces of detection information in response to the selection of a specific object contained in the virtual space, the action being performed on the user's head in the virtual space; identifying a second action not associated with body movement;
, the application processing program that causes the .
1,101 アプリケーション処理システム
1,101 application processing system
Claims (9)
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて現実世界における前記ユーザの頭部の動きを検出し、検出された前記ユーザの頭部の動きに一致するアクションを前記仮想空間において前記ユーザから前記仮想キャラクタに対して行われる第1アクションとして特定し、
前記ヘッドマウントディスプレイに出力された前記仮想空間の画像に含まれている特定オブジェクトが、前記一又は複数の検出情報に基づいて選択されたと判断されたことに応じ、前記仮想キャラクタに対して行われるアクションであって前記ユーザの頭部の動きと関連づけられていない前記仮想空間における第2アクションに対応するメニューアイテムであって、前記第2アクションに含まれる第1メニューアイテムアクション及び前記第1メニューアイテムアクションとは異なる第2メニューアイテムアクションにそれぞれ対応する第1メニューアイテム及び第2メニューアイテムを含むメニューアイテムを前記一又は複数の検出情報に基づいて選択可能に表示することで、前記第2アクションを前記一又は複数の検出情報に基づいて特定可能とし、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムまたは前記第2メニューアイテムが選択されたと判定した場合に、選択された前記第1メニューアイテムに対応する前記第1メニューアイテムアクション又は前記第2メニューアイテムに対応する前記第2メニューアイテムアクションを前記第2アクションとして特定し、
前記特定オブジェクトの選択後に前記第1メニューアイテムまたは前記第2メニューアイテムが選択されたと判定したことに応じて前記仮想キャラクタ上に一又は複数のキャラクタ注視位置を設定し、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムの選択後に前記仮想キャラクタ上に設定された一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第1メニューアイテムアクションを前記第2アクションとして特定し、前記一又は複数の検出情報に基づいて前記第2メニューアイテムの選択後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第2メニューアイテムアクションを前記第2アクションとして特定する、
アプリケーション処理システム。 One or more computer processors for processing an application that provides the user with interaction with the virtual character by outputting an image of a virtual space containing the virtual character to a head-mounted display worn on the user's head An application processing system,
The one or more computer processors, by executing computer readable instructions,
detecting movement of the user's head in the real world based on one or more pieces of detection information detected by the head-mounted display; is specified as the first action performed by the user on the virtual character in
In response to determining that a specific object included in the image of the virtual space output to the head-mounted display has been selected based on the one or more pieces of detection information, a line is executed for the virtual character. a menu item corresponding to a second action in the virtual space which is an action to be performed and which is not associated with the movement of the user's head, wherein the first menu item action and the first menu item are included in the second action; By displaying a menu item including a first menu item and a second menu item corresponding to a second menu item action different from the item action in a selectable manner based on the one or more pieces of detection information, the second action is performed. is identifiable based on the one or more detected information,
When it is determined that the first menu item or the second menu item has been selected based on the one or more detection information, the first menu item action or the second menu item corresponding to the selected first menu item identifying the second menu item action corresponding to the second menu item as the second action;
setting one or more character gaze positions on the virtual character in response to determining that the first menu item or the second menu item has been selected after the selection of the specific object;
when it is determined that at least one of the one or more character gaze positions set on the virtual character has been selected after the selection of the first menu item based on the one or more detection information; One menu item action is specified as the second action, and it is determined that at least one of the one or more character gaze positions is selected after the second menu item is selected based on the one or more detection information. identifying the second menu item action as the second action if
Application processing system.
請求項1に記載のアプリケーション処理システム。 the second action is an action in the virtual space associated with the movement of the user's hand in the virtual space;
The application processing system of claim 1.
請求項1に記載のアプリケーション処理システム。 the second action is an action in the virtual space associated with use of a tool by the user in the virtual space;
The application processing system of claim 1.
前記第2アクションは、第1注視位置アクション及び第2注視位置アクションを含み、
前記第1キャラクタ注視位置が選択されたと判断された場合に、前記第1注視位置アクションを前記第2アクションとして特定し、前記第2キャラクタ注視位置が選択されたと判断された場合に、前記第2注視位置アクションを前記第2アクションとして特定する、
請求項1に記載のアプリケーション処理システム。 the one or more character gaze positions include a first character gaze position and a second character gaze position;
the second action includes a first gaze position action and a second gaze position action;
When it is determined that the first character gaze position has been selected, the first gaze position action is specified as the second action, and when it is determined that the second character gaze position has been selected, the second character gaze position action is specified. identifying a gaze position action as the second action;
The application processing system of claim 1.
前記仮想空間は、前記アプリケーションにおいて実行される第1シーンについて定められている第1仮想空間と、前記アプリケーションにおいて前記第1シーンよりも後に実行される第2シーンについて定められている第2仮想空間と、を含み、
前記一又は複数のコンピュータプロセッサは、前記第1シーンの前記第1仮想空間における特定の位置に第1主表示領域を設定し、
前記特定オブジェクトは、前記第1シーンにおいて、前記第1主表示領域の外に配置される、
請求項1から請求項4のいずれか1項に記載のアプリケーション処理システム。 the image of the virtual space is an image in a display area centered on the reference line of sight of the user;
The virtual space includes a first virtual space defined for a first scene executed in the application and a second virtual space defined for a second scene executed after the first scene in the application. and including
The one or more computer processors set a first main display area at a specific position in the first virtual space of the first scene ,
wherein the specific object is arranged outside the first main display area in the first scene;
The application processing system according to any one of claims 1 to 4.
前記特定オブジェクトは、前記第2シーンにおいて、前記第2主表示領域の外に配置される、
請求項5に記載のアプリケーション処理システム。 The one or more computer processors set a second main display area at a specific position in the second virtual space of the second scene ,
the specific object is arranged outside the second main display area in the second scene;
The application processing system according to claim 5.
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて現実世界における前記ユーザの頭部の動きを検出し、検出された前記ユーザの頭部の動きに一致するアクションを前記仮想空間において前記ユーザから前記仮想キャラクタに対して行われる第1アクションとして特定する工程と、
前記ヘッドマウントディスプレイに出力された前記仮想空間の画像に含まれている特定オブジェクトが、前記一又は複数の検出情報に基づいて選択されたと判断されたことに応じ、前記仮想キャラクタに対して行われるアクションであって前記ユーザの頭部の動きと関連づけられていない前記仮想空間における第2アクションに対応するメニューアイテムであって、前記第2アクションに含まれる第1メニューアイテムアクション及び前記第1メニューアイテムアクションとは異なる第2メニューアイテムアクションにそれぞれ対応する第1メニューアイテム及び第2メニューアイテムを含むメニューアイテムを前記一又は複数の検出情報に基づいて選択可能に表示することで、前記第2アクションを前記一又は複数の検出情報に基づいて特定可能とする工程と、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムまたは前記第2メニューアイテムが選択されたと判定したことに応じて前記仮想キャラクタ上に一又は複数のキャラクタ注視位置を設定する工程と、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムの選択後に前記仮想キャラクタ上に設定された一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第1メニューアイテムアクションを前記第2アクションとして特定し、前記一又は複数の検出情報に基づいて前記第2メニューアイテムの選択後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第2メニューアイテムアクションを前記第2アクションとして特定する工程と、
を備えるゲーム処理方法。 One or more computer processors execute computer-readable instructions to output an image of a virtual space including the virtual character to a head-mounted display worn on the user's head, thereby providing the user with the virtual character. An application processing method for processing an application that provides an interaction of
detecting movement of the user's head in the real world based on one or more pieces of detection information detected by the head-mounted display; a step of specifying as a first action performed by the user on the virtual character in
performed on the virtual character in response to determining that a specific object included in the image of the virtual space output to the head-mounted display has been selected based on the one or more pieces of detection information A menu item corresponding to a second action in the virtual space that is an action and is not associated with movement of the user's head, wherein the first menu item action and the first menu item are included in the second action. By displaying menu items including a first menu item and a second menu item respectively corresponding to a second menu item action different from the action in a selectable manner based on the one or more pieces of detection information, the second action is performed. identifiable based on the one or more pieces of detected information;
setting one or more character gaze positions on the virtual character in response to determining that the first menu item or the second menu item has been selected based on the one or more detection information;
when it is determined that at least one of the one or more character gaze positions set on the virtual character has been selected after the selection of the first menu item based on the one or more detection information; One menu item action is specified as the second action, and it is determined that at least one of the one or more character gaze positions is selected after the second menu item is selected based on the one or more detection information. then identifying the second menu item action as the second action;
A game processing method comprising:
前記一又は複数のコンピュータプロセッサに、
前記ヘッドマウントディスプレイによって検出される一又は複数の検出情報に基づいて現実世界における前記ユーザの頭部の動きを検出し、検出された前記ユーザの頭部の動きに一致するアクションを前記仮想空間において前記ユーザから前記仮想キャラクタに対して行われる第1アクションとして特定する工程と、
前記ヘッドマウントディスプレイに出力された前記仮想空間の画像に含まれている特定オブジェクトが、前記一又は複数の検出情報に基づいて選択されたと判断されたことに応じ、前記仮想キャラクタに対して行われるアクションであって前記ユーザの頭部の動きと関連づけられていない前記仮想空間における第2アクションに対応するメニューアイテムであって、前記第2アクションに含まれる第1メニューアイテムアクション及び前記第1メニューアイテムアクションとは異なる第2メニューアイテムアクションにそれぞれ対応する第1メニューアイテム及び第2メニューアイテムを含むメニューアイテムを前記一又は複数の検出情報に基づいて選択可能に表示することで、前記第2アクションを前記一又は複数の検出情報に基づいて特定可能とする工程と、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムまたは前記第2メニューアイテムが選択されたと判定したことに応じて前記仮想キャラクタ上に一又は複数のキャラクタ注視位置を設定する工程と、
前記一又は複数の検出情報に基づいて前記第1メニューアイテムの選択後に前記仮想キャラクタ上に設定された一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第1メニューアイテムアクションを前記第2アクションとして特定し、前記一又は複数の検出情報に基づいて前記第2メニューアイテムの選択後に前記一又は複数のキャラクタ注視位置のうちの少なくとも一つが選択されたと判断された場合に、前記第2メニューアイテムアクションを前記第2アクションとして特定する工程と、
を実行させるアプリケーション処理プログラム。 By being executed by one or more computer processors, an image of a virtual space including a virtual character is output to a head-mounted display worn on the user's head, thereby providing the user with interaction with the virtual character. An application processing program for processing an application,
to the one or more computer processors;
detecting movement of the user's head in the real world based on one or more pieces of detection information detected by the head-mounted display; a step of specifying as a first action performed by the user on the virtual character in
In response to determining that a specific object included in the image of the virtual space output to the head-mounted display has been selected based on the one or more pieces of detection information, a line is executed for the virtual character. a menu item corresponding to a second action in the virtual space which is an action to be performed and which is not associated with the movement of the user's head, wherein the first menu item action and the first menu item are included in the second action; By displaying a menu item including a first menu item and a second menu item corresponding to a second menu item action different from the item action in a selectable manner based on the one or more pieces of detection information, the second action is performed. is identifiable based on the one or more detected information;
setting one or more character gaze positions on the virtual character in response to determining that the first menu item or the second menu item has been selected based on the one or more detection information;
when it is determined that at least one of the one or more character gaze positions set on the virtual character has been selected after the selection of the first menu item based on the one or more detection information; One menu item action is specified as the second action, and it is determined that at least one of the one or more character gaze positions is selected after the second menu item is selected based on the one or more detection information. then identifying the second menu item action as the second action;
The application processing program that causes the .
Priority Applications (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018221981A JP7211778B2 (en) | 2018-11-28 | 2018-11-28 | Application processing system, application processing method, and application processing program |
CN202310030111.6A CN116328317A (en) | 2018-02-06 | 2019-02-02 | Application processing system, application processing method, and application processing program |
CN201910108605.5A CN110115842B (en) | 2018-02-06 | 2019-02-02 | Application processing system, application processing method, and application processing program |
EP19155566.3A EP3520867B1 (en) | 2018-02-06 | 2019-02-05 | Application processing system, method of processing application, and storage medium storing program for processing application |
US16/268,800 US10983590B2 (en) | 2018-02-06 | 2019-02-06 | Application processing system, method of processing application and storage medium storing program for processing application |
US17/176,587 US11467658B2 (en) | 2018-02-06 | 2021-02-16 | Application processing system, method of processing application, and storage medium storing program for processing application |
JP2021093004A JP2021164649A (en) | 2018-11-28 | 2021-06-02 | Application processing system, application processing method, and application processing program |
US17/902,218 US11644893B2 (en) | 2018-02-06 | 2022-09-02 | Application processing system, method of processing application, and storage medium storing program for processing application |
JP2023031972A JP2023085260A (en) | 2018-11-28 | 2023-03-02 | Application processing system, application processing method and application processing program |
US18/295,456 US20230244302A1 (en) | 2018-02-06 | 2023-04-04 | Application processing system, method of processing application, and storage medium storing program for processing application |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018221981A JP7211778B2 (en) | 2018-11-28 | 2018-11-28 | Application processing system, application processing method, and application processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018019002A Division JP2019136066A (en) | 2018-02-06 | 2018-02-06 | Application processing system, application processing method, and application processing program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021093004A Division JP2021164649A (en) | 2018-11-28 | 2021-06-02 | Application processing system, application processing method, and application processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019136487A JP2019136487A (en) | 2019-08-22 |
JP7211778B2 true JP7211778B2 (en) | 2023-01-24 |
Family
ID=67692554
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018221981A Active JP7211778B2 (en) | 2018-02-06 | 2018-11-28 | Application processing system, application processing method, and application processing program |
JP2021093004A Pending JP2021164649A (en) | 2018-11-28 | 2021-06-02 | Application processing system, application processing method, and application processing program |
JP2023031972A Pending JP2023085260A (en) | 2018-11-28 | 2023-03-02 | Application processing system, application processing method and application processing program |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021093004A Pending JP2021164649A (en) | 2018-11-28 | 2021-06-02 | Application processing system, application processing method, and application processing program |
JP2023031972A Pending JP2023085260A (en) | 2018-11-28 | 2023-03-02 | Application processing system, application processing method and application processing program |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP7211778B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016189999A (en) | 2015-03-31 | 2016-11-10 | 株式会社バンダイナムコエンターテインメント | Program and game system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5103538B2 (en) * | 2011-02-25 | 2012-12-19 | 株式会社コナミデジタルエンタテインメント | GAME DEVICE, GAME CONTROL PROGRAM, AND GAME CONTROL METHOD |
JP5767386B1 (en) * | 2014-12-15 | 2015-08-19 | 株式会社コロプラ | Head mounted display system, method for displaying on head mounted display, and program |
US9858718B2 (en) * | 2015-01-27 | 2018-01-02 | Microsoft Technology Licensing, Llc | Dynamically adaptable virtual lists |
JP6684559B2 (en) * | 2015-09-16 | 2020-04-22 | 株式会社バンダイナムコエンターテインメント | Program and image generation device |
JP6189497B1 (en) * | 2016-07-20 | 2017-08-30 | 株式会社コロプラ | Method for providing virtual space, method for providing virtual experience, program, and recording medium |
-
2018
- 2018-11-28 JP JP2018221981A patent/JP7211778B2/en active Active
-
2021
- 2021-06-02 JP JP2021093004A patent/JP2021164649A/en active Pending
-
2023
- 2023-03-02 JP JP2023031972A patent/JP2023085260A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016189999A (en) | 2015-03-31 | 2016-11-10 | 株式会社バンダイナムコエンターテインメント | Program and game system |
Non-Patent Citations (5)
Title |
---|
[PSVR]『サマーレッスン:宮本ひかり セブンデイズルーム』彼女は本当にそこにいる,Mogura VR[online],2016年10月1日,[2020年7月3日検索],インターネット<URL:https://www.moguravr.com/summer-lesson-psvr/> |
「パンチライン VRミュージアム」大型アップデート!女の子にイタズラ「シナモンモード」実装,PANORA[online],2017年2月3日,[2019年12月20日検索],インターネット<URL:http://panora.tokyo/19917/> |
Androidアプリで「メニューアイコン」が表示されない場合の対処方法,@IT[online],2015年7月24日,[2021年8月26日検索],インターネット<URL:https://atmarkit.itmedia.co.jp/ait/articles/1507/24/news036.html> |
V.A.T.S. | フォールアウト4 攻略,Andraste(The Wayback Machine)[online],2017年12月20日,[2021年8月26日検索],インターネット<URL:https://web.archive.org/web/20171220161735/https://andraste.info/g/fallout_4/08-technologies-02-vats.html> |
VRカフェかのをじっくり遊んで徹底レビュー!,スマホゲームCH[online],2017年5月1日,[2019年12月19日検索],インターネット<URL:https://gameappch.com/app/?app=04317> |
Also Published As
Publication number | Publication date |
---|---|
JP2019136487A (en) | 2019-08-22 |
JP2023085260A (en) | 2023-06-20 |
JP2021164649A (en) | 2021-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3520867B1 (en) | Application processing system, method of processing application, and storage medium storing program for processing application | |
JP6908573B2 (en) | Game processing system, game processing method, and game processing program | |
US11638879B2 (en) | Game processing system, method of processing game, and storage medium storing program for processing game | |
JP2019136066A (en) | Application processing system, application processing method, and application processing program | |
JP6691151B2 (en) | Game processing system, game processing method, and game processing program | |
JP6815373B2 (en) | Game processing system, game processing method, and game processing program | |
JP7269192B2 (en) | Game processing system, game processing method, and game processing program | |
JP7211778B2 (en) | Application processing system, application processing method, and application processing program | |
JP6792604B2 (en) | Game processing system, game processing method, and game processing program | |
JP6775870B2 (en) | Game processing system, game processing method, and game processing program | |
JP7148590B2 (en) | Game processing system, game processing method, and game processing program | |
JP6850769B2 (en) | Game processing system, game processing method, and game processing program | |
JP6855416B2 (en) | Game processing system, game processing method, and game processing program | |
JP7227314B2 (en) | Game processing system, game processing method, and game processing program | |
JP7005435B2 (en) | Game processing system, game processing method, and game processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200923 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210602 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210602 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210611 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210615 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20210903 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20210907 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220412 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220822 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20221102 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20221115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221122 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20221213 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20230110 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7211778 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |