JP2023093647A - Game processing system, game processing method, and game processing program - Google Patents

Game processing system, game processing method, and game processing program Download PDF

Info

Publication number
JP2023093647A
JP2023093647A JP2023069997A JP2023069997A JP2023093647A JP 2023093647 A JP2023093647 A JP 2023093647A JP 2023069997 A JP2023069997 A JP 2023069997A JP 2023069997 A JP2023069997 A JP 2023069997A JP 2023093647 A JP2023093647 A JP 2023093647A
Authority
JP
Japan
Prior art keywords
action
mode
player
game
virtual character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023069997A
Other languages
Japanese (ja)
Inventor
貴志 桑谷
Takashi Kuwatani
誠 千田
Makoto Senda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2023069997A priority Critical patent/JP2023093647A/en
Publication of JP2023093647A publication Critical patent/JP2023093647A/en
Pending legal-status Critical Current

Links

Images

Abstract

To solve or alleviate an increase in an amount of data for identifying an action of a virtual character with respect to an action of a player.SOLUTION: A game processing system according to one mode performs game processing providing interaction with a virtual character. The game has: a first mode played in a first three-dimensional space; and a second mode played in a second three-dimensional space different from the first three-dimensional space. In the second mode, it is determined whether or not an interruption condition is satisfied by the player action of a player identified on the basis of the detection information detected by a head mount display worn on the head of the player. When it is determined that the interruption condition is satisfied, transfer processing for interrupting the second mode and transferring to the first mode is performed.SELECTED DRAWING: Figure 1

Description

本明細書における開示は、仮想キャラクタとのインタラクションを提供するゲームを処理するゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラムに関する。 The disclosure herein relates to a game processing system, a game processing method, and a game processing program for processing a game that provides interaction with a virtual character.

仮想キャラクタとのインタラクションを提供するシミュレーションゲームが知られている。かかるシミュレーションゲームは、例えば、特開2017-184842号公報(特許文献1)に開示されている。 Simulation games are known that provide interaction with virtual characters. Such a simulation game is disclosed, for example, in Japanese Patent Laying-Open No. 2017-184842 (Patent Document 1).

このようなシミュレーションゲームにおいては、プレイヤからの操作入力に対する仮想キャラクタのリアクションが予め定められている。例えば、特許文献1においては、仮想キャラクタからなされた質問に対する回答の候補が選択肢としてプレイヤに提示され、当該プレイヤはいずれかの選択肢を選択する。この選択肢ごとに仮想キャラクタの次の質問が定められているため、仮想キャラクタは、プレイヤの選択に応じて次の質問を行うことができる。 In such a simulation game, the reaction of the virtual character to the operation input from the player is determined in advance. For example, in Patent Literature 1, candidate answers to a question posed by a virtual character are presented to the player as options, and the player selects one of the options. Since the next question for the virtual character is determined for each option, the virtual character can ask the next question according to the player's selection.

このような仮想キャラクタとのインタラクションを提供するゲームにおいて、ゲームへの没入感を高めるために、ヘッドマウントディスプレイ(以下、「HMD」ということがある。)が利用されることがある。例えば、HMDに仮想空間を表示し、この仮想空間内に登場する仮想キャラクタとHMDを用いてインタラクションできるVRゲームが知られている。この種のVRゲームとして、株式会社バンダイナムコエンターテインメントの「サマーレッスン」が知られている(非特許文献1参照)。 In games that provide interaction with such virtual characters, a head-mounted display (hereinafter sometimes referred to as "HMD") is sometimes used in order to enhance the sense of immersion in the game. For example, a VR game is known in which a virtual space is displayed on an HMD, and a virtual character appearing in this virtual space can be interacted with using the HMD. As this type of VR game, "Summer Lesson" by BANDAI NAMCO Entertainment Inc. is known (see Non-Patent Document 1).

上記の「サマーレッスン」では、HMDのトラッキングセンサにより検出された検出情報に応じて、仮想キャラクタとのインタラクションを特定し、この特定されたインタクラクションをプレイヤに体験させる機能が実現されている。例えば、HMDに表示されている仮想キャラクタの画像の動きに応答して当該HMDを装着したプレイヤが頷くと、この頷きに対応するプレイヤの頭部の動きが検出される。そして、この検出された頭部の動きに基づいて、プレイヤが頷いたことに対応する動作を行う仮想キャラクタの画像がHMDに表示される。 In the above-mentioned "Summer Lesson", a function is realized in which an interaction with a virtual character is specified according to information detected by the tracking sensor of the HMD, and the player experiences this specified interaction. For example, when the player wearing the HMD nods in response to the movement of the image of the virtual character displayed on the HMD, the movement of the player's head corresponding to the nod is detected. Then, based on the detected movement of the head, an image of the virtual character performing an action corresponding to the nod of the player is displayed on the HMD.

このように、HMDを用いて仮想キャラクタとのインタラクションを行う従来のVRゲームでは、プレイヤの頭部の動きに追従するように仮想空間の画像が表示され、また、頭部の動きに応じた仮想キャラクタとのインタラクションが体験されるため、プレイヤは高い没入感を得られる。 As described above, in a conventional VR game in which an HMD is used to interact with a virtual character, an image of the virtual space is displayed so as to follow the movement of the player's head, and a virtual space image is displayed according to the movement of the player's head. Since the player experiences interaction with the character, the player can obtain a high sense of immersion.

特開2017-184842号公報JP 2017-184842 A

“サマーレッスン”、[online]、平成29年12月12日検索、インターネット(URL: HYPERLINK "http://summer-lesson.bn-ent.net/" http://summer-lesson.bn-ent.net/)“Summer Lesson”, [online], December 12, 2017, Internet (URL: HYPERLINK "http://summer-lesson.bn-ent.net/" http://summer-lesson.bn-ent .net/)

HMDを用いて仮想キャラクタとインタラクションを行う場合、プレイヤの仮想キャラクタに対するアクションが多様となり得る。プレイヤの仮想キャラクタに対するアクションが多様化すると、プレイヤのアクションに対する仮想キャラクタのアクション(リアクション)を特定するための情報のデータ量が増大するという問題が生じる。 When interacting with a virtual character using an HMD, the player's actions for the virtual character can be diverse. As the player's actions on the virtual character diversify, there arises a problem that the data amount of information for specifying the virtual character's action (reaction) to the player's action increases.

本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。 It is an object of the present disclosure to provide technical improvements that solve or alleviate at least some of the problems in the prior art discussed above.

一態様によるゲーム処理システムは、仮想キャラクタのアクションを特定するための一又は複数のアクションデータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記仮想キャラクタとのインタラクションを提供するゲームの処理を行う。当該ゲーム処理システムにおいて、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのアクションを特定し、前記プレイヤのアクション及び前記一又は複数のアクションデータのうちの第1アクションデータに基づいて前記仮想キャラクタに第1アクションを実行させ、前記第1アクションの実行中に中断条件が満たされた場合に、前記第1アクションの実行を中断させる。 A game processing system according to one aspect includes a storage storing one or more action data for specifying an action of a virtual character, and one or more computer processors, and provides interaction with the virtual character. process. In the game processing system, the one or more computer processors execute computer-readable instructions to control the virtual character based on detection information detected by a head-mounted display worn on the player's head. specifying the player's action, causing the virtual character to perform the first action based on the player's action and first action data out of the one or more action data, and interrupting the execution of the first action Execution of the first action is interrupted when a condition is satisfied.

一態様によるゲーム処理システムにおいて、前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記プレイヤのアクション及び前記一又は複数のアクションデータのうちの第2アクションデータに基づいて前記仮想キャラクタに第2アクションを実行させる。 In the game processing system according to one aspect, the one or more computer processors perform the Cause the virtual character to perform a second action.

一態様によるゲーム処理システムにおいて、前記ゲームは、第1シーン及び第2シーンを有し、前記第1アクションは、前記第1シーンにおいて実行され、前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記第1シーンの実行を中断させる。 In the game processing system according to one aspect, the game has a first scene and a second scene, the first action is performed in the first scene, and the one or more computer processors are configured to: If satisfied, interrupt the execution of the first scene.

一態様によるゲーム処理システムにおいて、前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記ゲームの第2シーンに移行する。 In a game processing system according to one aspect, the one or more computer processors transition to a second scene of the game when the interrupt condition is met.

一態様によるゲーム処理システムにおいて、前記ゲームは、前記プレイヤの頭部に装着されていない情報処理装置からの入力に応じて前記ゲームを進行させる第1モードと、前記ヘッドマウントディスプレイの前記検出情報に応じて前記ゲームを進行させる第2モードと、を有し、前記第1アクションは、前記第2モードにおいて実行され、前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記第2モードを中断し、前記第1モードへ移行するための移行処理を行う。 In the game processing system according to one aspect, the game comprises a first mode in which the game progresses according to an input from an information processing device not worn on the head of the player; a second mode of progressing the game according to the action, wherein the first action is executed in the second mode, and the one or more computer processors perform the A transition process for interrupting the second mode and transitioning to the first mode is performed.

一態様によるゲーム処理システムにおいて、前記ゲームは、第1シーン及び第2シーンを有し、前記第1アクションは、前記第1シーンにおいて実行され、前記一又は複数のコンピュータプロセッサは、前記第1シーンから前記第2シーンへ移行する際にディスプレイに表示されるシーン移行画面を、前記中断条件が満たされた場合にも前記ディスプレイに表示させる。 In a game processing system according to one aspect, the game has a first scene and a second scene, the first action is performed in the first scene, and the one or more computer processors are configured to: The scene transition screen displayed on the display when transitioning from to the second scene is displayed on the display even when the interruption condition is satisfied.

一態様によるゲーム処理システムにおいて、前記第1アクションは、前記仮想キャラクタの一連のアクションで構成されるメインアクションと、前記メインアクションを中断して実行される割込アクションと、前記割込アクションの実行後に行われる復帰アクションと、を有する。 In the game processing system according to one aspect, the first action includes a main action composed of a series of actions of the virtual character, an interrupt action executed by interrupting the main action, and execution of the interrupt action. and a return action to be performed later.

一態様によるゲーム処理システムにおいて、前記一又は複数のコンピュータプロセッサは、前記第1アクションの実行中に前記プレイヤから特定アクションがなされたことに応じて前記中断条件が満たされたか否かの判定を行い、前記中断条件が満たされていないと判定された場合に前記割込アクションを実行する。 In the game processing system according to one aspect, the one or more computer processors determine whether or not the interruption condition is satisfied in response to the player taking a specific action during execution of the first action. and executing the interrupt action when it is determined that the interrupt condition is not satisfied.

一態様によるゲーム処理システムにおいて、前記中断条件は、前記検出情報から特定された注視位置が仮想空間内に設定された禁止領域上にあることを含む。 In the game processing system according to one aspect, the interruption condition includes that the gaze position specified from the detection information is on a prohibited area set in virtual space.

一態様によるゲーム処理システムにおいて、前記中断条件は、前記プレイヤが同じアクションを所定回数以上繰り返したことを含む。 In the game processing system according to one aspect, the interruption condition includes that the player repeats the same action a predetermined number of times or more.

一態様によるゲーム処理システムにおいて、前記中断条件は、前記プレイヤが前記仮想キャラクタの所定の部位に対するアクションを所定回数以上行ったことを含む。 In the game processing system according to one aspect, the interruption condition includes that the player has performed an action on a predetermined part of the virtual character a predetermined number of times or more.

一態様によるゲーム処理システムにおいて、前記中断条件は、前記プレイヤが禁止アクションに該当するアクションを行ったことを含む。 In the game processing system according to one aspect, the interruption condition includes that the player has performed an action that corresponds to a prohibited action.

一態様によるゲーム処理システムにおいて、前記ストレージは、パラメータ及び前記パラメータのを記憶しており、前記一又は複数のコンピュータプロセッサは、前記プレイヤのアクションに応じて前記パラメータを更新し、前記中断条件は、前記パラメータに関する条件を含む。 In the game processing system according to one aspect, the storage stores parameters and parameters, the one or more computer processors update the parameters according to actions of the player, and the interruption condition is including conditions relating to said parameters;

一態様によるゲーム処理方法は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより仮想キャラクタとのインタラクションを提供するゲームの処理を行う方法であって、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのアクションを特定する工程と、前記プレイヤのアクション、及び、前記仮想キャラクタのアクションを特定するための一又は複数のアクションデータのうちの第1アクションデータに基づいて前記仮想キャラクタに第1アクションを実行させる工程と、前記第1アクションの実行中に中断条件が満たされた場合に、前記第1アクションの実行を中断させる工程とと、を備える。 A method of processing a game according to one aspect is a method of processing a game in which one or more computer processors execute computer readable instructions to provide interaction with a virtual character, the virtual character being worn on the head of a player. identifying an action of the player with respect to the virtual character based on detection information detected by a head-mounted display; and one or more pieces of action data for identifying the action of the player and the action of the virtual character. causing the virtual character to perform a first action based on the first action data; and suspending the execution of the first action when a suspension condition is satisfied during the execution of the first action. With and.

一態様によるゲーム処理プログラムは、一又は複数のコンピュータプロセッサに実行されることにより仮想キャラクタとのインタラクションを提供するゲームの処理を行うためのプログラムである。当該ゲーム処理プログラムは、前記一又は複数のコンピュータプロセッサに、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのアクションを特定する工程と、前記プレイヤのアクション、及び、前記仮想キャラクタのアクションを特定するための一又は複数のアクションデータのうちの第1アクションデータに基づいて前記仮想キャラクタに第1アクションを実行させる工程と、前記第1アクションの実行中に中断条件が満たされた場合に、前記第1アクションの実行を中断させる工程と、を実行させる。 A game processing program according to one aspect is a program for processing a game that provides interaction with a virtual character by being executed by one or more computer processors. The game processing program causes the one or more computer processors to identify an action of the player with respect to the virtual character based on detection information detected by a head-mounted display worn on the player's head; causing the virtual character to perform a first action based on a player's action and first action data out of one or a plurality of action data for specifying the action of the virtual character; and suspending the execution of the first action if a suspending condition is met during execution.

一態様によるゲーム処理システムは、ゲームのシナリオを構成する複数のゲームシーンの各々に関連するシーンデータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記ゲームの処理を行う。当該システムにおいて、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記ゲームを進行させ、前記複数のゲームシーンのうちの第1シーンの実行中にシーン中断条件が満たされた場合に、前記第1シーンの実行を中断する。 A game processing system according to one aspect includes a storage that stores scene data related to each of a plurality of game scenes that form a game scenario, and one or more computer processors, and processes the game. In the system, the one or more computer processors execute computer-readable instructions to progress the game based on detection information detected by a head-mounted display worn on the player's head, When a scene interruption condition is satisfied during execution of the first scene among the plurality of game scenes, the execution of the first scene is interrupted.

実施形態によれば、仮想キャラクタのアクション(リアクション)を特定するための情報のデータ量の増加を抑制できる。 According to the embodiment, it is possible to suppress an increase in the data amount of the information for specifying the action (reaction) of the virtual character.

一実施形態によるゲーム処理システムを示すブロック図である。1 is a block diagram illustrating a game processing system according to one embodiment; FIG. 図1のゲーム処理システムにおいて利用可能なヘッドマウントディスプレイを示す模式図である。2 is a schematic diagram showing a head-mounted display that can be used in the game processing system of FIG. 1; FIG. ゲームのプレイヤに装着されたヘッドマウントディスプレイを模式的に示す図である。FIG. 4 is a diagram schematically showing a head-mounted display worn by a game player; シナリオデータを模式的に示す図である。FIG. 4 is a diagram schematically showing scenario data; 一実施形態によるゲーム処理システムにより処理されるゲームのモード移行を説明する図である。FIG. 4 is a diagram illustrating mode transitions of a game processed by the game processing system according to one embodiment; 一実施形態におけるチャットモードでの処理の流れを示すフロー図である。It is a flow figure showing a flow of processing in chat mode in one embodiment. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7aの画面には、プレイヤにより選択されるメッセージの選択肢が示されている。FIG. 10 is a diagram showing an example of a display image in chat mode in one embodiment; The screen of FIG. 7a shows message options to be selected by the player. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7bの画面には、プレイヤにより選択されたメッセージが示されている。FIG. 10 is a diagram showing an example of a display image in chat mode in one embodiment; The screen of Figure 7b shows the message selected by the player. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7cの画面には、VRモードへの移行を促すメッセージ、VRモードにおける設定を選択するためのメッセージ、及びVRモードにおいて使用されるアイテムを選択するためのメッセージが示されている。FIG. 10 is a diagram showing an example of a display image in chat mode in one embodiment; The screen of FIG. 7c shows a message prompting transition to VR mode, a message for selecting settings in VR mode, and a message for selecting items to be used in VR mode. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7dの画面には、移行開始オブジェクトが示されている。FIG. 10 is a diagram showing an example of a display image in chat mode in one embodiment; The screen of Figure 7d shows a transition start object. 一実施形態におけるモード移行処理の流れを示すフロー図である。It is a flow figure showing a flow of mode change processing in one embodiment. 一実施形態におけるモード移行処理での表示画像の例を示す図である。図9aの画面には、ディスプレイを装着具へ装着するように促すガイダンスが示されている。It is a figure which shows the example of the display image in the mode transition process in one embodiment. The screen of FIG. 9a shows guidance prompting to attach the display to the attachment. 一実施形態における移行処理での表示画像の例を示す図である。図9bの画面には、移行オブジェクトが示されている。FIG. 10 is a diagram showing an example of a display image in transition processing in one embodiment; The screen of Figure 9b shows a transition object. 一実施形態におけるVRモードでの処理の流れを示すフロー図である。FIG. 4 is a flow diagram showing the flow of processing in VR mode in one embodiment; 一実施形態におけるVRモードでの表示画像の例を示す図である。FIG. 4 is a diagram showing an example of a display image in VR mode in one embodiment; VRモードで実行されているシーンにおける仮想キャラクタのアクションの流れを模式的に示す図である。FIG. 4 is a diagram schematically showing the flow of actions of a virtual character in a scene being executed in VR mode; 他の実施形態によるゲーム処理システムを示すブロック図である。FIG. 4 is a block diagram showing a game processing system according to another embodiment; FIG. 他の実施形態によるゲームを構成する複数のシーンを模式的に示す図である。FIG. 10 is a diagram schematically showing a plurality of scenes making up a game according to another embodiment;

以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。 Various embodiments of the present invention will now be described with appropriate reference to the drawings. Identical or similar components are provided with the same reference numerals in several drawings.

図1から図3を参照して、一実施形態によるゲーム処理システムについて説明する。図1は、一実施形態によるゲーム処理システム1を示すブロック図であり、図2は、ゲーム処理システム1において用いられるヘッドマウントディスプレイ10(以下、「HMD10」という。)の模式図であり、図3は、プレイヤ5に装着されたHMD10を模式的に示す図である。 A game processing system according to one embodiment will be described with reference to FIGS. FIG. 1 is a block diagram showing a game processing system 1 according to one embodiment, and FIG. 2 is a schematic diagram of a head-mounted display 10 (hereinafter referred to as "HMD 10") used in the game processing system 1. FIG. 3 is a diagram schematically showing the HMD 10 attached to the player 5. FIG.

一実施形態によるゲーム処理システム1は、一実施形態によるゲーム処理プログラムを実行することにより様々なゲームを実現する。プレイヤは、ゲームシステム1を利用して、ゲーム媒体を用いた各種ゲームをプレイすることができる。ゲーム媒体は、ゲームに使用される電子データであり、ユーザによってゲーム内で取得、所有、使用、管理、交換、合成、強化、売却、廃棄、又は贈与、又は前記以外の方法で使用され得る。ゲーム媒体には、例えば、カード、アイテム、仮想通貨、チケット、キャラクタ、アバタ、レベル情報、ステータス情報、パラメータ情報(体力値や攻撃力など)、能力情報、スキル、アビリティ、呪文、ジョブ及びこれら以外のゲームで利用可能な各種電子データを含む。ゲーム処理システム1で利用可能なゲーム媒体及びその利用態様は本明細書で明示されるものに限られない。ゲーム処理システム1は、例えば、仮想空間において仮想キャラクタとプレイヤとがインタラクションを行うゲームを実現することができる。ゲーム処理システム1により実現されるゲームは、第1モードと第2モードとを有する。第1モードの例はチャットモードであり、第2モードの例はVRモードである。第1モード及び第2モードについては後述される。 A game processing system 1 according to one embodiment realizes various games by executing a game processing program according to one embodiment. A player can use the game system 1 to play various games using game media. Game media is electronic data used in a game that can be acquired, owned, used, managed, traded, combined, enhanced, sold, disposed of, or gifted, or otherwise used in a game by a user. Game media include, for example, cards, items, virtual currency, tickets, characters, avatars, level information, status information, parameter information (physical strength, attack power, etc.), ability information, skills, abilities, spells, jobs, and others. Includes various electronic data that can be used in the game. The game media that can be used in the game processing system 1 and the mode of use thereof are not limited to those specified in this specification. The game processing system 1 can realize, for example, a game in which a virtual character and a player interact in a virtual space. A game realized by the game processing system 1 has a first mode and a second mode. An example of the first mode is chat mode and an example of the second mode is VR mode. The first mode and second mode will be described later.

ゲーム処理システム1は、HMD10と、サーバ50と、を備える。HMD10とサーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。 A game processing system 1 includes an HMD 10 and a server 50 . The HMD 10 and the server 50 are connected via a network 40 so as to be able to communicate with each other.

HMD10は、図2に示されているように、人間の頭部に装着される装着具11と、この装着具11に取り付けられる情報処理装置20と、を備えている。 As shown in FIG. 2, the HMD 10 includes an attachment 11 to be worn on the head of a person, and an information processing device 20 attached to the attachment 11 .

装着具11は、開口11dが形成されたゴーグル型の筐体11aと、この筐体11aに取り付けられた第1ベルト11b及び第2ベルト11cと、蓋11eと、を有する。蓋11eは、筐体11aに開閉自在に取り付けられている。筐体11aの前方には開口11dが形成されている。図2においては、蓋11eは開放されている。HME10の使用時には、蓋11eは、開口11dを閉塞するように閉じられる。 The wearing tool 11 has a goggle-shaped housing 11a formed with an opening 11d, a first belt 11b and a second belt 11c attached to the housing 11a, and a lid 11e. The lid 11e is attached to the housing 11a so as to be openable and closable. An opening 11d is formed in front of the housing 11a. In FIG. 2, the lid 11e is open. When the HME 10 is in use, the lid 11e is closed to block the opening 11d.

情報処理装置20は、HMD10の蓋11eの内側に、着脱可能に設けられる。情報処理装置20は、ディスプレイ24を備えている。情報処理装置20は、蓋11eが閉じられたときに、ディスプレイ24が筐体11aの内側を向くように蓋11eに取り付けられる。情報処理装置20は、HMD10の使用時に装着具11に取り付けられる。情報処理装置20は、HMD10を使用しないときには、装着具11から取り外される。 The information processing device 20 is detachably provided inside the lid 11 e of the HMD 10 . The information processing device 20 has a display 24 . The information processing device 20 is attached to the lid 11e such that the display 24 faces the inside of the housing 11a when the lid 11e is closed. The information processing device 20 is attached to the wearing tool 11 when the HMD 10 is used. The information processing device 20 is removed from the wearing tool 11 when the HMD 10 is not used.

図示の実施形態において、情報処理装置20は、スマートフォンである。情報処理装置20は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の各種情報処理装置であってもよい。HMD10から取り外された情報処理装置20は、後述のように、第1モードにおいてプレイヤ5により操作される。HMD10から取り外された情報処理装置20は、ゲーム以外にも、その本来の目的に応じて通話やインターネットアクセスのために利用される。 In the illustrated embodiment, the information processing device 20 is a smart phone. The information processing device 20 may be a mobile phone, a tablet terminal, a personal computer, an electronic book reader, a wearable computer, a game console, or various information processing devices other than a smart phone. The information processing device 20 removed from the HMD 10 is operated by the player 5 in the first mode, as will be described later. The information processing device 20 detached from the HMD 10 is used not only for games but also for phone calls and Internet access according to its original purpose.

情報処理装置20は、上記のように、ディスプレイ24を備えている。図示の実施形態においては、情報処理装置20が装着具11に取り付けられたときに、ディスプレイ24がHMD10における画像表示のための装置として機能する。よって、HMD10を用いてゲームをプレイする場合には、ディスプレイ24に当該ゲームの仮想空間、仮想キャラクタ、及びこれら以外のゲームに関連する画像が表示される。 The information processing device 20 includes the display 24 as described above. In the illustrated embodiment, the display 24 functions as a device for displaying images on the HMD 10 when the information processing device 20 is attached to the wearing tool 11 . Therefore, when playing a game using the HMD 10, the display 24 displays the virtual space of the game, the virtual characters, and other images related to the game.

装着具11の形状は、図示されたゴーグル型に限られない。装着具11は、装着されたプレイヤの頭部の動きに追従して動き、装着されたときにディスプレイ24を装着者の眼前に配置できる任意の形状の構造体を含み得る。装着具11は、例えば眼鏡を模した形状、帽子を模した形状、又はヘルメットを模した形状であってもよい。プレイヤの没入感を向上させるために、HMD10は、装着具11がプレイヤの頭部に装着されたときに、ディスプレイ24が当該プレイヤの両目を覆うように構成されてもよい。 The shape of the wearing tool 11 is not limited to the illustrated goggle shape. The wearer 11 can include a structure of any shape that can follow the movement of the head of the player wearing it and can place the display 24 in front of the wearer's eyes when worn. The wearing tool 11 may have, for example, a shape that imitates glasses, a shape that imitates a hat, or a shape that imitates a helmet. In order to improve the player's sense of immersion, the HMD 10 may be configured such that the display 24 covers the player's eyes when the wearer 11 is worn on the player's head.

HMD10は、使用時において、図3に示されているように、装着具11を介してプレイヤ5の頭部に取り付けられる。プレイヤ5の頭部に装着されている装着具11には、情報処理装置20が取り付けられている。 When in use, the HMD 10 is attached to the head of the player 5 via the mounting tool 11, as shown in FIG. An information processing device 20 is attached to the wearing tool 11 worn on the head of the player 5 .

再び図1を参照して、情報処理装置20についてさらに説明する。図示のように、一実施形態において、情報処理装置20は、コンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27を備えている。 The information processing apparatus 20 will be further described with reference to FIG. 1 again. As illustrated, in one embodiment, the information processing device 20 includes a computer processor 21 , a memory 22 , a communication I/F 23 , a display 24 , a sensor unit 25 , a sound collector 26 and a storage 27 .

コンピュータプロセッサ21は、ストレージ27又はそれ以外のストレージからオペレーティングシステムやゲームロジックを実現する様々なプログラムをメモリ22にロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。プロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。 The computer processor 21 is an arithmetic device that loads various programs that implement an operating system and game logic from the storage 27 or other storage into the memory 22 and executes instructions contained in the loaded programs. The computer processor 21 is, for example, a CPU, MPU, DSP, GPU, various arithmetic units other than these, or a combination thereof. The processor 21 may be realized by integrated circuits such as ASIC, PLD, FPGA, and MCU. Although computer processor 21 is illustrated as a single component in FIG. 1, computer processor 21 may be a collection of a plurality of physically separate computer processors. In this specification, a program or instructions included in the program described as being executed by the computer processor 21 may be executed by a single computer processor, or may be executed by a plurality of computer processors in a distributed manner. good too. Also, the program executed by the computer processor 21 or the instructions contained in the program may be executed by multiple virtual computer processors.

メモリ22は、コンピュータプロセッサ21が実行する命令及びそれ以外の各種データを格納するために用いられる。一実施形態によるゲーム処理プログラムの少なくとも一部は、ゲームの進行に応じて、随時メモリ22にロードされる。メモリ22は、例えば、コンピュータプロセッサ21が高速にアクセス可能な主記憶装置(メインメモリ)である。メモリ22は、例えば、DRAMやSRAM等のRAMによって構成される。 The memory 22 is used to store instructions executed by the computer processor 21 and various other data. At least part of the game processing program according to one embodiment is loaded into the memory 22 at any time as the game progresses. The memory 22 is, for example, a main storage device (main memory) that can be accessed at high speed by the computer processor 21 . The memory 22 is composed of a RAM such as a DRAM or an SRAM, for example.

通信I/F23は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。情報処理装置20は、通信I/F23を介して、他の装置とデータを送受信することができる。 The communication I/F 23 is implemented as hardware, firmware, communication software such as a TCP/IP driver or PPP driver, or a combination thereof. The information processing device 20 can transmit and receive data to and from other devices via the communication I/F 23 .

ディスプレイ24は、表示パネル24aと、タッチパネル24bと、を有する。例えば、タッチパネル24bは、表示パネル24aの上面又は下面に積層されている。表示パネル24aは、液晶パネル、有機ELパネル、無機ELパネル、又はこれら以外の画像を表示可能な任意の表示パネルである。タッチパネル24bは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネル24bは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネル24bは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。 The display 24 has a display panel 24a and a touch panel 24b. For example, the touch panel 24b is laminated on the upper surface or the lower surface of the display panel 24a. The display panel 24a is a liquid crystal panel, an organic EL panel, an inorganic EL panel, or any other display panel capable of displaying an image. The touch panel 24b is configured to be able to detect a player's touch operation (contact operation). The touch panel 24b can detect various touch operations such as tapping, double tapping, and dragging by the player. The touch panel 24b may include a capacitive proximity sensor and be configured to detect non-contact operations by the player.

センサユニット25は、一又は複数のセンサを備える。センサユニット25は、例えば、ジャイロセンサ、加速度センサ、および地磁気センサのうち少なくとも1つのセンサを含む。センサユニット25は、プレイヤの眼球の動きを直接的に検出するアイトラッキングセンサを備えてもよい。アイトラッキングセンサは、例えば、虹彩内に近赤外光を入射しその反射光を検出する視線検出センサである。後述するように、センサユニット25により検出された検出情報に基づいて、HMD10を装着したプレイヤ5の頭部の位置及び向きが特定される。センサユニット25を構成する各種センサの少なくとも一部は、装着具11及び/又は装着具11以外の情報処理装置20とは異なる部材に設けられてもよい。 The sensor unit 25 comprises one or more sensors. Sensor unit 25 includes, for example, at least one of a gyro sensor, an acceleration sensor, and a geomagnetic sensor. The sensor unit 25 may include an eye tracking sensor that directly detects the movement of the player's eyeballs. An eye tracking sensor is, for example, a line-of-sight sensor that receives near-infrared light into the iris and detects the reflected light. As will be described later, the position and orientation of the head of the player 5 wearing the HMD 10 are specified based on the detection information detected by the sensor unit 25 . At least some of the various sensors that make up the sensor unit 25 may be provided on the mounting tool 11 and/or a member different from the information processing device 20 other than the mounting tool 11 .

集音装置26は、音声を集音することができるように構成されている。集音装置26は、例えば、マイクロフォンである。集音装置26により集音された音声情報に基づいて、プレイヤ5の音声が検出される。 The sound collector 26 is configured to be able to collect sound. The sound collecting device 26 is, for example, a microphone. The voice of the player 5 is detected based on the voice information collected by the sound collector 26 .

ストレージ27は、コンピュータプロセッサ21によりアクセスされる外部記憶装置である。ストレージ27は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ27には、ゲーム処理プログラム等の様々なプログラムが記憶される。また、ストレージ27には、ゲームにおいて用いられる各種データも記憶される。ストレージ27に記憶され得るプログラム及び各種データの少なくとも一部は、情報処理装置20とは物理的に別体のストレージに格納されてもよい。 Storage 27 is an external storage device accessed by computer processor 21 . The storage 27 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various other storage devices capable of storing data. The storage 27 stores various programs such as a game processing program. The storage 27 also stores various data used in the game. At least part of the programs and various data that can be stored in the storage 27 may be stored in a storage that is physically separate from the information processing device 20 .

図示の実施形態において、ストレージ27には、画像データ28a、チャットデータ28b、シナリオデータ28c、パラメータデータ28d、中断条件データ28e、ゲーム進行データ28f、及び前記以外のゲームの進行のために必要な様々なデータが記憶される。 In the illustrated embodiment, the storage 27 contains image data 28a, chat data 28b, scenario data 28c, parameter data 28d, interruption condition data 28e, game progress data 28f, and various other data necessary for progressing the game. data is stored.

画像データ28aには、ゲームの行われる仮想空間の背景を描画するためのデータ、仮想キャラクタを描画するためのデータ、及びゲームで用いられる仮想キャラクタ以外のオブジェクトを描画するためのデータが含まれる。画像データ28aには、仮想空間内におけるオブジェクトの位置情報を含んでもよい。 The image data 28a includes data for drawing the background of the virtual space in which the game is played, data for drawing virtual characters, and data for drawing objects other than the virtual characters used in the game. The image data 28a may include position information of the object in the virtual space.

チャットデータ28bには、仮想キャラクタのアイコンを描画するためのデータ、プレイヤ5のアイコンを描画するためのデータ、仮想キャラクタの複数のメッセージを特定するためのデータ、当該仮想キャラクタの複数のメッセージの各々に対する応答メッセージの選択肢を示すデータ、及びこれら以外のチャットモードで用いられるデータが含まれる。仮想キャラクタの複数のメッセージは、各メッセージに対応するノードを有し、当該ノード同士がアークで接続されたツリー構造で定義されてもよい。このツリー構造では、例えば、最上位のルートノードである開始メッセージから複数のアークが伸びており、各アークが下位ノードに接続される。この下位ノードからもアークが延び、当該アークがさらに下位のノードに接続される。下位ノードの各々は、開始メッセージよりも後に表示され得る仮想キャラクタのメッセージの候補に対応する。また、チャットデータ28bには、チャットモードからVRモードへの移行を開始する条件であるモード移行条件が含まれてもよい。モード移行条件には、例えば、ゲームがチャットモードで開始されてからの経過時間が所定時間以上であること、ツリー構造のメッセージにおいて末端のノードまでチャットが進行したこと、及びこれら以外の条件が含まれる。チャットデータ28bには、移行オブジェクトの選択が完了しなかった後に再開されたチャットモードで表示されるメッセージを示すデータが含まれてもよい。 The chat data 28b includes data for drawing the icon of the virtual character, data for drawing the icon of the player 5, data for specifying a plurality of messages of the virtual character, and each of the plurality of messages of the virtual character. and data used in other chat modes. A plurality of messages of the virtual character may be defined in a tree structure having nodes corresponding to each message and connecting the nodes with arcs. In this tree structure, for example, a plurality of arcs extend from the start message, which is the highest root node, and each arc is connected to a lower node. Arcs also extend from this lower node, and the arcs are connected to further lower nodes. Each of the lower nodes corresponds to a candidate message of the virtual character that can be displayed after the starting message. Also, the chat data 28b may include a mode transition condition, which is a condition for starting transition from the chat mode to the VR mode. Mode transition conditions include, for example, that the elapsed time since the game was started in chat mode is equal to or longer than a predetermined time, that the chat has progressed to the terminal node in the message of the tree structure, and other conditions. be Chat data 28b may include data indicative of messages to be displayed in the resumed chat mode after incomplete selection of transition objects.

シナリオデータ28cには、ゲームの第2モード(例えば、VRモード)においてプレイヤ5によって体験されるシナリオを定義するデータが含まれる。ゲームにおいてプレイヤ5によって体験されるシナリオが複数ある場合、シナリオデータ28cは、複数のシナリオの各々についてシナリオデータを定義してもよい。 Scenario data 28c includes data defining the scenario experienced by player 5 in the second mode of the game (eg, VR mode). If there are multiple scenarios experienced by the player 5 in the game, the scenario data 28c may define scenario data for each of the multiple scenarios.

図4を参照して、一実施形態におけるゲーム処理システムにおいて用いられるシナリオデータについて説明する。図4は、ゲーム処理システム1において用いられるシナリオデータ28cを模式的に示す。シナリオデータ28cは、VRモードにおいて実行されるシナリオを規定するためのデータセットである。図示の実施形態において、シナリオデータ28cは、第1シナリオ~第5シナリオにそれぞれ対応する第1シナリオデータ28c1~第5シナリオデータ28c5を有する。VRモードにおけるシナリオは6つ以上であってもよく4つ以下であってもよい。以下では、第1シナリオに対応する第1シナリオデータ28c1のデータ構造について説明する。以下の第1シナリオデータ28c1に関する説明は、第2シナリオデータ28c2~第5シナリオデータ28c5にも当てはまる。 Scenario data used in the game processing system in one embodiment will be described with reference to FIG. FIG. 4 schematically shows scenario data 28c used in the game processing system 1. As shown in FIG. The scenario data 28c is a data set for defining a scenario to be executed in VR mode. In the illustrated embodiment, the scenario data 28c has first scenario data 28c1 to fifth scenario data 28c5 corresponding to the first to fifth scenarios, respectively. The number of scenarios in VR mode may be six or more and may be four or less. The data structure of the first scenario data 28c1 corresponding to the first scenario will be described below. The following explanation regarding the first scenario data 28c1 also applies to the second scenario data 28c2 to the fifth scenario data 28c5.

図示の実施形態において、第1シナリオデータ28c1は、開始シーンデータA1と、基本シーンデータB1~B3と、追加シーンデータC1~C3と、終了シーンデータD1~D2と、を含んでいる。一実施形態において、開始シーンデータA1、基本シーンデータB1~B3、追加シーンデータC1~C3、及び終了シーンデータD1~D2に含まれるデータの各々は、各シーンにおける仮想キャラクタのアクションに関するデータ、各シーンで用いられる動画像に関するデータ、各シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の各シーンの実行に必要なデータを含み得る。 In the illustrated embodiment, the first scenario data 28c1 includes start scene data A1, basic scene data B1-B3, additional scene data C1-C3, and end scene data D1-D2. In one embodiment, each of the data included in the start scene data A1, the basic scene data B1-B3, the additional scene data C1-C3, and the end scene data D1-D2 is data relating to the action of the virtual character in each scene. Data related to moving images used in the scene, data related to actions that the player can take with respect to the virtual character in each scene, and other data necessary for execution of each scene can be included.

図示の実施形態において、開始シーンデータA1は、第1シナリオの開始後に実行される開始シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。 In the illustrated embodiment, the start scene data A1 includes data related to the action of the virtual character in the start scene executed after the start of the first scenario, data related to the moving image used in the start scene, and data related to the virtual character by the player in the start scene. It may contain data about actions that can be taken, and other data necessary to perform the opening scene.

基本シーンデータB1~B3は、開始シーンの後に行われる基本シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。基本シーンデータB1~B3の各々には、追加シーンへの移行可否を判定するための追加シーン移行条件を示す情報が含まれてもよい。追加シーン移行条件は、基本シーンごとに定められ得る。追加シーン移行条件は、例えば、所定のオブジェクトを所定時間以上注視すること、所定の方向を注視しないこと、及び所定のアクションを取ることである。これら以外にも追加シーン移行条件は、シナリオのストーリー、仮想空間に登場するオブジェクトの種類、及びこれら以外の要素に応じて適宜定められ得る。 The basic scene data B1 to B3 are data relating to the action of the virtual character in the basic scene performed after the starting scene, data relating to the moving image used in the starting scene, and data relating to actions that the player can take with respect to the virtual character in the starting scene. , and other data necessary to perform the starting scene. Each of the basic scene data B1 to B3 may include information indicating additional scene transition conditions for determining whether or not to transition to an additional scene. Additional scene transition conditions may be defined for each basic scene. The additional scene transition conditions are, for example, gazing at a predetermined object for a predetermined time or longer, not gazing in a predetermined direction, and taking a predetermined action. In addition to these, the additional scene transition conditions can be appropriately determined according to the story of the scenario, the types of objects that appear in the virtual space, and other factors.

追加シーンデータC1~C3は、追加シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。追加シーンは、基本シーンの実行中又は実行後に追加シーン移行条件が成立したか否かが判定され、その判定結果に応じて実行される。 The additional scene data C1 to C3 include data related to the action of the virtual character in the additional scene, data related to the moving image used in the start scene, data related to actions that the player can take with respect to the virtual character in the start scene, and other start scenes. It may contain data necessary for the execution of the scene. The additional scene is executed according to the determination result whether or not the additional scene transition condition is satisfied during or after the execution of the basic scene.

終了シーンデータD1~D2は、第2モードの終了前に実行される終了シーンの実行に必要なデータを含み得る。終了シーンデータD1~D2は、終了シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。 The end scene data D1-D2 may include data necessary for execution of the end scene executed before the end of the second mode. The end scene data D1 and D2 are data related to the action of the virtual character in the end scene, data related to the moving image used in the start scene, data related to actions that the player can take with respect to the virtual character in the start scene, and other start scenes. It may contain data necessary for the execution of the scene.

パラメータデータ28dには、ゲーム処理システム1において実現されるゲームに関するゲームパラメータが含まれる。このゲームパラメータは、プレイヤキャラクタに関するパラメータであってもよい。このプレイヤキャラクタに関するパラメータには、ノンプレイヤーキャラクタである仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータが含まれてもよい。ゲームパラメータは、ゲームの進行に応じて随時更新される。プレイヤキャラクタに関するパラメータは、仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータには限られない。プレイヤキャラクタに関するパラメータは、ゲームの種類、性質、世界観又はこれら以外の要素に応じて適宜定められる。 The parameter data 28 d includes game parameters relating to the game implemented in the game processing system 1 . This game parameter may be a parameter related to the player character. The parameters relating to the player character may include a parameter representing the favorability of the virtual character, which is a non-player character, toward the user character. The game parameters are updated at any time as the game progresses. The parameters relating to the player character are not limited to parameters representing the favorable impression of the virtual character towards the user character. The parameters relating to the player character are appropriately determined according to the game type, nature, world view, or other factors.

中断条件データ28eは、VRモードで実行されているゲーム又はそのゲームにおいて実行されているアクションを中断する条件である中断条件を定めるデータである。中断条件は、例えば、仮想空間内に設定された禁止領域が注視されたこと、プレイヤ5が仮想キャラクタに対して同じアクションを所定回数以上繰り返したこと、プレイヤ5が仮想キャラクタの所定の部位に対するアクションを所定回数以上行ったこと、プレイヤが禁止アクションを行ったこと、パラメータデータ28dに含まれる所定のパラメータが所定の閾値以上であること、又は、当該閾値以下であること、及びこれら以外のVRモードでのゲームの実行を中断するために定められる条件を含む。中断条件データ28eは、上記の禁止領域を示す座標に関するデータ及び禁止アクションを特定するためのデータを含んでもよい。プレイヤ5が同じアクションを行うたびにポイントを積算し、積算ポイントが所定ポイント以上となることを中断条件としてもよい。また、プレイヤ5に所定の初期ポイントを割り当てておき、プレイヤ5が同じアクションを行うたびに初期ポイントから所定のポイントを減じてプレイヤ5の保持ポイントを算出し、当該保持ポイントが所定の値以下となることを中断条件としてもよい。積算ポイント及び保持ポイントは、ゲームの途中でリセットされてもよい。 The interruption condition data 28e is data defining an interruption condition which is a condition for interrupting a game being executed in the VR mode or an action being executed in the game. The interruption conditions are, for example, that a prohibited area set in the virtual space is gazed at, that the player 5 repeats the same action on the virtual character more than a predetermined number of times, that the player 5 performs an action on a predetermined part of the virtual character. has been performed a predetermined number of times or more, the player has performed a prohibited action, a predetermined parameter included in the parameter data 28d is equal to or greater than a predetermined threshold value, or is equal to or less than the threshold value, and VR modes other than these contains the conditions established for suspending the execution of the game in The interruption condition data 28e may include data on coordinates indicating the prohibited area and data for specifying prohibited actions. Points may be accumulated each time the player 5 performs the same action, and the suspension condition may be that the accumulated points reach or exceed a predetermined point. Also, a predetermined initial point is assigned to the player 5, and each time the player 5 performs the same action, the predetermined point is subtracted from the initial point to calculate the holding point of the player 5, and if the holding point is equal to or less than the predetermined value. It is good also as interruption conditions that it becomes. Accumulated points and retained points may be reset in the middle of the game.

ゲーム進行データ28fには、ゲームの進行の管理に用いられるデータが含まれる。ゲーム進行データ28fは、ゲームの進行に応じて更新されてもよい。ゲーム進行データ28fには、例えば、ゲームにおいてプレイヤが獲得したポイントに関するデータ、プレイヤ5が仮想キャラクタに対して行ったアクションを示すデータ、及びこれら以外のゲームの進行に応じて変化しえる各種データが含まれ得る。プレイヤ5が仮想キャラクタに対して行ったアクションを示すデータには、当該アクションが行われた仮想キャラクタの部位(例えば、頭部、肩、腕、又はこれら以外の部位)を示すデータが含まれてもよい。 The game progress data 28f includes data used for managing the progress of the game. The game progress data 28f may be updated as the game progresses. The game progress data 28f includes, for example, data related to the points earned by the player in the game, data representing actions taken by the player 5 with respect to the virtual character, and various other data that can change according to the progress of the game. can be included. The data indicating the action performed by the player 5 on the virtual character includes data indicating the part of the virtual character where the action was performed (for example, the head, shoulders, arms, or other parts). good too.

図1に示されている情報処理装置20の構成要素及び機能は例示である。本発明に適用可能な情報処理装置20は、図示されていない様々な構成要素を備え得る。例えば、情報処理装置20は、ゲームの効果音や仮想キャラクタの音声を出力するスピーカを備えてもよい。 The components and functions of the information processing device 20 shown in FIG. 1 are exemplary. The information processing device 20 applicable to the present invention may include various components not shown. For example, the information processing device 20 may include a speaker that outputs game sound effects and virtual character voices.

続いて、HMD10の機能について説明する。図示の実施形態においては、情報処理装置20のコンピュータプロセッサ21においてコンピュータ読み取り可能な命令を実行することにより、HMD10の各種機能が実現される。コンピュータプロセッサ21において実行される命令には、一実施形態によるゲーム処理プログラムに含まれる命令が含まれる。 Next, functions of the HMD 10 will be described. In the illustrated embodiment, various functions of the HMD 10 are implemented by executing computer readable instructions in the computer processor 21 of the information processing device 20 . The instructions executed by computer processor 21 include instructions contained in a game processing program according to one embodiment.

コンピュータプロセッサ21によって一実施形態によるゲーム処理プログラムが実行されることにより、ゲーム処理システム1において第1モード及び当該第1モードとは異なる第2モードを有するゲームが実現される。ゲーム処理システム1において実現されるゲームは、第1モード及び第2モード以外のモードを有していてもよい。 A game having a first mode and a second mode different from the first mode is realized in the game processing system 1 by executing the game processing program according to one embodiment by the computer processor 21 . A game implemented in the game processing system 1 may have modes other than the first mode and the second mode.

ゲーム処理システム1において実現されるゲームの第1モードでは、HMD10がプレイヤ5に装着されていないときに、すなわち、情報処理装置20が装着具11から取り外されているときに、情報処理装置20により検出された第1検出情報に応じてゲームに関する処理が行われる。この第1検出情報には、情報処理装置20のタッチパネル24bにより検出されるプレイヤ5のタッチ操作に関する情報、集音装置26により検出されるプレイヤの音声に関する情報、及びHMD10がプレイヤ5に装着されていない場合に情報処理装置20において検出可能な前記以外の検出情報を含み得る。プレイヤ5は、第1モードにおいては、装着具11から取り外された情報処理装置20を用いてゲームに関する操作を行うことができる。第1モードにおいては、HMD10がプレイヤ5に装着されていないときにゲームを進行させることが想定されているため、ディスプレイ24には、立体視画像以外の画像が表示されてもよい。 In the first mode of the game realized in the game processing system 1, the information processing device 20 performs the A game-related process is performed according to the detected first detection information. The first detection information includes information about the touch operation of the player 5 detected by the touch panel 24b of the information processing device 20, information about the player's voice detected by the sound collector 26, and whether the HMD 10 is attached to the player 5. It may include detection information other than the above that can be detected by the information processing device 20 when it is not present. In the first mode, the player 5 can perform game-related operations using the information processing device 20 removed from the wearing tool 11 . In the first mode, it is assumed that the game progresses when the player 5 is not wearing the HMD 10 , so the display 24 may display an image other than the stereoscopic image.

ゲーム処理システム1において実現されるゲームの第2モードでは、プレイヤ5の頭部に装着されたHMD10によって検出される第2検出情報を用いてゲームが進行される。この第2検出情報は、例えば、センサユニット25によって検出される検出情報である。この第2検出情報に基づいて、プレイヤ5の頭部の向きを特定するためのヘッドトラッキング情報が算出される。ヘッドトラッキング情報は、プレイヤ5の頭部の向きに加えて、その位置を示す情報であってもよい。第2モードにおけるゲームの進行のための処理は、例えば、第2検出情報に基づいて算出されたヘッドトラッキング情報に基づいて実行される。第2モードにおけるゲームの進行のための処理は、ヘッドトラッキング情報に加えて、当該ヘッドトラッキング情報以外の情報も用いて実行されてもよい。プレイヤ5は、第2モードでゲームをプレイする準備として、情報処理装置20を装着具11に取付け、この情報処理装置20が取り付けられた装着具11を頭部に装着する。このように、第2モードにおいては、HMD10がプレイヤ5に装着されているときにゲームを進行させることが想定されているため、一実施形態において、第2モードでは、プレイヤ5によって立体視される立体視画像がディスプレイ24に表示される。立体視画像は、例えば、視差バリア方式によって、ディスプレイ24に表示される。視差バリア方式においては、左目用画像及び右目用画像がディスプレイ24に表示される。このように、立体視画像は、ディスプレイに表示されることによって、左右の目の視差を利用して立体視されるように構成された左目用画像及び右目用画像を含む画像のセットである。 In the second mode of the game implemented in the game processing system 1, the game proceeds using second detection information detected by the HMD 10 mounted on the head of the player 5. FIG. This second detection information is, for example, detection information detected by the sensor unit 25 . Based on this second detection information, head tracking information for specifying the direction of the head of the player 5 is calculated. The head tracking information may be information indicating the position of the head of the player 5 in addition to the direction of the head. The processing for progressing the game in the second mode is executed, for example, based on head tracking information calculated based on the second detection information. The processing for progressing the game in the second mode may be executed using information other than the head tracking information in addition to the head tracking information. In preparation for playing the game in the second mode, the player 5 attaches the information processing device 20 to the wearing tool 11 and wears the wearing tool 11 to which the information processing device 20 is attached on the head. Thus, in the second mode, it is assumed that the game is progressed while the HMD 10 is worn by the player 5. Therefore, in one embodiment, in the second mode, the player 5 stereoscopically views the A stereoscopic image is displayed on the display 24 . A stereoscopic image is displayed on the display 24 by, for example, a parallax barrier method. In the parallax barrier method, a left-eye image and a right-eye image are displayed on the display 24 . Thus, a stereoscopic image is a set of images including a left-eye image and a right-eye image that are configured to be stereoscopically viewed using the parallax of the left and right eyes by being displayed on a display.

第1モードは、例えば、チャットモードである。チャットモードは第1モードの例示である。チャットモードにおいては、プレイヤが仮想キャラクタとテキストメッセージを介してチャットする機能が実現される。プレイヤは、第1モードにおいては、仮想キャラクタとチャットを行うことにより、当該仮想キャラクタとのインタラクションを体験することができる。チャットモードにおける処理の具体的な内容は後述される。インタラクションとは、広義には、プレイヤが実行したアクションに対して仮想キャラクタがリアクションすることを意味する。仮想キャラクタとのインタラクションには、仮想キャラクタとの会話などによるコミュニケーションとしてなされるインタラクションが含まれる。本明細書においては、仮想キャラクタとのコミュニケーションとして行われるインタラクションをコミュニケーティブインタラクションと呼ぶことがある。仮想キャラクタとのインタラクションには、コミュニケーティブインタラクションの他に、仮想キャラクタとの対戦、仮想キャラクタと協力してゲームをプレイする協力プレイ、及びこれら以外の仮想キャラクタとの相互作用が含まれ得る。本明細書においては、仮想キャラクタとの対戦として行われるインタラクションを対戦インタラクションと呼ぶことがある。本明細書においては、仮想キャラクタとの協力プレイとして行われるインタラクションを協力インタラクションと呼ぶことがある。 The first mode is, for example, chat mode. Chat mode is an example of the first mode. The chat mode implements the ability for the player to chat with the virtual character via text messages. In the first mode, the player can experience interaction with the virtual character by chatting with the virtual character. Specific contents of processing in the chat mode will be described later. Interaction, in a broad sense, means that a virtual character reacts to an action performed by a player. Interaction with a virtual character includes interaction made as communication such as conversation with a virtual character. In this specification, an interaction performed as communication with a virtual character is sometimes called a communicative interaction. Interactions with virtual characters can include, in addition to communicative interactions, battles with virtual characters, cooperative play in which a game is played in cooperation with virtual characters, and interactions with other virtual characters. In this specification, an interaction performed as a battle with a virtual character is sometimes referred to as a battle interaction. In this specification, an interaction performed as cooperative play with a virtual character may be referred to as a cooperative interaction.

第2モードは、例えば、VRモードである。VRモードにおいては、情報処理装置20のディスプレイに表示される仮想空間に登場するノンプレイヤーキャラクターである仮想キャラクタと様々なインタラクションを行うための機能が実現される。VRモードにおける処理の具体的な内容は後述される。VRモードは第2モードの例示であり、第2モードには、ヘッドトラッキング情報を用いてゲーム進行のための処理が行われる任意のゲームモードが含まれ得る。 The second mode is VR mode, for example. In the VR mode, functions for performing various interactions with a virtual character, which is a non-player character appearing in the virtual space displayed on the display of the information processing device 20, are implemented. Specific contents of processing in the VR mode will be described later. The VR mode is an example of the second mode, and the second mode may include any game mode in which processing for progressing the game is performed using head tracking information.

一実施形態において、ゲーム処理システム1で実現される第1モード及び第2モードを有するゲームは、仮想キャクタとコミュニケーティブインタラクション以外のインタラクションを行うゲームであってもよい。ゲーム処理システム1で実現されるゲームでは、コミュニケーティブインタラクションが行われなくともよい。一実施形態におけるゲームでは、第1モードでは2次元空間でプレイされ、第2モードでは3次元空間でプレイされる。一実施形態におけるゲームでは、第1モードでは3次元空間でプレイされ、第2モードでは当該第1モードの3次元空間とは異なる表示態様で表示される(又は当該第1モードの3次元空間とは異なる態様で構成される)3次元空間でプレイされる。一実施形態において、ゲーム処理システム1で実現されるゲームは、第1モード及び第2モードで共通のゲーム媒体を使用するものであってもよい。このゲーム媒体に関連付けられたパラメータは、第1モードと第2モードとの間で引き継がれてもよい。例えば、第1モードでのプレイ中に特定のゲーム媒体のパラメータが変更され、その後に第2モードへ移行した場合には、変更後のパラメータが設定された当該特定のゲーム媒体が第2モードで用いられる。一実施形態において、特定のゲーム媒体のパラメータは、第1モードから第2モードへの移行時及び第2モードから第1モードへの移行時の少なくとも一方において、変更されてもよい。このゲーム媒体のパラメータの変更は、プレイヤ5にとってゲームの進行上有利となる変更であってもよいし、不利となる変更であってもよい。一実施形態において、第1モードでのプレイ結果が第2モードでのゲームに反映されてもよいし、第2モードでのプレイ結果が第1モードでのゲームに反映されてもよい。例えば、第1モードで獲得されたプレイヤ5の経験値が第2モードにおいて引き継がれてもよい。 In one embodiment, the game having the first mode and the second mode realized by the game processing system 1 may be a game in which interactions other than communicative interactions with virtual characters are performed. In the game realized by the game processing system 1, communicative interaction does not have to be performed. In one embodiment, the game is played in a two-dimensional space in a first mode and in a three-dimensional space in a second mode. In one embodiment, the game is played in a three-dimensional space in the first mode, and displayed in a display mode different from the three-dimensional space in the first mode in the second mode (or similar to the three-dimensional space in the first mode). are played in a three-dimensional space (configured in different ways). In one embodiment, the game realized by the game processing system 1 may use common game media in the first mode and the second mode. Parameters associated with this game content may be carried over between the first mode and the second mode. For example, if the parameters of a specific game medium are changed during play in the first mode, and then the mode is shifted to the second mode, the specific game medium in which the changed parameters are set is played in the second mode. Used. In one embodiment, certain game content parameters may be changed during transition from the first mode to the second mode and/or during transition from the second mode to the first mode. This change in the parameters of the game media may be a change that is advantageous or disadvantageous to the player 5 in terms of the progress of the game. In one embodiment, the result of playing in the first mode may be reflected in the game in the second mode, and the result of playing in the second mode may be reflected in the game in the first mode. For example, the experience value of player 5 acquired in the first mode may be inherited in the second mode.

上記のとおり、ゲーム処理システム1において実現されるゲームの第1モードと第2モードとは互いから識別されるモードである。つまり、第1モードは第2モードと異なるモードである。一実施形態においては、ゲーム処理システム1において実現されるゲームが第1モードでプレイされる場合には、HMD10がプレイヤ5の頭部に装着されないのに対し、当該ゲームが第2モードでプレイされる場合には、HMD10がプレイヤ5の頭部の頭部に装着される。この場合、第1モードにおいては、プレイヤ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じてゲームの処理が行われ、第2モードにおいては、プレイヤ5の頭部に装着されたHMD10により検出された第2検出情報に応じてゲームの処理が行われる。 As described above, the first mode and the second mode of the game implemented in the game processing system 1 are modes that are distinguished from each other. That is, the first mode is a mode different from the second mode. In one embodiment, the HMD 10 is not worn on the head of the player 5 when the game realized in the game processing system 1 is played in the first mode, whereas the game is played in the second mode. In this case, the HMD 10 is attached to the head of the player 5 . In this case, in the first mode, game processing is performed according to the first detection information detected by the information processing device 20 that is not worn on the head of the player 5, and in the second mode, the game is processed. Game processing is performed according to the second detection information detected by the HMD 10 mounted on the head.

一実施形態において、第2モードでは、立体視画像がディスプレイ24に表示されるのに対し、第1モードでは上述したように立体視画像以外の画像がディスプレイ24に表示される。第2モードでは、ゲーム用の画像のうち少なくとも仮想キャラクタの画像が立体視画像として表示され、第1モードでは、仮想キャラクタの画像が立体視画像以外の画像として表示される。 In one embodiment, a stereoscopic image is displayed on the display 24 in the second mode, whereas an image other than the stereoscopic image is displayed on the display 24 in the first mode as described above. In the second mode, at least the virtual character image among the game images is displayed as a stereoscopic image, and in the first mode, the virtual character image is displayed as an image other than the stereoscopic image.

一実施形態において、第1モードにおいては第2検出情報に基づいて算出されるヘッドトラッキング情報を用いずにゲームを進行させる処理がなされるのに対して、第2モードにおいては当該ヘッドトラッキング情報に基づいてゲームを進行させる処理がなされる。 In one embodiment, in the first mode, processing is performed to progress the game without using the head tracking information calculated based on the second detection information, whereas in the second mode, the head tracking information is used. Based on this, processing for advancing the game is performed.

一実施形態において、第1モードにおいてはタッチパネル24bにより検出されるタッチ操作に応じてゲームを進行させる処理がなされるのに対して、第2モードにおいてはタッチパネル24bのタッチ操作に応じた処理はなされない。 In one embodiment, in the first mode, the game progresses according to the touch operation detected by the touch panel 24b, whereas in the second mode, there is no process according to the touch operation of the touch panel 24b. not.

一実施形態において、ゲーム処理システム1において実現されるゲームにおいて仮想キャラクタとのインタラクションが提供される場合には、第1モードにおいては、プレイヤ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じた当該仮想キャラクタとのインタラクションが提供され、第2モードにおいては、プレイヤ5の頭部に装着されたHMD10により検出された第2検出情報に応じた当該仮想キャラクタとのインタラクションが提供される。 In one embodiment, when interaction with a virtual character is provided in a game realized by the game processing system 1, in the first mode, the information processing device 20 that is not worn on the head of the player 5 detects Interaction with the virtual character according to the detected first information is provided, and in the second mode, interaction with the virtual character according to the second detected information detected by the HMD 10 mounted on the head of the player 5 is provided. interaction is provided.

ゲームを開始した後には、上記のように区別される第1モードと第2モードとの間での移行が可能となる。図5を参照して、ゲーム処理システム1により処理されるゲームのモード移行の概略を説明する。図示のように、ステップS1においてゲームが開始されると、ステップS2において第1モードであるチャットモードS2が開始される。このチャットモードにおいて、第2モードであるVRモードへ移行するための移行処理が開始されると、ステップS3に移行し、第2モードへの移行処理が行われる。移行処理が完了すると、ステップS4において第2モードであるVRモードが開始される。VRモードが終了又は中断されると、チャットモードへの復帰処理が行われる。 After starting the game, it is possible to switch between the first mode and the second mode, which are distinguished as described above. With reference to FIG. 5, an outline of mode transition of the game processed by the game processing system 1 will be described. As shown in the figure, when the game is started in step S1, chat mode S2, which is the first mode, is started in step S2. In this chat mode, when transition processing for transitioning to the VR mode, which is the second mode, is started, the process proceeds to step S3, and transition processing to the second mode is performed. When the transition process is completed, the VR mode, which is the second mode, is started in step S4. When the VR mode ends or is interrupted, processing for returning to the chat mode is performed.

次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、ゲーム処理プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、チャットモード実行部21a、移行処理部21b、VRモード実行部21c、及びパラメータ管理部21dとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、ゲームシステム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サーバ50に搭載されているコンピュータプロセッサにより実現されてもよい。 Next, functions realized by the computer processor 21 will be described more specifically. The computer processor 21 functions as a chat mode execution unit 21a, a transition processing unit 21b, a VR mode execution unit 21c, and a parameter management unit 21d by executing computer-readable instructions included in the game processing program. At least part of the functions implemented by computer processor 21 may be implemented by a computer processor other than computer processor 21 of game system 1 . At least part of the functions implemented by the computer processor 21 may be implemented by a computer processor installed in the server 50, for example.

チャットモード実行部21aは、一実施形態によるゲーム処理プログラムを実行することにより、第1モードであるチャットモードでゲームを提供するための処理を行う。チャットモード実行部21aは、プレイヤ5と(又はプレイヤ5のキャラクタと)ノンプレイヤーキャラクタである仮想キャラクタとの間でチャットを行うための機能を実現する。チャットモード実行部21aは、チャットモードへのログイン後に、仮想キャラクタからのメッセージ及びプレイヤ5により入力又は選択されたメッセージをディスプレイ24に表示し、当該仮想キャラクタとプレイヤ5との間でチャットを行わせることができる。チャットモード実行部21aは、仮想キャラクタのメッセージに続けて、当該メッセージ対するプレイヤ5の応答に関する複数の選択肢をディスプレイ24に表示してもよい。当該複数の選択肢からプレイヤ5の操作に応じて一つの選択肢が選択され、この選択された選択肢に対応するメッセージが、ディスプレイ24にプレイヤ5のメッセージとして表示される。プレイヤ5は、タッチパネル24bへのタッチ操作により、表示された選択肢のうち所望のものを選択することができる。仮想キャラクタのメッセージ及び当該メッセージに対するプレイヤの選択肢は、ゲーム処理プログラムに従って、チャットデータ28bを参照して特定することができる。仮想キャラクタのメッセージは、当該仮想キャラクタの画像とともに表示されてもよく、プレイヤ5のメッセージには、当該プレイヤ5の画像とともに表示されてもよい。仮想キャラクタのメッセージは、第2モードであるVRモードへの移行を促すメッセージ、当該VRモードにおける設定をプレイヤ5に選択させるためのメッセージ、及びこれら以外の当該VRモードに関連づけられたメッセージが含まれていてもよい。 The chat mode execution unit 21a performs processing for providing a game in the chat mode, which is the first mode, by executing the game processing program according to one embodiment. The chat mode execution unit 21a implements a function for chatting between the player 5 (or the character of the player 5) and a virtual character that is a non-player character. After logging in to the chat mode, the chat mode execution unit 21a displays the message from the virtual character and the message input or selected by the player 5 on the display 24, and allows the virtual character and the player 5 to chat. be able to. The chat mode execution unit 21a may display on the display 24, following the message of the virtual character, a plurality of options regarding the player's 5 response to the message. One option is selected from the plurality of options according to the player's 5 operation, and a message corresponding to this selected option is displayed on the display 24 as the player's 5 message. The player 5 can select a desired one of the displayed options by performing a touch operation on the touch panel 24b. The virtual character's message and the player's options for the message can be specified by referring to the chat data 28b according to the game processing program. The message of the virtual character may be displayed together with the image of the virtual character, and the message of the player 5 may be displayed together with the image of the player 5 . The message of the virtual character includes a message prompting the transition to the VR mode, which is the second mode, a message for allowing the player 5 to select settings in the VR mode, and other messages associated with the VR mode. may be

チャットモードにおいては、チャットの進行に応じて、第2モードであるVRモードへの移行を開始するための移行開始オブジェクトが表示される。移行開始オブジェクトの表示は、ゲーム処理プログラムに従って、モード移行条件が成立したときに行われる。チャットモード実行部21aは、タッチパネル24b又はそれ以外のユーザインタフェースからの検出信号に基づいて移行開始オブジェクトが選択されたことを検知することができる。移行開始オブジェクトが選択されたことが検知されると、第2モードであるVRモードへの移行処理が開始される。 In the chat mode, a transition start object for starting transition to the VR mode, which is the second mode, is displayed according to the progress of the chat. The transition start object is displayed when the mode transition condition is satisfied according to the game processing program. The chat mode execution unit 21a can detect that a transition start object has been selected based on a detection signal from the touch panel 24b or other user interface. When it is detected that the transition start object has been selected, transition processing to the VR mode, which is the second mode, is started.

移行処理部21bは、第1モードから第2モードへ移行するための移行処理を行う。この移行処理には、情報処理装置20を装着具11へ装着するように促すガイダンスをディスプレイ24に表示すること、及び、プレイヤの注視によって選択可能な移行オブジェクトをディスプレイ24に表示させること、を含んでもよい。この移行オブジェクトを表示させた後、移行処理部21bは、センサユニット25又はそれ以外のセンサの検出信号を受信し、この検出信号に基づいて移行オブジェクトが注視によって選択されたか否かを判定することができる。この判定のために、移行処理部21bは、センサユニット25の検出信号に基づいてHMD10の位置及び向きを算出し、この算出されたHMD10の位置及び向きに基づいて、プレイヤ5の注視位置を特定する。注視位置の特定は、様々な公知の方法により行われ得る。例えば、アイトラッキングセンサの検出信号に基づいて注視位置を特定してもよい。移行処理部21bは、例えば、注視位置が移行開始オブジェクト上にある時間(注視時間)を計測し、この注視時間が所定時間に達したときに、移行開始オブジェクトの選択が完了したと判断する。移行処理部21bは、移行オブジェクトの選択が完了したと判断すると第2モードであるVRモードを開始させる。 The transition processing unit 21b performs transition processing for transitioning from the first mode to the second mode. This transition processing includes displaying on the display 24 guidance prompting the user to attach the information processing device 20 to the mounting tool 11, and causing the display 24 to display a transition object that can be selected by the player's gaze. It's okay. After displaying this transitional object, the transition processing unit 21b receives a detection signal from the sensor unit 25 or other sensors, and determines whether or not the transitional object has been selected by gaze based on this detection signal. can be done. For this determination, the transition processing unit 21b calculates the position and orientation of the HMD 10 based on the detection signal from the sensor unit 25, and specifies the gaze position of the player 5 based on the calculated position and orientation of the HMD 10. do. Identification of the gaze position can be performed by various known methods. For example, the gaze position may be specified based on the detection signal of an eye tracking sensor. The transition processing unit 21b measures, for example, the time the gaze position is on the transition start object (gazing time), and determines that the selection of the transition start object has been completed when the gaze time reaches a predetermined time. When the migration processing unit 21b determines that the selection of the migration object is completed, it starts the VR mode, which is the second mode.

VRモード実行部21cは、ゲーム処理プログラムに従って、仮想空間に仮想キャラクタの画像を表示し、この仮想キャラクタとプレイヤ5との間でのインタラクションを実現する。VRモード実行部21cは、プロセッサ21によって一実施形態におけるゲーム処理プログラムが実行されることにより、シーン選択部21c1、検出部21c2、アクション特定部21c3、画像生成部21c4、及び中断判定部21c5として機能する。 The VR mode execution unit 21c displays an image of the virtual character in the virtual space according to the game processing program, and realizes interaction between the virtual character and the player 5. FIG. The VR mode execution unit 21c functions as a scene selection unit 21c1, a detection unit 21c2, an action identification unit 21c3, an image generation unit 21c4, and an interruption determination unit 21c5 by executing the game processing program in one embodiment by the processor 21. do.

シーン選択部21c1は、シナリオデータ28c及び必要に応じてこれ以外の情報に基づいて、実行すべきゲームシーンを選択する。シーン選択部21c1は、VRモードへのログイン後に、開始シーンを選択する。シーン選択部21c1は、開始シーンが実行された後に、HMD10による検出情報、ストレージ27に記憶されている情報(例えば、パラメータデータ28d)、、及び必要に応じてこれら以外の情報に基づいて、次に実行すべきシゲームーンを選択する。 The scene selection section 21c1 selects a game scene to be executed based on the scenario data 28c and other information if necessary. The scene selection unit 21c1 selects a start scene after logging into the VR mode. After the start scene is executed, the scene selection unit 21c1 performs the following operations based on information detected by the HMD 10, information (for example, parameter data 28d) stored in the storage 27, and other information as necessary. Select the gamemoon to run on.

検出部21c2は、HMD10のセンサユニット25の検出信号に基づいてHMD10の向き及び位置の少なくとも一方を特定するためのヘッドトラッキング情報を算出する。ヘッドトラッキング情報は、HMDのHMD10の向き及び位置の少なくとも一方を示す情報である。ヘッドトラッキング情報は、センサユニット25による検出情報に基づいて特定される。具体的にはヘッドトラッキング情報は、頭部に装着されているHMD10の位置及び向きが、三次元直交座標系での位置および各軸回りの角度として算出される。この三次元直交座標系は、例えば、前後方向に沿ったロール軸、上下方向に沿ったヨー軸、左右方向に沿ったピッチ軸から成る直交座標系である。検出部21c2は、特定されたHMD10の位置及び向きの少なくとも一方に応じた仮想空間を構成し、この仮想空間を表示するための画像情報をディスプレイ24に出力する。検出部21c2は、例えば、HMD10の位置及び向きの少なくとも一方に基づいて注視方向又は注視位置を算出することができる。 The detection unit 21 c 2 calculates head tracking information for identifying at least one of the orientation and position of the HMD 10 based on the detection signal from the sensor unit 25 of the HMD 10 . The head tracking information is information indicating at least one of the orientation and position of the HMD 10 of the HMD. Head tracking information is identified based on information detected by the sensor unit 25 . Specifically, in the head tracking information, the position and orientation of the HMD 10 worn on the head are calculated as the position and angle around each axis in a three-dimensional orthogonal coordinate system. This three-dimensional orthogonal coordinate system is, for example, an orthogonal coordinate system composed of a roll axis along the front-rear direction, a yaw axis along the vertical direction, and a pitch axis along the left-right direction. The detection unit 21 c 2 configures a virtual space corresponding to at least one of the specified position and orientation of the HMD 10 and outputs image information for displaying this virtual space to the display 24 . The detection unit 21c2 can calculate the gaze direction or the gaze position based on at least one of the position and orientation of the HMD 10, for example.

アクション特定部21c3は、ヘッドトラッキング情報に基づいてプレイヤ5のHMD10を用いたアクションを特定する。また、アクション特定部21c3は、特定されたプレイヤ5のアクションに応じて仮想キャラクタの仮想空間内での行動(リアクション)を決定してもよい。HMD10を装着したプレイヤ5によるアクションには、うなずく、首を横に振る、又はこれら以外の頭部の動きを伴う動作、並びに視線の動きが含まれる。仮想キャラクタにリアクションを行わせるためのプレイヤ5のアクションには、視線を動かすことが含まれてもよい。このような視線の動きは、センサユニット25に含まれるアイトラッキングセンサによって検出され得る。 The action specifying unit 21c3 specifies an action using the HMD 10 of the player 5 based on the head tracking information. Also, the action specifying unit 21c3 may determine the action (reaction) of the virtual character in the virtual space according to the specified action of the player 5. FIG. Actions by the player 5 wearing the HMD 10 include nodding, shaking of the head, and other actions involving head movements, as well as movements of the line of sight. The action of player 5 to cause the virtual character to react may include moving the line of sight. Such eye movement can be detected by an eye tracking sensor included in sensor unit 25 .

画像生成部21c4は、仮想空間全体のうち検出部21c2により特定された注視位置又は注視方向を中心として画角等により定められる描画領域の画像情報を生成する。このようにして生成された画像情報に基づいて、ディスプレイ24に仮想空間の描画領域の画像が表示される。画像情報の生成には、例えば、ストレージ27に記憶された画像データ28a、シナリオデータ28c、パラメータデータ28d、ゲーム進行データ28f、及びこれら以外のデータが用いられ得る。描画領域に仮想キャラクタが存在する場合には、画像生成部21c4は、アクション特定部21c3により特定された動作を行う仮想キャラクタを含む仮想空間の画像情報を生成し、このようにして生成された画像情報は、立体視画像としてディスプレイ24に出力される。これにより、ディスプレイ24には、プレイヤ5のアクションに応じて決定された行動を行う仮想キャラクタの画像を含む仮想空間の画像が表示される。画像生成部21c4は、この仮想キャラクタの行動及び仮想空間の描画領域に対応する音声情報を生成してもよい。当該音声情報はHMD10が有するスピーカに出力される。 The image generation unit 21c4 generates image information of a rendering area defined by an angle of view and the like centering on the gaze position or gaze direction specified by the detection unit 21c2 in the entire virtual space. An image of the drawing area of the virtual space is displayed on the display 24 based on the image information generated in this way. Image data 28a, scenario data 28c, parameter data 28d, game progress data 28f, and other data stored in the storage 27, for example, can be used to generate image information. When a virtual character exists in the drawing area, the image generating unit 21c4 generates image information of the virtual space including the virtual character performing the action specified by the action specifying unit 21c3, and displays the image thus created. The information is output to the display 24 as a stereoscopic image. As a result, the display 24 displays an image of the virtual space including an image of the virtual character performing the action determined according to the action of the player 5 . The image generator 21c4 may generate audio information corresponding to the action of the virtual character and the drawing area of the virtual space. The audio information is output to the speaker of the HMD 10 .

中断判定部21c5は、中断条件データ28eに基づき、中断条件が成立したか否かを判定する。例えば、中断条件が仮想空間内に設定された禁止領域が注視されたことである場合には、中断判定部21c5は、HMD10により検出された検出情報に基づいて仮想空間におけるプレイヤ5の注視位置を特定し、この注視位置が禁止領域内にあるか否かを判定する。プレイヤ5の注視位置が当該禁止領域内にあれば中断条件が成立したと判断される。 The discontinuation determination unit 21c5 determines whether or not the discontinuation condition is satisfied based on the discontinuation condition data 28e. For example, if the interruption condition is that a prohibited area set in the virtual space is watched, the interruption determination unit 21c5 determines the gaze position of the player 5 in the virtual space based on the detection information detected by the HMD 10. It is determined whether or not this gaze position is within the prohibited area. If the gaze position of the player 5 is within the prohibited area, it is determined that the interruption condition is satisfied.

中断条件が、プレイヤ5が仮想キャラクタに対して同じアクションを3回以上繰り返したことである場合には、中断判定部21c5は、ゲーム進行データ28fを参照して、直前2回のプレイヤ5の仮想キャラクタに対するアクションを特定し、この直前2回のアクションが互いに同じアクションであるか否かを判定する。この直前2回のアクションが同じでアクションである場合には、アクション特定部21c3において特定された最新のアクションが当該直前2回のアクションと同じであるか否かを判定する。この最新のアクションが当該直前2回のアクションと同じであれば中断条件が成立したと判断される。 If the interruption condition is that the player 5 has repeated the same action for the virtual character three times or more, the interruption determination unit 21c5 refers to the game progress data 28f and refers to the previous two virtual actions of the player 5. An action for the character is specified, and it is determined whether or not the immediately preceding two actions are the same action. If the two previous actions are the same and are actions, it is determined whether or not the latest action specified by the action specifying unit 21c3 is the same as the two previous actions. If this latest action is the same as the previous two actions, it is determined that the interruption condition is satisfied.

中断条件が、プレイヤ5が仮想キャラクタの頭部に対するアクションを3回以上行ったことである場合には、中断判定部21c5は、ゲーム進行データ28fを参照して、最新のアクションにより頭部へのアクションが3回目に達したか否かを判定する。この最新のアクションにより頭部へのアクションが3回目となる場合には中断条件が成立したと判断される。 If the interruption condition is that the player 5 has performed an action on the virtual character's head three times or more, the interruption determination unit 21c5 refers to the game progress data 28f and determines whether the latest action on the head has occurred. Determine whether the action has reached the third time. If the latest action is the third action to the head, it is determined that the interruption condition is met.

中断条件がプレイヤにより禁止アクションが行われたことである場合には、中断判定部21c5は、最新のアクションが禁止アクションに該当するか否かを判定する。禁止アクションには、所定の上限値以上の加速度で頭部を動かすことが含まれてもよい。禁止アクションが所定値以上の加速度で頭部を動かすことである場合には、中断判定部21c5は、センサユニット25によって検出された加速度が当該上限値以上であるか否かを判定し、当該加速度が上限値以上である場合には中断条件が成立したと判断し、当該加速度が上限値未満である場合には中断条件が成立しなかったと判断する。 If the interruption condition is that the player has performed a prohibited action, the interruption determination unit 21c5 determines whether or not the latest action corresponds to the prohibited action. Prohibited actions may include moving the head with an acceleration equal to or greater than a predetermined upper limit. When the prohibited action is to move the head with an acceleration equal to or greater than a predetermined value, the discontinuation determination unit 21c5 determines whether or not the acceleration detected by the sensor unit 25 is equal to or greater than the upper limit value. is equal to or greater than the upper limit value, it is determined that the interruption condition is established, and if the acceleration is less than the upper limit value, it is judged that the interruption condition is not established.

中断条件がパラメータデータ28dに含まれるパラメータが所定の閾値以上又は所定の閾値以下であることである場合には、中断判定部21c5は、パラメータデータ28dを参照して、中断条件が成立したか否かを判定する。このパラメータが仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータであり、中断条件が当該好感度を示すパラメータが所定の閾値以下であることである場合には、中断判定部21c5は、ストレージ27から好感度を示すパラメータを読み出し、読み出した好感度を示すパラメータが当該所定の閾値以下であるか否かを判定する。好感度を示すパラメータが当該所定の閾値以下である場合には中断条件が成立したと判断され、当該所定の閾値より大きい場合には中断条件が成立しなかったと判断される。 If the interruption condition is that the parameter included in the parameter data 28d is equal to or greater than a predetermined threshold value or equal to or less than a predetermined threshold value, the interruption determination unit 21c5 refers to the parameter data 28d to determine whether the interruption condition is met. determine whether If this parameter is a parameter representing the favorable impression of the virtual character toward the user character, and the interruption condition is that the parameter representing the favorable impression is equal to or less than a predetermined threshold value, the interruption determination unit 21c5 A parameter indicating sensitivity is read, and it is determined whether or not the read parameter indicating favorability is equal to or less than the predetermined threshold value. If the parameter indicating favorable impression is equal to or less than the predetermined threshold value, it is determined that the interruption condition is satisfied, and if it is greater than the predetermined threshold value, it is determined that the interruption condition is not satisfied.

中断判定部21c5は、ゲームが実行されている間の任意の時点で、中断条件が成立したか否かを判定することができる。一実施形態においては、中断判定部21c5は、プレイヤ5が仮想キャラクタに対するアクションを行ったことに応じて、中断条件が成立したか否かを判定することができる。 The discontinuation determination unit 21c5 can determine whether or not the discontinuation condition is satisfied at any time during the execution of the game. In one embodiment, the discontinuation determination unit 21c5 can determine whether or not the discontinuation condition is satisfied in response to the player 5 performing an action on the virtual character.

以上のように、VRモード実行部21cにより、ディスプレイ24には、仮想空間内で仮想キャラクタが動く画像が表示され、スピーカからは仮想キャラクタの動きに対応した音声が出力される。例えば、仮想キャラクタがプレイヤ5に話しかける場合には、仮想キャラクタの頭部及び口が動く画像がディスプレイ24に表示され、仮想キャラクタの発言に対応する音声がスピーカから出力される。一実施形態において、VRモード及びチャットモードの各々においてプレイヤ5とインタラクトする仮想キャラクタは、同じ仮想キャラクタである。例えば、VRモードに登場する仮想キャラクタとチャットモードに登場するキャラクタと同じ名前を有し、同一のキャラクタと認識できる程度の外観上の共通性を有する。ただし、VRモードにおいては仮想キャラクタの画像が立体視画像として表示されるのに対し、チャットモードにおいては仮想キャラクタの画像が立体視画像以外の画像として表示される点で、両モードにおける仮想キャラクタの画像は互いと相違している。しかし、このような表現形式の差異は、仮想キャラクタの同一性を妨げることはない。 As described above, the VR mode execution unit 21c displays an image in which the virtual character moves in the virtual space on the display 24, and outputs sound corresponding to the movement of the virtual character from the speaker. For example, when the virtual character speaks to the player 5, an image in which the head and mouth of the virtual character move is displayed on the display 24, and the sound corresponding to the speech of the virtual character is output from the speaker. In one embodiment, the virtual character that interacts with player 5 in each of VR mode and chat mode is the same virtual character. For example, a virtual character appearing in the VR mode and a character appearing in the chat mode have the same name, and have similarities in appearance to the extent that they can be recognized as the same character. However, while the virtual character image is displayed as a stereoscopic image in the VR mode, the virtual character image is displayed as an image other than the stereoscopic image in the chat mode. The images are different from each other. However, such a difference in representation does not prevent the identity of the virtual characters.

パラメータ管理部21dは、ゲームの進行に応じて、パラメータデータ28dを更新する。パラメータ管理部21dは、ゲームが第1モードで提供されている場合には、当該第1モードにおけるゲームの進行に応じてパラメータデータ28dを更新し、ゲームが第2モードで提供されている場合には、当該第2モードにおけるゲームの進行に応じてパラメータデータ28dを更新する。 The parameter management unit 21d updates the parameter data 28d as the game progresses. The parameter management unit 21d updates the parameter data 28d according to the progress of the game in the first mode when the game is provided in the first mode, and updates the parameter data 28d when the game is provided in the second mode. updates the parameter data 28d according to the progress of the game in the second mode.

パラメータデータ28dに仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータが含まれる場合には、パラメータ管理部21dは、第1モード及び第2モードにおけるプレイヤ5のアクションに応じて当該パラメータを増減させてもよい。第1モードがチャットモードである場合には、当該チャットモードにおいてプレイヤ5に提供されるメッセージの選択肢ごとに好感度の変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)が定められていてもよい。この場合、パラメータ管理部21dは、プレイヤ5によって選択された選択肢に応じて好感度の変化量又は変化率を特定し、この特定した好感度の変化量又は変化率に基づいてパラメータデータ28dを更新する。VRモードにおいては、プレイヤ5のアクションごとに好感度の変化量又は変化率が定められていてもよい。パラメータ管理部21dは、プレイヤ5のアクションに応じて好感度の変化量又は変化率を特定し、この特定した好感度の変化量又は変化率に基づいて、パラメータデータ28dを更新する。 When the parameter data 28d includes a parameter representing the virtual character's favorable impression of the user character, the parameter management unit 21d may increase or decrease the parameter according to the actions of the player 5 in the first mode and the second mode. good. When the first mode is the chat mode, the amount of change (for example, the amount of increase or decrease) or rate of change (rate of increase or decrease) of favorability for each choice of message provided to player 5 in the chat mode ) may be defined. In this case, the parameter management unit 21d specifies the amount of change or the rate of change in favorability according to the option selected by player 5, and updates the parameter data 28d based on the specified amount of change or rate of change in favorability. do. In the VR mode, the amount or rate of change in favorability may be determined for each action of player 5 . The parameter management unit 21d specifies the amount of change or rate of change in favorability according to the action of player 5, and updates the parameter data 28d based on the specified amount of change or rate of change in favorability.

第2モードがVRモードである場合には、当該VRモードにおいて、プレイヤ5のアクションについて禁止アクションが定められていてもよい。禁止アクションには、所定値以上の加速度で頭部を動かすこと、仮想空間内の禁止領域に視線を向けること、及び所定回数以上同じアクションを繰り返すことが含まれていてもよい。本明細書においては、プレイヤ5のアクションのうち、禁止アクション以外のアクションを正常アクションと呼ぶことがある。パラメータ管理部21dは、プレイヤ5によって禁止アクションが行われた場合には、好感度が減少するようにパラメータデータ28dを更新する。パラメータ管理部21dは、プレイヤ5によって正常アクションが取られた場合には、その正常アクションに応じて好感度が増加又は減少するようにパラメータデータ28dを更新する。 When the second mode is the VR mode, prohibited actions may be defined for actions of the player 5 in the VR mode. Prohibited actions may include moving the head with acceleration greater than or equal to a predetermined value, directing the line of sight to a prohibited area in the virtual space, and repeating the same action a predetermined number of times or more. In this specification, among actions of player 5, actions other than prohibited actions may be called normal actions. The parameter management unit 21d updates the parameter data 28d so as to decrease the favorability when the player 5 performs the prohibited action. When the player 5 takes a normal action, the parameter management unit 21d updates the parameter data 28d so that the favorable rating increases or decreases according to the normal action.

VRモードでゲームが処理されているときに、VRモードにおいて準備されている終了シーンを経ることなく、VRモードが異常終了することがある。例えば、HMD10の電源がなくなる、システムプログラムの機能によりゲーム処理プログラムが強制的に終了させられる、などの要因でVRモードは異常終了し得る。VRモードが異常終了された場合、パラメータ管理部21dは、好感度が減少するようにパラメータデータ28dを更新する。 When a game is being processed in VR mode, the VR mode may end abnormally without going through the end scene prepared in VR mode. For example, the VR mode may be terminated abnormally due to factors such as loss of power to the HMD 10, forced termination of the game processing program by a function of the system program, or the like. When the VR mode is terminated abnormally, the parameter management unit 21d updates the parameter data 28d so as to decrease the favorability.

VRモード実行部21cは、終了条件が満たされるとVRモードを終了するための終了処理を行う。終了条件は、例えば、VRモードの開始から所定時間(例えば、1分)経過したこと、終了対象操作が検知されたこと、VRモードで実行されているシナリオに含まれる最後のイベントが終了したこと、及びこれら以外の条件である。終了条件が満たされたときに行われる終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。 The VR mode execution unit 21c performs termination processing for terminating the VR mode when the termination condition is satisfied. The end conditions are, for example, that a predetermined time (for example, one minute) has elapsed since the start of the VR mode, that an end target operation has been detected, and that the last event included in the scenario being executed in the VR mode has ended. , and other conditions. The termination process performed when the termination condition is satisfied includes displaying guidance on the display 24 prompting the user to remove the information processing device 20 from the wearing tool 11, and displaying a login screen for the chat mode, which is the first mode. Displaying may be included.

次に、図6及び図7a~図7dを参照して、チャットモードにおけるチャット処理について説明する。図6は、一実施形態におけるチャットモードでの処理の流れを示すフロー図であり、図7aから図7dは、チャットモードにおける表示画像の例を示す。チャットモードの開始時においては、HMD10はプレイヤ5の頭部に装着されておらず、また、情報処理装置20は装着具11から取り外されていることが想定されている。 Next, chat processing in the chat mode will be described with reference to FIGS. 6 and 7a to 7d. FIG. 6 is a flow diagram showing the flow of processing in chat mode in one embodiment, and FIGS. 7a to 7d show examples of display images in chat mode. It is assumed that the HMD 10 is not attached to the head of the player 5 and the information processing device 20 is removed from the attachment 11 when the chat mode is started.

ゲーム処理システム1において、上述したように、ゲームは、チャットモードで開始される。ステップS11では、チャットモードへログインするためのログイン画面が情報処理装置20のディスプレイ24に表示される。プレイヤ5によってログイン処理がなされると、当該チャット処理は、ステップS12に移行する。 In the game processing system 1, the game is started in chat mode as described above. In step S<b>11 , a login screen for logging into the chat mode is displayed on the display 24 of the information processing device 20 . When the player 5 performs the login process, the chat process proceeds to step S12.

ステップS12においては、プレイヤ5と仮想キャラクタとの間でメッセージが交換され、これにより両者の間でチャットが行われる。具体的には、チャットモードへのログイン後に、プレイヤ5と仮想キャラクタとの間で行われるチャットを表示するためのチャット表示画像が生成され、当該チャット表示画像がディスプレイ24に表示される。図7aは、ディスプレイ24に表示されるチャット表示画像の一例であるチャット表示画像70を示す。チャット表示画像70は、プレイヤ5に対応するアイコン73と、仮想キャラクタに対応するアイコン74と、プレイヤ5のメッセージ75aと、仮想キャラクタのメッセージ76a,76bと、を含むチャット表示領域71を含む。また、チャット表示画像70は、チャット表示領域71の上部に配されたメニュー領域72を含む。仮想キャラクタのメッセージ76a,76bは、ゲーム処理プログラムに従って、ストレージ72に記憶されているチャットデータ28b及びこれ以外のデータに基づいて特定される。例えば、仮想キャラクタのメッセージは、ツリー構造で定義されているチャットデータ28bを参照して、ルートノードにあるメッセージから順に表示される。ノードの分岐点においては、分岐条件に応じたノードが選択され、当該選択されたノードに対応するメッセージが表示される。 In step S12, messages are exchanged between the player 5 and the virtual character, whereby a chat is conducted between them. Specifically, after logging into the chat mode, a chat display image is generated for displaying a chat between the player 5 and the virtual character, and the chat display image is displayed on the display 24 . FIG. 7a shows a chat display image 70, which is an example of a chat display image displayed on the display 24. FIG. The chat display image 70 includes a chat display area 71 including an icon 73 corresponding to the player 5, an icon 74 corresponding to the virtual character, a message 75a from the player 5, and messages 76a and 76b from the virtual character. The chat display image 70 also includes a menu area 72 arranged above the chat display area 71 . The virtual character messages 76a and 76b are specified based on the chat data 28b and other data stored in the storage 72 according to the game processing program. For example, virtual character messages are displayed in order from the message at the root node with reference to the chat data 28b defined in the tree structure. At the node branch point, a node is selected according to the branch condition, and a message corresponding to the selected node is displayed.

ステップS12においては、プレイヤ5によって選択された選択肢に応じて、プレイヤ5について設定されているパラメータが増減されてもよい。パラメータの増減量又は増減率は、上記のように、メッセージの選択肢ごとに定められているパラメータの変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)に基づいて定められる。パラメータの変化量又は変化率が特定されると、この特定された好感度の変化量又は変化率に基づいて、パラメータデータ28dが更新される。 In step S<b>12 , the parameter set for player 5 may be increased or decreased according to the option selected by player 5 . The parameter increase/decrease amount or increase/decrease rate is determined based on the parameter change amount (e.g., increase or decrease amount) or change rate (increase rate or decrease rate) determined for each message option as described above. be done. When the amount of change or the rate of change of the parameter is specified, the parameter data 28d is updated based on the specified amount of change or the rate of change of the favorability rating.

図7aのチャット表示画像70は、チャット表示領域71の下部に、プレイヤ5のメッセージの選択肢77を示す表示を含んでいる。プレイヤ5は、表示されている選択肢77のうちの一つを選択することができる。この選択は、例えば、ディスプレイ24において選択したい選択肢が表示されている領域を指で接触することで行われる。この選択がなされると、図7bに示すように、選択された選択肢に対応するメッセージ75bが、プレイヤ5のメッセージとしてチャット表示領域71に新たに表示される。 Chat display image 70 of FIG. 7a includes a display at the bottom of chat display area 71 showing message options 77 for player 5 . Player 5 can select one of the displayed options 77 . This selection is made, for example, by touching with a finger an area where the desired option is displayed on the display 24 . When this selection is made, a message 75b corresponding to the selected option is newly displayed in the chat display area 71 as a message for the player 5, as shown in FIG. 7b.

図7cに示すように、チャットの過程で、第2モードであるVRモードでの設定の選択を促すメッセージ76c,76dが仮想キャラクタのメッセージとして表示されてもよい。メッセージ76cは、VRモードにおけるシナリオの選択を促すメッセージであり、メッセージ76dは、VRモードで仮想キャラクタが使用するアイテム(例えば、仮想キャラクタがVRモードの仮想空間内で着用する服)の選択を促すメッセージである。つまり、第2モードにおける設定には、VRモードにおけるシナリオ、及び、VRモードで仮想キャラクタが使用するアイテムが含まれる。シナリオの選択を促すメッセージ76cが表示された後には、ディスプレイ24にシナリオの選択肢が表示される。例えば、第1シナリオ~第5シナリオが選択肢として表示される。プレイヤ5は、この選択肢の中から好みのシナリオを選択することができる。アイテムの選択を促すメッセージ76dが表示された後には、ディスプレイ24にアイテムの選択肢が表示される。プレイヤ5は、この選択肢の中から好みのアイテムを選択することができる。チャットの過程で、第2モードへの移行を促すメッセージが仮想キャラクタのメッセージとして表示されてもよい。 As shown in FIG. 7c, during the chat process, messages 76c and 76d prompting selection of settings in the second mode, VR mode, may be displayed as virtual character messages. The message 76c prompts the user to select a scenario in the VR mode, and the message 76d prompts the user to select items used by the virtual character in the VR mode (for example, clothes worn by the virtual character in the virtual space of the VR mode). is the message. That is, the settings in the second mode include the scenario in the VR mode and items used by the virtual character in the VR mode. After the message 76c prompting the user to select a scenario is displayed, the display 24 displays scenario options. For example, scenarios 1 to 5 are displayed as options. Player 5 can select a favorite scenario from these options. After the message 76d prompting the user to select an item is displayed, the display 24 displays item options. Player 5 can select a favorite item from these options. During the chat process, a message prompting the transition to the second mode may be displayed as a message of the virtual character.

ステップS13では、第1モードから第2モードへのモード移行条件が成立したか否かが判定される。第1モードから第2モードへのモード移行条件として、例えば、チャットモード開始から所定時間(例えば、1分)が経過したことという条件が用いられる。チャットモード開始からの経過時間は、例えばシステムクロックを用いて計測される。モード移行条件が成立したと判断されるまで、ステップS12に戻ってチャット処理が継続される。他方、モード移行条件が成立したと判断されると、チャット処理は、ステップS14に移行する。 In step S13, it is determined whether or not the condition for mode transition from the first mode to the second mode is satisfied. As a mode transition condition from the first mode to the second mode, for example, a condition that a predetermined time (for example, one minute) has passed since the start of the chat mode is used. Elapsed time from the start of the chat mode is measured using, for example, the system clock. The process returns to step S12 and the chat process continues until it is determined that the mode transition condition is met. On the other hand, if it is determined that the mode transition condition is satisfied, the chat process proceeds to step S14.

ステップS14においては、移行開始オブジェクト78がディスプレイ24に表示され、チャット処理は、ステップS15に進む。図7dに示されているように、移行開始オブジェクト78は、例えばチャット領域71内に、外縁が円形のオブジェクトとして表示される。ステップS15において、移行開始オブジェクト78の選択が確認されると、チャット処理は、ステップS16に進む。他方、移行開始オブジェクト78が表示されてから所定時間(例えば、10秒)経過しても移行開始オブジェクト78の選択が確認されない場合には、移行開始オブジェクトの選択がなされなかったと判定され、チャット処理が終了する。移行開始オブジェクトの選択がなされなかったと判定されたときに、ステップS12に戻り、チャットを再開するための処理が行われてもよい。移行開始オブジェクト78の選択がなされたか否かは、タッチパネル24bへの操作に応じて判断されてもよい。例えば、移行開始オブジェクト78の表示領域と重複する位置へのタッチ操作(例えば、タップ操作)がなされたことがタッチパネル24bによる検出信号から検出されたときに、当該移行開始オブジェクト78が選択されたと判断される。移行開始オブジェクト78の選択は、非接触操作によりなされてもよい。 In step S14, the transition start object 78 is displayed on the display 24, and the chat process proceeds to step S15. As shown in FIG. 7d, the transition start object 78 is displayed, for example, in the chat area 71 as an object with a circular outer edge. When the selection of the transition start object 78 is confirmed in step S15, the chat process proceeds to step S16. On the other hand, if the selection of the transition start object 78 is not confirmed even after a predetermined time (for example, 10 seconds) has passed since the transition start object 78 was displayed, it is determined that the transition start object has not been selected, and the chat process is performed. ends. When it is determined that the transition start object has not been selected, the process may return to step S12 and perform processing for resuming the chat. Whether or not the transition start object 78 has been selected may be determined according to the operation on the touch panel 24b. For example, when it is detected from the detection signal from the touch panel 24b that a touch operation (for example, a tap operation) has been performed on a position overlapping the display area of the transition start object 78, it is determined that the transition start object 78 has been selected. be done. Selection of the transition start object 78 may be made by non-contact operation.

ステップS16では、第2モードであるVRモードへの移行処理が開始される。移行処理が開始されると、チャット処理は終了する。 In step S16, processing for shifting to the VR mode, which is the second mode, is started. Once the transition process is started, the chat process ends.

以上のチャット処理は、例えば、チャットモード実行部21aにより実行される。チャットモード実行部21aは、単独で又は他の機能と適宜協働して、上記のチャット処理を実行することができる。チャット処理の実行に際しては、ストレージ27に格納されているデータ以外にも、必要に応じて、他のストレージに格納されているデータ、各種センサによって検出された検出情報、またはこれら以外のデータが用いられ得る。 The chat process described above is executed by, for example, the chat mode execution unit 21a. The chat mode execution unit 21a can execute the above-described chat processing independently or appropriately in cooperation with other functions. When executing the chat process, in addition to the data stored in the storage 27, data stored in other storages, detection information detected by various sensors, or data other than these are used as necessary. can be

次に、第1モードであるチャットモードから第2モードであるVRモードへのモード移行処理について、図8及び図9a~図9bを参照して説明する。図8は、一実施形態におけるモード移行処理の流れを示すフロー図である。 Next, mode transition processing from the chat mode, which is the first mode, to the VR mode, which is the second mode, will be described with reference to FIGS. 8 and 9a to 9b. FIG. 8 is a flow diagram showing the flow of mode transition processing in one embodiment.

移行処理が開始されると、ステップ31において、HMD10を装着するように促すガイダンスが、情報処理装置20のディスプレイ24に表示される。当該ガイダンスを含むガイダンス表示画像の例であるガイダンス表示画像80が図9aに示されている。ガイダンス表示画像80には、情報処理装置20を装着具11に取り付けることを促すガイダンス、HMD10を頭部に装着するように促すガイダンス、及びこれら以外のVRモードを開始するために必要な各種のガイダンスを含むことができる。図9aに示されているガイダンス表示画像80には、情報処理装置20を装着具11に取り付けることを促すガイダンス81が含まれている。このガイダンスには、情報処理装置20の装着具11に対する取付方法に関するインストラクションが含まれてもよい。上記ガイダンスの表示後に所定時間が経過すると、モード移行処理はステップS32へ進む。 When the migration process is started, in step 31 , guidance is displayed on the display 24 of the information processing device 20 to prompt the user to wear the HMD 10 . A guidance display image 80, which is an example of a guidance display image including the guidance, is shown in FIG. 9a. Guidance display image 80 includes guidance prompting to attach information processing device 20 to mounting tool 11, guidance prompting to mount HMD 10 on the head, and various other guidance necessary to start the VR mode. can include Guidance display image 80 shown in FIG. 9 a includes guidance 81 prompting attachment of information processing device 20 to wearing tool 11 . This guidance may include instructions on how to attach the information processing device 20 to the attachment 11 . When a predetermined period of time elapses after the guidance is displayed, the mode transition process proceeds to step S32.

ステップS32では、移行オブジェクトがディスプレイ24に表示される。移行オブジェクトを含む移行処理画像の例が図9bに示されている。図9bに示されている移行処理画像85には、移行オブジェクト86が含まれている。移行処理画像85は、立体視画像で表示されてもよい。一実施形態においては、モード移行処理の開始時又はモード移行処理開始後の所定のタイミングにおいて、ディスプレイ24へ表示される画像が、立体視画像以外の画像から、立体視画像に切り替えられる。例えば、チャットモードにおいて表示される画像は立体視画像以外の画像として表示され、移行処理開始以後に表示される画像は立体視画像として表示される。 At step S32, the transition object is displayed on the display 24. FIG. An example of a transition processed image containing transition objects is shown in FIG. 9b. A transition object 86 is included in the transition processed image 85 shown in FIG. 9b. The transition processed image 85 may be displayed as a stereoscopic image. In one embodiment, the image displayed on the display 24 is switched from a non-stereoscopic image to a stereoscopic image at the start of the mode transition process or at a predetermined timing after the start of the mode transition process. For example, an image displayed in the chat mode is displayed as an image other than a stereoscopic image, and an image displayed after the transition process is started is displayed as a stereoscopic image.

次に、ステップS33においては、移行オブジェクト86の選択が完了したか否かが判定される。移行オブジェクト86は、例えば、プレイヤ5が所定時間継続して注視することにより選択される。したがって、移行オブジェクト86を選択するためには、プレイヤ5はHMD10を装着していることが前提となる。一実施形態においては、移行オブジェクト86の選択が完了したか否かは、HMD10による検出信号に基づいて算出される注視位置が移行オブジェクト86上に所定時間以上あるか否かによって判定される。注視位置は、上記のように、HMD10に備えられたセンサユニット25によって検出された情報に基づいて算出され得る。上記の判定は、注視位置が移行オブジェクト86上に存在する注視時間をシステムクロックを用いて計測し、この計測された注視時間が所定時間に達したか否かによって判定され得る。例えば、注視時間が所定時間に達した場合には移行オブジェクト86の選択が完了したと判定され、モード移行処理はステップS34に進む。他方、移行オブジェクト86が表示されてから所定時間が経過しても移行オブジェクト86の選択が完了したことが検知されない場合には、移行オブジェクト86の選択は完了しなかったと判定され、モード移行処理はステップS35に進む。 Next, in step S33, it is determined whether or not the selection of the transition object 86 has been completed. The transition object 86 is selected, for example, by the player 5 continuing to gaze at it for a predetermined period of time. Therefore, in order to select the transitional object 86, it is a prerequisite that the player 5 is wearing the HMD 10 . In one embodiment, whether or not the transitional object 86 has been selected is determined by whether or not the gaze position calculated based on the detection signal from the HMD 10 remains on the transitional object 86 for a predetermined period of time or longer. The gaze position can be calculated based on information detected by the sensor unit 25 provided in the HMD 10, as described above. The above determination can be made by measuring the gaze time during which the gaze position exists on the transition object 86 using the system clock, and determining whether or not the measured gaze time has reached a predetermined time. For example, when the fixation time reaches the predetermined time, it is determined that the selection of the transition object 86 has been completed, and the mode transition process proceeds to step S34. On the other hand, if it is not detected that the selection of the transition object 86 has been completed even after the predetermined time has passed since the transition object 86 was displayed, it is determined that the selection of the transition object 86 has not been completed, and the mode transition processing is executed. The process proceeds to step S35.

ステップS34では、第2モードであるVRモードが開始される。VRモードにおける具体的な処理については後述される。 In step S34, the VR mode, which is the second mode, is started. Specific processing in the VR mode will be described later.

ステップS35では、VRモードへの移行が選択されなかったため、チャットモードへ復帰するための処理が開始される。チャットモードへの復帰処理が完了すると、チャットモードが再開される。この再開されたチャットモードにおいては、VRモードへの移行がなされなかったことに関連する仮想キャラクタからのメッセージが表示されてもよい。 In step S35, since transition to the VR mode was not selected, processing for returning to the chat mode is started. When the return processing to the chat mode is completed, the chat mode is resumed. In this resumed chat mode, a message from the virtual character relating to the failure to transition to VR mode may be displayed.

以上のモード移行処理は、例えば、移行処理部21bにより実行される。移行処理部21bは、単独で又は他の機能と適宜協働して、上記のモード移行処理を実行することができる。 The above mode transition processing is executed by the transition processing unit 21b, for example. The transition processing unit 21b can execute the above-described mode transition processing independently or appropriately in cooperation with other functions.

次に、図10から図12を参照して、VRモードにおけるVR処理について説明する。図10は、一実施形態におけるVRモードでのVR処理の流れを示すフロー図であり、図11は、VRモードにおける表示画像の例を示し、図12は、VRモードで実行されているシーンにおける仮想キャラクタのアクションの流れを模式的に示す。上記のように、モード移行処理において移行オブジェクト86を選択するために、プレイヤ5はHMD10を装着している。VRモードの開始時においては、HMD10はプレイヤ5の頭部に装着されていることが想定されている。以下では、第1シナリオが選択されていることを前提にVR処理の説明を行う。VR処理においては、適宜、パラメータデータ28dが参照される。一実施形態において、VR処理の開始時におけるパラメータデータ28dに含まれる各パラメータの値は、チャット処理の終了時におけるパラメータデータ28dに含まれる各パラメータの値に等しい。つまり、VR処理においては、チャット処理において更新されたパラメータデータ28dが引き継がれる。 Next, VR processing in the VR mode will be described with reference to FIGS. 10 to 12. FIG. FIG. 10 is a flow diagram showing the flow of VR processing in VR mode in one embodiment, FIG. 11 shows an example of a display image in VR mode, and FIG. 4 schematically shows the flow of actions of a virtual character. As described above, the player 5 wears the HMD 10 in order to select the transition object 86 in the mode transition process. It is assumed that the HMD 10 is worn on the head of the player 5 at the start of the VR mode. The VR processing will be described below on the assumption that the first scenario is selected. In the VR processing, the parameter data 28d is appropriately referred to. In one embodiment, the value of each parameter included in the parameter data 28d at the start of the VR process is equal to the value of each parameter included in the parameter data 28d at the end of the chat process. That is, in the VR process, the parameter data 28d updated in the chat process are inherited.

VRモードが開始されると、ステップS41において、開始シーンが実行される。具体的には、開始シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。開始シーンにおいては、仮想空間において仮想キャラクタが所定のアクションをおこなっても良い。 When the VR mode is started, the start scene is executed in step S41. Specifically, image information of the virtual space is generated according to the start scene, and an image corresponding to the image information is output to the display 24 . In the start scene, the virtual character may perform a predetermined action in the virtual space.

図11に、ディスプレイ24に表示された開始シーンのVR画像の例が示されている。図11に示されているVR画像90は、仮想キャラクタを示す仮想キャラクタ画像91、背景に相当するオブジェクトを示す画像92a~92c、及びこれら以外の各種オブジェクトを示す画像を含んでいる。VR画像90は、第1シナリオ用の仮想空間の所定の範囲に対応する画像である。VR画像90に対応する仮想空間の範囲は、HMD10の向きに基づいて仮想空間における注視位置を算出し、この算出された注視位置を中心として例えば画角により定められる範囲とすることができる。画像情報の生成には、画像データ28aが用いられる。VR画像90及びこれら以外のVRモードにおいて表示される画像は、立体視画像として表示される。 FIG. 11 shows an example of the VR image of the starting scene displayed on the display 24. As shown in FIG. A VR image 90 shown in FIG. 11 includes a virtual character image 91 representing a virtual character, images 92a to 92c representing objects corresponding to the background, and images representing various other objects. The VR image 90 is an image corresponding to a predetermined range of the virtual space for the first scenario. The range of the virtual space corresponding to the VR image 90 can be defined by, for example, the angle of view, with the gaze position in the virtual space calculated based on the orientation of the HMD 10 and the calculated gaze position as the center. The image data 28a is used for generating the image information. The VR image 90 and other images displayed in the VR mode are displayed as stereoscopic images.

仮想キャラクタ画像91は、例えば開始シーンデータA1により特定されるアクションを仮想空間内で行うことができる。例えば、仮想キャラクタ画像91のアクションには、プレイヤ5に向かって(仮想空間内のプレイヤ5の位置に向かって)話しかける、仮想空間内を移動する、仮想空間内に配置されたオブジェクトを手に取る、及びこれら以外の仮想空間内における様々なアクションが含まれる。 The virtual character image 91 can perform, for example, an action specified by the start scene data A1 within the virtual space. For example, the actions of the virtual character image 91 include talking to the player 5 (toward the position of the player 5 in the virtual space), moving in the virtual space, and picking up an object placed in the virtual space. , and various other actions in the virtual space.

開始シーンにおいて仮想キャラクタが行う一連のアクションについて、図12を参照して説明する。図12は、VRモードで実行されるシーンにおける仮想キャラクタのアクションの流れを模式的に示す図である。図12では、開始シーンにおけるアクションの流れが例示されている。図示のように、開始シーンにおいて、仮想キャラクタは、まずアクションA11に対応するアクションを行う。アクションA11は、仮想キャラクタが開始シーンにおいて行うことができるアクションに対応する。 A series of actions performed by the virtual character in the start scene will be described with reference to FIG. FIG. 12 is a diagram schematically showing the action flow of a virtual character in a scene executed in VR mode. FIG. 12 illustrates the flow of actions in the start scene. As shown, in the start scene, the virtual character first performs an action corresponding to action A11. Action A11 corresponds to an action that the virtual character can perform in the starting scene.

アクションA11は、分岐可能なアクションとして規定されている。具体的には、アクションA11は、アクションA21、アクションA22、及びアクションA23に分岐している。例えば、アクションA11には、アクションA21へ移行するための第1移行条件、アクションA22へ移行するための第2移行条件、及びアクションA23へ移行するための第3移行条件が設定されており、第1移行条件が成立すると仮想キャラクタのアクションはアクションA21へ移行し、第2移行条件が成立すると仮想キャラクタのアクションはアクションA22へ移行し、第3移行条件が成立すると仮想キャラクタのアクションはアクションA23へ移行する。第1移行条件、第2移行条件、及び第3移行条件のうちの少なくとも一つは、仮想キャラクタのユーザキャラクタに対する好感度が所定の閾値以上であることであってもよい。 Action A11 is defined as a branchable action. Specifically, action A11 branches into action A21, action A22, and action A23. For example, for action A11, a first transition condition for transitioning to action A21, a second transition condition for transitioning to action A22, and a third transition condition for transitioning to action A23 are set. When the first transition condition is satisfied, the action of the virtual character shifts to action A21, when the second transition condition is satisfied, the virtual character's action shifts to action A22, and when the third transition condition is satisfied, the virtual character's action shifts to action A23. Transition. At least one of the first transition condition, the second transition condition, and the third transition condition may be that the likability of the virtual character to the user character is equal to or greater than a predetermined threshold.

第1移行条件、第2移行条件、及び第3移行条件として様々な条件が設定され得る。例えば、第1移行条件、第2移行条件、及び第3移行条件は、アクションA11として規定されていたアクションが終了したこと、プレイヤ5が仮想キャラクタに対して所定のアクション(例えば、仮想キャラクタの所定部位の注視)を行ったこと、プレイヤ5が仮想キャラクタからの質問に回答すること、を含んでもよい。第1移行条件、第2移行条件、及び第3移行条件は、互いに異なっている。プレイヤ5は、うなずく動き、首を横に振る動き、又はこれら以外の頭部の動きによって、仮想キャラクタからの質問に回答することができる。具体的には、仮想キャラクタから質問がなされたときに、プレイヤ5によって頭部の動きによるアクションがなされると、HMD10のセンサユニット25によって当該頭部の動きが検出され、この検出された頭部の動きに応じたプレイヤ5の回答が特定される。例えば、うなずく動きが検出されたときにはプレイヤ5は肯定的な回答を行ったと判断され、首を横に振る動きが検出されたときにはプレイヤ5は否定的な回答を行ったと判断されてもよい。また、仮想キャラクタからの質問の後にプレイヤ5の頭部の動きが所定時間検出されなかった場合、プレイヤ5は仮想キャラクタからの質問に対して回答しなかったと判断されてもよい。プレイヤ5のアクションは、アクション特定部21c3の機能により特定されてもよい。 Various conditions can be set as the first transition condition, the second transition condition, and the third transition condition. For example, the first transition condition, the second transition condition, and the third transition condition are that the action defined as the action A11 is completed, and that the player 5 performs a predetermined action on the virtual character (for example, a predetermined action of the virtual character). part gaze), and the player 5 answering questions from the virtual character. The first transition condition, the second transition condition, and the third transition condition are different from each other. The player 5 can answer questions from the virtual character by nodding, shaking the head, or other head movements. Specifically, when the virtual character asks a question and the player 5 makes an action by moving the head, the sensor unit 25 of the HMD 10 detects the movement of the head, and the detected head movement is detected by the sensor unit 25 of the HMD 10. Player 5's answer corresponding to the movement of is specified. For example, it may be determined that the player 5 has answered affirmatively when a nodding motion is detected, and that the player 5 has given a negative response when a sideways shaking motion is detected. Further, if no movement of the head of the player 5 is detected for a predetermined period of time after the question from the virtual character, it may be determined that the player 5 has not answered the question from the virtual character. The action of the player 5 may be specified by the function of the action specifying section 21c3.

アクションA21は、さらにアクションA31及びアクションA32に分岐している。アクションA21において所定の移行条件が成立した場合に、当該成立した移行条件に応じてアクションA21からアクションA31又はアクションA32への移行が行われる。アクションA22の下流には、アクションA33のみが対応付けられている。つまり、アクションA22は分岐していない。この場合、アクションA22が終了すると、アクションA33が開始される。アクションA23の下流には、より下層のアクションは設定されていない。図12に示されているアクションの構造は一例であり、各シーンで実現したいストーリーに応じて、当該シーンに含まれるアクションの種類や数及びそれらのアクションの構造は適宜設定され得る。 Action A21 branches further into action A31 and action A32. When a predetermined transition condition is satisfied in action A21, transition from action A21 to action A31 or action A32 is performed according to the satisfied transition condition. Only action A33 is associated downstream of action A22. That is, action A22 is not branched. In this case, when action A22 ends, action A33 is started. No lower layer action is set downstream of the action A23. The structure of actions shown in FIG. 12 is an example, and the types and number of actions included in each scene and the structure of those actions can be appropriately set according to the story to be realized in each scene.

アクションA11,A21~A23,A31~A33の各々は、仮想キャラクタがプレイヤ5に所定の話題について話しかけるアクションであってもよい。アクションA11,A21~A23,A31~A33における仮想キャラクタのアクションは、開始シーンデータA1に基づいて定められ得る。開始シーンデータA1には、アクションA11,A21~A23,A31~A33の各々における仮想キャラクタのアクションを規定するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータが含まれている。例えば、アクションA11は、開始シーンデータA1のうち、アクションA11における仮想キャラクタのアクションを規定するデータ及びアクションA11において仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータを含んでいる。アクションA11は、開始シーンデータA1のうち、アクションA11に関するデータに基づいて実行される。 Each of the actions A11, A21 to A23, A31 to A33 may be an action in which the virtual character talks to the player 5 about a predetermined topic. The actions of the virtual character in the actions A11, A21-A23, A31-A33 can be determined based on the starting scene data A1. The starting scene data A1 includes data defining actions of the virtual character in each of the actions A11, A21 to A23, and A31 to A33, and data on actions that the player can take with respect to the virtual character in the starting scene. there is For example, the action A11 includes data defining the action of the virtual character in the action A11 and data regarding actions that the player can take with respect to the virtual character in the action A11, among the start scene data A1. Action A11 is executed based on data relating to action A11 in start scene data A1.

開始シーンが、アクションA11→アクションA21→アクションA31の順で実行される場合には、仮想キャラクタは、アクションA11においてある話題について会話を行うためのアクションを行い、次にアクションA21において別の話題について会話を行うためのアクションを行い、次にアクションA31においてさらに別の話題について会話を行うためのアクションを行う。一つのアクションから他のアクションへの移行は、プレイヤ5に移行が感知されないように、シームレスに行われてもよい。 When the start scene is executed in the order of action A11→action A21→action A31, the virtual character performs an action to have a conversation about a certain topic in action A11, and then talks about another topic in action A21. An action for having a conversation is performed, and then an action for having a conversation on another topic is performed in action A31. The transition from one action to another may be seamless such that the transition is imperceptible to player 5 .

アクションA11,A21~A23,A31~A33の各々が実行されている間、プレイヤ5は、仮想キャラクタの所定の部位を注視すること又はこれ以外の方法により、当該仮想キャラクタに対してアクションを行うことができる。このようなプレイヤ5の仮想キャラクタへのアクションに対して、仮想キャラクタは、開始シーンデータA1に基づいて定められるリアクションを取ることができる。このように、アクションA11,A21~A23,A31~A33の各々は、プレイヤ5のアクション及び開始シーンデータA1に基づいて実行される。 While each of the actions A11, A21 to A23, A31 to A33 is being executed, the player 5 performs an action on the virtual character by gazing at a predetermined part of the virtual character or by other methods. can be done. The virtual character can take a reaction determined based on the start scene data A1 in response to such an action of the player 5 on the virtual character. Thus, each of the actions A11, A21-A23, A31-A33 is executed based on the actions of the player 5 and the starting scene data A1.

アクションA11,A21~A23,A31~A33の各々の実行と並行して、中断判定も行われる。アクションA11,A21~A23,A31~A33の実行中におけるプレイヤ5のアクションにより、中断条件が満たされることがある。アクションA11,A21~A23,A31~A33のうちのいずれかのアクションの実行中に中断条件が満たされていると判定された場合には、その実行中のアクションを中断するための中断処理A41が行われる。この中断条件が満たされたか否かの判定は、例えば、中断判定部21c5によって行われる。 In parallel with execution of each of the actions A11, A21-A23, A31-A33, suspension determination is also made. An action of player 5 during execution of actions A11, A21 to A23, and A31 to A33 may satisfy the interruption condition. If it is determined that the interruption condition is satisfied during the execution of any one of the actions A11, A21 to A23, A31 to A33, an interruption process A41 for interrupting the action being executed is performed. done. Determination of whether or not this suspension condition is satisfied is performed by, for example, the suspension determination unit 21c5.

アクションA11,A21~A23,A31~A33の各々は、メインアクションと、割込アクションと、復帰アクションと、を有する。図12に示されている例では、アクションA21が、メインアクションA211と、割込アクションA212と、復帰アクションA213と、を有している。アクションA21以外の各アクションも、同様に、メインアクションと、割込アクションと、復帰アクションと、含み得る。メインアクション、割込アクション、及び復帰アクションについて、以下では、アクションA21を例に説明する。 Each of the actions A11, A21-A23, A31-A33 has a main action, an interrupt action and a return action. In the example shown in FIG. 12, action A21 has main action A211, interrupt action A212, and return action A213. Each action other than action A21 can similarly include a main action, an interrupt action, and a return action. The main action, interrupt action, and return action will be described below using action A21 as an example.

メインアクションA211は、ゲームの進行の基調となる仮想キャラクタの一連のアクションである。例えば、開始シーンが、プレイヤ5と仮想キャラクタとの間での会話を行うシーンである場合、このメインアクションA211は仮想キャラクタがプレイヤ5に対して一連の会話を行うというアクションである。 The main action A211 is a series of actions of the virtual character that form the basis of the progress of the game. For example, if the start scene is a scene in which the player 5 and the virtual character have a conversation, this main action A211 is an action in which the virtual character conducts a series of conversations with the player 5. FIG.

割込アクションA212は、メインアクションA211の実行中にプレイヤ5が仮想キャラクタに対して特定アクションを行った場合に、当該メインアクションA211を一時中断して実行される仮想キャラクタのアクションである。本明細書においては、メインアクションの実行中にプレイヤ5によって行われるアクションを特定アクションと呼ぶことがある。割込アクションA212は、プレイヤ5の特定アクションに対するリアクションであってもよい。例えば、特定アクションが仮想キャラクタの頭部に触れるというアクションである場合には、割込アクションA212は、それに対して驚いた動きをするというアクションであってもよい。特定アクションが行われたことによって中断条件が成立する場合には、割込アクションA212ではなく中断処理A41が行われる。 The interrupt action A212 is a virtual character action that is executed by temporarily interrupting the main action A211 when the player 5 performs a specific action on the virtual character during execution of the main action A211. In this specification, an action performed by player 5 during execution of a main action is sometimes called a specific action. Interrupting action A212 may be a reaction to a specific action of player 5 . For example, if the specific action is an action of touching the virtual character's head, the interrupt action A212 may be an action of making a startling move. When the interruption condition is satisfied by performing the specific action, the interruption process A41 is performed instead of the interruption action A212.

割込アクションA212が実行された後は、復帰アクションA213が行われ、その後にメインアクションA211に復帰する。復帰アクションA213は、メインアクションA211の会話へ自然に復帰するためのアクションである。割込アクションA212によってメインアクションA211の実行が一時中断されているため、割込アクションA212からメインアクションA211へ直接復帰するのではなく、復帰アクションA213を介在させることでメインアクションA211へより自然に復帰させることができる。
復帰アクションA213は、例えば、仮想キャラクタが「それでね」といった口語の接続詞を話すことである。メインアクションA211へ復帰する直前に口語の接続詞を話すことにより、メインアクションA211における会話へ自然に復帰することができる。メインアクションA211は、特定アクションにより中断された時点から再開される。
After the interrupt action A212 is executed, the return action A213 is performed, and then the main action A211 is returned to. The return action A213 is an action for naturally returning to the conversation of the main action A211. Since the execution of the main action A211 is temporarily interrupted by the interrupt action A212, instead of directly returning to the main action A211 from the interrupt action A212, the return action A213 is interposed to return to the main action A211 more naturally. can be made
The return action A213 is, for example, the virtual character speaking a colloquial conjunction such as "Sode ne". By speaking a colloquial conjunction just before returning to the main action A211, it is possible to naturally return to the conversation in the main action A211. The main action A211 is resumed from the time when it was interrupted by the specific action.

上記のように、アクションA11,A21~A23,A31~A33の各々の実行と並行して中断判定も行われ、これらのアクションのうちのいずれかのアクションの実行中に中断条件が満たされていると判定された場合には、その実行中のアクションを中断するための中断処理A41が行われる。中断処理A41においては、実行中のメインアクションが中断される。また、中断処理A41においては、別のアクション、別のシーン、又は別のモードへ移行することをプレイヤ5に了知させるために、シーン間の移行時に表示されるシーン移行画面が表示されてもよい。シーン移行画面については後述する。 As described above, the suspension determination is also made in parallel with the execution of each of the actions A11, A21 to A23, A31 to A33, and the suspension condition is satisfied during the execution of any one of these actions. If it is determined that the action is being executed, an interruption process A41 is performed to interrupt the action being executed. In the interruption process A41, the main action being executed is interrupted. Further, in the interruption processing A41, in order to let the player 5 know that the transition to another action, another scene, or another mode is to be performed, even if a scene transition screen displayed at the time of transition between scenes is displayed, good. The scene transition screen will be described later.

一実施形態において、アクションA21について中断処理A41がなされた後に、中断されたアクションA21の下流にあるアクション(例えば、アクションA31)からゲームが再開されてもよい。例えば、アクションA21を中断する中断処理A41においてシーン移行画面が表示された後に、アクションA31が実行されてもよい。これにより、中断条件が満たされたアクションA21は、中断条件が満たされたと判定され中断処理A41が行われた後スキップされ、下流にある他のアクション(例えば、アクションA31)が開始される。 In one embodiment, after the action A21 is interrupted A41, the game may be resumed from an action (for example, action A31) downstream of the action A21 that was interrupted. For example, the action A31 may be executed after the scene transition screen is displayed in the interruption process A41 for interrupting the action A21. As a result, the action A21 for which the interruption condition is satisfied is skipped after it is determined that the interruption condition is satisfied and the interruption processing A41 is performed, and another downstream action (for example, action A31) is started.

他の実施形態において、アクションA21について中断処理A41がなされた後に、シーン終了処理A51が実行されてもよい。つまり、中断条件が成立したと判定されたことに応じて、実行中のアクションA21を含む開始シーンを終了させる終了処理が行われてもよい。シーン終了処理A51においては、アクションA21が行われる開始シーンが終了され、VR処理はステップS42へ移行し、このステップS42において開始シーンの後段にある基本シーンを実行するための処理が開始される。 In another embodiment, the scene termination process A51 may be executed after the action A21 is interrupted by the interruption process A41. That is, in response to determination that the interruption condition is satisfied, end processing may be performed to end the start scene including the action A21 being executed. In the scene ending process A51, the start scene in which the action A21 is performed is ended, and the VR process proceeds to step S42, where the process for executing the basic scene following the start scene is started.

さらに他の実施形態において、アクションA21について中断処理A41がなされた後に、VR終了処理A61が実行されてもよい。VR終了処理A61においては、VRモードを終了し、チャットモードへ移行するための処理が行われる。このVR終了処理A61は、後述するステップS48における終了処理と同じ処理である。 In yet another embodiment, the VR termination process A61 may be executed after the action A21 is interrupted A41. In the VR end processing A61, processing for terminating the VR mode and shifting to the chat mode is performed. This VR termination process A61 is the same process as the termination process in step S48, which will be described later.

中断処理A41が行われない場合(すなわち、開始シーンにおいて中断条件が満たされなかった場合)には、最下流のアクションであるアクションA31、アクションA32、アクションA33、又はアクションA23が終了すると、開始シーンは終了し、VR処理はステップS42へ移行する。 If the interruption processing A41 is not performed (that is, if the interruption condition is not satisfied in the start scene), the start scene ends, and the VR process proceeds to step S42.

ステップS42では、複数の候補の中から、実行されるべき基本シーンが選択される。実行されるべき基本シーンの選択は、第1シナリオのために準備されている基本シーンの複数の候補の中から、例えばパラメータデータ28dに応じて行われる。第1シナリオにおいては、図4の基本シーンデータB1~B3に対応する3つの基本シーンが準備されている。一実施形態においては、この3つの基本シーンの中から、パラメータデータ28dとして記憶されている仮想キャラクタのプレイヤ5に対する好感度に基づいて、実行されるべき基本シーンが選択される。例えば、好感度が第1閾値以上である場合には、基本シーンデータB1に対応する基本シーンが選択され、好感度が第2閾値未満である場合には、基本シーンデータB3に対応する基本シーンが選択され、好感度が第2閾値以上で第1閾値未満である場合には、基本シーンデータB2に対応する基本シーンが選択される。基本シーンの選択は、上記以外の方法で行われても良い。例えば、基本シーンはランダムに選択されてもよい。基本シーンは、好感度が高いほど一部の基本シーン(例えば、基本シーンデータB1に対応する第1基本シーン)が選択される確率が高くなるように重み付けを行った上で、ランダムに選択されてもよい。基本シーンの選択方法は、本明細書で明示的に説明された方法には限定されない。基本シーンが選択されると、VR処理は、ステップS43に移行する。 In step S42, a basic scene to be executed is selected from a plurality of candidates. The basic scene to be executed is selected from a plurality of basic scene candidates prepared for the first scenario, for example, according to the parameter data 28d. In the first scenario, three basic scenes corresponding to the basic scene data B1-B3 in FIG. 4 are prepared. In one embodiment, the basic scene to be executed is selected from among these three basic scenes based on the favorability of the virtual character to the player 5 stored as the parameter data 28d. For example, if the favorable impression is equal to or greater than the first threshold, the basic scene corresponding to the basic scene data B1 is selected, and if the favorable impression is less than the second threshold, the basic scene corresponding to the basic scene data B3 is selected. is selected, and if the favorable rating is greater than or equal to the second threshold and less than the first threshold, the basic scene corresponding to the basic scene data B2 is selected. Selection of the base scene may be performed by methods other than the above. For example, the base scene may be randomly selected. The basic scenes are weighted so that the higher the favorability, the higher the probability that some of the basic scenes (for example, the first basic scene corresponding to the basic scene data B1) will be selected, and then randomly selected. may The method of selecting base scenes is not limited to the methods explicitly described herein. When the basic scene is selected, the VR processing moves to step S43.

ステップS43では、ステップS42で選択された基本シーンが実行される。具体的には、基本シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。基本シーンにおいては、仮想空間において仮想キャラクタが所定のアクションをおこなっても良い。基本シーンにおける仮想キャラクタのアクションは、開始シーンと同様に、分岐可能な一連のアクションとして規定されてもよい。基本シーンにおける分岐可能な一連のアクションは、図12に示されているデータ構造と同様のデータ構造を有していてもよい。開始シーンと同様に、基本シーンにおいても、アクションの実行と並行して中断判定が行われてもよい。この中断判定において中断条件が満たされたと判断されると、実行中のアクションを中断するための中断処理が行われる。この基本シーンにおける中断処理は、開始シーンにおける中断処理A41と同様の処理であってもよい。開始シーンと同様に、基本シーンにおける中断判定の後には、中断されたアクションよりも下流にあるアクションへの移行するための処理、基本シーンの終了処理、又はVRモードの終了処理が行われてもよい。基本シーンに関しては、移行条件が設定されている。基本シーンの最下流にあるアクションが終了すると、基本シーンは終了し、VR処理はステップS44へ移行する。 At step S43, the basic scene selected at step S42 is executed. Specifically, image information of the virtual space is generated according to the basic scene, and an image corresponding to the image information is output to the display 24 . In the basic scene, the virtual character may perform a predetermined action in the virtual space. The action of the virtual character in the base scene may be defined as a series of branchable actions, similar to the starting scene. A branchable sequence of actions in a basic scene may have a data structure similar to the data structure shown in FIG. Similar to the start scene, even in the basic scene, the interruption determination may be performed in parallel with the execution of the action. When it is determined in this suspension determination that the suspension condition is satisfied, suspension processing for suspending the action being executed is performed. The interruption processing in this basic scene may be the same processing as the interruption processing A41 in the start scene. As with the start scene, after the interruption determination in the basic scene, processing for transitioning to an action downstream from the interrupted action, processing for ending the basic scene, or processing for ending the VR mode may be performed. good. Transition conditions are set for basic scenes. When the most downstream action of the basic scene ends, the basic scene ends, and the VR process proceeds to step S44.

ステップS44においては、ステップS43で実行された基本シーンについて設定されている追加シーン移行条件が成立したか否かが判定される。この判定は、ステップS43で実行された基本シーンに対応する基本シーンデータ(例えば、基本シーンデータB1)に含まれる追加シーン移行条件をストレージ27から読み出し、ステップS43で実行された基本シーンにおいて当該移行条件が成立したか否かが判定される。例えば、仮想空間にあるドアを表すオブジェクトを3秒以上注視することが移行条件である場合には、仮想空間内でのプレイヤ5の注視位置が当該ドアを表すオブジェクト上に位置する時間をカウントし、このカウントされた時間が3秒以上である場合に、移行条件が成立したと判定される。仮想空間内でのプレイヤ5の注視位置は、センサユニット25の検出情報に基づいてHMD10の向きを算出し、この算出したHMD10の向きに基づいて特定される。追加シーン移行条件は、基本シーンの実行時に、プレイヤ5に明示的に提示されてもよいし、提示されなくともよい。例えば、基本シーンにおいて、仮想キャラクタが、追加シーン移行条件に対応する台詞をプレイヤ5に語りかけてもよい。 In step S44, it is determined whether or not the additional scene transition condition set for the basic scene executed in step S43 is satisfied. This determination reads from the storage 27 the additional scene transition condition included in the basic scene data (for example, basic scene data B1) corresponding to the basic scene executed in step S43, and the transition condition is read in the basic scene executed in step S43. A determination is made as to whether the conditions have been met. For example, if the transition condition is to gaze at an object representing a door in the virtual space for 3 seconds or longer, the time during which the gaze position of the player 5 is positioned on the object representing the door in the virtual space is counted. , when the counted time is 3 seconds or more, it is determined that the transition condition is met. The gaze position of the player 5 in the virtual space is specified based on the calculated orientation of the HMD 10 by calculating the orientation of the HMD 10 based on the detection information of the sensor unit 25 . The additional scene transition condition may or may not be explicitly presented to the player 5 when the basic scene is executed. For example, in the basic scene, the virtual character may speak to player 5 a line corresponding to the additional scene transition condition.

移行条件が成立しなかったと判定された場合、VR処理はステップS45に移行し、移行条件が成立したと判定された場合、VR処理はステップS46に移行する。 If it is determined that the transition condition is not satisfied, the VR process proceeds to step S45, and if it is determined that the transition condition is satisfied, the VR process proceeds to step S46.

ステップS45においては、第1終了シーンが実行される。具体的には、第1終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。 In step S45, the first end scene is executed. Specifically, image information of the virtual space is generated according to the first end scene, and an image corresponding to the image information is output to the display 24 .

ステップS46においては、追加シーンが実行される。具体的には、第1終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。追加シーンにおける仮想キャラクタのアクションは、開始シーンと同様に、分岐可能な一連のアクションとして規定されてもよい。追加シーンにおける分岐可能な一連のアクションは、図12に示されているデータ構造と同様のデータ構造を有していてもよい。追加シーンの最下流にあるアクションが終了すると、追加シーンは終了し、VR処理はステップS47へ移行する。 In step S46, an additional scene is executed. Specifically, image information of the virtual space is generated according to the first end scene, and an image corresponding to the image information is output to the display 24 . The virtual character's actions in the additional scene may be defined as a series of branchable actions, similar to the starting scene. A branchable series of actions in an additional scene may have a data structure similar to the data structure shown in FIG. When the most downstream action of the additional scene ends, the additional scene ends, and the VR process proceeds to step S47.

ステップS47においては、第2終了シーンが実行される。具体的には、第2終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。第2終了シーンにおいて表示される画像は第1終了シーンにおいて表示される画像と同じでもよいし異なっていてもよい。 In step S47, the second end scene is executed. Specifically, image information of the virtual space is generated according to the second end scene, and an image corresponding to the image information is output to the display 24 . The image displayed in the second end scene may be the same as or different from the image displayed in the first end scene.

開始シーン及び基本シーンと同様に、追加シーン、第1終了シーン、及び第2終了シーンにおいても、アクションの実行と並行して中断判定が行われてもよい。この中断判定において中断条件が満たされたと判断されると、実行中のアクションを中断するための中断処理が行われる。追加シーン、第1終了シーン、及び第2終了シーンにおける中断処理は、開始シーンにおける中断処理A41と同様の処理であってもよい。開始シーンと同様に、追加シーン、第1終了シーン、及び第2終了シーンにおける中断判定の後には、中断されたアクションよりも下流にあるアクションへの移行するための処理、実行中のシーンの終了処理、又はVRモードの終了処理が行われてもよい。 Similar to the start scene and the basic scene, in the additional scene, the first end scene, and the second end scene, the interruption determination may be performed in parallel with the execution of the action. When it is determined in this suspension determination that the suspension condition is satisfied, suspension processing for suspending the action being executed is performed. The interruption processing in the additional scene, the first end scene, and the second end scene may be the same processing as the interruption processing A41 in the start scene. Similar to the start scene, after the interruption determination in the additional scene, the first end scene, and the second end scene, the processing for transitioning to the action downstream from the interrupted action, and the end of the scene being executed processing, or VR mode termination processing may be performed.

上記のVR処理において、シーン間の移行時には、シーン移行画面が生成され、当該シーン移行画面がディスプレイ24に表示されてもよい。シーン移行画面は、シーンが移行することをプレイヤ5に了知させることができる任意の画面である。例えば、シーン移行画面は、画像全体が黒一色で構成されるフェードアウト画面であってもよい。このフェードアウト画面は、開始シーンから基本シーンへの移行時(基本シーンにおけるVR画面の表示前)、基本シーンから第1終了シーンへの移行時(第1終了シーンにおけるVR画面の表示前)、基本シーンから追加シーンへの移行時(追加シーンにおけるVR画面の表示前)、及び追加シーンから第2終了シーンへの移行時(第2終了シーンにおけるVR画面の表示前)から選択される少なくとも一つの時点で表示され得る。 In the VR processing described above, a scene transition screen may be generated and displayed on the display 24 at the transition between scenes. The scene transition screen is an arbitrary screen that allows the player 5 to know that the scene will transition. For example, the scene transition screen may be a fade-out screen in which the entire image is black. This fade-out screen is displayed when transitioning from the start scene to the basic scene (before displaying the VR screen in the basic scene), when transitioning from the basic scene to the first end scene (before displaying the VR screen in the first end scene), At least one selected from when transitioning from the scene to the additional scene (before displaying the VR screen in the additional scene) and when transitioning from the additional scene to the second end scene (before displaying the VR screen in the second end scene). can be displayed in time.

VR画像90がディスプレイ24に表示されている間に、HMD10のセンサユニット25によってプレイヤ5の頭部の動きが検出されると、この検出された頭部の動きに基づいてプレイヤ5のアクションが特定される。そして、特定されたプレイヤ5のアクションに応じた仮想キャラクタの行動(リアクション)が決定され、この決定された行動を行う仮想キャラクタ画像91の画像情報が生成される。このようにして生成された画像情報は、ディスプレイ24に出力される。例えば、プレイヤ5のうなずく動作が検出されると、プレイヤ5のうなずくという動作へのリアクションを取る仮想キャラクタ画像91の画像情報が生成され、当該画像情報がディスプレイ24に表示される。このように、VRモードでは、仮想キャラクタの立体視画像を用いて、プレイヤ5と当該仮想キャラクタとの間でのインタラクションが実現される。 When the sensor unit 25 of the HMD 10 detects the movement of the head of the player 5 while the VR image 90 is being displayed on the display 24, the action of the player 5 is specified based on the detected movement of the head. be done. Then, an action (reaction) of the virtual character is determined according to the identified action of the player 5, and image information of the virtual character image 91 performing the determined action is generated. The image information generated in this manner is output to the display 24 . For example, when a nodding motion of the player 5 is detected, image information of the virtual character image 91 that reacts to the nodding motion of the player 5 is generated and displayed on the display 24 . Thus, in the VR mode, interaction between the player 5 and the virtual character is realized using the stereoscopic image of the virtual character.

以上のステップS41,S43,S45~S47においては、プレイヤ5のアクションに応じて、プレイヤ5について設定されているパラメータが増減されてもよい。パラメータの増減量又は増減率は、上記のように、プレイヤ5のアクションごとに定められているパラメータの変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)に基づいて定められてもよい。パラメータの変化量又は変化率が特定されると、この特定された好感度の変化量又は変化率に基づいて、パラメータデータ28dが更新される。 In steps S41, S43, S45 to S47 described above, the parameters set for the player 5 may be increased or decreased according to the action of the player 5. FIG. The parameter increase/decrease amount or increase/decrease rate is based on the parameter change amount (for example, increase or decrease amount) or change rate (increase rate or decrease rate) determined for each action of the player 5 as described above. may be defined. When the amount of change or the rate of change of the parameter is specified, the parameter data 28d is updated based on the specified amount of change or the rate of change of the favorability rating.

ステップS48では、VRモードの終了処理がなされる。この終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。 In step S48, VR mode end processing is performed. This termination process may include displaying on the display 24 guidance prompting the user to remove the information processing device 20 from the wearing tool 11, and displaying a login screen for the chat mode, which is the first mode. .

以上のVR処理は、VRモード実行部21cにより実行される。VRモード実行部21cは、単独で又は他の機能と適宜協働して、上記のVR処理を実行することができる。 The above VR processing is executed by the VR mode execution unit 21c. The VR mode execution unit 21c can execute the above-described VR processing independently or appropriately in cooperation with other functions.

続いて、他の実施形態によるゲーム処理システムについて図13を参照して説明する。図13は、他の実施形態によるゲーム処理システム101を示すブロック図である。ゲーム処理システム101は、情報処理装置20、HMD110、及びHMD110を備えている。ゲーム処理システム101は、情報処理装置20をHMD110に取り付けることなくVRモードを提供できる点で、ゲーム処理システム1と異なっている。以下、ゲーム処理システム101について、ゲーム処理システム1と相違する点に着目して説明する。 Next, a game processing system according to another embodiment will be described with reference to FIG. FIG. 13 is a block diagram showing a game processing system 101 according to another embodiment. The game processing system 101 includes an information processing device 20 , an HMD 110 and an HMD 110 . The game processing system 101 differs from the game processing system 1 in that the VR mode can be provided without attaching the information processing device 20 to the HMD 110 . The game processing system 101 will be described below, focusing on the differences from the game processing system 1 .

HMD110と、情報処理装置20と、サーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。HMD110と情報処理装置20とは、ネットワーク40を介さずに、Bluetooth(登録商標)などの近距離無線方式に従って通信可能に接続されていてもよい。HMD110は、情報処理装置20が取り付けられなくともVRモードを提供可能な点で、ゲーム処理システム1のHMD10と異なっている。 The HMD 110, the information processing device 20, and the server 50 are connected via a network 40 so as to be able to communicate with each other. The HMD 110 and the information processing apparatus 20 may be communicably connected according to a short-range wireless system such as Bluetooth (registered trademark) without going through the network 40 . The HMD 110 differs from the HMD 10 of the game processing system 1 in that the VR mode can be provided without the information processing device 20 attached.

HMD110は、コンピュータプロセッサ121と、メモリ122と、通信I/F123と、ディスプレイ124と、センサユニット125と、集音装置126と、ストレージ127と、を備えている。コンピュータプロセッサ121、メモリ122、通信I/F123、ディスプレイ124、センサユニット125、集音装置126、及びストレージ127は、情報処理装置20のコンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27と同様に構成される。ただし、ディスプレイ124は、タッチパネルを備えなくともよい。 The HMD 110 includes a computer processor 121, a memory 122, a communication I/F 123, a display 124, a sensor unit 125, a sound collector 126, and a storage 127. The computer processor 121, the memory 122, the communication I/F 123, the display 124, the sensor unit 125, the sound collector 126, and the storage 127 are the computer processor 21, the memory 22, the communication I/F 23, the display 24, and the sensor of the information processing device 20. It is configured similarly to the unit 25 , sound collector 26 and storage 27 . However, the display 124 may not have a touch panel.

チャットモード実行部21a、移行処理部21b、及びVRモード実行部21cの機能は、情報処理装置20とHMD110とで分担して担われる。具体的には、チャットモード実行部21aの機能は情報処理装置20において実現され、VRモード実行部21cの機能はHMD110において実現される。移行処理部21bの機能は、その一部が情報処理装置20で実現され、残部がHMD110において実現される。パラメータ管理部21dの機能は、情報処理装置20及びHMD110の両方で実現される。 The functions of the chat mode execution unit 21a, the transition processing unit 21b, and the VR mode execution unit 21c are shared between the information processing device 20 and the HMD 110. FIG. Specifically, the function of the chat mode execution unit 21 a is implemented in the information processing device 20 , and the function of the VR mode execution unit 21 c is implemented in the HMD 110 . A part of the function of the transition processing unit 21 b is realized by the information processing device 20 and the remaining part is realized by the HMD 110 . The function of the parameter management unit 21d is realized by both the information processing device 20 and the HMD 110. FIG.

画像データ28a、チャットデータ28b、シナリオデータ28c、パラメータデータ28d、中断条件データ28e、及びゲーム進行データ28fは、ストレージ27及びストレージ127の一方又は両方に記憶される。これらのデータは、ストレージ27及びストレージ127以外のストレージに記憶されてもよい。 Image data 28a, chat data 28b, scenario data 28c, parameter data 28d, interruption condition data 28e, and game progress data 28f are stored in one or both of storage 27 and storage 127. FIG. These data may be stored in storage other than storage 27 and storage 127 .

ゲーム処理システム101においてゲームを開始するときには、プレイヤ5は、情報処理装置20を用いてチャットモードを開始する。このチャットモードの処理は、情報処理装置20のチャットモード実行部21aにより行われる。 When starting the game in the game processing system 101 , the player 5 uses the information processing device 20 to start the chat mode. This chat mode processing is performed by the chat mode execution unit 21 a of the information processing device 20 .

チャットモードにおいてモード移行条件が成立し、移行開始オブジェクトが選択された場合には、VRモードへのモード移行処理が開始される。このモード移行処理において、ステップ移行処理部21bにより行われる。当該モード移行処理において、上記のステップS31に相当するガイダンスの表示は、情報処理装置20において行われる。例えば、HMD110を装着するように促すガイダンスが、情報処理装置20のディスプレイ24に表示される。他方、ステップS32に相当する移行オブジェクト86の表示及びこれ以後の処理は、HMD110において実行される。 When the mode transition condition is satisfied in the chat mode and the transition start object is selected, mode transition processing to the VR mode is started. This mode transition processing is performed by the step transition processing section 21b. In the mode transition process, the information processing device 20 displays the guidance corresponding to step S31. For example, guidance prompting the user to wear the HMD 110 is displayed on the display 24 of the information processing device 20 . On the other hand, the display of the transitional object 86 corresponding to step S32 and subsequent processing are executed in the HMD 110 .

VRモードが開始されたときには、当該VRモードの処理は、HMD110のVRモード実行部21cにより行われる。 When the VR mode is started, the VR mode processing is performed by the VR mode execution unit 21 c of the HMD 110 .

他の実施形態においては、ゲーム処理システム1又はゲーム処理システム101により、仮想キャラクタとのインタラクションを提供するゲーム以外のゲーム、例えば、ロールプレイイングゲーム、シューティングゲーム、及びこれらの以外の各種ゲームの処理が実行される。この他の実施形態におけるゲームは、複数のゲームシーンによってそのゲームシナリオが構成される。図14に、他の実施形態におけるゲームを構成する複数のシーンを模式的に示す。図14に示されているように、他の実施形態におけるゲームは、シーンB11,B21~B23,B31~35の9個のシーンを含む複数のシーンにより構成される。この複数のシーンの各々は、複数のシーンに分岐していてもよい。例えば、シーンB11は、シーンB21~シーンB23の3つのシーンに分岐している。このゲームが実行される場合には、各分岐点において、プレイヤ5の選択、各種パラメータの値、及びこれら以外の各種条件に応じて、移行先のシーンが選択される。各シーンにおいては、予め、ストレージ27、ストレージ127、又はこれら以外のストレージに記憶されたコマンドセットに従ってゲームが進行される。各シーンのコマンドセットは、当該シーンにおいてプレイヤキャラクタが取り得る行動、当該シーンにおいてノンプレイヤキャラクタが取り得る行動、当該シーンにおいて表示されるオブジェクトの画像及び位置に関するデータ、及びこれら以外の当該シーンの実行に必要な情報を含む。当該実施形態において、中断条件データ28eは、VRモードで実行されているゲーム又はそのゲームにおいて実行されているシーンを中断する条件であるシーン中断条件を定めるデータを含んでもよい。シーン中断条件は、アクションを中断する条件である中断条件と同じであってもよい。 In other embodiments, the game processing system 1 or the game processing system 101 processes games other than games that provide interaction with virtual characters, such as role-playing games, shooting games, and other various games. is executed. The game in this other embodiment has a game scenario composed of a plurality of game scenes. FIG. 14 schematically shows a plurality of scenes forming a game in another embodiment. As shown in FIG. 14, the game in another embodiment consists of a plurality of scenes including nine scenes B11, B21-B23, and B31-35. Each of the multiple scenes may branch into multiple scenes. For example, scene B11 branches into three scenes, scene B21 to scene B23. When this game is executed, at each branching point, a transition destination scene is selected according to the selection of the player 5, the values of various parameters, and other various conditions. In each scene, the game proceeds according to command sets stored in advance in the storage 27, the storage 127, or other storages. The command set for each scene includes actions that the player character can take in the scene, actions that the non-player characters can take in the scene, data related to the images and positions of objects displayed in the scene, and execution of the scene other than these. contains the information required for In this embodiment, the interruption condition data 28e may include data defining a scene interruption condition, which is a condition for interrupting a game being executed in the VR mode or a scene being executed in the game. The scene interruption condition may be the same as the interruption condition, which is the condition for interrupting the action.

シーン中断条件が成立したか否かの判定は、シーンB11,B21~B23,B31~35及びこれら以外のシーンの処理と並行しておこなわれてもよい。シーン中断条件の判定は、例えば、中断判定部21c5によって行われてもよい。あるシーンにおいてシーン中断条件が成立したと判定された場合には、当該シーンの処理を中断する中断処理が行われる。この中断処理の後に、中断されたシーンの下流にあるシーンからゲームが再開されてもよい。例えば、シーンB21が中断された場合には、その下流にあるシーンB31又はシーン32からゲームが再開されてもよい。あるシーンについて中断処理がなされた後に、VRモードを終了させるための処理を行ってもよい。また、シーンを中断する中断処理においては、別のシーン又は別のモードへ移行することをプレイヤ5に了知させるためにシーン移行画面が表示されてもよい。 The determination as to whether or not the scene interruption condition is satisfied may be performed in parallel with the processing of scenes B11, B21 to B23, B31 to B35, and other scenes. Determination of the scene discontinuation condition may be performed by the discontinuation determination unit 21c5, for example. When it is determined that a scene interruption condition is satisfied in a certain scene, interruption processing for interrupting the processing of that scene is performed. After this interruption processing, the game may be resumed from a scene downstream of the interrupted scene. For example, when scene B21 is interrupted, the game may be restarted from scene B31 or scene 32 located downstream. After a certain scene has been interrupted, a process for ending the VR mode may be performed. Further, in the interruption process for interrupting the scene, a scene transition screen may be displayed to let the player 5 know that the game will transition to another scene or another mode.

上記の実施形態によれば、以下の効果が得られる。上記のゲーム処理システム1,101によれば、所定のシーンにおける所定のアクション(例えば、開始シーンにおけるアクションA21)の実行中に中断条件が満たされると、当該アクションが中断される。このため、中断条件を満たした後のプレイヤのアクションに対する仮想キャラクタのリアクションを定めておく必要がなくなる。これにより、プレイヤのアクションに対する仮想キャラクタのアクションを規定するデータ又は各シーンのコマンドセットのデータ量(例えば、シナリオデータ28cのデータ量)の増加を抑制することができる。 According to the above embodiment, the following effects are obtained. According to the game processing systems 1 and 101 described above, when a predetermined action in a predetermined scene (for example, action A21 in the start scene) is being executed and the interruption condition is satisfied, the action is interrupted. Therefore, it is not necessary to define the reaction of the virtual character to the player's action after the interruption condition is satisfied. As a result, it is possible to suppress an increase in the amount of data defining the action of the virtual character with respect to the action of the player or the amount of data of the command set of each scene (for example, the amount of data of the scenario data 28c).

また、上記のゲーム処理システム1,101によれば、アクション又はシーンを中断する際にシーン移行画面が表示されるので、アクション又はシーンを自然に中断することができる。 Further, according to the game processing systems 1 and 101 described above, the scene transition screen is displayed when an action or scene is interrupted, so the action or scene can be naturally interrupted.

現実世界では不適切とされるアクションを禁止アクションとすることにより、かかるアクションが仮想キャラクタになされた場合に、ゲームの実行を中断することができる。このような現実世界において不適切とされるアクションが行われた場合の仮想キャラクタの対応を予め定めておくことは困難である。他方、不適切とされるアクションに対して仮想キャラクタが通常のリアクションをとってしまうか又は何らリアクションを行わない設定とすると、かかる通常のリアクションは、現実世界において不適切とされるアクションに対するリアクションとしては不自然となる。上記のゲーム処理システム1,101によれば、現実世界では不適切とされるアクションがなされたときにゲームの実行を中断することにより、仮想キャラクタが不自然なリアクションを行う(または何らリアクションを取らない)ことを回避できる。これにより、仮想キャラクタとのコミュニケーションのリアリティを増加させることができる。 By setting actions that are inappropriate in the real world as prohibited actions, execution of the game can be interrupted when such actions are performed on a virtual character. In the real world, it is difficult to predetermine how a virtual character will respond when an inappropriate action is performed. On the other hand, if the virtual character takes a normal reaction to an action that is considered inappropriate or does not react at all, such a normal reaction is a reaction to an action that is considered inappropriate in the real world. becomes unnatural. According to the game processing systems 1 and 101 described above, by interrupting the execution of the game when an action considered inappropriate in the real world is performed, the virtual character reacts unnaturally (or does not react at all). not) can be avoided. This makes it possible to increase the reality of communication with the virtual character.

本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、コンピュータプロセッサ21及びコンピュータプロセッサ121で実行される機能の一部又は全部は、発明の趣旨を逸脱しない限り、上記の実施形態では図示されていないコンピュータプロセッサにより実現されてもよい。例えば、ゲーム処理システム1及びゲーム処理システム101は、ゲーム処理プログラムの少なくとも一部を実行するゲーム機を備えてもよく、コンピュータプロセッサ21又はコンピュータプロセッサ121の処理によって実現される機能の一部は、当該ゲーム機における処理によって実現されてもよい。 Embodiments of the present invention are not limited to the embodiments described above, and various modifications are possible without departing from the scope of the invention. For example, some or all of the functions performed by computer processor 21 and computer processor 121 may be implemented by computer processors not shown in the above embodiments without departing from the spirit of the invention. For example, the game processing system 1 and the game processing system 101 may include a game machine that executes at least part of a game processing program, and part of the functions realized by the processing of the computer processor 21 or the computer processor 121 are It may be realized by processing in the game machine.

本願発明の実施形態には、上記以外にも様々な装置、デバイス、及び電子部品を備えることができる。例えば、ゲーム処理システム1及びゲーム処理システム101は、情報処理装置20及びHMD10,110以外に、プレイヤ5の操作を受け付けるための操作機器を備えてもよい。ゲーム処理システム1及びゲーム処理システム101は、当該操作機器によってプレイヤ5の操作を検出し、当該検出した操作に応じてゲームの処理をおこなっても良い。 Embodiments of the present invention may include various apparatus, devices, and electronic components in addition to those described above. For example, the game processing system 1 and the game processing system 101 may include an operation device for accepting the operation of the player 5 in addition to the information processing device 20 and the HMDs 10 and 110 . The game processing system 1 and the game processing system 101 may detect an operation of the player 5 using the operation device, and perform game processing according to the detected operation.

本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。 In the processing procedures described in this specification, especially in the processing procedures described using flow diagrams, some of the steps that make up the processing procedure are omitted, and as a step that makes up the processing procedure It is possible to add steps that are not specified and/or change the order of the steps, and the processing procedures in which such omissions, additions, and order changes do not deviate from the spirit of the present invention. Included within the scope of the invention.

以下に、本願の原出願の出願時の特許請求の範囲に記載された発明を付記する。
[1]
仮想キャラクタに対してプレイヤが取ることができるプレイヤアクションを特定するための複数のプレイヤアクションデータ及び前記仮想キャラクタのアクションを特定するための複数のアクションデータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記仮想キャラクタとのコミュニケーションを提供するゲームの処理を行うゲーム処理システムであって、
前記仮想キャラクタのアクションは、第1上流アクションと、第1移行条件が成立したことに応じて前記第1上流アクションから移行する第1下流アクションと、を含み、
前記複数のアクションデータは、前記第1上流アクションを規定する第1上流アクションデータと、前記第1下流アクションを規定する第1下流アクションデータと、を含み、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第1上流アクションデータに基づいて、前記第1上流アクションを前記仮想キャラクタに実行させ、
前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報及び前記プレイヤアクションデータに基づいて前記仮想キャラクタの所定の部位に対する前記プレイヤのプレイヤアクションを特定し、
前記プレイヤアクションのうち最新のアクションが、前回のアクションがなされた部位と同じ部位に対する前記前回のアクションと同じアクションであるか否かを判定し、同じ部位に対する同じアクションであると判定された場合にポイントを積算し、
積算された前記ポイントが所定ポイント以上となった場合に中断条件が成立したと判定し、
前記中断条件が成立せず前記第1移行条件も成立していない場合に、前記仮想キャラクタに前記第1上流アクションを実行させ、
前記第1上流アクションの開始後であって前記第1移行条件の成立前に前記中断条件が成立したと判定された場合に、前記仮想キャラクタに前記第1上流アクションの実行を中断させて前記第1下流アクションデータに基づいて前記第1下流アクションを開始させ、
前記第1上流アクションの開始後に前記第1移行条件が成立したと判定された場合に、前記第1上流アクションの終了後に前記第1下流アクションデータに基づいて前記仮想キャラクタに前記第1下流アクションを開始させる、
ゲーム処理システム。
[2]
前記仮想キャラクタのアクションは、第2移行条件が成立したことに応じて前記第1上流アクションから移行する第2下流アクションをさらに含み、
前記複数のアクションデータは、前記第2下流アクションを規定する第2下流アクションデータをさらに含み、
前記第1上流アクションの開始後であって前記第1移行条件及び前記第2移行条件のうち一方の成立前に前記中断条件が成立したと判定された場合に、前記仮想キャラクタに前記第1上流アクションの実行を中断させて前記第1下流アクションデータに基づいて前記第1下流アクションを開始させ、
前記第1上流アクションの開始後に前記第2移行条件が成立したと判定された場合に、前記仮想キャラクタに前記第2下流アクションデータに基づいて前記第2下流アクションを開始させる、
[1]に記載のゲーム処理システム。
[3]
前記仮想キャラクタのアクションは、第2上流アクションと、第3移行条件が成立したことに応じて前記第2上流アクションから移行する第3下流アクションと、を含み、
前記複数のアクションデータは、前記第3下流アクションを規定する第3下流アクションデータをさらに含み、
前記第2上流アクションの開始後であって前記第3移行条件の成立前に前記中断条件が成立したと判定された場合に、前記仮想キャラクタに前記第2上流アクションの実行を中断させて前記第1下流アクションデータに基づいて前記第1下流アクションを開始させ、
前記第2上流アクションの開始後に前記第3移行条件が成立したと判定された場合に、前記仮想キャラクタに前記第3下流アクションデータに基づいて前記第3下流アクションを開始させる、
[1]に記載のゲーム処理システム。
[4]
前記第1上流アクション及び前記第1下流アクションは第1シーンに含まれており、
前記第1下流アクションが終了すると、前記第1シーンが終了する、
[1]から[3]のいずれか1項に記載のゲーム処理システム。
[5]
前記第1シーンは、前記第2下流アクションをさらに含んでおり、
前記第2下流アクションが終了すると、前記第1シーンが終了し、
前記第2下流アクションの開始から終了までの間に前記中断条件が成立したと判定された場合に、前記仮想キャラクタに前記第2下流アクションの実行を中断させて前記第1下流アクションを開始させる、
[4]に記載のゲーム処理システム。
[6]
前記第1シーンは、第3上流アクションをさらに含んでおり、
前記第3上流アクションが終了すると、前記第1シーンが終了し、
前記第3上流アクションの開始から終了までの間に前記中断条件が成立したと判定された場合に、前記仮想キャラクタに前記第3上流アクションの実行を中断させて前記第1下流アクションを開始させる、
[4]に記載のゲーム処理システム。
[7]
仮想キャラクタに対してプレイヤが取ることができるプレイヤアクションを特定するための複数のプレイヤアクションデータ及び前記仮想キャラクタのアクションを特定するための複数のアクションデータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記仮想キャラクタとのコミュニケーションを提供するゲームの処理を行うゲーム処理システムであって、
前記仮想キャラクタのアクションは、第1上流アクションと、第1移行条件が成立したことに応じて前記第1上流アクションから移行する第1下流アクションと、を含み、
前記複数のアクションデータは、前記第1上流アクションを規定する第1上流アクションデータと、前記第1下流アクションを規定する第1下流アクションデータと、を含み、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第1上流アクションデータに基づいて、前記第1上流アクションを前記仮想キャラクタに実行させ、
前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報及び前記プレイヤアクションデータに基づいて前記仮想キャラクタの所定の部位に対する前記プレイヤのプレイヤアクションを特定し、
前記プレイヤアクションのうち最新のアクションが、前回のアクションがなされた部位と同じ部位に対する前記前回のアクションと同じアクションであるか否かを判定し、同じ部位に対する同じアクションであると判定された場合に前記プレイヤの初期ポイントからポイントを減算することで前記プレイヤの保持ポイントを算出し、
前記保持ポイントが所定ポイント以下となった場合に中断条件が成立したと判定し、
前記中断条件が成立せず前記第1移行条件も成立していない場合に、前記仮想キャラクタに前記第1上流アクションを実行させ、
前記第1上流アクションの開始後であって前記第1移行条件の成立前に前記中断条件が成立したと判定された場合に、前記仮想キャラクタに前記第1上流アクションの実行を中断させて前記第1下流アクションデータに基づいて前記第1下流アクションを開始させ、
前記第1上流アクションの開始後に前記第1移行条件が成立したと判定された場合に、前記第1上流アクションの終了後に前記第1下流アクションデータに基づいて前記仮想キャラクタに前記第1下流アクションを開始させる、
ゲーム処理システム。
[8]
前記第1移行条件は、前記第1上流アクションとして規定されている前記仮想キャラクタのアクションが終了したことを含む、
[1]から[7]のいずれか1項に記載のゲーム処理システム。
[9]
前記第1移行条件は、特定された前記プレイヤアクションが予め定められた所定のアクションであることを含む、
[1]から[8]のいずれか1項に記載のゲーム処理システム。
[10]
前記第1移行条件は、前記仮想キャラクタからの質問に対して前記プレイヤが回答することを含む、
[1]から[9]のいずれか1項に記載のゲーム処理システム。
[11]
前記第1上流アクションデータは、前記プレイヤアクションに対して前記仮想キャラクタが取るリアクションを特定するためのリアクションデータを含む、
[1]から[10]のいずれか1項に記載のゲーム処理システム。
[12]
仮想キャラクタに対してプレイヤが取ることができるプレイヤアクションを特定するための複数のプレイヤアクションデータ及び前記仮想キャラクタのアクションを特定するための複数のアクションデータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記仮想キャラクタとのコミュニケーションを提供するゲームの処理を行うゲーム処理システムであって、
前記仮想キャラクタのアクションは、第1上流アクションと、第1移行条件が成立したことに応じて前記第1上流アクションから移行する第1下流アクションと、前記第1下流アクションとは異なる第2下流アクションと、を含み、
前記複数のアクションデータは、前記第1上流アクションを規定する第1上流アクションデータと、前記第1下流アクションを規定する第1下流アクションデータと、前記第2下流アクションを規定する第2下流アクションデータと、を含み、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第1上流アクションデータに基づいて、前記第1上流アクションを前記仮想キャラクタに実行させ、
前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報及び前記プレイヤアクションデータに基づいて前記仮想キャラクタの所定の部位に対する前記プレイヤのプレイヤアクションを特定し、
前記プレイヤアクションのうち最新のアクションが、前回のアクションがなされた部位と同じ部位に対する前記前回のアクションと同じアクションであるか否かを判定し、同じ部位に対する同じアクションであると判定された場合にポイントを積算し、
積算された前記ポイントが所定ポイント以上となった場合に中断条件が成立したと判定し、
前記中断条件が成立せず前記第1移行条件も成立していない場合に、前記仮想キャラクタに前記第1上流アクションを実行させ、
前記第1上流アクションの開始後であって前記第1移行条件の成立前に前記中断条件が成立したと判定された場合に、前記仮想キャラクタに前記第1上流アクションの実行を中断させて前記第2下流アクションデータに基づいて前記第2下流アクションを開始させ
前記第1上流アクションの開始後に前記第1移行条件が成立したと判定された場合に、前記第1上流アクションの終了後に前記第1下流アクションデータに基づいて前記仮想キャラクタに前記第1下流アクションを開始させる、
ゲーム処理システム。
[13]
前記第1上流アクションデータは、前記プレイヤアクションに対して前記仮想キャラクタが取るリアクションを特定するためのリアクションデータを含む、
[12]に記載のゲーム処理システム。
[14]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより、仮想キャラクタに対してプレイヤが取ることができるプレイヤアクションを特定するための複数のプレイヤアクションデータ及び前記仮想キャラクタのアクションを特定するための複数のアクションデータを用いて前記仮想キャラクタとのコミュニケーションを提供するゲームの処理を行うゲーム処理方法であって、
前記仮想キャラクタのアクションは、第1上流アクションと、第1移行条件が成立したことに応じて前記第1上流アクションから移行する第1下流アクションと、を含み、
前記複数のアクションデータは、前記第1上流アクションを規定する第1上流アクションデータと、前記第1下流アクションを規定する第1下流アクションデータと、を含み、
前記第1上流アクションデータに基づいて、前記第1上流アクションを前記仮想キャラクタに実行させる工程と、
前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報及び前記プレイヤアクションデータに基づいて前記仮想キャラクタの所定の部位に対する前記プレイヤのプレイヤアクションを特定する工程と、
前記プレイヤアクションのうち最新のアクションが、前回のアクションがなされた部位と同じ部位に対する前記前回のアクションと同じアクションであるか否かを判定し、同じ部位に対する同じアクションであると判定された場合にポイントを積算する工程と、
積算された前記ポイントが所定ポイント以上となった場合に中断条件が成立したと判定する工程と、
前記中断条件が成立せず前記第1移行条件も成立していない場合に、前記仮想キャラクタに前記第1上流アクションを実行させる工程と、
前記第1上流アクションの開始後であって前記第1移行条件の成立前に前記中断条件が成立したと判定された場合に、前記仮想キャラクタに前記第1上流アクションの実行を中断させて前記第1下流アクションデータに基づいて前記第1下流アクションを開始させる工程と、
前記第1上流アクションの開始後に前記第1移行条件が成立したと判定された場合に、前記第1上流アクションの終了後に前記第1下流アクションデータに基づいて前記仮想キャラクタに前記第1下流アクションを開始させる工程と、
を備えるゲーム処理方法。
[15]
一又は複数のコンピュータプロセッサに実行されることにより、仮想キャラクタに対してプレイヤが取ることができるプレイヤアクションを特定するための複数のプレイヤアクションデータ及び前記仮想キャラクタのアクションを特定するための複数のアクションデータを用いて前記仮想キャラクタとのコミュニケーションを提供するゲームの処理を行うためのゲーム処理プログラムであって、
前記仮想キャラクタのアクションは、第1上流アクションと、第1移行条件が成立したことに応じて前記第1上流アクションから移行する第1下流アクションと、を含み、
前記複数のアクションデータは、前記第1上流アクションを規定する第1上流アクションデータと、前記第1下流アクションを規定する第1下流アクションデータと、を含み、
前記一又は複数のコンピュータプロセッサに、
前記第1上流アクションデータに基づいて、前記第1上流アクションを前記仮想キャラクタに実行させる工程と、
前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報及び前記プレイヤアクションデータに基づいて前記仮想キャラクタの所定の部位に対する前記プレイヤのプレイヤアクションを特定する工程と、
前記プレイヤアクションのうち最新のアクションなされた部位が、前回のアクションがなされた部位と同じ部位に対する前記前回のアクションと同じアクションであるか否かを判定し、同じ部位に対する同じアクションであると判定された場合にポイントを積算する工程と、
積算された前記ポイントが所定ポイント以上となった場合に中断条件が成立したと判定する工程と、
前記中断条件が成立せず前記第1移行条件も成立していない場合に、前記仮想キャラクタに前記第1上流アクションを実行させる工程と、
前記第1上流アクションの開始後であって前記第1移行条件の成立前に前記中断条件が成立したと判定された場合に、前記仮想キャラクタに前記第1上流アクションの実行を中断させて前記第1下流アクションデータに基づいて前記第1下流アクションを開始させる工程と、
前記第1上流アクションの開始後に前記第1移行条件が成立したと判定された場合に、前記第1上流アクションの終了後に前記第1下流アクションデータに基づいて前記仮想キャラクタに前記第1下流アクションを開始させる工程と、
を実行させるゲーム処理プログラム。
The invention described in the scope of claims as of the filing of the original application of the present application is additionally described below.
[1]
A storage for storing a plurality of player action data for specifying player actions that a player can take with respect to a virtual character and a plurality of action data for specifying actions of the virtual character; and one or more computer processors. and a game processing system for processing a game that provides communication with the virtual character,
the action of the virtual character includes a first upstream action and a first downstream action that transitions from the first upstream action in response to satisfaction of a first transition condition;
the plurality of action data includes first upstream action data defining the first upstream action and first downstream action data defining the first downstream action;
The one or more computer processors, by executing computer readable instructions,
causing the virtual character to perform the first upstream action based on the first upstream action data;
identifying a player action of the player with respect to a predetermined part of the virtual character based on the player action data and detection information detected by a head-mounted display worn on the player's head;
It is determined whether or not the latest action among the player actions is the same action as the previous action for the same part as the previous action, and if it is determined that it is the same action for the same part accumulate points,
determining that the interruption condition is met when the accumulated points are equal to or greater than a predetermined point;
causing the virtual character to perform the first upstream action when the interruption condition is not satisfied and the first transition condition is not satisfied;
When it is determined that the interruption condition is satisfied after the first upstream action is started and before the first transition condition is satisfied, the virtual character is caused to interrupt the execution of the first upstream action, and the starting the first downstream action based on one downstream action data;
performing the first downstream action on the virtual character based on the first downstream action data after the end of the first upstream action when it is determined that the first transition condition is satisfied after the first upstream action is started; to start,
game processing system.
[2]
the action of the virtual character further includes a second downstream action that transitions from the first upstream action in response to satisfaction of a second transition condition;
the plurality of action data further includes second downstream action data defining the second downstream action;
If it is determined that the interruption condition is satisfied after the first upstream action is started and before one of the first transition condition and the second transition condition is satisfied, the virtual character is instructed to perform the first upstream action. interrupting execution of an action to initiate the first downstream action based on the first downstream action data;
causing the virtual character to start the second downstream action based on the second downstream action data when it is determined that the second transition condition is satisfied after the first upstream action is started;
A game processing system according to [1].
[3]
the action of the virtual character includes a second upstream action and a third downstream action that transitions from the second upstream action in response to satisfaction of a third transition condition;
the plurality of action data further includes third downstream action data defining the third downstream action;
When it is determined that the interruption condition is satisfied after the second upstream action is started and before the third transition condition is satisfied, the virtual character is caused to interrupt the execution of the second upstream action and the second upstream action is performed. starting the first downstream action based on one downstream action data;
causing the virtual character to start the third downstream action based on the third downstream action data when it is determined that the third transition condition is satisfied after the second upstream action is started;
A game processing system according to [1].
[4]
the first upstream action and the first downstream action are included in a first scene;
the first scene ends when the first downstream action ends;
The game processing system according to any one of [1] to [3].
[5]
the first scene further includes the second downstream action;
When the second downstream action ends, the first scene ends,
causing the virtual character to interrupt execution of the second downstream action and start the first downstream action when it is determined that the interruption condition is satisfied between the start and end of the second downstream action;
The game processing system described in [4].
[6]
The first scene further includes a third upstream action,
When the third upstream action ends, the first scene ends,
causing the virtual character to interrupt execution of the third upstream action and start the first downstream action when it is determined that the interruption condition is met during the period from the start to the end of the third upstream action;
The game processing system described in [4].
[7]
A storage for storing a plurality of player action data for specifying player actions that a player can take with respect to a virtual character and a plurality of action data for specifying actions of the virtual character; and one or more computer processors. and a game processing system for processing a game that provides communication with the virtual character,
the action of the virtual character includes a first upstream action and a first downstream action that transitions from the first upstream action in response to satisfaction of a first transition condition;
the plurality of action data includes first upstream action data defining the first upstream action and first downstream action data defining the first downstream action;
The one or more computer processors, by executing computer readable instructions,
causing the virtual character to perform the first upstream action based on the first upstream action data;
identifying a player action of the player with respect to a predetermined part of the virtual character based on the player action data and detection information detected by a head-mounted display worn on the player's head;
It is determined whether or not the latest action among the player actions is the same action as the previous action for the same part as the previous action, and if it is determined that it is the same action for the same part calculating the player's retention points by subtracting points from the player's initial points;
determining that an interruption condition is established when the holding point is equal to or less than a predetermined point;
causing the virtual character to perform the first upstream action when the interruption condition is not satisfied and the first transition condition is not satisfied;
When it is determined that the interruption condition is satisfied after the first upstream action is started and before the first transition condition is satisfied, the virtual character is caused to interrupt the execution of the first upstream action, and the starting the first downstream action based on one downstream action data;
performing the first downstream action on the virtual character based on the first downstream action data after the end of the first upstream action when it is determined that the first transition condition is satisfied after the first upstream action is started; to start,
game processing system.
[8]
The first transition condition includes completion of the action of the virtual character defined as the first upstream action,
The game processing system according to any one of [1] to [7].
[9]
The first transition condition includes that the specified player action is a predetermined action,
The game processing system according to any one of [1] to [8].
[10]
The first transition condition includes that the player answers a question from the virtual character,
The game processing system according to any one of [1] to [9].
[11]
The first upstream action data includes reaction data for specifying a reaction taken by the virtual character with respect to the player action,
The game processing system according to any one of [1] to [10].
[12]
A storage for storing a plurality of player action data for specifying player actions that a player can take with respect to a virtual character and a plurality of action data for specifying actions of the virtual character; and one or more computer processors. and a game processing system for processing a game that provides communication with the virtual character,
The action of the virtual character includes a first upstream action, a first downstream action that transitions from the first upstream action in response to satisfaction of a first transition condition, and a second downstream action different from the first downstream action. and including
The plurality of action data includes first upstream action data defining the first upstream action, first downstream action data defining the first downstream action, and second downstream action data defining the second downstream action. and including
The one or more computer processors, by executing computer readable instructions,
causing the virtual character to perform the first upstream action based on the first upstream action data;
identifying a player action of the player with respect to a predetermined part of the virtual character based on the player action data and detection information detected by a head-mounted display worn on the player's head;
It is determined whether or not the latest action among the player actions is the same action as the previous action for the same part as the previous action, and if it is determined that it is the same action for the same part accumulate points,
determining that the interruption condition is met when the accumulated points are equal to or greater than a predetermined point;
causing the virtual character to perform the first upstream action when the interruption condition is not satisfied and the first transition condition is not satisfied;
When it is determined that the interruption condition is satisfied after the first upstream action is started and before the first transition condition is satisfied, the virtual character is caused to interrupt the execution of the first upstream action, and the 2) when the second downstream action is started based on downstream action data, and when it is determined that the first transition condition is satisfied after the first upstream action is started, the first downstream action is performed after the first upstream action is finished; causing the virtual character to initiate the first downstream action based on action data;
game processing system.
[13]
The first upstream action data includes reaction data for specifying a reaction taken by the virtual character with respect to the player action,
A game processing system according to [12].
[14]
One or more computer processors execute computer readable instructions to identify actions of the virtual character and a plurality of player action data for identifying player actions that can be taken by a player on a virtual character. A game processing method for processing a game that provides communication with the virtual character using a plurality of action data for
the action of the virtual character includes a first upstream action and a first downstream action that transitions from the first upstream action in response to satisfaction of a first transition condition;
the plurality of action data includes first upstream action data defining the first upstream action and first downstream action data defining the first downstream action;
causing the virtual character to perform the first upstream action based on the first upstream action data;
a step of specifying a player action of the player with respect to a predetermined part of the virtual character based on the detected information detected by the head-mounted display worn on the player's head and the player action data;
It is determined whether or not the latest action among the player actions is the same action as the previous action for the same part as the previous action, and if it is determined that it is the same action for the same part a step of accumulating points;
a step of determining that an interruption condition is satisfied when the accumulated points are equal to or greater than a predetermined point;
causing the virtual character to perform the first upstream action when the interruption condition is not satisfied and the first transition condition is not satisfied;
When it is determined that the interruption condition is satisfied after the first upstream action is started and before the first transition condition is satisfied, the virtual character is caused to interrupt the execution of the first upstream action, and the initiating the first downstream action based on one downstream action data;
performing the first downstream action on the virtual character based on the first downstream action data after the end of the first upstream action when it is determined that the first transition condition is satisfied after the first upstream action is started; a step of initiating;
A game processing method comprising:
[15]
A plurality of player action data for specifying player actions that a player can take on a virtual character and a plurality of actions for specifying actions of the virtual character, which are executed by one or more computer processors. A game processing program for processing a game that provides communication with the virtual character using data,
the action of the virtual character includes a first upstream action and a first downstream action that transitions from the first upstream action in response to satisfaction of a first transition condition;
the plurality of action data includes first upstream action data defining the first upstream action and first downstream action data defining the first downstream action;
to the one or more computer processors;
causing the virtual character to perform the first upstream action based on the first upstream action data;
a step of specifying a player action of the player with respect to a predetermined part of the virtual character based on the detected information detected by the head-mounted display worn on the player's head and the player action data;
It is determined whether or not the part on which the latest action is performed among the player actions is the same action as the previous action on the same part as the part on which the previous action was performed, and it is determined that it is the same action on the same part. a step of accumulating points when
a step of determining that an interruption condition is satisfied when the accumulated points are equal to or greater than a predetermined point;
causing the virtual character to perform the first upstream action when the interruption condition is not satisfied and the first transition condition is not satisfied;
When it is determined that the interruption condition is satisfied after the first upstream action is started and before the first transition condition is satisfied, the virtual character is caused to interrupt the execution of the first upstream action, and the initiating the first downstream action based on one downstream action data;
performing the first downstream action on the virtual character based on the first downstream action data after the end of the first upstream action when it is determined that the first transition condition is satisfied after the first upstream action is started; a step of initiating;
A game processing program that runs

1,101 ゲーム処理システム 1,101 game processing system

Claims (11)

仮想キャラクタとのインタラクションを提供するゲームの処理を行うゲーム処理システムであって、
前記仮想キャラクタのアクションを特定するための複数のアクションデータ及び中断条件を定める中断条件データを記憶するストレージと、
一又は複数のコンピュータプロセッサを備え、
前記ゲームは、第1の3次元空間でプレイされる第1モードと、前記第1の3次元空間とは異なる第2の3次元空間でプレイされる第2モードと、を有し、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第2モードにおいて、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのプレイヤアクションを特定し、
特定された前記プレイヤのプレイヤアクション及び前記中断条件データによって前記中断条件が満たされたか否かを判定し、
前記中断条件が満たされたと判定された場合に、前記第2モードを中断して前記第1モードへ移行するための移行処理を行う、
ゲーム処理システム。
A game processing system for processing a game that provides interaction with a virtual character,
a storage for storing a plurality of action data for specifying actions of the virtual character and interruption condition data defining interruption conditions;
comprising one or more computer processors,
The game has a first mode played in a first three-dimensional space and a second mode played in a second three-dimensional space different from the first three-dimensional space,
The one or more computer processors, by executing computer readable instructions,
In the second mode, specifying a player action of the player for the virtual character based on detection information detected by a head-mounted display worn on the player's head;
determining whether the interruption condition is satisfied by the specified player action and the interruption condition data;
When it is determined that the interruption condition is satisfied, performing transition processing for interrupting the second mode and transitioning to the first mode;
game processing system.
前記第1モード及び前記第2モードでは、共通のゲーム媒体が使用される、
請求項1に記載のゲーム処理システム。
A common game medium is used in the first mode and the second mode,
A game processing system according to claim 1.
前記ゲーム媒体に関連付けられたゲーム媒体パラメータは、前記第1モードと前記第2モードとの間で引き継がれる、
請求項2に記載のゲーム処理システム。
game media parameters associated with the game media are carried over between the first mode and the second mode;
3. A game processing system according to claim 2.
前記ゲーム媒体パラメータは、前記第2モードから前記第1モードへの移行時に変更される、
請求項3に記載のゲーム処理システム。
the game media parameter is changed when transitioning from the second mode to the first mode;
4. A game processing system according to claim 3.
前記中断条件は、前記検出情報から特定された注視位置が前記第2の3次元空間内に設定された禁止領域上にあること、を含む、
請求項1から請求項4のいずれか1項に記載のゲーム処理システム。
The interruption condition includes that the gaze position specified from the detection information is on a prohibited area set in the second three-dimensional space,
A game processing system according to any one of claims 1 to 4.
前記中断条件は、前記プレイヤが同じプレイヤアクションを所定回数以上繰り返したこと、を含む、
請求項1から請求項4のいずれか1項に記載のゲーム処理システム。
The interruption condition includes that the player repeats the same player action a predetermined number of times or more,
A game processing system according to any one of claims 1 to 4.
前記中断条件は、前記プレイヤが前記仮想キャラクタの所定の部位に対するプレイヤアクションを所定回数以上行ったこと、を含む、
請求項1から請求項4のいずれか1項に記載のゲーム処理システム。
The interruption condition includes that the player has performed a player action on a predetermined part of the virtual character more than a predetermined number of times.
A game processing system according to any one of claims 1 to 4.
前記中断条件は、前記プレイヤが禁止アクションに該当するプレイヤアクションを行ったこと、を含む、
請求項1から請求項4のいずれか1項に記載のゲーム処理システム。
The interruption condition includes that the player has performed a player action that corresponds to a prohibited action,
A game processing system according to any one of claims 1 to 4.
前記ストレージは、前記プレイヤのアクションに応じて更新されるプレイヤパラメータを記憶し、
前記中断条件は、前記プレイヤパラメータが所定の閾値以上であること、又は、所定の閾値以下であることを含む、
請求項1から請求項4のいずれか1項に記載のゲーム処理システム。
The storage stores player parameters that are updated according to actions of the player;
The interruption condition includes that the player parameter is equal to or greater than a predetermined threshold or equal to or less than a predetermined threshold,
A game processing system according to any one of claims 1 to 4.
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより仮想キャラクタとのインタラクションを提供するゲームの処理を行うゲーム処理方法であって、
前記ゲームは、第1の3次元空間でプレイされる第1モードと、前記第1の3次元空間とは異なる第2の3次元空間でプレイされる第2モードと、を有し、
前記第2モードにおいて、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのプレイヤアクションを特定する工程と、
特定された前記プレイヤのプレイヤアクションによって中断条件が満たされたか否かを判定する工程と、
前記中断条件が満たされたと判定された場合に、前記第2モードを中断して前記第1モードへ移行するための移行処理を行う工程と、
を備えるゲーム処理方法。
A game processing method for processing a game in which one or more computer processors execute computer readable instructions to provide interaction with a virtual character, comprising:
The game has a first mode played in a first three-dimensional space and a second mode played in a second three-dimensional space different from the first three-dimensional space,
identifying a player action of the player for the virtual character based on detection information detected by a head-mounted display worn on the player's head in the second mode;
Determining whether an interruption condition is satisfied by the identified player action;
performing transition processing for interrupting the second mode and transitioning to the first mode when it is determined that the interrupt condition is satisfied;
A game processing method comprising:
一又は複数のコンピュータプロセッサに実行されることにより仮想キャラクタとのインタラクションを提供するゲームの処理を行うためのゲーム処理プログラムであって、
前記ゲームは、第1の3次元空間でプレイされる第1モードと、前記第1の3次元空間とは異なる第2の3次元空間でプレイされる第2モードと、を有し、
前記一又は複数のコンピュータプロセッサに、
前記第2モードにおいて、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのプレイヤアクションを特定する工程と、
特定された前記プレイヤのプレイヤアクションによって前記中断条件が満たされたか否かを判定する工程と、
前記中断条件が満たされたと判定された場合に、前記第2モードを中断して前記第1モードへ移行するための移行処理を行う工程と、
を実行させるゲーム処理プログラム。
A game processing program for processing a game that provides interaction with a virtual character by being executed by one or more computer processors,
The game has a first mode played in a first three-dimensional space and a second mode played in a second three-dimensional space different from the first three-dimensional space,
to the one or more computer processors;
identifying a player action of the player for the virtual character based on detection information detected by a head-mounted display worn on the player's head in the second mode;
determining whether the interruption condition is satisfied by the identified player action;
performing transition processing for interrupting the second mode and transitioning to the first mode when it is determined that the interrupt condition is satisfied;
A game processing program that runs
JP2023069997A 2020-03-09 2023-04-21 Game processing system, game processing method, and game processing program Pending JP2023093647A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023069997A JP2023093647A (en) 2020-03-09 2023-04-21 Game processing system, game processing method, and game processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020039653A JP7269192B2 (en) 2020-03-09 2020-03-09 Game processing system, game processing method, and game processing program
JP2023069997A JP2023093647A (en) 2020-03-09 2023-04-21 Game processing system, game processing method, and game processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020039653A Division JP7269192B2 (en) 2020-03-09 2020-03-09 Game processing system, game processing method, and game processing program

Publications (1)

Publication Number Publication Date
JP2023093647A true JP2023093647A (en) 2023-07-04

Family

ID=71450257

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020039653A Active JP7269192B2 (en) 2020-03-09 2020-03-09 Game processing system, game processing method, and game processing program
JP2023069997A Pending JP2023093647A (en) 2020-03-09 2023-04-21 Game processing system, game processing method, and game processing program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020039653A Active JP7269192B2 (en) 2020-03-09 2020-03-09 Game processing system, game processing method, and game processing program

Country Status (1)

Country Link
JP (2) JP7269192B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6923726B1 (en) * 2020-08-13 2021-08-25 株式会社コロプラ Methods, computer-readable media, and information processing equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3965111B2 (en) 2002-12-11 2007-08-29 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP6306442B2 (en) 2014-06-09 2018-04-04 株式会社バンダイナムコエンターテインメント Program and game system

Also Published As

Publication number Publication date
JP2020103939A (en) 2020-07-09
JP7269192B2 (en) 2023-05-08

Similar Documents

Publication Publication Date Title
US11642590B2 (en) Game processing system, method of processing game, and storage medium storing program for processing game
JP6908573B2 (en) Game processing system, game processing method, and game processing program
US11644893B2 (en) Application processing system, method of processing application, and storage medium storing program for processing application
JP2023093647A (en) Game processing system, game processing method, and game processing program
JP6691151B2 (en) Game processing system, game processing method, and game processing program
JP2019136066A (en) Application processing system, application processing method, and application processing program
JP6775870B2 (en) Game processing system, game processing method, and game processing program
JP7227314B2 (en) Game processing system, game processing method, and game processing program
JP6792604B2 (en) Game processing system, game processing method, and game processing program
JP7005435B2 (en) Game processing system, game processing method, and game processing program
JP7148590B2 (en) Game processing system, game processing method, and game processing program
JP6815373B2 (en) Game processing system, game processing method, and game processing program
JP6855416B2 (en) Game processing system, game processing method, and game processing program
JP6850769B2 (en) Game processing system, game processing method, and game processing program
JP7211778B2 (en) Application processing system, application processing method, and application processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213