JP6792604B2 - Game processing system, game processing method, and game processing program - Google Patents

Game processing system, game processing method, and game processing program Download PDF

Info

Publication number
JP6792604B2
JP6792604B2 JP2018218066A JP2018218066A JP6792604B2 JP 6792604 B2 JP6792604 B2 JP 6792604B2 JP 2018218066 A JP2018218066 A JP 2018218066A JP 2018218066 A JP2018218066 A JP 2018218066A JP 6792604 B2 JP6792604 B2 JP 6792604B2
Authority
JP
Japan
Prior art keywords
action
player
scene
game
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018218066A
Other languages
Japanese (ja)
Other versions
JP2019136479A (en
Inventor
貴志 桑谷
貴志 桑谷
誠 千田
誠 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2018218066A priority Critical patent/JP6792604B2/en
Priority to EP19155826.1A priority patent/EP3520868A1/en
Priority to US16/268,728 priority patent/US10981052B2/en
Publication of JP2019136479A publication Critical patent/JP2019136479A/en
Priority to US16/863,227 priority patent/US11110346B2/en
Application granted granted Critical
Publication of JP6792604B2 publication Critical patent/JP6792604B2/en
Priority to US17/395,137 priority patent/US11642590B2/en
Priority to US18/128,846 priority patent/US20230233930A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本明細書における開示は、仮想キャラクタとのインタラクションを提供するゲームを処理するゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラムに関する。 The disclosure herein relates to a game processing system, a game processing method, and a game processing program that processes a game that provides interaction with a virtual character.

仮想キャラクタとのインタラクションを提供するシミュレーションゲームが知られている。かかるシミュレーションゲームは、例えば、特開2017−184842号公報(特許文献1)に開示されている。 Simulation games are known that provide interaction with virtual characters. Such a simulation game is disclosed in, for example, Japanese Patent Application Laid-Open No. 2017-184842 (Patent Document 1).

このようなシミュレーションゲームにおいては、プレイヤからの操作入力に対する仮想キャラクタのリアクションが予め定められている。例えば、特許文献1においては、仮想キャラクタからなされた質問に対する回答の候補が選択肢としてプレイヤに提示され、当該プレイヤはいずれかの選択肢を選択する。この選択肢ごとに仮想キャラクタの次の質問が定められているため、仮想キャラクタは、プレイヤの選択に応じて次の質問を行うことができる。 In such a simulation game, the reaction of the virtual character to the operation input from the player is predetermined. For example, in Patent Document 1, candidates for answers to questions asked by virtual characters are presented to the player as options, and the player selects one of the options. Since the next question of the virtual character is defined for each of these options, the virtual character can ask the next question according to the player's selection.

このような仮想キャラクタとのインタラクションを提供するゲームにおいて、ゲームへの没入感を高めるために、ヘッドマウントディスプレイ(以下、「HMD」ということがある。)が利用されることがある。例えば、HMDに仮想空間を表示し、この仮想空間内に登場する仮想キャラクタとHMDを用いてインタラクションできるVRゲームが知られている。この種のVRゲームとして、株式会社バンダイナムコエンターテインメントの「サマーレッスン」が知られている(非特許文献1参照)。 In a game that provides interaction with such a virtual character, a head-mounted display (hereinafter, may be referred to as “HMD”) may be used in order to enhance the immersive feeling in the game. For example, there is known a VR game in which a virtual space is displayed on an HMD and the virtual character appearing in the virtual space can interact with the HMD. As a VR game of this type, "Summer Lesson" by BANDAI NAMCO Entertainment Inc. is known (see Non-Patent Document 1).

上記の「サマーレッスン」では、HMDのトラッキングセンサにより検出された検出情報に応じて、仮想キャラクタとのインタラクションを特定し、この特定されたインタクラクションをプレイヤに体験させる機能が実現されている。例えば、HMDに表示されている仮想キャラクタの画像の動きに応答して当該HMDを装着したプレイヤが頷くと、この頷きに対応するプレイヤの頭部の動きが検出される。そして、この検出された頭部の動きに基づいて、プレイヤが頷いたことに対応する動作を行う仮想キャラクタの画像がHMDに表示される。 In the above-mentioned "summer lesson", a function of identifying an interaction with a virtual character according to the detection information detected by the tracking sensor of the HMD and allowing the player to experience the identified interaction is realized. For example, when the player wearing the HMD nods in response to the movement of the image of the virtual character displayed on the HMD, the movement of the player's head corresponding to this nod is detected. Then, based on the detected movement of the head, an image of a virtual character that performs an action corresponding to the player nodding is displayed on the HMD.

このように、HMDを用いて仮想キャラクタとのインタラクションを行う従来のVRゲームでは、プレイヤの頭部の動きに追従するように仮想空間の画像が表示され、また、頭部の動きに応じた仮想キャラクタとのインタラクションが体験されるため、プレイヤは高い没入感を得られる。 In this way, in the conventional VR game that interacts with the virtual character using the HMD, the image of the virtual space is displayed so as to follow the movement of the player's head, and the virtual according to the movement of the head. Since the interaction with the character is experienced, the player can get a high immersive feeling.

特開2017−184842号公報JP-A-2017-184842

“サマーレッスン”[online]、平成29年12月12日検索、インターネット(URL: HYPERLINK "http://summer-lesson.bn-ent.net/" http://summer-lesson.bn-ent.net/)"Summer lesson" [online], searched on December 12, 2017, Internet (URL: HYPERLINK "http://summer-lesson.bn-ent.net/" http://summer-lesson.bn-ent. net /)

HMDを用いて仮想キャラクタとインタラクションを行う場合、プレイヤの仮想キャラクタに対するアクションが多様となり得る。プレイヤの仮想キャラクタに対するアクションが多様化すると、プレイヤのアクションに対する仮想キャラクタのアクション(リアクション)を特定するための情報のデータ量が増大するという問題が生じる。 When interacting with a virtual character using the HMD, the actions of the player on the virtual character can be diverse. When the actions of the player with respect to the virtual character are diversified, there arises a problem that the amount of information data for specifying the action (reaction) of the virtual character with respect to the player's action increases.

本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。 An object of the present disclosure is to provide technical improvements that solve or alleviate at least some of the problems of the prior art described above.

一態様によるゲーム処理システムは、ゲームのシナリオを構成する複数のゲームシーンの各々に関連するシーンデータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記ゲームの処理を行うゲーム処理システムである。当該ゲーム処理システムにおいて、前記複数のゲームシーンは、仮想キャラクタのアクションを特定するための複数の第1アクションデータを含む第1シーンと、前記仮想キャラクタのアクションを特定するための複数の第2アクションデータを含む第2シーンと、を含む。前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記ゲームを進行させ、前記複数の第1アクションデータの各々に基づいて前記仮想キャラクタに第1アクションを実行させ、前記第1シーンの実行中にシーン中断条件が満たされた場合に、前記第1シーンの実行を中断して前記第2シーンを開始する。 A game processing system according to one aspect includes a storage for storing scene data related to each of a plurality of game scenes constituting a game scenario, and one or a plurality of computer processors, and performs game processing for processing the game. It is a system. In the game processing system, the plurality of game scenes include a first scene including a plurality of first action data for specifying an action of a virtual character, and a plurality of second actions for specifying an action of the virtual character. Includes a second scene containing data. The one or more computer processors execute a computer-readable instruction to advance the game based on the detection information detected by the head-mounted display mounted on the player's head, and the plurality of computer processors. The virtual character is made to execute the first action based on each of the one action data, and when the scene interruption condition is satisfied during the execution of the first scene, the execution of the first scene is interrupted and the second scene is executed. Start the scene.

一態様において、前記ゲームは、前記プレイヤの頭部に装着されていない情報処理装置からの入力に応じて前記ゲームを進行させる第1モードと、前記ヘッドマウントディスプレイの前記検出情報に応じて前記ゲームを進行させる第2モードと、を有し、前記第1アクションは、前記第2モードにおいて実行される。一態様において、前記一又は複数のコンピュータプロセッサは、前記シーン中断条件が満たされた場合に、前記第2モードを中断し、前記第1モードへ移行するための移行処理を行う。 In one aspect, the game is a first mode in which the game progresses in response to an input from an information processing device not attached to the player's head, and the game in response to the detection information of the head-mounted display. The first action is executed in the second mode. In one aspect, the one or more computer processors interrupt the second mode and perform a transition process for shifting to the first mode when the scene interruption condition is satisfied.

一態様において、前記一又は複数のコンピュータプロセッサは、前記第1シーンから前記第2シーンへ移行する際にディスプレイに表示されるシーン移行画面を、前記シーン中断条件が満たされた場合にも前記ディスプレイに表示させる。 In one aspect, the one or more computer processors display a scene transition screen displayed on the display when transitioning from the first scene to the second scene, even when the scene interruption condition is satisfied. To display.

一態様において、前記第1アクションは、前記仮想キャラクタの一連のアクションで構成されるメインアクションと、前記メインアクションを中断して実行される割込アクションと、前記割込アクションの実行後に行われる復帰アクションと、を有する。 In one aspect, the first action includes a main action composed of a series of actions of the virtual character, an interrupt action executed by interrupting the main action, and a return performed after the execution of the interrupt action. Have an action.

一態様において、前記一又は複数のコンピュータプロセッサは、前記第1アクションの実行中に前記プレイヤから特定アクションがなされたことに応じて前記シーン中断条件が満たされたか否かの判定を行い、前記シーン中断条件が満たされていないと判定された場合に前記割込アクションを実行する。 In one aspect, the one or more computer processors determine whether or not the scene interruption condition is satisfied in response to a specific action taken by the player during the execution of the first action, and the scene. When it is determined that the interruption condition is not satisfied, the interrupt action is executed.

一態様において、前記シーン中断条件は、前記検出情報から特定された注視位置が仮想空間内に設定された禁止領域上にあること、を含む。 In one aspect, the scene interruption condition includes that the gaze position identified from the detection information is on a prohibited area set in the virtual space.

一態様において、前記シーン中断条件は、前記プレイヤが同じアクションを所定回数以上繰り返したこと、を含む。 In one aspect, the scene interruption condition includes that the player repeats the same action a predetermined number of times or more.

一態様において、前記シーン中断条件は、前記プレイヤが前記仮想キャラクタの所定の部位に対するアクションを所定回数以上行ったこと、を含む。 In one aspect, the scene interruption condition includes that the player has performed an action on a predetermined portion of the virtual character a predetermined number of times or more.

一態様において、前記前記シーン中断条件は、前記プレイヤが禁止アクションに該当するアクションを行ったこと、を含む。 In one aspect, the scene interruption condition includes that the player has performed an action corresponding to a prohibited action.

一態様において、前記ストレージは、パラメータを記憶しており、前記一又は複数のコンピュータプロセッサは、前記プレイヤのアクションに応じて前記パラメータを更新し、前記シーン中断条件は、前記パラメータに関する条件を含む。 In one aspect, the storage stores a parameter, the one or more computer processors updates the parameter in response to an action of the player, and the scene interruption condition includes a condition relating to the parameter.

一態様において、前記第1アクションの実行中に中断条件が満たされた場合に、前記第1アクションの実行を中断させる。 In one aspect, when the interruption condition is satisfied during the execution of the first action, the execution of the first action is interrupted.

一態様は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することによりゲームの処理を行うゲーム処理方法に関する。当該ゲーム処理方法は、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記ゲームを進行させる工程と、前記第1シーンの実行中にシーン中断条件が満たされた場合に、前記第1シーンの実行を中断して前記第2シーンを開始する工程と、を備える。 One aspect relates to a game processing method in which one or more computer processors process a game by executing computer-readable instructions. The game processing method includes a step of advancing the game based on detection information detected by a head-mounted display mounted on the player's head, and a case where a scene interruption condition is satisfied during execution of the first scene. A step of interrupting the execution of the first scene and starting the second scene.

一態様は、一又は複数のコンピュータプロセッサに実行されることによりゲームの処理を行うためのゲーム処理プログラムに関する。当該ゲーム処理プログラムは、前記一又は複数のコンピュータプロセッサに、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記ゲームを進行させる工程と、前記第1シーンの実行中にシーン中断条件が満たされた場合に、前記第1シーンの実行を中断して前記第2シーンを開始する工程と、を実行させる。 One aspect relates to a game processing program for processing a game by being executed by one or more computer processors. The game processing program is in the process of advancing the game on the one or more computer processors based on the detection information detected by the head-mounted display mounted on the player's head, and during the execution of the first scene. When the scene interruption condition is satisfied, the process of interrupting the execution of the first scene and starting the second scene is executed.

実施形態によれば、仮想キャラクタのアクション(リアクション)を特定するための情報のデータ量の増加を抑制できる。 According to the embodiment, it is possible to suppress an increase in the amount of information data for identifying the action (reaction) of the virtual character.

一実施形態によるゲーム処理システムを示すブロック図である。It is a block diagram which shows the game processing system by one Embodiment. 図1のゲーム処理システムにおいて利用可能なヘッドマウントディスプレイを示す模式図である。It is a schematic diagram which shows the head-mounted display which can be used in the game processing system of FIG. ゲームのプレイヤに装着されたヘッドマウントディスプレイを模式的に示す図である。It is a figure which shows typically the head-mounted display attached to the player of a game. シナリオデータを模式的に示す図である。It is a figure which shows the scenario data schematically. 一実施形態によるゲーム処理システムにより処理されるゲームのモード移行を説明する図である。It is a figure explaining the mode transition of the game processed by the game processing system by one Embodiment. 一実施形態におけるチャットモードでの処理の流れを示すフロー図である。It is a flow chart which shows the flow of processing in a chat mode in one Embodiment. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7aの画面には、プレイヤにより選択されるメッセージの選択肢が示されている。It is a figure which shows the example of the display image in the chat mode in one Embodiment. The screen of FIG. 7a shows the message options selected by the player. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7bの画面には、プレイヤにより選択されたメッセージが示されている。It is a figure which shows the example of the display image in the chat mode in one Embodiment. The screen of FIG. 7b shows a message selected by the player. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7cの画面には、VRモードへの移行を促すメッセージ、VRモードにおける設定を選択するためのメッセージ、及びVRモードにおいて使用されるアイテムを選択するためのメッセージが示されている。It is a figure which shows the example of the display image in the chat mode in one Embodiment. The screen of FIG. 7c shows a message prompting the transition to the VR mode, a message for selecting a setting in the VR mode, and a message for selecting an item to be used in the VR mode. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7dの画面には、移行開始オブジェクトが示されている。It is a figure which shows the example of the display image in the chat mode in one Embodiment. The transition start object is shown on the screen of FIG. 7d. 一実施形態におけるモード移行処理の流れを示すフロー図である。It is a flow chart which shows the flow of mode transition processing in one Embodiment. 一実施形態におけるモード移行処理での表示画像の例を示す図である。図9aの画面には、ディスプレイを装着具へ装着するように促すガイダンスが示されている。It is a figure which shows the example of the display image in the mode transition process in one Embodiment. The screen of FIG. 9a shows guidance prompting the display to be attached to the wearer. 一実施形態における移行処理での表示画像の例を示す図である。図9bの画面には、移行オブジェクトが示されている。It is a figure which shows the example of the display image in the transition process in one Embodiment. The transition object is shown on the screen of FIG. 9b. 一実施形態におけるVRモードでの処理の流れを示すフロー図である。It is a flow chart which shows the flow of the process in the VR mode in one Embodiment. 一実施形態におけるVRモードでの表示画像の例を示す図である。It is a figure which shows the example of the display image in the VR mode in one Embodiment. VRモードで実行されているシーンにおける仮想キャラクタのアクションの流れを模式的に示す図である。It is a figure which shows typically the flow of the action of a virtual character in the scene executed in the VR mode. 他の実施形態によるゲーム処理システムを示すブロック図である。It is a block diagram which shows the game processing system by another embodiment. 他の実施形態によるゲームを構成する複数のシーンを模式的に示す図である。It is a figure which shows typically a plurality of scenes constituting the game by another embodiment.

以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings as appropriate. The same or similar components are designated by the same reference numerals in a plurality of drawings.

図1から図3を参照して、一実施形態によるゲーム処理システムについて説明する。図1は、一実施形態によるゲーム処理システム1を示すブロック図であり、図2は、ゲーム処理システム1において用いられるヘッドマウントディスプレイ10(以下、「HMD10」という。)の模式図であり、図3は、プレイヤ5に装着されたHMD10を模式的に示す図である。 A game processing system according to an embodiment will be described with reference to FIGS. 1 to 3. FIG. 1 is a block diagram showing a game processing system 1 according to an embodiment, and FIG. 2 is a schematic diagram of a head-mounted display 10 (hereinafter referred to as “HMD10”) used in the game processing system 1. 3 is a diagram schematically showing the HMD 10 mounted on the player 5.

一実施形態によるゲーム処理システム1は、一実施形態によるゲーム処理プログラムを実行することにより様々なゲームを実現する。プレイヤは、ゲームシステム1を利用して、ゲーム媒体を用いた各種ゲームをプレイすることができる。ゲーム媒体は、ゲームに使用される電子データであり、ユーザによってゲーム内で取得、所有、使用、管理、交換、合成、強化、売却、廃棄、又は贈与、又は前記以外の方法で使用され得る。ゲーム媒体には、例えば、カード、アイテム、仮想通貨、チケット、キャラクタ、アバタ、レベル情報、ステータス情報、パラメータ情報(体力値や攻撃力など)、能力情報、スキル、アビリティ、呪文、ジョブ及びこれら以外のゲームで利用可能な各種電子データを含む。ゲーム処理システム1で利用可能なゲーム媒体及びその利用態様は本明細書で明示されるものに限られない。ゲーム処理システム1は、例えば、仮想空間において仮想キャラクタとプレイヤとがインタラクションを行うゲームを実現することができる。ゲーム処理システム1により実現されるゲームは、第1モードと第2モードとを有する。第1モードの例はチャットモードであり、第2モードの例はVRモードである。第1モード及び第2モードについては後述される。 The game processing system 1 according to one embodiment realizes various games by executing the game processing program according to one embodiment. The player can play various games using the game medium by using the game system 1. The game medium is electronic data used in the game, which may be acquired, owned, used, managed, exchanged, synthesized, enhanced, sold, discarded, or gifted by the user, or used in a manner other than the above. Game media include, for example, cards, items, virtual currencies, tickets, characters, avatars, level information, status information, parameter information (physical strength, attack power, etc.), ability information, skills, abilities, spells, jobs, and others. Includes various electronic data available in the game. The game medium and its usage mode that can be used in the game processing system 1 are not limited to those specified in this specification. The game processing system 1 can realize, for example, a game in which a virtual character and a player interact with each other in a virtual space. The game realized by the game processing system 1 has a first mode and a second mode. An example of the first mode is a chat mode, and an example of the second mode is a VR mode. The first mode and the second mode will be described later.

ゲーム処理システム1は、HMD10と、サーバ50と、を備える。HMD10とサーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。 The game processing system 1 includes an HMD 10 and a server 50. The HMD 10 and the server 50 are connected to each other so as to be able to communicate with each other via the network 40.

HMD10は、図2に示されているように、人間の頭部に装着される装着具11と、この装着具11に取り付けられる情報処理装置20と、を備えている。 As shown in FIG. 2, the HMD 10 includes a fitting 11 attached to a human head and an information processing device 20 attached to the fitting 11.

装着具11は、開口11dが形成されたゴーグル型の筐体11aと、この筐体11aに取り付けられた第1ベルト11b及び第2ベルト11cと、蓋11eと、を有する。蓋11eは、筐体11aに開閉自在に取り付けられている。筐体11aの前方には開口11dが形成されている。図2においては、蓋11eは開放されている。HME10の使用時には、蓋11eは、開口11dを閉塞するように閉じられる。 The fitting 11 has a goggle-shaped housing 11a having an opening 11d formed therein, a first belt 11b and a second belt 11c attached to the housing 11a, and a lid 11e. The lid 11e is attached to the housing 11a so as to be openable and closable. An opening 11d is formed in front of the housing 11a. In FIG. 2, the lid 11e is open. When using the HME 10, the lid 11e is closed to close the opening 11d.

情報処理装置20は、HMD10の蓋11eの内側に、着脱可能に設けられる。情報処理装置20は、ディスプレイ24を備えている。情報処理装置20は、蓋11eが閉じられたときに、ディスプレイ24が筐体11aの内側を向くように蓋11eに取り付けられる。情報処理装置20は、HMD10の使用時に装着具11に取り付けられる。情報処理装置20は、HMD10を使用しないときには、装着具11から取り外される。 The information processing device 20 is detachably provided inside the lid 11e of the HMD 10. The information processing device 20 includes a display 24. The information processing device 20 is attached to the lid 11e so that the display 24 faces the inside of the housing 11a when the lid 11e is closed. The information processing device 20 is attached to the fitting 11 when the HMD 10 is used. The information processing device 20 is removed from the fitting 11 when the HMD 10 is not in use.

図示の実施形態において、情報処理装置20は、スマートフォンである。情報処理装置20は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の各種情報処理装置であってもよい。HMD10から取り外された情報処理装置20は、後述のように、第1モードにおいてプレイヤ5により操作される。HMD10から取り外された情報処理装置20は、ゲーム以外にも、その本来の目的に応じて通話やインターネットアクセスのために利用される。 In the illustrated embodiment, the information processing device 20 is a smartphone. In addition to smartphones, the information processing device 20 may be a mobile phone, a tablet terminal, a personal computer, an electronic book reader, a wearable computer, a game console, and various other information processing devices. The information processing device 20 removed from the HMD 10 is operated by the player 5 in the first mode, as will be described later. The information processing device 20 removed from the HMD 10 is used not only for games but also for telephone calls and Internet access according to its original purpose.

情報処理装置20は、上記のように、ディスプレイ24を備えている。図示の実施形態においては、情報処理装置20が装着具11に取り付けられたときに、ディスプレイ24がHMD10における画像表示のための装置として機能する。よって、HMD10を用いてゲームをプレイする場合には、ディスプレイ24に当該ゲームの仮想空間、仮想キャラクタ、及びこれら以外のゲームに関連する画像が表示される。 The information processing device 20 includes a display 24 as described above. In the illustrated embodiment, when the information processing device 20 is attached to the fitting 11, the display 24 functions as a device for displaying an image in the HMD 10. Therefore, when the game is played using the HMD 10, the virtual space of the game, the virtual characters, and images related to the game other than these are displayed on the display 24.

装着具11の形状は、図示されたゴーグル型に限られない。装着具11は、装着されたプレイヤの頭部の動きに追従して動き、装着されたときにディスプレイ24を装着者の眼前に配置できる任意の形状の構造体を含み得る。装着具11は、例えば眼鏡を模した形状、帽子を模した形状、又はヘルメットを模した形状であってもよい。プレイヤの没入感を向上させるために、HMD10は、装着具11がプレイヤの頭部に装着されたときに、ディスプレイ24が当該プレイヤの両目を覆うように構成されてもよい。 The shape of the fitting 11 is not limited to the illustrated goggle type. The wearer 11 may include a structure of any shape that follows the movement of the worn player's head and allows the display 24 to be placed in front of the wearer's eyes when worn. The fitting 11 may have, for example, a shape imitating eyeglasses, a shape imitating a hat, or a shape imitating a helmet. In order to improve the immersive feeling of the player, the HMD 10 may be configured such that the display 24 covers both eyes of the player when the wearer 11 is attached to the head of the player.

HMD10は、使用時において、図3に示されているように、装着具11を介してプレイヤ5の頭部に取り付けられる。プレイヤ5の頭部に装着されている装着具11には、情報処理装置20が取り付けられている。 At the time of use, the HMD 10 is attached to the head of the player 5 via the fitting 11 as shown in FIG. The information processing device 20 is attached to the attachment 11 attached to the head of the player 5.

再び図1を参照して、情報処理装置20についてさらに説明する。図示のように、一実施形態において、情報処理装置20は、コンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27を備えている。 The information processing apparatus 20 will be further described with reference to FIG. 1 again. As shown in the figure, in one embodiment, the information processing device 20 includes a computer processor 21, a memory 22, a communication I / F 23, a display 24, a sensor unit 25, a sound collecting device 26, and a storage 27.

コンピュータプロセッサ21は、ストレージ27又はそれ以外のストレージからオペレーティングシステムやゲームロジックを実現する様々なプログラムをメモリ22にロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。プロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。 The computer processor 21 is an arithmetic unit that loads various programs that realize an operating system and game logic from the storage 27 or other storage into the memory 22 and executes instructions included in the loaded programs. The computer processor 21 is, for example, a CPU, an MPU, a DSP, a GPU, various arithmetic units other than these, or a combination thereof. The processor 21 may be realized by an integrated circuit such as an ASIC, PLD, FPGA, MCU or the like. Although the computer processor 21 is shown as a single component in FIG. 1, the computer processor 21 may be a set of a plurality of physically separate computer processors. In the present specification, the program described as being executed by the computer processor 21 or the instructions contained in the program may be executed by a single computer processor or may be executed by a plurality of computer processors in a distributed manner. May be good. Further, the program executed by the computer processor 21 or the instructions included in the program may be executed by a plurality of virtual computer processors.

メモリ22は、コンピュータプロセッサ21が実行する命令及びそれ以外の各種データを格納するために用いられる。一実施形態によるゲーム処理プログラムの少なくとも一部は、ゲームの進行に応じて、随時メモリ22にロードされる。メモリ22は、例えば、コンピュータプロセッサ21が高速にアクセス可能な主記憶装置(メインメモリ)である。メモリ22は、例えば、DRAMやSRAM等のRAMによって構成される。 The memory 22 is used to store instructions executed by the computer processor 21 and various other data. At least a part of the game processing program according to the embodiment is loaded into the memory 22 at any time as the game progresses. The memory 22 is, for example, a main storage device (main memory) that the computer processor 21 can access at high speed. The memory 22 is composed of, for example, a RAM such as a DRAM or an SRAM.

通信I/F23は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。情報処理装置20は、通信I/F23を介して、他の装置とデータを送受信することができる。 The communication I / F23 is implemented as hardware, firmware, communication software such as a TCP / IP driver or PPP driver, or a combination thereof. The information processing device 20 can send and receive data to and from other devices via the communication I / F 23.

ディスプレイ24は、表示パネル24aと、タッチパネル24bと、を有する。例えば、タッチパネル24bは、表示パネル24aの上面又は下面に積層されている。表示パネル24aは、液晶パネル、有機ELパネル、無機ELパネル、又はこれら以外の画像を表示可能な任意の表示パネルである。タッチパネル24bは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネル24bは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネル24bは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。 The display 24 has a display panel 24a and a touch panel 24b. For example, the touch panel 24b is laminated on the upper surface or the lower surface of the display panel 24a. The display panel 24a is a liquid crystal panel, an organic EL panel, an inorganic EL panel, or any other display panel capable of displaying an image other than these. The touch panel 24b is configured to be able to detect a player's touch operation (contact operation). The touch panel 24b can detect various touch operations such as tapping, double tapping, and dragging of the player. The touch panel 24b may include a capacitance type proximity sensor and may be configured to be capable of detecting a player's non-contact operation.

センサユニット25は、一又は複数のセンサを備える。センサユニット25は、例えば、ジャイロセンサ、加速度センサ、および地磁気センサのうち少なくとも1つのセンサを含む。センサユニット25は、プレイヤの眼球の動きを直接的に検出するアイトラッキングセンサを備えてもよい。アイトラッキングセンサは、例えば、虹彩内に近赤外光を入射しその反射光を検出する視線検出センサである。後述するように、センサユニット25により検出された検出情報に基づいて、HMD10を装着したプレイヤ5の頭部の位置及び向きが特定される。センサユニット25を構成する各種センサの少なくとも一部は、装着具11及び/又は装着具11以外の情報処理装置20とは異なる部材に設けられてもよい。 The sensor unit 25 includes one or more sensors. The sensor unit 25 includes, for example, at least one of a gyro sensor, an acceleration sensor, and a geomagnetic sensor. The sensor unit 25 may include an eye tracking sensor that directly detects the movement of the player's eyeball. The eye tracking sensor is, for example, a line-of-sight detection sensor that injects near-infrared light into the iris and detects the reflected light. As will be described later, the position and orientation of the head of the player 5 wearing the HMD 10 are specified based on the detection information detected by the sensor unit 25. At least a part of the various sensors constituting the sensor unit 25 may be provided on a member other than the attachment 11 and / or the information processing device 20 other than the attachment 11.

集音装置26は、音声を集音することができるように構成されている。集音装置26は、例えば、マイクロフォンである。集音装置26により集音された音声情報に基づいて、プレイヤ5の音声が検出される。 The sound collecting device 26 is configured to be able to collect sound. The sound collector 26 is, for example, a microphone. The voice of the player 5 is detected based on the voice information collected by the sound collecting device 26.

ストレージ27は、コンピュータプロセッサ21によりアクセスされる外部記憶装置である。ストレージ27は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ27には、ゲーム処理プログラム等の様々なプログラムが記憶される。また、ストレージ27には、ゲームにおいて用いられる各種データも記憶される。ストレージ27に記憶され得るプログラム及び各種データの少なくとも一部は、情報処理装置20とは物理的に別体のストレージに格納されてもよい。 The storage 27 is an external storage device accessed by the computer processor 21. The storage 27 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various storage devices other than those capable of storing data. Various programs such as a game processing program are stored in the storage 27. In addition, various data used in the game are also stored in the storage 27. At least a part of the program and various data that can be stored in the storage 27 may be stored in a storage that is physically separate from the information processing device 20.

図示の実施形態において、ストレージ27には、画像データ28a、チャットデータ28b、シナリオデータ28c、パラメータデータ28d、中断条件データ28e、ゲーム進行データ28f、及び前記以外のゲームの進行のために必要な様々なデータが記憶される。 In the illustrated embodiment, the storage 27 includes image data 28a, chat data 28b, scenario data 28c, parameter data 28d, interruption condition data 28e, game progress data 28f, and various other games necessary for the progress of the game. Data is stored.

画像データ28aには、ゲームの行われる仮想空間の背景を描画するためのデータ、仮想キャラクタを描画するためのデータ、及びゲームで用いられる仮想キャラクタ以外のオブジェクトを描画するためのデータが含まれる。画像データ28aには、仮想空間内におけるオブジェクトの位置情報を含んでもよい。 The image data 28a includes data for drawing the background of the virtual space in which the game is performed, data for drawing the virtual character, and data for drawing an object other than the virtual character used in the game. The image data 28a may include position information of an object in the virtual space.

チャットデータ28bには、仮想キャラクタのアイコンを描画するためのデータ、プレイヤ5のアイコンを描画するためのデータ、仮想キャラクタの複数のメッセージを特定するためのデータ、当該仮想キャラクタの複数のメッセージの各々に対する応答メッセージの選択肢を示すデータ、及びこれら以外のチャットモードで用いられるデータが含まれる。仮想キャラクタの複数のメッセージは、各メッセージに対応するノードを有し、当該ノード同士がアークで接続されたツリー構造で定義されてもよい。このツリー構造では、例えば、最上位のルートノードである開始メッセージから複数のアークが伸びており、各アークが下位ノードに接続される。この下位ノードからもアークが延び、当該アークがさらに下位のノードに接続される。下位ノードの各々は、開始メッセージよりも後に表示され得る仮想キャラクタのメッセージの候補に対応する。また、チャットデータ28bには、チャットモードからVRモードへの移行を開始する条件であるモード移行条件が含まれてもよい。モード移行条件には、例えば、ゲームがチャットモードで開始されてからの経過時間が所定時間以上であること、ツリー構造のメッセージにおいて末端のノードまでチャットが進行したこと、及びこれら以外の条件が含まれる。チャットデータ28bには、移行オブジェクトの選択が完了しなかった後に再開されたチャットモードで表示されるメッセージを示すデータが含まれてもよい。 The chat data 28b includes data for drawing the icon of the virtual character, data for drawing the icon of the player 5, data for identifying a plurality of messages of the virtual character, and each of the plurality of messages of the virtual character. Includes data indicating options for response messages to, and data used in other chat modes. A plurality of messages of a virtual character may have a node corresponding to each message and may be defined by a tree structure in which the nodes are connected by an arc. In this tree structure, for example, a plurality of arcs extend from the start message which is the highest root node, and each arc is connected to a lower node. An arc extends from this lower node, and the arc is connected to a lower node. Each of the subordinate nodes corresponds to a candidate message for the virtual character that can be displayed after the start message. Further, the chat data 28b may include a mode transition condition which is a condition for starting the transition from the chat mode to the VR mode. The mode transition conditions include, for example, the elapsed time from the start of the game in chat mode for a predetermined time or more, the chat progressing to the terminal node in the tree-structured message, and other conditions. Is done. The chat data 28b may include data indicating a message displayed in the chat mode resumed after the selection of the migration object is not completed.

シナリオデータ28cには、ゲームの第2モード(例えば、VRモード)においてプレイヤ5によって体験されるシナリオを定義するデータが含まれる。ゲームにおいてプレイヤ5によって体験されるシナリオが複数ある場合、シナリオデータ28cは、複数のシナリオの各々についてシナリオデータを定義してもよい。 The scenario data 28c includes data that defines a scenario experienced by the player 5 in a second mode of the game (eg, VR mode). When there are a plurality of scenarios experienced by the player 5 in the game, the scenario data 28c may define scenario data for each of the plurality of scenarios.

図4を参照して、一実施形態におけるゲーム処理システムにおいて用いられるシナリオデータについて説明する。図4は、ゲーム処理システム1において用いられるシナリオデータ28cを模式的に示す。シナリオデータ28cは、VRモードにおいて実行されるシナリオを規定するためのデータセットである。図示の実施形態において、シナリオデータ28cは、第1シナリオ〜第5シナリオにそれぞれ対応する第1シナリオデータ28c1〜第5シナリオデータ28c5を有する。VRモードにおけるシナリオは6つ以上であってもよく4つ以下であってもよい。以下では、第1シナリオに対応する第1シナリオデータ28c1のデータ構造について説明する。以下の第1シナリオデータ28c1に関する説明は、第2シナリオデータ28c2〜第5シナリオデータ28c5にも当てはまる。 The scenario data used in the game processing system according to the embodiment will be described with reference to FIG. FIG. 4 schematically shows scenario data 28c used in the game processing system 1. The scenario data 28c is a data set for defining a scenario executed in the VR mode. In the illustrated embodiment, the scenario data 28c has first scenario data 28c1 to fifth scenario data 28c5 corresponding to the first scenario to the fifth scenario, respectively. The number of scenarios in VR mode may be 6 or more and 4 or less. Hereinafter, the data structure of the first scenario data 28c1 corresponding to the first scenario will be described. The following description of the first scenario data 28c1 also applies to the second scenario data 28c2 to the fifth scenario data 28c5.

図示の実施形態において、第1シナリオデータ28c1は、開始シーンデータA1と、基本シーンデータB1〜B3と、追加シーンデータC1〜C3と、終了シーンデータD1〜D2と、を含んでいる。一実施形態において、開始シーンデータA1、基本シーンデータB1〜B3、追加シーンデータC1〜C3、及び終了シーンデータD1〜D2に含まれるデータの各々は、各シーンにおける仮想キャラクタのアクションに関するデータ、各シーンで用いられる動画像に関するデータ、各シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の各シーンの実行に必要なデータを含み得る。 In the illustrated embodiment, the first scenario data 28c1 includes start scene data A1, basic scene data B1 to B3, additional scene data C1 to C3, and end scene data D1 to D2. In one embodiment, each of the data included in the start scene data A1, the basic scene data B1 to B3, the additional scene data C1 to C3, and the end scene data D1 to D2 is data relating to the action of the virtual character in each scene. It may include data on moving images used in the scene, data on actions that the player can take on virtual characters in each scene, and data necessary to execute each other scene.

図示の実施形態において、開始シーンデータA1は、第1シナリオの開始後に実行される開始シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。 In the illustrated embodiment, the start scene data A1 includes data on the action of the virtual character in the start scene executed after the start of the first scenario, data on the moving image used in the start scene, and the player with respect to the virtual character in the start scene. It may include data about actions that can be taken, as well as data necessary to perform other start scenes.

基本シーンデータB1〜B3は、開始シーンの後に行われる基本シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。基本シーンデータB1〜B3の各々には、追加シーンへの移行可否を判定するための追加シーン移行条件を示す情報が含まれてもよい。追加シーン移行条件は、基本シーンごとに定められ得る。追加シーン移行条件は、例えば、所定のオブジェクトを所定時間以上注視すること、所定の方向を注視しないこと、及び所定のアクションを取ることである。これら以外にも追加シーン移行条件は、シナリオのストーリー、仮想空間に登場するオブジェクトの種類、及びこれら以外の要素に応じて適宜定められ得る。 The basic scene data B1 to B3 are data related to the action of the virtual character in the basic scene performed after the start scene, data related to the moving image used in the start scene, and data related to the action that the player can take with respect to the virtual character in the start scene. , And other data necessary to execute the start scene. Each of the basic scene data B1 to B3 may include information indicating an additional scene transition condition for determining whether or not the transition to the additional scene is possible. Additional scene transition conditions can be set for each basic scene. The additional scene transition conditions are, for example, to gaze at a predetermined object for a predetermined time or longer, not to gaze at a predetermined direction, and to take a predetermined action. In addition to these, additional scene transition conditions can be appropriately determined according to the story of the scenario, the types of objects appearing in the virtual space, and other factors.

追加シーンデータC1〜C3は、追加シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。追加シーンは、基本シーンの実行中又は実行後に追加シーン移行条件が成立したか否かが判定され、その判定結果に応じて実行される。 The additional scene data C1 to C3 include data on the action of the virtual character in the additional scene, data on the moving image used in the start scene, data on the action that the player can take on the virtual character in the start scene, and other starts. It may contain the data needed to run the scene. The additional scene is determined whether or not the additional scene transition condition is satisfied during or after the execution of the basic scene, and is executed according to the determination result.

終了シーンデータD1〜D2は、第2モードの終了前に実行される終了シーンの実行に必要なデータを含み得る。終了シーンデータD1〜D2は、終了シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。 The end scene data D1 to D2 may include data necessary for executing the end scene executed before the end of the second mode. The end scene data D1 to D2 are data on the action of the virtual character in the end scene, data on the moving image used in the start scene, data on the action that the player can take on the virtual character in the start scene, and other start. It may contain the data needed to run the scene.

パラメータデータ28dには、ゲーム処理システム1において実現されるゲームに関するゲームパラメータが含まれる。このゲームパラメータは、プレイヤキャラクタに関するパラメータであってもよい。このプレイヤキャラクタに関するパラメータには、ノンプレイヤーキャラクタである仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータが含まれてもよい。ゲームパラメータは、ゲームの進行に応じて随時更新される。プレイヤキャラクタに関するパラメータは、仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータには限られない。プレイヤキャラクタに関するパラメータは、ゲームの種類、性質、世界観又はこれら以外の要素に応じて適宜定められる。 The parameter data 28d includes game parameters related to the game realized in the game processing system 1. This game parameter may be a parameter related to the player character. The parameters related to the player character may include a parameter representing the favorability of the virtual character, which is a non-player character, with respect to the user character. Game parameters are updated from time to time as the game progresses. The parameters related to the player character are not limited to the parameters representing the favorability of the virtual character to the user character. Parameters related to the player character are appropriately determined according to the type, nature, world view, or other factors of the game.

中断条件データ28eは、VRモードで実行されているゲーム又はそのゲームにおいて実行されているアクションを中断する条件である中断条件を定めるデータである。中断条件は、例えば、仮想空間内に設定された禁止領域が注視されたこと、プレイヤ5が仮想キャラクタに対して同じアクションを所定回数以上繰り返したこと、プレイヤ5が仮想キャラクタの所定の部位に対するアクションを所定回数以上行ったこと、プレイヤが禁止アクションを行ったこと、パラメータデータ28dに含まれる所定のパラメータが所定の閾値以上であること、又は、当該閾値以下であること、及びこれら以外のVRモードでのゲームの実行を中断するために定められる条件を含む。中断条件データ28eは、上記の禁止領域を示す座標に関するデータ及び禁止アクションを特定するためのデータを含んでもよい。プレイヤ5が同じアクションを行うたびにポイントを積算し、積算ポイントが所定ポイント以上となることを中断条件としてもよい。また、プレイヤ5に所定の初期ポイントを割り当てておき、プレイヤ5が同じアクションを行うたびに初期ポイントから所定のポイントを減じてプレイヤ5の保持ポイントを算出し、当該保持ポイントが所定の値以下となることを中断条件としてもよい。積算ポイント及び保持ポイントは、ゲームの途中でリセットされてもよい。 The interruption condition data 28e is data that defines an interruption condition that is a condition for interrupting a game executed in the VR mode or an action executed in the game. The interruption conditions are, for example, that the prohibited area set in the virtual space is watched, the player 5 repeats the same action for the virtual character more than a predetermined number of times, and the player 5 takes an action for a predetermined part of the virtual character. Is performed more than a predetermined number of times, the player has performed a prohibited action, the predetermined parameter included in the parameter data 28d is equal to or greater than a predetermined threshold value, or is equal to or less than the predetermined threshold value, and VR modes other than these are performed. Includes conditions set to interrupt the execution of the game in. The interruption condition data 28e may include data relating to the coordinates indicating the prohibited area and data for identifying the prohibited action. Points may be accumulated each time the player 5 performs the same action, and the interruption condition may be that the accumulated points become a predetermined point or more. Further, a predetermined initial point is assigned to the player 5, and each time the player 5 performs the same action, the predetermined point is subtracted from the initial point to calculate the holding point of the player 5, and the holding point is equal to or less than the predetermined value. May be a suspension condition. Accumulated points and retained points may be reset in the middle of the game.

ゲーム進行データ28fには、ゲームの進行の管理に用いられるデータが含まれる。ゲーム進行データ28fは、ゲームの進行に応じて更新されてもよい。ゲーム進行データ28fには、例えば、ゲームにおいてプレイヤが獲得したポイントに関するデータ、プレイヤ5が仮想キャラクタに対して行ったアクションを示すデータ、及びこれら以外のゲームの進行に応じて変化しえる各種データが含まれ得る。プレイヤ5が仮想キャラクタに対して行ったアクションを示すデータには、当該アクションが行われた仮想キャラクタの部位(例えば、頭部、肩、腕、又はこれら以外の部位)を示すデータが含まれてもよい。 The game progress data 28f includes data used for managing the progress of the game. The game progress data 28f may be updated according to the progress of the game. The game progress data 28f includes, for example, data regarding points acquired by the player in the game, data indicating actions performed by the player 5 on the virtual character, and various data other than these that can change according to the progress of the game. Can be included. The data indicating the action performed by the player 5 on the virtual character includes data indicating a part (for example, a head, a shoulder, an arm, or a part other than these) of the virtual character in which the action is performed. May be good.

図1に示されている情報処理装置20の構成要素及び機能は例示である。本発明に適用可能な情報処理装置20は、図示されていない様々な構成要素を備え得る。例えば、情報処理装置20は、ゲームの効果音や仮想キャラクタの音声を出力するスピーカを備えてもよい。 The components and functions of the information processing apparatus 20 shown in FIG. 1 are examples. The information processing apparatus 20 applicable to the present invention may include various components (not shown). For example, the information processing device 20 may include a speaker that outputs game sound effects and virtual character sounds.

続いて、HMD10の機能について説明する。図示の実施形態においては、情報処理装置20のコンピュータプロセッサ21においてコンピュータ読み取り可能な命令を実行することにより、HMD10の各種機能が実現される。コンピュータプロセッサ21において実行される命令には、一実施形態によるゲーム処理プログラムに含まれる命令が含まれる。 Subsequently, the function of the HMD 10 will be described. In the illustrated embodiment, various functions of the HMD 10 are realized by executing a computer-readable instruction in the computer processor 21 of the information processing device 20. The instructions executed in the computer processor 21 include the instructions included in the game processing program according to the embodiment.

コンピュータプロセッサ21によって一実施形態によるゲーム処理プログラムが実行されることにより、ゲーム処理システム1において第1モード及び当該第1モードとは異なる第2モードを有するゲームが実現される。ゲーム処理システム1において実現されるゲームは、第1モード及び第2モード以外のモードを有していてもよい。 By executing the game processing program according to one embodiment by the computer processor 21, a game having a first mode and a second mode different from the first mode is realized in the game processing system 1. The game realized in the game processing system 1 may have modes other than the first mode and the second mode.

ゲーム処理システム1において実現されるゲームの第1モードでは、HMD10がプレイヤ5に装着されていないときに、すなわち、情報処理装置20が装着具11から取り外されているときに、情報処理装置20により検出された第1検出情報に応じてゲームに関する処理が行われる。この第1検出情報には、情報処理装置20のタッチパネル24bにより検出されるプレイヤ5のタッチ操作に関する情報、集音装置26により検出されるプレイヤの音声に関する情報、及びHMD10がプレイヤ5に装着されていない場合に情報処理装置20において検出可能な前記以外の検出情報を含み得る。プレイヤ5は、第1モードにおいては、装着具11から取り外された情報処理装置20を用いてゲームに関する操作を行うことができる。第1モードにおいては、HMD10がプレイヤ5に装着されていないときにゲームを進行させることが想定されているため、ディスプレイ24には、立体視画像以外の画像が表示されてもよい。 In the first mode of the game realized in the game processing system 1, when the HMD 10 is not attached to the player 5, that is, when the information processing device 20 is removed from the attachment 11, the information processing device 20 Processing related to the game is performed according to the detected first detection information. In the first detection information, information on the touch operation of the player 5 detected by the touch panel 24b of the information processing device 20, information on the player's voice detected by the sound collecting device 26, and HMD 10 are attached to the player 5. If not, it may include detection information other than the above that can be detected by the information processing apparatus 20. In the first mode, the player 5 can perform operations related to the game by using the information processing device 20 removed from the attachment 11. In the first mode, since it is assumed that the game progresses when the HMD 10 is not attached to the player 5, an image other than the stereoscopic image may be displayed on the display 24.

ゲーム処理システム1において実現されるゲームの第2モードでは、プレイヤ5の頭部に装着されたHMD10によって検出される第2検出情報を用いてゲームが進行される。この第2検出情報は、例えば、センサユニット25によって検出される検出情報である。この第2検出情報に基づいて、プレイヤ5の頭部の向きを特定するためのヘッドトラッキング情報が算出される。ヘッドトラッキング情報は、プレイヤ5の頭部の向きに加えて、その位置を示す情報であってもよい。第2モードにおけるゲームの進行のための処理は、例えば、第2検出情報に基づいて算出されたヘッドトラッキング情報に基づいて実行される。第2モードにおけるゲームの進行のための処理は、ヘッドトラッキング情報に加えて、当該ヘッドトラッキング情報以外の情報も用いて実行されてもよい。プレイヤ5は、第2モードでゲームをプレイする準備として、情報処理装置20を装着具11に取付け、この情報処理装置20が取り付けられた装着具11を頭部に装着する。このように、第2モードにおいては、HMD10がプレイヤ5に装着されているときにゲームを進行させることが想定されているため、一実施形態において、第2モードでは、プレイヤ5によって立体視される立体視画像がディスプレイ24に表示される。立体視画像は、例えば、視差バリア方式によって、ディスプレイ24に表示される。視差バリア方式においては、左目用画像及び右目用画像がディスプレイ24に表示される。このように、立体視画像は、ディスプレイに表示されることによって、左右の目の視差を利用して立体視されるように構成された左目用画像及び右目用画像を含む画像のセットである。 In the second mode of the game realized in the game processing system 1, the game progresses using the second detection information detected by the HMD 10 mounted on the head of the player 5. This second detection information is, for example, detection information detected by the sensor unit 25. Based on this second detection information, head tracking information for specifying the direction of the head of the player 5 is calculated. The head tracking information may be information indicating the position of the player 5 in addition to the orientation of the head. The process for the progress of the game in the second mode is executed, for example, based on the head tracking information calculated based on the second detection information. The process for the progress of the game in the second mode may be executed by using information other than the head tracking information in addition to the head tracking information. The player 5 attaches the information processing device 20 to the attachment 11 and attaches the attachment 11 to which the information processing device 20 is attached to the head in preparation for playing the game in the second mode. As described above, in the second mode, it is assumed that the game progresses when the HMD 10 is attached to the player 5. Therefore, in one embodiment, in the second mode, the player 5 stereoscopically views the game. The stereoscopic image is displayed on the display 24. The stereoscopic image is displayed on the display 24 by, for example, a parallax barrier method. In the parallax barrier method, the image for the left eye and the image for the right eye are displayed on the display 24. As described above, the stereoscopic image is a set of images including the left eye image and the right eye image configured to be stereoscopically viewed by utilizing the parallax of the left and right eyes when displayed on the display.

第1モードは、例えば、チャットモードである。チャットモードは第1モードの例示である。チャットモードにおいては、プレイヤが仮想キャラクタとテキストメッセージを介してチャットする機能が実現される。プレイヤは、第1モードにおいては、仮想キャラクタとチャットを行うことにより、当該仮想キャラクタとのインタラクションを体験することができる。チャットモードにおける処理の具体的な内容は後述される。インタラクションとは、広義には、プレイヤが実行したアクションに対して仮想キャラクタがリアクションすることを意味する。仮想キャラクタとのインタラクションには、仮想キャラクタとの会話などによるコミュニケーションとしてなされるインタラクションが含まれる。本明細書においては、仮想キャラクタとのコミュニケーションとして行われるインタラクションをコミュニケーティブインタラクションと呼ぶことがある。仮想キャラクタとのインタラクションには、コミュニケーティブインタラクションの他に、仮想キャラクタとの対戦、仮想キャラクタと協力してゲームをプレイする協力プレイ、及びこれら以外の仮想キャラクタとの相互作用が含まれ得る。本明細書においては、仮想キャラクタとの対戦として行われるインタラクションを対戦インタラクションと呼ぶことがある。本明細書においては、仮想キャラクタとの協力プレイとして行われるインタラクションを協力インタラクションと呼ぶことがある。 The first mode is, for example, a chat mode. The chat mode is an example of the first mode. In the chat mode, a function is realized in which the player chats with a virtual character via a text message. In the first mode, the player can experience the interaction with the virtual character by chatting with the virtual character. The specific contents of the processing in the chat mode will be described later. Interaction, in a broad sense, means that the virtual character reacts to the action performed by the player. The interaction with the virtual character includes an interaction performed as communication such as a conversation with the virtual character. In the present specification, an interaction performed as communication with a virtual character may be referred to as a communicative interaction. Interactions with virtual characters may include, in addition to communicative interactions, battles with virtual characters, cooperative play in which games are played in cooperation with virtual characters, and interactions with other virtual characters. In the present specification, an interaction performed as a battle with a virtual character may be referred to as a battle interaction. In the present specification, an interaction performed as a cooperative play with a virtual character may be referred to as a cooperative interaction.

第2モードは、例えば、VRモードである。VRモードにおいては、情報処理装置20のディスプレイに表示される仮想空間に登場するノンプレイヤーキャラクターである仮想キャラクタと様々なインタラクションを行うための機能が実現される。VRモードにおける処理の具体的な内容は後述される。VRモードは第2モードの例示であり、第2モードには、ヘッドトラッキング情報を用いてゲーム進行のための処理が行われる任意のゲームモードが含まれ得る。 The second mode is, for example, a VR mode. In the VR mode, a function for performing various interactions with a virtual character, which is a non-player character appearing in the virtual space displayed on the display of the information processing device 20, is realized. The specific contents of the processing in the VR mode will be described later. The VR mode is an example of the second mode, and the second mode may include any game mode in which processing for game progress is performed using the head tracking information.

一実施形態において、ゲーム処理システム1で実現される第1モード及び第2モードを有するゲームは、仮想キャクタとコミュニケーティブインタラクション以外のインタラクションを行うゲームであってもよい。ゲーム処理システム1で実現されるゲームでは、コミュニケーティブインタラクションが行われなくともよい。一実施形態におけるゲームでは、第1モードでは2次元空間でプレイされ、第2モードでは3次元空間でプレイされる。一実施形態におけるゲームでは、第1モードでは3次元空間でプレイされ、第2モードでは当該第1モードの3次元空間とは異なる表示態様で表示される(又は当該第1モードの3次元空間とは異なる態様で構成される)3次元空間でプレイされる。一実施形態において、ゲーム処理システム1で実現されるゲームは、第1モード及び第2モードで共通のゲーム媒体を使用するものであってもよい。このゲーム媒体に関連付けられたパラメータは、第1モードと第2モードとの間で引き継がれてもよい。例えば、第1モードでのプレイ中に特定のゲーム媒体のパラメータが変更され、その後に第2モードへ移行した場合には、変更後のパラメータが設定された当該特定のゲーム媒体が第2モードで用いられる。一実施形態において、特定のゲーム媒体のパラメータは、第1モードから第2モードへの移行時及び第2モードから第1モードへの移行時の少なくとも一方において、変更されてもよい。このゲーム媒体のパラメータの変更は、プレイヤ5にとってゲームの進行上有利となる変更であってもよいし、不利となる変更であってもよい。一実施形態において、第1モードでのプレイ結果が第2モードでのゲームに反映されてもよいし、第2モードでのプレイ結果が第1モードでのゲームに反映されてもよい。例えば、第1モードで獲得されたプレイヤ5の経験値が第2モードにおいて引き継がれてもよい。 In one embodiment, the game having the first mode and the second mode realized by the game processing system 1 may be a game in which an interaction other than the virtual character and the communicative interaction is performed. In the game realized by the game processing system 1, communicative interaction does not have to be performed. In the game of one embodiment, the first mode is played in a two-dimensional space, and the second mode is played in a three-dimensional space. In the game of one embodiment, the game is played in a three-dimensional space in the first mode, and is displayed in a display mode different from the three-dimensional space of the first mode in the second mode (or with the three-dimensional space of the first mode). Is played in a three-dimensional space (consisting of different aspects). In one embodiment, the game realized by the game processing system 1 may use a common game medium in the first mode and the second mode. The parameters associated with this game medium may be inherited between the first mode and the second mode. For example, if the parameters of a specific game medium are changed during play in the first mode and then shift to the second mode, the specific game medium in which the changed parameters are set is set in the second mode. Used. In one embodiment, the parameters of a particular game medium may be changed at least during the transition from the first mode to the second mode and from the second mode to the first mode. The change of the parameter of the game medium may be a change that is advantageous to the progress of the game for the player 5, or may be a change that is disadvantageous to the player 5. In one embodiment, the play result in the first mode may be reflected in the game in the second mode, or the play result in the second mode may be reflected in the game in the first mode. For example, the experience value of the player 5 acquired in the first mode may be inherited in the second mode.

上記のとおり、ゲーム処理システム1において実現されるゲームの第1モードと第2モードとは互いから識別されるモードである。つまり、第1モードは第2モードと異なるモードである。一実施形態においては、ゲーム処理システム1において実現されるゲームが第1モードでプレイされる場合には、HMD10がプレイヤ5の頭部に装着されないのに対し、当該ゲームが第2モードでプレイされる場合には、HMD10がプレイヤ5の頭部の頭部に装着される。この場合、第1モードにおいては、プレイヤ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じてゲームの処理が行われ、第2モードにおいては、プレイヤ5の頭部に装着されたHMD10により検出された第2検出情報に応じてゲームの処理が行われる。 As described above, the first mode and the second mode of the game realized in the game processing system 1 are modes that are distinguished from each other. That is, the first mode is a mode different from the second mode. In one embodiment, when the game realized in the game processing system 1 is played in the first mode, the HMD 10 is not mounted on the head of the player 5, whereas the game is played in the second mode. If so, the HMD 10 is attached to the head of the player 5. In this case, in the first mode, the game is processed according to the first detection information detected by the information processing device 20 that is not attached to the head of the player 5, and in the second mode, the player 5 The game processing is performed according to the second detection information detected by the HMD 10 mounted on the head.

一実施形態において、第2モードでは、立体視画像がディスプレイ24に表示されるのに対し、第1モードでは上述したように立体視画像以外の画像がディスプレイ24に表示される。第2モードでは、ゲーム用の画像のうち少なくとも仮想キャラクタの画像が立体視画像として表示され、第1モードでは、仮想キャラクタの画像が立体視画像以外の画像として表示される。 In one embodiment, in the second mode, the stereoscopic image is displayed on the display 24, whereas in the first mode, an image other than the stereoscopic image is displayed on the display 24 as described above. In the second mode, at least the image of the virtual character is displayed as a stereoscopic image among the images for the game, and in the first mode, the image of the virtual character is displayed as an image other than the stereoscopic image.

一実施形態において、第1モードにおいては第2検出情報に基づいて算出されるヘッドトラッキング情報を用いずにゲームを進行させる処理がなされるのに対して、第2モードにおいては当該ヘッドトラッキング情報に基づいてゲームを進行させる処理がなされる。 In one embodiment, in the first mode, the process of advancing the game is performed without using the head tracking information calculated based on the second detection information, whereas in the second mode, the head tracking information is used. The process of advancing the game is performed based on this.

一実施形態において、第1モードにおいてはタッチパネル24bにより検出されるタッチ操作に応じてゲームを進行させる処理がなされるのに対して、第2モードにおいてはタッチパネル24bのタッチ操作に応じた処理はなされない。 In one embodiment, in the first mode, the process of advancing the game is performed according to the touch operation detected by the touch panel 24b, whereas in the second mode, the process is performed according to the touch operation of the touch panel 24b. Not done.

一実施形態において、ゲーム処理システム1において実現されるゲームにおいて仮想キャラクタとのインタラクションが提供される場合には、第1モードにおいては、プレイヤ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じた当該仮想キャラクタとのインタラクションが提供され、第2モードにおいては、プレイヤ5の頭部に装着されたHMD10により検出された第2検出情報に応じた当該仮想キャラクタとのインタラクションが提供される。 In one embodiment, when the interaction with the virtual character is provided in the game realized in the game processing system 1, in the first mode, it is detected by the information processing device 20 not attached to the head of the player 5. Interaction with the virtual character according to the first detection information is provided, and in the second mode, the interaction with the virtual character corresponding to the second detection information detected by the HMD 10 mounted on the head of the player 5 is provided. Interaction is provided.

ゲームを開始した後には、上記のように区別される第1モードと第2モードとの間での移行が可能となる。図5を参照して、ゲーム処理システム1により処理されるゲームのモード移行の概略を説明する。図示のように、ステップS1においてゲームが開始されると、ステップS2において第1モードであるチャットモードS2が開始される。このチャットモードにおいて、第2モードであるVRモードへ移行するための移行処理が開始されると、ステップS3に移行し、第2モードへの移行処理が行われる。移行処理が完了すると、ステップS4において第2モードであるVRモードが開始される。VRモードが終了又は中断されると、チャットモードへの復帰処理が行われる。 After starting the game, it is possible to transition between the first mode and the second mode, which are distinguished as described above. The outline of the mode transition of the game processed by the game processing system 1 will be described with reference to FIG. As shown in the figure, when the game is started in step S1, the chat mode S2, which is the first mode, is started in step S2. In this chat mode, when the transition process for shifting to the VR mode, which is the second mode, is started, the process proceeds to step S3, and the transition process to the second mode is performed. When the transition process is completed, the VR mode, which is the second mode, is started in step S4. When the VR mode is terminated or interrupted, the process of returning to the chat mode is performed.

次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、ゲーム処理プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、チャットモード実行部21a、移行処理部21b、VRモード実行部21c、及びパラメータ管理部21dとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、ゲームシステム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サーバ50に搭載されているコンピュータプロセッサにより実現されてもよい。 Next, the functions realized by the computer processor 21 will be described more specifically. The computer processor 21 functions as a chat mode execution unit 21a, a transition processing unit 21b, a VR mode execution unit 21c, and a parameter management unit 21d by executing a computer-readable instruction included in the game processing program. At least a part of the functions realized by the computer processor 21 may be realized by a computer processor other than the computer processor 21 of the game system 1. At least a part of the functions realized by the computer processor 21 may be realized by, for example, the computer processor mounted on the server 50.

チャットモード実行部21aは、一実施形態によるゲーム処理プログラムを実行することにより、第1モードであるチャットモードでゲームを提供するための処理を行う。チャットモード実行部21aは、プレイヤ5と(又はプレイヤ5のキャラクタと)ノンプレイヤーキャラクタである仮想キャラクタとの間でチャットを行うための機能を実現する。チャットモード実行部21aは、チャットモードへのログイン後に、仮想キャラクタからのメッセージ及びプレイヤ5により入力又は選択されたメッセージをディスプレイ24に表示し、当該仮想キャラクタとプレイヤ5との間でチャットを行わせることができる。チャットモード実行部21aは、仮想キャラクタのメッセージに続けて、当該メッセージ対するプレイヤ5の応答に関する複数の選択肢をディスプレイ24に表示してもよい。当該複数の選択肢からプレイヤ5の操作に応じて一つの選択肢が選択され、この選択された選択肢に対応するメッセージが、ディスプレイ24にプレイヤ5のメッセージとして表示される。プレイヤ5は、タッチパネル24bへのタッチ操作により、表示された選択肢のうち所望のものを選択することができる。仮想キャラクタのメッセージ及び当該メッセージに対するプレイヤの選択肢は、ゲーム処理プログラムに従って、チャットデータ28bを参照して特定することができる。仮想キャラクタのメッセージは、当該仮想キャラクタの画像とともに表示されてもよく、プレイヤ5のメッセージには、当該プレイヤ5の画像とともに表示されてもよい。仮想キャラクタのメッセージは、第2モードであるVRモードへの移行を促すメッセージ、当該VRモードにおける設定をプレイヤ5に選択させるためのメッセージ、及びこれら以外の当該VRモードに関連づけられたメッセージが含まれていてもよい。 The chat mode execution unit 21a performs processing for providing a game in the chat mode, which is the first mode, by executing the game processing program according to the embodiment. The chat mode execution unit 21a realizes a function for chatting between the player 5 and (or the character of the player 5) a virtual character which is a non-player character. After logging in to the chat mode, the chat mode execution unit 21a displays a message from the virtual character and a message input or selected by the player 5 on the display 24, and causes the virtual character and the player 5 to chat with each other. be able to. Following the message of the virtual character, the chat mode execution unit 21a may display a plurality of options regarding the response of the player 5 to the message on the display 24. One option is selected from the plurality of options according to the operation of the player 5, and a message corresponding to the selected option is displayed as a message of the player 5 on the display 24. The player 5 can select a desired option from the displayed options by touching the touch panel 24b. The message of the virtual character and the player's choice for the message can be specified by referring to the chat data 28b according to the game processing program. The message of the virtual character may be displayed together with the image of the virtual character, and the message of the player 5 may be displayed together with the image of the player 5. The virtual character message includes a message prompting the player to shift to the VR mode, which is the second mode, a message for causing the player 5 to select a setting in the VR mode, and a message associated with the VR mode other than these. You may be.

チャットモードにおいては、チャットの進行に応じて、第2モードであるVRモードへの移行を開始するための移行開始オブジェクトが表示される。移行開始オブジェクトの表示は、ゲーム処理プログラムに従って、モード移行条件が成立したときに行われる。チャットモード実行部21aは、タッチパネル24b又はそれ以外のユーザインタフェースからの検出信号に基づいて移行開始オブジェクトが選択されたことを検知することができる。移行開始オブジェクトが選択されたことが検知されると、第2モードであるVRモードへの移行処理が開始される。 In the chat mode, a transition start object for starting the transition to the VR mode, which is the second mode, is displayed according to the progress of the chat. The transition start object is displayed when the mode transition condition is satisfied according to the game processing program. The chat mode execution unit 21a can detect that the transition start object is selected based on the detection signal from the touch panel 24b or other user interfaces. When it is detected that the migration start object is selected, the transition process to the VR mode, which is the second mode, is started.

移行処理部21bは、第1モードから第2モードへ移行するための移行処理を行う。この移行処理には、情報処理装置20を装着具11へ装着するように促すガイダンスをディスプレイ24に表示すること、及び、プレイヤの注視によって選択可能な移行オブジェクトをディスプレイ24に表示させること、を含んでもよい。この移行オブジェクトを表示させた後、移行処理部21bは、センサユニット25又はそれ以外のセンサの検出信号を受信し、この検出信号に基づいて移行オブジェクトが注視によって選択されたか否かを判定することができる。この判定のために、移行処理部21bは、センサユニット25の検出信号に基づいてHMD10の位置及び向きを算出し、この算出されたHMD10の位置及び向きに基づいて、プレイヤ5の注視位置を特定する。注視位置の特定は、様々な公知の方法により行われ得る。例えば、アイトラッキングセンサの検出信号に基づいて注視位置を特定してもよい。移行処理部21bは、例えば、注視位置が移行開始オブジェクト上にある時間(注視時間)を計測し、この注視時間が所定時間に達したときに、移行開始オブジェクトの選択が完了したと判断する。移行処理部21bは、移行オブジェクトの選択が完了したと判断すると第2モードであるVRモードを開始させる。 The transition processing unit 21b performs a transition process for shifting from the first mode to the second mode. This transition process includes displaying a guidance on the display 24 prompting the information processing device 20 to be attached to the wearing tool 11, and displaying a transition object that can be selected by the player's gaze on the display 24. It may be. After displaying the transition object, the transition processing unit 21b receives the detection signal of the sensor unit 25 or other sensors, and determines whether or not the transition object is selected by gaze based on the detection signal. Can be done. For this determination, the transition processing unit 21b calculates the position and orientation of the HMD 10 based on the detection signal of the sensor unit 25, and specifies the gaze position of the player 5 based on the calculated position and orientation of the HMD 10. To do. The gaze position can be specified by various known methods. For example, the gaze position may be specified based on the detection signal of the eye tracking sensor. For example, the shift processing unit 21b measures the time (gaze time) at which the gaze position is on the shift start object, and determines that the selection of the shift start object is completed when the gaze time reaches a predetermined time. When the migration processing unit 21b determines that the selection of the migration object is completed, it starts the VR mode, which is the second mode.

VRモード実行部21cは、ゲーム処理プログラムに従って、仮想空間に仮想キャラクタの画像を表示し、この仮想キャラクタとプレイヤ5との間でのインタラクションを実現する。VRモード実行部21cは、プロセッサ21によって一実施形態におけるゲーム処理プログラムが実行されることにより、シーン選択部21c1、検出部21c2、アクション特定部21c3、画像生成部21c4、及び中断判定部21c5として機能する。 The VR mode execution unit 21c displays an image of the virtual character in the virtual space according to the game processing program, and realizes the interaction between the virtual character and the player 5. The VR mode execution unit 21c functions as a scene selection unit 21c1, a detection unit 21c2, an action identification unit 21c3, an image generation unit 21c4, and an interruption determination unit 21c5 by executing the game processing program in one embodiment by the processor 21. To do.

シーン選択部21c1は、シナリオデータ28c及び必要に応じてこれ以外の情報に基づいて、実行すべきゲームシーンを選択する。シーン選択部21c1は、VRモードへのログイン後に、開始シーンを選択する。シーン選択部21c1は、開始シーンが実行された後に、HMD10による検出情報、ストレージ27に記憶されている情報(例えば、パラメータデータ28d)、、及び必要に応じてこれら以外の情報に基づいて、次に実行すべきシゲームーンを選択する。 The scene selection unit 21c1 selects a game scene to be executed based on the scenario data 28c and other information as needed. The scene selection unit 21c1 selects a start scene after logging in to the VR mode. After the start scene is executed, the scene selection unit 21c1 determines the following based on the information detected by the HMD 10, the information stored in the storage 27 (for example, the parameter data 28d), and, if necessary, other information. Select the scene to be executed.

検出部21c2は、HMD10のセンサユニット25の検出信号に基づいてHMD10の向き及び位置の少なくとも一方を特定するためのヘッドトラッキング情報を算出する。ヘッドトラッキング情報は、HMDのHMD10の向き及び位置の少なくとも一方を示す情報である。ヘッドトラッキング情報は、センサユニット25による検出情報に基づいて特定される。具体的にはヘッドトラッキング情報は、頭部に装着されているHMD10の位置及び向きが、三次元直交座標系での位置および各軸回りの角度として算出される。この三次元直交座標系は、例えば、前後方向に沿ったロール軸、上下方向に沿ったヨー軸、左右方向に沿ったピッチ軸から成る直交座標系である。検出部21c2は、特定されたHMD10の位置及び向きの少なくとも一方に応じた仮想空間を構成し、この仮想空間を表示するための画像情報をディスプレイ24に出力する。検出部21c2は、例えば、HMD10の位置及び向きの少なくとも一方に基づいて注視方向又は注視位置を算出することができる。 The detection unit 21c2 calculates head tracking information for identifying at least one of the orientation and the position of the HMD 10 based on the detection signal of the sensor unit 25 of the HMD 10. The head tracking information is information indicating at least one of the orientation and the position of the HMD 10 of the HMD. The head tracking information is specified based on the detection information by the sensor unit 25. Specifically, in the head tracking information, the position and orientation of the HMD 10 mounted on the head are calculated as the position in the three-dimensional Cartesian coordinate system and the angle around each axis. This three-dimensional Cartesian coordinate system is, for example, a Cartesian coordinate system including a roll axis along the front-back direction, a yaw axis along the up-down direction, and a pitch axis along the left-right direction. The detection unit 21c2 configures a virtual space corresponding to at least one of the specified position and orientation of the HMD 10, and outputs image information for displaying the virtual space to the display 24. The detection unit 21c2 can calculate the gaze direction or the gaze position based on at least one of the position and the direction of the HMD 10, for example.

アクション特定部21c3は、ヘッドトラッキング情報に基づいてプレイヤ5のHMD10を用いたアクションを特定する。また、アクション特定部21c3は、特定されたプレイヤ5のアクションに応じて仮想キャラクタの仮想空間内での行動(リアクション)を決定してもよい。HMD10を装着したプレイヤ5によるアクションには、うなずく、首を横に振る、又はこれら以外の頭部の動きを伴う動作、並びに視線の動きが含まれる。仮想キャラクタにリアクションを行わせるためのプレイヤ5のアクションには、視線を動かすことが含まれてもよい。このような視線の動きは、センサユニット25に含まれるアイトラッキングセンサによって検出され得る。 The action specifying unit 21c3 identifies the action using the HMD 10 of the player 5 based on the head tracking information. Further, the action specifying unit 21c3 may determine the action (reaction) of the virtual character in the virtual space according to the action of the specified player 5. Actions by the player 5 wearing the HMD 10 include nodding, shaking the head, or other movements involving head movements, as well as gaze movements. The action of the player 5 for causing the virtual character to perform a reaction may include moving the line of sight. Such movement of the line of sight can be detected by an eye tracking sensor included in the sensor unit 25.

画像生成部21c4は、仮想空間全体のうち検出部21c2により特定された注視位置又は注視方向を中心として画角等により定められる描画領域の画像情報を生成する。このようにして生成された画像情報に基づいて、ディスプレイ24に仮想空間の描画領域の画像が表示される。画像情報の生成には、例えば、ストレージ27に記憶された画像データ28a、シナリオデータ28c、パラメータデータ28d、ゲーム進行データ28f、及びこれら以外のデータが用いられ得る。描画領域に仮想キャラクタが存在する場合には、画像生成部21c4は、アクション特定部21c3により特定された動作を行う仮想キャラクタを含む仮想空間の画像情報を生成し、このようにして生成された画像情報は、立体視画像としてディスプレイ24に出力される。これにより、ディスプレイ24には、プレイヤ5のアクションに応じて決定された行動を行う仮想キャラクタの画像を含む仮想空間の画像が表示される。画像生成部21c4は、この仮想キャラクタの行動及び仮想空間の描画領域に対応する音声情報を生成してもよい。当該音声情報はHMD10が有するスピーカに出力される。 The image generation unit 21c4 generates image information of a drawing area defined by an angle of view or the like centered on the gaze position or gaze direction specified by the detection unit 21c2 in the entire virtual space. Based on the image information generated in this way, an image of a drawing area in the virtual space is displayed on the display 24. For example, image data 28a, scenario data 28c, parameter data 28d, game progress data 28f, and other data stored in the storage 27 can be used to generate the image information. When the virtual character exists in the drawing area, the image generation unit 21c4 generates image information of the virtual space including the virtual character that performs the operation specified by the action specifying unit 21c3, and the image generated in this way. The information is output to the display 24 as a stereoscopic image. As a result, the display 24 displays an image of the virtual space including an image of the virtual character that performs the action determined according to the action of the player 5. The image generation unit 21c4 may generate voice information corresponding to the behavior of the virtual character and the drawing area of the virtual space. The voice information is output to the speaker included in the HMD 10.

中断判定部21c5は、中断条件データ28eに基づき、中断条件が成立したか否かを判定する。例えば、中断条件が仮想空間内に設定された禁止領域が注視されたことである場合には、中断判定部21c5は、HMD10により検出された検出情報に基づいて仮想空間におけるプレイヤ5の注視位置を特定し、この注視位置が禁止領域内にあるか否かを判定する。プレイヤ5の注視位置が当該禁止領域内にあれば中断条件が成立したと判断される。 The interruption determination unit 21c5 determines whether or not the interruption condition is satisfied based on the interruption condition data 28e. For example, when the interruption condition is that the prohibited area set in the virtual space is gazed, the interruption determination unit 21c5 determines the gaze position of the player 5 in the virtual space based on the detection information detected by the HMD 10. Identify and determine if this gaze position is within the prohibited area. If the gaze position of the player 5 is within the prohibited area, it is determined that the interruption condition is satisfied.

中断条件が、プレイヤ5が仮想キャラクタに対して同じアクションを3回以上繰り返したことである場合には、中断判定部21c5は、ゲーム進行データ28fを参照して、直前2回のプレイヤ5の仮想キャラクタに対するアクションを特定し、この直前2回のアクションが互いに同じアクションであるか否かを判定する。この直前2回のアクションが同じでアクションである場合には、アクション特定部21c3において特定された最新のアクションが当該直前2回のアクションと同じであるか否かを判定する。この最新のアクションが当該直前2回のアクションと同じであれば中断条件が成立したと判断される。 When the interruption condition is that the player 5 repeats the same action for the virtual character three or more times, the interruption determination unit 21c5 refers to the game progress data 28f and virtualizes the player 5 two times immediately before. The action for the character is specified, and it is determined whether or not the two immediately preceding actions are the same action. When the two immediately preceding actions are the same and are actions, it is determined whether or not the latest action specified in the action specifying unit 21c3 is the same as the immediately preceding two actions. If this latest action is the same as the two actions immediately before, it is determined that the suspension condition has been satisfied.

中断条件が、プレイヤ5が仮想キャラクタの頭部に対するアクションを3回以上行ったことである場合には、中断判定部21c5は、ゲーム進行データ28fを参照して、最新のアクションにより頭部へのアクションが3回目に達したか否かを判定する。この最新のアクションにより頭部へのアクションが3回目となる場合には中断条件が成立したと判断される。 When the interruption condition is that the player 5 performs an action on the head of the virtual character three times or more, the interruption determination unit 21c5 refers to the game progress data 28f and performs the latest action on the head. Determine if the action has reached the third time. When the action on the head becomes the third time by this latest action, it is judged that the interruption condition is satisfied.

中断条件がプレイヤにより禁止アクションが行われたことである場合には、中断判定部21c5は、最新のアクションが禁止アクションに該当するか否かを判定する。禁止アクションには、所定の上限値以上の加速度で頭部を動かすことが含まれてもよい。禁止アクションが所定値以上の加速度で頭部を動かすことである場合には、中断判定部21c5は、センサユニット25によって検出された加速度が当該上限値以上であるか否かを判定し、当該加速度が上限値以上である場合には中断条件が成立したと判断し、当該加速度が上限値未満である場合には中断条件が成立しなかったと判断する。 When the interruption condition is that the prohibited action is performed by the player, the interruption determination unit 21c5 determines whether or not the latest action corresponds to the prohibited action. The prohibited action may include moving the head at an acceleration equal to or higher than a predetermined upper limit. When the prohibited action is to move the head at an acceleration equal to or higher than a predetermined value, the interruption determination unit 21c5 determines whether or not the acceleration detected by the sensor unit 25 is equal to or higher than the upper limit value, and determines whether the acceleration is equal to or higher than the upper limit value. If is greater than or equal to the upper limit value, it is determined that the interruption condition is satisfied, and if the acceleration is less than the upper limit value, it is determined that the interruption condition is not satisfied.

中断条件がパラメータデータ28dに含まれるパラメータが所定の閾値以上又は所定の閾値以下であることである場合には、中断判定部21c5は、パラメータデータ28dを参照して、中断条件が成立したか否かを判定する。このパラメータが仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータであり、中断条件が当該好感度を示すパラメータが所定の閾値以下であることである場合には、中断判定部21c5は、ストレージ27から好感度を示すパラメータを読み出し、読み出した好感度を示すパラメータが当該所定の閾値以下であるか否かを判定する。好感度を示すパラメータが当該所定の閾値以下である場合には中断条件が成立したと判断され、当該所定の閾値より大きい場合には中断条件が成立しなかったと判断される。 When the interruption condition is that the parameter included in the parameter data 28d is equal to or more than a predetermined threshold value or equal to or less than a predetermined threshold value, the interruption determination unit 21c5 refers to the parameter data 28d and determines whether or not the interruption condition is satisfied. Is determined. When this parameter is a parameter indicating the favorability of the virtual character with respect to the user character and the interruption condition is that the parameter indicating the favorability is equal to or less than a predetermined threshold value, the interruption determination unit 21c5 prefers from the storage 27. The parameter indicating the sensitivity is read out, and it is determined whether or not the read parameter indicating the favorability is equal to or less than the predetermined threshold value. When the parameter indicating the favorable impression is equal to or less than the predetermined threshold value, it is determined that the interruption condition is satisfied, and when it is larger than the predetermined threshold value, it is determined that the interruption condition is not satisfied.

中断判定部21c5は、ゲームが実行されている間の任意の時点で、中断条件が成立したか否かを判定することができる。一実施形態においては、中断判定部21c5は、プレイヤ5が仮想キャラクタに対するアクションを行ったことに応じて、中断条件が成立したか否かを判定することができる。 The interruption determination unit 21c5 can determine whether or not the interruption condition is satisfied at any time while the game is being executed. In one embodiment, the interruption determination unit 21c5 can determine whether or not the interruption condition is satisfied in response to the player 5 performing an action on the virtual character.

以上のように、VRモード実行部21cにより、ディスプレイ24には、仮想空間内で仮想キャラクタが動く画像が表示され、スピーカからは仮想キャラクタの動きに対応した音声が出力される。例えば、仮想キャラクタがプレイヤ5に話しかける場合には、仮想キャラクタの頭部及び口が動く画像がディスプレイ24に表示され、仮想キャラクタの発言に対応する音声がスピーカから出力される。一実施形態において、VRモード及びチャットモードの各々においてプレイヤ5とインタラクトする仮想キャラクタは、同じ仮想キャラクタである。例えば、VRモードに登場する仮想キャラクタとチャットモードに登場するキャラクタと同じ名前を有し、同一のキャラクタと認識できる程度の外観上の共通性を有する。ただし、VRモードにおいては仮想キャラクタの画像が立体視画像として表示されるのに対し、チャットモードにおいては仮想キャラクタの画像が立体視画像以外の画像として表示される点で、両モードにおける仮想キャラクタの画像は互いと相違している。しかし、このような表現形式の差異は、仮想キャラクタの同一性を妨げることはない。 As described above, the VR mode execution unit 21c displays an image of the virtual character moving in the virtual space on the display 24, and outputs a voice corresponding to the movement of the virtual character from the speaker. For example, when the virtual character speaks to the player 5, an image in which the head and mouth of the virtual character move is displayed on the display 24, and a voice corresponding to the speech of the virtual character is output from the speaker. In one embodiment, the virtual characters that interact with the player 5 in each of the VR mode and the chat mode are the same virtual characters. For example, it has the same name as the virtual character appearing in the VR mode and the character appearing in the chat mode, and has a common appearance to the extent that it can be recognized as the same character. However, in the VR mode, the image of the virtual character is displayed as a stereoscopic image, whereas in the chat mode, the image of the virtual character is displayed as an image other than the stereoscopic image. The images are different from each other. However, such a difference in expression format does not prevent the identity of the virtual character.

パラメータ管理部21dは、ゲームの進行に応じて、パラメータデータ28dを更新する。パラメータ管理部21dは、ゲームが第1モードで提供されている場合には、当該第1モードにおけるゲームの進行に応じてパラメータデータ28dを更新し、ゲームが第2モードで提供されている場合には、当該第2モードにおけるゲームの進行に応じてパラメータデータ28dを更新する。 The parameter management unit 21d updates the parameter data 28d according to the progress of the game. The parameter management unit 21d updates the parameter data 28d according to the progress of the game in the first mode when the game is provided in the first mode, and when the game is provided in the second mode. Updates the parameter data 28d according to the progress of the game in the second mode.

パラメータデータ28dに仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータが含まれる場合には、パラメータ管理部21dは、第1モード及び第2モードにおけるプレイヤ5のアクションに応じて当該パラメータを増減させてもよい。第1モードがチャットモードである場合には、当該チャットモードにおいてプレイヤ5に提供されるメッセージの選択肢ごとに好感度の変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)が定められていてもよい。この場合、パラメータ管理部21dは、プレイヤ5によって選択された選択肢に応じて好感度の変化量又は変化率を特定し、この特定した好感度の変化量又は変化率に基づいてパラメータデータ28dを更新する。VRモードにおいては、プレイヤ5のアクションごとに好感度の変化量又は変化率が定められていてもよい。パラメータ管理部21dは、プレイヤ5のアクションに応じて好感度の変化量又は変化率を特定し、この特定した好感度の変化量又は変化率に基づいて、パラメータデータ28dを更新する。 When the parameter data 28d includes a parameter indicating the favorability of the virtual character to the user character, the parameter management unit 21d may increase or decrease the parameter according to the action of the player 5 in the first mode and the second mode. Good. When the first mode is the chat mode, the change amount (for example, the increase amount or the decrease amount) or the change rate (increase rate or the decrease rate) of the favorable impression for each message option provided to the player 5 in the chat mode. ) May be specified. In this case, the parameter management unit 21d specifies the amount of change or rate of change in favorability according to the options selected by the player 5, and updates the parameter data 28d based on the amount of change or rate of change in favorability. To do. In the VR mode, the amount of change or the rate of change in favorability may be determined for each action of the player 5. The parameter management unit 21d specifies the change amount or change rate of the favorability according to the action of the player 5, and updates the parameter data 28d based on the change amount or change rate of the specified favorability.

第2モードがVRモードである場合には、当該VRモードにおいて、プレイヤ5のアクションについて禁止アクションが定められていてもよい。禁止アクションには、所定値以上の加速度で頭部を動かすこと、仮想空間内の禁止領域に視線を向けること、及び所定回数以上同じアクションを繰り返すことが含まれていてもよい。本明細書においては、プレイヤ5のアクションのうち、禁止アクション以外のアクションを正常アクションと呼ぶことがある。パラメータ管理部21dは、プレイヤ5によって禁止アクションが行われた場合には、好感度が減少するようにパラメータデータ28dを更新する。パラメータ管理部21dは、プレイヤ5によって正常アクションが取られた場合には、その正常アクションに応じて好感度が増加又は減少するようにパラメータデータ28dを更新する。 When the second mode is the VR mode, a prohibited action may be defined for the action of the player 5 in the VR mode. The prohibited action may include moving the head at an acceleration equal to or higher than a predetermined value, directing the line of sight to the prohibited area in the virtual space, and repeating the same action a predetermined number of times or more. In the present specification, among the actions of the player 5, actions other than prohibited actions may be referred to as normal actions. The parameter management unit 21d updates the parameter data 28d so that the favorability is reduced when the prohibited action is performed by the player 5. When a normal action is taken by the player 5, the parameter management unit 21d updates the parameter data 28d so that the favorability increases or decreases according to the normal action.

VRモードでゲームが処理されているときに、VRモードにおいて準備されている終了シーンを経ることなく、VRモードが異常終了することがある。例えば、HMD10の電源がなくなる、システムプログラムの機能によりゲーム処理プログラムが強制的に終了させられる、などの要因でVRモードは異常終了し得る。VRモードが異常終了された場合、パラメータ管理部21dは、好感度が減少するようにパラメータデータ28dを更新する。 When the game is being processed in the VR mode, the VR mode may end abnormally without going through the end scene prepared in the VR mode. For example, the VR mode may be abnormally terminated due to factors such as the power supply of the HMD 10 being cut off, the game processing program being forcibly terminated by the function of the system program, and the like. When the VR mode is abnormally terminated, the parameter management unit 21d updates the parameter data 28d so that the favorability is reduced.

VRモード実行部21cは、終了条件が満たされるとVRモードを終了するための終了処理を行う。終了条件は、例えば、VRモードの開始から所定時間(例えば、1分)経過したこと、終了対象操作が検知されたこと、VRモードで実行されているシナリオに含まれる最後のイベントが終了したこと、及びこれら以外の条件である。終了条件が満たされたときに行われる終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。 The VR mode execution unit 21c performs termination processing for terminating the VR mode when the termination condition is satisfied. The end conditions are, for example, that a predetermined time (for example, 1 minute) has passed from the start of the VR mode, that the operation to be ended is detected, and that the last event included in the scenario executed in the VR mode has ended. , And conditions other than these. For the termination process performed when the termination condition is satisfied, a guidance prompting the information processing device 20 to be removed from the fitting 11 is displayed on the display 24, and a login screen for the chat mode, which is the first mode, is displayed. It may include displaying.

次に、図6及び図7a〜図7dを参照して、チャットモードにおけるチャット処理について説明する。図6は、一実施形態におけるチャットモードでの処理の流れを示すフロー図であり、図7aから図7dは、チャットモードにおける表示画像の例を示す。チャットモードの開始時においては、HMD10はプレイヤ5の頭部に装着されておらず、また、情報処理装置20は装着具11から取り外されていることが想定されている。 Next, the chat process in the chat mode will be described with reference to FIGS. 6 and 7a to 7d. FIG. 6 is a flow chart showing a flow of processing in the chat mode in one embodiment, and FIGS. 7a to 7d show an example of a display image in the chat mode. At the start of the chat mode, it is assumed that the HMD 10 is not attached to the head of the player 5 and that the information processing device 20 is removed from the attachment 11.

ゲーム処理システム1において、上述したように、ゲームは、チャットモードで開始される。ステップS11では、チャットモードへログインするためのログイン画面が情報処理装置20のディスプレイ24に表示される。プレイヤ5によってログイン処理がなされると、当該チャット処理は、ステップS12に移行する。 In the game processing system 1, as described above, the game is started in chat mode. In step S11, a login screen for logging in to the chat mode is displayed on the display 24 of the information processing device 20. When the login process is performed by the player 5, the chat process proceeds to step S12.

ステップS12においては、プレイヤ5と仮想キャラクタとの間でメッセージが交換され、これにより両者の間でチャットが行われる。具体的には、チャットモードへのログイン後に、プレイヤ5と仮想キャラクタとの間で行われるチャットを表示するためのチャット表示画像が生成され、当該チャット表示画像がディスプレイ24に表示される。図7aは、ディスプレイ24に表示されるチャット表示画像の一例であるチャット表示画像70を示す。チャット表示画像70は、プレイヤ5に対応するアイコン73と、仮想キャラクタに対応するアイコン74と、プレイヤ5のメッセージ75aと、仮想キャラクタのメッセージ76a,76bと、を含むチャット表示領域71を含む。また、チャット表示画像70は、チャット表示領域71の上部に配されたメニュー領域72を含む。仮想キャラクタのメッセージ76a,76bは、ゲーム処理プログラムに従って、ストレージ72に記憶されているチャットデータ28b及びこれ以外のデータに基づいて特定される。例えば、仮想キャラクタのメッセージは、ツリー構造で定義されているチャットデータ28bを参照して、ルートノードにあるメッセージから順に表示される。ノードの分岐点においては、分岐条件に応じたノードが選択され、当該選択されたノードに対応するメッセージが表示される。 In step S12, a message is exchanged between the player 5 and the virtual character, and a chat is performed between them. Specifically, after logging in to the chat mode, a chat display image for displaying a chat performed between the player 5 and the virtual character is generated, and the chat display image is displayed on the display 24. FIG. 7a shows a chat display image 70 which is an example of a chat display image displayed on the display 24. The chat display image 70 includes a chat display area 71 including an icon 73 corresponding to the player 5, an icon 74 corresponding to the virtual character, a message 75a of the player 5, and messages 76a and 76b of the virtual character. Further, the chat display image 70 includes a menu area 72 arranged above the chat display area 71. The virtual character messages 76a and 76b are specified based on the chat data 28b and other data stored in the storage 72 according to the game processing program. For example, the virtual character message is displayed in order from the message at the root node with reference to the chat data 28b defined in the tree structure. At the branch point of the node, the node corresponding to the branch condition is selected, and the message corresponding to the selected node is displayed.

ステップS12においては、プレイヤ5によって選択された選択肢に応じて、プレイヤ5について設定されているパラメータが増減されてもよい。パラメータの増減量又は増減率は、上記のように、メッセージの選択肢ごとに定められているパラメータの変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)に基づいて定められる。パラメータの変化量又は変化率が特定されると、この特定された好感度の変化量又は変化率に基づいて、パラメータデータ28dが更新される。 In step S12, the parameters set for the player 5 may be increased or decreased according to the options selected by the player 5. The amount of increase / decrease or the rate of increase / decrease of the parameter is determined based on the amount of change (for example, the amount of increase or decrease) or the rate of change (rate of increase or decrease) of the parameter determined for each message option as described above. Be done. When the amount of change or rate of change of the parameter is specified, the parameter data 28d is updated based on the amount of change or rate of change of the specified favorability.

図7aのチャット表示画像70は、チャット表示領域71の下部に、プレイヤ5のメッセージの選択肢77を示す表示を含んでいる。プレイヤ5は、表示されている選択肢77のうちの一つを選択することができる。この選択は、例えば、ディスプレイ24において選択したい選択肢が表示されている領域を指で接触することで行われる。この選択がなされると、図7bに示すように、選択された選択肢に対応するメッセージ75bが、プレイヤ5のメッセージとしてチャット表示領域71に新たに表示される。 The chat display image 70 of FIG. 7a includes a display showing the message option 77 of the player 5 at the lower part of the chat display area 71. The player 5 can select one of the displayed options 77. This selection is made, for example, by touching the area on the display 24 where the option to be selected is displayed with a finger. When this selection is made, as shown in FIG. 7b, the message 75b corresponding to the selected option is newly displayed in the chat display area 71 as a message of the player 5.

図7cに示すように、チャットの過程で、第2モードであるVRモードでの設定の選択を促すメッセージ76c,76dが仮想キャラクタのメッセージとして表示されてもよい。メッセージ76cは、VRモードにおけるシナリオの選択を促すメッセージであり、メッセージ76dは、VRモードで仮想キャラクタが使用するアイテム(例えば、仮想キャラクタがVRモードの仮想空間内で着用する服)の選択を促すメッセージである。つまり、第2モードにおける設定には、VRモードにおけるシナリオ、及び、VRモードで仮想キャラクタが使用するアイテムが含まれる。シナリオの選択を促すメッセージ76cが表示された後には、ディスプレイ24にシナリオの選択肢が表示される。例えば、第1シナリオ〜第5シナリオが選択肢として表示される。プレイヤ5は、この選択肢の中から好みのシナリオを選択することができる。アイテムの選択を促すメッセージ76dが表示された後には、ディスプレイ24にアイテムの選択肢が表示される。プレイヤ5は、この選択肢の中から好みのアイテムを選択することができる。チャットの過程で、第2モードへの移行を促すメッセージが仮想キャラクタのメッセージとして表示されてもよい。 As shown in FIG. 7c, the messages 76c and 76d prompting the selection of the setting in the VR mode, which is the second mode, may be displayed as the virtual character message in the process of chatting. The message 76c is a message prompting the selection of a scenario in the VR mode, and the message 76d prompts the selection of an item used by the virtual character in the VR mode (for example, clothes worn by the virtual character in the virtual space in the VR mode). It is a message. That is, the settings in the second mode include the scenario in the VR mode and the items used by the virtual character in the VR mode. After the message 76c prompting the user to select a scenario is displayed, the options of the scenario are displayed on the display 24. For example, the first scenario to the fifth scenario are displayed as options. The player 5 can select a favorite scenario from this option. After the message 76d prompting the selection of the item is displayed, the selection of the item is displayed on the display 24. Player 5 can select a favorite item from this option. In the process of chatting, a message prompting the transition to the second mode may be displayed as a virtual character message.

ステップS13では、第1モードから第2モードへのモード移行条件が成立したか否かが判定される。第1モードから第2モードへのモード移行条件として、例えば、チャットモード開始から所定時間(例えば、1分)が経過したことという条件が用いられる。チャットモード開始からの経過時間は、例えばシステムクロックを用いて計測される。モード移行条件が成立したと判断されるまで、ステップS12に戻ってチャット処理が継続される。他方、モード移行条件が成立したと判断されると、チャット処理は、ステップS14に移行する。 In step S13, it is determined whether or not the mode transition condition from the first mode to the second mode is satisfied. As a mode transition condition from the first mode to the second mode, for example, a condition that a predetermined time (for example, 1 minute) has elapsed from the start of the chat mode is used. The elapsed time from the start of the chat mode is measured using, for example, the system clock. The chat process is continued by returning to step S12 until it is determined that the mode transition condition is satisfied. On the other hand, if it is determined that the mode transition condition is satisfied, the chat process proceeds to step S14.

ステップS14においては、移行開始オブジェクト78がディスプレイ24に表示され、チャット処理は、ステップS15に進む。図7dに示されているように、移行開始オブジェクト78は、例えばチャット領域71内に、外縁が円形のオブジェクトとして表示される。ステップS15において、移行開始オブジェクト78の選択が確認されると、チャット処理は、ステップS16に進む。他方、移行開始オブジェクト78が表示されてから所定時間(例えば、10秒)経過しても移行開始オブジェクト78の選択が確認されない場合には、移行開始オブジェクトの選択がなされなかったと判定され、チャット処理が終了する。移行開始オブジェクトの選択がなされなかったと判定されたときに、ステップS12に戻り、チャットを再開するための処理が行われてもよい。移行開始オブジェクト78の選択がなされたか否かは、タッチパネル24bへの操作に応じて判断されてもよい。例えば、移行開始オブジェクト78の表示領域と重複する位置へのタッチ操作(例えば、タップ操作)がなされたことがタッチパネル24bによる検出信号から検出されたときに、当該移行開始オブジェクト78が選択されたと判断される。移行開始オブジェクト78の選択は、非接触操作によりなされてもよい。 In step S14, the transition start object 78 is displayed on the display 24, and the chat process proceeds to step S15. As shown in FIG. 7d, the transition start object 78 is displayed, for example, in the chat area 71 as an object having a circular outer edge. When the selection of the migration start object 78 is confirmed in step S15, the chat process proceeds to step S16. On the other hand, if the selection of the migration start object 78 is not confirmed within a predetermined time (for example, 10 seconds) after the migration start object 78 is displayed, it is determined that the migration start object has not been selected, and the chat process is performed. Is finished. When it is determined that the migration start object has not been selected, the process of returning to step S12 and resuming the chat may be performed. Whether or not the transition start object 78 has been selected may be determined according to the operation on the touch panel 24b. For example, when it is detected from the detection signal by the touch panel 24b that a touch operation (for example, a tap operation) is performed at a position overlapping the display area of the transition start object 78, it is determined that the transition start object 78 is selected. Will be done. The selection of the migration start object 78 may be made by a non-contact operation.

ステップS16では、第2モードであるVRモードへの移行処理が開始される。移行処理が開始されると、チャット処理は終了する。 In step S16, the process of shifting to the VR mode, which is the second mode, is started. When the migration process is started, the chat process ends.

以上のチャット処理は、例えば、チャットモード実行部21aにより実行される。チャットモード実行部21aは、単独で又は他の機能と適宜協働して、上記のチャット処理を実行することができる。チャット処理の実行に際しては、ストレージ27に格納されているデータ以外にも、必要に応じて、他のストレージに格納されているデータ、各種センサによって検出された検出情報、またはこれら以外のデータが用いられ得る。 The above chat process is executed by, for example, the chat mode execution unit 21a. The chat mode execution unit 21a can execute the above chat process alone or in cooperation with other functions as appropriate. When executing the chat process, in addition to the data stored in the storage 27, data stored in other storage, detection information detected by various sensors, or data other than these is used as necessary. Can be.

次に、第1モードであるチャットモードから第2モードであるVRモードへのモード移行処理について、図8及び図9a〜図9bを参照して説明する。図8は、一実施形態におけるモード移行処理の流れを示すフロー図である。 Next, the mode transition process from the chat mode, which is the first mode, to the VR mode, which is the second mode, will be described with reference to FIGS. 8 and 9a to 9b. FIG. 8 is a flow chart showing the flow of the mode transition process in one embodiment.

移行処理が開始されると、ステップ31において、HMD10を装着するように促すガイダンスが、情報処理装置20のディスプレイ24に表示される。当該ガイダンスを含むガイダンス表示画像の例であるガイダンス表示画像80が図9aに示されている。ガイダンス表示画像80には、情報処理装置20を装着具11に取り付けることを促すガイダンス、HMD10を頭部に装着するように促すガイダンス、及びこれら以外のVRモードを開始するために必要な各種のガイダンスを含むことができる。図9aに示されているガイダンス表示画像80には、情報処理装置20を装着具11に取り付けることを促すガイダンス81が含まれている。このガイダンスには、情報処理装置20の装着具11に対する取付方法に関するインストラクションが含まれてもよい。上記ガイダンスの表示後に所定時間が経過すると、モード移行処理はステップS32へ進む。 When the transition process is started, in step 31, guidance prompting the user to wear the HMD 10 is displayed on the display 24 of the information processing device 20. A guidance display image 80, which is an example of a guidance display image including the guidance, is shown in FIG. 9a. The guidance display image 80 includes guidance for urging the information processing device 20 to be attached to the fitting 11, guidance for urging the HMD 10 to be attached to the head, and various guidances necessary for starting the VR mode other than these. Can be included. The guidance display image 80 shown in FIG. 9a includes a guidance 81 that encourages the information processing device 20 to be attached to the fitting 11. This guidance may include instructions on how to attach the information processing apparatus 20 to the attachment 11. When a predetermined time elapses after the guidance is displayed, the mode transition process proceeds to step S32.

ステップS32では、移行オブジェクトがディスプレイ24に表示される。移行オブジェクトを含む移行処理画像の例が図9bに示されている。図9bに示されている移行処理画像85には、移行オブジェクト86が含まれている。移行処理画像85は、立体視画像で表示されてもよい。一実施形態においては、モード移行処理の開始時又はモード移行処理開始後の所定のタイミングにおいて、ディスプレイ24へ表示される画像が、立体視画像以外の画像から、立体視画像に切り替えられる。例えば、チャットモードにおいて表示される画像は立体視画像以外の画像として表示され、移行処理開始以後に表示される画像は立体視画像として表示される。 In step S32, the transition object is displayed on the display 24. An example of a migration processed image including a migration object is shown in FIG. 9b. The migration processed image 85 shown in FIG. 9b includes the migration object 86. The transition processed image 85 may be displayed as a stereoscopic image. In one embodiment, the image displayed on the display 24 is switched from an image other than the stereoscopic image to a stereoscopic image at the start of the mode transition process or at a predetermined timing after the start of the mode transition process. For example, the image displayed in the chat mode is displayed as an image other than the stereoscopic image, and the image displayed after the start of the transition process is displayed as the stereoscopic image.

次に、ステップS33においては、移行オブジェクト86の選択が完了したか否かが判定される。移行オブジェクト86は、例えば、プレイヤ5が所定時間継続して注視することにより選択される。したがって、移行オブジェクト86を選択するためには、プレイヤ5はHMD10を装着していることが前提となる。一実施形態においては、移行オブジェクト86の選択が完了したか否かは、HMD10による検出信号に基づいて算出される注視位置が移行オブジェクト86上に所定時間以上あるか否かによって判定される。注視位置は、上記のように、HMD10に備えられたセンサユニット25によって検出された情報に基づいて算出され得る。上記の判定は、注視位置が移行オブジェクト86上に存在する注視時間をシステムクロックを用いて計測し、この計測された注視時間が所定時間に達したか否かによって判定され得る。例えば、注視時間が所定時間に達した場合には移行オブジェクト86の選択が完了したと判定され、モード移行処理はステップS34に進む。他方、移行オブジェクト86が表示されてから所定時間が経過しても移行オブジェクト86の選択が完了したことが検知されない場合には、移行オブジェクト86の選択は完了しなかったと判定され、モード移行処理はステップS35に進む。 Next, in step S33, it is determined whether or not the selection of the transition object 86 is completed. The transition object 86 is selected, for example, by the player 5 continuously gazing for a predetermined time. Therefore, in order to select the transition object 86, it is premised that the player 5 is equipped with the HMD 10. In one embodiment, whether or not the selection of the transition object 86 is completed is determined by whether or not the gaze position calculated based on the detection signal by the HMD 10 is on the transition object 86 for a predetermined time or longer. The gaze position can be calculated based on the information detected by the sensor unit 25 provided in the HMD 10 as described above. The above determination can be made by measuring the gaze time at which the gaze position exists on the transition object 86 using the system clock and determining whether or not the measured gaze time has reached a predetermined time. For example, when the gaze time reaches a predetermined time, it is determined that the selection of the transition object 86 is completed, and the mode transition process proceeds to step S34. On the other hand, if it is not detected that the selection of the migration object 86 is completed within a predetermined time after the migration object 86 is displayed, it is determined that the selection of the migration object 86 has not been completed, and the mode transition process is performed. The process proceeds to step S35.

ステップS34では、第2モードであるVRモードが開始される。VRモードにおける具体的な処理については後述される。 In step S34, the VR mode, which is the second mode, is started. Specific processing in the VR mode will be described later.

ステップS35では、VRモードへの移行が選択されなかったため、チャットモードへ復帰するための処理が開始される。チャットモードへの復帰処理が完了すると、チャットモードが再開される。この再開されたチャットモードにおいては、VRモードへの移行がなされなかったことに関連する仮想キャラクタからのメッセージが表示されてもよい。 In step S35, since the transition to the VR mode is not selected, the process for returning to the chat mode is started. When the process of returning to the chat mode is completed, the chat mode is resumed. In this resumed chat mode, a message from the virtual character related to the failure to transition to VR mode may be displayed.

以上のモード移行処理は、例えば、移行処理部21bにより実行される。移行処理部21bは、単独で又は他の機能と適宜協働して、上記のモード移行処理を実行することができる。 The above mode transition process is executed by, for example, the transition processing unit 21b. The transition processing unit 21b can execute the mode transition processing alone or in cooperation with other functions as appropriate.

次に、図10から図12を参照して、VRモードにおけるVR処理について説明する。図10は、一実施形態におけるVRモードでのVR処理の流れを示すフロー図であり、図11は、VRモードにおける表示画像の例を示し、図12は、VRモードで実行されているシーンにおける仮想キャラクタのアクションの流れを模式的に示す。上記のように、モード移行処理において移行オブジェクト86を選択するために、プレイヤ5はHMD10を装着している。VRモードの開始時においては、HMD10はプレイヤ5の頭部に装着されていることが想定されている。以下では、第1シナリオが選択されていることを前提にVR処理の説明を行う。VR処理においては、適宜、パラメータデータ28dが参照される。一実施形態において、VR処理の開始時におけるパラメータデータ28dに含まれる各パラメータの値は、チャット処理の終了時におけるパラメータデータ28dに含まれる各パラメータの値に等しい。つまり、VR処理においては、チャット処理において更新されたパラメータデータ28dが引き継がれる。 Next, the VR processing in the VR mode will be described with reference to FIGS. 10 to 12. FIG. 10 is a flow chart showing a flow of VR processing in the VR mode in one embodiment, FIG. 11 shows an example of a display image in the VR mode, and FIG. 12 shows a scene executed in the VR mode. The flow of actions of a virtual character is schematically shown. As described above, the player 5 is equipped with the HMD 10 in order to select the transition object 86 in the mode transition process. At the start of the VR mode, it is assumed that the HMD 10 is attached to the head of the player 5. In the following, VR processing will be described on the premise that the first scenario is selected. In the VR processing, the parameter data 28d is referred to as appropriate. In one embodiment, the value of each parameter included in the parameter data 28d at the start of the VR process is equal to the value of each parameter included in the parameter data 28d at the end of the chat process. That is, in the VR processing, the parameter data 28d updated in the chat processing is inherited.

VRモードが開始されると、ステップS41において、開始シーンが実行される。具体的には、開始シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。開始シーンにおいては、仮想空間において仮想キャラクタが所定のアクションをおこなっても良い。 When the VR mode is started, the start scene is executed in step S41. Specifically, image information of the virtual space corresponding to the start scene is generated, and the image corresponding to the image information is output to the display 24. In the start scene, the virtual character may perform a predetermined action in the virtual space.

図11に、ディスプレイ24に表示された開始シーンのVR画像の例が示されている。図11に示されているVR画像90は、仮想キャラクタを示す仮想キャラクタ画像91、背景に相当するオブジェクトを示す画像92a〜92c、及びこれら以外の各種オブジェクトを示す画像を含んでいる。VR画像90は、第1シナリオ用の仮想空間の所定の範囲に対応する画像である。VR画像90に対応する仮想空間の範囲は、HMD10の向きに基づいて仮想空間における注視位置を算出し、この算出された注視位置を中心として例えば画角により定められる範囲とすることができる。画像情報の生成には、画像データ28aが用いられる。VR画像90及びこれら以外のVRモードにおいて表示される画像は、立体視画像として表示される。 FIG. 11 shows an example of a VR image of the start scene displayed on the display 24. The VR image 90 shown in FIG. 11 includes a virtual character image 91 showing a virtual character, images 92a to 92c showing objects corresponding to the background, and images showing various objects other than these. The VR image 90 is an image corresponding to a predetermined range of the virtual space for the first scenario. The range of the virtual space corresponding to the VR image 90 can be a range determined by, for example, an angle of view, by calculating a gaze position in the virtual space based on the orientation of the HMD 10 and centering on the calculated gaze position. Image data 28a is used to generate image information. The VR image 90 and the images displayed in the VR modes other than these are displayed as stereoscopic images.

仮想キャラクタ画像91は、例えば開始シーンデータA1により特定されるアクションを仮想空間内で行うことができる。例えば、仮想キャラクタ画像91のアクションには、プレイヤ5に向かって(仮想空間内のプレイヤ5の位置に向かって)話しかける、仮想空間内を移動する、仮想空間内に配置されたオブジェクトを手に取る、及びこれら以外の仮想空間内における様々なアクションが含まれる。 The virtual character image 91 can perform an action specified by, for example, the start scene data A1 in the virtual space. For example, for the action of the virtual character image 91, talk to the player 5 (toward the position of the player 5 in the virtual space), move in the virtual space, or pick up an object arranged in the virtual space. , And various actions in the virtual space other than these are included.

開始シーンにおいて仮想キャラクタが行う一連のアクションについて、図12を参照して説明する。図12は、VRモードで実行されるシーンにおける仮想キャラクタのアクションの流れを模式的に示す図である。図12では、開始シーンにおけるアクションの流れが例示されている。図示のように、開始シーンにおいて、仮想キャラクタは、まずアクションA11に対応するアクションを行う。アクションA11は、仮想キャラクタが開始シーンにおいて行うことができるアクションに対応する。 A series of actions performed by the virtual character in the start scene will be described with reference to FIG. FIG. 12 is a diagram schematically showing a flow of actions of a virtual character in a scene executed in VR mode. FIG. 12 illustrates the flow of actions in the start scene. As shown in the figure, in the start scene, the virtual character first performs an action corresponding to the action A11. The action A11 corresponds to an action that the virtual character can perform in the start scene.

アクションA11は、分岐可能なアクションとして規定されている。具体的には、アクションA11は、アクションA21、アクションA22、及びアクションA23に分岐している。例えば、アクションA11には、アクションA21へ移行するための第1移行条件、アクションA22へ移行するための第2移行条件、及びアクションA23へ移行するための第3移行条件が設定されており、第1移行条件が成立すると仮想キャラクタのアクションはアクションA21へ移行し、第2移行条件が成立すると仮想キャラクタのアクションはアクションA22へ移行し、第3移行条件が成立すると仮想キャラクタのアクションはアクションA23へ移行する。第1移行条件、第2移行条件、及び第3移行条件のうちの少なくとも一つは、仮想キャラクタのユーザキャラクタに対する好感度が所定の閾値以上であることであってもよい。 Action A11 is defined as a branchable action. Specifically, the action A11 branches into an action A21, an action A22, and an action A23. For example, the action A11 is set with a first transition condition for transitioning to the action A21, a second transition condition for transitioning to the action A22, and a third transition condition for transitioning to the action A23. 1 When the transition condition is satisfied, the action of the virtual character shifts to action A21, when the second transition condition is met, the action of the virtual character shifts to action A22, and when the third transition condition is met, the action of the virtual character shifts to action A23. Transition. At least one of the first transition condition, the second transition condition, and the third transition condition may be that the favorability of the virtual character to the user character is equal to or higher than a predetermined threshold value.

第1移行条件、第2移行条件、及び第3移行条件として様々な条件が設定され得る。例えば、第1移行条件、第2移行条件、及び第3移行条件は、アクションA11として規定されていたアクションが終了したこと、プレイヤ5が仮想キャラクタに対して所定のアクション(例えば、仮想キャラクタの所定部位の注視)を行ったこと、プレイヤ5が仮想キャラクタからの質問に回答すること、を含んでもよい。第1移行条件、第2移行条件、及び第3移行条件は、互いに異なっている。プレイヤ5は、うなずく動き、首を横に振る動き、又はこれら以外の頭部の動きによって、仮想キャラクタからの質問に回答することができる。具体的には、仮想キャラクタから質問がなされたときに、プレイヤ5によって頭部の動きによるアクションがなされると、HMD10のセンサユニット25によって当該頭部の動きが検出され、この検出された頭部の動きに応じたプレイヤ5の回答が特定される。例えば、うなずく動きが検出されたときにはプレイヤ5は肯定的な回答を行ったと判断され、首を横に振る動きが検出されたときにはプレイヤ5は否定的な回答を行ったと判断されてもよい。また、仮想キャラクタからの質問の後にプレイヤ5の頭部の動きが所定時間検出されなかった場合、プレイヤ5は仮想キャラクタからの質問に対して回答しなかったと判断されてもよい。プレイヤ5のアクションは、アクション特定部21c3の機能により特定されてもよい。 Various conditions can be set as the first transition condition, the second transition condition, and the third transition condition. For example, the first transition condition, the second transition condition, and the third transition condition are that the action defined as the action A11 is completed, and the player 5 determines a predetermined action for the virtual character (for example, a predetermined action of the virtual character). It may include that the player 5 answers the question from the virtual character. The first transition condition, the second transition condition, and the third transition condition are different from each other. The player 5 can answer the question from the virtual character by nodding movement, shaking head movement, or other movement of the head. Specifically, when a question is asked by the virtual character, when the player 5 takes an action by the movement of the head, the sensor unit 25 of the HMD 10 detects the movement of the head, and the detected head The answer of the player 5 according to the movement of the player 5 is specified. For example, when a nodding motion is detected, it may be determined that the player 5 has given a positive answer, and when a motion of shaking his head is detected, it may be determined that the player 5 has given a negative answer. Further, if the movement of the head of the player 5 is not detected for a predetermined time after the question from the virtual character, it may be determined that the player 5 has not answered the question from the virtual character. The action of the player 5 may be specified by the function of the action specifying unit 21c3.

アクションA21は、さらにアクションA31及びアクションA32に分岐している。アクションA21において所定の移行条件が成立した場合に、当該成立した移行条件に応じてアクションA21からアクションA31又はアクションA32への移行が行われる。アクションA22の下流には、アクションA33のみが対応付けられている。つまり、アクションA22は分岐していない。この場合、アクションA22が終了すると、アクションA33が開始される。アクションA23の下流には、より下層のアクションは設定されていない。図12に示されているアクションの構造は一例であり、各シーンで実現したいストーリーに応じて、当該シーンに含まれるアクションの種類や数及びそれらのアクションの構造は適宜設定され得る。 The action A21 is further branched into the action A31 and the action A32. When a predetermined transition condition is satisfied in the action A21, the transition from the action A21 to the action A31 or the action A32 is performed according to the satisfied transition condition. Only the action A33 is associated with the downstream of the action A22. That is, the action A22 is not branched. In this case, when the action A22 ends, the action A33 starts. No lower layer action is set downstream of the action A23. The structure of actions shown in FIG. 12 is an example, and the types and numbers of actions included in the scene and the structure of those actions can be appropriately set according to the story to be realized in each scene.

アクションA11,A21〜A23,A31〜A33の各々は、仮想キャラクタがプレイヤ5に所定の話題について話しかけるアクションであってもよい。アクションA11,A21〜A23,A31〜A33における仮想キャラクタのアクションは、開始シーンデータA1に基づいて定められ得る。開始シーンデータA1には、アクションA11,A21〜A23,A31〜A33の各々における仮想キャラクタのアクションを規定するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータが含まれている。例えば、アクションA11は、開始シーンデータA1のうち、アクションA11における仮想キャラクタのアクションを規定するデータ及びアクションA11において仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータを含んでいる。アクションA11は、開始シーンデータA1のうち、アクションA11に関するデータに基づいて実行される。 Each of the actions A11, A21 to A23, and A31 to A33 may be an action in which the virtual character talks to the player 5 on a predetermined topic. The action of the virtual character in the actions A11, A21 to A23, and A31 to A33 can be determined based on the start scene data A1. The start scene data A1 includes data that defines the actions of the virtual character in each of the actions A11, A21 to A23, and A31 to A33, and data related to the actions that the player can take against the virtual character in the start scene. There is. For example, the action A11 includes data that defines the action of the virtual character in the action A11 and data related to an action that the player can take with respect to the virtual character in the action A11 in the start scene data A1. The action A11 is executed based on the data related to the action A11 in the start scene data A1.

開始シーンが、アクションA11→アクションA21→アクションA31の順で実行される場合には、仮想キャラクタは、アクションA11においてある話題について会話を行うためのアクションを行い、次にアクションA21において別の話題について会話を行うためのアクションを行い、次にアクションA31においてさらに別の話題について会話を行うためのアクションを行う。一つのアクションから他のアクションへの移行は、プレイヤ5に移行が感知されないように、シームレスに行われてもよい。 When the start scene is executed in the order of action A11 → action A21 → action A31, the virtual character performs an action for having a conversation about one topic in action A11, and then about another topic in action A21. An action for having a conversation is performed, and then an action for having a conversation on yet another topic is performed in action A31. The transition from one action to another may be seamless so that the player 5 does not detect the transition.

アクションA11,A21〜A23,A31〜A33の各々が実行されている間、プレイヤ5は、仮想キャラクタの所定の部位を注視すること又はこれ以外の方法により、当該仮想キャラクタに対してアクションを行うことができる。このようなプレイヤ5の仮想キャラクタへのアクションに対して、仮想キャラクタは、開始シーンデータA1に基づいて定められるリアクションを取ることができる。このように、アクションA11,A21〜A23,A31〜A33の各々は、プレイヤ5のアクション及び開始シーンデータA1に基づいて実行される。 While each of the actions A11, A21 to A23, and A31 to A33 is being executed, the player 5 performs an action on the virtual character by gazing at a predetermined part of the virtual character or by any other method. Can be done. With respect to such an action on the virtual character of the player 5, the virtual character can take a reaction determined based on the start scene data A1. As described above, each of the actions A11, A21 to A23, and A31 to A33 is executed based on the action of the player 5 and the start scene data A1.

アクションA11,A21〜A23,A31〜A33の各々の実行と並行して、中断判定も行われる。アクションA11,A21〜A23,A31〜A33の実行中におけるプレイヤ5のアクションにより、中断条件が満たされることがある。アクションA11,A21〜A23,A31〜A33のうちのいずれかのアクションの実行中に中断条件が満たされていると判定された場合には、その実行中のアクションを中断するための中断処理A41が行われる。この中断条件が満たされたか否かの判定は、例えば、中断判定部21c5によって行われる。 The interruption determination is also performed in parallel with the execution of each of the actions A11, A21 to A23, and A31 to A33. The interruption condition may be satisfied by the action of the player 5 during the execution of the actions A11, A21 to A23, and A31 to A33. If it is determined that the interruption condition is satisfied during the execution of any of the actions A11, A21 to A23, and A31 to A33, the interruption process A41 for interrupting the executing action is performed. Will be done. For example, the interruption determination unit 21c5 determines whether or not the interruption condition is satisfied.

アクションA11,A21〜A23,A31〜A33の各々は、メインアクションと、割込アクションと、復帰アクションと、を有する。図12に示されている例では、アクションA21が、メインアクションA211と、割込アクションA212と、復帰アクションA213と、を有している。アクションA21以外の各アクションも、同様に、メインアクションと、割込アクションと、復帰アクションと、含み得る。メインアクション、割込アクション、及び復帰アクションについて、以下では、アクションA21を例に説明する。 Each of the actions A11, A21 to A23, and A31 to A33 has a main action, an interrupt action, and a return action. In the example shown in FIG. 12, the action A21 has a main action A211, an interrupt action A212, and a return action A213. Each action other than the action A21 may also include a main action, an interrupt action, and a return action. The main action, interrupt action, and return action will be described below by taking action A21 as an example.

メインアクションA211は、ゲームの進行の基調となる仮想キャラクタの一連のアクションである。例えば、開始シーンが、プレイヤ5と仮想キャラクタとの間での会話を行うシーンである場合、このメインアクションA211は仮想キャラクタがプレイヤ5に対して一連の会話を行うというアクションである。 The main action A211 is a series of actions of the virtual character that is the basis of the progress of the game. For example, when the start scene is a scene in which a conversation between the player 5 and the virtual character is performed, the main action A211 is an action in which the virtual character has a series of conversations with the player 5.

割込アクションA212は、メインアクションA211の実行中にプレイヤ5が仮想キャラクタに対して特定アクションを行った場合に、当該メインアクションA211を一時中断して実行される仮想キャラクタのアクションである。本明細書においては、メインアクションの実行中にプレイヤ5によって行われるアクションを特定アクションと呼ぶことがある。割込アクションA212は、プレイヤ5の特定アクションに対するリアクションであってもよい。例えば、特定アクションが仮想キャラクタの頭部に触れるというアクションである場合には、割込アクションA212は、それに対して驚いた動きをするというアクションであってもよい。特定アクションが行われたことによって中断条件が成立する場合には、割込アクションA212ではなく中断処理A41が行われる。 The interrupt action A212 is an action of the virtual character that is executed by suspending the main action A211 when the player 5 performs a specific action on the virtual character during the execution of the main action A211. In the present specification, an action performed by the player 5 during execution of the main action may be referred to as a specific action. The interrupt action A212 may be a reaction to a specific action of the player 5. For example, when the specific action is an action of touching the head of the virtual character, the interrupt action A212 may be an action of making a surprising movement in response to the action. When the interruption condition is satisfied by performing the specific action, the interruption process A41 is performed instead of the interrupt action A212.

割込アクションA212が実行された後は、復帰アクションA213が行われ、その後にメインアクションA211に復帰する。復帰アクションA213は、メインアクションA211の会話へ自然に復帰するためのアクションである。割込アクションA212によってメインアクションA211の実行が一時中断されているため、割込アクションA212からメインアクションA211へ直接復帰するのではなく、復帰アクションA213を介在させることでメインアクションA211へより自然に復帰させることができる。
復帰アクションA213は、例えば、仮想キャラクタが「それでね」といった口語の接続詞を話すことである。メインアクションA211へ復帰する直前に口語の接続詞を話すことにより、メインアクションA211における会話へ自然に復帰することができる。メインアクションA211は、特定アクションにより中断された時点から再開される。
After the interrupt action A212 is executed, the return action A213 is performed, and then the main action A211 is returned. The return action A213 is an action for naturally returning to the conversation of the main action A211. Since the execution of the main action A211 is temporarily suspended by the interrupt action A212, the interrupt action A212 does not directly return to the main action A211 but returns to the main action A211 more naturally by interposing the return action A213. Can be made to.
The return action A213 is, for example, a virtual character speaking a colloquial conjunction such as "so de ne". By speaking a colloquial conjunction immediately before returning to the main action A211, it is possible to naturally return to the conversation in the main action A211. The main action A211 is restarted from the time when it is interrupted by the specific action.

上記のように、アクションA11,A21〜A23,A31〜A33の各々の実行と並行して中断判定も行われ、これらのアクションのうちのいずれかのアクションの実行中に中断条件が満たされていると判定された場合には、その実行中のアクションを中断するための中断処理A41が行われる。中断処理A41においては、実行中のメインアクションが中断される。また、中断処理A41においては、別のアクション、別のシーン、又は別のモードへ移行することをプレイヤ5に了知させるために、シーン間の移行時に表示されるシーン移行画面が表示されてもよい。シーン移行画面については後述する。 As described above, the interruption determination is also performed in parallel with the execution of each of the actions A11, A21 to A23, and A31 to A33, and the interruption condition is satisfied during the execution of any one of these actions. If it is determined, the interruption process A41 for interrupting the action being executed is performed. In the interruption process A41, the main action being executed is interrupted. Further, in the interruption process A41, even if the scene transition screen displayed at the time of transition between scenes is displayed in order to notify the player 5 that the transition to another action, another scene, or another mode is performed. Good. The scene transition screen will be described later.

一実施形態において、アクションA21について中断処理A41がなされた後に、中断されたアクションA21の下流にあるアクション(例えば、アクションA31)からゲームが再開されてもよい。例えば、アクションA21を中断する中断処理A41においてシーン移行画面が表示された後に、アクションA31が実行されてもよい。これにより、中断条件が満たされたアクションA21は、中断条件が満たされたと判定され中断処理A41が行われた後スキップされ、下流にある他のアクション(例えば、アクションA31)が開始される。 In one embodiment, after the interruption process A41 is performed on the action A21, the game may be restarted from an action (for example, action A31) downstream of the interrupted action A21. For example, the action A31 may be executed after the scene transition screen is displayed in the interruption process A41 for interrupting the action A21. As a result, the action A21 that satisfies the interruption condition is skipped after the interruption processing A41 is performed after it is determined that the interruption condition is satisfied, and another downstream action (for example, the action A31) is started.

他の実施形態において、アクションA21について中断処理A41がなされた後に、シーン終了処理A51が実行されてもよい。つまり、中断条件が成立したと判定されたことに応じて、実行中のアクションA21を含む開始シーンを終了させる終了処理が行われてもよい。シーン終了処理A51においては、アクションA21が行われる開始シーンが終了され、VR処理はステップS42へ移行し、このステップS42において開始シーンの後段にある基本シーンを実行するための処理が開始される。 In another embodiment, the scene end process A51 may be executed after the interruption process A41 is performed for the action A21. That is, the end process for ending the start scene including the action A21 being executed may be performed according to the determination that the interruption condition is satisfied. In the scene end process A51, the start scene in which the action A21 is performed is ended, the VR process proceeds to step S42, and in this step S42, the process for executing the basic scene after the start scene is started.

さらに他の実施形態において、アクションA21について中断処理A41がなされた後に、VR終了処理A61が実行されてもよい。VR終了処理A61においては、VRモードを終了し、チャットモードへ移行するための処理が行われる。このVR終了処理A61は、後述するステップS48における終了処理と同じ処理である。 In still another embodiment, the VR termination process A61 may be executed after the interruption process A41 is performed for the action A21. In the VR end process A61, a process for ending the VR mode and shifting to the chat mode is performed. This VR end process A61 is the same process as the end process in step S48 described later.

中断処理A41が行われない場合(すなわち、開始シーンにおいて中断条件が満たされなかった場合)には、最下流のアクションであるアクションA31、アクションA32、アクションA33、又はアクションA23が終了すると、開始シーンは終了し、VR処理はステップS42へ移行する。 When the interruption process A41 is not performed (that is, when the interruption condition is not satisfied in the start scene), the start scene is completed when the most downstream actions, action A31, action A32, action A33, or action A23, are completed. Is finished, and the VR process proceeds to step S42.

ステップS42では、複数の候補の中から、実行されるべき基本シーンが選択される。実行されるべき基本シーンの選択は、第1シナリオのために準備されている基本シーンの複数の候補の中から、例えばパラメータデータ28dに応じて行われる。第1シナリオにおいては、図4の基本シーンデータB1〜B3に対応する3つの基本シーンが準備されている。一実施形態においては、この3つの基本シーンの中から、パラメータデータ28dとして記憶されている仮想キャラクタのプレイヤ5に対する好感度に基づいて、実行されるべき基本シーンが選択される。例えば、好感度が第1閾値以上である場合には、基本シーンデータB1に対応する基本シーンが選択され、好感度が第2閾値未満である場合には、基本シーンデータB3に対応する基本シーンが選択され、好感度が第2閾値以上で第1閾値未満である場合には、基本シーンデータB2に対応する基本シーンが選択される。基本シーンの選択は、上記以外の方法で行われても良い。例えば、基本シーンはランダムに選択されてもよい。基本シーンは、好感度が高いほど一部の基本シーン(例えば、基本シーンデータB1に対応する第1基本シーン)が選択される確率が高くなるように重み付けを行った上で、ランダムに選択されてもよい。基本シーンの選択方法は、本明細書で明示的に説明された方法には限定されない。基本シーンが選択されると、VR処理は、ステップS43に移行する。 In step S42, a basic scene to be executed is selected from a plurality of candidates. The selection of the basic scene to be executed is performed according to, for example, the parameter data 28d from the plurality of candidates of the basic scene prepared for the first scenario. In the first scenario, three basic scenes corresponding to the basic scene data B1 to B3 of FIG. 4 are prepared. In one embodiment, the basic scene to be executed is selected from the three basic scenes based on the favorable impression of the virtual character stored as the parameter data 28d on the player 5. For example, when the favorability is equal to or higher than the first threshold value, the basic scene corresponding to the basic scene data B1 is selected, and when the favorability is less than the second threshold value, the basic scene corresponding to the basic scene data B3 is selected. Is selected, and when the favorability is equal to or higher than the second threshold value and lower than the first threshold value, the basic scene corresponding to the basic scene data B2 is selected. The selection of the basic scene may be performed by a method other than the above. For example, the basic scene may be randomly selected. The basic scenes are randomly selected after weighting so that the higher the favorability, the higher the probability that some basic scenes (for example, the first basic scene corresponding to the basic scene data B1) will be selected. You may. The method of selecting the basic scene is not limited to the method explicitly described herein. When the basic scene is selected, the VR process proceeds to step S43.

ステップS43では、ステップS42で選択された基本シーンが実行される。具体的には、基本シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。基本シーンにおいては、仮想空間において仮想キャラクタが所定のアクションをおこなっても良い。基本シーンにおける仮想キャラクタのアクションは、開始シーンと同様に、分岐可能な一連のアクションとして規定されてもよい。基本シーンにおける分岐可能な一連のアクションは、図12に示されているデータ構造と同様のデータ構造を有していてもよい。開始シーンと同様に、基本シーンにおいても、アクションの実行と並行して中断判定が行われてもよい。この中断判定において中断条件が満たされたと判断されると、実行中のアクションを中断するための中断処理が行われる。この基本シーンにおける中断処理は、開始シーンにおける中断処理A41と同様の処理であってもよい。開始シーンと同様に、基本シーンにおける中断判定の後には、中断されたアクションよりも下流にあるアクションへの移行するための処理、基本シーンの終了処理、又はVRモードの終了処理が行われてもよい。基本シーンに関しては、移行条件が設定されている。基本シーンの最下流にあるアクションが終了すると、基本シーンは終了し、VR処理はステップS44へ移行する。 In step S43, the basic scene selected in step S42 is executed. Specifically, image information of a virtual space corresponding to a basic scene is generated, and an image corresponding to the image information is output to the display 24. In the basic scene, the virtual character may perform a predetermined action in the virtual space. The action of the virtual character in the basic scene may be defined as a series of branchable actions as in the start scene. A series of branchable actions in the basic scene may have a data structure similar to the data structure shown in FIG. Similar to the start scene, the interruption determination may be performed in parallel with the execution of the action in the basic scene. If it is determined in this interruption determination that the interruption condition is satisfied, an interruption process for interrupting the action being executed is performed. The interruption process in this basic scene may be the same process as the interruption process A41 in the start scene. Similar to the start scene, after the interruption judgment in the basic scene, even if the process for shifting to the action downstream from the interrupted action, the end process of the basic scene, or the end process of the VR mode is performed. Good. Transition conditions are set for the basic scene. When the action at the most downstream of the basic scene ends, the basic scene ends, and the VR process proceeds to step S44.

ステップS44においては、ステップS43で実行された基本シーンについて設定されている追加シーン移行条件が成立したか否かが判定される。この判定は、ステップS43で実行された基本シーンに対応する基本シーンデータ(例えば、基本シーンデータB1)に含まれる追加シーン移行条件をストレージ27から読み出し、ステップS43で実行された基本シーンにおいて当該移行条件が成立したか否かが判定される。例えば、仮想空間にあるドアを表すオブジェクトを3秒以上注視することが移行条件である場合には、仮想空間内でのプレイヤ5の注視位置が当該ドアを表すオブジェクト上に位置する時間をカウントし、このカウントされた時間が3秒以上である場合に、移行条件が成立したと判定される。仮想空間内でのプレイヤ5の注視位置は、センサユニット25の検出情報に基づいてHMD10の向きを算出し、この算出したHMD10の向きに基づいて特定される。追加シーン移行条件は、基本シーンの実行時に、プレイヤ5に明示的に提示されてもよいし、提示されなくともよい。例えば、基本シーンにおいて、仮想キャラクタが、追加シーン移行条件に対応する台詞をプレイヤ5に語りかけてもよい。 In step S44, it is determined whether or not the additional scene transition condition set for the basic scene executed in step S43 is satisfied. In this determination, the additional scene transition condition included in the basic scene data (for example, basic scene data B1) corresponding to the basic scene executed in step S43 is read from the storage 27, and the transition is performed in the basic scene executed in step S43. It is determined whether or not the condition is satisfied. For example, when the transition condition is to gaze at the object representing the door in the virtual space for 3 seconds or more, the time when the gaze position of the player 5 in the virtual space is located on the object representing the door is counted. , When the counted time is 3 seconds or more, it is determined that the transition condition is satisfied. The gaze position of the player 5 in the virtual space is specified by calculating the orientation of the HMD 10 based on the detection information of the sensor unit 25 and based on the calculated orientation of the HMD 10. The additional scene transition condition may or may not be explicitly presented to the player 5 when the basic scene is executed. For example, in the basic scene, the virtual character may speak to the player 5 a line corresponding to the additional scene transition condition.

移行条件が成立しなかったと判定された場合、VR処理はステップS45に移行し、移行条件が成立したと判定された場合、VR処理はステップS46に移行する。 If it is determined that the transition condition is not satisfied, the VR process proceeds to step S45, and if it is determined that the transition condition is satisfied, the VR process proceeds to step S46.

ステップS45においては、第1終了シーンが実行される。具体的には、第1終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。 In step S45, the first end scene is executed. Specifically, image information of the virtual space corresponding to the first end scene is generated, and an image corresponding to the image information is output to the display 24.

ステップS46においては、追加シーンが実行される。具体的には、第1終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。追加シーンにおける仮想キャラクタのアクションは、開始シーンと同様に、分岐可能な一連のアクションとして規定されてもよい。追加シーンにおける分岐可能な一連のアクションは、図12に示されているデータ構造と同様のデータ構造を有していてもよい。追加シーンの最下流にあるアクションが終了すると、追加シーンは終了し、VR処理はステップS47へ移行する。 In step S46, an additional scene is executed. Specifically, image information of the virtual space corresponding to the first end scene is generated, and an image corresponding to the image information is output to the display 24. The action of the virtual character in the additional scene may be defined as a series of branchable actions as in the start scene. The branchable series of actions in the additional scene may have a data structure similar to the data structure shown in FIG. When the action at the most downstream of the additional scene ends, the additional scene ends, and the VR process proceeds to step S47.

ステップS47においては、第2終了シーンが実行される。具体的には、第2終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。第2終了シーンにおいて表示される画像は第1終了シーンにおいて表示される画像と同じでもよいし異なっていてもよい。 In step S47, the second end scene is executed. Specifically, image information of the virtual space corresponding to the second end scene is generated, and the image corresponding to the image information is output to the display 24. The image displayed in the second end scene may be the same as or different from the image displayed in the first end scene.

開始シーン及び基本シーンと同様に、追加シーン、第1終了シーン、及び第2終了シーンにおいても、アクションの実行と並行して中断判定が行われてもよい。この中断判定において中断条件が満たされたと判断されると、実行中のアクションを中断するための中断処理が行われる。追加シーン、第1終了シーン、及び第2終了シーンにおける中断処理は、開始シーンにおける中断処理A41と同様の処理であってもよい。開始シーンと同様に、追加シーン、第1終了シーン、及び第2終了シーンにおける中断判定の後には、中断されたアクションよりも下流にあるアクションへの移行するための処理、実行中のシーンの終了処理、又はVRモードの終了処理が行われてもよい。 Similar to the start scene and the basic scene, the interruption determination may be performed in parallel with the execution of the action in the additional scene, the first end scene, and the second end scene. If it is determined in this interruption determination that the interruption condition is satisfied, an interruption process for interrupting the action being executed is performed. The interruption processing in the additional scene, the first end scene, and the second end scene may be the same processing as the interruption processing A41 in the start scene. Similar to the start scene, after the interruption judgment in the additional scene, the first end scene, and the second end scene, the process for transitioning to the action downstream from the interrupted action, the end of the running scene. The processing or the termination processing of the VR mode may be performed.

上記のVR処理において、シーン間の移行時には、シーン移行画面が生成され、当該シーン移行画面がディスプレイ24に表示されてもよい。シーン移行画面は、シーンが移行することをプレイヤ5に了知させることができる任意の画面である。例えば、シーン移行画面は、画像全体が黒一色で構成されるフェードアウト画面であってもよい。このフェードアウト画面は、開始シーンから基本シーンへの移行時(基本シーンにおけるVR画面の表示前)、基本シーンから第1終了シーンへの移行時(第1終了シーンにおけるVR画面の表示前)、基本シーンから追加シーンへの移行時(追加シーンにおけるVR画面の表示前)、及び追加シーンから第2終了シーンへの移行時(第2終了シーンにおけるVR画面の表示前)から選択される少なくとも一つの時点で表示され得る。 In the above VR processing, a scene transition screen may be generated at the time of transition between scenes, and the scene transition screen may be displayed on the display 24. The scene transition screen is an arbitrary screen that can make the player 5 know that the scene is transitioning. For example, the scene transition screen may be a fade-out screen in which the entire image is entirely black. This fade-out screen is basic when transitioning from the start scene to the basic scene (before displaying the VR screen in the basic scene) and when transitioning from the basic scene to the first end scene (before displaying the VR screen in the first end scene). At least one selected from the transition from the scene to the additional scene (before the VR screen is displayed in the additional scene) and the transition from the additional scene to the second end scene (before the VR screen is displayed in the second end scene). Can be displayed at the time.

VR画像90がディスプレイ24に表示されている間に、HMD10のセンサユニット25によってプレイヤ5の頭部の動きが検出されると、この検出された頭部の動きに基づいてプレイヤ5のアクションが特定される。そして、特定されたプレイヤ5のアクションに応じた仮想キャラクタの行動(リアクション)が決定され、この決定された行動を行う仮想キャラクタ画像91の画像情報が生成される。このようにして生成された画像情報は、ディスプレイ24に出力される。例えば、プレイヤ5のうなずく動作が検出されると、プレイヤ5のうなずくという動作へのリアクションを取る仮想キャラクタ画像91の画像情報が生成され、当該画像情報がディスプレイ24に表示される。このように、VRモードでは、仮想キャラクタの立体視画像を用いて、プレイヤ5と当該仮想キャラクタとの間でのインタラクションが実現される。 When the movement of the head of the player 5 is detected by the sensor unit 25 of the HMD 10 while the VR image 90 is displayed on the display 24, the action of the player 5 is specified based on the detected movement of the head. Will be done. Then, the action (reaction) of the virtual character according to the action of the specified player 5 is determined, and the image information of the virtual character image 91 that performs the determined action is generated. The image information generated in this way is output to the display 24. For example, when the nodding motion of the player 5 is detected, the image information of the virtual character image 91 that takes a reaction to the nodding motion of the player 5 is generated, and the image information is displayed on the display 24. As described above, in the VR mode, the interaction between the player 5 and the virtual character is realized by using the stereoscopic image of the virtual character.

以上のステップS41,S43,S45〜S47においては、プレイヤ5のアクションに応じて、プレイヤ5について設定されているパラメータが増減されてもよい。パラメータの増減量又は増減率は、上記のように、プレイヤ5のアクションごとに定められているパラメータの変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)に基づいて定められてもよい。パラメータの変化量又は変化率が特定されると、この特定された好感度の変化量又は変化率に基づいて、パラメータデータ28dが更新される。 In the above steps S41, S43, S45 to S47, the parameters set for the player 5 may be increased or decreased according to the action of the player 5. The increase / decrease amount or increase / decrease rate of the parameter is based on the change amount (for example, increase amount or decrease amount) or change rate (increase rate or decrease rate) of the parameter determined for each action of the player 5 as described above. It may be determined. When the amount of change or rate of change of the parameter is specified, the parameter data 28d is updated based on the amount of change or rate of change of the specified favorability.

ステップS48では、VRモードの終了処理がなされる。この終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。 In step S48, the VR mode termination process is performed. This termination process may include displaying a guidance on the display 24 prompting the information processing device 20 to be removed from the fitting 11, and displaying a login screen for the chat mode, which is the first mode. ..

以上のVR処理は、VRモード実行部21cにより実行される。VRモード実行部21cは、単独で又は他の機能と適宜協働して、上記のVR処理を実行することができる。 The above VR processing is executed by the VR mode execution unit 21c. The VR mode execution unit 21c can execute the above-mentioned VR processing alone or in cooperation with other functions as appropriate.

続いて、他の実施形態によるゲーム処理システムについて図13を参照して説明する。図13は、他の実施形態によるゲーム処理システム101を示すブロック図である。ゲーム処理システム101は、情報処理装置20、HMD110、及びHMD110を備えている。ゲーム処理システム101は、情報処理装置20をHMD110に取り付けることなくVRモードを提供できる点で、ゲーム処理システム1と異なっている。以下、ゲーム処理システム101について、ゲーム処理システム1と相違する点に着目して説明する。 Subsequently, a game processing system according to another embodiment will be described with reference to FIG. FIG. 13 is a block diagram showing a game processing system 101 according to another embodiment. The game processing system 101 includes an information processing device 20, an HMD 110, and an HMD 110. The game processing system 101 is different from the game processing system 1 in that the VR mode can be provided without attaching the information processing device 20 to the HMD 110. Hereinafter, the game processing system 101 will be described focusing on the differences from the game processing system 1.

HMD110と、情報処理装置20と、サーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。HMD110と情報処理装置20とは、ネットワーク40を介さずに、Bluetooth(登録商標)などの近距離無線方式に従って通信可能に接続されていてもよい。HMD110は、情報処理装置20が取り付けられなくともVRモードを提供可能な点で、ゲーム処理システム1のHMD10と異なっている。 The HMD 110, the information processing device 20, and the server 50 are connected to each other so as to be able to communicate with each other via the network 40. The HMD 110 and the information processing device 20 may be communicably connected according to a short-range wireless system such as Bluetooth (registered trademark) without going through a network 40. The HMD 110 is different from the HMD 10 of the game processing system 1 in that the VR mode can be provided even if the information processing device 20 is not attached.

HMD110は、コンピュータプロセッサ121と、メモリ122と、通信I/F123と、ディスプレイ124と、センサユニット125と、集音装置126と、ストレージ127と、を備えている。コンピュータプロセッサ121、メモリ122、通信I/F123、ディスプレイ124、センサユニット125、集音装置126、及びストレージ127は、情報処理装置20のコンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27と同様に構成される。ただし、ディスプレイ124は、タッチパネルを備えなくともよい。 The HMD 110 includes a computer processor 121, a memory 122, a communication I / F 123, a display 124, a sensor unit 125, a sound collector 126, and a storage 127. The computer processor 121, the memory 122, the communication I / F 123, the display 124, the sensor unit 125, the sound collector 126, and the storage 127 are the computer processor 21, the memory 22, the communication I / F 23, the display 24, and the sensor of the information processing apparatus 20. It is configured similarly to the unit 25, the sound collector 26, and the storage 27. However, the display 124 does not have to be provided with a touch panel.

チャットモード実行部21a、移行処理部21b、及びVRモード実行部21cの機能は、情報処理装置20とHMD110とで分担して担われる。具体的には、チャットモード実行部21aの機能は情報処理装置20において実現され、VRモード実行部21cの機能はHMD110において実現される。移行処理部21bの機能は、その一部が情報処理装置20で実現され、残部がHMD110において実現される。パラメータ管理部21dの機能は、情報処理装置20及びHMD110の両方で実現される。 The functions of the chat mode execution unit 21a, the transition processing unit 21b, and the VR mode execution unit 21c are shared between the information processing device 20 and the HMD 110. Specifically, the function of the chat mode execution unit 21a is realized in the information processing device 20, and the function of the VR mode execution unit 21c is realized in the HMD 110. A part of the function of the transition processing unit 21b is realized by the information processing apparatus 20, and the rest is realized by the HMD 110. The function of the parameter management unit 21d is realized by both the information processing device 20 and the HMD 110.

画像データ28a、チャットデータ28b、シナリオデータ28c、パラメータデータ28d、中断条件データ28e、及びゲーム進行データ28fは、ストレージ27及びストレージ127の一方又は両方に記憶される。これらのデータは、ストレージ27及びストレージ127以外のストレージに記憶されてもよい。 The image data 28a, chat data 28b, scenario data 28c, parameter data 28d, interruption condition data 28e, and game progress data 28f are stored in one or both of the storage 27 and the storage 127. These data may be stored in a storage other than the storage 27 and the storage 127.

ゲーム処理システム101においてゲームを開始するときには、プレイヤ5は、情報処理装置20を用いてチャットモードを開始する。このチャットモードの処理は、情報処理装置20のチャットモード実行部21aにより行われる。 When starting a game in the game processing system 101, the player 5 starts a chat mode using the information processing device 20. This chat mode processing is performed by the chat mode execution unit 21a of the information processing device 20.

チャットモードにおいてモード移行条件が成立し、移行開始オブジェクトが選択された場合には、VRモードへのモード移行処理が開始される。このモード移行処理において、ステップ移行処理部21bにより行われる。当該モード移行処理において、上記のステップS31に相当するガイダンスの表示は、情報処理装置20において行われる。例えば、HMD110を装着するように促すガイダンスが、情報処理装置20のディスプレイ24に表示される。他方、ステップS32に相当する移行オブジェクト86の表示及びこれ以後の処理は、HMD110において実行される。 When the mode transition condition is satisfied in the chat mode and the transition start object is selected, the mode transition process to the VR mode is started. In this mode transition process, the step transition process unit 21b performs. In the mode transition process, the information processing apparatus 20 displays the guidance corresponding to the above step S31. For example, guidance prompting the user to wear the HMD 110 is displayed on the display 24 of the information processing device 20. On the other hand, the display of the transition object 86 corresponding to step S32 and the subsequent processing are executed in the HMD 110.

VRモードが開始されたときには、当該VRモードの処理は、HMD110のVRモード実行部21cにより行われる。 When the VR mode is started, the processing of the VR mode is performed by the VR mode execution unit 21c of the HMD 110.

他の実施形態においては、ゲーム処理システム1又はゲーム処理システム101により、仮想キャラクタとのインタラクションを提供するゲーム以外のゲーム、例えば、ロールプレイイングゲーム、シューティングゲーム、及びこれらの以外の各種ゲームの処理が実行される。この他の実施形態におけるゲームは、複数のゲームシーンによってそのゲームシナリオが構成される。図14に、他の実施形態におけるゲームを構成する複数のシーンを模式的に示す。図14に示されているように、他の実施形態におけるゲームは、シーンB11,B21〜B23,B31〜35の9個のシーンを含む複数のシーンにより構成される。この複数のシーンの各々は、複数のシーンに分岐していてもよい。例えば、シーンB11は、シーンB21〜シーンB23の3つのシーンに分岐している。このゲームが実行される場合には、各分岐点において、プレイヤ5の選択、各種パラメータの値、及びこれら以外の各種条件に応じて、移行先のシーンが選択される。各シーンにおいては、予め、ストレージ27、ストレージ127、又はこれら以外のストレージに記憶されたコマンドセットに従ってゲームが進行される。各シーンのコマンドセットは、当該シーンにおいてプレイヤキャラクタが取り得る行動、当該シーンにおいてノンプレイヤキャラクタが取り得る行動、当該シーンにおいて表示されるオブジェクトの画像及び位置に関するデータ、及びこれら以外の当該シーンの実行に必要な情報を含む。当該実施形態において、中断条件データ28eは、VRモードで実行されているゲーム又はそのゲームにおいて実行されているシーンを中断する条件であるシーン中断条件を定めるデータを含んでもよい。シーン中断条件は、アクションを中断する条件である中断条件と同じであってもよい。 In another embodiment, the game processing system 1 or the game processing system 101 processes a game other than a game that provides interaction with a virtual character, for example, a role-playing game, a shooting game, and various games other than these. Is executed. The game scenario of the game in the other embodiment is composed of a plurality of game scenes. FIG. 14 schematically shows a plurality of scenes constituting the game in another embodiment. As shown in FIG. 14, the game in the other embodiment is composed of a plurality of scenes including nine scenes B11, B21 to B23, and B31 to 35. Each of the plurality of scenes may be branched into a plurality of scenes. For example, scene B11 is branched into three scenes, scene B21 to scene B23. When this game is executed, the transition destination scene is selected at each branch point according to the selection of the player 5, the values of various parameters, and various conditions other than these. In each scene, the game progresses according to the command set stored in the storage 27, the storage 127, or other storage in advance. The command set for each scene includes actions that the player character can take in the scene, actions that the non-player character can take in the scene, data on the image and position of the object displayed in the scene, and execution of the other scenes. Contains the information needed for. In the embodiment, the interruption condition data 28e may include data that defines a scene interruption condition that is a condition for interrupting a game executed in VR mode or a scene executed in the game. The scene interruption condition may be the same as the interruption condition which is the condition for interrupting the action.

シーン中断条件が成立したか否かの判定は、シーンB11,B21〜B23,B31〜35及びこれら以外のシーンの処理と並行しておこなわれてもよい。シーン中断条件の判定は、例えば、中断判定部21c5によって行われてもよい。あるシーンにおいてシーン中断条件が成立したと判定された場合には、当該シーンの処理を中断する中断処理が行われる。この中断処理の後に、中断されたシーンの下流にあるシーンからゲームが再開されてもよい。例えば、シーンB21が中断された場合には、その下流にあるシーンB31又はシーン32からゲームが再開されてもよい。あるシーンについて中断処理がなされた後に、VRモードを終了させるための処理を行ってもよい。また、シーンを中断する中断処理においては、別のシーン又は別のモードへ移行することをプレイヤ5に了知させるためにシーン移行画面が表示されてもよい。 The determination of whether or not the scene interruption condition is satisfied may be performed in parallel with the processing of the scenes B11, B21 to B23, B31 to 35 and other scenes. The determination of the scene interruption condition may be performed by, for example, the interruption determination unit 21c5. When it is determined that the scene interruption condition is satisfied in a certain scene, the interruption processing for interrupting the processing of the scene is performed. After this interruption process, the game may be restarted from a scene downstream of the interrupted scene. For example, when the scene B21 is interrupted, the game may be restarted from the scene B31 or the scene 32 downstream of the scene B21. After the interruption process is performed for a certain scene, a process for terminating the VR mode may be performed. Further, in the interruption process for interrupting a scene, a scene transition screen may be displayed in order to let the player 5 know that the scene will be shifted to another scene or another mode.

上記の実施形態によれば、以下の効果が得られる。上記のゲーム処理システム1,101によれば、所定のシーンにおける所定のアクション(例えば、開始シーンにおけるアクションA21)の実行中に中断条件が満たされると、当該アクションが中断される。このため、中断条件を満たした後のプレイヤのアクションに対する仮想キャラクタのリアクションを定めておく必要がなくなる。これにより、プレイヤのアクションに対する仮想キャラクタのアクションを規定するデータ又は各シーンのコマンドセットのデータ量(例えば、シナリオデータ28cのデータ量)の増加を抑制することができる。 According to the above embodiment, the following effects can be obtained. According to the game processing systems 1, 101 described above, if the interruption condition is satisfied during the execution of a predetermined action in a predetermined scene (for example, action A21 in the start scene), the action is interrupted. Therefore, it is not necessary to determine the reaction of the virtual character to the action of the player after satisfying the interruption condition. As a result, it is possible to suppress an increase in the amount of data that defines the action of the virtual character with respect to the action of the player or the amount of data in the command set of each scene (for example, the amount of data in the scenario data 28c).

また、上記のゲーム処理システム1,101によれば、アクション又はシーンを中断する際にシーン移行画面が表示されるので、アクション又はシーンを自然に中断することができる。 Further, according to the game processing systems 1 and 101 described above, since the scene transition screen is displayed when the action or scene is interrupted, the action or scene can be interrupted naturally.

現実世界では不適切とされるアクションを禁止アクションとすることにより、かかるアクションが仮想キャラクタになされた場合に、ゲームの実行を中断することができる。このような現実世界において不適切とされるアクションが行われた場合の仮想キャラクタの対応を予め定めておくことは困難である。他方、不適切とされるアクションに対して仮想キャラクタが通常のリアクションをとってしまうか又は何らリアクションを行わない設定とすると、かかる通常のリアクションは、現実世界において不適切とされるアクションに対するリアクションとしては不自然となる。上記のゲーム処理システム1,101によれば、現実世界では不適切とされるアクションがなされたときにゲームの実行を中断することにより、仮想キャラクタが不自然なリアクションを行う(または何らリアクションを取らない)ことを回避できる。これにより、仮想キャラクタとのコミュニケーションのリアリティを増加させることができる。 By setting an action that is inappropriate in the real world as a prohibited action, the execution of the game can be interrupted when such an action is performed on a virtual character. It is difficult to predetermine the correspondence of the virtual character when such an inappropriate action is performed in the real world. On the other hand, if the virtual character takes a normal reaction to an inappropriate action or is set to not take any reaction, such a normal reaction is a reaction to an action that is inappropriate in the real world. Becomes unnatural. According to the game processing systems 1,101 described above, the virtual character reacts unnaturally (or takes any reaction) by interrupting the execution of the game when an action that is inappropriate in the real world is performed. No) can be avoided. As a result, the reality of communication with the virtual character can be increased.

本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、コンピュータプロセッサ21及びコンピュータプロセッサ121で実行される機能の一部又は全部は、発明の趣旨を逸脱しない限り、上記の実施形態では図示されていないコンピュータプロセッサにより実現されてもよい。例えば、ゲーム処理システム1及びゲーム処理システム101は、ゲーム処理プログラムの少なくとも一部を実行するゲーム機を備えてもよく、コンピュータプロセッサ21又はコンピュータプロセッサ121の処理によって実現される機能の一部は、当該ゲーム機における処理によって実現されてもよい。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist thereof. For example, some or all of the functions performed by the computer processor 21 and the computer processor 121 may be realized by a computer processor (not shown in the above embodiment) as long as the gist of the invention is not deviated. For example, the game processing system 1 and the game processing system 101 may include a game machine that executes at least a part of the game processing program, and a part of the functions realized by the processing of the computer processor 21 or the computer processor 121 may be provided. It may be realized by the processing in the game machine.

本願発明の実施形態には、上記以外にも様々な装置、デバイス、及び電子部品を備えることができる。例えば、ゲーム処理システム1及びゲーム処理システム101は、情報処理装置20及びHMD10,110以外に、プレイヤ5の操作を受け付けるための操作機器を備えてもよい。ゲーム処理システム1及びゲーム処理システム101は、当該操作機器によってプレイヤ5の操作を検出し、当該検出した操作に応じてゲームの処理をおこなっても良い。 In addition to the above, various devices, devices, and electronic components may be provided in the embodiment of the present invention. For example, the game processing system 1 and the game processing system 101 may include an operation device for receiving the operation of the player 5 in addition to the information processing device 20 and the HMDs 10 and 110. The game processing system 1 and the game processing system 101 may detect the operation of the player 5 by the operating device and process the game according to the detected operation.

本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。 In the processing procedure described in the present specification, particularly the processing procedure described using the flow chart, a part of the steps (steps) constituting the processing procedure is omitted, as a step constituting the processing procedure. It is possible to add steps that are not specified and / or to change the order of the steps, and the processing procedure in which such omissions, additions, and changes in order are made does not deviate from the gist of the present invention. It is included in the scope of the invention.

以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
仮想キャラクタのアクションを特定するための一又は複数のアクションデータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記仮想キャラクタとのインタラクションを提供するゲームの処理を行うゲーム処理システムであって、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのアクションを特定し、
前記プレイヤのアクション及び前記一又は複数のアクションデータのうちの第1アクションデータに基づいて前記仮想キャラクタに第1アクションを実行させ、
前記第1アクションの実行中に中断条件が満たされた場合に、前記第1アクションの実行を中断させる、
ゲーム処理システム。
[2]
前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記プレイヤのアクション及び前記一又は複数のアクションデータのうちの第2アクションデータに基づいて前記仮想キャラクタに第2アクションを実行させる、
[1]に記載のゲーム処理システム。
[3]
前記ゲームは、第1シーン及び第2シーンを有し、
前記第1アクションは、前記第1シーンにおいて実行され、
前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記第1シーンの実行を中断させる、
[1]に記載のゲーム処理システム。
[4]
前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記ゲームの第2シーンに移行する、
[3]に記載のゲーム処理システム。
[5]
前記ゲームは、前記プレイヤの頭部に装着されていない情報処理装置からの入力に応じて前記ゲームを進行させる第1モードと、前記ヘッドマウントディスプレイの前記検出情報に応じて前記ゲームを進行させる第2モードと、を有し、
前記第1アクションは、前記第2モードにおいて実行され、
前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記第2モードを中断し、前記第1モードへ移行するための移行処理を行う、
[1]に記載のゲーム処理システム。
[6]
前記ゲームは、第1シーン及び第2シーンを有し、
前記第1アクションは、前記第1シーンにおいて実行され、
前記一又は複数のコンピュータプロセッサは、前記第1シーンから前記第2シーンへ移行する際にディスプレイに表示されるシーン移行画面を、前記中断条件が満たされた場合にも前記ディスプレイに表示させる、
[1]から[5]のいずれか1項に記載のゲーム処理システム。
[7]
前記第1アクションは、前記仮想キャラクタの一連のアクションで構成されるメインアクションと、前記メインアクションを中断して実行される割込アクションと、前記割込アクションの実行後に行われる復帰アクションと、を有する、
[1]から[6]のいずれか1項に記載のゲーム処理システム。
[8]
前記一又は複数のコンピュータプロセッサは、前記第1アクションの実行中に前記プレイヤから特定アクションがなされたことに応じて前記中断条件が満たされたか否かの判定を行い、前記中断条件が満たされていないと判定された場合に前記割込アクションを実行する、
[7]に記載のゲーム処理システム。
[9]
前記中断条件は、前記検出情報から特定された注視位置が仮想空間内に設定された禁止領域上にあること、を含む、
[1]から[8]のいずれか1項に記載のゲーム処理システム。
[10]
前記中断条件は、前記プレイヤが同じアクションを所定回数以上繰り返したこと、を含む、
[1]から[9]のいずれか1項に記載のゲーム処理システム。
[11]
前記中断条件は、前記プレイヤが前記仮想キャラクタの所定の部位に対するアクションを所定回数以上行ったこと、を含む、
[1]から[10]のいずれか1項に記載のゲーム処理システム。
[12]
前記中断条件は、前記プレイヤが禁止アクションに該当するアクションを行ったこと、を含む、
[1]から[11]のいずれか1項に記載のゲーム処理システム。
[13]
前記ストレージは、パラメータ及び前記パラメータを記憶しており、
前記一又は複数のコンピュータプロセッサは、前記プレイヤのアクションに応じて前記パラメータを更新し、
前記中断条件は、前記パラメータに関する条件を含む、
[1]から[12]のいずれか1項に記載のゲーム処理システム。
[14]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより仮想キャラクタとのインタラクションを提供するゲームの処理を行うゲーム処理方法であって、
プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのアクションを特定する工程と、
前記プレイヤのアクション、及び、前記仮想キャラクタのアクションを特定するための一又は複数のアクションデータのうちの第1アクションデータに基づいて前記仮想キャラクタに第1アクションを実行させる工程と、
前記第1アクションの実行中に中断条件が満たされた場合に、前記第1アクションの実行を中断させる工程と、
を備えるゲーム処理方法。
[15]
一又は複数のコンピュータプロセッサに実行されることにより仮想キャラクタとのインタラクションを提供するゲームの処理を行うためのゲーム処理プログラムであって、
前記一又は複数のコンピュータプロセッサに、
プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのアクションを特定する工程と、
前記プレイヤのアクション、及び、前記仮想キャラクタのアクションを特定するための一又は複数のアクションデータのうちの第1アクションデータに基づいて前記仮想キャラクタに第1アクションを実行させる工程と、
前記第1アクションの実行中に中断条件が満たされた場合に、前記第1アクションの実行を中断させる工程と、
、を実行させるゲーム処理プログラム。
[16]
ゲームのシナリオを構成する複数のゲームシーンの各々に関連するシーンデータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記ゲームの処理を行うゲーム処理システムであって、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記ゲームを進行させ、
前記複数のゲームシーンのうちの第1シーンの実行中にシーン中断条件が満たされた場合に、前記第1シーンの実行を中断する、
ゲーム処理システム。
The inventions described in the claims at the time of filing the original application of the present application are added below.
[1]
A game processing system that includes storage for storing one or more action data for identifying an action of a virtual character, one or more computer processors, and processes a game that provides interaction with the virtual character. There,
The one or more computer processors may execute computer-readable instructions.
Based on the detection information detected by the head-mounted display mounted on the player's head, the player's action on the virtual character is specified.
The virtual character is made to execute the first action based on the action of the player and the first action data of the one or more action data.
If the suspension condition is satisfied during the execution of the first action, the execution of the first action is interrupted.
Game processing system.
[2]
When the interruption condition is satisfied, the one or more computer processors executes a second action on the virtual character based on the action of the player and the second action data of the one or more action data. Let,
The game processing system according to [1].
[3]
The game has a first scene and a second scene.
The first action is executed in the first scene,
The one or more computer processors interrupt the execution of the first scene when the interruption condition is satisfied.
The game processing system according to [1].
[4]
When the interruption condition is satisfied, the one or more computer processors shift to the second scene of the game.
The game processing system according to [3].
[5]
The game has a first mode in which the game is advanced in response to an input from an information processing device not attached to the player's head, and a first mode in which the game is advanced in response to the detection information of the head-mounted display. Has 2 modes,
The first action is executed in the second mode,
When the interruption condition is satisfied, the one or more computer processors interrupt the second mode and perform a transition process for shifting to the first mode.
The game processing system according to [1].
[6]
The game has a first scene and a second scene.
The first action is executed in the first scene,
The one or more computer processors display the scene transition screen displayed on the display when transitioning from the first scene to the second scene on the display even when the interruption condition is satisfied.
The game processing system according to any one of [1] to [5].
[7]
The first action includes a main action composed of a series of actions of the virtual character, an interrupt action executed by interrupting the main action, and a return action performed after the execution of the interrupt action. Have, have
The game processing system according to any one of [1] to [6].
[8]
The one or more computer processors determine whether or not the interruption condition is satisfied in response to the specific action taken by the player during the execution of the first action, and the interruption condition is satisfied. If it is determined that there is no interrupt action, the interrupt action is executed.
The game processing system according to [7].
[9]
The interruption condition includes that the gaze position identified from the detection information is on the prohibited area set in the virtual space.
The game processing system according to any one of [1] to [8].
[10]
The interruption condition includes that the player repeats the same action a predetermined number of times or more.
The game processing system according to any one of [1] to [9].
[11]
The interruption condition includes that the player has performed an action on a predetermined portion of the virtual character a predetermined number of times or more.
The game processing system according to any one of [1] to [10].
[12]
The interruption condition includes that the player has performed an action corresponding to the prohibited action.
The game processing system according to any one of [1] to [11].
[13]
The storage stores parameters and the parameters, and stores the parameters.
The one or more computer processors update the parameters in response to the player's actions.
The interruption condition includes a condition relating to the parameter.
The game processing system according to any one of [1] to [12].
[14]
A game processing method in which one or more computer processors execute a computer-readable instruction to process a game that provides interaction with a virtual character.
A step of identifying the player's action on the virtual character based on the detection information detected by the head-mounted display mounted on the player's head, and
A step of causing the virtual character to execute the first action based on the action of the player and the first action data of one or a plurality of action data for specifying the action of the virtual character.
A step of suspending the execution of the first action when the suspension condition is satisfied during the execution of the first action, and
A game processing method that includes.
[15]
A game processing program for processing a game that provides interaction with a virtual character by being executed by one or more computer processors.
To the one or more computer processors
A step of identifying the player's action on the virtual character based on the detection information detected by the head-mounted display mounted on the player's head, and
A step of causing the virtual character to execute the first action based on the action of the player and the first action data of one or a plurality of action data for specifying the action of the virtual character.
A step of suspending the execution of the first action when the suspension condition is satisfied during the execution of the first action, and
A game processing program that runs ,.
[16]
A game processing system that includes storage for storing scene data related to each of a plurality of game scenes constituting a game scenario, and one or a plurality of computer processors, and processes the game.
The one or more computer processors may execute computer-readable instructions.
The game is advanced based on the detection information detected by the head-mounted display mounted on the player's head.
If the scene interruption condition is satisfied during the execution of the first scene of the plurality of game scenes, the execution of the first scene is interrupted.
Game processing system.

1,101 ゲーム処理システム

1,101 Game processing system

Claims (11)

ゲームのシナリオを構成する複数のゲームシーンの各々に関連するシーンデータ、プレイヤが取ることができるプレイヤアクションを特定するためのプレイヤアクションデータ、前記ゲームに関するパラメータ、及びシーン中断条件を定める中断条件データを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記ゲームの処理を行うゲーム処理システムであって、
前記複数のゲームシーンは、仮想キャラクタによって実行される分岐可能な複数のアクションを含み前記パラメータに関連する移行条件に応じて移行先のアクションが定められている一連の第1アクションを含む第1シーンと、前記仮想キャラクタによって実行される分岐可能な複数のアクションを含み前記パラメータに関連する移行条件に応じて移行先のアクションが定められている一連の第2アクションを含む第2シーンと、を含み、
前記シーン中断条件は、前記プレイヤが同じプレイヤアクションを所定回数以上繰り返したこと、及び、前記プレイヤが前記仮想キャラクタの所定の部位に対するプレイヤアクションを所定回数以上行ったことの少なくとも一方を含み、
前記シーンデータは、前記一連の第1アクションを特定するための複数の第1アクションデータを含み、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第1シーンにおいて前記複数の第1アクションデータの各々に基づいて前記仮想キャラクタに前記一連の第1アクションを実行させ、
前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報及び前記プレイヤアクションデータに基づいて前記仮想キャラクタに対する前記プレイヤのプレイヤアクションを特定し、
特定された前記プレイヤのプレイヤアクション及び前記中断条件データに基づいて前記シーン中断条件が満たされたか否かの判定を行い、
前記一連の第1アクションのいずれかの実行中に前記シーン中断条件が満たされたと判定された場合に、前記第1シーンの実行を中断して前記第2シーンを開始する、
ゲーム処理システム。
Scene data related to each of a plurality of game scenes constituting a game scenario, player action data for specifying a player action that can be taken by a player, parameters related to the game, and interruption condition data that defines a scene interruption condition are provided. A game processing system that includes storage for storage and one or more computer processors to process the game.
The plurality of game scenes include a plurality of branchable actions executed by a virtual character , and a first scene including a series of first actions in which a migration destination action is determined according to a migration condition related to the parameter. And a second scene including a series of second actions that include a plurality of branchable actions executed by the virtual character and the destination action is determined according to the migration conditions related to the parameter. ,
The scene interruption condition includes at least one of the player performing the same player action a predetermined number of times or more and the player performing a player action on a predetermined portion of the virtual character a predetermined number of times or more.
The scene data includes a plurality of first action data for identifying the series of first actions.
The one or more computer processors may execute computer-readable instructions.
In the first scene, the virtual character is made to execute the series of first actions based on each of the plurality of first action data.
The player's player action with respect to the virtual character is specified based on the detection information detected by the head-mounted display mounted on the player's head and the player action data .
A determination is made whether the scene interruption condition is satisfied based on the player action and the interruption condition data of the specified the player,
When it is determined that the scene interruption condition is satisfied during the execution of any of the first series of actions, the execution of the first scene is interrupted and the second scene is started.
Game processing system.
前記一又は複数のコンピュータプロセッサは、前記第1シーンから前記第2シーンへ移行する際にディスプレイに表示されるシーン移行画面を、前記シーン中断条件が満たされた場合にも前記ディスプレイに表示させる、
請求項1に記載のゲーム処理システム。
The one or more computer processors display the scene transition screen displayed on the display when transitioning from the first scene to the second scene on the display even when the scene interruption condition is satisfied.
The game processing system according to claim 1.
前記第1アクションは、前記仮想キャラクタの一連のアクションで構成されるメインアクションと、前記メインアクションを中断して実行される割込アクションと、前記割込アクションの実行後に行われる復帰アクションと、を有する、
請求項1又は請求項2に記載のゲーム処理システム。
The first action includes a main action composed of a series of actions of the virtual character, an interrupt action executed by interrupting the main action, and a return action performed after the execution of the interrupt action. Have, have
The game processing system according to claim 1 or 2.
特定された前記プレイヤのプレイヤアクションが特定アクションに該当する場合に、前記特定アクションに対する前記割込アクションを前記仮想キャラクタに実行させ、前記割込アクションの実行後に前記メインアクションを再開させる、
請求項に記載のゲーム処理システム。
When the specified player action of the player corresponds to a specific action, the virtual character is made to execute the interrupt action for the specific action, and the main action is restarted after the execution of the interrupt action.
The game processing system according to claim 3 .
前記シーン中断条件は、特定された前記プレイヤアクションが仮想空間内における注視位置の注視であって、前記注視位置が仮想空間内に設定された禁止領域上にあること、を含む、
請求項1から請求項4のいずれか1項に記載のゲーム処理システム。
The scene interruption condition includes that the specified player action is gaze at a gaze position in the virtual space, and the gaze position is on a prohibited area set in the virtual space.
The game processing system according to any one of claims 1 to 4.
前記パラメータは、前記プレイヤのキャラクタに対する前記仮想キャラクタの好感度である、
請求項1から請求項5のいずれか1項に記載のゲーム処理システム。
The parameter is the favorability of the virtual character with respect to the player's character.
The game processing system according to any one of claims 1 to 5.
前記一連の第1アクションは、第1の第1アクション及び第2の第1アクションを含み、
前記第1シーンにおいて前記好感度が所定の閾値以上であることに応じて前記第1の第1アクションから前記第2の第1アクションへ移行する、
請求項6に記載のゲーム処理システム。
The series of first actions includes a first first action and a second first action.
In the first scene, the transition from the first first action to the second first action is performed according to the favorability being equal to or higher than a predetermined threshold value.
The game processing system according to claim 6 .
前記シーン中断条件は、前記プレイヤが禁止アクションに該当するプレイヤアクションを行ったこと、を含む、
請求項1から請求項6のいずれか1項に記載のゲーム処理システム。
The scene interruption condition includes that the player has performed a player action corresponding to the prohibited action.
The game processing system according to any one of claims 1 to 6 .
記一又は複数のコンピュータプロセッサは、前記プレイヤのプレイヤアクションに応じて前記パラメータを更新し、
前記シーン中断条件は、前記パラメータが所定の閾値以下であることを含む、
請求項1から請求項8のいずれか1項に記載のゲーム処理システム。
Before Symbol One or more computer processors, and updating the parameter according to the player action of the player,
The scene interruption condition includes that the parameter is equal to or less than a predetermined threshold value .
The game processing system according to any one of claims 1 to 8.
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより、ゲームのシナリオを構成する複数のゲームシーンの各々に関連するシーンデータ、プレイヤが取ることができるプレイヤアクションを特定するためのプレイヤアクションデータ、前記ゲームに関するパラメータ、及びシーン中断条件を定める中断条件データを用いて前記ゲームの処理を行うゲーム処理方法であって、
前記ゲームのシナリオを構成する複数のゲームシーンは、仮想キャラクタによって実行される分岐可能な複数のアクションを含み前記パラメータに関連する移行条件に応じて移行先のアクションが定められている一連の第1アクションを含む第1シーンと、前記仮想キャラクタによって実行される分岐可能な複数のアクションを含み前記パラメータに関連する移行条件に応じて移行先のアクションが定められている一連の第2アクションを含む第2シーンと、を含み、
前記シーンデータは、前記一連の第1アクションを特定するための複数の第1アクションデータを含み、
前記シーン中断条件は、前記プレイヤが同じプレイヤアクションを所定回数以上繰り返したこと、及び、前記プレイヤが前記仮想キャラクタの所定の部位に対するプレイヤアクションを所定回数以上行ったことの少なくとも一方を含み、
前記第1シーンにおいて前記複数の第1アクションデータの各々に基づいて前記仮想キャラクタに前記一連の第1アクションを実行させる工程と、
前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報及び前記プレイヤアクションデータに基づいて前記仮想キャラクタに対する前記プレイヤのプレイヤアクションを特定する工程と、
特定された前記プレイヤのプレイヤアクション及び前記中断条件データに基づいてシーン中断条件が満たされたか否かの判定を行う工程と、
前記一連の第1アクションのいずれかの実行中に前記シーン中断条件が満たされたと判定された場合に、前記第1シーンの実行を中断して前記第2シーンを開始する工程と、
を備えるゲーム処理方法。
A player for identifying scene data related to each of a plurality of game scenes constituting a game scenario and player actions that can be taken by the player by executing a computer-readable instruction by one or more computer processors. A game processing method for processing the game using action data, parameters related to the game, and interruption condition data that defines a scene interruption condition.
The plurality of game scenes constituting the scenario of the game include a plurality of branchable actions executed by the virtual character , and a series of first actions in which the destination action is determined according to the migration conditions related to the parameters . A first scene including an action and a series of second actions including a plurality of branchable actions executed by the virtual character and a destination action is determined according to a migration condition related to the parameter . Including 2 scenes
The scene data includes a plurality of first action data for identifying the series of first actions.
The scene interruption condition includes at least one of the player performing the same player action a predetermined number of times or more and the player performing a player action on a predetermined portion of the virtual character a predetermined number of times or more.
A step of causing the virtual character to execute the series of first actions based on each of the plurality of first action data in the first scene.
A step of identifying the player's player action with respect to the virtual character based on the detection information detected by the head-mounted display mounted on the player's head and the player action data .
A step of determining whether or not the scene interruption condition is satisfied based on the specified player action of the player and the interruption condition data, and
A step of interrupting the execution of the first scene and starting the second scene when it is determined that the scene interruption condition is satisfied during the execution of any one of the series of first actions.
A game processing method that includes.
一又は複数のコンピュータプロセッサに実行されることにより、ゲームのシナリオを構成する複数のゲームシーンの各々に関連するシーンデータ、プレイヤが取ることができるプレイヤアクションを特定するためのプレイヤアクションデータ、前記ゲームに関するパラメータ、及びシーン中断条件を定める中断条件データを用いて前記ゲームの処理を行うためのゲーム処理プログラムであって、
前記ゲームのシナリオを構成する複数のゲームシーンは、仮想キャラクタによって実行される分岐可能な複数のアクションを含み前記パラメータに関連する移行条件に応じて移行先のアクションが定められている一連の第1アクションを含む第1シーンと、前記仮想キャラクタによって実行される分岐可能な複数のアクションを含み前記パラメータに関連する移行条件に応じて移行先のアクションが定められている一連の第2アクションを含む第2シーンと、を含み、
前記シーンデータは、前記一連の第1アクションを特定するための複数の第1アクションデータを含み、
前記シーン中断条件は、前記プレイヤが同じプレイヤアクションを所定回数以上繰り返したこと、及び、前記プレイヤが前記仮想キャラクタの所定の部位に対するプレイヤアクションを所定回数以上行ったことの少なくとも一方を含み、
前記一又は複数のコンピュータプロセッサに、
前記第1シーンにおいて前記複数の第1アクションデータの各々に基づいて前記仮想キャラクタに前記一連の第1アクションを実行させる工程と、
前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報及び前記プレイヤアクションデータに基づいて前記仮想キャラクタに対する前記プレイヤのプレイヤアクションを特定する工程と、
特定された前記プレイヤのプレイヤアクション及び前記中断条件データに基づいてシーン中断条件が満たされたか否かの判定を行う工程と、
前記一連の第1アクションのいずれかの実行中に前記シーン中断条件が満たされたと判定された場合に、前記第1シーンの実行を中断して前記第2シーンを開始する工程と、
を実行させるゲーム処理プログラム。


Scene data related to each of a plurality of game scenes constituting a game scenario by being executed by one or a plurality of computer processors, player action data for specifying a player action that can be taken by a player, and the game. A game processing program for processing the game using the parameters related to the above and the interruption condition data that defines the scene interruption condition.
The plurality of game scenes constituting the scenario of the game include a plurality of branchable actions executed by the virtual character , and a series of first actions in which the destination action is determined according to the migration conditions related to the parameters . A first scene including an action and a series of second actions including a plurality of branchable actions executed by the virtual character and a destination action is determined according to a migration condition related to the parameter . Including 2 scenes
The scene data includes a plurality of first action data for identifying the series of first actions.
The scene interruption condition includes at least one of the player performing the same player action a predetermined number of times or more and the player performing a player action on a predetermined portion of the virtual character a predetermined number of times or more.
To the one or more computer processors
A step of causing the virtual character to execute the series of first actions based on each of the plurality of first action data in the first scene.
A step of identifying the player's player action with respect to the virtual character based on the detection information detected by the head-mounted display mounted on the player's head and the player action data .
A step of determining whether or not the scene interruption condition is satisfied based on the specified player action of the player and the interruption condition data, and
A step of interrupting the execution of the first scene and starting the second scene when it is determined that the scene interruption condition is satisfied during the execution of any one of the series of first actions.
A game processing program that executes.


JP2018218066A 2018-02-06 2018-11-21 Game processing system, game processing method, and game processing program Active JP6792604B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018218066A JP6792604B2 (en) 2018-11-21 2018-11-21 Game processing system, game processing method, and game processing program
EP19155826.1A EP3520868A1 (en) 2018-02-06 2019-02-06 Game processing system, method of processing game, and program for processing game
US16/268,728 US10981052B2 (en) 2018-02-06 2019-02-06 Game processing system, method of processing game, and storage medium storing program for processing game
US16/863,227 US11110346B2 (en) 2018-02-06 2020-04-30 Game processing system, method of processing game, and storage medium storing program for processing game
US17/395,137 US11642590B2 (en) 2018-02-06 2021-08-05 Game processing system, method of processing game, and storage medium storing program for processing game
US18/128,846 US20230233930A1 (en) 2018-02-06 2023-03-30 Game processing system, method of processing game, and storage medium storing program for processing game

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018218066A JP6792604B2 (en) 2018-11-21 2018-11-21 Game processing system, game processing method, and game processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018019004A Division JP6691151B2 (en) 2018-02-06 2018-02-06 Game processing system, game processing method, and game processing program

Publications (2)

Publication Number Publication Date
JP2019136479A JP2019136479A (en) 2019-08-22
JP6792604B2 true JP6792604B2 (en) 2020-11-25

Family

ID=67694760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018218066A Active JP6792604B2 (en) 2018-02-06 2018-11-21 Game processing system, game processing method, and game processing program

Country Status (1)

Country Link
JP (1) JP6792604B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6306442B2 (en) * 2014-06-09 2018-04-04 株式会社バンダイナムコエンターテインメント Program and game system
JP6809830B2 (en) * 2016-07-13 2021-01-06 株式会社バンダイナムコエンターテインメント Programs and electronics

Also Published As

Publication number Publication date
JP2019136479A (en) 2019-08-22

Similar Documents

Publication Publication Date Title
JP6908573B2 (en) Game processing system, game processing method, and game processing program
US11642590B2 (en) Game processing system, method of processing game, and storage medium storing program for processing game
CN110115842B (en) Application processing system, application processing method, and application processing program
US11638879B2 (en) Game processing system, method of processing game, and storage medium storing program for processing game
JP6691151B2 (en) Game processing system, game processing method, and game processing program
JP2023093647A (en) Game processing system, game processing method, and game processing program
JP2019136066A (en) Application processing system, application processing method, and application processing program
JP6775870B2 (en) Game processing system, game processing method, and game processing program
JP6792604B2 (en) Game processing system, game processing method, and game processing program
JP7005435B2 (en) Game processing system, game processing method, and game processing program
JP7227314B2 (en) Game processing system, game processing method, and game processing program
JP6815373B2 (en) Game processing system, game processing method, and game processing program
JP6850769B2 (en) Game processing system, game processing method, and game processing program
JP6855416B2 (en) Game processing system, game processing method, and game processing program
JP7148590B2 (en) Game processing system, game processing method, and game processing program
JP7211778B2 (en) Application processing system, application processing method, and application processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200915

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200915

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200925

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201106

R150 Certificate of patent or registration of utility model

Ref document number: 6792604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250