JP6691151B2 - Game processing system, game processing method, and game processing program - Google Patents

Game processing system, game processing method, and game processing program Download PDF

Info

Publication number
JP6691151B2
JP6691151B2 JP2018019004A JP2018019004A JP6691151B2 JP 6691151 B2 JP6691151 B2 JP 6691151B2 JP 2018019004 A JP2018019004 A JP 2018019004A JP 2018019004 A JP2018019004 A JP 2018019004A JP 6691151 B2 JP6691151 B2 JP 6691151B2
Authority
JP
Japan
Prior art keywords
action
player
virtual character
data
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018019004A
Other languages
Japanese (ja)
Other versions
JP2019136068A (en
Inventor
貴志 桑谷
貴志 桑谷
誠 千田
誠 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2018019004A priority Critical patent/JP6691151B2/en
Priority to US16/268,728 priority patent/US10981052B2/en
Priority to EP19155826.1A priority patent/EP3520868A1/en
Publication of JP2019136068A publication Critical patent/JP2019136068A/en
Application granted granted Critical
Publication of JP6691151B2 publication Critical patent/JP6691151B2/en
Priority to US16/863,227 priority patent/US11110346B2/en
Priority to US17/395,137 priority patent/US11642590B2/en
Priority to US18/128,846 priority patent/US11998836B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本明細書における開示は、仮想キャラクタとのインタラクションを提供するゲームを処理するゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラムに関する。   The disclosure herein relates to a game processing system, a game processing method, and a game processing program for processing a game that provides interaction with a virtual character.

仮想キャラクタとのインタラクションを提供するシミュレーションゲームが知られている。かかるシミュレーションゲームは、例えば、特開2017−184842号公報(特許文献1)に開示されている。   Simulation games are known that provide interaction with virtual characters. Such a simulation game is disclosed in, for example, JP-A-2017-184842 (Patent Document 1).

このようなシミュレーションゲームにおいては、プレイヤからの操作入力に対する仮想キャラクタのリアクションが予め定められている。例えば、特許文献1においては、仮想キャラクタからなされた質問に対する回答の候補が選択肢としてプレイヤに提示され、当該プレイヤはいずれかの選択肢を選択する。この選択肢ごとに仮想キャラクタの次の質問が定められているため、仮想キャラクタは、プレイヤの選択に応じて次の質問を行うことができる。   In such a simulation game, the reaction of the virtual character with respect to the operation input from the player is predetermined. For example, in Patent Literature 1, a candidate of an answer to a question made by a virtual character is presented to a player as an option, and the player selects one of the options. Since the next question of the virtual character is set for each of the options, the virtual character can ask the next question according to the selection of the player.

このような仮想キャラクタとのインタラクションを提供するゲームにおいて、ゲームへの没入感を高めるために、ヘッドマウントディスプレイ(以下、「HMD」ということがある。)が利用されることがある。例えば、HMDに仮想空間を表示し、この仮想空間内に登場する仮想キャラクタとHMDを用いてインタラクションできるVRゲームが知られている。この種のVRゲームとして、株式会社バンダイナムコエンターテインメントの「サマーレッスン」が知られている(非特許文献1参照)。   In a game that provides such interaction with a virtual character, a head-mounted display (hereinafter, sometimes referred to as “HMD”) may be used in order to enhance the immersive feeling in the game. For example, there is known a VR game in which a virtual space is displayed on the HMD and a virtual character appearing in the virtual space can interact with the HMD. As this type of VR game, "Summer lesson" by BANDAI NAMCO Entertainment Inc. is known (see Non-Patent Document 1).

上記の「サマーレッスン」では、HMDのトラッキングセンサにより検出された検出情報に応じて、仮想キャラクタとのインタラクションを特定し、この特定されたインタクラクションをプレイヤに体験させる機能が実現されている。例えば、HMDに表示されている仮想キャラクタの画像の動きに応答して当該HMDを装着したプレイヤが頷くと、この頷きに対応するプレイヤの頭部の動きが検出される。そして、この検出された頭部の動きに基づいて、プレイヤが頷いたことに対応する動作を行う仮想キャラクタの画像がHMDに表示される。   In the above-mentioned "summer lesson", the function of identifying the interaction with the virtual character according to the detection information detected by the tracking sensor of the HMD and allowing the player to experience the specified interaction is realized. For example, when the player wearing the HMD nods in response to the movement of the image of the virtual character displayed on the HMD, the movement of the head of the player corresponding to the nod is detected. Then, based on the detected movement of the head, an image of the virtual character performing an action corresponding to the nod of the player is displayed on the HMD.

このように、HMDを用いて仮想キャラクタとのインタラクションを行う従来のVRゲームでは、プレイヤの頭部の動きに追従するように仮想空間の画像が表示され、また、頭部の動きに応じた仮想キャラクタとのインタラクションが体験されるため、プレイヤは高い没入感を得られる。   As described above, in the conventional VR game in which the interaction with the virtual character is performed using the HMD, the image of the virtual space is displayed so as to follow the movement of the head of the player, and the virtual image corresponding to the movement of the head is displayed. Since the interaction with the character is experienced, the player has a high sense of immersion.

特開2017−184842号公報JP, 2017-184842, A

“サマーレッスン”、[online]、平成29年12月12日検索、インターネット(URL: HYPERLINK "http://summer-lesson.bn-ent.net/" http://summer-lesson.bn-ent.net/)"Summer lesson", [online], December 12, 2017 search, Internet (URL: HYPERLINK "http://summer-lesson.bn-ent.net/" http: //summer-lesson.bn-ent .net /)

HMDを用いて仮想キャラクタとインタラクションを行う場合、プレイヤの仮想キャラクタに対するアクションが多様となり得る。プレイヤの仮想キャラクタに対するアクションが多様化すると、プレイヤのアクションに対する仮想キャラクタのアクション(リアクション)を特定するための情報のデータ量が増大するという問題が生じる。   When the HMD is used to interact with the virtual character, the actions of the player on the virtual character may be varied. When the actions of the player on the virtual character are diversified, there arises a problem that the data amount of information for specifying the action (reaction) of the virtual character on the action of the player increases.

本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。   It is an object of the present disclosure to provide a technical improvement that solves or alleviates at least some of the above-mentioned problems of the prior art.

一態様によるゲーム処理システムは、仮想キャラクタのアクションを特定するための一又は複数のアクションデータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記仮想キャラクタとのインタラクションを提供するゲームの処理を行う。当該ゲーム処理システムにおいて、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのアクションを特定し、前記プレイヤのアクション及び前記一又は複数のアクションデータのうちの第1アクションデータに基づいて前記仮想キャラクタに第1アクションを実行させ、前記第1アクションの実行中に中断条件が満たされた場合に、前記第1アクションの実行を中断させる。   A game processing system according to one aspect includes a storage that stores one or a plurality of action data for specifying an action of a virtual character, and one or a plurality of computer processors, and a game that provides an interaction with the virtual character. Process. In the game processing system, the one or more computer processors execute computer-readable instructions to detect the virtual character based on detection information detected by a head-mounted display mounted on the player's head. The action of the player is specified, the virtual character performs the first action based on the action of the player and the first action data of the one or more action data, and the virtual character is interrupted during the execution of the first action. When the condition is satisfied, the execution of the first action is suspended.

一態様によるゲーム処理システムにおいて、前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記プレイヤのアクション及び前記一又は複数のアクションデータのうちの第2アクションデータに基づいて前記仮想キャラクタに第2アクションを実行させる。   In the game processing system according to one aspect, the one or more computer processors may be configured to perform, based on an action of the player and second action data of the one or more action data, when the interruption condition is satisfied. Cause the virtual character to perform the second action.

一態様によるゲーム処理システムにおいて、前記ゲームは、第1シーン及び第2シーンを有し、前記第1アクションは、前記第1シーンにおいて実行され、前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記第1シーンの実行を中断させる。   In the game processing system according to one aspect, the game has a first scene and a second scene, the first action is executed in the first scene, and the one or more computer processors are When satisfied, the execution of the first scene is suspended.

一態様によるゲーム処理システムにおいて、前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記ゲームの第2シーンに移行する。   In the game processing system according to one aspect, the one or more computer processors transition to a second scene of the game when the interruption condition is satisfied.

一態様によるゲーム処理システムにおいて、前記ゲームは、前記プレイヤの頭部に装着されていない情報処理装置からの入力に応じて前記ゲームを進行させる第1モードと、前記ヘッドマウントディスプレイの前記検出情報に応じて前記ゲームを進行させる第2モードと、を有し、前記第1アクションは、前記第2モードにおいて実行され、前記一又は複数のコンピュータプロセッサは、前記中断条件が満たされた場合に、前記第2モードを中断し、前記第1モードへ移行するための移行処理を行う。   In the game processing system according to one aspect, the game includes a first mode in which the game progresses in response to an input from an information processing device not mounted on the player's head, and the detection information of the head mounted display. A second mode for advancing the game according to the first mode, the first action is executed in the second mode, and the one or more computer processors are configured to: The second mode is interrupted, and a transition process for transitioning to the first mode is performed.

一態様によるゲーム処理システムにおいて、前記ゲームは、第1シーン及び第2シーンを有し、前記第1アクションは、前記第1シーンにおいて実行され、前記一又は複数のコンピュータプロセッサは、前記第1シーンから前記第2シーンへ移行する際にディスプレイに表示されるシーン移行画面を、前記中断条件が満たされた場合にも前記ディスプレイに表示させる。   In the game processing system according to one aspect, the game has a first scene and a second scene, the first action is executed in the first scene, and the one or more computer processors are the first scenes. The scene transition screen displayed on the display when transitioning from to the second scene is displayed on the display even when the interruption condition is satisfied.

一態様によるゲーム処理システムにおいて、前記第1アクションは、前記仮想キャラクタの一連のアクションで構成されるメインアクションと、前記メインアクションを中断して実行される割込アクションと、前記割込アクションの実行後に行われる復帰アクションと、を有する。   In the game processing system according to one aspect, the first action is a main action composed of a series of actions of the virtual character, an interrupt action executed by interrupting the main action, and execution of the interrupt action. And a return action to be performed later.

一態様によるゲーム処理システムにおいて、前記一又は複数のコンピュータプロセッサは、前記第1アクションの実行中に前記プレイヤから特定アクションがなされたことに応じて前記中断条件が満たされたか否かの判定を行い、前記中断条件が満たされていないと判定された場合に前記割込アクションを実行する。   In the game processing system according to one aspect, the one or more computer processors determine whether or not the interruption condition is satisfied in response to a specific action taken by the player during execution of the first action. The interrupt action is executed when it is determined that the interruption condition is not satisfied.

一態様によるゲーム処理システムにおいて、前記中断条件は、前記検出情報から特定された注視位置が仮想空間内に設定された禁止領域上にあることを含む。   In the game processing system according to one aspect, the interruption condition includes that the gaze position specified from the detection information is on a prohibited area set in the virtual space.

一態様によるゲーム処理システムにおいて、前記中断条件は、前記プレイヤが同じアクションを所定回数以上繰り返したことを含む。   In the game processing system according to one aspect, the interruption condition includes that the player repeats the same action a predetermined number of times or more.

一態様によるゲーム処理システムにおいて、前記中断条件は、前記プレイヤが前記仮想キャラクタの所定の部位に対するアクションを所定回数以上行ったことを含む。   In the game processing system according to one aspect, the interruption condition includes that the player has performed an action on a predetermined part of the virtual character a predetermined number of times or more.

一態様によるゲーム処理システムにおいて、前記中断条件は、前記プレイヤが禁止アクションに該当するアクションを行ったことを含む。   In the game processing system according to one aspect, the interruption condition includes that the player has performed an action corresponding to a prohibited action.

一態様によるゲーム処理システムにおいて、前記ストレージは、パラメータ及び前記パラメータのを記憶しており、前記一又は複数のコンピュータプロセッサは、前記プレイヤのアクションに応じて前記パラメータを更新し、前記中断条件は、前記パラメータに関する条件を含む。   In the game processing system according to one aspect, the storage stores parameters and the parameters, the one or more computer processors update the parameters according to an action of the player, and the interruption condition is It includes a condition regarding the parameter.

一態様によるゲーム処理方法は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより仮想キャラクタとのインタラクションを提供するゲームの処理を行う方法であって、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのアクションを特定する工程と、前記プレイヤのアクション、及び、前記仮想キャラクタのアクションを特定するための一又は複数のアクションデータのうちの第1アクションデータに基づいて前記仮想キャラクタに第1アクションを実行させる工程と、前記第1アクションの実行中に中断条件が満たされた場合に、前記第1アクションの実行を中断させる工程とと、を備える。   A game processing method according to one aspect is a method for performing a game process in which one or more computer processors execute computer-readable instructions to provide interaction with a virtual character, and is mounted on a player's head. Specifying the action of the player with respect to the virtual character based on the detection information detected by the head mounted display, the action of the player, and one or more action data for specifying the action of the virtual character Of causing the virtual character to perform the first action based on the first action data, and suspending the execution of the first action when an interruption condition is satisfied during the execution of the first action. And, and.

一態様によるゲーム処理プログラムは、一又は複数のコンピュータプロセッサに実行されることにより仮想キャラクタとのインタラクションを提供するゲームの処理を行うためのプログラムである。当該ゲーム処理プログラムは、前記一又は複数のコンピュータプロセッサに、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記仮想キャラクタに対する前記プレイヤのアクションを特定する工程と、前記プレイヤのアクション、及び、前記仮想キャラクタのアクションを特定するための一又は複数のアクションデータのうちの第1アクションデータに基づいて前記仮想キャラクタに第1アクションを実行させる工程と、前記第1アクションの実行中に中断条件が満たされた場合に、前記第1アクションの実行を中断させる工程と、を実行させる。   The game processing program according to one aspect is a program for executing a process of a game that provides interaction with a virtual character by being executed by one or more computer processors. The game processing program causes the one or more computer processors to specify an action of the player with respect to the virtual character, based on detection information detected by a head mounted display mounted on the head of the player; A step of causing the virtual character to perform a first action based on an action of the player and a first action data of one or a plurality of action data for specifying the action of the virtual character; And a step of interrupting the execution of the first action when an interrupting condition is satisfied during execution.

一態様によるゲーム処理システムは、ゲームのシナリオを構成する複数のゲームシーンの各々に関連するシーンデータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記ゲームの処理を行う。当該システムにおいて、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報に基づいて前記ゲームを進行させ、前記複数のゲームシーンのうちの第1シーンの実行中にシーン中断条件が満たされた場合に、前記第1シーンの実行を中断する。   A game processing system according to one aspect includes a storage that stores scene data related to each of a plurality of game scenes that form a game scenario, and one or a plurality of computer processors, and processes the game. In the system, the one or more computer processors execute computer-readable instructions to advance the game based on detection information detected by a head-mounted display mounted on a player's head, Execution of the first scene is interrupted when a scene interruption condition is satisfied during execution of the first scene of the plurality of game scenes.

実施形態によれば、仮想キャラクタのアクション(リアクション)を特定するための情報のデータ量の増加を抑制できる。   According to the embodiment, it is possible to suppress an increase in the data amount of information for identifying the action (reaction) of the virtual character.

一実施形態によるゲーム処理システムを示すブロック図である。It is a block diagram showing a game processing system according to one embodiment. 図1のゲーム処理システムにおいて利用可能なヘッドマウントディスプレイを示す模式図である。It is a schematic diagram which shows the head mounted display which can be utilized in the game processing system of FIG. ゲームのプレイヤに装着されたヘッドマウントディスプレイを模式的に示す図である。It is a figure which shows typically the head mounted display with which the player of the game was equipped. シナリオデータを模式的に示す図である。It is a figure which shows scenario data typically. 一実施形態によるゲーム処理システムにより処理されるゲームのモード移行を説明する図である。It is a figure explaining the mode shift of the game processed by the game processing system by one embodiment. 一実施形態におけるチャットモードでの処理の流れを示すフロー図である。It is a flow figure showing a flow of processing in chat mode in one embodiment. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7aの画面には、プレイヤにより選択されるメッセージの選択肢が示されている。It is a figure which shows the example of the display image in chat mode in one Embodiment. The screen of FIG. 7a shows the options of the message selected by the player. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7bの画面には、プレイヤにより選択されたメッセージが示されている。It is a figure which shows the example of the display image in chat mode in one Embodiment. The screen of FIG. 7b shows the message selected by the player. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7cの画面には、VRモードへの移行を促すメッセージ、VRモードにおける設定を選択するためのメッセージ、及びVRモードにおいて使用されるアイテムを選択するためのメッセージが示されている。It is a figure which shows the example of the display image in chat mode in one Embodiment. The screen of FIG. 7c shows a message prompting a shift to the VR mode, a message for selecting a setting in the VR mode, and a message for selecting an item used in the VR mode. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7dの画面には、移行開始オブジェクトが示されている。It is a figure which shows the example of the display image in chat mode in one Embodiment. The migration start object is shown on the screen of FIG. 7d. 一実施形態におけるモード移行処理の流れを示すフロー図である。It is a flow figure showing a flow of mode shift processing in one embodiment. 一実施形態におけるモード移行処理での表示画像の例を示す図である。図9aの画面には、ディスプレイを装着具へ装着するように促すガイダンスが示されている。It is a figure which shows the example of the display image in the mode transfer process in one Embodiment. The screen of FIG. 9a shows guidance prompting the user to attach the display to the wearing equipment. 一実施形態における移行処理での表示画像の例を示す図である。図9bの画面には、移行オブジェクトが示されている。It is a figure which shows the example of the display image in the transfer process in one embodiment. The migration object is shown in the screen of FIG. 9b. 一実施形態におけるVRモードでの処理の流れを示すフロー図である。It is a flow figure showing a flow of processing in VR mode in one embodiment. 一実施形態におけるVRモードでの表示画像の例を示す図である。It is a figure which shows the example of the display image in VR mode in one embodiment. VRモードで実行されているシーンにおける仮想キャラクタのアクションの流れを模式的に示す図である。It is a figure which shows typically the flow of the action of the virtual character in the scene currently performed in VR mode. 他の実施形態によるゲーム処理システムを示すブロック図である。It is a block diagram which shows the game processing system by other embodiment. 他の実施形態によるゲームを構成する複数のシーンを模式的に示す図である。It is a figure which shows typically the some scene which comprises the game by other embodiment.

以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。   Various embodiments of the present invention will be described below with reference to the drawings. The same or similar components are denoted by the same reference symbols in the drawings.

図1から図3を参照して、一実施形態によるゲーム処理システムについて説明する。図1は、一実施形態によるゲーム処理システム1を示すブロック図であり、図2は、ゲーム処理システム1において用いられるヘッドマウントディスプレイ10(以下、「HMD10」という。)の模式図であり、図3は、プレイヤ5に装着されたHMD10を模式的に示す図である。   A game processing system according to an embodiment will be described with reference to FIGS. 1 to 3. FIG. 1 is a block diagram showing a game processing system 1 according to one embodiment, and FIG. 2 is a schematic diagram of a head mounted display 10 (hereinafter, referred to as “HMD10”) used in the game processing system 1. FIG. 3 is a diagram schematically showing the HMD 10 mounted on the player 5.

一実施形態によるゲーム処理システム1は、一実施形態によるゲーム処理プログラムを実行することにより様々なゲームを実現する。プレイヤは、ゲームシステム1を利用して、ゲーム媒体を用いた各種ゲームをプレイすることができる。ゲーム媒体は、ゲームに使用される電子データであり、ユーザによってゲーム内で取得、所有、使用、管理、交換、合成、強化、売却、廃棄、又は贈与、又は前記以外の方法で使用され得る。ゲーム媒体には、例えば、カード、アイテム、仮想通貨、チケット、キャラクタ、アバタ、レベル情報、ステータス情報、パラメータ情報(体力値や攻撃力など)、能力情報、スキル、アビリティ、呪文、ジョブ及びこれら以外のゲームで利用可能な各種電子データを含む。ゲーム処理システム1で利用可能なゲーム媒体及びその利用態様は本明細書で明示されるものに限られない。ゲーム処理システム1は、例えば、仮想空間において仮想キャラクタとプレイヤとがインタラクションを行うゲームを実現することができる。ゲーム処理システム1により実現されるゲームは、第1モードと第2モードとを有する。第1モードの例はチャットモードであり、第2モードの例はVRモードである。第1モード及び第2モードについては後述される。   The game processing system 1 according to one embodiment realizes various games by executing the game processing program according to one embodiment. The player can use the game system 1 to play various games using game contents. The game content is electronic data used in the game, and may be acquired, owned, used, managed, exchanged, synthesized, enhanced, sold, disposed of, donated, or used in a method other than the above by the user in the game. Game contents include, for example, cards, items, virtual currencies, tickets, characters, avatars, level information, status information, parameter information (physical strength and attack power, etc.), ability information, skills, abilities, spells, jobs, and others. Includes various electronic data that can be used in games. The game media usable in the game processing system 1 and the usage modes thereof are not limited to those explicitly described in this specification. The game processing system 1 can realize, for example, a game in which a virtual character and a player interact in a virtual space. The game realized by the game processing system 1 has a first mode and a second mode. An example of the first mode is a chat mode, and an example of the second mode is a VR mode. The first mode and the second mode will be described later.

ゲーム処理システム1は、HMD10と、サーバ50と、を備える。HMD10とサーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。   The game processing system 1 includes an HMD 10 and a server 50. The HMD 10 and the server 50 are connected via a network 40 so that they can communicate with each other.

HMD10は、図2に示されているように、人間の頭部に装着される装着具11と、この装着具11に取り付けられる情報処理装置20と、を備えている。   As shown in FIG. 2, the HMD 10 includes a wearing tool 11 that is worn on a human head and an information processing device 20 that is mounted on the wearing tool 11.

装着具11は、開口11dが形成されたゴーグル型の筐体11aと、この筐体11aに取り付けられた第1ベルト11b及び第2ベルト11cと、蓋11eと、を有する。蓋11eは、筐体11aに開閉自在に取り付けられている。筐体11aの前方には開口11dが形成されている。図2においては、蓋11eは開放されている。HME10の使用時には、蓋11eは、開口11dを閉塞するように閉じられる。   The mounting tool 11 includes a goggle-type housing 11a having an opening 11d, a first belt 11b and a second belt 11c attached to the housing 11a, and a lid 11e. The lid 11e is openably and closably attached to the housing 11a. An opening 11d is formed in front of the housing 11a. In FIG. 2, the lid 11e is open. When using the HME 10, the lid 11e is closed so as to close the opening 11d.

情報処理装置20は、HMD10の蓋11eの内側に、着脱可能に設けられる。情報処理装置20は、ディスプレイ24を備えている。情報処理装置20は、蓋11eが閉じられたときに、ディスプレイ24が筐体11aの内側を向くように蓋11eに取り付けられる。情報処理装置20は、HMD10の使用時に装着具11に取り付けられる。情報処理装置20は、HMD10を使用しないときには、装着具11から取り外される。   The information processing device 20 is detachably provided inside the lid 11e of the HMD 10. The information processing device 20 includes a display 24. The information processing device 20 is attached to the lid 11e so that the display 24 faces the inside of the housing 11a when the lid 11e is closed. The information processing device 20 is attached to the wearing tool 11 when the HMD 10 is used. The information processing device 20 is detached from the wearing tool 11 when the HMD 10 is not used.

図示の実施形態において、情報処理装置20は、スマートフォンである。情報処理装置20は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の各種情報処理装置であってもよい。HMD10から取り外された情報処理装置20は、後述のように、第1モードにおいてプレイヤ5により操作される。HMD10から取り外された情報処理装置20は、ゲーム以外にも、その本来の目的に応じて通話やインターネットアクセスのために利用される。   In the illustrated embodiment, the information processing device 20 is a smartphone. The information processing device 20 may be a mobile phone, a tablet terminal, a personal computer, an electronic book reader, a wearable computer, a game console, and various information processing devices other than these, in addition to the smartphone. The information processing device 20 removed from the HMD 10 is operated by the player 5 in the first mode, as described later. The information processing device 20 removed from the HMD 10 is used for a telephone call or Internet access according to its original purpose other than the game.

情報処理装置20は、上記のように、ディスプレイ24を備えている。図示の実施形態においては、情報処理装置20が装着具11に取り付けられたときに、ディスプレイ24がHMD10における画像表示のための装置として機能する。よって、HMD10を用いてゲームをプレイする場合には、ディスプレイ24に当該ゲームの仮想空間、仮想キャラクタ、及びこれら以外のゲームに関連する画像が表示される。   The information processing device 20 includes the display 24 as described above. In the illustrated embodiment, the display 24 functions as a device for displaying an image on the HMD 10 when the information processing device 20 is attached to the wearing tool 11. Therefore, when playing a game using the HMD 10, the display 24 displays the virtual space of the game, the virtual character, and an image related to the game other than these.

装着具11の形状は、図示されたゴーグル型に限られない。装着具11は、装着されたプレイヤの頭部の動きに追従して動き、装着されたときにディスプレイ24を装着者の眼前に配置できる任意の形状の構造体を含み得る。装着具11は、例えば眼鏡を模した形状、帽子を模した形状、又はヘルメットを模した形状であってもよい。プレイヤの没入感を向上させるために、HMD10は、装着具11がプレイヤの頭部に装着されたときに、ディスプレイ24が当該プレイヤの両目を覆うように構成されてもよい。   The shape of the wearing tool 11 is not limited to the illustrated goggle type. The wearing tool 11 may include a structure having any shape that moves following the movement of the head of the player who wears the wearer 11 and can place the display 24 in front of the wearer's eyes when worn. The wearing tool 11 may have, for example, a shape imitating glasses, a shape imitating a hat, or a shape imitating a helmet. In order to improve the immersive feeling of the player, the HMD 10 may be configured such that the display 24 covers both eyes of the player when the wearing tool 11 is worn on the player's head.

HMD10は、使用時において、図3に示されているように、装着具11を介してプレイヤ5の頭部に取り付けられる。プレイヤ5の頭部に装着されている装着具11には、情報処理装置20が取り付けられている。   In use, the HMD 10 is attached to the head of the player 5 via the wearing tool 11, as shown in FIG. The information processing device 20 is attached to the wearing tool 11 worn on the head of the player 5.

再び図1を参照して、情報処理装置20についてさらに説明する。図示のように、一実施形態において、情報処理装置20は、コンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27を備えている。   The information processing apparatus 20 will be further described with reference to FIG. 1 again. As illustrated, in one embodiment, the information processing device 20 includes a computer processor 21, a memory 22, a communication I / F 23, a display 24, a sensor unit 25, a sound collecting device 26, and a storage 27.

コンピュータプロセッサ21は、ストレージ27又はそれ以外のストレージからオペレーティングシステムやゲームロジックを実現する様々なプログラムをメモリ22にロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。プロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。   The computer processor 21 is an arithmetic unit that loads various programs that implement an operating system and game logic from the storage 27 or other storage into the memory 22 and executes the instructions included in the loaded programs. The computer processor 21 is, for example, a CPU, MPU, DSP, GPU, various arithmetic devices other than these, or a combination thereof. The processor 21 may be realized by an integrated circuit such as an ASIC, PLD, FPGA, MCU or the like. Although the computer processor 21 is shown as a single component in FIG. 1, the computer processor 21 may be a collection of a plurality of physically separate computer processors. In the present specification, the program described as being executed by the computer processor 21 or the instructions included in the program may be executed by a single computer processor, or may be executed by a plurality of computer processors in a distributed manner. Good. Further, the program executed by the computer processor 21 or the instructions included in the program may be executed by a plurality of virtual computer processors.

メモリ22は、コンピュータプロセッサ21が実行する命令及びそれ以外の各種データを格納するために用いられる。一実施形態によるゲーム処理プログラムの少なくとも一部は、ゲームの進行に応じて、随時メモリ22にロードされる。メモリ22は、例えば、コンピュータプロセッサ21が高速にアクセス可能な主記憶装置(メインメモリ)である。メモリ22は、例えば、DRAMやSRAM等のRAMによって構成される。   The memory 22 is used to store instructions executed by the computer processor 21 and various other data. At least a part of the game processing program according to one embodiment is loaded into the memory 22 at any time according to the progress of the game. The memory 22 is, for example, a main storage device (main memory) that the computer processor 21 can access at high speed. The memory 22 is composed of, for example, a RAM such as DRAM or SRAM.

通信I/F23は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。情報処理装置20は、通信I/F23を介して、他の装置とデータを送受信することができる。   The communication I / F 23 is implemented as hardware, firmware, communication software such as a TCP / IP driver or a PPP driver, or a combination thereof. The information processing device 20 can send and receive data to and from other devices via the communication I / F 23.

ディスプレイ24は、表示パネル24aと、タッチパネル24bと、を有する。例えば、タッチパネル24bは、表示パネル24aの上面又は下面に積層されている。表示パネル24aは、液晶パネル、有機ELパネル、無機ELパネル、又はこれら以外の画像を表示可能な任意の表示パネルである。タッチパネル24bは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネル24bは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネル24bは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。   The display 24 has a display panel 24a and a touch panel 24b. For example, the touch panel 24b is laminated on the upper surface or the lower surface of the display panel 24a. The display panel 24a is a liquid crystal panel, an organic EL panel, an inorganic EL panel, or any other display panel capable of displaying an image other than these. The touch panel 24b is configured to be able to detect a touch operation (contact operation) by the player. The touch panel 24b can detect various touch operations such as tapping, double tapping, and dragging by the player. The touch panel 24b may include a capacitance type proximity sensor and may be configured to detect a non-contact operation by the player.

センサユニット25は、一又は複数のセンサを備える。センサユニット25は、例えば、ジャイロセンサ、加速度センサ、および地磁気センサのうち少なくとも1つのセンサを含む。センサユニット25は、プレイヤの眼球の動きを直接的に検出するアイトラッキングセンサを備えてもよい。アイトラッキングセンサは、例えば、虹彩内に近赤外光を入射しその反射光を検出する視線検出センサである。後述するように、センサユニット25により検出された検出情報に基づいて、HMD10を装着したプレイヤ5の頭部の位置及び向きが特定される。センサユニット25を構成する各種センサの少なくとも一部は、装着具11及び/又は装着具11以外の情報処理装置20とは異なる部材に設けられてもよい。   The sensor unit 25 includes one or a plurality of sensors. The sensor unit 25 includes, for example, at least one sensor of a gyro sensor, an acceleration sensor, and a geomagnetic sensor. The sensor unit 25 may include an eye tracking sensor that directly detects the movement of the player's eyeball. The eye tracking sensor is, for example, a line-of-sight detection sensor that injects near-infrared light into the iris and detects the reflected light. As described later, the position and orientation of the head of the player 5 wearing the HMD 10 is specified based on the detection information detected by the sensor unit 25. At least a part of the various sensors forming the sensor unit 25 may be provided in a member different from the wearing tool 11 and / or the information processing apparatus 20 other than the wearing tool 11.

集音装置26は、音声を集音することができるように構成されている。集音装置26は、例えば、マイクロフォンである。集音装置26により集音された音声情報に基づいて、プレイヤ5の音声が検出される。   The sound collection device 26 is configured to collect sound. The sound collector 26 is, for example, a microphone. The voice of the player 5 is detected based on the voice information collected by the sound collector 26.

ストレージ27は、コンピュータプロセッサ21によりアクセスされる外部記憶装置である。ストレージ27は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ27には、ゲーム処理プログラム等の様々なプログラムが記憶される。また、ストレージ27には、ゲームにおいて用いられる各種データも記憶される。ストレージ27に記憶され得るプログラム及び各種データの少なくとも一部は、情報処理装置20とは物理的に別体のストレージに格納されてもよい。   The storage 27 is an external storage device accessed by the computer processor 21. The storage 27 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various storage devices other than the above that can store data. The storage 27 stores various programs such as a game processing program. The storage 27 also stores various data used in the game. At least a part of the programs and various data that can be stored in the storage 27 may be stored in a storage physically separate from the information processing device 20.

図示の実施形態において、ストレージ27には、画像データ28a、チャットデータ28b、シナリオデータ28c、パラメータデータ28d、中断条件データ28e、ゲーム進行データ28f、及び前記以外のゲームの進行のために必要な様々なデータが記憶される。   In the illustrated embodiment, the storage 27 stores image data 28a, chat data 28b, scenario data 28c, parameter data 28d, interruption condition data 28e, game progress data 28f, and various data necessary for progress of a game other than the above. Data is stored.

画像データ28aには、ゲームの行われる仮想空間の背景を描画するためのデータ、仮想キャラクタを描画するためのデータ、及びゲームで用いられる仮想キャラクタ以外のオブジェクトを描画するためのデータが含まれる。画像データ28aには、仮想空間内におけるオブジェクトの位置情報を含んでもよい。   The image data 28a includes data for drawing the background of the virtual space where the game is played, data for drawing the virtual character, and data for drawing an object other than the virtual character used in the game. The image data 28a may include position information of the object in the virtual space.

チャットデータ28bには、仮想キャラクタのアイコンを描画するためのデータ、プレイヤ5のアイコンを描画するためのデータ、仮想キャラクタの複数のメッセージを特定するためのデータ、当該仮想キャラクタの複数のメッセージの各々に対する応答メッセージの選択肢を示すデータ、及びこれら以外のチャットモードで用いられるデータが含まれる。仮想キャラクタの複数のメッセージは、各メッセージに対応するノードを有し、当該ノード同士がアークで接続されたツリー構造で定義されてもよい。このツリー構造では、例えば、最上位のルートノードである開始メッセージから複数のアークが伸びており、各アークが下位ノードに接続される。この下位ノードからもアークが延び、当該アークがさらに下位のノードに接続される。下位ノードの各々は、開始メッセージよりも後に表示され得る仮想キャラクタのメッセージの候補に対応する。また、チャットデータ28bには、チャットモードからVRモードへの移行を開始する条件であるモード移行条件が含まれてもよい。モード移行条件には、例えば、ゲームがチャットモードで開始されてからの経過時間が所定時間以上であること、ツリー構造のメッセージにおいて末端のノードまでチャットが進行したこと、及びこれら以外の条件が含まれる。チャットデータ28bには、移行オブジェクトの選択が完了しなかった後に再開されたチャットモードで表示されるメッセージを示すデータが含まれてもよい。   The chat data 28b includes data for drawing the icon of the virtual character, data for drawing the icon of the player 5, data for specifying a plurality of messages of the virtual character, and a plurality of messages of the virtual character. Data indicating options of a response message to, and data used in other chat modes are included. A plurality of messages of virtual characters may have a node corresponding to each message, and may be defined by a tree structure in which the nodes are connected by arcs. In this tree structure, for example, a plurality of arcs extends from a start message that is the highest root node, and each arc is connected to a lower node. An arc also extends from this lower node, and the arc is connected to a lower node. Each of the subordinate nodes corresponds to a candidate message of the virtual character that may be displayed after the start message. Further, the chat data 28b may include a mode transition condition that is a condition for starting the transition from the chat mode to the VR mode. The mode transition conditions include, for example, that the elapsed time since the game was started in the chat mode is a predetermined time or more, that the chat has progressed to the terminal node in the tree-structured message, and other conditions. Be done. The chat data 28b may include data indicating a message displayed in the chat mode restarted after the selection of the migration object is not completed.

シナリオデータ28cには、ゲームの第2モード(例えば、VRモード)においてプレイヤ5によって体験されるシナリオを定義するデータが含まれる。ゲームにおいてプレイヤ5によって体験されるシナリオが複数ある場合、シナリオデータ28cは、複数のシナリオの各々についてシナリオデータを定義してもよい。   The scenario data 28c includes data defining a scenario experienced by the player 5 in the second mode (for example, VR mode) of the game. When there are a plurality of scenarios experienced by the player 5 in the game, the scenario data 28c may define scenario data for each of the plurality of scenarios.

図4を参照して、一実施形態におけるゲーム処理システムにおいて用いられるシナリオデータについて説明する。図4は、ゲーム処理システム1において用いられるシナリオデータ28cを模式的に示す。シナリオデータ28cは、VRモードにおいて実行されるシナリオを規定するためのデータセットである。図示の実施形態において、シナリオデータ28cは、第1シナリオ〜第5シナリオにそれぞれ対応する第1シナリオデータ28c1〜第5シナリオデータ28c5を有する。VRモードにおけるシナリオは6つ以上であってもよく4つ以下であってもよい。以下では、第1シナリオに対応する第1シナリオデータ28c1のデータ構造について説明する。以下の第1シナリオデータ28c1に関する説明は、第2シナリオデータ28c2〜第5シナリオデータ28c5にも当てはまる。   The scenario data used in the game processing system according to the embodiment will be described with reference to FIG. FIG. 4 schematically shows the scenario data 28c used in the game processing system 1. The scenario data 28c is a data set for defining a scenario executed in the VR mode. In the illustrated embodiment, the scenario data 28c includes first scenario data 28c1 to fifth scenario data 28c5 corresponding to the first scenario to the fifth scenario, respectively. The number of scenarios in VR mode may be six or more, or four or less. The data structure of the first scenario data 28c1 corresponding to the first scenario will be described below. The following description regarding the first scenario data 28c1 also applies to the second scenario data 28c2 to the fifth scenario data 28c5.

図示の実施形態において、第1シナリオデータ28c1は、開始シーンデータA1と、基本シーンデータB1〜B3と、追加シーンデータC1〜C3と、終了シーンデータD1〜D2と、を含んでいる。一実施形態において、開始シーンデータA1、基本シーンデータB1〜B3、追加シーンデータC1〜C3、及び終了シーンデータD1〜D2に含まれるデータの各々は、各シーンにおける仮想キャラクタのアクションに関するデータ、各シーンで用いられる動画像に関するデータ、各シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の各シーンの実行に必要なデータを含み得る。   In the illustrated embodiment, the first scenario data 28c1 includes start scene data A1, basic scene data B1 to B3, additional scene data C1 to C3, and end scene data D1 to D2. In one embodiment, each of the data included in the start scene data A1, the basic scene data B1 to B3, the additional scene data C1 to C3, and the end scene data D1 to D2 is data related to the action of the virtual character in each scene. It may include data about a moving image used in a scene, data about an action that a player can take with respect to a virtual character in each scene, and data necessary for executing each scene other than these.

図示の実施形態において、開始シーンデータA1は、第1シナリオの開始後に実行される開始シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。   In the illustrated embodiment, the start scene data A1 is data related to the action of the virtual character in the start scene executed after the start of the first scenario, data related to the moving image used in the start scene, and the player for the virtual character in the start scene. It may include data about the actions that can be taken, as well as other data needed to execute the start scene.

基本シーンデータB1〜B3は、開始シーンの後に行われる基本シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。基本シーンデータB1〜B3の各々には、追加シーンへの移行可否を判定するための追加シーン移行条件を示す情報が含まれてもよい。追加シーン移行条件は、基本シーンごとに定められ得る。追加シーン移行条件は、例えば、所定のオブジェクトを所定時間以上注視すること、所定の方向を注視しないこと、及び所定のアクションを取ることである。これら以外にも追加シーン移行条件は、シナリオのストーリー、仮想空間に登場するオブジェクトの種類、及びこれら以外の要素に応じて適宜定められ得る。   The basic scene data B1 to B3 are data relating to the action of the virtual character in the basic scene performed after the start scene, data relating to the moving image used in the start scene, and data relating to the action that the player can take with respect to the virtual character in the start scene. , And other data necessary for execution of the start scene. Each of the basic scene data B1 to B3 may include information indicating an additional scene transition condition for determining whether or not the transition to the additional scene is possible. The additional scene transition condition can be set for each basic scene. The additional scene transition conditions are, for example, gazing at a predetermined object for a predetermined time or longer, not gazing at a predetermined direction, and taking a predetermined action. In addition to these, the additional scene transition conditions can be appropriately determined according to the story of the scenario, the types of objects that appear in the virtual space, and other factors.

追加シーンデータC1〜C3は、追加シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。追加シーンは、基本シーンの実行中又は実行後に追加シーン移行条件が成立したか否かが判定され、その判定結果に応じて実行される。   The additional scene data C1 to C3 are data regarding the action of the virtual character in the additional scene, data regarding the moving image used in the start scene, data regarding the action that the player can take with respect to the virtual character in the start scene, and the start other than these. It may contain the data necessary to execute the scene. It is determined whether or not the additional scene transition condition is satisfied during or after the execution of the basic scene, and the additional scene is executed according to the determination result.

終了シーンデータD1〜D2は、第2モードの終了前に実行される終了シーンの実行に必要なデータを含み得る。終了シーンデータD1〜D2は、終了シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。   The end scene data D1 and D2 may include data necessary for executing the end scene executed before the end of the second mode. The end scene data D1 to D2 are data regarding the action of the virtual character in the end scene, data regarding the moving image used in the start scene, data regarding the action that the player can take with respect to the virtual character in the start scene, and the start other than these. It may contain the data necessary to execute the scene.

パラメータデータ28dには、ゲーム処理システム1において実現されるゲームに関するゲームパラメータが含まれる。このゲームパラメータは、プレイヤキャラクタに関するパラメータであってもよい。このプレイヤキャラクタに関するパラメータには、ノンプレイヤーキャラクタである仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータが含まれてもよい。ゲームパラメータは、ゲームの進行に応じて随時更新される。プレイヤキャラクタに関するパラメータは、仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータには限られない。プレイヤキャラクタに関するパラメータは、ゲームの種類、性質、世界観又はこれら以外の要素に応じて適宜定められる。   The parameter data 28d includes game parameters regarding the game realized in the game processing system 1. This game parameter may be a parameter relating to the player character. The parameter relating to the player character may include a parameter indicating the positivity of the virtual character which is the non-player character with respect to the user character. The game parameters are updated as needed as the game progresses. The parameter regarding the player character is not limited to the parameter indicating the liking of the virtual character with respect to the user character. The parameters relating to the player character are appropriately determined according to the type, nature, world view of the game, or other factors.

中断条件データ28eは、VRモードで実行されているゲーム又はそのゲームにおいて実行されているアクションを中断する条件である中断条件を定めるデータである。中断条件は、例えば、仮想空間内に設定された禁止領域が注視されたこと、プレイヤ5が仮想キャラクタに対して同じアクションを所定回数以上繰り返したこと、プレイヤ5が仮想キャラクタの所定の部位に対するアクションを所定回数以上行ったこと、プレイヤが禁止アクションを行ったこと、パラメータデータ28dに含まれる所定のパラメータが所定の閾値以上であること、又は、当該閾値以下であること、及びこれら以外のVRモードでのゲームの実行を中断するために定められる条件を含む。中断条件データ28eは、上記の禁止領域を示す座標に関するデータ及び禁止アクションを特定するためのデータを含んでもよい。プレイヤ5が同じアクションを行うたびにポイントを積算し、積算ポイントが所定ポイント以上となることを中断条件としてもよい。また、プレイヤ5に所定の初期ポイントを割り当てておき、プレイヤ5が同じアクションを行うたびに初期ポイントから所定のポイントを減じてプレイヤ5の保持ポイントを算出し、当該保持ポイントが所定の値以下となることを中断条件としてもよい。積算ポイント及び保持ポイントは、ゲームの途中でリセットされてもよい。   The interruption condition data 28e is data that defines an interruption condition that is a condition for interrupting the game executed in the VR mode or the action executed in the game. The interruption conditions are, for example, that the prohibited area set in the virtual space is watched, the player 5 repeats the same action on the virtual character a predetermined number of times or more, and the player 5 performs an action on a predetermined part of the virtual character. Is performed a predetermined number of times or more, the player has performed a prohibited action, a predetermined parameter included in the parameter data 28d is equal to or greater than a predetermined threshold value, or is equal to or less than the threshold value, and VR modes other than these. Includes the conditions set to suspend the execution of the game in. The interruption condition data 28e may include data regarding the coordinates indicating the prohibited area and data for specifying the prohibited action. It is also possible to accumulate points each time the player 5 performs the same action, and to set the accumulated points to be a predetermined point or more as an interruption condition. Further, a predetermined initial point is assigned to the player 5, and each time the player 5 performs the same action, the predetermined point is subtracted from the initial point to calculate the holding point of the player 5, and the holding point is equal to or less than the predetermined value. It may be set as the interruption condition. The accumulated points and the held points may be reset during the game.

ゲーム進行データ28fには、ゲームの進行の管理に用いられるデータが含まれる。ゲーム進行データ28fは、ゲームの進行に応じて更新されてもよい。ゲーム進行データ28fには、例えば、ゲームにおいてプレイヤが獲得したポイントに関するデータ、プレイヤ5が仮想キャラクタに対して行ったアクションを示すデータ、及びこれら以外のゲームの進行に応じて変化しえる各種データが含まれ得る。プレイヤ5が仮想キャラクタに対して行ったアクションを示すデータには、当該アクションが行われた仮想キャラクタの部位(例えば、頭部、肩、腕、又はこれら以外の部位)を示すデータが含まれてもよい。   The game progress data 28f includes data used for managing the progress of the game. The game progress data 28f may be updated according to the progress of the game. The game progress data 28f includes, for example, data regarding points acquired by the player in the game, data indicating actions performed by the player 5 on the virtual character, and various data other than these data that can be changed according to the progress of the game. May be included. The data indicating the action performed by the player 5 on the virtual character includes data indicating the part of the virtual character on which the action is performed (for example, the head, shoulders, arms, or other parts). Good.

図1に示されている情報処理装置20の構成要素及び機能は例示である。本発明に適用可能な情報処理装置20は、図示されていない様々な構成要素を備え得る。例えば、情報処理装置20は、ゲームの効果音や仮想キャラクタの音声を出力するスピーカを備えてもよい。   The components and functions of the information processing apparatus 20 shown in FIG. 1 are examples. The information processing device 20 applicable to the present invention may include various components not shown. For example, the information processing device 20 may include a speaker that outputs the sound effect of the game and the sound of the virtual character.

続いて、HMD10の機能について説明する。図示の実施形態においては、情報処理装置20のコンピュータプロセッサ21においてコンピュータ読み取り可能な命令を実行することにより、HMD10の各種機能が実現される。コンピュータプロセッサ21において実行される命令には、一実施形態によるゲーム処理プログラムに含まれる命令が含まれる。   Next, the function of the HMD 10 will be described. In the illustrated embodiment, various functions of the HMD 10 are realized by executing computer-readable instructions in the computer processor 21 of the information processing device 20. The instructions executed by the computer processor 21 include the instructions included in the game processing program according to the embodiment.

コンピュータプロセッサ21によって一実施形態によるゲーム処理プログラムが実行されることにより、ゲーム処理システム1において第1モード及び当該第1モードとは異なる第2モードを有するゲームが実現される。ゲーム処理システム1において実現されるゲームは、第1モード及び第2モード以外のモードを有していてもよい。   By executing the game processing program according to the embodiment by the computer processor 21, a game having the first mode and the second mode different from the first mode is realized in the game processing system 1. The game realized in the game processing system 1 may have a mode other than the first mode and the second mode.

ゲーム処理システム1において実現されるゲームの第1モードでは、HMD10がプレイヤ5に装着されていないときに、すなわち、情報処理装置20が装着具11から取り外されているときに、情報処理装置20により検出された第1検出情報に応じてゲームに関する処理が行われる。この第1検出情報には、情報処理装置20のタッチパネル24bにより検出されるプレイヤ5のタッチ操作に関する情報、集音装置26により検出されるプレイヤの音声に関する情報、及びHMD10がプレイヤ5に装着されていない場合に情報処理装置20において検出可能な前記以外の検出情報を含み得る。プレイヤ5は、第1モードにおいては、装着具11から取り外された情報処理装置20を用いてゲームに関する操作を行うことができる。第1モードにおいては、HMD10がプレイヤ5に装着されていないときにゲームを進行させることが想定されているため、ディスプレイ24には、立体視画像以外の画像が表示されてもよい。   In the first mode of the game realized in the game processing system 1, when the HMD 10 is not mounted on the player 5, that is, when the information processing device 20 is detached from the mounting tool 11, The process related to the game is performed according to the detected first detection information. In the first detection information, the information regarding the touch operation of the player 5 detected by the touch panel 24b of the information processing device 20, the information regarding the voice of the player detected by the sound collecting device 26, and the HMD 10 are attached to the player 5. If the information does not exist, it may include detection information other than the above that can be detected by the information processing device 20. In the first mode, the player 5 can perform an operation related to the game by using the information processing device 20 detached from the wearing tool 11. In the first mode, it is assumed that the game progresses when the HMD 10 is not attached to the player 5, and therefore an image other than the stereoscopic image may be displayed on the display 24.

ゲーム処理システム1において実現されるゲームの第2モードでは、プレイヤ5の頭部に装着されたHMD10によって検出される第2検出情報を用いてゲームが進行される。この第2検出情報は、例えば、センサユニット25によって検出される検出情報である。この第2検出情報に基づいて、プレイヤ5の頭部の向きを特定するためのヘッドトラッキング情報が算出される。ヘッドトラッキング情報は、プレイヤ5の頭部の向きに加えて、その位置を示す情報であってもよい。第2モードにおけるゲームの進行のための処理は、例えば、第2検出情報に基づいて算出されたヘッドトラッキング情報に基づいて実行される。第2モードにおけるゲームの進行のための処理は、ヘッドトラッキング情報に加えて、当該ヘッドトラッキング情報以外の情報も用いて実行されてもよい。プレイヤ5は、第2モードでゲームをプレイする準備として、情報処理装置20を装着具11に取付け、この情報処理装置20が取り付けられた装着具11を頭部に装着する。このように、第2モードにおいては、HMD10がプレイヤ5に装着されているときにゲームを進行させることが想定されているため、一実施形態において、第2モードでは、プレイヤ5によって立体視される立体視画像がディスプレイ24に表示される。立体視画像は、例えば、視差バリア方式によって、ディスプレイ24に表示される。視差バリア方式においては、左目用画像及び右目用画像がディスプレイ24に表示される。このように、立体視画像は、ディスプレイに表示されることによって、左右の目の視差を利用して立体視されるように構成された左目用画像及び右目用画像を含む画像のセットである。   In the second mode of the game realized in the game processing system 1, the game is progressed using the second detection information detected by the HMD 10 mounted on the head of the player 5. The second detection information is, for example, detection information detected by the sensor unit 25. Head tracking information for specifying the orientation of the head of the player 5 is calculated based on the second detection information. The head tracking information may be information indicating the position of the player 5 in addition to the orientation of the head. The process for advancing the game in the second mode is executed, for example, based on the head tracking information calculated based on the second detection information. The process for progressing the game in the second mode may be executed by using information other than the head tracking information in addition to the head tracking information. The player 5 attaches the information processing device 20 to the wearing tool 11 and attaches the wearing tool 11 to which the information processing device 20 is attached to the head in preparation for playing the game in the second mode. As described above, in the second mode, it is assumed that the game progresses when the HMD 10 is attached to the player 5. Therefore, in one embodiment, the player 5 stereoscopically views the HMD 10 in the second mode. The stereoscopic image is displayed on the display 24. The stereoscopic image is displayed on the display 24 by a parallax barrier method, for example. In the parallax barrier method, the image for the left eye and the image for the right eye are displayed on the display 24. As described above, the stereoscopic image is a set of images including a left-eye image and a right-eye image configured to be stereoscopically viewed by using the parallax of the left and right eyes when being displayed on the display.

第1モードは、例えば、チャットモードである。チャットモードは第1モードの例示である。チャットモードにおいては、プレイヤが仮想キャラクタとテキストメッセージを介してチャットする機能が実現される。プレイヤは、第1モードにおいては、仮想キャラクタとチャットを行うことにより、当該仮想キャラクタとのインタラクションを体験することができる。チャットモードにおける処理の具体的な内容は後述される。インタラクションとは、広義には、プレイヤが実行したアクションに対して仮想キャラクタがリアクションすることを意味する。仮想キャラクタとのインタラクションには、仮想キャラクタとの会話などによるコミュニケーションとしてなされるインタラクションが含まれる。本明細書においては、仮想キャラクタとのコミュニケーションとして行われるインタラクションをコミュニケーティブインタラクションと呼ぶことがある。仮想キャラクタとのインタラクションには、コミュニケーティブインタラクションの他に、仮想キャラクタとの対戦、仮想キャラクタと協力してゲームをプレイする協力プレイ、及びこれら以外の仮想キャラクタとの相互作用が含まれ得る。本明細書においては、仮想キャラクタとの対戦として行われるインタラクションを対戦インタラクションと呼ぶことがある。本明細書においては、仮想キャラクタとの協力プレイとして行われるインタラクションを協力インタラクションと呼ぶことがある。   The first mode is, for example, a chat mode. The chat mode is an example of the first mode. In the chat mode, a function for the player to chat with the virtual character via a text message is realized. In the first mode, the player can experience interaction with the virtual character by chatting with the virtual character. The specific content of the processing in the chat mode will be described later. In a broad sense, the interaction means that the virtual character reacts to the action performed by the player. The interaction with the virtual character includes an interaction performed as a communication such as a conversation with the virtual character. In this specification, an interaction performed as a communication with a virtual character may be referred to as a communicative interaction. The interaction with the virtual character may include battle with the virtual character, cooperative play in which the game is played in cooperation with the virtual character, and interaction with other virtual characters, in addition to the communicative interaction. In this specification, an interaction performed as a battle with a virtual character may be referred to as a battle interaction. In this specification, an interaction performed as a cooperative play with a virtual character may be referred to as a cooperative interaction.

第2モードは、例えば、VRモードである。VRモードにおいては、情報処理装置20のディスプレイに表示される仮想空間に登場するノンプレイヤーキャラクターである仮想キャラクタと様々なインタラクションを行うための機能が実現される。VRモードにおける処理の具体的な内容は後述される。VRモードは第2モードの例示であり、第2モードには、ヘッドトラッキング情報を用いてゲーム進行のための処理が行われる任意のゲームモードが含まれ得る。   The second mode is, for example, the VR mode. In the VR mode, a function for performing various interactions with a virtual character that is a non-player character appearing in a virtual space displayed on the display of the information processing device 20 is realized. The specific content of the processing in the VR mode will be described later. The VR mode is an example of the second mode, and the second mode may include any game mode in which processing for progressing the game is performed using the head tracking information.

一実施形態において、ゲーム処理システム1で実現される第1モード及び第2モードを有するゲームは、仮想キャクタとコミュニケーティブインタラクション以外のインタラクションを行うゲームであってもよい。ゲーム処理システム1で実現されるゲームでは、コミュニケーティブインタラクションが行われなくともよい。一実施形態におけるゲームでは、第1モードでは2次元空間でプレイされ、第2モードでは3次元空間でプレイされる。一実施形態におけるゲームでは、第1モードでは3次元空間でプレイされ、第2モードでは当該第1モードの3次元空間とは異なる表示態様で表示される(又は当該第1モードの3次元空間とは異なる態様で構成される)3次元空間でプレイされる。一実施形態において、ゲーム処理システム1で実現されるゲームは、第1モード及び第2モードで共通のゲーム媒体を使用するものであってもよい。このゲーム媒体に関連付けられたパラメータは、第1モードと第2モードとの間で引き継がれてもよい。例えば、第1モードでのプレイ中に特定のゲーム媒体のパラメータが変更され、その後に第2モードへ移行した場合には、変更後のパラメータが設定された当該特定のゲーム媒体が第2モードで用いられる。一実施形態において、特定のゲーム媒体のパラメータは、第1モードから第2モードへの移行時及び第2モードから第1モードへの移行時の少なくとも一方において、変更されてもよい。このゲーム媒体のパラメータの変更は、プレイヤ5にとってゲームの進行上有利となる変更であってもよいし、不利となる変更であってもよい。一実施形態において、第1モードでのプレイ結果が第2モードでのゲームに反映されてもよいし、第2モードでのプレイ結果が第1モードでのゲームに反映されてもよい。例えば、第1モードで獲得されたプレイヤ5の経験値が第2モードにおいて引き継がれてもよい。   In one embodiment, the game having the first mode and the second mode realized by the game processing system 1 may be a game that interacts with the virtual character other than the communicative interaction. In the game realized by the game processing system 1, no communicative interaction may be performed. In the game in one embodiment, the first mode is played in a two-dimensional space, and the second mode is played in a three-dimensional space. In the game in one embodiment, the game is played in a three-dimensional space in the first mode, and is displayed in a display mode different from the three-dimensional space in the first mode in the second mode (or the three-dimensional space in the first mode). Are configured in different ways) are played in a three-dimensional space. In one embodiment, the game realized by the game processing system 1 may use a common game medium in the first mode and the second mode. The parameters associated with the game content may be carried over between the first mode and the second mode. For example, when the parameter of a specific game medium is changed during the play in the first mode and then the mode is changed to the second mode, the specific game medium in which the changed parameter is set is in the second mode. Used. In one embodiment, the parameters of the specific game content may be changed at least during the transition from the first mode to the second mode and the transition from the second mode to the first mode. This change of the parameters of the game content may be a change that is advantageous or disadvantageous to the player 5 in the progress of the game. In one embodiment, the play result in the first mode may be reflected in the game in the second mode, and the play result in the second mode may be reflected in the game in the first mode. For example, the experience value of the player 5 acquired in the first mode may be inherited in the second mode.

上記のとおり、ゲーム処理システム1において実現されるゲームの第1モードと第2モードとは互いから識別されるモードである。つまり、第1モードは第2モードと異なるモードである。一実施形態においては、ゲーム処理システム1において実現されるゲームが第1モードでプレイされる場合には、HMD10がプレイヤ5の頭部に装着されないのに対し、当該ゲームが第2モードでプレイされる場合には、HMD10がプレイヤ5の頭部の頭部に装着される。この場合、第1モードにおいては、プレイヤ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じてゲームの処理が行われ、第2モードにおいては、プレイヤ5の頭部に装着されたHMD10により検出された第2検出情報に応じてゲームの処理が行われる。   As described above, the first mode and the second mode of the game realized in the game processing system 1 are modes that are distinguished from each other. That is, the first mode is different from the second mode. In one embodiment, when the game realized in the game processing system 1 is played in the first mode, the HMD 10 is not attached to the head of the player 5, while the game is played in the second mode. In the case of playing, the HMD 10 is mounted on the head of the head of the player 5. In this case, in the first mode, the game process is performed according to the first detection information detected by the information processing device 20 not attached to the head of the player 5, and in the second mode, the game of the player 5 is performed. The game process is performed according to the second detection information detected by the HMD 10 mounted on the head.

一実施形態において、第2モードでは、立体視画像がディスプレイ24に表示されるのに対し、第1モードでは上述したように立体視画像以外の画像がディスプレイ24に表示される。第2モードでは、ゲーム用の画像のうち少なくとも仮想キャラクタの画像が立体視画像として表示され、第1モードでは、仮想キャラクタの画像が立体視画像以外の画像として表示される。   In one embodiment, the stereoscopic image is displayed on the display 24 in the second mode, while the image other than the stereoscopic image is displayed on the display 24 in the first mode as described above. In the second mode, at least the image of the virtual character among the images for games is displayed as a stereoscopic image, and in the first mode, the image of the virtual character is displayed as an image other than the stereoscopic image.

一実施形態において、第1モードにおいては第2検出情報に基づいて算出されるヘッドトラッキング情報を用いずにゲームを進行させる処理がなされるのに対して、第2モードにおいては当該ヘッドトラッキング情報に基づいてゲームを進行させる処理がなされる。   In one embodiment, in the first mode, the process of advancing the game without using the head tracking information calculated based on the second detection information is performed, whereas in the second mode, the head tracking information is changed. Based on this, processing for advancing the game is performed.

一実施形態において、第1モードにおいてはタッチパネル24bにより検出されるタッチ操作に応じてゲームを進行させる処理がなされるのに対して、第2モードにおいてはタッチパネル24bのタッチ操作に応じた処理はなされない。   In one embodiment, in the first mode, the process of advancing the game in response to the touch operation detected by the touch panel 24b is performed, whereas in the second mode, the process according to the touch operation of the touch panel 24b is not performed. Not done.

一実施形態において、ゲーム処理システム1において実現されるゲームにおいて仮想キャラクタとのインタラクションが提供される場合には、第1モードにおいては、プレイヤ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じた当該仮想キャラクタとのインタラクションが提供され、第2モードにおいては、プレイヤ5の頭部に装着されたHMD10により検出された第2検出情報に応じた当該仮想キャラクタとのインタラクションが提供される。   In one embodiment, when the interaction with the virtual character is provided in the game realized in the game processing system 1, in the first mode, it is detected by the information processing device 20 not mounted on the head of the player 5. The interaction with the virtual character according to the detected first detection information is provided, and in the second mode, with the virtual character according to the second detection information detected by the HMD 10 mounted on the head of the player 5. Interaction is provided.

ゲームを開始した後には、上記のように区別される第1モードと第2モードとの間での移行が可能となる。図5を参照して、ゲーム処理システム1により処理されるゲームのモード移行の概略を説明する。図示のように、ステップS1においてゲームが開始されると、ステップS2において第1モードであるチャットモードS2が開始される。このチャットモードにおいて、第2モードであるVRモードへ移行するための移行処理が開始されると、ステップS3に移行し、第2モードへの移行処理が行われる。移行処理が完了すると、ステップS4において第2モードであるVRモードが開始される。VRモードが終了又は中断されると、チャットモードへの復帰処理が行われる。   After the game is started, it is possible to switch between the first mode and the second mode which are distinguished as described above. With reference to FIG. 5, an outline of mode transition of a game processed by the game processing system 1 will be described. As shown in the figure, when the game is started in step S1, the chat mode S2 which is the first mode is started in step S2. In this chat mode, when the transition process for transitioning to the VR mode, which is the second mode, is started, the process proceeds to step S3, and the transition process to the second mode is performed. When the shift process is completed, the VR mode, which is the second mode, is started in step S4. When the VR mode ends or is interrupted, a process of returning to the chat mode is performed.

次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、ゲーム処理プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、チャットモード実行部21a、移行処理部21b、VRモード実行部21c、及びパラメータ管理部21dとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、ゲームシステム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サーバ50に搭載されているコンピュータプロセッサにより実現されてもよい。   Next, the function realized by the computer processor 21 will be described more specifically. The computer processor 21 functions as a chat mode execution unit 21a, a transition processing unit 21b, a VR mode execution unit 21c, and a parameter management unit 21d by executing computer-readable instructions included in the game processing program. At least a part of the functions implemented by the computer processor 21 may be implemented by a computer processor other than the computer processor 21 of the game system 1. At least a part of the functions implemented by the computer processor 21 may be implemented by a computer processor installed in the server 50, for example.

チャットモード実行部21aは、一実施形態によるゲーム処理プログラムを実行することにより、第1モードであるチャットモードでゲームを提供するための処理を行う。チャットモード実行部21aは、プレイヤ5と(又はプレイヤ5のキャラクタと)ノンプレイヤーキャラクタである仮想キャラクタとの間でチャットを行うための機能を実現する。チャットモード実行部21aは、チャットモードへのログイン後に、仮想キャラクタからのメッセージ及びプレイヤ5により入力又は選択されたメッセージをディスプレイ24に表示し、当該仮想キャラクタとプレイヤ5との間でチャットを行わせることができる。チャットモード実行部21aは、仮想キャラクタのメッセージに続けて、当該メッセージ対するプレイヤ5の応答に関する複数の選択肢をディスプレイ24に表示してもよい。当該複数の選択肢からプレイヤ5の操作に応じて一つの選択肢が選択され、この選択された選択肢に対応するメッセージが、ディスプレイ24にプレイヤ5のメッセージとして表示される。プレイヤ5は、タッチパネル24bへのタッチ操作により、表示された選択肢のうち所望のものを選択することができる。仮想キャラクタのメッセージ及び当該メッセージに対するプレイヤの選択肢は、ゲーム処理プログラムに従って、チャットデータ28bを参照して特定することができる。仮想キャラクタのメッセージは、当該仮想キャラクタの画像とともに表示されてもよく、プレイヤ5のメッセージには、当該プレイヤ5の画像とともに表示されてもよい。仮想キャラクタのメッセージは、第2モードであるVRモードへの移行を促すメッセージ、当該VRモードにおける設定をプレイヤ5に選択させるためのメッセージ、及びこれら以外の当該VRモードに関連づけられたメッセージが含まれていてもよい。   The chat mode execution unit 21a executes the game processing program according to the embodiment to perform a process for providing a game in the chat mode which is the first mode. The chat mode execution unit 21a realizes a function for chatting between the player 5 and (or the character of the player 5) a virtual character that is a non-player character. After logging in to the chat mode, the chat mode execution unit 21a displays a message from the virtual character and a message input or selected by the player 5 on the display 24, and causes the virtual character and the player 5 to chat. be able to. The chat mode execution unit 21a may display, on the display 24, a plurality of options regarding the response of the player 5 to the message, following the message of the virtual character. One option is selected from the plurality of options according to the operation of the player 5, and a message corresponding to the selected option is displayed on the display 24 as a message of the player 5. The player 5 can select a desired option from the displayed options by touching the touch panel 24b. The message of the virtual character and the choice of the player for the message can be specified by referring to the chat data 28b according to the game processing program. The message of the virtual character may be displayed together with the image of the virtual character, and the message of the player 5 may be displayed together with the image of the player 5. The message of the virtual character includes a message for prompting a shift to the VR mode which is the second mode, a message for causing the player 5 to select the setting in the VR mode, and a message associated with the VR mode other than these. May be.

チャットモードにおいては、チャットの進行に応じて、第2モードであるVRモードへの移行を開始するための移行開始オブジェクトが表示される。移行開始オブジェクトの表示は、ゲーム処理プログラムに従って、モード移行条件が成立したときに行われる。チャットモード実行部21aは、タッチパネル24b又はそれ以外のユーザインタフェースからの検出信号に基づいて移行開始オブジェクトが選択されたことを検知することができる。移行開始オブジェクトが選択されたことが検知されると、第2モードであるVRモードへの移行処理が開始される。   In the chat mode, a transition start object for starting the transition to the VR mode, which is the second mode, is displayed according to the progress of the chat. The display of the transition start object is performed according to the game processing program when the mode transition condition is satisfied. The chat mode execution unit 21a can detect that the migration start object is selected based on a detection signal from the touch panel 24b or another user interface. When it is detected that the transition start object is selected, the transition process to the VR mode which is the second mode is started.

移行処理部21bは、第1モードから第2モードへ移行するための移行処理を行う。この移行処理には、情報処理装置20を装着具11へ装着するように促すガイダンスをディスプレイ24に表示すること、及び、プレイヤの注視によって選択可能な移行オブジェクトをディスプレイ24に表示させること、を含んでもよい。この移行オブジェクトを表示させた後、移行処理部21bは、センサユニット25又はそれ以外のセンサの検出信号を受信し、この検出信号に基づいて移行オブジェクトが注視によって選択されたか否かを判定することができる。この判定のために、移行処理部21bは、センサユニット25の検出信号に基づいてHMD10の位置及び向きを算出し、この算出されたHMD10の位置及び向きに基づいて、プレイヤ5の注視位置を特定する。注視位置の特定は、様々な公知の方法により行われ得る。例えば、アイトラッキングセンサの検出信号に基づいて注視位置を特定してもよい。移行処理部21bは、例えば、注視位置が移行開始オブジェクト上にある時間(注視時間)を計測し、この注視時間が所定時間に達したときに、移行開始オブジェクトの選択が完了したと判断する。移行処理部21bは、移行オブジェクトの選択が完了したと判断すると第2モードであるVRモードを開始させる。   The shift processing unit 21b performs shift processing for shifting from the first mode to the second mode. This transition process includes displaying on the display 24 a guidance prompting the user to attach the information processing device 20 to the wearing tool 11, and displaying on the display 24 a transition object that can be selected by the player's gaze. But it's okay. After displaying this migration object, the migration processing unit 21b receives the detection signal of the sensor unit 25 or a sensor other than the sensor unit 25, and determines whether or not the migration object is selected by gaze based on this detection signal. You can For this determination, the transition processing unit 21b calculates the position and orientation of the HMD 10 based on the detection signal of the sensor unit 25, and specifies the gaze position of the player 5 based on the calculated position and orientation of the HMD 10. To do. The gaze position can be specified by various known methods. For example, the gaze position may be specified based on the detection signal of the eye tracking sensor. The shift processing unit 21b measures, for example, the time (gaze time) in which the gaze position is on the shift start object, and when the gaze time reaches a predetermined time, determines that the selection of the shift start object is completed. When the migration processing unit 21b determines that the selection of the migration object is completed, it starts the VR mode that is the second mode.

VRモード実行部21cは、ゲーム処理プログラムに従って、仮想空間に仮想キャラクタの画像を表示し、この仮想キャラクタとプレイヤ5との間でのインタラクションを実現する。VRモード実行部21cは、プロセッサ21によって一実施形態におけるゲーム処理プログラムが実行されることにより、シーン選択部21c1、検出部21c2、アクション特定部21c3、画像生成部21c4、及び中断判定部21c5として機能する。   The VR mode execution unit 21c displays the image of the virtual character in the virtual space according to the game processing program, and realizes the interaction between the virtual character and the player 5. The VR mode execution unit 21c functions as the scene selection unit 21c1, the detection unit 21c2, the action identification unit 21c3, the image generation unit 21c4, and the interruption determination unit 21c5 by the processor 21 executing the game processing program according to the embodiment. To do.

シーン選択部21c1は、シナリオデータ28c及び必要に応じてこれ以外の情報に基づいて、実行すべきゲームシーンを選択する。シーン選択部21c1は、VRモードへのログイン後に、開始シーンを選択する。シーン選択部21c1は、開始シーンが実行された後に、HMD10による検出情報、ストレージ27に記憶されている情報(例えば、パラメータデータ28d)、、及び必要に応じてこれら以外の情報に基づいて、次に実行すべきシゲームーンを選択する。   The scene selection unit 21c1 selects a game scene to be executed based on the scenario data 28c and other information as necessary. The scene selection unit 21c1 selects a start scene after logging in to the VR mode. After the start scene is executed, the scene selection unit 21c1 determines the next based on the detection information by the HMD 10, the information stored in the storage 27 (for example, the parameter data 28d), and other information as necessary. Select the sigamene to run.

検出部21c2は、HMD10のセンサユニット25の検出信号に基づいてHMD10の向き及び位置の少なくとも一方を特定するためのヘッドトラッキング情報を算出する。ヘッドトラッキング情報は、HMDのHMD10の向き及び位置の少なくとも一方を示す情報である。ヘッドトラッキング情報は、センサユニット25による検出情報に基づいて特定される。具体的にはヘッドトラッキング情報は、頭部に装着されているHMD10の位置及び向きが、三次元直交座標系での位置および各軸回りの角度として算出される。この三次元直交座標系は、例えば、前後方向に沿ったロール軸、上下方向に沿ったヨー軸、左右方向に沿ったピッチ軸から成る直交座標系である。検出部21c2は、特定されたHMD10の位置及び向きの少なくとも一方に応じた仮想空間を構成し、この仮想空間を表示するための画像情報をディスプレイ24に出力する。検出部21c2は、例えば、HMD10の位置及び向きの少なくとも一方に基づいて注視方向又は注視位置を算出することができる。   The detection unit 21c2 calculates head tracking information for specifying at least one of the orientation and the position of the HMD 10 based on the detection signal of the sensor unit 25 of the HMD 10. The head tracking information is information indicating at least one of the orientation and the position of the HMD 10 of the HMD. The head tracking information is specified based on the information detected by the sensor unit 25. Specifically, the head tracking information is calculated such that the position and orientation of the HMD 10 mounted on the head are the position in the three-dimensional orthogonal coordinate system and the angle around each axis. This three-dimensional Cartesian coordinate system is, for example, a Cartesian coordinate system including a roll axis along the front-rear direction, a yaw axis along the up-down direction, and a pitch axis along the left-right direction. The detection unit 21c2 configures a virtual space according to at least one of the position and the orientation of the identified HMD 10, and outputs image information for displaying this virtual space to the display 24. The detection unit 21c2 can calculate the gaze direction or the gaze position based on at least one of the position and the direction of the HMD 10, for example.

アクション特定部21c3は、ヘッドトラッキング情報に基づいてプレイヤ5のHMD10を用いたアクションを特定する。また、アクション特定部21c3は、特定されたプレイヤ5のアクションに応じて仮想キャラクタの仮想空間内での行動(リアクション)を決定してもよい。HMD10を装着したプレイヤ5によるアクションには、うなずく、首を横に振る、又はこれら以外の頭部の動きを伴う動作、並びに視線の動きが含まれる。仮想キャラクタにリアクションを行わせるためのプレイヤ5のアクションには、視線を動かすことが含まれてもよい。このような視線の動きは、センサユニット25に含まれるアイトラッキングセンサによって検出され得る。   The action specifying unit 21c3 specifies an action using the HMD 10 of the player 5 based on the head tracking information. In addition, the action specifying unit 21c3 may determine the action (reaction) of the virtual character in the virtual space according to the specified action of the player 5. The action performed by the player 5 wearing the HMD 10 includes a nod, a swaying head, or other movements involving movement of the head and movements of the line of sight. The action of the player 5 for causing the virtual character to perform a reaction may include moving the line of sight. Such a movement of the line of sight can be detected by an eye tracking sensor included in the sensor unit 25.

画像生成部21c4は、仮想空間全体のうち検出部21c2により特定された注視位置又は注視方向を中心として画角等により定められる描画領域の画像情報を生成する。このようにして生成された画像情報に基づいて、ディスプレイ24に仮想空間の描画領域の画像が表示される。画像情報の生成には、例えば、ストレージ27に記憶された画像データ28a、シナリオデータ28c、パラメータデータ28d、ゲーム進行データ28f、及びこれら以外のデータが用いられ得る。描画領域に仮想キャラクタが存在する場合には、画像生成部21c4は、アクション特定部21c3により特定された動作を行う仮想キャラクタを含む仮想空間の画像情報を生成し、このようにして生成された画像情報は、立体視画像としてディスプレイ24に出力される。これにより、ディスプレイ24には、プレイヤ5のアクションに応じて決定された行動を行う仮想キャラクタの画像を含む仮想空間の画像が表示される。画像生成部21c4は、この仮想キャラクタの行動及び仮想空間の描画領域に対応する音声情報を生成してもよい。当該音声情報はHMD10が有するスピーカに出力される。   The image generation unit 21c4 generates image information of a drawing area defined by an angle of view or the like centered on the gaze position or gaze direction specified by the detection unit 21c2 in the entire virtual space. An image of the drawing area of the virtual space is displayed on the display 24 based on the image information thus generated. Image data 28a, scenario data 28c, parameter data 28d, game progress data 28f, and other data stored in the storage 27 may be used to generate the image information. When the virtual character exists in the drawing area, the image generation unit 21c4 generates image information of the virtual space including the virtual character performing the action specified by the action specifying unit 21c3, and the image generated in this way. The information is output to the display 24 as a stereoscopic image. As a result, the display 24 displays the image of the virtual space including the image of the virtual character performing the action determined according to the action of the player 5. The image generation unit 21c4 may generate voice information corresponding to the action of the virtual character and the drawing area of the virtual space. The voice information is output to the speaker included in the HMD 10.

中断判定部21c5は、中断条件データ28eに基づき、中断条件が成立したか否かを判定する。例えば、中断条件が仮想空間内に設定された禁止領域が注視されたことである場合には、中断判定部21c5は、HMD10により検出された検出情報に基づいて仮想空間におけるプレイヤ5の注視位置を特定し、この注視位置が禁止領域内にあるか否かを判定する。プレイヤ5の注視位置が当該禁止領域内にあれば中断条件が成立したと判断される。   The interruption determination unit 21c5 determines whether or not the interruption condition is satisfied based on the interruption condition data 28e. For example, when the interruption condition is that the prohibited area set in the virtual space is watched, the interruption determination unit 21c5 determines the gaze position of the player 5 in the virtual space based on the detection information detected by the HMD 10. Then, it is determined whether or not this gaze position is within the prohibited area. If the gaze position of the player 5 is within the prohibited area, it is determined that the interruption condition is satisfied.

中断条件が、プレイヤ5が仮想キャラクタに対して同じアクションを3回以上繰り返したことである場合には、中断判定部21c5は、ゲーム進行データ28fを参照して、直前2回のプレイヤ5の仮想キャラクタに対するアクションを特定し、この直前2回のアクションが互いに同じアクションであるか否かを判定する。この直前2回のアクションが同じでアクションである場合には、アクション特定部21c3において特定された最新のアクションが当該直前2回のアクションと同じであるか否かを判定する。この最新のアクションが当該直前2回のアクションと同じであれば中断条件が成立したと判断される。   When the interruption condition is that the player 5 has repeated the same action on the virtual character three times or more, the interruption determination unit 21c5 refers to the game progress data 28f and refers to the virtual two times of the player 5 immediately before. The action for the character is specified, and it is determined whether or not the two previous actions are the same action. When the two previous actions are the same and the actions are the same, it is determined whether or not the latest action identified by the action identifying unit 21c3 is the same as the previous two actions. If the latest action is the same as the actions of the last two times, it is determined that the interruption condition is satisfied.

中断条件が、プレイヤ5が仮想キャラクタの頭部に対するアクションを3回以上行ったことである場合には、中断判定部21c5は、ゲーム進行データ28fを参照して、最新のアクションにより頭部へのアクションが3回目に達したか否かを判定する。この最新のアクションにより頭部へのアクションが3回目となる場合には中断条件が成立したと判断される。   If the interruption condition is that the player 5 has performed the action on the head of the virtual character three times or more, the interruption determination unit 21c5 refers to the game progress data 28f and refers to the latest action to move the head to the head. It is determined whether or not the action has reached the third time. When the action on the head becomes the third time due to the latest action, it is determined that the interruption condition is satisfied.

中断条件がプレイヤにより禁止アクションが行われたことである場合には、中断判定部21c5は、最新のアクションが禁止アクションに該当するか否かを判定する。禁止アクションには、所定の上限値以上の加速度で頭部を動かすことが含まれてもよい。禁止アクションが所定値以上の加速度で頭部を動かすことである場合には、中断判定部21c5は、センサユニット25によって検出された加速度が当該上限値以上であるか否かを判定し、当該加速度が上限値以上である場合には中断条件が成立したと判断し、当該加速度が上限値未満である場合には中断条件が成立しなかったと判断する。   When the interruption condition is that the player has performed the prohibited action, the interruption determination unit 21c5 determines whether the latest action corresponds to the prohibited action. The prohibited action may include moving the head with an acceleration equal to or higher than a predetermined upper limit value. When the prohibited action is to move the head with an acceleration equal to or higher than a predetermined value, the interruption determination unit 21c5 determines whether the acceleration detected by the sensor unit 25 is equal to or higher than the upper limit value, and the acceleration concerned. Is greater than or equal to the upper limit value, it is determined that the interruption condition is satisfied, and when the acceleration is less than the upper limit value, it is determined that the interruption condition is not satisfied.

中断条件がパラメータデータ28dに含まれるパラメータが所定の閾値以上又は所定の閾値以下であることである場合には、中断判定部21c5は、パラメータデータ28dを参照して、中断条件が成立したか否かを判定する。このパラメータが仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータであり、中断条件が当該好感度を示すパラメータが所定の閾値以下であることである場合には、中断判定部21c5は、ストレージ27から好感度を示すパラメータを読み出し、読み出した好感度を示すパラメータが当該所定の閾値以下であるか否かを判定する。好感度を示すパラメータが当該所定の閾値以下である場合には中断条件が成立したと判断され、当該所定の閾値より大きい場合には中断条件が成立しなかったと判断される。   When the interruption condition is that the parameter included in the parameter data 28d is equal to or greater than the predetermined threshold value or equal to or less than the predetermined threshold value, the interruption determination unit 21c5 refers to the parameter data 28d and determines whether the interruption condition is satisfied. To determine. If this parameter is a parameter indicating the positivity of the virtual character with respect to the user character, and the interruption condition is that the parameter indicating the positivity is equal to or less than a predetermined threshold value, the interruption determination unit 21c5 determines that the storage 27 prefers. The parameter indicating the sensitivity is read, and it is determined whether the read parameter indicating the favorable sensitivity is equal to or less than the predetermined threshold value. It is determined that the interruption condition is satisfied when the parameter indicating the favorable sensitivity is less than or equal to the predetermined threshold value, and it is determined that the interruption condition is not satisfied when greater than the predetermined threshold value.

中断判定部21c5は、ゲームが実行されている間の任意の時点で、中断条件が成立したか否かを判定することができる。一実施形態においては、中断判定部21c5は、プレイヤ5が仮想キャラクタに対するアクションを行ったことに応じて、中断条件が成立したか否かを判定することができる。   The interruption determination unit 21c5 can determine whether or not the interruption condition is satisfied at any time during the execution of the game. In one embodiment, the interruption determination unit 21c5 can determine whether or not the interruption condition is satisfied in response to the player 5 performing the action on the virtual character.

以上のように、VRモード実行部21cにより、ディスプレイ24には、仮想空間内で仮想キャラクタが動く画像が表示され、スピーカからは仮想キャラクタの動きに対応した音声が出力される。例えば、仮想キャラクタがプレイヤ5に話しかける場合には、仮想キャラクタの頭部及び口が動く画像がディスプレイ24に表示され、仮想キャラクタの発言に対応する音声がスピーカから出力される。一実施形態において、VRモード及びチャットモードの各々においてプレイヤ5とインタラクトする仮想キャラクタは、同じ仮想キャラクタである。例えば、VRモードに登場する仮想キャラクタとチャットモードに登場するキャラクタと同じ名前を有し、同一のキャラクタと認識できる程度の外観上の共通性を有する。ただし、VRモードにおいては仮想キャラクタの画像が立体視画像として表示されるのに対し、チャットモードにおいては仮想キャラクタの画像が立体視画像以外の画像として表示される点で、両モードにおける仮想キャラクタの画像は互いと相違している。しかし、このような表現形式の差異は、仮想キャラクタの同一性を妨げることはない。   As described above, the VR mode execution unit 21c displays an image in which the virtual character moves in the virtual space on the display 24, and the speaker outputs the sound corresponding to the movement of the virtual character. For example, when the virtual character speaks to the player 5, an image in which the head and mouth of the virtual character move is displayed on the display 24, and a voice corresponding to the utterance of the virtual character is output from the speaker. In one embodiment, the virtual character that interacts with the player 5 in each of the VR mode and the chat mode is the same virtual character. For example, the virtual character appearing in the VR mode and the character appearing in the chat mode have the same name and have a common appearance in a degree that they can be recognized as the same character. However, in the VR mode, the image of the virtual character is displayed as a stereoscopic image, whereas in the chat mode, the image of the virtual character is displayed as an image other than the stereoscopic image. The images are different from each other. However, such a difference in expression form does not prevent the virtual characters from being identical.

パラメータ管理部21dは、ゲームの進行に応じて、パラメータデータ28dを更新する。パラメータ管理部21dは、ゲームが第1モードで提供されている場合には、当該第1モードにおけるゲームの進行に応じてパラメータデータ28dを更新し、ゲームが第2モードで提供されている場合には、当該第2モードにおけるゲームの進行に応じてパラメータデータ28dを更新する。   The parameter management unit 21d updates the parameter data 28d according to the progress of the game. When the game is provided in the first mode, the parameter management unit 21d updates the parameter data 28d according to the progress of the game in the first mode, and when the game is provided in the second mode. Updates the parameter data 28d according to the progress of the game in the second mode.

パラメータデータ28dに仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータが含まれる場合には、パラメータ管理部21dは、第1モード及び第2モードにおけるプレイヤ5のアクションに応じて当該パラメータを増減させてもよい。第1モードがチャットモードである場合には、当該チャットモードにおいてプレイヤ5に提供されるメッセージの選択肢ごとに好感度の変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)が定められていてもよい。この場合、パラメータ管理部21dは、プレイヤ5によって選択された選択肢に応じて好感度の変化量又は変化率を特定し、この特定した好感度の変化量又は変化率に基づいてパラメータデータ28dを更新する。VRモードにおいては、プレイヤ5のアクションごとに好感度の変化量又は変化率が定められていてもよい。パラメータ管理部21dは、プレイヤ5のアクションに応じて好感度の変化量又は変化率を特定し、この特定した好感度の変化量又は変化率に基づいて、パラメータデータ28dを更新する。   When the parameter data 28d includes a parameter indicating the likability of the virtual character for the user character, the parameter management unit 21d may increase or decrease the parameter according to the action of the player 5 in the first mode and the second mode. Good. When the first mode is the chat mode, the change amount (for example, increase amount or decrease amount) or change rate (increase rate or decrease rate) of the positivity is changed for each option of the message provided to the player 5 in the chat mode. ) May be defined. In this case, the parameter management unit 21d specifies the amount of change in the positivity or the rate of change according to the option selected by the player 5, and updates the parameter data 28d based on the specified amount of change in the positivity or the rate of change. To do. In the VR mode, the amount of change or the rate of change of the positivity may be set for each action of the player 5. The parameter management unit 21d identifies the amount of change in the positivity or the rate of change in accordance with the action of the player 5, and updates the parameter data 28d based on the identified amount of change in the positivity or the rate of change.

第2モードがVRモードである場合には、当該VRモードにおいて、プレイヤ5のアクションについて禁止アクションが定められていてもよい。禁止アクションには、所定値以上の加速度で頭部を動かすこと、仮想空間内の禁止領域に視線を向けること、及び所定回数以上同じアクションを繰り返すことが含まれていてもよい。本明細書においては、プレイヤ5のアクションのうち、禁止アクション以外のアクションを正常アクションと呼ぶことがある。パラメータ管理部21dは、プレイヤ5によって禁止アクションが行われた場合には、好感度が減少するようにパラメータデータ28dを更新する。パラメータ管理部21dは、プレイヤ5によって正常アクションが取られた場合には、その正常アクションに応じて好感度が増加又は減少するようにパラメータデータ28dを更新する。   When the second mode is the VR mode, a prohibited action may be set for the action of the player 5 in the VR mode. The prohibited action may include moving the head at an acceleration equal to or higher than a predetermined value, directing the line of sight to the prohibited area in the virtual space, and repeating the same action a predetermined number of times or more. In the present specification, among the actions of the player 5, actions other than the prohibited actions may be referred to as normal actions. If the prohibited action is performed by the player 5, the parameter management unit 21d updates the parameter data 28d so that the favorable impression is reduced. When the player 5 takes a normal action, the parameter management unit 21d updates the parameter data 28d so that the positivity is increased or decreased according to the normal action.

VRモードでゲームが処理されているときに、VRモードにおいて準備されている終了シーンを経ることなく、VRモードが異常終了することがある。例えば、HMD10の電源がなくなる、システムプログラムの機能によりゲーム処理プログラムが強制的に終了させられる、などの要因でVRモードは異常終了し得る。VRモードが異常終了された場合、パラメータ管理部21dは、好感度が減少するようにパラメータデータ28dを更新する。   When a game is processed in the VR mode, the VR mode may end abnormally without passing through the end scene prepared in the VR mode. For example, the VR mode may end abnormally due to factors such as the power supply to the HMD 10 being cut off, the game processing program being forcibly terminated by the function of the system program, and the like. When the VR mode is abnormally terminated, the parameter management unit 21d updates the parameter data 28d so that the favorable impression is reduced.

VRモード実行部21cは、終了条件が満たされるとVRモードを終了するための終了処理を行う。終了条件は、例えば、VRモードの開始から所定時間(例えば、1分)経過したこと、終了対象操作が検知されたこと、VRモードで実行されているシナリオに含まれる最後のイベントが終了したこと、及びこれら以外の条件である。終了条件が満たされたときに行われる終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。   The VR mode execution unit 21c performs an ending process for ending the VR mode when the ending condition is satisfied. The termination condition is, for example, that a predetermined time (for example, 1 minute) has elapsed from the start of the VR mode, that the operation to be terminated has been detected, and that the last event included in the scenario executed in the VR mode has terminated. , And other conditions. The termination process performed when the termination condition is satisfied is to display guidance on the display 24 to remove the information processing device 20 from the wearing tool 11, and to display a login screen for the chat mode, which is the first mode. Displaying may be included.

次に、図6及び図7a〜図7dを参照して、チャットモードにおけるチャット処理について説明する。図6は、一実施形態におけるチャットモードでの処理の流れを示すフロー図であり、図7aから図7dは、チャットモードにおける表示画像の例を示す。チャットモードの開始時においては、HMD10はプレイヤ5の頭部に装着されておらず、また、情報処理装置20は装着具11から取り外されていることが想定されている。   Next, the chat process in the chat mode will be described with reference to FIGS. 6 and 7a to 7d. FIG. 6 is a flowchart showing the flow of processing in the chat mode according to the embodiment, and FIGS. 7A to 7D show examples of display images in the chat mode. At the start of the chat mode, it is assumed that the HMD 10 is not mounted on the head of the player 5 and the information processing device 20 is detached from the mounting tool 11.

ゲーム処理システム1において、上述したように、ゲームは、チャットモードで開始される。ステップS11では、チャットモードへログインするためのログイン画面が情報処理装置20のディスプレイ24に表示される。プレイヤ5によってログイン処理がなされると、当該チャット処理は、ステップS12に移行する。   In the game processing system 1, as described above, the game is started in the chat mode. In step S11, a login screen for logging in to the chat mode is displayed on the display 24 of the information processing device 20. When the player 5 performs the login process, the chat process proceeds to step S12.

ステップS12においては、プレイヤ5と仮想キャラクタとの間でメッセージが交換され、これにより両者の間でチャットが行われる。具体的には、チャットモードへのログイン後に、プレイヤ5と仮想キャラクタとの間で行われるチャットを表示するためのチャット表示画像が生成され、当該チャット表示画像がディスプレイ24に表示される。図7aは、ディスプレイ24に表示されるチャット表示画像の一例であるチャット表示画像70を示す。チャット表示画像70は、プレイヤ5に対応するアイコン73と、仮想キャラクタに対応するアイコン74と、プレイヤ5のメッセージ75aと、仮想キャラクタのメッセージ76a,76bと、を含むチャット表示領域71を含む。また、チャット表示画像70は、チャット表示領域71の上部に配されたメニュー領域72を含む。仮想キャラクタのメッセージ76a,76bは、ゲーム処理プログラムに従って、ストレージ72に記憶されているチャットデータ28b及びこれ以外のデータに基づいて特定される。例えば、仮想キャラクタのメッセージは、ツリー構造で定義されているチャットデータ28bを参照して、ルートノードにあるメッセージから順に表示される。ノードの分岐点においては、分岐条件に応じたノードが選択され、当該選択されたノードに対応するメッセージが表示される。   In step S12, messages are exchanged between the player 5 and the virtual character, so that a chat is held between them. Specifically, after logging in to the chat mode, a chat display image for displaying the chat performed between the player 5 and the virtual character is generated, and the chat display image is displayed on the display 24. FIG. 7 a shows a chat display image 70 which is an example of the chat display image displayed on the display 24. The chat display image 70 includes a chat display area 71 including an icon 73 corresponding to the player 5, an icon 74 corresponding to a virtual character, a message 75a of the player 5, and virtual character messages 76a and 76b. The chat display image 70 also includes a menu area 72 arranged above the chat display area 71. The virtual character messages 76a and 76b are specified based on the chat data 28b stored in the storage 72 and other data according to the game processing program. For example, the virtual character messages are displayed in order from the message at the root node with reference to the chat data 28b defined by the tree structure. At the branch point of the node, a node corresponding to the branch condition is selected, and a message corresponding to the selected node is displayed.

ステップS12においては、プレイヤ5によって選択された選択肢に応じて、プレイヤ5について設定されているパラメータが増減されてもよい。パラメータの増減量又は増減率は、上記のように、メッセージの選択肢ごとに定められているパラメータの変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)に基づいて定められる。パラメータの変化量又は変化率が特定されると、この特定された好感度の変化量又は変化率に基づいて、パラメータデータ28dが更新される。   In step S12, the parameter set for the player 5 may be increased or decreased according to the option selected by the player 5. The increase / decrease amount or increase / decrease rate of the parameter is determined based on the change amount (for example, increase amount or decrease amount) or change rate (increase rate or decrease rate) of the parameter defined for each message option as described above. To be When the change amount or change rate of the parameter is specified, the parameter data 28d is updated based on the specified change amount or change rate of the favorable sensitivity.

図7aのチャット表示画像70は、チャット表示領域71の下部に、プレイヤ5のメッセージの選択肢77を示す表示を含んでいる。プレイヤ5は、表示されている選択肢77のうちの一つを選択することができる。この選択は、例えば、ディスプレイ24において選択したい選択肢が表示されている領域を指で接触することで行われる。この選択がなされると、図7bに示すように、選択された選択肢に対応するメッセージ75bが、プレイヤ5のメッセージとしてチャット表示領域71に新たに表示される。   The chat display image 70 of FIG. 7a includes a display showing a message option 77 of the player 5 at the bottom of the chat display area 71. The player 5 can select one of the displayed options 77. This selection is performed, for example, by touching the area on the display 24 where the option desired to be selected is displayed with a finger. When this selection is made, a message 75b corresponding to the selected option is newly displayed in the chat display area 71 as a message of the player 5, as shown in FIG. 7b.

図7cに示すように、チャットの過程で、第2モードであるVRモードでの設定の選択を促すメッセージ76c,76dが仮想キャラクタのメッセージとして表示されてもよい。メッセージ76cは、VRモードにおけるシナリオの選択を促すメッセージであり、メッセージ76dは、VRモードで仮想キャラクタが使用するアイテム(例えば、仮想キャラクタがVRモードの仮想空間内で着用する服)の選択を促すメッセージである。つまり、第2モードにおける設定には、VRモードにおけるシナリオ、及び、VRモードで仮想キャラクタが使用するアイテムが含まれる。シナリオの選択を促すメッセージ76cが表示された後には、ディスプレイ24にシナリオの選択肢が表示される。例えば、第1シナリオ〜第5シナリオが選択肢として表示される。プレイヤ5は、この選択肢の中から好みのシナリオを選択することができる。アイテムの選択を促すメッセージ76dが表示された後には、ディスプレイ24にアイテムの選択肢が表示される。プレイヤ5は、この選択肢の中から好みのアイテムを選択することができる。チャットの過程で、第2モードへの移行を促すメッセージが仮想キャラクタのメッセージとして表示されてもよい。   As shown in FIG. 7c, during the chat process, messages 76c and 76d prompting selection of settings in the VR mode, which is the second mode, may be displayed as virtual character messages. The message 76c is a message that prompts the user to select a scenario in the VR mode, and the message 76d prompts the user to select an item used by the virtual character in the VR mode (for example, clothes that the virtual character wears in the virtual space in the VR mode). It is a message. That is, the setting in the second mode includes the scenario in the VR mode and the item used by the virtual character in the VR mode. After the message 76c for prompting the selection of the scenario is displayed, the options of the scenario are displayed on the display 24. For example, the first scenario to the fifth scenario are displayed as options. The player 5 can select a favorite scenario from these options. After the message 76d prompting the user to select an item is displayed, the item options are displayed on the display 24. The player 5 can select a favorite item from these options. During the chat process, a message prompting the transition to the second mode may be displayed as a virtual character message.

ステップS13では、第1モードから第2モードへのモード移行条件が成立したか否かが判定される。第1モードから第2モードへのモード移行条件として、例えば、チャットモード開始から所定時間(例えば、1分)が経過したことという条件が用いられる。チャットモード開始からの経過時間は、例えばシステムクロックを用いて計測される。モード移行条件が成立したと判断されるまで、ステップS12に戻ってチャット処理が継続される。他方、モード移行条件が成立したと判断されると、チャット処理は、ステップS14に移行する。   In step S13, it is determined whether or not the condition for mode transition from the first mode to the second mode is satisfied. As a mode transition condition from the first mode to the second mode, for example, a condition that a predetermined time (for example, 1 minute) has elapsed from the start of the chat mode is used. The elapsed time from the start of the chat mode is measured using, for example, the system clock. The chat processing is continued by returning to step S12 until it is determined that the mode transition condition is satisfied. On the other hand, if it is determined that the mode shift condition is satisfied, the chat process shifts to step S14.

ステップS14においては、移行開始オブジェクト78がディスプレイ24に表示され、チャット処理は、ステップS15に進む。図7dに示されているように、移行開始オブジェクト78は、例えばチャット領域71内に、外縁が円形のオブジェクトとして表示される。ステップS15において、移行開始オブジェクト78の選択が確認されると、チャット処理は、ステップS16に進む。他方、移行開始オブジェクト78が表示されてから所定時間(例えば、10秒)経過しても移行開始オブジェクト78の選択が確認されない場合には、移行開始オブジェクトの選択がなされなかったと判定され、チャット処理が終了する。移行開始オブジェクトの選択がなされなかったと判定されたときに、ステップS12に戻り、チャットを再開するための処理が行われてもよい。移行開始オブジェクト78の選択がなされたか否かは、タッチパネル24bへの操作に応じて判断されてもよい。例えば、移行開始オブジェクト78の表示領域と重複する位置へのタッチ操作(例えば、タップ操作)がなされたことがタッチパネル24bによる検出信号から検出されたときに、当該移行開始オブジェクト78が選択されたと判断される。移行開始オブジェクト78の選択は、非接触操作によりなされてもよい。   In step S14, the transition start object 78 is displayed on the display 24, and the chat process proceeds to step S15. As shown in FIG. 7d, the transition start object 78 is displayed in the chat area 71, for example, as an object having a circular outer edge. When the selection of the migration start object 78 is confirmed in step S15, the chat process proceeds to step S16. On the other hand, if the selection of the migration start object 78 is not confirmed within a predetermined time (for example, 10 seconds) after the migration start object 78 is displayed, it is determined that the migration start object has not been selected, and the chat process is performed. Ends. When it is determined that the migration start object has not been selected, the process may return to step S12 and the process for restarting the chat may be performed. Whether or not the migration start object 78 is selected may be determined according to the operation on the touch panel 24b. For example, when it is detected from the detection signal from the touch panel 24b that a touch operation (for example, a tap operation) on a position overlapping the display area of the transition start object 78 is detected, it is determined that the transition start object 78 is selected. To be done. The selection of the transition start object 78 may be performed by a non-contact operation.

ステップS16では、第2モードであるVRモードへの移行処理が開始される。移行処理が開始されると、チャット処理は終了する。   In step S16, a transition process to the VR mode which is the second mode is started. The chat process ends when the migration process starts.

以上のチャット処理は、例えば、チャットモード実行部21aにより実行される。チャットモード実行部21aは、単独で又は他の機能と適宜協働して、上記のチャット処理を実行することができる。チャット処理の実行に際しては、ストレージ27に格納されているデータ以外にも、必要に応じて、他のストレージに格納されているデータ、各種センサによって検出された検出情報、またはこれら以外のデータが用いられ得る。   The above chat processing is executed by the chat mode execution unit 21a, for example. The chat mode execution unit 21a can execute the above chat processing alone or in cooperation with other functions as appropriate. When executing the chat process, in addition to the data stored in the storage 27, data stored in another storage, detection information detected by various sensors, or data other than these is used as necessary. Can be done.

次に、第1モードであるチャットモードから第2モードであるVRモードへのモード移行処理について、図8及び図9a〜図9bを参照して説明する。図8は、一実施形態におけるモード移行処理の流れを示すフロー図である。   Next, a mode transition process from the chat mode that is the first mode to the VR mode that is the second mode will be described with reference to FIGS. 8 and 9a to 9b. FIG. 8 is a flowchart showing the flow of the mode transition processing according to the embodiment.

移行処理が開始されると、ステップ31において、HMD10を装着するように促すガイダンスが、情報処理装置20のディスプレイ24に表示される。当該ガイダンスを含むガイダンス表示画像の例であるガイダンス表示画像80が図9aに示されている。ガイダンス表示画像80には、情報処理装置20を装着具11に取り付けることを促すガイダンス、HMD10を頭部に装着するように促すガイダンス、及びこれら以外のVRモードを開始するために必要な各種のガイダンスを含むことができる。図9aに示されているガイダンス表示画像80には、情報処理装置20を装着具11に取り付けることを促すガイダンス81が含まれている。このガイダンスには、情報処理装置20の装着具11に対する取付方法に関するインストラクションが含まれてもよい。上記ガイダンスの表示後に所定時間が経過すると、モード移行処理はステップS32へ進む。   When the shift process is started, in step 31, a guidance prompting the user to wear the HMD 10 is displayed on the display 24 of the information processing device 20. A guidance display image 80, which is an example of the guidance display image including the guidance, is shown in FIG. 9a. In the guidance display image 80, a guidance for mounting the information processing device 20 on the mounting tool 11, a guidance for mounting the HMD 10 on the head, and various types of guidance necessary for starting the VR mode other than these Can be included. The guidance display image 80 shown in FIG. 9a includes guidance 81 that prompts the user to attach the information processing device 20 to the wearing tool 11. This guidance may include instructions on how to attach the information processing device 20 to the wearing tool 11. When the predetermined time has elapsed after the guidance is displayed, the mode transition process proceeds to step S32.

ステップS32では、移行オブジェクトがディスプレイ24に表示される。移行オブジェクトを含む移行処理画像の例が図9bに示されている。図9bに示されている移行処理画像85には、移行オブジェクト86が含まれている。移行処理画像85は、立体視画像で表示されてもよい。一実施形態においては、モード移行処理の開始時又はモード移行処理開始後の所定のタイミングにおいて、ディスプレイ24へ表示される画像が、立体視画像以外の画像から、立体視画像に切り替えられる。例えば、チャットモードにおいて表示される画像は立体視画像以外の画像として表示され、移行処理開始以後に表示される画像は立体視画像として表示される。   In step S32, the migration object is displayed on the display 24. An example of a migration processed image containing migration objects is shown in Figure 9b. A migration object 86 is included in the migration processing image 85 shown in FIG. 9b. The transition processing image 85 may be displayed as a stereoscopic image. In one embodiment, the image displayed on the display 24 is switched from the image other than the stereoscopic image to the stereoscopic image at the start of the mode transition process or at a predetermined timing after the start of the mode transition process. For example, the image displayed in the chat mode is displayed as an image other than the stereoscopic image, and the image displayed after the start of the transition process is displayed as the stereoscopic image.

次に、ステップS33においては、移行オブジェクト86の選択が完了したか否かが判定される。移行オブジェクト86は、例えば、プレイヤ5が所定時間継続して注視することにより選択される。したがって、移行オブジェクト86を選択するためには、プレイヤ5はHMD10を装着していることが前提となる。一実施形態においては、移行オブジェクト86の選択が完了したか否かは、HMD10による検出信号に基づいて算出される注視位置が移行オブジェクト86上に所定時間以上あるか否かによって判定される。注視位置は、上記のように、HMD10に備えられたセンサユニット25によって検出された情報に基づいて算出され得る。上記の判定は、注視位置が移行オブジェクト86上に存在する注視時間をシステムクロックを用いて計測し、この計測された注視時間が所定時間に達したか否かによって判定され得る。例えば、注視時間が所定時間に達した場合には移行オブジェクト86の選択が完了したと判定され、モード移行処理はステップS34に進む。他方、移行オブジェクト86が表示されてから所定時間が経過しても移行オブジェクト86の選択が完了したことが検知されない場合には、移行オブジェクト86の選択は完了しなかったと判定され、モード移行処理はステップS35に進む。   Next, in step S33, it is determined whether or not the selection of the migration object 86 is completed. The transition object 86 is selected, for example, by the player 5 continuously gazing for a predetermined time. Therefore, in order to select the transition object 86, it is premised that the player 5 wears the HMD 10. In one embodiment, whether or not the selection of the transition object 86 is completed is determined by whether or not the gaze position calculated based on the detection signal by the HMD 10 is on the transition object 86 for a predetermined time or more. The gaze position can be calculated based on the information detected by the sensor unit 25 provided in the HMD 10 as described above. The above determination can be made by measuring the gaze time at which the gaze position exists on the transition object 86 using the system clock, and determining whether the measured gaze time has reached a predetermined time. For example, when the gaze time reaches the predetermined time, it is determined that the selection of the transition object 86 is completed, and the mode transition process proceeds to step S34. On the other hand, if it is not detected that the selection of the migration object 86 is completed even after a predetermined time has elapsed since the migration object 86 was displayed, it is determined that the selection of the migration object 86 has not been completed, and the mode transition processing is performed. It proceeds to step S35.

ステップS34では、第2モードであるVRモードが開始される。VRモードにおける具体的な処理については後述される。   In step S34, the VR mode which is the second mode is started. Specific processing in the VR mode will be described later.

ステップS35では、VRモードへの移行が選択されなかったため、チャットモードへ復帰するための処理が開始される。チャットモードへの復帰処理が完了すると、チャットモードが再開される。この再開されたチャットモードにおいては、VRモードへの移行がなされなかったことに関連する仮想キャラクタからのメッセージが表示されてもよい。   In step S35, since the shift to the VR mode has not been selected, the process for returning to the chat mode is started. When the return processing to the chat mode is completed, the chat mode is restarted. In the restarted chat mode, a message from the virtual character related to the fact that the transition to the VR mode has not been made may be displayed.

以上のモード移行処理は、例えば、移行処理部21bにより実行される。移行処理部21bは、単独で又は他の機能と適宜協働して、上記のモード移行処理を実行することができる。   The above mode transition processing is executed by, for example, the transition processing unit 21b. The shift processing unit 21b can execute the above-described mode shift processing alone or in cooperation with other functions as appropriate.

次に、図10から図12を参照して、VRモードにおけるVR処理について説明する。図10は、一実施形態におけるVRモードでのVR処理の流れを示すフロー図であり、図11は、VRモードにおける表示画像の例を示し、図12は、VRモードで実行されているシーンにおける仮想キャラクタのアクションの流れを模式的に示す。上記のように、モード移行処理において移行オブジェクト86を選択するために、プレイヤ5はHMD10を装着している。VRモードの開始時においては、HMD10はプレイヤ5の頭部に装着されていることが想定されている。以下では、第1シナリオが選択されていることを前提にVR処理の説明を行う。VR処理においては、適宜、パラメータデータ28dが参照される。一実施形態において、VR処理の開始時におけるパラメータデータ28dに含まれる各パラメータの値は、チャット処理の終了時におけるパラメータデータ28dに含まれる各パラメータの値に等しい。つまり、VR処理においては、チャット処理において更新されたパラメータデータ28dが引き継がれる。   Next, the VR process in the VR mode will be described with reference to FIGS. 10 to 12. FIG. 10 is a flow chart showing the flow of VR processing in VR mode in one embodiment, FIG. 11 shows an example of a display image in VR mode, and FIG. 12 shows a scene being executed in VR mode. The flow of action of a virtual character is shown typically. As described above, the player 5 wears the HMD 10 in order to select the transition object 86 in the mode transition processing. It is assumed that the HMD 10 is mounted on the head of the player 5 at the start of the VR mode. The VR process will be described below on the assumption that the first scenario is selected. In the VR process, the parameter data 28d is appropriately referred to. In one embodiment, the value of each parameter included in the parameter data 28d at the start of the VR process is equal to the value of each parameter included in the parameter data 28d at the end of the chat process. That is, in the VR process, the parameter data 28d updated in the chat process is inherited.

VRモードが開始されると、ステップS41において、開始シーンが実行される。具体的には、開始シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。開始シーンにおいては、仮想空間において仮想キャラクタが所定のアクションをおこなっても良い。   When the VR mode is started, a start scene is executed in step S41. Specifically, the image information of the virtual space according to the start scene is generated, and the image corresponding to the image information is output to the display 24. In the start scene, the virtual character may take a predetermined action in the virtual space.

図11に、ディスプレイ24に表示された開始シーンのVR画像の例が示されている。図11に示されているVR画像90は、仮想キャラクタを示す仮想キャラクタ画像91、背景に相当するオブジェクトを示す画像92a〜92c、及びこれら以外の各種オブジェクトを示す画像を含んでいる。VR画像90は、第1シナリオ用の仮想空間の所定の範囲に対応する画像である。VR画像90に対応する仮想空間の範囲は、HMD10の向きに基づいて仮想空間における注視位置を算出し、この算出された注視位置を中心として例えば画角により定められる範囲とすることができる。画像情報の生成には、画像データ28aが用いられる。VR画像90及びこれら以外のVRモードにおいて表示される画像は、立体視画像として表示される。   FIG. 11 shows an example of the VR image of the start scene displayed on the display 24. The VR image 90 shown in FIG. 11 includes a virtual character image 91 showing a virtual character, images 92a to 92c showing objects corresponding to the background, and images showing various objects other than these. The VR image 90 is an image corresponding to a predetermined range of the virtual space for the first scenario. The range of the virtual space corresponding to the VR image 90 may be a range determined by calculating the gaze position in the virtual space based on the orientation of the HMD 10 and centering the calculated gaze position, for example, by the angle of view. The image data 28a is used to generate the image information. The VR image 90 and the images displayed in the VR modes other than these are displayed as stereoscopic images.

仮想キャラクタ画像91は、例えば開始シーンデータA1により特定されるアクションを仮想空間内で行うことができる。例えば、仮想キャラクタ画像91のアクションには、プレイヤ5に向かって(仮想空間内のプレイヤ5の位置に向かって)話しかける、仮想空間内を移動する、仮想空間内に配置されたオブジェクトを手に取る、及びこれら以外の仮想空間内における様々なアクションが含まれる。   The virtual character image 91 can perform, for example, the action specified by the start scene data A1 in the virtual space. For example, in the action of the virtual character image 91, speak to the player 5 (toward the position of the player 5 in the virtual space), move in the virtual space, or pick up an object arranged in the virtual space. , And various actions in the virtual space other than these.

開始シーンにおいて仮想キャラクタが行う一連のアクションについて、図12を参照して説明する。図12は、VRモードで実行されるシーンにおける仮想キャラクタのアクションの流れを模式的に示す図である。図12では、開始シーンにおけるアクションの流れが例示されている。図示のように、開始シーンにおいて、仮想キャラクタは、まずアクションA11に対応するアクションを行う。アクションA11は、仮想キャラクタが開始シーンにおいて行うことができるアクションに対応する。   A series of actions performed by the virtual character in the start scene will be described with reference to FIG. FIG. 12 is a diagram schematically showing the flow of actions of a virtual character in a scene executed in VR mode. In FIG. 12, the flow of actions in the start scene is illustrated. As illustrated, in the start scene, the virtual character first performs an action corresponding to action A11. Action A11 corresponds to an action that the virtual character can perform in the start scene.

アクションA11は、分岐可能なアクションとして規定されている。具体的には、アクションA11は、アクションA21、アクションA22、及びアクションA23に分岐している。例えば、アクションA11には、アクションA21へ移行するための第1移行条件、アクションA22へ移行するための第2移行条件、及びアクションA23へ移行するための第3移行条件が設定されており、第1移行条件が成立すると仮想キャラクタのアクションはアクションA21へ移行し、第2移行条件が成立すると仮想キャラクタのアクションはアクションA22へ移行し、第3移行条件が成立すると仮想キャラクタのアクションはアクションA23へ移行する。第1移行条件、第2移行条件、及び第3移行条件のうちの少なくとも一つは、仮想キャラクタのユーザキャラクタに対する好感度が所定の閾値以上であることであってもよい。   The action A11 is defined as a branchable action. Specifically, the action A11 branches into an action A21, an action A22, and an action A23. For example, action A11 is set with a first transition condition for transition to action A21, a second transition condition for transition to action A22, and a third transition condition for transition to action A23. When the first transition condition is satisfied, the virtual character action moves to action A21, when the second transition condition is satisfied, the virtual character action moves to action A22, and when the third transition condition is satisfied, the virtual character action moves to action A23. Transition. At least one of the first transition condition, the second transition condition, and the third transition condition may be that the positivity of the virtual character with respect to the user character is equal to or greater than a predetermined threshold.

第1移行条件、第2移行条件、及び第3移行条件として様々な条件が設定され得る。例えば、第1移行条件、第2移行条件、及び第3移行条件は、アクションA11として規定されていたアクションが終了したこと、プレイヤ5が仮想キャラクタに対して所定のアクション(例えば、仮想キャラクタの所定部位の注視)を行ったこと、プレイヤ5が仮想キャラクタからの質問に回答すること、を含んでもよい。第1移行条件、第2移行条件、及び第3移行条件は、互いに異なっている。プレイヤ5は、うなずく動き、首を横に振る動き、又はこれら以外の頭部の動きによって、仮想キャラクタからの質問に回答することができる。具体的には、仮想キャラクタから質問がなされたときに、プレイヤ5によって頭部の動きによるアクションがなされると、HMD10のセンサユニット25によって当該頭部の動きが検出され、この検出された頭部の動きに応じたプレイヤ5の回答が特定される。例えば、うなずく動きが検出されたときにはプレイヤ5は肯定的な回答を行ったと判断され、首を横に振る動きが検出されたときにはプレイヤ5は否定的な回答を行ったと判断されてもよい。また、仮想キャラクタからの質問の後にプレイヤ5の頭部の動きが所定時間検出されなかった場合、プレイヤ5は仮想キャラクタからの質問に対して回答しなかったと判断されてもよい。プレイヤ5のアクションは、アクション特定部21c3の機能により特定されてもよい。   Various conditions may be set as the first transition condition, the second transition condition, and the third transition condition. For example, the first transition condition, the second transition condition, and the third transition condition are that the action defined as the action A11 is completed, that the player 5 performs a predetermined action on the virtual character (for example, a predetermined virtual character). It may include that the part 5 is watched) and that the player 5 answers a question from the virtual character. The first transition condition, the second transition condition, and the third transition condition are different from each other. The player 5 can answer the question from the virtual character by a nod movement, a swaying head movement, or a head movement other than these. Specifically, when the player 5 makes an action by the movement of the head when a question is asked from the virtual character, the movement of the head is detected by the sensor unit 25 of the HMD 10, and the detected head is detected. The answer of the player 5 is specified according to the movement of the player. For example, it may be determined that the player 5 has made a positive answer when a nod motion has been detected, and that the player 5 has made a negative answer when a waving motion has been detected. Further, when the movement of the head of the player 5 is not detected for a predetermined time after the question from the virtual character, it may be determined that the player 5 did not answer the question from the virtual character. The action of the player 5 may be specified by the function of the action specifying unit 21c3.

アクションA21は、さらにアクションA31及びアクションA32に分岐している。アクションA21において所定の移行条件が成立した場合に、当該成立した移行条件に応じてアクションA21からアクションA31又はアクションA32への移行が行われる。アクションA22の下流には、アクションA33のみが対応付けられている。つまり、アクションA22は分岐していない。この場合、アクションA22が終了すると、アクションA33が開始される。アクションA23の下流には、より下層のアクションは設定されていない。図12に示されているアクションの構造は一例であり、各シーンで実現したいストーリーに応じて、当該シーンに含まれるアクションの種類や数及びそれらのアクションの構造は適宜設定され得る。   The action A21 further branches into an action A31 and an action A32. When a predetermined transition condition is established in action A21, the transition from action A21 to action A31 or action A32 is performed according to the established transition condition. Only the action A33 is associated with the downstream of the action A22. That is, the action A22 does not branch. In this case, when the action A22 ends, the action A33 starts. No lower layer action is set downstream of the action A23. The structure of the actions shown in FIG. 12 is an example, and depending on the story desired to be realized in each scene, the type and number of actions included in the scene and the structure of those actions can be set appropriately.

アクションA11,A21〜A23,A31〜A33の各々は、仮想キャラクタがプレイヤ5に所定の話題について話しかけるアクションであってもよい。アクションA11,A21〜A23,A31〜A33における仮想キャラクタのアクションは、開始シーンデータA1に基づいて定められ得る。開始シーンデータA1には、アクションA11,A21〜A23,A31〜A33の各々における仮想キャラクタのアクションを規定するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータが含まれている。例えば、アクションA11は、開始シーンデータA1のうち、アクションA11における仮想キャラクタのアクションを規定するデータ及びアクションA11において仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータを含んでいる。アクションA11は、開始シーンデータA1のうち、アクションA11に関するデータに基づいて実行される。   Each of the actions A11, A21 to A23, and A31 to A33 may be an action in which the virtual character talks to the player 5 about a predetermined topic. The actions of the virtual character in the actions A11, A21 to A23, A31 to A33 can be determined based on the start scene data A1. The start scene data A1 includes data that defines the action of the virtual character in each of the actions A11, A21 to A23, and A31 to A33, and data that the player can take with respect to the virtual character in the start scene. There is. For example, the action A11 includes, among the start scene data A1, data defining the action of the virtual character in the action A11 and data regarding an action that the player can take with respect to the virtual character in the action A11. The action A11 is executed based on the data regarding the action A11 in the start scene data A1.

開始シーンが、アクションA11→アクションA21→アクションA31の順で実行される場合には、仮想キャラクタは、アクションA11においてある話題について会話を行うためのアクションを行い、次にアクションA21において別の話題について会話を行うためのアクションを行い、次にアクションA31においてさらに別の話題について会話を行うためのアクションを行う。一つのアクションから他のアクションへの移行は、プレイヤ5に移行が感知されないように、シームレスに行われてもよい。   When the start scene is executed in the order of action A11 → action A21 → action A31, the virtual character performs an action for talking about a certain topic in action A11, and then performs another action in action A21. An action for performing a conversation is performed, and then, in action A31, an action for performing a conversation about another topic is performed. The transition from one action to another may be performed seamlessly so that the player 5 does not detect the transition.

アクションA11,A21〜A23,A31〜A33の各々が実行されている間、プレイヤ5は、仮想キャラクタの所定の部位を注視すること又はこれ以外の方法により、当該仮想キャラクタに対してアクションを行うことができる。このようなプレイヤ5の仮想キャラクタへのアクションに対して、仮想キャラクタは、開始シーンデータA1に基づいて定められるリアクションを取ることができる。このように、アクションA11,A21〜A23,A31〜A33の各々は、プレイヤ5のアクション及び開始シーンデータA1に基づいて実行される。   While each of the actions A11, A21 to A23, and A31 to A33 is being executed, the player 5 looks at a predetermined part of the virtual character or performs an action on the virtual character by another method. You can In response to such an action of the player 5 on the virtual character, the virtual character can take a reaction determined based on the start scene data A1. In this way, each of the actions A11, A21 to A23, A31 to A33 is executed based on the action of the player 5 and the start scene data A1.

アクションA11,A21〜A23,A31〜A33の各々の実行と並行して、中断判定も行われる。アクションA11,A21〜A23,A31〜A33の実行中におけるプレイヤ5のアクションにより、中断条件が満たされることがある。アクションA11,A21〜A23,A31〜A33のうちのいずれかのアクションの実行中に中断条件が満たされていると判定された場合には、その実行中のアクションを中断するための中断処理A41が行われる。この中断条件が満たされたか否かの判定は、例えば、中断判定部21c5によって行われる。   In parallel with the execution of each of the actions A11, A21 to A23, A31 to A33, the interruption determination is also performed. The interruption condition may be satisfied by the action of the player 5 during the execution of the actions A11, A21 to A23, and A31 to A33. When it is determined that the interruption condition is satisfied during the execution of any one of the actions A11, A21 to A23, and A31 to A33, the interruption process A41 for interrupting the action under execution is executed. Done. The determination of whether or not this interruption condition is satisfied is performed by, for example, the interruption determination unit 21c5.

アクションA11,A21〜A23,A31〜A33の各々は、メインアクションと、割込アクションと、復帰アクションと、を有する。図12に示されている例では、アクションA21が、メインアクションA211と、割込アクションA212と、復帰アクションA213と、を有している。アクションA21以外の各アクションも、同様に、メインアクションと、割込アクションと、復帰アクションと、含み得る。メインアクション、割込アクション、及び復帰アクションについて、以下では、アクションA21を例に説明する。   Each of the actions A11, A21 to A23, and A31 to A33 has a main action, an interrupt action, and a return action. In the example shown in FIG. 12, the action A21 has a main action A211, an interrupt action A212, and a return action A213. Similarly, each action other than the action A21 may include a main action, an interrupt action, and a return action. The main action, the interrupt action, and the return action will be described below by taking the action A21 as an example.

メインアクションA211は、ゲームの進行の基調となる仮想キャラクタの一連のアクションである。例えば、開始シーンが、プレイヤ5と仮想キャラクタとの間での会話を行うシーンである場合、このメインアクションA211は仮想キャラクタがプレイヤ5に対して一連の会話を行うというアクションである。   The main action A211 is a series of actions of the virtual character that is the basis of the progress of the game. For example, when the start scene is a scene in which the player 5 and the virtual character have a conversation, this main action A211 is an action in which the virtual character makes a series of conversations with the player 5.

割込アクションA212は、メインアクションA211の実行中にプレイヤ5が仮想キャラクタに対して特定アクションを行った場合に、当該メインアクションA211を一時中断して実行される仮想キャラクタのアクションである。本明細書においては、メインアクションの実行中にプレイヤ5によって行われるアクションを特定アクションと呼ぶことがある。割込アクションA212は、プレイヤ5の特定アクションに対するリアクションであってもよい。例えば、特定アクションが仮想キャラクタの頭部に触れるというアクションである場合には、割込アクションA212は、それに対して驚いた動きをするというアクションであってもよい。特定アクションが行われたことによって中断条件が成立する場合には、割込アクションA212ではなく中断処理A41が行われる。   The interrupt action A212 is an action of the virtual character that is executed by temporarily suspending the main action A211 when the player 5 performs a specific action on the virtual character during execution of the main action A211. In this specification, an action performed by the player 5 during execution of the main action may be referred to as a specific action. The interrupt action A212 may be a reaction to the specific action of the player 5. For example, when the specific action is an action of touching the head of the virtual character, the interrupt action A212 may be an action of making a surprised movement. When the interruption condition is satisfied by the execution of the specific action, the interruption process A41 is performed instead of the interruption action A212.

割込アクションA212が実行された後は、復帰アクションA213が行われ、その後にメインアクションA211に復帰する。復帰アクションA213は、メインアクションA211の会話へ自然に復帰するためのアクションである。割込アクションA212によってメインアクションA211の実行が一時中断されているため、割込アクションA212からメインアクションA211へ直接復帰するのではなく、復帰アクションA213を介在させることでメインアクションA211へより自然に復帰させることができる。
復帰アクションA213は、例えば、仮想キャラクタが「それでね」といった口語の接続詞を話すことである。メインアクションA211へ復帰する直前に口語の接続詞を話すことにより、メインアクションA211における会話へ自然に復帰することができる。メインアクションA211は、特定アクションにより中断された時点から再開される。
After the interrupt action A212 is executed, a return action A213 is performed, and then the main action A211 is returned to. The return action A213 is an action for naturally returning to the conversation of the main action A211. Since the execution of the main action A211 is temporarily suspended by the interrupt action A212, rather than returning directly from the interrupt action A212 to the main action A211, the return action A213 intervenes to return to the main action A211 more naturally. Can be made.
The return action A 213 is, for example, that the virtual character speaks a colloquial conjunction such as “So de ne”. By speaking a conjunction in spoken language just before returning to the main action A211, it is possible to naturally return to the conversation in the main action A211. The main action A211 is restarted from the point when it was interrupted by the specific action.

上記のように、アクションA11,A21〜A23,A31〜A33の各々の実行と並行して中断判定も行われ、これらのアクションのうちのいずれかのアクションの実行中に中断条件が満たされていると判定された場合には、その実行中のアクションを中断するための中断処理A41が行われる。中断処理A41においては、実行中のメインアクションが中断される。また、中断処理A41においては、別のアクション、別のシーン、又は別のモードへ移行することをプレイヤ5に了知させるために、シーン間の移行時に表示されるシーン移行画面が表示されてもよい。シーン移行画面については後述する。   As described above, the interruption determination is also performed in parallel with the execution of each of the actions A11, A21 to A23, and A31 to A33, and the interruption condition is satisfied during the execution of any one of these actions. If it is determined that, the interruption process A41 for interrupting the action being executed is performed. In the interruption process A41, the main action being executed is interrupted. Further, in the interruption process A41, even if a scene transition screen displayed at the time of transition between scenes is displayed in order to notify the player 5 of another action, another scene, or another mode. Good. The scene transition screen will be described later.

一実施形態において、アクションA21について中断処理A41がなされた後に、中断されたアクションA21の下流にあるアクション(例えば、アクションA31)からゲームが再開されてもよい。例えば、アクションA21を中断する中断処理A41においてシーン移行画面が表示された後に、アクションA31が実行されてもよい。これにより、中断条件が満たされたアクションA21は、中断条件が満たされたと判定され中断処理A41が行われた後スキップされ、下流にある他のアクション(例えば、アクションA31)が開始される。   In one embodiment, after the interruption process A41 is performed for the action A21, the game may be restarted from the action (for example, the action A31) downstream of the interrupted action A21. For example, the action A31 may be executed after the scene transition screen is displayed in the interruption process A41 for interrupting the action A21. As a result, the action A21 satisfying the interruption condition is skipped after it is determined that the interruption condition is satisfied and the interruption process A41 is performed, and another downstream action (for example, the action A31) is started.

他の実施形態において、アクションA21について中断処理A41がなされた後に、シーン終了処理A51が実行されてもよい。つまり、中断条件が成立したと判定されたことに応じて、実行中のアクションA21を含む開始シーンを終了させる終了処理が行われてもよい。シーン終了処理A51においては、アクションA21が行われる開始シーンが終了され、VR処理はステップS42へ移行し、このステップS42において開始シーンの後段にある基本シーンを実行するための処理が開始される。   In another embodiment, the scene ending process A51 may be executed after the interruption process A41 is performed for the action A21. That is, the termination process of terminating the start scene including the action A21 being executed may be performed in response to the determination that the interruption condition is satisfied. In the scene end processing A51, the start scene in which the action A21 is performed is ended, the VR processing moves to step S42, and in this step S42, processing for executing the basic scene in the latter stage of the start scene is started.

さらに他の実施形態において、アクションA21について中断処理A41がなされた後に、VR終了処理A61が実行されてもよい。VR終了処理A61においては、VRモードを終了し、チャットモードへ移行するための処理が行われる。このVR終了処理A61は、後述するステップS48における終了処理と同じ処理である。   In still another embodiment, the VR end processing A61 may be executed after the interruption processing A41 for the action A21. In the VR end processing A61, processing for ending the VR mode and shifting to the chat mode is performed. This VR end processing A61 is the same processing as the end processing in step S48 described later.

中断処理A41が行われない場合(すなわち、開始シーンにおいて中断条件が満たされなかった場合)には、最下流のアクションであるアクションA31、アクションA32、アクションA33、又はアクションA23が終了すると、開始シーンは終了し、VR処理はステップS42へ移行する。   When the interruption process A41 is not performed (that is, when the interruption condition is not satisfied in the start scene), when the action A31, the action A32, the action A33, or the action A23, which is the most downstream action, ends, the start scene Ends, and the VR process proceeds to step S42.

ステップS42では、複数の候補の中から、実行されるべき基本シーンが選択される。実行されるべき基本シーンの選択は、第1シナリオのために準備されている基本シーンの複数の候補の中から、例えばパラメータデータ28dに応じて行われる。第1シナリオにおいては、図4の基本シーンデータB1〜B3に対応する3つの基本シーンが準備されている。一実施形態においては、この3つの基本シーンの中から、パラメータデータ28dとして記憶されている仮想キャラクタのプレイヤ5に対する好感度に基づいて、実行されるべき基本シーンが選択される。例えば、好感度が第1閾値以上である場合には、基本シーンデータB1に対応する基本シーンが選択され、好感度が第2閾値未満である場合には、基本シーンデータB3に対応する基本シーンが選択され、好感度が第2閾値以上で第1閾値未満である場合には、基本シーンデータB2に対応する基本シーンが選択される。基本シーンの選択は、上記以外の方法で行われても良い。例えば、基本シーンはランダムに選択されてもよい。基本シーンは、好感度が高いほど一部の基本シーン(例えば、基本シーンデータB1に対応する第1基本シーン)が選択される確率が高くなるように重み付けを行った上で、ランダムに選択されてもよい。基本シーンの選択方法は、本明細書で明示的に説明された方法には限定されない。基本シーンが選択されると、VR処理は、ステップS43に移行する。   In step S42, a basic scene to be executed is selected from a plurality of candidates. The selection of the basic scene to be executed is performed from a plurality of basic scene candidates prepared for the first scenario, for example, according to the parameter data 28d. In the first scenario, three basic scenes corresponding to the basic scene data B1 to B3 in FIG. 4 are prepared. In one embodiment, the basic scene to be executed is selected from the three basic scenes based on the likability of the virtual character stored as the parameter data 28d for the player 5. For example, when the positivity is equal to or higher than the first threshold, the basic scene corresponding to the basic scene data B1 is selected, and when the positivity is less than the second threshold, the basic scene corresponding to the basic scene data B3 is selected. Is selected and the favorable sensitivity is equal to or higher than the second threshold and lower than the first threshold, the basic scene corresponding to the basic scene data B2 is selected. The selection of the basic scene may be performed by a method other than the above. For example, the basic scenes may be randomly selected. The basic scenes are randomly selected after weighting such that the higher the likability, the higher the probability that some basic scenes (for example, the first basic scene corresponding to the basic scene data B1) will be selected. May be. The method of selecting a basic scene is not limited to the method explicitly described herein. When the basic scene is selected, the VR process proceeds to step S43.

ステップS43では、ステップS42で選択された基本シーンが実行される。具体的には、基本シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。基本シーンにおいては、仮想空間において仮想キャラクタが所定のアクションをおこなっても良い。基本シーンにおける仮想キャラクタのアクションは、開始シーンと同様に、分岐可能な一連のアクションとして規定されてもよい。基本シーンにおける分岐可能な一連のアクションは、図12に示されているデータ構造と同様のデータ構造を有していてもよい。開始シーンと同様に、基本シーンにおいても、アクションの実行と並行して中断判定が行われてもよい。この中断判定において中断条件が満たされたと判断されると、実行中のアクションを中断するための中断処理が行われる。この基本シーンにおける中断処理は、開始シーンにおける中断処理A41と同様の処理であってもよい。開始シーンと同様に、基本シーンにおける中断判定の後には、中断されたアクションよりも下流にあるアクションへの移行するための処理、基本シーンの終了処理、又はVRモードの終了処理が行われてもよい。基本シーンに関しては、移行条件が設定されている。基本シーンの最下流にあるアクションが終了すると、基本シーンは終了し、VR処理はステップS44へ移行する。   In step S43, the basic scene selected in step S42 is executed. Specifically, the image information of the virtual space according to the basic scene is generated, and the image corresponding to the image information is output to the display 24. In the basic scene, the virtual character may take a predetermined action in the virtual space. The action of the virtual character in the basic scene may be defined as a series of actions that can be branched, like the start scene. The series of actions that can be branched in the basic scene may have a data structure similar to the data structure shown in FIG. Similarly to the start scene, in the basic scene, the interruption determination may be performed in parallel with the execution of the action. When it is determined in this interruption determination that the interruption condition is satisfied, the interruption processing for interrupting the action being executed is performed. The interruption process in the basic scene may be the same as the interruption process A41 in the start scene. Similar to the start scene, after the interruption determination in the basic scene, even if processing for shifting to an action located downstream of the interrupted action, basic scene end processing, or VR mode end processing is performed. Good. Transition conditions are set for the basic scenes. When the action on the most downstream side of the basic scene ends, the basic scene ends, and the VR process proceeds to step S44.

ステップS44においては、ステップS43で実行された基本シーンについて設定されている追加シーン移行条件が成立したか否かが判定される。この判定は、ステップS43で実行された基本シーンに対応する基本シーンデータ(例えば、基本シーンデータB1)に含まれる追加シーン移行条件をストレージ27から読み出し、ステップS43で実行された基本シーンにおいて当該移行条件が成立したか否かが判定される。例えば、仮想空間にあるドアを表すオブジェクトを3秒以上注視することが移行条件である場合には、仮想空間内でのプレイヤ5の注視位置が当該ドアを表すオブジェクト上に位置する時間をカウントし、このカウントされた時間が3秒以上である場合に、移行条件が成立したと判定される。仮想空間内でのプレイヤ5の注視位置は、センサユニット25の検出情報に基づいてHMD10の向きを算出し、この算出したHMD10の向きに基づいて特定される。追加シーン移行条件は、基本シーンの実行時に、プレイヤ5に明示的に提示されてもよいし、提示されなくともよい。例えば、基本シーンにおいて、仮想キャラクタが、追加シーン移行条件に対応する台詞をプレイヤ5に語りかけてもよい。   In step S44, it is determined whether or not the additional scene transition condition set for the basic scene executed in step S43 is satisfied. In this determination, the additional scene transition condition included in the basic scene data (for example, basic scene data B1) corresponding to the basic scene executed in step S43 is read from the storage 27, and the transition is performed in the basic scene executed in step S43. It is determined whether the condition is satisfied. For example, when the transition condition is to gaze at an object representing a door in the virtual space for 3 seconds or more, the time when the gaze position of the player 5 in the virtual space is located on the object representing the door is counted. If the counted time is 3 seconds or more, it is determined that the transition condition is satisfied. The gaze position of the player 5 in the virtual space is calculated by calculating the orientation of the HMD 10 based on the detection information of the sensor unit 25, and is specified based on the calculated orientation of the HMD 10. The additional scene transition condition may or may not be explicitly presented to the player 5 when the basic scene is executed. For example, in the basic scene, the virtual character may speak the dialogue corresponding to the additional scene transition condition to the player 5.

移行条件が成立しなかったと判定された場合、VR処理はステップS45に移行し、移行条件が成立したと判定された場合、VR処理はステップS46に移行する。   If it is determined that the transition condition is not satisfied, the VR process proceeds to step S45, and if it is determined that the transition condition is satisfied, the VR process proceeds to step S46.

ステップS45においては、第1終了シーンが実行される。具体的には、第1終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。   In step S45, the first end scene is executed. Specifically, the image information of the virtual space according to the first end scene is generated, and the image corresponding to the image information is output to the display 24.

ステップS46においては、追加シーンが実行される。具体的には、第1終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。追加シーンにおける仮想キャラクタのアクションは、開始シーンと同様に、分岐可能な一連のアクションとして規定されてもよい。追加シーンにおける分岐可能な一連のアクションは、図12に示されているデータ構造と同様のデータ構造を有していてもよい。追加シーンの最下流にあるアクションが終了すると、追加シーンは終了し、VR処理はステップS47へ移行する。   In step S46, the additional scene is executed. Specifically, the image information of the virtual space according to the first end scene is generated, and the image corresponding to the image information is output to the display 24. The action of the virtual character in the additional scene may be defined as a series of actions that can be branched, similarly to the start scene. The series of actions that can be branched in the additional scene may have a data structure similar to the data structure shown in FIG. When the action on the most downstream side of the additional scene ends, the additional scene ends, and the VR process proceeds to step S47.

ステップS47においては、第2終了シーンが実行される。具体的には、第2終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。第2終了シーンにおいて表示される画像は第1終了シーンにおいて表示される画像と同じでもよいし異なっていてもよい。   In step S47, the second end scene is executed. Specifically, the image information of the virtual space according to the second end scene is generated, and the image corresponding to the image information is output to the display 24. The image displayed in the second end scene may be the same as or different from the image displayed in the first end scene.

開始シーン及び基本シーンと同様に、追加シーン、第1終了シーン、及び第2終了シーンにおいても、アクションの実行と並行して中断判定が行われてもよい。この中断判定において中断条件が満たされたと判断されると、実行中のアクションを中断するための中断処理が行われる。追加シーン、第1終了シーン、及び第2終了シーンにおける中断処理は、開始シーンにおける中断処理A41と同様の処理であってもよい。開始シーンと同様に、追加シーン、第1終了シーン、及び第2終了シーンにおける中断判定の後には、中断されたアクションよりも下流にあるアクションへの移行するための処理、実行中のシーンの終了処理、又はVRモードの終了処理が行われてもよい。   Similar to the start scene and the basic scene, in the additional scene, the first end scene, and the second end scene, the interruption determination may be performed in parallel with the execution of the action. When it is determined in this interruption determination that the interruption condition is satisfied, the interruption processing for interrupting the action being executed is performed. The interruption process in the additional scene, the first end scene, and the second end scene may be the same as the interruption process A41 in the start scene. Similar to the start scene, after the interruption determination in the additional scene, the first end scene, and the second end scene, the process for shifting to the action downstream of the interrupted action, the end of the scene being executed Processing or termination processing of the VR mode may be performed.

上記のVR処理において、シーン間の移行時には、シーン移行画面が生成され、当該シーン移行画面がディスプレイ24に表示されてもよい。シーン移行画面は、シーンが移行することをプレイヤ5に了知させることができる任意の画面である。例えば、シーン移行画面は、画像全体が黒一色で構成されるフェードアウト画面であってもよい。このフェードアウト画面は、開始シーンから基本シーンへの移行時(基本シーンにおけるVR画面の表示前)、基本シーンから第1終了シーンへの移行時(第1終了シーンにおけるVR画面の表示前)、基本シーンから追加シーンへの移行時(追加シーンにおけるVR画面の表示前)、及び追加シーンから第2終了シーンへの移行時(第2終了シーンにおけるVR画面の表示前)から選択される少なくとも一つの時点で表示され得る。   In the above VR processing, when transitioning between scenes, a scene transition screen may be generated and the scene transition screen may be displayed on the display 24. The scene transition screen is an arbitrary screen that allows the player 5 to know that the scene has transitioned. For example, the scene transition screen may be a fade-out screen in which the entire image is composed of only black. This fade-out screen is displayed at the time of transition from the start scene to the basic scene (before displaying the VR screen in the basic scene), when transitioning from the basic scene to the first end scene (before displaying the VR screen in the first ending scene). At least one selected at the time of transition from the scene to the additional scene (before displaying the VR screen in the additional scene) and at the transition from the additional scene to the second end scene (before displaying the VR screen in the second end scene) Can be displayed at a point in time.

VR画像90がディスプレイ24に表示されている間に、HMD10のセンサユニット25によってプレイヤ5の頭部の動きが検出されると、この検出された頭部の動きに基づいてプレイヤ5のアクションが特定される。そして、特定されたプレイヤ5のアクションに応じた仮想キャラクタの行動(リアクション)が決定され、この決定された行動を行う仮想キャラクタ画像91の画像情報が生成される。このようにして生成された画像情報は、ディスプレイ24に出力される。例えば、プレイヤ5のうなずく動作が検出されると、プレイヤ5のうなずくという動作へのリアクションを取る仮想キャラクタ画像91の画像情報が生成され、当該画像情報がディスプレイ24に表示される。このように、VRモードでは、仮想キャラクタの立体視画像を用いて、プレイヤ5と当該仮想キャラクタとの間でのインタラクションが実現される。   If the sensor unit 25 of the HMD 10 detects the movement of the head of the player 5 while the VR image 90 is displayed on the display 24, the action of the player 5 is identified based on the detected movement of the head. To be done. Then, the action (reaction) of the virtual character according to the specified action of the player 5 is determined, and the image information of the virtual character image 91 that performs the determined action is generated. The image information generated in this way is output to the display 24. For example, when the nod motion of the player 5 is detected, the image information of the virtual character image 91 that takes a reaction to the nod motion of the player 5 is generated, and the image information is displayed on the display 24. As described above, in the VR mode, the interaction between the player 5 and the virtual character is realized by using the stereoscopic image of the virtual character.

以上のステップS41,S43,S45〜S47においては、プレイヤ5のアクションに応じて、プレイヤ5について設定されているパラメータが増減されてもよい。パラメータの増減量又は増減率は、上記のように、プレイヤ5のアクションごとに定められているパラメータの変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)に基づいて定められてもよい。パラメータの変化量又は変化率が特定されると、この特定された好感度の変化量又は変化率に基づいて、パラメータデータ28dが更新される。   In the above steps S41, S43, S45 to S47, the parameter set for the player 5 may be increased or decreased according to the action of the player 5. The increase / decrease amount or the increase / decrease rate of the parameter is based on the change amount (for example, the increase amount or decrease amount) or the change rate (the increase rate or the decrease rate) of the parameter defined for each action of the player 5, as described above. May be set. When the change amount or change rate of the parameter is specified, the parameter data 28d is updated based on the specified change amount or change rate of the favorable sensitivity.

ステップS48では、VRモードの終了処理がなされる。この終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。   In step S48, the termination process of the VR mode is performed. This ending process may include displaying guidance on the display 24 to prompt the user to remove the information processing device 20 from the wearing tool 11, and displaying a login screen for the chat mode, which is the first mode. .

以上のVR処理は、VRモード実行部21cにより実行される。VRモード実行部21cは、単独で又は他の機能と適宜協働して、上記のVR処理を実行することができる。   The above VR processing is executed by the VR mode execution unit 21c. The VR mode execution unit 21c can execute the above-described VR processing alone or in cooperation with other functions as appropriate.

続いて、他の実施形態によるゲーム処理システムについて図13を参照して説明する。図13は、他の実施形態によるゲーム処理システム101を示すブロック図である。ゲーム処理システム101は、情報処理装置20、HMD110、及びHMD110を備えている。ゲーム処理システム101は、情報処理装置20をHMD110に取り付けることなくVRモードを提供できる点で、ゲーム処理システム1と異なっている。以下、ゲーム処理システム101について、ゲーム処理システム1と相違する点に着目して説明する。   Next, a game processing system according to another embodiment will be described with reference to FIG. FIG. 13 is a block diagram showing a game processing system 101 according to another embodiment. The game processing system 101 includes an information processing device 20, an HMD 110, and an HMD 110. The game processing system 101 is different from the game processing system 1 in that it can provide the VR mode without attaching the information processing device 20 to the HMD 110. The game processing system 101 will be described below, focusing on the differences from the game processing system 1.

HMD110と、情報処理装置20と、サーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。HMD110と情報処理装置20とは、ネットワーク40を介さずに、Bluetooth(登録商標)などの近距離無線方式に従って通信可能に接続されていてもよい。HMD110は、情報処理装置20が取り付けられなくともVRモードを提供可能な点で、ゲーム処理システム1のHMD10と異なっている。   The HMD 110, the information processing device 20, and the server 50 are communicably connected to each other via the network 40. The HMD 110 and the information processing device 20 may be communicatively connected to each other according to a short-range wireless system such as Bluetooth (registered trademark) without the network 40. The HMD 110 is different from the HMD 10 of the game processing system 1 in that the VR mode can be provided even if the information processing device 20 is not attached.

HMD110は、コンピュータプロセッサ121と、メモリ122と、通信I/F123と、ディスプレイ124と、センサユニット125と、集音装置126と、ストレージ127と、を備えている。コンピュータプロセッサ121、メモリ122、通信I/F123、ディスプレイ124、センサユニット125、集音装置126、及びストレージ127は、情報処理装置20のコンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27と同様に構成される。ただし、ディスプレイ124は、タッチパネルを備えなくともよい。   The HMD 110 includes a computer processor 121, a memory 122, a communication I / F 123, a display 124, a sensor unit 125, a sound collecting device 126, and a storage 127. The computer processor 121, the memory 122, the communication I / F 123, the display 124, the sensor unit 125, the sound collecting device 126, and the storage 127 are the computer processor 21, the memory 22, the communication I / F 23, the display 24, and the sensor of the information processing device 20. The unit 25, the sound collecting device 26, and the storage 27 have the same configuration. However, the display 124 does not have to include a touch panel.

チャットモード実行部21a、移行処理部21b、及びVRモード実行部21cの機能は、情報処理装置20とHMD110とで分担して担われる。具体的には、チャットモード実行部21aの機能は情報処理装置20において実現され、VRモード実行部21cの機能はHMD110において実現される。移行処理部21bの機能は、その一部が情報処理装置20で実現され、残部がHMD110において実現される。パラメータ管理部21dの機能は、情報処理装置20及びHMD110の両方で実現される。   The functions of the chat mode execution unit 21a, the transition processing unit 21b, and the VR mode execution unit 21c are shared by the information processing device 20 and the HMD 110. Specifically, the function of the chat mode execution unit 21a is realized in the information processing device 20, and the function of the VR mode execution unit 21c is realized in the HMD 110. A part of the function of the migration processing unit 21b is realized by the information processing device 20, and the rest is realized by the HMD 110. The function of the parameter management unit 21d is realized by both the information processing device 20 and the HMD 110.

画像データ28a、チャットデータ28b、シナリオデータ28c、パラメータデータ28d、中断条件データ28e、及びゲーム進行データ28fは、ストレージ27及びストレージ127の一方又は両方に記憶される。これらのデータは、ストレージ27及びストレージ127以外のストレージに記憶されてもよい。   The image data 28a, the chat data 28b, the scenario data 28c, the parameter data 28d, the interruption condition data 28e, and the game progress data 28f are stored in one or both of the storage 27 and the storage 127. These data may be stored in a storage other than the storage 27 and the storage 127.

ゲーム処理システム101においてゲームを開始するときには、プレイヤ5は、情報処理装置20を用いてチャットモードを開始する。このチャットモードの処理は、情報処理装置20のチャットモード実行部21aにより行われる。   When starting the game in the game processing system 101, the player 5 uses the information processing device 20 to start the chat mode. The chat mode processing is performed by the chat mode execution unit 21a of the information processing device 20.

チャットモードにおいてモード移行条件が成立し、移行開始オブジェクトが選択された場合には、VRモードへのモード移行処理が開始される。このモード移行処理において、ステップ移行処理部21bにより行われる。当該モード移行処理において、上記のステップS31に相当するガイダンスの表示は、情報処理装置20において行われる。例えば、HMD110を装着するように促すガイダンスが、情報処理装置20のディスプレイ24に表示される。他方、ステップS32に相当する移行オブジェクト86の表示及びこれ以後の処理は、HMD110において実行される。   When the mode transition condition is satisfied in the chat mode and the transition start object is selected, the mode transition process to the VR mode is started. In this mode transition processing, the step transition processing unit 21b performs it. In the mode transition process, the guidance corresponding to step S31 is displayed on the information processing device 20. For example, a guidance prompting the user to wear the HMD 110 is displayed on the display 24 of the information processing device 20. On the other hand, the display of the migration object 86 corresponding to step S32 and the subsequent processing are executed by the HMD 110.

VRモードが開始されたときには、当該VRモードの処理は、HMD110のVRモード実行部21cにより行われる。   When the VR mode is started, the VR mode processing is performed by the VR mode execution unit 21c of the HMD 110.

他の実施形態においては、ゲーム処理システム1又はゲーム処理システム101により、仮想キャラクタとのインタラクションを提供するゲーム以外のゲーム、例えば、ロールプレイイングゲーム、シューティングゲーム、及びこれらの以外の各種ゲームの処理が実行される。この他の実施形態におけるゲームは、複数のゲームシーンによってそのゲームシナリオが構成される。図14に、他の実施形態におけるゲームを構成する複数のシーンを模式的に示す。図14に示されているように、他の実施形態におけるゲームは、シーンB11,B21〜B23,B31〜35の9個のシーンを含む複数のシーンにより構成される。この複数のシーンの各々は、複数のシーンに分岐していてもよい。例えば、シーンB11は、シーンB21〜シーンB23の3つのシーンに分岐している。このゲームが実行される場合には、各分岐点において、プレイヤ5の選択、各種パラメータの値、及びこれら以外の各種条件に応じて、移行先のシーンが選択される。各シーンにおいては、予め、ストレージ27、ストレージ127、又はこれら以外のストレージに記憶されたコマンドセットに従ってゲームが進行される。各シーンのコマンドセットは、当該シーンにおいてプレイヤキャラクタが取り得る行動、当該シーンにおいてノンプレイヤキャラクタが取り得る行動、当該シーンにおいて表示されるオブジェクトの画像及び位置に関するデータ、及びこれら以外の当該シーンの実行に必要な情報を含む。当該実施形態において、中断条件データ28eは、VRモードで実行されているゲーム又はそのゲームにおいて実行されているシーンを中断する条件であるシーン中断条件を定めるデータを含んでもよい。シーン中断条件は、アクションを中断する条件である中断条件と同じであってもよい。   In another embodiment, the game processing system 1 or the game processing system 101 processes a game other than a game that provides an interaction with a virtual character, for example, a role playing game, a shooting game, and various games other than these. Is executed. In the game according to the other embodiment, the game scenario is composed of a plurality of game scenes. FIG. 14 schematically shows a plurality of scenes that form a game in another embodiment. As shown in FIG. 14, the game in another embodiment is composed of a plurality of scenes including nine scenes B11, B21 to B23, and B31 to 35. Each of the plurality of scenes may be branched into a plurality of scenes. For example, the scene B11 is branched into three scenes B21 to B23. When this game is executed, a transition destination scene is selected at each branch point according to the selection of the player 5, various parameter values, and various conditions other than these. In each scene, the game progresses according to a command set stored in the storage 27, the storage 127, or a storage other than these in advance. The command set of each scene includes actions that can be taken by the player character in the scene, actions that can be taken by the non-player character in the scene, data relating to images and positions of objects displayed in the scene, and execution of the other scenes. Contains the information needed for. In the embodiment, the interruption condition data 28e may include data that defines a scene interruption condition that is a condition for interrupting the game executed in the VR mode or the scene executed in the game. The scene interruption condition may be the same as the interruption condition that is the condition for interrupting the action.

シーン中断条件が成立したか否かの判定は、シーンB11,B21〜B23,B31〜35及びこれら以外のシーンの処理と並行しておこなわれてもよい。シーン中断条件の判定は、例えば、中断判定部21c5によって行われてもよい。あるシーンにおいてシーン中断条件が成立したと判定された場合には、当該シーンの処理を中断する中断処理が行われる。この中断処理の後に、中断されたシーンの下流にあるシーンからゲームが再開されてもよい。例えば、シーンB21が中断された場合には、その下流にあるシーンB31又はシーン32からゲームが再開されてもよい。あるシーンについて中断処理がなされた後に、VRモードを終了させるための処理を行ってもよい。また、シーンを中断する中断処理においては、別のシーン又は別のモードへ移行することをプレイヤ5に了知させるためにシーン移行画面が表示されてもよい。   The determination of whether or not the scene interruption condition is satisfied may be performed in parallel with the processing of the scenes B11, B21 to B23, B31 to 35 and other scenes. The determination of the scene interruption condition may be performed by, for example, the interruption determination unit 21c5. When it is determined that the scene interruption condition is satisfied in a certain scene, the interruption processing for interrupting the processing of the scene is performed. After this interruption process, the game may be restarted from a scene downstream of the interrupted scene. For example, when the scene B21 is interrupted, the game may be restarted from the scene B31 or the scene 32 located downstream of the scene B21. A process for ending the VR mode may be performed after the interruption process is performed for a certain scene. In addition, in the interruption process of interrupting a scene, a scene transition screen may be displayed to notify the player 5 of transition to another scene or another mode.

上記の実施形態によれば、以下の効果が得られる。上記のゲーム処理システム1,101によれば、所定のシーンにおける所定のアクション(例えば、開始シーンにおけるアクションA21)の実行中に中断条件が満たされると、当該アクションが中断される。このため、中断条件を満たした後のプレイヤのアクションに対する仮想キャラクタのリアクションを定めておく必要がなくなる。これにより、プレイヤのアクションに対する仮想キャラクタのアクションを規定するデータ又は各シーンのコマンドセットのデータ量(例えば、シナリオデータ28cのデータ量)の増加を抑制することができる。   According to the above embodiment, the following effects can be obtained. According to the game processing systems 1 and 101 described above, when the interruption condition is satisfied during execution of a predetermined action in a predetermined scene (for example, action A21 in the start scene), the action is interrupted. Therefore, it is not necessary to set the reaction of the virtual character with respect to the action of the player after the interruption condition is satisfied. Accordingly, it is possible to suppress an increase in the data defining the action of the virtual character with respect to the player's action or the data amount of the command set of each scene (for example, the data amount of the scenario data 28c).

また、上記のゲーム処理システム1,101によれば、アクション又はシーンを中断する際にシーン移行画面が表示されるので、アクション又はシーンを自然に中断することができる。   Further, according to the game processing systems 1 and 101 described above, since the scene transition screen is displayed when the action or scene is interrupted, the action or scene can be interrupted naturally.

現実世界では不適切とされるアクションを禁止アクションとすることにより、かかるアクションが仮想キャラクタになされた場合に、ゲームの実行を中断することができる。このような現実世界において不適切とされるアクションが行われた場合の仮想キャラクタの対応を予め定めておくことは困難である。他方、不適切とされるアクションに対して仮想キャラクタが通常のリアクションをとってしまうか又は何らリアクションを行わない設定とすると、かかる通常のリアクションは、現実世界において不適切とされるアクションに対するリアクションとしては不自然となる。上記のゲーム処理システム1,101によれば、現実世界では不適切とされるアクションがなされたときにゲームの実行を中断することにより、仮想キャラクタが不自然なリアクションを行う(または何らリアクションを取らない)ことを回避できる。これにより、仮想キャラクタとのコミュニケーションのリアリティを増加させることができる。   By setting an action that is inappropriate in the real world as a prohibited action, it is possible to suspend the execution of the game when the action is performed on the virtual character. It is difficult to predefine the correspondence of the virtual character when such an action that is inappropriate in the real world is performed. On the other hand, if the virtual character takes a normal reaction or does not perform any reaction to an inappropriate action, such a normal reaction is a reaction to an inappropriate action in the real world. Becomes unnatural. According to the game processing systems 1 and 101 described above, the virtual character performs an unnatural reaction (or takes any reaction) by interrupting the execution of the game when an action that is inappropriate in the real world is performed. No) can be avoided. This can increase the reality of communication with the virtual character.

本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、コンピュータプロセッサ21及びコンピュータプロセッサ121で実行される機能の一部又は全部は、発明の趣旨を逸脱しない限り、上記の実施形態では図示されていないコンピュータプロセッサにより実現されてもよい。例えば、ゲーム処理システム1及びゲーム処理システム101は、ゲーム処理プログラムの少なくとも一部を実行するゲーム機を備えてもよく、コンピュータプロセッサ21又はコンピュータプロセッサ121の処理によって実現される機能の一部は、当該ゲーム機における処理によって実現されてもよい。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the invention. For example, some or all of the functions executed by the computer processor 21 and the computer processor 121 may be realized by a computer processor not shown in the above embodiments without departing from the spirit of the invention. For example, the game processing system 1 and the game processing system 101 may include a game machine that executes at least a part of the game processing program, and a part of the functions realized by the processing of the computer processor 21 or the computer processor 121 is It may be realized by processing in the game machine.

本願発明の実施形態には、上記以外にも様々な装置、デバイス、及び電子部品を備えることができる。例えば、ゲーム処理システム1及びゲーム処理システム101は、情報処理装置20及びHMD10,110以外に、プレイヤ5の操作を受け付けるための操作機器を備えてもよい。ゲーム処理システム1及びゲーム処理システム101は、当該操作機器によってプレイヤ5の操作を検出し、当該検出した操作に応じてゲームの処理をおこなっても良い。   Embodiments of the present invention may include various devices, devices, and electronic components other than the above. For example, the game processing system 1 and the game processing system 101 may include an operation device for receiving the operation of the player 5, in addition to the information processing device 20 and the HMDs 10 and 110. The game processing system 1 and the game processing system 101 may detect the operation of the player 5 by the operation device and process the game in accordance with the detected operation.

本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。   In the processing procedure described in this specification, particularly in the processing procedure described with reference to the flowchart, some of the steps (steps) constituting the processing procedure are omitted, It is possible to add steps that are not explicitly shown and / or change the order of the steps, and a processing procedure in which such omissions, additions, and changes in order are made without departing from the spirit of the present invention. It is included in the scope of the invention.

1,101 ゲーム処理システム   1,101 Game processing system

Claims (10)

仮想キャラクタのアクションを特定するための複数のアクションデータ及びプレイヤが取ることができるプレイヤアクションを特定するためのプレイヤアクションデータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、前記複数のアクションデータに基づいて前記仮想キャラクタとのコミュニケーションを提供するゲームの処理を行うゲーム処理システムであって、
前記複数のアクションデータは、前記仮想キャラクタの一連のアクションで構成されるメインアクション及び前記メインアクションの途中で実行される割込アクションを含む第1アクションを規定する第1アクションデータと、第2アクションを規定する第2アクションデータと、を含み、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第1アクションデータに基づいて、前記第1アクションに含まれる前記メインアクションを前記仮想キャラクタに実行させ、
前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報及び前記プレイヤアクションデータに基づいて前記仮想キャラクタに対する前記プレイヤのプレイヤアクションを特定し、
特定された前記プレイヤのプレイヤアクションに基づいて中断条件が満たされたか否かの判定を行い、
前記中断条件が満たされたと判定された場合に、前記仮想キャラクタに、前記第1アクションの実行を中断させ、前記第2アクションデータに基づいて前記第2アクションを実行させ、前記第2アクションの実行後に前記第1アクションを再開させ
特定された前記プレイヤのプレイヤアクションが特定アクションに該当する場合に、前記特定アクションに対する前記割込アクションを前記仮想キャラクタに実行させ、前記割込アクションの実行後に前記メインアクションを再開させる、
ゲーム処理システム。
Comprising a storage that stores player action data for identifying a player actions that can be multiple action data and the player for specifying the actions of the virtual character takes one or a plurality of computer processors, wherein the plurality A game processing system for processing a game that provides communication with the virtual character based on action data of
The plurality of action data are first action data defining a first action including a main action composed of a series of actions of the virtual character and an interrupt action executed during the main action, and a second action. And a second action data defining
The one or more computer processors execute computer-readable instructions to:
Making the virtual character execute the main action included in the first action based on the first action data,
Identifying the player actions of the player with respect to the virtual character based on the detected information and the player action data detected by the mounted head-mounted display on the head of the player,
Based on the player action of the specified player, it is determined whether or not the interruption condition is satisfied,
When it is determined that the interruption condition is satisfied, the virtual character is caused to interrupt the execution of the first action, and the second action is executed based on the second action data . Do not restart the first action after execution,
When the player action of the identified player corresponds to a specific action, the virtual character is caused to execute the interrupt action for the specific action, and the main action is restarted after execution of the interrupt action.
Game processing system.
前記ゲームは、第1シーン及び第2シーンを有し、
前記第1アクションは、前記第1シーンにおいて実行され、
前記一又は複数のコンピュータプロセッサは、前記第1シーンから前記第2シーンへ移行する際にディスプレイに表示されるシーン移行画面を、前記中断条件が満たされた場合にも前記ディスプレイに表示させる、
請求項1に記載のゲーム処理システム。
The game has a first scene and a second scene,
The first action is performed in the first scene,
The one or more computer processors cause a scene transition screen displayed on the display when transitioning from the first scene to the second scene to be displayed on the display even when the interruption condition is satisfied.
The game processing system according to claim 1.
前記第1アクションは、前記割込アクションの実行後に行われる復帰アクションをさらに有する、
請求項1又は請求項2に記載のゲーム処理システム。
The first action further includes a return action performed after execution of the interrupt action,
The game processing system according to claim 1 or 2.
前記中断条件は、特定された前記プレイヤアクションが仮想空間内における注視位置の注視であって、前記注視位置が前記仮想空間内に設定された禁止領域上にあること、を含む、
請求項1から請求項3のいずれか1項に記載のゲーム処理システム。
The interruption condition is a gaze fixation position in the identified the player action virtual space, including, it is in the gaze position is the virtual set forbidden region in space,
The game processing system according to any one of claims 1 to 3 .
前記中断条件は、前記プレイヤが同じプレイヤアクションを所定回数以上繰り返したこと、を含む、
請求項1から請求項4のいずれか1項に記載のゲーム処理システム。
The interruption condition includes that the player repeats the same player action a predetermined number of times or more.
The game processing system according to any one of claims 1 to 4 .
前記中断条件は、前記プレイヤが前記仮想キャラクタの所定の部位に対するプレイヤアクションを所定回数以上行ったこと、を含む、
請求項1から請求項5のいずれか1項に記載のゲーム処理システム。
The interruption condition includes that the player has performed a player action for a predetermined part of the virtual character a predetermined number of times or more.
The game processing system according to any one of claims 1 to 5 .
前記中断条件は、前記プレイヤが禁止アクションに該当するプレイヤアクションを行ったこと、を含む、
請求項1から請求項6のいずれか1項に記載のゲーム処理システム。
The interruption condition includes that the player has performed a player action corresponding to a prohibited action,
The game processing system according to any one of claims 1 to 6 .
前記ストレージは、パラメータを記憶しており、
前記一又は複数のコンピュータプロセッサは、前記プレイヤのプレイヤアクションに応じて前記パラメータを更新し、
前記中断条件は、前記パラメータが所定の閾値以上であること、又は、所定の閾値以下であることを含む、
請求項1から請求項7のいずれか1項に記載のゲーム処理システム。
Wherein the storage stores a parameter,
The one or more computer processors update the parameters according to a player action of the player ,
The interruption condition includes that the parameter is equal to or greater than a predetermined threshold value, or is equal to or less than a predetermined threshold value ,
The game processing system according to any one of claims 1 to 7 .
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより仮想キャラクタのアクションを特定するための複数のアクションデータ及びプレイヤが取ることができるプレイヤアクションを特定するためのプレイヤアクションデータに基づいて仮想キャラクタとのコミュニケーションを提供するゲームの処理を行うゲーム処理方法であって、
前記複数のアクションデータは、前記仮想キャラクタの一連のアクションで構成されるメインアクション及び前記メインアクションの途中で実行される割込アクションを含む第1アクションを特定する第1アクションデータと、第2アクションを特定する第2アクションデータと、を含み、
前記第1アクションデータに基づいて、前記第1アクションに含まれる前記メインアクションを前記仮想キャラクタに実行させる工程と、
前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報及び前記プレイヤアクションデータに基づいて前記仮想キャラクタに対する前記プレイヤのプレイヤアクションを特定する工程と、
特定された前記プレイヤのプレイヤアクションに基づいて中断条件が満たされたか否かの判定を行う工程と、
前記中断条件が満たされたと判定された場合に、前記仮想キャラクタに、前記第1アクションの実行を中断させ、前記第2アクションデータに基づいて第2アクションを実行させ、前記第2アクションの実行後に前記第1アクションを再開させない工程と、
特定された前記プレイヤのプレイヤアクションが特定アクションに該当する場合に、前記特定アクションに対する前記割込アクションを前記仮想キャラクタに実行させ、前記割込アクションの実行後に前記メインアクションを再開させる工程と、
を備えるゲーム処理方法。
Based on a plurality of action data for specifying an action of the virtual character by one or more computer processors executing computer-readable instructions and a player action data for specifying a player action that a player can take A game processing method for processing a game for providing communication with a virtual character,
The plurality of action data are first action data specifying a first action including a main action composed of a series of actions of the virtual character and an interrupt action executed during the main action, and a second action. And a second action data specifying
Causing the virtual character to execute the main action included in the first action based on the first action data;
Identifying a player actions of the player with respect to the virtual character based on the detected information and the player action data detected by the mounted head-mounted display on the head of the player,
Determining whether or not an interruption condition is satisfied based on the player action of the specified player,
When the interruption condition is determined to have been met, the virtual character, interrupt the execution of the first action, to execute the second action based on the second action data, execution of the second action A step of not restarting the first action later,
When the player action of the specified player corresponds to a specific action, causing the virtual character to execute the interrupt action for the specific action, and restarting the main action after the execution of the interrupt action,
A game processing method comprising:
一又は複数のコンピュータプロセッサに実行されることにより仮想キャラクタのアクションを特定するための複数のアクションデータ及びプレイヤが取ることができるプレイヤアクションを特定するためのプレイヤアクションデータに基づいて仮想キャラクタとのコミュニケーションを提供するゲームの処理を行うためのゲーム処理プログラムであって、
前記複数のアクションデータは、前記仮想キャラクタの一連のアクションで構成されるメインアクション及び前記メインアクションの途中で実行される割込アクションを含む第1アクションを特定する第1アクションデータと、第2アクションを特定する第2アクションデータと、を含み、
前記一又は複数のコンピュータプロセッサに、
前記第1アクションデータに基づいて、前記第1アクションに含まれる前記メインアクションを前記仮想キャラクタに実行させる工程と、
前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された検出情報及び前記プレイヤアクションデータに基づいて前記仮想キャラクタに対する前記プレイヤのプレイヤアクションを特定する工程と、
特定された前記プレイヤのプレイヤアクションに基づいて中断条件が満たされたか否かの判定を行う工程と、
前記中断条件が満たされたと判定された場合に、前記仮想キャラクタに、前記第1アクションの実行を中断させ、前記第2アクションデータに基づいて第2アクションを実行させ、前記第2アクションの実行後に前記第1アクションを再開させない工程と、
特定された前記プレイヤのプレイヤアクションが特定アクションに該当する場合に、前記特定アクションに対する前記割込アクションを前記仮想キャラクタに実行させ、前記割込アクションの実行後に前記メインアクションを再開させる工程と、
を実行させるゲーム処理プログラム。
Communication with a virtual character based on a plurality of action data for specifying an action of a virtual character and player action data for specifying a player action that a player can take by being executed by one or more computer processors. A game processing program for processing a game that provides
The plurality of action data are first action data specifying a first action including a main action composed of a series of actions of the virtual character and an interrupt action executed during the main action, and a second action. And a second action data specifying
The one or more computer processors,
Causing the virtual character to execute the main action included in the first action based on the first action data;
Identifying a player actions of the player with respect to the virtual character based on the detected information and the player action data detected by the mounted head-mounted display on the head of the player,
Determining whether or not an interruption condition is satisfied based on the player action of the specified player,
When the interruption condition is determined to have been met, the virtual character, interrupt the execution of the first action, to execute the second action based on the second action data, execution of the second action A step of not restarting the first action later,
When the player action of the specified player corresponds to a specific action, causing the virtual character to execute the interrupt action for the specific action, and restarting the main action after the execution of the interrupt action,
A game processing program for executing.
JP2018019004A 2018-02-06 2018-02-06 Game processing system, game processing method, and game processing program Active JP6691151B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018019004A JP6691151B2 (en) 2018-02-06 2018-02-06 Game processing system, game processing method, and game processing program
US16/268,728 US10981052B2 (en) 2018-02-06 2019-02-06 Game processing system, method of processing game, and storage medium storing program for processing game
EP19155826.1A EP3520868A1 (en) 2018-02-06 2019-02-06 Game processing system, method of processing game, and program for processing game
US16/863,227 US11110346B2 (en) 2018-02-06 2020-04-30 Game processing system, method of processing game, and storage medium storing program for processing game
US17/395,137 US11642590B2 (en) 2018-02-06 2021-08-05 Game processing system, method of processing game, and storage medium storing program for processing game
US18/128,846 US11998836B2 (en) 2018-02-06 2023-03-30 Game processing system, method of processing game, and storage medium storing program for processing game

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018019004A JP6691151B2 (en) 2018-02-06 2018-02-06 Game processing system, game processing method, and game processing program

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2018115088A Division JP7005435B2 (en) 2018-02-06 2018-06-18 Game processing system, game processing method, and game processing program
JP2018218066A Division JP6792604B2 (en) 2018-02-06 2018-11-21 Game processing system, game processing method, and game processing program

Publications (2)

Publication Number Publication Date
JP2019136068A JP2019136068A (en) 2019-08-22
JP6691151B2 true JP6691151B2 (en) 2020-04-28

Family

ID=67692332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018019004A Active JP6691151B2 (en) 2018-02-06 2018-02-06 Game processing system, game processing method, and game processing program

Country Status (1)

Country Link
JP (1) JP6691151B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111143004B (en) * 2019-12-25 2024-02-27 上海联影医疗科技股份有限公司 Scene guiding method and device, electronic equipment and storage medium
JP7466965B1 (en) 2023-08-17 2024-04-15 日昌電気制御株式会社 Task management system, task management method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6306442B2 (en) * 2014-06-09 2018-04-04 株式会社バンダイナムコエンターテインメント Program and game system
JP6691351B2 (en) * 2015-03-31 2020-04-28 株式会社バンダイナムコエンターテインメント Program and game system
JP6809830B2 (en) * 2016-07-13 2021-01-06 株式会社バンダイナムコエンターテインメント Programs and electronics

Also Published As

Publication number Publication date
JP2019136068A (en) 2019-08-22

Similar Documents

Publication Publication Date Title
US11998836B2 (en) Game processing system, method of processing game, and storage medium storing program for processing game
JP6908573B2 (en) Game processing system, game processing method, and game processing program
CN110115842B (en) Application processing system, application processing method, and application processing program
US20200330876A1 (en) Game processing system, method of processing game, and storage medium storing program for processing game
JP6691151B2 (en) Game processing system, game processing method, and game processing program
JP2023093647A (en) Game processing system, game processing method, and game processing program
JP2019136066A (en) Application processing system, application processing method, and application processing program
JP6792604B2 (en) Game processing system, game processing method, and game processing program
JP6775870B2 (en) Game processing system, game processing method, and game processing program
JP7005435B2 (en) Game processing system, game processing method, and game processing program
JP7227314B2 (en) Game processing system, game processing method, and game processing program
JP7148590B2 (en) Game processing system, game processing method, and game processing program
JP6850769B2 (en) Game processing system, game processing method, and game processing program
JP6855416B2 (en) Game processing system, game processing method, and game processing program
JP6815373B2 (en) Game processing system, game processing method, and game processing program
JP7211778B2 (en) Application processing system, application processing method, and application processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180206

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180604

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180821

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20181121

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20190604

C30 Protocol of an oral hearing

Free format text: JAPANESE INTERMEDIATE CODE: C30

Effective date: 20200117

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20200219

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200228

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200310

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20200408

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20200408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200409

R150 Certificate of patent or registration of utility model

Ref document number: 6691151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250