JP2023065435A - Game processing system, game processing method, and game processing program - Google Patents

Game processing system, game processing method, and game processing program Download PDF

Info

Publication number
JP2023065435A
JP2023065435A JP2023018671A JP2023018671A JP2023065435A JP 2023065435 A JP2023065435 A JP 2023065435A JP 2023018671 A JP2023018671 A JP 2023018671A JP 2023018671 A JP2023018671 A JP 2023018671A JP 2023065435 A JP2023065435 A JP 2023065435A
Authority
JP
Japan
Prior art keywords
mode
game
player
parameter
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023018671A
Other languages
Japanese (ja)
Inventor
貴志 桑谷
Takashi Kuwatani
誠 千田
Makoto Senda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018218087A external-priority patent/JP6908573B2/en
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2023018671A priority Critical patent/JP2023065435A/en
Publication of JP2023065435A publication Critical patent/JP2023065435A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technical improvement to solve or alleviate at least part of the conventional technical problem that since a player's visual field in a real world is blocked by the mounting of an HMD, the place and time that a VR game can be played are limited.
SOLUTION: A game processing system is a game processing system for executing processing of a game in a virtual space, which has a first mode and a second mode. One or a plurality of computer processors execute processing on a game according to first detection information on an action of a player detected by an information processing device not mounted on the head of the player in the first mode, update first mode parameters according to the progress of the game in the first mode, and update second mode parameters when the first mode parameters are updated.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本明細書における開示は、仮想キャラクタとのインタラクションを提供するゲームを処理するゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラムに関する。より具体的には、本明細書における開示は、ヘッドマウントディスプレイにより検出された検出情報に応じた仮想キャラクタとのインタラクションを提供可能なゲームを処理するゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラムに関する。 The disclosure herein relates to a game processing system, a game processing method, and a game processing program for processing a game that provides interaction with a virtual character. More specifically, the disclosure in this specification provides a game processing system, game processing method, and game processing program for processing a game capable of providing interaction with a virtual character according to information detected by a head-mounted display. Regarding.

仮想キャラクタとのインタラクションを提供するシミュレーションゲームが知られている。かかるシミュレーションゲームは、例えば、特開2012-055644号公報(特許文献1)に開示されている。 Simulation games are known that provide interaction with virtual characters. Such a simulation game is disclosed, for example, in Japanese Unexamined Patent Application Publication No. 2012-055644 (Patent Document 1).

このような仮想キャラクタとのインタラクションを提供するゲームにおいて、ゲームへの没入感を高めるために、ヘッドマウントディスプレイ(以下、「HMD」ということがある。)が利用されることがある。例えば、HMDに仮想空間を表示し、この仮想空間内に登場する仮想キャラクタとHMDを用いてインタラクションできるVRゲームが知られている。この種のVRゲームとして、株式会社バンダイナムコエンターテインメントの「サマーレッスン」が知られている(非特許文献1参照)。 In games that provide interaction with such virtual characters, a head-mounted display (hereinafter sometimes referred to as "HMD") is sometimes used in order to enhance the sense of immersion in the game. For example, a VR game is known in which a virtual space is displayed on an HMD, and a virtual character appearing in this virtual space can be interacted with using the HMD. As this type of VR game, "Summer Lesson" by BANDAI NAMCO Entertainment Inc. is known (see Non-Patent Document 1).

HMDは、特開2017-058969号公報(特許文献2)に記載されているように、プレイヤの頭部の位置や向きを検出するためのトラッキングセンサを備えている。HMDを用いてプレイするVRゲームでは、このトラッキングセンサにより検出された検出情報に基づいて仮想空間内における視点が定められ、このようにして定められた視点から見た仮想空間の画像がHMDに表示される。 The HMD includes a tracking sensor for detecting the position and orientation of the player's head, as described in Japanese Patent Laying-Open No. 2017-058969 (Patent Document 2). In a VR game played using an HMD, a viewpoint in the virtual space is determined based on the detection information detected by the tracking sensor, and an image of the virtual space seen from the thus determined viewpoint is displayed on the HMD. be done.

上記の「サマーレッスン」では、HMDのトラッキングセンサにより検出された検出情報に応じて、仮想キャラクタとのインタラクションを特定し、この特定されたインタクラクションをプレイヤに体験させる機能が実現されている。例えば、HMDに表示されている仮想キャラクタの画像の動きに応答して当該HMDを装着したプレイヤが頷くと、この頷きに対応するプレイヤの頭部の動きが検出される。そして、この検出された頭部の動きに基づいて、プレイヤが頷いたことに対応する動作を行う仮想キャラクタの画像がHMDに表示される。 In the above-mentioned "Summer Lesson", a function is realized in which an interaction with a virtual character is specified according to information detected by the tracking sensor of the HMD, and the player experiences this specified interaction. For example, when the player wearing the HMD nods in response to the movement of the image of the virtual character displayed on the HMD, the movement of the player's head corresponding to the nod is detected. Then, based on the detected movement of the head, an image of the virtual character performing an action corresponding to the nod of the player is displayed on the HMD.

このように、HMDを用いて仮想キャラクタとのインタラクションを行う従来のVRゲームでは、プレイヤの頭部の動きに追従するように仮想空間の画像が表示され、また、頭部の動きに応じた仮想キャラクタとのインタラクションが体験されるため、プレイヤは高い没入感を得られる。 As described above, in a conventional VR game in which an HMD is used to interact with a virtual character, an image of the virtual space is displayed so as to follow the movement of the player's head, and a virtual space image is displayed according to the movement of the player's head. Since the player experiences interaction with the character, the player can obtain a high sense of immersion.

特開2012-055644号公報JP 2012-055644 A 特開2017-058969号公報JP 2017-058969 A

“サマーレッスン”、[online]、平成29年12月12日検索、インターネット(URL:http://summer-lesson.bn-ent.net/)“Summer Lesson”, [online], searched on December 12, 2017, Internet (URL: http://summer-lesson.bn-ent.net/)

VRゲームをプレイするためには、HMDを頭部に装着する必要がある。HMDの装着によってプレイヤの現実世界での視界が遮られることから、VRゲームはプレイ可能な場所及び時間が限られる。 In order to play VR games, it is necessary to wear an HMD on the head. Wearing an HMD blocks the player's view of the real world, which limits the places and times when VR games can be played.

本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。 It is an object of the present disclosure to provide technical improvements that solve or alleviate at least some of the problems in the prior art discussed above.

一態様によるゲーム処理システムは、第1モード及び第2モードを有するゲームの処理を行うゲーム処理システムであり、前記ゲームに関するゲームパラメータを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備える。前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記第1モードにおいて、プレイヤの頭部に装着されていない情報処理装置により検出された第1検出情報に応じた仮想キャラクタとのインタラクションを提供し、前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された第2検出情報に応じた前記仮想キャラクタとのインタラクションを提供し、前記第1モード及び前記第2モードにおける前記ゲームの進行に応じて前記ゲームパラメータを更新する。 A game processing system according to one aspect is a game processing system that processes a game having a first mode and a second mode, and includes a storage that stores game parameters related to the game, and one or more computer processors. The one or more computer processors, by executing computer-readable instructions, generate a virtual machine according to first detection information detected by an information processing device not worn on the player's head in the first mode. providing interaction with a character, providing interaction with the virtual character according to second detection information detected by a head-mounted display mounted on the head of the player in the second mode; The game parameters are updated according to the progress of the game in the mode and the second mode.

一態様によるゲーム処理システムにおいて、前記第2モードにおける前記仮想キャラクタの行動は、前記ゲームパラメータに応じて定められる。 In the game processing system according to one aspect, the behavior of the virtual character in the second mode is determined according to the game parameters.

一態様によるゲーム処理システムにおいて、前記ストレージは、前記第2モードにおけるゲームシナリオを構成する複数のゲームシーンの各々に関連するシーンデータを記憶し、前記一又は複数のコンピュータプロセッサは、前記ゲームパラメータに応じて、前記複数のゲームシーンの中から前記第2モードにおいて実行される実行対象シーンを選択する。 In the game processing system according to one aspect, the storage stores scene data related to each of a plurality of game scenes forming a game scenario in the second mode, and the one or more computer processors store the game parameters as Accordingly, an execution target scene to be executed in the second mode is selected from among the plurality of game scenes.

一態様によるゲーム処理システムにおいて、前記一又は複数のコンピュータプロセッサは、前記第2モードが異常終了された場合に前記ゲームパラメータを更新する。 In a game processing system according to one aspect, the one or more computer processors update the game parameters when the second mode is abnormally terminated.

一態様によるゲーム処理システムにおいて、前記一又は複数のコンピュータプロセッサは、前記第1モードの終了時における前記ゲームパラメータの値と前記第2モードの開始時における前記ゲームパラメータの値とが等しくなるように、前記第1モードから前記第2モードへの移行処理を行う。 In the game processing system according to one aspect, the one or more computer processors are arranged so that the value of the game parameter at the end of the first mode is equal to the value of the game parameter at the start of the second mode. , the transition processing from the first mode to the second mode is performed.

一態様によるゲーム処理方法は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより第1モード及び第2モードを有するゲームの処理を行うゲーム処理方法であって、前記第1モードにおいて、プレイヤの頭部に装着されていない情報処理装置により検出された第1検出情報に応じた仮想キャラクタとのインタラクションを提供する工程と、前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された第2検出情報に応じた前記仮想キャラクタとのインタラクションを提供する工程と、前記第1モード及び前記第2モードにおける前記ゲームの進行に応じて前記ゲームに関するゲームパラメータを更新する工程と、を備える。 A game processing method according to one aspect is a game processing method for processing a game having a first mode and a second mode by one or more computer processors executing computer readable instructions, wherein the first mode a step of providing interaction with a virtual character according to first detection information detected by an information processing device not worn on the player's head; providing interaction with the virtual character according to second detection information detected by the head-mounted display; and updating.

一態様によるゲーム処理プログラムは、一又は複数のコンピュータプロセッサに実行されることにより第1モード及び第2モードを有するゲームの処理を実行する。当該ゲーム処理プログラムは、前記一又は複数のコンピュータプロセッサに、前記第1モードにおいて、プレイヤの頭部に装着されていない情報処理装置により検出された第1検出情報に応じた仮想キャラクタとのインタラクションを提供する工程と、前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された第2検出情報に応じた前記仮想キャラクタとのインタラクションを提供する工程と、前記第1モード及び前記第2モードにおける前記ゲームの進行に応じて前記ゲームに関するゲームパラメータを更新する工程と、を実行させる。 A game processing program according to one aspect executes game processing having a first mode and a second mode by being executed by one or more computer processors. The game processing program causes the one or more computer processors to interact with a virtual character according to first detection information detected by an information processing device not worn on the player's head in the first mode. providing, in the second mode, providing interaction with the virtual character according to second detection information detected by a head-mounted display mounted on the player's head; and updating game parameters relating to the game according to the progress of the game in the second mode.

本開示の一態様によれば、HMDが使用できない場合には、第1モードでゲームをプレイすることができる。 According to one aspect of the present disclosure, the game can be played in the first mode when the HMD cannot be used.

一実施形態によるゲーム処理システムを示すブロック図である。1 is a block diagram illustrating a game processing system according to one embodiment; FIG. 図1のゲーム処理システムにおいて利用可能なヘッドマウントディスプレイを示す模式図である。2 is a schematic diagram showing a head-mounted display that can be used in the game processing system of FIG. 1; FIG. ゲームのプレイヤに装着されたヘッドマウントディスプレイを模式的に示す図である。FIG. 4 is a diagram schematically showing a head-mounted display worn by a game player; シナリオデータを模式的に示す図である。FIG. 4 is a diagram schematically showing scenario data; 一実施形態によるゲーム処理システムにより処理されるゲームのモード移行を説明する図である。FIG. 4 is a diagram illustrating mode transitions of a game processed by the game processing system according to one embodiment; 一実施形態におけるチャットモードでの処理の流れを示すフロー図である。It is a flow figure showing a flow of processing in chat mode in one embodiment. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7aの画面には、プレイヤにより選択されるメッセージの選択肢が示されている。FIG. 10 is a diagram showing an example of a display image in chat mode in one embodiment; The screen of FIG. 7a shows message options to be selected by the player. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7bの画面には、プレイヤにより選択されたメッセージが示されている。FIG. 10 is a diagram showing an example of a display image in chat mode in one embodiment; The screen of Figure 7b shows the message selected by the player. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7cの画面には、VRモードへの移行を促すメッセージ、VRモードにおける設定を選択するためのメッセージ、及びVRモードにおいて使用されるアイテムを選択するためのメッセージが示されている。FIG. 10 is a diagram showing an example of a display image in chat mode in one embodiment; The screen of FIG. 7c shows a message prompting transition to VR mode, a message for selecting settings in VR mode, and a message for selecting items to be used in VR mode. 一実施形態におけるチャットモードでの表示画像の例を示す図である。図7dの画面には、移行開始オブジェクトが示されている。FIG. 10 is a diagram showing an example of a display image in chat mode in one embodiment; The screen of Figure 7d shows a transition start object. 一実施形態におけるモード移行処理の流れを示すフロー図である。It is a flow figure showing a flow of mode change processing in one embodiment. 一実施形態におけるモード移行処理での表示画像の例を示す図である。図9aの画面には、ディスプレイを装着具へ装着するように促すガイダンスが示されている。It is a figure which shows the example of the display image in the mode transition process in one embodiment. The screen of FIG. 9a shows guidance prompting to attach the display to the attachment. 一実施形態における移行処理での表示画像の例を示す図である。図9bの画面には、移行オブジェクトが示されている。FIG. 10 is a diagram showing an example of a display image in transition processing in one embodiment; The screen of Figure 9b shows a transition object. 一実施形態におけるVRモードでの処理の流れを示すフロー図である。FIG. 4 is a flow diagram showing the flow of processing in VR mode in one embodiment; 一実施形態におけるVRモードでの表示画像の例を示す図である。FIG. 4 is a diagram showing an example of a display image in VR mode in one embodiment; VRモードで実行されているシーンにおける仮想キャラクタのアクションの流れを模式的に示す図である。FIG. 4 is a diagram schematically showing the flow of actions of a virtual character in a scene being executed in VR mode; 他の実施形態によるゲーム処理システムを示すブロック図である。FIG. 4 is a block diagram showing a game processing system according to another embodiment; FIG.

以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。 Various embodiments of the present invention will now be described with appropriate reference to the drawings. Identical or similar components are provided with the same reference numerals in several drawings.

図1から図3を参照して、一実施形態によるゲーム処理システムについて説明する。図1は、一実施形態によるゲーム処理システム1を示すブロック図であり、図2は、ゲーム処理システム1において用いられるヘッドマウントディスプレイ10(以下、「HMD10」という。)の模式図であり、図3は、プレイヤ5に装着されたHMD10を模式的に示す図である。 A game processing system according to one embodiment will be described with reference to FIGS. FIG. 1 is a block diagram showing a game processing system 1 according to one embodiment, and FIG. 2 is a schematic diagram of a head-mounted display 10 (hereinafter referred to as "HMD 10") used in the game processing system 1. FIG. 3 is a diagram schematically showing the HMD 10 attached to the player 5. FIG.

一実施形態によるゲーム処理システム1は、一実施形態によるゲーム処理プログラムを実行することにより様々なゲームを実現する。プレイヤは、ゲームシステム1を利用して、各種ゲームをプレイすることができる。ゲーム処理システム1は、例えば、仮想空間において仮想キャラクタとプレイヤとがインタラクションを行うゲームを実現することができる。ゲーム処理システム1により実現されるゲームは、第1モードと第2モードとを有する。また、ゲーム処理システム1により実現されるゲームには、第2モードへ移行するための移行処理が含まれる。第1モード及び第2モードには、共通のゲーム媒体が用いられる。ゲーム媒体は、ゲームに使用される電子データであり、ユーザによってゲーム内で取得、所有、使用、管理、交換、合成、強化、売却、廃棄、又は贈与等され得る。例えば、カード、アイテム、仮想通貨、チケット、キャラクタ、アバタ、レベル情報、ステータス情報、及びパラメータ情報(体力値や攻撃力など)、能力情報、スキル、アビリティ、呪文、ジョブなど等、任意の媒体を含む。ゲーム媒体の利用態様は本明細書で明示されるものに限られない。第1モードの例はチャットモードであり、第2モードの例はVRモードである。第1モード及び第2モードについては後述される。 A game processing system 1 according to one embodiment realizes various games by executing a game processing program according to one embodiment. A player can use the game system 1 to play various games. The game processing system 1 can realize, for example, a game in which a virtual character and a player interact in a virtual space. A game realized by the game processing system 1 has a first mode and a second mode. Also, the game realized by the game processing system 1 includes transition processing for transitioning to the second mode. A common game medium is used for the first mode and the second mode. Game media is electronic data used in a game, and can be acquired, owned, used, managed, exchanged, synthesized, enhanced, sold, discarded, gifted, etc. by a user in the game. For example, any medium such as cards, items, virtual currency, tickets, characters, avatars, level information, status information, parameter information (physical strength, attack power, etc.), ability information, skills, abilities, spells, jobs, etc. include. The mode of use of the game media is not limited to what is specified in this specification. An example of the first mode is chat mode and an example of the second mode is VR mode. The first mode and second mode will be described later.

ゲーム処理システム1は、HMD10と、サーバ50と、を備える。HMD10とサーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。 A game processing system 1 includes an HMD 10 and a server 50 . The HMD 10 and the server 50 are connected via a network 40 so as to be able to communicate with each other.

HMD10は、図2に示されているように、人間の頭部に装着される装着具11と、この装着具11に取り付けられる情報処理装置20と、を備えている。 As shown in FIG. 2, the HMD 10 includes an attachment 11 to be worn on the head of a person, and an information processing device 20 attached to the attachment 11 .

装着具11は、開口11dが形成されたゴーグル型の筐体11aと、この筐体11aに取り付けられた第1ベルト11b及び第2ベルト11cと、蓋11eと、を有する。蓋11eは、筐体11aに開閉自在に取り付けられている。筐体11aの前方には開口11dが形成されている。図2においては、蓋11eは開放されている。HME10の使用時には、蓋11eは、開口11dを閉塞するように閉じられる。 The wearing tool 11 has a goggle-shaped housing 11a formed with an opening 11d, a first belt 11b and a second belt 11c attached to the housing 11a, and a lid 11e. The lid 11e is attached to the housing 11a so as to be openable and closable. An opening 11d is formed in front of the housing 11a. In FIG. 2, the lid 11e is open. When the HME 10 is in use, the lid 11e is closed to block the opening 11d.

情報処理装置20は、HMD10の蓋11eの内側に、着脱可能に設けられる。情報処理装置20は、ディスプレイ24を備えている。情報処理装置20は、蓋11eが閉じられたときに、ディスプレイ24が筐体11aの内側を向くように蓋11eに取り付けられる。情報処理装置20は、HMD10の使用時に装着具11に取り付けられる。情報処理装置20は、HMD10を使用しないときには、装着具11から取り外される。 The information processing device 20 is detachably provided inside the lid 11 e of the HMD 10 . The information processing device 20 has a display 24 . The information processing device 20 is attached to the lid 11e such that the display 24 faces the inside of the housing 11a when the lid 11e is closed. The information processing device 20 is attached to the wearing tool 11 when the HMD 10 is used. The information processing device 20 is removed from the wearing tool 11 when the HMD 10 is not used.

図示の実施形態において、情報処理装置20は、スマートフォンである。情報処理装置20は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の各種情報処理装置であってもよい。HMD10から取り外された情報処理装置20は、後述のように、第1モードにおいてプレイヤ5により操作される。HMD10から取り外された情報処理装置20は、ゲーム以外にも、その本来の目的に応じて通話やインターネットアクセスのために利用される。 In the illustrated embodiment, the information processing device 20 is a smart phone. The information processing device 20 may be a mobile phone, a tablet terminal, a personal computer, an electronic book reader, a wearable computer, a game console, or various information processing devices other than a smart phone. The information processing device 20 removed from the HMD 10 is operated by the player 5 in the first mode, as will be described later. The information processing device 20 detached from the HMD 10 is used not only for games but also for phone calls and Internet access according to its original purpose.

情報処理装置20は、上記のように、ディスプレイ24を備えている。図示の実施形態においては、情報処理装置20が装着具11に取り付けられたときに、ディスプレイ24がHMD10における画像表示のための装置として機能する。よって、HMD10を用いてゲームをプレイする場合には、ディスプレイ24に当該ゲームの仮想空間、仮想キャラクタ、及びこれら以外のゲームに関連する画像が表示される。 The information processing device 20 includes the display 24 as described above. In the illustrated embodiment, the display 24 functions as a device for displaying images on the HMD 10 when the information processing device 20 is attached to the wearing tool 11 . Therefore, when playing a game using the HMD 10, the display 24 displays the virtual space of the game, the virtual characters, and other images related to the game.

装着具11の形状は、図示されたゴーグル型に限られない。装着具11は、装着されたプレイヤの頭部の動きに追従して動き、装着されたときにディスプレイ24を装着者の眼前に配置できる任意の形状の構造体を含み得る。装着具11は、例えば眼鏡を模した形状、帽子を模した形状、又はヘルメットを模した形状であってもよい。プレイヤの没入感を向上させるために、HMD10は、装着具11がプレイヤの頭部に装着されたときに、ディスプレイ24が当該プレイヤの両目を覆うように構成されてもよい。 The shape of the wearing tool 11 is not limited to the illustrated goggle shape. The wearer 11 can include a structure of any shape that can follow the movement of the head of the player wearing it and can place the display 24 in front of the wearer's eyes when worn. The wearing tool 11 may have, for example, a shape that imitates glasses, a shape that imitates a hat, or a shape that imitates a helmet. In order to improve the player's sense of immersion, the HMD 10 may be configured such that the display 24 covers the player's eyes when the wearer 11 is worn on the player's head.

HMD10は、使用時において、図3に示されているように、装着具11を介してプレイヤ5の頭部に取り付けられる。プレイヤ5の頭部に装着されている装着具11には、情報処理装置20が取り付けられている。 When in use, the HMD 10 is attached to the head of the player 5 via the mounting tool 11, as shown in FIG. An information processing device 20 is attached to the wearing tool 11 worn on the head of the player 5 .

再び図1を参照して、情報処理装置20についてさらに説明する。図示のように、一実施形態において、情報処理装置20は、コンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27を備えている。 The information processing apparatus 20 will be further described with reference to FIG. 1 again. As illustrated, in one embodiment, the information processing device 20 includes a computer processor 21 , a memory 22 , a communication I/F 23 , a display 24 , a sensor unit 25 , a sound collector 26 and a storage 27 .

コンピュータプロセッサ21は、ストレージ27又はそれ以外のストレージからオペレーティングシステムやゲームロジックを実現する様々なプログラムをメモリ22にロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。プロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。 The computer processor 21 is an arithmetic device that loads various programs that implement an operating system and game logic from the storage 27 or other storage into the memory 22 and executes instructions contained in the loaded programs. The computer processor 21 is, for example, a CPU, MPU, DSP, GPU, various arithmetic units other than these, or a combination thereof. The processor 21 may be realized by integrated circuits such as ASIC, PLD, FPGA, and MCU. Although computer processor 21 is illustrated as a single component in FIG. 1, computer processor 21 may be a collection of a plurality of physically separate computer processors. In this specification, a program or instructions included in the program described as being executed by the computer processor 21 may be executed by a single computer processor, or may be executed by a plurality of computer processors in a distributed manner. good too. Also, the program executed by the computer processor 21 or the instructions contained in the program may be executed by multiple virtual computer processors.

メモリ22は、コンピュータプロセッサ21が実行する命令及びそれ以外の各種データを格納するために用いられる。一実施形態によるゲーム処理プログラムの少なくとも一部は、ゲームの進行に応じて、随時メモリ22にロードされる。メモリ22は、例えば、コンピュータプロセッサ21が高速にアクセス可能な主記憶装置(メインメモリ)である。メモリ22は、例えば、DRAMやSRAM等のRAMによって構成される。 The memory 22 is used to store instructions executed by the computer processor 21 and various other data. At least part of the game processing program according to one embodiment is loaded into the memory 22 at any time as the game progresses. The memory 22 is, for example, a main storage device (main memory) that can be accessed at high speed by the computer processor 21 . The memory 22 is composed of a RAM such as a DRAM or an SRAM, for example.

通信I/F23は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。情報処理装置20は、通信I/F23を介して、他の装置とデータを送受信することができる。 The communication I/F 23 is implemented as hardware, firmware, communication software such as a TCP/IP driver or PPP driver, or a combination thereof. The information processing device 20 can transmit and receive data to and from other devices via the communication I/F 23 .

ディスプレイ24は、表示パネル24aと、タッチパネル24bと、を有する。例えば、タッチパネル24bは、表示パネル24aの上面又は下面に積層されている。表示パネル24aは、液晶パネル、有機ELパネル、無機ELパネル、又はこれら以外の画像を表示可能な任意の表示パネルである。タッチパネル24bは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネル24bは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネル24bは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。 The display 24 has a display panel 24a and a touch panel 24b. For example, the touch panel 24b is laminated on the upper surface or the lower surface of the display panel 24a. The display panel 24a is a liquid crystal panel, an organic EL panel, an inorganic EL panel, or any other display panel capable of displaying an image. The touch panel 24b is configured to be able to detect a player's touch operation (contact operation). The touch panel 24b can detect various touch operations such as tapping, double tapping, and dragging by the player. The touch panel 24b may include a capacitive proximity sensor and be configured to detect non-contact operations by the player.

センサユニット25は、一又は複数のセンサを備える。センサユニット25は、例えば、ジャイロセンサ、加速度センサ、および地磁気センサのうち少なくとも1つのセンサを含む。センサユニット25は、プレイヤの眼球の動きを直接的に検出するアイトラッキングセンサを備えてもよい。アイトラッキングセンサは、例えば、虹彩内に近赤外光を入射しその反射光を検出する視線検出センサである。後述するように、センサユニット25により検出された検出情報に基づいて、HMD10を装着したプレイヤ5の頭部の位置及び向きが特定される。 The sensor unit 25 comprises one or more sensors. Sensor unit 25 includes, for example, at least one of a gyro sensor, an acceleration sensor, and a geomagnetic sensor. The sensor unit 25 may include an eye tracking sensor that directly detects the movement of the player's eyeballs. An eye tracking sensor is, for example, a line-of-sight sensor that receives near-infrared light into the iris and detects the reflected light. As will be described later, based on the detection information detected by the sensor unit 25, the position and orientation of the head of the player 5 wearing the HMD 10 are identified.

集音装置26は、音声を集音することができるように構成されている。集音装置26は、例えば、マイクロフォンである。集音装置26により集音された音声情報に基づいて、プレイヤ5の音声が検出される。 The sound collector 26 is configured to be able to collect sound. The sound collecting device 26 is, for example, a microphone. The voice of the player 5 is detected based on the voice information collected by the sound collector 26 .

ストレージ27は、コンピュータプロセッサ21によりアクセスされる外部記憶装置である。ストレージ27は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ27には、ゲーム処理プログラム等の様々なプログラムが記憶される。また、ストレージ27には、ゲームにおいて用いられる各種データも記憶される。ストレージ27に記憶され得るプログラム及び各種データの少なくとも一部は、情報処理装置20とは物理的に別体のストレージに格納されてもよい。 Storage 27 is an external storage device accessed by computer processor 21 . The storage 27 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various other storage devices capable of storing data. The storage 27 stores various programs such as a game processing program. The storage 27 also stores various data used in the game. At least part of the programs and various data that can be stored in the storage 27 may be stored in a storage that is physically separate from the information processing device 20 .

図示の実施形態において、ストレージ27には、画像データ28a、チャットデータ28b、シナリオデータ28c、パラメータデータ28d、ゲーム進行データ28e、及び前記以外のゲームの進行のために必要な様々なデータが記憶される。 In the illustrated embodiment, the storage 27 stores image data 28a, chat data 28b, scenario data 28c, parameter data 28d, game progress data 28e, and various other data necessary for the progress of the game. be.

画像データ28aには、ゲームの行われる仮想空間の背景を描画するためのデータ、仮想キャラクタを描画するためのデータ、及びゲームで用いられる仮想キャラクタ以外のオブジェクトを描画するためのデータが含まれる。画像データ28aには、仮想空間内におけるオブジェクトの位置情報を含んでもよい。 The image data 28a includes data for drawing the background of the virtual space in which the game is played, data for drawing virtual characters, and data for drawing objects other than the virtual characters used in the game. The image data 28a may include position information of the object in the virtual space.

チャットデータ28bには、仮想キャラクタのアイコンを描画するためのデータ、プレイヤ5のアイコンを描画するためのデータ、仮想キャラクタの複数のメッセージを特定するためのデータ、当該仮想キャラクタの複数のメッセージの各々に対する応答メッセージの選択肢を示すデータ、及びこれら以外のチャットモードで用いられるデータが含まれる。仮想キャラクタの複数のメッセージは、各メッセージに対応するノードを有し、当該ノード同士がアークで接続されたツリー構造で定義されてもよい。このツリー構造では、例えば、最上位のルートノードである開始メッセージから複数のアークが伸びており、各アークが下位ノードに接続される。この下位ノードからもアークが延び、当該アークがさらに下位のノードに接続される。下位ノードの各々は、開始メッセージよりも後に表示され得る仮想キャラクタのメッセージの候補に対応する。また、チャットデータ28bには、チャットモードからVRモードへの移行を開始する条件であるモード移行条件が含まれてもよい。モード移行条件には、例えば、ゲームがチャットモードで開始されてからの経過時間が所定時間以上であること、ツリー構造のメッセージにおいて末端のノードまでチャットが進行したこと、及びこれら以外の条件が含まれる。チャットデータ28bには、移行オブジェクトの選択が完了しなかった後に再開されたチャットモードで表示されるメッセージを示すデータが含まれてもよい。 The chat data 28b includes data for drawing the icon of the virtual character, data for drawing the icon of the player 5, data for specifying a plurality of messages of the virtual character, and each of the plurality of messages of the virtual character. and data used in other chat modes. A plurality of messages of the virtual character may be defined in a tree structure having nodes corresponding to each message and connecting the nodes with arcs. In this tree structure, for example, a plurality of arcs extend from the start message, which is the root node of the highest level, and each arc is connected to a lower node. Arcs also extend from this lower node, and the arcs are connected to further lower nodes. Each of the lower nodes corresponds to a candidate message of the virtual character that can be displayed after the starting message. Also, the chat data 28b may include a mode transition condition, which is a condition for starting transition from the chat mode to the VR mode. Mode transition conditions include, for example, that the elapsed time since the game was started in chat mode is equal to or longer than a predetermined time, that the chat has progressed to the terminal node in the message of the tree structure, and other conditions. be Chat data 28b may include data indicative of messages to be displayed in the resumed chat mode after incomplete selection of transition objects.

シナリオデータ28cには、ゲームの第2モード(例えば、VRモード)においてプレイヤ5によって体験されるシナリオを定義するデータが含まれる。ゲームにおいてプレイヤ5によって体験されるシナリオが複数ある場合、シナリオデータ28cは、複数のシナリオの各々についてシナリオデータを定義してもよい。 Scenario data 28c includes data defining the scenario experienced by player 5 in the second mode of the game (eg, VR mode). If there are multiple scenarios experienced by the player 5 in the game, the scenario data 28c may define scenario data for each of the multiple scenarios.

図4を参照して、一実施形態におけるゲーム処理システムにおいて用いられるシナリオデータについて説明する。図4は、ゲーム処理システム1において用いられるシナリオデータ28cを模式的に示す。シナリオデータ28cは、VRモードにおいて実行されるシナリオを規定するためのデータセットである。図示の実施形態において、シナリオデータ28cは、第1シナリオ~第5シナリオにそれぞれ対応する第1シナリオデータ28c1~第5シナリオデータ28c5を有する。VRモードにおけるシナリオは6つ以上であってもよく4つ以下であってもよい。以下では、第1シナリオに対応する第1シナリオデータ28c1のデータ構造について説明する。以下の第1シナリオデータ28c1に関する説明は、第2シナリオデータ28c2~第5シナリオデータ28c5にも当てはまる。 Scenario data used in the game processing system in one embodiment will be described with reference to FIG. FIG. 4 schematically shows scenario data 28c used in the game processing system 1. As shown in FIG. The scenario data 28c is a data set for defining a scenario to be executed in VR mode. In the illustrated embodiment, the scenario data 28c has first scenario data 28c1 to fifth scenario data 28c5 corresponding to the first to fifth scenarios, respectively. The number of scenarios in VR mode may be six or more, or four or less. The data structure of the first scenario data 28c1 corresponding to the first scenario will be described below. The following explanation regarding the first scenario data 28c1 also applies to the second scenario data 28c2 to the fifth scenario data 28c5.

図示の実施形態において、第1シナリオデータ28c1は、開始シーンデータA1と、基本シーンデータB1~B3と、追加シーンデータC1~C3と、終了シーンデータD1~D2と、を含んでいる。一実施形態において、開始シーンデータA1、基本シーンデータB1~B3、追加シーンデータC1~C3、及び終了シーンデータD1~D2に含まれるデータの各々は、各シーンにおける仮想キャラクタのアクションに関するデータ、各シーンで用いられる動画像に関するデータ、各シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の各シーンの実行に必要なデータを含み得る。 In the illustrated embodiment, the first scenario data 28c1 includes start scene data A1, basic scene data B1-B3, additional scene data C1-C3, and end scene data D1-D2. In one embodiment, each of the data included in the start scene data A1, the basic scene data B1-B3, the additional scene data C1-C3, and the end scene data D1-D2 is data relating to the action of the virtual character in each scene. Data related to moving images used in the scene, data related to actions that the player can take with respect to the virtual character in each scene, and other data necessary for execution of each scene can be included.

図示の実施形態において、開始シーンデータA1は、第1シナリオの開始後に実行される開始シーンにおける仮想キャラクタのアクションに関するデータ、開始シーンで用いる動画像に関するデータ、開始シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の開始シーンの実行に必要なデータを含み得る。 In the illustrated embodiment, the start scene data A1 includes data relating to the action of the virtual character in the start scene executed after the start of the first scenario, data relating to the moving image used in the start scene, and data relating to the virtual character in the start scene. It may contain data about actions that can be taken, and other data necessary to perform the opening scene.

基本シーンデータB1~B3は、開始シーンの後に行われる基本シーンにおける仮想キャラクタのアクションに関するデータ、基本シーンで用いる動画像に関するデータ、基本シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の基本シーンの実行に必要なデータを含み得る。基本シーンデータB1~B3の各々には、追加シーンへの移行可否を判定するための追加シーン移行条件を示す情報が含まれてもよい。追加シーン移行条件は、基本シーンごとに定められ得る。追加シーン移行条件は、例えば、所定のオブジェクトを所定時間以上注視すること、所定の方向を注視しないこと、及び所定のアクションを取ることである。これら以外にも追加シーン移行条件は、シナリオのストーリー、仮想空間に登場するオブジェクトの種類、及びこれら以外の要素に応じて適宜定められ得る。 The basic scene data B1 to B3 are data relating to the action of the virtual character in the basic scene performed after the start scene, data relating to the moving image used in the basic scene, and data relating to actions that the player can take with respect to the virtual character in the basic scene. , and other data necessary to perform the basic scene. Each of the basic scene data B1 to B3 may include information indicating additional scene transition conditions for determining whether or not to transition to an additional scene. Additional scene transition conditions may be defined for each basic scene. The additional scene transition conditions are, for example, gazing at a predetermined object for a predetermined time or longer, not gazing in a predetermined direction, and taking a predetermined action. In addition to these, the additional scene transition conditions can be appropriately determined according to the story of the scenario, the types of objects that appear in the virtual space, and other factors.

追加シーンデータC1~C3は、追加シーンにおける仮想キャラクタのアクションに関するデータ、追加シーンで用いる動画像に関するデータ、追加シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の追加シーンの実行に必要なデータを含み得る。追加シーンは、基本シーンの実行中又は実行後に追加シーン移行条件が成立したか否かを判定し、その判定結果に応じて実行される。 The additional scene data C1 to C3 are data related to actions of the virtual character in the additional scenes, data related to moving images used in the additional scenes, data related to actions that the player can take with respect to the virtual characters in the additional scenes, and other additions. It may contain data necessary for the execution of the scene. The additional scene is executed according to the result of determination whether or not the additional scene transition condition is satisfied during or after the execution of the basic scene.

終了シーンデータD1~D2は、第2モードの終了前に実行される終了シーンの実行に必要なデータを含み得る。終了シーンデータD1~D2は、終了シーンにおける仮想キャラクタのアクションに関するデータ、終了シーンで用いる動画像に関するデータ、終了シーンにおいて仮想キャラクタに対してプレイヤが取ることができるアクションに関するデータ、及びこれら以外の終了シーンの実行に必要なデータを含み得る。 The end scene data D1-D2 may include data necessary for execution of the end scene executed before the end of the second mode. The end scene data D1 and D2 are data related to actions of the virtual character in the end scene, data related to moving images used in the end scene, data related to actions that the player can take with respect to the virtual character in the end scene, and other end scenes. It may contain data necessary for the execution of the scene.

パラメータデータ28dには、ゲーム処理システム1において実現されるゲームに関するゲームパラメータが含まれる。このゲームパラメータは、プレイヤキャラクタに関するプレイヤキャラクタパラメータであってもよい。このプレイヤキャラクタパラメータには、ノンプレイヤーキャラクタである仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータが含まれてもよい。ゲームパラメータは、ゲームの進行に応じて随時更新される。プレイヤキャラクタに関するパラメータは、仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータには限られない。プレイヤキャラクタに関するパラメータは、ゲームの種類、性質、世界観又はこれら以外の要素に応じて適宜定められる。 The parameter data 28 d includes game parameters relating to the game implemented in the game processing system 1 . The game parameters may be player character parameters relating to the player character. This player character parameter may include a parameter representing the favorability of the virtual character, which is a non-player character, toward the user character. The game parameters are updated as needed as the game progresses. The parameters relating to the player character are not limited to parameters representing the favorable impression of the virtual character towards the user character. The parameters relating to the player character are appropriately determined according to the game type, nature, world view, or other factors.

ゲーム進行データ28eには、ゲームの進行の管理に用いられるデータが含まれる。ゲーム進行データ28eは、ゲームの進行に応じて更新されてもよい。ゲーム進行データ28eには、例えば、ゲームにおいてプレイヤが獲得したポイントに関するデータ、及びこれら以外のゲームの進行に応じて変化しえる各種データが含まれ得る。 The game progress data 28e includes data used for managing the progress of the game. The game progress data 28e may be updated as the game progresses. The game progress data 28e may include, for example, data relating to points earned by the player in the game, and various other data that may change according to the progress of the game.

図1に示されている情報処理装置20の構成要素及び機能は例示である。本発明に適用可能な情報処理装置20は、図示されていない様々な構成要素を備え得る。例えば、情報処理装置20は、ゲームの効果音や仮想キャラクタの音声を出力するスピーカを備えてもよい。 The components and functions of the information processing device 20 shown in FIG. 1 are exemplary. The information processing device 20 applicable to the present invention may include various components not shown. For example, the information processing device 20 may include a speaker that outputs game sound effects and virtual character voices.

続いて、HMD10の機能について説明する。図示の実施形態においては、情報処理装置20のコンピュータプロセッサ21においてコンピュータ読み取り可能な命令を実行することにより、HMD10の各種機能が実現される。コンピュータプロセッサ21において実行される命令には、一実施形態によるゲーム処理プログラムに含まれる命令が含まれる。 Next, functions of the HMD 10 will be described. In the illustrated embodiment, various functions of the HMD 10 are implemented by executing computer readable instructions in the computer processor 21 of the information processing device 20 . The instructions executed by computer processor 21 include instructions contained in a game processing program according to one embodiment.

コンピュータプロセッサ21によって一実施形態によるゲーム処理プログラムが実行されることにより、ゲーム処理システム1において第1モード及び当該第1モードとは異なる第2モードを有するゲームが実現される。ゲーム処理システム1において実現されるゲームは、第1モード及び第2モード以外のモードを有していてもよい。 A game having a first mode and a second mode different from the first mode is realized in the game processing system 1 by executing the game processing program according to one embodiment by the computer processor 21 . A game implemented in the game processing system 1 may have modes other than the first mode and the second mode.

ゲーム処理システム1において実現されるゲームの第1モードでは、HMD10がプレイヤ5に装着されていないときに、すなわち、情報処理装置20が装着具11から取り外されているときに、情報処理装置20により検出された第1検出情報に応じてゲームに関する処理が行われる。この第1検出情報には、情報処理装置20のタッチパネル24bにより検出されるプレイヤ5のタッチ操作に関する情報、集音装置26により検出されるプレイヤの音声に関する情報、及びHMD10がプレイヤ5に装着されていない場合に情報処理装置20において検出可能な前記以外の検出情報を含み得る。プレイヤ5は、第1モードにおいては、装着具11から取り外された情報処理装置20を用いてゲームに関する操作を行うことができる。第1モードにおいては、HMD10がプレイヤ5に装着されていないときにゲームを進行させることが想定されているため、ディスプレイ24には、立体視画像以外の画像が表示されてもよい。 In the first mode of the game realized in the game processing system 1, the information processing device 20 performs the A game-related process is performed according to the detected first detection information. The first detection information includes information about the touch operation of the player 5 detected by the touch panel 24b of the information processing device 20, information about the player's voice detected by the sound collector 26, and whether the HMD 10 is attached to the player 5. It may include detection information other than the above that can be detected by the information processing device 20 when it is not present. In the first mode, the player 5 can perform game-related operations using the information processing device 20 removed from the wearing tool 11 . In the first mode, it is assumed that the game progresses when the player 5 is not wearing the HMD 10 , so the display 24 may display an image other than the stereoscopic image.

ゲーム処理システム1において実現されるゲームの第2モードでは、プレイヤ5の頭部に装着されたHMD10によって検出される第2検出情報を用いてゲームが進行される。この第2検出情報は、例えば、センサユニット25によって検出される検出情報である。この第2検出情報に基づいて、プレイヤ5の頭部の向きを特定するためのヘッドトラッキング情報が算出される。ヘッドトラッキング情報は、プレイヤ5の頭部の向きに加えて、その位置を示す情報であってもよい。第2モードにおけるゲームの進行のための処理は、例えば、第2検出情報に基づいて算出されたヘッドトラッキング情報に基づいて実行される。第2モードにおけるゲームの進行のための処理は、ヘッドトラッキング情報に加えて、当該ヘッドトラッキング情報以外の情報も用いて実行されてもよい。プレイヤ5は、第2モードでゲームをプレイする準備として、情報処理装置20を装着具11に取付け、この情報処理装置20が取り付けられた装着具11を頭部に装着する。このように、第2モードにおいては、HMD10がプレイヤ5に装着されているときにゲームを進行させることが想定されているため、一実施形態において、第2モードでは、プレイヤ5によって立体視される立体視画像がディスプレイ24に表示される。立体視画像は、例えば、視差バリア方式によって、ディスプレイ24に表示される。視差バリア方式においては、左目用画像及び右目用画像がディスプレイ24に表示される。このように、立体視画像は、ディスプレイに表示されることによって、左右の目の視差を利用して立体視されるように構成された左目用画像及び右目用画像を含む画像のセットである。 In the second mode of the game realized by the game processing system 1, the game proceeds using the second detection information detected by the HMD 10 worn on the head of the player 5. FIG. This second detection information is, for example, detection information detected by the sensor unit 25 . Based on this second detection information, head tracking information for specifying the direction of the head of the player 5 is calculated. The head tracking information may be information indicating the position of the head of the player 5 in addition to the direction of the head. The processing for progressing the game in the second mode is executed based on, for example, head tracking information calculated based on the second detection information. The processing for progressing the game in the second mode may be executed using information other than the head tracking information in addition to the head tracking information. In preparation for playing the game in the second mode, the player 5 attaches the information processing device 20 to the wearing tool 11 and wears the wearing tool 11 to which the information processing device 20 is attached on the head. Thus, in the second mode, it is assumed that the game is progressed while the HMD 10 is worn by the player 5. Therefore, in one embodiment, in the second mode, the player 5 stereoscopically views the A stereoscopic image is displayed on the display 24 . A stereoscopic image is displayed on the display 24 by, for example, a parallax barrier method. In the parallax barrier method, a left-eye image and a right-eye image are displayed on the display 24 . Thus, a stereoscopic image is a set of images including a left-eye image and a right-eye image that are configured to be stereoscopically viewed using the parallax of the left and right eyes by being displayed on a display.

第1モードは、例えば、チャットモードである。チャットモードは第1モードの例示である。チャットモードにおいては、プレイヤが仮想キャラクタとテキストメッセージを介してチャットする機能が実現される。プレイヤは、第1モードにおいては、仮想キャラクタとチャットを行うことにより、当該仮想キャラクタとのインタラクションを体験することができる。チャットモードにおける処理の具体的な内容は後述される。インタラクションとは、広義には、プレイヤが実行したアクションに対して仮想キャラクタがリアクションすることを意味する。仮想キャラクタとのインタラクションには、仮想キャラクタとの会話などによるコミュニケーションとしてなされるインタラクションが含まれる。本明細書においては、仮想キャラクタとのコミュニケーションとして行われるインタラクションをコミュニケーティブインタラクションと呼ぶことがある。仮想キャラクタとのインタラクションには、コミュニケーティブインタラクションの他に、仮想キャラクタとの対戦、仮想キャラクタと協力してゲームをプレイする協力プレイ、及びこれら以外の仮想キャラクタとの相互作用が含まれ得る。本明細書においては、仮想キャラクタとの対戦として行われるインタラクションを対戦インタラクションと呼ぶことがある。本明細書においては、仮想キャラクタとの協力プレイとして行われるインタラクションを協力インタラクションと呼ぶことがある。 The first mode is, for example, chat mode. Chat mode is an example of the first mode. The chat mode implements the ability for the player to chat with the virtual character via text messages. In the first mode, the player can experience interaction with the virtual character by chatting with the virtual character. Specific contents of processing in the chat mode will be described later. Interaction, in a broad sense, means that a virtual character reacts to an action performed by a player. Interaction with a virtual character includes interaction made as communication such as conversation with a virtual character. In this specification, an interaction performed as communication with a virtual character is sometimes called a communicative interaction. Interactions with virtual characters can include, in addition to communicative interactions, battles with virtual characters, cooperative play in which a game is played in cooperation with virtual characters, and interactions with other virtual characters. In this specification, an interaction performed as a battle with a virtual character is sometimes referred to as a battle interaction. In this specification, an interaction performed as cooperative play with a virtual character may be referred to as a cooperative interaction.

第2モードは、例えば、VRモードである。VRモードにおいては、情報処理装置20のディスプレイに表示される仮想空間に登場するノンプレイヤーキャラクターである仮想キャラクタと様々なインタラクションを行うための機能が実現される。VRモードにおける処理の具体的な内容は後述される。VRモードは第2モードの例示であり、第2モードには、ヘッドトラッキング情報を用いてゲーム進行のための処理が行われる任意のゲームモードが含まれ得る。 The second mode is VR mode, for example. In the VR mode, functions for performing various interactions with a virtual character, which is a non-player character appearing in the virtual space displayed on the display of the information processing device 20, are implemented. Specific contents of processing in the VR mode will be described later. The VR mode is an example of the second mode, and the second mode may include any game mode in which processing for progressing the game is performed using head tracking information.

一実施形態において、ゲーム処理システム1で実現される第1モード及び第2モードを有するゲームは、仮想キャクタとコミュニケーティブインタラクション以外のインタラクションを行うゲームであってもよい。ゲーム処理システム1で実現されるゲームでは、コミュニケーティブインタラクションが行われなくともよい。一実施形態におけるゲームでは、第1モードでは2次元空間でプレイされ、第2モードでは3次元空間でプレイされる。一実施形態におけるゲームでは、第1モードでは3次元空間でプレイされ、第2モードでは当該第1モードの3次元空間とは異なる表示態様で表示される(又は当該第1モードの3次元空間とは異なる態様で構成される)3次元空間でプレイされる。一実施形態において、ゲーム処理システム1で実現されるゲームは、第1モード及び第2モードで共通のゲーム媒体を使用するものであってもよい。このゲーム媒体に関連付けられた媒体パラメータは、第1モードと第2モードとの間で引き継がれてもよい。例えば、第1モードでのプレイ中に特定のゲーム媒体の媒体パラメータが変更され、その後に第2モードへ移行した場合には、変更後の媒体パラメータが設定された当該特定のゲーム媒体が第2モードで用いられる。一実施形態において、特定のゲーム媒体の媒体パラメータは、第1モードから第2モードへの移行時及び第2モードから第1モードへの移行時の少なくとも一方において、変更されてもよい。このゲーム媒体の媒体パラメータの変更は、プレイヤ5にとってゲームの進行上有利となる変更であってもよいし、不利となる変更であってもよい。一実施形態において、第1モードでのプレイ結果が第2モードでのゲームに反映されてもよいし、第2モードでのプレイ結果が第1モードでのゲームに反映されてもよい。例えば、第1モードで獲得されたプレイヤ5の経験値が第2モードにおいて引き継がれてもよい。 In one embodiment, the game having the first mode and the second mode realized by the game processing system 1 may be a game in which interactions other than communicative interactions with virtual characters are performed. In the game realized by the game processing system 1, communicative interaction does not have to be performed. In one embodiment, the game is played in a two-dimensional space in a first mode and in a three-dimensional space in a second mode. In one embodiment, the game is played in a three-dimensional space in the first mode, and displayed in a display mode different from the three-dimensional space in the first mode in the second mode (or similar to the three-dimensional space in the first mode). are played in a three-dimensional space (configured in different ways). In one embodiment, the game realized by the game processing system 1 may use common game media in the first mode and the second mode. Media parameters associated with this game media may be carried over between the first mode and the second mode. For example, if the medium parameter of a specific game medium is changed during play in the first mode, and then the mode is shifted to the second mode, the specific game medium set with the changed medium parameter is transferred to the second mode. Used in mode. In one embodiment, medium parameters for a particular game medium may be changed during transitions from the first mode to the second mode and/or during transitions from the second mode to the first mode. This change in the medium parameter of the game medium may be a change that is advantageous for the player 5 in progressing the game, or a change that is disadvantageous. In one embodiment, the result of playing in the first mode may be reflected in the game in the second mode, and the result of playing in the second mode may be reflected in the game in the first mode. For example, the experience value of player 5 acquired in the first mode may be inherited in the second mode.

上記のとおり、ゲーム処理システム1において実現されるゲームの第1モードと第2モードとは互いから識別されるモードである。つまり、第1モードは第2モードと異なるモードである。一実施形態においては、ゲーム処理システム1において実現されるゲームが第1モードでプレイされる場合には、HMD10がプレイヤ5の頭部に装着されないのに対し、当該ゲームが第2モードでプレイされる場合には、HMD10がプレイヤ5の頭部の頭部に装着される。この場合、第1モードにおいては、プレイヤ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じてゲームの処理が行われ、第2モードにおいては、プレイヤ5の頭部に装着されたHMD10により検出された第2検出情報に応じてゲームの処理が行われる。 As described above, the first mode and the second mode of the game implemented in the game processing system 1 are modes that are distinguished from each other. That is, the first mode is a mode different from the second mode. In one embodiment, the HMD 10 is not worn on the head of the player 5 when the game realized in the game processing system 1 is played in the first mode, whereas the game is played in the second mode. In this case, the HMD 10 is attached to the head of the player 5 . In this case, in the first mode, the game is processed according to the first detection information detected by the information processing device 20 not worn on the head of the player 5, and in the second mode, the Game processing is performed according to the second detection information detected by the HMD 10 mounted on the head.

一実施形態において、第2モードでは、立体視画像がディスプレイ24に表示されるのに対し、第1モードでは上述したように立体視画像以外の画像がディスプレイ24に表示される。第2モードでは、ゲーム用の画像のうち少なくとも仮想キャラクタの画像が立体視画像として表示され、第1モードでは、仮想キャラクタの画像が立体視画像以外の画像として表示される。 In one embodiment, a stereoscopic image is displayed on the display 24 in the second mode, whereas an image other than the stereoscopic image is displayed on the display 24 in the first mode as described above. In the second mode, at least the virtual character image among the game images is displayed as a stereoscopic image, and in the first mode, the virtual character image is displayed as an image other than the stereoscopic image.

一実施形態において、第1モードにおいては第2検出情報に基づいて算出されるヘッドトラッキング情報を用いずにゲームを進行させる処理がなされるのに対して、第2モードにおいては当該ヘッドトラッキング情報に基づいてゲームを進行させる処理がなされる。 In one embodiment, in the first mode, processing is performed to progress the game without using head tracking information calculated based on the second detection information, whereas in the second mode, the head tracking information is not used. Based on this, processing for advancing the game is performed.

一実施形態において、第1モードにおいてはタッチパネル24bにより検出されるタッチ操作に応じてゲームを進行させる処理がなされるのに対して、第2モードにおいてはタッチパネル24bのタッチ操作に応じた処理はなされない。 In one embodiment, in the first mode, the game progresses according to the touch operation detected by the touch panel 24b, whereas in the second mode, there is no process according to the touch operation of the touch panel 24b. not.

一実施形態において、ゲーム処理システム1において実現されるゲームにおいて仮想キャラクタとのインタラクションが提供される場合には、第1モードにおいては、プレイヤ5の頭部に装着されていない情報処理装置20により検出された第1検出情報に応じた当該仮想キャラクタとのインタラクションが提供され、第2モードにおいては、プレイヤ5の頭部に装着されたHMD10により検出された第2検出情報に応じた当該仮想キャラクタとのインタラクションが提供される。 In one embodiment, when interaction with a virtual character is provided in a game realized by the game processing system 1, in the first mode, the information processing device 20 that is not worn on the head of the player 5 detects Interaction with the virtual character according to the detected first information is provided, and in the second mode, interaction with the virtual character according to the second detected information detected by the HMD 10 mounted on the head of the player 5 is provided. interaction is provided.

ゲームを開始した後には、上記のように区別される第1モードと第2モードとの間での移行が可能となる。図5を参照して、ゲーム処理システム1により処理されるゲームのモード移行の概略を説明する。図示のように、ステップS1においてゲームが開始されると、ステップS2において第1モードであるチャットモードS2が開始される。このチャットモードにおいて、第2モードであるVRモードへ移行するための移行処理が開始されると、ステップS3に移行し、第2モードへの移行処理が行われる。移行処理が完了すると、ステップS4において第2モードであるVRモードが開始される。VRモードが終了又は中断されると、チャットモードへの復帰処理が行われる。 After starting the game, it is possible to switch between the first mode and the second mode, which are distinguished as described above. With reference to FIG. 5, an outline of mode transition of the game processed by the game processing system 1 will be described. As shown in the figure, when the game is started in step S1, chat mode S2, which is the first mode, is started in step S2. In this chat mode, when transition processing for transitioning to the VR mode, which is the second mode, is started, the process proceeds to step S3, and transition processing to the second mode is performed. When the transition process is completed, the VR mode, which is the second mode, is started in step S4. When the VR mode ends or is interrupted, processing for returning to the chat mode is performed.

次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、ゲーム処理プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、チャットモード実行部21a、移行処理部21b、VRモード実行部21c、及びパラメータ管理部21dとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、ゲームシステム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サーバ50に搭載されているコンピュータプロセッサにより実現されてもよい。 Next, functions realized by the computer processor 21 will be described more specifically. The computer processor 21 functions as a chat mode execution unit 21a, a transition processing unit 21b, a VR mode execution unit 21c, and a parameter management unit 21d by executing computer-readable instructions included in the game processing program. At least part of the functions implemented by computer processor 21 may be implemented by a computer processor other than computer processor 21 of game system 1 . At least part of the functions implemented by the computer processor 21 may be implemented by a computer processor installed in the server 50, for example.

チャットモード実行部21aは、一実施形態によるゲーム処理プログラムを実行することにより、第1モードであるチャットモードでゲームを提供するための処理を行う。チャットモード実行部21aは、プレイヤ5と(又はプレイヤ5のキャラクタと)ノンプレイヤーキャラクタである仮想キャラクタとの間でチャットを行うための機能を実現する。チャットモード実行部21aは、チャットモードへのログイン後に、仮想キャラクタからのメッセージ及びプレイヤ5により入力又は選択されたメッセージをディスプレイ24に表示し、当該仮想キャラクタとプレイヤ5との間でチャットを行わせることができる。チャットモード実行部21aは、仮想キャラクタのメッセージに続けて、当該メッセージ対するプレイヤ5の応答に関する複数の選択肢をディスプレイ24に表示してもよい。当該複数の選択肢からプレイヤ5の操作に応じて一つの選択肢が選択され、この選択された選択肢に対応するメッセージが、ディスプレイ24にプレイヤ5のメッセージとして表示される。プレイヤ5は、タッチパネル24bへのタッチ操作により、表示された選択肢のうち所望のものを選択することができる。仮想キャラクタのメッセージ及び当該メッセージに対するプレイヤの選択肢は、ゲーム処理プログラムに従って、チャットデータ28bを参照して特定することができる。仮想キャラクタのメッセージは、当該仮想キャラクタの画像とともに表示されてもよく、プレイヤ5のメッセージには、当該プレイヤ5の画像とともに表示されてもよい。仮想キャラクタのメッセージは、第2モードであるVRモードへの移行を促すメッセージ、当該VRモードにおける設定をプレイヤ5に選択させるためのメッセージ、及びこれら以外の当該VRモードに関連づけられたメッセージが含まれていてもよい。 The chat mode execution unit 21a performs processing for providing a game in the chat mode, which is the first mode, by executing the game processing program according to one embodiment. The chat mode execution unit 21a implements a function for chatting between the player 5 (or the character of the player 5) and a virtual character that is a non-player character. After logging in to the chat mode, the chat mode execution unit 21a displays the message from the virtual character and the message input or selected by the player 5 on the display 24, and allows the virtual character and the player 5 to chat. be able to. The chat mode execution unit 21a may display on the display 24, following the message of the virtual character, a plurality of options regarding the player's 5 response to the message. One option is selected from the plurality of options according to the player's 5 operation, and a message corresponding to this selected option is displayed on the display 24 as the player's 5 message. The player 5 can select a desired one of the displayed options by performing a touch operation on the touch panel 24b. The virtual character's message and the player's options for the message can be specified by referring to the chat data 28b according to the game processing program. The message of the virtual character may be displayed together with the image of the virtual character, and the message of the player 5 may be displayed together with the image of the player 5 . The message of the virtual character includes a message prompting the transition to the VR mode, which is the second mode, a message for allowing the player 5 to select settings in the VR mode, and other messages associated with the VR mode. may be

チャットモードにおいては、チャットの進行に応じて、第2モードであるVRモードへの移行を開始するための移行開始オブジェクトが表示される。移行開始オブジェクトの表示は、ゲーム処理プログラムに従って、モード移行条件が成立したときに行われる。チャットモード実行部21aは、タッチパネル24b又はそれ以外のユーザインタフェースからの検出信号に基づいて移行開始オブジェクトが選択されたことを検知することができる。移行開始オブジェクトが選択されたことが検知されると、第2モードであるVRモードへの移行処理が開始される。 In the chat mode, a transition start object for starting transition to the VR mode, which is the second mode, is displayed according to the progress of the chat. The transition start object is displayed when the mode transition condition is satisfied according to the game processing program. The chat mode execution unit 21a can detect that a transition start object has been selected based on a detection signal from the touch panel 24b or other user interface. When it is detected that the transition start object has been selected, transition processing to the VR mode, which is the second mode, is started.

移行処理部21bは、第1モードから第2モードへ移行するための移行処理を行う。この移行処理には、情報処理装置20を装着具11へ装着するように促すガイダンスをディスプレイ24に表示すること、及び、プレイヤの注視によって選択可能な移行オブジェクトをディスプレイ24に表示させること、を含んでもよい。この移行オブジェクトを表示させた後、移行処理部21bは、センサユニット25又はそれ以外のセンサの検出信号を受信し、この検出信号に基づいて移行オブジェクトが注視によって選択されたか否かを判定することができる。この判定のために、移行処理部21bは、センサユニット25の検出信号に基づいてHMD10の位置及び向きを算出し、この算出されたHMD10の位置及び向きに基づいて、プレイヤ5の注視位置を特定する。注視位置の特定は、様々な公知の方法により行われ得る。例えば、アイトラッキングセンサの検出信号に基づいて注視位置を特定してもよい。移行処理部21bは、例えば、注視位置が移行開始オブジェクト上にある時間(注視時間)を計測し、この注視時間が所定時間に達したときに、移行開始オブジェクトの選択が完了したと判断する。移行処理部21bは、移行オブジェクトの選択が完了したと判断すると第2モードであるVRモードを開始させる。 The transition processing unit 21b performs transition processing for transitioning from the first mode to the second mode. This transition processing includes displaying on the display 24 guidance prompting the user to attach the information processing device 20 to the mounting tool 11, and causing the display 24 to display a transition object that can be selected by the player's gaze. It's okay. After displaying this transitional object, the transition processing unit 21b receives a detection signal from the sensor unit 25 or other sensors, and determines whether or not the transitional object has been selected by gaze based on this detection signal. can be done. For this determination, the transition processing unit 21b calculates the position and orientation of the HMD 10 based on the detection signal from the sensor unit 25, and specifies the gaze position of the player 5 based on the calculated position and orientation of the HMD 10. do. Identification of the gaze position can be performed by various known methods. For example, the gaze position may be specified based on the detection signal of an eye tracking sensor. The transition processing unit 21b measures, for example, the time the gaze position is on the transition start object (gazing time), and determines that the selection of the transition start object has been completed when the gaze time reaches a predetermined time. When the migration processing unit 21b determines that the selection of the migration object is completed, it starts the VR mode, which is the second mode.

VRモード実行部21cは、ゲーム処理プログラムに従って、仮想空間に仮想キャラクタの画像を表示し、この仮想キャラクタとプレイヤ5との間でのインタラクションを実現する。VRモード実行部21cは、プロセッサ21によって一実施形態におけるゲーム処理プログラムが実行されることにより、シーン選択部21c1、検出部21c2、アクション特定部21c3、及び画像生成部21c4として機能する。 The VR mode execution unit 21c displays an image of the virtual character in the virtual space according to the game processing program, and realizes interaction between the virtual character and the player 5. FIG. The VR mode execution unit 21c functions as a scene selection unit 21c1, a detection unit 21c2, an action identification unit 21c3, and an image generation unit 21c4 when the processor 21 executes the game processing program in one embodiment.

シーン選択部21c1は、シナリオデータ28c及び必要に応じてこれ以外の情報に基づいて、実行すべきゲームシーンを選択する。シーン選択部21c1は、VRモードへのログイン後に、開始シーンを選択する。シーン選択部21c1は、開始シーンが実行された後に、HMD10による検出情報、ストレージ27に記憶されている情報(例えば、パラメータデータ28d)、及び必要に応じてこれら以外の情報に基づいて、次に実行すべきシーンを選択する。 The scene selection section 21c1 selects a game scene to be executed based on the scenario data 28c and other information if necessary. The scene selection unit 21c1 selects a start scene after logging into the VR mode. After the execution of the start scene, the scene selection unit 21c1 performs the next operation based on information detected by the HMD 10, information stored in the storage 27 (for example, the parameter data 28d), and other information as necessary. Select the scene to run.

検出部21c2は、HMD10のセンサユニット25の検出信号に基づいてHMD10の向き及び位置の少なくとも一方を特定するためのヘッドトラッキング情報を算出する。ヘッドトラッキング情報は、HMDのHMD10の向き及び位置の少なくとも一方を示す情報である。ヘッドトラッキング情報は、センサユニット25による検出情報に基づいて特定される。具体的にはヘッドトラッキング情報は、頭部に装着されているHMD10の位置及び向きが、三次元直交座標系での位置および各軸回りの角度として算出される。この三次元直交座標系は、例えば、前後方向に沿ったロール軸、上下方向に沿ったヨー軸、左右方向に沿ったピッチ軸から成る直交座標系である。検出部21c2は、特定されたHMD10の位置及び向きの少なくとも一方に応じた仮想空間を構成し、この仮想空間を表示するための画像情報をディスプレイ24に出力する。検出部21c2は、例えば、HMD10の位置及び向きの少なくとも一方に基づいて注視方向又は注視位置を算出することができる。 The detection unit 21 c 2 calculates head tracking information for identifying at least one of the orientation and position of the HMD 10 based on the detection signal of the sensor unit 25 of the HMD 10 . The head tracking information is information indicating at least one of the orientation and position of the HMD 10 of the HMD. Head tracking information is identified based on information detected by the sensor unit 25 . Specifically, in the head tracking information, the position and orientation of the HMD 10 worn on the head are calculated as the position and angle around each axis in a three-dimensional orthogonal coordinate system. This three-dimensional orthogonal coordinate system is, for example, an orthogonal coordinate system composed of a roll axis along the front-rear direction, a yaw axis along the vertical direction, and a pitch axis along the left-right direction. The detection unit 21 c 2 configures a virtual space corresponding to at least one of the specified position and orientation of the HMD 10 and outputs image information for displaying this virtual space to the display 24 . The detection unit 21c2 can calculate the gaze direction or the gaze position based on at least one of the position and orientation of the HMD 10, for example.

アクション特定部21c3は、ヘッドトラッキング情報に基づいてプレイヤ5のHMD10を用いたアクションを特定する。また、アクション特定部21c3は、特定されたプレイヤ5のアクションに応じて仮想キャラクタの仮想空間内での行動(リアクション)を決定してもよい。HMD10を装着したプレイヤ5によるアクションには、うなずく、首を横に振る、又はこれら以外の頭部の動きを伴う動作、並びに視線の動きが含まれる。仮想キャラクタにリアクションを行わせるためのプレイヤ5のアクションには、視線を動かすことが含まれてもよい。このような視線の動きは、センサユニット25に含まれるアイトラッキングセンサによって検出され得る。 The action specifying unit 21c3 specifies an action using the HMD 10 of the player 5 based on the head tracking information. Also, the action specifying unit 21c3 may determine the action (reaction) of the virtual character in the virtual space according to the specified action of the player 5. FIG. Actions by the player 5 wearing the HMD 10 include nodding, shaking of the head, and other actions involving head movements, as well as movements of the line of sight. The action of player 5 to cause the virtual character to react may include moving the line of sight. Such eye movement can be detected by an eye tracking sensor included in sensor unit 25 .

画像生成部21c4は、仮想空間全体のうち検出部21c2により特定された注視位置又は注視方向を中心として画角等により定められる描画領域の画像情報を生成する。このようにして生成された画像情報に基づいて、ディスプレイ24に仮想空間の描画領域の画像が表示される。画像情報の生成には、例えば、ストレージ27に記憶された画像データ28a、シナリオデータ28c、パラメータデータ28d、ゲーム進行データ28e、及びこれら以外のデータが用いられ得る。描画領域に仮想キャラクタが存在する場合には、画像生成部21c4は、アクション特定部21c3により特定された動作を行う仮想キャラクタを含む仮想空間の画像情報を生成し、このようにして生成された画像情報は、立体視画像としてディスプレイ24に出力される。これにより、ディスプレイ24には、プレイヤ5のアクションに応じて決定された行動を行う仮想キャラクタの画像を含む仮想空間の画像が表示される。画像生成部21c4は、この仮想キャラクタの行動及び仮想空間の描画領域に対応する音声情報を生成してもよい。当該音声情報はHMD10が有するスピーカに出力される。 The image generation unit 21c4 generates image information of a rendering area defined by an angle of view and the like centering on the gaze position or gaze direction specified by the detection unit 21c2 in the entire virtual space. An image of the rendering area of the virtual space is displayed on the display 24 based on the image information generated in this manner. Image data 28a, scenario data 28c, parameter data 28d, game progress data 28e, and other data stored in the storage 27, for example, can be used to generate image information. When a virtual character exists in the drawing area, the image generating unit 21c4 generates image information of the virtual space including the virtual character performing the action specified by the action specifying unit 21c3, and displays the image thus created. The information is output to the display 24 as a stereoscopic image. As a result, the display 24 displays an image of the virtual space including an image of the virtual character performing the action determined according to the action of the player 5 . The image generator 21c4 may generate audio information corresponding to the action of the virtual character and the drawing area of the virtual space. The audio information is output to the speaker of the HMD 10 .

以上のように、VRモード実行部21cにより、ディスプレイ24には、仮想空間内で仮想キャラクタが動く画像が表示され、スピーカからは仮想キャラクタの動きに対応した音声が出力される。例えば、仮想キャラクタがプレイヤ5に話しかける場合には、仮想キャラクタの頭部及び口が動く動く画像がディスプレイ24に表示され、仮想キャラクタの発言に対応する音声がスピーカから出力される。一実施形態において、VRモード及びチャットモードの各々においてプレイヤ5とインタラクトする仮想キャラクタは、同じ仮想キャラクタである。例えば、VRモードに登場する仮想キャラクタとチャットモードに登場するキャラクタと同じ名前を有し、同一のキャラクタと認識できる程度の外観上の共通性を有する。ただし、VRモードにおいては仮想キャラクタの画像が立体視画像として表示されるのに対し、チャットモードにおいては仮想キャラクタの画像が立体視画像以外の画像として表示される点で、両モードにおける仮想キャラクタの画像は互いと相違している。しかし、このような表現形式の差異は、仮想キャラクタの同一性を妨げることはない。 As described above, the VR mode execution unit 21c displays an image in which the virtual character moves in the virtual space on the display 24, and outputs sound corresponding to the movement of the virtual character from the speaker. For example, when the virtual character speaks to the player 5, an image in which the head and mouth of the virtual character move is displayed on the display 24, and the sound corresponding to the speech of the virtual character is output from the speaker. In one embodiment, the virtual character that interacts with player 5 in each of VR mode and chat mode is the same virtual character. For example, a virtual character appearing in the VR mode and a character appearing in the chat mode have the same name, and have similarities in appearance to the extent that they can be recognized as the same character. However, while the virtual character image is displayed as a stereoscopic image in the VR mode, the virtual character image is displayed as an image other than the stereoscopic image in the chat mode. The images are different from each other. However, such a difference in representation does not prevent the identity of the virtual characters.

パラメータ管理部21dは、ゲームの進行に応じてパラメータデータ28dを更新する。パラメータ管理部21dは、ゲームが第1モードで提供されている場合には、当該第1モードにおけるゲームの進行に応じてパラメータデータ28dを更新し、ゲームが第2モードで提供されている場合には、当該第2モードにおけるゲームの進行に応じてパラメータデータ28dを更新する。 The parameter management unit 21d updates the parameter data 28d as the game progresses. The parameter management unit 21d updates the parameter data 28d according to the progress of the game in the first mode when the game is provided in the first mode, and updates the parameter data 28d when the game is provided in the second mode. updates the parameter data 28d according to the progress of the game in the second mode.

パラメータデータ28dに仮想キャラクタのユーザキャラクタに対する好感度を表すパラメータが含まれる場合には、パラメータ管理部21dは、第1モード及び第2モードにおけるプレイヤ5のアクションに応じて当該パラメータを増減させてもよい。第1モードがチャットモードである場合には、当該チャットモードにおいてプレイヤ5に提供されるメッセージの選択肢ごとに好感度の変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)が定められていてもよい。この場合、パラメータ管理部21dは、プレイヤ5によって選択された選択肢に応じて好感度の変化量又は変化率を特定し、この特定した好感度の変化量又は変化率に基づいてパラメータデータ28dを更新する。VRモードにおいては、プレイヤ5のアクションごとに好感度の変化量又は変化率が定められていてもよい。パラメータ管理部21dは、プレイヤ5のアクションに応じて好感度の変化量又は変化率を特定し、この特定した好感度の変化量又は変化率に基づいて、パラメータデータ28dを更新する。 When the parameter data 28d includes a parameter representing the virtual character's favorable impression of the user character, the parameter management unit 21d may increase or decrease the parameter according to the actions of the player 5 in the first mode and the second mode. good. When the first mode is the chat mode, the amount of change (for example, the amount of increase or decrease) or rate of change (rate of increase or decrease) of favorability for each choice of message provided to player 5 in the chat mode ) may be defined. In this case, the parameter management unit 21d specifies the amount of change or the rate of change in favorability according to the option selected by player 5, and updates the parameter data 28d based on the specified amount of change or rate of change in favorability. do. In the VR mode, the amount or rate of change in favorability may be determined for each action of player 5 . The parameter management unit 21d specifies the amount of change or rate of change in favorability according to the action of player 5, and updates the parameter data 28d based on the specified amount of change or rate of change in favorability.

第2モードがVRモードである場合には、当該VRモードにおいて、プレイヤ5のアクションについて禁止アクションが定められていてもよい。禁止アクションには、所定値以上の加速度で頭部を動かすこと、仮想空間内の禁止領域に視線を向けること、及び所定回数以上同じアクションを繰り返すことが含まれていてもよい。本明細書においては、プレイヤ5のアクションのうち、禁止アクション以外のアクションを正常アクションと呼ぶことがある。パラメータ管理部21dは、プレイヤ5によって禁止アクションが行われた場合には、好感度が減少するようにパラメータデータ28dを更新する。パラメータ管理部21dは、プレイヤ5によって正常アクションが取られた場合には、その正常アクションに応じて好感度が増加又は減少するようにパラメータデータ28dを更新する。 When the second mode is the VR mode, prohibited actions may be defined for actions of the player 5 in the VR mode. Prohibited actions may include moving the head with acceleration greater than or equal to a predetermined value, directing the line of sight to a prohibited area in the virtual space, and repeating the same action a predetermined number of times or more. In this specification, among actions of player 5, actions other than prohibited actions may be referred to as normal actions. The parameter management unit 21d updates the parameter data 28d so as to decrease the favorability when the player 5 performs the prohibited action. When the player 5 takes a normal action, the parameter management unit 21d updates the parameter data 28d so that the favorable rating increases or decreases according to the normal action.

VRモードでゲームが処理されているときに、VRモードにおいて準備されている終了シーンを経ることなく、VRモードが異常終了することがある。例えば、HMD10の電源がなくなる、システムプログラムの機能によりゲーム処理プログラムが強制的に終了させられる、などの要因でVRモードは異常終了し得る。VRモードが異常終了された場合、パラメータ管理部21dは、好感度が減少するようにパラメータデータ28dを更新する。 When a game is being processed in VR mode, the VR mode may end abnormally without going through the end scene prepared in VR mode. For example, the VR mode may be terminated abnormally due to factors such as loss of power to the HMD 10, forced termination of the game processing program by a function of the system program, or the like. When the VR mode is terminated abnormally, the parameter management unit 21d updates the parameter data 28d so as to decrease the favorability.

パラメータデータ28dに含まれるゲームパラメータは、第1モードから第2モードへの移行時及び第2モードから第1モードへの移行時の少なくとも一方において変更され、この変更を反映するようにパラメータデータ28dが更新されてもよい。このモード移行時におけるゲームパラメータの変更は、プレイヤ5にとってゲームの進行上有利となる変更であってもよいし、不利となる変更であってもよい。パラメータデータ28dに複数のゲームパラメータが含まれる場合には、第1モードから第2モードへの移行時及び第2モードから第1モードへの移行時の少なくとも一方において、当該複数のゲームパラメータのうちの一部のみが変更されてもよい。パラメータデータ28dに複数のゲームパラメータが含まれる場合には、当該複数のゲームパラメータの各々について変動量又は変動率が設定されており、第1モードから第2モードへの移行時及び第2モードから第1モードへの移行時の少なくとも一方において、各ゲームパラメータは、当該ゲームパラメータに設定されている変動量又は変動率に基づいて変更されてもよい。 The game parameters included in the parameter data 28d are changed during at least one of the transition from the first mode to the second mode and the transition from the second mode to the first mode, and the parameter data 28d are changed so as to reflect this change. may be updated. The change of the game parameter at the time of this mode transition may be a change that is advantageous for the player 5 in progressing the game, or a change that is disadvantageous. When a plurality of game parameters are included in the parameter data 28d, at least one of the plurality of game parameters at the time of transition from the first mode to the second mode and at the time of transition from the second mode to the first mode may be changed only in part. When a plurality of game parameters are included in the parameter data 28d, a variation amount or rate of variation is set for each of the plurality of game parameters, and when the first mode transitions to the second mode and from the second mode At least one of the transitions to the first mode, each game parameter may be changed based on the variation amount or variation rate set for the game parameter.

パラメータデータ28dには、第1モード及び第2モードで共用される共用パラメータが含まれ得る。プレイヤキャラクタパラメータが共用パラメータであってもよい。共用パラメータは、第1モードから第2モードへの移行時及び第2モードから第1モードへの移行時の少なくとも一方において変更されてもよいし変更されなくともよい。共用パラメータが変更されると、当該変更を反映するようにパラメータデータ28dが更新される。このモード移行時における共用パラメータの変更は、プレイヤ5にとってゲームの進行上有利となる変更であってもよいし、不利となる変更であってもよい。 Parameter data 28d may include shared parameters shared by the first and second modes. The player character parameters may be shared parameters. The shared parameter may or may not be changed during transition from the first mode to the second mode and/or during transition from the second mode to the first mode. When a shared parameter is changed, parameter data 28d is updated to reflect the change. The change of the common parameter at the time of this mode transition may be a change that is advantageous to the player 5 in progressing the game, or a change that is disadvantageous.

パラメータデータ28dには、第1モードで用いられるが第2モードでは用いられない第1モードパラメータ、及び、第2モードで用いられるが第1モードでは用いられない第2モードパラメータが含まれてもよい。第1モードパラメータ及び第2モードパラメータはいずれもゲームパラメータに含まれる。この第1モードパラメータと第2モードパラメータとは互いに関連づけられていてもよい。例えば、第1モードにおいて第1モードパラメータが変動すると、その第1モードパラメータの変動に応じて、当該第1モードパラメータに対応付けられた第2モードパラメータが変動してもよい。逆に、第2モードにおいて第2モードパラメータが変動すると、その第2モードパラメータの変動に応じて、当該第2モードパラメータに対応付けられた第1モードパラメータが変動してもよい。第1モードパラメータ及び第2モードパラメータが変動すると、その変動を反映するようにパラメータデータ28dが更新されてもよい。一実施形態において、第1モードパラメータの例は、第1モードで用いられる仮想キャラクタのユーザキャラクタに対する好感度(第1モード好感度)であり、第2モードパラメータの例は、第2モードで用いられる仮想キャラクタのユーザキャラクタに対する好感度(第2モード好感度)である。例えば、第1モードで第1モード好感度が上昇すると、それに応じて第2モード好感度が上昇する。他の実施形態において、第1モードパラメータの例は、第1モードで用いられる仮想キャラクタのユーザキャラクタに対する好感度(第1モード好感度)であり、第2モードパラメータの例は、第2モードで用いられる好感度以外のゲームパラメータ(例えば、プレイヤキャラクタの攻撃力)である。このように、第1モードパラメータと第2モードパラメータとは、同種のゲームパラメータであってもよいし、異種のゲームパラメータであってもよい。 The parameter data 28d may include a first mode parameter that is used in the first mode but not in the second mode and a second mode parameter that is used in the second mode but not in the first mode. good. Both the first mode parameters and the second mode parameters are included in the game parameters. The first mode parameter and the second mode parameter may be associated with each other. For example, when the first mode parameter fluctuates in the first mode, the second mode parameter associated with the first mode parameter may fluctuate according to the fluctuation of the first mode parameter. Conversely, when the second mode parameter fluctuates in the second mode, the first mode parameter associated with the second mode parameter may fluctuate in accordance with the fluctuation of the second mode parameter. As the first mode parameter and the second mode parameter change, the parameter data 28d may be updated to reflect the change. In one embodiment, an example of the first mode parameter is the likability of the virtual character used in the first mode toward the user character (first mode likability), and an example of the second mode parameter is the likability used in the second mode. This is the likability (second mode likability) of the virtual character to the user character. For example, when the first mode favorability increases in the first mode, the second mode favorability increases accordingly. In another embodiment, an example of the first mode parameter is the likability of the virtual character used in the first mode toward the user character (first mode likability), and an example of the second mode parameter is the It is a game parameter (for example, the attack power of the player character) other than the favorability used. In this way, the first mode parameter and the second mode parameter may be the same type of game parameters or different types of game parameters.

VRモード実行部21cは、終了条件が満たされるとVRモードを終了するための終了処理を行う。終了条件は、例えば、VRモードの開始から所定時間(例えば、1分)経過したこと、終了対象操作が検知されたこと、VRモードで実行されているシナリオに含まれる最後のイベントが終了したこと、及びこれら以外の条件である。終了条件が満たされたときに行われる終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。 The VR mode execution unit 21c performs termination processing for terminating the VR mode when the termination condition is satisfied. The end conditions are, for example, that a predetermined time (for example, one minute) has elapsed since the start of the VR mode, that an end target operation has been detected, and that the last event included in the scenario being executed in the VR mode has ended. , and other conditions. The termination process performed when the termination condition is satisfied includes displaying guidance on the display 24 prompting the user to remove the information processing device 20 from the wearing tool 11, and displaying a login screen for the chat mode, which is the first mode. Displaying may be included.

次に、図6及び図7a~図7dを参照して、チャットモードにおけるチャット処理について説明する。図6は、一実施形態におけるチャットモードでの処理の流れを示すフロー図であり、図7aから図7dは、チャットモードにおける表示画像の例を示す。チャットモードの開始時においては、HMD10はプレイヤ5の頭部に装着されておらず、また、情報処理装置20は装着具11から取り外されていることが想定されている。 Next, chat processing in the chat mode will be described with reference to FIGS. 6 and 7a to 7d. FIG. 6 is a flow diagram showing the flow of processing in chat mode in one embodiment, and FIGS. 7a to 7d show examples of display images in chat mode. It is assumed that the HMD 10 is not attached to the head of the player 5 and the information processing device 20 is removed from the attachment 11 when the chat mode is started.

ゲーム処理システム1において、上述したように、ゲームは、チャットモードで開始される。ステップS11では、チャットモードへログインするためのログイン画面が情報処理装置20のディスプレイ24に表示される。プレイヤ5によってログイン処理がなされると、当該チャット処理は、ステップS12に移行する。 In the game processing system 1, the game is started in chat mode as described above. In step S<b>11 , a login screen for logging into the chat mode is displayed on the display 24 of the information processing device 20 . When the player 5 performs the login process, the chat process proceeds to step S12.

ステップS12においては、プレイヤ5と仮想キャラクタとの間でメッセージが交換され、これにより両者の間でチャットが行われる。具体的には、チャットモードへのログイン後に、プレイヤ5と仮想キャラクタとの間で行われるチャットを表示するためのチャット表示画像が生成され、当該チャット表示画像がディスプレイ24に表示される。図7aは、ディスプレイ24に表示されるチャット表示画像の一例であるチャット表示画像70を示す。チャット表示画像70は、プレイヤ5に対応するアイコン73と、仮想キャラクタに対応するアイコン74と、プレイヤ5のメッセージ75aと、仮想キャラクタのメッセージ76a,76bと、を含むチャット表示領域71を含む。また、チャット表示画像70は、チャット表示領域71の上部に配されたメニュー領域72を含む。仮想キャラクタのメッセージ76a,76bは、ゲーム処理プログラムに従って、ストレージ72に記憶されているチャットデータ28b及びこれ以外のデータに基づいて特定される。例えば、仮想キャラクタのメッセージは、ツリー構造で定義されているチャットデータ28bを参照して、ルートノードにあるメッセージから順に表示される。ノードの分岐点においては、分岐条件に応じたノードが選択され、当該選択されたノードに対応するメッセージが表示される。 In step S12, messages are exchanged between the player 5 and the virtual character, whereby a chat is conducted between them. Specifically, after logging into the chat mode, a chat display image is generated for displaying a chat between the player 5 and the virtual character, and the chat display image is displayed on the display 24 . FIG. 7a shows a chat display image 70, which is an example of a chat display image displayed on the display 24. FIG. The chat display image 70 includes a chat display area 71 including an icon 73 corresponding to the player 5, an icon 74 corresponding to the virtual character, a message 75a from the player 5, and messages 76a and 76b from the virtual character. The chat display image 70 also includes a menu area 72 arranged above the chat display area 71 . The virtual character messages 76a and 76b are specified based on the chat data 28b and other data stored in the storage 72 according to the game processing program. For example, virtual character messages are displayed in order from the message at the root node with reference to the chat data 28b defined in the tree structure. At a node branch point, a node is selected according to the branch condition, and a message corresponding to the selected node is displayed.

ステップS12においては、プレイヤ5によって選択された選択肢に応じて、プレイヤ5について設定されているパラメータが増減されてもよい。パラメータの増減量又は増減率は、上記のように、メッセージの選択肢ごとに定められているパラメータの変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)に基づいて定められる。パラメータの変化量又は変化率が特定されると、この特定された好感度の変化量又は変化率に基づいて、パラメータデータ28dが更新される。 In step S<b>12 , the parameter set for player 5 may be increased or decreased according to the option selected by player 5 . The parameter increase/decrease amount or increase/decrease rate is determined based on the parameter change amount (e.g., increase or decrease amount) or change rate (increase rate or decrease rate) determined for each message option as described above. be done. When the amount of change or the rate of change of the parameter is specified, the parameter data 28d is updated based on the specified amount of change or the rate of change of the favorability rating.

図7aのチャット表示画像70は、チャット表示領域71の下部に、プレイヤ5のメッセージの選択肢77を示す表示を含んでいる。プレイヤ5は、表示されている選択肢77のうちの一つを選択することができる。この選択は、例えば、ディスプレイ24において選択したい選択肢が表示されている領域を指で接触することで行われる。この選択がなされると、図7bに示すように、選択された選択肢に対応するメッセージ75bが、プレイヤ5のメッセージとしてチャット表示領域71に新たに表示される。 Chat display image 70 of FIG. 7a includes a display at the bottom of chat display area 71 showing message options 77 for player 5 . Player 5 can select one of the displayed options 77 . This selection is made, for example, by touching with a finger an area in which the desired option is displayed on the display 24 . When this selection is made, a message 75b corresponding to the selected option is newly displayed in the chat display area 71 as a message for the player 5, as shown in FIG. 7b.

図7cに示すように、チャットの過程で、第2モードであるVRモードでの設定の選択を促すメッセージ76c,76dが仮想キャラクタのメッセージとして表示されてもよい。メッセージ76cは、VRモードにおけるシナリオの選択を促すメッセージであり、メッセージ76dは、VRモードで仮想キャラクタが使用するアイテム(例えば、仮想キャラクタがVRモードの仮想空間内で着用する服)の選択を促すメッセージである。つまり、第2モードにおける設定には、VRモードにおけるシナリオ、及び、VRモードで仮想キャラクタが使用するアイテムが含まれる。シナリオの選択を促すメッセージ76cが表示された後には、ディスプレイ24にシナリオの選択肢が表示される。例えば、第1シナリオ~第5シナリオが選択肢として表示される。プレイヤ5は、この選択肢の中から好みのシナリオを選択することができる。アイテムの選択を促すメッセージ76dが表示された後には、ディスプレイ24にアイテムの選択肢が表示される。プレイヤ5は、この選択肢の中から好みのアイテムを選択することができる。チャットの過程で、第2モードへの移行を促すメッセージが仮想キャラクタのメッセージとして表示されてもよい。 As shown in FIG. 7c, during the chat process, messages 76c and 76d prompting selection of settings in the second mode, VR mode, may be displayed as virtual character messages. The message 76c prompts the user to select a scenario in the VR mode, and the message 76d prompts the user to select items used by the virtual character in the VR mode (for example, clothes worn by the virtual character in the virtual space of the VR mode). is the message. That is, the settings in the second mode include the scenario in the VR mode and items used by the virtual character in the VR mode. After the message 76c prompting the user to select a scenario is displayed, the display 24 displays scenario options. For example, scenarios 1 to 5 are displayed as options. Player 5 can select a favorite scenario from these options. After the message 76d prompting the user to select an item is displayed, the display 24 displays item options. Player 5 can select a favorite item from these options. During the chat process, a message prompting the transition to the second mode may be displayed as a message of the virtual character.

ステップS13では、第1モードから第2モードへのモード移行条件が成立したか否かが判定される。第1モードから第2モードへのモード移行条件として、例えば、チャットモード開始から所定時間(例えば、1分)が経過したことという条件が用いられる。チャットモード開始からの経過時間は、例えばシステムクロックを用いて計測される。モード移行条件が成立したと判断されるまで、ステップS12に戻ってチャット処理が継続される。他方、モード移行条件が成立したと判断されると、チャット処理は、ステップS14に移行する。 In step S13, it is determined whether or not the condition for mode transition from the first mode to the second mode is satisfied. As a mode transition condition from the first mode to the second mode, for example, a condition that a predetermined time (for example, one minute) has passed since the start of the chat mode is used. Elapsed time from the start of the chat mode is measured using, for example, the system clock. The process returns to step S12 and the chat process continues until it is determined that the mode transition condition is met. On the other hand, if it is determined that the mode transition condition is satisfied, the chat process proceeds to step S14.

ステップS14においては、移行開始オブジェクト78がディスプレイ24に表示され、チャット処理は、ステップS15に進む。図7dに示されているように、移行開始オブジェクト78は、例えばチャット領域71内に、外縁が円形のオブジェクトとして表示される。ステップS15において、移行開始オブジェクト78の選択が確認されると、チャット処理は、ステップS16に進む。他方、移行開始オブジェクト78が表示されてから所定時間(例えば、10秒)経過しても移行開始オブジェクト78の選択が確認されない場合には、移行開始オブジェクトの選択がなされなかったと判定され、チャット処理が終了する。移行開始オブジェクトの選択がなされなかったと判定されたときに、ステップS12に戻り、チャットを再開するための処理が行われてもよい。移行開始オブジェクト78の選択がなされたか否かは、タッチパネル24bへの操作に応じて判断されてもよい。例えば、移行開始オブジェクト78の表示領域と重複する位置へのタッチ操作(例えば、タップ操作)がなされたことがタッチパネル24bによる検出信号から検出されたときに、当該移行開始オブジェクト78が選択されたと判断される。移行開始オブジェクト78の選択は、非接触操作によりなされてもよい。 In step S14, the transition start object 78 is displayed on the display 24, and the chat process proceeds to step S15. As shown in FIG. 7d, the transition start object 78 is displayed, for example, in the chat area 71 as an object with a circular outer edge. When the selection of the transition start object 78 is confirmed in step S15, the chat process proceeds to step S16. On the other hand, if the selection of the transition start object 78 is not confirmed even after a predetermined time (for example, 10 seconds) has passed since the transition start object 78 was displayed, it is determined that the transition start object has not been selected, and the chat process is performed. ends. When it is determined that the transition start object has not been selected, the process may return to step S12 and perform processing for resuming the chat. Whether or not the transition start object 78 has been selected may be determined according to the operation on the touch panel 24b. For example, when it is detected from the detection signal from the touch panel 24b that a touch operation (for example, a tap operation) has been performed on a position overlapping the display area of the transition start object 78, it is determined that the transition start object 78 has been selected. be done. Selection of the transition start object 78 may be made by non-contact operation.

ステップS16では、第2モードであるVRモードへの移行処理が開始される。移行処理が開始されると、チャット処理は終了する。 In step S16, processing for shifting to the VR mode, which is the second mode, is started. Once the transition process is started, the chat process ends.

以上のチャット処理は、例えば、チャットモード実行部21aにより実行される。チャットモード実行部21aは、単独で又は他の機能と適宜協働して、上記のチャット処理を実行することができる。チャット処理の実行に際しては、ストレージ27に格納されているデータ以外にも、必要に応じて、他のストレージに格納されているデータ、各種センサによって検出された検出情報、またはこれら以外のデータが用いられ得る。 The chat process described above is executed by, for example, the chat mode execution unit 21a. The chat mode execution unit 21a can execute the above-described chat processing independently or appropriately in cooperation with other functions. When executing the chat process, in addition to the data stored in the storage 27, data stored in other storages, detection information detected by various sensors, or data other than these are used as necessary. can be

次に、第1モードであるチャットモードから第2モードであるVRモードへのモード移行処理について、図8及び図9a~図9bを参照して説明する。図8は、一実施形態におけるモード移行処理の流れを示すフロー図である。 Next, mode transition processing from the chat mode, which is the first mode, to the VR mode, which is the second mode, will be described with reference to FIGS. 8 and 9a to 9b. FIG. 8 is a flow diagram showing the flow of mode transition processing in one embodiment.

移行処理が開始されると、ステップ31において、HMD10を装着するように促すガイダンスが、情報処理装置20のディスプレイ24に表示される。当該ガイダンスを含むガイダンス表示画像の例であるガイダンス表示画像80が図9aに示されている。ガイダンス表示画像80には、情報処理装置20を装着具11に取り付けることを促すガイダンス、HMD10を頭部に装着するように促すガイダンス、及びこれら以外のVRモードを開始するために必要な各種のガイダンスを含むことができる。図9aに示されているガイダンス表示画像80には、情報処理装置20を装着具11に取り付けることを促すガイダンス81が含まれている。このガイダンスには、情報処理装置20の装着具11に対する取付方法に関するインストラクションが含まれてもよい。上記ガイダンスの表示後に所定時間が経過すると、モード移行処理はステップS32へ進む。 When the migration process is started, in step 31 , guidance is displayed on the display 24 of the information processing device 20 to prompt the user to wear the HMD 10 . A guidance display image 80, which is an example of a guidance display image including the guidance, is shown in FIG. 9a. Guidance display image 80 includes guidance prompting to attach information processing device 20 to mounting tool 11, guidance prompting to mount HMD 10 on the head, and various other guidance necessary to start the VR mode. can include Guidance display image 80 shown in FIG. 9 a includes guidance 81 prompting attachment of information processing device 20 to wearing tool 11 . This guidance may include instructions on how to attach the information processing device 20 to the attachment 11 . When a predetermined period of time elapses after the guidance is displayed, the mode transition process proceeds to step S32.

ステップS32では、移行オブジェクトがディスプレイ24に表示される。移行オブジェクトを含む移行処理画像の例が図9bに示されている。図9bに示されている移行処理画像85には、移行オブジェクト86が含まれている。移行処理画像85は、立体視画像で表示されてもよい。一実施形態においては、モード移行処理の開始時又はモード移行処理開始後の所定のタイミングにおいて、ディスプレイ24へ表示される画像が、立体視画像以外の画像から、立体視画像に切り替えられる。例えば、チャットモードにおいて表示される画像は立体視画像以外の画像として表示され、移行処理開始以後に表示される画像は立体視画像として表示される。 At step S32, the transition object is displayed on the display 24. FIG. An example of a transition processed image containing transition objects is shown in FIG. 9b. A transition object 86 is included in the transition processed image 85 shown in FIG. 9b. The transition processed image 85 may be displayed as a stereoscopic image. In one embodiment, the image displayed on the display 24 is switched from a non-stereoscopic image to a stereoscopic image at the start of the mode transition process or at a predetermined timing after the start of the mode transition process. For example, an image displayed in the chat mode is displayed as an image other than a stereoscopic image, and an image displayed after the transition process is started is displayed as a stereoscopic image.

次に、ステップS33においては、移行オブジェクト86の選択が完了したか否かが判定される。移行オブジェクト86は、例えば、プレイヤ5が所定時間継続して注視することにより選択される。したがって、移行オブジェクト86を選択するためには、プレイヤ5はHMD10を装着していることが前提となる。一実施形態においては、移行オブジェクト86の選択が完了したか否かは、HMD10による検出信号に基づいて算出される注視位置が移行オブジェクト86上に所定時間以上あるか否かによって判定される。注視位置は、上記のように、HMD10に備えられたセンサユニット25によって検出された情報に基づいて算出され得る。上記の判定は、注視位置が移行オブジェクト86上に存在する注視時間をシステムクロックを用いて計測し、この計測された注視時間が所定時間に達したか否かによって判定され得る。例えば、注視時間が所定時間に達した場合には移行オブジェクト86の選択が完了したと判定され、モード移行処理はステップS34に進む。他方、移行オブジェクト86が表示されてから所定時間が経過しても移行オブジェクト86の選択が完了したことが検知されない場合には、移行オブジェクト86の選択は完了しなかったと判定され、モード移行処理はステップS35に進む。 Next, in step S33, it is determined whether or not the selection of the transition object 86 has been completed. The transition object 86 is selected, for example, by the player 5 continuing to gaze at it for a predetermined period of time. Therefore, in order to select the transitional object 86, it is a prerequisite that the player 5 is wearing the HMD 10 . In one embodiment, whether or not the transitional object 86 has been selected is determined by whether or not the gaze position calculated based on the detection signal from the HMD 10 remains on the transitional object 86 for a predetermined period of time or longer. The gaze position can be calculated based on information detected by the sensor unit 25 provided in the HMD 10, as described above. The above determination can be made by measuring the gaze time during which the gaze position exists on the transition object 86 using the system clock, and determining whether or not the measured gaze time has reached a predetermined time. For example, when the fixation time reaches the predetermined time, it is determined that the selection of the transition object 86 has been completed, and the mode transition process proceeds to step S34. On the other hand, if it is not detected that the selection of the transition object 86 has been completed even after a predetermined period of time has passed since the transition object 86 was displayed, it is determined that the selection of the transition object 86 has not been completed, and the mode transition processing is executed. The process proceeds to step S35.

ステップS34では、第2モードであるVRモードが開始される。VRモードにおける具体的な処理については後述される。 In step S34, the VR mode, which is the second mode, is started. Specific processing in the VR mode will be described later.

ステップS35では、VRモードへの移行が選択されなかったため、チャットモードへ復帰するための処理が開始される。チャットモードへの復帰処理が完了すると、チャットモードが再開される。この再開されたチャットモードにおいては、VRモードへの移行がなされなかったことに関連する仮想キャラクタからのメッセージが表示されてもよい。 In step S35, since transition to the VR mode was not selected, processing for returning to the chat mode is started. When the return processing to the chat mode is completed, the chat mode is resumed. In this resumed chat mode, a message from the virtual character relating to the failure to transition to VR mode may be displayed.

以上のモード移行処理は、例えば、移行処理部21bにより実行される。移行処理部21bは、単独で又は他の機能と適宜協働して、上記のモード移行処理を実行することができる。 The above mode transition processing is executed by the transition processing unit 21b, for example. The transition processing unit 21b can execute the above-described mode transition processing independently or appropriately in cooperation with other functions.

次に、図10から図12を参照して、VRモードにおけるVR処理について説明する。図10は、一実施形態におけるVRモードでのVR処理の流れを示すフロー図であり、図11は、VRモードにおける表示画像の例を示し、図12は、VRモードで実行されているシーンにおける仮想キャラクタのアクションの流れを模式的に示す。上記のように、モード移行処理において移行オブジェクト86を選択するために、プレイヤ5はHMD10を装着している。VRモードの開始時においては、HMD10はプレイヤ5の頭部に装着されていることが想定されている。以下では、第1シナリオが選択されていることを前提にVR処理の説明を行う。VR処理においては、適宜、パラメータデータ28dが参照される。一実施形態において、VR処理の開始時におけるパラメータデータ28dに含まれる各ゲームパラメータの値は、チャット処理の終了時におけるパラメータデータ28dに含まれる各ゲームパラメータの値に等しい。つまり、一実施形態において、VR処理においては、チャット処理において更新されたパラメータデータ28dが引き継がれる。 Next, VR processing in the VR mode will be described with reference to FIGS. 10 to 12. FIG. FIG. 10 is a flow diagram showing the flow of VR processing in VR mode in one embodiment, FIG. 11 shows an example of a display image in VR mode, and FIG. 4 schematically shows the flow of actions of a virtual character. As described above, the player 5 wears the HMD 10 in order to select the transition object 86 in the mode transition process. It is assumed that the HMD 10 is worn on the head of the player 5 at the start of the VR mode. The VR processing will be described below on the assumption that the first scenario is selected. In the VR processing, the parameter data 28d is appropriately referred to. In one embodiment, the value of each game parameter included in the parameter data 28d at the start of the VR process is equal to the value of each game parameter included in the parameter data 28d at the end of the chat process. That is, in one embodiment, the parameter data 28d updated in the chat process is inherited in the VR process.

VRモードが開始されると、ステップS41において、開始シーンが実行される。具体的には、開始シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。開始シーンにおいては、仮想空間において仮想キャラクタが所定のアクションをおこなっても良い。 When the VR mode is started, the start scene is executed in step S41. Specifically, image information of the virtual space is generated according to the start scene, and an image corresponding to the image information is output to the display 24 . In the start scene, the virtual character may perform a predetermined action in the virtual space.

図11に、ディスプレイ24に表示された開始シーンのVR画像の例が示されている。図11に示されているVR画像90は、仮想キャラクタを示す仮想キャラクタ画像91、背景に相当するオブジェクトを示す画像92a~92c、及びこれら以外の各種オブジェクトを示す画像を含んでいる。VR画像90は、第1シナリオ用の仮想空間の所定の範囲に対応する画像である。VR画像90に対応する仮想空間の範囲は、HMD10の向きに基づいて仮想空間における注視位置を算出し、この算出された注視位置を中心として例えば画角により定められる範囲とすることができる。画像情報の生成には、画像データ28aが用いられる。VR画像90及びこれら以外のVRモードにおいて表示される画像は、立体視画像として表示される。 FIG. 11 shows an example of the VR image of the starting scene displayed on the display 24. As shown in FIG. A VR image 90 shown in FIG. 11 includes a virtual character image 91 representing a virtual character, images 92a to 92c representing objects corresponding to the background, and images representing various other objects. The VR image 90 is an image corresponding to a predetermined range of the virtual space for the first scenario. The range of the virtual space corresponding to the VR image 90 can be determined by calculating the gaze position in the virtual space based on the orientation of the HMD 10, and setting the calculated gaze position as the center, for example, by the angle of view. The image data 28a is used for generating the image information. The VR image 90 and other images displayed in the VR mode are displayed as stereoscopic images.

仮想キャラクタ画像91は、例えば開始シーンデータA1により特定されるアクションを仮想空間内で行うことができる。例えば、仮想キャラクタ画像91のアクションには、プレイヤ5に向かって(仮想空間内のプレイヤ5の位置に向かって)話しかける、仮想空間内を移動する、仮想空間内に配置されたオブジェクトを手に取る、及びこれら以外の仮想空間内における様々なアクションが含まれる。 The virtual character image 91 can perform, for example, an action specified by the start scene data A1 within the virtual space. For example, the actions of the virtual character image 91 include talking to the player 5 (toward the position of the player 5 in the virtual space), moving in the virtual space, and picking up an object placed in the virtual space. , and various other actions in the virtual space.

開始シーンにおいて仮想キャラクタが行う一連のアクションについて、図12を参照して説明する。図12は、VRモードで実行されるシーンにおける仮想キャラクタのアクションの流れを模式的に示す図である。図12では、開始シーンにおけるアクションの流れが例示されている。図示のように、開始シーンにおいて、仮想キャラクタは、まずアクションA11に対応するアクションを行う。アクションA11は、仮想キャラクタが開始シーンにおいて行うことができるアクションに対応する。例えば、アクションA11は、仮想キャラクタが仮想空間内のキャラクタに対して、話しかけるというアクションである。 A series of actions performed by the virtual character in the start scene will be described with reference to FIG. FIG. 12 is a diagram schematically showing the action flow of a virtual character in a scene executed in VR mode. FIG. 12 illustrates the flow of actions in the start scene. As shown, in the start scene, the virtual character first performs an action corresponding to action A11. Action A11 corresponds to an action that the virtual character can perform in the starting scene. For example, action A11 is an action in which a virtual character speaks to a character in the virtual space.

アクションA11は、分岐可能なアクションとして規定されている。具体的には、アクションA11は、アクションA21、アクションA22、及びアクションA23に分岐している。例えば、アクションA11には、アクションA21へ移行するための第1移行条件、アクションA22へ移行するための第2移行条件、及びアクションA23へ移行するための第3移行条件が設定されており、第1移行条件が成立すると仮想キャラクタのアクションはアクションA21へ移行し、第2移行条件が成立すると仮想キャラクタのアクションはアクションA22へ移行し、第3移行条件が成立すると仮想キャラクタのアクションはアクションA23へ移行する。第1移行条件、第2移行条件、及び第3移行条件のうちの少なくとも一つは、仮想キャラクタのユーザキャラクタに対する好感度が所定の閾値以上であることであってもよい。 Action A11 is defined as a branchable action. Specifically, action A11 branches into action A21, action A22, and action A23. For example, for action A11, a first transition condition for transitioning to action A21, a second transition condition for transitioning to action A22, and a third transition condition for transitioning to action A23 are set. When the first transition condition is satisfied, the action of the virtual character shifts to action A21, when the second transition condition is satisfied, the virtual character's action shifts to action A22, and when the third transition condition is satisfied, the virtual character's action shifts to action A23. Transition. At least one of the first transition condition, the second transition condition, and the third transition condition may be that the likability of the virtual character to the user character is equal to or greater than a predetermined threshold.

第1移行条件、第2移行条件、及び第3移行条件として様々な条件が設定され得る。例えば、第1移行条件、第2移行条件、及び第3移行条件は、アクションA11として規定されていたアクションが終了したこと、プレイヤ5が仮想キャラクタに対して所定のアクション(例えば、仮想キャラクタの所定部位の注視)を行ったこと、プレイヤ5が仮想キャラクタからの質問に回答すること、を含んでもよい。第1条件、第2移行条件、及び第3移行条件は、互いに異なっている。プレイヤ5は、うなずく動き、首を横に振る動き、又はこれら以外の頭部の動きによって、仮想キャラクタからの質問に回答することができる。具体的には、仮想キャラクタから質問がなされたときに、プレイヤ5によって頭部の動きによるアクションがなされると、HMD10のセンサユニット25によって当該頭部の動きが検出され、この検出された頭部の動きに応じたプレイヤ5の回答が特定される。例えば、うなずく動きが検出されたときにはプレイヤ5は肯定的な回答を行ったと判断され、首を横に振る動きが検出されたときにはプレイヤ5は否定的な回答を行ったと判断されてもよい。また、仮想キャラクタからの質問の後にプレイヤ5の頭部の動きが所定時間検出されなかった場合、プレイヤ5は仮想キャラクタからの質問に対して回答しなかったと判断されてもよい。プレイヤ5のアクションは、アクション特定部21c3の機能により特定されてもよい。 Various conditions can be set as the first transition condition, the second transition condition, and the third transition condition. For example, the first transition condition, the second transition condition, and the third transition condition are that the action defined as the action A11 is completed, and that the player 5 performs a predetermined action on the virtual character (for example, a predetermined action of the virtual character). part gaze), and the player 5 answering questions from the virtual character. The first condition, the second transition condition, and the third transition condition are different from each other. The player 5 can answer questions from the virtual character by nodding, shaking the head, or other head movements. Specifically, when the virtual character asks a question and the player 5 makes an action by moving the head, the sensor unit 25 of the HMD 10 detects the movement of the head, and the detected head movement is detected by the sensor unit 25 of the HMD 10. Player 5's answer corresponding to the movement of is specified. For example, it may be determined that the player 5 has answered affirmatively when a nodding motion is detected, and that the player 5 has given a negative response when a sideways shaking motion is detected. Further, if no movement of the head of the player 5 is detected for a predetermined period of time after the question from the virtual character, it may be determined that the player 5 has not answered the question from the virtual character. The action of the player 5 may be specified by the function of the action specifying section 21c3.

アクションA21は、さらにアクションA31及びアクションA32に分岐している。アクションA21において所定の移行条件が成立した場合に、当該成立した移行条件に応じてアクションA21からアクションA31又はアクションA32への移行が行われる。アクションA22の下流には、アクションA33のみが対応付けられている。つまり、アクションA22は分岐していない。この場合、アクションA22が終了すると、アクションA33が開始される。アクションA23の下流には、より下層のアクションは設定されていない。図12に示されているアクションの構造は一例であり、各シーンで実現したいストーリーに応じて、当該シーンに含まれるアクションの種類や数及びそれらのアクションの構造は適宜設定され得る。 Action A21 branches further into action A31 and action A32. When a predetermined transition condition is satisfied in action A21, transition from action A21 to action A31 or action A32 is performed according to the satisfied transition condition. Only action A33 is associated downstream of action A22. That is, action A22 is not branched. In this case, when action A22 ends, action A33 is started. No lower layer action is set downstream of the action A23. The structure of actions shown in FIG. 12 is an example, and the types and number of actions included in each scene and the structure of those actions can be appropriately set according to the story to be realized in each scene.

一つのアクションから他のアクションへの移行は、プレイヤ5に移行が感知されないように、シームレスに行われてもよい。 The transition from one action to another may be seamless such that the transition is imperceptible to player 5 .

アクションA11,A21~A23,A31~A33が実行されている間に、プレイヤ5は、仮想キャラクタの所定の部位を注視すること又はこれ以外の方法により、当該仮想キャラクタに対してアクションを行うことができる。このようなプレイヤ5の仮想キャラクタへのアクションに対して、仮想キャラクタは、開始シーンデータA1に基づいて定められるリアクションを取ることができる。仮想キャラクタは、好感度に応じたリアクションを取るように制御されてもよい。例えば、プレイヤ5が同じアクションを行った場合であっても、好感度が高い場合には好意的なリアクションが行われ、好感度が低い場合には好意的ではないリアクションがおこなわれてもよい。 While the actions A11, A21 to A23, A31 to A33 are being executed, the player 5 can perform an action on the virtual character by gazing at a predetermined part of the virtual character or by other methods. can. The virtual character can take a reaction determined based on the start scene data A1 in response to such an action of the player 5 on the virtual character. A virtual character may be controlled to take a reaction according to its favorability. For example, even if the player 5 performs the same action, a favorable reaction may be given if the favorability is high, and a non-favorable reaction may be given if the favorability is low.

最下流のアクションであるアクションA31、アクションA32、アクションA33、又はアクションA23が終了すると、開始シーンは終了し、VR処理はステップS42へ移行する。 When action A31, action A32, action A33, or action A23, which is the downstream action, ends, the start scene ends, and the VR process proceeds to step S42.

ステップS42では、複数の候補の中から、実行されるべき基本シーンが選択される。実行されるべき基本シーンの選択は、第1シナリオのために準備されている基本シーンの複数の候補の中から、例えばパラメータデータ28dに応じて行われる。第1シナリオにおいては、図4の基本シーンデータB1~B3に対応する3つの基本シーンが準備されている。一実施形態においては、この3つの基本シーンの中から、パラメータデータ28dとして記憶されている仮想キャラクタのプレイヤ5に対する好感度に基づいて、実行されるべき基本シーンが選択される。例えば、好感度が第1閾値以上である場合には、基本シーンデータB1に対応する基本シーンが選択され、好感度が第2閾値未満である場合には、基本シーンデータB3に対応する基本シーンが選択され、好感度が第2閾値以上で第1閾値未満である場合には、基本シーンデータB2に対応する基本シーンが選択される。基本シーンの選択は、上記以外の方法で行われても良い。例えば、基本シーンはランダムに選択されてもよい。基本シーンは、好感度が高いほど一部の基本シーン(例えば、基本シーンデータB1に対応する第1基本シーン)が選択される確率が高くなるように重み付けを行った上で、ランダムに選択されてもよい。基本シーンの選択方法は、本明細書で明示的に説明された方法には限定されない。基本シーンが選択されると、VR処理は、ステップS43に移行する。 In step S42, a basic scene to be executed is selected from a plurality of candidates. The basic scene to be executed is selected from a plurality of candidate basic scenes prepared for the first scenario, for example, according to the parameter data 28d. In the first scenario, three basic scenes corresponding to the basic scene data B1-B3 in FIG. 4 are prepared. In one embodiment, the basic scene to be executed is selected from among these three basic scenes based on the favorability of the virtual character to the player 5 stored as the parameter data 28d. For example, if the favorable impression is equal to or greater than the first threshold, the basic scene corresponding to the basic scene data B1 is selected, and if the favorable impression is less than the second threshold, the basic scene corresponding to the basic scene data B3 is selected. is selected, and if the favorable rating is greater than or equal to the second threshold and less than the first threshold, the basic scene corresponding to the basic scene data B2 is selected. Selection of the base scene may be performed by methods other than the above. For example, the base scene may be randomly selected. The basic scenes are weighted so that the higher the favorability, the higher the probability that some of the basic scenes (for example, the first basic scene corresponding to the basic scene data B1) will be selected, and then randomly selected. may The method of base scene selection is not limited to the methods explicitly described herein. When the basic scene is selected, the VR processing moves to step S43.

ステップS43では、ステップS42で選択された基本シーンが実行される。具体的には、基本シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。基本シーンにおいては、仮想空間において仮想キャラクタが所定のアクションをおこなっても良い。基本シーンにおける仮想キャラクタのアクションは、開始シーンと同様に、分岐可能な一連のアクションとして規定されてもよい。基本シーンにおける分岐可能な一連のアクションは、図12に示されているデータ構造と同様のデータ構造を有していてもよい。当該一連のアクションの最下流にあるアクションが終了すると、基本シーンは終了し、VR処理はステップS44へ移行する。 At step S43, the basic scene selected at step S42 is executed. Specifically, image information of the virtual space is generated according to the basic scene, and an image corresponding to the image information is output to the display 24 . In the basic scene, the virtual character may perform a predetermined action in the virtual space. The action of the virtual character in the base scene may be defined as a series of branchable actions, similar to the starting scene. A branchable sequence of actions in a basic scene may have a data structure similar to the data structure shown in FIG. When the most downstream action in the series of actions ends, the basic scene ends, and the VR process proceeds to step S44.

ステップS44においては、ステップS43で実行された基本シーンについて設定されている追加シーン移行条件が成立したか否かが判定される。この判定は、ステップS43で実行された基本シーンに対応する基本シーンデータ(例えば、基本シーンデータB1)に含まれる追加シーン移行条件をストレージ27から読み出し、ステップS43で実行された基本シーンにおいて当該移行条件が成立したか否かが判定される。例えば、仮想空間にあるドアを表すオブジェクトを3秒以上注視することが移行条件である場合には、仮想空間内でのプレイヤ5の注視位置が当該ドアを表すオブジェクト上に位置する時間をカウントし、このカウントされた時間が3秒以上である場合に、移行条件が成立したと判定される。仮想空間内でのプレイヤ5の注視位置は、センサユニット25の検出情報に基づいてHMD10の向きを算出し、この算出したHMD10の向きに基づいて特定される。追加シーン移行条件は、基本シーンの実行時に、プレイヤ5に明示的に提示されてもよいし、提示されなくともよい。例えば、基本シーンにおいて、仮想キャラクタが、追加シーン移行条件に対応する台詞をプレイヤ5に語りかけてもよい。 In step S44, it is determined whether or not the additional scene transition condition set for the basic scene executed in step S43 is satisfied. This determination reads from the storage 27 the additional scene transition condition included in the basic scene data (for example, basic scene data B1) corresponding to the basic scene executed in step S43, and the transition condition is read in the basic scene executed in step S43. A determination is made as to whether the conditions have been met. For example, if the transition condition is to gaze at an object representing a door in the virtual space for 3 seconds or longer, the time during which the gaze position of the player 5 is positioned on the object representing the door in the virtual space is counted. , when the counted time is 3 seconds or more, it is determined that the transition condition is established. The gaze position of the player 5 in the virtual space is specified based on the calculated orientation of the HMD 10 by calculating the orientation of the HMD 10 based on the detection information of the sensor unit 25 . The additional scene transition condition may or may not be explicitly presented to the player 5 when the basic scene is executed. For example, in the basic scene, the virtual character may speak to player 5 a line corresponding to the additional scene transition condition.

移行条件が成立しなかったと判定された場合、VR処理はステップS45に移行し、移行条件が成立したと判定された場合、VR処理はステップS46に移行する。 If it is determined that the transition condition is not satisfied, the VR process proceeds to step S45, and if it is determined that the transition condition is satisfied, the VR process proceeds to step S46.

ステップS45においては、第1終了シーンが実行される。具体的には、第1終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。 In step S45, the first end scene is executed. Specifically, image information of the virtual space is generated according to the first end scene, and an image corresponding to the image information is output to the display 24 .

ステップS46においては、追加シーンが実行される。具体的には、第1終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。追加シーンにおける仮想キャラクタのアクションは、開始シーンと同様に、分岐可能な一連のアクションとして規定されてもよい。追加シーンにおける分岐可能な一連のアクションは、図12に示されているデータ構造と同様のデータ構造を有していてもよい。追加シーンの最下流にあるアクションが終了すると、追加シーンは終了し、VR処理はステップS47へ移行する。 In step S46, an additional scene is executed. Specifically, image information of the virtual space is generated according to the first end scene, and an image corresponding to the image information is output to the display 24 . The virtual character's actions in the additional scene may be defined as a series of branchable actions, similar to the starting scene. A branchable series of actions in an additional scene may have a data structure similar to the data structure shown in FIG. When the most downstream action of the additional scene ends, the additional scene ends, and the VR process proceeds to step S47.

ステップS47においては、第2終了シーンが実行される。具体的には、第2終了シーンに応じた仮想空間の画像情報が生成され、当該画像情報に対応する画像がディスプレイ24に出力される。第2終了シーンにおいて表示される画像は第1終了シーンにおいて表示される画像と同じでもよいし異なっていてもよい。 In step S47, the second end scene is executed. Specifically, image information of the virtual space is generated according to the second end scene, and an image corresponding to the image information is output to the display 24 . The image displayed in the second end scene may be the same as or different from the image displayed in the first end scene.

VR画像90がディスプレイ24に表示されている間に、HMD10のセンサユニット25によってプレイヤ5の頭部の動きが検出されると、この検出された頭部の動きに基づいてプレイヤ5のアクションが特定される。そして、特定されたプレイヤ5のアクションに応じた仮想キャラクタの行動(リアクション)が決定され、この決定された行動を行う仮想キャラクタ画像91の画像情報が生成される。このようにして生成された画像情報は、ディスプレイ24に出力される。例えば、プレイヤ5のうなずく動作が検出されると、プレイヤ5のうなずくという動作へのリアクションを取る仮想キャラクタ画像91の画像情報が生成され、当該画像情報がディスプレイ24に表示される。このように、VRモードでは、仮想キャラクタの立体視画像を用いて、プレイヤ5と当該仮想キャラクタとの間でのインタラクションが実現される。 When the sensor unit 25 of the HMD 10 detects the movement of the head of the player 5 while the VR image 90 is being displayed on the display 24, the action of the player 5 is specified based on the detected movement of the head. be done. Then, an action (reaction) of the virtual character is determined according to the identified action of the player 5, and image information of the virtual character image 91 performing the determined action is generated. The image information generated in this manner is output to the display 24 . For example, when a nodding motion of the player 5 is detected, image information of the virtual character image 91 that reacts to the nodding motion of the player 5 is generated and displayed on the display 24 . Thus, in the VR mode, an interaction between the player 5 and the virtual character is realized using the stereoscopic image of the virtual character.

以上のステップS41,S43,S45~S47においては、プレイヤ5のアクションに応じて、プレイヤ5について設定されているパラメータが増減されてもよい。パラメータの増減量又は増減率は、上記のように、プレイヤ5のアクションごとに定められているパラメータの変化量(例えば、増加量又は減少量)又は変化率(増加率又は減少率)に基づいて定められてもよい。パラメータの変化量又は変化率が特定されると、この特定された好感度の変化量又は変化率に基づいて、パラメータデータ28dが更新される。 In steps S41, S43, S45 to S47 described above, the parameters set for the player 5 may be increased or decreased according to the action of the player 5. FIG. The parameter increase/decrease amount or increase/decrease rate is based on the parameter change amount (for example, increase or decrease amount) or change rate (increase rate or decrease rate) determined for each action of the player 5 as described above. may be defined. When the amount of change or the rate of change of the parameter is specified, the parameter data 28d is updated based on the specified amount of change or the rate of change of the favorability rating.

ステップS48では、VRモードの終了処理がなされる。この終了処理には、情報処理装置20を装着具11から取り外すよう促すガイダンスをディスプレイ24に表示すること、及び、第1モードであるチャットモードへのログイン画面を表示させることが含まれてもよい。 In step S48, VR mode end processing is performed. This termination process may include displaying on the display 24 guidance prompting the user to remove the information processing device 20 from the wearing tool 11, and displaying a login screen for the chat mode, which is the first mode. .

以上のVR処理は、VRモード実行部21cにより実行される。VRモード実行部21cは、単独で又は他の機能と適宜協働して、上記のVR処理を実行することができる。 The above VR processing is executed by the VR mode execution unit 21c. The VR mode execution unit 21c can execute the above-described VR processing independently or appropriately in cooperation with other functions.

続いて、他の実施形態によるゲーム処理システムについて図13を参照して説明する。図13は、他の実施形態によるゲーム処理システム101を示すブロック図である。ゲーム処理システム101は、情報処理装置20、HMD110、及びHMD110を備えている。ゲーム処理システム101は、情報処理装置20をHMD110に取り付けることなくVRモードを提供できる点で、ゲーム処理システム1と異なっている。以下、ゲーム処理システム101について、ゲーム処理システム1と相違する点に着目して説明する。 Next, a game processing system according to another embodiment will be described with reference to FIG. FIG. 13 is a block diagram showing a game processing system 101 according to another embodiment. The game processing system 101 includes an information processing device 20 , an HMD 110 and an HMD 110 . The game processing system 101 differs from the game processing system 1 in that the VR mode can be provided without attaching the information processing device 20 to the HMD 110 . The game processing system 101 will be described below, focusing on the differences from the game processing system 1 .

HMD110と、情報処理装置20と、サーバ50とは、ネットワーク40を介して相互に通信可能に接続されている。HMD110と情報処理装置20とは、ネットワーク40を介さずに、Bluetooth(登録商標)などの近距離無線方式に従って通信可能に接続されていてもよい。HMD110は、情報処理装置20が取り付けられなくともVRモードを提供可能な点で、ゲーム処理システム1のHMD10と異なっている。 The HMD 110, the information processing device 20, and the server 50 are connected via a network 40 so as to be able to communicate with each other. The HMD 110 and the information processing apparatus 20 may be communicably connected according to a short-range wireless system such as Bluetooth (registered trademark) without going through the network 40 . The HMD 110 differs from the HMD 10 of the game processing system 1 in that the VR mode can be provided without the information processing device 20 attached.

HMD110は、コンピュータプロセッサ121と、メモリ122と、通信I/F123と、ディスプレイ124と、センサユニット125と、集音装置126と、ストレージ127と、を備えている。コンピュータプロセッサ121、メモリ122、通信I/F123、ディスプレイ124、センサユニット125、集音装置126、及びストレージ127は、情報処理装置20のコンピュータプロセッサ21、メモリ22、通信I/F23、ディスプレイ24、センサユニット25、集音装置26、及びストレージ27と同様に構成される。ただし、ディスプレイ124は、タッチパネルを備えなくともよい。 The HMD 110 includes a computer processor 121, a memory 122, a communication I/F 123, a display 124, a sensor unit 125, a sound collector 126, and a storage 127. The computer processor 121, the memory 122, the communication I/F 123, the display 124, the sensor unit 125, the sound collector 126, and the storage 127 are the computer processor 21, the memory 22, the communication I/F 23, the display 24, and the sensor of the information processing device 20. It is configured similarly to the unit 25 , sound collector 26 and storage 27 . However, the display 124 may not have a touch panel.

チャットモード実行部21a、移行処理部21b、VRモード実行部21c、及びパラメータ管理部21dの機能は、情報処理装置20とHMD110とで分担して担われる。具体的には、チャットモード実行部21aの機能は情報処理装置20において実現され、VRモード実行部21cの機能はHMD110において実現される。移行処理部21bの機能は、その一部が情報処理装置20で実現され、残部がHMD110において実現される。パラメータ管理部21dの機能は、情報処理装置20及びHMD110の両方で実現される。 The functions of the chat mode execution unit 21a, the transition processing unit 21b, the VR mode execution unit 21c, and the parameter management unit 21d are shared between the information processing device 20 and the HMD 110. FIG. Specifically, the function of the chat mode execution unit 21 a is implemented in the information processing device 20 , and the function of the VR mode execution unit 21 c is implemented in the HMD 110 . A part of the function of the transition processing unit 21 b is realized by the information processing device 20 and the remaining part is realized by the HMD 110 . The function of the parameter management unit 21d is realized by both the information processing device 20 and the HMD 110. FIG.

画像データ28a、チャットデータ28b、シナリオデータ28c、パラメータデータ28d、及びゲーム進行データ28eは、ストレージ27及びストレージ127の一方又は両方に記憶される。これらのデータは、ストレージ27及びストレージ127以外のストレージに記憶されてもよい。 Image data 28a, chat data 28b, scenario data 28c, parameter data 28d, and game progress data 28e are stored in one or both of storage 27 and storage 127. FIG. These data may be stored in storage other than storage 27 and storage 127 .

ゲーム処理システム101においてゲームを開始するときには、プレイヤ5は、情報処理装置20を用いてチャットモードを開始する。このチャットモードの処理は、情報処理装置20のチャットモード実行部21aにより行われる。 When starting the game in the game processing system 101 , the player 5 uses the information processing device 20 to start the chat mode. This chat mode processing is performed by the chat mode execution unit 21 a of the information processing device 20 .

チャットモードにおいてモード移行条件が成立し、移行開始オブジェクトが選択された場合には、VRモードへのモード移行処理が開始される。このモード移行処理において、ステップ移行処理部21bにより行われる。当該モード移行処理において、上記のステップS31に相当するガイダンスの表示は、情報処理装置20において行われる。例えば、HMD110を装着するように促すガイダンスが、情報処理装置20のディスプレイ24に表示される。他方、ステップS32に相当する移行オブジェクト86の表示及びこれ以後の処理は、HMD110において実行される。 When the mode transition condition is satisfied in the chat mode and the transition start object is selected, mode transition processing to the VR mode is started. This mode transition processing is performed by the step transition processing section 21b. In the mode transition process, the information processing device 20 displays the guidance corresponding to step S31. For example, guidance prompting the user to wear the HMD 110 is displayed on the display 24 of the information processing device 20 . On the other hand, the display of the transitional object 86 corresponding to step S32 and subsequent processing are executed in the HMD 110 .

VRモードが開始されたときには、当該VRモードの処理は、HMD110のVRモード実行部21cにより行われる。 When the VR mode is started, the VR mode processing is performed by the VR mode execution unit 21 c of the HMD 110 .

上記の実施形態によれば、以下の効果が得られる。上記のゲーム処理システム1,101によれば、HMD10を使用せずに第1モード(例えば、チャットモード)でゲームをプレイすることができる。また、当該第1モードで更新された好感度等のゲームパラメータが第2モード(例えば、VRモード)においても利用される。これにより、HMD10を使用できない場合には第1モードでゲームをプレイし、HMD10を使用できる場合に第2モードでゲームをプレイすることができる。 According to the above embodiment, the following effects are obtained. According to the game processing systems 1 and 101 described above, the game can be played in the first mode (for example, chat mode) without using the HMD 10 . Also, the game parameters such as favorable rating updated in the first mode are also used in the second mode (for example, VR mode). Thereby, the game can be played in the first mode when the HMD 10 cannot be used, and the game can be played in the second mode when the HMD 10 can be used.

また、上記のゲーム処理システム1,101によれば、ストレージ27に記憶されているゲームパラメータがゲームの進行に応じて更新され、この更新されたゲームパラメータに応じて異なるシーンが実行される。 Further, according to the game processing systems 1 and 101 described above, the game parameters stored in the storage 27 are updated according to the progress of the game, and different scenes are executed according to the updated game parameters.

本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、コンピュータプロセッサ21及びコンピュータプロセッサ121で実行される機能の一部又は全部は、発明の趣旨を逸脱しない限り、上記の実施形態では図示されていないコンピュータプロセッサにより実現されてもよい。例えば、ゲーム処理システム1及びゲーム処理システム101は、ゲーム処理プログラムの少なくとも一部を実行するゲーム機を備えてもよく、コンピュータプロセッサ21又はコンピュータプロセッサ121の処理によって実現される機能の一部は、当該ゲーム機における処理によって実現されてもよい。 Embodiments of the present invention are not limited to the embodiments described above, and various modifications are possible without departing from the scope of the invention. For example, some or all of the functions performed by computer processor 21 and computer processor 121 may be implemented by computer processors not shown in the above embodiments without departing from the spirit of the invention. For example, the game processing system 1 and the game processing system 101 may include a game machine that executes at least part of a game processing program, and part of the functions realized by the processing of the computer processor 21 or the computer processor 121 are It may be realized by processing in the game machine.

本願発明の実施形態には、上記以外にも様々な装置、デバイス、及び電子部品を備えることができる。例えば、ゲーム処理システム1及びゲーム処理システム101は、情報処理装置20及びHMD10,110以外に、プレイヤ5の操作を受け付けるための操作機器を備えてもよい。ゲーム処理システム1及びゲーム処理システム101は、当該操作機器によってプレイヤ5の操作を検出し、当該検出した操作に応じてゲームの処理をおこなっても良い。 Embodiments of the present invention may include various apparatus, devices, and electronic components in addition to those described above. For example, the game processing system 1 and the game processing system 101 may include an operation device for accepting the operation of the player 5 in addition to the information processing device 20 and the HMDs 10 and 110 . The game processing system 1 and the game processing system 101 may detect an operation of the player 5 using the operation device, and perform game processing according to the detected operation.

本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。 In the processing procedures described in this specification, especially in the processing procedures described using flow diagrams, some of the steps that make up the processing procedure are omitted, and as a step that makes up the processing procedure It is possible to add unspecified steps and/or change the order of the steps, and the processing procedures in which such omissions, additions, and order changes do not deviate from the spirit of the present invention. Included within the scope of the invention.

以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
第1モード及び第2モードを有するゲームの処理を行うゲーム処理システムであって、
一又は複数のプロセッサと、
前記一又は複数のプロセッサによってアクセスされ、前記第1モードで用いられる第1モードパラメータ及び前記第2モードで用いられる第2モードパラメータを記憶するストレージと、
前記一又は複数のプロセッサの少なくとも一部を含む情報処理装置と、
を備え
前記一又は複数のプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第1モードにおいて、プレイヤの頭部に装着されていない前記情報処理装置により検出された前記プレイヤのアクションに関する第1検出情報に応じた仮想キャラクタとのインタラクションを提供し、
前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された前記プレイヤのアクションに関する第2検出情報に応じた前記仮想キャラクタとのインタラクションを提供し、
前記第1モードにおいて前記第1検出情報に基づいて前記第1モードパラメータを更新し、
前記第1モードパラメータが更新されたことに応じて前記第2モードパラメータを更新する、
ゲーム処理システム。
[2]
前記第1モードパラメータが上昇したことに応じて前記第2モードパラメータが上昇するように前記第2モードパラメータを更新する、
第[1]項に記載のゲーム処理システム。
[3]
前記第2モードパラメータは、前記第2モードにおいて前記第2検出情報に基づいてさらに更新される、
第[1]項第[2]項に記載のゲーム処理システム。
[4]
第1モード及び第2モードを有するゲームの処理を行うゲーム処理システムであって、
一又は複数のプロセッサと、
前記一又は複数のプロセッサによってアクセスされ、前記第1モードで用いられる第1モードパラメータ及び前記第2モードで用いられる第2モードパラメータを記憶するストレージと、
前記一又は複数のプロセッサの少なくとも一部を含む情報処理装置と、
を備え
前記一又は複数のプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第1モードにおいて、プレイヤの頭部に装着されていない前記情報処理装置により検出された前記プレイヤのアクションに関する第1検出情報に応じた仮想キャラクタとのインタラクションを提供し、
前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された前記プレイヤのアクションに関する第2検出情報に応じた前記仮想キャラクタとのインタラクションを提供し、
前記第2モードにおいて前記第2検出情報に基づいて前記第2モードパラメータを更新し、
前記第2モードパラメータが更新されたことに応じて前記第1モードパラメータを更新する、
ゲーム処理システム。
[5]
前記第2モードパラメータが上昇したことに応じて前記第1モードパラメータが上昇するように前記第1モードパラメータを更新する、
第[4]項に記載のゲーム処理システム。
[6]
前記第1モードパラメータは、前記第1モードにおいて前記第1検出情報に基づいてさらに更新される、
第[4]項または第[5]項に記載のゲーム処理システム。
[7]
前記第1モードパラメータは、前記第1モードにおける前記プレイヤが使用するプレイヤキャラクタに対する前記仮想キャラクタの好感度である、
第[1]項から第[6]項のいずれか1項に記載のゲーム処理システム。
[8]
前記第1モードパラメータは、前記第2モードパラメータと同じ種類のパラメータである、
第[1]項から第[7]項のいずれか1項に記載のゲーム処理システム。
[9]
前記第1モードパラメータは、前記第1モードにおける前記プレイヤが使用するプレイヤキャラクタに対する前記仮想キャラクタの好感度であり、
前記第2モードパラメータは、前記第2モードにおける前記プレイヤキャラクタに対する前記仮想キャラクタの好感度である、
第[8]項に記載のゲーム処理システム。
[10]
前記第1モードパラメータは、前記第2モードパラメータと別の種類のパラメータである、
第[1]項から第[7]項のいずれか1項に記載のゲーム処理システム。
[11]
前記第2モードパラメータは、前記第2モードにおいて前記第2検出情報に基づいて前記プレイヤが予め定められた禁止アクションを行ったと判定された場合に更新される、
第[1]項から第[10]項のいずれか1項に記載のゲーム処理システム。
[12]
前記ストレージは、前記第1モードと前記第2モードとで共通に用いられる共通パラメータをさらに記憶し、
前記共通パラメータは、前記第1モードにおいては前記第1検出情報に基づいて更新され、前記第2モードにおいては前記第2検出情報に基づいて更新される、
第[1]項から第[11]項のいずれか1項に記載のゲーム処理システム。
[13]
前記共通パラメータは、前記第2モードにおいて前記第2検出情報に基づいて前記プレイヤが予め定められた禁止アクションを行ったと判定された場合に更新される、
第[12]項に記載のゲーム処理システム。
[14]
前記共通パラメータは、前記第1モードから前記第2モードへの移行時及び前記第2モードから前記第1モードへの移行時の少なくとも一方において変更される、
第[12]項または第[13]項に記載のゲーム処理システム。
[15]
前記第1モード及び前記第2モードにおいて共通の共通アイテムが用いられる、
第[1]項から第[14]項のいずれか1項に記載のゲーム処理システム。
[16]
前記共通アイテムは、前記第2モードにおいては前記仮想キャラクタによって使用される、
第[15]項に記載のゲーム処理システム。
[17]
前記共通アイテムには、アイテムパラメータが設定されており、
前記第1モードから前記第2モードへ移行した場合に、前記第1モードにおいて変更された前記アイテムパラメータを有する前記共通アイテムが前記第2モードにおいて用いられる、
第[15]項または第[16]項に記載のゲーム処理システム。
[18]
前記共通アイテムには、アイテムパラメータが設定されており、
前記アイテムパラメータは、前記第1モードから前記第2モードへの移行時及び前記第2モードから前記第1モードへの移行時の少なくとも一方において変更される、
第[15]項または第[16]項に記載のゲーム処理システム。
[19]
一又は複数のプロセッサがコンピュータ読み取り可能な命令を実行することにより第1モード及び第2モードを有するゲームの処理を行うゲーム処理方法であって、
前記第1モードにおいて、プレイヤの頭部に装着されていない情報処理装置により検出された前記プレイヤのアクションに関する第1検出情報に応じた仮想キャラクタとのインタラクションを提供する工程と、
前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された前記プレイヤのアクションに関する第2検出情報に応じた前記仮想キャラクタとのインタラクションを提供する工程と、
前記第1モードにおいて、前記第1検出情報に基づいて前記第1モードで用いられる第1モードパラメータを更新する工程と、
前記第1モードパラメータが更新されたことに応じて前記第2モードで用いられる第2モードパラメータを更新する工程と、
を備えるゲーム処理方法。
[20]
一又は複数のプロセッサがコンピュータ読み取り可能な命令を実行することにより第1モード及び第2モードを有するゲームの処理を行うゲーム処理方法であって、
前記第1モードにおいて、プレイヤの頭部に装着されていない情報処理装置により検出
された前記プレイヤのアクションに関する第1検出情報に応じた仮想キャラクタとのインタラクションを提供する工程と、
前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された前記プレイヤのアクションに関する第2検出情報に応じた前記仮想キャラクタとのインタラクションを提供する工程と、
前記第2モードにおいて、前記第2検出情報に基づいて前記第2モードで用いられる第2モードパラメータを更新する工程と、
前記第2モードパラメータが更新されたことに応じて前記第1モードで用いられる第1モードパラメータを更新する工程と、
を備えるゲーム処理方法。
[21]
一又は複数のプロセッサに実行されることにより第1モード及び第2モードを有するゲームの処理を実行するためのゲーム処理プログラムであって、
前記一又は複数のプロセッサに、
前記第1モードにおいて、プレイヤの頭部に装着されていない情報処理装置により検出された前記プレイヤのアクションに関する第1検出情報に応じた仮想キャラクタとのインタラクションを提供する工程と、
前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された前記プレイヤのアクションに関する第2検出情報に応じた前記仮想キャラクタとのインタラクションを提供する工程と、
前記第1モードにおいて、前記第1検出情報に基づいて前記第1モードで用いられる第1モードパラメータを更新する工程と、
前記第1モードパラメータが更新されたことに応じて前記第2モードで用いられる第2モードパラメータを更新する工程と、
を実行させるゲーム処理プログラム。
[22]
一又は複数のプロセッサに実行されることにより第1モード及び第2モードを有するゲームの処理を実行するためのゲーム処理プログラムであって、
前記一又は複数のプロセッサに、
前記第1モードにおいて、プレイヤの頭部に装着されていない情報処理装置により検出された前記プレイヤのアクションに関する第1検出情報に応じた仮想キャラクタとのインタラクションを提供する工程と、
前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された前記プレイヤのアクションに関する第2検出情報に応じた前記仮想キャラクタとのインタラクションを提供する工程と、
前記第2モードにおいて、前記第2検出情報に基づいて前記第2モードで用いられる第2モードパラメータを更新する工程と、
前記第2モードパラメータが更新されたことに応じて前記第1モードで用いられる第1モードパラメータを更新する工程と、
を実行させるゲーム処理プログラム。
The invention described in the scope of claims as originally filed in the original application of the present application will be additionally described below.
[1]
A game processing system for processing a game having a first mode and a second mode,
one or more processors;
a storage accessed by the one or more processors and storing a first mode parameter used in the first mode and a second mode parameter used in the second mode;
an information processing device including at least part of the one or more processors;
the one or more processors, by executing computer readable instructions,
In the first mode, providing interaction with a virtual character according to first detection information regarding the action of the player detected by the information processing device that is not worn on the player's head,
In the second mode, providing interaction with the virtual character according to second detection information regarding the action of the player detected by a head-mounted display worn on the head of the player;
updating the first mode parameter based on the first detection information in the first mode;
updating the second mode parameter in response to updating the first mode parameter;
game processing system.
[2]
updating the second mode parameter so that the second mode parameter increases in response to the increase in the first mode parameter;
The game processing system according to item [1].
[3]
the second mode parameter is further updated based on the second detection information in the second mode;
Item [1] The game processing system according to item [2].
[4]
A game processing system for processing a game having a first mode and a second mode,
one or more processors;
a storage accessed by the one or more processors and storing a first mode parameter used in the first mode and a second mode parameter used in the second mode;
an information processing device including at least part of the one or more processors;
the one or more processors, by executing computer readable instructions,
In the first mode, providing interaction with a virtual character according to first detection information regarding the action of the player detected by the information processing device that is not worn on the player's head,
In the second mode, providing interaction with the virtual character according to second detection information regarding the action of the player detected by a head-mounted display worn on the head of the player;
updating the second mode parameter based on the second detection information in the second mode;
updating the first mode parameter in response to updating the second mode parameter;
game processing system.
[5]
updating the first mode parameter so that the first mode parameter increases in response to the increase in the second mode parameter;
The game processing system according to item [4].
[6]
the first mode parameter is further updated based on the first detection information in the first mode;
The game processing system according to item [4] or item [5].
[7]
The first mode parameter is the favorable sensitivity of the virtual character to the player character used by the player in the first mode.
The game processing system according to any one of items [1] to [6].
[8]
The first mode parameter is the same type of parameter as the second mode parameter,
The game processing system according to any one of items [1] to [7].
[9]
the first mode parameter is the favorable sensitivity of the virtual character to the player character used by the player in the first mode;
wherein the second mode parameter is the likability of the virtual character for the player character in the second mode;
The game processing system according to item [8].
[10]
The first mode parameter is a different type of parameter from the second mode parameter,
The game processing system according to any one of items [1] to [7].
[11]
The second mode parameter is updated when it is determined that the player has performed a predetermined prohibited action based on the second detection information in the second mode.
The game processing system according to any one of items [1] to [10].
[12]
the storage further stores a common parameter commonly used in the first mode and the second mode;
The common parameter is updated based on the first detection information in the first mode, and updated based on the second detection information in the second mode.
The game processing system according to any one of items [1] to [11].
[13]
The common parameter is updated when it is determined that the player has performed a predetermined prohibited action based on the second detection information in the second mode.
The game processing system according to item [12].
[14]
The common parameter is changed at least one of when transitioning from the first mode to the second mode and when transitioning from the second mode to the first mode,
The game processing system according to item [12] or item [13].
[15]
common common items are used in the first mode and the second mode;
The game processing system according to any one of items [1] to [14].
[16]
the common item is used by the virtual character in the second mode;
The game processing system according to item [15].
[17]
Item parameters are set for the common item,
When transitioning from the first mode to the second mode, the common item having the item parameter changed in the first mode is used in the second mode;
The game processing system according to item [15] or item [16].
[18]
Item parameters are set for the common item,
The item parameter is changed during at least one of transition from the first mode to the second mode and transition from the second mode to the first mode,
The game processing system according to item [15] or item [16].
[19]
A game processing method for processing a game having a first mode and a second mode by one or more processors executing computer readable instructions, comprising:
providing, in the first mode, an interaction with a virtual character according to first detection information regarding the action of the player detected by an information processing device not worn on the player's head;
providing, in the second mode, interaction with the virtual character according to second detection information regarding the player's action detected by a head-mounted display worn on the player's head;
updating, in the first mode, a first mode parameter used in the first mode based on the first detection information;
updating a second mode parameter used in the second mode in response to the update of the first mode parameter;
A game processing method comprising:
[20]
A game processing method for processing a game having a first mode and a second mode by one or more processors executing computer readable instructions, comprising:
providing, in the first mode, an interaction with a virtual character according to first detection information regarding the action of the player detected by an information processing device not worn on the player's head;
providing, in the second mode, interaction with the virtual character according to second detection information regarding the player's action detected by a head-mounted display worn on the player's head;
updating, in the second mode, a second mode parameter used in the second mode based on the second detection information;
updating a first mode parameter used in the first mode in response to updating the second mode parameter;
A game processing method comprising:
[21]
A game processing program for executing game processing having a first mode and a second mode by being executed by one or more processors,
to the one or more processors;
providing, in the first mode, an interaction with a virtual character according to first detection information regarding the action of the player detected by an information processing device not worn on the player's head;
providing, in the second mode, interaction with the virtual character according to second detection information regarding the player's action detected by a head-mounted display worn on the player's head;
updating, in the first mode, a first mode parameter used in the first mode based on the first detection information;
updating a second mode parameter used in the second mode in response to the update of the first mode parameter;
A game processing program that runs
[22]
A game processing program for executing game processing having a first mode and a second mode by being executed by one or more processors,
to the one or more processors;
providing, in the first mode, an interaction with a virtual character according to first detection information regarding the action of the player detected by an information processing device not worn on the player's head;
providing, in the second mode, interaction with the virtual character according to second detection information regarding the player's action detected by a head-mounted display worn on the player's head;
updating, in the second mode, a second mode parameter used in the second mode based on the second detection information;
updating a first mode parameter used in the first mode in response to updating the second mode parameter;
A game processing program that runs

1,101 ゲーム処理システム 1,101 game processing system

Claims (14)

第1モード及び第2モードを有する、仮想空間におけるゲームの処理を行うゲーム処理システムであって、
一又は複数のプロセッサと、
前記一又は複数のプロセッサによってアクセスされ、前記第1モードで用いられる第1モードパラメータ及び前記第2モードで用いられる第2モードパラメータを記憶するストレージと、
前記一又は複数のプロセッサの少なくとも一部を含む情報処理装置と、
を備え
前記一又は複数のプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第1モードにおいて、プレイヤの頭部に装着されていない前記情報処理装置により検出された前記プレイヤのアクションに関する第1検出情報に応じた前記ゲームに関する処理を実行し、
前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された前記プレイヤのアクションに関する第2検出情報に応じた前記ゲームに関する処理を実行し、
前記第1モードにおける前記ゲームの進行に応じて前記第1モードパラメータを更新し、
前記第1モードパラメータが更新された場合に前記第2モードパラメータを更新し、
前記第2モードパラメータは、前記第2モードにおける前記ゲームの進行に応じてさらに更新される、
ゲーム処理システム。
A game processing system for processing a game in a virtual space having a first mode and a second mode,
one or more processors;
a storage accessed by the one or more processors and storing a first mode parameter used in the first mode and a second mode parameter used in the second mode;
an information processing device including at least part of the one or more processors;
the one or more processors, by executing computer readable instructions,
In the first mode, executing processing related to the game according to first detection information related to the player's action detected by the information processing device not worn on the player's head,
in the second mode, executing a process related to the game according to second detection information related to the action of the player detected by a head-mounted display mounted on the head of the player;
updating the first mode parameter according to the progress of the game in the first mode;
updating the second mode parameter when the first mode parameter is updated;
the second mode parameter is further updated according to the progress of the game in the second mode;
game processing system.
前記仮想空間は、ノンプレイヤーキャラクタである仮想キャラクタを含む、
請求項1に記載のゲーム処理システム。
The virtual space includes a virtual character that is a non-player character,
A game processing system according to claim 1.
前記第1モードパラメータは、前記第2モードパラメータと同じ種類のパラメータである、
請求項1又は2に記載のゲーム処理システム。
The first mode parameter is the same type of parameter as the second mode parameter,
3. A game processing system according to claim 1 or 2.
前記第1モードパラメータは、前記第2モードパラメータとは異なる種類のパラメータである、
請求項1又は2に記載のゲーム処理システム。
The first mode parameter is a different type of parameter from the second mode parameter,
3. A game processing system according to claim 1 or 2.
前記一又は複数のプロセッサは、前記第2モードパラメータが更新された場合に、前記第1モードパラメータを更新する、
請求項1から4のいずれか1項に記載のゲーム処理システム。
The one or more processors update the first mode parameters when the second mode parameters are updated.
A game processing system according to any one of claims 1 to 4.
前記第2モードパラメータは、前記第1モードにおいて前記第1モードパラメータが上昇した場合に上昇するように更新される、
請求項1から5のいずれか1項に記載のゲーム処理システム。
the second mode parameter is updated to increase when the first mode parameter increases in the first mode;
A game processing system according to any one of claims 1 to 5.
前記第1モードパラメータは、前記第2モードにおいて前記第2モードパラメータが上昇した場合に上昇するように更新される、
請求項1から6のいずれか1項に記載のゲーム処理システム。
the first mode parameter is updated to increase when the second mode parameter increases in the second mode;
A game processing system according to any one of claims 1 to 6.
前記第1モードから前記第2モードへの移行時及び前記第2モードから前記第1モードへの移行時の少なくとも一方において、前記第1モードパラメータ及び前記第2モードパラメータのうちの少なくとも一方を変更する、
請求項1から7のいずれか1項に記載のゲーム処理システム。
At least one of the first mode parameter and the second mode parameter is changed at least one of the transition from the first mode to the second mode and the transition from the second mode to the first mode. do,
A game processing system according to any one of claims 1 to 7.
前記第1モード及び前記第2モードにおいて共通の共通アイテムが用いられる、
請求項1から8のいずれか1項に記載のゲーム処理システム。
common common items are used in the first mode and the second mode;
A game processing system according to any one of claims 1 to 8.
前記第1モード及び前記第2モードにおいて共通の共通アイテムが用いられ、
前記共通アイテムは、前記第2モードにおいては前記仮想キャラクタによって使用される、
請求項2に記載のゲーム処理システム。
A common item is used in the first mode and the second mode,
the common item is used by the virtual character in the second mode;
3. A game processing system according to claim 2.
前記共通アイテムには、アイテムパラメータが設定されており、
前記第1モードから前記第2モードへ移行した場合に、前記第1モードにおいて変更された前記アイテムパラメータを有する前記共通アイテムが前記第2モードにおいて用いられる、
請求項9または10に記載のゲーム処理システム。
Item parameters are set for the common item,
When transitioning from the first mode to the second mode, the common item having the item parameter changed in the first mode is used in the second mode;
A game processing system according to claim 9 or 10.
前記共通アイテムには、アイテムパラメータが設定されており、
前記アイテムパラメータは、前記第1モードから前記第2モードへの移行時及び前記第2モードから前記第1モードへの移行時の少なくとも一方において変更される、
請求項9または10に記載のゲーム処理システム。
Item parameters are set for the common item,
The item parameter is changed during at least one of transition from the first mode to the second mode and transition from the second mode to the first mode,
A game processing system according to claim 9 or 10.
一又は複数のプロセッサがコンピュータ読み取り可能な命令を実行することにより第1モード及び第2モードを有する、仮想空間におけるゲームの処理を行うゲーム処理方法であって、
前記第1モードにおいて、プレイヤの頭部に装着されていない情報処理装置により検出された前記プレイヤのアクションに関する第1検出情報に応じた前記ゲームに関する処理を実行する工程と、
前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された前記プレイヤのアクションに関する第2検出情報に応じた前記ゲームに関する処理を実行する工程と、
前記第1モードにおける前記ゲームの進行に応じて前記第1モードで用いられる第1モードパラメータを更新する工程と、
前記第1モードパラメータが更新された場合に前記第2モードで用いられる第2モードパラメータを更新する工程と、
前記第2モードにおける前記ゲームの進行に応じて前記第2モードパラメータをさらに更新する工程と、
を備えるゲーム処理方法。
A game processing method for processing a game in a virtual space having a first mode and a second mode by one or more processors executing computer-readable instructions, comprising:
executing, in the first mode, a process related to the game according to first detection information related to the player's action detected by an information processing device not worn on the player's head;
executing, in the second mode, a process relating to the game according to second detection information relating to actions of the player detected by a head-mounted display mounted on the head of the player;
updating a first mode parameter used in the first mode according to the progress of the game in the first mode;
updating second mode parameters used in the second mode when the first mode parameters are updated;
further updating the second mode parameter according to the progress of the game in the second mode;
A game processing method comprising:
一又は複数のプロセッサがコンピュータ読み取り可能な命令を実行することにより、第1モード及び第2モードを有する、仮想空間におけるゲームの処理を行うゲーム処理方法であって、
前記第1モードにおいて、プレイヤの頭部に装着されていない情報処理装置により検出された前記プレイヤのアクションに関する第1検出情報に応じた前記ゲームに関する処理を実行する工程と、
前記第2モードにおいて、前記プレイヤの頭部に装着されたヘッドマウントディスプレイにより検出された前記プレイヤのアクションに関する第2検出情報に応じた前記ゲームに関する処理を実行する工程と、
前記第1モードにおける前記ゲームの進行に応じて前記第1モードで用いられる第1モードパラメータを更新する工程と、
前記第1モードパラメータが更新された場合に前記第2モードで用いられる第2モードパラメータを更新する工程と、
前記第2モードにおける前記ゲームの進行に応じて前記第2モードパラメータをさらに更新する工程と、
を備えるゲームプログラム。
A game processing method for processing a game in a virtual space having a first mode and a second mode by one or more processors executing computer-readable instructions, comprising:
executing, in the first mode, a process related to the game according to first detection information related to the player's action detected by an information processing device not worn on the player's head;
executing, in the second mode, a process relating to the game according to second detection information relating to actions of the player detected by a head-mounted display mounted on the head of the player;
updating a first mode parameter used in the first mode according to the progress of the game in the first mode;
updating second mode parameters used in the second mode when the first mode parameters are updated;
further updating the second mode parameter according to the progress of the game in the second mode;
A game program with
JP2023018671A 2018-11-21 2023-02-09 Game processing system, game processing method, and game processing program Pending JP2023065435A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023018671A JP2023065435A (en) 2018-11-21 2023-02-09 Game processing system, game processing method, and game processing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018218087A JP6908573B2 (en) 2018-02-06 2018-11-21 Game processing system, game processing method, and game processing program
JP2021109780A JP7227314B2 (en) 2018-11-21 2021-07-01 Game processing system, game processing method, and game processing program
JP2023018671A JP2023065435A (en) 2018-11-21 2023-02-09 Game processing system, game processing method, and game processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021109780A Division JP7227314B2 (en) 2018-11-21 2021-07-01 Game processing system, game processing method, and game processing program

Publications (1)

Publication Number Publication Date
JP2023065435A true JP2023065435A (en) 2023-05-12

Family

ID=78149532

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021109780A Active JP7227314B2 (en) 2018-11-21 2021-07-01 Game processing system, game processing method, and game processing program
JP2023018671A Pending JP2023065435A (en) 2018-11-21 2023-02-09 Game processing system, game processing method, and game processing program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021109780A Active JP7227314B2 (en) 2018-11-21 2021-07-01 Game processing system, game processing method, and game processing program

Country Status (1)

Country Link
JP (2) JP7227314B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5968813B2 (en) * 2013-03-15 2016-08-10 株式会社コナミデジタルエンタテインメント GAME CONTROL DEVICE, GAME SYSTEM, GAME CONTROL METHOD, AND GAME CONTROL PROGRAM
JP6306442B2 (en) * 2014-06-09 2018-04-04 株式会社バンダイナムコエンターテインメント Program and game system

Also Published As

Publication number Publication date
JP2021168926A (en) 2021-10-28
JP7227314B2 (en) 2023-02-21

Similar Documents

Publication Publication Date Title
JP6908573B2 (en) Game processing system, game processing method, and game processing program
US11110346B2 (en) Game processing system, method of processing game, and storage medium storing program for processing game
CN110115842B (en) Application processing system, application processing method, and application processing program
US11638879B2 (en) Game processing system, method of processing game, and storage medium storing program for processing game
JP2023093647A (en) Game processing system, game processing method, and game processing program
JP2019136066A (en) Application processing system, application processing method, and application processing program
JP6691151B2 (en) Game processing system, game processing method, and game processing program
JP6775870B2 (en) Game processing system, game processing method, and game processing program
JP6792604B2 (en) Game processing system, game processing method, and game processing program
JP7227314B2 (en) Game processing system, game processing method, and game processing program
JP7148590B2 (en) Game processing system, game processing method, and game processing program
JP7005435B2 (en) Game processing system, game processing method, and game processing program
JP6815373B2 (en) Game processing system, game processing method, and game processing program
JP6855416B2 (en) Game processing system, game processing method, and game processing program
JP6850769B2 (en) Game processing system, game processing method, and game processing program
JP7211778B2 (en) Application processing system, application processing method, and application processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402