JP2021151336A - Information processing device, output sound determination method and output sound determination program - Google Patents

Information processing device, output sound determination method and output sound determination program Download PDF

Info

Publication number
JP2021151336A
JP2021151336A JP2020052704A JP2020052704A JP2021151336A JP 2021151336 A JP2021151336 A JP 2021151336A JP 2020052704 A JP2020052704 A JP 2020052704A JP 2020052704 A JP2020052704 A JP 2020052704A JP 2021151336 A JP2021151336 A JP 2021151336A
Authority
JP
Japan
Prior art keywords
output sound
communication terminal
information
event
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020052704A
Other languages
Japanese (ja)
Other versions
JP7484285B2 (en
Inventor
英樹 竹原
Hideki Takehara
英樹 竹原
鉄二 鈴木
Tetsuji Suzuki
鉄二 鈴木
智之 宍戸
Tomoyuki Shishido
智之 宍戸
浩史 野口
Hirofumi Noguchi
浩史 野口
一輝 堀切
Kazuki Horiguchi
一輝 堀切
秀太 湯舟
Shuta Yubune
秀太 湯舟
勇斗 松元
Yuto Matsumoto
勇斗 松元
康平 大橋
Kohei Ohashi
康平 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020052704A priority Critical patent/JP7484285B2/en
Publication of JP2021151336A publication Critical patent/JP2021151336A/en
Application granted granted Critical
Publication of JP7484285B2 publication Critical patent/JP7484285B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processing device capable of improving user's operation skill, and an output sound determination method and an output sound determination program.SOLUTION: An information processing device 10 includes a detection unit 13 for detecting a prescribed event in a first virtual space based on first user's operation, and a determination unit 14 for determining a first output sound that caused the first user to perform an operation corresponding to the prescribed event based on output sound information including identification information of the output sound outputted from a first communication terminal displaying the first virtual space thereon, within a prescribed period before the time when the prescribed event was detected.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、出力音決定方法及び出力音決定プログラムに関する。 The present invention relates to an information processing device, an output sound determination method, and an output sound determination program.

仮想空間内でキャラクタの行動に応じて、当該キャラクタの位置に基づいて設定された音源の発音を制御する技術が知られている(例えば、特許文献1)。特許文献1に開示された技術を用いることにより、キャラクタから発せられる音に臨場感が生まれ、ゲームに対する楽しみが増幅される。 There is known a technique for controlling the sound source set based on the position of the character according to the behavior of the character in the virtual space (for example, Patent Document 1). By using the technology disclosed in Patent Document 1, a sense of presence is created in the sound emitted from the character, and the enjoyment of the game is amplified.

特開2018−201790号公報JP-A-2018-2017790

近年、FPS(First Person shooter)及びTPS(Third Person shooter)等のゲームを用いた、いわゆる「eスポーツ」の競技者が増加している。eスポーツの競技者の増加に伴い、ゲームを楽しむことに加えて、ゲームのスキル向上を求めるユーザが増えている。多人数で行うeスポーツには、決まったシナリオがないため、各ユーザがシナリオを覚えて先読みをして、ゲームスキル向上を図ることはできないが、一般的なスポーツと同様に、他人にコーチングしてもらうことで上達することは可能である。 In recent years, the number of so-called "e-sports" athletes using games such as FPS (First Person shooter) and TPS (Third Person shooter) has increased. As the number of e-sports players increases, the number of users who want to improve their game skills in addition to enjoying the game is increasing. Since there is no fixed scenario for multiplayer e-sports, it is not possible for each user to remember the scenario and look ahead to improve their game skills, but as with general sports, coaching others. It is possible to improve by having them do it.

ところで、上級プレイヤーのようなゲームスキルが高いユーザは、出力される複数の音の各々に対して、重要な音であるか否かを適切に判断した上で、操作を行っていることが想定される。そのため、各ユーザがどのような出力音に反応して操作を行ったかを把握することで、ユーザの操作スキル向上につながる可能性があり得る。特許文献1は、ユーザの操作スキルを向上させるための技術を開示していない。 By the way, it is assumed that a user with high game skill, such as an advanced player, performs an operation after appropriately judging whether or not each of a plurality of output sounds is an important sound. Will be done. Therefore, it is possible that the operation skill of the user can be improved by grasping what kind of output sound each user responds to the operation. Patent Document 1 does not disclose a technique for improving a user's operation skill.

本発明の目的は、上述した課題を解決するためになされたものであり、ユーザの操作スキルを向上させることが可能な情報処理装置、出力音決定方法及び出力音決定プログラムを提供することにある。 An object of the present invention is to solve the above-mentioned problems, and to provide an information processing device, an output sound determination method, and an output sound determination program capable of improving a user's operation skill. ..

本発明にかかる情報処理装置は、第1ユーザの操作に基づく第1仮想空間における所定イベントを検出する検出部と、前記所定イベントが検出された時刻前の所定期間に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する決定部と、を備える。 The information processing apparatus according to the present invention has a detection unit that detects a predetermined event in the first virtual space based on the operation of the first user, and the first virtual space in a predetermined period before the time when the predetermined event is detected. A determination unit that determines the first output sound that causes the first user to perform an operation corresponding to the predetermined event based on the output sound information including the output sound identification information output from the first communication terminal to be displayed. , Equipped with.

本発明にかかる出力音決定方法は、第1ユーザの操作に基づく第1仮想空間における所定イベントを検出し、前記所定イベントが検出された時刻前の所定期間に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する、出力音決定方法である。 The output sound determination method according to the present invention detects a predetermined event in the first virtual space based on the operation of the first user, and displays the first virtual space in a predetermined period before the time when the predetermined event is detected. An output sound determination method for determining a first output sound obtained by causing the first user to perform an operation corresponding to the predetermined event based on output sound information including identification information of the output sound output from the first communication terminal. Is.

本発明にかかる出力音決定プログラムは、第1ユーザの操作に基づく第1仮想空間における所定イベントを検出し、前記所定イベントが検出された時刻前の所定期間に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する、処理をコンピュータに実行させる出力音決定プログラムである。 The output sound determination program according to the present invention detects a predetermined event in the first virtual space based on the operation of the first user, and displays the first virtual space in a predetermined period before the time when the predetermined event is detected. Based on the output sound information including the output sound identification information output from the first communication terminal, the computer performs a process of determining the first output sound that causes the first user to perform an operation corresponding to the predetermined event. This is an output sound determination program to be executed.

本発明によれば、ユーザの操作スキルを向上させることが可能な情報処理装置、出力音決定方法及び出力音決定プログラムを提供できる。 According to the present invention, it is possible to provide an information processing device, an output sound determination method, and an output sound determination program capable of improving a user's operation skill.

実施の形態1にかかる情報処理システムの構成例を示す図である。It is a figure which shows the configuration example of the information processing system which concerns on Embodiment 1. FIG. イベント判定用テーブルの一例を示す図である。It is a figure which shows an example of the event judgment table. 決定処理を説明するための図である。It is a figure for demonstrating the determination process. 実施の形態1にかかる情報処理装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the information processing apparatus which concerns on Embodiment 1. FIG. 優先度管理テーブルの一例を示す図である。It is a figure which shows an example of a priority management table. 実施の形態2にかかる情報処理システムの構成例を示す図である。It is a figure which shows the configuration example of the information processing system which concerns on Embodiment 2. 実施の形態2にかかる情報処理装置の動作例を説明するための図である。It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 2. FIG. 実施の形態2にかかる情報処理装置の動作例を説明するための図である。It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 2. FIG.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。但し、本発明が以下の実施の形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments. Further, in order to clarify the explanation, the following description and drawings have been simplified as appropriate.

(実施の形態1)
<情報処理システムの構成例>
図1を用いて、実施の形態1にかかる情報処理システム100の構成例について説明する。図1は、実施の形態1にかかる情報処理システムの構成例を示す図である。情報処理システム100は、情報処理装置10と、通信端末20とを備える。情報処理システム100は、ユーザU1が通信端末20においてプレイするゲームを提供するシステムであるため、ゲームシステムと称されてもよい。
(Embodiment 1)
<Configuration example of information processing system>
A configuration example of the information processing system 100 according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a configuration example of an information processing system according to the first embodiment. The information processing system 100 includes an information processing device 10 and a communication terminal 20. Since the information processing system 100 is a system that provides a game that the user U1 plays on the communication terminal 20, it may be referred to as a game system.

情報処理装置10は、例えば、パーソナルコンピュータ装置、サーバ装置であってもよい。情報処理装置10は、ネットワークを介して通信端末20と接続及び通信を行う。ネットワークは、無線ネットワークであってもよいし、有線ネットワークであってもよいし、無線及び有線ネットワークであってもよい。情報処理装置10は、ゲームプログラム151が記憶部15に記憶されており、ゲームプログラム151を用いて、通信端末20にゲームを提供する。情報処理装置10は、ゲームサーバと称されてもよい。情報処理装置10が提供するゲームは、例えば、FPS又はTPS等のゲームであってもよい。 The information processing device 10 may be, for example, a personal computer device or a server device. The information processing device 10 connects and communicates with the communication terminal 20 via a network. The network may be a wireless network, a wired network, or a wireless and wired network. In the information processing device 10, the game program 151 is stored in the storage unit 15, and the game program 151 is used to provide the game to the communication terminal 20. The information processing device 10 may be referred to as a game server. The game provided by the information processing device 10 may be, for example, a game such as FPS or TPS.

情報処理装置10は、ゲームシナリオを通信端末20に送信する。情報処理装置10は、通信端末20及び他の通信端末(不図示)に入力された操作情報を受信する。情報処理装置10は、通信端末20から受信された操作情報、及び他の通信端末(不図示)から受信された操作情報に基づいて、仮想空間であるゲーム空間に配置される少なくとも1つのオブジェクトのゲーム空間における位置情報及び行動情報を決定する。情報処理装置10は、決定した位置情報及び行動情報を通信端末20に送信する。オブジェクトは、例えば、ゲーム内のプレイヤーキャラクタ、敵キャラクタ、味方キャラクタ、及び各種物体を含む。プレイヤーキャラクタは、通信端末20を用いてゲームを行うユーザU1の操作に応じて行動するキャラクタである。なお、ゲームシナリオとは各通信端末がゲームを実行するにあたって必要な情報を意味し、例えば、プレイヤーの設定、キャラクタの状況等に関する情報である。 The information processing device 10 transmits a game scenario to the communication terminal 20. The information processing device 10 receives the operation information input to the communication terminal 20 and another communication terminal (not shown). The information processing device 10 is an object of at least one object arranged in a game space, which is a virtual space, based on the operation information received from the communication terminal 20 and the operation information received from another communication terminal (not shown). Determine position information and action information in the game space. The information processing device 10 transmits the determined position information and action information to the communication terminal 20. Objects include, for example, in-game player characters, enemy characters, ally characters, and various objects. The player character is a character that acts according to the operation of the user U1 who plays a game using the communication terminal 20. The game scenario means information necessary for each communication terminal to execute a game, and is, for example, information related to player settings, character status, and the like.

通信端末20は、例えば、パーソナルコンピュータ装置、スマートフォン、タブレット端末、携帯電話、ゲーム専用装置であってもよい。通信端末20は、ゲームをユーザU1に提供する端末である。通信端末20は、ゲーム端末と称されてもよい。通信端末20は、情報処理装置10とネットワークを介して接続及び通信を行う。通信端末20は、情報処理装置10からゲームシナリオを受信し、ゲームシナリオに基づいてゲーム空間をディスプレイに表示してゲームを実行する。通信端末20は、ユーザU1が行った操作を取得し、操作情報を生成する。通信端末20は、情報処理装置10に操作情報を送信する。通信端末20は、情報処理装置10からゲーム内の各オブジェクトのゲーム空間における位置情報及び行動情報を受信し、ゲーム内の各オブジェクトのディスプレイ上の表示位置及び表示動作を決定する。通信端末20は、決定した表示位置及び表示動作に基づいて、ゲーム内の各オブジェクトが配置されたゲーム空間を、通信端末20が備えるディスプレイに表示する。 The communication terminal 20 may be, for example, a personal computer device, a smartphone, a tablet terminal, a mobile phone, or a game-dedicated device. The communication terminal 20 is a terminal that provides a game to the user U1. The communication terminal 20 may be referred to as a game terminal. The communication terminal 20 connects and communicates with the information processing device 10 via a network. The communication terminal 20 receives the game scenario from the information processing device 10, displays the game space on the display based on the game scenario, and executes the game. The communication terminal 20 acquires the operation performed by the user U1 and generates operation information. The communication terminal 20 transmits operation information to the information processing device 10. The communication terminal 20 receives position information and action information of each object in the game in the game space from the information processing device 10, and determines the display position and display operation of each object in the game on the display. The communication terminal 20 displays the game space in which each object in the game is arranged on the display provided in the communication terminal 20 based on the determined display position and display operation.

<情報処理装置の構成例>
次に、情報処理装置10の構成例について説明する。情報処理装置10は、処理部11と、取得部12と、検出部13と、決定部14と、記憶部15とを備える。処理部11、取得部12、検出部13、決定部14及び記憶部15は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェア又はモジュールであってもよい。また、処理部11、取得部12、検出部13、決定部14及び記憶部15は、回路又はチップ等のハードウェアであってもよい。
<Configuration example of information processing device>
Next, a configuration example of the information processing device 10 will be described. The information processing device 10 includes a processing unit 11, an acquisition unit 12, a detection unit 13, a determination unit 14, and a storage unit 15. The processing unit 11, the acquisition unit 12, the detection unit 13, the determination unit 14, and the storage unit 15 may be software or modules whose processing is executed by the processor executing a program stored in the memory. Further, the processing unit 11, the acquisition unit 12, the detection unit 13, the determination unit 14, and the storage unit 15 may be hardware such as a circuit or a chip.

処理部11は、記憶部15に記憶されたゲームプログラム151に基づいて、ゲームに関連する処理を実行する。処理部11は、ゲームプログラム151に基づいて、所定時間毎に、ゲームシナリオを生成し、ゲームシナリオを通信端末20に送信する。処理部11は、後述する取得部12が通信端末20から受信した操作情報、及び他の通信端末(不図示)から受信した操作情報に基づいて、通信端末20が実行するゲーム空間内の少なくとも1つのオブジェクトの位置情報及び行動情報を決定する。処理部11は、決定した位置情報及び行動情報を通信端末20に送信する。 The processing unit 11 executes a game-related process based on the game program 151 stored in the storage unit 15. The processing unit 11 generates a game scenario at predetermined time intervals based on the game program 151, and transmits the game scenario to the communication terminal 20. The processing unit 11 is at least one in the game space executed by the communication terminal 20 based on the operation information received from the communication terminal 20 by the acquisition unit 12 described later and the operation information received from another communication terminal (not shown). Determine the position information and behavior information of one object. The processing unit 11 transmits the determined position information and action information to the communication terminal 20.

処理部11は、通信端末20において実行されるゲーム空間内の各オブジェクトの位置情報及び行動情報に基づいて、通信端末20から出力される出力音の識別情報を含む出力音情報を生成する。処理部11は、生成した出力音情報を記憶部15に記憶する。 The processing unit 11 generates output sound information including identification information of the output sound output from the communication terminal 20 based on the position information and the action information of each object in the game space executed by the communication terminal 20. The processing unit 11 stores the generated output sound information in the storage unit 15.

出力音情報は、出力される出力音の識別情報として、ゲーム内の各オブジェクトのオブジェクト識別情報、及び各オブジェクトに関連する出力音データを識別する識別情報などを含む。また、出力音情報は、出力音識別情報に対応する出力音データの出力音が出力される出力開始時刻、及び当該出力音データの出力音が出力される出力終了時刻を含む。さらに、出力音情報は、通信端末20から出力される出力音の音量、ゲーム空間内の基準位置とゲーム空間内の各オブジェクトの位置との相対距離、及びゲーム空間における、基準位置に対する各オブジェクトの方向を含む。基準位置は、例えば、ゲーム空間内のプレイヤーキャラクタの位置であるが、任意に設定された位置でもよい。 The output sound information includes object identification information of each object in the game, identification information for identifying output sound data related to each object, and the like as identification information of the output sound to be output. Further, the output sound information includes an output start time at which the output sound of the output sound data corresponding to the output sound identification information is output, and an output end time at which the output sound of the output sound data is output. Further, the output sound information includes the volume of the output sound output from the communication terminal 20, the relative distance between the reference position in the game space and the position of each object in the game space, and the output sound information of each object with respect to the reference position in the game space. Including direction. The reference position is, for example, the position of the player character in the game space, but may be an arbitrarily set position.

処理部11は、ゲーム空間における各オブジェクトの位置情報及び行動情報に基づいて、各時刻に通信端末20から出力される出力音を決定し、出力音情報を生成する。処理部11は、各オブジェクトの位置情報及び行動情報に基づいて、出力音情報が含む相対距離及び方向を算出する。また、処理部11は、各オブジェクトの位置情報、行動情報及び出力音に関する複数のパラメータに基づいて、出力音情報が含む音量を算出する。 The processing unit 11 determines the output sound output from the communication terminal 20 at each time based on the position information and the action information of each object in the game space, and generates the output sound information. The processing unit 11 calculates the relative distance and direction included in the output sound information based on the position information and the action information of each object. Further, the processing unit 11 calculates the volume included in the output sound information based on the position information of each object, the action information, and a plurality of parameters related to the output sound.

なお、処理部11は、通信端末20から出力される出力音の音量を、通信端末20から取得してもよい。もしくは、通信端末20が出力する各出力音を記録した音データを生成し、処理部11が、通信端末20から当該音データを取得して解析することにより、通信端末20から出力される出力音の音量を算出してもよい。また、通信端末20が出力音情報を生成し、処理部11又は取得部12が、通信端末20から出力音情報を取得してもよい。 The processing unit 11 may acquire the volume of the output sound output from the communication terminal 20 from the communication terminal 20. Alternatively, the output sound output from the communication terminal 20 is generated by generating sound data in which each output sound output by the communication terminal 20 is recorded, and the processing unit 11 acquires and analyzes the sound data from the communication terminal 20. You may calculate the volume of. Further, the communication terminal 20 may generate the output sound information, and the processing unit 11 or the acquisition unit 12 may acquire the output sound information from the communication terminal 20.

取得部12は、通信端末20に入力された操作情報を通信端末20から受信して、当該操作情報を取得する。
検出部13は、ユーザU1の操作に基づく、通信端末20が表示するゲーム空間における所定の操作イベントを検出する。操作イベントとは、ユーザU1の操作に基づいて、通信端末20に表示されるゲーム空間におけるプレイヤーキャラクタの動作を含む当該ゲーム空間が表示されたディスプレイの状態が変化することをいい、例えば、イベント用判定テーブルに設定された状態変化である。検出部13は、取得された操作情報と、イベント判定用テーブルとに基づいて、操作イベントを検出するとともに、検出した操作イベントが所定の操作イベントであるか否の判定に基づいて所定の操作イベントを検出する。所定の操作イベントは、ゲームスキルの向上につながる操作イベントであり、評価対象イベントと称される。
The acquisition unit 12 receives the operation information input to the communication terminal 20 from the communication terminal 20 and acquires the operation information.
The detection unit 13 detects a predetermined operation event in the game space displayed by the communication terminal 20 based on the operation of the user U1. The operation event means that the state of the display displaying the game space including the operation of the player character in the game space displayed on the communication terminal 20 changes based on the operation of the user U1, for example, for an event. This is the state change set in the judgment table. The detection unit 13 detects an operation event based on the acquired operation information and the event determination table, and determines a predetermined operation event based on the determination of whether or not the detected operation event is a predetermined operation event. Is detected. The predetermined operation event is an operation event that leads to improvement of the game skill, and is called an evaluation target event.

ここで、図2を用いて、イベント判定用テーブルについて説明する。図2は、イベント判定用テーブルの一例を示す図である。イベント判定用テーブルは、複数の操作イベントを管理するとともに、各操作イベントが評価対象イベントであるかを判定するためのテーブルである。イベント判定用テーブルは、記憶部15に格納される。 Here, the event determination table will be described with reference to FIG. FIG. 2 is a diagram showing an example of an event determination table. The event determination table is a table for managing a plurality of operation events and determining whether each operation event is an evaluation target event. The event determination table is stored in the storage unit 15.

図2に示すように、イベント判定用テーブルは、操作イベントと、評価対象イベントとが対応付けられている。
操作イベントには、ユーザU1の操作により発生するゲーム空間内のイベントが設定される。
評価対象イベントには、操作イベントが評価対象イベントであるか否かを判定するための情報が設定される。評価対象イベントに「○」が設定されている場合、評価対象イベントであることを表しており、評価対象イベントに「×」が設定されている場合、評価対象イベントではないことを表している。
As shown in FIG. 2, in the event determination table, an operation event and an evaluation target event are associated with each other.
An event in the game space generated by the operation of the user U1 is set as the operation event.
Information for determining whether or not the operation event is an evaluation target event is set in the evaluation target event. When "○" is set in the evaluation target event, it means that it is an evaluation target event, and when "x" is set in the evaluation target event, it means that it is not an evaluation target event.

検出部13は、操作情報に基づいて、例えば、通信端末20のゲーム空間においてプレイヤーキャラクタが取った行動内容を特定する。検出部13は、当該プレイヤーキャラクタの行動内容が、イベント判定用テーブルの操作イベントに設定された行動内容であるかを判定する。検出部13は、プレイヤーキャラクタの行動内容がイベント判定用テーブルの操作イベントに設定されている場合、イベント判定用テーブルの評価対象イベントを確認し、プレイヤーキャラクタの行動内容が評価対象イベントであるか否かを判定する。検出部13は、プレイヤーキャラクタの行動内容が評価対象イベントであると判定すると、評価対象イベントが発生したことを検出する。 Based on the operation information, the detection unit 13 specifies, for example, the action content taken by the player character in the game space of the communication terminal 20. The detection unit 13 determines whether the action content of the player character is the action content set in the operation event of the event determination table. When the action content of the player character is set to the operation event of the event determination table, the detection unit 13 confirms the evaluation target event of the event determination table, and whether or not the action content of the player character is the evaluation target event. Is determined. When the detection unit 13 determines that the action content of the player character is an evaluation target event, the detection unit 13 detects that the evaluation target event has occurred.

検出部13は、評価対象イベントを検出した場合、評価対象イベントのイベント発生時刻、イベント終了時刻、操作イベント、及び評価対象イベント前後のプレイヤーキャラクタの状態を含むイベント情報を生成する。評価対象イベント前後のプレイヤーキャラクタの状態には、例えば、操作イベントが「武器を変更」である場合、イベント前の状態として「ナイフを所持」が設定され、イベント後の状態は「銃器を所持」が設定される。検出部13は、イベント情報を記憶部15に格納する。 When the evaluation target event is detected, the detection unit 13 generates event information including the event occurrence time, the event end time, the operation event, and the state of the player character before and after the evaluation target event. For example, when the operation event is "change weapon", "possess a knife" is set as the state before the event, and "possess a firearm" after the event. Is set. The detection unit 13 stores the event information in the storage unit 15.

なお、通信端末20が、イベント判定用テーブルに設定された操作イベントを保持し、通信端末20に入力された操作情報に基づいて操作イベントを検出し、イベント情報を生成してもよい。検出部13は、例えば、JSON(JavaScript Object Notation)形式のデータとしてイベント情報を通信端末20から取得し、取得したイベント情報と、イベント判定用テーブルとに基づいて、評価対象イベントを検出してもよい。検出部13は、評価対象イベントのイベント情報を記憶部15に格納してもよい。 The communication terminal 20 may hold the operation event set in the event determination table, detect the operation event based on the operation information input to the communication terminal 20, and generate the event information. Even if the detection unit 13 acquires event information from the communication terminal 20 as data in JSON (JavaScript Object Notation) format and detects the event to be evaluated based on the acquired event information and the event determination table, for example. good. The detection unit 13 may store the event information of the evaluation target event in the storage unit 15.

図1に戻り、決定部14について説明する。決定部14は、出力音情報から、イベント発生時刻前の検出期間に、通信端末20から出力された出力音の出力音情報を抽出する。決定部14は、出力音情報の出力開始時刻と、出力終了時刻との間に、検出期間が含まれる出力音情報を抽出する。決定部14は、抽出した出力音情報に基づいて、ユーザU1に評価対象イベントに対応する操作を行わせた出力音を決定する。ユーザU1に評価対象イベントに対応する操作を行わせた出力音は、ユーザU1が反応した出力音であるため、反応音と称して記載することがある。ユーザU1に評価対象イベントに対応する操作を行わせた出力音は、ユーザU1の操作と、評価対象イベントとの間に因果関係がある出力音と称されてもよい。 Returning to FIG. 1, the determination unit 14 will be described. The determination unit 14 extracts the output sound information of the output sound output from the communication terminal 20 from the output sound information during the detection period before the event occurrence time. The determination unit 14 extracts the output sound information including the detection period between the output start time and the output end time of the output sound information. Based on the extracted output sound information, the determination unit 14 determines the output sound to which the user U1 performs an operation corresponding to the evaluation target event. Since the output sound obtained by causing the user U1 to perform an operation corresponding to the event to be evaluated is the output sound that the user U1 has reacted to, it may be referred to as a reaction sound. The output sound obtained by causing the user U1 to perform an operation corresponding to the evaluation target event may be referred to as an output sound having a causal relationship between the operation of the user U1 and the evaluation target event.

検出期間は、イベント発生時刻から所定時刻前までの期間である。なお、検出期間は、イベント発生時刻のみに限定されず、イベント発生時刻の前、または後の時刻から所定時刻前までの期間であってもよい。検出期間の長さは、例えば、1つのゲームシナリオが実行される期間であってもよい。もしくは、検出期間の長さは、複数のユーザの各々が、ある音に反応して操作を行うまでの時間の平均時間であってもよい。もしくは、検出期間の長さは、ユーザUIの習熟度に応じて変化するようにするため、ユーザUIがある音に反応して操作を行うまでの直近複数回(例えば、5回)の時間の平均時間であってもよい。もしくは、検出期間の長さは、固定時間(例えば、3秒)であってもよい。 The detection period is the period from the event occurrence time to a predetermined time before. The detection period is not limited to the event occurrence time, and may be a period from the time before or after the event occurrence time to the predetermined time. The length of the detection period may be, for example, the period during which one game scenario is executed. Alternatively, the length of the detection period may be the average time required for each of the plurality of users to perform an operation in response to a certain sound. Alternatively, in order to change the length of the detection period according to the proficiency level of the user UI, the time required for the user UI to perform an operation in response to a certain sound is the most recent multiple times (for example, 5 times). It may be the average time. Alternatively, the length of the detection period may be a fixed time (for example, 3 seconds).

決定部14は、通信端末20が表示するオブジェクトに関連する出力音の識別情報と、通信端末20から出力される出力音の音量とに基づいて、ユーザU1に評価対象イベントに対応する操作を行わせた出力音を決定する。具体的には、決定部14は、抽出した出力音情報に含まれる音量に基づいて、反応音を決定する。 The determination unit 14 performs an operation corresponding to the evaluation target event to the user U1 based on the identification information of the output sound related to the object displayed by the communication terminal 20 and the volume of the output sound output from the communication terminal 20. Determine the output sound to be made. Specifically, the determination unit 14 determines the reaction sound based on the volume included in the extracted output sound information.

ここで、図3を用いて、決定部14の決定処理について説明する。図3は、決定処理を説明するための図である。横軸は、時刻を示す軸であり、右に行くほど時刻が経過していることを表している。縦軸は、通信端末20から出力される出力音の音量を示す軸であり、下に行くほど大きい音量であることを表している。図3に記載されているブロックは、出力音が出力されている時刻と、当該出力音の音量との関係を図示したものである。 Here, the determination process of the determination unit 14 will be described with reference to FIG. FIG. 3 is a diagram for explaining a determination process. The horizontal axis is an axis indicating the time, and the more to the right, the more the time has passed. The vertical axis indicates the volume of the output sound output from the communication terminal 20, and the lower the volume, the louder the volume. The block shown in FIG. 3 illustrates the relationship between the time when the output sound is output and the volume of the output sound.

出力音S(A)〜S(E)は、通信端末20に出力される出力音である。出力音S(A)は、例えば、敵キャラクタの呼吸音であり、出力音S(B)は、例えば、味方キャラクタの移動音であり、出力音S(C)は、例えば、味方キャラクタの移動音である。また、出力音S(D)は、例えば、敵キャラクタの移動音であり、出力音S(E)は、例えば、敵キャラクタの移動音である。 The output sounds S (A) to S (E) are output sounds output to the communication terminal 20. The output sound S (A) is, for example, the breathing sound of the enemy character, the output sound S (B) is, for example, the moving sound of the ally character, and the output sound S (C) is, for example, the moving sound of the ally character. It's a sound. Further, the output sound S (D) is, for example, the moving sound of the enemy character, and the output sound S (E) is, for example, the moving sound of the enemy character.

決定部14は、検出部13が評価対象イベントを検出すると、出力音情報から、イベント発生時刻である時刻T(EA)から所定時刻前までの検出期間TFに、通信端末20から出力された出力音情報を抽出する。決定部14は、抽出された出力音情報に基づいて、出力開始時刻及び出力終了時刻と、音量とを取得する。図3は、取得した出力開始時刻及び出力終了時刻と、音量とに基づいて、出力音S(A)〜S(E)を図示したものである。 When the detection unit 13 detects the event to be evaluated, the determination unit 14 outputs the output sound information from the communication terminal 20 during the detection period TF from the time T (EA), which is the event occurrence time, to a predetermined time before. Extract sound information. The determination unit 14 acquires the output start time, the output end time, and the volume based on the extracted output sound information. FIG. 3 illustrates the output sounds S (A) to S (E) based on the acquired output start time, output end time, and volume.

決定部14は、検出期間TFにおいて、各出力音の出力開始時刻における音量が最も大きい出力音を特定し、特定した出力音を反応音と決定する。図3では、検出期間TFにおいて、各出力音の出力開始時刻における音量が最も大きい出力音はS(A)である。そのため、決定部14は、敵キャラクタの呼吸音を反応音として決定する。 The determination unit 14 identifies the output sound having the highest volume at the output start time of each output sound in the detection period TF, and determines the specified output sound as the reaction sound. In FIG. 3, in the detection period TF, the output sound having the highest volume at the output start time of each output sound is S (A). Therefore, the determination unit 14 determines the breath sounds of the enemy character as the reaction sounds.

決定部14が、検出期間TF内に出力された出力音の出力開始時刻における音量が最も大きい出力音が複数あることも想定される。そのため、検出期間TF内に出力された出力音の出力開始時刻における音量が最も大きい出力音が複数ある場合、決定部14は、抽出した出力音情報に含まれる、基準位置に対する方向に基づいて、反応音を決定する。具体的には、決定部14は、特定された複数の出力音の方向が所定方向である出力音を反応音として決定する。所定方向は、基準位置が例えばゲーム空間におけるプレイヤーキャラクタの位置である場合、プレイヤーキャラクタの顔方向又は進行方向と逆方向でもよいし、同じ方向でもよいし、任意に設定された方向であってもよい。または、所定方向は、よりプレイヤーキャラクタが危険に晒される可能性の高い方向、例えば、死角のような方向とするのがよい。 It is also assumed that the determination unit 14 has a plurality of output sounds having the highest volume at the output start time of the output sounds output within the detection period TF. Therefore, when there are a plurality of output sounds having the highest volume at the output start time of the output sounds output within the detection period TF, the determination unit 14 determines based on the direction with respect to the reference position included in the extracted output sound information. Determine the reaction sound. Specifically, the determination unit 14 determines the output sound in which the direction of the specified plurality of output sounds is a predetermined direction as the reaction sound. When the reference position is, for example, the position of the player character in the game space, the predetermined direction may be the direction opposite to the face direction or the traveling direction of the player character, the same direction, or an arbitrarily set direction. good. Alternatively, the predetermined direction may be a direction in which the player character is more likely to be endangered, for example, a blind spot.

図3では、各出力音の音量が、時刻に依らずに一定であるように図示されているが、時刻により変動することも想定される。そのため、決定部14は、各出力音について、出力開始時刻及び出力終了時刻の間で最も大きくなったときの音量に基づいて、反応音を決定してもよい。もしくは、決定部14は、各出力音について、出力開始時刻及び出力終了時刻の間の音量の平均値又は中央値に基づいて、反応音を決定してもよい。もしくは、決定部14は、各出力音について、出力開始時刻及び出力終了時刻の間の音量の変動量に基づいて、反応音を決定してもよい。もしくは、決定部14は、出力開始時刻の音量または出力終了時刻の音量に基づいて、反応音を決定してもよい。 In FIG. 3, the volume of each output sound is shown to be constant regardless of the time, but it is assumed that the volume may fluctuate depending on the time. Therefore, the determination unit 14 may determine the reaction sound for each output sound based on the volume when the output sound becomes loudest between the output start time and the output end time. Alternatively, the determination unit 14 may determine the reaction sound for each output sound based on the average value or the median value of the volume between the output start time and the output end time. Alternatively, the determination unit 14 may determine the reaction sound for each output sound based on the amount of fluctuation in the volume between the output start time and the output end time. Alternatively, the determination unit 14 may determine the reaction sound based on the volume at the output start time or the volume at the output end time.

図1に戻り、記憶部15について説明する。記憶部15は、ゲームプログラム151を含む、ゲーム処理に必要な各種情報を記憶する。記憶部15は、イベント判定用テーブルを記憶する。記憶部15は、イベント情報、及び出力音情報を記憶する。 Returning to FIG. 1, the storage unit 15 will be described. The storage unit 15 stores various information necessary for game processing, including the game program 151. The storage unit 15 stores the event determination table. The storage unit 15 stores event information and output sound information.

<情報処理装置の動作例>
次に、図4を用いて、情報処理装置10の動作例について説明する。図4は、実施の形態1にかかる情報処理装置の動作例を示すフローチャートである。
<Operation example of information processing device>
Next, an operation example of the information processing apparatus 10 will be described with reference to FIG. FIG. 4 is a flowchart showing an operation example of the information processing apparatus according to the first embodiment.

取得部12は、操作情報を通信端末20から取得する(ステップS1)。取得部12は、通信端末20に入力された操作情報を通信端末20から受信して、当該操作情報を取得する。 The acquisition unit 12 acquires the operation information from the communication terminal 20 (step S1). The acquisition unit 12 receives the operation information input to the communication terminal 20 from the communication terminal 20 and acquires the operation information.

処理部11は、出力音情報を生成する(ステップS2)。処理部11は、通信端末20において実行されるゲーム空間における各オブジェクトの位置情報及び行動情報に基づいて、通信端末20から出力される出力音の出力音情報を生成する。 The processing unit 11 generates output sound information (step S2). The processing unit 11 generates output sound information of the output sound output from the communication terminal 20 based on the position information and action information of each object in the game space executed by the communication terminal 20.

検出部13は、操作イベントを検出する(ステップS3)。検出部13は、取得された操作情報と、イベント判定用テーブルとに基づいて、通信端末20において実行されるゲーム内の所定の操作イベントを検出する。 The detection unit 13 detects an operation event (step S3). The detection unit 13 detects a predetermined operation event in the game executed on the communication terminal 20 based on the acquired operation information and the event determination table.

検出部13は、検出した操作イベントが評価対象イベントであるか判定する(ステップS4)。検出部13は、イベント判定用テーブルを用いて、検出した操作イベントが評価対象イベントであるか否を判定する。 The detection unit 13 determines whether the detected operation event is an evaluation target event (step S4). The detection unit 13 determines whether or not the detected operation event is an evaluation target event by using the event determination table.

操作イベントが評価対象イベントである場合(ステップS4のYES)、決定部14は、出力音情報から、検出期間における出力音情報を抽出する(ステップS5)。検出部13は、評価対象イベントを検出した場合、イベント情報を生成する。決定部14は、出力音情報の出力開始時刻と、出力終了時刻との間に、検出期間が含まれる出力音情報を抽出する。 When the operation event is an evaluation target event (YES in step S4), the determination unit 14 extracts the output sound information in the detection period from the output sound information (step S5). When the detection unit 13 detects the evaluation target event, the detection unit 13 generates event information. The determination unit 14 extracts the output sound information including the detection period between the output start time and the output end time of the output sound information.

一方、操作イベントが評価対象イベントではない場合(ステップS4のNO)、ステップS1に戻り、情報処理装置10は、ステップS1以降の処理を実行する。 On the other hand, when the operation event is not the evaluation target event (NO in step S4), the process returns to step S1 and the information processing apparatus 10 executes the processes after step S1.

ステップS6において、決定部14は、抽出した出力音情報の音量に基づいて、反応音を決定する(ステップS6)。決定部14は、検出期間において、各出力音の出力開始時刻における音量が最も大きい出力音を特定し、特定した出力音を反応音と決定する。 In step S6, the determination unit 14 determines the reaction sound based on the volume of the extracted output sound information (step S6). The determination unit 14 identifies the output sound having the highest volume at the output start time of each output sound in the detection period, and determines the specified output sound as the reaction sound.

決定された反応音が複数あるかを判定し(ステップS7)、決定された反応音が複数ある場合(ステップS7のYES)、決定部14は、出力音情報に含まれる方向に基づいて、反応音を決定する(ステップS8)。決定部14は、検出期間内に出力された出力音の出力開始時刻における音量が最も大きい出力音が複数ある場合、抽出した出力音情報から、特定された出力音に関連付けられている、基準位置に対する方向を取得する。決定部14は、取得した方向が所定方向である出力音を反応音として決定する。 When it is determined whether or not there are a plurality of determined reaction sounds (step S7) and there are a plurality of determined reaction sounds (YES in step S7), the determination unit 14 reacts based on the direction included in the output sound information. The sound is determined (step S8). When there are a plurality of output sounds having the highest volume at the output start time of the output sound output within the detection period, the determination unit 14 determines the reference position associated with the specified output sound from the extracted output sound information. Get the direction for. The determination unit 14 determines the output sound whose acquired direction is a predetermined direction as the reaction sound.

一方、決定された反応音が複数ない場合(ステップS7のNO)、情報処理装置10は、ステップS8を実行せず、処理を終了する。 On the other hand, when there are no plurality of determined reaction sounds (NO in step S7), the information processing apparatus 10 does not execute step S8 and ends the process.

以上説明したように、検出部13が、仮想空間であるゲーム空間における操作イベントのうち、評価対象イベントを検出する。決定部14が、イベント発生時刻前の検出期間に、ゲームを表示する通信端末20から出力された出力音の出力音情報に基づいて、ユーザU1に評価対象イベントに関連する操作を行わせた出力音を決定する。 As described above, the detection unit 13 detects the evaluation target event among the operation events in the game space which is the virtual space. Output in which the determination unit 14 causes the user U1 to perform an operation related to the evaluation target event based on the output sound information of the output sound output from the communication terminal 20 displaying the game during the detection period before the event occurrence time. Determine the sound.

このように、情報処理装置10を用いることにより、ユーザがどのような出力音に反応して操作を行っているかを把握できる。各ユーザは、ゲームスキルが高いユーザが反応した出力音を確認することにより、反応すべき出力音を意識した訓練を行い、操作スキルを向上させることができる。また、各ユーザは、情報処理装置10が決定した出力音を把握することにより、注目すべき出力音を意識した訓練を行うことができるため、操作スキルを向上させることができる。したがって、実施の形態1にかかる情報処理装置10によれば、ユーザの操作スキルを向上させることができる。 In this way, by using the information processing device 10, it is possible to grasp what kind of output sound the user responds to when performing the operation. By confirming the output sound that the user with high game skill has reacted to, each user can perform training conscious of the output sound to be reacted and improve the operation skill. Further, since each user can perform training conscious of the output sound to be noted by grasping the output sound determined by the information processing device 10, the operation skill can be improved. Therefore, according to the information processing device 10 according to the first embodiment, the operation skill of the user can be improved.

(変形例1)
上述した実施の形態1では、決定部14は、出力音情報に含まれる音量に基づいて、反応音を決定したが、決定部14は、出力音情報に含まれる相対距離に基づいて、反応音を決定してもよい。決定部14は、出力音情報から、検出期間に通信端末20から出力された出力音の出力音情報を抽出する。決定部14は、抽出した出力音情報に含まれる相対距離が最も短いオブジェクトの音として通信端末20が出力する出力音を反応音と決定する。決定部14は、相対距離に基づいて、決定した反応音が複数ある場合、出力音情報に含まれる方向に基づいて、反応音を決定する。このようにしても、実施の形態1と同様の効果を得ることができる。ここで、変形例1を実施の形態1と組み合わせてもよい。例えば、決定部14は、相対距離に基づいて、決定した反応音が複数ある場合、出力音情報に含まれる音量に基づいて、反応音を決定してもよい。または、決定部14は、音量に基づいて、決定した反応音が複数ある場合、出力音情報に含まれる相対距離に基づいて、反応音を決定してもよい。
(Modification example 1)
In the first embodiment described above, the determination unit 14 determines the reaction sound based on the volume included in the output sound information, but the determination unit 14 determines the reaction sound based on the relative distance included in the output sound information. May be determined. The determination unit 14 extracts the output sound information of the output sound output from the communication terminal 20 during the detection period from the output sound information. The determination unit 14 determines the output sound output by the communication terminal 20 as the sound of the object having the shortest relative distance included in the extracted output sound information as the reaction sound. When there are a plurality of determined reaction sounds based on the relative distance, the determination unit 14 determines the reaction sound based on the direction included in the output sound information. Even in this way, the same effect as that of the first embodiment can be obtained. Here, the modification 1 may be combined with the first embodiment. For example, when there are a plurality of determined reaction sounds based on the relative distance, the determination unit 14 may determine the reaction sound based on the volume included in the output sound information. Alternatively, when there are a plurality of determined reaction sounds based on the volume, the determination unit 14 may determine the reaction sound based on the relative distance included in the output sound information.

(変形例2)
上述した実施の形態1では、決定部14は、出力音情報に含まれる音量に基づいて、反応音を決定したが、決定部14は、出力音情報と、各出力音に対して設定された優先度を管理する優先度管理テーブルとに基づいて、反応音を決定してもよい。
(Modification 2)
In the first embodiment described above, the determination unit 14 determines the reaction sound based on the volume included in the output sound information, but the determination unit 14 is set for the output sound information and each output sound. The reaction sound may be determined based on the priority management table that manages the priority.

ここで、図5を用いて、優先度管理テーブルについて説明する。図5は、優先度管理テーブルの一例を示す図である。優先度管理テーブルは、ゲーム空間に配置される、ゲーム内の各オブジェクトに関連し、通信端末20から出力される各出力音の優先度を管理するテーブルである。優先度管理テーブルには、出力音、音源属性、及び優先度が設定される。 Here, the priority management table will be described with reference to FIG. FIG. 5 is a diagram showing an example of a priority management table. The priority management table is a table that manages the priority of each output sound output from the communication terminal 20 in relation to each object in the game arranged in the game space. The output sound, sound source attribute, and priority are set in the priority management table.

出力音には、ゲーム空間に配置され、ゲーム内の各オブジェクトに関連し、通信端末20から出力される各出力音が設定される。出力音には、例えば、出力音データを識別する出力音識別情報で設定される。
音源属性には、優先度管理テーブルの出力音に設定された各出力音に関連する、ゲーム空間に配置されるオブジェクトが設定される。オブジェクトは、優先度管理テーブルの出力音を仮想的に出力するゲーム空間における音源と考えられるため、仮想音源と称されてもよい。
優先度には、優先度管理テーブルの出力音に設定された各出力音の優先度が設定される。優先度は、例えば、ゲームスキルの高いプレイヤーのプレイ内容に基づいて決定される。優先度は、例えば、ゲームスキルの高いプレイヤーがプレイし、決定部14が決定した反応音の決定回数等の履歴情報に基づいて決定されてもよい。
As the output sound, each output sound that is arranged in the game space, is related to each object in the game, and is output from the communication terminal 20 is set. The output sound is set, for example, by the output sound identification information that identifies the output sound data.
Objects to be placed in the game space related to each output sound set in the output sound of the priority management table are set in the sound source attribute. The object may be referred to as a virtual sound source because it is considered to be a sound source in the game space that virtually outputs the output sound of the priority management table.
In the priority, the priority of each output sound set in the output sound of the priority management table is set. The priority is determined based on, for example, the play content of a player with high game skill. The priority may be determined based on historical information such as the number of times the reaction sound is determined by the determination unit 14 played by a player with high game skill, for example.

決定部14は、出力音情報から、検出期間に通信端末20から出力された出力音の出力音情報を抽出する。決定部14は、抽出した出力音情報に含まれる出力音識別情報を取得する。決定部14は、取得した出力音識別情報を条件(キー)として、優先度管理テーブルを検索し、取得した出力音識別情報に対応付けられた優先度を取得する。決定部14は、取得した優先度が最も高い出力音を反応音として決定する。決定部14は、出力音の優先度に基づいて、決定した反応音が複数ある場合、出力音情報に含まれる方向に基づいて、反応音を決定する。このようにしても、実施の形態1と同様の効果を得ることができる。また、優先度が、ゲームスキルの高いプレイヤーのプレイに基づいて決定される場合、より適切な反応音を把握できるため、スキル向上をさらに図ることができる。ここで、変形例2と、実施の形態1及びまたは変形例1を、それぞれ判定順序を定めておくことで組み合わせてもよい。 The determination unit 14 extracts the output sound information of the output sound output from the communication terminal 20 during the detection period from the output sound information. The determination unit 14 acquires the output sound identification information included in the extracted output sound information. The determination unit 14 searches the priority management table using the acquired output sound identification information as a condition (key), and acquires the priority associated with the acquired output sound identification information. The determination unit 14 determines the acquired output sound having the highest priority as the reaction sound. When there are a plurality of determined reaction sounds based on the priority of the output sound, the determination unit 14 determines the reaction sound based on the direction included in the output sound information. Even in this way, the same effect as that of the first embodiment can be obtained. Further, when the priority is determined based on the play of a player with high game skill, a more appropriate reaction sound can be grasped, so that the skill can be further improved. Here, the modification 2 and the embodiment 1 and / or the modification 1 may be combined by defining the determination order, respectively.

(変形例3)
上述した実施の形態1では、情報処理装置10が反応音を決定することで説明したが、情報処理装置10が備える機能部を通信端末20が備えるように変形してもよい。そして、通信端末20が、情報処理装置10が行う各処理を実行してもよい。このようにしても、実施の形態1と同様の効果を得ることができる。
(Modification example 3)
In the first embodiment described above, the information processing device 10 determines the reaction sound, but the functional unit included in the information processing device 10 may be modified so that the communication terminal 20 includes the functional unit. Then, the communication terminal 20 may execute each process performed by the information processing device 10. Even in this way, the same effect as that of the first embodiment can be obtained.

(実施の形態2)
続いて、実施の形態2について説明する。実施の形態2は、実施の形態1の改良例である。
<情報処理システムの構成例>
図6を用いて、実施の形態2にかかる情報処理システム200の構成例について説明する。図6は、実施の形態2にかかる情報処理システムの構成例を示す図である。情報処理システム200は、情報処理装置30と、通信端末20_1及び20_2とを備える。通信端末20_1及び20_2は、実施の形態1の通信端末20と同様の構成及び動作を行う通信端末である。情報処理システム200は、実施の形態1と比較すると、情報処理装置10が情報処理装置30に置き換わった構成であり、通信端末20を2つ備える構成である。
(Embodiment 2)
Subsequently, the second embodiment will be described. The second embodiment is an improved example of the first embodiment.
<Configuration example of information processing system>
A configuration example of the information processing system 200 according to the second embodiment will be described with reference to FIG. FIG. 6 is a diagram showing a configuration example of the information processing system according to the second embodiment. The information processing system 200 includes an information processing device 30 and communication terminals 20_1 and 20_2. The communication terminals 20_1 and 20_2 are communication terminals having the same configuration and operation as the communication terminal 20 of the first embodiment. Compared with the first embodiment, the information processing system 200 has a configuration in which the information processing device 10 is replaced with the information processing device 30, and is configured to include two communication terminals 20.

情報処理装置30は、実施の形態1にかかる情報処理装置10と基本的に同様の構成である。そのため、実施の形態1と共通する説明については適宜説明を割愛する。情報処理装置30は、ネットワークを介して通信端末20_1及び20_2と接続及び通信を行う。情報処理装置30は、ゲームプログラム151を用いて、通信端末20_1及び20_2にゲームを提供する。 The information processing device 30 has basically the same configuration as the information processing device 10 according to the first embodiment. Therefore, the description common to the first embodiment will be omitted as appropriate. The information processing device 30 connects and communicates with the communication terminals 20_1 and 20_2 via the network. The information processing device 30 uses the game program 151 to provide the game to the communication terminals 20_1 and 20_2.

情報処理装置30は、通信端末20_1及び20_2における評価対象イベントの比較ができるモードである憑依モードによるプレイを、通信端末20_1及び20_2に提供する。憑依モードは、通信端末20_1及び20_2の一方を生徒プレイヤー端末と指定し、他方を教師プレイヤー端末と指定し、教師プレイヤーのゲームプレイ内容と、生徒プレイヤーのゲームプレイ内容とを比較するモードである。なお、以降の説明では、通信端末20_1及び20_2は、憑依モードでゲームを実行し、通信端末20_1が生徒プレイヤー端末であり、通信端末20_2が教師プレイヤー端末であることを前提として説明する。 The information processing device 30 provides the communication terminals 20_1 and 20_2 with a play in the possession mode, which is a mode in which the evaluation target events on the communication terminals 20_1 and 20_2 can be compared. The possession mode is a mode in which one of the communication terminals 20_1 and 20_2 is designated as a student player terminal and the other is designated as a teacher player terminal, and the gameplay content of the teacher player is compared with the gameplay content of the student player. In the following description, it is assumed that the communication terminals 20_1 and 20_2 execute the game in possession mode, the communication terminal 20_1 is a student player terminal, and the communication terminal 20_2 is a teacher player terminal.

憑依モードでは、情報処理装置30は、通信端末20_1及び20_2に、所定時間毎に同一のゲームシナリオを送信する。通信端末20_1及び20_2は、1つのゲームシナリオ内では独立にプレイ可能に構成される。情報処理装置30は、次のゲームシナリオを通信端末20_1及び20_2に送信し、当該ゲームシナリオが開始されると、教師プレイヤー端末のプレイヤーキャラクタ等の状況が生徒プレイヤー端末と一致するように調整される。つまり、憑依モードは、教師プレイヤー端末のゲーム内のプレイヤーキャラクタ、各オブジェクトを含むゲーム空間が、ゲームシナリオが変更される毎に、生徒プレイヤー端末のゲーム空間と置き換わるモードである。このように、情報処理装置30は、憑依モードを導入し、各ゲームシナリオに対して、教師プレイヤーのゲームプレイ内容と、生徒プレイヤーのゲームプレイ内容とを比較する。 In the possession mode, the information processing device 30 transmits the same game scenario to the communication terminals 20_1 and 20_2 at predetermined time intervals. The communication terminals 20_1 and 20_2 are configured to be playable independently within one game scenario. The information processing device 30 transmits the next game scenario to the communication terminals 20_1 and 20_2, and when the game scenario is started, the situation of the player character and the like of the teacher player terminal is adjusted to match the student player terminal. .. That is, the possession mode is a mode in which the player character in the game of the teacher player terminal and the game space including each object are replaced with the game space of the student player terminal every time the game scenario is changed. In this way, the information processing device 30 introduces the possession mode, and compares the gameplay content of the teacher player with the gameplay content of the student player for each game scenario.

情報処理装置30は、通信端末20_1及び20_2において、憑依モードによるプレイが実行できるように、通信端末20_1のゲーム空間における各オブジェクトの位置情報、行動情報及びゲーム空間に関する情報を通信端末20_1から取得する。そして、情報処理装置30は、教師プレイヤー端末として指定された通信端末20_2に対して、ゲームシナリオを送信するとともに、通信端末20_1のゲーム空間に関する情報を通信端末20_2に送信する。なお、通信端末20_2は、通信端末20_1から通信端末20_1のゲーム空間に関する情報を取得して、自装置のゲーム空間と置換するようにしてもよい。 The information processing device 30 acquires position information, action information, and information about the game space of each object in the game space of the communication terminal 20_1 from the communication terminal 20_1 so that the communication terminals 20_1 and 20_2 can play in the possession mode. .. Then, the information processing device 30 transmits a game scenario to the communication terminal 20_2 designated as the teacher player terminal, and also transmits information about the game space of the communication terminal 20_1 to the communication terminal 20_2. The communication terminal 20_2 may acquire information about the game space of the communication terminal 20_1 from the communication terminal 20_1 and replace it with the game space of its own device.

通信端末20_1及び20_2は、実施の形態1にかかる通信端末20と基本的に同様の構成である。そのため、実施の形態1と共通する説明については適宜説明を割愛する。通信端末20_1は、生徒プレイヤーであるユーザU1が有する通信端末である。通信端末20_2は、教師プレイヤーであるユーザU2が有する通信端末である。通信端末20_1及び20_2は、バイブレータを備える。 The communication terminals 20_1 and 20_2 have basically the same configuration as the communication terminal 20 according to the first embodiment. Therefore, the description common to the first embodiment will be omitted as appropriate. The communication terminal 20_1 is a communication terminal owned by the user U1 who is a student player. The communication terminal 20_2 is a communication terminal owned by the user U2 who is a teacher player. The communication terminals 20_1 and 20_2 are provided with a vibrator.

通信端末20_1及び20_2は、憑依モードによるゲームプレイが実行できるように構成される。通信端末20_1及び20_2は、ゲームシナリオを情報処理装置30から受信する。通信端末20_1及び20_2は、ゲームシナリオに基づいて、仮想空間であるゲーム空間を自装置が備えるディスプレイに表示する。通信端末20_2は、ゲームシナリオを受信する前の通信端末20_1のゲーム空間に関する情報を情報処理装置30から受信する。通信端末20_2は、自装置が表示しているゲーム空間を、通信端末20_1のゲーム空間に置換して、受信したゲームシナリオに基づいてゲームを実行する。なお、説明を便宜的に行うために、通信端末20_2が表示するゲーム空間を第1ゲーム空間とし、通信端末20_1が表示するゲーム空間を第2ゲーム空間として記載する。 The communication terminals 20_1 and 20_2 are configured to be capable of executing game play in possession mode. The communication terminals 20_1 and 20_2 receive the game scenario from the information processing device 30. The communication terminals 20_1 and 20_2 display the game space, which is a virtual space, on the display provided in the own device based on the game scenario. The communication terminal 20_2 receives information about the game space of the communication terminal 20_1 before receiving the game scenario from the information processing device 30. The communication terminal 20_2 replaces the game space displayed by the own device with the game space of the communication terminal 20_1, and executes the game based on the received game scenario. For the sake of convenience, the game space displayed by the communication terminal 20_2 is referred to as the first game space, and the game space displayed by the communication terminal 20_1 is referred to as the second game space.

<情報処理装置の構成例>
次に、情報処理装置30の構成例について説明する。情報処理装置30は、処理部31と、取得部12と、検出部33と、決定部14と、記憶部15とを備える。情報処理装置30は、実施の形態1の情報処理装置10の処理部11及び検出部13がそれぞれ処理部31及び検出部33に置き換わった構成をしている。取得部12、決定部14及び記憶部15については、実施の形態1と基本的に同様であるため、実施の形態1と共通する内容を適宜割愛しながら実施の形態1と異なる構成について説明する。
<Configuration example of information processing device>
Next, a configuration example of the information processing device 30 will be described. The information processing device 30 includes a processing unit 31, an acquisition unit 12, a detection unit 33, a determination unit 14, and a storage unit 15. The information processing device 30 has a configuration in which the processing unit 11 and the detection unit 13 of the information processing device 10 of the first embodiment are replaced by the processing unit 31 and the detection unit 33, respectively. Since the acquisition unit 12, the determination unit 14, and the storage unit 15 are basically the same as those in the first embodiment, the configurations different from those in the first embodiment will be described while appropriately omitting the contents common to the first embodiment. ..

取得部12は、通信端末20_1及び20_2に入力された操作情報を通信端末20_1及び20_2から受信して、当該操作情報を取得する。
決定部14は、出力音情報から、イベント発生時刻前の検出期間に、ゲームを表示する通信端末20_1及び20_2から出力された出力音の出力音情報を抽出する。決定部14は、それぞれ抽出した出力音情報に基づいて、ユーザU1及びユーザU2に評価対象イベントに対応する操作を行わせた出力音である反応音を決定する。
The acquisition unit 12 receives the operation information input to the communication terminals 20_1 and 20_2 from the communication terminals 20_1 and 20_2, and acquires the operation information.
The determination unit 14 extracts the output sound information of the output sound output from the communication terminals 20_1 and 20_2 that display the game during the detection period before the event occurrence time from the output sound information. Based on the output sound information extracted from each of the determination units 14, the determination unit 14 determines a reaction sound which is an output sound obtained by causing the user U1 and the user U2 to perform an operation corresponding to the event to be evaluated.

処理部31は、実施の形態1にかかる処理部11に対応する。処理部31は、処理部11と基本的に同様の構成であるため、実施の形態1と同様の構成については説明を適宜割愛する。処理部31は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェア又はモジュールであってもよい。また、処理部31は、回路又はチップ等のハードウェアであってもよい。 The processing unit 31 corresponds to the processing unit 11 according to the first embodiment. Since the processing unit 31 has basically the same configuration as the processing unit 11, the description of the same configuration as that of the first embodiment will be omitted as appropriate. The processing unit 31 may be software or a module whose processing is executed by the processor executing a program stored in the memory. Further, the processing unit 31 may be hardware such as a circuit or a chip.

処理部31は、通信端末20_1及び20_2にゲームシナリオを送信する。処理部31は、ゲームシナリオを送信する前に、第2ゲーム空間に関する情報を通信端末20_1から取得する。処理部31は、教師プレイヤー端末として指定された通信端末20_2に、ゲームシナリオを送信するとともに、第2ゲーム空間に関する情報を通信端末20_2に送信する。 The processing unit 31 transmits the game scenario to the communication terminals 20_1 and 20_2. The processing unit 31 acquires information about the second game space from the communication terminal 20_1 before transmitting the game scenario. The processing unit 31 transmits the game scenario to the communication terminal 20_2 designated as the teacher player terminal, and also transmits information about the second game space to the communication terminal 20_2.

処理部31は、第1ゲーム空間において評価対象イベントが検出された後に第2ゲーム空間において当該評価対象イベントが検出された場合、通信端末20_2の評価対象イベントの内容を通信端末20_1に通知する。処理部31は、通信端末20_2の評価対象イベントの内容を含むイベント内容通知を通信端末20_1に送信することにより、通信端末20_2の評価対象イベントの内容を通信端末20_1に通知する。 When the evaluation target event is detected in the second game space after the evaluation target event is detected in the first game space, the processing unit 31 notifies the communication terminal 20_1 of the content of the evaluation target event of the communication terminal 20_2. The processing unit 31 notifies the communication terminal 20_1 of the content of the evaluation target event of the communication terminal 20_2 by transmitting an event content notification including the content of the evaluation target event of the communication terminal 20_2 to the communication terminal 20_1.

処理部31は、検出部33が第1ゲーム空間において評価対象イベントを検出した場合、第1ゲーム空間におけるイベント発生時刻を検出部33から取得する。処理部31は、検出部33が第2ゲーム空間において当該評価対象イベントを検出した場合、第2ゲーム空間におけるイベント発生時刻を検出部33から取得する。処理部31は、第1ゲーム空間のイベント発生時刻が、第2ゲーム空間のイベント発生時刻よりも後である場合、通信端末20_2の評価対象イベントの内容を含むイベント内容通知を通信端末20_1に送信する。 When the detection unit 33 detects the evaluation target event in the first game space, the processing unit 31 acquires the event occurrence time in the first game space from the detection unit 33. When the detection unit 33 detects the evaluation target event in the second game space, the processing unit 31 acquires the event occurrence time in the second game space from the detection unit 33. When the event occurrence time in the first game space is later than the event occurrence time in the second game space, the processing unit 31 transmits an event content notification including the content of the evaluation target event of the communication terminal 20_2 to the communication terminal 20_1. do.

処理部31は、通信端末20_1が備えるディスプレイに、通信端末20_2の評価対象イベントのイベント情報をテキストで表示することにより、通信端末20_2の評価対象イベントの内容を通知してもよい。もしくは、処理部31は、通信端末20_2の評価対象イベントのプレイ内容を映像データとして記録し、当該映像データを通信端末20_2に送信することにより、通信端末20_2の評価対象イベントの内容を通知してもよい。もしくは、処理部31は、通信端末20_1が備えるスピーカから、通信端末20_2の評価対象イベントのイベント情報を音声で出力することにより、通信端末20_2の評価対象イベントの内容を通知してもよい。 The processing unit 31 may notify the content of the evaluation target event of the communication terminal 20_2 by displaying the event information of the evaluation target event of the communication terminal 20_2 in text on the display provided in the communication terminal 20_1. Alternatively, the processing unit 31 records the play content of the evaluation target event of the communication terminal 20_2 as video data, and transmits the video data to the communication terminal 20_2 to notify the content of the evaluation target event of the communication terminal 20_2. May be good. Alternatively, the processing unit 31 may notify the content of the evaluation target event of the communication terminal 20_2 by outputting the event information of the evaluation target event of the communication terminal 20_2 by voice from the speaker provided in the communication terminal 20_1.

処理部31は、第1ゲーム空間において評価対象イベントが検出された後に、第2ゲーム空間において当該評価対象イベントが検出された場合、上記評価対象イベントの反応音の音量を調整することを通信端末20_1に実行させる。処理部31は、上記評価対象イベントの反応音の音量を大きくすることを指示する音量調整指示を通信端末20_1に送信することにより、通信端末20_1に上記評価対象イベントの反応音を大きくして出力する制御を実行させる。処理部31は、第1ゲーム空間のイベント発生時刻が、第2ゲーム空間のイベント発生時刻よりも後である場合、音量調整指示を通信端末20_1に送信する。 When the evaluation target event is detected in the second game space after the evaluation target event is detected in the first game space, the processing unit 31 adjusts the volume of the reaction sound of the evaluation target event in the communication terminal. Let 20_1 execute. The processing unit 31 transmits a volume adjustment instruction instructing to increase the volume of the reaction sound of the evaluation target event to the communication terminal 20_1 to increase the reaction sound of the evaluation target event and output it to the communication terminal 20_1. To execute control. When the event occurrence time in the first game space is later than the event occurrence time in the second game space, the processing unit 31 transmits a volume adjustment instruction to the communication terminal 20_1.

処理部31は、検出部33が計数する遅延回数が所定数以上である場合、遅延回数が所定数以上である評価対象イベントが第1ゲーム空間よりも第2ゲーム空間の方が遅延したことを通信端末20_1に通知する。遅延回数は、第1ゲーム空間よりも後に、第2ゲーム空間において評価対象イベントが検出された回数である。 When the number of delays counted by the detection unit 33 is equal to or greater than a predetermined number, the processing unit 31 determines that the evaluation target event having the number of delays equal to or greater than the predetermined number is delayed in the second game space rather than in the first game space. Notify the communication terminal 20_1. The number of delays is the number of times the evaluation target event is detected in the second game space after the first game space.

処理部31は、検出部33が計数する遅延回数が所定数以上となった場合、第2ゲーム空間における評価対象イベントを強調表示、及び通信端末20_1が備えるバイブレータの振動のうちの少なくとも1つを通信端末20_1に実行させる。処理部31は、強調表示及びバイブレータの振動のうちの少なくとも1つを示す制御内容を含む遅延通知を通信端末20_1に送信することにより、制御内容を通信端末20_1に実行させる。処理部31は、強調表示、バイブレータの振動のうちの少なくとも1つを通信端末20_1に実行させることにより、評価対象イベントが第1ゲーム空間よりも第2ゲーム空間の方が遅延したことを通信端末20_1に通知する。 When the number of delays counted by the detection unit 33 exceeds a predetermined number, the processing unit 31 highlights the evaluation target event in the second game space, and at least one of the vibrations of the vibrator provided in the communication terminal 20_1 is set. Let the communication terminal 20_1 execute. The processing unit 31 causes the communication terminal 20_1 to execute the control content by transmitting a delay notification including the control content indicating at least one of the highlighting and the vibration of the vibrator to the communication terminal 20_1. The processing unit 31 causes the communication terminal 20_1 to execute at least one of highlighting and vibration of the vibrator, so that the communication terminal indicates that the evaluation target event is delayed in the second game space rather than in the first game space. Notify 20_1.

処理部31は、評価対象イベントの内容が把握できるように強調表示する。処理部31は、例えば、評価対象イベントが「武器」に関連している場合、武器の輪郭線を太くするように表示してもよいし、武器の色を変えてもよい。もしくは、評価対象イベントの内容を文字で通信端末20_1が備えるディスプレイに表示するようにしてもよい。 The processing unit 31 highlights the content of the evaluation target event so that it can be grasped. For example, when the evaluation target event is related to the "weapon", the processing unit 31 may display the outline of the weapon so as to be thicker, or may change the color of the weapon. Alternatively, the content of the event to be evaluated may be displayed in characters on the display provided in the communication terminal 20_1.

検出部33は、実施の形態1にかかる検出部13に対応する。検出部33は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェア又はモジュールであってもよい。また、検出部33は、回路又はチップ等のハードウェアであってもよい。 The detection unit 33 corresponds to the detection unit 13 according to the first embodiment. The detection unit 33 may be software or a module whose processing is executed by the processor executing a program stored in the memory. Further, the detection unit 33 may be hardware such as a circuit or a chip.

検出部33は、検出部13と基本的に同様の構成であるため、実施の形態1と同様の構成については説明を適宜割愛する。検出部33は、ユーザU1及びU2の操作に基づくそれぞれのゲーム空間における評価対象イベントを検出する。検出部33は、取得部12が取得した操作情報に基づいて、通信端末20_1及び20_2において実行されるゲーム空間における評価対象イベントを検出する。検出部33は、評価対象イベントの各々について、遅延回数を計数する。 Since the detection unit 33 has basically the same configuration as the detection unit 13, the description of the same configuration as that of the first embodiment will be omitted as appropriate. The detection unit 33 detects the evaluation target event in each game space based on the operations of the users U1 and U2. The detection unit 33 detects an evaluation target event in the game space executed on the communication terminals 20_1 and 20_2 based on the operation information acquired by the acquisition unit 12. The detection unit 33 counts the number of delays for each of the evaluation target events.

<情報処理装置の動作例>
次に、図7及び図8を用いて、情報処理装置30の動作例について説明する。図7及び図8は、実施の形態2にかかる情報処理装置の動作例を説明するための図である。
<Operation example of information processing device>
Next, an operation example of the information processing apparatus 30 will be described with reference to FIGS. 7 and 8. 7 and 8 are diagrams for explaining an operation example of the information processing apparatus according to the second embodiment.

まず、図7について説明する。図7は、通信端末20_1及び20_2が憑依モードでゲームが実行され、あるゲームシナリオが生成され、次のゲームシナリオが生成されるまでの通信端末20_1及び20_2と、情報処理装置30との間の動作例を示すシーケンス図である。なお、通信端末20_2を有するユーザU2は教師プレイヤーであるため、通信端末20_1を有するユーザU1よりも前に評価対象イベントに対応する操作を実行することとして記載する。 First, FIG. 7 will be described. FIG. 7 shows between the communication terminals 20_1 and 20_2 and the information processing device 30 until the communication terminals 20_1 and 20_2 execute the game in possession mode, a certain game scenario is generated, and the next game scenario is generated. It is a sequence diagram which shows the operation example. Since the user U2 having the communication terminal 20_2 is a teacher player, it is described that the operation corresponding to the evaluation target event is executed before the user U1 having the communication terminal 20_1.

情報処理装置30の処理部31は、ゲームシナリオを生成し(ステップS11)、通信端末20_1及び20_2に送信する(ステップS12)。処理部31は、第2ゲーム空間に関する情報を通信端末20_1から取得し、通信端末20_2に送信する。通信端末20_2は、ユーザU1とユーザU2とがプレイするゲーム状況が一致するように、自装置が表示するゲーム空間を、第2ゲーム空間に置換する。 The processing unit 31 of the information processing device 30 generates a game scenario (step S11) and transmits it to the communication terminals 20_1 and 20_2 (step S12). The processing unit 31 acquires information about the second game space from the communication terminal 20_1 and transmits it to the communication terminal 20_2. The communication terminal 20_2 replaces the game space displayed by its own device with a second game space so that the game situations played by the user U1 and the user U2 match.

情報処理装置30の取得部12は、通信端末20_1及び20_2に入力された操作情報を通信端末20_1及び20_2から取得する(ステップS13)。なお、ステップS13は、周期的に又は非周期的に繰り返し実行される。 The acquisition unit 12 of the information processing device 30 acquires the operation information input to the communication terminals 20_1 and 20_2 from the communication terminals 20_1 and 20_2 (step S13). Note that step S13 is repeatedly executed periodically or aperiodically.

情報処理装置30は、第1ゲーム空間の評価対象イベントを検知し、反応音を決定する(ステップS14)。検出部33は、操作情報と、イベント判定用テーブルとを用いて、評価対象イベントを検出し、イベント情報を生成する。決定部14は、出力音情報から、検出期間の出力音情報を抽出する。決定部14は、抽出した出力音情報に基づいて、反応音を決定する。処理部31は、第1ゲーム空間におけるイベント発生時刻を検出部33から取得する。 The information processing device 30 detects the evaluation target event in the first game space and determines the reaction sound (step S14). The detection unit 33 detects the event to be evaluated by using the operation information and the event determination table, and generates event information. The determination unit 14 extracts the output sound information of the detection period from the output sound information. The determination unit 14 determines the reaction sound based on the extracted output sound information. The processing unit 31 acquires the event occurrence time in the first game space from the detection unit 33.

情報処理装置30は、第2ゲーム空間の評価対象イベントを検知し、反応音を決定する(ステップS15)。情報処理装置30は、ステップS14と同様にして、評価対象イベントを検出し、反応音を決定する。処理部31は、第2ゲーム空間におけるイベント発生時刻を検出部33から取得する。 The information processing device 30 detects the evaluation target event in the second game space and determines the reaction sound (step S15). The information processing device 30 detects the event to be evaluated and determines the reaction sound in the same manner as in step S14. The processing unit 31 acquires the event occurrence time in the second game space from the detection unit 33.

処理部31は、第1ゲーム空間及び第2ゲーム空間におけるイベント発生時刻を比較し、イベント発生時刻が第1ゲーム空間の方が第2ゲーム空間よりも前か判定する(ステップS16)。処理部31は、第1ゲーム空間及び第2ゲーム空間におけるイベント発生時刻を用いて、第1ゲーム空間において評価対象イベントが検出された後に、第2ゲーム空間において当該評価対象イベントが検出されたか否かを判定する。 The processing unit 31 compares the event occurrence times in the first game space and the second game space, and determines whether the event occurrence time is earlier in the first game space than in the second game space (step S16). The processing unit 31 uses the event occurrence time in the first game space and the second game space to determine whether or not the evaluation target event is detected in the second game space after the evaluation target event is detected in the first game space. Is determined.

イベント発生時刻が第1ゲーム空間の方が第2ゲーム空間よりも前である場合(ステップS16のYES)、情報処理装置30は、ステップS17以降を実行する。
一方、イベント発生時刻が第1ゲーム空間の方が第2ゲーム空間よりも前ではない場合(ステップS16のNO)、情報処理装置30は、ステップS17〜ステップS21までをスキップして、ステップS11において生成されたゲームシナリオについての処理を終了する。
When the event occurrence time is earlier in the first game space than in the second game space (YES in step S16), the information processing device 30 executes step S17 and subsequent steps.
On the other hand, when the event occurrence time is not earlier in the first game space than in the second game space (NO in step S16), the information processing device 30 skips steps S17 to S21 and in step S11. End the process for the generated game scenario.

処理部31は、音量調整指示を通信端末20_1に送信する(ステップS17)。処理部31は、ステップS14及びS15で検出された評価対象イベントに対応する反応音の音量を調整する音量調整指示を通信端末20_1に送信する。処理部31は、音量調整指示を通信端末20_1に送信することで、通信端末20_1に反応音の音量調整を実行させる。通信端末20_1は、音量調整指示を受信すると、ステップS14及びS15で決定した反応音の音量を大きくするように制御する。 The processing unit 31 transmits a volume adjustment instruction to the communication terminal 20_1 (step S17). The processing unit 31 transmits a volume adjustment instruction for adjusting the volume of the reaction sound corresponding to the evaluation target event detected in steps S14 and S15 to the communication terminal 20_1. The processing unit 31 transmits the volume adjustment instruction to the communication terminal 20_1 to cause the communication terminal 20_1 to adjust the volume of the reaction sound. Upon receiving the volume adjustment instruction, the communication terminal 20_1 controls to increase the volume of the reaction sound determined in steps S14 and S15.

処理部31は、イベント内容通知を通信端末20_1に送信する(ステップS18)。処理部31は、通信端末20_2の評価対象イベントの内容をイベント内容通知に含めて通信端末20_1に送信する。なお、ステップS18は、ステップS17の後に実行されてもよいし、ステップS17の前に実行されてもよい。 The processing unit 31 transmits the event content notification to the communication terminal 20_1 (step S18). The processing unit 31 includes the content of the evaluation target event of the communication terminal 20_2 in the event content notification and transmits the content to the communication terminal 20_1. Note that step S18 may be executed after step S17 or before step S17.

検出部33は、遅延回数をカウントする(ステップS19)。検出部33は、ステップS14及びS15において検出された評価対象イベントの遅延回数を1インクリメントする。なお、ステップS19〜S21は、ステップS17又はステップS18の前に実行されてもよいし、ステップS17及びS18と並列的に実行されてもよい。 The detection unit 33 counts the number of delays (step S19). The detection unit 33 increments the number of delays of the evaluation target event detected in steps S14 and S15 by one. It should be noted that steps S19 to S21 may be executed before step S17 or step S18, or may be executed in parallel with steps S17 and S18.

処理部31は、遅延回数が所定数以上か判定する(ステップS20)。処理部31は、遅延回数を検出部33から取得し、ステップS14及びS15において検出された評価対象イベントの遅延回数が所定数以上であるかを判定する。 The processing unit 31 determines whether the number of delays is equal to or greater than a predetermined number (step S20). The processing unit 31 acquires the number of delays from the detection unit 33, and determines whether the number of delays of the evaluation target event detected in steps S14 and S15 is equal to or greater than a predetermined number.

遅延回数が所定数以上である場合(ステップS20のYES)、処理部31は、遅延通知を通信端末20_1に送信する(ステップS21)。処理部31は、所定数以上となった評価対象イベントが第1ゲーム空間よりも第2ゲーム空間の方が遅延したことを示す遅延通知を通信端末20_1に送信する。処理部31は、第2ゲーム空間における評価対象イベントを強調表示、及び通信端末20_1が備えるバイブレータの振動のうちの少なくとも1つを実行することを遅延通知に含めて通信端末20_1に送信する。通信端末20_1は、遅延通知に応じて、遅延通知に含まれる制御を実行する。 When the number of delays is equal to or greater than a predetermined number (YES in step S20), the processing unit 31 transmits a delay notification to the communication terminal 20_1 (step S21). The processing unit 31 transmits a delay notification indicating that the evaluation target event having a predetermined number or more is delayed in the second game space rather than the first game space to the communication terminal 20_1. The processing unit 31 highlights the evaluation target event in the second game space, and transmits to the communication terminal 20_1 including the execution of at least one of the vibrations of the vibrator included in the communication terminal 20_1 in the delay notification. The communication terminal 20_1 executes the control included in the delay notification in response to the delay notification.

一方、遅延回数が所定数以上ではない場合(ステップS20のNO)、情報処理装置30は、ステップS21をスキップして、上記したステップS11において生成されたゲームシナリオについての処理を終了する。
情報処理装置30は、ステップS21まで実行すると、新たなゲームシナリオを生成して、ステップS11〜ステップS21をゲームが終了するまで繰り返し実行する。
On the other hand, when the number of delays is not more than a predetermined number (NO in step S20), the information processing device 30 skips step S21 and ends the process for the game scenario generated in step S11 described above.
When the information processing device 30 executes up to step S21, it generates a new game scenario and repeatedly executes steps S11 to S21 until the game ends.

次に、図8について説明する。図8は、第1ゲーム空間及び第2ゲーム空間において検出された評価対象イベントのタイムチャートを表した図である。横軸は、時刻を表している。図8の時刻軸の下側には、第1ゲーム空間で検出された評価対象イベントのイベント発生時刻を示している。図8の時刻軸の上側には、第2ゲーム空間で検出された評価対象イベントのイベント発生時刻を示している。 Next, FIG. 8 will be described. FIG. 8 is a diagram showing a time chart of the evaluation target event detected in the first game space and the second game space. The horizontal axis represents the time. Below the time axis of FIG. 8, the event occurrence time of the evaluation target event detected in the first game space is shown. The event occurrence time of the evaluation target event detected in the second game space is shown on the upper side of the time axis in FIG.

図8に示した一例では、時刻T(EA1)に第2ゲーム空間における評価対象イベント1が検出されたことを表している。時刻T(EB1)に第1ゲーム空間における評価対象イベント1が検出されたことを表している。時刻T(EB2)に第1ゲーム空間における評価対象イベント2が検出されたことを表している。 In the example shown in FIG. 8, it is shown that the evaluation target event 1 in the second game space is detected at the time T (EA1). It indicates that the evaluation target event 1 in the first game space was detected at the time T (EB1). It indicates that the evaluation target event 2 in the first game space was detected at the time T (EB2).

図8に示すように、第2ゲーム空間において評価対象イベント1が検出されるまでに、第1ゲーム空間において評価対象イベント1及び2が検出されている。このように、教師プレイヤーの評価対象イベントの数は、生徒プレイヤーの評価対象イベントの数よりも多いことが想定される。 As shown in FIG. 8, the evaluation target events 1 and 2 are detected in the first game space by the time the evaluation target event 1 is detected in the second game space. In this way, it is assumed that the number of evaluation-targeted events of the teacher player is larger than the number of evaluation-targeted events of the student player.

図7のシーケンス図に基づくと、ステップS17及びS18では、処理部31は、評価対象イベント1についての音量調整指示、及びイベント内容通知を通信端末20_1に送信する。しかし、図8に示したように、教師プレイヤーは、生徒プレイヤーが評価対象イベント1に対応する操作を行うまでに、複数の評価対象イベントに対応する操作を行うことが想定される。したがって、図7のステップS17及びS18において、処理部31は、ステップS14及びS15で検出された評価対象イベントに加えて、ステップS15までに第1ゲーム空間で検出された他の評価対象イベントの音量調整指示及びイベント内容通知を送信してもよい。 Based on the sequence diagram of FIG. 7, in steps S17 and S18, the processing unit 31 transmits a volume adjustment instruction for the evaluation target event 1 and an event content notification to the communication terminal 20_1. However, as shown in FIG. 8, it is assumed that the teacher player performs an operation corresponding to a plurality of evaluation target events before the student player performs an operation corresponding to the evaluation target event 1. Therefore, in steps S17 and S18 of FIG. 7, the processing unit 31 adds the volume of the evaluation target event detected in steps S14 and S15 and the volume of other evaluation target events detected in the first game space by step S15. Adjustment instructions and event content notifications may be sent.

情報処理装置30は、実施の形態1と同様に、第1ゲーム空間及び第2ゲーム空間における評価対象イベントに対応する反応音を決定する。ユーザU1は、決定された反応音に基づいて訓練を行うことができるため、操作スキルを向上させることができる。また、ユーザU1は、ユーザU2に対して決定された反応音を用いることにより、自身の操作スキルとの違いを把握した訓練をさらに行うことができる。したがって、実施の形態2にかかる情報処理装置30によれば、ユーザの操作スキルを向上させることができる。 The information processing device 30 determines the reaction sound corresponding to the evaluation target event in the first game space and the second game space, as in the first embodiment. Since the user U1 can perform training based on the determined reaction sound, the operation skill can be improved. Further, the user U1 can further perform training for grasping the difference from his / her own operation skill by using the reaction sound determined for the user U2. Therefore, according to the information processing device 30 according to the second embodiment, the operation skill of the user can be improved.

また、本実施の形態では、憑依モードを導入し、教師プレイヤーのプレイ内容と、生徒プレイヤーのプレイ内容とを比較する。情報処理装置30は、評価対象イベントのイベント発生時期が、教師プレイヤーよりも生徒プレイヤーの方が後である場合、教師プレイヤーの評価対象イベントの内容を生徒プレイヤーに通知する。そのため、生徒プレイヤーは、教師プレイヤーとの違いを明確に把握でき、かつ、教師プレイヤーのプレイ内容を真似することができる。 Further, in the present embodiment, the possession mode is introduced, and the play contents of the teacher player and the play contents of the student player are compared. When the event occurrence time of the evaluation target event is later than that of the teacher player, the information processing device 30 notifies the student player of the content of the evaluation target event of the teacher player. Therefore, the student player can clearly grasp the difference from the teacher player and can imitate the play content of the teacher player.

さらに、情報処理装置30は、評価対象イベントのイベント発生時期が、教師プレイヤーよりも生徒プレイヤーの方が後である場合、第2ゲーム空間における評価対象イベントに対応する反応音の音量を大きくする。そのため、生徒プレイヤーは、音量に基づいて、反応音を把握して、即時に適切な操作を行うことができる。 Further, when the event occurrence time of the evaluation target event is later than that of the teacher player, the information processing device 30 increases the volume of the reaction sound corresponding to the evaluation target event in the second game space. Therefore, the student player can grasp the reaction sound based on the volume and immediately perform an appropriate operation.

またさらに、情報処理装置30は、遅延回数が所定数以上の評価対象イベントについて、評価対象イベントが遅延したことを通信端末20_1に通知する。そのため、生徒プレイヤーは、教師プレイヤーの操作内容の違いを把握でき、向上させるべき操作スキルを把握することができる。したがって、実施の形態2にかかる情報処理装置30によれば、ユーザの操作スキルを向上させることができる。 Further, the information processing apparatus 30 notifies the communication terminal 20_1 that the evaluation target event has been delayed for the evaluation target event whose number of delays is a predetermined number or more. Therefore, the student player can grasp the difference in the operation contents of the teacher player and can grasp the operation skill to be improved. Therefore, according to the information processing device 30 according to the second embodiment, the operation skill of the user can be improved.

本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態では、本発明をハードウェアの構成として説明したが、本発明は、これに限定されるものではない。本発明は、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。 The present invention is not limited to the above-described embodiment, and can be appropriately modified without departing from the spirit. For example, in the above-described embodiment, the present invention has been described as a hardware configuration, but the present invention is not limited thereto. The present invention can also be realized by causing a CPU (Central Processing Unit) to execute a computer program.

プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Programs can be stored and supplied to a computer using various types of non-transitory computer readable medium. Non-transient computer-readable media include various types of tangible storage media. Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs. It includes a CD-R / W and a semiconductor memory (for example, a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, and a RAM (random access memory)). The program may also be supplied to the computer by various types of transient computer readable medium. Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

10、30 情報処理装置
11、31 処理部
12 取得部
13、33 検出部
14 決定部
15 記憶部
20、20_1、20_2 通信端末
100、200 情報処理システム
151 ゲームプログラム
U1、U2 ユーザ
10, 30 Information processing device 11, 31 Processing unit 12 Acquisition unit 13, 33 Detection unit 14 Decision unit 15 Storage unit 20, 20_1, 20_2 Communication terminal 100, 200 Information processing system 151 Game program U1, U2 User

Claims (7)

第1ユーザの操作に基づく第1仮想空間における所定イベントを検出する検出部と、
前記所定イベントが検出された時刻前に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する決定部と、を備える情報処理装置。
A detector that detects a predetermined event in the first virtual space based on the operation of the first user,
Before the time when the predetermined event is detected, the first user is notified of the predetermined event based on the output sound information including the identification information of the output sound output from the first communication terminal displaying the first virtual space. An information processing device including a determination unit that determines a first output sound that has been subjected to a corresponding operation.
前記出力音情報は、前記第1仮想空間内のオブジェクトに関連する出力音の識別情報と、前記第1通信端末から出力される出力音の音量とを含み、
前記決定部は、前記音量に基づいて、前記第1出力音を決定する、請求項1に記載の情報処理装置。
The output sound information includes identification information of the output sound related to the object in the first virtual space and the volume of the output sound output from the first communication terminal.
The information processing device according to claim 1, wherein the determination unit determines the first output sound based on the volume.
前記出力音情報は、前記第1仮想空間における基準位置と、前記第1仮想空間におけるオブジェクトの位置との相対距離を含み、
前記決定部は、前記相対距離に基づいて、前記第1出力音を決定する、請求項1又は2に記載の情報処理装置。
The output sound information includes a relative distance between the reference position in the first virtual space and the position of the object in the first virtual space.
The information processing device according to claim 1 or 2, wherein the determination unit determines the first output sound based on the relative distance.
前記出力音情報は、前記第1仮想空間における、基準位置に対する前記オブジェクトの方向を含み、
前記決定部は、前記方向をさらに用いて、前記第1出力音を決定する、請求項2又は3に記載の情報処理装置。
The output sound information includes the direction of the object with respect to the reference position in the first virtual space.
The information processing device according to claim 2 or 3, wherein the determination unit further uses the direction to determine the first output sound.
前記検出部は、第2ユーザの操作に基づく第2仮想空間における前記所定イベントを検出し、
前記第1仮想空間における前記所定イベントが検出された後に、前記第2仮想空間における前記所定イベントが検出された場合、前記第1仮想空間における前記所定イベントの内容を、前記第2仮想空間を表示する第2通信端末に通知する処理部を備える、請求項1〜4のいずれか1項に記載の情報処理装置。
The detection unit detects the predetermined event in the second virtual space based on the operation of the second user, and detects the predetermined event.
When the predetermined event in the second virtual space is detected after the predetermined event in the first virtual space is detected, the content of the predetermined event in the first virtual space is displayed in the second virtual space. The information processing apparatus according to any one of claims 1 to 4, further comprising a processing unit for notifying the second communication terminal.
第1ユーザの操作に基づく第1仮想空間における所定イベントを検出し、
前記所定イベントが検出された時刻前に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する、出力音決定方法。
Detects a predetermined event in the first virtual space based on the operation of the first user,
Before the time when the predetermined event is detected, the first user is notified of the predetermined event based on the output sound information including the identification information of the output sound output from the first communication terminal displaying the first virtual space. An output sound determination method for determining the first output sound for which the corresponding operation has been performed.
第1ユーザの操作に基づく第1仮想空間における所定イベントを検出し、
前記所定イベントが検出された時刻前に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する、処理をコンピュータに実行させる出力音決定プログラム。
Detects a predetermined event in the first virtual space based on the operation of the first user,
Before the time when the predetermined event is detected, the first user is notified of the predetermined event based on the output sound information including the identification information of the output sound output from the first communication terminal displaying the first virtual space. An output sound determination program that causes a computer to execute processing that determines the first output sound that has been subjected to the corresponding operation.
JP2020052704A 2020-03-24 2020-03-24 Information processing device, output sound determination method, and output sound determination program Active JP7484285B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020052704A JP7484285B2 (en) 2020-03-24 2020-03-24 Information processing device, output sound determination method, and output sound determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020052704A JP7484285B2 (en) 2020-03-24 2020-03-24 Information processing device, output sound determination method, and output sound determination program

Publications (2)

Publication Number Publication Date
JP2021151336A true JP2021151336A (en) 2021-09-30
JP7484285B2 JP7484285B2 (en) 2024-05-16

Family

ID=77886852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020052704A Active JP7484285B2 (en) 2020-03-24 2020-03-24 Information processing device, output sound determination method, and output sound determination program

Country Status (1)

Country Link
JP (1) JP7484285B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6017223B2 (en) 2012-08-09 2016-10-26 株式会社コナミデジタルエンタテインメント Game systems, game consoles, and programs
JP6266904B2 (en) 2013-06-19 2018-01-24 株式会社カプコン Game program and game system
JP6481822B2 (en) 2015-04-30 2019-03-13 株式会社コナミデジタルエンタテインメント GAME DEVICE AND PROGRAM

Also Published As

Publication number Publication date
JP7484285B2 (en) 2024-05-16

Similar Documents

Publication Publication Date Title
JP6781289B2 (en) Game video distribution device, game video distribution method, game video distribution program
US9564866B2 (en) Method and device for prioritizing audio delivery in an application
JP6260785B2 (en) GAME SYSTEM, CONTROL METHOD AND COMPUTER PROGRAM USED FOR THE SAME
US11135512B2 (en) Information processing apparatus, information processing method, and recording medium
CA2949464C (en) Video game with dynamic quest clues based on number of completions
JP6837112B2 (en) Game system
JP2017093803A (en) Evaluation program, evaluation method and evaluation device
JP6587817B2 (en) Game system
JP6454187B2 (en) Program and game system
US11478710B2 (en) Information processing device, method and medium
JP2021151336A (en) Information processing device, output sound determination method and output sound determination program
JP6651091B2 (en) Game system and computer program used therefor
JP7394176B2 (en) Game system, server and game execution method
JP2021153789A (en) Information processing device, output sound determination method, and output sound determination program
WO2023106040A1 (en) Information processing device, information processing method, and program
JP2015008879A (en) Game system and control method thereof
JP6147779B2 (en) Program, game device, and server
JP7022786B2 (en) Program and game system
JP6129619B2 (en) Video game processing apparatus and video game processing program
JP6978694B2 (en) Game programs and game equipment
JP2017051550A (en) Game system
JP2018029820A (en) Program and game system
JP2022097090A (en) Information processing device, program, and ally character control method
JP2015173801A (en) Game system, game terminal, game terminal program, and game method
JP2019037884A (en) Program and game system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7484285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150