JP2021151336A - Information processing device, output sound determination method and output sound determination program - Google Patents
Information processing device, output sound determination method and output sound determination program Download PDFInfo
- Publication number
- JP2021151336A JP2021151336A JP2020052704A JP2020052704A JP2021151336A JP 2021151336 A JP2021151336 A JP 2021151336A JP 2020052704 A JP2020052704 A JP 2020052704A JP 2020052704 A JP2020052704 A JP 2020052704A JP 2021151336 A JP2021151336 A JP 2021151336A
- Authority
- JP
- Japan
- Prior art keywords
- output sound
- communication terminal
- information
- event
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 96
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000004891 communication Methods 0.000 claims abstract description 181
- 238000001514 detection method Methods 0.000 claims abstract description 72
- 238000012545 processing Methods 0.000 claims description 72
- 238000011156 evaluation Methods 0.000 description 87
- 230000009471 action Effects 0.000 description 16
- 230000001934 delay Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 9
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 208000037656 Respiratory Sounds Diseases 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置、出力音決定方法及び出力音決定プログラムに関する。 The present invention relates to an information processing device, an output sound determination method, and an output sound determination program.
仮想空間内でキャラクタの行動に応じて、当該キャラクタの位置に基づいて設定された音源の発音を制御する技術が知られている(例えば、特許文献1)。特許文献1に開示された技術を用いることにより、キャラクタから発せられる音に臨場感が生まれ、ゲームに対する楽しみが増幅される。
There is known a technique for controlling the sound source set based on the position of the character according to the behavior of the character in the virtual space (for example, Patent Document 1). By using the technology disclosed in
近年、FPS(First Person shooter)及びTPS(Third Person shooter)等のゲームを用いた、いわゆる「eスポーツ」の競技者が増加している。eスポーツの競技者の増加に伴い、ゲームを楽しむことに加えて、ゲームのスキル向上を求めるユーザが増えている。多人数で行うeスポーツには、決まったシナリオがないため、各ユーザがシナリオを覚えて先読みをして、ゲームスキル向上を図ることはできないが、一般的なスポーツと同様に、他人にコーチングしてもらうことで上達することは可能である。 In recent years, the number of so-called "e-sports" athletes using games such as FPS (First Person shooter) and TPS (Third Person shooter) has increased. As the number of e-sports players increases, the number of users who want to improve their game skills in addition to enjoying the game is increasing. Since there is no fixed scenario for multiplayer e-sports, it is not possible for each user to remember the scenario and look ahead to improve their game skills, but as with general sports, coaching others. It is possible to improve by having them do it.
ところで、上級プレイヤーのようなゲームスキルが高いユーザは、出力される複数の音の各々に対して、重要な音であるか否かを適切に判断した上で、操作を行っていることが想定される。そのため、各ユーザがどのような出力音に反応して操作を行ったかを把握することで、ユーザの操作スキル向上につながる可能性があり得る。特許文献1は、ユーザの操作スキルを向上させるための技術を開示していない。
By the way, it is assumed that a user with high game skill, such as an advanced player, performs an operation after appropriately judging whether or not each of a plurality of output sounds is an important sound. Will be done. Therefore, it is possible that the operation skill of the user can be improved by grasping what kind of output sound each user responds to the operation.
本発明の目的は、上述した課題を解決するためになされたものであり、ユーザの操作スキルを向上させることが可能な情報処理装置、出力音決定方法及び出力音決定プログラムを提供することにある。 An object of the present invention is to solve the above-mentioned problems, and to provide an information processing device, an output sound determination method, and an output sound determination program capable of improving a user's operation skill. ..
本発明にかかる情報処理装置は、第1ユーザの操作に基づく第1仮想空間における所定イベントを検出する検出部と、前記所定イベントが検出された時刻前の所定期間に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する決定部と、を備える。 The information processing apparatus according to the present invention has a detection unit that detects a predetermined event in the first virtual space based on the operation of the first user, and the first virtual space in a predetermined period before the time when the predetermined event is detected. A determination unit that determines the first output sound that causes the first user to perform an operation corresponding to the predetermined event based on the output sound information including the output sound identification information output from the first communication terminal to be displayed. , Equipped with.
本発明にかかる出力音決定方法は、第1ユーザの操作に基づく第1仮想空間における所定イベントを検出し、前記所定イベントが検出された時刻前の所定期間に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する、出力音決定方法である。 The output sound determination method according to the present invention detects a predetermined event in the first virtual space based on the operation of the first user, and displays the first virtual space in a predetermined period before the time when the predetermined event is detected. An output sound determination method for determining a first output sound obtained by causing the first user to perform an operation corresponding to the predetermined event based on output sound information including identification information of the output sound output from the first communication terminal. Is.
本発明にかかる出力音決定プログラムは、第1ユーザの操作に基づく第1仮想空間における所定イベントを検出し、前記所定イベントが検出された時刻前の所定期間に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する、処理をコンピュータに実行させる出力音決定プログラムである。 The output sound determination program according to the present invention detects a predetermined event in the first virtual space based on the operation of the first user, and displays the first virtual space in a predetermined period before the time when the predetermined event is detected. Based on the output sound information including the output sound identification information output from the first communication terminal, the computer performs a process of determining the first output sound that causes the first user to perform an operation corresponding to the predetermined event. This is an output sound determination program to be executed.
本発明によれば、ユーザの操作スキルを向上させることが可能な情報処理装置、出力音決定方法及び出力音決定プログラムを提供できる。 According to the present invention, it is possible to provide an information processing device, an output sound determination method, and an output sound determination program capable of improving a user's operation skill.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。但し、本発明が以下の実施の形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments. Further, in order to clarify the explanation, the following description and drawings have been simplified as appropriate.
(実施の形態1)
<情報処理システムの構成例>
図1を用いて、実施の形態1にかかる情報処理システム100の構成例について説明する。図1は、実施の形態1にかかる情報処理システムの構成例を示す図である。情報処理システム100は、情報処理装置10と、通信端末20とを備える。情報処理システム100は、ユーザU1が通信端末20においてプレイするゲームを提供するシステムであるため、ゲームシステムと称されてもよい。
(Embodiment 1)
<Configuration example of information processing system>
A configuration example of the
情報処理装置10は、例えば、パーソナルコンピュータ装置、サーバ装置であってもよい。情報処理装置10は、ネットワークを介して通信端末20と接続及び通信を行う。ネットワークは、無線ネットワークであってもよいし、有線ネットワークであってもよいし、無線及び有線ネットワークであってもよい。情報処理装置10は、ゲームプログラム151が記憶部15に記憶されており、ゲームプログラム151を用いて、通信端末20にゲームを提供する。情報処理装置10は、ゲームサーバと称されてもよい。情報処理装置10が提供するゲームは、例えば、FPS又はTPS等のゲームであってもよい。
The
情報処理装置10は、ゲームシナリオを通信端末20に送信する。情報処理装置10は、通信端末20及び他の通信端末(不図示)に入力された操作情報を受信する。情報処理装置10は、通信端末20から受信された操作情報、及び他の通信端末(不図示)から受信された操作情報に基づいて、仮想空間であるゲーム空間に配置される少なくとも1つのオブジェクトのゲーム空間における位置情報及び行動情報を決定する。情報処理装置10は、決定した位置情報及び行動情報を通信端末20に送信する。オブジェクトは、例えば、ゲーム内のプレイヤーキャラクタ、敵キャラクタ、味方キャラクタ、及び各種物体を含む。プレイヤーキャラクタは、通信端末20を用いてゲームを行うユーザU1の操作に応じて行動するキャラクタである。なお、ゲームシナリオとは各通信端末がゲームを実行するにあたって必要な情報を意味し、例えば、プレイヤーの設定、キャラクタの状況等に関する情報である。
The
通信端末20は、例えば、パーソナルコンピュータ装置、スマートフォン、タブレット端末、携帯電話、ゲーム専用装置であってもよい。通信端末20は、ゲームをユーザU1に提供する端末である。通信端末20は、ゲーム端末と称されてもよい。通信端末20は、情報処理装置10とネットワークを介して接続及び通信を行う。通信端末20は、情報処理装置10からゲームシナリオを受信し、ゲームシナリオに基づいてゲーム空間をディスプレイに表示してゲームを実行する。通信端末20は、ユーザU1が行った操作を取得し、操作情報を生成する。通信端末20は、情報処理装置10に操作情報を送信する。通信端末20は、情報処理装置10からゲーム内の各オブジェクトのゲーム空間における位置情報及び行動情報を受信し、ゲーム内の各オブジェクトのディスプレイ上の表示位置及び表示動作を決定する。通信端末20は、決定した表示位置及び表示動作に基づいて、ゲーム内の各オブジェクトが配置されたゲーム空間を、通信端末20が備えるディスプレイに表示する。
The
<情報処理装置の構成例>
次に、情報処理装置10の構成例について説明する。情報処理装置10は、処理部11と、取得部12と、検出部13と、決定部14と、記憶部15とを備える。処理部11、取得部12、検出部13、決定部14及び記憶部15は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェア又はモジュールであってもよい。また、処理部11、取得部12、検出部13、決定部14及び記憶部15は、回路又はチップ等のハードウェアであってもよい。
<Configuration example of information processing device>
Next, a configuration example of the
処理部11は、記憶部15に記憶されたゲームプログラム151に基づいて、ゲームに関連する処理を実行する。処理部11は、ゲームプログラム151に基づいて、所定時間毎に、ゲームシナリオを生成し、ゲームシナリオを通信端末20に送信する。処理部11は、後述する取得部12が通信端末20から受信した操作情報、及び他の通信端末(不図示)から受信した操作情報に基づいて、通信端末20が実行するゲーム空間内の少なくとも1つのオブジェクトの位置情報及び行動情報を決定する。処理部11は、決定した位置情報及び行動情報を通信端末20に送信する。
The
処理部11は、通信端末20において実行されるゲーム空間内の各オブジェクトの位置情報及び行動情報に基づいて、通信端末20から出力される出力音の識別情報を含む出力音情報を生成する。処理部11は、生成した出力音情報を記憶部15に記憶する。
The
出力音情報は、出力される出力音の識別情報として、ゲーム内の各オブジェクトのオブジェクト識別情報、及び各オブジェクトに関連する出力音データを識別する識別情報などを含む。また、出力音情報は、出力音識別情報に対応する出力音データの出力音が出力される出力開始時刻、及び当該出力音データの出力音が出力される出力終了時刻を含む。さらに、出力音情報は、通信端末20から出力される出力音の音量、ゲーム空間内の基準位置とゲーム空間内の各オブジェクトの位置との相対距離、及びゲーム空間における、基準位置に対する各オブジェクトの方向を含む。基準位置は、例えば、ゲーム空間内のプレイヤーキャラクタの位置であるが、任意に設定された位置でもよい。
The output sound information includes object identification information of each object in the game, identification information for identifying output sound data related to each object, and the like as identification information of the output sound to be output. Further, the output sound information includes an output start time at which the output sound of the output sound data corresponding to the output sound identification information is output, and an output end time at which the output sound of the output sound data is output. Further, the output sound information includes the volume of the output sound output from the
処理部11は、ゲーム空間における各オブジェクトの位置情報及び行動情報に基づいて、各時刻に通信端末20から出力される出力音を決定し、出力音情報を生成する。処理部11は、各オブジェクトの位置情報及び行動情報に基づいて、出力音情報が含む相対距離及び方向を算出する。また、処理部11は、各オブジェクトの位置情報、行動情報及び出力音に関する複数のパラメータに基づいて、出力音情報が含む音量を算出する。
The
なお、処理部11は、通信端末20から出力される出力音の音量を、通信端末20から取得してもよい。もしくは、通信端末20が出力する各出力音を記録した音データを生成し、処理部11が、通信端末20から当該音データを取得して解析することにより、通信端末20から出力される出力音の音量を算出してもよい。また、通信端末20が出力音情報を生成し、処理部11又は取得部12が、通信端末20から出力音情報を取得してもよい。
The
取得部12は、通信端末20に入力された操作情報を通信端末20から受信して、当該操作情報を取得する。
検出部13は、ユーザU1の操作に基づく、通信端末20が表示するゲーム空間における所定の操作イベントを検出する。操作イベントとは、ユーザU1の操作に基づいて、通信端末20に表示されるゲーム空間におけるプレイヤーキャラクタの動作を含む当該ゲーム空間が表示されたディスプレイの状態が変化することをいい、例えば、イベント用判定テーブルに設定された状態変化である。検出部13は、取得された操作情報と、イベント判定用テーブルとに基づいて、操作イベントを検出するとともに、検出した操作イベントが所定の操作イベントであるか否の判定に基づいて所定の操作イベントを検出する。所定の操作イベントは、ゲームスキルの向上につながる操作イベントであり、評価対象イベントと称される。
The
The
ここで、図2を用いて、イベント判定用テーブルについて説明する。図2は、イベント判定用テーブルの一例を示す図である。イベント判定用テーブルは、複数の操作イベントを管理するとともに、各操作イベントが評価対象イベントであるかを判定するためのテーブルである。イベント判定用テーブルは、記憶部15に格納される。
Here, the event determination table will be described with reference to FIG. FIG. 2 is a diagram showing an example of an event determination table. The event determination table is a table for managing a plurality of operation events and determining whether each operation event is an evaluation target event. The event determination table is stored in the
図2に示すように、イベント判定用テーブルは、操作イベントと、評価対象イベントとが対応付けられている。
操作イベントには、ユーザU1の操作により発生するゲーム空間内のイベントが設定される。
評価対象イベントには、操作イベントが評価対象イベントであるか否かを判定するための情報が設定される。評価対象イベントに「○」が設定されている場合、評価対象イベントであることを表しており、評価対象イベントに「×」が設定されている場合、評価対象イベントではないことを表している。
As shown in FIG. 2, in the event determination table, an operation event and an evaluation target event are associated with each other.
An event in the game space generated by the operation of the user U1 is set as the operation event.
Information for determining whether or not the operation event is an evaluation target event is set in the evaluation target event. When "○" is set in the evaluation target event, it means that it is an evaluation target event, and when "x" is set in the evaluation target event, it means that it is not an evaluation target event.
検出部13は、操作情報に基づいて、例えば、通信端末20のゲーム空間においてプレイヤーキャラクタが取った行動内容を特定する。検出部13は、当該プレイヤーキャラクタの行動内容が、イベント判定用テーブルの操作イベントに設定された行動内容であるかを判定する。検出部13は、プレイヤーキャラクタの行動内容がイベント判定用テーブルの操作イベントに設定されている場合、イベント判定用テーブルの評価対象イベントを確認し、プレイヤーキャラクタの行動内容が評価対象イベントであるか否かを判定する。検出部13は、プレイヤーキャラクタの行動内容が評価対象イベントであると判定すると、評価対象イベントが発生したことを検出する。
Based on the operation information, the
検出部13は、評価対象イベントを検出した場合、評価対象イベントのイベント発生時刻、イベント終了時刻、操作イベント、及び評価対象イベント前後のプレイヤーキャラクタの状態を含むイベント情報を生成する。評価対象イベント前後のプレイヤーキャラクタの状態には、例えば、操作イベントが「武器を変更」である場合、イベント前の状態として「ナイフを所持」が設定され、イベント後の状態は「銃器を所持」が設定される。検出部13は、イベント情報を記憶部15に格納する。
When the evaluation target event is detected, the
なお、通信端末20が、イベント判定用テーブルに設定された操作イベントを保持し、通信端末20に入力された操作情報に基づいて操作イベントを検出し、イベント情報を生成してもよい。検出部13は、例えば、JSON(JavaScript Object Notation)形式のデータとしてイベント情報を通信端末20から取得し、取得したイベント情報と、イベント判定用テーブルとに基づいて、評価対象イベントを検出してもよい。検出部13は、評価対象イベントのイベント情報を記憶部15に格納してもよい。
The
図1に戻り、決定部14について説明する。決定部14は、出力音情報から、イベント発生時刻前の検出期間に、通信端末20から出力された出力音の出力音情報を抽出する。決定部14は、出力音情報の出力開始時刻と、出力終了時刻との間に、検出期間が含まれる出力音情報を抽出する。決定部14は、抽出した出力音情報に基づいて、ユーザU1に評価対象イベントに対応する操作を行わせた出力音を決定する。ユーザU1に評価対象イベントに対応する操作を行わせた出力音は、ユーザU1が反応した出力音であるため、反応音と称して記載することがある。ユーザU1に評価対象イベントに対応する操作を行わせた出力音は、ユーザU1の操作と、評価対象イベントとの間に因果関係がある出力音と称されてもよい。
Returning to FIG. 1, the
検出期間は、イベント発生時刻から所定時刻前までの期間である。なお、検出期間は、イベント発生時刻のみに限定されず、イベント発生時刻の前、または後の時刻から所定時刻前までの期間であってもよい。検出期間の長さは、例えば、1つのゲームシナリオが実行される期間であってもよい。もしくは、検出期間の長さは、複数のユーザの各々が、ある音に反応して操作を行うまでの時間の平均時間であってもよい。もしくは、検出期間の長さは、ユーザUIの習熟度に応じて変化するようにするため、ユーザUIがある音に反応して操作を行うまでの直近複数回(例えば、5回)の時間の平均時間であってもよい。もしくは、検出期間の長さは、固定時間(例えば、3秒)であってもよい。 The detection period is the period from the event occurrence time to a predetermined time before. The detection period is not limited to the event occurrence time, and may be a period from the time before or after the event occurrence time to the predetermined time. The length of the detection period may be, for example, the period during which one game scenario is executed. Alternatively, the length of the detection period may be the average time required for each of the plurality of users to perform an operation in response to a certain sound. Alternatively, in order to change the length of the detection period according to the proficiency level of the user UI, the time required for the user UI to perform an operation in response to a certain sound is the most recent multiple times (for example, 5 times). It may be the average time. Alternatively, the length of the detection period may be a fixed time (for example, 3 seconds).
決定部14は、通信端末20が表示するオブジェクトに関連する出力音の識別情報と、通信端末20から出力される出力音の音量とに基づいて、ユーザU1に評価対象イベントに対応する操作を行わせた出力音を決定する。具体的には、決定部14は、抽出した出力音情報に含まれる音量に基づいて、反応音を決定する。
The
ここで、図3を用いて、決定部14の決定処理について説明する。図3は、決定処理を説明するための図である。横軸は、時刻を示す軸であり、右に行くほど時刻が経過していることを表している。縦軸は、通信端末20から出力される出力音の音量を示す軸であり、下に行くほど大きい音量であることを表している。図3に記載されているブロックは、出力音が出力されている時刻と、当該出力音の音量との関係を図示したものである。
Here, the determination process of the
出力音S(A)〜S(E)は、通信端末20に出力される出力音である。出力音S(A)は、例えば、敵キャラクタの呼吸音であり、出力音S(B)は、例えば、味方キャラクタの移動音であり、出力音S(C)は、例えば、味方キャラクタの移動音である。また、出力音S(D)は、例えば、敵キャラクタの移動音であり、出力音S(E)は、例えば、敵キャラクタの移動音である。
The output sounds S (A) to S (E) are output sounds output to the
決定部14は、検出部13が評価対象イベントを検出すると、出力音情報から、イベント発生時刻である時刻T(EA)から所定時刻前までの検出期間TFに、通信端末20から出力された出力音情報を抽出する。決定部14は、抽出された出力音情報に基づいて、出力開始時刻及び出力終了時刻と、音量とを取得する。図3は、取得した出力開始時刻及び出力終了時刻と、音量とに基づいて、出力音S(A)〜S(E)を図示したものである。
When the
決定部14は、検出期間TFにおいて、各出力音の出力開始時刻における音量が最も大きい出力音を特定し、特定した出力音を反応音と決定する。図3では、検出期間TFにおいて、各出力音の出力開始時刻における音量が最も大きい出力音はS(A)である。そのため、決定部14は、敵キャラクタの呼吸音を反応音として決定する。
The
決定部14が、検出期間TF内に出力された出力音の出力開始時刻における音量が最も大きい出力音が複数あることも想定される。そのため、検出期間TF内に出力された出力音の出力開始時刻における音量が最も大きい出力音が複数ある場合、決定部14は、抽出した出力音情報に含まれる、基準位置に対する方向に基づいて、反応音を決定する。具体的には、決定部14は、特定された複数の出力音の方向が所定方向である出力音を反応音として決定する。所定方向は、基準位置が例えばゲーム空間におけるプレイヤーキャラクタの位置である場合、プレイヤーキャラクタの顔方向又は進行方向と逆方向でもよいし、同じ方向でもよいし、任意に設定された方向であってもよい。または、所定方向は、よりプレイヤーキャラクタが危険に晒される可能性の高い方向、例えば、死角のような方向とするのがよい。
It is also assumed that the
図3では、各出力音の音量が、時刻に依らずに一定であるように図示されているが、時刻により変動することも想定される。そのため、決定部14は、各出力音について、出力開始時刻及び出力終了時刻の間で最も大きくなったときの音量に基づいて、反応音を決定してもよい。もしくは、決定部14は、各出力音について、出力開始時刻及び出力終了時刻の間の音量の平均値又は中央値に基づいて、反応音を決定してもよい。もしくは、決定部14は、各出力音について、出力開始時刻及び出力終了時刻の間の音量の変動量に基づいて、反応音を決定してもよい。もしくは、決定部14は、出力開始時刻の音量または出力終了時刻の音量に基づいて、反応音を決定してもよい。
In FIG. 3, the volume of each output sound is shown to be constant regardless of the time, but it is assumed that the volume may fluctuate depending on the time. Therefore, the
図1に戻り、記憶部15について説明する。記憶部15は、ゲームプログラム151を含む、ゲーム処理に必要な各種情報を記憶する。記憶部15は、イベント判定用テーブルを記憶する。記憶部15は、イベント情報、及び出力音情報を記憶する。
Returning to FIG. 1, the
<情報処理装置の動作例>
次に、図4を用いて、情報処理装置10の動作例について説明する。図4は、実施の形態1にかかる情報処理装置の動作例を示すフローチャートである。
<Operation example of information processing device>
Next, an operation example of the
取得部12は、操作情報を通信端末20から取得する(ステップS1)。取得部12は、通信端末20に入力された操作情報を通信端末20から受信して、当該操作情報を取得する。
The
処理部11は、出力音情報を生成する(ステップS2)。処理部11は、通信端末20において実行されるゲーム空間における各オブジェクトの位置情報及び行動情報に基づいて、通信端末20から出力される出力音の出力音情報を生成する。
The
検出部13は、操作イベントを検出する(ステップS3)。検出部13は、取得された操作情報と、イベント判定用テーブルとに基づいて、通信端末20において実行されるゲーム内の所定の操作イベントを検出する。
The
検出部13は、検出した操作イベントが評価対象イベントであるか判定する(ステップS4)。検出部13は、イベント判定用テーブルを用いて、検出した操作イベントが評価対象イベントであるか否を判定する。
The
操作イベントが評価対象イベントである場合(ステップS4のYES)、決定部14は、出力音情報から、検出期間における出力音情報を抽出する(ステップS5)。検出部13は、評価対象イベントを検出した場合、イベント情報を生成する。決定部14は、出力音情報の出力開始時刻と、出力終了時刻との間に、検出期間が含まれる出力音情報を抽出する。
When the operation event is an evaluation target event (YES in step S4), the
一方、操作イベントが評価対象イベントではない場合(ステップS4のNO)、ステップS1に戻り、情報処理装置10は、ステップS1以降の処理を実行する。
On the other hand, when the operation event is not the evaluation target event (NO in step S4), the process returns to step S1 and the
ステップS6において、決定部14は、抽出した出力音情報の音量に基づいて、反応音を決定する(ステップS6)。決定部14は、検出期間において、各出力音の出力開始時刻における音量が最も大きい出力音を特定し、特定した出力音を反応音と決定する。
In step S6, the
決定された反応音が複数あるかを判定し(ステップS7)、決定された反応音が複数ある場合(ステップS7のYES)、決定部14は、出力音情報に含まれる方向に基づいて、反応音を決定する(ステップS8)。決定部14は、検出期間内に出力された出力音の出力開始時刻における音量が最も大きい出力音が複数ある場合、抽出した出力音情報から、特定された出力音に関連付けられている、基準位置に対する方向を取得する。決定部14は、取得した方向が所定方向である出力音を反応音として決定する。
When it is determined whether or not there are a plurality of determined reaction sounds (step S7) and there are a plurality of determined reaction sounds (YES in step S7), the
一方、決定された反応音が複数ない場合(ステップS7のNO)、情報処理装置10は、ステップS8を実行せず、処理を終了する。
On the other hand, when there are no plurality of determined reaction sounds (NO in step S7), the
以上説明したように、検出部13が、仮想空間であるゲーム空間における操作イベントのうち、評価対象イベントを検出する。決定部14が、イベント発生時刻前の検出期間に、ゲームを表示する通信端末20から出力された出力音の出力音情報に基づいて、ユーザU1に評価対象イベントに関連する操作を行わせた出力音を決定する。
As described above, the
このように、情報処理装置10を用いることにより、ユーザがどのような出力音に反応して操作を行っているかを把握できる。各ユーザは、ゲームスキルが高いユーザが反応した出力音を確認することにより、反応すべき出力音を意識した訓練を行い、操作スキルを向上させることができる。また、各ユーザは、情報処理装置10が決定した出力音を把握することにより、注目すべき出力音を意識した訓練を行うことができるため、操作スキルを向上させることができる。したがって、実施の形態1にかかる情報処理装置10によれば、ユーザの操作スキルを向上させることができる。
In this way, by using the
(変形例1)
上述した実施の形態1では、決定部14は、出力音情報に含まれる音量に基づいて、反応音を決定したが、決定部14は、出力音情報に含まれる相対距離に基づいて、反応音を決定してもよい。決定部14は、出力音情報から、検出期間に通信端末20から出力された出力音の出力音情報を抽出する。決定部14は、抽出した出力音情報に含まれる相対距離が最も短いオブジェクトの音として通信端末20が出力する出力音を反応音と決定する。決定部14は、相対距離に基づいて、決定した反応音が複数ある場合、出力音情報に含まれる方向に基づいて、反応音を決定する。このようにしても、実施の形態1と同様の効果を得ることができる。ここで、変形例1を実施の形態1と組み合わせてもよい。例えば、決定部14は、相対距離に基づいて、決定した反応音が複数ある場合、出力音情報に含まれる音量に基づいて、反応音を決定してもよい。または、決定部14は、音量に基づいて、決定した反応音が複数ある場合、出力音情報に含まれる相対距離に基づいて、反応音を決定してもよい。
(Modification example 1)
In the first embodiment described above, the
(変形例2)
上述した実施の形態1では、決定部14は、出力音情報に含まれる音量に基づいて、反応音を決定したが、決定部14は、出力音情報と、各出力音に対して設定された優先度を管理する優先度管理テーブルとに基づいて、反応音を決定してもよい。
(Modification 2)
In the first embodiment described above, the
ここで、図5を用いて、優先度管理テーブルについて説明する。図5は、優先度管理テーブルの一例を示す図である。優先度管理テーブルは、ゲーム空間に配置される、ゲーム内の各オブジェクトに関連し、通信端末20から出力される各出力音の優先度を管理するテーブルである。優先度管理テーブルには、出力音、音源属性、及び優先度が設定される。
Here, the priority management table will be described with reference to FIG. FIG. 5 is a diagram showing an example of a priority management table. The priority management table is a table that manages the priority of each output sound output from the
出力音には、ゲーム空間に配置され、ゲーム内の各オブジェクトに関連し、通信端末20から出力される各出力音が設定される。出力音には、例えば、出力音データを識別する出力音識別情報で設定される。
音源属性には、優先度管理テーブルの出力音に設定された各出力音に関連する、ゲーム空間に配置されるオブジェクトが設定される。オブジェクトは、優先度管理テーブルの出力音を仮想的に出力するゲーム空間における音源と考えられるため、仮想音源と称されてもよい。
優先度には、優先度管理テーブルの出力音に設定された各出力音の優先度が設定される。優先度は、例えば、ゲームスキルの高いプレイヤーのプレイ内容に基づいて決定される。優先度は、例えば、ゲームスキルの高いプレイヤーがプレイし、決定部14が決定した反応音の決定回数等の履歴情報に基づいて決定されてもよい。
As the output sound, each output sound that is arranged in the game space, is related to each object in the game, and is output from the
Objects to be placed in the game space related to each output sound set in the output sound of the priority management table are set in the sound source attribute. The object may be referred to as a virtual sound source because it is considered to be a sound source in the game space that virtually outputs the output sound of the priority management table.
In the priority, the priority of each output sound set in the output sound of the priority management table is set. The priority is determined based on, for example, the play content of a player with high game skill. The priority may be determined based on historical information such as the number of times the reaction sound is determined by the
決定部14は、出力音情報から、検出期間に通信端末20から出力された出力音の出力音情報を抽出する。決定部14は、抽出した出力音情報に含まれる出力音識別情報を取得する。決定部14は、取得した出力音識別情報を条件(キー)として、優先度管理テーブルを検索し、取得した出力音識別情報に対応付けられた優先度を取得する。決定部14は、取得した優先度が最も高い出力音を反応音として決定する。決定部14は、出力音の優先度に基づいて、決定した反応音が複数ある場合、出力音情報に含まれる方向に基づいて、反応音を決定する。このようにしても、実施の形態1と同様の効果を得ることができる。また、優先度が、ゲームスキルの高いプレイヤーのプレイに基づいて決定される場合、より適切な反応音を把握できるため、スキル向上をさらに図ることができる。ここで、変形例2と、実施の形態1及びまたは変形例1を、それぞれ判定順序を定めておくことで組み合わせてもよい。
The
(変形例3)
上述した実施の形態1では、情報処理装置10が反応音を決定することで説明したが、情報処理装置10が備える機能部を通信端末20が備えるように変形してもよい。そして、通信端末20が、情報処理装置10が行う各処理を実行してもよい。このようにしても、実施の形態1と同様の効果を得ることができる。
(Modification example 3)
In the first embodiment described above, the
(実施の形態2)
続いて、実施の形態2について説明する。実施の形態2は、実施の形態1の改良例である。
<情報処理システムの構成例>
図6を用いて、実施の形態2にかかる情報処理システム200の構成例について説明する。図6は、実施の形態2にかかる情報処理システムの構成例を示す図である。情報処理システム200は、情報処理装置30と、通信端末20_1及び20_2とを備える。通信端末20_1及び20_2は、実施の形態1の通信端末20と同様の構成及び動作を行う通信端末である。情報処理システム200は、実施の形態1と比較すると、情報処理装置10が情報処理装置30に置き換わった構成であり、通信端末20を2つ備える構成である。
(Embodiment 2)
Subsequently, the second embodiment will be described. The second embodiment is an improved example of the first embodiment.
<Configuration example of information processing system>
A configuration example of the
情報処理装置30は、実施の形態1にかかる情報処理装置10と基本的に同様の構成である。そのため、実施の形態1と共通する説明については適宜説明を割愛する。情報処理装置30は、ネットワークを介して通信端末20_1及び20_2と接続及び通信を行う。情報処理装置30は、ゲームプログラム151を用いて、通信端末20_1及び20_2にゲームを提供する。
The
情報処理装置30は、通信端末20_1及び20_2における評価対象イベントの比較ができるモードである憑依モードによるプレイを、通信端末20_1及び20_2に提供する。憑依モードは、通信端末20_1及び20_2の一方を生徒プレイヤー端末と指定し、他方を教師プレイヤー端末と指定し、教師プレイヤーのゲームプレイ内容と、生徒プレイヤーのゲームプレイ内容とを比較するモードである。なお、以降の説明では、通信端末20_1及び20_2は、憑依モードでゲームを実行し、通信端末20_1が生徒プレイヤー端末であり、通信端末20_2が教師プレイヤー端末であることを前提として説明する。
The
憑依モードでは、情報処理装置30は、通信端末20_1及び20_2に、所定時間毎に同一のゲームシナリオを送信する。通信端末20_1及び20_2は、1つのゲームシナリオ内では独立にプレイ可能に構成される。情報処理装置30は、次のゲームシナリオを通信端末20_1及び20_2に送信し、当該ゲームシナリオが開始されると、教師プレイヤー端末のプレイヤーキャラクタ等の状況が生徒プレイヤー端末と一致するように調整される。つまり、憑依モードは、教師プレイヤー端末のゲーム内のプレイヤーキャラクタ、各オブジェクトを含むゲーム空間が、ゲームシナリオが変更される毎に、生徒プレイヤー端末のゲーム空間と置き換わるモードである。このように、情報処理装置30は、憑依モードを導入し、各ゲームシナリオに対して、教師プレイヤーのゲームプレイ内容と、生徒プレイヤーのゲームプレイ内容とを比較する。
In the possession mode, the
情報処理装置30は、通信端末20_1及び20_2において、憑依モードによるプレイが実行できるように、通信端末20_1のゲーム空間における各オブジェクトの位置情報、行動情報及びゲーム空間に関する情報を通信端末20_1から取得する。そして、情報処理装置30は、教師プレイヤー端末として指定された通信端末20_2に対して、ゲームシナリオを送信するとともに、通信端末20_1のゲーム空間に関する情報を通信端末20_2に送信する。なお、通信端末20_2は、通信端末20_1から通信端末20_1のゲーム空間に関する情報を取得して、自装置のゲーム空間と置換するようにしてもよい。
The
通信端末20_1及び20_2は、実施の形態1にかかる通信端末20と基本的に同様の構成である。そのため、実施の形態1と共通する説明については適宜説明を割愛する。通信端末20_1は、生徒プレイヤーであるユーザU1が有する通信端末である。通信端末20_2は、教師プレイヤーであるユーザU2が有する通信端末である。通信端末20_1及び20_2は、バイブレータを備える。
The communication terminals 20_1 and 20_2 have basically the same configuration as the
通信端末20_1及び20_2は、憑依モードによるゲームプレイが実行できるように構成される。通信端末20_1及び20_2は、ゲームシナリオを情報処理装置30から受信する。通信端末20_1及び20_2は、ゲームシナリオに基づいて、仮想空間であるゲーム空間を自装置が備えるディスプレイに表示する。通信端末20_2は、ゲームシナリオを受信する前の通信端末20_1のゲーム空間に関する情報を情報処理装置30から受信する。通信端末20_2は、自装置が表示しているゲーム空間を、通信端末20_1のゲーム空間に置換して、受信したゲームシナリオに基づいてゲームを実行する。なお、説明を便宜的に行うために、通信端末20_2が表示するゲーム空間を第1ゲーム空間とし、通信端末20_1が表示するゲーム空間を第2ゲーム空間として記載する。
The communication terminals 20_1 and 20_2 are configured to be capable of executing game play in possession mode. The communication terminals 20_1 and 20_2 receive the game scenario from the
<情報処理装置の構成例>
次に、情報処理装置30の構成例について説明する。情報処理装置30は、処理部31と、取得部12と、検出部33と、決定部14と、記憶部15とを備える。情報処理装置30は、実施の形態1の情報処理装置10の処理部11及び検出部13がそれぞれ処理部31及び検出部33に置き換わった構成をしている。取得部12、決定部14及び記憶部15については、実施の形態1と基本的に同様であるため、実施の形態1と共通する内容を適宜割愛しながら実施の形態1と異なる構成について説明する。
<Configuration example of information processing device>
Next, a configuration example of the
取得部12は、通信端末20_1及び20_2に入力された操作情報を通信端末20_1及び20_2から受信して、当該操作情報を取得する。
決定部14は、出力音情報から、イベント発生時刻前の検出期間に、ゲームを表示する通信端末20_1及び20_2から出力された出力音の出力音情報を抽出する。決定部14は、それぞれ抽出した出力音情報に基づいて、ユーザU1及びユーザU2に評価対象イベントに対応する操作を行わせた出力音である反応音を決定する。
The
The
処理部31は、実施の形態1にかかる処理部11に対応する。処理部31は、処理部11と基本的に同様の構成であるため、実施の形態1と同様の構成については説明を適宜割愛する。処理部31は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェア又はモジュールであってもよい。また、処理部31は、回路又はチップ等のハードウェアであってもよい。
The
処理部31は、通信端末20_1及び20_2にゲームシナリオを送信する。処理部31は、ゲームシナリオを送信する前に、第2ゲーム空間に関する情報を通信端末20_1から取得する。処理部31は、教師プレイヤー端末として指定された通信端末20_2に、ゲームシナリオを送信するとともに、第2ゲーム空間に関する情報を通信端末20_2に送信する。
The
処理部31は、第1ゲーム空間において評価対象イベントが検出された後に第2ゲーム空間において当該評価対象イベントが検出された場合、通信端末20_2の評価対象イベントの内容を通信端末20_1に通知する。処理部31は、通信端末20_2の評価対象イベントの内容を含むイベント内容通知を通信端末20_1に送信することにより、通信端末20_2の評価対象イベントの内容を通信端末20_1に通知する。
When the evaluation target event is detected in the second game space after the evaluation target event is detected in the first game space, the
処理部31は、検出部33が第1ゲーム空間において評価対象イベントを検出した場合、第1ゲーム空間におけるイベント発生時刻を検出部33から取得する。処理部31は、検出部33が第2ゲーム空間において当該評価対象イベントを検出した場合、第2ゲーム空間におけるイベント発生時刻を検出部33から取得する。処理部31は、第1ゲーム空間のイベント発生時刻が、第2ゲーム空間のイベント発生時刻よりも後である場合、通信端末20_2の評価対象イベントの内容を含むイベント内容通知を通信端末20_1に送信する。
When the
処理部31は、通信端末20_1が備えるディスプレイに、通信端末20_2の評価対象イベントのイベント情報をテキストで表示することにより、通信端末20_2の評価対象イベントの内容を通知してもよい。もしくは、処理部31は、通信端末20_2の評価対象イベントのプレイ内容を映像データとして記録し、当該映像データを通信端末20_2に送信することにより、通信端末20_2の評価対象イベントの内容を通知してもよい。もしくは、処理部31は、通信端末20_1が備えるスピーカから、通信端末20_2の評価対象イベントのイベント情報を音声で出力することにより、通信端末20_2の評価対象イベントの内容を通知してもよい。
The
処理部31は、第1ゲーム空間において評価対象イベントが検出された後に、第2ゲーム空間において当該評価対象イベントが検出された場合、上記評価対象イベントの反応音の音量を調整することを通信端末20_1に実行させる。処理部31は、上記評価対象イベントの反応音の音量を大きくすることを指示する音量調整指示を通信端末20_1に送信することにより、通信端末20_1に上記評価対象イベントの反応音を大きくして出力する制御を実行させる。処理部31は、第1ゲーム空間のイベント発生時刻が、第2ゲーム空間のイベント発生時刻よりも後である場合、音量調整指示を通信端末20_1に送信する。
When the evaluation target event is detected in the second game space after the evaluation target event is detected in the first game space, the
処理部31は、検出部33が計数する遅延回数が所定数以上である場合、遅延回数が所定数以上である評価対象イベントが第1ゲーム空間よりも第2ゲーム空間の方が遅延したことを通信端末20_1に通知する。遅延回数は、第1ゲーム空間よりも後に、第2ゲーム空間において評価対象イベントが検出された回数である。
When the number of delays counted by the
処理部31は、検出部33が計数する遅延回数が所定数以上となった場合、第2ゲーム空間における評価対象イベントを強調表示、及び通信端末20_1が備えるバイブレータの振動のうちの少なくとも1つを通信端末20_1に実行させる。処理部31は、強調表示及びバイブレータの振動のうちの少なくとも1つを示す制御内容を含む遅延通知を通信端末20_1に送信することにより、制御内容を通信端末20_1に実行させる。処理部31は、強調表示、バイブレータの振動のうちの少なくとも1つを通信端末20_1に実行させることにより、評価対象イベントが第1ゲーム空間よりも第2ゲーム空間の方が遅延したことを通信端末20_1に通知する。
When the number of delays counted by the
処理部31は、評価対象イベントの内容が把握できるように強調表示する。処理部31は、例えば、評価対象イベントが「武器」に関連している場合、武器の輪郭線を太くするように表示してもよいし、武器の色を変えてもよい。もしくは、評価対象イベントの内容を文字で通信端末20_1が備えるディスプレイに表示するようにしてもよい。
The
検出部33は、実施の形態1にかかる検出部13に対応する。検出部33は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェア又はモジュールであってもよい。また、検出部33は、回路又はチップ等のハードウェアであってもよい。
The
検出部33は、検出部13と基本的に同様の構成であるため、実施の形態1と同様の構成については説明を適宜割愛する。検出部33は、ユーザU1及びU2の操作に基づくそれぞれのゲーム空間における評価対象イベントを検出する。検出部33は、取得部12が取得した操作情報に基づいて、通信端末20_1及び20_2において実行されるゲーム空間における評価対象イベントを検出する。検出部33は、評価対象イベントの各々について、遅延回数を計数する。
Since the
<情報処理装置の動作例>
次に、図7及び図8を用いて、情報処理装置30の動作例について説明する。図7及び図8は、実施の形態2にかかる情報処理装置の動作例を説明するための図である。
<Operation example of information processing device>
Next, an operation example of the
まず、図7について説明する。図7は、通信端末20_1及び20_2が憑依モードでゲームが実行され、あるゲームシナリオが生成され、次のゲームシナリオが生成されるまでの通信端末20_1及び20_2と、情報処理装置30との間の動作例を示すシーケンス図である。なお、通信端末20_2を有するユーザU2は教師プレイヤーであるため、通信端末20_1を有するユーザU1よりも前に評価対象イベントに対応する操作を実行することとして記載する。
First, FIG. 7 will be described. FIG. 7 shows between the communication terminals 20_1 and 20_2 and the
情報処理装置30の処理部31は、ゲームシナリオを生成し(ステップS11)、通信端末20_1及び20_2に送信する(ステップS12)。処理部31は、第2ゲーム空間に関する情報を通信端末20_1から取得し、通信端末20_2に送信する。通信端末20_2は、ユーザU1とユーザU2とがプレイするゲーム状況が一致するように、自装置が表示するゲーム空間を、第2ゲーム空間に置換する。
The
情報処理装置30の取得部12は、通信端末20_1及び20_2に入力された操作情報を通信端末20_1及び20_2から取得する(ステップS13)。なお、ステップS13は、周期的に又は非周期的に繰り返し実行される。
The
情報処理装置30は、第1ゲーム空間の評価対象イベントを検知し、反応音を決定する(ステップS14)。検出部33は、操作情報と、イベント判定用テーブルとを用いて、評価対象イベントを検出し、イベント情報を生成する。決定部14は、出力音情報から、検出期間の出力音情報を抽出する。決定部14は、抽出した出力音情報に基づいて、反応音を決定する。処理部31は、第1ゲーム空間におけるイベント発生時刻を検出部33から取得する。
The
情報処理装置30は、第2ゲーム空間の評価対象イベントを検知し、反応音を決定する(ステップS15)。情報処理装置30は、ステップS14と同様にして、評価対象イベントを検出し、反応音を決定する。処理部31は、第2ゲーム空間におけるイベント発生時刻を検出部33から取得する。
The
処理部31は、第1ゲーム空間及び第2ゲーム空間におけるイベント発生時刻を比較し、イベント発生時刻が第1ゲーム空間の方が第2ゲーム空間よりも前か判定する(ステップS16)。処理部31は、第1ゲーム空間及び第2ゲーム空間におけるイベント発生時刻を用いて、第1ゲーム空間において評価対象イベントが検出された後に、第2ゲーム空間において当該評価対象イベントが検出されたか否かを判定する。
The
イベント発生時刻が第1ゲーム空間の方が第2ゲーム空間よりも前である場合(ステップS16のYES)、情報処理装置30は、ステップS17以降を実行する。
一方、イベント発生時刻が第1ゲーム空間の方が第2ゲーム空間よりも前ではない場合(ステップS16のNO)、情報処理装置30は、ステップS17〜ステップS21までをスキップして、ステップS11において生成されたゲームシナリオについての処理を終了する。
When the event occurrence time is earlier in the first game space than in the second game space (YES in step S16), the
On the other hand, when the event occurrence time is not earlier in the first game space than in the second game space (NO in step S16), the
処理部31は、音量調整指示を通信端末20_1に送信する(ステップS17)。処理部31は、ステップS14及びS15で検出された評価対象イベントに対応する反応音の音量を調整する音量調整指示を通信端末20_1に送信する。処理部31は、音量調整指示を通信端末20_1に送信することで、通信端末20_1に反応音の音量調整を実行させる。通信端末20_1は、音量調整指示を受信すると、ステップS14及びS15で決定した反応音の音量を大きくするように制御する。
The
処理部31は、イベント内容通知を通信端末20_1に送信する(ステップS18)。処理部31は、通信端末20_2の評価対象イベントの内容をイベント内容通知に含めて通信端末20_1に送信する。なお、ステップS18は、ステップS17の後に実行されてもよいし、ステップS17の前に実行されてもよい。
The
検出部33は、遅延回数をカウントする(ステップS19)。検出部33は、ステップS14及びS15において検出された評価対象イベントの遅延回数を1インクリメントする。なお、ステップS19〜S21は、ステップS17又はステップS18の前に実行されてもよいし、ステップS17及びS18と並列的に実行されてもよい。
The
処理部31は、遅延回数が所定数以上か判定する(ステップS20)。処理部31は、遅延回数を検出部33から取得し、ステップS14及びS15において検出された評価対象イベントの遅延回数が所定数以上であるかを判定する。
The
遅延回数が所定数以上である場合(ステップS20のYES)、処理部31は、遅延通知を通信端末20_1に送信する(ステップS21)。処理部31は、所定数以上となった評価対象イベントが第1ゲーム空間よりも第2ゲーム空間の方が遅延したことを示す遅延通知を通信端末20_1に送信する。処理部31は、第2ゲーム空間における評価対象イベントを強調表示、及び通信端末20_1が備えるバイブレータの振動のうちの少なくとも1つを実行することを遅延通知に含めて通信端末20_1に送信する。通信端末20_1は、遅延通知に応じて、遅延通知に含まれる制御を実行する。
When the number of delays is equal to or greater than a predetermined number (YES in step S20), the
一方、遅延回数が所定数以上ではない場合(ステップS20のNO)、情報処理装置30は、ステップS21をスキップして、上記したステップS11において生成されたゲームシナリオについての処理を終了する。
情報処理装置30は、ステップS21まで実行すると、新たなゲームシナリオを生成して、ステップS11〜ステップS21をゲームが終了するまで繰り返し実行する。
On the other hand, when the number of delays is not more than a predetermined number (NO in step S20), the
When the
次に、図8について説明する。図8は、第1ゲーム空間及び第2ゲーム空間において検出された評価対象イベントのタイムチャートを表した図である。横軸は、時刻を表している。図8の時刻軸の下側には、第1ゲーム空間で検出された評価対象イベントのイベント発生時刻を示している。図8の時刻軸の上側には、第2ゲーム空間で検出された評価対象イベントのイベント発生時刻を示している。 Next, FIG. 8 will be described. FIG. 8 is a diagram showing a time chart of the evaluation target event detected in the first game space and the second game space. The horizontal axis represents the time. Below the time axis of FIG. 8, the event occurrence time of the evaluation target event detected in the first game space is shown. The event occurrence time of the evaluation target event detected in the second game space is shown on the upper side of the time axis in FIG.
図8に示した一例では、時刻T(EA1)に第2ゲーム空間における評価対象イベント1が検出されたことを表している。時刻T(EB1)に第1ゲーム空間における評価対象イベント1が検出されたことを表している。時刻T(EB2)に第1ゲーム空間における評価対象イベント2が検出されたことを表している。
In the example shown in FIG. 8, it is shown that the
図8に示すように、第2ゲーム空間において評価対象イベント1が検出されるまでに、第1ゲーム空間において評価対象イベント1及び2が検出されている。このように、教師プレイヤーの評価対象イベントの数は、生徒プレイヤーの評価対象イベントの数よりも多いことが想定される。
As shown in FIG. 8, the
図7のシーケンス図に基づくと、ステップS17及びS18では、処理部31は、評価対象イベント1についての音量調整指示、及びイベント内容通知を通信端末20_1に送信する。しかし、図8に示したように、教師プレイヤーは、生徒プレイヤーが評価対象イベント1に対応する操作を行うまでに、複数の評価対象イベントに対応する操作を行うことが想定される。したがって、図7のステップS17及びS18において、処理部31は、ステップS14及びS15で検出された評価対象イベントに加えて、ステップS15までに第1ゲーム空間で検出された他の評価対象イベントの音量調整指示及びイベント内容通知を送信してもよい。
Based on the sequence diagram of FIG. 7, in steps S17 and S18, the
情報処理装置30は、実施の形態1と同様に、第1ゲーム空間及び第2ゲーム空間における評価対象イベントに対応する反応音を決定する。ユーザU1は、決定された反応音に基づいて訓練を行うことができるため、操作スキルを向上させることができる。また、ユーザU1は、ユーザU2に対して決定された反応音を用いることにより、自身の操作スキルとの違いを把握した訓練をさらに行うことができる。したがって、実施の形態2にかかる情報処理装置30によれば、ユーザの操作スキルを向上させることができる。
The
また、本実施の形態では、憑依モードを導入し、教師プレイヤーのプレイ内容と、生徒プレイヤーのプレイ内容とを比較する。情報処理装置30は、評価対象イベントのイベント発生時期が、教師プレイヤーよりも生徒プレイヤーの方が後である場合、教師プレイヤーの評価対象イベントの内容を生徒プレイヤーに通知する。そのため、生徒プレイヤーは、教師プレイヤーとの違いを明確に把握でき、かつ、教師プレイヤーのプレイ内容を真似することができる。
Further, in the present embodiment, the possession mode is introduced, and the play contents of the teacher player and the play contents of the student player are compared. When the event occurrence time of the evaluation target event is later than that of the teacher player, the
さらに、情報処理装置30は、評価対象イベントのイベント発生時期が、教師プレイヤーよりも生徒プレイヤーの方が後である場合、第2ゲーム空間における評価対象イベントに対応する反応音の音量を大きくする。そのため、生徒プレイヤーは、音量に基づいて、反応音を把握して、即時に適切な操作を行うことができる。
Further, when the event occurrence time of the evaluation target event is later than that of the teacher player, the
またさらに、情報処理装置30は、遅延回数が所定数以上の評価対象イベントについて、評価対象イベントが遅延したことを通信端末20_1に通知する。そのため、生徒プレイヤーは、教師プレイヤーの操作内容の違いを把握でき、向上させるべき操作スキルを把握することができる。したがって、実施の形態2にかかる情報処理装置30によれば、ユーザの操作スキルを向上させることができる。
Further, the
本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態では、本発明をハードウェアの構成として説明したが、本発明は、これに限定されるものではない。本発明は、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。 The present invention is not limited to the above-described embodiment, and can be appropriately modified without departing from the spirit. For example, in the above-described embodiment, the present invention has been described as a hardware configuration, but the present invention is not limited thereto. The present invention can also be realized by causing a CPU (Central Processing Unit) to execute a computer program.
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Programs can be stored and supplied to a computer using various types of non-transitory computer readable medium. Non-transient computer-readable media include various types of tangible storage media. Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs. It includes a CD-R / W and a semiconductor memory (for example, a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, and a RAM (random access memory)). The program may also be supplied to the computer by various types of transient computer readable medium. Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
10、30 情報処理装置
11、31 処理部
12 取得部
13、33 検出部
14 決定部
15 記憶部
20、20_1、20_2 通信端末
100、200 情報処理システム
151 ゲームプログラム
U1、U2 ユーザ
10, 30
Claims (7)
前記所定イベントが検出された時刻前に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する決定部と、を備える情報処理装置。 A detector that detects a predetermined event in the first virtual space based on the operation of the first user,
Before the time when the predetermined event is detected, the first user is notified of the predetermined event based on the output sound information including the identification information of the output sound output from the first communication terminal displaying the first virtual space. An information processing device including a determination unit that determines a first output sound that has been subjected to a corresponding operation.
前記決定部は、前記音量に基づいて、前記第1出力音を決定する、請求項1に記載の情報処理装置。 The output sound information includes identification information of the output sound related to the object in the first virtual space and the volume of the output sound output from the first communication terminal.
The information processing device according to claim 1, wherein the determination unit determines the first output sound based on the volume.
前記決定部は、前記相対距離に基づいて、前記第1出力音を決定する、請求項1又は2に記載の情報処理装置。 The output sound information includes a relative distance between the reference position in the first virtual space and the position of the object in the first virtual space.
The information processing device according to claim 1 or 2, wherein the determination unit determines the first output sound based on the relative distance.
前記決定部は、前記方向をさらに用いて、前記第1出力音を決定する、請求項2又は3に記載の情報処理装置。 The output sound information includes the direction of the object with respect to the reference position in the first virtual space.
The information processing device according to claim 2 or 3, wherein the determination unit further uses the direction to determine the first output sound.
前記第1仮想空間における前記所定イベントが検出された後に、前記第2仮想空間における前記所定イベントが検出された場合、前記第1仮想空間における前記所定イベントの内容を、前記第2仮想空間を表示する第2通信端末に通知する処理部を備える、請求項1〜4のいずれか1項に記載の情報処理装置。 The detection unit detects the predetermined event in the second virtual space based on the operation of the second user, and detects the predetermined event.
When the predetermined event in the second virtual space is detected after the predetermined event in the first virtual space is detected, the content of the predetermined event in the first virtual space is displayed in the second virtual space. The information processing apparatus according to any one of claims 1 to 4, further comprising a processing unit for notifying the second communication terminal.
前記所定イベントが検出された時刻前に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する、出力音決定方法。 Detects a predetermined event in the first virtual space based on the operation of the first user,
Before the time when the predetermined event is detected, the first user is notified of the predetermined event based on the output sound information including the identification information of the output sound output from the first communication terminal displaying the first virtual space. An output sound determination method for determining the first output sound for which the corresponding operation has been performed.
前記所定イベントが検出された時刻前に、前記第1仮想空間を表示する第1通信端末から出力された出力音の識別情報を含む出力音情報に基づいて、前記第1ユーザに前記所定イベントに対応する操作を行わせた第1出力音を決定する、処理をコンピュータに実行させる出力音決定プログラム。 Detects a predetermined event in the first virtual space based on the operation of the first user,
Before the time when the predetermined event is detected, the first user is notified of the predetermined event based on the output sound information including the identification information of the output sound output from the first communication terminal displaying the first virtual space. An output sound determination program that causes a computer to execute processing that determines the first output sound that has been subjected to the corresponding operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020052704A JP7484285B2 (en) | 2020-03-24 | 2020-03-24 | Information processing device, output sound determination method, and output sound determination program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020052704A JP7484285B2 (en) | 2020-03-24 | 2020-03-24 | Information processing device, output sound determination method, and output sound determination program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021151336A true JP2021151336A (en) | 2021-09-30 |
JP7484285B2 JP7484285B2 (en) | 2024-05-16 |
Family
ID=77886852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020052704A Active JP7484285B2 (en) | 2020-03-24 | 2020-03-24 | Information processing device, output sound determination method, and output sound determination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7484285B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6017223B2 (en) | 2012-08-09 | 2016-10-26 | 株式会社コナミデジタルエンタテインメント | Game systems, game consoles, and programs |
JP6266904B2 (en) | 2013-06-19 | 2018-01-24 | 株式会社カプコン | Game program and game system |
JP6481822B2 (en) | 2015-04-30 | 2019-03-13 | 株式会社コナミデジタルエンタテインメント | GAME DEVICE AND PROGRAM |
-
2020
- 2020-03-24 JP JP2020052704A patent/JP7484285B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7484285B2 (en) | 2024-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6781289B2 (en) | Game video distribution device, game video distribution method, game video distribution program | |
US9564866B2 (en) | Method and device for prioritizing audio delivery in an application | |
JP6260785B2 (en) | GAME SYSTEM, CONTROL METHOD AND COMPUTER PROGRAM USED FOR THE SAME | |
US11135512B2 (en) | Information processing apparatus, information processing method, and recording medium | |
CA2949464C (en) | Video game with dynamic quest clues based on number of completions | |
JP6837112B2 (en) | Game system | |
JP2017093803A (en) | Evaluation program, evaluation method and evaluation device | |
JP6587817B2 (en) | Game system | |
JP6454187B2 (en) | Program and game system | |
US11478710B2 (en) | Information processing device, method and medium | |
JP2021151336A (en) | Information processing device, output sound determination method and output sound determination program | |
JP6651091B2 (en) | Game system and computer program used therefor | |
JP7394176B2 (en) | Game system, server and game execution method | |
JP2021153789A (en) | Information processing device, output sound determination method, and output sound determination program | |
WO2023106040A1 (en) | Information processing device, information processing method, and program | |
JP2015008879A (en) | Game system and control method thereof | |
JP6147779B2 (en) | Program, game device, and server | |
JP7022786B2 (en) | Program and game system | |
JP6129619B2 (en) | Video game processing apparatus and video game processing program | |
JP6978694B2 (en) | Game programs and game equipment | |
JP2017051550A (en) | Game system | |
JP2018029820A (en) | Program and game system | |
JP2022097090A (en) | Information processing device, program, and ally character control method | |
JP2015173801A (en) | Game system, game terminal, game terminal program, and game method | |
JP2019037884A (en) | Program and game system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7484285 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |