JP7194210B2 - Information processing program, information processing method and information processing system - Google Patents

Information processing program, information processing method and information processing system Download PDF

Info

Publication number
JP7194210B2
JP7194210B2 JP2021026508A JP2021026508A JP7194210B2 JP 7194210 B2 JP7194210 B2 JP 7194210B2 JP 2021026508 A JP2021026508 A JP 2021026508A JP 2021026508 A JP2021026508 A JP 2021026508A JP 7194210 B2 JP7194210 B2 JP 7194210B2
Authority
JP
Japan
Prior art keywords
character
game object
effect
live
linked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021026508A
Other languages
Japanese (ja)
Other versions
JP2022128141A (en
Inventor
佑美 古川
将祝 向井
和貴 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2021026508A priority Critical patent/JP7194210B2/en
Publication of JP2022128141A publication Critical patent/JP2022128141A/en
Priority to JP2022144717A priority patent/JP2022168339A/en
Application granted granted Critical
Publication of JP7194210B2 publication Critical patent/JP7194210B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Display Devices Of Pinball Game Machines (AREA)

Description

本発明は、情報処理プログラム、情報処理方法および情報処理システムに関する。 The present invention relates to an information processing program, an information processing method, and an information processing system.

従来、例えば特許文献1に示されるように、プレイヤが所持するキャラクタを育成してレースに出場させ、レース結果に基づいてライブ演出が実行されるゲームが知られている。 Conventionally, as disclosed in Patent Literature 1, for example, there is known a game in which a character possessed by a player is trained to participate in a race, and a live performance is performed based on the race result.

特許第6538942号公報Japanese Patent No. 6538942

上記のようなライブ演出は、楽曲と、ライブ映像に登場するキャラクタとをプレイヤが選択可能とすることで、ゲームの興趣が向上する。しかしながら、例えば、選択可能なキャラクタ数が少ない場合等、実行されるライブ演出の内容が限られてしまい、ゲームの興趣が低下するおそれがある。 The above-described live presentation enhances the enjoyment of the game by allowing the player to select the music and the characters that appear in the live video. However, for example, when the number of characters that can be selected is small, the content of the live performance to be executed is limited, and there is a risk that the interest in the game will decrease.

本発明は、ゲームの興趣を向上することが可能な情報処理プログラム、情報処理方法および情報処理システムを提供することを目的としている。 SUMMARY OF THE INVENTION An object of the present invention is to provide an information processing program, an information processing method, and an information processing system capable of enhancing the interest of a game.

上記課題を解決するために、情報処理プログラムは、演出の実行中に表示可能なゲームオブジェクトのいずれかが特定ゲームオブジェクトとして紐付けられ、かつ、演出の実行中に出力される音声の出力データが複数紐付けられた複数種類の演出種別情報のいずれかを決定可能な演出決定部と、演出種別情報に紐付けられた特定ゲームオブジェクトを識別可能に表示する識別表示部と、演出の実行中に表示されるゲームオブジェクトの配置を、第1のポジションおよび第2のポジションを含む複数のポジションのうちのいずれかに決定するゲームオブジェクト決定部と、決定された演出種別情報およびゲームオブジェクトの配置に基づいて演出を実行し、第1のポジションに配置されるゲームオブジェクトに所定の特定ゲームオブジェクトが含まれる場合、該演出の実行中、該演出種別情報に紐付けられた出力データのうち、所定の特定ゲームオブジェクトに対応する出力データに基づいて音声を出力し、第1のポジションに配置されるゲームオブジェクトに所定の特定ゲームオブジェクトが含まれず、かつ、第2のポジションに配置されるゲームオブジェクトに所定の特定ゲームオブジェクトが含まれる場合、該演出種別情報に紐付けられた出力データのうち、いずれかの特定ゲームオブジェクトに対応する出力データの中からいずれかを選択し、選択した出力データに基づいて音声を出力する演出実行部と、してコンピュータを機能させる。 In order to solve the above problem, the information processing program associates any of the game objects that can be displayed during the execution of the effect as the specific game object, and the output data of the sound that is output during the execution of the effect is an effect determination unit capable of determining any one of a plurality of types of effect type information linked in plurality; an identification display unit that identifiably displays a specific game object linked to the effect type information; A game object determination unit that determines the placement of the game object to be displayed in one of a plurality of positions including a first position and a second position, and based on the determined effect type information and the placement of the game object. and a predetermined specific game object is included in the game object placed at the first position, during execution of the effect, out of the output data linked to the effect type information, the predetermined specific outputting a sound based on output data corresponding to the game object; If the specific game object is included , select one of the output data corresponding to one of the specific game objects out of the output data linked to the effect type information, and based on the selected output data A computer is made to function as a production execution unit that outputs sound.

識別表示部は、第1のポジションに配置されるゲームオブジェクトのうち、演出種別情報に紐付けられた特定ゲームオブジェクトを識別可能に表示し、第2のポジションに配置されるゲームオブジェクトであって、演出種別情報に紐付けられた特定ゲームオブジェクトの識別可能な表示を不実行としてもよい。
第1のポジションに配置されるゲームオブジェクトは、第2のポジションに配置されるゲームオブジェクトよりも、演出の実行中に表示される回数が多い、もしくは、演出の実行中に表示される時間が長いとしてもよい。
ゲームオブジェクト決定部は、演出種別情報に紐付けられ、かつ、プレイヤが所持するゲームオブジェクトの中から、予め設定された抽出条件にしたがって、いずれかのゲームオブジェクトを決定可能であり、抽出条件したがってゲームオブジェクトが決定される場合、特定ゲームオブジェクトが他のゲームオブジェクトよりも優先的に決定されてもよい。
The identification display unit identifiably displays a specific game object linked to the effect type information among the game objects placed at the first position, and the game object placed at the second position, The identifiable display of the specific game object linked to the effect type information may be disabled.
The game object placed at the first position is displayed more times during the execution of the effect than the game object placed at the second position, or is displayed for a longer time during the effect. may be
The game object determining unit is capable of determining any one of the game objects associated with the effect type information and possessed by the player according to a preset extraction condition. When game objects are determined, specific game objects may be determined in preference to other game objects.

上記課題を解決するために、情報処理方法は、コンピュータが遂行する情報処理方法であって、演出の実行中に表示可能なゲームオブジェクトのいずれかが特定ゲームオブジェクトとして紐付けられ、かつ、演出の実行中に出力される音声の出力データが複数紐付けられた複数種類の演出種別情報のいずれかを決定可能なステップ部と、演出種別情報に紐付けられた特定ゲームオブジェクトを識別可能に表示するステップと、演出の実行中に表示されるゲームオブジェクトの配置を、第1のポジションおよび第2のポジションを含む複数のポジションのうちのいずれかに決定するステップと、決定された演出種別情報およびゲームオブジェクトの配置に基づいて演出を実行し、第1のポジションに配置されるゲームオブジェクトに所定の特定ゲームオブジェクトが含まれる場合、該演出の実行中、該演出種別情報に紐付けられた出力データのうち、所定の特定ゲームオブジェクトに対応する出力データに基づいて音声を出力し、第1のポジションに配置されるゲームオブジェクトに所定の特定ゲームオブジェクトが含まれず、かつ、第2のポジションに配置されるゲームオブジェクトに所定の特定ゲームオブジェクトが含まれる場合、該演出種別情報に紐付けられた出力データのうち、いずれかの特定ゲームオブジェクトに対応する出力データの中からいずれかを選択し、選択した出力データに基づいて音声を出力するステップと、を含む。 In order to solve the above problems, an information processing method is an information processing method performed by a computer, in which one of the game objects that can be displayed during execution of the effect is linked as a specific game object, and A step portion that can determine one of a plurality of types of performance type information linked to multiple output data of voices output during execution, and a specific game object linked to the performance type information are displayed in an identifiable manner. a step of determining the placement of a game object to be displayed during execution of the effect to any one of a plurality of positions including a first position and a second position ; the determined effect type information and the game When an effect is executed based on the arrangement of objects, and a predetermined specific game object is included in the game object placed at the first position, output data linked to the effect type information is generated during execution of the effect. Among them, a sound is output based on output data corresponding to a predetermined specific game object, the game object placed at the first position does not include the predetermined specific game object , and the game object placed at the second position does not include the predetermined specific game object. If the game object includes a predetermined specific game object , one of the output data associated with the effect type information is selected from the output data corresponding to one of the specific game objects, and the selected game object is selected. and outputting audio based on the output data.

上記課題を解決するために、情報処理システムは、コンピュータが、演出の実行中に表示可能なゲームオブジェクトのいずれかが特定ゲームオブジェクトとして紐付けられ、かつ、演出の実行中に出力される音声の出力データが複数紐付けられた複数種類の演出種別情報のいずれかを決定可能な演出決定部と、演出種別情報に紐付けられた特定ゲームオブジェクトを識別可能に表示する識別表示部と、演出の実行中に表示されるゲームオブジェクトの配置を、第1のポジションおよび第2のポジションを含む複数のポジションのうちのいずれかに決定するゲームオブジェクト決定部と、決定された演出種別情報およびゲームオブジェクトの配置に基づいて演出を実行し、第1のポジションに配置されるゲームオブジェクトに所定の特定ゲームオブジェクトが含まれる場合、該演出の実行中、該演出種別情報に紐付けられた出力データのうち、所定の特定ゲームオブジェクトに対応する出力データに基づいて音声を出力し、第1のポジションに配置されるゲームオブジェクトに所定の特定ゲームオブジェクトが含まれず、かつ、第2のポジションに配置されるゲームオブジェクトに所定の特定ゲームオブジェクトが含まれる場合、該演出種別情報に紐付けられた出力データのうち、いずれかの特定ゲームオブジェクトに対応する出力データの中からいずれかを選択し、選択した出力データに基づいて音声を出力する演出実行部と、を備える。 In order to solve the above problems, an information processing system is provided in which a computer associates any of the game objects that can be displayed during the execution of an effect as a specific game object, and the audio that is output during the execution of the effect. an effect determination unit capable of determining one of a plurality of types of effect type information to which a plurality of output data are linked; an identification display unit that identifiably displays a specific game object linked to the effect type information; a game object determination unit that determines the placement of a game object displayed during execution to one of a plurality of positions including a first position and a second position ; When an effect is executed based on the arrangement and a predetermined specific game object is included in the game object placed at the first position, during execution of the effect, out of the output data linked to the effect type information, A game in which sound is output based on output data corresponding to a predetermined specific game object, the game object placed at the first position does not include the predetermined specific game object , and the game object is placed at the second position. If the object includes a predetermined specific game object , one of the output data linked to the effect type information, which corresponds to one of the specific game objects, is selected, and the selected output data and a production execution unit that outputs a sound based on.

本発明によれば、ゲームの興趣を向上することができる。 According to the present invention, the amusement of the game can be improved.

図1は、情報処理システムの概略的な構成を示した説明図である。FIG. 1 is an explanatory diagram showing a schematic configuration of an information processing system. 図2Aは、プレイヤ端末のハードウェアの構成を説明する図である。図2Bは、サーバのハードウェアの構成を説明する図である。FIG. 2A is a diagram for explaining the hardware configuration of the player terminal. FIG. 2B is a diagram for explaining the hardware configuration of the server. 図3Aは、ストーリ選択画面の一例を説明する図である。図3Bは、ストーリ用ライブ演出の一例を説明する図である。図3Cは、ライブ視聴権利を説明する図である。FIG. 3A is a diagram illustrating an example of a story selection screen. FIG. 3B is a diagram illustrating an example of a story live effect. FIG. 3C is a diagram illustrating live viewing rights. 図4Aは、育成画面の一例を説明する図である。図4Bは、育成キャラダイアログの一例を説明する図である。FIG. 4A is a diagram illustrating an example of a breeding screen. FIG. 4B is a diagram illustrating an example of a character-raising dialogue. 図5Aは、レース選択画面の一例を説明する図である。図5Bは、出場キャラ選択画面の一例を説明する図である。図5Cは、レース結果画面の一例を説明する図である。FIG. 5A is a diagram illustrating an example of a race selection screen. FIG. 5B is a diagram illustrating an example of a participating character selection screen. FIG. 5C is a diagram illustrating an example of a race result screen. 図6Aは、報酬ライブ演出の一例を説明する図である。図6Bは、権利獲得演出の一例を説明する図である。FIG. 6A is a diagram illustrating an example of a reward live effect. FIG. 6B is a diagram illustrating an example of a right acquisition effect. 図7Aは、楽曲選択画面の一例を説明する図である。図7Bは、キャラ配置画面の一例を説明する図である。図7Cは、キャラ選択画面の一例を説明する図である。図7Dは、シアターライブ演出の一例を説明する図である。FIG. 7A is a diagram illustrating an example of a music selection screen. FIG. 7B is a diagram illustrating an example of a character placement screen. FIG. 7C is a diagram illustrating an example of a character selection screen. FIG. 7D is a diagram illustrating an example of a theater live performance. 図8Aは、キャラ種別の一例を説明する図である。図8Bは、演出分類の一例を説明する図である。図8Cは、楽曲IDごとに設定されたボーカル対応キャラの一例を説明する図である。FIG. 8A is a diagram illustrating an example of character types. FIG. 8B is a diagram illustrating an example of effect classification. FIG. 8C is a diagram illustrating an example of a vocal character set for each song ID. 図9Aは、ポジション情報の一例を説明する図である。図9Bは、キャラ配置テーブルの一例を説明する図である。FIG. 9A is a diagram explaining an example of position information. FIG. 9B is a diagram illustrating an example of a character placement table. 図10Aは、第1演出分類の楽曲IDでセットされるサウンドデータの一例を説明する図である。図10Bは、第1演出分類の楽曲IDにおけるサウンドデータの出力の一例を説明する図である。FIG. 10A is a diagram for explaining an example of sound data set with the music ID of the first effect category. FIG. 10B is a diagram illustrating an example of output of sound data for the music ID of the first effect category. 図11Aは、第2演出分類の楽曲IDでセットされるサウンドデータの一例を説明する図である。図11Bは、第2演出分類の楽曲IDにおけるサウンドデータの出力の一例を説明する図である。FIG. 11A is a diagram for explaining an example of sound data set by the music ID of the second effect classification. FIG. 11B is a diagram illustrating an example of output of sound data for the music ID of the second effect classification. 図12Aは、メインポジションに配置されるキャラクタの組み合わせの一例を説明する図である。図12Bは、音声チャンネルにセットされるサウンドデータの一例である。FIG. 12A is a diagram illustrating an example of a combination of characters placed in main positions. FIG. 12B is an example of sound data set in the audio channel. 図13Aは、メインポジションに配置されるキャラクタの組み合わせの他の例を説明する図である。図13Bは、音声チャンネルにセットされるサウンドデータの他の例である。FIG. 13A is a diagram illustrating another example of a combination of characters placed in main positions. FIG. 13B is another example of sound data set in the audio channel. 図14は、プレイヤ端末におけるメモリの構成およびコンピュータとしての機能を説明する図である。FIG. 14 is a diagram for explaining the configuration of a memory in a player terminal and functions as a computer. 図15は、プレイヤ端末およびサーバの基本的な処理を説明するシーケンス図である。FIG. 15 is a sequence diagram illustrating basic processing of the player terminal and server. 図16は、プレイヤ端末における報酬ライブ実行処理の一例を説明するフローチャートである。FIG. 16 is a flowchart illustrating an example of reward live execution processing in the player terminal. 図17は、プレイヤ端末におけるデータ設定処理の一例を説明するフローチャートである。FIG. 17 is a flowchart illustrating an example of data setting processing in the player terminal. 図18は、プレイヤ端末におけるストーリ実行処理の一例を説明するフローチャートである。FIG. 18 is a flowchart illustrating an example of story execution processing in the player terminal. 図19は、プレイヤ端末におけるライブモード処理の一例を説明するフローチャートである。FIG. 19 is a flowchart illustrating an example of live mode processing in the player terminal. 図20は、プレイヤ端末におけるおまかせ編成処理の一例を説明するフローチャートである。FIG. 20 is a flowchart for explaining an example of an auto-organization process in a player terminal.

以下に添付図面を参照しながら、本発明の実施形態の一態様について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 One aspect of an embodiment of the present invention will be described in detail below with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in these embodiments are merely examples for facilitating understanding, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are given the same reference numerals to omit redundant description, and elements that are not directly related to the present invention are omitted from the drawings. do.

(情報処理システムSの全体の構成)
図1は、情報処理システムSの概略的な構成を示した説明図である。情報処理システムSは、プレイヤ端末1と、サーバ100と、通信基地局200aを有する通信ネットワーク200とを含む、所謂クライアントサーバシステムである。
(Overall Configuration of Information Processing System S)
FIG. 1 is an explanatory diagram showing a schematic configuration of an information processing system S. As shown in FIG. The information processing system S is a so-called client-server system including a player terminal 1, a server 100, and a communication network 200 having a communication base station 200a.

プレイヤ端末1は、通信ネットワーク200を介してサーバ100との通信を確立することができる。プレイヤ端末1は、サーバ100と無線もしくは有線による通信接続が可能な電子機器を広く含む。プレイヤ端末1としては、例えば、スマートフォン、携帯電話、タブレット装置、パーソナルコンピュータ、ゲーム機器等が挙げられる。本実施形態では、プレイヤ端末1として、スマートフォンが用いられる場合について説明する。 The player terminal 1 can establish communication with the server 100 via the communication network 200 . The player terminal 1 includes a wide range of electronic devices that can be connected to the server 100 for wireless or wired communication. Examples of the player terminal 1 include smart phones, mobile phones, tablet devices, personal computers, game machines, and the like. In this embodiment, a case where a smart phone is used as the player terminal 1 will be described.

サーバ100は、複数のプレイヤ端末1と通信接続される。サーバ100は、ゲームをプレイするプレイヤごとに各種の情報(プレイヤ情報)を蓄積する。また、サーバ100は、プレイヤ端末1から入力される操作に基づき、蓄積された情報の更新を行う。 The server 100 is connected for communication with a plurality of player terminals 1 . The server 100 accumulates various types of information (player information) for each player who plays the game. Also, the server 100 updates the accumulated information based on an operation input from the player terminal 1 .

通信基地局200aは、通信ネットワーク200と接続され、プレイヤ端末1と無線による情報の送受信を行う。通信ネットワーク200は、携帯電話網、インターネット網、LAN(Local Area Network)、専用回線等で構成され、プレイヤ端末1とサーバ100との無線もしくは有線による通信接続を実現する。 The communication base station 200a is connected to the communication network 200, and transmits/receives information to/from the player terminal 1 by radio. The communication network 200 includes a mobile phone network, an Internet network, a LAN (Local Area Network), a dedicated line, etc., and realizes wireless or wired communication connection between the player terminal 1 and the server 100 .

本実施形態の情報処理システムSは、プレイヤ端末1およびサーバ100がゲーム装置Gとして機能する。プレイヤ端末1およびサーバ100には、それぞれゲームの進行制御の役割分担がなされており、プレイヤ端末1とサーバ100との協働によって、ゲームが進行可能となる。 In the information processing system S of this embodiment, the player terminal 1 and the server 100 function as a game device G. FIG. The player terminal 1 and the server 100 are responsible for controlling the progress of the game, respectively.

(プレイヤ端末1およびサーバ100のハードウェアの構成)
図2Aは、プレイヤ端末1のハードウェアの構成を説明する図である。また、図2Bは、サーバ100のハードウェアの構成を説明する図である。図2Aに示すように、プレイヤ端末1は、CPU(Central Processing Unit)10、メモリ12、バス14、入出力インタフェース16、記憶部18、通信部20、入力部22、出力部24を含んで構成される。
(Hardware configuration of player terminal 1 and server 100)
FIG. 2A is a diagram for explaining the hardware configuration of the player terminal 1. As shown in FIG. FIG. 2B is a diagram for explaining the hardware configuration of the server 100. As shown in FIG. As shown in FIG. 2A, the player terminal 1 includes a CPU (Central Processing Unit) 10, a memory 12, a bus 14, an input/output interface 16, a storage section 18, a communication section 20, an input section 22, and an output section 24. be done.

また、図2Bに示すように、サーバ100は、CPU110、メモリ112、バス114、入出力インタフェース116、記憶部118、通信部120、入力部122、出力部124を含んで構成される。 2B, the server 100 includes a CPU 110, a memory 112, a bus 114, an input/output interface 116, a storage section 118, a communication section 120, an input section 122, and an output section .

なお、サーバ100のCPU110、メモリ112、バス114、入出力インタフェース116、記憶部118、通信部120、入力部122、出力部124の構成および機能は、それぞれ、プレイヤ端末1のCPU10、メモリ12、バス14、入出力インタフェース16、記憶部18、通信部20、入力部22、出力部24と実質的に同じである。したがって、以下では、プレイヤ端末1のハードウェアの構成について説明し、サーバ100については説明を省略する。 The configurations and functions of the CPU 110, the memory 112, the bus 114, the input/output interface 116, the storage unit 118, the communication unit 120, the input unit 122, and the output unit 124 of the server 100 are the same as those of the CPU 10, the memory 12, and the They are substantially the same as the bus 14 , input/output interface 16 , storage section 18 , communication section 20 , input section 22 and output section 24 . Therefore, the hardware configuration of the player terminal 1 will be described below, and the description of the server 100 will be omitted.

CPU10は、メモリ12に記憶されたプログラムを動作させ、ゲームの進行を制御する。メモリ12は、ROM(Read Only Memory)またはRAM(Random Access Memory)で構成され、ゲームの進行制御に必要となるプログラムおよび各種のデータを記憶する。メモリ12は、バス14を介してCPU10に接続されている。 The CPU 10 operates programs stored in the memory 12 to control the progress of the game. The memory 12 is composed of a ROM (Read Only Memory) or a RAM (Random Access Memory), and stores programs and various data necessary for controlling the progress of the game. Memory 12 is connected to CPU 10 via bus 14 .

バス14には、入出力インタフェース16が接続される。入出力インタフェース16には、記憶部18、通信部20、入力部22、出力部24が接続されている。 An input/output interface 16 is connected to the bus 14 . A storage unit 18 , a communication unit 20 , an input unit 22 and an output unit 24 are connected to the input/output interface 16 .

記憶部18は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種プログラムおよびデータを記憶する。プレイヤ端末1においては、記憶部18に記憶されたプログラムおよびデータが、CPU10によってメモリ12(RAM)にロードされる。 The storage unit 18 is composed of a semiconductor memory such as a DRAM (Dynamic Random Access Memory), and stores various programs and data. In the player terminal 1, the programs and data stored in the storage unit 18 are loaded by the CPU 10 into the memory 12 (RAM).

通信部20は、通信基地局200aと無線により通信接続され、通信ネットワーク200を介して、サーバ100との間で各種データおよびプログラムといった情報の送受信を行う。プレイヤ端末1においては、サーバ100から受信したプログラム等が、メモリ12または記憶部18に格納される。 The communication unit 20 is wirelessly connected to the communication base station 200 a and transmits/receives information such as various data and programs to/from the server 100 via the communication network 200 . In the player terminal 1 , the program or the like received from the server 100 is stored in the memory 12 or the storage section 18 .

入力部22は、例えば、プレイヤの操作が入力される(操作を受け付ける)タッチパネル、ボタン、キーボード、マウス、十字キー、アナログコントローラ等で構成される。また、入力部22は、プレイヤ端末1に設けられた、あるいは、プレイヤ端末1に接続(外付け)された専用のコントローラであってもよい。さらには、入力部22は、プレイヤ端末1の傾きや移動を検知する加速度センサ、または、プレイヤの音声を検知するマイクで構成されてもよい。すなわち、入力部22は、プレイヤの意思を、識別可能に入力させることができる装置を広く含む。 The input unit 22 includes, for example, a touch panel through which player's operations are input (accepts operations), buttons, a keyboard, a mouse, a cross key, an analog controller, and the like. Also, the input unit 22 may be a dedicated controller provided in the player terminal 1 or connected (externally attached) to the player terminal 1 . Furthermore, the input unit 22 may be configured with an acceleration sensor that detects the tilt or movement of the player terminal 1, or a microphone that detects the voice of the player. That is, the input unit 22 broadly includes a device capable of inputting the player's intention in an identifiable manner.

出力部24は、ディスプレイ装置およびスピーカを含んで構成される。なお、出力部24は、プレイヤ端末1に接続(外付け)される機器でもよい。本実施形態では、プレイヤ端末1が、入力部22および出力部24として機能するタッチパネル26を備えている。 The output unit 24 includes a display device and a speaker. Note that the output unit 24 may be a device connected (externally attached) to the player terminal 1 . In this embodiment, the player terminal 1 includes a touch panel 26 that functions as the input section 22 and the output section 24 .

(ゲーム内容)
次に、本実施形態の情報処理システムS(ゲーム装置G)により提供されるゲームの内容について、一例を用いて説明する。プレイヤは、ゲームを開始する前に、専用のアプリケーションをサーバ100からプレイヤ端末1に予めダウンロードし、サーバ100にプレイヤIDを登録しておく。アプリケーションが起動されると、プレイヤ端末1は、サーバ100に記憶されている各種の情報を受信し、タッチパネル26にゲーム画面を表示する。
(game content)
Next, the content of the game provided by the information processing system S (game device G) of this embodiment will be described using an example. The player downloads a dedicated application from the server 100 to the player terminal 1 in advance and registers the player ID in the server 100 before starting the game. When the application is started, the player terminal 1 receives various information stored in the server 100 and displays a game screen on the touch panel 26 .

本実施形態では、管理者から複数種類のキャラクタが提供される。プレイヤは、所謂ガチャと呼ばれる抽選により当選することで、キャラクタを獲得することができる。また、管理者から、所定のキャラクタがプレイヤに無償で付与されることもある。プレイヤは、抽選で獲得したキャラクタや、管理者から付与されたキャラクタを所持することができる。以下では、プレイヤが所持しているキャラクタを所持キャラと呼ぶ。 In this embodiment, a manager provides a plurality of types of characters. A player can obtain a character by winning a lottery called Gacha. In addition, the administrator may give the player a predetermined character free of charge. A player can own a character obtained by lottery or a character given by an administrator. Hereinafter, the character possessed by the player will be referred to as possessed character.

各キャラクタには、さまざまなステータスが設定されており、プレイヤは、所持キャラを育成すること、各種のステータスを高めることができる。また、プレイヤは、所持キャラをレースに出場させることができる。ここでは、通信対戦により、他のプレイヤの所持キャラとレースで対戦させることが可能である。ただし、レースは、他のプレイヤとの通信対戦に限らず、コンピュータ対戦であってもよい。 Various statuses are set for each character, and the player can train the possessed character and improve various statuses. Also, the player can have the possessed character participate in the race. Here, it is possible to have the player compete with other player's characters in a race through communication competition. However, the race is not limited to a communication competition with other players, and may be a computer competition.

詳しい説明は省略するが、本実施形態では、各レースにおいて、キャラクタが着順を争う。レースの結果、すなわち、着順は、出場するキャラクタのステータスに基づいて決定される。各レースには、着順ごとに特典が設定されており、出場したキャラクタの着順に対応する特典がプレイヤに付与される。 Although detailed description is omitted, in this embodiment, characters compete for the order of finish in each race. The result of the race, that is, the order of finish, is determined based on the statuses of participating characters. In each race, a privilege is set for each order of finish, and the player is given a privilege corresponding to the order of finish of the participating characters.

このように、本実施形態のゲームは、所謂育成ゲームである。ただし、以下に説明する技術的事項は、育成ゲームに限らず、アクションゲーム、シューティングゲーム、シュミレーションゲーム、RPG(Roll Playing Game)、パズルゲーム等、あらゆるゲームジャンルに適用可能である。 Thus, the game of this embodiment is a so-called training game. However, the technical matters described below are applicable not only to breeding games, but also to all game genres such as action games, shooting games, simulation games, RPGs (Roll Playing Games), and puzzle games.

図3Aは、ストーリ選択画面の一例を説明する図である。図3Bは、ストーリ用ライブ演出の一例を説明する図である。図3Cは、ライブ視聴権利を説明する図である。アプリケーションを起動すると、タッチパネル26に不図示のホーム画面が表示される。ホーム画面には、図3Aに示すように、メニューバー30が表示される。メニューバー30には、抽選選択部30a、ストーリ選択部30b、育成選択部30c、レース選択部30dおよびライブ選択部30eを含む複数の選択部が設けられている。プレイヤは、メニューバー30の選択部をタップすることで、タッチパネル26の表示画面を切り替えることができる。 FIG. 3A is a diagram illustrating an example of a story selection screen. FIG. 3B is a diagram illustrating an example of a story live effect. FIG. 3C is a diagram illustrating live viewing rights. When the application is started, a home screen (not shown) is displayed on the touch panel 26 . A menu bar 30 is displayed on the home screen, as shown in FIG. 3A. The menu bar 30 is provided with a plurality of selection sections including a lottery selection section 30a, a story selection section 30b, a breeding selection section 30c, a race selection section 30d, and a live selection section 30e. The player can switch the display screen of the touch panel 26 by tapping the selection portion of the menu bar 30 .

メニューバー30の抽選選択部30aがタップされると、不図示の抽選画面が表示される。抽選画面では、ゲーム内通貨を消費することで抽選ゲームを実行することができる。この抽選ゲームでは、キャラクタやアイテム等がそれぞれ所定の確率で当選する。つまり、プレイヤは、抽選ゲームを実行することで、キャラクタやアイテムを獲得、所持することができる。 When the lottery selection portion 30a of the menu bar 30 is tapped, a lottery screen (not shown) is displayed. On the lottery screen, a lottery game can be executed by consuming in-game currency. In this lottery game, a character, an item, or the like is won with a predetermined probability. In other words, the player can acquire and possess characters and items by executing the lottery game.

なお、抽選ゲームで当選可能なキャラクタには、それぞれ固有のキャラIDが設定されている。また、プレイヤには、それぞれプレイヤIDが設定されている。サーバ100においては、プレイヤIDごとに、キャラクタの所持情報が記憶されている。具体的には、サーバ100には、プレイヤが所持可能な全てのキャラクタのキャラIDごとに、「所持」または「未所持」を示す情報が記憶された所持キャラ情報が、プレイヤIDごとに設けられている。抽選ゲームにおいて、未所持のキャラクタ(以下、未所持キャラと呼ぶ)に当選した場合、サーバ100では、プレイヤIDに対応付けられた所持キャラ情報において、当選したキャラクタのキャラIDが、「未所持」から「所持」に更新される。 A unique character ID is set for each character that can be selected in the lottery game. A player ID is set for each player. In the server 100, character possession information is stored for each player ID. Specifically, the server 100 is provided with possessed character information for each player ID, in which information indicating “possessed” or “not possessed” is stored for each character ID of all characters that the player can possess. ing. In the lottery game, when a character that is not possessed (hereinafter referred to as a non-possessed character) is won, in the server 100, in the possessed character information associated with the player ID, the character ID of the winning character is "not possessed". is updated to "in possession".

メニューバー30のストーリ選択部30bがタップされると、図3Aに示すストーリ選択画面が表示される。ストーリ選択画面では、複数のストーリ選択タブ32が表示される。プレイヤがストーリ選択タブ32をタップすると、ストーリ演出が実行される。ストーリ演出では、ストーリ画像がタッチパネル26に表示される。ストーリ演出は複数パターン設けられており、ストーリ演出ごとに、表示されるストーリ画像が異なる。プレイヤは、ストーリ選択タブ32をタップすることで、所望のストーリ演出を視聴することができる。 When the story selection portion 30b of the menu bar 30 is tapped, a story selection screen shown in FIG. 3A is displayed. A plurality of story selection tabs 32 are displayed on the story selection screen. When the player taps the story selection tab 32, story presentation is executed. In the story presentation, a story image is displayed on the touch panel 26. - 特許庁A plurality of patterns of story effects are provided, and a different story image is displayed for each story effect. The player can view a desired story presentation by tapping the story selection tab 32. - 特許庁

なお、ストーリ演出には、解放条件が予め設定されたものがある。プレイヤは、解放条件が成立したストーリ演出については、何度でも繰り返し視聴することができる。一方で、解放条件が成立していないストーリ演出については、プレイヤは視聴することができない。ストーリ選択タブ32は、ストーリ演出ごとに設けられているが、解放条件が成立していないストーリ演出については、ストーリ選択タブ32がタップ操作を受け付けないように構成されている。 It should be noted that some story presentations have release conditions set in advance. The player can repeatedly view and listen to the story presentation for which the release condition has been satisfied. On the other hand, the player cannot view the story presentation for which the release condition is not satisfied. The story selection tab 32 is provided for each story production, but the story selection tab 32 is configured not to accept the tap operation for the story production for which the release condition is not satisfied.

図3Aに示す例では、第1話および第2話のストーリ演出の解放条件が成立しており、第3話から第5話のストーリ演出の解放条件が成立していない状態を示している。この状態では、第1話のストーリ演出に対応するストーリ選択タブ32(図中「Story:1」と示す)、および、第2話のストーリ演出に対応するストーリ選択タブ32(図中「Story:2」と示す)は、タップ操作を受け付け可能に表示される。 In the example shown in FIG. 3A, the conditions for releasing the story effects of episodes 1 and 2 are satisfied, but the conditions for releasing the story effects of episodes 3 to 5 are not satisfied. In this state, the story selection tab 32 ("Story: 1" in the figure) corresponding to the story presentation of the first episode and the story selection tab 32 ("Story: 1" in the figure) corresponding to the story presentation of the second episode are displayed. 2”) is displayed so as to be able to accept a tap operation.

一方、第3話のストーリ演出に対応するストーリ選択タブ32(図中「Story:3」と示す)、第4話のストーリ演出に対応するストーリ選択タブ32(図中「Story:4」と示す)、および、第5話のストーリ演出に対応するストーリ選択タブ32(図中「Story:5」と示す)は、いずれもタップ操作の受け付けが不可能であることを識別可能に表示されている。 On the other hand, a story selection tab 32 (shown as "Story: 3" in the figure) corresponding to the story presentation of the third episode, and a story selection tab 32 (shown as "Story: 4" in the figure) corresponding to the story presentation of the fourth episode. ), and the story selection tab 32 (shown as “Story: 5” in the drawing) corresponding to the story presentation of episode 5 are displayed in such a way that it is possible to identify that tap operations cannot be accepted. .

なお、ストーリ演出の解放条件の一例としては、他のストーリ演出が視聴済みであること、後述するレースのうち、予め設定されたレースにキャラクタを出場させたこと等が挙げられる。ただし、ストーリ演出の解放条件はこれに限らず、適宜設定可能である。また、ここでは、一部のストーリ演出について解放条件が設定されることとしたが、全てのストーリ演出に解放条件が設定されてもよいし、解放条件は一切設定されないものとしてもよい。 Examples of conditions for unlocking the story effect include that another story effect has been viewed and that the character has entered a preset race among the races to be described later. However, the condition for releasing the story presentation is not limited to this, and can be set as appropriate. Also, here, release conditions are set for some story effects, but release conditions may be set for all story effects, or no release conditions may be set.

ここで、一部のストーリ演出には、ライブ演出が含まれている。本実施形態において、ライブ演出とは、図3Bに示すように、キャラクタが歌唱しているライブ映像に合わせて、ボーカルサウンドとBGM(Background Music)とが出力される演出である。詳しくは後述するが、本実施形態では、ライブモードが設けられており、プレイヤは、ストーリ演出とは別に、ライブモードで、任意のライブ演出を視聴することができる。また、後述するレースで1着を獲得した場合にも、レース後にライブ演出を視聴することができる。 Here, part of the story production includes live production. In the present embodiment, the live production is, as shown in FIG. 3B, a production in which vocal sounds and BGM (Background Music) are output in time with a live image of a character singing. Although the details will be described later, in this embodiment, a live mode is provided, and the player can view any live performance in the live mode in addition to the story performance. In addition, even when the first place is won in a race, which will be described later, the live performance can be viewed after the race.

つまり、ライブ演出は、ストーリ演出として実行される場合、レース後に報酬として実行される場合、および、ライブモードにおいてプレイヤが任意に視聴する場合がある。以下では、ストーリ演出に含まれるライブ演出、換言すれば、ストーリ演出として実行されるライブ演出を、ストーリ用ライブ演出と呼ぶ。また、レース後に報酬として実行されるライブ演出を、報酬ライブ演出と呼ぶ。さらに、ライブモードにおいて視聴されるライブ演出を、シアターライブ演出と呼ぶ。なお、以下の説明において、ストーリ用ライブ演出、報酬ライブ演出およびシアターライブ演出を区別しない場合には、単にライブ演出と呼ぶ。 In other words, the live production may be executed as a story production, may be executed as a reward after the race, or may be voluntarily viewed by the player in the live mode. In the following, the live presentation included in the story presentation, in other words, the live presentation executed as the story presentation will be referred to as the live presentation for story. Also, a live performance performed as a reward after the race is called a reward live performance. Furthermore, a live presentation viewed in live mode is called a theater live presentation. In the following description, when the live performance for story, the reward live performance, and the theater live performance are not distinguished, they are simply referred to as live performance.

プレイヤは、ストーリ用ライブ演出を視聴することで、視聴したライブ演出を、ライブモードにおいて視聴することが可能となる。つまり、プレイヤは、ストーリ用ライブ演出を含むストーリ演出を視聴することで、以後、同じライブ演出を、ライブモードにおいて自由に視聴する権利を獲得する。ストーリ演出においてストーリ用ライブ演出が実行されると、図3Cに示すように、ライブ演出の視聴権利を獲得したことが報知される。 By viewing the story live presentation, the player can view the viewed live presentation in the live mode. In other words, the player views the story production including the live production for the story, and thereafter acquires the right to freely watch the same live production in the live mode. When the live effect for the story is executed in the story effect, as shown in FIG. 3C, it is notified that the right to view the live effect has been acquired.

図4Aは、育成画面34の一例を説明する図である。図4Bは、育成キャラダイアログ36の一例を説明する図である。メニューバー30の育成選択部30cがタップされると、図4Aに示す育成画面34が表示される。育成画面34には、所持キャラが一覧表示される。ここでは、育成画面34において、所持キャラに対応するアイコンが表示される。そして、育成画面34において、アイコンがタップされると、図4Bに示す育成キャラダイアログ36が表示される。 FIG. 4A is a diagram illustrating an example of the breeding screen 34. As shown in FIG. FIG. 4B is a diagram illustrating an example of the breeding character dialogue 36. As shown in FIG. When the breeding selection section 30c of the menu bar 30 is tapped, the breeding screen 34 shown in FIG. 4A is displayed. A list of possessed characters is displayed on the breeding screen 34 . Here, an icon corresponding to the possessed character is displayed on the breeding screen 34 . Then, when an icon is tapped on the breeding screen 34, a breeding character dialogue 36 shown in FIG. 4B is displayed.

育成キャラダイアログ36には、育成画面34でタップされたアイコンに対応する所持キャラのステータスが表示される。また、育成キャラダイアログ36には、育成メニュータブ36a、36b、36cが設けられる。ここでは、3種類の育成メニューが設けられており、育成メニュータブ36a、36b、36cをタップすることで、プレイヤは、所望の育成メニューを選択して実行することができる。育成メニューを実行することで、選択された所持キャラのステータスが上昇する。 The breeding character dialog 36 displays the status of the possessed character corresponding to the icon tapped on the breeding screen 34 . The breeding character dialog 36 is also provided with breeding menu tabs 36a, 36b, and 36c. Here, three types of breeding menus are provided, and by tapping breeding menu tabs 36a, 36b, and 36c, the player can select and execute a desired breeding menu. By executing the training menu, the status of the selected possessed character will increase.

図5Aは、レース選択画面の一例を説明する図である。図5Bは、出場キャラ選択画面40の一例を説明する図である。図5Cは、レース結果画面42の一例を説明する図である。メニューバー30のレース選択部30dがタップされると、図5Aに示すレース選択画面が表示される。レース選択画面では、複数のレース選択タブ38が表示される。レース選択タブ38は、レースの種別ごとに設けられており、プレイヤは、レース選択タブ38をタップすることで、実行するレースの種別、すなわち、所持キャラを出場させるレースの種別を選択することができる。 FIG. 5A is a diagram illustrating an example of a race selection screen. FIG. 5B is a diagram illustrating an example of the participating character selection screen 40. As shown in FIG. FIG. 5C is a diagram illustrating an example of the race result screen 42. As shown in FIG. When the race selection portion 30d of the menu bar 30 is tapped, the race selection screen shown in FIG. 5A is displayed. A plurality of race selection tabs 38 are displayed on the race selection screen. A race selection tab 38 is provided for each type of race, and the player can tap the race selection tab 38 to select the type of race to be executed, that is, the type of race in which the possessed character participates. can.

ここで、レースの種別には、解放条件が予め設定されたものがある。プレイヤは、解放条件が成立したレースについては、何度でも繰り返し実行することができる。一方で、プレイヤは、解放条件が成立していないレースを実行することができない。解放条件が成立していないレースの種別については、上記したストーリ選択タブ32と同様に、レース選択タブ38が、タップ操作を受け付けないように構成されている。 Here, some types of races have release conditions set in advance. The player can repeat the race for which the release condition is satisfied any number of times. On the other hand, the player cannot run a race for which the release condition has not been met. As with the story selection tab 32 described above, the race selection tab 38 is configured not to accept a tap operation for race types for which the release condition is not satisfied.

なお、レースの解放条件の一例としては、他の所定のレースで入賞(3位以内)すること、1着になったレースの種別が所定数以上であること、ステータスが所定値以上であること等が挙げられる。ただし、レースの解放条件はこれに限らず、適宜設定可能である。また、ここでは、一部のレースの種別について解放条件が設定されることとしたが、全てのレースに解放条件が設定されてもよいし、解放条件は一切設定されないものとしてもよい。 An example of race release conditions is to win a prize (up to 3rd place) in other predetermined races, to finish first in a predetermined number of race types or more, and to have a status of a predetermined value or more. etc. However, the race release condition is not limited to this, and can be set as appropriate. Also, here, release conditions are set for some types of races, but release conditions may be set for all races, or no release conditions may be set.

解放条件が設定されていない、あるいは、解放条件が成立しているレースの種別に対応したレース選択タブ38がタップされると、図5Bに示す出場キャラ選択画面40が表示される。出場キャラ選択画面40には、プレイヤが所持している所持キャラの一覧画面が表示される。この一覧画面には、図示のように、所持キャラに対応するアイコンが表示される。 When the race selection tab 38 corresponding to the race type for which the release condition is not set or the release condition is satisfied is tapped, the participating character selection screen 40 shown in FIG. 5B is displayed. The participating character selection screen 40 displays a list screen of possessed characters possessed by the player. On this list screen, icons corresponding to possessed characters are displayed as shown.

出場キャラ選択画面40においてアイコンがタップされると、対応する所持キャラの詳細情報と開始ボタンとが設けられた不図示の確認ダイアログが表示される。この確認ダイアログの開始ボタンがタップされると、選択された種別のレースに、所持キャラが出場するレースゲームが実行される。なお、1のレースに1のプレイヤが出場させることができるキャラクタの数はレースの種別によって異なる。例えば、1のプレイヤが1体のキャラクタのみを出場させることができるレースと、1のプレイヤが複数のキャラクタを出場させることができるレースとがある。 When an icon is tapped on the participating character selection screen 40, a confirmation dialog (not shown) having detailed information on the corresponding possessed character and a start button is displayed. When the start button of this confirmation dialog is tapped, a racing game is executed in which the possessed character participates in the race of the selected type. It should be noted that the number of characters that one player can make to participate in one race varies depending on the type of race. For example, there are races in which one player can have only one character participate, and races in which one player can have a plurality of characters participate.

なお、出場キャラ選択画面40においては、先に選択した種別のレースに出場不可能な所持キャラについて、プレイヤが選択できないように表示される。ここでは、出場不可能な所持キャラのアイコンがグレーアウト表示されている。なお、出場キャラ選択画面40には、未所持キャラが所持キャラとともに表示されてもよい。この場合、未所持キャラについては、上記と同様に、プレイヤが選択できないように表示されるとよい。 It should be noted that, on the participating character selection screen 40, a character possessed that cannot participate in the race of the previously selected type is displayed so that the player cannot select it. Here, the icons of possessed characters that cannot participate are grayed out. It should be noted that non-possessed characters may be displayed together with possessed characters on the participating character selection screen 40 . In this case, the non-possessed character may be displayed such that the player cannot select it, as in the above case.

確認ダイアログの開始ボタンがタップされると、サーバ100に、レースの種別、および、プレイヤが選択したキャラクタの情報を含む選択情報が送信される。サーバ100では、受信した選択情報に基づいて、レース結果が導出される。そして、レース結果を示すレース結果情報をプレイヤ端末1が受信すると、受信したレース結果情報に基づいて、レース実況画像が生成、表示される。そして、レース実況画像の表示が終了すると、図5Cに示すように、レース結果画面42が表示される。レース結果画面42には、レースに参加したキャラクタの着順が表示されている。 When the confirmation dialog start button is tapped, selection information including information on the race type and the character selected by the player is transmitted to the server 100 . The server 100 derives a race result based on the received selection information. Then, when the player terminal 1 receives the race result information indicating the race result, a race commentary image is generated and displayed based on the received race result information. Then, when the display of the race commentary image ends, a race result screen 42 is displayed as shown in FIG. 5C. The race result screen 42 displays the order of arrival of characters participating in the race.

ここで、プレイヤがレースに出場させた所持キャラが3着以内に入賞すると、報酬として、上記した報酬ライブ演出が実行される。ここでは、報酬ライブ演出が、全てのレースに対して設けられていることとする。ただし、報酬ライブ演出は、一部のレースにおいてのみ実行されてもよい。また、報酬ライブ演出は、所持キャラが3着以内に入賞することで実行される。なお、報酬ライブ演出が実行される着順は、レースごとに異なってもよいし、全てのレースで共通であってもよい。 Here, when the possessed character that the player causes to participate in the race wins within three prizes, the reward live effect described above is executed as a reward. Here, it is assumed that reward live effects are provided for all races. However, the reward live production may be executed only in some races. Also, the reward live effect is executed when the possessed character wins within 3 places. Note that the order of finish in which the reward live effect is executed may differ for each race, or may be common to all races.

図6Aは、報酬ライブ演出の一例を説明する図である。図6Bは、権利獲得演出の一例を説明する図である。報酬ライブ演出においても、キャラクタが登場するライブ映像と、ボーカルサウンド、BGMとが出力される。報酬ライブ演出は、レースごとに設けられているが、レースごとに、楽曲、背景画像、出力されるボーカルサウンド、BGMが異なる。 FIG. 6A is a diagram illustrating an example of a reward live effect. FIG. 6B is a diagram illustrating an example of a right acquisition effect. Also in the reward live production, a live video in which characters appear, vocal sounds, and BGM are output. The reward live performance is provided for each race, but the music, background image, output vocal sound, and BGM are different for each race.

ここで、報酬ライブ演出のライブ映像には、レースに出場したキャラクタが表示される。ここでは、全てのレースにおいて、18体のキャラクタが出場することとする。したがって、全ての報酬ライブ演出において、ライブ映像には18体のキャラクタが登場する。ただし、レースに出場するキャラクタは18体未満であってもよい。この場合、当該レース後に実行される報酬ライブ演出において、レースに出場したキャラクタと同数のキャラクタが登場すればよい。 Here, the characters that participated in the race are displayed in the live video of the reward live production. Here, it is assumed that 18 characters participate in all races. Therefore, 18 characters appear in the live video in all reward live productions. However, the number of characters participating in the race may be less than 18. In this case, the same number of characters as the characters who participated in the race may appear in the reward live effect executed after the race.

ライブ映像に表示されるキャラクタの表示位置、すなわち、キャラクタのフォーメーションは、ライブ演出の種別ごとに予め設定されている。詳しくは後述するが、各ライブ演出には、キャラクタが配置される18のポジションが設定されている。18のポジションは、メインポジションおよびバックポジションのいずれかの種別に大別されている。メインポジションは、タッチパネル26の幅方向中央付近に配置され、バックポジションよりも表示領域が大きい。また、メインポジションおよびバックポジションの数は報酬ライブ演出ごとに設定されている。 The display positions of the characters displayed in the live video, that is, the character formations are set in advance for each type of live performance. Although details will be described later, 18 positions in which characters are arranged are set for each live effect. The 18 positions are broadly classified into main positions and back positions. The main position is arranged near the center in the width direction of the touch panel 26 and has a larger display area than the back position. Also, the number of main positions and back positions is set for each reward live production.

各ポジションには、ポジション番号(N)が付されている。ここでは、18のポジションが設けられることから、ポジション番号を示すNは、1から18のいずれかの整数となる。そして、メインポジションは、最大で5つ設定され、ポジション番号(N)が1~5のポジションが、メインポジションとなり得る。 Each position is assigned a position number (N). Since 18 positions are provided here, N, which indicates the position number, is any integer from 1 to 18. A maximum of five main positions are set, and positions with position numbers (N) of 1 to 5 can be main positions.

例えば、図6Aに示す例では、18のポジションのうち、3つのポジションがメインポジションに設定されており、15のポジションがバックポジションに設定されている。したがって、この例では、ポジション番号(N)が1から3のポジションがメインポジションとなり、4から18のポジションがバックポジションとなる。 For example, in the example shown in FIG. 6A, of the 18 positions, 3 positions are set as main positions and 15 positions are set as back positions. Therefore, in this example, positions with position numbers (N) 1 to 3 are main positions, and positions 4 to 18 are back positions.

図6Aには、3つのメインポジションのそれぞれに配置された3体のキャラクタと、15のバックポジションのうちの5つに配置された5体のキャラクタとを示している。図6Aに示すように、ライブ映像は、メインポジションに配置されたキャラクタが、バックポジションに配置されたキャラクタよりも目立つように構成されている。具体的には、ライブ映像では、キャラクタが個々に映し出されることがある。このとき、メインポジションに配置されたキャラクタは、バックポジションに配置されたキャラクタよりも、映像に登場する回数や時間が多くなる。 FIG. 6A shows 3 characters placed in each of the 3 main positions and 5 characters placed in 5 of the 15 back positions. As shown in FIG. 6A, the live video is configured such that the character placed in the main position stands out more than the character placed in the back position. Specifically, in live video, characters may be displayed individually. At this time, the character placed in the main position appears more times and for a longer period of time than the character placed in the back position.

そして、報酬ライブ演出では、レースの着順とポジション番号とが一致するように、レースに出場したキャラクタのそれぞれに対して、18のポジションが割り当てられる。具体的には、レースで1着のキャラクタには、N=1のポジションが割り当てられ、レースで2着、3着のキャラクタには、それぞれN=2、N=3のポジションが割り当てられる。同様に、レースで4着から18着のキャラクタには、それぞれN=4~18のポジションが割り当てられる。 In the reward live effect, 18 positions are assigned to each of the characters participating in the race so that the order of finish in the race matches the position number. Specifically, the character that finishes first in the race is assigned a position of N=1, and the characters that finish second and third in the race are assigned positions of N=2 and N=3, respectively. Similarly, characters finishing 4th through 18th in a race are assigned N=4 through 18 positions, respectively.

上記したように、ライブ演出では、メインポジションの表示領域が大きく、特に、N=1のポジションは、最も表示領域が大きい。したがって、レースで上位に入賞するほど、プレイヤ自身の所持キャラが、報酬ライブ演出で目立つこととなる。すなわち、着順が上位のキャラクタほど、ライブ映像に表示される回数が多く、登場時間も長時間となることから、レースや育成への意欲、すなわち、ゲーム意欲を向上させることができる。 As described above, in the live performance, the main position has a large display area, and in particular, the position of N=1 has the largest display area. Therefore, the higher the prize in the race, the more the character owned by the player stands out in the reward live performance. That is, the higher the order of arrival of the character, the more times it is displayed in the live video and the longer the appearance time, so that the motivation for the race and training, that is, the motivation for the game can be improved.

ここで、プレイヤは、レースで1着を獲得することで、視聴した報酬ライブ演出を、ライブモードにおいて視聴することが可能となる。つまり、プレイヤは、レースにおいて1着を獲得することで、当該レースに対応するライブ演出をライブモードで視聴する権利を獲得する。レースで1着を獲得した場合には、報酬ライブ演出の終了後、図6Bに示す権利獲得演出が実行される。この権利獲得演出は、ライブ演出の視聴権利を獲得したことを報知する演出であり、初めてストーリ用ライブ演出を視聴した後にも実行される。 Here, the player can view the viewed reward live effect in the live mode by winning the first place in the race. In other words, the player acquires the right to view the live performance corresponding to the race in the live mode by winning first place in the race. When the first place is won in the race, the right acquisition effect shown in FIG. 6B is executed after the end of the reward live effect. This right acquisition effect is a effect for notifying that the right to view the live effect has been acquired, and is executed even after the live effect for the story is viewed for the first time.

図7Aは、楽曲選択画面の一例を説明する図である。図7Bは、キャラ配置画面の一例を説明する図である。図7Cは、キャラ選択画面の一例を説明する図である。図7Dは、シアターライブ演出の一例を説明する図である。メニューバー30のライブ選択部30eがタップされると、図7Aに示す楽曲選択画面が表示される。本実施形態では、楽曲選択画面の表示以降の状態を、ライブモードと呼ぶ。 FIG. 7A is a diagram illustrating an example of a music selection screen. FIG. 7B is a diagram illustrating an example of a character placement screen. FIG. 7C is a diagram illustrating an example of a character selection screen. FIG. 7D is a diagram illustrating an example of a theater live performance. When the live selection section 30e of the menu bar 30 is tapped, the music selection screen shown in FIG. 7A is displayed. In this embodiment, the state after the music selection screen is displayed is called a live mode.

楽曲選択画面は、ライブモードにおいて視聴するライブ演出の楽曲を決定する画面である。ここでは、1の楽曲に対して、ライブ演出が1つ設けられている。したがって、楽曲を決定するのは、ライブ演出の種別を決定するのと等しい。つまり、プレイヤは、楽曲選択画面において、視聴する楽曲の種別を決定しているとも言えるし、ライブ演出の種別を決定しているとも言える。すなわち、楽曲の種別は、ライブ演出の種別と同義ともいえる。 The music selection screen is a screen for determining the music of the live production to be viewed in the live mode. Here, one live effect is provided for one piece of music. Therefore, determining the music is equivalent to determining the type of live presentation. In other words, it can be said that the player determines the type of music to listen to on the music selection screen, or determines the type of live presentation. That is, it can be said that the type of music is synonymous with the type of live presentation.

楽曲選択画面では、仮選択中タブ44aと、複数の候補タブ44bとが表示される。仮選択中タブ44aおよび候補タブ44bには、ライブ演出で出力される楽曲のタイトルが表示される。仮選択中タブ44aは、候補タブ44bよりも表示面積が大きく、仮選択中タブ44aに表示された楽曲が、現在、仮選択中の楽曲となる。プレイヤは、仮選択中タブ44aを上下方向にスワイプ操作する等、所定の操作を行うことで、仮選択中の楽曲を切り替えることができる。 On the song selection screen, a provisionally selected tab 44a and a plurality of candidate tabs 44b are displayed. Titles of songs to be output in the live performance are displayed in the provisionally selected tab 44a and the candidate tab 44b. The tentatively selected tab 44a has a larger display area than the candidate tab 44b, and the song displayed on the tentatively selected tab 44a is the currently tentatively selected song. The player can switch the temporarily selected song by performing a predetermined operation such as vertically swiping the temporarily selected tab 44a.

また、楽曲選択画面には、楽曲決定ボタン46が設けられる。楽曲決定ボタン46がタップされると、その時点で仮選択中であった楽曲、すなわち、ライブ演出の種別が本決定され、図7Bに示すキャラ配置画面が表示される。キャラ配置画面には、本決定された楽曲に紐付けられた配置パターンを示すポジション表示部50が設けられる。ポジション表示部50は、メインポジション表示部50aと、バックポジション表示部50bとに大別される。 Also, a music determination button 46 is provided on the music selection screen. When the music determination button 46 is tapped, the music temporarily selected at that time, that is, the type of live performance is finally determined, and the character placement screen shown in FIG. 7B is displayed. The character placement screen is provided with a position display section 50 that indicates the placement pattern associated with the finally determined song. The position display section 50 is roughly divided into a main position display section 50a and a back position display section 50b.

メインポジション表示部50aは、メインポジションの位置を示し、バックポジション表示部50bは、バックポジションの位置を示す。図7Bに示す例では、図中黒塗りで示す3つのメインポジション表示部50aと、図中破線で示す15個のバックポジション表示部50bとが設けられる。これらのポジション表示部50には、それぞれポジション番号が記されている。 The main position display portion 50a indicates the position of the main position, and the back position display portion 50b indicates the position of the back position. In the example shown in FIG. 7B, there are provided three main position display portions 50a shown in black in the drawing and 15 back position display portions 50b shown in dashed lines in the drawing. A position number is written on each of these position display portions 50 .

キャラ配置画面においては、タッチパネル26の下方に、選択中キャラ表示部52が設けられる。選択中キャラ表示部52は、ポジション番号ごとに表示領域が区切られており、各表示領域には、現在選択されているキャラクタと、このキャラクタに設定された衣装とが表示される。プレイヤは、選択中キャラ表示部52を左右方向にスワイプすることで、タッチパネル26に表示される表示領域を切り替えることができる。 On the character placement screen, a selected character display section 52 is provided below the touch panel 26 . The selected character display area 52 is divided into display areas for each position number, and the currently selected character and the costume set for this character are displayed in each display area. The player can switch the display area displayed on the touch panel 26 by swiping the selected character display portion 52 in the horizontal direction.

また、プレイヤは、表示領域をタップすることで、表示領域に記されたポジション番号を指定することができる。そして、選択中キャラ表示部52のいずれかの表示領域がタップ(ポジション選択操作が入力)されると、図7Cに示すキャラ選択画面が表示される。キャラ選択画面には、所持キャラに対応するキャラアイコン54が複数表示される。 Also, the player can specify the position number written in the display area by tapping the display area. Then, when any display area of the selected character display portion 52 is tapped (position selection operation is input), the character selection screen shown in FIG. 7C is displayed. A plurality of character icons 54 corresponding to possessed characters are displayed on the character selection screen.

キャラ選択画面においてキャラアイコン54がタップ(キャラ選択操作が入力)されると、タップされたキャラアイコン54が、選択中キャラ表示部52のうち、プレイヤがタップした表示領域に表示される。このとき、プレイヤがタップしたキャラアイコン54に対応するキャラクタが、先にプレイヤが指定したポジション番号(プレイヤがタップした表示領域に付されたポジション番号)に対応付けて記憶される。このように、キャラ配置画面では、現在選択されているキャラクタと、ポジション番号との対応関係が識別可能に表示される。キャラ配置画面およびキャラ選択画面により、各ポジションに、キャラクタを配置したり、入れ替えたりすることができる。 When the character icon 54 is tapped (a character selection operation is input) on the character selection screen, the tapped character icon 54 is displayed in the display area tapped by the player in the selected character display section 52 . At this time, the character corresponding to the character icon 54 tapped by the player is stored in association with the position number previously specified by the player (the position number assigned to the display area tapped by the player). In this way, on the character placement screen, the correspondence between the currently selected character and the position number is displayed in an identifiable manner. A character can be placed or replaced at each position on the character placement screen and the character selection screen.

なお、キャラ配置画面には、一任ボタン56、スタートボタン58およびリターンボタン60が設けられる。一任ボタン56がタップ(おまかせ操作が入力)されると、メインポジションおよびバックポジションの全てに、キャラクタが自動で配置される。このとき、どのようにキャラクタが配置されるかについては後述する。 In addition, a discretion button 56, a start button 58 and a return button 60 are provided on the character placement screen. When the discretion button 56 is tapped (automatic operation is input), characters are automatically placed in all of the main position and back position. How the characters are arranged at this time will be described later.

また、スタートボタン58がタップ(決定操作が入力)されると、選択した楽曲およびキャラクタに基づいて、図7Dに示すように、ライブ演出が実行される。ライブ演出では、プレイヤが選択したキャラクタが、指定したポジションに配されたライブ映像が再生される。なお、メインポジションおよびバックポジションの18のポジションにおいて、いずれか1つでもキャラクタが選択されていない場合には、スタートボタン58が無効化されており、ライブ演出を開始することができない。ただし、キャラクタが選択されていないポジションが存在している場合であっても、ライブ演出が開始されてもよい。 Also, when the start button 58 is tapped (determination operation is input), a live performance is performed as shown in FIG. 7D based on the selected music piece and character. In the live performance, a live image is reproduced in which the character selected by the player is placed in the specified position. If a character is not selected at any one of the 18 positions, ie, the main position and the back position, the start button 58 is disabled and the live performance cannot be started. However, even if there is a position where no character is selected, the live performance may be started.

また、キャラ配置画面において、リターンボタン60がタップ(リターン操作が入力)されると、図7Aに示す楽曲選択画面が表示される。このとき、現在、選択されているキャラクタに関する情報、および、本決定された楽曲の情報が消去される。 Further, when the return button 60 is tapped (return operation is input) on the character placement screen, the music selection screen shown in FIG. 7A is displayed. At this time, the information on the currently selected character and the information on the finally decided music are erased.

なお、詳しい説明は省略するが、プレイヤ端末1は、楽曲選択画面に遷移した際に、過去にプレイヤが設定したキャラクタや衣装に関する情報をサーバ100から取得する。そして、サーバ100から取得した情報に基づいて、キャラ配置画面に、過去に設定した情報に基づく表示が行われる。そして、プレイヤ端末1において、プレイヤがキャラクタや衣装を変更すると、情報が上書きされる。また、ライブ演出の開始時には、プレイヤ端末1は、今回設定したキャラクタ、衣装に関する情報をサーバ100に送信する。サーバ100では、受信した情報を記憶する。これにより、サーバ100には、プレイヤが最終的に選択したキャラクタの配置や衣装に関する情報が、楽曲IDごとに保持されることとなる。 Although a detailed description is omitted, the player terminal 1 acquires from the server 100 information about characters and costumes set by the player in the past when transitioning to the music selection screen. Then, based on the information acquired from the server 100, a display based on the information set in the past is performed on the character placement screen. Then, in the player terminal 1, when the player changes the character or costume, the information is overwritten. Also, at the start of the live performance, the player terminal 1 transmits to the server 100 information about the characters and costumes set this time. The server 100 stores the received information. As a result, the server 100 retains, for each song ID, information regarding the placement and costume of the character finally selected by the player.

以上のように、ライブ演出では、ライブ映像とともに楽曲が再生される。上記したように、ライブ演出は、ストーリ用ライブ演出、報酬ライブ演出およびシアターライブ演出として実行されるが、ライブ映像および楽曲の再生データは共通である。換言すれば、1つのライブ演出が、ストーリ用ライブ演出、報酬ライブ演出およびシアターライブ演出として実行されているに過ぎない。 As described above, in the live performance, music is played back along with the live video. As described above, live performances are performed as story live performances, reward live performances, and theater live performances, but live video and music playback data are common. In other words, one live performance is executed as a story live performance, a reward live performance, and a theater live performance.

ここで、本実施形態では、1のライブ演出、すなわち、1の楽曲に対して、複数のサウンドデータが紐付けられている。サウンドデータは、ボーカルデータとBGMデータとに大別される。各楽曲には、1または複数のボーカルデータと2種類のBGMデータとが紐付けられている。 Here, in the present embodiment, a plurality of pieces of sound data are associated with one live presentation, that is, one piece of music. Sound data is roughly classified into vocal data and BGM data. Each piece of music is associated with one or a plurality of vocal data and two types of BGM data.

ボーカルデータは、1の楽曲の最初から最後までを1のキャラクタの声で歌唱している、BGMを含まないボイスデータである。また、ボーカルデータは、いずれかのキャラクタに対応付けられている。例えば、楽曲Aに対して、キャラクタAに対応するボーカルデータAと、キャラクタBに対応するボーカルデータBとが紐付けられている。また、例えば、楽曲Bに対して、キャラクタCに対応するボーカルデータCと、キャラクタDに対応するボーカルデータDと、キャラクタEに対応するボーカルデータEとが紐付けられている。 Vocal data is voice data containing no BGM, which is sung by one character from the beginning to the end of one piece of music. Also, vocal data is associated with one of the characters. For example, for song A, vocal data A corresponding to character A and vocal data B corresponding to character B are linked. Further, for example, vocal data C corresponding to character C, vocal data D corresponding to character D, and vocal data E corresponding to character E are associated with song B.

このように、各楽曲に紐付けられるボーカルデータの数、および、ボーカルデータに対応するキャラクタの種別は、楽曲ごとに異なる。また、楽曲ごとにメロディおよび歌詞が異なるため、異なる楽曲に紐付けられるボーカルデータは、当然にして互いに異なるものである。一方、同一の楽曲に紐付けられるボーカルデータは、メロディおよび歌詞が同じであるが、歌唱するキャラクタ、すなわち、声が異なっている。 Thus, the number of vocal data linked to each song and the types of characters corresponding to the vocal data differ for each song. Also, since the melody and lyrics are different for each song, the vocal data associated with different songs are naturally different. On the other hand, vocal data linked to the same song has the same melody and lyrics, but different singing characters, that is, different voices.

つまり、各楽曲には、一部のキャラクタがボーカル対応キャラとして紐付けられている。上記の例では、楽曲Aに対して、キャラクタAに対応するボーカルデータAと、キャラクタBに対応するボーカルデータBとが紐付けられているため、楽曲Aには、キャラクタA、Bが、ボーカル対応キャラとして紐付けられている。同様に、例えば、楽曲Bに対して、キャラクタCに対応するボーカルデータCと、キャラクタDに対応するボーカルデータDと、キャラクタEに対応するボーカルデータEとが紐付けられている場合、楽曲Bには、キャラクタC、D、Eが、ボーカル対応キャラとして紐付けられていることとなる。 In other words, each song is associated with some characters as characters for vocals. In the above example, vocal data A corresponding to character A and vocal data B corresponding to character B are associated with song A. It is tied as a corresponding character. Similarly, for example, if vocal data C corresponding to character C, vocal data D corresponding to character D, and vocal data E corresponding to character E are associated with song B, then song B , the characters C, D, and E are linked as characters corresponding to vocals.

また、BGMデータは、キャラクタの声、すなわち、ボーカルサウンドを含まないサウンドデータである。ここでは、各楽曲に対して、観客の歓声等の効果音を含むBGMデータと、効果音を含まないBGMデータとの2種類が紐付けられている。詳しい説明は省略するが、プレイヤは、プレイヤ端末1において、画質や音声等のオプション設定を行うことができる。このオプション設定では、ライブ演出において、効果音の有無を選択することができる。オプション設定において、効果音なしが設定されている場合、ライブ演出では、効果音を含まないBGMデータが再生される。一方、オプション設定において、効果音ありが設定されている場合、ライブ演出では、効果音を含むBGMデータが再生される。 BGM data is sound data that does not include the voice of the character, that is, vocal sound. Here, two types of BGM data including sound effects such as audience cheers and BGM data not including sound effects are associated with each song. Although detailed description is omitted, the player can set options such as image quality and sound on the player terminal 1 . With this option setting, it is possible to select the presence or absence of sound effects in the live production. When no sound effect is set in the option setting, BGM data without sound effect is reproduced in the live performance. On the other hand, in the option setting, if sound effects are set, BGM data including sound effects is reproduced in the live presentation.

以上のように、各楽曲には、少なくとも1のキャラクタがボーカル対応キャラとして紐付けられ、また、ボーカル対応キャラに対応する1のボーカルデータが紐付けられている。ライブ演出では、1のBGMデータと、楽曲に紐付けられたいずれかのボーカルデータとに基づいて、音声が出力される。 As described above, each song is associated with at least one character as a vocal-compatible character, and also associated with one vocal data corresponding to the vocal-compatible character. In the live performance, sound is output based on one piece of BGM data and any vocal data associated with the song.

なお、図7Cに示すキャラ選択画面には、選択可能なキャラクタに対応するキャラアイコン54が表示される。上記したように、図7Cに示すキャラ選択画面は、図7Bに示すキャラ配置画面において、ポジション番号すなわちポジションが指定された後に表示される。このとき、キャラ配置画面でプレイヤが指定したポジションがメインポジションであった場合、本決定された楽曲に対して、ボーカル対応キャラとして紐付けられたキャラクタのキャラアイコン54に、識別情報62が表示される。この識別情報62により、プレイヤは、現在選択している楽曲、すなわち、ライブ演出におけるボーカル対応キャラを把握することが可能となる。 Character icons 54 corresponding to selectable characters are displayed on the character selection screen shown in FIG. 7C. As described above, the character selection screen shown in FIG. 7C is displayed after the position number, that is, the position is designated on the character placement screen shown in FIG. 7B. At this time, if the position specified by the player on the character placement screen is the main position, identification information 62 is displayed on the character icon 54 of the character associated with the finally determined song as a vocal character. be. With this identification information 62, the player can grasp the currently selected song, that is, the vocalist character in the live performance.

一方で、キャラ配置画面でプレイヤが指定したポジションがバックポジションであった場合には、ボーカル対応キャラであるか否かに拘わらず、キャラ選択画面に識別情報62が表示されることはない。これは、メインポジションにボーカル対応キャラが配置されるか否かによって、ライブ演出で出力されるボーカルデータが異なる一方で、バックポジションに配置されるキャラクタがボーカル対応キャラであるか否かは、演出上の影響を及ぼさないためである。以下では、ライブ演出で再生されるボーカルデータの決定方法について詳述する。 On the other hand, if the position specified by the player on the character placement screen is the back position, the identification information 62 will not be displayed on the character selection screen regardless of whether the character is a vocal support character. This is because, while the vocal data output in the live performance differs depending on whether or not the character for vocals is placed in the main position, whether or not the character placed in the back position is a character for vocals depends on the performance. This is because it does not affect the above. A method of determining vocal data to be reproduced in a live performance will be described in detail below.

図8Aは、キャラ種別の一例を説明する図である。図8Bは、演出分類の一例を説明する図である。図8Cは、楽曲IDごとに設定されたボーカル対応キャラの一例を説明する図である。図8Aに示すように、本実施形態では、ゲームに登場するキャラクタが、メインキャラとサブキャラとに大別される。メインキャラというのは、上記のレースに出場させることが可能なキャラである。つまり、メインキャラは、本実施形態のゲームにおいて中心的な役割を担うキャラである。 FIG. 8A is a diagram illustrating an example of character types. FIG. 8B is a diagram illustrating an example of effect classification. FIG. 8C is a diagram illustrating an example of a vocal character set for each song ID. As shown in FIG. 8A, in this embodiment, characters appearing in the game are roughly divided into main characters and sub characters. A main character is a character that can be made to participate in the above races. That is, the main character is a character that plays a central role in the game of this embodiment.

また、サブキャラというのは、上記のレースに出場させることはできないキャラであり、主に、ストーリ演出およびライブ演出等で登場するサブ的な役割を担うキャラクタである。上記のメインキャラは、抽選による当選、あるいは管理者からの無償提供により、所持キャラとして所持可能である。サブキャラについては、メインキャラと同様に、抽選による当選、あるいは管理者からの無償提供により、所持キャラと同様に管理されてもよいし、所持キャラとは別に管理されてもよい。また、サブキャラは、プレイヤが選択することができない、所謂NPC(Non-playable character)としてのみ、レースに出場可能としてもよい。 Sub-characters are characters that cannot be made to participate in the above-mentioned races, and are characters that mainly play a sub-role that appears in story production, live production, and the like. The above main character can be possessed as a possessed character by winning a lottery or by providing it free of charge from the administrator. As with the main character, the sub-character may be managed in the same manner as the possessed character, or may be managed separately from the possessed character by winning a lottery or being provided free of charge by the administrator. Also, the sub-character may be allowed to participate in the race only as a so-called NPC (Non-playable character) that cannot be selected by the player.

また、シアターライブ演出では、上記したように、プレイヤが所望のキャラクタを選択して各ポジションに配置することができる。このとき、プレイヤは、メインキャラおよびサブキャラの双方を選択して配置することができる。なお、ここでは、メインキャラを配置可能なポジション、および、サブキャラを配置可能なポジションに制約はない。したがって、プレイヤは、メインポジションおよびバックポジションのいずれについても、メインキャラおよびサブキャラを自由に選択して配置することができる。なお、シアターライブ演出に登場させるキャラクタとして選択可能なメインキャラは、所持キャラとして所持しているキャラクタに限定されてもよいし、所持、未所持に拘わらず、全てのメインキャラが選択可能であってもよい。 Also, in the theater live production, as described above, the player can select a desired character and place it in each position. At this time, the player can select and place both the main character and the sub-character. Here, there are no restrictions on the positions in which the main character can be placed and the positions in which the sub-characters can be placed. Therefore, the player can freely select and arrange the main character and sub-characters for both the main position and the back position. In addition, the main characters that can be selected as characters to appear in the theater live production may be limited to characters that you have as owned characters, or all main characters can be selected regardless of whether they are owned or not. good.

ゲームに登場するキャラクタには、全て、キャラクタの種別を示すキャラIDが設定されている。ここでは、キャラID=0001~0025の合計25体のキャラクタが、メインキャラとして設けられている。また、キャラID=1001~1015の合計15体のキャラクタが、サブキャラとして設けられている。 All characters appearing in the game are set with character IDs indicating character types. Here, a total of 25 characters with character IDs=0001 to 0025 are provided as main characters. Also, a total of 15 characters with character IDs=1001 to 1015 are provided as sub-characters.

また、本実施形態では、ライブ演出の種別が、第1演出分類および第2演出分類のいずれかに分類される。なお、上記したように、ライブ演出の種別は、楽曲の種別ともいえるため、楽曲の種別が、第1演出分類および第2演出分類のいずれかに分類されているともいえる。なお、第2演出分類のライブ演出は、さらに、「ストーリ専用」と「その他」とに分類される。 Further, in the present embodiment, the type of live performance is classified into either the first performance classification or the second performance classification. As described above, the type of live performance can also be said to be the type of music, so it can be said that the type of music is classified into either the first performance classification or the second performance classification. Note that the live effects of the second effect category are further classified into "story only" and "others".

第2演出分類の「ストーリ専用」は、上記のストーリ演出において、ストーリ用ライブ演出として実行されることもあれば、シアターライブ演出として実行されることもある。ただし、第2演出分類の「ストーリ専用」のライブ演出には、ストーリ演出で登場するストーリ専用キャラが設定されている。これに対して、第2演出分類の「その他」、および、第1演出分類のライブ演出には、ストーリ専用キャラが設定されていない。 The second production category "dedicated to story" may be executed as a story live production or as a theater live production in the above story production. However, the story-only character that appears in the story production is set in the live production of the second production category, “story-only”. On the other hand, no story-dedicated character is set for "Others" in the second effect category and in the live effect in the first effect category.

各楽曲には、楽曲の種別を示す楽曲IDが設定されている。ここでは、楽曲ID=0001~0020の合計20曲の楽曲が第1演出分類に分類されている。また、楽曲ID=1001~1020の合計20曲の楽曲が、第2演出分類の「ストーリ専用」に分類され、楽曲ID=1101~1120の合計20曲の楽曲が、第2演出分類の「その他」に分類されている。 A music ID indicating the type of music is set for each music. Here, a total of 20 songs with song ID=0001 to 0020 are classified into the first effect category. In addition, a total of 20 songs with song IDs = 1001 to 1020 are classified into the second production classification "story only", and a total of 20 songs with song IDs = 1101 to 1120 are classified into the second production classification "other ” is classified.

第1演出分類の楽曲と、第2演出分類の楽曲との最も大きな相違点は、各楽曲に紐付けられたボーカル対応キャラにある。図8Cには、各楽曲IDにボーカル対応キャラとして紐付けられているキャラクタを〇で示している。図8Cに示すように、第1演出分類の楽曲には、必ず、全てのメインキャラ(キャラID=0001~0025)が、ボーカル対応キャラとして紐付けられている。したがって、第1演出分類の楽曲には、25体のメインキャラそれぞれに対応する、25のボーカルデータが紐付けられている。つまり、全てのメインキャラがボーカル対応キャラとして紐付けられた楽曲、換言すれば、25のボーカルデータが紐付けられた楽曲は、第1演出分類に分類される。 The biggest difference between the songs in the first production category and the songs in the second production category is in the vocal characters associated with each song. In FIG. 8C, characters associated with each song ID as characters for vocals are indicated by circles. As shown in FIG. 8C, all the main characters (character ID=0001 to 0025) are always associated with the songs of the first effect category as characters corresponding to vocals. Therefore, 25 pieces of vocal data corresponding to 25 main characters are linked to the music of the first effect category. In other words, a song associated with all main characters as characters for vocals, in other words, a song associated with 25 vocal data is classified into the first effect category.

一方、第2演出分類の楽曲には、必ず、1以上、25未満のメインキャラが、ボーカル対応キャラとして紐付けられている。つまり、全てのメインキャラがボーカル対応キャラとして紐付けられていない楽曲は、第2演出分類に分類される。ここでは、第2演出分類の楽曲には、最小で1、最大で8のメインキャラが、ボーカル対応キャラとして紐付けられている。 On the other hand, songs in the second effect category are always associated with 1 or more and less than 25 main characters as vocal characters. In other words, a song in which not all main characters are associated as vocal characters is classified into the second effect category. Here, a minimum of 1 and a maximum of 8 main characters are associated with the music of the second production category as characters corresponding to vocals.

なお、ここでは、ボーカル対応キャラとして楽曲IDに紐付けされるのは、メインキャラに限られており、サブキャラは、いずれの楽曲IDに対しても、ボーカル対応キャラとして紐付けられていない。つまり、サブキャラは、ボーカル対応キャラになり得ず、したがって、サブキャラに対応するボーカルデータは存在しない。ただし、サブキャラに対応したボーカルデータが設けられてもよい。 In this case, only the main character is associated with the song ID as the vocal-compatible character, and the sub-character is not associated with any song ID as the vocal-compatible character. In other words, the sub-character cannot be a vocal-compatible character, and therefore there is no vocal data corresponding to the sub-character. However, vocal data corresponding to sub-characters may be provided.

図8Cに示す二重丸は、対応する楽曲IDに対して、ストーリ専用キャラとして紐付けられているキャラIDを示す。なお、ここでは、ストーリ専用キャラは、必ず、ボーカル対応キャラを兼用することとする。例えば、楽曲ID=1119には、ストーリ専用キャラかつボーカル対応キャラとして、キャラID=0012が紐付けられている。また、楽曲ID=1119には、ボーカル対応キャラとして、キャラID=0006、0009が紐付けられている。ただし、「ストーリ専用」の楽曲IDには、ボーカル対応キャラではないストーリ専用キャラが設けられてもよい。また、メインキャラに限らず、サブキャラがストーリ専用キャラとして、第2演出分類の「ストーリ専用」の楽曲IDに紐付けられてもよい。 Double circles shown in FIG. 8C indicate character IDs that are linked as story-dedicated characters to the corresponding song IDs. It should be noted that here, the story-dedicated character must also be used as a character for vocals. For example, music ID=1119 is associated with character ID=0012 as a story-only character and vocal character. In addition, character IDs=0006 and 0009 are associated with the song ID=1119 as characters corresponding to vocals. However, a story-dedicated character that is not a vocal character may be provided in the "story-dedicated" song ID. Also, not only the main character, but also the sub-character may be a story-dedicated character, and may be associated with the music ID of "story-dedicated" in the second effect classification.

なお、ここでは、レースに出場可能な全てのメインキャラが、少なくとも1の楽曲IDに対して、ボーカル対応キャラとして紐付けられている。換言すれば、所持キャラとして所持可能であって、かつ、レースに出場可能なメインキャラには、少なくとも1のボーカルデータが紐付けられている。ただし、所持キャラとして所持可能であって、かつ、レースに出場可能なメインキャラには、いずれの楽曲IDに対しても、ボーカル対応キャラとして紐付けられていないキャラクタが含まれてもよい。換言すれば、所持キャラとして所持可能であって、かつ、レースに出場可能なメインキャラには、第1演出分類および第2演出分類のいずれの楽曲IDに対しても、ボーカルデータが紐付けられていないキャラクタが含まれてもよい。 Note that here, all main characters who can participate in the race are associated with at least one music ID as characters corresponding to vocals. In other words, at least one piece of vocal data is associated with a main character that can be owned as a possessed character and that can participate in a race. However, main characters that can be possessed as possessed characters and that can participate in races may include characters that are not associated with any song ID as vocal support characters. In other words, a main character who can be possessed as a possessed character and who can participate in a race is associated with vocal data for both the music IDs of the first production category and the second production category. may contain characters that are not

図9Aは、ポジション情報の一例を説明する図である。プレイヤ端末1のメモリ12には、ポジション情報が記憶されている。図9Aに示すように、ポジション情報は、ポジション番号に対してポジション種別が設定された情報であり、楽曲IDに紐付けられている。ポジション情報は、1の楽曲IDに対して、1つのみ紐付けられている。図中、Bはバックポジションを示しており、M1~M5はメインポジションを示している。また、メインポジションには優先順位が設定されており、図中、M1の優先順位が最も高く、M2、M3、M4、M5の順で低くなる。複数のメインポジションが設けられる場合には、ポジション番号が小さいほど、優先順位の高いメインポジションが設定されている。なお、図9Aには、一部の楽曲IDのみを示しているが、全ての楽曲IDに対してポジション情報が紐付けられている。 FIG. 9A is a diagram explaining an example of position information. Position information is stored in the memory 12 of the player terminal 1 . As shown in FIG. 9A, the position information is information in which the position type is set for the position number, and is linked to the music ID. Only one piece of position information is associated with one song ID. In the figure, B indicates the back position, and M1 to M5 indicate the main positions. In addition, priority is set for the main position, and in the figure, M1 has the highest priority, and M2, M3, M4, and M5 have the lowest priority. When a plurality of main positions are provided, the lower the position number, the higher the priority of the main position. Although FIG. 9A shows only some music IDs, position information is associated with all music IDs.

図9Bは、キャラ配置テーブルの一例を説明する図である。プレイヤ端末1のメモリ12には、キャラ配置テーブルが設けられている。キャラ配置テーブルは、ポジション番号ごとに、プレイヤが配置したキャラクタのキャラIDを記憶可能に構成されている。つまり、図7Bに示すキャラ配置画面においてポジション番号を指定した後に、図7Cに示すキャラ選択画面でキャラクタを選択すると、キャラ配置テーブルの指定されたポジション番号に、プレイヤが選択したキャラクタのキャラIDが記憶される。 FIG. 9B is a diagram illustrating an example of a character placement table. The memory 12 of the player terminal 1 is provided with a character placement table. The character placement table is configured to be able to store character IDs of characters placed by the player for each position number. That is, when a character is selected on the character selection screen shown in FIG. 7C after specifying a position number on the character placement screen shown in FIG. remembered.

シアターライブ演出の開始時には、キャラ配置テーブルに記憶されたキャラIDに基づいてライブ映像が生成される。また、キャラ配置テーブルとポジション情報とに基づいて、ボーカルデータが音声チャンネルにセットされる。 At the start of the theater live presentation, a live image is generated based on the character IDs stored in the character placement table. Also, vocal data is set to the audio channel based on the character placement table and position information.

図10Aは、第1演出分類の楽曲IDでセットされるサウンドデータの一例を説明する図である。図10Bは、第1演出分類の楽曲IDにおけるサウンドデータの出力の一例を説明する図である。ここでは、図10Aに示すように、音声を出力するチャンネルとして、CN1~CN6の6つのチャンネルが設けられている。6つのチャンネルのうち、CN1~CN5の5つのチャンネルは、ボーカルデータに対応しており、CN6は、BGMデータに対応している。したがって、CN1~CN5においては、ボーカルデータが再生され、CN6においては、BGMデータが再生される。 FIG. 10A is a diagram for explaining an example of sound data set with the music ID of the first effect category. FIG. 10B is a diagram illustrating an example of output of sound data for the music ID of the first effect category. Here, as shown in FIG. 10A, six channels CN1 to CN6 are provided as channels for outputting audio. Of the six channels, five channels CN1 to CN5 correspond to vocal data, and CN6 corresponds to BGM data. Therefore, vocal data is reproduced on CN1 to CN5, and BGM data is reproduced on CN6.

また、CN1~CN5の各チャンネルは、それぞれメインポジションに対応している。具体的には、CN1はメインポジションM1に対応し、CN2~CN5は、それぞれメインポジションM2~M5に対応している。 Each channel of CN1 to CN5 corresponds to a main position. Specifically, CN1 corresponds to main position M1, and CN2 to CN5 correspond to main positions M2 to M5, respectively.

例えば、第1演出分類に分類される楽曲ID=0001のライブ演出が実行されるとする。楽曲ID=0001の楽曲には、ポジション情報において、M1~M5の5つのメインポジションが設定されている(図9A参照)。このとき、メインポジションM1~M5に配置されたキャラクタが、全てボーカル対応キャラであったとする。この場合、メインポジションM1に配置されたボーカル対応キャラに対応するボーカルデータが、CN1において再生される。同様に、メインポジションM2~M5に配置されたボーカル対応キャラに対応するボーカルデータが、それぞれCN2~CN5において再生される。また、BGMデータは、CN6において再生される。 For example, it is assumed that a live performance of music ID=0001, which is classified into the first performance category, is performed. Five main positions M1 to M5 are set in the position information for the song with song ID=0001 (see FIG. 9A). At this time, it is assumed that the characters placed in the main positions M1 to M5 are all vocal characters. In this case, the vocal data corresponding to the vocal character placed in the main position M1 is reproduced in CN1. Similarly, vocal data corresponding to vocal characters placed in main positions M2 to M5 are reproduced in CN2 to CN5, respectively. Also, the BGM data is reproduced in CN6.

そして、各楽曲IDには、チャンネルごとの出力制御情報が設けられており、出力制御情報に基づいて、サウンドデータの出力制御がなされる。例えば、楽曲ID=0001の出力制御情報によれば、図10Bに示すように、各チャンネルのサウンドデータが再生制御される。この例では、CN1のボーカルデータ、および、CN6のBGMデータは、ライブ演出の開始から終了まで、常に所定のボリューム(図中、ONと示す)で出力される。一方で、CN2~CN5のボーカルデータは、図示のように、所定のボリュームで出力される期間と、ミュート(図中、OFFと示す)される期間とが設定されている。 Each song ID is provided with output control information for each channel, and output control of sound data is performed based on the output control information. For example, according to the output control information of music ID=0001, as shown in FIG. 10B, the sound data of each channel is reproduced. In this example, the vocal data of CN1 and the BGM data of CN6 are always output at a predetermined volume (shown as ON in the drawing) from the start to the end of the live performance. On the other hand, the vocal data of CN2 to CN5 are set to have a period during which they are output at a predetermined volume and a period during which they are muted (shown as OFF in the figure), as shown.

なお、ここでは、理解を容易とするために、各サウンドデータのボリュームが、ONまたはOFFとなることとしたが、実際には、リニアに、あるいは、段階的に、各サウンドデータのボリュームが変化する。 Here, for ease of understanding, the volume of each sound data is assumed to be ON or OFF, but in reality, the volume of each sound data changes linearly or stepwise. do.

図11Aは、第2演出分類の楽曲IDでセットされるサウンドデータの一例を説明する図である。図11Bは、第2演出分類の楽曲IDにおけるサウンドデータの出力の一例を説明する図である。例えば、第2演出分類に分類される楽曲ID=1001のライブ演出が実行されるとする。楽曲ID=1001の楽曲には、ポジション情報において、M1、M2の2つのメインポジションが設定されている(図9A参照)。 FIG. 11A is a diagram for explaining an example of sound data set by the music ID of the second effect classification. FIG. 11B is a diagram illustrating an example of output of sound data for the music ID of the second effect classification. For example, it is assumed that a live performance of music ID=1001, which is classified into the second performance classification, is performed. Two main positions, M1 and M2, are set in the position information for the song with song ID=1001 (see FIG. 9A).

このとき、例えば、メインポジションM1にキャラID=0001のキャラクタが配置され、メインポジションM2にキャラID=0006のキャラクタが配置されたとする。楽曲ID=1001の楽曲には、キャラID=0001、0006のキャラクタが、ボーカル対応キャラとして設定されている(図8C参照)。つまり、この例では、メインポジションM1、M2に配置されたキャラクタが、いずれもボーカル対応キャラであったとする。 At this time, for example, assume that a character with character ID=0001 is placed at main position M1 and a character with character ID=0006 is placed at main position M2. In the song with song ID=1001, characters with character IDs=0001 and 0006 are set as characters for vocals (see FIG. 8C). That is, in this example, it is assumed that the characters placed in the main positions M1 and M2 are both vocal characters.

この場合、メインポジションM1に配置されたボーカル対応キャラに対応するボーカルデータが、CN1において再生され、メインポジションM2に配置されたボーカル対応キャラに対応するボーカルデータが、CN2において再生される。また、BGMデータは、CN6において再生される。楽曲ID=1001の楽曲には、2つのボーカルデータが紐付けられている。このように、楽曲に紐付けられたボーカルデータの数が、ボーカルデータ用のチャンネル数(ここでは5つ)よりも少ない場合、一部のチャンネルは未使用となる。 In this case, the vocal data corresponding to the vocalist character placed at the main position M1 is reproduced at CN1, and the vocal data corresponding to the vocalist character placed at the main position M2 is reproduced at CN2. Also, the BGM data is reproduced in CN6. Two pieces of vocal data are linked to the song with song ID=1001. In this way, when the number of vocal data linked to a song is less than the number of channels for vocal data (here, five), some channels are unused.

なお、本実施形態では、5つ以上のボーカルデータが紐付けられた楽曲については、必ず、5つのボーカルデータが再生される。また、4つ以下のボーカルデータが紐付けられた楽曲については、全てのボーカルデータが再生される。 Note that, in the present embodiment, for a piece of music to which five or more pieces of vocal data are linked, five pieces of vocal data are always reproduced. In addition, all the vocal data are reproduced for a song associated with four or less vocal data.

そして、例えば、楽曲ID=1001の出力制御情報によれば、図11Bに示すように、各チャンネルのサウンドデータが再生制御される。この例では、CN1のボーカルデータ、および、CN6のBGMデータが、ライブ演出の開始から終了まで、常に所定のボリュームで出力される。一方で、CN2のボーカルデータは、図示のように、所定のボリュームで出力される期間と、ミュートされる期間とが設定されている。また、この例では、CN3~CN5においてサウンドデータが再生されることはない。 Then, for example, according to the output control information of music ID=1001, as shown in FIG. 11B, the sound data of each channel is reproduced. In this example, the vocal data of CN1 and the BGM data of CN6 are always output at a predetermined volume from the start to the end of the live presentation. On the other hand, the vocal data of CN2 is set to have a period during which it is output at a predetermined volume and a period during which it is muted, as shown. Also, in this example, no sound data is reproduced on CN3 to CN5.

本実施形態によれば、プレイヤが選択した楽曲が同じであっても、メインポジションに配置されるキャラクタが異なると、ライブ映像のみではなく、出力される音声も異なったものとなり得る。また、プレイヤが選択した楽曲およびキャラクタが同じであっても、メインポジション内でのキャラクタの配置が異なる場合には、やはり出力される音声が異なったものとなり得る。 According to this embodiment, even if the music selected by the player is the same, if the character placed in the main position is different, not only the live video but also the output sound can be different. Also, even if the music and characters selected by the player are the same, if the characters are arranged differently within the main position, the output sounds may be different.

例えば、楽曲ID=1001の楽曲に対して、ボーカル対応キャラAをメインポジションM1に配置し、ボーカル対応キャラBをメインポジションM2に配置したとする。この場合、ボーカル対応キャラAがメインボーカルとなり、ボーカル対応キャラBがサブボーカルとなる。また、これとは逆に、ボーカル対応キャラBをメインポジションM1に配置し、ボーカル対応キャラAをメインポジションM2に配置したとする。この場合、ボーカル対応キャラBがメインボーカルとなり、ボーカル対応キャラAがサブボーカルとなる。つまり、メインポジションにおけるボーカル対応キャラの配置を変更することで、各ボーカル対応キャラの歌唱パートが変更されることとなる。 For example, for a song with song ID=1001, assume that the vocalist character A is placed in the main position M1 and the vocalist character B is placed in the main position M2. In this case, the vocal-compatible character A becomes the main vocal, and the vocal-compatible character B becomes the sub vocal. Conversely, assume that the vocalist character B is placed in the main position M1 and the vocalist character A is placed in the main position M2. In this case, the vocal-compatible character B becomes the main vocal, and the vocal-compatible character A becomes the sub vocal. In other words, by changing the placement of the vocalist character in the main position, the singing part of each vocalist character is changed.

ここで、上記したように、本実施形態では、メインキャラおよびサブキャラを配置可能なポジションに制約がない。そのため、プレイヤは、ボーカル対応キャラ以外のキャラクタ(以下、未対応キャラと呼ぶ)を、メインポジションに配置することも可能である。このように、未対応キャラがメインポジションに配置された場合には、次のようにしてボーカルデータがセットされる。 Here, as described above, in this embodiment, there are no restrictions on the positions in which the main character and sub characters can be placed. Therefore, the player can place a character other than the vocal-compatible character (hereinafter referred to as a non-vocal-compatible character) in the main position. In this way, when an unsupported character is placed in the main position, vocal data is set as follows.

図12Aは、メインポジションに配置されるキャラクタの組み合わせの一例を説明する図である。図12Bは、音声チャンネルにセットされるサウンドデータの一例である。例えば、第1演出分類に分類される楽曲ID=0001のライブ演出が実行されるとする。上記したように、楽曲ID=0001の楽曲には、M1~M5の5つのメインポジションが設定されている(図9A参照)。このとき、図12Aに示すように、メインポジションM1~M4にボーカル対応キャラが配置され、メインポジションM5に未対応キャラが配置されたとする。 FIG. 12A is a diagram illustrating an example of a combination of characters placed in main positions. FIG. 12B is an example of sound data set in the audio channel. For example, it is assumed that a live performance of music ID=0001, which is classified into the first performance category, is performed. As described above, five main positions M1 to M5 are set for the song with song ID=0001 (see FIG. 9A). At this time, it is assumed that, as shown in FIG. 12A, characters for vocals are arranged at main positions M1 to M4, and characters not for vocals are arranged at main position M5.

この場合、図12Bに示すように、CN1~CN4には、それぞれメインポジションM1~M4に配置されたボーカル対応キャラに対応するボーカルデータがセットされる。また、CN6には、BGMデータが設定される。これに対して、未対応キャラが配置されたメインポジションM5に対応するCN5には、ランダムに決定されたボーカルデータが設定される。 In this case, as shown in FIG. 12B, CN1 to CN4 are set with vocal data corresponding to vocal characters placed in the main positions M1 to M4, respectively. Also, BGM data is set in CN6. On the other hand, randomly determined vocal data is set to CN5 corresponding to the main position M5 where the unsupported character is placed.

具体的には、まず、楽曲IDに紐付けられたボーカルデータのうち、他のチャンネルにセットされていないボーカルデータが抽出される。ここでは、楽曲ID=0001の楽曲には、キャラID=0001~0025の合計25のボーカルデータが紐付けられている。このうち、キャラID=0005、0010、0008、0013の4つのボーカルデータは、他のチャンネルにセットされている。したがって、この場合には、他のチャンネルにセットされた4つのボーカルデータを除く21のボーカルデータが抽出される。このようにして抽出された21のボーカルデータから、抽選により1のボーカルデータが決定され、決定されたボーカルデータがCN5にセットされる。 Specifically, first, vocal data that is not set to other channels is extracted from the vocal data associated with the song ID. Here, the song with song ID=0001 is associated with a total of 25 vocal data with character IDs=0001 to 0025. Of these, four vocal data with character IDs=0005, 0010, 0008, and 0013 are set to other channels. Therefore, in this case, 21 vocal data are extracted, excluding the four vocal data set in other channels. One vocal data is determined by lottery from the 21 vocal data thus extracted, and the determined vocal data is set in CN5.

なお、ここでは、抽出されたボーカルデータにより抽選テーブルが生成され、生成された抽選テーブルを用いた抽選により、1のボーカルデータが決定される。ただし、ボーカル対応キャラが配置されなかったメインポジションに対応するボーカルデータは、抽選ではなく、予め設定された条件にしたがって決定されてもよい。予め設定された条件としては、例えば、他のチャンネルにセットされていないボーカルデータのうち、対応するキャラIDが小さい、もしくは大きいものから優先的に決定することが考えられる。 Here, a lottery table is generated from the extracted vocal data, and one vocal data is determined by lottery using the generated lottery table. However, the vocal data corresponding to the main position in which the character corresponding to vocal is not placed may be determined according to preset conditions instead of the lottery. As a preset condition, for example, among vocal data not set in other channels, it is conceivable to preferentially determine corresponding character IDs from those with smaller or larger character IDs.

なお、ここでは、未対応キャラが配置されたメインポジションが1つである場合について説明した。ただし、2つ以上のメインポジションに未対応キャラが配置された場合には、未対応キャラが配置された全てのメインポジションについて、ランダムにボーカルデータが決定される。例えば、図12Aに示す例において、メインポジションM1、M2、M3には上記と同様にボーカル対応キャラが配置され、メインポジションM4、M5には、未対応キャラが配置されたとする。この場合、CN1~CN3には、それぞれメインポジションM1~M3に配置されたボーカル対応キャラに対応するボーカルデータがセットされる。 Here, the case where there is one main position in which an unsupported character is placed has been described. However, when unsupported characters are placed in two or more main positions, vocal data is randomly determined for all main positions in which unsupported characters are placed. For example, in the example shown in FIG. 12A, it is assumed that the main positions M1, M2, and M3 are arranged with vocal-compatible characters in the same manner as described above, and the non-vocal-compatible characters are arranged at the main positions M4 and M5. In this case, CN1 to CN3 are set with vocal data corresponding to characters corresponding to vocals placed in the main positions M1 to M3, respectively.

そして、25のボーカルデータから、CN1~CN3にセットされた3つのボーカルデータを除いた22のボーカルデータが抽出される。次に、抽出された22のボーカルデータから、抽選で1のボーカルデータが決定され、決定されたボーカルデータが、CN4にセットされる。次に、抽出された22のボーカルデータから、さらに、CN4にセットされたボーカルデータを除いた21のボーカルデータが抽出される。そして、抽出された21のボーカルデータから、抽選で1のボーカルデータが決定され、決定されたボーカルデータが、CN5にセットされる。 Then, 22 vocal data are extracted from the 25 vocal data, excluding the three vocal data set to CN1 to CN3. Next, one vocal data is determined by lottery from the extracted 22 vocal data, and the determined vocal data is set to CN4. Next, 21 vocal data other than the vocal data set to CN4 are extracted from the extracted 22 vocal data. Then, one vocal data is determined by lottery from the extracted 21 vocal data, and the determined vocal data is set to CN5.

図13Aは、メインポジションに配置されるキャラクタの組み合わせの他の例を説明する図である。図13Bは、音声チャンネルにセットされるサウンドデータの他の例である。例えば、第2演出分類に分類される楽曲ID=1001のライブ演出が実行されるとする。上記したように、楽曲ID=1001の楽曲には、M1、M2の2つのメインポジションが設定されている(図9A参照)。このとき、図13Aに示すように、メインポジションM1に未対応キャラが配置され、メインポジションM2にボーカル対応キャラが配置されたとする。 FIG. 13A is a diagram illustrating another example of a combination of characters placed in main positions. FIG. 13B is another example of sound data set in the audio channel. For example, it is assumed that a live performance of music ID=1001, which is classified into the second performance classification, is executed. As described above, two main positions M1 and M2 are set for the song with song ID=1001 (see FIG. 9A). At this time, as shown in FIG. 13A, it is assumed that an unsupported character is placed at the main position M1 and a vocal support character is placed at the main position M2.

この場合、図13Bに示すように、CN2には、メインポジションM2に配置されたボーカル対応キャラに対応するボーカルデータがセットされ、CN6には、BGMデータがセットされる。また、メインポジションM1には、未対応キャラが配置されているため、楽曲IDに紐付けられたボーカルデータのうち、他のチャンネルにセットされていないボーカルデータが抽出される。 In this case, as shown in FIG. 13B, CN2 is set with vocal data corresponding to the vocal character placed at the main position M2, and CN6 is set with BGM data. Also, since an unsupported character is placed at the main position M1, vocal data that is not set to another channel is extracted from the vocal data linked to the song ID.

ここで、楽曲ID=1001の楽曲には、キャラID=1001、1006に対応するボーカルデータが紐付けられている(図8C参照)。このうち、キャラID=0006に対応するボーカルデータは、CN2に設定されている。したがって、この場合には、CN2にセットされたボーカルデータを除く1のボーカルデータが抽出される。つまり、ここでは、キャラID=1001に対応するボーカルデータが抽出される。このように、1のボーカルデータが抽出されることから、結果的に、CN1には、キャラID=1001に対応するボーカルデータがセットされることとなる。 Here, the song with song ID=1001 is associated with vocal data corresponding to character IDs=1001 and 1006 (see FIG. 8C). Of these, vocal data corresponding to character ID=0006 is set to CN2. Therefore, in this case, one vocal data other than the vocal data set in CN2 is extracted. That is, here, vocal data corresponding to character ID=1001 is extracted. Since vocal data of 1 is extracted in this way, vocal data corresponding to character ID=1001 is set to CN1.

なお、例えば、図13Aに示す例において、メインポジションM1、M2の双方に、未対応キャラが配置されたとする。この場合には、結果的に、図13Bに示すのと同様に、サウンドデータがセットされるか、あるいは、CN1とCN2とで、セットされるボーカルデータが入れ替わることとなる。 For example, in the example shown in FIG. 13A, assume that unsupported characters are placed in both main positions M1 and M2. In this case, as a result, the sound data is set as shown in FIG. 13B, or the set vocal data is switched between CN1 and CN2.

以上のように、本実施形態によれば、楽曲とキャラクタとをさまざまに組み合わせることができる。これにより、楽曲とキャラクタとの組み合わせパターンが多様化され、ゲームの興趣が向上する。また、本実施形態によれば、同一のキャラクタを選んだとしても、ボーカル対応キャラの配置が異なれば、ライブ演出の内容が異なったものとなり、より一層、ゲームの興趣が向上する。 As described above, according to this embodiment, music and characters can be combined in various ways. As a result, combinations of music and characters are diversified, and the game becomes more interesting. Further, according to the present embodiment, even if the same character is selected, if the placement of the vocal-compatible character is different, the content of the live performance will be different, and the interest in the game will be further improved.

また、メインポジションに未対応キャラが配置された場合には、他のチャンネルにセットされていないボーカルデータが自動的に選択される。ここで、メインポジションには、ボーカル対応キャラのみしか配置できないとする制約を設けることも可能である。しかしながら、この場合には、ライブ映像のパターンが制約され、ゲームの興趣が低下するおそれがある。本実施形態によれば、メインポジションに未対応キャラを配置することもできるため、ライブ映像のパターンが多様化し、ゲームの興趣が向上する。 Also, when an unsupported character is placed in the main position, vocal data not set in other channels is automatically selected. Here, it is also possible to set a restriction that only characters capable of vocals can be placed in the main position. However, in this case, the pattern of the live video is restricted, and there is a risk that the interest in the game will decrease. According to this embodiment, since an unsupported character can be placed in the main position, the pattern of the live video is diversified and the interest of the game is improved.

さらに、本実施形態によれば、キャラクタを配置する際に、キャラ選択画面において、識別情報62が表示される。識別情報62により、プレイヤは、現在選択している楽曲、すなわち、ライブ演出におけるボーカル対応キャラを把握することが可能となる。これにより、ボーカルの歌唱パートをどのように構成するかを検討しやすくなり、プレイヤの利便性が向上する。 Furthermore, according to this embodiment, the identification information 62 is displayed on the character selection screen when arranging a character. The identification information 62 enables the player to grasp the currently selected music piece, that is, the vocalist character in the live production. This makes it easier for the player to consider how the singing part of the vocal should be structured, improving convenience for the player.

(プレイヤ端末1における機能的構成および制御処理)
次に、上記のゲームを実行するためのプレイヤ端末1における機能的構成、および、制御処理について説明する。なお、以下では、主に、ライブ演出に係る機能的構成および制御処理について詳述し、その他の構成および制御処理については説明を省略する。
(Functional Configuration and Control Processing in Player Terminal 1)
Next, the functional configuration and control processing of the player terminal 1 for executing the above game will be described. In the following, mainly the functional configuration and control processing related to the live presentation will be described in detail, and descriptions of other configurations and control processing will be omitted.

図14は、プレイヤ端末1におけるメモリ12の構成およびコンピュータとしての機能を説明する図である。メモリ12には、プログラム記憶領域12a、および、データ記憶領域12bが設けられている。CPU10は、アプリケーションが起動されると、端末側制御用プログラム(モジュール)をプログラム記憶領域12aに記憶する。 FIG. 14 is a diagram for explaining the configuration of the memory 12 in the player terminal 1 and its functions as a computer. The memory 12 is provided with a program storage area 12a and a data storage area 12b. When the application is activated, the CPU 10 stores the terminal-side control program (module) in the program storage area 12a.

端末側制御用プログラムには、抽選ゲーム実行プログラム300、ストーリ演出実行プログラム302、育成実行プログラム304、レース実行プログラム306、ライブ演出実行プログラム308、楽曲決定プログラム310、キャラ決定プログラム312、識別情報表示プログラム314が含まれる。なお、上記の各プログラムは一例であり、プログラム記憶領域12aには、この他にも多数のプログラムが設けられている。 The terminal-side control programs include a lottery game execution program 300, a story presentation execution program 302, a breeding execution program 304, a race execution program 306, a live performance execution program 308, a song determination program 310, a character determination program 312, and an identification information display program. 314 are included. Each program described above is an example, and many other programs are provided in the program storage area 12a.

データ記憶領域12bには、データを記憶する記憶部として、所持キャラ情報記憶部330、ポジション情報記憶部332、キャラ配置テーブル記憶部334、ボーカル対応情報記憶部336、サウンドデータ記憶部338、ライブ映像記憶部340が設けられている。 In the data storage area 12b, as storage units for storing data, possessed character information storage unit 330, position information storage unit 332, character placement table storage unit 334, vocal correspondence information storage unit 336, sound data storage unit 338, live video A storage unit 340 is provided.

所持キャラ情報記憶部330には、所持キャラを示す情報、すなわち、全てのキャラクタに対して、所持、未所持を示す情報が記憶される。 The possessed character information storage unit 330 stores information indicating possessed characters, that is, information indicating possession or non-possession of all characters.

ポジション情報記憶部332には、上記のポジション情報が記憶されている。 The position information storage unit 332 stores the above position information.

キャラ配置テーブル記憶部334には、キャラIDを書き込み可能に、上記のキャラ配置テーブルが記憶されている。 The character placement table storage unit 334 stores the above character placement table so that the character ID can be written.

ボーカル対応情報記憶部336には、図8Cに示すように、各楽曲IDに紐付けられたボーカル対応キャラのキャラIDが、楽曲IDごとに記憶されている。ボーカル対応情報記憶部336に記憶される情報(以下、ボーカル対応情報と呼ぶ)は、サーバ100から受信される。ボーカル対応情報は、例えば、ゲームの開始時、あるいは、トップ画面の表示時等に、サーバ100から受信される。 As shown in FIG. 8C, the vocal support information storage unit 336 stores character IDs of vocal support characters linked to each music ID for each music ID. Information stored in the vocal correspondence information storage unit 336 (hereinafter referred to as vocal correspondence information) is received from the server 100 . The vocal correspondence information is received from the server 100, for example, at the start of the game or when the top screen is displayed.

サウンドデータ記憶部338には、全ての楽曲のボーカルデータおよびBGMデータが記憶されている。 The sound data storage unit 338 stores vocal data and BGM data of all songs.

ライブ映像記憶部340には、ライブ演出で再生するために生成されたライブ映像用のデータが記憶される。なお、上記の各記憶部は一例であり、データ記憶領域12bには、この他にも多数の記憶部が設けられている。 The live video storage unit 340 stores live video data generated for reproduction in a live performance. The storage units described above are only examples, and the data storage area 12b is provided with a large number of other storage units.

CPU10は、プログラム記憶領域12aに記憶された各プログラムを動作させ、データ記憶領域12bの各記憶部のデータを更新する。そして、CPU10は、プログラム記憶領域12aに記憶された各プログラムを動作させることで、プレイヤ端末1(コンピュータ)を、端末側制御部1Aとして機能させる。端末側制御部1Aは、抽選ゲーム実行部300a、ストーリ演出実行部302a、育成実行部304a、レース実行部306a、ライブ演出実行部308a(演出実行部)、楽曲決定部310a(演出決定部)、キャラ決定部312a(ゲームオブジェクト決定部)、識別情報表示部314a(識別表示部)が含まれる。 The CPU 10 operates each program stored in the program storage area 12a and updates the data in each storage section of the data storage area 12b. The CPU 10 causes the player terminal 1 (computer) to function as the terminal-side control section 1A by operating each program stored in the program storage area 12a. The terminal-side control unit 1A includes a lottery game execution unit 300a, a story production execution unit 302a, a training execution unit 304a, a race execution unit 306a, a live production execution unit 308a (production execution unit), a music determination unit 310a (production determination unit), A character determination unit 312a (game object determination unit) and an identification information display unit 314a (identification display unit) are included.

具体的には、CPU10は、抽選ゲーム実行プログラム300を動作させ、コンピュータを抽選ゲーム実行部300aとして機能させる。同様に、CPU10は、ストーリ演出実行プログラム302、育成実行プログラム304、レース実行プログラム306、ライブ演出実行プログラム308、楽曲決定プログラム310、キャラ決定プログラム312、識別情報表示プログラム314を動作させ、それぞれストーリ演出実行部302a、育成実行部304a、レース実行部306a、ライブ演出実行部308a、楽曲決定部310a、キャラ決定部312a、識別情報表示部314aとして機能させる。以下に、端末側制御部1Aが遂行する処理の一部について説明する。 Specifically, the CPU 10 operates the lottery game execution program 300 to cause the computer to function as a lottery game execution unit 300a. Similarly, the CPU 10 operates a story production execution program 302, a breeding execution program 304, a race execution program 306, a live production execution program 308, a music determination program 310, a character determination program 312, and an identification information display program 314, respectively. It functions as an execution unit 302a, a training execution unit 304a, a race execution unit 306a, a live performance execution unit 308a, a music determination unit 310a, a character determination unit 312a, and an identification information display unit 314a. A part of the processing performed by the terminal-side control section 1A will be described below.

図15は、プレイヤ端末1およびサーバ100の基本的な処理を説明するシーケンス図である。抽選画面の表示中に、抽選の実行を要求する抽選要求操作が入力されると、抽選ゲーム実行部300aは、抽選要求処理(P1-1)を実行する。抽選要求処理では、抽選要求情報がサーバ100に送信される。サーバ100は、抽選要求情報を受信すると、キャラクタやアイテムを抽選により決定する抽選処理(S1)を実行する。この抽選処理で決定されたキャラクタやアイテムは、プレイヤIDに紐付けられてサーバ100の記憶部118に記憶される。また、ここでは、サーバ100が、抽選結果を示す抽選結果情報を、プレイヤ端末1による受信が可能となるようにセットする。 FIG. 15 is a sequence diagram illustrating basic processing of the player terminal 1 and the server 100. FIG. When a lottery request operation for requesting execution of a lottery is input while the lottery screen is being displayed, the lottery game execution unit 300a executes a lottery request process (P1-1). In the lottery request process, lottery request information is transmitted to the server 100 . When receiving the lottery request information, the server 100 executes lottery processing (S1) for determining characters and items by lottery. The characters and items determined by this lottery process are linked to the player ID and stored in the storage unit 118 of the server 100 . Further, here, the server 100 sets the lottery result information indicating the lottery result so that the player terminal 1 can receive the lottery result information.

抽選結果情報を受信すると、抽選ゲーム実行部300aは、抽選結果をタッチパネル26に表示し、また、記憶部18に、獲得したキャラクタやアイテムに係る情報を記憶する(P1-2)。 When the lottery result information is received, the lottery game execution unit 300a displays the lottery result on the touch panel 26, and stores the information on the obtained characters and items in the storage unit 18 (P1-2).

また、育成キャラダイアログ36において、育成メニュータブ36a、36b、36cがタップされ、育成実行操作が入力されると、育成実行部304aは、育成要求処理(P2-1)を実行する。育成要求処理では、育成要求情報がサーバ100に送信される。サーバ100は、育成要求情報を受信すると、対象となる所持キャラのパラメータを更新する育成処理(S2)を実行する。また、ここでは、サーバ100が、育成結果を示す育成結果情報を、プレイヤ端末1による受信が可能となるようにセットする。 In addition, when the breeding menu tabs 36a, 36b, and 36c are tapped in the breeding character dialog 36 and a breeding execution operation is input, the breeding execution unit 304a executes the breeding request process (P2-1). In the training request process, training request information is transmitted to the server 100 . When receiving the training request information, the server 100 executes a training process (S2) for updating the parameters of the target possessed character. Further, here, the server 100 sets training result information indicating the training result so that the player terminal 1 can receive the training result information.

育成結果情報を受信すると、育成実行部304aは、育成結果をタッチパネル26に表示し、また、記憶部18に記憶されている所持キャラのパラメータを更新する(P2-2)。 Upon receiving the training result information, the training execution unit 304a displays the training result on the touch panel 26, and updates the parameters of the possessed character stored in the storage unit 18 (P2-2).

また、出場キャラ選択画面40から確認ダイアログが表示された状態で、この確認ダイアログの開始ボタンがタップされ、レース開始操作が入力されると、レース実行部306aは、選択情報送信処理(P3-1)を実行する。この選択情報送信処理では、選択されたレースの種別およびキャラIDを示す情報を含む選択情報が送信される。サーバ100は、選択情報を受信すると、レース結果演算処理(S3)を実行する。 Further, when the confirmation dialog is displayed from the entry character selection screen 40, the start button of this confirmation dialog is tapped, and the race start operation is input, the race execution unit 306a performs selection information transmission processing (P3-1 ). In this selection information transmission process, selection information including information indicating the selected race type and character ID is transmitted. When receiving the selection information, the server 100 executes the race result calculation process (S3).

サーバ100は、複数のプレイヤ端末1から選択情報を受信する。レース結果演算処理では、受信した複数の選択情報に基づいてレース結果が導出される。また、ここでは、レース結果を示すレース結果情報を、プレイヤ端末1による受信が可能となるようにセットする。なお、このレース結果情報には、レースに出場する全てのキャラID、各キャラIDの着順が少なくとも含まれる。 The server 100 receives selection information from a plurality of player terminals 1 . In the race result calculation process, a race result is derived based on the received multiple pieces of selection information. Also, here, the race result information indicating the race result is set so that the player terminal 1 can receive it. This race result information includes at least all character IDs participating in the race and the order of arrival of each character ID.

レース結果情報を受信すると、レース実行部306aは、受信したレース結果情報に基づいて、レース表示処理を実行する(P3-2)。ここでは、レース実行部306aは、レース結果情報に基づいて、レース実況画像を生成して表示する。また、レース実行部306aは、レース実況画像の表示が終了すると、レース結果画面42を表示する。ここで、プレイヤの出場させた所持キャラが、レースにおいて3着以内に入賞した場合、ライブ演出実行部308aが、報酬ライブ演出を実行するための報酬ライブ実行処理(P4)を開始する。 Upon receiving the race result information, the race execution unit 306a executes race display processing based on the received race result information (P3-2). Here, the race execution unit 306a generates and displays a race commentary image based on the race result information. Further, the race execution unit 306a displays the race result screen 42 when the display of the race commentary image ends. Here, when the possessed character entered by the player wins within the third place in the race, the live performance execution unit 308a starts reward live performance processing (P4) for executing the live reward performance.

なお、ここでは、所持キャラが3着以内に入賞した場合、報酬ライブ演出が、必ず、かつ、自動的に開始される。ただし、例えば、当該レースにおいて、初めて3着以内に入賞した場合に限り、報酬ライブ演出が自動的に実行されてもよい。この場合、例えば、当該レースにおいて、3着以内に入賞したことが過去にあれば、レース結果画面42において、報酬ライブ演出を視聴するか否かをプレイヤが選択することができるようにしてもよい。この場合には、プレイヤが報酬ライブ演出を視聴すると選択した場合に、報酬ライブ実行処理(P4)が実行される。 It should be noted that here, when the possessed character wins within the third place, the reward live effect is always and automatically started. However, for example, the reward live effect may be automatically executed only when the player finishes in the top three places for the first time in the race. In this case, for example, if the player has won within the top three in the race in the past, the player may be allowed to select whether or not to view the reward live effect on the race result screen 42. . In this case, when the player selects to view the reward live effect, the reward live performance process (P4) is executed.

図16は、プレイヤ端末1における報酬ライブ実行処理の一例を説明するフローチャートである。ライブ演出実行部308aは、受信したレース結果情報に基づき、プレイヤ端末1、すなわち、プレイヤがレースに出場させた所持キャラの着順が1着であるかを判定する(P4-1)。所持キャラの着順が1着である場合(P4-1のYES)、ライブ演出実行部308aは、実行されたレースに対応するライブ演出を、ライブモードにおいて視聴する権利(以下、ライブ視聴権利と呼ぶ)を未獲得であるかを判定する(P4-2)。なお、プレイヤ端末1およびサーバ100においては、ライブ演出の種別ごとに、ライブ視聴権利の獲得有無を示す情報が保持されている。 FIG. 16 is a flow chart illustrating an example of a reward live execution process in the player terminal 1. FIG. Based on the received race result information, the live effect execution unit 308a determines whether the player terminal 1, ie, the character that the player has entered in the race, finishes first (P4-1). If the possessed character finishes first (YES in P4-1), the live production execution unit 308a has the right to view the live production corresponding to the executed race in the live mode (hereinafter referred to as the live viewing right). (P4-2). Note that the player terminal 1 and the server 100 hold information indicating whether or not the live viewing right is acquired for each type of live presentation.

ライブ視聴権利が未獲得であれば(P4-2のYES)、ライブ演出実行部308aは、当該ライブ視聴権利の獲得済みを示す獲得情報を記憶する(P4-3)。そして、楽曲決定部310aは、実行されたレースに対応する楽曲IDを決定して記憶する(P4-4)。なお、P4-4以降の処理は、自身の所持キャラが1着ではなく(P4-1のNO)、3着以内である場合(P4-5のYES)、すなわち、2着または3着であった場合にも同様に実行される。 If the live viewing right has not been acquired (YES in P4-2), the live effect executing unit 308a stores acquisition information indicating that the live viewing right has been acquired (P4-3). Then, the music determining section 310a determines and stores a music ID corresponding to the race that was run (P4-4). It should be noted that the processing from P4-4 onwards is when the own character is not in 1st place (NO in P4-1) but within 3 places (YES in P4-5), that is, in 2nd or 3rd place. is executed in the same way.

楽曲IDが決定されると、次に、キャラ決定部312aは、受信したレース結果情報に基づいて、キャラ配置テーブル記憶部334に記憶されたキャラ配置テーブルに、キャラIDを配置する(P4-6)。具体的には、キャラ決定部312aは、ポジション番号と着順とが一致するように、キャラIDをキャラ配置テーブルの記憶領域に記憶する。例えば、ポジション番号が1番の記憶領域には、着順が1着のキャラIDを記憶し、ポジション番号が7番の記憶領域には、着順が7着のキャラIDを記憶する。そして、キャラ配置テーブルにキャラIDが配置されると、ライブ演出実行部308aは、データ設定処理(P10)を実行する。 After the music ID is determined, the character determination unit 312a then places the character ID in the character placement table stored in the character placement table storage unit 334 based on the received race result information (P4-6). ). Specifically, the character determination unit 312a stores the character ID in the storage area of the character placement table so that the position number and the order of arrival match. For example, the storage area for the position number 1 stores the character ID for the first place in the order of arrival, and the storage area for the position number 7 stores the character ID for the 7th place in the order of arrival. Then, when the character ID is arranged in the character arrangement table, the live effect executing section 308a executes data setting processing (P10).

図17は、プレイヤ端末1におけるデータ設定処理の一例を説明するフローチャートである。ライブ演出実行部308aは、ポジション情報記憶部332に記憶されたポジション情報のうち、楽曲IDに紐付けられたポジション情報と、キャラ配置テーブルとに基づいて、メインポジションのキャラIDを確認する(P10-1)。このとき、メインポジションに配置されたキャラIDが、楽曲IDにボーカル対応キャラとして紐付けられている場合、ライブ演出実行部308aは、当該ボーカル対応キャラに対応するボーカルデータをセットする(P10-2)。ここでは、ボーカル対応キャラのキャラIDが配置されたポジション番号と同じ番号のチャンネルに、ボーカルデータがセットされる。 FIG. 17 is a flowchart illustrating an example of data setting processing in the player terminal 1. FIG. The live effect execution unit 308a checks the character ID of the main position based on the position information linked to the music ID and the character placement table among the position information stored in the position information storage unit 332 (P10 -1). At this time, if the character ID placed in the main position is linked to the song ID as a vocal-compatible character, the live performance execution unit 308a sets vocal data corresponding to the vocal-compatible character (P10-2). ). Here, the vocal data is set to the channel of the same number as the position number in which the character ID of the character corresponding to vocals is arranged.

また、メインポジションに未対応キャラのキャラIDが配置されている場合、ライブ演出実行部308aは、楽曲IDに紐付けられたボーカルデータのうち、チャンネルに設定されていないボーカルデータの中からいずれか1または複数をランダムに決定する(P10-3)。そして、ライブ演出実行部308aは、決定したボーカルデータを、残りのチャンネルにセットする。 Further, when the character ID of an unsupported character is placed in the main position, the live effect execution unit 308a selects one of the vocal data linked to the song ID that is not set to the channel. One or more are randomly determined (P10-3). Then, the live performance execution unit 308a sets the determined vocal data to the remaining channels.

なお、P10-2では、選択された楽曲IDの演出分類に拘わらず、ボーカル対応情報に基づいて、ボーカル対応キャラが抽出される。ただし、第1演出分類の楽曲IDは、全てのメインキャラがボーカル対応キャラとして紐付けられている。したがって、例えば、楽曲IDが第1演出分類である場合に、配置されたキャラクタがメインキャラであるかが判定され、メインキャラであれば、当該メインキャラのキャラIDに基づいて、ボーカルデータがセットされてもよい。一方、楽曲IDが第1演出分類である場合に、配置されたキャラクタがサブキャラであれば、P10-3において、ボーカルデータがランダムに決定される。これに対して、楽曲IDが第2演出分類である場合には、上記と同様に、ボーカル対応情報に基づいて、ボーカルデータがセットされる。したがって、この場合には、第1演出分類のボーカル対応情報は不要となり、第2演出分類のボーカル対応情報のみが設けられればよい。 In P10-2, regardless of the effect classification of the selected music piece ID, a vocal-compatible character is extracted based on the vocal-compatible information. However, all the main characters are associated with the music IDs of the first effect category as vocal characters. Therefore, for example, if the song ID is in the first effect category, it is determined whether the placed character is the main character. good. On the other hand, if the song ID is in the first effect category and the placed character is a sub character, vocal data is randomly determined at P10-3. On the other hand, if the song ID is in the second effect category, vocal data is set based on the vocal correspondence information in the same manner as described above. Therefore, in this case, the vocal correspondence information of the first effect classification is not required, and only the vocal correspondence information of the second effect classification needs to be provided.

また、ライブ演出実行部308aは、楽曲IDに紐付けられたBGMデータを、CN6にセットする(P10-4)。また、ライブ演出実行部308aは、楽曲ID、および、キャラ配置テーブルに記憶されたキャラIDに基づいてライブ映像を生成し、ライブ映像記憶部340に保存する(P10-5)。そして、ライブ演出実行部308aは、P10-5で生成されたライブ映像を再生し、また、P10-2からP10-4でセットしたサウンドデータを再生する(P10-6)。 Also, the live effect executing unit 308a sets the BGM data linked to the music ID to CN6 (P10-4). Also, the live performance execution unit 308a generates a live video based on the song ID and the character ID stored in the character placement table, and stores it in the live video storage unit 340 (P10-5). Then, the live performance execution section 308a reproduces the live video generated at P10-5, and also reproduces the sound data set at P10-2 to P10-4 (P10-6).

これにより、レースにおいて3着以内に入賞した場合には、レース後に報酬ライブ演出が実行される。この報酬ライブ演出では、ライブ映像に表示されるキャラクタが、着順にしたがって配置されている。 As a result, if the player wins within the third place in the race, the reward live effect is executed after the race. In this reward live production, the characters displayed in the live video are arranged according to the order of arrival.

図15に戻り、ストーリ選択タブ32がタップされ、ストーリ開始操作が入力されると、ストーリ演出実行部302aは、ストーリ実行処理(P5)を開始する。 Returning to FIG. 15, when the story selection tab 32 is tapped and a story start operation is input, the story rendering execution unit 302a starts story execution processing (P5).

図18は、プレイヤ端末1におけるストーリ実行処理の一例を説明するフローチャートである。ストーリ演出実行部302aは、選択されたストーリ種別に対応するストーリ画像を再生する(P5-1)。そして、再生するストーリ画像が、ライブ演出を含む場合、すなわち、ストーリ画像として、ストーリ用ライブ演出が再生される場合(P5-2のYES)、ストーリ演出実行部302aは、当該ライブ演出のライブ視聴権利が未獲得であるかを判定する(P5-3)。ライブ視聴権利が未獲得であれば(P5-3のYES)、ストーリ演出実行部302aは、当該ライブ視聴権利の獲得済みを示す獲得情報を記憶する(P5-4)。 FIG. 18 is a flowchart illustrating an example of story execution processing in the player terminal 1. FIG. The story effect executing section 302a reproduces the story image corresponding to the selected story type (P5-1). Then, if the story image to be reproduced includes a live effect, that is, if the live effect for the story is reproduced as the story image (YES in P5-2), the story effect executing unit 302a performs live viewing of the live effect. It is determined whether the right has not been acquired (P5-3). If the live viewing right has not been acquired (YES in P5-3), the story effect execution unit 302a stores acquisition information indicating that the live viewing right has been acquired (P5-4).

図15に戻り、メニューバー30のライブ選択部30eがタップされ、ライブモード開始操作が入力されると、ライブモード処理(P6)が実行される。なお、以下に説明するライブモード処理は、タッチパネル26に表示される画像のフレーム単位で、あるいは、タッチパネル26の操作入力単位で実行される。 Returning to FIG. 15, when the live selection portion 30e of the menu bar 30 is tapped and a live mode start operation is input, the live mode process (P6) is executed. Note that the live mode processing described below is executed for each frame of an image displayed on the touch panel 26 or for each operation input on the touch panel 26 .

図19は、プレイヤ端末1におけるライブモード処理の一例を説明するフローチャートである。楽曲選択画面において楽曲決定ボタン46がタップされ、楽曲決定操作が入力されると(P6-1のYES)、楽曲決定部310aは、仮選択中の楽曲の楽曲IDを記憶する(P6-2)。 FIG. 19 is a flowchart illustrating an example of live mode processing in the player terminal 1. FIG. When the song decision button 46 is tapped on the song selection screen and a song decision operation is input (YES in P6-1), the song decision unit 310a stores the song ID of the currently selected song (P6-2). .

また、キャラ配置画面において、選択中キャラ表示部52の表示領域がタップされ、ポジション選択操作が入力されると(P6-3のYES)、キャラ決定部312aは、キャラ選択画面を表示する(P6-4)。ここでは、キャラ決定部312aは、所持キャラ情報記憶部330に記憶された所持キャラ情報に基づいて、キャラアイコン54をキャラ選択画面に表示させる。また、キャラ決定部312aは、タップされた表示領域のポジション番号(N)を記憶する。 Further, when the display area of the selected character display portion 52 is tapped on the character placement screen and a position selection operation is input (YES in P6-3), the character determination portion 312a displays the character selection screen (P6 -4). Here, the character determination unit 312a displays the character icon 54 on the character selection screen based on the possessed character information stored in the possessed character information storage unit 330. FIG. The character determination unit 312a also stores the position number (N) of the tapped display area.

そして、タップされた表示領域、すなわち、プレイヤが指定したポジションがメインポジションである場合(P6-5のYES)、識別情報表示部314aは、キャラ選択画面のキャラアイコン54に、識別情報62を重畳表示する(P6-6)。ここでは、識別情報表示部314aは、P6-2で記憶された楽曲IDと、ボーカル対応情報記憶部336に記憶された情報とに基づいて、現在選択されている楽曲に紐付けられたボーカル対応キャラを抽出する。そして、識別情報表示部314aは、キャラ選択画面に表示されたキャラアイコン54のうち、抽出したボーカル対応キャラのキャラアイコン54に、識別情報62を重畳表示する。これにより、選択中の楽曲IDに紐付けられたボーカル対応キャラが識別可能に表示されることとなる。 If the tapped display area, that is, the position designated by the player is the main position (YES in P6-5), the identification information display section 314a superimposes the identification information 62 on the character icon 54 on the character selection screen. Display (P6-6). Here, the identification information display unit 314a displays the vocal correspondence linked to the currently selected song based on the song ID stored in P6-2 and the information stored in the vocal correspondence information storage unit 336. Extract character. Then, the identification information display unit 314a superimposes the identification information 62 on the character icon 54 of the character corresponding to the extracted vocal among the character icons 54 displayed on the character selection screen. As a result, the vocal character associated with the currently selected song ID is displayed in an identifiable manner.

また、キャラ選択画面においてキャラアイコン54がタップされ、キャラ選択操作が入力されると(P6-7のYES)、キャラ決定部312aは、キャラ配置テーブル記憶部334のキャラ配置テーブルにおいて、タップされたキャラアイコン54に対応するキャラIDを、P6-4で記憶したポジション番号に対応付けて記憶する(P6-8)。そして、キャラ決定部312aは、ポジション表示部50、および、選択中キャラ表示部52にアイコンを表示する等して、キャラ配置画面を更新表示する(P6-9)。 Further, when the character icon 54 is tapped on the character selection screen and a character selection operation is input (YES in P6-7), the character determination unit 312a stores the tapped icon in the character placement table of the character placement table storage unit 334. The character ID corresponding to the character icon 54 is stored in association with the position number stored in P6-4 (P6-8). Then, the character determination unit 312a updates and displays the character layout screen by displaying icons on the position display unit 50 and the selected character display unit 52 (P6-9).

また、キャラ配置画面において、リターンボタン60がタップされ、リターン操作が入力されると(P6-10のYES)、キャラ決定部312aは、キャラ配置テーブルのキャラIDをクリアする(P6-11)。また、ここでは、楽曲決定部310aが、P6-2で記憶した楽曲IDをクリアする(P6-11)。なお、ここでは、タッチパネル26の表示が、楽曲選択画面に切り替えられる。 Also, when the return button 60 is tapped on the character layout screen and a return operation is input (YES in P6-10), the character determination unit 312a clears the character ID in the character layout table (P6-11). Also, here, the music determining section 310a clears the music ID stored in P6-2 (P6-11). Here, the display on the touch panel 26 is switched to the music selection screen.

また、キャラ配置画面において、一任ボタン56がタップされ、おまかせ操作が入力されると(P6-12のYES)、キャラ決定部312aは、おまかせ編成処理(P20)を実行する。 Also, on the character placement screen, when the discretion button 56 is tapped to input the Random operation (YES in P6-12), the character determination unit 312a executes the Random formation process (P20).

図20は、プレイヤ端末1におけるおまかせ編成処理の一例を説明するフローチャートである。キャラ決定部312aは、処理の対象となるポジション番号を示すポジション識別カウンタに「1」をセットする(P20-1)。そして、現在選択中の楽曲が、第2演出分類のストーリ専用の楽曲であれば(P20-2)、キャラ決定部312aは、当該楽曲のストーリ専用キャラを抽出する(P20-3)。このとき、ストーリ専用キャラが抽出されれば(P20-4のYES)、抽出されたキャラクタのキャラIDを、キャラ配置テーブルに記憶する(P20-5)。ここでは、ポジション識別カウンタのカウンタ値と同じポジション番号に対応付けてキャラIDが記憶される。そして、キャラ決定部312aは、ポジション識別カウンタのカウンタ値をインクリメントし(P20-6)、P20-3に処理を戻す。 FIG. 20 is a flowchart for explaining an example of an auto-organization process in the player terminal 1. FIG. The character determination unit 312a sets "1" to a position identification counter indicating the position number to be processed (P20-1). Then, if the currently selected song is a story-dedicated song of the second effect category (P20-2), the character determination unit 312a extracts the story-dedicated character of the song (P20-3). At this time, if a story-dedicated character is extracted (YES in P20-4), the character ID of the extracted character is stored in the character placement table (P20-5). Here, the character ID is stored in association with the same position number as the counter value of the position identification counter. Then, the character determination unit 312a increments the counter value of the position identification counter (P20-6), and returns the process to P20-3.

また、ストーリ専用の楽曲ではない場合(P20-2のNO)、あるいは、ストーリ専用キャラが抽出されなかった場合(P20-4のNO)、キャラ決定部312aは、当該楽曲のボーカル対応キャラを、ボーカル対応情報に基づいて抽出する(P20-7)。このとき、ボーカル対応キャラが抽出されれば(P20-8のYES)、抽出されたキャラクタのキャラIDを、キャラ配置テーブルに記憶する(P20-9)。ここでは、ポジション識別カウンタのカウンタ値と同じポジション番号に対応付けてキャラIDが記憶される。そして、キャラ決定部312aは、ポジション識別カウンタのカウンタ値をインクリメントする(P20-11)。 If the song is not a story-only song (NO in P20-2), or if a story-only character is not extracted (NO in P20-4), the character determination unit 312a selects a character corresponding to the vocal of the song, It is extracted based on the vocal correspondence information (P20-7). At this time, if a vocal character is extracted (YES in P20-8), the character ID of the extracted character is stored in the character placement table (P20-9). Here, the character ID is stored in association with the same position number as the counter value of the position identification counter. Then, the character determination unit 312a increments the counter value of the position identification counter (P20-11).

そして、P20-11で更新したポジション識別カウンタのカウンタ値が、最大値(ここでは18)であれば(P20-12のYES)、P20-17に処理を移し、最大値でなければ(P20-12のNO)、P20-7に処理を戻す。 If the counter value of the position identification counter updated in P20-11 is the maximum value (here, 18) (YES in P20-12), the process proceeds to P20-17, and if not the maximum value (P20- 12 NO), the process returns to P20-7.

また、ボーカル対応キャラが抽出されなかった場合(P20-8のNO)、キャラ決定部312aは、キャラ配置テーブルに記憶されていない残りのキャラIDから1のキャラIDをランダムに抽出する(P20-13)。そして、キャラ決定部312aは、抽出されたキャラIDを、キャラ配置テーブルに記憶する(P20-14)。ここでは、ポジション識別カウンタのカウンタ値と同じポジション番号に対応付けてキャラIDが記憶される。そして、キャラ決定部312aは、ポジション識別カウンタのカウンタ値をインクリメントする(P20-15)。 Also, if no vocal character is extracted (NO in P20-8), the character determination unit 312a randomly extracts character ID 1 from the remaining character IDs not stored in the character arrangement table (P20-8). 13). Then, the character determination unit 312a stores the extracted character ID in the character placement table (P20-14). Here, the character ID is stored in association with the same position number as the counter value of the position identification counter. Then, the character determination unit 312a increments the counter value of the position identification counter (P20-15).

そして、P20-15で更新したポジション識別カウンタのカウンタ値が、最大値(ここでは18)であれば(P20-16のYES)、P20-17に処理を移し、最大値でなければ(P20-16のNO)、P20-13に処理を戻す。上記のP20-1からP20-16の処理により、キャラ配置テーブルに18のキャラIDが記憶される。18のキャラIDがキャラ配置テーブルに記憶されると、キャラ決定部312aは、キャラ配置テーブルに基づいて、キャラ配置画面を表示する(P20-17)。このキャラ配置画面では、全てのポジション表示部50、および、選択中キャラ表示部52にアイコンが表示される。 If the counter value of the position identification counter updated in P20-15 is the maximum value (here, 18) (YES in P20-16), the process proceeds to P20-17, and if not the maximum value (P20- 16 NO), the process returns to P20-13. 18 character IDs are stored in the character placement table by the above processing from P20-1 to P20-16. When the character ID of 18 is stored in the character placement table, the character determination unit 312a displays the character placement screen based on the character placement table (P20-17). In this character placement screen, icons are displayed in all the position display portions 50 and the selected character display portion 52 .

以上のように、おまかせ編成処理によれば、一任ボタン56をタップするだけで、全てのポジションにキャラクタが自動で配置される。このとき、ストーリ専用の楽曲であれば、ストーリ専用キャラがメインポジションに優先的に配置され、次いで、ボーカル対応キャラがメインポジションに配置される。また、ストーリ専用ではない楽曲であれば、ボーカル対応キャラがメインポジションに優先的に配置される。 As described above, according to the automatic formation process, characters are automatically arranged in all positions simply by tapping the discretion button 56 . At this time, in the case of a story-only song, the story-only character is preferentially placed in the main position, and then the vocal character is placed in the main position. Also, if it is a song that is not dedicated to the story, the vocal character will be preferentially placed in the main position.

上記のおまかせ編成処理では、ポジション番号が小さいポジションから順に、キャラIDが決定される。また、メインポジションは、必ず、バックポジションよりもポジション番号が小さい。さらに、各楽曲IDに紐付けられるボーカル対応キャラの数は、各楽曲IDに設定されるメインポジションの数以上である。したがって、上記のおまかせ編成処理によれば、必ず、全てのメインポジションに、ボーカル対応キャラが配置される。 In the above-described random formation process, character IDs are determined in ascending order of position numbers. Also, the main position always has a smaller position number than the back position. Furthermore, the number of vocal characters associated with each song ID is greater than or equal to the number of main positions set for each song ID. Therefore, according to the above-described random formation processing, characters corresponding to vocals are always placed in all main positions.

また、上記の処理では、メインポジションの数よりも、ボーカル対応キャラの数が多い場合、バックポジションについても、ボーカル対応キャラが優先的に決定される。ただし、バックポジションについては、ボーカル対応キャラを優先せずともよい。 In addition, in the above process, when the number of characters for vocals is larger than the number of main positions, characters for vocals are preferentially determined for back positions as well. However, for the back position, it is not necessary to give priority to the vocal support character.

なお、上記の処理では、ボーカル対応キャラが配置されると、残りのキャラクタからランダムに抽出されることとした。ただし、ボーカル対応キャラが配置された後に、残りのメインキャラが、サブキャラに優先して配置されてもよい。 It should be noted that in the above process, when a character for vocals is arranged, it is randomly extracted from the remaining characters. However, after the vocalist character is placed, the remaining main characters may be placed with priority over the sub-characters.

図19に戻り、スタートボタン58がタップされ、決定操作が入力されると(P6-13のYES)、ライブ演出実行部308aは、上記したデータ設定処理(P10)を実行する。 Returning to FIG. 19, when the start button 58 is tapped and a determination operation is input (YES in P6-13), the live effect executing section 308a executes the data setting process (P10) described above.

以上、添付図面を参照しながら実施形態の一態様について説明したが、本発明は上記実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変形例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 Although one aspect of the embodiment has been described above with reference to the accompanying drawings, it goes without saying that the present invention is not limited to the above embodiment. It is obvious that a person skilled in the art can conceive of various modifications or modifications within the scope of the claims, and it is understood that these also belong to the technical scope of the present invention. be done.

上記実施形態では、演出の一例として、ボーカルサウンドが出力されるライブ演出について説明した。ただし、上記の技術的事項が適用される演出はライブ演出に限らない。いずれにしても、上記の技術的事項は、演出の実行中に表示可能なゲームオブジェクト(実施形態ではキャラクタ)のいずれかが特定ゲームオブジェクト(実施形態ではボーカル対応キャラ)として紐付けられ、かつ、演出の実行中に出力される所定の演出要素(実施形態ではボーカルサウンド)の出力データ(実施形態ではボーカルデータ)が複数紐付けられた複数種類の演出種別情報(実施形態では楽曲ID)のいずれかを決定可能であり、演出種別情報に紐付けられた特定ゲームオブジェクトが識別可能に表示(実施形態では識別情報62の表示)され、決定された演出種別情報に紐付けられた特定ゲームオブジェクトを含む複数のゲームオブジェクトのいずれかが決定され、決定された演出種別情報およびゲームオブジェクトに基づいて演出が実行されるゲームに広く適用可能であり、このとき、決定されたゲームオブジェクトに特定ゲームオブジェクトが含まれる場合、演出の実行中、演出種別情報に紐付けられた出力データのうち、特定ゲームオブジェクトに対応する出力データに基づいて所定の演出要素が出力され、決定されたゲームオブジェクトに特定ゲームオブジェクトが含まれない場合、演出種別情報に紐付けられた出力データの中からいずれかを選択し、選択した出力データに基づいて所定の演出要素が出力されればよい。 In the above embodiment, as an example of the production, a live production in which vocal sounds are output has been described. However, the production to which the above technical matters are applied is not limited to the live production. In any case, the above technical matter is that one of the game objects (characters in the embodiment) that can be displayed during the execution of the effect is linked as a specific game object (vocal-capable character in the embodiments), and Any of a plurality of types of production type information (music ID in the embodiment) in which a plurality of output data (vocal data in the embodiment) of a predetermined production element (vocal sound in the embodiment) output during execution of the production is linked. The specific game object linked to the effect type information is identifiably displayed (in the embodiment, the identification information 62 is displayed), and the specific game object linked to the determined effect type information is displayed. Any one of a plurality of game objects including If it is included, during the execution of the effect, a predetermined effect element is output based on the output data corresponding to the specific game object among the output data linked to the effect type information, and the specific game object is output to the determined game object. is not included, one of the output data linked to the effect type information is selected, and a predetermined effect element is output based on the selected output data.

なお、上記実施形態では、所定の演出要素として、ボーカルサウンドが出力されることとした。具体的には、上記実施形態では、所定の演出要素が、演出の実行中に出力される音声であり、所定の演出要素の出力データごとに、出力される音声が異なる。ただし、所定の演出要素はこれに限らない。所定の演出要素は、例えば、画像でもよいし、効果音でもよいし、LED等の発光体の発光でもよい。 It should be noted that, in the above-described embodiment, the vocal sound is output as the predetermined production element. Specifically, in the above-described embodiment, the predetermined effect element is the sound output during execution of the effect, and the output sound differs for each output data of the predetermined effect element. However, the predetermined effect element is not limited to this. The predetermined effect element may be, for example, an image, a sound effect, or light emitted from a light emitter such as an LED.

また、上記実施形態では、ゲームオブジェクトとしてキャラクタが表示されるが、ゲームオブジェクトの内容は特に限定されない。 Also, in the above embodiment, a character is displayed as a game object, but the content of the game object is not particularly limited.

また、上記実施形態では、おまかせ編成により、演出種別情報(楽曲ID)に紐付けられ、かつ、プレイヤが所持するゲームオブジェクト(所持キャラ)の中から、予め設定された抽出条件にしたがって、いずれかのゲームオブジェクトが決定可能である。そして、この抽出条件にしたがってゲームオブジェクトが決定される場合、特定ゲームオブジェクト(ボーカル対応キャラ)が他のゲームオブジェクトよりも優先的に決定される。ただし、上記のおまかせ編成処理は一例に過ぎず、抽出条件は上記実施形態に限定されるものではない。例えば、サブキャラを優先的に抽出する抽出条件や、メインキャラを優先的に抽出する抽出条件が設定されてもよい。 Further, in the above-described embodiment, according to a preset extraction condition, one of the game objects (possessed characters) that are linked to the effect type information (music ID) and possessed by the player is selected according to the preset extraction conditions. of game objects are determinable. Then, when the game objects are determined according to this extraction condition, the specific game object (vocal character) is determined preferentially over the other game objects. However, the above random knitting process is merely an example, and the extraction conditions are not limited to the above embodiment. For example, an extraction condition for preferentially extracting a sub character or an extraction condition for preferentially extracting a main character may be set.

また、複数の抽出条件が設けられており、プレイヤは、いずれかの抽出条件を選択して、おまかせ編成を実行してもよい。また、上記実施形態では、おまかせ編成により、全てのポジションにキャラクタが配置される。ただし、おまかせ編成により、例えば、メインポジションにのみキャラクタが配置されてもよいし、バックポジションにのみキャラクタが配置されてもよい。また、おまかせ編成の対象となるポジションを、プレイヤが任意に選択してもよい。この場合、プレイヤが選択したポジションについてのみ、自動でキャラクタが配置される。なお、おまかせ編成は必須ではない。 In addition, a plurality of extraction conditions are provided, and the player may select any one of the extraction conditions to execute the random formation. In addition, in the above embodiment, characters are arranged in all positions by random formation. However, characters may be arranged only in the main position or may be arranged only in the back position, for example, according to the random formation. Also, the player may arbitrarily select a position to be a target of the random formation. In this case, characters are automatically placed only in positions selected by the player. It should be noted that the random organization is not essential.

また、上記実施形態において、サウンドデータや、ライブ映像用の画像データ等がダウンロードされるタイミングは特に限定されない。例えば、ゲームアプリのダウンロード時に、全てのデータがプレイヤ端末1にダウンロードされてもよい。あるいは、ライブ演出がはじめて実行される場合に、サーバ100から必要なデータがダウンロードされてもよい。 Further, in the above embodiment, the timing at which sound data, image data for live video, and the like are downloaded is not particularly limited. For example, all data may be downloaded to the player terminal 1 when downloading the game application. Alternatively, the necessary data may be downloaded from the server 100 when the live performance is executed for the first time.

なお、上記実施形態においては、各ポジションに配置可能なキャラクタは、全ての楽曲IDで共通であるとしたが、楽曲IDごとに、選択可能なキャラクタや、キャラクタを配置可能なポジションが異なってもよい。 In the above embodiment, characters that can be placed in each position are common to all song IDs. good.

また、上記実施形態におけるストーリ用ライブ演出および報酬ライブ演出は必須ではなく、少なくとも、プレイヤが選択したキャラクタや楽曲に基づいてライブ演出が実行されればよい。 Also, the story live effects and the reward live effects in the above embodiment are not essential, and at least the live effects may be executed based on the characters and songs selected by the player.

また、上記実施形態では、例えば、メインポジションが5つ設定された楽曲が設けられている。この楽曲については、報酬ライブ演出においても、5つのボーカルデータが再生される。したがって、この場合には、例えば、5着に入賞することで、報酬ライブ演出が視聴可能となってもよい。これとは逆に、上記実施形態では、例えば、メインポジションが2つ設定された楽曲が設けられている。この楽曲については、報酬ライブ演出においても、メインポジションが2つとなるため、3着以降のキャラクタが、バックポジションに配置される。したがって、この場合には、例えば、2着以内に入賞した場合に、報酬ライブ演出が視聴可能となってもよい。いずれにしても、報酬ライブ演出を視聴可能となる着順は、楽曲やレースごとに異なってもよい。 Further, in the above-described embodiment, for example, a song having five main positions is provided. For this song, five vocal data are played back even in the reward live performance. Therefore, in this case, for example, the reward live performance may be viewable by winning fifth place. Contrary to this, in the above-described embodiment, for example, a piece of music with two main positions is provided. For this song, there are two main positions even in the reward live performance, so the characters who come third and after are placed in the back positions. Therefore, in this case, for example, if the player wins within the second place, the reward live effect may be viewable. In any case, the order of finish in which the reward live effect can be viewed may differ for each song or race.

また、上記実施形態では、キャラアイコン54に識別情報62を重畳表示することで、ボーカル対応キャラがプレイヤに報知される。ただし、ボーカル対応キャラの報知態様はこれに限らない。例えば、楽曲IDとボーカル対応キャラとの関係を示す一覧表示が表示されてもよい。 Further, in the above-described embodiment, by superimposing the identification information 62 on the character icon 54, the player is notified of the character corresponding to vocals. However, the notification mode of the vocal-capable character is not limited to this. For example, a list display may be displayed showing the relationship between the song ID and the vocalist character.

また、上記実施形態では、楽曲およびキャラクタの配置がプレイヤの操作入力に基づいて決定されることとしたが、楽曲およびキャラクタ(登場するキャラクタおよびキャラクタの配置を含む)の少なくともいずれかが、コンピュータ制御によって決定されてもよい。例えば、プレイヤは、楽曲を選択、決定することができず、キャラクタの配置のみを決定することが可能であってもよい。 Further, in the above embodiment, the arrangement of the music and the characters is determined based on the player's operation input, but at least one of the music and the characters (including the characters that appear and the arrangement of the characters) is controlled by a computer. may be determined by For example, the player may not be able to select or decide music, but may be able to decide only the placement of characters.

また、上記実施形態に示す制御処理は一例に過ぎない。上記実施形態では、ゲームを実行するための制御処理が、プレイヤ端末1とサーバ100とで実行される。すなわち、プレイヤ端末1およびサーバ100を備えるクライアントサーバシステムである情報処理システムSが、ゲーム装置Gとして機能する。しかしながら、ゲームを実行するための制御処理は、例えば、プレイヤ端末1のみで実行されてもよい。この場合、プレイヤ端末1のみがゲーム装置Gとして機能する。 Also, the control processing shown in the above embodiment is merely an example. In the above embodiment, the control processing for executing the game is executed by the player terminal 1 and the server 100 . That is, the information processing system S, which is a client-server system including the player terminal 1 and the server 100, functions as the game device G. FIG. However, the control process for executing the game may be executed only by the player terminal 1, for example. In this case, only the player terminal 1 functions as the game device G.

また、上記実施形態において、ゲームを実現するための情報処理プログラムは、コンピュータが読み取り可能な記憶媒体に格納されてもよい。さらには、上記実施形態は、各機能およびフローチャートに示すステップを実現する情報処理方法としてもよい。 Further, in the above embodiment, the information processing program for realizing the game may be stored in a computer-readable storage medium. Furthermore, the above embodiment may be an information processing method that implements each function and the steps shown in the flowchart.

308a ライブ演出実行部
310a 楽曲決定部
312a キャラ決定部
314a 識別情報表示部
S 情報処理システム
308a live production execution unit 310a music determination unit 312a character determination unit 314a identification information display unit S information processing system

Claims (6)

演出の実行中に表示可能なゲームオブジェクトのいずれかが特定ゲームオブジェクトとして紐付けられ、かつ、前記演出の実行中に出力される音声の出力データが複数紐付けられた複数種類の演出種別情報のいずれかを決定可能な演出決定部と、
前記演出種別情報に紐付けられた前記特定ゲームオブジェクトを識別可能に表示する識別表示部と、
前記演出の実行中に表示される前記ゲームオブジェクトの配置を、第1のポジションおよび第2のポジションを含む複数のポジションのうちのいずれかに決定するゲームオブジェクト決定部と、
決定された前記演出種別情報および前記ゲームオブジェクトの配置に基づいて前記演出を実行し、前記第1のポジションに配置される前記ゲームオブジェクトに所定の特定ゲームオブジェクトが含まれる場合、該演出の実行中、該演出種別情報に紐付けられた前記出力データのうち、前記所定の特定ゲームオブジェクトに対応する出力データに基づいて前記音声を出力し、前記第1のポジションに配置される前記ゲームオブジェクトに前記所定の特定ゲームオブジェクトが含まれず、かつ、前記第2のポジションに配置される前記ゲームオブジェクトに前記所定の特定ゲームオブジェクトが含まれる場合、該演出種別情報に紐付けられた前記出力データのうち、いずれかの前記特定ゲームオブジェクトに対応する前記出力データの中からいずれかを選択し、選択した前記出力データに基づいて前記音声を出力する演出実行部と、
してコンピュータを機能させる情報処理プログラム。
A plurality of types of presentation type information in which any of the game objects that can be displayed during the execution of the presentation is linked as a specific game object, and a plurality of output data of voices that are output during the execution of the presentation are linked. a production determination unit capable of determining either;
an identification display unit that identifiably displays the specific game object linked to the effect type information;
a game object determination unit that determines an arrangement of the game object to be displayed during execution of the effect to be one of a plurality of positions including a first position and a second position ;
The effect is executed based on the determined effect type information and the placement of the game object, and the effect is being executed when the game object placed at the first position includes a predetermined specific game object. , outputting the sound based on the output data corresponding to the predetermined specific game object among the output data linked to the effect type information, and outputting the sound to the game object placed at the first position ; When a predetermined specific game object is not included and the predetermined specific game object is included in the game object placed at the second position, the output data linked to the effect type information includes: a rendering execution unit that selects one of the output data corresponding to one of the specific game objects and outputs the sound based on the selected output data;
An information processing program that enables a computer to function.
前記識別表示部は、
前記第1のポジションに配置される前記ゲームオブジェクトのうち、前記演出種別情報に紐付けられた前記特定ゲームオブジェクトを識別可能に表示し、
前記第2のポジションに配置される前記ゲームオブジェクトであって、前記演出種別情報に紐付けられた前記特定ゲームオブジェクトの識別可能な表示を不実行とする、
請求項1に記載の情報処理プログラム。
The identification display section
displaying in an identifiable manner the specific game object linked to the effect type information among the game objects placed at the first position;
Disabling the identifiable display of the specific game object, which is the game object placed at the second position and is linked to the effect type information,
The information processing program according to claim 1.
前記第1のポジションに配置される前記ゲームオブジェクトは、前記第2のポジションに配置される前記ゲームオブジェクトよりも、前記演出の実行中に表示される回数が多い、もしくは、前記演出の実行中に表示される時間が長い、
請求項1または2に記載の情報処理プログラム。
The game object placed at the first position is displayed more times during execution of the effect than the game object placed at the second position, or during execution of the effect long time to display
3. The information processing program according to claim 1 or 2 .
前記ゲームオブジェクト決定部は、
前記演出種別情報に紐付けられ、かつ、プレイヤが所持する前記ゲームオブジェクトの中から、予め設定された抽出条件にしたがって、いずれかの前記ゲームオブジェクトを決定可能であり、
前記抽出条件したがって前記ゲームオブジェクトが決定される場合、前記特定ゲームオブジェクトが他の前記ゲームオブジェクトよりも優先的に決定される、
請求項1から3のいずれか1項に記載の情報処理プログラム。
The game object determination unit
any one of the game objects associated with the effect type information and possessed by the player can be determined according to a preset extraction condition;
when the game object is determined according to the extraction condition, the specific game object is determined with priority over other game objects;
The information processing program according to any one of claims 1 to 3.
コンピュータが遂行する情報処理方法であって、
演出の実行中に表示可能なゲームオブジェクトのいずれかが特定ゲームオブジェクトとして紐付けられ、かつ、前記演出の実行中に出力される音声の出力データが複数紐付けられた複数種類の演出種別情報のいずれかを決定可能なステップ部と、
前記演出種別情報に紐付けられた前記特定ゲームオブジェクトを識別可能に表示するステップと、
前記演出の実行中に表示される前記ゲームオブジェクトの配置を、第1のポジションおよび第2のポジションを含む複数のポジションのうちのいずれかに決定するステップと、
決定された前記演出種別情報および前記ゲームオブジェクトの配置に基づいて前記演出を実行し、前記第1のポジションに配置される前記ゲームオブジェクトに所定の特定ゲームオブジェクトが含まれる場合、該演出の実行中、該演出種別情報に紐付けられた前記出力データのうち、前記所定の特定ゲームオブジェクトに対応する出力データに基づいて前記音声を出力し、前記第1のポジションに配置される前記ゲームオブジェクトに前記所定の特定ゲームオブジェクトが含まれず、かつ、前記第2のポジションに配置される前記ゲームオブジェクトに前記所定の特定ゲームオブジェクトが含まれる場合、該演出種別情報に紐付けられた前記出力データのうち、いずれかの前記特定ゲームオブジェクトに対応する前記出力データの中からいずれかを選択し、選択した前記出力データに基づいて前記音声を出力するステップと、
を含む情報処理方法。
An information processing method performed by a computer,
A plurality of types of presentation type information in which any of the game objects that can be displayed during the execution of the presentation is linked as a specific game object, and a plurality of output data of voices that are output during the execution of the presentation are linked. a step portion that can determine either;
a step of identifiably displaying the specific game object linked to the effect type information;
determining an arrangement of the game object to be displayed during execution of the rendering to be one of a plurality of positions including a first position and a second position ;
The effect is executed based on the determined effect type information and the placement of the game object, and the effect is being executed when the game object placed at the first position includes a predetermined specific game object. , outputting the sound based on the output data corresponding to the predetermined specific game object among the output data linked to the effect type information, and outputting the sound to the game object placed at the first position ; When a predetermined specific game object is not included and the predetermined specific game object is included in the game object placed at the second position, the output data linked to the effect type information includes: selecting one of the output data corresponding to one of the specific game objects, and outputting the sound based on the selected output data;
Information processing method including.
コンピュータが、
演出の実行中に表示可能なゲームオブジェクトのいずれかが特定ゲームオブジェクトとして紐付けられ、かつ、前記演出の実行中に出力される音声の出力データが複数紐付けられた複数種類の演出種別情報のいずれかを決定可能な演出決定部と、
前記演出種別情報に紐付けられた前記特定ゲームオブジェクトを識別可能に表示する識別表示部と、
前記演出の実行中に表示される前記ゲームオブジェクトの配置を、第1のポジションおよび第2のポジションを含む複数のポジションのうちのいずれかに決定するゲームオブジェクト決定部と、
決定された前記演出種別情報および前記ゲームオブジェクトの配置に基づいて前記演出を実行し、前記第1のポジションに配置される前記ゲームオブジェクトに所定の特定ゲームオブジェクトが含まれる場合、該演出の実行中、該演出種別情報に紐付けられた前記出力データのうち、前記所定の特定ゲームオブジェクトに対応する出力データに基づいて前記音声を出力し、前記第1のポジションに配置される前記ゲームオブジェクトに前記所定の特定ゲームオブジェクトが含まれず、かつ、前記第2のポジションに配置される前記ゲームオブジェクトに前記所定の特定ゲームオブジェクトが含まれる場合、該演出種別情報に紐付けられた前記出力データのうち、いずれかの前記特定ゲームオブジェクトに対応する前記出力データの中からいずれかを選択し、選択した前記出力データに基づいて前記音声を出力する演出実行部と、
を備える情報処理システム。
the computer
A plurality of types of presentation type information in which any of the game objects that can be displayed during the execution of the presentation is linked as a specific game object, and a plurality of output data of voices that are output during the execution of the presentation are linked. a production determination unit capable of determining either;
an identification display unit that identifiably displays the specific game object linked to the effect type information;
a game object determination unit that determines an arrangement of the game object to be displayed during execution of the effect to be one of a plurality of positions including a first position and a second position ;
The effect is executed based on the determined effect type information and the placement of the game object, and the effect is being executed when the game object placed at the first position includes a predetermined specific game object. , outputting the sound based on the output data corresponding to the predetermined specific game object among the output data linked to the effect type information, and outputting the sound to the game object placed at the first position ; When a predetermined specific game object is not included and the predetermined specific game object is included in the game object placed at the second position, the output data linked to the effect type information includes: a rendering execution unit that selects one of the output data corresponding to one of the specific game objects and outputs the sound based on the selected output data;
An information processing system comprising
JP2021026508A 2021-02-22 2021-02-22 Information processing program, information processing method and information processing system Active JP7194210B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021026508A JP7194210B2 (en) 2021-02-22 2021-02-22 Information processing program, information processing method and information processing system
JP2022144717A JP2022168339A (en) 2021-02-22 2022-09-12 Information processing program, information processing method, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021026508A JP7194210B2 (en) 2021-02-22 2021-02-22 Information processing program, information processing method and information processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022144717A Division JP2022168339A (en) 2021-02-22 2022-09-12 Information processing program, information processing method, and information processing system

Publications (2)

Publication Number Publication Date
JP2022128141A JP2022128141A (en) 2022-09-01
JP7194210B2 true JP7194210B2 (en) 2022-12-21

Family

ID=83061100

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021026508A Active JP7194210B2 (en) 2021-02-22 2021-02-22 Information processing program, information processing method and information processing system
JP2022144717A Pending JP2022168339A (en) 2021-02-22 2022-09-12 Information processing program, information processing method, and information processing system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022144717A Pending JP2022168339A (en) 2021-02-22 2022-09-12 Information processing program, information processing method, and information processing system

Country Status (1)

Country Link
JP (2) JP7194210B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7482192B1 (en) 2022-11-01 2024-05-13 株式会社Cygames Information processing program, information processing method, and information processing system
JP7547579B1 (en) 2023-08-02 2024-09-09 株式会社バンダイ Information processing device and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014008239A (en) 2012-06-29 2014-01-20 Konami Digital Entertainment Co Ltd Game device, method for controlling game management system, and program
JP2017131422A (en) 2016-01-28 2017-08-03 株式会社バンダイナムコエンターテインメント Program and terminal
JP6538942B1 (en) 2018-07-26 2019-07-03 株式会社Cygames INFORMATION PROCESSING PROGRAM, SERVER, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING APPARATUS
JP2020014532A (en) 2018-07-23 2020-01-30 株式会社カプコン Game program and game device
JP6752465B1 (en) 2019-10-08 2020-09-09 Happy Elements株式会社 Computer programs and game systems
JP2021007552A (en) 2019-06-28 2021-01-28 株式会社Cygames Information processing program, game device and information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014008239A (en) 2012-06-29 2014-01-20 Konami Digital Entertainment Co Ltd Game device, method for controlling game management system, and program
JP2017131422A (en) 2016-01-28 2017-08-03 株式会社バンダイナムコエンターテインメント Program and terminal
JP2020014532A (en) 2018-07-23 2020-01-30 株式会社カプコン Game program and game device
JP6538942B1 (en) 2018-07-26 2019-07-03 株式会社Cygames INFORMATION PROCESSING PROGRAM, SERVER, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING APPARATUS
JP2021007552A (en) 2019-06-28 2021-01-28 株式会社Cygames Information processing program, game device and information processing method
JP6752465B1 (en) 2019-10-08 2020-09-09 Happy Elements株式会社 Computer programs and game systems

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
[デレステ]「GoD JunGo!」にうたいわけを追加,久川颯虐待速報[online],2021年01月13日,http://nokuo.blog.jp/archives/42796063.html,特に図を参照。[検索日2022年5月31日]
[デレステ]Tulipにうたいわけ実装! 5人の「なんてね」聴き比べがめちゃ楽しい!!,APPBANK[online],2019年12月31日,https://www.appbank.net/2019/12/31/iphone-application/1841121.php,特に本文、図を参照。[検索日2022年5月31日]
[デレステ]新機能「うたいわけ」実装! さっそくやってみた!,APPBANK[online],2019年11月29日,https://web.archive.org/web/20191129230547/https://www.appbank.net/2019/11/09/iphone-application/1817467.php,特に本文、図を参照。[検索日2022年1月31日]
[ミリシタ2周年]ミリシタのおすすめポイント、魅力をまとめました,オタクの原石[online],2021年01月16日,https://web.archive.org/web/20210116142356/http://da18mon.com/2019/06/29/mirisita-2nd-miryoku/,特に「オリジナルメンバーを自動編成」の項を参照。[検索日2021年9月30日]

Also Published As

Publication number Publication date
JP2022128141A (en) 2022-09-01
JP2022168339A (en) 2022-11-07

Similar Documents

Publication Publication Date Title
JP2022168339A (en) Information processing program, information processing method, and information processing system
JP2006192157A (en) Game apparatus and game control method and program
JP2006192158A (en) Game apparatus and game control method and program
JP6320707B2 (en) Game device
JP2015043832A (en) Game device
Liebe Interactivity and music in computer games
JP2008134295A (en) Concert system
JP2007007081A (en) Game system, musical sound forming system, melody selecting system, program, and information storage medium
JP3337170B2 (en) game machine
KR20090057465A (en) Game device, game method, and game program
JP2023091716A (en) Information processing method, program, and information processing system
JP6144497B2 (en) Game device
JP2021141950A (en) Program, terminal and game management device
JP2021104299A (en) Watching system, computer program for watching system, and control method of watching system
WO2010004908A1 (en) Game device, digest display method, information recording medium, and program
JP2016059631A (en) Game machine and game facility
JP7337905B2 (en) SYSTEM, METHOD AND PROGRAM FOR PROVIDING A GAME
JP7201865B1 (en) Information processing method, program, information processing system
JP2014144079A (en) Game device
JP6626920B2 (en) Game equipment
JP2014144087A (en) Game device and operation device
JP7154609B2 (en) GAME VIEWING SYSTEM, COMPUTER PROGRAM FOR GAME VIEWING SYSTEM, AND GAME VIEWING SYSTEM CONTROL METHOD
JP6728310B2 (en) Game device and game program
JP2018008023A (en) Information processor, game program, and information processing method
JP6442558B2 (en) Game device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210705

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220912

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220922

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221209

R150 Certificate of patent or registration of utility model

Ref document number: 7194210

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150