JP7041110B2 - Application control program, application control system and application control method - Google Patents

Application control program, application control system and application control method Download PDF

Info

Publication number
JP7041110B2
JP7041110B2 JP2019185988A JP2019185988A JP7041110B2 JP 7041110 B2 JP7041110 B2 JP 7041110B2 JP 2019185988 A JP2019185988 A JP 2019185988A JP 2019185988 A JP2019185988 A JP 2019185988A JP 7041110 B2 JP7041110 B2 JP 7041110B2
Authority
JP
Japan
Prior art keywords
sound
user
screen
control unit
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019185988A
Other languages
Japanese (ja)
Other versions
JP2020103873A (en
Inventor
美登里 森山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2019185988A priority Critical patent/JP7041110B2/en
Publication of JP2020103873A publication Critical patent/JP2020103873A/en
Priority to JP2022035844A priority patent/JP7256913B2/en
Priority to JP2022035843A priority patent/JP7343129B2/en
Application granted granted Critical
Publication of JP7041110B2 publication Critical patent/JP7041110B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、アプリケーション制御プログラム、アプリケーション制御システム及びアプリケーション制御方法に関する。 The present invention relates to an application control program, an application control system and an application control method.

今日、スマートフォン等のコンピュータ端末を利用するユーザに対して、各種ゲーム等のアプリケーションソフトが提供されている。このようなゲームアプリケーションの中には、サウンドを利用する技術も公開されている(例えば、特許文献1参照)。この文献に記載された技術においては、仮想空間上で展開されるゲーム内で音声を録音し再生することによりアイテムとして利用する。 Today, application software such as various games is provided to users who use computer terminals such as smartphones. Among such game applications, a technique for utilizing sound is also disclosed (see, for example, Patent Document 1). In the technology described in this document, voice is recorded and played back in a game developed in a virtual space to be used as an item.

また、ゲームにおけるメリットとして、サウンドを提供する技術も検討されている(例えば、特許文献2参照)。この文献に記載された技術においては、クイズ形式の広告情報を読み出して端末装置に送信し表示させ、端末装置から広告情報を含むクイズの回答情報を受信する。そして、電子データであるゲームにおけるメリットを、ネットワークを介して端末装置に送信する。この場合、メリットは、エサ、アイテム、ポイント、キャラクター、サウンド又はストーリーを用いる。 Further, as a merit in a game, a technique for providing sound is also being studied (see, for example, Patent Document 2). In the technique described in this document, the advertisement information in the form of a quiz is read out, transmitted to the terminal device for display, and the answer information of the quiz including the advertisement information is received from the terminal device. Then, the merit of the game, which is electronic data, is transmitted to the terminal device via the network. In this case, the merit uses food, items, points, characters, sounds or stories.

特開2009-247405号公報JP-A-2009-247405 特開2003-19360号公報Japanese Patent Application Laid-Open No. 2003-19360

多くのゲームにおけるサウンドは、全ユーザ共通に設定されているものが多かった。特許文献1、2においては、アイテムとしてサウンドがユーザに対して提供されている。しかしながら、これらのサウンドの利用において、自由度が低い場合、利用者の興趣を高めることが困難であった。なお、この課題はゲーム等のアプリケーションで再生されるサウンドだけでなく、アプリケーションに登場するキャラクタの動作等にも共通するものである。 Many of the sounds in many games were set to be common to all users. In Patent Documents 1 and 2, sound is provided to a user as an item. However, when the degree of freedom in using these sounds is low, it is difficult to enhance the interest of the user. It should be noted that this problem is common not only to the sound reproduced in an application such as a game, but also to the movement of characters appearing in the application.

本発明は、上述した問題に鑑みてなされたものであり、その目的は、興趣を向上させたアプリケーションを実現することにある。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to realize an application with improved interest.

上記課題を解決するアプリケーション制御プログラムは、記憶部と、サウンドの再生を管理する制御部とを用いて、アプリケーションを制御するためのプログラムであって、前記制御部に、サウンドの提供条件を満足した場合には、ユーザに関連付けて、前記提供条件に対応するサウンドのサウンドファイルを、当該サウンドを再生するユーザ画面と関連付けて前記記憶部に記録するステップと、ユーザに関連付けられたユーザ画面を他のユーザが視聴する場合には、当該ユーザ画面にサウンドが関連付けられているか否かを判定するステップと、前記ユーザ画面にサウンドが関連付けられている場合には、当該サウンドを前記ユーザが用いる装置及び前記他のユーザが用いる装置で再生させるステップと、を実行させる。
上記アプリケーション制御プログラムについて、前記ユーザ画面に対する入力操作に応じて、前記ユーザに関連付けられたアイテムのリストを表示するステップと、前記リストに含まれるアイテムの選択を受け付けるステップと、前記選択されたアイテムを、前記リスト以外の前記ユーザ画面に表示するステップと、を前記制御部にさらに実行させることが好ましい。
上記アプリケーション制御プログラムについて、前記ユーザ及び前記ユーザ画面を視聴する他のユーザの関係に基づいて、サウンドを調整するステップを前記制御部にさらに実行させることが好ましい。
上記課題を解決するアプリケーション制御プログラムは、記憶部と、制御部とディスプレイとを用いて、アプリケーションを制御するためのプログラムであって、前記制御部を、前記アプリケーションを利用するユーザ毎に対応付けられたキャラクタを含む画面をユーザが用いる装置のディスプレイに出力し、前記キャラクタの動作ファイルの提供条件を満足した場合には、ユーザに関連付けて、前記提供条件に対応する動作ファイルを記録し、前記動作ファイルの出力条件を満足した場合、前記動作ファイルを前記キャラクタに適用した画面を、前記ユーザが用いる装置及び前記画面を視聴する他のユーザが用いる装置で再生させる。
The application control program that solves the above problems is a program for controlling an application by using a storage unit and a control unit that manages sound reproduction, and the control unit satisfies the conditions for providing sound. In some cases, the step of recording the sound file of the sound corresponding to the provision condition in the storage unit in association with the user screen in association with the user screen, and the user screen associated with the user are recorded in another case. When the user watches, a step of determining whether or not a sound is associated with the user screen, and when a sound is associated with the user screen, the device used by the user and the device using the sound. To execute the step of playing back on a device used by another user.
Regarding the application control program, a step of displaying a list of items associated with the user, a step of accepting selection of items included in the list, and the selected item in response to an input operation to the user screen. It is preferable to have the control unit further execute the steps to be displayed on the user screen other than the list.
For the application control program, it is preferable to have the control unit further execute a step of adjusting the sound based on the relationship between the user and another user who views the user screen.
The application control program that solves the above problems is a program for controlling an application by using a storage unit, a control unit, and a display, and the control unit is associated with each user who uses the application. When the screen including the character is output to the display of the device used by the user and the conditions for providing the operation file of the character are satisfied, the operation file corresponding to the provision condition is recorded in association with the user, and the operation is described. When the file output condition is satisfied, the screen to which the operation file is applied to the character is reproduced by the device used by the user and the device used by another user who views the screen.

上記課題を解決するアプリケーション制御システムは、サウンドの提供条件を満足した場合には、ユーザに関連付けて、前記提供条件に対応するサウンドのサウンドファイルを、当該サウンドを再生するユーザ画面と関連付けて記憶部に記録するサウンドファイル記録部と、ユーザに関連付けられたユーザ画面を他のユーザが視聴する場合には、当該ユーザ画面にサウンドが関連付けられているか否かを判定する判定部と、前記ユーザ画面にサウンドが関連付けられている場合には、当該サウンドを前記ユーザが用いる装置及び前記他のユーザが用いる装置で再生させるサウンド再生制御部と、を備える。
上記課題を解決するアプリケーション制御システムは、前記アプリケーションを利用するユーザ毎に対応付けられたキャラクタを含む画面をユーザが用いる装置のディスプレイに出力する出力制御部と、前記キャラクタの動作ファイルの提供条件を満足した場合には、ユーザに関連付けて、前記提供条件に対応する動作ファイルを記録する動作ファイル記録部と、前記動作ファイルの出力条件を満足した場合、前記動作ファイルを前記キャラクタに適用した画面を、前記ユーザが用いる装置及び前記画面を視聴する他のユーザが用いる装置に出力させる画面制御部と、を備える。
When the application control system that solves the above problems satisfies the sound provision condition, the application control system associates the sound file of the sound corresponding to the provision condition with the user, and associates the sound file with the user screen for playing the sound. When another user views the user screen associated with the user, the sound file recording unit to be recorded in the user screen, the determination unit for determining whether or not the sound is associated with the user screen, and the user screen. When a sound is associated with the sound, the device includes a device used by the user and a sound reproduction control unit for reproducing the sound by the device used by the other user.
The application control system that solves the above problems includes an output control unit that outputs a screen including a character associated with each user who uses the application to the display of the device used by the user, and a condition for providing an operation file of the character. If satisfied, the operation file recording unit that records the operation file corresponding to the provision condition in association with the user, and if the output condition of the operation file is satisfied, the screen in which the operation file is applied to the character is displayed. A screen control unit for outputting to a device used by the user and a device used by another user who views the screen.

上記課題を解決するアプリケーション制御方法は、記憶部と、サウンドの再生を管理する制御部とを用いて、アプリケーションを制御するための方法であって、前記制御部が、サウンドの提供条件を満足した場合には、ユーザに関連付けて、前記提供条件に対応するサウンドのサウンドファイルを、当該サウンドを再生するユーザ画面と関連付けて前記記憶部に記録するステップと、ユーザに関連付けられたユーザ画面を他のユーザが視聴する場合には、当該ユーザ画面にサウンドが関連付けられているか否かを判定するステップと、前記ユーザ画面にサウンドが関連付けられている場合には、当該サウンドを前記ユーザが用いる装置及び前記他のユーザが用いる装置で再生させるステップと、を実行する。
上記課題を解決するアプリケーション制御方法は、記憶部と、制御部とを用いて、アプリケーションを制御するための方法であって、前記制御部が、前記アプリケーションを利用するユーザ毎に対応付けられたキャラクタを含む画面をユーザが用いる装置のディスプレイに出力するステップと、前記キャラクタの動作ファイルの提供条件を満足した場合には、ユーザに関連付けて、前記提供条件に対応する動作ファイルを記録するステップと、前記動作ファイルの出力条件を満足した場合、前記動作ファイルを前記キャラクタに適用した画面を、前記ユーザが用いる装置及び前記画面を視聴する他のユーザが用いる装置で再生させるステップと、を実行する。
The application control method that solves the above problems is a method for controlling an application by using a storage unit and a control unit that manages sound reproduction, and the control unit satisfies the sound provision conditions. In some cases, the step of recording the sound file of the sound corresponding to the provision condition in the storage unit in association with the user screen in association with the user screen, and the user screen associated with the user are recorded in another case. When the user watches, a step of determining whether or not a sound is associated with the user screen, and when a sound is associated with the user screen, the device used by the user and the device using the sound. The step of playing back on a device used by another user is executed.
The application control method for solving the above problem is a method for controlling an application by using a storage unit and a control unit, and the control unit is associated with a character for each user who uses the application. A step of outputting a screen including the above to the display of the device used by the user, and a step of recording an operation file corresponding to the provision condition in association with the user when the provision condition of the operation file of the character is satisfied. When the output condition of the operation file is satisfied, the step of playing back the screen to which the operation file is applied to the character on the device used by the user and the device used by another user who views the screen is executed.

本発明によれば、興趣を向上させたアプリケーションを提供することができる。 According to the present invention, it is possible to provide an application with improved interest.

本実施形態のシステム概略図。The system schematic diagram of this embodiment. 本実施形態のユーザ情報記憶部に記録された情報の説明図。Explanatory drawing of information recorded in the user information storage part of this embodiment. 本実施形態のアイテム情報記憶部に記録された情報の説明図。Explanatory drawing of the information recorded in the item information storage part of this embodiment. 本実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of this embodiment. 本実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of this embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of another embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of another embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of another embodiment.

〔第1の実施形態〕
以下、ゲーム処理方法の一実施形態を図1~図5に従って説明する。本実施形態では、サウンドを利用するゲームアプリケーションを提供する場合を想定する。
[First Embodiment]
Hereinafter, an embodiment of the game processing method will be described with reference to FIGS. 1 to 5. In this embodiment, it is assumed that a game application that uses sound is provided.

図1に示すように、本実施形態では、ネットワークに接続されたユーザ端末10及び管理サーバ20を用いる。
ユーザ端末10は、ゲームを行なうユーザが利用するゲーム処理システム(スマートフォン等の情報処理端末)である。このユーザ端末10は、CPU、RAM及びROM等からなる制御部、記憶部、タッチパネルディスプレイ、スピーカを備えている。
As shown in FIG. 1, in this embodiment, a user terminal 10 and a management server 20 connected to a network are used.
The user terminal 10 is a game processing system (information processing terminal such as a smartphone) used by a user who plays a game. The user terminal 10 includes a control unit including a CPU, RAM, ROM, and the like, a storage unit, a touch panel display, and a speaker.

制御部は、記憶部に格納されたアプリケーションの制御や、タッチパネルディスプレイへの情報出力や入力情報の取得等の制御を行なう。本実施形態では、管理サーバ20から画面データやアイテムファイルを取得し、タッチパネルディスプレイやスピーカを介して出力を行なう。 The control unit controls the application stored in the storage unit, outputs information to the touch panel display, acquires input information, and the like. In the present embodiment, screen data and item files are acquired from the management server 20 and output via the touch panel display and the speaker.

入出力部であるタッチパネルディスプレイは、出力手段及び入力手段として機能する。具体的には、パネル上に情報を出力するとともに、画面に触れる操作(タッチ)、画面から指を離す操作(リリース)等のタッチ状況に応じた各種操作等を行なうことができる。 The touch panel display, which is an input / output unit, functions as an output means and an input means. Specifically, while outputting information on the panel, various operations such as touching the screen (touching) and releasing the finger from the screen (release) can be performed according to the touch status.

管理サーバ20は、ユーザ端末10に対して、ゲームを提供するコンピュータシステムである。この管理サーバ20は、制御部21、ユーザ情報記憶部22、アイテム情報記憶部23を備えている。 The management server 20 is a computer system that provides a game to the user terminal 10. The management server 20 includes a control unit 21, a user information storage unit 22, and an item information storage unit 23.

制御部21は、制御手段(CPU、RAM、ROM等)を備え、後述する処理(ログイン管理段階、ゲーム管理段階、アイテム管理段階、再生管理段階の各処理)を行なう。そのための管理プログラムを実行することにより、制御部21は、図1に示すように、ログイン管理部210、ゲーム管理部211、アイテム管理部212、再生管理部213として機能する。 The control unit 21 includes control means (CPU, RAM, ROM, etc.) and performs processes described later (login management stage, game management stage, item management stage, and playback management stage). By executing the management program for that purpose, the control unit 21 functions as a login management unit 210, a game management unit 211, an item management unit 212, and a playback management unit 213, as shown in FIG.

ログイン管理部210は、ユーザ端末10のアクセスに基づいて、ユーザを認証する処理を実行する。
ゲーム管理部211は、ログインしたユーザのユーザ端末10に対して、ゲーム(例えば、ブラウザゲーム)を提供する処理を実行する。本実施形態では、このゲームでは、ユーザのアバタ(自分の分身となるキャラクタ)を用いて、複数の場面(マイページ画面、レッスン画面等)を利用することができる。ここでは、他のユーザのマイページを訪問することも可能である。また、ゲーム管理部211は、レッスン画面においては、ダンスゲームを提供し、このダンスゲームにおいて、所定のゲームクリア条件の合格判定を行なう。
The login management unit 210 executes a process of authenticating a user based on the access of the user terminal 10.
The game management unit 211 executes a process of providing a game (for example, a browser game) to the user terminal 10 of the logged-in user. In this embodiment, in this game, a plurality of scenes (my page screen, lesson screen, etc.) can be used by using the user's avatar (character that becomes one's alter ego). Here, it is also possible to visit another user's My Page. Further, the game management unit 211 provides a dance game on the lesson screen, and determines whether or not the predetermined game clear condition is passed in this dance game.

アイテム管理部212は、ユーザ端末10に提供する装着アイテムやサウンドを管理する処理を実行する。アイテム管理部212は、ユーザが取得した装着アイテムやサウンドをユーザ情報記憶部22に登録する。本実施形態では、サウンドとしてデジタル音源を用いる。例えば、MP3、WMA、AAC(Advanced Audio Coding)、ATRAC(Adaptive TRansform Acoustic Coding)等のデジタル音源を用いる。
再生管理部213は、ユーザ端末10において、サウンドを出力する処理を実行する。この再生管理部213は、ユーザ情報記憶部22に記録された情報を用いて、サウンドを調整する。この場合、サウンドレイヤの重ね合わせや、音質の調整により、音質や音の厚みを調整する。
The item management unit 212 executes a process of managing the attached items and sounds provided to the user terminal 10. The item management unit 212 registers the worn items and sounds acquired by the user in the user information storage unit 22. In this embodiment, a digital sound source is used as the sound. For example, a digital sound source such as MP3, WMA, AAC (Advanced Audio Coding), ATRAC (Adaptive TRansform Acoustic Coding) is used.
The reproduction management unit 213 executes a process of outputting a sound on the user terminal 10. The reproduction management unit 213 adjusts the sound by using the information recorded in the user information storage unit 22. In this case, the sound quality and the thickness of the sound are adjusted by superimposing the sound layers and adjusting the sound quality.

図2に示すように、ユーザ情報記憶部22には、ユーザ管理データ220が記録される。このユーザ管理データ220は、ユーザ登録が行なわれた場合に記録され、ゲーム状況に応じて更新される。このユーザ管理データ220は、ユーザID、パスワードに関するデータを含む。更に、ユーザIDに関連付けられて、フレンドリスト、ゲームIDに関するデータが記録される。更に、ゲームIDに関連付けられて、ステータス、取得アイテム、アイテム設定に関するデータが記録される。 As shown in FIG. 2, the user management data 220 is recorded in the user information storage unit 22. This user management data 220 is recorded when user registration is performed, and is updated according to the game situation. The user management data 220 includes data related to a user ID and a password. Further, data related to the friend list and the game ID are recorded in association with the user ID. Further, data related to the status, acquired items, and item settings are recorded in association with the game ID.

ユーザIDデータ領域には、各ユーザを特定するための識別子に関するデータが記録される。
パスワードデータ領域には、ログイン時にユーザを認証するためのパスワードに関するデータが記録される。
In the user ID data area, data regarding an identifier for identifying each user is recorded.
In the password data area, data related to the password for authenticating the user at login is recorded.

フレンドリストには、このユーザによって指定された友達(フレンド)を特定するための識別子(ユーザID)に関するデータが記録される。
ゲームIDデータ領域には、このユーザが利用するゲームを特定するための識別子に関するデータが記録される。
In the friend list, data regarding an identifier (user ID) for identifying a friend (friend) designated by this user is recorded.
In the game ID data area, data regarding an identifier for identifying a game used by this user is recorded.

ステータスデータ領域には、このユーザにおけるゲームの進捗状況に関するデータが記録される。ステータスデータ領域には、アバタの所在(場面)や体力等に関するデータを記録する。 In the status data area, data regarding the progress of the game for this user is recorded. In the status data area, data related to the location (scene) and physical strength of the avatar are recorded.

取得アイテムデータ領域には、ユーザが取得したアイテムを特定するための識別子に関するデータが記録される。
アイテム設定データ領域には、取得したアイテムの設定情報に関するデータが記録される。このアイテム設定データ領域には、取得したダンスやサウンドを特定するための識別子(アイテムID)に対して、サウンドの出力条件として、このダンスやサウンドを再生する場面(例えば、マイページ)に関するデータ(場面ID)が記録される。
In the acquired item data area, data regarding an identifier for identifying an item acquired by the user is recorded.
Data related to the acquired item setting information is recorded in the item setting data area. In this item setting data area, data (for example, My Page) related to the scene (for example, My Page) in which this dance or sound is reproduced is used as a sound output condition for the acquired identifier (item ID) for specifying the dance or sound. The scene ID) is recorded.

図3に示すように、アイテム情報記憶部23には、アイテム管理データ230が記録される。このアイテム管理データ230は、ユーザに提供するアイテムが登録された場合に記録される。このアイテム管理データ230は、ゲームID、アイテムID、アイテム管理情報、アイテムファイルを含んで構成される。 As shown in FIG. 3, the item management data 230 is recorded in the item information storage unit 23. This item management data 230 is recorded when an item to be provided to the user is registered. The item management data 230 includes a game ID, an item ID, item management information, and an item file.

ゲームIDデータ領域には、各種アイテムを提供するゲームを特定するための識別子に関するデータが記録される。
アイテムIDデータ領域には、各アイテムを特定するための識別子に関するデータが記録される。
In the game ID data area, data regarding an identifier for identifying a game that provides various items is recorded.
In the item ID data area, data regarding an identifier for identifying each item is recorded.

アイテム管理情報には、提供条件、アイテム属性、アイテム効果、アイテム調整に関するデータが記録される。
提供条件データ領域には、このアイテムをユーザに対して提供するための条件に関するデータが記録される。例えば、アイテム「ダンス」の提供条件としては、「ダンスレッスンを受講し、合格すること」を設定する。また、「ダンス」に関連付けられたサウンドの提供条件としては、「ダンス」の提供条件に加えて、更に「所定のアイテムを装着していたこと」を設定する。
Data related to provision conditions, item attributes, item effects, and item adjustments are recorded in the item management information.
In the provision condition data area, data regarding the condition for providing this item to the user is recorded. For example, as a condition for providing the item "dance", "take and pass a dance lesson" is set. Further, as the condition for providing the sound associated with "dance", in addition to the condition for providing "dance", "that a predetermined item was worn" is set.

アイテム属性データ領域には、このアイテムの種類、名称等に関するデータが記録される。本実施形態では、アイテム属性により、装着アイテムやサウンドの種類を識別する。
アイテム効果データ領域には、アイテム利用時の効果に関するデータが記録される。例えば、アイテム効果として、アイテムを装着したアバタの動作(例えば、ダンスを踊る)がある。また、サウンドを再生した場合のアイテム効果として、アバタの体力の回復スピードアップがある。
Data related to the type, name, etc. of this item is recorded in the item attribute data area. In the present embodiment, the attached item and the type of sound are identified by the item attribute.
In the item effect data area, data related to the effect when the item is used is recorded. For example, as an item effect, there is an action of an avatar wearing an item (for example, dancing a dance). Also, as an item effect when playing a sound, there is a speedup of recovery of avatar's physical strength.

アイテム調整データ領域には、アイテム(ここでは、サウンド)を調整するための情報(サウンド調整情報)が記録される。サウンド調整情報としては、調整条件パラメータに対して調整効果が記録される。調整条件パラメータとしては、装着アイテム、ステータス(例えば、アバタの体力)、フレンド数等を用いる。これらの調整条件パラメータに対する調整効果として、サウンドのテンポ、音階、音質(例えば、周波数特性、歪率、SN比、ダイナミックレンジ)、音源数(例えば、楽器数)、音響チャンネル数(サラウンド効果)等が記録される。本実施形態では、この調整効果により、サウンド内容を調整する。例えば、テンポのアップダウン、曲調の明暗、音質、音の厚み(音源数、チェンネル数)を調整する。ここでは、装着アイテムの強さ、体力量の多さ、フレンド数の多さにより、アップテンポ、明るい曲調、音の厚みを増す方向に調整する。 Information (sound adjustment information) for adjusting an item (here, sound) is recorded in the item adjustment data area. As the sound adjustment information, the adjustment effect is recorded for the adjustment condition parameter. As the adjustment condition parameter, the attached item, the status (for example, the physical strength of the avatar), the number of friends, and the like are used. Adjustment effects for these adjustment condition parameters include sound tempo, scale, sound quality (eg frequency characteristics, distortion factor, signal-to-noise ratio, dynamic range), number of sound sources (eg, number of instruments), number of acoustic channels (surround effect), etc. Is recorded. In the present embodiment, the sound content is adjusted by this adjustment effect. For example, the tempo up / down, the tone of the song, the sound quality, and the thickness of the sound (the number of sound sources, the number of channels) are adjusted. Here, the uptempo, bright tune, and the thickness of the sound are adjusted according to the strength of the attached item, the amount of physical strength, and the number of friends.

アイテムファイルデータ領域には、装着アイテムの画像ファイル、動作(例えば、ダンス)を実行させるための動作ファイル、サウンドを再生するためのサウンドファイルが記録される。このサウンドファイルにおいては、音源やチャンネル毎にサウンドレイヤを構成しておく。これにより、レイヤ数を調整することにより、再生時のサウンドの音源数やチャンネル数を変更することができる。また、高音質のサウンドを記録しておくことにより、再生時のサウンドの音質を変更することができる。 In the item file data area, an image file of the attached item, an action file for executing an action (for example, dance), and a sound file for playing a sound are recorded. In this sound file, a sound layer is configured for each sound source and channel. Thereby, by adjusting the number of layers, the number of sound sources and the number of channels of the sound at the time of reproduction can be changed. Further, by recording a high-quality sound, the sound quality at the time of reproduction can be changed.

次に、管理サーバ20において実行される処理を説明する。ここでは、アイテム提供処理(図4)、サウンド再生処理(図5)の順番に説明する。
(アイテム提供処理)
まず、図4を用いて、ユーザに対してアイテム(サウンド)を提供する処理を説明する。本実施形態では、所定のゲームにおいてレッスンを受講し、レッスンに合格した場合にアイテムを提供する。
Next, the process executed by the management server 20 will be described. Here, the item provision process (FIG. 4) and the sound reproduction process (FIG. 5) will be described in this order.
(Item provision process)
First, a process of providing an item (sound) to a user will be described with reference to FIG. In this embodiment, a lesson is taken in a predetermined game, and an item is provided when the lesson is passed.

まず、管理サーバ20の制御部21は、ログイン処理を実行する(ステップS1-1)。具体的には、ユーザがゲームを利用する場合には、ユーザ端末10を用いて、管理サーバ20にアクセスする。この場合、管理サーバ20の制御部21のログイン管理部210は、ユーザ端末10に認証画面を出力する。そして、ログイン管理部210は、認証画面に入力されたユーザID、パスワードを取得する。取得したユーザID、パスワードがユーザ情報記憶部22に登録されている場合には、ログイン管理部210は、ユーザ認証を完了し、ユーザIDを特定する。 First, the control unit 21 of the management server 20 executes the login process (step S1-1). Specifically, when the user uses the game, the user terminal 10 is used to access the management server 20. In this case, the login management unit 210 of the control unit 21 of the management server 20 outputs an authentication screen to the user terminal 10. Then, the login management unit 210 acquires the user ID and password entered on the authentication screen. When the acquired user ID and password are registered in the user information storage unit 22, the login management unit 210 completes user authentication and identifies the user ID.

次に、管理サーバ20の制御部21は、マイページ出力処理を実行する(ステップS1-2)。この場合、制御部21のゲーム管理部211は、ユーザ端末10のタッチパネルディスプレイに、マイページ画面を出力する。そして、レッスンを受講する場合には、マイページ画面内のレッスン受講アイコンを選択する。この場合、ゲーム管理部211は、ユーザ管理データ220に記録されているアイテムを表示したアイテムリストをタッチパネルディスプレイに出力する。そして、ユーザは、アイテムリストにおいて、レッスン受講に必要なアイテムを選択する。この場合、ゲーム管理部211は、ユーザのアバタにアイテムを装着する。 Next, the control unit 21 of the management server 20 executes the My Page output process (step S1-2). In this case, the game management unit 211 of the control unit 21 outputs the My Page screen to the touch panel display of the user terminal 10. Then, when taking a lesson, select the lesson attendance icon in the My Page screen. In this case, the game management unit 211 outputs an item list displaying the items recorded in the user management data 220 to the touch panel display. Then, the user selects an item necessary for taking the lesson in the item list. In this case, the game management unit 211 attaches the item to the user's avatar.

次に、管理サーバ20の制御部21は、レッスン受講処理を実行する(ステップS1-3)。具体的には、制御部21のゲーム管理部211は、ユーザ端末10のタッチパネルディスプレイに、レッスン画面を出力する。本実施形態では、レッスン画面において、ダンスゲームを行なう。 Next, the control unit 21 of the management server 20 executes the lesson attendance process (step S1-3). Specifically, the game management unit 211 of the control unit 21 outputs a lesson screen to the touch panel display of the user terminal 10. In this embodiment, a dance game is played on the lesson screen.

次に、管理サーバ20の制御部21は、合格かどうかについての判定処理を実行する(ステップS1-4)。具体的には、制御部21のゲーム管理部211は、レッスン画面において、ダンスゲームをクリアした場合には、合格と判定する。 Next, the control unit 21 of the management server 20 executes a determination process as to whether or not it has passed (step S1-4). Specifically, the game management unit 211 of the control unit 21 determines that the dance game has passed when the dance game is cleared on the lesson screen.

ダンスゲームをクリアできず、合格でないと判定した場合(ステップS1-4において「NO」の場合)、管理サーバ20の制御部21は、アイテム提供処理を終了する。
一方、合格と判定した場合(ステップS1-4において「YES」の場合)、管理サーバ20の制御部21は、アイテムの登録処理を実行する(ステップS1-5)。ここでは、提供条件「ダンスレッスンを受講し、合格すること」に対してアイテム「ダンス」を提供する。具体的には、制御部21のアイテム管理部212は、ユーザ管理データ220に「ダンス」のアイテムIDを記録する。
If the dance game cannot be cleared and it is determined that the game has not passed ("NO" in step S1-4), the control unit 21 of the management server 20 ends the item provision process.
On the other hand, if it is determined to pass ("YES" in step S1-4), the control unit 21 of the management server 20 executes the item registration process (step S1-5). Here, the item "dance" is provided for the provision condition "take and pass a dance lesson". Specifically, the item management unit 212 of the control unit 21 records the item ID of "dance" in the user management data 220.

次に、管理サーバ20の制御部21は、サウンド提供条件を満足しているかどうかについての判定処理を実行する(ステップS1-6)。具体的には、制御部21のゲーム管理部211は、レッスン受講時に、アイテム管理データ230の提供条件に記録されているアイテムが装着されていたかどうかを判定する。そして、ゲーム管理部211は、所定のアイテムを装着して、レッスンを受講した場合には、サウンド提供条件を満足していると判定する。 Next, the control unit 21 of the management server 20 executes a determination process as to whether or not the sound provision condition is satisfied (step S1-6). Specifically, the game management unit 211 of the control unit 21 determines whether or not the item recorded in the provision condition of the item management data 230 is attached at the time of taking the lesson. Then, the game management unit 211 determines that the sound provision condition is satisfied when the predetermined item is attached and the lesson is taken.

サウンド提供条件を満足していると判定した場合(ステップS1-6において「YES」の場合)、管理サーバ20の制御部21は、サウンドの登録処理を実行する(ステップS1-7)。具体的には、制御部21のアイテム管理部212は、提供条件に対応するサウンドのアイテムIDを、ユーザ管理データ220に記録する。 When it is determined that the sound provision condition is satisfied (when "YES" in step S1-6), the control unit 21 of the management server 20 executes the sound registration process (step S1-7). Specifically, the item management unit 212 of the control unit 21 records the item ID of the sound corresponding to the provision condition in the user management data 220.

一方、サウンド提供条件を満足していないと判定した場合(ステップS1-6において「NO」の場合)、管理サーバ20の制御部21は、サウンドの登録処理(ステップS1-7)をスキップする。 On the other hand, if it is determined that the sound provision condition is not satisfied ("NO" in step S1-6), the control unit 21 of the management server 20 skips the sound registration process (step S1-7).

次に、管理サーバ20の制御部21は、アイテム設定処理を実行する(ステップS1-8)。具体的には、制御部21のアイテム管理部212は、ユーザ端末10に、アイテム設定画面を出力する。このアイテム設定画面においては、取得したアイテム(ダンス、サウンド)を再生する場面を設定することができる。そして、アイテム管理部212は、アイテム設定画面において指定された場面(例えば、マイページ画面の場面ID)に関するデータを取得する。この場合、制御部21のアイテム管理部212は、取得したアイテムのアイテムIDに関連付けて、アイテム設定データ領域に場面IDを記録する。 Next, the control unit 21 of the management server 20 executes the item setting process (step S1-8). Specifically, the item management unit 212 of the control unit 21 outputs an item setting screen to the user terminal 10. On this item setting screen, you can set the scene to play the acquired item (dance, sound). Then, the item management unit 212 acquires data related to the scene specified on the item setting screen (for example, the scene ID on the My Page screen). In this case, the item management unit 212 of the control unit 21 records the scene ID in the item setting data area in association with the item ID of the acquired item.

次に、図5を用いて、サウンド再生処理を説明する。ここでは、所定の場面においてサウンドを再生する。
(サウンド再生処理)
ここで、まず、管理サーバ20の制御部21は、場面の検知処理を実行する(ステップS2-1)。具体的には、制御部21のゲーム管理部211は、アバタの所在場面(例えば、マイページ画面)の場面IDを特定する。
Next, the sound reproduction process will be described with reference to FIG. Here, the sound is reproduced in a predetermined scene.
(Sound playback processing)
Here, first, the control unit 21 of the management server 20 executes the scene detection process (step S2-1). Specifically, the game management unit 211 of the control unit 21 specifies the scene ID of the avatar's location scene (for example, the My Page screen).

次に、管理サーバ20の制御部21は、サウンド設定があるかどうかについての判定処理を実行する(ステップS2-2)。具体的には、制御部21の再生管理部213は、ユーザ管理データ220において、検知した場面IDに関連付けられたアイテムIDの有無を確認する。ここで、ユーザ管理データ220において、特定した場面IDに関連付けて、サウンドのアイテムIDが記録されている場合には、サウンド設定があると判定する。例えば、マイページ画面の場面IDに対して、アイテム(ダンス、サウンド)のアイテムIDが記録されている場合を想定する。 Next, the control unit 21 of the management server 20 executes a determination process as to whether or not there is a sound setting (step S2-2). Specifically, the reproduction management unit 213 of the control unit 21 confirms the presence / absence of the item ID associated with the detected scene ID in the user management data 220. Here, in the user management data 220, when the item ID of the sound is recorded in association with the specified scene ID, it is determined that there is a sound setting. For example, it is assumed that the item ID of the item (dance, sound) is recorded with respect to the scene ID of the My Page screen.

サウンド設定があると判定した場合(ステップS2-2において「YES」の場合)、管理サーバ20の制御部21は、調整条件パラメータの特定処理を実行する(ステップS2-3)。具体的には、制御部21の再生管理部213は、アイテム情報記憶部23において、この場面IDに関連付けられたアイテムIDが記録されたアイテム管理データ230を抽出する。そして、再生管理部213は、抽出したアイテム管理データ230のアイテム調整データ領域に記録された調整条件パラメータを取得する。次に、再生管理部213は、調整条件パラメータについて、ユーザ管理データ220からパラメータ値を取得し、メモリに仮記憶する。 When it is determined that there is a sound setting (when "YES" in step S2-2), the control unit 21 of the management server 20 executes the adjustment condition parameter specifying process (step S2-3). Specifically, the reproduction management unit 213 of the control unit 21 extracts the item management data 230 in which the item ID associated with this scene ID is recorded in the item information storage unit 23. Then, the reproduction management unit 213 acquires the adjustment condition parameter recorded in the item adjustment data area of the extracted item management data 230. Next, the reproduction management unit 213 acquires the parameter value from the user management data 220 for the adjustment condition parameter and temporarily stores it in the memory.

次に、管理サーバ20の制御部21は、サウンド調整処理を実行する(ステップS2-4)。具体的には、制御部21の再生管理部213は、アイテム管理データ230を用いて、ユーザ管理データ220から取得したパラメータ値に対応する調整効果を特定する。そして、再生管理部213は、調整効果に応じて、アイテムファイルのサウンドを調整する。 Next, the control unit 21 of the management server 20 executes the sound adjustment process (step S2-4). Specifically, the reproduction management unit 213 of the control unit 21 uses the item management data 230 to specify the adjustment effect corresponding to the parameter value acquired from the user management data 220. Then, the reproduction management unit 213 adjusts the sound of the item file according to the adjustment effect.

次に、管理サーバ20の制御部21は、サウンドの提供処理を実行する(ステップS2-5)。具体的には、制御部21の再生管理部213は、調整されたアイテムファイルをユーザ端末10に提供する。 Next, the control unit 21 of the management server 20 executes the sound providing process (step S2-5). Specifically, the reproduction management unit 213 of the control unit 21 provides the adjusted item file to the user terminal 10.

なお、サウンド設定がないと判定した場合(ステップS2-2において「NO」の場合)、管理サーバ20の制御部21は、調整条件パラメータの特定処理(ステップS2-3)~サウンドの提供処理(ステップS2-5)をスキップする。 If it is determined that there is no sound setting (in the case of "NO" in step S2-2), the control unit 21 of the management server 20 performs the adjustment condition parameter specification process (step S2-3) to the sound provision process (step S2-3). Step S2-5) is skipped.

次に、管理サーバ20の制御部21は、画面出力処理を実行する(ステップS2-6)。具体的には、制御部21のゲーム管理部211は、ユーザ端末10のタッチパネルディスプレイに、指定された場面の画面(マイページ画面)を出力する。この場合、ユーザ端末10は、管理サーバ20から取得したアイテムファイルを再生する。例えば、ダンスの動作ファイルにより、アバタをダンスさせる。また、サウンドファイルを取得した場合には、ユーザ端末10は、ダンスに合わせてサウンドを出力する。 Next, the control unit 21 of the management server 20 executes the screen output process (step S2-6). Specifically, the game management unit 211 of the control unit 21 outputs a screen (my page screen) of a designated scene to the touch panel display of the user terminal 10. In this case, the user terminal 10 reproduces the item file acquired from the management server 20. For example, the dance action file makes the avatar dance. Further, when the sound file is acquired, the user terminal 10 outputs the sound in accordance with the dance.

本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態では、管理サーバ20の制御部21は、レッスン受講処理を実行する(ステップS1-3)。そして、レッスン受講において合格と判定し、サウンド提供条件を満足していると判定した場合(ステップS1-6において「YES」の場合)、管理サーバ20の制御部21は、サウンドの登録処理を実行する(ステップS1-7)。これにより、アイテムとしてのサウンドを取得することができる。
According to this embodiment, the following effects can be obtained.
(1) In the present embodiment, the control unit 21 of the management server 20 executes the lesson attendance process (step S1-3). Then, when it is determined that the lesson has passed and the sound provision condition is satisfied (when "YES" in step S1-6), the control unit 21 of the management server 20 executes the sound registration process. (Step S1-7). This makes it possible to acquire the sound as an item.

(2)本実施形態では、管理サーバ20の制御部21は、アイテム設定処理を実行する(ステップS1-8)。これにより、取得したサウンドを、ユーザが希望する場面で再生することができる。 (2) In the present embodiment, the control unit 21 of the management server 20 executes the item setting process (step S1-8). As a result, the acquired sound can be reproduced in the scene desired by the user.

(3)本実施形態では、サウンド再生処理においてサウンド設定があると判定した場合(ステップS2-2において「YES」の場合)、管理サーバ20の制御部21は、調整条件パラメータの特定処理を実行する(ステップS2-3)。これにより、ユーザ情報に基づいて、再生するサウンドを変更することができる。 (3) In the present embodiment, when it is determined that there is a sound setting in the sound reproduction process (when “YES” in step S2-2), the control unit 21 of the management server 20 executes the process of specifying the adjustment condition parameter. (Step S2-3). This makes it possible to change the sound to be played based on the user information.

〔第2の実施形態〕
次に、図6に従って、本発明を具体化したゲーム処理システムの第2の実施形態を説明する。なお、第2の実施形態は、第1の実施形態のサウンド再生処理を変更したのみの構成であるため、同様の部分についてはその詳細な説明を省略する。
[Second Embodiment]
Next, a second embodiment of the game processing system that embodies the present invention will be described with reference to FIG. Since the second embodiment is configured only by changing the sound reproduction process of the first embodiment, detailed description thereof will be omitted for the same part.

上記第1の実施形態では、サウンド再生処理においては、サウンドの提供前に調整されたサウンドを再生するが、本実施形態では、サウンド再生時に、状況に応じて動的にサウンドを調整する。
図6を用いて、このサウンド再生処理を説明する。このサウンド再生処理は、第1の実施形態のサウンド再生処理に引き続いて行われる。
In the first embodiment, in the sound reproduction process, the sound adjusted before the sound is provided is reproduced, but in the present embodiment, the sound is dynamically adjusted according to the situation at the time of sound reproduction.
This sound reproduction process will be described with reference to FIG. This sound reproduction process is performed following the sound reproduction process of the first embodiment.

(サウンド再生処理)
ここでは、管理サーバ20の制御部21は、ステップS2-3と同様に、調整条件パラメータの特定処理を実行する(ステップS3-1)。
(Sound playback processing)
Here, the control unit 21 of the management server 20 executes the adjustment condition parameter specifying process in the same manner as in step S2-3 (step S3-1).

次に、管理サーバ20の制御部21は、状態が変化したかどうかについての判定処理を実行する(ステップS3-2)。具体的には、制御部21の再生管理部213は、新たに取得した調整条件パラメータのパラメータ値と、メモリに記録されたパラメータ値とを比較する。パラメータ値が一致している場合には、状態変化がないと判定する。 Next, the control unit 21 of the management server 20 executes a determination process as to whether or not the state has changed (step S3-2). Specifically, the reproduction management unit 213 of the control unit 21 compares the parameter value of the newly acquired adjustment condition parameter with the parameter value recorded in the memory. If the parameter values match, it is determined that there is no state change.

状態が変化していないと判定した場合(ステップS3-2において「NO」の場合)、管理サーバ20の制御部21は、調整条件パラメータの特定処理(ステップS3-1)に戻る。 When it is determined that the state has not changed (when "NO" in step S3-2), the control unit 21 of the management server 20 returns to the adjustment condition parameter specifying process (step S3-1).

一方、新たに取得した調整条件パラメータのパラメータ値と、メモリに記録されたパラメータ値とが異なり、状態変化したと判定した場合(ステップS3-2において「YES」の場合)、管理サーバ20の制御部21は、ステップS2-4と同様に、サウンド調整処理を実行する(ステップS3-3)。
そして、管理サーバ20の制御部21は、ステップS2-5と同様に、サウンドの提供処理を実行する(ステップS3-4)。
On the other hand, when it is determined that the newly acquired parameter value of the adjustment condition parameter and the parameter value recorded in the memory are different and the state has changed (when "YES" in step S3-2), the control of the management server 20 is performed. The unit 21 executes the sound adjustment process in the same manner as in step S2-4 (step S3-3).
Then, the control unit 21 of the management server 20 executes the sound providing process in the same manner as in step S2-5 (step S3-4).

本実施形態によれば、上記(1)~(3)の効果に加えて、以下のような効果を得ることができる。
(4)本実施形態では、状態が変化したと判定した場合(ステップS3-2において「YES」の場合)、管理サーバ20の制御部21は、ステップS2-4と同様に、サウンド調整処理を実行する(ステップS3-3)。これにより、ユーザは、状態変化をサウンドにより把握することができる。
According to the present embodiment, in addition to the above-mentioned effects (1) to (3), the following effects can be obtained.
(4) In the present embodiment, when it is determined that the state has changed (when “YES” in step S3-2), the control unit 21 of the management server 20 performs the sound adjustment process in the same manner as in step S2-4. Execute (step S3-3). As a result, the user can grasp the state change by the sound.

なお、上記実施形態は以下のように変更してもよい。
・上記各実施形態では、サウンド再生処理において、管理サーバ20の制御部21は、調整条件パラメータの特定処理を実行する(ステップS2-3,S3-1)。ここでは、アイテム管理データ230のアイテム調整データ領域に記録された調整条件パラメータについて、ユーザ管理データ220からパラメータ値を取得する。このパラメータ値の取得元はユーザ管理データ220に限定されるものではない。例えば、サウンドの出力条件としてイベント参加を用い、ユーザが参加するイベント状況に応じて、サウンドを調整するようにしてもよい。この場合には、管理サーバ20の制御部21のゲーム管理部211は、複数のユーザが参加するソーシャルネットワークゲームにおいてイベントを開催し、このイベントにおいてグループ(ギルド)で参加するユーザを管理する。この場合、参加ユーザのユーザ情報を用いて、サウンド調整処理を行なう。
The above embodiment may be changed as follows.
-In each of the above embodiments, in the sound reproduction process, the control unit 21 of the management server 20 executes the adjustment condition parameter specifying process (steps S2-3 and S3-1). Here, the parameter values of the adjustment condition parameters recorded in the item adjustment data area of the item management data 230 are acquired from the user management data 220. The acquisition source of this parameter value is not limited to the user management data 220. For example, event participation may be used as a sound output condition, and the sound may be adjusted according to the event situation in which the user participates. In this case, the game management unit 211 of the control unit 21 of the management server 20 holds an event in a social network game in which a plurality of users participate, and manages the users who participate in the group (guild) in this event. In this case, the sound adjustment process is performed using the user information of the participating users.

(サウンド調整処理)
図7を用いて、サウンド調整処理を説明する。ここでは、サウンドに関するアイテムを取得しているユーザがイベントに参加する場合を想定する。例えば、サウンドとしては、雄叫び、拍手、歓声、応援、ざわめきを用いる。
(Sound adjustment processing)
The sound adjustment process will be described with reference to FIG. 7. Here, it is assumed that a user who has acquired an item related to sound participates in the event. For example, as the sound, screaming, applause, cheering, cheering, and buzzing are used.

ここでは、まず、管理サーバ20の制御部21は、参加人数の特定処理を実行する(ステップS4-1)。具体的には、制御部21の再生管理部213は、ゲーム管理部211から、イベントに参加しているユーザの参加人数を算出する。 Here, first, the control unit 21 of the management server 20 executes the process of specifying the number of participants (step S4-1). Specifically, the reproduction management unit 213 of the control unit 21 calculates the number of participants of the users participating in the event from the game management unit 211.

次に、管理サーバ20の制御部21は、参加者の属性の特定処理を実行する(ステップS4-2)。具体的には、制御部21の再生管理部213は、このイベントに参加しているすべてのユーザのユーザ管理データ220においてユーザ情報を取得する。例えば、ユーザ情報として、各ユーザのユーザ管理データ220に記録されているステータス(体力情報)を取得する。 Next, the control unit 21 of the management server 20 executes the process of specifying the attributes of the participants (step S4-2). Specifically, the reproduction management unit 213 of the control unit 21 acquires user information in the user management data 220 of all the users participating in this event. For example, as user information, the status (physical strength information) recorded in the user management data 220 of each user is acquired.

次に、管理サーバ20の制御部21は、参加人数、属性に基づいて、サウンド調整処理を実行する(ステップS4-3)。具体的には、制御部21の再生管理部213は、参加人数に応じて、サウンドの多重度(音源数)を決定する。更に、再生管理部213は、各参加ユーザの体力情報を用いて、それぞれの参加ユーザに割り当てた音源についてのサウンドの音量を決定する。そして、再生管理部213は、決定した多重度、音量に基づいて調整したサウンドファイルをユーザ端末10に提供する。
これにより、イベントにおいて参加ユーザが多いグループ(ギルド)の集合場所で流れるサウンドは音の厚みが増し、場の雰囲気を高めることができる。
Next, the control unit 21 of the management server 20 executes the sound adjustment process based on the number of participants and the attributes (step S4-3). Specifically, the reproduction management unit 213 of the control unit 21 determines the multiplicity of sounds (the number of sound sources) according to the number of participants. Further, the reproduction management unit 213 determines the volume of the sound for the sound source assigned to each participating user by using the physical strength information of each participating user. Then, the reproduction management unit 213 provides the user terminal 10 with a sound file adjusted based on the determined multiplicity and volume.
As a result, the sound played at the meeting place of a group (guild) with many participating users at the event becomes thicker and the atmosphere of the place can be enhanced.

・上記各実施形態では、サウンド再生処理において、管理サーバ20の制御部21は、調整条件パラメータの特定処理を実行する(ステップS2-3,S3-1)。ここで、他のユーザとの関係に基づいて、サウンドを調整するようにしてもよい。例えば、サウンドの出力条件としてマイページへの入室を用い、所定のユーザ(訪問者ユーザ)が他のユーザ(訪問先ユーザ)の部屋に入室した場合を想定する。この場合、訪問者ユーザのユーザ情報と訪問先ユーザのユーザ情報とを用いて、サウンド調整処理を行なう。 -In each of the above embodiments, in the sound reproduction process, the control unit 21 of the management server 20 executes the adjustment condition parameter specifying process (steps S2-3 and S3-1). Here, the sound may be adjusted based on the relationship with other users. For example, it is assumed that a predetermined user (visitor user) enters a room of another user (visited user) by using entry to My Page as a sound output condition. In this case, the sound adjustment process is performed using the user information of the visiting user and the user information of the visiting user.

(サウンド調整処理)
図8を用いて、サウンド調整処理を説明する。
ここでは、まず、管理サーバ20の制御部21は、サウンド設定があるかどうかについての判定処理を実行する(ステップS5-1)。具体的には、制御部21の再生管理部213は、訪問先ユーザのユーザ管理データ220において、サウンド設定が記録されているかどうかを確認する。
(Sound adjustment processing)
The sound adjustment process will be described with reference to FIG.
Here, first, the control unit 21 of the management server 20 executes a determination process as to whether or not there is a sound setting (step S5-1). Specifically, the reproduction management unit 213 of the control unit 21 confirms whether or not the sound setting is recorded in the user management data 220 of the visited user.

サウンド設定がないと判定した場合(ステップS5-1において「NO」の場合)、管理サーバ20の制御部21は、サウンド調整処理を終了する。
一方、サウンド設定があると判定した場合(ステップS5-1において「YES」の場合)、管理サーバ20の制御部21は、共通性があるかどうかについての判定処理を実行する(ステップS5-2)。具体的には、制御部21の再生管理部213は、訪問者ユーザのユーザ管理データ220に含まれる各項目と、訪問先ユーザのユーザ管理データ220に含まれる各項目とを比較する。項目としては、取得アイテム、フレンドリストを用いることができる。そして、両ユーザのユーザ管理データ220において、共通する項目を特定する。
When it is determined that there is no sound setting (when "NO" in step S5-1), the control unit 21 of the management server 20 ends the sound adjustment process.
On the other hand, when it is determined that there is a sound setting (when "YES" in step S5-1), the control unit 21 of the management server 20 executes a determination process as to whether or not there is commonality (step S5-2). ). Specifically, the reproduction management unit 213 of the control unit 21 compares each item included in the user management data 220 of the visitor user with each item included in the user management data 220 of the visited user. As the item, the acquired item and the friend list can be used. Then, a common item is specified in the user management data 220 of both users.

共通性があると判定した場合(ステップS5-3において「YES」の場合)、管理サーバ20の制御部21は、共通性に基づいてサウンド調整処理を実行する(ステップS5-4)。具体的には、制御部21の再生管理部213は、両ユーザのユーザ管理データ220において、共通する項目に基づいて、訪問先ユーザにおいてサウンド設定されたサウンドの調整を行なう。例えば、共通項目数が基準数以上の場合には、音質や音源数を上げて、音質や音の厚みを向上させる。更に、コーラスが設定されている場合には、歌唱数を増やすようにしてもよい。また、各ユーザが取得しているサウンドに応じて、音階を調整するようにしてもよい。 When it is determined that there is commonality (when "YES" in step S5-3), the control unit 21 of the management server 20 executes the sound adjustment process based on the commonality (step S5-4). Specifically, the reproduction management unit 213 of the control unit 21 adjusts the sound set by the visiting user based on the common items in the user management data 220 of both users. For example, when the number of common items is equal to or greater than the standard number, the sound quality and the number of sound sources are increased to improve the sound quality and the thickness of the sound. Further, if a chorus is set, the number of singing may be increased. Further, the scale may be adjusted according to the sound acquired by each user.

一方、共通性がないと判定した場合(ステップS5-3において「NO」の場合)、管理サーバ20の制御部21は、デフォルト設定処理を実行する(ステップS5-5)。具体的には、制御部21の再生管理部213は、訪問先ユーザのユーザ管理データ220においてサウンド設定されているサウンドをユーザ端末10に提供する。
これにより、ユーザ間の相性に基づいて、サウンドを調整して、ユーザの興趣を高めることができる。
On the other hand, when it is determined that there is no commonality (when "NO" in step S5-3), the control unit 21 of the management server 20 executes the default setting process (step S5-5). Specifically, the reproduction management unit 213 of the control unit 21 provides the user terminal 10 with the sound set as the sound in the user management data 220 of the visited user.
As a result, the sound can be adjusted based on the compatibility between the users to enhance the user's interest.

・上記各実施形態では、サウンド提供処理において、管理サーバ20の制御部21は、レッスン受講処理(ステップS1-3)において合格し、サウンド提供条件を満足していると判定した場合(ステップS1-6において「YES」の場合)、サウンドの登録処理を実行する(ステップS1-7)。ここで、サウンドの提供条件として、サウンドに関するクイズを提供するようにしてもよい。この場合には、管理サーバ20の制御部21は、レッスン受講処理(ステップS1-3)の代わりに、或いはレッスン受講処理に加えて、クイズ処理を実行する。具体的には、制御部21のアイテム管理部212は、アイテム情報記憶部23に記録されたサウンドに基づいたクイズを生成する。例えば、再生速度や音階を変更したサウンドファイルを生成する。また、特定の音階を抜き出したサウンドファイルを生成するようにしてもよい。そして、アイテム管理部212は、生成したサウンドファイルをユーザ端末10に提供する。 -In each of the above embodiments, in the sound providing process, the control unit 21 of the management server 20 passes the lesson attendance process (step S1-3) and determines that the sound providing condition is satisfied (step S1-). (In the case of "YES" in 6), the sound registration process is executed (step S1-7). Here, as a condition for providing the sound, a quiz about the sound may be provided. In this case, the control unit 21 of the management server 20 executes the quiz process instead of the lesson attendance process (step S1-3) or in addition to the lesson attendance process. Specifically, the item management unit 212 of the control unit 21 generates a quiz based on the sound recorded in the item information storage unit 23. For example, generate a sound file with a changed playback speed or scale. Further, a sound file obtained by extracting a specific scale may be generated. Then, the item management unit 212 provides the generated sound file to the user terminal 10.

更に、アイテム管理部212は、ユーザ端末10においてサウンドファイルを再生するとともに、生成したアイテムファイルに関するクイズ画面(例えば、名称に関する質問)をタッチパネルディスプレイに出力する。ユーザは、タッチパネルディスプレイに出力されたクイズの回答を入力する。アイテム管理部212は、ユーザ端末10のクイズ画面に入力された回答を取得し、正解と判定した場合、サウンドの登録処理を実行する(ステップS1-7)。 Further, the item management unit 212 plays the sound file on the user terminal 10 and outputs a quiz screen (for example, a question about the name) regarding the generated item file to the touch panel display. The user inputs the answer to the quiz output on the touch panel display. The item management unit 212 acquires the answer input to the quiz screen of the user terminal 10, and if it is determined to be the correct answer, executes the sound registration process (step S1-7).

・上記第1の実施形態では、管理サーバ20の制御部21は、サウンドの提供処理を実行する(ステップS2-5)。ここで、サウンドを出力する場合には、そのサウンドの属性情報(アイテムの名称)や取得方法(提供条件)に関する情報を出力するようにしてもよい。 -In the first embodiment, the control unit 21 of the management server 20 executes a sound providing process (step S2-5). Here, when outputting a sound, information regarding the attribute information (item name) and acquisition method (providing condition) of the sound may be output.

・上記各実施形態では、管理サーバ20の制御部21は、画面出力処理を実行する(ステップS2-6)。この場面において、サウンドを再生する。ここで、設定しているサウンドに対応させてアバタのステータスを変動させても良い。例えば、アップテンポの曲を設定しておくと体力の回復を早くする。この場合には、再生管理部213に、サウンドを構成する音要素(テンポ、音階、曲調)に対応したアイテム効果を記録した効果テーブルを保持させておく。そして、再生管理部213は、再生されたサウンドの音要素を算出し、効果テーブルを用いて、音要素に対応したアイテム効果をアバタに適用する。 -In each of the above embodiments, the control unit 21 of the management server 20 executes the screen output process (step S2-6). Play the sound in this scene. Here, the avatar status may be changed according to the set sound. For example, setting an up-tempo song will speed up the recovery of physical strength. In this case, the reproduction management unit 213 holds an effect table in which the item effects corresponding to the sound elements (tempo, scale, tune) constituting the sound are recorded. Then, the reproduction management unit 213 calculates the sound element of the reproduced sound, and applies the item effect corresponding to the sound element to the avatar using the effect table.

・上記各実施形態では、サウンド再生処理において、管理サーバ20の制御部21は、調整条件パラメータの特定処理を実行する(ステップS2-3,S3-1)。ここで、アバタが装着しているアイテムの種類や数によって、サウンドを調整するようにしてもよい。この場合には、装着しているアイテムの種類が和風のものが多ければ和風の曲が流れたり、装着しているアイテムの数によって重奏にしたりする。 -In each of the above embodiments, in the sound reproduction process, the control unit 21 of the management server 20 executes the adjustment condition parameter specifying process (steps S2-3 and S3-1). Here, the sound may be adjusted according to the type and number of items worn by the avatar. In this case, if there are many Japanese-style items that are worn, a Japanese-style song will be played, or a duo will be played depending on the number of items that are worn.

・上記各実施形態では、ユーザ端末10及び管理サーバ20を用いて、ゲーム処理方法を実現した。ゲーム処理方法を実現するためのハードウェア構成は、サーバ・クライアント方式に限定されるものではない。例えば、ユーザ端末に格納されたアプリケーションにより、ゲーム処理方法を実現してもよい。この場合には、制御部21の各手段を、ユーザ端末10の制御部に設ける。ユーザ端末10の制御部は、ユーザの操作により、ユーザ端末10に格納されたサウンドの提供可否を判定し、このサウンドの出力条件をメモリに記録する。そして、出力条件を満足した場合、ユーザ端末10は、出力条件に対応したサウンドを再生する。 -In each of the above embodiments, the game processing method is realized by using the user terminal 10 and the management server 20. The hardware configuration for realizing the game processing method is not limited to the server / client method. For example, a game processing method may be realized by an application stored in a user terminal. In this case, each means of the control unit 21 is provided in the control unit of the user terminal 10. The control unit of the user terminal 10 determines whether or not the sound stored in the user terminal 10 can be provided by the user's operation, and records the output condition of the sound in the memory. Then, when the output condition is satisfied, the user terminal 10 reproduces the sound corresponding to the output condition.

次に、上記実施形態及び別例から把握できる技術的思想について、以下に追記する。
〔1〕記憶部と、サウンドの再生を管理する制御部とディスプレイとを用いて、ゲームを制御するためのプログラムであって、前記記憶部には、ゲームを利用するユーザのユーザ管理情報が記憶され、前記制御部を、前記ゲームを利用するユーザ毎に対応付けられたユーザ用の画面をユーザが用いる装置のディスプレイに出力し、サウンドの提供条件を満足した場合には、当該ユーザの前記ユーザ管理情報に関連付けて、前記提供条件に対応するサウンドのサウンドファイル及び動作ファイルを記録し、サウンドの出力条件を満足した場合、ユーザのゲーム内の状況に基づいて調整した前記サウンド、及び前記動作ファイルを前記ユーザが用いる装置で再生させることを特徴とするゲーム処理プログラム。
〔2〕前記記憶部にサウンドの調整条件が記憶され、前記サウンドの再生時に前記サウンドの調整条件が変化した場合、前記変化したサウンド調整条件に基づいて前記サウンドを調整して再生させる請求項1に記載のゲーム処理プログラム。
〔3〕前記ユーザのユーザ管理情報には、ゲーム内の状況に応じて変化するサウンドの調整条件パラメータが含まれ、前記ユーザが用いる装置でサウンドのサウンドファイル及び前記動作ファイルを再生させる場合、前記調整条件パラメータに基づいて、前記サウンドを調整する請求項2に記載のゲーム処理プログラム。
〔4〕前記再生されるサウンドに対応させて、前記ユーザに関連付けられたパラメータを変化させる請求項1又は2に記載のゲーム処理プログラム。
〔5〕前記ユーザが用いる装置で前記サウンドファイルを再生させる場合、当該サウンドファイルの属性情報を前記ディスプレイに識別可能に出力することを特徴とする請求項1~4のいずれか1項に記載のゲーム処理プログラム。
〔6〕前記記憶部には、ゲームを利用するユーザの情報であって当該ユーザが属するグループを識別可能としたユーザ管理情報が記憶され、
前記制御部が、前記グループに属するユーザの人数に基づいてサウンドの多重度を変更する調整を行ない、前記サウンドの出力条件を満足した場合、調整されたサウンド、及び前記動作ファイルを当該ユーザが用いる装置で再生させる請求項1~5のいずれか1項に記載のゲーム処理プログラム。
〔7〕記憶部と、サウンドの再生を管理する制御部とディスプレイとを用いて、ゲームを制御するための方法であって、前記記憶部には、ゲームを利用するユーザのユーザ管理情報が記憶され、前記制御部が、前記ゲームを利用するユーザ毎に対応付けられたユーザ用の画面をユーザが用いる装置のディスプレイに出力し、サウンドの提供条件を満足した場合には、当該ユーザの前記ユーザ管理情報に関連付けて、前記提供条件に対応するサウンドのサウンドファイル及び動作ファイルを記録し、サウンドの出力条件を満足した場合、ユーザのゲーム内の状況に基づいて調整した前記サウンド、及び前記動作ファイルを前記ユーザが用いる装置で再生させることを特徴とするゲーム処理方法。
〔8〕サウンドの再生を管理する制御部及びディスプレイを有し、ゲームを制御するゲーム処理装置であって、前記制御部が、前記ゲームを利用するユーザ毎に対応付けられたユーザ用の画面を前記ディスプレイに出力し、サウンドの提供条件を満足した場合には、当該ユーザのユーザ管理情報に関連付けて、前記提供条件に対応するサウンドのサウンドファイル及び動作ファイルを記憶部に記録し、サウンドの出力条件を満足した場合、ユーザのゲーム内の状況に基づいて調整した前記サウンド、及び前記動作ファイルを再生させることを特徴とするゲーム処理装置。
Next, the technical ideas that can be grasped from the above embodiment and other examples will be added below.
[1] A program for controlling a game by using a storage unit, a control unit for managing sound reproduction, and a display, and the storage unit stores user management information of a user who uses the game. Then, the control unit outputs a screen for the user associated with each user who uses the game to the display of the device used by the user, and when the condition for providing the sound is satisfied, the user of the user. The sound file and the operation file of the sound corresponding to the provision condition are recorded in association with the management information, and when the output condition of the sound is satisfied, the sound and the operation file adjusted based on the situation in the user's game are recorded. A game processing program characterized by playing the above on a device used by the user.
[2] Claim 1 in which a sound adjustment condition is stored in the storage unit, and when the sound adjustment condition changes during reproduction of the sound, the sound is adjusted and reproduced based on the changed sound adjustment condition. The game processing program described in.
[3] The user management information of the user includes sound adjustment condition parameters that change according to the situation in the game, and when the device used by the user reproduces the sound sound file and the operation file, the above-mentioned The game processing program according to claim 2, wherein the sound is adjusted based on the adjustment condition parameter.
[4] The game processing program according to claim 1 or 2, wherein the parameters associated with the user are changed according to the sound to be played.
[5] The device according to any one of claims 1 to 4, wherein when the device used by the user plays the sound file, the attribute information of the sound file is identifiablely output to the display. Game processing program.
[6] In the storage unit, user management information that is information on a user who uses the game and can identify the group to which the user belongs is stored.
When the control unit makes an adjustment to change the multiplicity of sounds based on the number of users belonging to the group and satisfies the output conditions of the sound, the adjusted sound and the operation file are used by the user. The game processing program according to any one of claims 1 to 5, which is reproduced by the device.
[7] A method for controlling a game by using a storage unit, a control unit for managing sound reproduction, and a display, and the storage unit stores user management information of a user who uses the game. Then, when the control unit outputs a screen for the user associated with each user who uses the game to the display of the device used by the user and satisfies the condition for providing the sound, the user of the user. The sound file and the operation file of the sound corresponding to the provision condition are recorded in association with the management information, and when the output condition of the sound is satisfied, the sound and the operation file adjusted based on the situation in the user's game are recorded. A game processing method, characterized in that is reproduced on a device used by the user.
[8] A game processing device having a control unit and a display for managing sound reproduction and controlling a game, wherein the control unit displays a screen for a user associated with each user who uses the game. When the game is output to the display and the sound provision conditions are satisfied, the sound file and the operation file of the sound corresponding to the provision conditions are recorded in the storage unit in association with the user management information of the user, and the sound is output. A game processing device, characterized in that, when the conditions are satisfied, the sound adjusted based on the situation in the game of the user and the operation file are reproduced.

10…ユーザ端末、20…管理サーバ、21…制御部、210…ログイン管理部、211…ゲーム管理部、212…アイテム管理部、213…再生管理部、22…ユーザ情報記憶部、23…アイテム情報記憶部。 10 ... user terminal, 20 ... management server, 21 ... control unit, 210 ... login management unit, 211 ... game management unit, 212 ... item management unit, 213 ... playback management unit, 22 ... user information storage unit, 23 ... item information Memory.

Claims (5)

記憶部と、サウンドの再生を管理する制御部とを用いて、アプリケーションを制御するためのプログラムであって、
前記制御部に、
サウンドの提供条件を満足した場合には、ユーザに関連付けて、前記提供条件に対応するサウンドのサウンドファイルを前記記憶部に記録するステップと、
前記サウンドを再生する場面を設定する画面において前記ユーザの操作を受け付けて、前記サウンドファイルと前記ユーザに指定された前記場面とを関連付けて前記記憶部に記憶するステップと、
前記ユーザに関連付けられたユーザ画面を他のユーザが視聴する場合には、当該ユーザ画面にサウンドが関連付けられているか否かを判定するステップと、
前記ユーザ画面にサウンドが関連付けられている場合には、当該サウンドを前記他のユーザが用いる装置で再生させるステップと、
再生される前記サウンドの特性に応じて異なる効果が記録された効果情報を用いて、前記再生されるサウンドに対応させて前記ユーザに関連付けられたパラメータを変化させるステップと、を実行させる
アプリケーション制御プログラム。
A program for controlling an application using a storage unit and a control unit that manages sound reproduction.
In the control unit
When the sound provision conditions are satisfied, a step of recording a sound file of the sound corresponding to the provision conditions in the storage unit in association with the user, and
A step of accepting an operation of the user on a screen for setting a scene for reproducing the sound, associating the sound file with the scene designated by the user, and storing the sound in the storage unit.
When another user views the user screen associated with the user, the step of determining whether or not the sound is associated with the user screen and the step.
If a sound is associated with the user screen, the step of playing the sound on the device used by the other user, and
An application control program that executes a step of changing parameters associated with the user according to the sound to be played , using effect information in which different effects are recorded according to the characteristics of the sound to be played. ..
前記ユーザ画面に対する入力操作に応じて、前記ユーザに関連付けられたアイテムのリストを表示するステップと、
前記リストに含まれるアイテムの選択を受け付けるステップと、
前記選択されたアイテムを、前記リスト以外の前記ユーザ画面に表示するステップと、を前記制御部にさらに実行させる
請求項1に記載のアプリケーション制御プログラム。
A step of displaying a list of items associated with the user in response to an input operation on the user screen.
A step that accepts the selection of items included in the list, and
The application control program according to claim 1, wherein the control unit further executes a step of displaying the selected item on the user screen other than the list.
前記ユーザ及び前記ユーザ画面を視聴する他のユーザの関係に基づいて、サウンドを調整するステップを前記制御部にさらに実行させる
請求項1又は2に記載のアプリケーション制御プログラム。
The application control program according to claim 1 or 2, wherein the control unit further executes a step of adjusting the sound based on the relationship between the user and another user who views the user screen.
アプリケーションを制御するためのシステムであって、
サウンドの提供条件を満足した場合には、ユーザに関連付けて、前記提供条件に対応するサウンドのサウンドファイルを記憶部に記録するサウンドファイル記録部と、
前記サウンドを再生する場面を設定する画面において前記ユーザの操作を受け付けて、前記サウンドファイルと前記ユーザに指定された前記場面とを関連付けて前記記憶部に記憶する場面設定部と、
前記ユーザに関連付けられたユーザ画面を他のユーザが視聴する場合には、当該ユーザ画面にサウンドが関連付けられているか否かを判定する判定部と、
前記ユーザ画面にサウンドが関連付けられている場合には、当該サウンドを前記他のユーザが用いる装置で再生させるサウンド再生制御部と、
再生される前記サウンドの特性に応じて異なる効果が記録された効果情報を用いて、前記再生されるサウンドに対応させて前記ユーザに関連付けられたパラメータを変化させるパラメータ変化部と、を備える
アプリケーション制御システム。
A system for controlling applications
When the sound provision conditions are satisfied, a sound file recording unit that records the sound file of the sound corresponding to the provision conditions in the storage unit in association with the user, and
A scene setting unit that accepts an operation of the user on a screen for setting a scene for reproducing the sound, associates the sound file with the scene designated by the user, and stores the scene in the storage unit.
When another user views the user screen associated with the user, a determination unit for determining whether or not a sound is associated with the user screen, and a determination unit.
When a sound is associated with the user screen, a sound reproduction control unit that reproduces the sound on a device used by the other user, and a sound reproduction control unit.
An application control including a parameter change unit that changes a parameter associated with the user according to the sound to be played, using effect information in which different effects are recorded according to the characteristics of the sound to be played. system.
記憶部と、サウンドの再生を管理する制御部とを用いて、アプリケーションを制御するための方法であって、
前記制御部が、
サウンドの提供条件を満足した場合には、ユーザに関連付けて、前記提供条件に対応するサウンドのサウンドファイルを前記記憶部に記録するステップと、
前記サウンドを再生する場面を設定する画面において前記ユーザの操作を受け付けて、前記サウンドファイルと前記ユーザに指定された前記場面とを関連付けて前記記憶部に記憶するステップと、
前記ユーザに関連付けられたユーザ画面を他のユーザが視聴する場合には、当該ユーザ画面にサウンドが関連付けられているか否かを判定するステップと、
前記ユーザ画面にサウンドが関連付けられている場合には、当該サウンドを前記他のユーザが用いる装置で再生させるステップと、
再生される前記サウンドの特性に応じて異なる効果が記録された効果情報を用いて、前記再生されるサウンドに対応させて前記ユーザに関連付けられたパラメータを変化させるステップと、を実行する
アプリケーション制御方法。
A method for controlling an application using a storage unit and a control unit that manages sound reproduction.
The control unit
When the sound provision conditions are satisfied, a step of recording a sound file of the sound corresponding to the provision conditions in the storage unit in association with the user, and
A step of accepting an operation of the user on a screen for setting a scene for reproducing the sound, associating the sound file with the scene designated by the user, and storing the sound in the storage unit.
When another user views the user screen associated with the user, the step of determining whether or not the sound is associated with the user screen and the step.
If a sound is associated with the user screen, the step of playing the sound on the device used by the other user, and
An application control method for executing a step of changing a parameter associated with the user according to the sound to be played, using effect information in which different effects are recorded according to the characteristics of the sound to be played. ..
JP2019185988A 2019-10-09 2019-10-09 Application control program, application control system and application control method Active JP7041110B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019185988A JP7041110B2 (en) 2019-10-09 2019-10-09 Application control program, application control system and application control method
JP2022035844A JP7256913B2 (en) 2019-10-09 2022-03-09 Application control program, application control system and application control method
JP2022035843A JP7343129B2 (en) 2019-10-09 2022-03-09 Application control program, application control system and application control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019185988A JP7041110B2 (en) 2019-10-09 2019-10-09 Application control program, application control system and application control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016249658A Division JP6603201B2 (en) 2016-12-22 2016-12-22 GAME PROCESSING PROGRAM, GAME PROCESSING METHOD, AND GAME PROCESSING DEVICE

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2022035843A Division JP7343129B2 (en) 2019-10-09 2022-03-09 Application control program, application control system and application control method
JP2022035844A Division JP7256913B2 (en) 2019-10-09 2022-03-09 Application control program, application control system and application control method

Publications (2)

Publication Number Publication Date
JP2020103873A JP2020103873A (en) 2020-07-09
JP7041110B2 true JP7041110B2 (en) 2022-03-23

Family

ID=71450258

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019185988A Active JP7041110B2 (en) 2019-10-09 2019-10-09 Application control program, application control system and application control method
JP2022035843A Active JP7343129B2 (en) 2019-10-09 2022-03-09 Application control program, application control system and application control method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022035843A Active JP7343129B2 (en) 2019-10-09 2022-03-09 Application control program, application control system and application control method

Country Status (1)

Country Link
JP (2) JP7041110B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011206448A (en) 2010-03-30 2011-10-20 Namco Bandai Games Inc Server system and game device
JP2013202271A (en) 2012-03-29 2013-10-07 Bndena Inc Server system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003303896A1 (en) 2003-02-07 2004-08-30 Nokia Corporation Control of multi-user environments
JP3740153B2 (en) 2004-03-16 2006-02-01 コナミ株式会社 GAME DEVICE AND PROGRAM
KR20070109682A (en) * 2006-05-12 2007-11-15 (주)미디어캔버스 Mehtod and system of providing linkage-service of contents which related to the background music
JP5714478B2 (en) 2011-12-20 2015-05-07 株式会社コナミデジタルエンタテインメント GAME SYSTEM, CONTROL METHOD USED FOR THE SAME, AND COMPUTER PROGRAM

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011206448A (en) 2010-03-30 2011-10-20 Namco Bandai Games Inc Server system and game device
JP2013202271A (en) 2012-03-29 2013-10-07 Bndena Inc Server system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
エヴァレーシングのアバターアイテムを配信開始!,Amebaブログ[online],2014年05月12日,https://ameblo.jp/evaracing/entry-11845050692.html,[2020年11月18日検索]
ファンタシースターポータブル2 パーフェクトバイブル,ファミ通書籍編集部,2010年02月10日,28-33、41頁

Also Published As

Publication number Publication date
JP7343129B2 (en) 2023-09-12
JP2022081598A (en) 2022-05-31
JP2020103873A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
US20190018644A1 (en) Soundsharing capabilities application
JP4382786B2 (en) Audio mixdown device, audio mixdown program
JP5113796B2 (en) Emotion matching device, emotion matching method, and program
US20090077170A1 (en) System, Architecture and Method for Real-Time Collaborative Viewing and Modifying of Multimedia
US20090107320A1 (en) Personalized Music Remixing
US11775580B2 (en) Playlist preview
JP2014082582A (en) Viewing device, content provision device, viewing program, and content provision program
CN107994879A (en) Volume control method and device
US9305601B1 (en) System and method for generating a synchronized audiovisual mix
JP5269829B2 (en) Karaoke system, karaoke system control method, karaoke system control program, and information recording medium thereof
JP7234935B2 (en) Information processing device, information processing method and program
JP5797828B1 (en) GAME PROCESSING METHOD, GAME PROCESSING SYSTEM, AND GAME PROCESSING PROGRAM
JP6603201B2 (en) GAME PROCESSING PROGRAM, GAME PROCESSING METHOD, AND GAME PROCESSING DEVICE
JP7041110B2 (en) Application control program, application control system and application control method
JP5965042B2 (en) GAME PROCESSING METHOD, GAME PROCESSING SYSTEM, AND GAME PROCESSING PROGRAM
JP7256913B2 (en) Application control program, application control system and application control method
JP2014235302A (en) User-specific singing history update system
JP2014071226A (en) Music reproduction system and music reproduction method
JP6069567B2 (en) GAME PROCESSING METHOD, GAME PROCESSING SYSTEM, AND GAME PROCESSING PROGRAM
JP6058991B2 (en) Singing video selection system corresponding to singing voice
JP2014123085A (en) Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke
JP6177050B2 (en) Online karaoke system
JP6474292B2 (en) Karaoke equipment
JP7367945B1 (en) Electronic content distribution system, electronic content distribution program and application program
JP6376956B2 (en) Karaoke system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220310

R150 Certificate of patent or registration of utility model

Ref document number: 7041110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150