JP7242950B2 - Game server, game program, information processing method - Google Patents

Game server, game program, information processing method Download PDF

Info

Publication number
JP7242950B2
JP7242950B2 JP2022139956A JP2022139956A JP7242950B2 JP 7242950 B2 JP7242950 B2 JP 7242950B2 JP 2022139956 A JP2022139956 A JP 2022139956A JP 2022139956 A JP2022139956 A JP 2022139956A JP 7242950 B2 JP7242950 B2 JP 7242950B2
Authority
JP
Japan
Prior art keywords
player
game
sensor data
effect
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022139956A
Other languages
Japanese (ja)
Other versions
JP2022174159A (en
Inventor
伸輔 武貞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Akatsuki Inc
Original Assignee
Akatsuki Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020208009A external-priority patent/JP7022190B1/en
Application filed by Akatsuki Inc filed Critical Akatsuki Inc
Priority to JP2022139956A priority Critical patent/JP7242950B2/en
Publication of JP2022174159A publication Critical patent/JP2022174159A/en
Application granted granted Critical
Publication of JP7242950B2 publication Critical patent/JP7242950B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明はゲームサーバ、ゲームプログラム、情報処理方法に関する。 The present invention relates to a game server, a game program, and an information processing method.

近年、各種センサを搭載したウェアラブルデバイスによってユーザの生体情報を取得し
、様々なサービスの提供に用いられるようになっている。
In recent years, wearable devices equipped with various sensors acquire user's biometric information and are used to provide various services.

特許文献1には、ユーザの動きに伴って発生する加速度データ等のモーションデータに
基づいてユーザの運動状態を判定し、情報処理装置から発せられる通知音の音量などを調
整することが開示されている。
Japanese Patent Laid-Open No. 2002-200001 discloses that the user's motion state is determined based on motion data such as acceleration data generated by the user's movement, and the volume of the notification sound emitted from the information processing device is adjusted. there is

特開2019-161340号公報JP 2019-161340 A

上述した特許文献1には、得られたセンサデータをゲームに活用することについては記
載されていない。
Patent Literature 1 mentioned above does not describe utilization of the obtained sensor data in a game.

そこで、本発明は、プレイヤの生体情報に基づいてゲーム上の所定の効果を決定するこ
とを可能にするゲームサーバ、ゲームプログラム、情報処理方法を提供することを一つの
目的とする。
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a game server, a game program, and an information processing method that make it possible to determine a predetermined game effect based on a player's biological information.

本発明によれば、プレイヤの生体情報に関するセンサデータを取得するデータ取得部と
、前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条
件を決定する効果決定部とを備えることを特徴とするゲームサーバが得られる。
According to the present invention, it comprises a data acquisition unit that acquires sensor data related to the player's biological information, and an effect determination unit that determines output conditions for a predetermined effect during the game played by the player based on the sensor data. A game server characterized by:

本発明によれば、ゲームの臨場感を一層高めることができる。 According to the present invention, it is possible to further enhance the realism of the game.

本発明の実施の形態によるシステムの構成例を示す図である。It is a figure which shows the structural example of the system by embodiment of this invention. 本発明の実施の形態によるサーバ装置の構成例を示す図である。It is a figure which shows the structural example of the server apparatus by embodiment of this invention. 本発明の実施の形態によるプレイヤ端末の構成例を示す図である。It is a figure which shows the structural example of the player terminal by embodiment of this invention. 本発明の実施の形態による効果情報の構成例を示す図である。It is a figure which shows the structural example of the effect information by embodiment of this invention. 本発明の実施の形態による処理フローの一例を示す図である。It is a figure which shows an example of the processing flow by embodiment of this invention. 本発明の実施の形態による変形例1を説明する図である。It is a figure explaining the modification 1 by embodiment of this invention. 本発明の実施の形態による変形例2を説明する図である。It is a figure explaining the modification 2 by embodiment of this invention.

本発明の実施形態の内容を列記して説明する。本発明は、以下のような構成を備える。
[項目1]
プレイヤの生体情報に関するセンサデータを取得するデータ取得部と、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条
件を決定する効果決定部とを備えることを特徴とする、ゲームサーバ。
[項目2]
前記生体情報は、前記プレイヤの心拍数又は脈拍数を含むことを特徴とする、項目1に
記載のゲームサーバ。
[項目3]
前記センサデータに基づいて、前記プレイヤの興奮状態を評価する解析部をさらに備え
ることを特徴とする、項目1又は2に記載のゲームサーバ。
[項目4]
前記効果決定部は、前記センサデータに基づいて、少なくとも前記ゲーム中の音の大き
さ又はテンポを決定することを特徴とする、項目1~3のいずれかに記載のゲームサーバ

[項目5]
前記効果決定部は、前記センサデータに基づいて、前記ゲーム中のキャラクタの少なく
ともセリフ又は表情を決定することを特徴とする、項目1~3のいずれかに記載のゲーム
サーバ。
[項目6]
前記データ取得部は、前記プレイヤと共同でプレイする他のプレイヤのセンサデータを
さらに取得し、
前記効果決定部は、前記プレイヤ及び前記他のプレイヤのセンサデータに基づいて、前
記効果の出力条件を決定することを特徴とする、項目1~5のいずれかに記載のゲームサ
ーバ。
[項目7]
前記センサデータに基づいて指標化したプレイヤの状態を表す画像を生成する画面デー
タ生成部を備える、項目1~6のいずれかに記載のゲームサーバ。
[項目8]
コンピュータに、
プレイヤの生体情報に関するセンサデータを取得するデータ取得処理と、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条
件を決定する効果決定処理とを実行させることを特徴とする、ゲームプログラム。
[項目9]
プレイヤの生体情報に関するセンサデータを取得するデータ取得ステップと、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条
件を決定する効果決定ステップと、を有するコンピュータによる情報処理方法。
The contents of the embodiments of the present invention are listed and explained. The present invention has the following configurations.
[Item 1]
a data acquisition unit that acquires sensor data related to the player's biometric information;
A game server, comprising: an effect determination unit that determines an output condition of a predetermined effect during a game played by the player based on the sensor data.
[Item 2]
A game server according to item 1, wherein the biometric information includes the heart rate or pulse rate of the player.
[Item 3]
3. The game server according to item 1 or 2, further comprising an analysis unit that evaluates the excitement state of the player based on the sensor data.
[Item 4]
4. The game server according to any one of items 1 to 3, wherein the effect determination unit determines at least the volume or tempo of sound during the game based on the sensor data.
[Item 5]
4. The game server according to any one of items 1 to 3, wherein the effect determination unit determines at least a line or facial expression of the character during the game based on the sensor data.
[Item 6]
The data acquisition unit further acquires sensor data of another player who plays jointly with the player,
The game server according to any one of items 1 to 5, wherein the effect determination unit determines output conditions for the effect based on sensor data of the player and the other players.
[Item 7]
7. The game server according to any one of items 1 to 6, comprising a screen data generation unit that generates an image representing the player's state indexed based on the sensor data.
[Item 8]
to the computer,
a data acquisition process for acquiring sensor data relating to the player's biometric information;
A game program for executing an effect determination process for determining an output condition of a predetermined effect in a game played by the player based on the sensor data.
[Item 9]
a data acquisition step of acquiring sensor data relating to the player's biometric information;
and an effect determining step of determining an output condition of a predetermined effect in a game played by the player based on the sensor data.

以下、本発明の実施の形態について、図面を参照しながら説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<構成>
図1に示されるように、本ゲームシステムは、ネットワーク3(例えば、インターネッ
ト等)を介してゲームに関する各種サービスをプレイヤに提供するものであり、サーバ装
置1(ゲームサーバ)とプレイヤ端末2、センサデバイス4とで構成される。なお、図中
ではプレイヤ端末2、センサデバイス4とを1つずつしか示していないが、サーバ装置1
は複数のプレイヤ端末2及びセンサデバイス4と接続され得る。また、センサデバイス4
は、プレイヤ端末2と一体であってもよい。
<Configuration>
As shown in FIG. 1, the game system provides players with various game-related services via a network 3 (for example, the Internet). device 4. Although only one player terminal 2 and one sensor device 4 are shown in the figure, the server device 1
can be connected to multiple player terminals 2 and sensor devices 4 . Moreover, the sensor device 4
may be integrated with the player terminal 2 .

<サーバ装置1の構成>
図2は、サーバ装置1の機能上の構成を示すブロック図である。サーバ装置1は、シス
テム管理者等が各種サービスを運営・管理する際に利用する情報処理装置(コンピュータ
)であり、例えば、ワークステーションやパーソナルコンピュータのような汎用コンピュ
ータとしてもよいし、或いはクラウド・コンピューティング技術によって論理的に実現さ
れてもよい。
<Configuration of Server Apparatus 1>
FIG. 2 is a block diagram showing the functional configuration of the server device 1. As shown in FIG. The server device 1 is an information processing device (computer) used when a system administrator or the like operates and manages various services. It may also be logically embodied by computing technology.

サーバ装置1は、制御部11、記憶部12、入力部13、表示部14、通信部15を有す
る。サーバ装置1は、通信部15を介してプレイヤ端末2から各種のコマンド(リクエス
ト)を受信すると、制御部11においてゲームプログラムによる処理を実行し、ゲームプ
ログラムの処理結果(例えば、ゲーム画像やゲーム音声等)がプレイヤ端末2へ送信され
る。なお、上記ゲームプログラムの一部は、プレイヤ端末2に送信されてプレイヤ端末2
上で実行されてもよい。
The server device 1 has a control section 11 , a storage section 12 , an input section 13 , a display section 14 and a communication section 15 . When receiving various commands (requests) from the player terminal 2 via the communication unit 15, the server device 1 executes processing by the game program in the control unit 11, etc.) is transmitted to the player terminal 2 . A part of the game program is transmitted to the player terminal 2 and played on the player terminal 2.
may be performed on

制御部11は、各部間のデータの受け渡しを行うとともに、サーバ装置1全体の制御を
行うものであり、CPU(Central Processing Unit)が所定の
メモリに格納されたプログラムを実行することによって実現される。本実施の形態の制御
部11は、少なくともゲーム実行部111、画面データ生成部112、センサデータ取得
部113、解析部114、効果決定部115を備える。なお、これらの各種機能部につい
ては追って詳述する。
The control unit 11 exchanges data between units and controls the entire server device 1, and is implemented by a CPU (Central Processing Unit) executing a program stored in a predetermined memory. . Control unit 11 of the present embodiment includes at least game execution unit 111 , screen data generation unit 112 , sensor data acquisition unit 113 , analysis unit 114 and effect determination unit 115 . These various functional units will be described later in detail.

記憶部12は、システムプログラムが記憶された読取専用の記憶領域であるROM(R
ead Only Memory)と、制御部11による演算処理のワーク領域として使
用される書き換え可能な記憶領域であるRAM(Random Access Memo
ry)とを有しており、例えば、フラッシュメモリやハードディスクなどの不揮発性記憶
装置によって実現される。本実施形態における記憶部12は、ゲーム情報記憶部121、
プレイヤ情報記憶部122、センサデータ記憶部123、効果情報記憶部124等の各種
記憶部を有している。なお、これらの各種情報については追って詳述する。
The storage unit 12 includes a ROM (R
memory), and RAM (Random Access Memory), which is a rewritable storage area used as a work area for arithmetic processing by the control unit 11
ry), and is implemented by a non-volatile storage device such as a flash memory or a hard disk. The storage unit 12 in this embodiment includes a game information storage unit 121,
It has various storage units such as a player information storage unit 122, a sensor data storage unit 123, an effect information storage unit 124, and the like. These various types of information will be described later in detail.

入力部13はシステム管理者がゲームサービスに関する各種データ(例えば、ゲーム情
報等)を入力するためのものであり、例えばキーボードやマウス等によって実現される。
The input unit 13 is used by the system administrator to input various data (for example, game information, etc.) relating to game services, and is realized by, for example, a keyboard and a mouse.

表示部14は、制御部11からの指令に基づいてシステム管理者用の操作画面を表示す
るためのものであり、例えば、液晶ディスプレイ(LCD:Liquid Crysta
l Display)等によって実現される。
The display unit 14 is for displaying an operation screen for the system administrator based on a command from the control unit 11. For example, the display unit 14 is a liquid crystal display (LCD).
1 Display) or the like.

通信部15は、プレイヤ端末2及びセンサデバイス4との間で通信を行うためのもので
あり、プレイヤ端末2及びセンサデバイス4から送信される各種データや信号を受信する
受信部としての機能と、制御部11の指令に応じて各種データや信号をプレイヤ端末2及
びセンサデバイス4へ送信する送信部としての機能を有している。通信部15は、例えば
HTTP(HyperText Transfer Protocol)やHTTPS、
WebSocket、P2P(Peer To Peer)等によりプレイヤ端末2との
通信を行う。
The communication unit 15 is for performing communication between the player terminal 2 and the sensor device 4, and functions as a receiving unit for receiving various data and signals transmitted from the player terminal 2 and the sensor device 4; It has a function as a transmission section that transmits various data and signals to the player terminal 2 and the sensor device 4 according to commands from the control section 11 . The communication unit 15 uses, for example, HTTP (HyperText Transfer Protocol), HTTPS,
Communication with the player terminal 2 is performed by WebSocket, P2P (Peer To Peer), or the like.

<プレイヤ端末2>
図3は、プレイヤ端末2の機能上の構成を表すブロック図である。プレイヤ端末2は、
プレイヤが所持し利用することができるゲーム装置である。ゲーム装置としては、据ええ
置き型やポータブル型のゲーム装置であってもよいし、情報処理装置(例えば、スマート
フォン、携帯電話端末、タブレット端末)であってもよい。以下、一例として、プレイヤ
端末2がスマートフォンなどの情報処理装置である例を説明するが、本発明の趣旨を実現
できる限りにおいてプレイヤ端末2の形態はこれに制限されるものではない。プレイヤ端
末2は、サーバ装置1から送信されたゲームプログラムの処理結果をゲームアプリケーシ
ョンまたはWebブラウザを介して出力(例えば、ゲーム画面表示、ゲーム音声出力等)
することができる。プレイヤ端末2は、プレイヤ端末2全体の制御を行う制御部21と、
各種データ・プログラムを記憶する記憶部22と、プレイヤが操作入力を行うための入力
部23、ゲーム画面・操作画面や音を出力する出力部24、サーバ装置1との間で情報通
信を行う通信部25を有している。本実施の形態の制御部21は、少なくとも操作情報受
付部211、ゲーム動作部212を備える。また、記憶部22は、少なくともゲーム動作
情報記憶部221を備える。制御部21の各機能部は、メモリやゲーム動作情報記憶部2
21に格納されているプログラムをCPUが実行することにより実現することができる。
<Player terminal 2>
FIG. 3 is a block diagram showing the functional configuration of the player terminal 2. As shown in FIG. The player terminal 2 is
It is a game device that a player can possess and use. The game device may be a stationary or portable game device, or an information processing device (for example, a smart phone, a mobile phone terminal, a tablet terminal). An example in which the player terminal 2 is an information processing device such as a smart phone will be described below, but the form of the player terminal 2 is not limited to this as long as the gist of the present invention can be realized. The player terminal 2 outputs the processing result of the game program transmitted from the server device 1 via a game application or a web browser (for example, game screen display, game sound output, etc.).
can do. The player terminal 2 has a control unit 21 that controls the entire player terminal 2,
Communication that performs information communication between a storage unit 22 that stores various data and programs, an input unit 23 that allows a player to perform operation input, an output unit 24 that outputs game screens/operation screens and sounds, and the server device 1 It has a portion 25 . The control unit 21 of this embodiment includes at least an operation information reception unit 211 and a game operation unit 212 . The storage unit 22 also includes at least a game action information storage unit 221 . Each functional unit of the control unit 21 is stored in the memory or the game operation information storage unit 2
21 by executing the program stored in the CPU.

プレイヤ端末2の操作情報受付部211は、プレイヤからゲームに関する操作を受け付
ける。操作情報受付部211は、プレイヤによる入力部23を用いたゲームに関する操作
を受け付ける。そして、操作情報受付部211は、受け付けた操作内容をゲーム動作部2
12に出力する。
The operation information receiving unit 211 of the player terminal 2 receives game-related operations from the player. The operation information receiving unit 211 receives a game-related operation using the input unit 23 by the player. Then, the operation information receiving unit 211 transmits the received operation contents to the game operation unit 2.
output to 12.

ゲーム動作部212は、ゲームを動作させるための処理を実行する。ゲーム動作部21
2は、ゲーム動作情報記憶部221に記憶されたゲーム動作情報に含まれるゲームソフト
ウェアと、入力部23から入力されたプレイヤの操作内容とに基づいてゲームを動作させ
る。ゲーム動作部212は、ゲームの動作に伴い、ゲーム動作情報に含まれる画像データ
からゲーム用の画像を生成し、生成した画像を出力部24に出力させるための制御処理を
行う。同様にして、ゲーム動作部212は、ゲームの動作に伴い、ゲーム動作情報に含ま
れる音楽データや音声データからゲーム用の音楽や音声を生成し、生成した音楽や音声を
出力部24から出力させるための制御処理を行う。なお、ここでは、ネイティブアプリが
Webアプリの機能を一部実行する、すなわち、プレイヤ端末2のゲーム動作部212が
サーバ装置1の機能を一部実行する構成について説明したが、ゲーム動作部212を有さ
ずにサーバ装置1が処理結果として全てのゲーム用画像、音声を生成するように構成され
ていてもよいし、ゲーム動作部212によって全てのゲーム用画像、音声を生成するよう
に構成されていてもよい。
The game operation unit 212 executes processing for operating the game. Game operation part 21
2 operates the game based on the game software included in the game operation information stored in the game operation information storage unit 221 and the player's operation details input from the input unit 23 . The game action unit 212 generates a game image from the image data included in the game action information and performs control processing for outputting the generated image to the output unit 24 in accordance with the game action. Similarly, the game operation unit 212 generates game music and sound from the music data and sound data included in the game operation information in accordance with the game operation, and causes the output unit 24 to output the generated music and sound. control processing for It should be noted that here, the description has been given of the configuration in which the native application partially executes the functions of the Web application, that is, the game operation unit 212 of the player terminal 2 partially executes the functions of the server device 1, but the game operation unit 212 Alternatively, the server device 1 may be configured to generate all game images and sounds as a processing result, or the game operation unit 212 may be configured to generate all game images and sounds. may be

ゲーム動作部212を有する場合、ゲーム動作部212が動作させるゲームにおける所
定のパラメータはサーバ装置1にて管理されることができる。例えば、ゲームにおけるス
タミナや、有償ポイントといったパラメータが、サーバ装置1にて管理される。そのため
、ゲーム動作部212は、ゲームにおいてこれらの所定のパラメータの変化が伴う処理が
発生する場合には、サーバ装置1との通信を行うことにより、サーバ装置1が管理するパ
ラメータを更新させる。そして、ゲーム動作部212は、更新後のパラメータをサーバ装
置1から受信し、この更新後のパラメータに基づいてゲームの動作を継続する。
When the game operation unit 212 is provided, predetermined parameters in the game operated by the game operation unit 212 can be managed by the server device 1 . For example, parameters such as stamina and paid points in the game are managed by the server device 1 . Therefore, the game operation unit 212 updates the parameters managed by the server device 1 by communicating with the server device 1 when a process involving changes in these predetermined parameters occurs in the game. Then, the game operation unit 212 receives the updated parameters from the server device 1 and continues the operation of the game based on the updated parameters.

次に、本システムにおけるセンサデバイス4について説明する。センサデバイス4は、
プレイヤの生体情報を取得することができるセンサを搭載した装置である。プレイヤの生
体情報とは例えば、心拍、脈拍、血圧、呼吸、体温、脳波、血流量、血中物質濃度、皮膚
などの身体の色、表情等であり、プレイヤの身体の状態を示す情報であればよい。そして
、センサデバイス4は、これらの生体情報の1つ以上を計測可能なセンサを搭載している
。例えば心拍や脈拍を計測可能な光学センサを搭載したウェアラブルデバイスや、画像情
報を取得可能なカメラ等であってよい。
Next, the sensor device 4 in this system will be described. The sensor device 4 is
It is a device equipped with a sensor that can acquire the player's biological information. The biological information of the player includes, for example, heartbeat, pulse, blood pressure, respiration, body temperature, brain waves, blood flow, blood substance concentration, body color such as skin, facial expression, etc., and may be information indicating the physical condition of the player. Just do it. The sensor device 4 is equipped with a sensor capable of measuring one or more of these biological information. For example, it may be a wearable device equipped with an optical sensor capable of measuring heartbeat or pulse, or a camera capable of acquiring image information.

センサデバイス4は継続的にまたは断続的にプレイヤの生体情報をセンシングする。取
得したセンサデータは、通信手段等によりセンサデバイス4からプレイヤ端末2を介して
サーバ装置1に送信される。また、センサデータは、センサデバイス4から直接、サーバ
装置1に送信される。あるいは、センサデータは、センサデバイス4から直接もしくはプ
レイヤ端末2を介してサーバ装置1とは別のサーバに送信され、サーバ装置1が当該別の
サーバにアクセスしてデータを取得することとしてもよい。なお、本システムにおいて、
センサデバイス4はプレイヤ端末2と一体でもよいし別体であってもよい。すなわち、プ
レイヤ端末2に各種センサが搭載されていることによって、生体情報の取得とゲームプロ
グラムの実行処理の双方を担うことができる場合がある。
The sensor device 4 continuously or intermittently senses the biometric information of the player. The acquired sensor data is transmitted from the sensor device 4 to the server device 1 via the player terminal 2 by communication means or the like. Moreover, the sensor data is directly transmitted from the sensor device 4 to the server device 1 . Alternatively, the sensor data may be transmitted directly from the sensor device 4 or via the player terminal 2 to a server separate from the server device 1, and the server device 1 may access the separate server to obtain the data. . In addition, in this system,
The sensor device 4 may be integrated with the player terminal 2 or may be separate. In other words, the player terminal 2 equipped with various sensors may be able to perform both acquisition of biometric information and execution processing of the game program.

本実施形態におけるゲームシステムは、センサデバイス4によってプレイヤの生体情報
に関するセンサデータを取得し、当該センサデータに基づいてゲーム上の所定の効果を決
定することに関する。プレイヤは、自身の興奮状態や感情に合わせてゲームの音量などが
変わることで、より臨場感を感じることができる。生体情報に合わせて決定する効果とし
ては、ゲームの効果音やバックミュージックなどの音の出力に関するもの(例えば音の大
きさやテンポ等)や、画面の明るさ、画面遷移(例えばセリフの出力や画面の切り替え)
の速さ等がありえる。
The game system in this embodiment acquires sensor data relating to the player's biological information by the sensor device 4, and determines a predetermined game effect based on the sensor data. The player can feel more realistic by changing the volume of the game according to his/her excitement state and emotions. Effects determined according to biometric information include those related to the output of sounds such as game sound effects and background music (e.g., volume and tempo), screen brightness, and screen transitions (e.g., dialogue output and screen transitions). switching)
can be the speed of

サーバ装置1のゲーム情報記憶部121は、ゲームに関する情報を記憶する。ゲーム情
報は、ゲームの種類に応じて適宜構成される。例えば対戦ゲームである場合は、ステージ
IDに紐づけて、ステージ名、敵キャラクタ情報等を含む。
The game information storage unit 121 of the server device 1 stores information about games. The game information is appropriately configured according to the type of game. For example, in the case of a battle game, the stage name, enemy character information, and the like are included in association with the stage ID.

プレイヤ情報記憶部122は、プレイヤに関する情報を記憶する。プレイヤ情報には、
プレイヤIDに紐づけて、プレイヤ名、プレイヤランク、所有キャラクタ情報、プレイス
テージ情報、所有アイテム情報等を含むことができる。プレイヤランクは、プレイヤのゲ
ームにおけるランク、レベルであり、プレイ時間やゲームの進捗、獲得アイテムなどに応
じて決定される。所有キャラクタ情報は、所有キャラクタのIDに対応付けて、レベル、
各種能力値(対戦ゲームであれば攻撃力、防御力、体力等、音楽ゲームであれば歌唱力、
ダンス力、パフォーマンス力など)などの各種パラメータの現在値を含むことができる。
プレイステージ情報は、設定された複数のステージのうち、プレイヤがこれまでにプレイ
したことのあるステージに関する情報であり、プレイ回数、クリア情報等を含むことがで
きる。所有アイテム情報は、1つ以上の有償アイテム、無償アイテムの保有状況に関する
情報を含み、各所有アイテムのIDに対応付けて、保有数などの情報を含むことができる
。その他、プレイヤ及びゲームのプレイ状況に関する情報を含むことができる。
The player information storage unit 122 stores information about players. Player information is
A player name, player rank, possessed character information, play stage information, possessed item information, etc. can be included in association with the player ID. The player rank is the rank or level of the player in the game, and is determined according to the playing time, progress of the game, acquired items, and the like. The possessed character information includes the level,
Various ability values (attack power, defense power, physical strength, etc. for fighting games, singing ability for music games,
dance ability, performance ability, etc.).
The play stage information is information about a stage that the player has played so far among the set stages, and can include the number of times played, clear information, and the like. Possessed item information includes information about the holding status of one or more paid items and free items, and can include information such as the number of owned items in association with the ID of each owned item. In addition, information about the player and game play status can be included.

また、プレイヤ情報記憶部122は、プレイヤIDに紐づけて、プレイヤが使用するプ
レイヤ端末2を識別する情報及び、当該プレイヤが使用するセンサデバイス4を識別する
情報を含む。センサデバイス4がプレイヤ端末2と一体である場合はプレイヤ端末2の識
別情報のみを含むことができる。プレイヤが2以上のセンサデバイス4を使用する場合に
は、1つのプレイヤ端末2に紐づけて2以上のセンサデバイス4を登録してもよい。
The player information storage unit 122 also includes information for identifying the player terminal 2 used by the player and information for identifying the sensor device 4 used by the player in association with the player ID. If the sensor device 4 is integrated with the player terminal 2 , it can contain only the identification information of the player terminal 2 . When a player uses two or more sensor devices 4 , two or more sensor devices 4 may be registered in association with one player terminal 2 .

センサデータ記憶部123は、センサデバイス4から取得したセンサデータを記憶する
。センサデータ記憶部123に格納されるセンサデータは、加工していない生データであ
ってもよいし、データ処理加工を経た加工済みデータであってもよい。また、センサデー
タを解析することによって得られた二次データであってもよい。
The sensor data storage unit 123 stores sensor data acquired from the sensor device 4 . The sensor data stored in the sensor data storage unit 123 may be raw data that has not been processed, or may be processed data that has undergone data processing. Secondary data obtained by analyzing sensor data may also be used.

効果情報記憶部124は、センサデータの解析結果とゲーム上の効果との対応付けを定
めた対応テーブルを含む。図4は、効果情報記憶部124に格納される効果情報テーブル
の構成例である。効果情報テーブルには、生体情報の解析結果と、効果の対応関係を含む
。生体情報の解析結果としては、生体情報の種類を特定する情報(心拍、脈拍、血圧、呼
吸、体温、脳波、血流量、血中物質濃度、皮膚などの身体の色、表情等)と、その内容を
含む。生体情報の内容としては、数値で表せるものは数値で特定してもよく、数値範囲や
、その変化(増加、減少、またはそれらの度合いなど)であってよい。また、表情など数
値で表せない場合は所定の表現で特定する。また、センサデータに基づいてプレイヤの興
奮度などの所定の指標を算出する場合は、当該指標と効果の対応関係を規定することもで
きる。効果の出力条件としては、音の音量やテンポを特定の値にすること、また、音量や
テンポを連続的または段階的に大きくする(小さくする)ことなどを特定することができ
る。一例として、図4では心拍数が所定の数値範囲であった場合に、ゲームにおけるバッ
クミュージックの音量とテンポを所定の範囲とすることを定めた例を示している。また、
別の例としては例えば、音のテンポを心拍数と同じ、もしくは、心拍数に所定の係数を乗
じた値に設定するようにしてもよい。
The effect information storage unit 124 includes a correspondence table that defines the correspondence between sensor data analysis results and game effects. FIG. 4 is a configuration example of an effect information table stored in the effect information storage unit 124. As shown in FIG. The effect information table includes the analysis result of the biological information and the corresponding relation between the effects. Analysis results of biological information include information that specifies the type of biological information (heartbeat, pulse, blood pressure, respiration, body temperature, brain waves, blood flow, blood substance concentration, body color such as skin, facial expression, etc.) Contains content. The content of the biometric information may be specified by a numerical value if it can be represented by a numerical value, and may be a numerical range or a change (increase, decrease, or degree thereof). In addition, when the facial expression cannot be expressed numerically, it is identified by a predetermined expression. Further, when calculating a predetermined index such as the degree of excitement of the player based on sensor data, it is also possible to define the correspondence relationship between the index and the effect. As the effect output condition, it is possible to specify that the volume or tempo of the sound is set to a specific value, or that the volume or tempo is increased (decreased) continuously or stepwise. As an example, FIG. 4 shows an example in which the volume and tempo of the background music in the game are set within a predetermined range when the heart rate is within a predetermined numerical range. again,
As another example, for example, the tempo of the sound may be set to be the same as the heart rate, or to a value obtained by multiplying the heart rate by a predetermined coefficient.

また、効果情報は、当該効果の設定を実行する特定のゲーム中のシーンを識別するシーン
情報を含むこともできる。図4の例では、シーン情報としてゲームの特定のバトル時にお
いて、特定の心拍数であった場合に、効果音や音楽を特定の音量及び/またはテンポに設
定することを特定している。このように、バトル時以外にも例えばボス戦時、クエスト時
、アイテム発見時、抽選ゲーム時、歩行時、などゲーム中の所定の状況を特定する条件を
設定可能である。
Effect information may also include scene information that identifies the particular in-game scene in which the setting of the effect is performed. In the example of FIG. 4, the scene information specifies that sound effects and music should be set to a specific volume and/or tempo when there is a specific heart rate during a specific battle in the game. In this way, it is possible to set conditions for specifying predetermined situations in the game other than battle, such as boss battle, quest, item discovery, lottery game, and walking.

さらに、効果情報は、プレイヤが自身で設定可能としてもよい。すなわち、プレイヤは、
利用する生体情報の種類、条件(数値範囲など)、出力される効果の種類(音の大きさ、
音のテンポ、その他画面遷移の速度など)、を選択することができる。また、当該効果の
出力条件が実行されるゲーム中のシーンを特定可能としてもよい。例えば、全ての敵との
バトル時に当該設定を実行することとしてもよいし、特定の条件のバトル時(例えばボス
とのバトル)にのみ当該設定を実行することとしてもよい。効果情報をプレイヤが設定可
能とすることによって、プレイヤは、自身が利用可能なセンサデバイス4の取得可能な生
体情報に応じて設定を変えることができる。また、自分の感覚に合わせて好みの条件設定
をすることができる。
Furthermore, the effect information may be set by the player himself/herself. That is, the player
Type of biometric information to be used, conditions (numerical range, etc.), type of effect to be output (loudness,
You can select the tempo of the sound, the speed of other screen transitions, etc.). Also, it may be possible to specify a scene in the game in which the output condition of the effect is executed. For example, the setting may be executed during a battle with all enemies, or may be executed only during a battle with specific conditions (for example, a battle with a boss). By allowing the player to set the effect information, the player can change the setting according to the biometric information that can be obtained from the sensor device 4 that can be used by the player. In addition, you can set your favorite conditions according to your own feeling.

サーバ装置1のゲーム実行部111は、ゲームプログラムに従ってゲームを進行させる
処理を実行する機能を有している。本実施形態におけるゲームシステムによるゲームは、
任意の種類のゲームであってよく、例えば、対戦ゲーム、パズルゲーム、アクションゲー
ム、野球ゲーム、サッカーゲーム、その他スポーツゲーム、クイズゲーム、ピンボールゲ
ーム、カードゲーム、リズムゲーム、RPG(ロールプレイングゲーム)、位置情報ゲー
ム、ボードゲーム、アドベンチャーゲーム、カジノゲーム、シミュレーションゲーム、ス
トラテジーゲーム、レーシングゲームなどであってよい。
The game execution unit 111 of the server device 1 has a function of executing processing for progressing the game according to the game program. The game by the game system in this embodiment is
Any type of game may be used, for example, a competitive game, a puzzle game, an action game, a baseball game, a soccer game, other sports games, a quiz game, a pinball game, a card game, a rhythm game, and an RPG (role-playing game). , location information games, board games, adventure games, casino games, simulation games, strategy games, racing games, and the like.

画面データ生成部112は、ゲーム画面をプレイヤ端末2に表示させるための画面デー
タを生成する処理を実行する機能を有している。画面データ生成部112は、上記の任意
のゲームに関する画面データを生成する。生成された画面データは、プレイヤ端末2に送
信されて、出力部24により出力される。
The screen data generation unit 112 has a function of executing processing for generating screen data for displaying a game screen on the player terminal 2 . The screen data generation unit 112 generates screen data regarding any game described above. The generated screen data is transmitted to the player terminal 2 and output by the output unit 24 .

センサデータ取得部113(データ取得部)は、センサデバイス4からプレイヤの生体
情報に関するセンサデータを取得する。センサデータ取得部113は、継続的にセンサデ
ータを取得してもよいし、所定期間間隔で取得することとしてもよい。また、所定の条件
を満たした場合にのみセンサデータの取得を実行してもよい。例えば、図4で示した効果
情報において特定のゲームシーンにおいてのみ効果の決定を行うこととしている場合にお
いては、当該特定のゲームシーンが実行されているときにのみセンサデータの取得を行う
こととしてもよい。また、プレイヤによりセンサデータの取得を実行すること/実行しな
いことを選択可能にする場合、プレイヤによってセンサデータの取得を実行することが選
択されているときにのみセンサデータの取得を実行する。取得したセンサデータは、セン
サデータ記憶部123に格納される。センサデータは、プレイヤを識別する情報又はプレ
イヤ端末2を識別する情報に紐づけられ、また時刻情報等を含むことができる。
The sensor data acquisition unit 113 (data acquisition unit) acquires sensor data related to the player's biometric information from the sensor device 4 . The sensor data acquisition unit 113 may continuously acquire sensor data, or may acquire sensor data at intervals of a predetermined period. Alternatively, the acquisition of sensor data may be executed only when a predetermined condition is satisfied. For example, in the case where the effect information shown in FIG. 4 determines the effect only in a specific game scene, sensor data may be acquired only when the specific game scene is being executed. good. Further, when the player can select whether to acquire the sensor data or not, the acquisition of the sensor data is carried out only when the player selects to acquire the sensor data. The acquired sensor data is stored in the sensor data storage unit 123 . The sensor data is linked to information identifying the player or information identifying the player terminal 2, and can include time information and the like.

解析部114は、取得したセンサデータを解析する。解析は、取得した生データを効果
の決定に利用できる形態に加工することや、センサデータに基づいて所定の数値情報を算
出することを含む。例えば、心拍データを取得した場合は、心拍データから1分当たりの
心拍数を算出したり、心拍数が増加していること/減少していること、およびその変化量
などを算出することができる。生体情報の変化を算出する場合は、経時的に所定期間にわ
たって計測されたセンサデータを取得し、ある期間における生体情報とその後のある期間
における生体情報とを比較することによって、ある生体情報の変化を決定することができ
る。また、プレイヤの顔などの身体の一部の画像データを取得して、画像解析することに
よって生体情報を取得してもよい。例えば、プレイヤの顔を含む画像から、顔の所定部分
を認識して色データを抽出することによって、顔色を評価したり、プレイヤの表情から感
情を推定することできる。そのほか、取得したセンサデータごとに任意の解析を行うこと
ができる。なお、センサデバイス4から取得できるデータの種類・性質によって、解析を
行う必要がない場合は、解析部114を有しなくてもよい。
The analysis unit 114 analyzes the acquired sensor data. The analysis includes processing the acquired raw data into a form that can be used to determine the effect, and calculating predetermined numerical information based on the sensor data. For example, when heartbeat data is acquired, the heartbeat rate per minute can be calculated from the heartbeat data, whether the heart rate is increasing/decreasing, and the amount of change can be calculated. . When calculating changes in biological information, sensor data measured over a predetermined period of time is acquired, and changes in certain biological information are obtained by comparing the biological information in a certain period with the biological information in a certain period thereafter. can be determined. Biometric information may also be obtained by obtaining image data of a part of the body such as the player's face and analyzing the image. For example, by recognizing a predetermined portion of the face from an image including the player's face and extracting color data, it is possible to evaluate the complexion and estimate the emotion from the player's expression. In addition, arbitrary analysis can be performed for each acquired sensor data. Note that the analysis unit 114 may not be provided if analysis is not required depending on the type and nature of data that can be acquired from the sensor device 4 .

また、解析部114は、センサデータに基づいてプレイヤの状態を指標化してもよい。
プレイヤの状態とは例えば、興奮、没頭、集中、恐怖、覚醒などの度合いを示すものであ
ってよい。解析部114は、1つ以上のセンサデータに基づいて、これらの指標を算出す
ることができる。例えば、心拍数と体温のセンサデータから興奮度を算出するなど、2以
上のセンサデータを組み合わせてもよい。各指標の算出方法は適宜決定することができる
Also, the analysis unit 114 may index the player's state based on sensor data.
The player's state may indicate, for example, the degree of excitement, preoccupation, concentration, fear, arousal, and the like. Analysis unit 114 can calculate these indicators based on one or more sensor data. For example, two or more sensor data may be combined, such as calculating the degree of excitement from heart rate and body temperature sensor data. A method for calculating each index can be determined as appropriate.

効果決定部115は、取得したセンサデータ又は、当該センサデータの解析結果に基づ
いて、ゲーム中の所定の効果を決定する。具体的には、センサデータ又は解析結果をあら
かじめ設定した効果情報テーブルに当てはめることによって効果を決定することができる
。例えば、心拍数を取得した場合には、心拍数の数値が所定の数値範囲に当てはまるか否
かを判定し、特定の効果を決定する。効果決定部115は、決定した効果情報に基づいて
出力指示を生成し、ゲーム実行部111に伝える。ゲーム実行部111は、プレイヤ端末
2の出力部24等に出力条件を指示することによって、プレイヤ端末2上での出力が実行
される。
The effect determination unit 115 determines a predetermined effect during the game based on the acquired sensor data or the analysis result of the sensor data. Specifically, the effect can be determined by applying sensor data or analysis results to a preset effect information table. For example, if a heart rate is obtained, it is determined whether the heart rate value falls within a predetermined value range to determine a particular effect. The effect determination unit 115 generates an output instruction based on the determined effect information, and notifies the game execution unit 111 of the output instruction. The game execution unit 111 executes output on the player terminal 2 by instructing output conditions to the output unit 24 of the player terminal 2 or the like.

図5は、本実施形態におけるシステムの基本動作例を説明するフロー図である。 FIG. 5 is a flow diagram illustrating an example of basic operation of the system according to this embodiment.

まず、センサデバイスは、センシングを開始する(S101)。センシングは、センサ
デバイスが起動している間において常に実行されてもよいし、ゲームにおける所定の条件
が満たされた場合に実行されてもよい。また、プレイヤがセンシングを開始する旨の操作
を行ったときに開始してもよい。センサデータ取得部113は、センサデバイス4からセ
ンサデータを取得する(S102)。センサデータの取得が解析に必要な十分な時間取得
されたか否かを確認し(S103)、十分なデータが取得できた場合には(S103=Y
es)、解析部114はセンサデータの解析を実行する(S104)。センサデータの取
得が不十分な場合には(S103=No)、センサデータの取得を続行する。
First, the sensor device starts sensing (S101). Sensing may be performed all the time while the sensor device is activated, or may be performed when a predetermined condition in the game is met. Alternatively, sensing may be started when the player performs an operation to start sensing. The sensor data acquisition unit 113 acquires sensor data from the sensor device 4 (S102). It is checked whether the sensor data has been acquired for a sufficient time required for analysis (S103), and if sufficient data has been acquired (S103=Y
es), the analysis unit 114 analyzes the sensor data (S104). If the acquisition of sensor data is insufficient (S103=No), the acquisition of sensor data is continued.

解析部114は、センサデータを解析することによって任意の数値情報を生成する。効
果決定部115は、センサデータ又は解析結果が、効果情報テーブルに規定された所定の
条件を満たすか否かを判定する(S105)。所定条件を満たす場合には当該効果が実行
されることを決定する(S106)。効果決定部115は決定した効果情報が実行される
ように出力指示を行う(S107)。
The analysis unit 114 generates arbitrary numerical information by analyzing sensor data. The effect determination unit 115 determines whether or not the sensor data or the analysis result satisfies a predetermined condition defined in the effect information table (S105). If a predetermined condition is satisfied, it is determined that the effect will be executed (S106). The effect determining unit 115 issues an output instruction so that the determined effect information is executed (S107).

以上が、本発明にゲームシステムの基本的な構成である。本発明のシステムによれば、
プレイヤの生体情報に基づいてゲームの効果を決定することができるので、プレイヤの身
体の状態に合わせた変化を実感させることができる。
The above is the basic configuration of the game system according to the present invention. According to the system of the present invention,
Since the effect of the game can be determined based on the player's biological information, it is possible to make the player feel the change according to the physical condition of the player.

(変形例1)
上記では、プレイヤの生体情報をもとに、音量やテンポ等の効果を決定する例を説明し
たが、プレイヤの生体情報をもとに、キャラクタのセリフや表情を変更することとしても
よい。図6は、本変形例1におけるプレイヤ端末の画面表示例である。一例として、プレ
イヤの心拍数に基づいて、バトルシーンにおいてプレイヤが操作するキャラクタのセリフ
及び表情が変わることを示している。図6(a)は、本変形例1における効果情報テーブ
ルの構成例である。一例として、心拍数の範囲とそれに対応するキャラクタのセリフが設
定されている。また、図示しないが、各心拍数の範囲に対応して表示するキャラクタの表
情の設定に関する情報を含む。図6(b)は、プレイヤの心拍数が低い状態の時の画面表
示例であり、心拍数が低いときに表示されることが設定されたセリフ31「余裕だよ!」
が表示されている。図6(c)は、プレイヤの心拍数が少し上がった時の画面表示例であ
り、キャラクタ(CH)のセリフ31が、心拍数が少し高いときに表示されることが設定
されたものに変更されている。さらに図6(d)では、プレイヤの心拍数がさらに上昇し
た場合の画面表示例を示しており、キャラクタCHのセリフ31は心拍数が所定値以上で
あったときに表示されるものに変化していることを示している。
(Modification 1)
In the above, an example was described in which effects such as volume and tempo are determined based on the player's biometric information, but the character's lines and facial expressions may be changed based on the player's biometric information. FIG. 6 is a screen display example of the player terminal in Modification 1. As shown in FIG. As an example, based on the heart rate of the player, the lines and facial expressions of the character operated by the player in the battle scene are shown to change. FIG. 6A is a configuration example of an effect information table in Modification 1. FIG. As an example, a heart rate range and a character's dialogue corresponding to it are set. In addition, although not shown, it also includes information on settings of facial expressions of characters to be displayed corresponding to each heart rate range. FIG. 6(b) is an example of a screen display when the player's heart rate is low.
is displayed. FIG. 6(c) is an example of a screen display when the player's heart rate is slightly increased, and the line 31 of the character (CH) is changed to be displayed when the heart rate is slightly increased. It is Further, FIG. 6(d) shows an example of screen display when the player's heart rate further increases, and the line 31 of the character CH changes to what is displayed when the heart rate is equal to or higher than a predetermined value. indicates that

また、図6(b)~(d)に示したように、プレイヤの心拍数等の生体情報を可視化し
てプレイヤ端末2の画面に表示(図中32)してもよい。つまり、画面データ生成部11
2が、センサデータに基づいて指標化したプレイヤの状態を表す画像を生成してもよい。
一例として、プレイヤの心拍数データから算出した興奮度を「ドキドキメータ」32とし
て表示した例を示している。生体情報を可視化して表示することによって、プレイヤが自
身の心拍などの変化を把握することができ、その変化によってゲームの演出が変わること
を実感しやすい。なお、プレイヤの生体情報に基づく画像の種類は、「ドキドキメータ」
32のような棒グラフ状(ゲージ状)の表示に限られず、生体情報の数値(心拍数等)を
そのまま、もしくは所定の係数を乗じて算出した数値を表示してもよいし、生体情報に基
づいて数や色が変化するアイコン等で表示してもよい。また、生体情報に基づく表示は、
現在の生体情報に限らず、所定期間だけ前の(過去の)時点の生体情報でもよいし、過去
の所定時点から現在までの履歴を時系列で表示するようにしてもよい。
Further, as shown in FIGS. 6B to 6D, biometric information such as the heart rate of the player may be visualized and displayed on the screen of the player terminal 2 (32 in the figure). That is, the screen data generation unit 11
2 may generate an image representing the indexed state of the player based on the sensor data.
As an example, an example in which the degree of excitement calculated from the heart rate data of the player is displayed as a "pounding meter" 32 is shown. By visualizing and displaying the biological information, the player can grasp changes in his/her own heartbeat, etc., and can easily feel that the effects of the game change according to the changes. In addition, the type of image based on the player's biometric information is "Doki Doki Meter"
32 is not limited to a bar graph-like (gauge-like) display, the value of biometric information (heart rate, etc.) may be displayed as it is, or a value calculated by multiplying a predetermined coefficient may be displayed, or based on biometric information. It may be displayed as an icon or the like that changes in number or color. In addition, the display based on biometric information,
The biometric information is not limited to current biometric information, but may be biometric information at a point in time a predetermined period ago (past), or a history from a predetermined point in the past to the present may be displayed in chronological order.

(変化例2)
本変化例2においては、プレイヤと共同してプレイする他のプレイヤの生体情報に基づ
く効果の出力を実行する場合を説明する。例えば、プレイヤがフレンドなどの他のプレイ
ヤと共同してバトルする場合等において、当該他のプレイヤのセンサデータも取得し、解
析することによって、当該他のプレイヤに係る効果を決定する。
(Change example 2)
In this variation 2, a case will be described in which an effect is output based on the biometric information of another player who plays together with the player. For example, when a player battles together with another player such as a friend, sensor data of the other player is also obtained and analyzed to determine the effect of the other player.

図7は、変形例1と同様に、ゲーム画面におけるキャラクタの表情やセリフが生体情報
によって決定される場合を例示している。図7においては、プレイヤと共同してプレイす
るフレンドプレイヤの表情やセリフが、当該フレンドプレイヤの生体情報に基づいて決定
される。センサデータ取得部113は、プレイヤと共同してプレイする他のプレイヤに紐
づけられたセンサデバイスからセンサデータを取得する。効果決定部115は、プレイヤ
及びフレンドプレイヤのセンサデータに基づいてプレイヤとフレンドプレイヤが操作する
キャラクタのセリフと表情を決定する。図7では、プレイヤが操作するキャラクタCHの
画像とセリフ33、及びフレンドプレイヤが操作するキャラクタCH2の画像とセリフ3
4が表示された例を示しており、フレンドプレイヤの心拍数がプレイヤの心拍数よりも高
く、両者のセリフや表情が異なっている。
FIG. 7 exemplifies a case where the expression and lines of the character on the game screen are determined by biometric information, as in the first modification. In FIG. 7, facial expressions and lines of a friend player who plays together with the player are determined based on the biometric information of the friend player. The sensor data acquisition unit 113 acquires sensor data from sensor devices linked to other players who play together with the player. The effect determination unit 115 determines the lines and facial expressions of the characters operated by the player and the friend player based on the sensor data of the player and the friend player. In FIG. 7, an image and lines 33 of a character CH operated by a player, and an image and lines 33 of a character CH2 operated by a friend player are shown.
4 is displayed, the heart rate of the friend player is higher than the heart rate of the player, and the lines and facial expressions of the two are different.

本変形例2のように、自身と一緒にプレイしている他のプレイヤの生体情報に基づいて
演出が変わることによって、より他のプレイヤとのコミュニケーションが活発になる。
As in Modified Example 2, by changing the presentation based on the biometric information of other players playing together, communication with other players becomes more active.

以上説明した実施形態及び変形例において、サーバ装置1及びプレイヤ端末2が備える
ソフトウェア機能部の処理について、本発明の趣旨を実現できる範囲で、サーバ装置1の
一部若しくはすべての機能をプレイヤ端末2が備えてもよい。
In the embodiments and modifications described above, with respect to the processing of the software function units provided in the server device 1 and the player terminals 2, a part or all of the functions of the server device 1 are replaced with the player terminals 2 as long as the gist of the present invention can be realized. may be provided.

また、図5の処理は、本実施形態の情報処理システムによる処理の一例を示したもので
あり、本願発明を限定する意図ではない。図5の処理に含まれる各工程は、図中に示され
る順序と異なる順序で実行するようにしてもよいし、一部の処理を並列に実行するようい
してもよいし、一部の工程を省略するようにしてもよいし、他の工程を追加してもよい。
Moreover, the processing in FIG. 5 shows an example of processing by the information processing system of the present embodiment, and is not intended to limit the present invention. Each process included in the process of FIG. 5 may be executed in an order different from that shown in the figure, part of the process may be executed in parallel, or part of the process may be executed in parallel. may be omitted, or other steps may be added.

上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定
して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良
することができると共に、本発明にはその均等物が含まれることは言うまでもない。
The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit and interpret the present invention. It goes without saying that the present invention can be modified and improved without departing from its spirit, and that equivalents thereof are included in the present invention.

1 サーバ装置(ゲームサーバ)
2 プレイヤ端末
3 ネットワーク
4 センサデバイス
1 server device (game server)
2 player terminal 3 network 4 sensor device

Claims (9)

プレイヤの生体情報に関するセンサデータを取得するデータ取得部と、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条件を決定する効果決定部とを備え、
前記効果決定部は、ゲーム中の特定のゲームシーンにおいてのみ前記所定の効果の出力条件を決定し、
前記効果決定部は、前記センサデータを取得して前記所定の効果の出力条件に反映させるか否かを、前記プレイヤの選択により決定することを特徴とする、ゲームサーバ。
a data acquisition unit that acquires sensor data related to the player's biometric information;
an effect determination unit that determines an output condition for a predetermined effect in a game played by the player based on the sensor data;
The effect determination unit determines an output condition of the predetermined effect only in a specific game scene during the game,
The game server, wherein the effect determination unit determines whether or not to acquire the sensor data and reflect it in the output condition of the predetermined effect based on the player's selection.
前記データ取得部は、前記特定のゲームシーンにおいてのみ前記プレイヤのセンサデータを取得することを特徴とする、請求項1に記載のゲームサーバ。 2. The game server according to claim 1, wherein said data acquisition unit acquires said player's sensor data only in said specific game scene. 前記センサデータに基づいて、前記プレイヤの興奮状態を評価する解析部をさらに備えることを特徴とする、請求項1又は2に記載のゲームサーバ。 3. The game server according to claim 1, further comprising an analysis unit that evaluates the excitement state of the player based on the sensor data. 前記効果決定部は、前記センサデータに基づいて、少なくとも前記ゲーム中の音の大きさ又はテンポを決定することを特徴とする、請求項1~3のいずれかに記載のゲームサーバ。 4. The game server according to any one of claims 1 to 3, wherein said effect determination unit determines at least the volume or tempo of sound during said game based on said sensor data. 前記効果決定部は、前記センサデータに基づいて、前記ゲーム中のキャラクタの少なくともセリフ又は表情を決定することを特徴とする、請求項1~3のいずれかに記載のゲームサーバ。 4. The game server according to any one of claims 1 to 3, wherein said effect determination unit determines at least lines or facial expressions of said character during said game based on said sensor data. 前記データ取得部は、前記プレイヤと共同でプレイする他のプレイヤのセンサデータをさらに取得し、
前記効果決定部は、前記プレイヤ及び前記他のプレイヤのセンサデータに基づいて、前記効果の出力条件を決定することを特徴とする、請求項1~5のいずれかに記載のゲームサーバ。
The data acquisition unit further acquires sensor data of another player who plays jointly with the player,
6. The game server according to any one of claims 1 to 5, wherein said effect determination unit determines output conditions for said effect based on sensor data of said player and said other players.
前記センサデータに基づいて指標化したプレイヤの状態を表す画像を生成する画面データ生成部を備える、請求項1~6のいずれかに記載のゲームサーバ。 7. The game server according to any one of claims 1 to 6, further comprising a screen data generation unit that generates an image representing the player's state indexed based on the sensor data. コンピュータに、
プレイヤの生体情報に関するセンサデータを取得するデータ取得処理と、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条件を決定する効果決定処理とを実行させ、
前記効果決定処理は、ゲーム中の特定のゲームシーンにおいてのみ前記所定の効果の出力条件を決定し、
前記効果決定処理は、前記センサデータを取得して前記所定の効果の出力条件に反映させるか否かを、前記プレイヤの選択により決定することを特徴とする、ゲームプログラム。
to the computer,
a data acquisition process for acquiring sensor data relating to the player's biometric information;
executing an effect determination process for determining an output condition of a predetermined effect in a game played by the player based on the sensor data;
The effect determination process determines an output condition of the predetermined effect only in a specific game scene during the game,
The game program, wherein, in the effect determination process, it is determined by the player's selection whether or not to acquire the sensor data and reflect it in the output condition of the predetermined effect.
プレイヤの生体情報に関するセンサデータを取得するデータ取得ステップと、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条件を決定する効果決定ステップと、を有し、
前記効果決定ステップは、ゲーム中の特定のゲームシーンにおいてのみ前記所定の効果の出力条件を決定し、
前記効果決定ステップは、前記センサデータを取得して前記所定の効果の出力条件に反映させるか否かを、前記プレイヤの選択により決定する、コンピュータによる情報処理方法。
a data acquisition step of acquiring sensor data relating to the player's biometric information;
an effect determination step of determining an output condition of a predetermined effect in a game played by the player based on the sensor data;
The effect determination step determines an output condition of the predetermined effect only in a specific game scene during the game;
The information processing method by a computer, wherein the effect determination step determines whether or not to acquire the sensor data and reflect it in the output condition of the predetermined effect, according to the player's selection.
JP2022139956A 2020-12-16 2022-09-02 Game server, game program, information processing method Active JP7242950B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022139956A JP7242950B2 (en) 2020-12-16 2022-09-02 Game server, game program, information processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020208009A JP7022190B1 (en) 2020-12-16 2020-12-16 Game server, game program, information processing method
JP2022016017A JP2022095607A (en) 2020-12-16 2022-02-04 Game server, game program and information processing method
JP2022139956A JP7242950B2 (en) 2020-12-16 2022-09-02 Game server, game program, information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022016017A Division JP2022095607A (en) 2020-12-16 2022-02-04 Game server, game program and information processing method

Publications (2)

Publication Number Publication Date
JP2022174159A JP2022174159A (en) 2022-11-22
JP7242950B2 true JP7242950B2 (en) 2023-03-20

Family

ID=87852301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022139956A Active JP7242950B2 (en) 2020-12-16 2022-09-02 Game server, game program, information processing method

Country Status (1)

Country Link
JP (1) JP7242950B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195059A (en) 2000-01-11 2001-07-19 Yamaha Corp Musical performance interface
JP2002239213A (en) 2001-02-22 2002-08-27 Akihiko Uto Cenesthesia generation system and method
JP2008237387A (en) 2007-03-26 2008-10-09 Konami Digital Entertainment:Kk Game program, game device and game control method
JP2012081063A (en) 2010-10-12 2012-04-26 Rohm Co Ltd Game system, program, and information storage medium
JP2013258555A (en) 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5672107A (en) * 1996-01-31 1997-09-30 Federal Patent Corporation Integral video game and cardio-waveform display
JPH1043429A (en) * 1996-08-07 1998-02-17 Ikyo Kk Game machine

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195059A (en) 2000-01-11 2001-07-19 Yamaha Corp Musical performance interface
JP2002239213A (en) 2001-02-22 2002-08-27 Akihiko Uto Cenesthesia generation system and method
JP2008237387A (en) 2007-03-26 2008-10-09 Konami Digital Entertainment:Kk Game program, game device and game control method
JP2012081063A (en) 2010-10-12 2012-04-26 Rohm Co Ltd Game system, program, and information storage medium
JP2013258555A (en) 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method

Also Published As

Publication number Publication date
JP2022174159A (en) 2022-11-22

Similar Documents

Publication Publication Date Title
JP7419185B2 (en) Programs, terminals, game systems and game management devices
JP2021098111A (en) Program, game system and game management server
JP2023076605A (en) Program, terminal, game system and game management device
JP2021137120A (en) Program, terminal, game system and game management device
Imre Real-time analysis of skin conductance for affective dynamic difficulty adjustment in video games
JP7242950B2 (en) Game server, game program, information processing method
JP7137724B2 (en) Game server, game program, information processing method
JP7137725B2 (en) Game server, game program, information processing method
US20230001300A1 (en) Computer system, game system, and control method of computer system
JP7022190B1 (en) Game server, game program, information processing method
JP5863622B2 (en) GAME CONTROL DEVICE, GAME CONTROL METHOD, PROGRAM, GAME SYSTEM
JP7394040B2 (en) Programs, terminals, server devices and systems
JP7348146B2 (en) Programs, terminals, game systems and game management devices
WO2022003938A1 (en) Information processing system, information processing method, computer program, and device
JP2021090634A (en) Program, terminal, game system, and game management server
JP7140996B2 (en) Game-related service providing program and server device
JP6820644B1 (en) Programs, terminals, servers, and game systems
JP7315640B2 (en) Information processing system, information processing device, information processing program, and information processing method
WO2024070166A1 (en) Gaming device and program
JP7296828B2 (en) Server device control method
WO2024070167A1 (en) Information processing device, program, and game system
JP2021133127A (en) Program and computer system
JP2024029835A (en) Game programs, game devices and game systems
JP2021191357A (en) Computer system and game management method
JP2023076714A (en) Control method of server device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150