JP2022095609A - Game server, game program and information processing method - Google Patents

Game server, game program and information processing method Download PDF

Info

Publication number
JP2022095609A
JP2022095609A JP2022016119A JP2022016119A JP2022095609A JP 2022095609 A JP2022095609 A JP 2022095609A JP 2022016119 A JP2022016119 A JP 2022016119A JP 2022016119 A JP2022016119 A JP 2022016119A JP 2022095609 A JP2022095609 A JP 2022095609A
Authority
JP
Japan
Prior art keywords
player
game
sensor data
information
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022016119A
Other languages
Japanese (ja)
Other versions
JP7137724B2 (en
Inventor
伸輔 武貞
Shinsuke Takesada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Akatsuki Inc
Original Assignee
Akatsuki Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020208009A external-priority patent/JP7022190B1/en
Application filed by Akatsuki Inc filed Critical Akatsuki Inc
Priority to JP2022016119A priority Critical patent/JP7137724B2/en
Publication of JP2022095609A publication Critical patent/JP2022095609A/en
Application granted granted Critical
Publication of JP7137724B2 publication Critical patent/JP7137724B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a game server capable of determining an effect in a game based on sensor data relating to biological information of a player, game program and information processing method.
SOLUTION: A game server includes a data acquisition section for acquiring sensor data relating to biological information of a player, and an effect determination section determining an output condition of a prescribed effect in a game that the player plays based on the sensor data.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明はゲームサーバ、ゲームプログラム、情報処理方法に関する。 The present invention relates to a game server, a game program, and an information processing method.

近年、各種センサを搭載したウェアラブルデバイスによってユーザの生体情報を取得し
、様々なサービスの提供に用いられるようになっている。
In recent years, wearable devices equipped with various sensors have been used to acquire biometric information of users and to provide various services.

特許文献1には、ユーザの動きに伴って発生する加速度データ等のモーションデータに
基づいてユーザの運動状態を判定し、情報処理装置から発せられる通知音の音量などを調
整することが開示されている。
Patent Document 1 discloses that the motion state of a user is determined based on motion data such as acceleration data generated with the movement of the user, and the volume of a notification sound emitted from an information processing apparatus is adjusted. There is.

特開2019-161340号公報Japanese Unexamined Patent Publication No. 2019-161340

上述した特許文献1には、得られたセンサデータをゲームに活用することについては記
載されていない。
The above-mentioned Patent Document 1 does not describe the utilization of the obtained sensor data in a game.

そこで、本発明は、プレイヤの生体情報に基づいてゲーム上の所定の効果を決定するこ
とを可能にするゲームサーバ、ゲームプログラム、情報処理方法を提供することを一つの
目的とする。
Therefore, one object of the present invention is to provide a game server, a game program, and an information processing method capable of determining a predetermined effect on a game based on a player's biological information.

本発明によれば、プレイヤの生体情報に関するセンサデータを取得するデータ取得部と
、前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条
件を決定する効果決定部とを備えることを特徴とするゲームサーバが得られる。
According to the present invention, the present invention includes a data acquisition unit that acquires sensor data related to the biometric information of the player, and an effect determination unit that determines output conditions of a predetermined effect in a game played by the player based on the sensor data. A game server characterized by this can be obtained.

本発明によれば、ゲームの臨場感を一層高めることができる。 According to the present invention, the presence of the game can be further enhanced.

本発明の実施の形態によるシステムの構成例を示す図である。It is a figure which shows the structural example of the system by embodiment of this invention. 本発明の実施の形態によるサーバ装置の構成例を示す図である。It is a figure which shows the configuration example of the server apparatus by embodiment of this invention. 本発明の実施の形態によるプレイヤ端末の構成例を示す図である。It is a figure which shows the configuration example of the player terminal by embodiment of this invention. 本発明の実施の形態による効果情報の構成例を示す図である。It is a figure which shows the structural example of the effect information by embodiment of this invention. 本発明の実施の形態による処理フローの一例を示す図である。It is a figure which shows an example of the processing flow by embodiment of this invention. 本発明の実施の形態による変形例1を説明する図である。It is a figure explaining the modification 1 by embodiment of this invention. 本発明の実施の形態による変形例2を説明する図である。It is a figure explaining the modification 2 by embodiment of this invention.

本発明の実施形態の内容を列記して説明する。本発明は、以下のような構成を備える。
[項目1]
プレイヤの生体情報に関するセンサデータを取得するデータ取得部と、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条
件を決定する効果決定部とを備えることを特徴とする、ゲームサーバ。
[項目2]
前記生体情報は、前記プレイヤの心拍数又は脈拍数を含むことを特徴とする、項目1に
記載のゲームサーバ。
[項目3]
前記センサデータに基づいて、前記プレイヤの興奮状態を評価する解析部をさらに備え
ることを特徴とする、項目1又は2に記載のゲームサーバ。
[項目4]
前記効果決定部は、前記センサデータに基づいて、少なくとも前記ゲーム中の音の大き
さ又はテンポを決定することを特徴とする、項目1~3のいずれかに記載のゲームサーバ

[項目5]
前記効果決定部は、前記センサデータに基づいて、前記ゲーム中のキャラクタの少なく
ともセリフ又は表情を決定することを特徴とする、項目1~3のいずれかに記載のゲーム
サーバ。
[項目6]
前記データ取得部は、前記プレイヤと共同でプレイする他のプレイヤのセンサデータを
さらに取得し、
前記効果決定部は、前記プレイヤ及び前記他のプレイヤのセンサデータに基づいて、前
記効果の出力条件を決定することを特徴とする、項目1~5のいずれかに記載のゲームサ
ーバ。
[項目7]
前記センサデータに基づいて指標化したプレイヤの状態を表す画像を生成する画面デー
タ生成部を備える、項目1~6のいずれかに記載のゲームサーバ。
[項目8]
コンピュータに、
プレイヤの生体情報に関するセンサデータを取得するデータ取得処理と、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条
件を決定する効果決定処理とを実行させることを特徴とする、ゲームプログラム。
[項目9]
プレイヤの生体情報に関するセンサデータを取得するデータ取得ステップと、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条
件を決定する効果決定ステップと、を有するコンピュータによる情報処理方法。
The contents of the embodiments of the present invention will be described in a list. The present invention has the following configurations.
[Item 1]
A data acquisition unit that acquires sensor data related to the player's biometric information,
A game server including an effect determining unit that determines an output condition of a predetermined effect in a game played by the player based on the sensor data.
[Item 2]
The game server according to item 1, wherein the biological information includes the heart rate or the pulse rate of the player.
[Item 3]
The game server according to item 1 or 2, further comprising an analysis unit for evaluating the excitement state of the player based on the sensor data.
[Item 4]
The game server according to any one of items 1 to 3, wherein the effect determining unit determines at least the loudness or tempo of a sound in the game based on the sensor data.
[Item 5]
The game server according to any one of items 1 to 3, wherein the effect determining unit determines at least a line or a facial expression of a character in the game based on the sensor data.
[Item 6]
The data acquisition unit further acquires sensor data of another player who plays jointly with the player.
The game server according to any one of items 1 to 5, wherein the effect determining unit determines an output condition of the effect based on sensor data of the player and the other player.
[Item 7]
The game server according to any one of items 1 to 6, further comprising a screen data generation unit that generates an image representing a player state indexed based on the sensor data.
[Item 8]
On the computer
Data acquisition process to acquire sensor data related to player's biometric information,
A game program characterized by executing an effect determination process for determining an output condition of a predetermined effect in a game played by the player based on the sensor data.
[Item 9]
A data acquisition step to acquire sensor data related to the player's biometric information,
An information processing method by a computer having an effect determination step of determining an output condition of a predetermined effect in a game played by the player based on the sensor data.

以下、本発明の実施の形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<構成>
図1に示されるように、本ゲームシステムは、ネットワーク3(例えば、インターネッ
ト等)を介してゲームに関する各種サービスをプレイヤに提供するものであり、サーバ装
置1(ゲームサーバ)とプレイヤ端末2、センサデバイス4とで構成される。なお、図中
ではプレイヤ端末2、センサデバイス4とを1つずつしか示していないが、サーバ装置1
は複数のプレイヤ端末2及びセンサデバイス4と接続され得る。また、センサデバイス4
は、プレイヤ端末2と一体であってもよい。
<Structure>
As shown in FIG. 1, this game system provides various services related to a game to a player via a network 3 (for example, the Internet, etc.), and is a server device 1 (game server), a player terminal 2, and a sensor. It is composed of a device 4. Although only one player terminal 2 and one sensor device 4 are shown in the figure, the server device 1
Can be connected to a plurality of player terminals 2 and sensor devices 4. In addition, the sensor device 4
May be integrated with the player terminal 2.

<サーバ装置1の構成>
図2は、サーバ装置1の機能上の構成を示すブロック図である。サーバ装置1は、シス
テム管理者等が各種サービスを運営・管理する際に利用する情報処理装置(コンピュータ
)であり、例えば、ワークステーションやパーソナルコンピュータのような汎用コンピュ
ータとしてもよいし、或いはクラウド・コンピューティング技術によって論理的に実現さ
れてもよい。
<Configuration of server device 1>
FIG. 2 is a block diagram showing a functional configuration of the server device 1. The server device 1 is an information processing device (computer) used by a system administrator or the like to operate and manage various services, and may be, for example, a general-purpose computer such as a workstation or a personal computer, or a cloud. It may be logically realized by computing technology.

サーバ装置1は、制御部11、記憶部12、入力部13、表示部14、通信部15を有す
る。サーバ装置1は、通信部15を介してプレイヤ端末2から各種のコマンド(リクエス
ト)を受信すると、制御部11においてゲームプログラムによる処理を実行し、ゲームプ
ログラムの処理結果(例えば、ゲーム画像やゲーム音声等)がプレイヤ端末2へ送信され
る。なお、上記ゲームプログラムの一部は、プレイヤ端末2に送信されてプレイヤ端末2
上で実行されてもよい。
The server device 1 has a control unit 11, a storage unit 12, an input unit 13, a display unit 14, and a communication unit 15. When the server device 1 receives various commands (requests) from the player terminal 2 via the communication unit 15, the control unit 11 executes processing by the game program, and the processing result of the game program (for example, a game image or a game sound) is executed. Etc.) is transmitted to the player terminal 2. A part of the above game program is transmitted to the player terminal 2 and is transmitted to the player terminal 2.
May be run on.

制御部11は、各部間のデータの受け渡しを行うとともに、サーバ装置1全体の制御を
行うものであり、CPU(Central Processing Unit)が所定の
メモリに格納されたプログラムを実行することによって実現される。本実施の形態の制御
部11は、少なくともゲーム実行部111、画面データ生成部112、センサデータ取得
部113、解析部114、効果決定部115を備える。なお、これらの各種機能部につい
ては追って詳述する。
The control unit 11 transfers data between each unit and controls the entire server device 1, and is realized by the CPU (Central Processing Unit) executing a program stored in a predetermined memory. .. The control unit 11 of the present embodiment includes at least a game execution unit 111, a screen data generation unit 112, a sensor data acquisition unit 113, an analysis unit 114, and an effect determination unit 115. These various functional parts will be described in detail later.

記憶部12は、システムプログラムが記憶された読取専用の記憶領域であるROM(R
ead Only Memory)と、制御部11による演算処理のワーク領域として使
用される書き換え可能な記憶領域であるRAM(Random Access Memo
ry)とを有しており、例えば、フラッシュメモリやハードディスクなどの不揮発性記憶
装置によって実現される。本実施形態における記憶部12は、ゲーム情報記憶部121、
プレイヤ情報記憶部122、センサデータ記憶部123、効果情報記憶部124等の各種
記憶部を有している。なお、これらの各種情報については追って詳述する。
The storage unit 12 is a ROM (R) which is a read-only storage area in which the system program is stored.
(Ead Only Memory) and RAM (Random Access Memory), which is a rewritable storage area used as a work area for arithmetic processing by the control unit 11.
It has ry) and is realized by, for example, a non-volatile storage device such as a flash memory or a hard disk. The storage unit 12 in the present embodiment is a game information storage unit 121,
It has various storage units such as a player information storage unit 122, a sensor data storage unit 123, and an effect information storage unit 124. In addition, these various information will be described in detail later.

入力部13はシステム管理者がゲームサービスに関する各種データ(例えば、ゲーム情
報等)を入力するためのものであり、例えばキーボードやマウス等によって実現される。
The input unit 13 is for the system administrator to input various data (for example, game information) related to the game service, and is realized by, for example, a keyboard or a mouse.

表示部14は、制御部11からの指令に基づいてシステム管理者用の操作画面を表示す
るためのものであり、例えば、液晶ディスプレイ(LCD:Liquid Crysta
l Display)等によって実現される。
The display unit 14 is for displaying an operation screen for a system administrator based on a command from the control unit 11, and is, for example, a liquid crystal display (LCD: Liquid Crystal).
It is realized by lDisplay) and the like.

通信部15は、プレイヤ端末2及びセンサデバイス4との間で通信を行うためのもので
あり、プレイヤ端末2及びセンサデバイス4から送信される各種データや信号を受信する
受信部としての機能と、制御部11の指令に応じて各種データや信号をプレイヤ端末2及
びセンサデバイス4へ送信する送信部としての機能を有している。通信部15は、例えば
HTTP(HyperText Transfer Protocol)やHTTPS、
WebSocket、P2P(Peer To Peer)等によりプレイヤ端末2との
通信を行う。
The communication unit 15 is for communicating with the player terminal 2 and the sensor device 4, and has a function as a receiving unit for receiving various data and signals transmitted from the player terminal 2 and the sensor device 4. It has a function as a transmission unit that transmits various data and signals to the player terminal 2 and the sensor device 4 in response to a command from the control unit 11. The communication unit 15 includes, for example, HTTP (HyperText Transfer Protocol), HTTPS, or the like.
Communication with the player terminal 2 is performed by WebSocket, P2P (Peer To Peer), or the like.

<プレイヤ端末2>
図3は、プレイヤ端末2の機能上の構成を表すブロック図である。プレイヤ端末2は、
プレイヤが所持し利用することができるゲーム装置である。ゲーム装置としては、据ええ
置き型やポータブル型のゲーム装置であってもよいし、情報処理装置(例えば、スマート
フォン、携帯電話端末、タブレット端末)であってもよい。以下、一例として、プレイヤ
端末2がスマートフォンなどの情報処理装置である例を説明するが、本発明の趣旨を実現
できる限りにおいてプレイヤ端末2の形態はこれに制限されるものではない。プレイヤ端
末2は、サーバ装置1から送信されたゲームプログラムの処理結果をゲームアプリケーシ
ョンまたはWebブラウザを介して出力(例えば、ゲーム画面表示、ゲーム音声出力等)
することができる。プレイヤ端末2は、プレイヤ端末2全体の制御を行う制御部21と、
各種データ・プログラムを記憶する記憶部22と、プレイヤが操作入力を行うための入力
部23、ゲーム画面・操作画面や音を出力する出力部24、サーバ装置1との間で情報通
信を行う通信部25を有している。本実施の形態の制御部21は、少なくとも操作情報受
付部211、ゲーム動作部212を備える。また、記憶部22は、少なくともゲーム動作
情報記憶部221を備える。制御部21の各機能部は、メモリやゲーム動作情報記憶部2
21に格納されているプログラムをCPUが実行することにより実現することができる。
<Player terminal 2>
FIG. 3 is a block diagram showing a functional configuration of the player terminal 2. The player terminal 2 is
It is a game device that a player can possess and use. The game device may be a stationary or portable game device, or may be an information processing device (for example, a smartphone, a mobile phone terminal, a tablet terminal). Hereinafter, an example in which the player terminal 2 is an information processing device such as a smartphone will be described as an example, but the form of the player terminal 2 is not limited to this as long as the gist of the present invention can be realized. The player terminal 2 outputs the processing result of the game program transmitted from the server device 1 via the game application or the Web browser (for example, game screen display, game voice output, etc.).
can do. The player terminal 2 includes a control unit 21 that controls the entire player terminal 2 and a control unit 21.
Communication that performs information communication between the storage unit 22 that stores various data programs, the input unit 23 for the player to input operations, the output unit 24 that outputs the game screen / operation screen and sound, and the server device 1. It has a part 25. The control unit 21 of the present embodiment includes at least an operation information receiving unit 211 and a game operation unit 212. Further, the storage unit 22 includes at least a game operation information storage unit 221. Each function unit of the control unit 21 is a memory or a game operation information storage unit 2.
It can be realized by the CPU executing the program stored in 21.

プレイヤ端末2の操作情報受付部211は、プレイヤからゲームに関する操作を受け付
ける。操作情報受付部211は、プレイヤによる入力部23を用いたゲームに関する操作
を受け付ける。そして、操作情報受付部211は、受け付けた操作内容をゲーム動作部2
12に出力する。
The operation information receiving unit 211 of the player terminal 2 receives an operation related to the game from the player. The operation information receiving unit 211 receives an operation related to the game by the player using the input unit 23. Then, the operation information receiving unit 211 transfers the received operation content to the game operation unit 2.
Output to 12.

ゲーム動作部212は、ゲームを動作させるための処理を実行する。ゲーム動作部21
2は、ゲーム動作情報記憶部221に記憶されたゲーム動作情報に含まれるゲームソフト
ウェアと、入力部23から入力されたプレイヤの操作内容とに基づいてゲームを動作させ
る。ゲーム動作部212は、ゲームの動作に伴い、ゲーム動作情報に含まれる画像データ
からゲーム用の画像を生成し、生成した画像を出力部24に出力させるための制御処理を
行う。同様にして、ゲーム動作部212は、ゲームの動作に伴い、ゲーム動作情報に含ま
れる音楽データや音声データからゲーム用の音楽や音声を生成し、生成した音楽や音声を
出力部24から出力させるための制御処理を行う。なお、ここでは、ネイティブアプリが
Webアプリの機能を一部実行する、すなわち、プレイヤ端末2のゲーム動作部212が
サーバ装置1の機能を一部実行する構成について説明したが、ゲーム動作部212を有さ
ずにサーバ装置1が処理結果として全てのゲーム用画像、音声を生成するように構成され
ていてもよいし、ゲーム動作部212によって全てのゲーム用画像、音声を生成するよう
に構成されていてもよい。
The game operation unit 212 executes a process for operating the game. Game operation unit 21
2 operates a game based on the game software included in the game operation information stored in the game operation information storage unit 221 and the operation content of the player input from the input unit 23. The game operation unit 212 generates an image for a game from the image data included in the game operation information along with the operation of the game, and performs a control process for outputting the generated image to the output unit 24. Similarly, the game operation unit 212 generates music and voice for the game from the music data and voice data included in the game operation information along with the operation of the game, and outputs the generated music and voice from the output unit 24. Perform control processing for this. Although the configuration in which the native application partially executes the functions of the Web application, that is, the game operation unit 212 of the player terminal 2 partially executes the functions of the server device 1, the game operation unit 212 is described here. The server device 1 may be configured to generate all game images and sounds as a processing result, or the game operation unit 212 may be configured to generate all game images and sounds. You may be.

ゲーム動作部212を有する場合、ゲーム動作部212が動作させるゲームにおける所
定のパラメータはサーバ装置1にて管理されることができる。例えば、ゲームにおけるス
タミナや、有償ポイントといったパラメータが、サーバ装置1にて管理される。そのため
、ゲーム動作部212は、ゲームにおいてこれらの所定のパラメータの変化が伴う処理が
発生する場合には、サーバ装置1との通信を行うことにより、サーバ装置1が管理するパ
ラメータを更新させる。そして、ゲーム動作部212は、更新後のパラメータをサーバ装
置1から受信し、この更新後のパラメータに基づいてゲームの動作を継続する。
When the game operation unit 212 is provided, predetermined parameters in the game operated by the game operation unit 212 can be managed by the server device 1. For example, parameters such as stamina and paid points in the game are managed by the server device 1. Therefore, when a process involving a change in these predetermined parameters occurs in the game, the game operation unit 212 updates the parameters managed by the server device 1 by communicating with the server device 1. Then, the game operation unit 212 receives the updated parameter from the server device 1, and continues the operation of the game based on the updated parameter.

次に、本システムにおけるセンサデバイス4について説明する。センサデバイス4は、
プレイヤの生体情報を取得することができるセンサを搭載した装置である。プレイヤの生
体情報とは例えば、心拍、脈拍、血圧、呼吸、体温、脳波、血流量、血中物質濃度、皮膚
などの身体の色、表情等であり、プレイヤの身体の状態を示す情報であればよい。そして
、センサデバイス4は、これらの生体情報の1つ以上を計測可能なセンサを搭載している
。例えば心拍や脈拍を計測可能な光学センサを搭載したウェアラブルデバイスや、画像情
報を取得可能なカメラ等であってよい。
Next, the sensor device 4 in this system will be described. The sensor device 4 is
It is a device equipped with a sensor that can acquire biometric information of the player. The biometric information of the player is, for example, heartbeat, pulse, blood pressure, respiration, body temperature, brain wave, blood flow, blood substance concentration, body color such as skin, facial expression, etc., and may be information indicating the state of the player's body. Just do it. The sensor device 4 is equipped with a sensor capable of measuring one or more of these biometric information. For example, it may be a wearable device equipped with an optical sensor capable of measuring a heartbeat or a pulse, a camera capable of acquiring image information, or the like.

センサデバイス4は継続的にまたは断続的にプレイヤの生体情報をセンシングする。取
得したセンサデータは、通信手段等によりセンサデバイス4からプレイヤ端末2を介して
サーバ装置1に送信される。また、センサデータは、センサデバイス4から直接、サーバ
装置1に送信される。あるいは、センサデータは、センサデバイス4から直接もしくはプ
レイヤ端末2を介してサーバ装置1とは別のサーバに送信され、サーバ装置1が当該別の
サーバにアクセスしてデータを取得することとしてもよい。なお、本システムにおいて、
センサデバイス4はプレイヤ端末2と一体でもよいし別体であってもよい。すなわち、プ
レイヤ端末2に各種センサが搭載されていることによって、生体情報の取得とゲームプロ
グラムの実行処理の双方を担うことができる場合がある。
The sensor device 4 continuously or intermittently senses the biometric information of the player. The acquired sensor data is transmitted from the sensor device 4 to the server device 1 via the player terminal 2 by a communication means or the like. Further, the sensor data is transmitted directly from the sensor device 4 to the server device 1. Alternatively, the sensor data may be transmitted directly from the sensor device 4 or via the player terminal 2 to a server different from the server device 1, and the server device 1 may access the other server to acquire the data. .. In this system,
The sensor device 4 may be integrated with the player terminal 2 or may be a separate body. That is, by mounting various sensors on the player terminal 2, it may be possible to take charge of both acquisition of biometric information and execution processing of a game program.

本実施形態におけるゲームシステムは、センサデバイス4によってプレイヤの生体情報
に関するセンサデータを取得し、当該センサデータに基づいてゲーム上の所定の効果を決
定することに関する。プレイヤは、自身の興奮状態や感情に合わせてゲームの音量などが
変わることで、より臨場感を感じることができる。生体情報に合わせて決定する効果とし
ては、ゲームの効果音やバックミュージックなどの音の出力に関するもの(例えば音の大
きさやテンポ等)や、画面の明るさ、画面遷移(例えばセリフの出力や画面の切り替え)
の速さ等がありえる。
The game system in the present embodiment relates to acquiring sensor data regarding the biometric information of the player by the sensor device 4 and determining a predetermined effect on the game based on the sensor data. The player can feel more realistic by changing the volume of the game according to his / her excitement state and emotions. Effects that are determined according to biometric information include those related to sound output such as game sound effects and back music (for example, sound volume and tempo), screen brightness, and screen transitions (for example, dialogue output and screen). Switching)
There can be speed etc.

サーバ装置1のゲーム情報記憶部121は、ゲームに関する情報を記憶する。ゲーム情
報は、ゲームの種類に応じて適宜構成される。例えば対戦ゲームである場合は、ステージ
IDに紐づけて、ステージ名、敵キャラクタ情報等を含む。
The game information storage unit 121 of the server device 1 stores information about the game. The game information is appropriately configured according to the type of the game. For example, in the case of a battle game, the stage name, enemy character information, etc. are included in association with the stage ID.

プレイヤ情報記憶部122は、プレイヤに関する情報を記憶する。プレイヤ情報には、
プレイヤIDに紐づけて、プレイヤ名、プレイヤランク、所有キャラクタ情報、プレイス
テージ情報、所有アイテム情報等を含むことができる。プレイヤランクは、プレイヤのゲ
ームにおけるランク、レベルであり、プレイ時間やゲームの進捗、獲得アイテムなどに応
じて決定される。所有キャラクタ情報は、所有キャラクタのIDに対応付けて、レベル、
各種能力値(対戦ゲームであれば攻撃力、防御力、体力等、音楽ゲームであれば歌唱力、
ダンス力、パフォーマンス力など)などの各種パラメータの現在値を含むことができる。
プレイステージ情報は、設定された複数のステージのうち、プレイヤがこれまでにプレイ
したことのあるステージに関する情報であり、プレイ回数、クリア情報等を含むことがで
きる。所有アイテム情報は、1つ以上の有償アイテム、無償アイテムの保有状況に関する
情報を含み、各所有アイテムのIDに対応付けて、保有数などの情報を含むことができる
。その他、プレイヤ及びゲームのプレイ状況に関する情報を含むことができる。
The player information storage unit 122 stores information about the player. Player information includes
The player name, player rank, owned character information, play stage information, owned item information, and the like can be included in association with the player ID. The player rank is a rank or level in the player's game, and is determined according to the play time, the progress of the game, the acquired items, and the like. The owned character information is associated with the ID of the owned character, and the level,
Various ability values (attack power, defense power, physical strength, etc. for competitive games, singing power for music games, etc.
It can include the current values of various parameters such as dance ability, performance ability, etc.).
The play stage information is information about a stage that the player has played so far among a plurality of set stages, and can include the number of plays, clear information, and the like. The owned item information includes information on the possession status of one or more paid items and free items, and can include information such as the number of possessed items in association with the ID of each owned item. In addition, information regarding the play status of the player and the game can be included.

また、プレイヤ情報記憶部122は、プレイヤIDに紐づけて、プレイヤが使用するプ
レイヤ端末2を識別する情報及び、当該プレイヤが使用するセンサデバイス4を識別する
情報を含む。センサデバイス4がプレイヤ端末2と一体である場合はプレイヤ端末2の識
別情報のみを含むことができる。プレイヤが2以上のセンサデバイス4を使用する場合に
は、1つのプレイヤ端末2に紐づけて2以上のセンサデバイス4を登録してもよい。
Further, the player information storage unit 122 includes information for identifying the player terminal 2 used by the player and information for identifying the sensor device 4 used by the player in association with the player ID. When the sensor device 4 is integrated with the player terminal 2, only the identification information of the player terminal 2 can be included. When the player uses two or more sensor devices 4, two or more sensor devices 4 may be registered in association with one player terminal 2.

センサデータ記憶部123は、センサデバイス4から取得したセンサデータを記憶する
。センサデータ記憶部123に格納されるセンサデータは、加工していない生データであ
ってもよいし、データ処理加工を経た加工済みデータであってもよい。また、センサデー
タを解析することによって得られた二次データであってもよい。
The sensor data storage unit 123 stores the sensor data acquired from the sensor device 4. The sensor data stored in the sensor data storage unit 123 may be raw data that has not been processed, or may be processed data that has undergone data processing. Further, it may be secondary data obtained by analyzing the sensor data.

効果情報記憶部124は、センサデータの解析結果とゲーム上の効果との対応付けを定
めた対応テーブルを含む。図4は、効果情報記憶部124に格納される効果情報テーブル
の構成例である。効果情報テーブルには、生体情報の解析結果と、効果の対応関係を含む
。生体情報の解析結果としては、生体情報の種類を特定する情報(心拍、脈拍、血圧、呼
吸、体温、脳波、血流量、血中物質濃度、皮膚などの身体の色、表情等)と、その内容を
含む。生体情報の内容としては、数値で表せるものは数値で特定してもよく、数値範囲や
、その変化(増加、減少、またはそれらの度合いなど)であってよい。また、表情など数
値で表せない場合は所定の表現で特定する。また、センサデータに基づいてプレイヤの興
奮度などの所定の指標を算出する場合は、当該指標と効果の対応関係を規定することもで
きる。効果の出力条件としては、音の音量やテンポを特定の値にすること、また、音量や
テンポを連続的または段階的に大きくする(小さくする)ことなどを特定することができ
る。一例として、図4では心拍数が所定の数値範囲であった場合に、ゲームにおけるバッ
クミュージックの音量とテンポを所定の範囲とすることを定めた例を示している。また、
別の例としては例えば、音のテンポを心拍数と同じ、もしくは、心拍数に所定の係数を乗
じた値に設定するようにしてもよい。
The effect information storage unit 124 includes a correspondence table that defines the correspondence between the analysis result of the sensor data and the effect on the game. FIG. 4 is a configuration example of the effect information table stored in the effect information storage unit 124. The effect information table includes the analysis result of biometric information and the correspondence between the effects. As the analysis result of biological information, information that identifies the type of biological information (heartbeat, pulse, blood pressure, respiration, body temperature, brain wave, blood flow, blood substance concentration, body color such as skin, facial expression, etc.) and its Includes content. As the content of the biological information, what can be expressed numerically may be specified numerically, and may be a numerical range or a change thereof (increase, decrease, or the degree thereof, etc.). If the facial expression cannot be expressed numerically, specify it with a predetermined expression. Further, when calculating a predetermined index such as the degree of excitement of the player based on the sensor data, it is also possible to specify the correspondence between the index and the effect. As the output condition of the effect, it is possible to specify that the volume or tempo of the sound is set to a specific value, or that the volume or tempo is continuously or gradually increased (decreased). As an example, FIG. 4 shows an example in which when the heart rate is in a predetermined numerical range, the volume and tempo of the back music in the game are set in the predetermined range. again,
As another example, for example, the tempo of the sound may be set to be the same as the heart rate or a value obtained by multiplying the heart rate by a predetermined coefficient.

また、効果情報は、当該効果の設定を実行する特定のゲーム中のシーンを識別するシーン
情報を含むこともできる。図4の例では、シーン情報としてゲームの特定のバトル時にお
いて、特定の心拍数であった場合に、効果音や音楽を特定の音量及び/またはテンポに設
定することを特定している。このように、バトル時以外にも例えばボス戦時、クエスト時
、アイテム発見時、抽選ゲーム時、歩行時、などゲーム中の所定の状況を特定する条件を
設定可能である。
The effect information can also include scene information that identifies a particular in-game scene that performs the effect setting. In the example of FIG. 4, it is specified that the sound effect or music is set to a specific volume and / or tempo when the heart rate is a specific heart rate at a specific battle of the game as scene information. In this way, it is possible to set conditions for specifying a predetermined situation during the game, such as during a boss battle, during a quest, during an item discovery, during a lottery game, or during walking, in addition to the time of battle.

さらに、効果情報は、プレイヤが自身で設定可能としてもよい。すなわち、プレイヤは、
利用する生体情報の種類、条件(数値範囲など)、出力される効果の種類(音の大きさ、
音のテンポ、その他画面遷移の速度など)、を選択することができる。また、当該効果の
出力条件が実行されるゲーム中のシーンを特定可能としてもよい。例えば、全ての敵との
バトル時に当該設定を実行することとしてもよいし、特定の条件のバトル時(例えばボス
とのバトル)にのみ当該設定を実行することとしてもよい。効果情報をプレイヤが設定可
能とすることによって、プレイヤは、自身が利用可能なセンサデバイス4の取得可能な生
体情報に応じて設定を変えることができる。また、自分の感覚に合わせて好みの条件設定
をすることができる。
Further, the effect information may be set by the player himself / herself. That is, the player
Type of biometric information to be used, conditions (numerical range, etc.), type of output effect (loudness, sound volume, etc.)
You can select the tempo of the sound, other screen transition speeds, etc.). Further, it may be possible to specify the scene in the game in which the output condition of the effect is executed. For example, the setting may be executed during a battle with all enemies, or the setting may be executed only during a battle with specific conditions (for example, a battle with a boss). By allowing the player to set the effect information, the player can change the setting according to the biometric information that can be acquired by the sensor device 4 that can be used by the player. In addition, you can set your favorite conditions according to your own feelings.

サーバ装置1のゲーム実行部111は、ゲームプログラムに従ってゲームを進行させる
処理を実行する機能を有している。本実施形態におけるゲームシステムによるゲームは、
任意の種類のゲームであってよく、例えば、対戦ゲーム、パズルゲーム、アクションゲー
ム、野球ゲーム、サッカーゲーム、その他スポーツゲーム、クイズゲーム、ピンボールゲ
ーム、カードゲーム、リズムゲーム、RPG(ロールプレイングゲーム)、位置情報ゲー
ム、ボードゲーム、アドベンチャーゲーム、カジノゲーム、シミュレーションゲーム、ス
トラテジーゲーム、レーシングゲームなどであってよい。
The game execution unit 111 of the server device 1 has a function of executing a process of advancing the game according to the game program. The game by the game system in this embodiment is
It can be any kind of game, for example, competitive games, puzzle games, action games, baseball games, soccer games, other sports games, quiz games, pinball games, card games, rhythm games, RPGs (role playing games). , Position information games, board games, adventure games, casino games, simulation games, strategy games, racing games, and the like.

画面データ生成部112は、ゲーム画面をプレイヤ端末2に表示させるための画面デー
タを生成する処理を実行する機能を有している。画面データ生成部112は、上記の任意
のゲームに関する画面データを生成する。生成された画面データは、プレイヤ端末2に送
信されて、出力部24により出力される。
The screen data generation unit 112 has a function of executing a process of generating screen data for displaying the game screen on the player terminal 2. The screen data generation unit 112 generates screen data related to the above-mentioned arbitrary game. The generated screen data is transmitted to the player terminal 2 and output by the output unit 24.

センサデータ取得部113(データ取得部)は、センサデバイス4からプレイヤの生体
情報に関するセンサデータを取得する。センサデータ取得部113は、継続的にセンサデ
ータを取得してもよいし、所定期間間隔で取得することとしてもよい。また、所定の条件
を満たした場合にのみセンサデータの取得を実行してもよい。例えば、図4で示した効果
情報において特定のゲームシーンにおいてのみ効果の決定を行うこととしている場合にお
いては、当該特定のゲームシーンが実行されているときにのみセンサデータの取得を行う
こととしてもよい。また、プレイヤによりセンサデータの取得を実行すること/実行しな
いことを選択可能にする場合、プレイヤによってセンサデータの取得を実行することが選
択されているときにのみセンサデータの取得を実行する。取得したセンサデータは、セン
サデータ記憶部123に格納される。センサデータは、プレイヤを識別する情報又はプレ
イヤ端末2を識別する情報に紐づけられ、また時刻情報等を含むことができる。
The sensor data acquisition unit 113 (data acquisition unit) acquires sensor data related to the biometric information of the player from the sensor device 4. The sensor data acquisition unit 113 may continuously acquire sensor data, or may acquire sensor data at predetermined period intervals. Further, the sensor data may be acquired only when a predetermined condition is satisfied. For example, in the case where the effect is determined only in a specific game scene in the effect information shown in FIG. 4, the sensor data may be acquired only when the specific game scene is executed. good. Further, when the player can select whether or not to execute the sensor data acquisition, the sensor data acquisition is executed only when the player selects to execute the sensor data acquisition. The acquired sensor data is stored in the sensor data storage unit 123. The sensor data is associated with information that identifies the player or information that identifies the player terminal 2, and can also include time information and the like.

解析部114は、取得したセンサデータを解析する。解析は、取得した生データを効果
の決定に利用できる形態に加工することや、センサデータに基づいて所定の数値情報を算
出することを含む。例えば、心拍データを取得した場合は、心拍データから1分当たりの
心拍数を算出したり、心拍数が増加していること/減少していること、およびその変化量
などを算出することができる。生体情報の変化を算出する場合は、経時的に所定期間にわ
たって計測されたセンサデータを取得し、ある期間における生体情報とその後のある期間
における生体情報とを比較することによって、ある生体情報の変化を決定することができ
る。また、プレイヤの顔などの身体の一部の画像データを取得して、画像解析することに
よって生体情報を取得してもよい。例えば、プレイヤの顔を含む画像から、顔の所定部分
を認識して色データを抽出することによって、顔色を評価したり、プレイヤの表情から感
情を推定することできる。そのほか、取得したセンサデータごとに任意の解析を行うこと
ができる。なお、センサデバイス4から取得できるデータの種類・性質によって、解析を
行う必要がない場合は、解析部114を有しなくてもよい。
The analysis unit 114 analyzes the acquired sensor data. The analysis involves processing the acquired raw data into a form that can be used to determine the effect, and calculating predetermined numerical information based on the sensor data. For example, when heart rate data is acquired, it is possible to calculate the heart rate per minute from the heart rate data, whether the heart rate is increasing / decreasing, and the amount of change thereof. .. When calculating changes in biological information, changes in certain biological information are obtained by acquiring sensor data measured over a predetermined period over time and comparing the biological information in a certain period with the biological information in a certain period thereafter. Can be determined. Further, biological information may be acquired by acquiring image data of a part of the body such as the player's face and performing image analysis. For example, by recognizing a predetermined part of the face and extracting color data from an image including the player's face, the complexion can be evaluated and emotions can be estimated from the player's facial expression. In addition, any analysis can be performed for each acquired sensor data. If it is not necessary to perform analysis depending on the type and nature of the data that can be acquired from the sensor device 4, it is not necessary to have the analysis unit 114.

また、解析部114は、センサデータに基づいてプレイヤの状態を指標化してもよい。
プレイヤの状態とは例えば、興奮、没頭、集中、恐怖、覚醒などの度合いを示すものであ
ってよい。解析部114は、1つ以上のセンサデータに基づいて、これらの指標を算出す
ることができる。例えば、心拍数と体温のセンサデータから興奮度を算出するなど、2以
上のセンサデータを組み合わせてもよい。各指標の算出方法は適宜決定することができる
Further, the analysis unit 114 may index the state of the player based on the sensor data.
The state of the player may indicate, for example, the degree of excitement, immersion, concentration, fear, arousal, and the like. The analysis unit 114 can calculate these indexes based on one or more sensor data. For example, two or more sensor data may be combined, such as calculating the degree of excitement from the sensor data of the heart rate and the body temperature. The calculation method of each index can be appropriately determined.

効果決定部115は、取得したセンサデータ又は、当該センサデータの解析結果に基づ
いて、ゲーム中の所定の効果を決定する。具体的には、センサデータ又は解析結果をあら
かじめ設定した効果情報テーブルに当てはめることによって効果を決定することができる
。例えば、心拍数を取得した場合には、心拍数の数値が所定の数値範囲に当てはまるか否
かを判定し、特定の効果を決定する。効果決定部115は、決定した効果情報に基づいて
出力指示を生成し、ゲーム実行部111に伝える。ゲーム実行部111は、プレイヤ端末
2の出力部24等に出力条件を指示することによって、プレイヤ端末2上での出力が実行
される。
The effect determination unit 115 determines a predetermined effect during the game based on the acquired sensor data or the analysis result of the sensor data. Specifically, the effect can be determined by applying the sensor data or the analysis result to a preset effect information table. For example, when the heart rate is acquired, it is determined whether or not the heart rate value falls within a predetermined numerical range, and a specific effect is determined. The effect determination unit 115 generates an output instruction based on the determined effect information and transmits it to the game execution unit 111. The game execution unit 111 executes output on the player terminal 2 by instructing the output unit 24 or the like of the player terminal 2 to output conditions.

図5は、本実施形態におけるシステムの基本動作例を説明するフロー図である。 FIG. 5 is a flow chart illustrating a basic operation example of the system according to the present embodiment.

まず、センサデバイスは、センシングを開始する(S101)。センシングは、センサ
デバイスが起動している間において常に実行されてもよいし、ゲームにおける所定の条件
が満たされた場合に実行されてもよい。また、プレイヤがセンシングを開始する旨の操作
を行ったときに開始してもよい。センサデータ取得部113は、センサデバイス4からセ
ンサデータを取得する(S102)。センサデータの取得が解析に必要な十分な時間取得
されたか否かを確認し(S103)、十分なデータが取得できた場合には(S103=Y
es)、解析部114はセンサデータの解析を実行する(S104)。センサデータの取
得が不十分な場合には(S103=No)、センサデータの取得を続行する。
First, the sensor device starts sensing (S101). Sensing may be performed at all times while the sensor device is activated, or may be performed when certain conditions in the game are met. Further, it may be started when the player performs an operation to start sensing. The sensor data acquisition unit 113 acquires sensor data from the sensor device 4 (S102). It is confirmed whether or not the sensor data has been acquired for a sufficient time required for analysis (S103), and if sufficient data can be acquired (S103 = Y).
es), the analysis unit 114 executes the analysis of the sensor data (S104). If the acquisition of the sensor data is insufficient (S103 = No), the acquisition of the sensor data is continued.

解析部114は、センサデータを解析することによって任意の数値情報を生成する。効
果決定部115は、センサデータ又は解析結果が、効果情報テーブルに規定された所定の
条件を満たすか否かを判定する(S105)。所定条件を満たす場合には当該効果が実行
されることを決定する(S106)。効果決定部115は決定した効果情報が実行される
ように出力指示を行う(S107)。
The analysis unit 114 generates arbitrary numerical information by analyzing the sensor data. The effect determination unit 115 determines whether or not the sensor data or the analysis result satisfies a predetermined condition specified in the effect information table (S105). If the predetermined condition is satisfied, it is determined that the effect is executed (S106). The effect determination unit 115 gives an output instruction so that the determined effect information is executed (S107).

以上が、本発明にゲームシステムの基本的な構成である。本発明のシステムによれば、
プレイヤの生体情報に基づいてゲームの効果を決定することができるので、プレイヤの身
体の状態に合わせた変化を実感させることができる。
The above is the basic configuration of the game system in the present invention. According to the system of the present invention
Since the effect of the game can be determined based on the biological information of the player, it is possible to realize the change according to the physical condition of the player.

(変形例1)
上記では、プレイヤの生体情報をもとに、音量やテンポ等の効果を決定する例を説明し
たが、プレイヤの生体情報をもとに、キャラクタのセリフや表情を変更することとしても
よい。図6は、本変形例1におけるプレイヤ端末の画面表示例である。一例として、プレ
イヤの心拍数に基づいて、バトルシーンにおいてプレイヤが操作するキャラクタのセリフ
及び表情が変わることを示している。図6(a)は、本変形例1における効果情報テーブ
ルの構成例である。一例として、心拍数の範囲とそれに対応するキャラクタのセリフが設
定されている。また、図示しないが、各心拍数の範囲に対応して表示するキャラクタの表
情の設定に関する情報を含む。図6(b)は、プレイヤの心拍数が低い状態の時の画面表
示例であり、心拍数が低いときに表示されることが設定されたセリフ31「余裕だよ!」
が表示されている。図6(c)は、プレイヤの心拍数が少し上がった時の画面表示例であ
り、キャラクタ(CH)のセリフ31が、心拍数が少し高いときに表示されることが設定
されたものに変更されている。さらに図6(d)では、プレイヤの心拍数がさらに上昇し
た場合の画面表示例を示しており、キャラクタCHのセリフ31は心拍数が所定値以上で
あったときに表示されるものに変化していることを示している。
(Modification 1)
In the above, an example of determining the effect such as volume and tempo based on the biometric information of the player has been described, but the dialogue and facial expression of the character may be changed based on the biometric information of the player. FIG. 6 is a screen display example of the player terminal in the present modification 1. As an example, it is shown that the dialogue and facial expression of the character operated by the player changes in the battle scene based on the heart rate of the player. FIG. 6A is a configuration example of the effect information table in the present modification 1. As an example, a heart rate range and corresponding character lines are set. Further, although not shown, it includes information regarding the setting of the facial expression of the character to be displayed corresponding to each heart rate range. FIG. 6B is an example of a screen display when the player's heart rate is low, and the dialogue 31 “It's a margin!” Set to be displayed when the player's heart rate is low.
Is displayed. FIG. 6C is an example of a screen display when the player's heart rate rises a little, and the character (CH) dialogue 31 is changed to one set to be displayed when the heart rate is a little high. Has been done. Further, FIG. 6D shows an example of screen display when the player's heart rate further rises, and the dialogue 31 of the character CH changes to the one displayed when the heart rate is equal to or higher than a predetermined value. It shows that it is.

また、図6(b)~(d)に示したように、プレイヤの心拍数等の生体情報を可視化し
てプレイヤ端末2の画面に表示(図中32)してもよい。つまり、画面データ生成部11
2が、センサデータに基づいて指標化したプレイヤの状態を表す画像を生成してもよい。
一例として、プレイヤの心拍数データから算出した興奮度を「ドキドキメータ」32とし
て表示した例を示している。生体情報を可視化して表示することによって、プレイヤが自
身の心拍などの変化を把握することができ、その変化によってゲームの演出が変わること
を実感しやすい。なお、プレイヤの生体情報に基づく画像の種類は、「ドキドキメータ」
32のような棒グラフ状(ゲージ状)の表示に限られず、生体情報の数値(心拍数等)を
そのまま、もしくは所定の係数を乗じて算出した数値を表示してもよいし、生体情報に基
づいて数や色が変化するアイコン等で表示してもよい。また、生体情報に基づく表示は、
現在の生体情報に限らず、所定期間だけ前の(過去の)時点の生体情報でもよいし、過去
の所定時点から現在までの履歴を時系列で表示するようにしてもよい。
Further, as shown in FIGS. 6 (b) to 6 (d), biological information such as the heart rate of the player may be visualized and displayed on the screen of the player terminal 2 (32 in the figure). That is, the screen data generation unit 11
2 may generate an image showing the state of the player indexed based on the sensor data.
As an example, an example in which the degree of excitement calculated from the heart rate data of the player is displayed as the "pounding meter" 32 is shown. By visualizing and displaying biometric information, the player can grasp changes in his / her heartbeat and the like, and it is easy to realize that the effect of the game changes due to the changes. The type of image based on the player's biometric information is "Pounding meter".
The display is not limited to the bar graph shape (gauge shape) such as 32, and the numerical value of the biological information (heart rate, etc.) may be displayed as it is, or the numerical value calculated by multiplying by a predetermined coefficient may be displayed, or based on the biological information. It may be displayed as an icon whose number or color changes. In addition, the display based on biometric information is
Not limited to the current biometric information, biometric information at a (past) time point before a predetermined period may be used, or the history from a predetermined time point in the past to the present may be displayed in chronological order.

(変化例2)
本変化例2においては、プレイヤと共同してプレイする他のプレイヤの生体情報に基づ
く効果の出力を実行する場合を説明する。例えば、プレイヤがフレンドなどの他のプレイ
ヤと共同してバトルする場合等において、当該他のプレイヤのセンサデータも取得し、解
析することによって、当該他のプレイヤに係る効果を決定する。
(Change example 2)
In the second variation example 2, the case of executing the output of the effect based on the biometric information of another player who plays in collaboration with the player will be described. For example, when a player collaborates with another player such as a friend to battle, the sensor data of the other player is also acquired and analyzed to determine the effect of the other player.

図7は、変形例1と同様に、ゲーム画面におけるキャラクタの表情やセリフが生体情報
によって決定される場合を例示している。図7においては、プレイヤと共同してプレイす
るフレンドプレイヤの表情やセリフが、当該フレンドプレイヤの生体情報に基づいて決定
される。センサデータ取得部113は、プレイヤと共同してプレイする他のプレイヤに紐
づけられたセンサデバイスからセンサデータを取得する。効果決定部115は、プレイヤ
及びフレンドプレイヤのセンサデータに基づいてプレイヤとフレンドプレイヤが操作する
キャラクタのセリフと表情を決定する。図7では、プレイヤが操作するキャラクタCHの
画像とセリフ33、及びフレンドプレイヤが操作するキャラクタCH2の画像とセリフ3
4が表示された例を示しており、フレンドプレイヤの心拍数がプレイヤの心拍数よりも高
く、両者のセリフや表情が異なっている。
FIG. 7 illustrates a case where the facial expression and dialogue of the character on the game screen are determined by the biological information, as in the modified example 1. In FIG. 7, the facial expression and dialogue of a friend player who plays jointly with the player are determined based on the biometric information of the friend player. The sensor data acquisition unit 113 acquires sensor data from a sensor device associated with another player who plays jointly with the player. The effect determination unit 115 determines the dialogue and facial expression of the character operated by the player and the friend player based on the sensor data of the player and the friend player. In FIG. 7, the image and dialogue 33 of the character CH operated by the player, and the image and dialogue 3 of the character CH 2 operated by the friend player.
4 shows an example in which the heart rate of the friend player is higher than the heart rate of the player, and the lines and facial expressions of the two are different.

本変形例2のように、自身と一緒にプレイしている他のプレイヤの生体情報に基づいて
演出が変わることによって、より他のプレイヤとのコミュニケーションが活発になる。
As in the second modification, the effect is changed based on the biological information of the other player playing with the player, so that the communication with the other player becomes more active.

以上説明した実施形態及び変形例において、サーバ装置1及びプレイヤ端末2が備える
ソフトウェア機能部の処理について、本発明の趣旨を実現できる範囲で、サーバ装置1の
一部若しくはすべての機能をプレイヤ端末2が備えてもよい。
In the embodiments and modifications described above, with respect to the processing of the software function unit included in the server device 1 and the player terminal 2, a part or all the functions of the server device 1 may be provided to the player terminal 2 within the range in which the gist of the present invention can be realized. May be prepared.

また、図5の処理は、本実施形態の情報処理システムによる処理の一例を示したもので
あり、本願発明を限定する意図ではない。図5の処理に含まれる各工程は、図中に示され
る順序と異なる順序で実行するようにしてもよいし、一部の処理を並列に実行するようい
してもよいし、一部の工程を省略するようにしてもよいし、他の工程を追加してもよい。
Further, the process of FIG. 5 shows an example of the process by the information processing system of the present embodiment, and is not intended to limit the present invention. Each process included in the process of FIG. 5 may be executed in an order different from the order shown in the figure, some processes may be executed in parallel, or some processes may be executed in parallel. May be omitted, or other steps may be added.

上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定
して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良
することができると共に、本発明にはその均等物が含まれることは言うまでもない。
The embodiments described above are merely examples for facilitating the understanding of the present invention, and are not intended to limit the interpretation of the present invention. It goes without saying that the present invention can be modified and improved without departing from the spirit thereof, and the present invention includes its equivalents.

1 サーバ装置(ゲームサーバ)
2 プレイヤ端末
3 ネットワーク
4 センサデバイス
1 Server device (game server)
2 Player terminal 3 Network 4 Sensor device

Claims (9)

プレイヤの生体情報に関するセンサデータを取得するデータ取得部と、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条
件を決定する効果決定部とを備えることを特徴とする、ゲームサーバ。
A data acquisition unit that acquires sensor data related to the player's biometric information,
A game server including an effect determining unit that determines an output condition of a predetermined effect in a game played by the player based on the sensor data.
前記生体情報は、前記プレイヤの心拍数又は脈拍数を含むことを特徴とする、請求項1
に記載のゲームサーバ。
The biological information is characterized by including the heart rate or the pulse rate of the player, claim 1.
The game server described in.
前記センサデータに基づいて、前記プレイヤの興奮状態を評価する解析部をさらに備え
ることを特徴とする、請求項1又は2に記載のゲームサーバ。
The game server according to claim 1 or 2, further comprising an analysis unit that evaluates the excitement state of the player based on the sensor data.
前記効果決定部は、前記センサデータに基づいて、少なくとも前記ゲーム中の音の大き
さ又はテンポを決定することを特徴とする、請求項1~3のいずれかに記載のゲームサー
バ。
The game server according to any one of claims 1 to 3, wherein the effect determining unit determines at least the loudness or tempo of a sound in the game based on the sensor data.
前記効果決定部は、前記センサデータに基づいて、前記ゲーム中のキャラクタの少なく
ともセリフ又は表情を決定することを特徴とする、請求項1~3のいずれかに記載のゲー
ムサーバ。
The game server according to any one of claims 1 to 3, wherein the effect determining unit determines at least a line or a facial expression of a character in the game based on the sensor data.
前記データ取得部は、前記プレイヤと共同でプレイする他のプレイヤのセンサデータをさ
らに取得し、
前記効果決定部は、前記プレイヤ及び前記他のプレイヤのセンサデータに基づいて、前
記効果の出力条件を決定することを特徴とする、請求項1~5のいずれかに記載のゲーム
サーバ。
The data acquisition unit further acquires sensor data of another player who plays jointly with the player.
The game server according to any one of claims 1 to 5, wherein the effect determining unit determines an output condition of the effect based on sensor data of the player and the other player.
前記センサデータに基づいて指標化したプレイヤの状態を表す画像を生成する画面デー
タ生成部を備える、請求項1~6のいずれかに記載のゲームサーバ。
The game server according to any one of claims 1 to 6, further comprising a screen data generation unit that generates an image representing a player state indexed based on the sensor data.
コンピュータに、
プレイヤの生体情報に関するセンサデータを取得するデータ取得処理と、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条
件を決定する効果決定処理とを実行させることを特徴とする、ゲームプログラム。
On the computer
Data acquisition process to acquire sensor data related to player's biometric information,
A game program characterized by executing an effect determination process for determining an output condition of a predetermined effect in a game played by the player based on the sensor data.
プレイヤの生体情報に関するセンサデータを取得するデータ取得ステップと、
前記センサデータに基づいて前記プレイヤがプレイするゲーム中の所定の効果の出力条
件を決定する効果決定ステップと、を有するコンピュータによる情報処理方法。

A data acquisition step to acquire sensor data related to the player's biometric information,
An information processing method by a computer having an effect determination step of determining an output condition of a predetermined effect in a game played by the player based on the sensor data.

JP2022016119A 2020-12-16 2022-02-04 Game server, game program, information processing method Active JP7137724B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022016119A JP7137724B2 (en) 2020-12-16 2022-02-04 Game server, game program, information processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020208009A JP7022190B1 (en) 2020-12-16 2020-12-16 Game server, game program, information processing method
JP2022016119A JP7137724B2 (en) 2020-12-16 2022-02-04 Game server, game program, information processing method
JP2022016017A JP2022095607A (en) 2020-12-16 2022-02-04 Game server, game program and information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022016017A Division JP2022095607A (en) 2020-12-16 2022-02-04 Game server, game program and information processing method

Publications (2)

Publication Number Publication Date
JP2022095609A true JP2022095609A (en) 2022-06-28
JP7137724B2 JP7137724B2 (en) 2022-09-14

Family

ID=87654630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022016119A Active JP7137724B2 (en) 2020-12-16 2022-02-04 Game server, game program, information processing method

Country Status (1)

Country Link
JP (1) JP7137724B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1043429A (en) * 1996-08-07 1998-02-17 Ikyo Kk Game machine
JPH1147445A (en) * 1996-01-31 1999-02-23 Federal Patent Corp Video game
JP2001195059A (en) * 2000-01-11 2001-07-19 Yamaha Corp Musical performance interface
JP2008237387A (en) * 2007-03-26 2008-10-09 Konami Digital Entertainment:Kk Game program, game device and game control method
JP2012081063A (en) * 2010-10-12 2012-04-26 Rohm Co Ltd Game system, program, and information storage medium
JP2013535051A (en) * 2010-06-09 2013-09-09 マイクロソフト コーポレーション Real-time animation of facial expressions
JP2013258555A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method
WO2016021235A1 (en) * 2014-08-07 2016-02-11 任天堂株式会社 Information processing system, information processing device, information processing program, and information processing method
JP2019139170A (en) * 2018-02-14 2019-08-22 Gatebox株式会社 Image display device, image display method, and image display program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1147445A (en) * 1996-01-31 1999-02-23 Federal Patent Corp Video game
JPH1043429A (en) * 1996-08-07 1998-02-17 Ikyo Kk Game machine
JP2001195059A (en) * 2000-01-11 2001-07-19 Yamaha Corp Musical performance interface
JP2008237387A (en) * 2007-03-26 2008-10-09 Konami Digital Entertainment:Kk Game program, game device and game control method
JP2013535051A (en) * 2010-06-09 2013-09-09 マイクロソフト コーポレーション Real-time animation of facial expressions
JP2012081063A (en) * 2010-10-12 2012-04-26 Rohm Co Ltd Game system, program, and information storage medium
JP2013258555A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method
WO2016021235A1 (en) * 2014-08-07 2016-02-11 任天堂株式会社 Information processing system, information processing device, information processing program, and information processing method
JP2019139170A (en) * 2018-02-14 2019-08-22 Gatebox株式会社 Image display device, image display method, and image display program

Also Published As

Publication number Publication date
JP7137724B2 (en) 2022-09-14

Similar Documents

Publication Publication Date Title
US20130084969A1 (en) Asynchronous gameplay with rival display
JP6605224B2 (en) Server and program
JP7419185B2 (en) Programs, terminals, game systems and game management devices
JP2021098111A (en) Program, game system and game management server
JP5771587B2 (en) GAME CONTROL DEVICE, PROGRAM, GAME SYSTEM
JP6676808B1 (en) Program, terminal, game system, and game management device
US20230001300A1 (en) Computer system, game system, and control method of computer system
JP7022190B1 (en) Game server, game program, information processing method
JP7242950B2 (en) Game server, game program, information processing method
JP7137724B2 (en) Game server, game program, information processing method
JP7137725B2 (en) Game server, game program, information processing method
US11890545B2 (en) Enhancement of gameplay experience based on analysis of player data
JP5863622B2 (en) GAME CONTROL DEVICE, GAME CONTROL METHOD, PROGRAM, GAME SYSTEM
CN115705337A (en) Health care and health game
JP7399758B2 (en) Game systems, server devices and programs
JP2020175241A (en) Program, terminal, game system, and game management device
JP2021090634A (en) Program, terminal, game system, and game management server
JP7140996B2 (en) Game-related service providing program and server device
JP2021040700A (en) Program, information processing device, and game system
JP6820644B1 (en) Programs, terminals, servers, and game systems
JP7440313B2 (en) Programs, terminals, game systems and game management devices
JP6737853B2 (en) Game program and game system
JP2018171252A (en) Program and game system
JP6833333B2 (en) Program and game system
JP2024029835A (en) Game program, game device and game system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220902

R150 Certificate of patent or registration of utility model

Ref document number: 7137724

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150