JP2024011187A - Information processing device - Google Patents
Information processing device Download PDFInfo
- Publication number
- JP2024011187A JP2024011187A JP2022113002A JP2022113002A JP2024011187A JP 2024011187 A JP2024011187 A JP 2024011187A JP 2022113002 A JP2022113002 A JP 2022113002A JP 2022113002 A JP2022113002 A JP 2022113002A JP 2024011187 A JP2024011187 A JP 2024011187A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information processing
- processing apparatus
- game
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 38
- 230000008859 change Effects 0.000 claims abstract description 12
- 230000035945 sensitivity Effects 0.000 claims abstract description 6
- 230000000694 effects Effects 0.000 claims description 92
- 238000000034 method Methods 0.000 claims description 29
- 210000004556 brain Anatomy 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 8
- 230000015541 sensory perception of touch Effects 0.000 claims description 7
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000017531 blood circulation Effects 0.000 claims description 5
- 230000036772 blood pressure Effects 0.000 claims description 4
- 230000008921 facial expression Effects 0.000 claims description 4
- 230000036760 body temperature Effects 0.000 claims description 3
- 230000004438 eyesight Effects 0.000 claims description 2
- 230000000638 stimulation Effects 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 description 28
- 238000001514 detection method Methods 0.000 description 22
- 238000004519 manufacturing process Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000001934 delay Effects 0.000 description 4
- 230000000740 bleeding effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 210000001835 viscera Anatomy 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置に関し、特にコンテンツ(例えばビデオゲーム)の演出を制御する技術に関する。 TECHNICAL FIELD The present invention relates to an information processing device, and particularly to a technique for controlling the presentation of content (for example, a video game).
ゲーム(ビデオゲーム)には、ロールプレイングゲーム、アクションゲーム、および格闘ゲームといった様々なジャンルが存在する。プレイヤーに恐怖を体験させて楽しませるジャンルとしてホラーゲームが存在する。しかし、恐怖演出に対する耐性はプレイヤーに依って異なるため、複数のプレイヤーが協力し合うホラーゲームでは、演出が怖くなくて楽しめないプレイヤーが発生したり、演出が怖すぎて楽しめないプレイヤーが発生したりしてしまう。 There are various genres of games (video games), such as role-playing games, action games, and fighting games. Horror games exist as a genre that entertains players by letting them experience fear. However, tolerance to scary effects varies depending on the player, so in horror games where multiple players cooperate, some players may not be able to enjoy the effects because the effects are not scary, and others may not be able to enjoy the effects because the effects are too scary. Resulting in.
プレイヤーの生体情報から当該プレイヤーの心理状態を分析してゲームに反映する方法が提案されている。特許文献1には、ヘッドマウントディスプレイがプレイヤーの生体情報を心理状態指標(心理状態を示す指標)に変換してデータベースに登録し、他のプレイヤーの心理状態指標をデータベースから取得して表示する技術が開示されている。特許文献2には、ユーザーの血流情報に基づいてアトラクション装置の動作を制御する技術が開示されている。 A method has been proposed to analyze the player's psychological state based on the player's biometric information and reflect it in the game. Patent Document 1 describes a technology in which a head-mounted display converts a player's biological information into a psychological state index (an index indicating a psychological state) and registers it in a database, and acquires and displays other players' psychological state indices from the database. is disclosed. Patent Document 2 discloses a technique for controlling the operation of an attraction device based on a user's blood flow information.
しかしながら、特許文献1に開示の技術では、プレイヤーの心理状態が他のプレイヤーに伝わるすぎず、ゲームの演出を楽しめないプレイヤー(例えば、演出が怖くなくて楽しめないプレイヤー、および演出が怖すぎて楽しめないプレイヤー)が発生してしまう。特許文献2に開示の技術では、最新の血流情報を検出してアトラクション装置の動作を制御する処理を繰り返す必要があり、この処理の時間によって、アトラクション装置の動作に遅延が生じてしまう。 However, with the technology disclosed in Patent Document 1, the player's psychological state is not transmitted too much to other players, and players who cannot enjoy the game's presentation (for example, players who cannot enjoy the presentation because the presentation is not scary, and players who cannot enjoy the presentation because the presentation is too scary) (No player) will occur. In the technique disclosed in Patent Document 2, it is necessary to repeat the process of detecting the latest blood flow information and controlling the operation of the attraction device, and the time for this process causes a delay in the operation of the attraction device.
本発明は、コンテンツ(例えばゲーム)の演出の遅延を抑制しつつ、コンテンツの演出をユーザー(例えばゲームのプレイヤー)に適した演出に制御することのできる技術を提供することである。 An object of the present invention is to provide a technology that can control the presentation of content to be suitable for a user (for example, a game player) while suppressing delays in presentation of content (for example, a game).
本発明の第1の態様は、ユーザーの生体情報を取得する取得手段と、ユーザーに対する刺激に応じた前記生体情報の変化に基づいて、前記ユーザーの感性に関するパラメータを予め決定する決定手段と、コンテンツを実行して、前記コンテンツの演出を前記パラメータに基づいて制御する制御手段とを有することを特徴とする情報処理装置である。 A first aspect of the present invention includes an acquisition unit that acquires biometric information of a user, a determining unit that determines in advance a parameter related to the user's sensitivity based on a change in the biometric information in response to a stimulus to the user, and a content The information processing apparatus is characterized in that it has a control means that executes the following and controls the presentation of the content based on the parameters.
本発明の第2の態様は、ユーザーの生体情報を取得するステップと、前記ユーザーに対する刺激に応じた前記生体情報の変化に基づいて、前記ユーザーの感性に関するパラメータを予め決定するステップと、コンテンツを実行して、前記コンテンツの演出を前記パラメータに基づいて制御するステップとを有することを特徴とする情報処理装置の制御方法
である。
A second aspect of the present invention includes the steps of: acquiring biometric information of a user; predetermining parameters related to the user's sensibilities based on changes in the biometric information in response to stimulation of the user; A method for controlling an information processing apparatus is characterized in that the method includes the step of controlling the presentation of the content based on the parameters.
本発明の第3の態様は、コンピュータを、上述した情報処理装置の各手段として機能させるためのプログラムである。本発明の第4の態様は、コンピュータを、上述した情報処理装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体である。 A third aspect of the present invention is a program for causing a computer to function as each means of the information processing apparatus described above. A fourth aspect of the present invention is a computer-readable storage medium storing a program for causing a computer to function as each means of the information processing apparatus described above.
本発明によれば、コンテンツ(例えばゲーム)の演出の遅延を抑制しつつ、コンテンツの演出をユーザー(例えばゲームのプレイヤー)に適した演出に制御することができる。 According to the present invention, it is possible to control the presentation of the content to be suitable for the user (for example, the game player) while suppressing the delay in the presentation of the content (for example, the game).
以下、本発明の実施形態について説明する。本実施形態では、ホラーゲームを実行する場合について説明する。ホラーゲームは、ユーザー(プレイヤー)に恐怖を体験させて楽しませるゲーム(ビデオゲーム)である。なお、実行するコンテンツはホラーゲームに限られない。例えば、コンテンツは、ロールプレイングゲーム、アクションゲーム、または格闘ゲームであってもよい。コンテンツはゲームでなくてもよい。例えば、コンテンツの実行は、アトラクションの実行であってもよいし、動画の再生であってもよい。 Embodiments of the present invention will be described below. In this embodiment, a case will be described in which a horror game is executed. Horror games are games (video games) that entertain users (players) by letting them experience fear. Note that the content to be executed is not limited to horror games. For example, the content may be a role-playing game, an action game, or a fighting game. The content does not have to be a game. For example, executing the content may be executing an attraction or playing a video.
図1は、本実施形態に係るゲーム実行システムの全体構成図である。本実施形態に係るゲーム実行システムは、ゲーム実行装置101、ゲームサーバー102、およびデータベース103を有する。ゲーム実行装置101は、ゲームを実行する情報処理装置である。ゲーム実行装置101は、ユーザーが所有する装置であり、ローカルに存在する。ゲーム実行装置101は、ネットワーク104を介して、ゲームサーバー102とデータベース103に接続されている。ゲームサーバー102は、ゲームに必要な情報をゲーム実行装置101に提供する。データベース103は、ゲームに係るデータ、およびユーザー(プレイヤー)に係るデータを記憶する。
FIG. 1 is an overall configuration diagram of a game execution system according to this embodiment. The game execution system according to this embodiment includes a
ゲーム実行装置101は、ゲーム実行ファイルがインストールされたパーソナルコンピュータ(PC)であってもよいし、ゲーム専用装置(ゲーム機)であってもよい。ネットワーク104に接続されるゲーム実行装置の数は特に限定されず、1つのゲーム実行装置がネットワーク104に接続されてもよいし、複数のゲーム実行装置がネットワーク104に接続されてもよい。図1では、ゲーム実行装置101,101a~101nがネットワーク104に接続されている。ネットワーク104に接続された複数のゲーム実行装置の複数のユーザー(複数のプレイヤー)は、共通のゲームをプレイして協力し合うことができる。ゲーム実行装置101a~101nのそれぞれはゲーム実行装置101と同様の構成を有する。
The
ゲーム実行装置101は、生体情報検出装置105、入力インターフェース106、および出力インターフェース107を有する。生体情報検出装置105は、ユーザーの生体情報を検出(取得)して出力する。入力インターフェース106は、ユーザーの操作情報または音声情報を取得して出力する。例えば、入力インターフェース106は、コントローラーまたはマイクロフォンである。出力インターフェース107は、ゲームの映像また
は音声を出力する。例えば、出力インターフェース107は、表示装置または音声出力装置である。
The
なお、ゲーム実行装置101は生体情報検出装置105の出力を取得することができればよく、生体情報検出装置105はゲーム実行装置101とは別体の装置(ゲーム実行装置101に接続された装置)であってもよい。同様に、ゲーム実行装置101は入力インターフェース106の出力を取得することができればよく、入力インターフェース106はゲーム実行装置101とは別体の装置であってもよい。ゲーム実行装置101は出力インターフェース107に情報(例えば、ゲームの映像情報または音声情報)を出力することができればよく、出力インターフェース107はゲーム実行装置101とは別体の装置であってもよい。
Note that the
図2は、ゲーム実行装置101のハードウェア構成図である。ゲーム実行装置101は、制御部201、演算装置202、メモリ203、SSD(Solid State Drive)204、グラフィック演算装置205、外部メモリ206、および通信装置207を有する。さらに、ゲーム実行装置101は、生体情報検出装置208、コントローラー209、マイクロフォン210、表示装置211、および音声出力装置212を有する。制御部201以外の上記ハードウェアは、制御部201に接続されている。
FIG. 2 is a hardware configuration diagram of the
制御部201は、ゲーム実行装置101の各部を制御する。例えば、制御部201は、演算装置202、グラフィック演算装置205、および通信装置207を制御して、ゲームを実行する。演算装置202は、各種演算を行う装置である。メモリ203は、各種情報を一時的に記憶する。SSD204と外部メモリ206のそれぞれは、各種情報を記憶する。SSD204と外部メモリ206のそれぞれはゲーム実行装置101とは別体の装置であってもよい。グラフィック演算装置205は、グラフィック演算を行う装置である。通信装置207は、外部装置との通信を行う。
The
例えば、ゲームのプログラム(プログラムファイル)がSSD204に予め格納される。演算装置202は、プログラムをSSD204から読み込んでメモリ203に展開し、実行する。なお、プログラムは、外部メモリ206に予め格納されてもよいし、他の記憶装置(例えばHDD(Hard Disc Drive))に予め格納されてもよい。プログラムに従った演算は演算装置202によって行われるが、ゲームのグラフィック演算はグラフィック演算装置205によって行われる。制御部201は、通信装置207を制御してゲームサーバー102と通信を行い、ゲームの実行に必要なデータの同期処理を行い、ゲームを実行する。
For example, a game program (program file) is stored in the SSD 204 in advance. The
生体情報検出装置208は、ユーザーの生体情報を検出(取得)して出力する。生体情報検出装置208は、図1の生体情報検出装置105に対応する。例えば、生体情報検出装置208は、ユーザーの頭部に装着され、ユーザーの脳波を検出する脳波検出装置である。生体情報検出装置208は、ユーザーの腕または指に装着され、ユーザーの心拍数、発汗、または血圧を検出する検出装置であってもよい。
The biological
コントローラー209は、ゲームの操作(例えば、ゲーム内のキャラクターの操作)のために使用される入力機器である。コントローラー209は、図1の入力インターフェース106に対応する。コントローラー209はゲームパッドであってもよいし、そうでなくてもよい。例えば、コントローラー209として、キーボードとマウスの少なくとも一方が使用されてもよい。
The
マイクロフォン210は、ユーザーの音声をゲーム実行装置101に入力するために使用される入力機器である。マイクロフォン210も、図1の入力インターフェース106
に対応する。ユーザーは、ゲーム中にボイスチャットを行ったり、ゲームへの音声入力(音声によるゲームの操作)を行ったりするために、マイクロフォン210を使用する。
The
corresponds to The user uses the
表示装置211は、ゲームの映像を表示する。表示装置211は、図1の出力インターフェース107に対応する。表示装置211は、据え置き型の表示装置(例えばPCモニター)であってもよいし、ヘッドマウントディスプレイのような頭部装着型の表示装置であってもよい。
The
音声出力装置212は、ゲームの音声(例えば、BGM(BackGround Music)、効果音声、ゲーム内のキャラクターの音声、および他のユーザー(他のプレイヤー)の音声)を出力する。音声出力装置212も、図1の出力インターフェース107に対応する。音声出力装置212は、装着型の音声出力装置(例えば、イヤホンまたはヘッドホン)であってもよいし、据え置き型の音声出力装置(例えばスピーカー)であってもよい。
The
図3は、ゲーム処理のフローチャートである。ゲーム処理は、心理パラメータの登録処理を含む。心理パラメータは、ユーザーの感性(心理状態の変化の傾向)に関するパラメータであり、例えば恐怖演出に対する耐性の強さを示す。図3のゲーム処理は、ゲーム実行装置101において実行される。例えば、ゲーム実行装置101において、ゲーム(ゲームのプログラム)が実行されると、図3のゲーム処理が開始する。上述したように、ゲームのプログラムはSSD204に予め格納されており、演算装置202は、プログラムをSSD204から読み込んでメモリ203に展開し、実行する。以後、実行されたゲームを「対象ゲーム」と記載する
FIG. 3 is a flowchart of game processing. The game processing includes psychological parameter registration processing. The psychological parameter is a parameter related to the user's sensibility (tendency of change in psychological state), and indicates, for example, the strength of resistance to fear effects. The game processing in FIG. 3 is executed in the
ステップS301では、演算装置202は、現在のユーザーが対象ゲームを初めてプレイしたか否か(対象ゲームが現在のユーザーに対して初めて実行されたか否か)を判定する。演算装置202は、現在のユーザーが対象ゲームを初めてプレイしたと判定した場合にステップS302に処理を進め、現在のユーザーが対象ゲームをプレイしたことがあると判定した場合にステップS308に処理を進める。
In step S301, the
例えば、演算装置202は、対象ゲームをユーザーがプレイした際に、当該ユーザーのデータ(プレイデータ)をSSD204に格納する。ステップS301では、演算装置202は、対象ゲームのプレイデータとして、現在のユーザーのプレイデータがSSD204に格納されているか否かを判定(確認)する。演算装置202は、現在のユーザーのプレイデータがSSD204に格納されていないと判定した場合にステップS302に処理を進め、現在のユーザーのプレイデータがSSD204に格納されていると判定した場合にステップS308に処理を進める。なお、演算装置202は、通信装置207を介してデータベース103にプレイデータを格納(アップロード)してもよい。そして、演算装置202は、現在のユーザーのプレイデータがデータベース103に格納されているか否かを判定(確認)してもよい。
For example, when the user plays the target game, the
ステップS302では、演算装置202は、現在のユーザーのデータ(情報)を対象ゲームのプレイデータとしてSSD204に格納(登録)する。プレイデータは、例えば、ユーザーの名前、性別、および年齢を含む。
In step S302, the
ステップS303では、演算装置202は、対象ゲームのチュートリアルを開始(実行)する。チュートリアルでは、ゲームに関する各種説明(例えば、イントロダクションの説明(オープニングムービーを含む)、画面の説明、および操作方法の説明)が行われる。チュートリアルは、ゲームの冒頭の所定期間において実行される。ユーザーは、チュートリアルが開始するまでに生体情報検出装置208を装着する。ユーザーが生体情報検出
装置208を装着すると、演算装置202は、生体情報検出装置208からユーザーの生体情報を取得し、取得した生体情報に基づいてユーザーの心理状態を推定する。
In step S303, the
ステップS304では、演算装置202は、チュートリアル中の演出(対象ゲームに含まれている演出)によってユーザーに刺激を与える。チュートリアル中の演出は、例えば、恐怖演出である。チュートリアル中の演出は、ユーザーの聴覚に対して刺激を与える演出であってもよいし、ユーザーの視覚に対して刺激を与える演出であってもよいし、ユーザーの触覚に対して刺激を与える演出であってもよい。聴覚に対して刺激を与える演出の演算と、触覚に対して刺激を与える演出の演算とは、演算装置202によって行われる。視覚に対して刺激を与える演出の演算は、演算装置202からの指示に従ってグラフィック演算装置205によって行われる。
In step S304, the
聴覚に対して刺激を与える演出は、例えば、BGM演出、効果音演出、または音声演出であり、音声出力装置212によって実現される。視覚に対して刺激を与える演出は、例えば、照明演出またはディティール演出(グラフィカルな表現の演出)であり、表示装置211によって実現される。触覚に対して刺激を与える演出は、例えば、振動演出、風演出、または電流演出であり、コントローラー209または不図示の装置によって実現される。
The performance that stimulates the sense of hearing is, for example, a BGM performance, a sound effect performance, or an audio performance, and is realized by the
BGM演出では、ゲームのシーンに合わせてBGMが出力される。例えば、ユーザーの恐怖心を煽るために、不気味なメロディーが出力されたり、不協和音が出力されたり、敢えてBGMが停止されたりする。 In the BGM production, BGM is output in accordance with the game scene. For example, eerie melodies, dissonant sounds, or background music may be intentionally stopped to arouse fear in users.
効果音演出では、ゲームのシーンに合わせて効果音が出力される。例えば、ユーザーの恐怖心を煽るために、ユーザーの不意をつくタイミングで、ガラスが割れる音が出力されたり、物が落ちる音が出力されたりする。 In the sound effect production, sound effects are output in accordance with the game scene. For example, in order to arouse fear in the user, the sound of glass breaking or the sound of something falling may be output at a timing that catches the user by surprise.
音声演出では、ゲーム内のキャラクター(例えば、幽霊およびモンスターといった敵キャラクター)の音声が出力される。例えば、ユーザーの恐怖心を煽るために、不気味な音声が出力されたり、ユーザーの耳元で音声が発せられているような立体音響効果が実現されたりする。 In the audio production, the audio of characters in the game (for example, enemy characters such as ghosts and monsters) is output. For example, eerie sounds may be output to arouse fear in users, or 3D sound effects may be created that make it seem as if the sounds are being emitted right next to the user's ears.
照明演出では、ゲームのシーンに合わせてゲーム内の照明が制御される。例えば、ユーザーの恐怖心を煽るために、照明が明滅したり、照明が暗転したり、敵キャラクターの影が現れたりする。 In lighting effects, in-game lighting is controlled to match the game scene. For example, the lights may flicker, the lights may dim, or the shadow of an enemy character may appear in order to arouse fear in the user.
ディティール演出では、ゲーム内のキャラクター(例えば、敵キャラクター)のディティールが制御される。例えば、ユーザーの恐怖心を煽るために、敵キャラクターの皮膚がグロテスクに表示されたり、敵キャラクターからの大量の出血が表示されたり、敵キャラクターの内臓が表示されたりする。 In detail production, details of characters in the game (for example, enemy characters) are controlled. For example, to arouse fear in the user, the enemy character's skin may be displayed in a grotesque manner, a large amount of bleeding from the enemy character may be displayed, or the enemy character's internal organs may be displayed.
振動演出では、ゲームのシーンに合わせてユーザーに振動が与えられる。例えば、ユーザーがゲーム内で操作しているキャラクターが転倒したり攻撃を受けたりしたタイミングで、コントローラー209に内蔵されている振動発生装置が振動する。
In the vibration effect, vibrations are given to the user according to the game scene. For example, a vibration generator built into the
風演出では、ゲームのシーンに合わせてユーザーに風が送られる。例えば、ユーザーがゲーム内で操作しているキャラクターが扉を開いたタイミングで、コントローラー209に内蔵されている風発生装置が風を発生させる。
In the wind effect, wind is sent to the user according to the game scene. For example, a wind generator built into the
電流演出では、ゲームのシーンに合わせてユーザーに電流が流される。例えば、ユーザ
ーがゲーム内で操作しているキャラクターが雷に打たれたタイミングで、コントローラー209に設けられた電極からユーザーに電流が流される。
In the current effect, an electric current is passed through the user in accordance with the game scene. For example, when a character operated by a user in a game is struck by lightning, an electric current is applied to the user from an electrode provided on the
なお、ユーザーに対して刺激を与える方法は特に限定されず、チュートリアル中の演出はゲーム実行装置101によって追加された演出(元々は対象ゲームに含まれていない演出)であってもよい。 Note that the method of stimulating the user is not particularly limited, and the presentation during the tutorial may be a presentation added by the game execution device 101 (a presentation not originally included in the target game).
ステップS305では、演算装置202は、ステップS304で実行された演出(ユーザーに対する刺激)に応じたユーザーの生体情報の変化に基づいて、心理パラメータを決定(または更新)する。上述したように、演算装置202は、生体情報検出装置208からユーザーの生体情報を取得し、取得した生体情報に基づいてユーザーの心理状態を推定する。演算装置202は、ステップS304で実行された演出に応じたユーザーの心理状態の変化に基づいて、心理パラメータを決定(または更新)する。
In step S305, the
例えば、ユーザーは、生体情報検出装置208として、脳波を検出(測定)する脳波検出装置を頭部に装着する。演算装置202は、ユーザーの脳波の検出結果(測定結果)を脳波検出装置から取得し、当該脳波をθ(シータ)波、α(アルファ)波、およびβ(ベータ)波に分類する。θ波は4Hz以上8Hz未満の周波数帯の脳波であり、α波は8Hz以上13Hz未満の周波数帯の脳波であり、β波は13Hz以上の周波数帯の脳波である。一般的に、人間は緊張したり恐怖を感じたりすると、β波が活発になる。このため、演算装置202は、β波からユーザーの恐怖度(ユーザーが感じている恐怖の度合い)を推定することができる。
For example, the user wears an electroencephalogram detection device that detects (measures) brain waves on his head as the biological
図4は、チュートリアル中のユーザーの脳波を示す。横軸は時間を示し、縦軸は脳波としての電圧を示す。ここでは、電圧の大きさを「脳波の活発度」と記載する。タイミングt1は、恐怖演出が行われたタイミング(図3のステップS304の処理が行われたタイミング)である。タイミングt1からβ波の活発度が増しているため、ユーザーが恐怖を感じていると推定することができる。演算装置202は、β波の活発度に応じてユーザーの恐怖度を推定する。そして、演算装置202は、心理パラメータとして、恐怖演出に応じた恐怖度の変化量を、SSD204に格納する。
Figure 4 shows the user's brain waves during the tutorial. The horizontal axis shows time, and the vertical axis shows voltage as brain waves. Here, the magnitude of the voltage is described as "brain wave activity level." Timing t1 is the timing at which the fear effect is performed (timing at which the process of step S304 in FIG. 3 is performed). Since the activity level of β waves has been increasing since timing t1, it can be estimated that the user is feeling fear. The
なお、恐怖度の推定方法は上記方法に限られない。例えば、演算装置202は、β波の活発度とθ波またはα波の活発度との比率に応じて恐怖度を推定してもよい。演算装置202は、機械学習(例えばディープラーニング)によって得られた学習済みモデルを用いてθ波、α波、およびβ波の少なくともいずれかから恐怖度を推定してもよい。
Note that the method for estimating the fear level is not limited to the above method. For example, the
また、生体情報は脳波の情報に限られない。例えば、生体情報は、脈拍、血圧、血流、または体温の情報であってもよい。これらの情報は、例えば、ユーザーの腕または指に装着された検出装置(測定装置)から取得することができる。生体情報は、表情、声量、または呼吸(例えば呼吸数)の情報であってもよい。表情の情報および呼吸の情報は、例えば、不図示のカメラによって撮像されたユーザーの顔画像を解析することによって取得することができる。声量の情報および呼吸の情報は、例えば、マイクロフォン210に入力された音声を解析することによって取得することができる。
Furthermore, biological information is not limited to brain wave information. For example, the biological information may be information on pulse, blood pressure, blood flow, or body temperature. This information can be obtained, for example, from a detection device (measuring device) worn on the user's arm or finger. The biological information may be information on facial expressions, voice volume, or breathing (for example, breathing rate). Facial expression information and breathing information can be obtained, for example, by analyzing a user's facial image captured by a camera (not shown). The voice volume information and the breathing information can be obtained, for example, by analyzing the voice input to the
生体情報として複数の情報が取得されてもよい。演算装置202は、生体情報として複数の情報を取得することによって、より高精度に心理パラメータを決定することができる。例えば、演算装置202は、より正確な感性を示す心理パラメータを決定することができる。
A plurality of pieces of information may be acquired as biometric information. The
演算装置202は、ユーザーのプレイデータから性別と年齢の情報を取得し、ユーザー
の性別と年齢の情報をさらに用いて心理パラメータを決定してもよい。演算装置202は、ユーザーの性別と年齢の情報をさらに用いることによって、より高精度に心理パラメータを決定することができる。
The
演算装置202は、心理状態を推定せずに、生体情報の変化に基づいて、心理パラメータを決定(または更新)してもよい。
The
ステップS306では、演算装置202は、チュートリアルが終了したか否か(心理パラメータを決定するための全ての演出が行われたか否か)を判定する。演算装置202は、チュートリアルが終了していないと判定した場合にステップS304に処理を戻し、チュートリアルが終了したと判定した場合にステップS307に処理を進める。
In step S306, the
ステップS307では、演算装置202は、ステップS305でSSD204に格納したユーザーの心理パラメータを、当該ユーザーのプレイデータ(対象ゲームのプレイデータ)と関連付ける(心理パラメータの登録)。なお、演算装置202は、複数の演出にそれぞれ対応する複数の心理パラメータをSSD204に格納してもよいし、複数の心理パラメータを統合した1つの心理パラメータをSSD204に格納してもよい。演出の種類ごとに心理パラメータをSSD204に格納してもよい。例えば、BGM演出、効果音演出、音声演出、照明演出、ディティール演出、振動演出、風演出、および電流演出の8種類の演出にそれぞれ対応する8つの心理パラメータをSSD204に格納してもよい。演算装置202は、通信装置207を介してデータベース103に心理パラメータを格納(登録)してもよい。
In step S307, the
ステップS308では、演算装置202は、ステップS307で登録した心理パラメータに基づいて対象ゲームの演出を制御する演出制御処理を行う。演算装置202は、心理パラメータを決定する処理を、対象ゲームの本編部分の実行中には繰り返さず、本編部分よりも前に予め行い、予め決定された心理パラメータを用いて、対象ゲームの演出を制御する。これにより、対象ゲームの遅延を抑制しつつ、対象ゲームの演出をユーザーに適した演出に制御することができる。演出制御処理の詳細は、図5を用いて後述する。
In step S308, the
なお、ユーザーが対象ゲームを初めてプレイした場合に心理パラメータが決定および登録される例を説明したが、これに限られない。例えば、演算装置202は、対象ゲームの開始前(実行前)に、心理パラメータを決定するための所定のコンテンツを実行して、心理パラメータを決定および登録してもよい。この場合は、ゲームごとに個別に心理パラメータを決定しなくてよく、少ない手間で各ゲームに利用可能な共通の心理パラメータを決定することができる。但し、対象ゲームに含まれている演出を用いて心理パラメータを決定する図3のゲーム処理によれば、対象ゲームにより適した心理パラメータを得ることができる。
Although an example has been described in which the psychological parameters are determined and registered when the user plays the target game for the first time, the present invention is not limited to this. For example, the
また、演算装置202は、対象ゲームの実行中(例えばチュートリアルの後)に、対象ゲームの演出に応じた生体情報の変化に基づいて、心理パラメータを補正(更新)してもよい。こうすることで、心理パラメータを補正(更新)する処理の演算量は心理パラメータを新たに決定する処理よりも少ないため、対象ゲームの遅延を抑制しつつ、対象ゲームの演出をユーザーにより適した演出に制御することができる。
Further, the
図5は、演出制御処理(図3のステップS308)のフローチャートである。 FIG. 5 is a flowchart of the production control process (step S308 in FIG. 3).
ステップS501では、演算装置202は、対象ゲームに関連付けられた現在のユーザーの心理パラメータを、SSD204から読み込む。
In step S501, the
ステップS502では、演算装置202は、SSD204に格納されている対象ゲームのプログラムから、演出レベルを読み込む。例えば、ゲーム開発者は、ユーザー(プレイヤー)に感じてほしい恐怖の度合いを、恐怖演出の演出レベルとして予め設定する。
In step S502, the
ステップS503では、演算装置202は、ステップS501で読み込んだ心理パラメータに基づいて、ステップS502で読み込んだ演出レベルを調整する。例えば、演算装置202は、ステップS502で読み込んだ演出レベルで恐怖演出を行った場合にユーザーの恐怖度が適切な範囲内の値になるか否かを、ステップS501で読み込んだ心理パラメータに基づいて判定する。演算装置202は、ユーザーの恐怖度が適切な範囲の最大値よりも大きくなると判定した場合には演出レベルを下げ、ユーザーの恐怖度が適切な範囲の最小値よりも小さくなると判定した場合には演出レベルを上げる。ユーザーの恐怖度が適切な範囲内の値になると判定した場合には、演出レベルを変更しない。
In step S503, the
演出レベルを変更することで、各種演出が変更される。例えば、BGM演出について、演出レベルを上げた場合には、BGMの音量が上げられたり、BGMの音域が広げられたり、BGMに抑揚がつけられたりする。演出レベルを下げた場合には、BGMの音量が下げられたり、BGMの音域が狭められたり、BGMの抑揚が抑えられたりする。 Various effects can be changed by changing the effect level. For example, when the BGM production level is raised, the volume of the BGM is increased, the range of the BGM is widened, and intonation is added to the BGM. When the production level is lowered, the volume of the BGM is lowered, the range of the BGM is narrowed, and the intonation of the BGM is suppressed.
効果音演出について、演出レベルを上げた場合には、効果音の音量が上げられたり、効果音の音域が広げられたり、効果音に抑揚がつけられたりする。演出レベルを下げた場合には、効果音の音量が下げられたり、効果音の音域が狭められたり、効果音の抑揚が抑えられたりする。 Regarding sound effect production, when the production level is raised, the volume of the sound effect is increased, the range of the sound effect is expanded, and intonation is added to the sound effect. When the production level is lowered, the volume of the sound effect is lowered, the range of the sound effect is narrowed, and the intonation of the sound effect is suppressed.
音声演出について、演出レベルを上げた場合には、音声の音量が上げられたり、音声の音域が広げられたり、音声に抑揚がつけられたりする。演出レベルを下げた場合には、音声の音量が下げられたり、音声の音域が狭められたり、音声の抑揚が抑えられたりする。 Regarding audio production, when the production level is raised, the volume of the audio is increased, the range of the audio is expanded, and intonation is added to the audio. When the production level is lowered, the volume of the audio is lowered, the range of the audio is narrowed, and the intonation of the audio is suppressed.
照明演出について、演出レベルを上げた場合にはゲーム内の照明が暗くされたりし、演出レベルを下げた場合には照明が明るくされたりする。照明の明滅パターンが変更されたり、敵キャラクターの影の強調度合いが変更されたりしてもよい。 Regarding lighting effects, when the effect level is increased, the lighting in the game is dimmed, and when the effect level is lowered, the lights are brightened. The blinking pattern of the lighting may be changed, or the degree of emphasis of the enemy character's shadow may be changed.
ディティール演出について、演出レベルを上げた場合には、敵キャラクターの解像感が高められたり、敵キャラクターからの出血量が増やされたりする。演出レベルを下げた場合には、敵キャラクターの解像感が低減されたり、敵キャラクターからの出血量が減らされたり、敵キャラクターの内臓が非表示にされたりする。 Regarding the detail production, when the production level is raised, the resolution of the enemy character is increased, and the amount of bleeding from the enemy character is increased. When the production level is lowered, the resolution of the enemy character is reduced, the amount of bleeding from the enemy character is reduced, and the internal organs of the enemy character are hidden.
振動演出について、演出レベルを上げた場合には振動が強くされたりし、演出レベルを下げた場合には、振動が弱くされたり、振動しない設定にされたりする。振動パターンが変更されてもよい。 Regarding the vibration effect, when the effect level is raised, the vibration is strengthened, and when the effect level is lowered, the vibration is weakened or set to no vibration. The vibration pattern may be changed.
風演出について、演出レベルを上げた場合には風が強くされたりし、演出レベルを下げた場合には、風が弱くされたり、風が吹かない設定にされたりする。送風パターンが変更されてもよい。 Regarding the wind effect, when the effect level is raised, the wind is made stronger, and when the effect level is lowered, the wind is weakened or set so that no wind blows. The ventilation pattern may be changed.
電流演出について、演出レベルを上げた場合には電流が強くされたりし、演出レベルを下げた場合には、電流が弱くされたり、電流を流さない設定にされたりする。電流パターンが変更されてもよい。 Regarding the current effect, when the effect level is raised, the current is made stronger, and when the effect level is lowered, the current is weakened or set to not flow. The current pattern may also be changed.
なお、演算装置202は、心理パラメータの読み込み(ステップS501)、演出レベルの読み込み(ステップS502)、演出レベルの調整(ステップS503)を、演出ご
とに行ってもよいし、演出の種類ごとに行ってもよい。演算装置202は、複数の演出(例えば全ての演出)で共通の心理パラメータと演出レベルを読み込んで、読み込んだ演出レベルを調整してもよい。
Note that the
ステップS504では、演算装置202は、ステップS503で調整された演出レベルで対象ゲームの演出を実行する。上述したように、聴覚に対して刺激を与える演出(例えば、BGM演出、効果音演出、または音声演出)の演算と、触覚に対して刺激を与える演出(例えば、振動演出、風演出、または電流演出)の演算とは、演算装置202によって行われる。視覚に対して刺激を与える演出(例えば、照明演出またはディティール演出)の演算は、演算装置202からの指示に従ってグラフィック演算装置205によって行われる。そして、聴覚に対して刺激を与える演出は音声出力装置212によって実現され、視覚に対して刺激を与える演出は表示装置211によって実現され、触覚に対して刺激を与える演出はコントローラー209または不図示の装置によって実現される。
In step S504, the
以上のように、本実施形態によれば、ユーザー(例えばゲームのプレイヤー)の心理パラメータが予め決定され、予め決定された心理パラメータに基づいてコンテンツ(例えばゲーム)の演出が制御される。これにより、コンテンツの遅延を抑制しつつ、コンテンツの演出をユーザーに適した演出(ユーザーが楽しめる演出)に制御することができる。 As described above, according to the present embodiment, the psychological parameters of the user (for example, a game player) are determined in advance, and the performance of the content (for example, a game) is controlled based on the predetermined psychological parameters. Thereby, it is possible to control the presentation of the content to be a presentation suitable for the user (a presentation that the user can enjoy) while suppressing delays in the content.
なお、本発明はゲームサーバー102に適用してもよい。例えば、ネットワーク104に接続された複数のゲーム実行装置の複数のユーザーが共通のゲームをプレイする場合に、ゲームサーバー102は、複数のユーザーのそれぞれに対して個別に心理パラメータを決定してもよい。そして、ゲームサーバー102は、複数のユーザーのそれぞれに対して個別にゲームの演出を制御してもよい。こうすることで、複数のユーザーの全員が、ゲームの演出を同じように感じて楽しむことができる。ネットワーク104を介さずとも、複数のユーザーが共通のゲームをプレイする場面において、複数のユーザーのそれぞれに対して個別に心理パラメータを決定し、複数のユーザーのそれぞれに対して個別にゲームの演出を制御すれば、同様の効果が奏される。
Note that the present invention may be applied to the
なお、上述した実施形態(変形例を含む)はあくまで一例であり、本発明の要旨の範囲内で上述した構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。上述した構成を適宜組み合わせて得られる構成も、本発明に含まれる。 The embodiments described above (including modified examples) are merely examples, and the present invention also includes configurations obtained by appropriately modifying or changing the configurations described above within the scope of the gist of the present invention. . The present invention also includes configurations obtained by appropriately combining the configurations described above.
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
本実施形態の開示は、以下の構成、方法、およびプログラムを含む。
(構成1)
ユーザーの生体情報を取得する取得手段と、
ユーザーに対する刺激に応じた前記生体情報の変化に基づいて、前記ユーザーの感性に関するパラメータを予め決定する決定手段と、
コンテンツを実行して、前記コンテンツの演出を前記パラメータに基づいて制御する制御手段と
を有することを特徴とする情報処理装置。
(構成2)
前記生体情報に基づいて前記ユーザーの心理状態を推定する推定手段をさらに有し、
前記決定手段は、前記刺激に応じた前記心理状態の変化に基づいて、前記パラメータを
決定する
ことを特徴とする構成1に記載の情報処理装置。
(構成3)
前記生体情報は、前記ユーザーの脳波、脈拍、血圧、血流、表情、体温、声量、および呼吸の少なくとのいずれかの情報を含む
ことを特徴とする構成2に記載の情報処理装置。
(構成4)
前記刺激は、前記ユーザーの聴覚、視覚、および触覚の少なくともいずれかに対する刺激である
ことを特徴とする構成1~3のいずれか1項に記載の情報処理装置。
(構成5)
前記決定手段は、前記コンテンツの冒頭の所定期間において前記パラメータを決定することを特徴とする構成1~4のいずれか1項に記載の情報処理装置。
(構成6)
前記決定手段は、前記コンテンツの開始前に前記パラメータを決定する
ことを特徴とする構成1~4のいずれか1項に記載の情報処理装置。
(構成7)
前記決定手段は、前記コンテンツが前記ユーザーに対して初めて実行される場合に、前記パラメータを決定する
ことを特徴とする構成1~6のいずれか1項に記載の情報処理装置。
(構成8)
前記コンテンツの実行中に、前記コンテンツの演出に応じた前記生体情報の変化に基づいて、前記パラメータを補正する
ことを特徴とする構成1~7のいずれか1項に記載の情報処理装置。
(構成9)
前記制御手段は、前記ユーザーの聴覚に刺激を与える演出を制御する
ことを特徴とする構成1~8のいずれか1項に記載の情報処理装置。
(構成10)
前記制御手段は、前記ユーザーの視覚に刺激を与える演出を制御する
ことを特徴とする構成1~9のいずれか1項に記載の情報処理装置。
(構成11)
前記制御手段は、前記ユーザーの触覚に刺激を与える演出を制御する
ことを特徴とする構成1~10のいずれか1項に記載の情報処理装置。
(構成12)
前記決定手段は、複数のユーザーのそれぞれに対して個別にパラメータを決定し、
前記制御手段は、前記複数のユーザーのそれぞれに対して個別に演出を制御する
ことを特徴とする構成1~11のいずれか1項に記載の情報処理装置。
(方法)
ユーザーの生体情報を取得するステップと、
前記ユーザーに対する刺激に応じた前記生体情報の変化に基づいて、前記ユーザーの感性に関するパラメータを予め決定するステップと、
コンテンツを実行して、前記コンテンツの演出を前記パラメータに基づいて制御するステップと
を有することを特徴とする情報処理装置の制御方法。
(プログラム)
コンピュータを、構成1~12のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~12のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
The disclosure of this embodiment includes the following configuration, method, and program.
(Configuration 1)
an acquisition means for acquiring biometric information of a user;
determining means for predetermining a parameter related to the user's sensitivity based on a change in the biological information in response to a stimulus to the user;
An information processing apparatus comprising: a control unit that executes content and controls presentation of the content based on the parameters.
(Configuration 2)
further comprising estimation means for estimating the psychological state of the user based on the biological information,
The information processing device according to configuration 1, wherein the determining means determines the parameter based on a change in the psychological state in response to the stimulus.
(Configuration 3)
The information processing device according to configuration 2, wherein the biological information includes at least one of information on the user's brain waves, pulse, blood pressure, blood flow, facial expression, body temperature, voice volume, and breathing.
(Configuration 4)
4. The information processing device according to any one of configurations 1 to 3, wherein the stimulus is a stimulus to at least one of auditory, visual, and tactile senses of the user.
(Configuration 5)
5. The information processing apparatus according to any one of configurations 1 to 4, wherein the determining means determines the parameters during a predetermined period at the beginning of the content.
(Configuration 6)
5. The information processing apparatus according to any one of configurations 1 to 4, wherein the determining means determines the parameters before starting the content.
(Configuration 7)
7. The information processing apparatus according to any one of configurations 1 to 6, wherein the determining unit determines the parameters when the content is executed for the user for the first time.
(Configuration 8)
8. The information processing apparatus according to any one of configurations 1 to 7, wherein the parameters are corrected during execution of the content based on a change in the biometric information according to the presentation of the content.
(Configuration 9)
9. The information processing device according to any one of configurations 1 to 8, wherein the control means controls an effect that stimulates the user's auditory sense.
(Configuration 10)
10. The information processing device according to any one of configurations 1 to 9, wherein the control means controls an effect that stimulates the user's vision.
(Configuration 11)
The information processing device according to any one of configurations 1 to 10, wherein the control means controls an effect that stimulates the user's tactile sense.
(Configuration 12)
The determining means individually determines parameters for each of the plurality of users,
12. The information processing apparatus according to any one of configurations 1 to 11, wherein the control means individually controls effects for each of the plurality of users.
(Method)
obtaining biometric information of the user;
predetermining a parameter related to the user's sensitivity based on a change in the biological information in response to a stimulus to the user;
A method for controlling an information processing apparatus, comprising the steps of: executing content and controlling presentation of the content based on the parameters.
(program)
A program for causing a computer to function as each means of the information processing apparatus according to any one of Configurations 1 to 12.
(media)
A computer-readable storage medium storing a program for causing a computer to function as each means of the information processing apparatus according to any one of Configurations 1 to 12.
101:ゲーム実行装置 105,208:生体情報検出装置
201:制御部 202:演算装置 205:グラフィック演算装置
101:
Claims (15)
ユーザーに対する刺激に応じた前記生体情報の変化に基づいて、前記ユーザーの感性に関するパラメータを予め決定する決定手段と、
コンテンツを実行して、前記コンテンツの演出を前記パラメータに基づいて制御する制御手段と
を有することを特徴とする情報処理装置。 an acquisition means for acquiring biometric information of a user;
determining means for predetermining a parameter related to the user's sensitivity based on a change in the biological information in response to a stimulus to the user;
An information processing apparatus comprising: a control unit that executes content and controls presentation of the content based on the parameters.
前記決定手段は、前記刺激に応じた前記心理状態の変化に基づいて、前記パラメータを決定する
ことを特徴とする請求項1に記載の情報処理装置。 further comprising estimation means for estimating the psychological state of the user based on the biological information,
The information processing apparatus according to claim 1, wherein the determining means determines the parameter based on a change in the psychological state in response to the stimulus.
ことを特徴とする請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, wherein the biological information includes at least one of information on the user's brain waves, pulse, blood pressure, blood flow, facial expression, body temperature, voice volume, and respiration.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the stimulus is a stimulus to at least one of the user's auditory, visual, and tactile senses.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the determining means determines the parameters before starting the content.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the determining means determines the parameters when the content is executed for the first time for the user.
ことを特徴とする請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein the parameters are corrected during execution of the content based on a change in the biometric information according to a presentation of the content.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the control means controls an effect that stimulates the user's auditory sense.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the control means controls an effect that stimulates the user's vision.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the control means controls an effect that stimulates the user's tactile sense.
前記制御手段は、前記複数のユーザーのそれぞれに対して個別に演出を制御する
ことを特徴とする請求項1に記載の情報処理装置。 The determining means individually determines parameters for each of the plurality of users,
The information processing apparatus according to claim 1, wherein the control means individually controls effects for each of the plurality of users.
前記ユーザーに対する刺激に応じた前記生体情報の変化に基づいて、前記ユーザーの感性に関するパラメータを予め決定するステップと、
コンテンツを実行して、前記コンテンツの演出を前記パラメータに基づいて制御するステップと
を有することを特徴とする情報処理装置の制御方法。 obtaining biometric information of the user;
predetermining a parameter related to the user's sensitivity based on a change in the biological information in response to a stimulus to the user;
A method for controlling an information processing apparatus, comprising the steps of: executing content and controlling presentation of the content based on the parameters.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022113002A JP2024011187A (en) | 2022-07-14 | 2022-07-14 | Information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022113002A JP2024011187A (en) | 2022-07-14 | 2022-07-14 | Information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024011187A true JP2024011187A (en) | 2024-01-25 |
Family
ID=89621636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022113002A Pending JP2024011187A (en) | 2022-07-14 | 2022-07-14 | Information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024011187A (en) |
-
2022
- 2022-07-14 JP JP2022113002A patent/JP2024011187A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6922908B2 (en) | Information processing equipment, information processing methods, and programs | |
US11224717B2 (en) | Method and apparatus for virtual-reality-based mindfulness therapy | |
CN106648107B (en) | VR scene control method and device | |
US11000669B2 (en) | Method of virtual reality system and implementing such method | |
JP6306442B2 (en) | Program and game system | |
CN112905015B (en) | Meditation training method based on brain-computer interface | |
KR20210003718A (en) | Social interaction applications for detection of neurophysiological conditions | |
KR20150001038A (en) | Apparatus and method for personalized sensory media play based on the inferred relationship between sensory effects and user's emotional responses | |
US20200219468A1 (en) | Head mounted displaying system and image generating method thereof | |
WO2018100879A1 (en) | Output control device, output control method, and program | |
WO2021185600A1 (en) | System, game console and method for adjusting a virtual environment | |
US20160271497A1 (en) | Dynamic gaming experience adjustments | |
WO2018034113A1 (en) | Content providing system, content providing method and program for content providing system | |
JP6622832B2 (en) | Program and game system | |
JP2024011187A (en) | Information processing device | |
Russell et al. | Have experience: an investigation into vr empathy for panic disorder | |
JP5947438B1 (en) | Performance technology drawing evaluation system | |
JP7495187B2 (en) | Game system and program | |
US20240123351A1 (en) | Affective gaming system and method | |
EP4353341A1 (en) | Affective gaming system and method | |
WO2023189558A1 (en) | Information processing system and information processing method | |
WO2023286343A1 (en) | Information processing device, information processing method, and program | |
US20240145066A1 (en) | Pervasive and Ubiquitous Decentralized Biocybernetic Adaptation and Biofeedback Training System | |
JP2024001520A (en) | Information processing device, information processing method and game system | |
Craig | Adaptive audio engine for EEG-based horror game |