JP2017176580A - 感情制御装置、感情制御方法、およびプログラム - Google Patents

感情制御装置、感情制御方法、およびプログラム Download PDF

Info

Publication number
JP2017176580A
JP2017176580A JP2016070102A JP2016070102A JP2017176580A JP 2017176580 A JP2017176580 A JP 2017176580A JP 2016070102 A JP2016070102 A JP 2016070102A JP 2016070102 A JP2016070102 A JP 2016070102A JP 2017176580 A JP2017176580 A JP 2017176580A
Authority
JP
Japan
Prior art keywords
emotion
user
classification
state
pupil size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016070102A
Other languages
English (en)
Inventor
ジュリアン ピアテック
Peertech Julianne
ジュリアン ピアテック
秀行 増井
Hideyuki Masui
秀行 増井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2016070102A priority Critical patent/JP2017176580A/ja
Publication of JP2017176580A publication Critical patent/JP2017176580A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

【課題】 複数の分析結果に基づいてユーザの感情の状態を精度よく推定し、感情を制御することが可能な、感情制御装置等を提供する。【解決手段】 感情制御装置1は、ユーザの心拍変動情報を取得し(ステップS1)、この心拍変動情報に基づいて第1の感情分類20Aへ分類し(ステップS2)、ユーザの瞳孔サイズ情報を取得(ステップS3)、この瞳孔サイズ情報に基づいて第2の感情分類20Bへ分類する(ステップS4)。そして、第1の感情分類20Aおよび前記第2の感情分類20Bの分類結果に基づいて、ユーザの感情状態を判定し(ステップS5)、感情状態に応じた所定の制御を実行する(ステップS6)。【選択図】図4

Description

本発明は、感情制御装置、感情制御方法、およびプログラムに関し、特に、ユーザの感情を推定する技術に関する。
従来から、ユーザの感情を推定し、推定した感情に応じた処理を実行するシステムが存在する(例えば特許文献1など)。この種のシステムは、ユーザの感情を的確に推定することが極めて重要である。
ところで、心拍センサから取得される心拍データを利用して、感情の状態を推定する方法が知られている(非特許文献1)。この方法によれば、心拍数および心拍変動の高周波成分を組み合わせることにより、低覚醒/中性、高覚醒/快、高覚醒/不快、等の状態を推定する。
また特許文献2には、心拍変動の高周波成分、低周波成分等に基づいて、交感神経活動度指標(LF/HF)等を算出し、ストレスに関係する自律神経機能を評価することが記載されている。
特許第4465730号公報 特許第4487015号公報
豊沢聡,河合隆史,「視聴者の心拍活動を用いた映像短縮方法とその評価」,映像情報メディア学会誌,63(1),2009,pp86-94
しかしながら、心拍変動は個人差(年齢や疾患など)や測定条件によって値が大きく変動し、また、感情を司る自律神経機能以外の様々な臓器、器官の機能が心拍変動に影響を与えているため、心拍変動のみから感情の状態を正確に把握することは難しい、という問題がある。
本発明は、前述した問題点に鑑みてなされたものであり、その目的とすることは、複数の分析結果に基づいてユーザの感情の状態を精度よく推定し、感情を制御することが可能な、感情制御装置等を提供することである。
前述した目的を達成するための第1の発明は、複数の分析結果に基づいてユーザの感情状態を判定する感情状態判定手段と、前記感情状態に応じた所定の制御を実行する感情制御手段と、を備えることを特徴とする感情制御装置である。
第1の発明において、ユーザの心拍変動情報を取得し、この心拍変動情報に基づいて第1の感情分類へ分類する第1の感情分類手段と、ユーザの瞳孔サイズ情報を取得し、この瞳孔サイズ情報に基づいて第2の感情分類へ分類する第2の感情分類手段と、を更に備え、前記感情状態判定手段は、前記第1の感情分類および前記第2の感情分類の分類結果に基づいて、ユーザの感情状態を判定することが望ましい。
第1の発明において、前記第2の感情分類手段は、取得した瞳孔サイズ情報を周囲の明るさに応じて補正し、補正した瞳孔サイズ情報に基づいて第2の感情分類へ分類することが望ましい。
第2の発明は、複数の分析結果に基づいてユーザの感情状態を判定する感情状態判定ステップと、前記感情状態に応じた所定の制御を実行する感情制御ステップと、を含むことを特徴とする感情制御方法である。
第3の発明は、請求項1から請求項3のいずれかに記載の感情制御装置として機能させることを特徴とするプログラムである。
本発明により、複数の分析結果に基づいてユーザの感情の状態を精度よく推定し、感情を制御することが可能な、感情制御装置等が提供される。
感情制御装置1のハードウェア構成 判定対象の感情状態を表す図 感情制御情報31を例示する図 感情制御装置1の動作を説明するフローチャート
以下図面に基づいて、本発明の実施形態(以下、本実施形態)を詳細に説明する。
(感情制御装置1のハードウェア構成)
図1は、本実施形態に係る感情制御装置1のハードウェア構成を示す図である。図に示すように、感情制御装置1は、制御部11、記憶部12、通信制御部13、入力部14、表示部15、周辺機器I/F部16、などが、バス19を介して接続されて構成される。感情制御装置1は、例えば、スマートフォン、ウェアラブルデバイス、パーソナルコンピュータ等の形態で実現される。
また、図に示すように、赤外線カメラ3Aと心拍センサ3Bが通信制御部13を介して感情制御装置1と接続される。
赤外線カメラ3Aは、ユーザの瞳孔を映した赤外線画像を撮影する。この赤外線カメラ3Aは、例えば、ユーザが装着可能な眼鏡型のウェアラブルデバイスに赤外線ライトとともに搭載される。そして、赤外線カメラ3Aは、赤外線ライトにより照らされたユーザの目を撮影する。撮影した赤外線画像データは、感情制御装置1に転送され、記憶部12に格納される。
心拍センサ3Bは、ユーザの腕、指、耳たぶ等から心拍データを計測する。心拍データとは、少なくとも心拍変動を算出可能なデータであり、例えば、心拍の波形データや心拍間隔(拍動の一拍と次の一拍の間の時間)のデータである。この心拍センサ3Bは、例えば、腕、指、耳たぶ等に装着可能なウェアラブルデバイスに搭載される。心拍センサ3Bにより計測された心拍データは、感情制御装置1に転送され、記憶部12に格納される。また心拍センサ3Bとして、ユーザの顔を撮影するカメラ(CCDカメラ等の通常カメラ)を用いもよい。この場合、撮影した画像データに対して、顔の血流の微小な変化と連動する顔色の変化を画像解析することで、心拍データを得る。
赤外線カメラ3Aと心拍センサ3Bは、別々のデバイスに搭載してもよいが、一つのデバイスに搭載してもよい。例えば、赤外線カメラ3Aと心拍センサ3B(通常カメラ)を一つの眼鏡型のウェアラブルデバイスに搭載することが可能である。或いは、この眼鏡型のウェアラブルデバイスの通常カメラに換えて、耳たぶから心拍データを取得する心拍センサを備えるように構成してもよい。
制御部11は、CPU(Central Processing
Unit)、ROM(Read Only Memory)、RAM(Random
Access Memory)等で構成される。CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行することによって本発明に係る感情制御装置1の全ての制御を実行する。
ROMは、不揮発性メモリであり、プログラムやデータ等を恒久的に保持している。RAMは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。
記憶部12は、フラッシュメモリ、HDD(Hard Disk
Drive)等であり、制御部11が実行するプログラム、プログラム実行に必要なデータ等が格納される。プログラム等は、制御部11により必要に応じて読み出されRAMに移されて実行される。
通信制御部13は、通信制御端末、通信ポート等を有し、感情制御装置1とネットワーク間の通信を媒介する通信インターフェースであり、ネットワークを介して、赤外線カメラ3Aおよび心拍センサ3Bとのデータ通信の制御を行う。
入力部14は、データの入力を行い、例えば、タッチパネル等の入力装置を有する。
表示部15は、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。尚、入力部14及び表示部15は、タッチパネルディスプレイのように、一体となっていても良い。
周辺機器I/F(インターフェース)部16は、感情制御装置1と周辺機器を接続させるためのポートであり、周辺機器I/F部16を介して感情制御装置1は周辺機器とのデータ通信を行う。周辺機器I/F部16は、USB、HDMI(登録商標)、MHL、イヤホンマイクコネクタ等で構成されている。周辺機器との接続形態は有線、無線を問わない。
バス19は、各部間の制御信号、データ信号等の授受を媒介する経路である。
また、図1に示したハードウェア構成のほかに、不可聴な超音波を発生させる超音波スピーカ、振動を発生させる振動モータ、周囲の明るさを検知するためのカメラ等のデバイスを備える。
図2は、感情制御装置1が判定対象とするユーザの「感情状態」を表す図である。図に示すように、第1の感情分類20A(ポジティブ−ネガティブ)および第2の感情分類20B(ストレス−リラックス)の各分類により特定される4つの感情状態1〜感情状態4を判定対象とする。第1の感情分類20Aは、ユーザの心拍変動情報に基づいて定まるユーザの感情状態であり、ユーザの感情状態をポジティブ(肯定的感情)またはネガティブ(否定的感情)に分類する。第2の感情分類20Bは、ユーザの瞳孔サイズ情報に基づいて定まるユーザの感情状態であり、ユーザの感情状態をストレスまたはリラックスに分類する。本発明では、心拍変動情報に基づく第1の感情分類20Aと、瞳孔サイズ情報に基づく第2の感情分類20Bの2つの分類結果に基づいて、ユーザの感情状態(感情状態1〜感情状態4)を判定する。
「感情状態1」は、第1の感情分類20Aが「ポジティブ」、且つ、第2の感情分類20Bが「ストレス」の場合の感情状態である。この場合の具体的な感情状態は、例えば“楽しい”“嬉しい”である。
「感情状態2」は、第1の感情分類20Aが「ポジティブ」、且つ、第2の感情分類20Bが「リラックス」の場合の感情状態である。この場合の具体的な感情状態は、例えば“マインドフルネス(瞑想)”である。
「感情状態3」は、第1の感情分類20Aが「ネガティブ」、且つ、第2の感情分類20Bが「ストレス」の場合の感情状態である。この場合の具体的な感情状態は、例えば“怒り”“悲しみ”“恐怖”である。
「感情状態4」は、第1の感情分類20Aが「ネガティブ」、且つ、第2の感情分類20Bが「リラックス」の場合の感情状態である。この場合の具体的な感情状態は、例えば“無力感”“倦怠感”である。
図3は、各感情状態に応じた制御情報である感情制御情報31を例示する図である。感情制御装置1は、この感情制御情報31を参照し、各感情状態に対応する感情制御情報31に基づいて、所定の感情制御を実行する。図に示すように、各感情状態(感情状態1、感情状態2、・・・)に対応する感情制御情報31(31a、31b、31c、…)が設定されている。感情制御は、ユーザ自身やユーザ以外の他者になるべく意識されない態様で実行されることが望ましい。ユーザの感情を他者に気づかれずにユーザの無意識下でコントロールするためである。感情制御情報31a、31b、31c、…はこのような感情制御を例示したものである。
例えば、感情制御情報31aは、「明るさ」によってユーザの感情制御を行う例であり、感情状態に応じて、感情制御装置1の表示部15(表示画面)の明るさ(光量)を「1(暗い)〜10(明るい)」の10段階で変化させる。
感情制御情報31bは、「色」によってユーザの感情制御を行う例であり、感情状態に応じて、感情制御装置1の表示部15(表示画面)の背景色を変化させる。
感情制御情報31cは、心拍を模した「振動」によってユーザの感情制御を行う例であり、感情状態に応じて、感情制御装置1が備える振動センサの振動数(Hz)を変化させる。
この他、感情制御装置1は、超音波スピーカにより不可聴な超音波を感情状態に応じて出力させてもよい。また、感情制御装置1とネットワークを介して接続された外部装置を用いて感情制御を行ってもよい。例えば、外部の照明装置を用いて照明色や照明量を感情状態に応じて制御したり、外部のアロマ発生器を用いて感情状態に応じて所定のアロマを発生させるように制御してもよい。
次に、図4のフローチャートを参照して、感情制御装置1の動作について説明する。赤外線カメラ3Aと心拍センサ3Bが起動されており、赤外線カメラ画像と心拍データが測定可能な状態になっているものとする。
感情制御装置1の制御部11は、赤外線カメラ3Aに測定命令を送信し、赤外線カメラ3Aによる赤外線カメラ画像の測定(撮影)を開始する。そして、制御部11は、赤外線カメラ3Aから赤外線カメラ画像を時々刻々と受信し、受信した赤外線カメラ画像に対して画像処理を施すことで、ユーザの瞳孔サイズの時系列データを取得する(ステップS1)。
瞳孔サイズの取得方法の詳細は割愛するが、例えば、赤外線カメラ画像中の瞳孔に円の半径を変えながらフィッテイングさせ、最もフィッテイング精度の高い円の半径を瞳孔サイズ(瞳孔径)として取得すればよい。
なお、瞳孔サイズは、本発明における「瞳孔サイズ情報」の一例である。
ここで、周囲の明るさが変動すると瞳孔サイズも変動するため、周囲の明るさに応じて瞳孔サイズを補正することが望ましい。具体的には、赤外線カメラ画像の測定と同期して、感情制御装置1に内蔵されたカメラまたは感情制御装置1と外部接続されたカメラを用いて、周囲の明るさの変動を検知し、予め設定・記憶されている明るさと瞳孔サイズの対応関係を保持するデータベースを参照して、明るさに起因する瞳孔サイズの変化の影響を相殺するように、瞳孔サイズの時系列データを補正する。これにより、明るさが一定の状況下における瞳孔サイズの時系列データが得られる。
続いて、感情制御装置1の制御部11は、ステップS1により取得した瞳孔サイズの時系列データに基づいて、ユーザの感情を第1の感情分類20A(ポジティブ−ネガティブ)へ分類する(ステップS2)。
具体的には、瞳孔サイズの変動の傾向を時系列分析し、瞳孔サイズが拡大している場合には、ユーザの感情を「ポジティブ」へ分類し、瞳孔サイズが縮小している場合には、ユーザの感情を「ネガティブ」へ分類する。
続いて、感情制御装置1の制御部11は、感情制御装置1とネットワーク接続された心拍センサ3Bから、例えば心拍間隔(拍動の一拍と次の一拍との時間間隔)の時系列データ(以下、心拍変動時系列データ)を受信し、この心拍変動時系列データをスプライン補間等によりデータ配列が等間隔となるように補間した後、フーリエ解析を実行し心拍変動の周波数成分を抽出する。そして、高周波(HF:High Frequency)成分と低周波(LF:Low Frequency)成分の大きさの比であり、ストレス指標として知られる「LF/HF比」を算出する(ステップS3)。なお、LF/HF比は、本発明における「心拍変動情報」の一例である。
続いて、感情制御装置1の制御部11は、ステップS3により算出したLF/HF比に基づいて、ユーザの感情を第2の感情分類(ストレス−リラックス)へ分類する(ステップS4)。
具体的には、LF/HF比が予め設定されている所定の基準値を超えている場合には、ユーザの感情を「ストレス」へ分類し、それ以外の場合には、ユーザの感情を「リラックス」へ分類する。
そして、感情制御装置1の制御部11は、ステップS2およびステップS4における第1の感情分類20Aおよび第2の感情分類20Bの分類結果に基づいて、ユーザの感情状態を判定する(ステップS5)。
具体的には、感情制御装置1の制御部11は、分類結果に基づいて、ユーザの感情状態を、図2に示す(1)感情状態1(「ポジティブ」+「ストレス」)(2)感情状態2(「ポジティブ」+「リラックス」)(3)感情状態3(「ネガティブ」+「ストレス」)(4)感情状態4(「ネガティブ」+「リラックス」)のいずれに該当するかを判定する。
そして、感情制御装置1の制御部11は、図3の感情制御情報31を参照して、ステップS5において判定した感情状態に応じた感情制御を実行する(ステップS6)。
例えば、ステップS2において第1の感情分類20Aが「ネガティブ」へ分類され、ステップS4において第2の感情分類20Bが「ストレス」へ分類されたとする。この場合、ステップS5において、制御部11は、ユーザの感情状態を感情状態3(「ネガティブ」+「ストレス」)と判定する。そして、制御部11は、感情制御情報31を参照して、感情状態3に応じた感情制御を実行する。例えば、表示部15の明るさを10段階中の「2」とする(通常より明るさを落とす)、または、画面の背景色を「青」色に変更する、などして感情状態3(“怒り”など)の感情を鎮めるような感情制御を実行する。
以上、本実施形態では、ユーザの心拍変動情報を取得し(ステップS1)、この心拍変動情報に基づいて第1の感情分類20Aへ分類し(ステップS2)、ユーザの瞳孔サイズ情報を取得(ステップS3)、この瞳孔サイズ情報に基づいて第2の感情分類20Bへ分類する(ステップS4)。そして、第1の感情分類20Aおよび前記第2の感情分類20Bの分類結果に基づいて、ユーザの感情状態を判定し(ステップS5)、感情状態に応じた所定の制御を実行する(ステップS6)。複数の生体情報の分析結果を用いてユーザの感情状態を精度よく推定できるため、ユーザの感情を好適に制御することが可能となる。
尚、本実施形態では、心拍変動と瞳孔サイズの生体情報を用いてユーザの感情状態を推定したが、感情状態の推定に用いる生体情報はこれらに限定されない。例えば、ユーザの脈拍、発汗量、心拍数、呼吸、体温、筋電、血流、身体の動き、音声等の生体情報を用いてもよい。
以上、添付図面を参照しながら、本発明に係る感情制御装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
1 :感情制御装置
3A :赤外線カメラ
3B :心拍センサ
20A :第1の感情分類
20B :第2の感情分類
31 :感情制御情報

Claims (5)

  1. 複数の分析結果に基づいてユーザの感情状態を判定する感情状態判定手段と、
    前記感情状態に応じた所定の制御を実行する感情制御手段と、
    を備えることを特徴とする感情制御装置。
  2. ユーザの心拍変動情報を取得し、この心拍変動情報に基づいて第1の感情分類へ分類する第1の感情分類手段と、
    ユーザの瞳孔サイズ情報を取得し、この瞳孔サイズ情報に基づいて第2の感情分類へ分類する第2の感情分類手段と、を更に備え、
    前記感情状態判定手段は、前記第1の感情分類および前記第2の感情分類の分類結果に基づいて、ユーザの感情状態を判定する
    ことを特徴とする請求項1に記載の感情制御装置。
  3. 前記第2の感情分類手段は、取得した瞳孔サイズ情報を周囲の明るさに応じて補正し、補正した瞳孔サイズ情報に基づいて第2の感情分類へ分類する
    ことを特徴とする請求項2に記載の感情制御装置。
  4. 複数の分析結果に基づいてユーザの感情状態を判定する感情状態判定ステップと、
    前記感情状態に応じた所定の制御を実行する感情制御ステップと、
    を含むことを特徴とする感情制御方法。
  5. 請求項1から請求項3のいずれかに記載の感情制御装置として機能させることを特徴とするプログラム。
JP2016070102A 2016-03-31 2016-03-31 感情制御装置、感情制御方法、およびプログラム Pending JP2017176580A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016070102A JP2017176580A (ja) 2016-03-31 2016-03-31 感情制御装置、感情制御方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016070102A JP2017176580A (ja) 2016-03-31 2016-03-31 感情制御装置、感情制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2017176580A true JP2017176580A (ja) 2017-10-05

Family

ID=60008924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016070102A Pending JP2017176580A (ja) 2016-03-31 2016-03-31 感情制御装置、感情制御方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2017176580A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019115561A (ja) * 2017-12-27 2019-07-18 国立大学法人滋賀医科大学 心理状態判定方法、判定装置、判定システムおよび判定プログラム
JP2020103462A (ja) * 2018-12-26 2020-07-09 トヨタ紡織株式会社 感情推定装置、環境提供システム、車両、感情推定方法、および情報処理プログラム
KR102400589B1 (ko) * 2020-11-23 2022-05-19 대구대학교 산학협력단 스마트 헬스 케어 기기를 이용한 음원 추천 방법
JP7385892B2 (ja) 2019-05-14 2023-11-24 学校法人 芝浦工業大学 感情推定システム、および感情推定装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019115561A (ja) * 2017-12-27 2019-07-18 国立大学法人滋賀医科大学 心理状態判定方法、判定装置、判定システムおよび判定プログラム
JP7051083B2 (ja) 2017-12-27 2022-04-11 国立大学法人滋賀医科大学 心理状態判定方法、判定装置、判定システムおよび判定プログラム
JP2020103462A (ja) * 2018-12-26 2020-07-09 トヨタ紡織株式会社 感情推定装置、環境提供システム、車両、感情推定方法、および情報処理プログラム
JP7183782B2 (ja) 2018-12-26 2022-12-06 トヨタ紡織株式会社 感情推定装置、環境提供システム、車両、感情推定方法、および情報処理プログラム
JP7385892B2 (ja) 2019-05-14 2023-11-24 学校法人 芝浦工業大学 感情推定システム、および感情推定装置
KR102400589B1 (ko) * 2020-11-23 2022-05-19 대구대학교 산학협력단 스마트 헬스 케어 기기를 이용한 음원 추천 방법

Similar Documents

Publication Publication Date Title
Weech et al. Estimating the sensorimotor components of cybersickness
Suzuki et al. Multisensory integration across exteroceptive and interoceptive domains modulates self-experience in the rubber-hand illusion
US20160210407A1 (en) Method and device for processing content based on bio-signals
KR20190026651A (ko) 사람의 비전 성능에 접근하기 위해 비전 데이터를 획득, 집계 및 분석하기 위한 방법 및 시스템
US12093457B2 (en) Creation of optimal working, learning, and resting environments on electronic devices
US20200121237A1 (en) A method and system for monitoring attention of a subject
JP2017176580A (ja) 感情制御装置、感情制御方法、およびプログラム
JP2020523144A (ja) ユーザのための睡眠改善を促進するシステム及び方法
NZ732929A (en) Method and apparatus for deriving a mental state of a subject
CN115953826A (zh) 利用亮度变化来确定用户特征
KR20190045041A (ko) 뇌 신호를 추정하여 사용자 의도를 인식하는 방법, 그리고 이를 구현한 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치
WO2016192271A1 (zh) 显示装置的参数随动调节系统及调节方法、显示装置
JP2019096116A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7503762B2 (ja) 集中度計測装置、集中度計測方法、及び、プログラム
Aziz et al. Evaluation of Eye Tracking Signal Quality for Virtual Reality Applications: A Case Study in the Meta Quest Pro
WO2022034682A1 (ja) 情報処理装置、制御方法及び記憶媒体
CN111698939B (zh) 生成与外部对象相关联的心率波动信息的方法及其设备
JP2019040525A (ja) 相性分析システム、相性分析装置、相性分析方法、及びプログラム
US10799139B2 (en) Method and system for EEG signal processing
JP5718495B1 (ja) 印象推定装置、その方法、及びプログラム
US20240211040A1 (en) Methods, systems, and related aspects for determining a cognitive load of a sensorized device user
TW201923694A (zh) 程式及資訊處理系統
JP2019041851A (ja) ゲーム評価装置、及びゲーム評価方法
JP7113380B2 (ja) 学習システム、学習方法、及び、コンピュータプログラム
KR20190054356A (ko) 가상현실 장치의 사용으로 인한 사용자의 어지럼증 또는 시각피로도를 정량화하여 평가하는 방법 및 장치