JP7064787B2 - 情報処理装置、プログラム、及び、情報処理方法 - Google Patents

情報処理装置、プログラム、及び、情報処理方法 Download PDF

Info

Publication number
JP7064787B2
JP7064787B2 JP2020121797A JP2020121797A JP7064787B2 JP 7064787 B2 JP7064787 B2 JP 7064787B2 JP 2020121797 A JP2020121797 A JP 2020121797A JP 2020121797 A JP2020121797 A JP 2020121797A JP 7064787 B2 JP7064787 B2 JP 7064787B2
Authority
JP
Japan
Prior art keywords
information
user
subject
field
objective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020121797A
Other languages
English (en)
Other versions
JP2020168537A (ja
JP2020168537A5 (ja
Inventor
瑞人 青砥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dancing Einstein
Original Assignee
Dancing Einstein
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dancing Einstein filed Critical Dancing Einstein
Priority to JP2020121797A priority Critical patent/JP7064787B2/ja
Publication of JP2020168537A publication Critical patent/JP2020168537A/ja
Publication of JP2020168537A5 publication Critical patent/JP2020168537A5/ja
Application granted granted Critical
Publication of JP7064787B2 publication Critical patent/JP7064787B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。
一般に、人は、自身の感情を記録する方法として、文章(例えば、日記)を用いる。文章は、人の主観的感情を表す。つまり、人が作成した文章からは、その人の主観的感情に関連する主観感情指標が得られる。
一方、特許文献1には、MRI(Magnetic Resonance Imaging)検査によって得られた情報に基づいて、被験者の感情を判定する技術が開示されている。MRI検査によって得られた情報は、定量値であるので、被験者の客観的感情を直接的に表す。
特開2013-176406号公報
しかし、特許文献1のMRI検査を受けることは、費用及び手間がかかるため容易ではない。従って、MRI検査を受けたことがない(つまり、客観的感情を表すデータが存在しない)人も多い。そのため、MRI検査を受けたことがない人の感情を高い精度で判定することはできなかった。
このように、従来技術では、客観的感情を表すデータが存在しない人については、感情の推定の精度が十分ではない。
本発明の目的は、客観的感情を表すデータが存在しない人の感情の推定の精度を向上させることである。
本発明の一態様は、
ユーザの感情を推定する情報処理装置であって、
被験者の客観的感情に直接的に関連する直接客観情報を取得する手段を備え、
被験者の主観的感情に関連する被験者主観情報、及び、被験者の客観的感情に間接的に関連する被験間接客観情報の少なくとも1つを取得する手段を備え、
ユーザの主観的感情に関連するユーザ主観情報、及び、ユーザの客観的感情に間接的に関連するユーザ間接客観情報の少なくとも1つを取得する手段を備え、
直接客観情報と、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、を参照して、ユーザの感情に関連するユーザ感情情報を推定する手段を備える、
情報処理装置である。
本発明によれば、客観的感情を表すデータが存在しない人の感情の推定の精度を向上させることができる。
本実施形態の情報処理システムの構成を示すブロック図である。 本実施形態の概要の説明図である。 本実施形態の概要の一態様の説明図である。 本実施形態の被験者情報データベースのデータ構造を示す図である。 本実施形態の被験者流動主観情報データベースのデータ構造を示す図である。 本実施形態の被験者流動間接客観情報データベースのデータ構造を示す図である。 本実施形態のユーザ情報データベースのデータ構造を示す図である。 本実施形態のユーザ流動主観情報データベースのデータ構造を示す図である。 本実施形態のユーザ流動間接客観情報データベースのデータ構造を示す図である。 本実施形態の情報処理の全体フローを示す図である。 図10の被験者情報の登録の処理のシーケンス図である。 図11の情報処理において表示される画面例を示す図である。 図11の情報処理において表示される画面例を示す図である。 図10の被験者流動情報の登録の処理のシーケンス図である。 図14の情報処理において表示される画面例を示す図である。 図14の情報処理において表示される画面例を示す図である。 図14の情報処理において表示される画面例を示す図である。 図10のユーザ情報の登録の処理(OP3)の処理のシーケンス図である。 図18の情報処理において表示される画面例を示す図である。 図10のユーザ流動情報の登録の処理のシーケンス図である。 図11の感情の可視化の処理のフローチャートである。 図21の情報処理において表示される画面例を示す図である。 変形例のユーザ感情情報データベースのデータ構造を示す図である。 変形例の感情の可視化の処理のフローチャートである。
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30と、を備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
(1-1)クライアント装置の構成
図1を参照して、クライアント装置10の構成について説明する。
図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
(1-2)サーバの構成
図1を参照して、サーバ30の構成について説明する。
図1に示すように、サーバ30は、記憶装置31と、プロセッサ32と、通信インタフェース34とを備える。
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
通信インタフェース34は、サーバ30と、クライアント装置10との間の通信を制御するように構成される。
(2)本実施形態の概要
本実施形態の概要について説明する。図2は、本実施形態の概要の説明図である。
図2に示すように、被験者は、3種類の検査(主観検査、間接客観検査、及び、直接客観検査)を受ける。つまり、被験者には、3種類の被験者検査情報(主観情報、間接客観情報、及び、直接客観情報)が関連付けられる。
主観検査は、被験者の主観的感情に関連する被験者主観情報を測定するための検査である。主観検査は、例えば、Q&A形式のテストによって実施される。主観情報は、被験者の主観によって決まる情報である。
間接客観検査は、被験者の客観的感情に関連する間接客観情報を測定するための検査である。間接客観検査は、例えば、サブリミナルテスト又はウェアラブルデバイスによる検査である。被験者間接客観情報は、被験者の感情を司る脳の反応が直接的に反映されるものではないが、間接的には反映されるものである。被験者間接客観情報は、例えば、脈拍、瞳孔サイズ、及び、汗腺の少なくとも1つのから類推される被験者の感情を司る脳の反応を示す情報である。
直接客観検査は、被験者の客観的感情に関連する直接客観情報を測定するための検査である。直接客観検査は、例えば、脳画像処理機器(一例として、MRI機器又はfMRI(functional Magnetic Resonance Imaging)機器)を用いて実施される検査である。直接客観情報は、被験者の感情を司る脳、及び、感情と関連する脳機能(例えば、感情の抑制)の反応が直接的に反映されるものである。換言すると、直接客観情報は、検査情報の中で、被験者の感情を最も客観的に表す情報である。
ユーザは、2種類の検査(主観検査及び間接客観検査)を受ける。つまり、ユーザには、2種類のユーザ検査情報(主観情報及び間接客観情報)が関連付けられる。
ユーザは、被験者とは異なり、直接客観検査を受けていない。したがって、ユーザの直接客観感情情報は存在しない。
本実施形態では、被験者に関連付けられた3種類の検査情報(主観情報、間接客観情報、及び、直接客観情報)から、主観情報及び間接客観情報の組合せと、直接客観情報との相関性を計算する。
また、被験者に関連付けられた主観情報及び間接客観情報の組合せと、直接客観情報との相関性を参照して、ユーザに関連付けられた2種類の検査情報(主観情報及び間接客観情報)からユーザの感情情報(例えば、ユーザの感情コンディション、感情傾向、及び、感情に影響を与える感情因子)を推測する。
このように、本実施形態によれば、直接客観検査を受けていないユーザの感情を司る脳の反応が直接的に反映された直接客観情報を推測することができる。その結果、直接客観検査を受けていないユーザの感情を高精度に推測することができる。
(2-1)本実施形態の概要の一態様
本実施形態の概要の一態様について説明する。図3、本実施形態の概要の一態様の説明図である。
図3示すように、主観検査は、2種類(固着主観検査及び流動主観検査)に分類される。
固着主観検査は、例えば、Q&A形式のテストである。このテストの質問は、被験者に対して、過去に起きた自己に関する出来事及び経験を振り返らせ、且つ、その出来事及び経験のパターンから自己認識を検査するための文脈を含んでいる。従って、このテストの回答から得られる情報は、固着主観情報である。
流動主観検査は、例えば、Q&A形式のテストである。このテストの質問は、被験者に対して、直近の1つの自己の出来事及び経験を振り返らせるための文脈を含んでいる。従って、このテストの回答から得られる情報は、流動主観情報である。複数の流動主観情報と固着主観情報との差は、個人の自己をみる能力、及び、メタ認知能力の差になる。この差は、感情観察力において有用な指標の一つである。
客観検査は、2種類(間接客観検査及び直接客観検査)に分類される。
間接客観検査は、固着間接客観検査及び流動間接客観検査に分類される。
固着間接客観検査は、例えば、被験者に対して実施されるサブリミナルテストである。サブリミナルテストでは、被験者に対してサブリミナル効果を与えるコンテンツ(画像、音声、又は、それらの組合せ)を提示し、且つ、当該コンテンツに対する被験者の反応が計測される。一般的に、サブリミナル効果を与えられた脳は、個人の感情に依存する特定の反応を示す。つまり、計測された反応には、被験者の脳に固着した感情が反映される。したがって、被験者の反応は、固着間接客観情報である。
流動間接客観検査は、例えば、被験者が装着したウェアラブルデバイスを用いたテストである。ウェアラブルデバイスによって取得されたデータは、計測のタイミングによって変動する。従って、このデータは、流動間接客観情報である。
直接客観検査は、固着直接客観検査及び流動直接客観検査に分類される。
固着直接客観検査は、例えば、被験者に対して実施されるMRI検査である。MRI機器によって取得された画像は、被験者の脳に固着した感情が直接的に反映される。したがって、MRI機器によって取得された画像は、固着間接客観情報である。
流動直接客観検査は、例えば、被験者に対して実施されるEEG(Electroencephalogram)検査又はfMRI検査である。EEG検査又はfMRI検査の結果は、検査のタイミングによって変動する。従って、EEG検査及びfMRI検査の結果は、流動直接客観情報である。
本実施形態の一態様では、被験者に関連付けられた5種類の検査情報(固着主観情報、流動主観情報、固着間接客観情報、流動間接客観情報、及び、直接客観情報)から、主観情報及び間接客観情報の組合せと、直接客観情報との相関性を計算する。
また、被験者に関連付けられた主観情報及び間接客観情報の組合せと、直接客観情報との相関性を参照して、ユーザに関連付けられた4種類の検査情報(固着主観情報、流動主観情報、固着間接客観情報、及び、流動間接客観情報)からユーザの感情情報(例えば、ユーザの感情コンディション、感情傾向、及び、感情に影響を与える感情因子)を推測する。
(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3-1)被験者情報データベース
本実施形態の被験者情報データベースについて説明する。図4は、本実施形態の被験者情報データベースのデータ構造を示す図である。
図4の被験者情報データベースには、被験者に関する被験者情報が格納される。
被験者情報データベースは、「被験者ID」フィールドと、「被験者名」フィールドと、「被験者属性」フィールドと、「固着主観」フィールドと、「直接客観」フィールドと、「固着間接客観」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
「被験者ID」フィールドには、被験者を識別する被験者ID(「被験者識別情報」の一例)が格納される。
「被験者名」フィールドには、被験者名に関する情報(例えば、テキスト)が格納される。被験者名、例えば、被験者情報を登録するときに被験者によって任意に決定される。
「被験者属性」フィールドには、被験者の属性に関する被験者属性情報が格納される。被験者属性情報は、例えば、被験者情報を登録するときに被験者によって任意に決定される。
「被験者属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。
「性別」フィールドには、被験者の性別に関する情報が格納される。
「年齢」フィールドには、被験者の年齢に関する情報が格納される。
「職業」フィールドには、被験者の職業に関する情報が格納される。
「固着主観」フィールドには、被験者の固着主観情報が格納される。固着主観情報は、予め用意された複数の質問に対する回答の組合せによって決まる情報である。固着主観情報は、例えば、被験者の性格の種類(以下「性格タイプ」という)に関する情報である。
「直接客観」フィールドには、被験者の直接客観情報が格納される。
「直接客観」フィールドは、「MRI」フィールドと、「fMRI」フィールドと、を含む。
「MRI」フィールドには、MRIの検査結果に関するMRI画像(「直接客観情報」の一例)が格納される。MRI画像は、例えば、被験者の脳の画像データである。
「fMRI」フィールドには、fMRIの検査結果に関するfMRI情報(「直接客観情報」の一例)が格納される。fMRI情報は、複数の刺激のそれぞれに対する脳の各部位の脳活動に関する血流動態反応パラメータ(例えば、扁桃体の活性度、島の活性度、背外側前頭前皮質の不活性度、血中コルチゾール量、血圧変動率、及び、表情筋)を含む。
「固着間接客観」フィールドには、被験者に対する固着間接客観検査(例えば、サブリミナルテスト)から得られる固着間接客観情報が格納される。固着間接客観情報は、例えば、以下を含む。
・サブリミナルコンテンツを提示したときの反応の内容
・サブリミナルコンテンツを提示したときの反応速度
(3-2)被験者流動主観情報データベース
本実施形態の被験者流動主観情報データベースについて説明する。図5は、本実施形態の被験者流動主観情報データベースのデータ構造を示す図である。
図5の被験者流動主観情報データベースには、被験者に対して提示された質問に対する回答が格納される。
被験者流動主観情報データベースは、「データID」フィールドと、「チェックイン日時」フィールドと、「チェックイン回答」フィールドと、「チェックアウト日時」フィールドと、「チェックアウト回答」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
被験者流動主観情報データベースは、被験者IDに関連付けられる。
「データID」フィールドには、被験者流動主観情報データベースのレコードを識別するデータIDが格納される。
「チェックイン日時」フィールドには、チェックインの日時に関する情報が格納される。チェックインとは、あるタスクを実行する前に被験者に提示した質問に対する回答を取得するための処理である。
「チェックイン回答」フィールドには、チェックインにおいて取得された回答に関するチェックイン回答情報が格納される。「チェックイン回答」フィールドの情報は、質問毎に分けて格納される。
「チェックアウト日時」フィールドには、チェックアウトの日時に関する情報が格納される。チェックアウトとは、あるタスクを完了した後に被験者に提示した質問に対する回答を取得するための処理である。
「チェックアウト回答」フィールドには、チェックアウトにおいて取得された回答に関するチェックアウト回答情報が格納される。「チェックアウト回答」フィールドの情報は、質問毎に分けて格納される。
(3-3)被験者流動間接客観情報データベース
本実施形態の被験者流動間接客観情報データベースについて説明する。図6は、本実施形態の被験者流動間接客観情報データベースのデータ構造を示す図である。
図6の被験者流動間接客観情報データベースには、被験者の流動間接客観情報が格納される。
被験者流動間接客観情報データベースは、「データID」フィールドと、「測定日時」フィールドと、「ウェアラブル」フィールドと、を含む。
被験者流動間接客観情報データベースは、被験者IDに関連付けられる。
「データID」フィールドには、被験者流動間接客観情報データベースのレコードを識別するデータIDが格納される。
「測定日時」フィールドには、ウェアラブルデバイスが計測したデータを取得した日時に関する情報が格納される。
「ウェアラブル」フィールドには、ウェアラブルデバイスが計測したデータが格納される。ウェアラブルデバイスが計測したデータは、例えば、以下の少なくとも1つを含む。
・歩数
・脈拍
・心拍数
・消費カロリー
(3-4)ユーザ情報データベース
本実施形態のユーザ情報データベースについて説明する。図7は、本実施形態のユーザ情報データベースのデータ構造を示す図である。
図7のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「固着主観」フィールドと、「固着間接客観」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
「ユーザID」フィールドには、ユーザを識別するユーザID(「ユーザ識別情報」の一例)が格納される。
「ユーザ名」フィールドには、ユーザ名に関する情報(例えば、テキスト)が格納される。ユーザ名は、例えば、ユーザ情報を登録するときにユーザによって任意に決定される。
「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。ユーザ属性情報は、例えば、ユーザ情報を登録するときにユーザによって任意に決定される。
「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。
「性別」フィールドには、ユーザの性別に関する情報が格納される。
「年齢」フィールドには、ユーザの年齢に関する情報が格納される。
「職業」フィールドには、ユーザの職業に関する情報が格納される。
「固着主観」フィールドには、ユーザの固着主観情報が格納される。固着主観情報は、予め用意された複数の質問に対する回答の組合せによって決まる情報である。固着主観情報は、例えば、ユーザの性格タイプに関する情報である。
「固着間接客観」フィールドには、ユーザに対する固着間接客観検査(例えば、サブリミナルテスト)から得られる固着間接客観情報が格納される。固着間接客観情報の例は、被験者情報データベース(図4)の「固着間接客観」フィールドの例と同様である。
(3-5)ユーザ流動主観情報データベース
本実施形態のユーザ流動主観情報データベースについて説明する。図8は、本実施形態のユーザ流動主観情報データベースのデータ構造を示す図である。
図8のユーザ流動主観情報データベースには、ユーザに対して提示された質問に対する回答が格納される。
ユーザ流動主観情報データベースは、「データID」フィールドと、「チェックイン日時」フィールドと、「チェックイン回答」フィールドと、「チェックアウト日時」フィールドと、「チェックアウト回答」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
ユーザ流動主観情報データベースは、ユーザIDに関連付けられる。
「データID」フィールドには、ユーザ流動主観情報データベースのレコードを識別するデータIDが格納される。
「チェックイン日時」フィールドには、チェックインの日時に関する情報が格納される。チェックインとは、あるタスクを実行する前にユーザに提示した質問に対する回答を取得するための処理である。
「チェックイン回答」フィールドには、チェックインにおいて取得された回答に関するチェックイン回答情報が格納される。「チェックイン回答」フィールドの情報は、質問毎に分けて格納される。
「チェックアウト日時」フィールドには、チェックアウトの日時に関する情報が格納される。チェックアウトとは、あるタスクを完了した後にユーザに提示した質問に対する回答を取得するための処理である。
「チェックアウト回答」フィールドには、チェックアウトにおいて取得された回答に関するチェックアウト回答情報が格納される。「チェックアウト回答」フィールドの情報は、質問毎に分けて格納される。
(3-6)ユーザ流動間接客観情報データベース
本実施形態のユーザ流動間接客観情報データベースについて説明する。図9は、本実施形態のユーザ流動間接客観情報データベースのデータ構造を示す図である。
図9のユーザ流動間接客観情報データベースには、ユーザの流動間接客観情報が格納される。
ユーザ流動間接客観情報データベースは、「データID」フィールドと、「測定日時」フィールドと、「ウェアラブル」フィールドと、を含む。
ユーザ流動間接客観情報データベースは、ユーザIDに関連付けられる。
「データID」フィールドには、ユーザ流動間接客観情報データベースのレコードを識別するデータIDが格納される。
「測定日時」フィールドには、ウェアラブルデバイスが計測したデータを取得した日時に関する情報が格納される。
「ウェアラブル」フィールドには、ウェアラブルデバイスが計測したデータが格納される。ウェアラブルデバイスが計測したデータの例は、被験者流動間接客観情報データベース(図6)の「ウェアラブル」フィールドの例と同様である。
(4)情報処理
本実施形態の情報処理について説明する。図10は、本実施形態の情報処理の全体フローを示す図である。
図10に示すように、本実施形態の情報処理は、被験者情報の登録(OP1)と、被験者流動情報の登録(OP2)と、ユーザ情報の登録(OP3)と、ユーザ流動情報の登録(OP4)と、感情の可視化(OP5)と、を含む。
被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)は、被験者情報データベース(図4)、被験者流動主観情報データベース(図5)、及び、被験者流動間接客観情報データベース(図6)へのデータの登録を行うための処理である。被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)によって、サーバ30に、被験者検査情報と感情の推論モデルが構築される。
ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)は、ユーザ情報データベース(図7)、ユーザ流動主観情報データベース(図8)、及び、ユーザ流動間接客観情報データベース(図9)へのデータの登録を行うための処理である。ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)によって、感情の可視化(OP5)に必要な入力情報がサーバ30に与えられる。
感情の可視化(OP5)は、被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)によって生成された推論モデルと、ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)において与えられた入力情報とを用いて、ユーザの感情を可視化するための処理である。
(4-1)被験者情報の登録
本実施形態の被験者情報の登録(OP1)の処理について説明する。図11は、図10の被験者情報の登録の処理のシーケンス図である。図12~図13は、図11の情報処理において表示される画面例を示す図である。
図11に示すように、被験者情報の受付(S100)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P100(図12)をディスプレイに表示する。
画面P100は、操作オブジェクトB100と、フィールドオブジェクトF100と、を含む。
フィールドオブジェクトF100は、被験者情報(例えば、被験者名、性別、年齢、及び、職業)の入力を受け付けるオブジェクトである。
操作オブジェクトB100は、フィールドオブジェクトF100に入力された情報をサーバ30に送信させるための指示を受け付けるオブジェクトである。
被験者がフィールドオブジェクトF100に被験者情報を入力し、且つ、操作オブジェクトB100を操作すると、プロセッサ12は、被験者情報登録リクエストデータをサーバ30に送信する。被験者情報登録リクエストデータは、フィールドオブジェクトF100に入力された情報を含む。
サーバ30のプロセッサ32は、被験者情報データベース(図4)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「被験者ID」フィールドには、新規の被験者IDが格納される。
・「被験者名」フィールド及び「被験者属性」フィールドには、被験者情報登録リクエストデータに含まれる情報(つまり、フィールドオブジェクトF100に入力された情報)が格納される。
ステップS100の後、初回Q&Aテスト(S101)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P101(図12)をディスプレイに表示する。
画面P101は、操作オブジェクトB101と、フィールドオブジェクトF101と、を含む。
フィールドオブジェクトF101には、質問と、当該質問に対する回答の選択肢と、が表示される。操作者が選択肢の少なくとも1つを指定すると、フィールドオブジェクトF101は、操作者によって指定された選択肢を操作者の回答として受け付ける。
操作オブジェクトB101は、フィールドオブジェクトF101が受け付けた回答を確定させるための指示を受け付けるオブジェクトである。
操作オブジェクトB101が操作されると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、フィールドオブジェクトF101に入力された情報を含む。
サーバ30の記憶装置31には、フィールドオブジェクトF101に入力された情報の組合せと、入力者の性格タイプとの関係を示すマッチングテーブルが記憶されている。
プロセッサ32は、記憶装置31に記憶されたマッチングテーブルを参照して、更新リクエストデータに含まれる情報に対応する性格タイプを決定する。
プロセッサ32は、ステップS100で追加した新規レコードの「固着主観」フィールドに、決定した性格タイプに関する情報を格納する。
プロセッサ32は、更新レスポンスデータをクライアント装置10に送信する。更新レスポンスデータは、性格タイプに関する情報を含む。
クライアント装置10のプロセッサ12は、更新リクエストデータに基づいて、画面P102(図12)をディスプレイに表示する。
画面P102には、サーバ30によって決定された性格タイプが表示される。
ステップS101の後、サブリミナルテスト(S102)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P103(図13)をディスプレイに表示する。
画面P103は、表示オブジェクトA103を含む。
表示オブジェクトA103には、被験者に対して、操作を促すメッセージ(例えば、「表示された三角形をクリックしてください」というテキストメッセージ)が表示される。
画面P103の表示から時間t1(例えば、4秒)経過後、プロセッサ12は、画面P104(図13)をディスプレイに表示する。
画面P104は、表示オブジェクトA103及びA104を含む。
表示オブジェクトA104は、表示領域A104a~表示領域A104bを含む。
表示領域A104a~A104bには、それぞれ、画像オブジェクトIMG104a~IMG104bが表示される。画像オブジェクトIMG104a~IMG104bは、所定方向に並んで表示される。画像オブジェクトIMG104a~IMG104bは、例えば、四角形の画像である。
画面P104の表示から時間t2(<t1)経過後、プロセッサ12は、画面P105a又はP105b(図13)をディスプレイに表示する。時間t2は、例えば、0.01秒である。つまり、画面P104は、画面P103に比べて極めて短時間だけ表示される。
このように、画面P104の表示時間t2は、画面P103の表示時間t1より極めて短時間である。そのため、画像オブジェクトIMG104a~IMG104bは、人間の視覚では認識することはできないが、通常、「意識」より下の部分(いわゆる潜在意識、又は、意識と潜在意識との境界領域)において、脳が認識可能である。したがって、被験者は、無意識のうちに、画像オブジェクトIMG104a又はIMG104bの何れかに注目する。この現象を、「サブリミナル効果」という。ステップS102では、このサブリミナル効果を利用して、被験者の固着間接客観情報を取得する。
画面P105aは、表示オブジェクトA104を含む。
表示オブジェクトA104の表示領域A104aには、画像オブジェクトIMG105aが表示される。画像オブジェクトIMG105aは、例えば、三角形の画像である。画像オブジェクトIMG105aは、操作者による操作が可能なオブジェクトである。
画面P105bは、表示オブジェクトA104を含む。
表示オブジェクトA104の表示領域A104bには、画像オブジェクトIMG105bが表示される。画像オブジェクトIMG105bは、例えば、三角形の画像である。画像オブジェクトIMG105bは、操作者による操作が可能なオブジェクトである。
被験者が画像オブジェクトIMG105a又はIMG105bを操作すると、プロセッサ12は、画面P105a又はP105bの表示から被験者が画像オブジェクトIMG105a又はIMG105bを操作するまでの時間(以下「反応時間」という)を、記憶装置11に記憶する。
例えば、被験者が画面P104の画像オブジェクトIMG104aに注目していた場合には、画像オブジェクトIMG104aと同じ表示領域A104aに表示された画像オブジェクトIMG105aの操作に対する反応時間は、画像オブジェクトIMG104aと異なる表示領域A104bに表示された画像オブジェクトIMG105bの操作に対する反応時間より短くなる。
プロセッサ12は、上記のようなサビリミナルテストを複数回繰り返し実行する。
所定回数のサブリミナルテストが終了すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・画像オブジェクトIMG105aに対する反応時間に関する情報
・画像オブジェクトIMG105bに対する反応時間に関する情報
プロセッサ32は、ステップS100で追加した新規レコードの「固着間接客観」フィールドに、更新リクエストデータに含まれる反応時間に関する情報を格納する。
プロセッサ32は、更新レスポンスデータをクライアント装置10に送信する。
ステップS102の後、MRI検査(S103)が実行される。
具体的には、磁気共鳴装置に接続されたコンピュータが、磁気共鳴装置によって得られた信号に基づいて、被験者の脳活動パラメータと、血流動態反応パラメータと、を生成する。
当該コンピュータは、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・脳活動パラメータ
・血流動態反応パラメータ
サーバ30のプロセッサ32は、ステップS100で追加した新規レコードに以下の情報を格納する。
・「MRI」フィールドに、更新リクエストデータに含まれる脳活動パラメータが格納される。
・「fMRI」フィールドに、更新リクエストデータに含まれる血流動態反応パラメータが格納される。
(4-2)被験者流動情報の登録
本実施形態の被験者流動情報の登録(OP2)の処理について説明する。図14は、図10の被験者流動情報の登録の処理のシーケンス図である。図15~図17は、図14の情報処理において表示される画面例を示す図である。
図14に示すように、ウェアラブル情報の取得(S200)が実行される。
クライアント装置10のプロセッサ12は、被験者が装着したウェアラブルデバイスから、ウェアラブル情報(例えば、歩数、脈拍、及び、心拍数の少なくとも1つ)を取得する。
プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・ウェアラブルデバイスを装着した被験者の被験者ID
・ウェアラブル情報
・ステップS200の実行日時に関する情報
サーバ30のプロセッサ32は、更新リクエストデータに含まれる被験者IDに関連付けられた被験者流動間接客観情報データベース(図6)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「データID」フィールドには、新規データIDが格納される。
・「測定日時」フィールドには、更新リクエストデータに含まれる実行日時に関する情報が格納される。
・「ウェアラブル」フィールドには、更新リクエストデータに含まれるウェアラブル情報が格納される。
ステップS200の後、チェックイン(S201)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P200(図15)をディスプレイに表示する。
画面P200は、操作オブジェクトB200と、フィールドオブジェクトF200a~F200eと、を含む。
フィールドオブジェクトF200a~F200eには、ステップS201の後に行うタスクに関する質問が提示される。
フィールドオブジェクトF200aには、「タスクの内容は?」という質問が提示される。フィールドオブジェクトF200aに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、タスクの内容に関する情報として取得する。
フィールドオブジェクトF200bには、「タスクの種類は?」という質問が提示される。フィールドオブジェクトF200bの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、タスクの種類に関する情報として取得する。
フィールドオブジェクトF200cには、「誰と一緒?」という質問が提示される。フィールドオブジェクトF200cの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、タスクを一緒に行う人物に関する情報として取得する。
フィールドオブジェクトF200dには、「タスクの頻度は?」という質問が提示される。フィールドオブジェクトF200dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの頻度に関する情報として取得する。
フィールドオブジェクトF200eには、「タスクの難易度は?」という質問が提示される。フィールドオブジェクトF200eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの難易度に関する情報として取得する。
操作オブジェクトB200が操作されると、画面P201(図15)に遷移する。
画面P201は、操作オブジェクトB201と、フィールドオブジェクトF201a~F201bと、を含む。
フィールドオブジェクトF201a~F201bには、ステップS201の前に行われた行動に関する質問が提示される。
フィールドオブジェクトF201aには、「直前30分は何をしていた?」という質問が提示される。フィールドオブジェクトF201aの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、チェックインの直前30分間に行っていた行動に関する情報として取得する。
フィールドオブジェクトF201bには、「直前30分はどうだった?」という質問が提示される。フィールドオブジェクトF201bのスライダを移動させると、プロセッサ12は、スライダの位置に応じた数値を、チェックインの直前30分間に行った行動に対する自己評価に関する情報として取得する。
操作オブジェクトB201が操作されると、画面P202(図16)に遷移する。
画面P202は、操作オブジェクトB202と、フィールドオブジェクトF202a~F202gと、を含む。
フィールドオブジェクトF202a~F202gには、タスクを行う前の主観的感情に関連する質問が提示される。
フィールドオブジェクトF202aには、「空腹度は?」という質問が表示される。フィールドオブジェクトF202aのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、空腹度に関する情報として取得する。
フィールドオブジェクトF202bには、「眠気は?」という質問が表示される。フィールドオブジェクトF202bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、眠気に関する情報として取得する。
フィールドオブジェクトF202cには、「ストレスは?」という質問が表示される。フィールドオブジェクトF202cのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、ストレスに関する情報として取得する。
フィールドオブジェクトF202dには、「前回のタスクは?」という質問が表示される。フィールドオブジェクトF202dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、チェックインの前に行ったタスクに対する自己評価に関する情報として取得する。
フィールドオブジェクトF202eには、「モチベーションは?」という質問が表示される。フィールドオブジェクトF202eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対するモチベーションに関する情報として取得する。
フィールドオブジェクトF202fには、「不安感は?」という質問が表示される。フィールドオブジェクトF202fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する不安感に関する情報として取得する。
フィールドオブジェクトF202gには、「明確度は?」という質問が表示される。フィールドオブジェクトF202gのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する明確度に関する情報として取得する。
操作オブジェクトB202が操作されると、画面P203(図16)に遷移する。
画面P203は、操作オブジェクトB203と、フィールドオブジェクトF203a~F203bと、を含む。
フィールドオブジェクトF203a~F203bには、タスクを行った後の予定行動に関する質問が提示される。
フィールドオブジェクトF203aには、「タスクの後の行動は?」という質問が提示される。フィールドオブジェクトF203aの複数の選択肢の中から任意の選択肢が選択されると、選択された選択肢を、タスクを行った後の予定行動に関する情報として取得する。
フィールドオブジェクトF203bには、「タスクの後の行動の楽しみ度は?」という質問が提示される。フィールドオブジェクトF203bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの後の行動に対する期待感に関する情報として取得する。
操作オブジェクトB203は、ステップS201の処理を完了させるための指示を受け付けるオブジェクトである。
操作オブジェクトB203が操作されると、クライアント装置10のプロセッサ12は、チェックイン完了リクエストデータをサーバ30に送信する。
チェックイン完了リクエストデータは、以下の情報を含む。
・回答を行った被験者の被験者ID
・ステップS201の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF200a~F200e、F201a~F201b、F202a~F202g、及び、F203a~F203bに入力された情報
サーバ30のプロセッサ32は、チェックインリクエストデータに含まれる被験者IDに関連付けられた被験者流動主観情報データベース(図5)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「データID」フィールドには、新規のデータIDが格納される。
・「チェックイン日時」フィールドには、チェックイン完了リクエストデータに含まれるチェックイン時間情報が格納される。
・「チェックイン回答」フィールドには、チェックイン完了リクエストデータに含まれる回答情報が質問事項毎に格納される。
ステップS201の後、チェックアウト(S202)の処理が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P204(図17)をディスプレイに表示する。
画面P204は、操作オブジェクトB204と、フィールドオブジェクトF204a~F204fと、を含む。
フィールドオブジェクトF204a~F204fには、完了したタスクに関する質問が提示される。
フィールドオブジェクトF204aには、「何をした?」という質問が表示される。フィールドオブジェクトF204aに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、完了したタスクの内容に関する情報として取得する。
フィールドオブジェクトF204bには、「完了度は?」という質問が表示される。フィールドオブジェクトF204bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの完了度に関する情報として取得する。
フィールドオブジェクトF204cには、「何をやり残した?」という質問が表示される。フィールドオブジェクトF204cに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、やり残したタスクの内容に関する情報として取得する。
フィールドオブジェクトF204dには、「タスクの性質は?」という質問が表示される。フィールドオブジェクトF204dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの性質(例えば、作業性と指向性の割合)に関する情報として取得する。
フィールドオブジェクトF204eには、「インプット量は?」という質問が表示される。フィールドオブジェクトF204eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクのインプット量に関する情報として取得する。
フィールドオブジェクトF204fには、「アウトプット量は?」という質問が表示される。フィールドオブジェクトF204fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクのアウトプット量に関する情報として取得する。
操作オブジェクトB204が操作されると、画面P205に遷移する。
画面P205は、操作オブジェクトB205と、フィールドオブジェクトF205a~F205fと、を含む。
フィールドオブジェクトF205aには、「今の気分は?」という質問が表示される。フィールドオブジェクトF205aの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、タスクを完了した後の気分に関する情報として取得する。
フィールドオブジェクトF205bには、「モヤモヤ感は?」という質問が表示される。フィールドオブジェクトF205bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対するモヤモヤ感に関する情報として取得する。
フィールドオブジェクトF205cには、「達成感は?」という質問が表示される。フィールドオブジェクトF205cのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する達成感に関する情報として取得する。
フィールドオブジェクトF205dには、「集中度は?」という質問が表示される。フィールドオブジェクトF205dのスライダを移動させると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する集中度に関する情報として取得する。
フィールドオブジェクトF205eには、「満足度は?」という質問が表示される。フィールドオブジェクトF205eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する満足度に関する情報として取得する。
フィールドオブジェクトF205fには、「疲労感は?」という質問が表示される。フィールドオブジェクトF205fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する疲労感に関する情報として取得する。
操作オブジェクトB205は、ステップS202の処理を完了させるための指示を受け付けるオブジェクトである。
操作オブジェクトB205が操作されると、クライアント装置10のプロセッサ12は、チェックアウト完了リクエストデータをサーバ30に送信する。
チェックアウト完了リクエストデータは、以下の情報を含む。
・回答を行った被験者の被験者ID
・ステップS202の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF204a~F204f、及び、F205a~F205fに入力された情報
サーバ30のプロセッサ32は、チェックアウトリクエストデータに含まれる被験者IDに関連付けられた被験者流動主観情報データベース(図5)を特定する。
プロセッサ32は、特定した被験者流動主観情報データベースにおいて、「チェックイン日時」フィールドの情報が最も新しい日時を示す最新レコード(つまり、ステップS201で追加された新規レコード)を特定する。
最新レコードの各フィールドには、以下の情報が格納される。
・「チェックアウト日時」フィールドには、チェックアウト完了リクエストデータに含まれるチェックアウト時間情報が格納される。
・「チェックアウト回答」フィールドには、チェックアウト完了リクエストデータに含まれる回答情報が質問事項毎に格納される。
(4-3)ユーザ情報の登録の処理
本実施形態のユーザ情報の登録の処理について説明する。図18は、図10のユーザ情報の登録の処理(OP3)の処理のシーケンス図である。図19は、図18の情報処理において表示される画面例を示す図である。
図18に示すように、ユーザ情報の登録(S300)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P300(図19)をディスプレイに表示する。
画面P300は、操作オブジェクトB300と、フィールドオブジェクトF300と、を含む。
フィールドオブジェクトF300は、ユーザ情報(例えば、ユーザ名、性別、年齢、及び、職業)の入力を受け付けるオブジェクトである。
操作オブジェクトB300は、フィールドオブジェクトF300に入力された情報をサーバ30に送信させるための指示を受け付けるオブジェクトである。
ユーザがフィールドオブジェクトF300にユーザ情報を入力し、且つ、操作オブジェクトB300を操作すると、プロセッサ12は、ユーザ情報登録リクエストデータをサーバ30に送信する。ユーザ情報登録リクエストデータは、フィールドオブジェクトF300に入力された情報を含む。
サーバ30のプロセッサ32は、ユーザ情報データベース(図7)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「ユーザID」フィールドには、新規のユーザIDが格納される。
・「ユーザ名」フィールド及び「ユーザ属性」フィールドには、ユーザ情報登録リクエストデータに含まれる情報(つまり、フィールドオブジェクトF300に入力された情報)が格納される。
ステップS300の後、初回Q&Aテスト(S301)が実行される。
ステップS301は、以下の点において、図11のステップS101とは異なる。
・サーバ30のプロセッサ32は、ステップS300で追加した新規レコードの「固着主観」フィールドに、更新リクエストデータに含まれる情報(つまり、ユーザの性格タイプに関する情報)を格納する。
ステップS301の後、サブリミナルテスト(S302)が実行される。
ステップS302は、以下の点において、図11のステップS102とは異なる。
・サーバ30のプロセッサ32は、ステップS300で追加した新規レコードの「固着間接客観」フィールドに、更新リクエストデータに含まれる情報(つまり、ユーザの画像オブジェクトIMG105a~IMG105bに対する反応時間に関する情報)を格納する。
(4-4)ユーザ流動情報の登録
本実施形態のユーザ流動情報の登録(OP4)の処理について説明する。図20は、図10のユーザ流動情報の登録の処理のシーケンス図である。
図20に示すように、ウェアラブル情報の取得(S400)が実行される。
クライアント装置10のプロセッサ12は、ユーザが装着したウェアラブルデバイスから、ウェアラブル情報(例えば、歩数、脈拍、及び、心拍数の少なくとも1つ)を取得する。
プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・ウェアラブルデバイスを装着したユーザのユーザID
・ウェアラブル情報
・ステップS400の実行日時に関する情報
サーバ30のプロセッサ32は、更新リクエストデータに含まれるユーザIDに関連付けられたユーザ流動間接客観情報データベース(図9)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「データID」フィールドには、新規データIDが格納される。
・「測定日時」フィールドには、更新リクエストデータに含まれる実行日時に関する情報が格納される。
・「ウェアラブル」フィールドには、更新リクエストデータに含まれるウェアラブル情報が格納される。
ステップS400の後、チェックイン(S401)が実行される。
ステップS401は、チェックイン完了リクエストデータが以下の情報を含む点において、図14のステップS201と異なる。
・回答を行ったユーザのユーザID
・ステップS401の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF200a~F200e、F201a~F201b、F202a~F202g、及び、F203a~F203bに入力された情報
ステップS401の後、チェックアウト(S402)が実行される。
ステップS402は、チェックアウト完了リクエストデータが以下の情報を含む点において、図14のステップS202と異なる。
・回答を行ったユーザのユーザID
・ステップS402の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF204a~F204f、及び、F205a~F205fに入力された情報
(4-5)感情の可視化の処理
本実施形態の感情の可視化(OP5)の処理について説明する。図21は、図11の感情の可視化の処理のフローチャートである。図22は、図21の情報処理において表示される画面例を示す図である。
図21に示すように、対象ユーザ情報の決定(S500)が実行される。
具体的には、クライアント装置10のプロセッサ12は、可視化する感情の対象となる対象ユーザのユーザID(以下「対象ユーザID」という)を取得する。
プロセッサ12は、参照リクエストデータをサーバ30に送信する。参照リエクストデータは、対象ユーザIDを含む。
ステップS500の第1例として、サーバ30のプロセッサ32は、ユーザ情報データベース(図7)を参照して、参照リクエストデータに含まれる対象ユーザIDに関連付けられたレコードの「ユーザ属性」フィールドの情報、「固着主観」フィールドの情報、及び、「固着間接客観」フィールドの情報を特定する。
ステップS500の第2例として、サーバ30のプロセッサ32は、参照リクエストデータに含まれる対象ユーザIDに関連付けられたユーザ流動主観情報データベース(図8)の各フィールドの情報を特定する。
ステップS500の第3例として、サーバ30のプロセッサ32は、参照リクエストデータに含まれる対象ユーザIDに関連付けられたユーザ流動間接客観情報データベース(図9)の各フィールドの情報を特定する。
ステップS500の第4例として、サーバ30のプロセッサ32は、上記第1例~第3例の一部又は全部を組み合わせる。
ステップS500の後、基準被験者IDの決定(S501)が実行される。
ステップS501では、以下の方法により、少なくとも1つの基準被験者IDが特定される。
ステップS501の第1例として、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS500で特定した「ユーザ属性」フィールドの情報と同一又は近似の情報に関連付けられた被験者ID(つまり、ユーザ属性について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた性別と同一の性別に関連付けられた被験者ID
・対象ユーザIDに関連付けられた年齢との差が所定範囲内である年齢に関連付けられた被験者ID
・対象ユーザIDに関連付けられた職業と同一の職業に関連付けられた被験者ID
ステップS501の第2例として、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS500で特定した「固着主観」フィールドの情報と同一又は近似の被験者固着主観情報に関連付けられた被験者ID(つまり、固着主観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報と同一の被験者固着主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報との差が所定範囲内である被験者固着主観情報に関連付けられた被験者ID
ステップS501の第3例として、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS500で特定した「固着間接客観」フィールドの情報と同一又は近似の被験者固着間接客観情報に関連付けられた被験者ID(つまり、固着間接客観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報と同一の被験者固着間接客観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報との差が所定範囲内である被験者固着間接客観情報に関連付けられた被験者ID
ステップS501の第4例として、サーバ30のプロセッサ32は、被験者流動主観情報データベース(図5)を参照して、ステップS500で特定したユーザ流動主観情報データベース(図8)の情報と同一又は近似の被験者流動主観情報に関連付けられた被験者ID(つまり、流動主観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックイン日時」フィールドの情報が最も新しいレコードの「チェックイン回答」フィールドの情報と同一又は近似の被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックアウト日時」フィールドの情報が最も新しいレコードの「チェックアウト回答」フィールドの情報と同一又は近似の被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックイン日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「チェックイン回答」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックアウト日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「チェックアウト回答」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動主観情報に関連付けられた被験者ID
ステップS501の第5例として、サーバ30のプロセッサ32は、被験者流動間接客観情報データベース(図6)を参照して、ステップS500で特定したユーザ流動間接客観情報データベース(図9)の情報と同一又は近似の被験者流動間接客観情報に関連付けられた被験者ID(つまり、流動間接客観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた「測定日時」フィールドの情報が最も新しいレコードの「ウェアラブル」フィールドの情報と同一又は近似の被験者流動間接客観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「測定日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「ウェアラブル」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動間接客観情報に関連付けられた被験者ID
ステップS501の第6例として、第1例~第5例の少なくとも2つの組合せである。組合せの数が多いほど、対象ユーザとの類似度の高い被験者の被験者IDが基準被験者IDとして特定される。これにより、後述のユーザ感情情報の推定(S502)における推定精度が向上する。
ステップS501の後、ユーザ感情情報の推定(S502)が実行される。
具体的には、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS501で特定した少なくとも1つの基準被験者IDに関連付けられた「直接客観」フィールドの情報(つまり、脳活動パラメータ及び血流動態反応パラメータ)を特定する。
プロセッサ32は、対象ユーザIDに関連付けられたユーザ流動主観情報(図8)の「チェックイン回答」フィールド、及び、「チェックアウト回答」フィールドの情報(つまり、対象ユーザの流動主観情報)を特定する。
プロセッサ43は、対象ユーザIDに関連付けられたユーザ流動間接客観情報(図9)の「ウェアラブル」フィールドの情報(つまり、対象ユーザの流動間接客観情報)を特定する。
記憶装置31には、脳活動パラメータ、血流動態反応パラメータ、流動主観情報、及び、流動間接客観情報と、感情コンディションとの推論モデルが構築されている。感情コンディションとは、脳の解剖学的な位置、伝達物質、受容体の発現、及び、時間を含む様々な要素に基づいて決定される神経科学上の感情の種類毎のレベルである。
プロセッサ32は、記憶装置31に記憶された推論モデルを用いて、対象ユーザの脳活動パラメータ、血流動態反応パラメータ、流動主観情報、及び、流動間接客観情報から、対象ユーザの感情コンディションを決定する。
感情の種類は、例えば、以下の少なくとも1つである。
・楽しみ
・不安
・緊張
サーバ30のプロセッサ32は、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「固着主観」フィールドの情報(つまり、対象ユーザの固着主観情報)及び「固着間接客観」フィールドの情報(つまり、対象ユーザの固着間接客観情報)を特定する。
プロセッサ32は、対象ユーザIDに関連付けられたユーザ流動間接客観情報データベース(図9)の「ウェアラブル」フィールドの情報(つまり、対象ユーザの流動間接客観情報)を特定する。
記憶装置31には、固着主観情報、固着間接客観情報、及び、流動間接客観情報と、感情傾向との相関正に関する推論モデルが構築されている。
プロセッサ32は、記憶装置31に記憶された推論モデルを用いて、対象ユーザの固着主観情報、固着間接客観情報、及び、流動間接客観情報から、対象ユーザの感情傾向を決定する。
感情傾向は、例えば、以下の少なくとも1つを含む。
・副交感神経に対する交感神経の優位度
・交感神経に対する副交感神経の優位度
・ストレス反応度
・ストレス耐性度
・扁桃体の活性度
・サリエンスネットワークの活用度
サーバ30のプロセッサ32は、被験者情報データベース(図4)、被験者流動主観情報データベース(図5)、及び、被験者流動間接客観情報データベース(図6)と、対象ユーザIDに関連付けられたユーザ流動主観情報(図8)及びユーザ流動間接客観情報データベース(図9)と、感情コンディションと、感情傾向と、を対比することにより、感情因子を決定する。
感情因子は、例えば、以下の少なくとも1つを含む。
・ユーザの行動(一例として、運動、仕事、勉強、又は、読書)
・ユーザの外的要因(一例として、天候、又は、温湿度)
・ユーザの対人要因(一例として、自他、親近感、関係性、好き嫌いのレベル、又は、接触頻度)
・ユーザの対物要因(一例として、親近感、関係性、好き嫌い度合い、接触頻度など)
・ユーザの環境要因(一例として、場所、天気、湿度、二酸化炭素濃度、気圧、又は、雨量)
・ユーザのコンディション要因(一例として、睡眠状態、又は、食事状態)
ステップS502の後、ユーザ感情情報の提示(S503)が実行される。
具体的には、サーバ30のプロセッサ32は、ステップS502で推定されたユーザ感情情報をクライアント装置10に送信する。
クライアント装置10のプロセッサ12は、ユーザ感情情報に基づいて、画面P500(図22)をディスプレイに表示する。
画面P500は、表示オブジェクトA500a~A500cを含む。
表示オブジェクトA500aには、感情コンディションが表示される。感情コンディションは、例えば、感情の種類(例えば、楽しみ、不安、及び、緊張)毎のレベルである。
表示オブジェクトA500bには、感情傾向が表示される。
表示オブジェクトA500cには、感情因子が表示される。
本実施形態によれば、MRI検査を受けた被験者に関連付けられた直接客観情報、被験者主観情報、及び、被験者間接客観情報によって構築された推論モデルを用いて、MRI検査を受けていないユーザに関連付けられたユーザ主観情報及びユーザ間接客観情報から、ユーザ感情情報を推定する。これにより、MRI検査を受けていないユーザの感情の推定の精度を向上させることができる。
(5)変形例
本実施形態の変形例について説明する。
(5-1)ユーザ感情情報データベース
変形例のユーザ感情情報データベースについて説明する。図23は、変形例のユーザ感情情報データベースのデータ構造を示す図である。
図23のユーザ感情情報データベースには、ステップS502(図21)で推定されたユーザ感情情報が格納される。
ユーザ感情情報データベースは、「データID」フィールドと、「判定日時」フィールドと、「感情」フィールドと、を含む。
ユーザ感情情報データベースは、ユーザIDに関連付けられる。
「データID」フィールドには、ユーザ感情情報データベースのレコードを識別するデータIDが格納される。
「判定日時」フィールドには、ステップS502の実行日時に関する情報が格納される。
「感情」フィールドには、ステップS502の処理結果が格納される。
「感情」フィールドは、「感情コンディション」フィールドと、「感情傾向」フィールドと、「感情因子」フィールドと、を含む。
「感情コンディション」フィールドには、感情コンディションに関する情報が格納される。
「感情傾向」フィールドには、感情傾向に関する情報が格納される。
「感情因子」フィールドには、感情因子に関する情報が格納される。
(5-2)感情の可視化の処理
変形例の感情の可視化の処理(OP5)について説明する。図24は、変形例の感情の可視化の処理のフローチャートである。
図24に示すように、変形例の感情の可視化の処理(OP5)は、基準ユーザIDの決定(S510)を含む点において、本実施形態の感情の可視化の処理(図21)とは異なる。
ステップS501の後、基準ユーザIDの決定(S510)が実行される。
具体的には、サーバ30のプロセッサ32は、ステップS500で決定した対象ユーザ情報に基づいて、基準ユーザの基準ユーザIDを決定する。
ステップS510の第1例として、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「ユーザ属性」フィールドの情報を特定する。
プロセッサ32は、ユーザ情報データベースを参照して、対象ユーザ以外のユーザの非対象ユーザIDに関連付けられた「ユーザ属性」フィールドを参照して、対象ユーザIDに関連付けられた「ユーザ属性」フィールドの情報と同一又は近似の情報を含むレコードを特定する。
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
ステップS510の第2例として、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「固着主観」フィールドの情報を特定する。
プロセッサ32は、ユーザ情報データベースを参照して、非対象ユーザIDに関連付けられた「固着主観」フィールドを参照して、対象ユーザIDに関連付けられた「固着主観」フィールドの情報と所定関係にある情報を含むレコードを特定する。
所定関係とは、以下の何れかの関係である。
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報と、非対象ユーザIDに関連付けられた「固着主観」フィールドの情報とが同一である関係
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報、及び、非対象ユーザIDに関連付けられた「固着主観」フィールドの情報が、予め定められた組合せ(例えば、相性が良い組合せ、又は、相性が悪い組合せ)である関係
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
ステップS510の第3例として、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報を特定する。
プロセッサ32は、ユーザ情報データベースを参照して、非対象ユーザIDに関連付けられた「固着間接客観」フィールドを参照して、対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報と同一又は近似の情報を含むレコードを特定する。
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
ステップS510の第4例として、ユーザ流動主観情報データベース(図8)を参照して、非対象ユーザIDの中から、対象ユーザIDに関連付けられたユーザ流動主観情報と同一又は類似のユーザ流動主観情報に関連付けられた非対象ユーザIDを、基準ユーザIDとして特定する。
ステップS510の第5例として、ユーザ流動間接客観情報データベース(図9)を参照して、非対象ユーザIDの中から、対象ユーザIDに関連付けられたユーザ流動間接情報と同一又は類似のユーザ流動間接情報に関連付けられた非対象ユーザIDを、基準ユーザIDとして特定する。
ステップS510の後、ユーザ感情情報の推定(S502)が実行される。
具体的には、記憶装置31には、更に、以下の少なくとも1つの推論モデルが構築されている。
・ユーザ属性情報とユーザ感情情報の推論モデル
・ユーザ固着主観情報とユーザ感情情報の推論モデル
・ユーザ固着間接客観情報とユーザ感情情報の推論モデル
・ユーザ流動主観情報とユーザ感情情報のユーザ推論モデル
・ユーザ流動間接客観情報とユーザ感情情報のユーザ推論モデル
サーバ30のプロセッサ32は、記憶装置31に記憶された推論モデル、及び、ユーザ推論モデルを用いて、ユーザ感情情報を推定する。
変形例によれば、被験者の情報だけでなく、対象ユーザ以外の基準ユーザの情報も参照して、ユーザ感情情報を推定する。これにより、対象ユーザの感情の推定精度を向上させることができる。
(6)本実施形態の小括
本実施形態について小括する。
本実施形態の第1態様は、
ユーザの感情を推定する情報処理装置(例えば、サーバ30)であって、
被験者の客観的感情に直接的に関連する直接客観情報(例えば、MRI又はfMRIによって得られ得る情報)を取得する手段(例えば、ステップS103を実行するプロセッサ32)を備え、
被験者の主観的感情に関連する被験者主観情報、及び、被験者の客観的感情に間接的に関連する被験間接客観情報の少なくとも1つを取得する手段(例えば、ステップS101~S102、及び、S200~S202の少なくとも1つを実行するプロセッサ32)を備え、
ユーザの主観的感情に関連するユーザ主観情報、及び、ユーザの客観的感情に間接的に関連するユーザ間接客観情報の少なくとも1つを取得する手段(例えば、ステップS300~S202、及び、S400~S402の少なくとも1つを実行するプロセッサ32)を備え、
直接客観情報と、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、を参照して、ユーザの感情に関連するユーザ感情情報を推定する手段(例えば、ステップS502を実行するプロセッサ32)を備える、
情報処理装置である。
第1態様によれば、直接客観情報を受けていないユーザの感情を司る脳の反応が直接的に反映された直接客観情報を推測することができる。その結果、ユーザの感情を高精度に推測することができる。
本実施形態の第2態様は、
推定されたユーザ感情情報を提示する手段(例えば、ステップS503を実行するプロセッサ32)を備える、
情報処理装置である。
第2態様によれば、ユーザの感情をユーザに可視化することができる。
本実施形態の第3態様は、
主観情報は、被験者又はユーザに固着した主観的感情に関連する固着主観情報と、被験者又はユーザにとって流動的な主観的感情に関連する流動主観情報と、を含む、
情報処理装置である。
第3態様によれば、感情の推定のために参照する主観情報を被験者又はユーザに固着した情報と、被験者又はユーザにとって流動的な情報と、に分けて取り扱う。これにより、感情の推定の精度をより向上させることができる。
本実施形態の第4態様は、
間接客観情報は、被験者又はユーザに固着した客観的感情に関連する固着客観情報と、被験者又はユーザにとって流動的な客観的感情に関連する流動客観情報と、を含む、
情報処理装置である。
第4態様によれば、感情の推定のために参照する間接客観情報を被験者又はユーザに固着した情報と、被験者又はユーザにとって流動的な情報と、に分けて取り扱う。これにより、感情の推定の精度をより向上させることができる。
本実施形態の第5態様は、
直接客観情報は、被験者に対する、MRI(Magnetic Resonance Imaging)検査、PET(Positron Emission Tomography)検査、fNIRS(functional Near Infrared Spectroscopy) 検査、EEG(Electroencephalogram)検査、及び、MEG(Magnetoencephalography)検査の少なくとも1つによって得られる情報である、
情報処理装置である。
本実施形態の第6態様は、
推定する手段は、被験者主観情報及び被験者間接客観情報の少なくとも1つと、直接客観情報と、により構成される推論モデルを用いて、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つからユーザ感情情報を推定する、
情報処理装置である。
本実施形態の第7態様は、
感情を推定すべき対象ユーザとは異なる非対象ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つを参照して、複数の非対象ユーザの中から基準ユーザを決定する手段を備え、
推定する手段は、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、基準ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、基準ユーザのユーザ感情情報と、を参照して、対象ユーザのユーザ感情情報を推定する、
情報処理装置である。
第7態様によれば、被験者の情報だけでなく、対象ユーザ以外の基準ユーザの情報も参照して、ユーザ感情情報を推定する。これにより、対象ユーザの感情の推定精度を向上させることができる。
本実施形態の第8態様は、
コンピュータ(例えば、プロセッサ32)を、上記各手段として機能させるためのプログラムである。
(7)その他の変形例
その他の変形例について説明する。
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
ステップS101及びS301は、省略可能である。この場合、固着主観情報以外の情報を用いて、感情の可視化(OP5)が実行される。
ステップS102及びS302は、省略可能である。この場合、感情の可視化(OP5)が実行される。
ステップS200及びS400は、省略可能である。この場合、感情の可視化(OP5)が実行される。
ステップS201及びS202、並びに、S401及びS402は、省略可能である。この場合、感情の可視化(OP5)が実行される。
流動主観情報は、被験者又はユーザが作成した文章であってもよい。流動主観情報は、例えば、以下の少なくとも1つを含む。
・日記
・ブログ
直接客観情報の測定方法は、MRIに限られない。直接客観情報は、以下の少なくとも1つの測定方法によって取得可能である。
・PET(Positron Emission Tomography)検査
・fNIRS(functional Near Infrared Spectroscopy) 検査
・EEG(Electroencephalogram)検査
・MEG(Magnetoencephalography)検査
ステップS201~S202、及び、S401~S402では、Q&A形式で回答を受け付けるだけでなく、主観情報の選択肢オブジェクトを提示し、且つ、操作された選択肢オブジェクトに対応する主観情報を流動主観情報として受け付けても良い。
選択肢オブジェクトは、例えば、以下の少なくとも1つを含む。
・感情の種類毎のアイコン
・感情を表す色の画像オブジェクト
ステップS102(図11)では、画像に代えて、音声を用いてもよい。
例えば、クライアント装置10は、ステレオスピーカ(一例として、操作者に対して左右に配置された左スピーカ及び右スピーカ)を備える。
プロセッサ12は、左スピーカ及び右スピーカのそれぞれから、サブリミナル音を再生する。
操作者は、左スピーカ及び右スピーカのそれぞれから再生されたサブリミナル音を聞いて、何れのスピーカから再生されたサブリミナル音が聞きやすかったかを示すユーザ指示をクライアント装置10に与える。
プロセッサ12は、当該ユーザ指示(つまり、サブリミナル音が聞きやすいスピーカを示す指示)を含む更新リクエストデータをサーバ30に送信する。
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース

Claims (10)

  1. ユーザの感情を推定する情報処理装置であって、
    被験者の客観的感情に直接的に関連する被験者直接客観情報及び前記被験者の客観的感情に間接的に関連する被験者間接客観情報を記憶する手段を備え、
    前記ユーザの主観的感情に関連するユーザ主観情報、及び、前記ユーザの客観的感情に間接的に関連するユーザ間接客観情報を取得する手段を備え、
    前記ユーザと同一又は近似の基準被験者の被験者直接客観情報及び前記被験者間接客観情報と、前記ユーザ主観情報及び前記ユーザ間接客観情報と、を参照して、前記ユーザの感情に関連するユーザ感情情報を推定する手段を備える、
    情報処理装置。
  2. 前記取得する手段は、タスクを実行する前に前記ユーザに提示した質問に対する前記ユーザの回答に応じて、前記ユーザ主観情報を取得する、
    請求項1に記載の情報処理装置。
  3. 前記質問は、前記タスクに関する質問、前記タスクを実行する前の行動に関する質問、及び、前記タスクを実行する前の前記ユーザの状態に関する質問の少なくとも1つを含む、
    請求項2に記載の情報処理装置。
  4. 前記取得する手段は、タスクを完了した後に前記ユーザに提示した質問に対する前記ユーザの回答に応じて、前記ユーザ主観情報を取得する、
    請求項2又は請求項3に記載の情報処理装置。
  5. 前記質問は、前記タスクに関する質問、前記タスクを完了した後の行動に関する質問、及び、前記タスクを完了した後の前記ユーザの状態に関する質問の少なくとも1つを含む、
    請求項4に記載の情報処理装置。
  6. 前記推定されたユーザ感情情報を提示する手段を備える、
    請求項1~請求項5の何れかに記載の情報処理装置。
  7. 前記ユーザ感情情報は、感情コンディション、感情傾向、及び、感情因子の少なくとも1つを含む、
    請求項6に記載の情報処理装置。
  8. 前記ユーザ主観情報は、前記ユーザに固着した主観的感情に関連する固着主観情報と、前記ユーザにとって流動的な主観的感情に関連する流動主観情報と、を含む、
    請求項1~請求項7の何れかに記載の情報処理装置。
  9. コンピュータを、請求項1~請求項の何れかに記載の各手段として機能させるためのプログラム。
  10. ユーザの感情を推定する情報処理方法であって、
    被験者の客観的感情に直接的に関連する被験者直接客観情報及び前記被験者の客観的感情に間接的に関連する被験者直接客観情報を記憶するステップを備え、
    前記ユーザの主観的感情に関連するユーザ主観情報、及び、前記ユーザの客観的感情に間接的に関連するユーザ間接客観情報を取得するステップを備え、
    前記ユーザと同一又は近似の基準被験者の被験者直接客観情報及び前記被験者直接客観情報と、前記ユーザ主観情報及び前記ユーザ間接客観情報と、を参照して、前記ユーザの感情に関連するユーザ感情情報を推定するステップを備える、
    情報処理方法。
JP2020121797A 2020-07-16 2020-07-16 情報処理装置、プログラム、及び、情報処理方法 Active JP7064787B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020121797A JP7064787B2 (ja) 2020-07-16 2020-07-16 情報処理装置、プログラム、及び、情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020121797A JP7064787B2 (ja) 2020-07-16 2020-07-16 情報処理装置、プログラム、及び、情報処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018181377A Division JP6739805B2 (ja) 2018-09-27 2018-09-27 情報処理装置、プログラム

Publications (3)

Publication Number Publication Date
JP2020168537A JP2020168537A (ja) 2020-10-15
JP2020168537A5 JP2020168537A5 (ja) 2021-11-04
JP7064787B2 true JP7064787B2 (ja) 2022-05-11

Family

ID=72746490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020121797A Active JP7064787B2 (ja) 2020-07-16 2020-07-16 情報処理装置、プログラム、及び、情報処理方法

Country Status (1)

Country Link
JP (1) JP7064787B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023105790A1 (ja) * 2021-12-10 2023-06-15 日本電気株式会社 ストレス推定方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011065237A1 (ja) 2009-11-27 2011-06-03 株式会社日立製作所 生体光計測装置
JP2011238215A (ja) 2010-04-17 2011-11-24 Udo Toshihiro 心身健康状況管理システム
JP2016221056A (ja) 2015-06-01 2016-12-28 株式会社日立製作所 生体光計測結果解析装置、それを用いた問診システム、及び、生体光計測装置
JP2017074356A (ja) 2015-10-16 2017-04-20 国立大学法人広島大学 感性評価方法
JP2017176762A (ja) 2016-03-31 2017-10-05 有限会社Triart ストレス評価方法およびストレス評価システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011065237A1 (ja) 2009-11-27 2011-06-03 株式会社日立製作所 生体光計測装置
JP2011238215A (ja) 2010-04-17 2011-11-24 Udo Toshihiro 心身健康状況管理システム
JP2016221056A (ja) 2015-06-01 2016-12-28 株式会社日立製作所 生体光計測結果解析装置、それを用いた問診システム、及び、生体光計測装置
JP2017074356A (ja) 2015-10-16 2017-04-20 国立大学法人広島大学 感性評価方法
JP2017176762A (ja) 2016-03-31 2017-10-05 有限会社Triart ストレス評価方法およびストレス評価システム

Also Published As

Publication number Publication date
JP2020168537A (ja) 2020-10-15

Similar Documents

Publication Publication Date Title
Arguel et al. Inside out: detecting learners’ confusion to improve interactive digital learning environments
US20230058925A1 (en) System and method for providing and aggregating biosignals and action data
Harley et al. Emotion regulation tendencies, achievement emotions, and physiological arousal in a medical diagnostic reasoning simulation
US11301775B2 (en) Data annotation method and apparatus for enhanced machine learning
Harrison The Emotiv mind: Investigating the accuracy of the Emotiv EPOC in identifying emotions and its use in an Intelligent Tutoring System
Bergstrom et al. Physiological response measurements
Carey et al. Toward measuring empathy in virtual reality
RU2319444C1 (ru) Способ психологического анализа и устройство для его реализации (варианты)
Falkowska et al. Eye tracking usability testing enhanced with EEG analysis
Bonnstetter et al. Brain activation imaging in emotional decision making and mental health: A review—part 1
Maia et al. An approach to analyze user’s emotion in HCI experiments using psychophysiological measures
Weiß et al. Effects of image realism on the stress response in virtual reality
Trupp et al. Who benefits from online art viewing, and how: The role of pleasure, meaningfulness, and trait aesthetic responsiveness in computer-based art interventions for well-being
JP7064787B2 (ja) 情報処理装置、プログラム、及び、情報処理方法
Litleskare et al. Seasonal variations in the effectiveness of immersive virtual nature
JP6739805B2 (ja) 情報処理装置、プログラム
Verwulgen et al. Determining comfortable pressure ranges for wearable EEG headsets
Hu et al. The relationship between design outcomes and mental states during ideation
Biswas et al. Investigation of an EEG-based Indicator of skill acquisition as novice participants practice a lifeboat maneuvering task in a simulator
Duan et al. A standardized database of chinese emotional short videos based on age and gender differences
WO2022176865A1 (ja) サーバ装置、システム、およびプログラム
Liapis et al. Don’t leave me alone: Retrospective think aloud supported by real-time monitoring of participant’s physiology
Brunzini et al. An integrated methodology for the assessment of stress and mental workload applied on virtual training
Gralha et al. Are there gender differences when interacting with social goal models? A quasi-experiment
Dambrun et al. Changes in Self-Location During the Practice of Mindfulness Meditation in Novices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210922

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R150 Certificate of patent or registration of utility model

Ref document number: 7064787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150