JP6739805B2 - Information processing device, program - Google Patents

Information processing device, program Download PDF

Info

Publication number
JP6739805B2
JP6739805B2 JP2018181377A JP2018181377A JP6739805B2 JP 6739805 B2 JP6739805 B2 JP 6739805B2 JP 2018181377 A JP2018181377 A JP 2018181377A JP 2018181377 A JP2018181377 A JP 2018181377A JP 6739805 B2 JP6739805 B2 JP 6739805B2
Authority
JP
Japan
Prior art keywords
information
user
subject
objective
subjective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018181377A
Other languages
Japanese (ja)
Other versions
JP2020048871A (en
Inventor
瑞人 青砥
瑞人 青砥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dancing Einstein
Original Assignee
Dancing Einstein
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dancing Einstein filed Critical Dancing Einstein
Priority to JP2018181377A priority Critical patent/JP6739805B2/en
Publication of JP2020048871A publication Critical patent/JP2020048871A/en
Application granted granted Critical
Publication of JP6739805B2 publication Critical patent/JP6739805B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing device and a program.

一般に、人は、自身の感情を記録する方法として、文章(例えば、日記)を用いる。文章は、人の主観的感情を表す。つまり、人が作成した文章からは、その人の主観的感情に関連する主観感情指標が得られる。 Generally, a person uses a sentence (for example, a diary) as a method of recording his/her feelings. A sentence represents a person's subjective feeling. In other words, the subjective feeling index related to the subjective feeling of the person can be obtained from the sentence created by the person.

一方、特許文献1には、MRI(Magnetic Resonance Imaging)検査によって得られた情報に基づいて、被験者の感情を判定する技術が開示されている。MRI検査によって得られた情報は、定量値であるので、被験者の客観的感情を直接的に表す。 On the other hand, Patent Document 1 discloses a technique for determining the emotion of a subject based on information obtained by an MRI (Magnetic Resonance Imaging) test. The information obtained by the MRI examination is a quantitative value and thus directly represents the objective emotion of the subject.

特開2013‐176406号公報JP, 2013-176406, A

しかし、特許文献1のMRI検査を受けることは、費用及び手間がかかるため容易ではない。従って、MRI検査を受けたことがない(つまり、客観的感情を表すデータが存在しない)人も多い。そのため、MRI検査を受けたことがない人の感情を高い精度で判定することはできなかった。 However, it is not easy to receive the MRI examination of Patent Document 1 because of the high cost and labor. Therefore, there are many people who have never undergone the MRI examination (that is, there is no data indicating objective emotions). Therefore, the emotion of a person who has never undergone the MRI examination cannot be determined with high accuracy.

このように、従来技術では、客観的感情を表すデータが存在しない人については、感情の推定の精度が十分ではない。 As described above, in the related art, the accuracy of emotion estimation is not sufficient for a person who does not have data representing objective emotion.

本発明の目的は、客観的感情を表すデータが存在しない人の感情の推定の精度を向上させることである。 An object of the present invention is to improve the accuracy of estimating the emotion of a person who does not have data representing the objective emotion.

本発明の一態様は、
ユーザの感情を推定する情報処理装置であって、
被験者の客観的感情に直接的に関連する直接客観情報を取得する手段を備え、
被験者の主観的感情に関連する被験者主観情報、及び、被験者の客観的感情に間接的に関連する被験間接客観情報の少なくとも1つを取得する手段を備え、
ユーザの主観的感情に関連するユーザ主観情報、及び、ユーザの客観的感情に間接的に関連するユーザ間接客観情報の少なくとも1つを取得する手段を備え、
直接客観情報と、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、を参照して、ユーザの感情に関連するユーザ感情情報を推定する手段を備える、
情報処理装置である。
One aspect of the present invention is
An information processing device for estimating a user's emotion,
Equipped with means for acquiring direct objective information that is directly related to the objective emotion of the subject,
A means for acquiring at least one of subject subjective information related to the subjective feeling of the subject and test indirect objective information indirectly related to the objective feeling of the subject,
A means for acquiring at least one of user subjective information related to the user's subjective feeling, and user indirect objective information indirectly related to the user's objective feeling;
A means for estimating user emotion information related to a user's emotion by referring to direct objective information, at least one of subject subjective information and subject indirect objective information, and at least one of user subjective information and user indirect objective information. Prepare,
It is an information processing device.

本発明によれば、客観的感情を表すデータが存在しない人の感情の推定の精度を向上させることができる。 According to the present invention, it is possible to improve the accuracy of estimating the emotion of a person who does not have data representing objective emotion.

本実施形態の情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system of this embodiment. 本実施形態の概要の説明図である。It is explanatory drawing of the outline of this embodiment. 本実施形態の概要の一態様の説明図である。It is an explanatory view of one mode of an outline of this embodiment. 本実施形態の被験者情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the subject information database of this embodiment. 本実施形態の被験者流動主観情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of a subject flow subjective information database of this embodiment. 本実施形態の被験者流動間接客観情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of a subject flow indirect objective information database of this embodiment. 本実施形態のユーザ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user information database of this embodiment. 本実施形態のユーザ流動主観情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user flow subjective information database of this embodiment. 本実施形態のユーザ流動間接客観情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user flow indirect objective information database of this embodiment. 本実施形態の情報処理の全体フローを示す図である。It is a figure which shows the whole flow of the information processing of this embodiment. 図10の被験者情報の登録の処理のシーケンス図である。FIG. 11 is a sequence diagram of a process of registering subject information in FIG. 10. 図11の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図11の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図10の被験者流動情報の登録の処理のシーケンス図である。FIG. 11 is a sequence diagram of a process of registering subject flow information in FIG. 10. 図14の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図14の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図14の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図10のユーザ情報の登録の処理(OP3)の処理のシーケンス図である。FIG. 11 is a sequence diagram of a process of user information registration process (OP3) of FIG. 10. 図18の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図10のユーザ流動情報の登録の処理のシーケンス図である。FIG. 11 is a sequence diagram of a process of registering user flow information of FIG. 10. 図11の感情の可視化の処理のフローチャートである。12 is a flowchart of the emotion visualization process of FIG. 11. 図21の情報処理において表示される画面例を示す図である。FIG. 22 is a diagram showing an example of a screen displayed in the information processing of FIG. 21. 変形例のユーザ感情情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user emotion information database of a modification. 変形例の感情の可視化の処理のフローチャートである。It is a flowchart of the process of visualization of emotions of a modification.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 An embodiment of the present invention will be described in detail below with reference to the drawings. In addition, in the drawings for describing the embodiments, the same components are denoted by the same reference symbols in principle, and repeated description thereof will be omitted.

(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of Information Processing System The configuration of the information processing system will be described. FIG. 1 is a block diagram showing the configuration of the information processing system of this embodiment.

図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30と、を備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1, the information processing system 1 includes a client device 10 and a server 30.
The client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.

クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is an example of an information processing device that transmits a request to the server 30. The client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.

サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。 The server 30 is an example of an information processing device that provides the client device 10 with a response according to the request transmitted from the client device 10. The server 30 is, for example, a web server.

(1−1)クライアント装置の構成
図1を参照して、クライアント装置10の構成について説明する。
(1-1) Configuration of Client Device The configuration of the client device 10 will be described with reference to FIG.

図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。 As shown in FIG. 1, the client device 10 includes a storage device 11, a processor 12, an input/output interface 13, and a communication interface 14.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The programs include, for example, the following programs.
-OS (Operating System) program-Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referred to in information processing-Data obtained by executing information processing (that is, execution result of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。 The processor 12 is configured to realize the function of the client device 10 by activating a program stored in the storage device 11. The processor 12 is an example of a computer.

入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input/output interface 13 is configured to acquire a user instruction from an input device connected to the client device 10 and output information to an output device connected to the client device 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 The communication interface 14 is configured to control communication between the client device 10 and the server 30.

(1−2)サーバの構成
図1を参照して、サーバ30の構成について説明する。
(1-2) Server Configuration The configuration of the server 30 will be described with reference to FIG.

図1に示すように、サーバ30は、記憶装置31と、プロセッサ32と、通信インタフェース34とを備える。 As shown in FIG. 1, the server 30 includes a storage device 31, a processor 32, and a communication interface 34.

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
The programs include, for example, the following programs.
-OS program-Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Database referenced in information processing ・Results of information processing execution

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。 The processor 32 is configured to realize the function of the server 30 by activating a program stored in the storage device 31. The processor 32 is an example of a computer.

入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input/output interface 33 is configured to acquire a user instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース34は、サーバ30と、クライアント装置10との間の通信を制御するように構成される。 The communication interface 34 is configured to control communication between the server 30 and the client device 10.

(2)本実施形態の概要
本実施形態の概要について説明する。図2は、本実施形態の概要の説明図である。
(2) Outline of the present embodiment An outline of the present embodiment will be described. FIG. 2 is an explanatory diagram of the outline of the present embodiment.

図2に示すように、被験者は、3種類の検査(主観検査、間接客観検査、及び、直接客観検査)を受ける。つまり、被験者には、3種類の被験者検査情報(主観情報、間接客観情報、及び、直接客観情報)が関連付けられる。
主観検査は、被験者の主観的感情に関連する被験者主観情報を測定するための検査である。主観検査は、例えば、Q&A形式のテストによって実施される。主観情報は、被験者の主観によって決まる情報である。
間接客観検査は、被験者の客観的感情に関連する間接客観情報を測定するための検査である。間接客観検査は、例えば、サブリミナルテスト又はウェアラブルデバイスによる検査である。被験者間接客観情報は、被験者の感情を司る脳の反応が直接的に反映されるものではないが、間接的には反映されるものである。被験者間接客観情報は、例えば、脈拍、瞳孔サイズ、及び、汗腺の少なくとも1つのから類推される被験者の感情を司る脳の反応を示す情報である。
直接客観検査は、被験者の客観的感情に関連する直接客観情報を測定するための検査である。直接客観検査は、例えば、脳画像処理機器(一例として、MRI機器又はfMRI(functional Magnetic Resonance Imaging)機器)を用いて実施される検査である。直接客観情報は、被験者の感情を司る脳、及び、感情と関連する脳機能(例えば、感情の抑制)の反応が直接的に反映されるものである。換言すると、直接客観情報は、検査情報の中で、被験者の感情を最も客観的に表す情報である。
As shown in FIG. 2, the subject undergoes three types of tests (subjective test, indirect objective test, and direct objective test). That is, the subject is associated with three types of subject examination information (subjective information, indirect objective information, and direct objective information).
The subjective test is a test for measuring subject subjective information related to a subject's subjective feeling. The subjective test is performed by, for example, a Q&A type test. Subjective information is information that is determined by the subjectivity of the subject.
The indirect objective test is a test for measuring indirect objective information related to the subject's objective emotions. The indirect objective test is, for example, a subliminal test or a test using a wearable device. The indirect subject information does not directly reflect the reaction of the brain that controls the emotion of the subject, but indirectly reflects it. The subject indirect objective information is, for example, information indicating the reaction of the brain that controls the emotion of the subject, which is inferred from at least one of the pulse, the pupil size, and the sweat glands.
The direct objective test is a test for measuring direct objective information related to a subject's objective emotions. The direct objective examination is, for example, an examination performed using a brain image processing device (for example, an MRI device or an fMRI (functional Magnetic Resonance Imaging) device). The direct objective information directly reflects the reaction of the brain that controls the emotion of the subject and the brain function related to the emotion (for example, suppression of emotion). In other words, the direct objective information is the information that most objectively expresses the emotion of the subject in the examination information.

ユーザは、2種類の検査(主観検査及び間接客観検査)を受ける。つまり、ユーザには、2種類のユーザ検査情報(主観情報及び間接客観情報)が関連付けられる。
ユーザは、被験者とは異なり、直接客観検査を受けていない。したがって、ユーザの直接客観感情情報は存在しない。
The user receives two types of inspections (subjective inspection and indirect objective inspection). That is, two types of user inspection information (subjective information and indirect objective information) are associated with the user.
Unlike the test subject, the user does not undergo an objective examination directly. Therefore, there is no direct objective emotion information of the user.

本実施形態では、被験者に関連付けられた3種類の検査情報(主観情報、間接客観情報、及び、直接客観情報)から、主観情報及び間接客観情報の組合せと、直接客観情報との相関性を計算する。
また、被験者に関連付けられた主観情報及び間接客観情報の組合せと、直接客観情報との相関性を参照して、ユーザに関連付けられた2種類の検査情報(主観情報及び間接客観情報)からユーザの感情情報(例えば、ユーザの感情コンディション、感情傾向、及び、感情に影響を与える感情因子)を推測する。
In the present embodiment, the correlation between the combination of the subjective information and the indirect objective information and the direct objective information is calculated from the three types of examination information (subjective information, indirect objective information, and direct objective information) associated with the subject. To do.
Further, by referring to the correlation between the combination of the subjective information and the indirect objective information associated with the subject and the direct objective information, the two types of examination information (subjective information and indirect objective information) associated with the user Emotion information (for example, the emotional condition, emotional tendency, and emotional factors that affect emotions) of the user is estimated.

このように、本実施形態によれば、直接客観検査を受けていないユーザの感情を司る脳の反応が直接的に反映された直接客観情報を推測することができる。その結果、直接客観検査を受けていないユーザの感情を高精度に推測することができる。 As described above, according to the present embodiment, it is possible to estimate the direct objective information in which the reaction of the brain that controls the emotion of the user who has not undergone the direct objective test is directly reflected. As a result, it is possible to accurately estimate the emotion of the user who has not undergone the direct objective examination.

(2−1)本実施形態の概要の一態様
本実施形態の概要の一態様について説明する。図3、本実施形態の概要の一態様の説明図である。
(2-1) One Aspect of Outline of Present Embodiment One aspect of an outline of the present embodiment will be described. FIG. 3 is an explanatory diagram of one aspect of the outline of the present embodiment.

図3示すように、主観検査は、2種類(固着主観検査及び流動主観検査)に分類される。
固着主観検査は、例えば、Q&A形式のテストである。このテストの質問は、被験者に対して、過去に起きた自己に関する出来事及び経験を振り返らせ、且つ、その出来事及び経験のパターンから自己認識を検査するための文脈を含んでいる。従って、このテストの回答から得られる情報は、固着主観情報である。
流動主観検査は、例えば、Q&A形式のテストである。このテストの質問は、被験者に対して、直近の1つの自己の出来事及び経験を振り返らせるための文脈を含んでいる。従って、このテストの回答から得られる情報は、流動主観情報である。複数の流動主観情報と固着主観情報との差は、個人の自己をみる能力、及び、メタ認知能力の差になる。この差は、感情観察力において有用な指標の一つである。
As shown in FIG. 3, the subjective inspection is classified into two types (fixed subjective inspection and flowing subjective inspection).
The fixation subjective test is, for example, a Q&A type test. The questions in this test include a context for the subject to look back on past self-related events and experiences and to test self-awareness from patterns of those events and experiences. Therefore, the information obtained from the answers of this test is the sticky subjective information.
The flow subjective test is, for example, a Q&A type test. The questions in this test include context to remind the subject of one recent self event and experience. Therefore, the information obtained from the answer of this test is the floating subjective information. The difference between the plural pieces of flowing subjective information and the fixed subjective information is the difference in the ability of the individual to see himself and the metacognitive ability. This difference is one of the useful indexes in emotion observation ability.

客観検査は、2種類(間接客観検査及び直接客観検査)に分類される。 The objective inspection is classified into two types (indirect objective inspection and direct objective inspection).

間接客観検査は、固着間接客観検査及び流動間接客観検査に分類される。
固着間接客観検査は、例えば、被験者に対して実施されるサブリミナルテストである。サブリミナルテストでは、被験者に対してサブリミナル効果を与えるコンテンツ(画像、音声、又は、それらの組合せ)を提示し、且つ、当該コンテンツに対する被験者の反応が計測される。一般的に、サブリミナル効果を与えられた脳は、個人の感情に依存する特定の反応を示す。つまり、計測された反応には、被験者の脳に固着した感情が反映される。したがって、被験者の反応は、固着間接客観情報である。
流動間接客観検査は、例えば、被験者が装着したウェアラブルデバイスを用いたテストである。ウェアラブルデバイスによって取得されたデータは、計測のタイミングによって変動する。従って、このデータは、流動間接客観情報である。
The indirect objective inspection is classified into a fixed indirect objective inspection and a flow indirect objective inspection.
The fixation indirect objective test is, for example, a subliminal test performed on a subject. In the subliminal test, content (image, sound, or a combination thereof) that gives a subliminal effect to a subject is presented, and the reaction of the subject to the content is measured. In general, brains that have been given a subliminal effect exhibit specific reactions that depend on the emotion of the individual. That is, the measured reaction reflects the emotions that are fixed to the brain of the subject. Therefore, the reaction of the subject is fixed indirect objective information.
The flow indirect objective test is, for example, a test using a wearable device worn by a subject. The data acquired by the wearable device varies depending on the timing of measurement. Therefore, this data is flow indirect objective information.

直接客観検査は、固着直接客観検査及び流動直接客観検査に分類される。
固着直接客観検査は、例えば、被験者に対して実施されるMRI検査である。MRI機器によって取得された画像は、被験者の脳に固着した感情が直接的に反映される。したがって、MRI機器によって取得された画像は、固着間接客観情報である。
流動直接客観検査は、例えば、被験者に対して実施されるEEG(Electroencephalogram)検査又はfMRI検査である。EEG検査又はfMRI検査の結果は、検査のタイミングによって変動する。従って、EEG検査及びfMRI検査の結果は、流動直接客観情報である。
The direct objective inspection is classified into a fixed direct objective inspection and a flow direct objective inspection.
The fixation direct objective test is, for example, an MRI test performed on a subject. The image captured by the MRI device directly reflects the emotions that are fixed to the brain of the subject. Therefore, the image acquired by the MRI device is fixed indirect objective information.
The flow direct objective test is, for example, an EEG (Electroencephalogram) test or fMRI test performed on a subject. The result of the EEG test or fMRI test varies depending on the timing of the test. Therefore, the results of the EEG test and the fMRI test are flow direct objective information.

本実施形態の一態様では、被験者に関連付けられた5種類の検査情報(固着主観情報、流動主観情報、固着間接客観情報、流動間接客観情報、及び、直接客観情報)から、主観情報及び間接客観情報の組合せと、直接客観情報との相関性を計算する。
また、被験者に関連付けられた主観情報及び間接客観情報の組合せと、直接客観情報との相関性を参照して、ユーザに関連付けられた4種類の検査情報(固着主観情報、流動主観情報、固着間接客観情報、及び、流動間接客観情報)からユーザの感情情報(例えば、ユーザの感情コンディション、感情傾向、及び、感情に影響を与える感情因子)を推測する。
In one aspect of the present embodiment, the subjective information and the indirect objective are determined from five types of examination information (fixed subjective information, flow subjective information, fixed indirect objective information, flow indirect objective information, and direct objective information) associated with the subject. Calculate the correlation between information combinations and direct objective information.
Further, by referring to the correlation between the combination of the subjective information and the indirect objective information associated with the subject and the direct objective information, four types of inspection information associated with the user (fixed subjective information, flow subjective information, fixed indirect information) The emotional information of the user (for example, the emotional condition of the user, the emotional tendency, and the emotional factors that affect the emotion) is estimated from the objective information and the indirect objective information of the flow.

(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3) Database The database of this embodiment will be described. The following databases are stored in the storage device 31.

(3−1)被験者情報データベース
本実施形態の被験者情報データベースについて説明する。図4は、本実施形態の被験者情報データベースのデータ構造を示す図である。
(3-1) Subject Information Database The subject information database of this embodiment will be described. FIG. 4 is a diagram showing a data structure of the subject information database of this embodiment.

図4の被験者情報データベースには、被験者に関する被験者情報が格納される。
被験者情報データベースは、「被験者ID」フィールドと、「被験者名」フィールドと、「被験者属性」フィールドと、「固着主観」フィールドと、「直接客観」フィールドと、「固着間接客観」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
The subject information regarding the subject is stored in the subject information database of FIG.
The subject information database includes a “subject ID” field, a “subject name” field, a “subject attribute” field, a “fixed subjectivity” field, a “direct objective” field, and a “fixed indirect objective” field. ..
Each field is associated with each other.

「被験者ID」フィールドには、被験者を識別する被験者ID(「被験者識別情報」の一例)が格納される。 A subject ID (an example of “subject identification information”) for identifying a subject is stored in the “subject ID” field.

「被験者名」フィールドには、被験者名に関する情報(例えば、テキスト)が格納される。被験者名、例えば、被験者情報を登録するときに被験者によって任意に決定される。 The “subject name” field stores information (eg, text) related to the subject name. The subject name, for example, is arbitrarily determined by the subject when registering the subject information.

「被験者属性」フィールドには、被験者の属性に関する被験者属性情報が格納される。被験者属性情報は、例えば、被験者情報を登録するときに被験者によって任意に決定される。
「被験者属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。
The “subject attribute” field stores subject attribute information related to the subject attribute. The subject attribute information is arbitrarily determined by the subject, for example, when registering the subject information.
The “subject attribute” field includes a “sex” field, an “age” field, and a “profession” field.

「性別」フィールドには、被験者の性別に関する情報が格納される。 The “sex” field stores information about the sex of the subject.

「年齢」フィールドには、被験者の年齢に関する情報が格納される。 Information regarding the age of the subject is stored in the "age" field.

「職業」フィールドには、被験者の職業に関する情報が格納される。 The “profession” field stores information about the occupation of the subject.

「固着主観」フィールドには、被験者の固着主観情報が格納される。固着主観情報は、予め用意された複数の質問に対する回答の組合せによって決まる情報である。固着主観情報は、例えば、被験者の性格の種類(以下「性格タイプ」という)に関する情報である。 The "fixation subjectivity" field stores the subject's fixation subjectivity information. The sticky subjective information is information determined by a combination of answers to a plurality of questions prepared in advance. The sticky subjective information is, for example, information on the type of personality of the subject (hereinafter referred to as “personal type”).

「直接客観」フィールドには、被験者の直接客観情報が格納される。
「直接客観」フィールドは、「MRI」フィールドと、「fMRI」フィールドと、を含む。
The "direct objective" field stores the direct objective information of the subject.
The "direct objective" field includes an "MRI" field and an "fMRI" field.

「MRI」フィールドには、MRIの検査結果に関するMRI画像(「直接客観情報」の一例)が格納される。MRI画像は、例えば、被験者の脳の画像データである。 The "MRI" field stores an MRI image (an example of "direct objective information") relating to the MRI examination result. The MRI image is, for example, image data of a subject's brain.

「fMRI」フィールドには、fMRIの検査結果に関するfMRI情報(「直接客観情報」の一例)が格納される。fMRI情報は、複数の刺激のそれぞれに対する脳の各部位の脳活動に関する血流動態反応パラメータ(例えば、扁桃体の活性度、島の活性度、背外側前頭前皮質の不活性度、血中コルチゾール量、血圧変動率、及び、表情筋)を含む。 In the “fMRI” field, fMRI information (an example of “direct objective information”) regarding the fMRI examination result is stored. The fMRI information is a hemodynamic response parameter (eg, amygdala activity, islet activity, dorsolateral prefrontal cortex inactivity, blood cortisol level) related to brain activity in each part of the brain for each of multiple stimuli. , Blood pressure fluctuation rate, and facial muscles).

「固着間接客観」フィールドには、被験者に対する固着間接客観検査(例えば、サブリミナルテスト)から得られる固着間接客観情報が格納される。固着間接客観情報は、例えば、以下を含む。
・サブリミナルコンテンツを提示したときの反応の内容
・サブリミナルコンテンツを提示したときの反応速度
In the “fixed indirect objective” field, fixed indirect objective information obtained from a fixed indirect objective test (for example, a subliminal test) on the subject is stored. The fixed indirect objective information includes, for example, the following.
・Details of reaction when presenting subliminal content ・Reaction speed when presenting subliminal content

(3−2)被験者流動主観情報データベース
本実施形態の被験者流動主観情報データベースについて説明する。図5は、本実施形態の被験者流動主観情報データベースのデータ構造を示す図である。
(3-2) Subject Flow Subjectivity Information Database The subject subject flow information database of the present embodiment will be described. FIG. 5 is a diagram showing a data structure of the subject flow subjective information database of this embodiment.

図5の被験者流動主観情報データベースには、被験者に対して提示された質問に対する回答が格納される。
被験者流動主観情報データベースは、「データID」フィールドと、「チェックイン日時」フィールドと、「チェックイン回答」フィールドと、「チェックアウト日時」フィールドと、「チェックアウト回答」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
被験者流動主観情報データベースは、被験者IDに関連付けられる。
The subject flow subjective information database of FIG. 5 stores the answers to the questions presented to the subject.
The subject flow subjective information database includes a "data ID" field, a "check-in date and time" field, a "check-in response" field, a "check-out date and time" field, and a "check-out response" field.
Each field is associated with each other.
The subject flow subjective information database is associated with the subject ID.

「データID」フィールドには、被験者流動主観情報データベースのレコードを識別するデータIDが格納される。 In the "data ID" field, a data ID for identifying a record in the subject flow subjective information database is stored.

「チェックイン日時」フィールドには、チェックインの日時に関する情報が格納される。チェックインとは、あるタスクを実行する前に被験者に提示した質問に対する回答を取得するための処理である。 The “check-in date and time” field stores information regarding the check-in date and time. Check-in is a process for acquiring an answer to a question presented to a subject before executing a certain task.

「チェックイン回答」フィールドには、チェックインにおいて取得された回答に関するチェックイン回答情報が格納される。「チェックイン回答」フィールドの情報は、質問毎に分けて格納される。 The “check-in answer” field stores check-in answer information regarding the answer acquired in the check-in. The information in the “check-in answer” field is stored separately for each question.

「チェックアウト日時」フィールドには、チェックアウトの日時に関する情報が格納される。チェックアウトとは、あるタスクを完了した後に被験者に提示した質問に対する回答を取得するための処理である。 Information regarding the date and time of check-out is stored in the “check-out date and time” field. Checkout is a process for acquiring an answer to a question presented to a subject after completing a certain task.

「チェックアウト回答」フィールドには、チェックアウトにおいて取得された回答に関するチェックアウト回答情報が格納される。「チェックアウト回答」フィールドの情報は、質問毎に分けて格納される。 The "checkout answer" field stores checkout answer information about the answer obtained in the checkout. The information in the “checkout answer” field is stored separately for each question.

(3−3)被験者流動間接客観情報データベース
本実施形態の被験者流動間接客観情報データベースについて説明する。図6は、本実施形態の被験者流動間接客観情報データベースのデータ構造を示す図である。
(3-3) Subject Flow Indirect Objective Information Database The subject flow indirect objective information database of this embodiment will be described. FIG. 6 is a diagram showing a data structure of the subject flow indirect objective information database of this embodiment.

図6の被験者流動間接客観情報データベースには、被験者の流動間接客観情報が格納される。
被験者流動間接客観情報データベースは、「データID」フィールドと、「測定日時」フィールドと、「ウェアラブル」フィールドと、を含む。
被験者流動間接客観情報データベースは、被験者IDに関連付けられる。
The subject flow indirect objective information of the subject is stored in the subject flow indirect objective information database of FIG.
The subject flow indirect objective information database includes a "data ID" field, a "measurement date and time" field, and a "wearable" field.
The subject flow indirect objective information database is associated with the subject ID.

「データID」フィールドには、被験者流動間接客観情報データベースのレコードを識別するデータIDが格納される。 In the "data ID" field, a data ID for identifying a record in the subject indirect objective information database is stored.

「測定日時」フィールドには、ウェアラブルデバイスが計測したデータを取得した日時に関する情報が格納される。 The “measurement date/time” field stores information about the date/time when the wearable device measured the data.

「ウェアラブル」フィールドには、ウェアラブルデバイスが計測したデータが格納される。ウェアラブルデバイスが計測したデータは、例えば、以下の少なくとも1つを含む。
・歩数
・脈拍
・心拍数
・消費カロリー
The "wearable" field stores data measured by the wearable device. The data measured by the wearable device includes at least one of the following, for example.
・Steps, pulse, heart rate, calories burned

(3−4)ユーザ情報データベース
本実施形態のユーザ情報データベースについて説明する。図7は、本実施形態のユーザ情報データベースのデータ構造を示す図である。
(3-4) User Information Database The user information database of this embodiment will be described. FIG. 7 is a diagram showing a data structure of the user information database of this embodiment.

図7のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「固着主観」フィールドと、「固着間接客観」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
The user information database of FIG. 7 stores user information about users.
The user information database includes a “user ID” field, a “user name” field, a “user attribute” field, a “fixed subjectivity” field, and a “fixed indirect objective” field.
Each field is associated with each other.

「ユーザID」フィールドには、ユーザを識別するユーザID(「ユーザ識別情報」の一例)が格納される。 A user ID (an example of “user identification information”) for identifying a user is stored in the “user ID” field.

「ユーザ名」フィールドには、ユーザ名に関する情報(例えば、テキスト)が格納される。ユーザ名は、例えば、ユーザ情報を登録するときにユーザによって任意に決定される。 Information (for example, text) related to the user name is stored in the “user name” field. The user name is arbitrarily determined by the user when registering the user information, for example.

「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。ユーザ属性情報は、例えば、ユーザ情報を登録するときにユーザによって任意に決定される。
「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。
The “user attribute” field stores user attribute information regarding the user attribute. The user attribute information is arbitrarily determined by the user when registering the user information, for example.
The "user attribute" field includes a "sex" field, an "age" field, and an "occupation" field.

「性別」フィールドには、ユーザの性別に関する情報が格納される。 Information regarding the gender of the user is stored in the “sex” field.

「年齢」フィールドには、ユーザの年齢に関する情報が格納される。 Information regarding the age of the user is stored in the "age" field.

「職業」フィールドには、ユーザの職業に関する情報が格納される。 Information regarding the occupation of the user is stored in the “occupation” field.

「固着主観」フィールドには、ユーザの固着主観情報が格納される。固着主観情報は、予め用意された複数の質問に対する回答の組合せによって決まる情報である。固着主観情報は、例えば、ユーザの性格タイプに関する情報である。 The "fixed subjectivity" field stores the fixed subjectivity information of the user. The sticky subjective information is information determined by a combination of answers to a plurality of questions prepared in advance. The sticky subjective information is, for example, information on the personality type of the user.

「固着間接客観」フィールドには、ユーザに対する固着間接客観検査(例えば、サブリミナルテスト)から得られる固着間接客観情報が格納される。固着間接客観情報の例は、被験者情報データベース(図4)の「固着間接客観」フィールドの例と同様である。 The "fixed indirect objective" field stores fixed indirect objective information obtained from a fixed indirect objective test (for example, a subliminal test) for the user. An example of the fixed indirect objective information is similar to the example of the “fixed indirect objective” field of the subject information database (FIG. 4).

(3−5)ユーザ流動主観情報データベース
本実施形態のユーザ流動主観情報データベースについて説明する。図8は、本実施形態のユーザ流動主観情報データベースのデータ構造を示す図である。
(3-5) User Flow Subjective Information Database The user flow subjective information database of this embodiment will be described. FIG. 8 is a diagram showing a data structure of the user flow subjective information database of this embodiment.

図8のユーザ流動主観情報データベースには、ユーザに対して提示された質問に対する回答が格納される。
ユーザ流動主観情報データベースは、「データID」フィールドと、「チェックイン日時」フィールドと、「チェックイン回答」フィールドと、「チェックアウト日時」フィールドと、「チェックアウト回答」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
ユーザ流動主観情報データベースは、ユーザIDに関連付けられる。
The user flow subjective information database in FIG. 8 stores answers to questions presented to the user.
The user flow subjective information database includes a "data ID" field, a "check-in date and time" field, a "check-in response" field, a "check-out date and time" field, and a "check-out response" field.
Each field is associated with each other.
The user flow subjective information database is associated with the user ID.

「データID」フィールドには、ユーザ流動主観情報データベースのレコードを識別するデータIDが格納される。 In the "data ID" field, a data ID for identifying a record in the user flow subjective information database is stored.

「チェックイン日時」フィールドには、チェックインの日時に関する情報が格納される。チェックインとは、あるタスクを実行する前にユーザに提示した質問に対する回答を取得するための処理である。 The “check-in date and time” field stores information regarding the check-in date and time. Check-in is a process for acquiring an answer to a question presented to the user before executing a certain task.

「チェックイン回答」フィールドには、チェックインにおいて取得された回答に関するチェックイン回答情報が格納される。「チェックイン回答」フィールドの情報は、質問毎に分けて格納される。 The “check-in answer” field stores check-in answer information regarding the answer acquired in the check-in. The information in the “check-in answer” field is stored separately for each question.

「チェックアウト日時」フィールドには、チェックアウトの日時に関する情報が格納される。チェックアウトとは、あるタスクを完了した後にユーザに提示した質問に対する回答を取得するための処理である。 Information regarding the date and time of check-out is stored in the “check-out date and time” field. Checkout is a process for obtaining an answer to a question presented to the user after completing a certain task.

「チェックアウト回答」フィールドには、チェックアウトにおいて取得された回答に関するチェックアウト回答情報が格納される。「チェックアウト回答」フィールドの情報は、質問毎に分けて格納される。 The "checkout answer" field stores checkout answer information about the answer obtained in the checkout. The information in the “checkout answer” field is stored separately for each question.

(3−6)ユーザ流動間接客観情報データベース
本実施形態のユーザ流動間接客観情報データベースについて説明する。図9は、本実施形態のユーザ流動間接客観情報データベースのデータ構造を示す図である。
(3-6) User Flow Indirect Objective Information Database The user flow indirect objective information database of this embodiment will be described. FIG. 9 is a diagram showing the data structure of the user flow indirect objective information database of this embodiment.

図9のユーザ流動間接客観情報データベースには、ユーザの流動間接客観情報が格納される。
ユーザ流動間接客観情報データベースは、「データID」フィールドと、「測定日時」フィールドと、「ウェアラブル」フィールドと、を含む。
ユーザ流動間接客観情報データベースは、ユーザIDに関連付けられる。
The user indirect objective information of the user's flow is stored in the user indirect objective information database of FIG.
The user flow indirect objective information database includes a "data ID" field, a "measurement date and time" field, and a "wearable" field.
The user flow indirect objective information database is associated with the user ID.

「データID」フィールドには、ユーザ流動間接客観情報データベースのレコードを識別するデータIDが格納される。 In the "data ID" field, a data ID for identifying a record of the user flow indirect objective information database is stored.

「測定日時」フィールドには、ウェアラブルデバイスが計測したデータを取得した日時に関する情報が格納される。 The “measurement date/time” field stores information about the date/time when the wearable device measured the data.

「ウェアラブル」フィールドには、ウェアラブルデバイスが計測したデータが格納される。ウェアラブルデバイスが計測したデータの例は、被験者流動間接客観情報データベース(図6)の「ウェアラブル」フィールドの例と同様である。 The "wearable" field stores data measured by the wearable device. An example of the data measured by the wearable device is the same as the example of the “wearable” field of the subject flow indirect objective information database (FIG. 6).

(4)情報処理
本実施形態の情報処理について説明する。図10は、本実施形態の情報処理の全体フローを示す図である。
(4) Information processing Information processing of this embodiment will be described. FIG. 10 is a diagram showing an overall flow of information processing of this embodiment.

図10に示すように、本実施形態の情報処理は、被験者情報の登録(OP1)と、被験者流動情報の登録(OP2)と、ユーザ情報の登録(OP3)と、ユーザ流動情報の登録(OP4)と、感情の可視化(OP5)と、を含む。
被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)は、被験者情報データベース(図4)、被験者流動主観情報データベース(図5)、及び、被験者流動間接客観情報データベース(図6)へのデータの登録を行うための処理である。被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)によって、サーバ30に、被験者検査情報と感情の推論モデルが構築される。
ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)は、ユーザ情報データベース(図7)、ユーザ流動主観情報データベース(図8)、及び、ユーザ流動間接客観情報データベース(図9)へのデータの登録を行うための処理である。ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)によって、感情の可視化(OP5)に必要な入力情報がサーバ30に与えられる。
感情の可視化(OP5)は、被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)によって生成された推論モデルと、ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)において与えられた入力情報とを用いて、ユーザの感情を可視化するための処理である。
As shown in FIG. 10, in the information processing of the present embodiment, subject information registration (OP1), subject flow information registration (OP2), user information registration (OP3), and user flow information registration (OP4). ) And emotion visualization (OP5).
The registration of the subject information (OP1) and the registration of the subject flow information (OP2) are performed on the subject information database (FIG. 4), the subject flow subjective information database (FIG. 5), and the subject flow indirect objective information database (FIG. 6). This is a process for registering data. By registering the subject information (OP1) and registering the subject flow information (OP2), the subject test information and the emotion inference model are constructed in the server 30.
The registration of user information (OP3) and the registration of user flow information (OP4) are performed on the user information database (FIG. 7), the user flow subjective information database (FIG. 8), and the user flow indirect objective information database (FIG. 9). This is a process for registering data. By registering user information (OP3) and registering user flow information (OP4), the input information necessary for visualization of emotions (OP5) is given to the server 30.
The emotion visualization (OP5) is given in the inference model generated by the registration of the subject information (OP1) and the registration of the subject flow information (OP2), and the registration of the user information (OP3) and the registration of the user flow information (OP4). This is a process for visualizing the emotion of the user by using the input information thus obtained.

(4−1)被験者情報の登録
本実施形態の被験者情報の登録(OP1)の処理について説明する。図11は、図10の被験者情報の登録の処理のシーケンス図である。図12〜図13は、図11の情報処理において表示される画面例を示す図である。
(4-1) Registration of Subject Information The process of registering subject information (OP1) according to this embodiment will be described. FIG. 11 is a sequence diagram of a process of registering subject information in FIG. 12 to 13 are diagrams showing examples of screens displayed in the information processing of FIG. 11.

図11に示すように、被験者情報の受付(S100)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P100(図12)をディスプレイに表示する。
As shown in FIG. 11, reception of subject information (S100) is executed.
Specifically, the processor 12 of the client device 10 displays the screen P100 (FIG. 12) on the display.

画面P100は、操作オブジェクトB100と、フィールドオブジェクトF100と、を含む。
フィールドオブジェクトF100は、被験者情報(例えば、被験者名、性別、年齢、及び、職業)の入力を受け付けるオブジェクトである。
操作オブジェクトB100は、フィールドオブジェクトF100に入力された情報をサーバ30に送信させるための指示を受け付けるオブジェクトである。
The screen P100 includes an operation object B100 and a field object F100.
The field object F100 is an object that receives input of subject information (for example, subject name, sex, age, and occupation).
The operation object B100 is an object that receives an instruction for transmitting the information input to the field object F100 to the server 30.

被験者がフィールドオブジェクトF100に被験者情報を入力し、且つ、操作オブジェクトB100を操作すると、プロセッサ12は、被験者情報登録リクエストデータをサーバ30に送信する。被験者情報登録リクエストデータは、フィールドオブジェクトF100に入力された情報を含む。 When the subject inputs the subject information to the field object F100 and operates the operation object B100, the processor 12 transmits the subject information registration request data to the server 30. The subject information registration request data includes the information input to the field object F100.

サーバ30のプロセッサ32は、被験者情報データベース(図4)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「被験者ID」フィールドには、新規の被験者IDが格納される。
・「被験者名」フィールド及び「被験者属性」フィールドには、被験者情報登録リクエストデータに含まれる情報(つまり、フィールドオブジェクトF100に入力された情報)が格納される。
The processor 32 of the server 30 adds a new record to the subject information database (FIG. 4).
The following information is stored in each field of the new record.
A new subject ID is stored in the “subject ID” field.
The information included in the subject information registration request data (that is, the information input to the field object F100) is stored in the “subject name” field and the “subject attribute” field.

ステップS100の後、初回Q&Aテスト(S101)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P101(図12)をディスプレイに表示する。
After step S100, the first Q&A test (S101) is executed.
Specifically, the processor 12 of the client device 10 displays the screen P101 (FIG. 12) on the display.

画面P101は、操作オブジェクトB101と、フィールドオブジェクトF101と、を含む。
フィールドオブジェクトF101には、質問と、当該質問に対する回答の選択肢と、が表示される。操作者が選択肢の少なくとも1つを指定すると、フィールドオブジェクトF101は、操作者によって指定された選択肢を操作者の回答として受け付ける。
操作オブジェクトB101は、フィールドオブジェクトF101が受け付けた回答を確定させるための指示を受け付けるオブジェクトである。
The screen P101 includes an operation object B101 and a field object F101.
In the field object F101, a question and options for answering the question are displayed. When the operator specifies at least one of the options, the field object F101 receives the option specified by the operator as the operator's answer.
The operation object B101 is an object that receives an instruction for fixing the answer received by the field object F101.

操作オブジェクトB101が操作されると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、フィールドオブジェクトF101に入力された情報を含む。 When the operation object B101 is operated, the processor 12 transmits the update request data to the server 30. The update request data includes the information input to the field object F101.

サーバ30の記憶装置31には、フィールドオブジェクトF101に入力された情報の組合せと、入力者の性格タイプとの関係を示すマッチングテーブルが記憶されている。
プロセッサ32は、記憶装置31に記憶されたマッチングテーブルを参照して、更新リクエストデータに含まれる情報に対応する性格タイプを決定する。
プロセッサ32は、ステップS100で追加した新規レコードの「固着主観」フィールドに、決定した性格タイプに関する情報を格納する。
プロセッサ32は、更新レスポンスデータをクライアント装置10に送信する。更新レスポンスデータは、性格タイプに関する情報を含む。
The storage device 31 of the server 30 stores a matching table indicating the relationship between the combination of information input to the field object F101 and the personality type of the input person.
The processor 32 refers to the matching table stored in the storage device 31 to determine the personality type corresponding to the information included in the update request data.
The processor 32 stores information on the determined personality type in the “fixed subjectivity” field of the new record added in step S100.
The processor 32 transmits the update response data to the client device 10. The update response data includes information about the personality type.

クライアント装置10のプロセッサ12は、更新リクエストデータに基づいて、画面P102(図12)をディスプレイに表示する。
画面P102には、サーバ30によって決定された性格タイプが表示される。
The processor 12 of the client device 10 displays the screen P102 (FIG. 12) on the display based on the update request data.
The personality type determined by the server 30 is displayed on the screen P102.

ステップS101の後、サブリミナルテスト(S102)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P103(図13)をディスプレイに表示する。
After step S101, a subliminal test (S102) is executed.
Specifically, the processor 12 of the client device 10 displays the screen P103 (FIG. 13) on the display.

画面P103は、表示オブジェクトA103を含む。
表示オブジェクトA103には、被験者に対して、操作を促すメッセージ(例えば、「表示された三角形をクリックしてください」というテキストメッセージ)が表示される。
The screen P103 includes a display object A103.
On the display object A 103, a message prompting the subject to perform an operation (for example, a text message “Please click the displayed triangle”) is displayed.

画面P103の表示から時間t1(例えば、4秒)経過後、プロセッサ12は、画面P104(図13)をディスプレイに表示する。 After a lapse of time t1 (for example, 4 seconds) from the display of the screen P103, the processor 12 displays the screen P104 (FIG. 13) on the display.

画面P104は、表示オブジェクトA103及びA104を含む。
表示オブジェクトA104は、表示領域A104a〜表示領域A104bを含む。
表示領域A104a〜A104bには、それぞれ、画像オブジェクトIMG104a〜IMG104bが表示される。画像オブジェクトIMG104a〜IMG104bは、所定方向に並んで表示される。画像オブジェクトIMG104a〜IMG104bは、例えば、四角形の画像である。
The screen P104 includes display objects A103 and A104.
The display object A104 includes a display area A104a and a display area A104b.
Image objects IMG104a to IMG104b are displayed in the display areas A104a to A104b, respectively. The image objects IMG104a to IMG104b are displayed side by side in a predetermined direction. The image objects IMG104a to IMG104b are, for example, rectangular images.

画面P104の表示から時間t2(<t1)経過後、プロセッサ12は、画面P105a又はP105b(図13)をディスプレイに表示する。時間t2は、例えば、0.01秒である。つまり、画面P104は、画面P103に比べて極めて短時間だけ表示される。 After a lapse of time t2 (<t1) from the display of the screen P104, the processor 12 displays the screen P105a or P105b (FIG. 13) on the display. The time t2 is, for example, 0.01 seconds. That is, the screen P104 is displayed for an extremely short time compared to the screen P103.

このように、画面P104の表示時間t2は、画面P103の表示時間t1より極めて短時間である。そのため、画像オブジェクトIMG104a〜IMG104bは、人間の視覚では認識することはできないが、通常、「意識」より下の部分(いわゆる潜在意識、又は、意識と潜在意識との境界領域)において、脳が認識可能である。したがって、被験者は、無意識のうちに、画像オブジェクトIMG104a又はIMG104bの何れかに注目する。この現象を、「サブリミナル効果」という。ステップS102では、このサブリミナル効果を利用して、被験者の固着間接客観情報を取得する。 As described above, the display time t2 of the screen P104 is significantly shorter than the display time t1 of the screen P103. Therefore, the image objects IMG104a to IMG104b cannot be recognized by human vision, but normally, the brain recognizes them in a portion below the "consciousness" (so-called subconscious, or a boundary area between the consciousness and the subconscious). It is possible. Therefore, the subject unknowingly focuses on either the image object IMG104a or IMG104b. This phenomenon is called "subliminal effect". In step S102, the indirect objective fixation information of the subject is acquired by using this subliminal effect.

画面P105aは、表示オブジェクトA104を含む。
表示オブジェクトA104の表示領域A104aには、画像オブジェクトIMG105aが表示される。画像オブジェクトIMG105aは、例えば、三角形の画像である。画像オブジェクトIMG105aは、操作者による操作が可能なオブジェクトである。
The screen P105a includes a display object A104.
The image object IMG105a is displayed in the display area A104a of the display object A104. The image object IMG105a is, for example, a triangular image. The image object IMG105a is an object that can be operated by the operator.

画面P105bは、表示オブジェクトA104を含む。
表示オブジェクトA104の表示領域A104bには、画像オブジェクトIMG105bが表示される。画像オブジェクトIMG105bは、例えば、三角形の画像である。画像オブジェクトIMG105bは、操作者による操作が可能なオブジェクトである。
The screen P105b includes the display object A104.
The image object IMG105b is displayed in the display area A104b of the display object A104. The image object IMG105b is, for example, a triangular image. The image object IMG105b is an object that can be operated by the operator.

被験者が画像オブジェクトIMG105a又はIMG105bを操作すると、プロセッサ12は、画面P105a又はP105bの表示から被験者が画像オブジェクトIMG105a又はIMG105bを操作するまでの時間(以下「反応時間」という)を、記憶装置11に記憶する。
例えば、被験者が画面P104の画像オブジェクトIMG104aに注目していた場合には、画像オブジェクトIMG104aと同じ表示領域A104aに表示された画像オブジェクトIMG105aの操作に対する反応時間は、画像オブジェクトIMG104aと異なる表示領域A104bに表示された画像オブジェクトIMG105bの操作に対する反応時間より短くなる。
When the subject operates the image object IMG105a or IMG105b, the processor 12 stores the time (hereinafter referred to as “reaction time”) from the display of the screen P105a or P105b until the subject operates the image object IMG105a or IMG105b in the storage device 11. To do.
For example, when the subject is paying attention to the image object IMG104a on the screen P104, the reaction time for the operation of the image object IMG105a displayed in the same display area A104a as the image object IMG104a is displayed in the display area A104b different from the image object IMG104a. It becomes shorter than the reaction time for the operation of the displayed image object IMG105b.

プロセッサ12は、上記のようなサビリミナルテストを複数回繰り返し実行する。
所定回数のサブリミナルテストが終了すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・画像オブジェクトIMG105aに対する反応時間に関する情報
・画像オブジェクトIMG105bに対する反応時間に関する情報
The processor 12 repeatedly executes the above-described subliminal test a plurality of times.
When the predetermined number of subliminal tests are completed, the processor 12 transmits the update request data to the server 30. The update request data includes the following information.
Information about reaction time for image object IMG105a Information about reaction time for image object IMG105b

プロセッサ32は、ステップS100で追加した新規レコードの「固着間接客観」フィールドに、更新リクエストデータに含まれる反応時間に関する情報を格納する。
プロセッサ32は、更新レスポンスデータをクライアント装置10に送信する。
The processor 32 stores the information regarding the reaction time included in the update request data in the “fixed indirect objective” field of the new record added in step S100.
The processor 32 transmits the update response data to the client device 10.

ステップS102の後、MRI検査(S103)が実行される。
具体的には、磁気共鳴装置に接続されたコンピュータが、磁気共鳴装置によって得られた信号に基づいて、被験者の脳活動パラメータと、血流動態反応パラメータと、を生成する。
当該コンピュータは、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・脳活動パラメータ
・血流動態反応パラメータ
After step S102, the MRI examination (S103) is executed.
Specifically, a computer connected to the magnetic resonance apparatus generates a brain activity parameter of the subject and a hemodynamic response parameter based on the signal obtained by the magnetic resonance apparatus.
The computer sends the update request data to the server 30.
The update request data includes the following information.
・Brain activity parameters ・Hemodynamic response parameters

サーバ30のプロセッサ32は、ステップS100で追加した新規レコードに以下の情報を格納する。
・「MRI」フィールドに、更新リクエストデータに含まれる脳活動パラメータが格納される。
・「fMRI」フィールドに、更新リクエストデータに含まれる血流動態反応パラメータが格納される。
The processor 32 of the server 30 stores the following information in the new record added in step S100.
The brain activity parameter included in the update request data is stored in the “MRI” field.
The hemodynamic response parameter included in the update request data is stored in the “fMRI” field.

(4−2)被験者流動情報の登録
本実施形態の被験者流動情報の登録(OP2)の処理について説明する。図14は、図10の被験者流動情報の登録の処理のシーケンス図である。図15〜図17は、図14の情報処理において表示される画面例を示す図である。
(4-2) Registration of Subject Flow Information The process of registering subject flow information (OP2) according to the present embodiment will be described. FIG. 14 is a sequence diagram of a process of registering the subject flow information of FIG. 15 to 17 are diagrams showing examples of screens displayed in the information processing of FIG.

図14に示すように、ウェアラブル情報の取得(S200)が実行される。
クライアント装置10のプロセッサ12は、被験者が装着したウェアラブルデバイスから、ウェアラブル情報(例えば、歩数、脈拍、及び、心拍数の少なくとも1つ)を取得する。
プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・ウェアラブルデバイスを装着した被験者の被験者ID
・ウェアラブル情報
・ステップS200の実行日時に関する情報
As shown in FIG. 14, acquisition of wearable information (S200) is executed.
The processor 12 of the client device 10 acquires wearable information (for example, at least one of the number of steps, a pulse, and a heart rate) from the wearable device worn by the subject.
The processor 12 sends the update request data to the server 30. The update request data includes the following information.
・Subject ID of the subject wearing the wearable device
・Wearable information ・Information about the execution date and time of step S200

サーバ30のプロセッサ32は、更新リクエストデータに含まれる被験者IDに関連付けられた被験者流動間接客観情報データベース(図6)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「データID」フィールドには、新規データIDが格納される。
・「測定日時」フィールドには、更新リクエストデータに含まれる実行日時に関する情報が格納される。
・「ウェアラブル」フィールドには、更新リクエストデータに含まれるウェアラブル情報が格納される。
The processor 32 of the server 30 adds a new record to the subject flow indirect objective information database (FIG. 6) associated with the subject ID included in the update request data.
The following information is stored in each field of the new record.
A new data ID is stored in the "data ID" field.
The "measurement date and time" field stores information about the execution date and time included in the update request data.
The wearable information included in the update request data is stored in the "wearable" field.

ステップS200の後、チェックイン(S201)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P200(図15)をディスプレイに表示する。
After step S200, check-in (S201) is executed.
Specifically, the processor 12 of the client device 10 displays the screen P200 (FIG. 15) on the display.

画面P200は、操作オブジェクトB200と、フィールドオブジェクトF200a〜F200eと、を含む。 The screen P200 includes an operation object B200 and field objects F200a to F200e.

フィールドオブジェクトF200a〜F200eには、ステップS201の後に行うタスクに関する質問が提示される。
フィールドオブジェクトF200aには、「タスクの内容は?」という質問が提示される。フィールドオブジェクトF200aに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、タスクの内容に関する情報として取得する。
フィールドオブジェクトF200bには、「タスクの種類は?」という質問が提示される。フィールドオブジェクトF200bの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、タスクの種類に関する情報として取得する。
フィールドオブジェクトF200cには、「誰と一緒?」という質問が提示される。フィールドオブジェクトF200cの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、タスクを一緒に行う人物に関する情報として取得する。
フィールドオブジェクトF200dには、「タスクの頻度は?」という質問が提示される。フィールドオブジェクトF200dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの頻度に関する情報として取得する。
フィールドオブジェクトF200eには、「タスクの難易度は?」という質問が提示される。フィールドオブジェクトF200eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの難易度に関する情報として取得する。
Questions regarding the task to be performed after step S201 are presented to the field objects F200a to F200e.
The field object F200a is presented with the question “What is the task content?”. When arbitrary text is input to the field object F200a, the processor 12 acquires the input text as information regarding the content of the task.
The field object F200b is presented with the question “What kind of task is it?”. When an arbitrary option is selected from the plurality of options of the field object F200b, the processor 12 acquires the selected option as information regarding the type of task.
The field object F200c is presented with the question “Who with?”. When an arbitrary option is selected from the plurality of options of the field object F200c, the processor 12 acquires the selected option as information regarding the person who will perform the task together.
The field object F200d is presented with the question "how often does the task occur?". When the slider of the field object F200d is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information regarding the frequency of tasks.
The field object F200e is presented with the question “How difficult is the task?”. When the slider of the field object F200e is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information regarding the difficulty level of the task.

操作オブジェクトB200が操作されると、画面P201(図15)に遷移する。 When the operation object B200 is operated, a screen P201 (FIG. 15) is displayed.

画面P201は、操作オブジェクトB201と、フィールドオブジェクトF201a〜F201bと、を含む。 The screen P201 includes an operation object B201 and field objects F201a and F201b.

フィールドオブジェクトF201a〜F201bには、ステップS201の前に行われた行動に関する質問が提示される。
フィールドオブジェクトF201aには、「直前30分は何をしていた?」という質問が提示される。フィールドオブジェクトF201aの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、チェックインの直前30分間に行っていた行動に関する情報として取得する。
フィールドオブジェクトF201bには、「直前30分はどうだった?」という質問が提示される。フィールドオブジェクトF201bのスライダを移動させると、プロセッサ12は、スライダの位置に応じた数値を、チェックインの直前30分間に行った行動に対する自己評価に関する情報として取得する。
Questions regarding the action performed before step S201 are presented to the field objects F201a to F201b.
The field object F201a is presented with the question "What were you doing in the last 30 minutes?". When an arbitrary option is selected from the plurality of options of the field object F201a, the processor 12 acquires the selected option as information regarding the action performed in the 30 minutes immediately before check-in.
The field object F201b is presented with the question "How was the last 30 minutes?" When the slider of the field object F201b is moved, the processor 12 acquires a numerical value according to the position of the slider as information regarding self-evaluation of the action performed during the 30 minutes immediately before check-in.

操作オブジェクトB201が操作されると、画面P202(図16)に遷移する。 When the operation object B201 is operated, a screen P202 (FIG. 16) is displayed.

画面P202は、操作オブジェクトB202と、フィールドオブジェクトF202a〜F202gと、を含む。 The screen P202 includes an operation object B202 and field objects F202a to F202g.

フィールドオブジェクトF202a〜F202gには、タスクを行う前の主観的感情に関連する質問が提示される。
フィールドオブジェクトF202aには、「空腹度は?」という質問が表示される。フィールドオブジェクトF202aのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、空腹度に関する情報として取得する。
フィールドオブジェクトF202bには、「眠気は?」という質問が表示される。フィールドオブジェクトF202bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、眠気に関する情報として取得する。
フィールドオブジェクトF202cには、「ストレスは?」という質問が表示される。フィールドオブジェクトF202cのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、ストレスに関する情報として取得する。
フィールドオブジェクトF202dには、「前回のタスクは?」という質問が表示される。フィールドオブジェクトF202dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、チェックインの前に行ったタスクに対する自己評価に関する情報として取得する。
フィールドオブジェクトF202eには、「モチベーションは?」という質問が表示される。フィールドオブジェクトF202eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対するモチベーションに関する情報として取得する。
フィールドオブジェクトF202fには、「不安感は?」という質問が表示される。フィールドオブジェクトF202fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する不安感に関する情報として取得する。
フィールドオブジェクトF202gには、「明確度は?」という質問が表示される。フィールドオブジェクトF202gのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する明確度に関する情報として取得する。
Questions related to the subjective feeling before performing the task are presented to the field objects F202a to F202g.
In the field object F202a, the question "How hungry?" is displayed. When the slider of the field object F202a is moved, the processor 12 acquires a numerical value according to the position of the slider as information regarding hunger.
In the field object F202b, the question "How sleepy?" is displayed. When the slider of the field object F202b is moved, the processor 12 acquires a numerical value according to the position of the slider as information regarding drowsiness.
In the field object F202c, the question “What is your stress?” is displayed. When the slider of the field object F202c is moved, the processor 12 acquires a numerical value according to the position of the slider as information regarding stress.
In the field object F202d, the question "What is the last task?" is displayed. When the slider of the field object F202d is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information regarding self-evaluation for the task performed before check-in.
In the field object F202e, the question "What is your motivation?" is displayed. When the slider of the field object F202e is moved, the processor 12 acquires a numerical value according to the position of the slider as information regarding motivation for the task.
In the field object F202f, the question “Are you feeling uneasy?” is displayed. When the slider of the field object F202f is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information regarding the anxiety about the task.
In the field object F202g, the question "What is the clarity?" is displayed. When the slider of the field object F202g is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information regarding the clarity of the task.

操作オブジェクトB202が操作されると、画面P203(図16)に遷移する。 When the operation object B202 is operated, a screen P203 (FIG. 16) is displayed.

画面P203は、操作オブジェクトB203と、フィールドオブジェクトF203a〜F203bと、を含む。 The screen P203 includes an operation object B203 and field objects F203a and F203b.

フィールドオブジェクトF203a〜F203bには、タスクを行った後の予定行動に関する質問が提示される。
フィールドオブジェクトF203aには、「タスクの後の行動は?」という質問が提示される。フィールドオブジェクトF203aの複数の選択肢の中から任意の選択肢が選択されると、選択された選択肢を、タスクを行った後の予定行動に関する情報として取得する。
フィールドオブジェクトF203bには、「タスクの後の行動の楽しみ度は?」という質問が提示される。フィールドオブジェクトF203bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの後の行動に対する期待感に関する情報として取得する。
Questions related to the planned activity after performing the task are presented to the field objects F203a to F203b.
The field object F203a is presented with the question "What is the action after the task?". When an arbitrary option is selected from the plurality of options of the field object F203a, the selected option is acquired as information about the scheduled action after performing the task.
The field object F203b is presented with the question "How fun is the action after the task?". When the slider of the field object F203b is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information regarding the feeling of expectation for the action after the task.

操作オブジェクトB203は、ステップS201の処理を完了させるための指示を受け付けるオブジェクトである。 The operation object B203 is an object that receives an instruction to complete the process of step S201.

操作オブジェクトB203が操作されると、クライアント装置10のプロセッサ12は、チェックイン完了リクエストデータをサーバ30に送信する。
チェックイン完了リクエストデータは、以下の情報を含む。
・回答を行った被験者の被験者ID
・ステップS201の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF200a〜F200e、F201a〜F201b、F202a〜F202g、及び、F203a〜F203bに入力された情報
When the operation object B203 is operated, the processor 12 of the client device 10 transmits check-in completion request data to the server 30.
The check-in completion request data includes the following information.
・Subject ID of the subject who answered
-Check-in time information indicating the execution date and time of step S201-Information input to field objects F200a to F200e, F201a to F201b, F202a to F202g, and F203a to F203b

サーバ30のプロセッサ32は、チェックインリクエストデータに含まれる被験者IDに関連付けられた被験者流動主観情報データベース(図5)に新規レコードを追加する。 The processor 32 of the server 30 adds a new record to the subject flow subjective information database (FIG. 5) associated with the subject ID included in the check-in request data.

新規レコードの各フィールドには、以下の情報が格納される。
・「データID」フィールドには、新規のデータIDが格納される。
・「チェックイン日時」フィールドには、チェックイン完了リクエストデータに含まれるチェックイン時間情報が格納される。
・「チェックイン回答」フィールドには、チェックイン完了リクエストデータに含まれる回答情報が質問事項毎に格納される。
The following information is stored in each field of the new record.
A new data ID is stored in the "data ID" field.
The check-in time information included in the check-in completion request data is stored in the "check-in date and time" field.
The answer information included in the check-in completion request data is stored for each question in the "check-in answer" field.

ステップS201の後、チェックアウト(S202)の処理が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P204(図17)をディスプレイに表示する。
After step S201, the process of checkout (S202) is executed.
Specifically, the processor 12 of the client device 10 displays the screen P204 (FIG. 17) on the display.

画面P204は、操作オブジェクトB204と、フィールドオブジェクトF204a〜F204fと、を含む。 The screen P204 includes an operation object B204 and field objects F204a to F204f.

フィールドオブジェクトF204a〜F204fには、完了したタスクに関する質問が提示される。
フィールドオブジェクトF204aには、「何をした?」という質問が表示される。フィールドオブジェクトF204aに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、完了したタスクの内容に関する情報として取得する。
フィールドオブジェクトF204bには、「完了度は?」という質問が表示される。フィールドオブジェクトF204bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの完了度に関する情報として取得する。
フィールドオブジェクトF204cには、「何をやり残した?」という質問が表示される。フィールドオブジェクトF204cに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、やり残したタスクの内容に関する情報として取得する。
フィールドオブジェクトF204dには、「タスクの性質は?」という質問が表示される。フィールドオブジェクトF204dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの性質(例えば、作業性と指向性の割合)に関する情報として取得する。
フィールドオブジェクトF204eには、「インプット量は?」という質問が表示される。フィールドオブジェクトF204eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクのインプット量に関する情報として取得する。
フィールドオブジェクトF204fには、「アウトプット量は?」という質問が表示される。フィールドオブジェクトF204fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクのアウトプット量に関する情報として取得する。
Questions relating to completed tasks are presented in the field objects F204a to F204f.
In the field object F204a, the question "What did you do?" is displayed. When arbitrary text is input to the field object F204a, the processor 12 acquires the input text as information regarding the content of the completed task.
In the field object F204b, the question "What is the degree of completion?" is displayed. When the slider of the field object F204b is moved, the processor 12 acquires a numerical value according to the position of the slider as information regarding the completion degree of the task.
In the field object F204c, the question "What have you left over?" is displayed. When any text is input to the field object F204c, the processor 12 acquires the input text as information regarding the content of the task that has been left over.
In the field object F204d, the question "What is the nature of the task?" is displayed. When the slider of the field object F204d is moved, the processor 12 acquires a numerical value according to the position of the slider as information regarding the nature of the task (for example, workability/directivity ratio).
In the field object F204e, the question "What is the input amount?" is displayed. When the slider of the field object F204e is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information regarding the input amount of the task.
In the field object F204f, the question “What is the output amount?” is displayed. When the slider of the field object F204f is moved, the processor 12 acquires a numerical value according to the position of the slider as information regarding the output amount of the task.

操作オブジェクトB204が操作されると、画面P205に遷移する。 When the operation object B204 is operated, a screen P205 is displayed.

画面P205は、操作オブジェクトB205と、フィールドオブジェクトF205a〜F205fと、を含む。 The screen P205 includes an operation object B205 and field objects F205a to F205f.

フィールドオブジェクトF205aには、「今の気分は?」という質問が表示される。フィールドオブジェクトF205aの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、タスクを完了した後の気分に関する情報として取得する。
フィールドオブジェクトF205bには、「モヤモヤ感は?」という質問が表示される。フィールドオブジェクトF205bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対するモヤモヤ感に関する情報として取得する。
フィールドオブジェクトF205cには、「達成感は?」という質問が表示される。フィールドオブジェクトF205cのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する達成感に関する情報として取得する。
フィールドオブジェクトF205dには、「集中度は?」という質問が表示される。フィールドオブジェクトF205dのスライダを移動させると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する集中度に関する情報として取得する。
フィールドオブジェクトF205eには、「満足度は?」という質問が表示される。フィールドオブジェクトF205eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する満足度に関する情報として取得する。
フィールドオブジェクトF205fには、「疲労感は?」という質問が表示される。フィールドオブジェクトF205fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する疲労感に関する情報として取得する。
In the field object F205a, the question "How are you feeling now?" is displayed. When an arbitrary option is selected from the plurality of options of the field object F205a, the processor 12 acquires the selected option as information regarding the mood after completing the task.
In the field object F205b, the question "What's the feeling of mood?" is displayed. When the slider of the field object F205b is moved, the processor 12 obtains a numerical value corresponding to the position of the slider as information regarding the feeling of misery for the task.
In the field object F205c, the question “What is your sense of accomplishment?” is displayed. When the slider of the field object F205c is moved, the processor 12 acquires a numerical value according to the position of the slider as the information regarding the feeling of achievement for the task.
In the field object F205d, the question "What is the degree of concentration?" is displayed. When the slider of the field object F205d is moved, the processor 12 acquires a numerical value according to the position of the slider as information regarding the degree of concentration on the task.
In the field object F205e, the question "How satisfied are you?" is displayed. When the slider of the field object F205e is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information regarding the degree of satisfaction with the task.
In the field object F205f, the question “How is your fatigue?” is displayed. When the slider of the field object F205f is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information regarding the feeling of fatigue for the task.

操作オブジェクトB205は、ステップS202の処理を完了させるための指示を受け付けるオブジェクトである。 The operation object B205 is an object that receives an instruction to complete the process of step S202.

操作オブジェクトB205が操作されると、クライアント装置10のプロセッサ12は、チェックアウト完了リクエストデータをサーバ30に送信する。
チェックアウト完了リクエストデータは、以下の情報を含む。
・回答を行った被験者の被験者ID
・ステップS202の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF204a〜F204f、及び、F205a〜F205fに入力された情報
When the operation object B205 is operated, the processor 12 of the client device 10 transmits checkout completion request data to the server 30.
The check-out completion request data includes the following information.
・Subject ID of the subject who answered
-Check-in time information indicating the execution date and time of step S202-Information input to the field objects F204a to F204f and F205a to F205f

サーバ30のプロセッサ32は、チェックアウトリクエストデータに含まれる被験者IDに関連付けられた被験者流動主観情報データベース(図5)を特定する。
プロセッサ32は、特定した被験者流動主観情報データベースにおいて、「チェックイン日時」フィールドの情報が最も新しい日時を示す最新レコード(つまり、ステップS201で追加された新規レコード)を特定する。
The processor 32 of the server 30 identifies the subject flow subjective information database (FIG. 5) associated with the subject ID included in the checkout request data.
The processor 32 identifies the latest record (that is, the new record added in step S201) in which the information in the “check-in date and time” field indicates the latest date and time in the identified subject flow subjective information database.

最新レコードの各フィールドには、以下の情報が格納される。
・「チェックアウト日時」フィールドには、チェックアウト完了リクエストデータに含まれるチェックアウト時間情報が格納される。
・「チェックアウト回答」フィールドには、チェックアウト完了リクエストデータに含まれる回答情報が質問事項毎に格納される。
The following information is stored in each field of the latest record.
The checkout time information included in the checkout completion request data is stored in the “checkout date and time” field.
The answer information included in the checkout completion request data is stored in the “checkout answer” field for each question.

(4−3)ユーザ情報の登録の処理
本実施形態のユーザ情報の登録の処理について説明する。図18は、図10のユーザ情報の登録の処理(OP3)の処理のシーケンス図である。図19は、図18の情報処理において表示される画面例を示す図である。
(4-3) User Information Registration Processing The user information registration processing of this embodiment will be described. FIG. 18 is a sequence diagram of the processing of the user information registration processing (OP3) of FIG. FIG. 19 is a diagram showing an example of a screen displayed in the information processing of FIG.

図18に示すように、ユーザ情報の登録(S300)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P300(図19)をディスプレイに表示する。
As shown in FIG. 18, registration of user information (S300) is executed.
Specifically, the processor 12 of the client device 10 displays the screen P300 (FIG. 19) on the display.

画面P300は、操作オブジェクトB300と、フィールドオブジェクトF300と、を含む。
フィールドオブジェクトF300は、ユーザ情報(例えば、ユーザ名、性別、年齢、及び、職業)の入力を受け付けるオブジェクトである。
操作オブジェクトB300は、フィールドオブジェクトF300に入力された情報をサーバ30に送信させるための指示を受け付けるオブジェクトである。
The screen P300 includes an operation object B300 and a field object F300.
The field object F300 is an object that receives input of user information (for example, user name, sex, age, and occupation).
The operation object B300 is an object that receives an instruction for transmitting the information input to the field object F300 to the server 30.

ユーザがフィールドオブジェクトF300にユーザ情報を入力し、且つ、操作オブジェクトB300を操作すると、プロセッサ12は、ユーザ情報登録リクエストデータをサーバ30に送信する。ユーザ情報登録リクエストデータは、フィールドオブジェクトF300に入力された情報を含む。 When the user inputs the user information to the field object F300 and operates the operation object B300, the processor 12 sends the user information registration request data to the server 30. The user information registration request data includes the information input to the field object F300.

サーバ30のプロセッサ32は、ユーザ情報データベース(図7)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「ユーザID」フィールドには、新規のユーザIDが格納される。
・「ユーザ名」フィールド及び「ユーザ属性」フィールドには、ユーザ情報登録リクエストデータに含まれる情報(つまり、フィールドオブジェクトF300に入力された情報)が格納される。
The processor 32 of the server 30 adds a new record to the user information database (FIG. 7).
The following information is stored in each field of the new record.
A new user ID is stored in the "user ID" field.
The information included in the user information registration request data (that is, the information input to the field object F300) is stored in the “user name” field and the “user attribute” field.

ステップS300の後、初回Q&Aテスト(S301)が実行される。
ステップS301は、以下の点において、図11のステップS101とは異なる。
・サーバ30のプロセッサ32は、ステップS300で追加した新規レコードの「固着主観」フィールドに、更新リクエストデータに含まれる情報(つまり、ユーザの性格タイプに関する情報)を格納する。
After step S300, the first Q&A test (S301) is executed.
Step S301 differs from step S101 of FIG. 11 in the following points.
The processor 32 of the server 30 stores the information included in the update request data (that is, the information regarding the personality type of the user) in the “fixed subjectivity” field of the new record added in step S300.

ステップS301の後、サブリミナルテスト(S302)が実行される。
ステップS302は、以下の点において、図11のステップS102とは異なる。
・サーバ30のプロセッサ32は、ステップS300で追加した新規レコードの「固着間接客観」フィールドに、更新リクエストデータに含まれる情報(つまり、ユーザの画像オブジェクトIMG105a〜IMG105bに対する反応時間に関する情報)を格納する。
After step S301, a subliminal test (S302) is executed.
Step S302 differs from step S102 of FIG. 11 in the following points.
The processor 32 of the server 30 stores the information included in the update request data (that is, the information regarding the reaction time for the user's image objects IMG105a to IMG105b) in the “fixed indirect objective” field of the new record added in step S300. ..

(4−4)ユーザ流動情報の登録
本実施形態のユーザ流動情報の登録(OP4)の処理について説明する。図20は、図10のユーザ流動情報の登録の処理のシーケンス図である。
(4-4) Registration of User Flow Information The process of registering user flow information (OP4) according to this embodiment will be described. FIG. 20 is a sequence diagram of a process of registering the user movement information of FIG.

図20に示すように、ウェアラブル情報の取得(S400)が実行される。
クライアント装置10のプロセッサ12は、ユーザが装着したウェアラブルデバイスから、ウェアラブル情報(例えば、歩数、脈拍、及び、心拍数の少なくとも1つ)を取得する。
プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・ウェアラブルデバイスを装着したユーザのユーザID
・ウェアラブル情報
・ステップS400の実行日時に関する情報
As shown in FIG. 20, wearable information acquisition (S400) is executed.
The processor 12 of the client device 10 acquires wearable information (for example, at least one of the number of steps, a pulse, and a heart rate) from the wearable device worn by the user.
The processor 12 sends the update request data to the server 30. The update request data includes the following information.
-User ID of the user wearing the wearable device
・Wearable information ・Information about the execution date and time of step S400

サーバ30のプロセッサ32は、更新リクエストデータに含まれるユーザIDに関連付けられたユーザ流動間接客観情報データベース(図9)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「データID」フィールドには、新規データIDが格納される。
・「測定日時」フィールドには、更新リクエストデータに含まれる実行日時に関する情報が格納される。
・「ウェアラブル」フィールドには、更新リクエストデータに含まれるウェアラブル情報が格納される。
The processor 32 of the server 30 adds a new record to the user flow indirect objective information database (FIG. 9) associated with the user ID included in the update request data.
The following information is stored in each field of the new record.
A new data ID is stored in the "data ID" field.
The "measurement date and time" field stores information about the execution date and time included in the update request data.
The wearable information included in the update request data is stored in the "wearable" field.

ステップS400の後、チェックイン(S401)が実行される。
ステップS401は、チェックイン完了リクエストデータが以下の情報を含む点において、図14のステップS201と異なる。
・回答を行ったユーザのユーザID
・ステップS401の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF200a〜F200e、F201a〜F201b、F202a〜F202g、及び、F203a〜F203bに入力された情報
After step S400, check-in (S401) is executed.
Step S401 differs from step S201 of FIG. 14 in that the check-in completion request data includes the following information.
-User ID of the user who responded
-Check-in time information indicating the execution date and time of step S401-Information input to field objects F200a to F200e, F201a to F201b, F202a to F202g, and F203a to F203b

ステップS401の後、チェックアウト(S402)が実行される。
ステップS402は、チェックアウト完了リクエストデータが以下の情報を含む点において、図14のステップS202と異なる。
・回答を行ったユーザのユーザID
・ステップS402の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF204a〜F204f、及び、F205a〜F205fに入力された情報
After step S401, checkout (S402) is executed.
Step S402 differs from step S202 of FIG. 14 in that the checkout completion request data includes the following information.
-User ID of the user who responded
-Check-in time information indicating the execution date and time of step S402-Information input to the field objects F204a to F204f and F205a to F205f

(4−5)感情の可視化の処理
本実施形態の感情の可視化(OP5)の処理について説明する。図21は、図11の感情の可視化の処理のフローチャートである。図22は、図21の情報処理において表示される画面例を示す図である。
(4-5) Emotion Visualization Processing The emotion visualization processing (OP5) according to this embodiment will be described. FIG. 21 is a flowchart of the emotion visualization process of FIG. FIG. 22 is a diagram showing an example of a screen displayed in the information processing of FIG.

図21に示すように、対象ユーザ情報の決定(S500)が実行される。
具体的には、クライアント装置10のプロセッサ12は、可視化する感情の対象となる対象ユーザのユーザID(以下「対象ユーザID」という)を取得する。
プロセッサ12は、参照リクエストデータをサーバ30に送信する。参照リエクストデータは、対象ユーザIDを含む。
As shown in FIG. 21, determination of target user information (S500) is executed.
Specifically, the processor 12 of the client device 10 acquires the user ID (hereinafter, referred to as “target user ID”) of the target user who is the target of the emotion to be visualized.
The processor 12 transmits the reference request data to the server 30. The reference request data includes the target user ID.

ステップS500の第1例として、サーバ30のプロセッサ32は、ユーザ情報データベース(図7)を参照して、参照リクエストデータに含まれる対象ユーザIDに関連付けられたレコードの「ユーザ属性」フィールドの情報、「固着主観」フィールドの情報、及び、「固着間接客観」フィールドの情報を特定する。 As a first example of step S500, the processor 32 of the server 30 refers to the user information database (FIG. 7 ), and the information in the “user attribute” field of the record associated with the target user ID included in the reference request data, The information in the “fixed subjectivity” field and the information in the “fixed indirect objective” field are specified.

ステップS500の第2例として、サーバ30のプロセッサ32は、参照リクエストデータに含まれる対象ユーザIDに関連付けられたユーザ流動主観情報データベース(図8)の各フィールドの情報を特定する。 As a second example of step S500, the processor 32 of the server 30 identifies the information in each field of the user flow subjective information database (FIG. 8) associated with the target user ID included in the reference request data.

ステップS500の第3例として、サーバ30のプロセッサ32は、参照リクエストデータに含まれる対象ユーザIDに関連付けられたユーザ流動間接客観情報データベース(図9)の各フィールドの情報を特定する。 As a third example of step S500, the processor 32 of the server 30 identifies the information in each field of the user flow indirect objective information database (FIG. 9) associated with the target user ID included in the reference request data.

ステップS500の第4例として、サーバ30のプロセッサ32は、上記第1例〜第3例の一部又は全部を組み合わせる。 As a fourth example of step S500, the processor 32 of the server 30 combines a part or all of the first to third examples.

ステップS500の後、基準被験者IDの決定(S501)が実行される。
ステップS501では、以下の方法により、少なくとも1つの基準被験者IDが特定される。
After step S500, the determination of the reference subject ID (S501) is executed.
In step S501, at least one reference subject ID is identified by the following method.

ステップS501の第1例として、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS500で特定した「ユーザ属性」フィールドの情報と同一又は近似の情報に関連付けられた被験者ID(つまり、ユーザ属性について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた性別と同一の性別に関連付けられた被験者ID
・対象ユーザIDに関連付けられた年齢との差が所定範囲内である年齢に関連付けられた被験者ID
・対象ユーザIDに関連付けられた職業と同一の職業に関連付けられた被験者ID
As a first example of step S501, the processor 32 of the server 30 refers to the subject information database (FIG. 4), and the subject associated with the same or approximate information as the information in the “user attribute” field specified in step S500. An ID (that is, a subject who is the same as or similar to the target user in terms of user attributes) is specified. For example, the processor 32 identifies the following subject ID.
-Subject ID associated with the same gender as the target user ID
-Subject ID associated with an age whose difference from the age associated with the target user ID is within a predetermined range
-Subject ID associated with the same occupation as the target user ID

ステップS501の第2例として、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS500で特定した「固着主観」フィールドの情報と同一又は近似の被験者固着主観情報に関連付けられた被験者ID(つまり、固着主観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報と同一の被験者固着主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報との差が所定範囲内である被験者固着主観情報に関連付けられた被験者ID
As a second example of step S501, the processor 32 of the server 30 refers to the subject information database (FIG. 4) and associates it with the subject fixation information that is the same as or similar to the information in the “fixation subjectivity” field identified in step S500. The subject ID (that is, the subject who is the same as or similar to the target user with respect to the fixed subjective information) is specified. For example, the processor 32 identifies the following subject ID.
-Subject ID associated with the same subject fixation subjective information as the information in the "fixation subjectivity" field associated with the target user ID
-Subject ID associated with subject fixation subjective information whose difference from the information in the "fixation subjectivity" field associated with the target user ID is within a predetermined range

ステップS501の第3例として、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS500で特定した「固着間接客観」フィールドの情報と同一又は近似の被験者固着間接客観情報に関連付けられた被験者ID(つまり、固着間接客観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報と同一の被験者固着間接客観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報との差が所定範囲内である被験者固着間接客観情報に関連付けられた被験者ID
As a third example of step S501, the processor 32 of the server 30 refers to the subject information database (FIG. 4) and is the same as or similar to the information in the “fixed indirect objective” field identified in step S500, and the subject fixed indirect objective information. The subject ID (that is, the subject who is the same as or close to the target user for the fixed indirect objective information) is identified. For example, the processor 32 identifies the following subject ID.
-Subject ID associated with the same subject fixed indirect objective information as the information in the "fixed indirect objective" field associated with the target user ID
-Subject ID associated with the subject fixed indirect objective information whose difference from the information in the "fixed indirect objective" field associated with the target user ID is within a predetermined range

ステップS501の第4例として、サーバ30のプロセッサ32は、被験者流動主観情報データベース(図5)を参照して、ステップS500で特定したユーザ流動主観情報データベース(図8)の情報と同一又は近似の被験者流動主観情報に関連付けられた被験者ID(つまり、流動主観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックイン日時」フィールドの情報が最も新しいレコードの「チェックイン回答」フィールドの情報と同一又は近似の被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックアウト日時」フィールドの情報が最も新しいレコードの「チェックアウト回答」フィールドの情報と同一又は近似の被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックイン日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「チェックイン回答」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックアウト日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「チェックアウト回答」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動主観情報に関連付けられた被験者ID
As a fourth example of step S501, the processor 32 of the server 30 refers to the subject flow subjective information database (FIG. 5) and is the same as or approximate to the information of the user flow subjective information database (FIG. 8) specified in step S500. The subject ID associated with the subject flow subjective information (that is, the subject that is the same as or similar to the target user for the subject flow subjective information) is specified. For example, the processor 32 identifies the following subject ID.
-In the information of the user flow subjective information database associated with the target user ID, the information of the "check-in date and time" field is associated with the subject flow subjective information which is the same as or similar to the information of the "check-in answer" field of the latest record. Subject ID
-Among the information in the user flow subjective information database associated with the target user ID, the information in the "checkout date/time" field is associated with the subject flowable subjective information that is the same as or similar to the information in the "checkout response" field of the latest record. Subject ID
-Of the information in the user flow subjective information database associated with the target user ID, the information in the "check-in date and time" field is in the "check-in response" field of a plurality of records corresponding to a predetermined period (for example, the past month) Subject ID associated with subject flow subjective information having the same or similar tendency as the information tendency
-Of the information in the user flow subjective information database associated with the target user ID, the information in the "checkout date and time" field is in the "checkout response" field of a plurality of records corresponding to a predetermined period (for example, the past month) Subject ID associated with subject flow subjective information having the same or similar tendency as the information tendency

ステップS501の第5例として、サーバ30のプロセッサ32は、被験者流動間接客観情報データベース(図6)を参照して、ステップS500で特定したユーザ流動間接客観情報データベース(図9)の情報と同一又は近似の被験者流動間接客観情報に関連付けられた被験者ID(つまり、流動間接客観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた「測定日時」フィールドの情報が最も新しいレコードの「ウェアラブル」フィールドの情報と同一又は近似の被験者流動間接客観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「測定日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「ウェアラブル」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動間接客観情報に関連付けられた被験者ID
As a fifth example of step S501, the processor 32 of the server 30 refers to the subject flow indirect objective information database (FIG. 6) and is the same as the information of the user flow indirect objective information database (FIG. 9) specified in step S500 or A subject ID associated with the approximate subject flow indirect objective information (that is, a subject who is the same as or close to the target user for the flow indirect objective information) is specified. For example, the processor 32 identifies the following subject ID.
The subject ID associated with the subject flow indirect objective information in which the information in the “measurement date/time” field associated with the target user ID is the same as or similar to the information in the “wearable” field of the latest record
-Subject flow having the same or approximate tendency as the information tendency of the "wearable" field of a plurality of records in which the information of the "measurement date and time" field associated with the target user ID corresponds to a predetermined period (for example, the past month) Subject ID associated with indirect objective information

ステップS501の第6例として、第1例〜第5例の少なくとも2つの組合せである。組合せの数が多いほど、対象ユーザとの類似度の高い被験者の被験者IDが基準被験者IDとして特定される。これにより、後述のユーザ感情情報の推定(S502)における推定精度が向上する。 A sixth example of step S501 is a combination of at least two of the first to fifth examples. The larger the number of combinations, the more the subject ID of the subject having a high similarity to the target user is specified as the reference subject ID. This improves the estimation accuracy in the estimation of user emotion information (S502) described below.

ステップS501の後、ユーザ感情情報の推定(S502)が実行される。 After step S501, estimation of user emotion information (S502) is executed.

具体的には、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS501で特定した少なくとも1つの基準被験者IDに関連付けられた「直接客観」フィールドの情報(つまり、脳活動パラメータ及び血流動態反応パラメータ)を特定する。
プロセッサ32は、対象ユーザIDに関連付けられたユーザ流動主観情報(図8)の「チェックイン回答」フィールド、及び、「チェックアウト回答」フィールドの情報(つまり、対象ユーザの流動主観情報)を特定する。
プロセッサ43は、対象ユーザIDに関連付けられたユーザ流動間接客観情報(図9)の「ウェアラブル」フィールドの情報(つまり、対象ユーザの流動間接客観情報)を特定する。
記憶装置31には、脳活動パラメータ、血流動態反応パラメータ、流動主観情報、及び、流動間接客観情報と、感情コンディションとの推論モデルが構築されている。感情コンディションとは、脳の解剖学的な位置、伝達物質、受容体の発現、及び、時間を含む様々な要素に基づいて決定される神経科学上の感情の種類毎のレベルである。
プロセッサ32は、記憶装置31に記憶された推論モデルを用いて、対象ユーザの脳活動パラメータ、血流動態反応パラメータ、流動主観情報、及び、流動間接客観情報から、対象ユーザの感情コンディションを決定する。
感情の種類は、例えば、以下の少なくとも1つである。
・楽しみ
・不安
・緊張
Specifically, the processor 32 of the server 30 refers to the subject information database (FIG. 4) and stores the information (that is, the brain) of the “direct objective” field associated with at least one reference subject ID identified in step S501. Activity parameters and hemodynamic response parameters).
The processor 32 identifies the information in the “check-in answer” field and the “check-out answer” field of the user flow subjective information (FIG. 8) associated with the target user ID (that is, the target user's flow subjective information). ..
The processor 43 identifies the information in the “wearable” field of the user indirect objective information (FIG. 9) associated with the target user ID (that is, the target user's indirect objective information).
The memory device 31 is constructed with an inference model of brain activity parameters, hemodynamic response parameters, subjective flow information, indirect objective flow information, and emotional conditions. The emotional condition is a level for each type of emotion in neuroscience, which is determined based on various factors including anatomical position of brain, expression of transmitter, receptor, and time.
The processor 32 uses the inference model stored in the storage device 31 to determine the emotional condition of the target user from the brain activity parameter, hemodynamic response parameter, subjective flow information, and indirect objective flow information of the target user. ..
The emotion type is, for example, at least one of the following.
・Fun, anxiety, tension

サーバ30のプロセッサ32は、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「固着主観」フィールドの情報(つまり、対象ユーザの固着主観情報)及び「固着間接客観」フィールドの情報(つまり、対象ユーザの固着間接客観情報)を特定する。
プロセッサ32は、対象ユーザIDに関連付けられたユーザ流動間接客観情報データベース(図9)の「ウェアラブル」フィールドの情報(つまり、対象ユーザの流動間接客観情報)を特定する。
記憶装置31には、固着主観情報、固着間接客観情報、及び、流動間接客観情報と、感情傾向との相関正に関する推論モデルが構築されている。
プロセッサ32は、記憶装置31に記憶された推論モデルを用いて、対象ユーザの固着主観情報、固着間接客観情報、及び、流動間接客観情報から、対象ユーザの感情傾向を決定する。
感情傾向は、例えば、以下の少なくとも1つを含む。
・副交感神経に対する交感神経の優位度
・交感神経に対する副交感神経の優位度
・ストレス反応度
・ストレス耐性度
・扁桃体の活性度
・サリエンスネットワークの活用度
The processor 32 of the server 30 refers to the user information database (FIG. 7 ), and the information of the “fixed subjective” field associated with the target user ID (that is, the fixed subjective information of the target user) and the “fixed indirect objective” field. Information (that is, the fixed indirect objective information of the target user) is specified.
The processor 32 identifies the information in the “wearable” field of the user indirect objective information database (FIG. 9) associated with the target user ID (that is, the target user's indirect objective information).
In the storage device 31, the inference model regarding the positive correlation between the fixed subjective information, the fixed indirect objective information, and the indirect objective flowing information and the emotional tendency is built.
The processor 32 uses the inference model stored in the storage device 31 to determine the emotional tendency of the target user from the fixation subjective information of the target user, the fixation indirect objective information, and the flowing indirect objective information.
The emotional tendency includes at least one of the following, for example.
・Predominance of sympathetic nerves against parasympathetic nerves ・Predominance of parasympathetic nerves against sympathetic nerves ・Stress responsiveness ・Stress tolerance ・Activity of amygdala ・Utilization of salient networks

サーバ30のプロセッサ32は、被験者情報データベース(図4)、被験者流動主観情報データベース(図5)、及び、被験者流動間接客観情報データベース(図6)と、対象ユーザIDに関連付けられたユーザ流動主観情報(図8)及びユーザ流動間接客観情報データベース(図9)と、感情コンディションと、感情傾向と、を対比することにより、感情因子を決定する。
感情因子は、例えば、以下の少なくとも1つを含む。
・ユーザの行動(一例として、運動、仕事、勉強、又は、読書)
・ユーザの外的要因(一例として、天候、又は、温湿度)
・ユーザの対人要因(一例として、自他、親近感、関係性、好き嫌いのレベル、又は、接触頻度)
・ユーザの対物要因(一例として、親近感、関係性、好き嫌い度合い、接触頻度など)
・ユーザの環境要因(一例として、場所、天気、湿度、二酸化炭素濃度、気圧、又は、雨量)
・ユーザのコンディション要因(一例として、睡眠状態、又は、食事状態)
The processor 32 of the server 30 uses the subject information database (FIG. 4), the subject flow subjective information database (FIG. 5), the subject flow indirect objective information database (FIG. 6), and the user flow subjective information associated with the target user ID. (FIG. 8) and the user flow indirect objective information database (FIG. 9) are compared with the emotional condition and the emotional tendency to determine the emotional factor.
The emotion factor includes at least one of the following, for example.
-User behavior (exercise, work, study, or reading as an example)
・User external factors (for example, weather or temperature/humidity)
User's interpersonal factors (as one example, self-otherness, familiarity, relationship, level of likes and dislikes, or contact frequency)
・User objective factors (as an example, familiarity, relationships, likes and dislikes, contact frequency, etc.)
-Environmental factors of the user (location, weather, humidity, carbon dioxide concentration, atmospheric pressure, or rainfall, as an example)
-Condition factors of the user (as an example, sleeping state or eating state)

ステップS502の後、ユーザ感情情報の提示(S503)が実行される。
具体的には、サーバ30のプロセッサ32は、ステップS502で推定されたユーザ感情情報をクライアント装置10に送信する。
クライアント装置10のプロセッサ12は、ユーザ感情情報に基づいて、画面P500(図22)をディスプレイに表示する。
After step S502, presentation of user emotion information (S503) is executed.
Specifically, the processor 32 of the server 30 transmits the user emotion information estimated in step S502 to the client device 10.
The processor 12 of the client device 10 displays the screen P500 (FIG. 22) on the display based on the user emotion information.

画面P500は、表示オブジェクトA500a〜A500cを含む。
表示オブジェクトA500aには、感情コンディションが表示される。感情コンディションは、例えば、感情の種類(例えば、楽しみ、不安、及び、緊張)毎のレベルである。
表示オブジェクトA500bには、感情傾向が表示される。
表示オブジェクトA500cには、感情因子が表示される。
The screen P500 includes display objects A500a to A500c.
The emotional condition is displayed on the display object A 500a. The emotional condition is, for example, a level for each emotional type (for example, fun, anxiety, and tension).
The emotional tendency is displayed on the display object A 500b.
The emotion factor is displayed on the display object A 500c.

本実施形態によれば、MRI検査を受けた被験者に関連付けられた直接客観情報、被験者主観情報、及び、被験者間接客観情報によって構築された推論モデルを用いて、MRI検査を受けていないユーザに関連付けられたユーザ主観情報及びユーザ間接客観情報から、ユーザ感情情報を推定する。これにより、MRI検査を受けていないユーザの感情の推定の精度を向上させることができる。 According to the present embodiment, an inference model constructed by direct objective information, subject subjective information, and subject indirect objective information associated with a subject who has undergone MRI examination is used to associate with a user who has not undergone MRI examination. User emotion information is estimated from the obtained user subjective information and user indirect objective information. As a result, it is possible to improve the accuracy of estimating the emotion of the user who has not undergone the MRI examination.

(5)変形例
本実施形態の変形例について説明する。
(5) Modified Example A modified example of the present embodiment will be described.

(5−1)ユーザ感情情報データベース
変形例のユーザ感情情報データベースについて説明する。図23は、変形例のユーザ感情情報データベースのデータ構造を示す図である。
(5-1) User Emotion Information Database A modified user emotion information database will be described. FIG. 23 is a diagram showing a data structure of the user emotion information database of the modified example.

図23のユーザ感情情報データベースには、ステップS502(図21)で推定されたユーザ感情情報が格納される。
ユーザ感情情報データベースは、「データID」フィールドと、「判定日時」フィールドと、「感情」フィールドと、を含む。
ユーザ感情情報データベースは、ユーザIDに関連付けられる。
The user emotion information database of FIG. 23 stores the user emotion information estimated in step S502 (FIG. 21).
The user emotion information database includes a “data ID” field, a “determination date and time” field, and an “emotion” field.
The user emotion information database is associated with the user ID.

「データID」フィールドには、ユーザ感情情報データベースのレコードを識別するデータIDが格納される。 In the “data ID” field, a data ID for identifying a record in the user emotion information database is stored.

「判定日時」フィールドには、ステップS502の実行日時に関する情報が格納される。 Information regarding the execution date and time of step S502 is stored in the "determination date and time" field.

「感情」フィールドには、ステップS502の処理結果が格納される。
「感情」フィールドは、「感情コンディション」フィールドと、「感情傾向」フィールドと、「感情因子」フィールドと、を含む。
The processing result of step S502 is stored in the "emotion" field.
The "emotion" field includes an "emotion condition" field, an "emotion tendency" field, and an "emotion factor" field.

「感情コンディション」フィールドには、感情コンディションに関する情報が格納される。 Information relating to emotional conditions is stored in the “emotional condition” field.

「感情傾向」フィールドには、感情傾向に関する情報が格納される。 Information regarding emotional tendency is stored in the “emotional tendency” field.

「感情因子」フィールドには、感情因子に関する情報が格納される。 Information regarding emotional factors is stored in the “emotional factor” field.

(5−2)感情の可視化の処理
変形例の感情の可視化の処理(OP5)について説明する。図24は、変形例の感情の可視化の処理のフローチャートである。
(5-2) Emotion Visualization Process A modified emotion visualization process (OP5) will be described. FIG. 24 is a flowchart of the emotion visualization process of the modified example.

図24に示すように、変形例の感情の可視化の処理(OP5)は、基準ユーザIDの決定(S510)を含む点において、本実施形態の感情の可視化の処理(図21)とは異なる。 As shown in FIG. 24, the emotion visualization process (OP5) of the modified example is different from the emotion visualization process (FIG. 21) of the present embodiment in that it includes determination of the reference user ID (S510).

ステップS501の後、基準ユーザIDの決定(S510)が実行される。
具体的には、サーバ30のプロセッサ32は、ステップS500で決定した対象ユーザ情報に基づいて、基準ユーザの基準ユーザIDを決定する。
After step S501, the reference user ID is determined (S510).
Specifically, the processor 32 of the server 30 determines the reference user ID of the reference user based on the target user information determined in step S500.

ステップS510の第1例として、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「ユーザ属性」フィールドの情報を特定する。
プロセッサ32は、ユーザ情報データベースを参照して、対象ユーザ以外のユーザの非対称ユーザIDに関連付けられた「ユーザ属性」フィールドを参照して、対象ユーザIDに関連付けられた「ユーザ属性」フィールドの情報と同一又は近似の情報を含むレコードを特定する。
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
As a first example of step S510, the user information database (FIG. 7) is referenced to identify the information in the “user attribute” field associated with the target user ID.
The processor 32 refers to the user information database, refers to the “user attribute” field associated with the asymmetric user ID of the user other than the target user, and refers to the information in the “user attribute” field associated with the target user ID. Identify records that contain the same or similar information.
The processor 32 determines the user ID of the identified record as the reference user ID.

ステップS510の第2例として、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「固着主観」フィールドの情報を特定する。
プロセッサ32は、ユーザ情報データベースを参照して、非対象ユーザIDに関連付けられた「固着主観」フィールドを参照して、対象ユーザIDに関連付けられた「固着主観」フィールドの情報と所定関係にある情報を含むレコードを特定する。
所定関係とは、以下の何れかの関係である。
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報と、非対称ユーザIDに関連付けられた「固着主観」フィールドの情報とが同一である関係
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報、及び、非対称ユーザIDに関連付けられた「固着主観」フィールドの情報が、予め定められた組合せ(例えば、相性が良い組合せ、又は、相性が悪い組合せ)である関係
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
As a second example of step S510, the user information database (FIG. 7) is referenced to identify the information in the “fixed subjectivity” field associated with the target user ID.
The processor 32 refers to the user information database, refers to the “fixed subjectivity” field associated with the non-target user ID, and has a predetermined relationship with the information in the “fixed subjectivity” field associated with the target user ID. Identify records that contain.
The predetermined relationship is one of the following relationships.
A relationship in which the information in the "fixed subjectivity" field associated with the target user ID is the same as the information in the "fixed subjectivity" field associated with the asymmetric user ID ・ The "fixed subjectivity" field associated with the target user ID Information and the information in the “fixed subjectivity” field associated with the asymmetric user ID are a predetermined combination (for example, a combination having a good compatibility or a combination having a bad compatibility). The user ID of the record is determined as the reference user ID.

ステップS510の第3例として、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報を特定する。
プロセッサ32は、ユーザ情報データベースを参照して、非対象ユーザIDに関連付けられた「固着間接客観」フィールドを参照して、対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報と同一又は近似の情報を含むレコードを特定する。
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
As a third example of step S510, the user information database (FIG. 7) is referenced to identify the information in the “fixed indirect objective” field associated with the target user ID.
The processor 32 refers to the user information database, refers to the “fixed indirect objective” field associated with the non-target user ID, and is the same as or similar to the information in the “fixed indirect objective” field associated with the target user ID. Specify the record that contains the information of.
The processor 32 determines the user ID of the identified record as the reference user ID.

ステップS510の第4例として、ユーザ流動主観情報データベース(図8)を参照して、非対象ユーザIDの中から、対象ユーザIDに関連付けられたユーザ流動主観情報と同一又は類似のユーザ流動主観情報に関連付けられた非対称ユーザIDを、基準ユーザIDとして特定する。 As a fourth example of step S510, referring to the user flow subjective information database (FIG. 8), the user flow subjective information that is the same as or similar to the user flow subjective information associated with the target user ID from the non-target user IDs. The asymmetric user ID associated with is identified as the reference user ID.

ステップS510の第5例として、ユーザ流動間接客観情報データベース(図9)を参照して、非対象ユーザIDの中から、対象ユーザIDに関連付けられたユーザ流動間接情報と同一又は類似のユーザ流動間接情報に関連付けられた非対称ユーザIDを、基準ユーザIDとして特定する。 As a fifth example of step S510, referring to the user flow indirect objective information database (FIG. 9), the user flow indirect information that is the same as or similar to the user flow indirect information associated with the target user ID among the non-target user IDs. The asymmetric user ID associated with the information is identified as the reference user ID.

ステップS510の後、ユーザ感情情報の推定(S502)が実行される。
具体的には、記憶装置31には、更に、以下の少なくとも1つの推論モデルが構築されている。
・ユーザ属性情報とユーザ感情情報の推論モデル
・ユーザ固着主観情報とユーザ感情情報の推論モデル
・ユーザ固着間接客観情報とユーザ感情情報の推論モデル
・ユーザ流動主観情報とユーザ感情情報のユーザ推論モデル
・ユーザ流動間接客観情報とユーザ感情情報のユーザ推論モデル
After step S510, estimation of user emotion information (S502) is executed.
Specifically, the storage device 31 further has at least one of the following inference models built therein.
・Inference model of user attribute information and user emotion information ・Inference model of user fixation subjective information and user emotion information ・Inference model of user fixation indirect objective information and user emotion information ・User inference model of user flow subjective information and user emotion information ・User inference model of user flow indirect objective information and user emotion information

サーバ30のプロセッサ32は、記憶装置31に記憶された推論モデル、及び、ユーザ推論モデルを用いて、ユーザ感情情報を推定する。 The processor 32 of the server 30 estimates the user emotion information using the inference model stored in the storage device 31 and the user inference model.

変形例によれば、被験者の情報だけでなく、対象ユーザ以外の基準ユーザの情報も参照して、ユーザ感情情報を推定する。これにより、対象ユーザの感情の推定精度を向上させることができる。 According to the modification, not only the subject information but also the reference user information other than the target user is referred to estimate the user emotion information. Thereby, the estimation accuracy of the emotion of the target user can be improved.

(6)本実施形態の小括
本実施形態について小括する。
(6) Summary of the present embodiment The present embodiment will be summarized.

本実施形態の第1態様は、
ユーザの感情を推定する情報処理装置(例えば、サーバ30)であって、
被験者の客観的感情に直接的に関連する直接客観情報(例えば、MRI又はfMRIによって得られ得る情報)を取得する手段(例えば、ステップS103を実行するプロセッサ32)を備え、
被験者の主観的感情に関連する被験者主観情報、及び、被験者の客観的感情に間接的に関連する被験間接客観情報の少なくとも1つを取得する手段(例えば、ステップS101〜S102、及び、S200〜S202の少なくとも1つを実行するプロセッサ32)を備え、
ユーザの主観的感情に関連するユーザ主観情報、及び、ユーザの客観的感情に間接的に関連するユーザ間接客観情報の少なくとも1つを取得する手段(例えば、ステップS300〜S202、及び、S400〜S402の少なくとも1つを実行するプロセッサ32)を備え、
直接客観情報と、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、を参照して、ユーザの感情に関連するユーザ感情情報を推定する手段(例えば、ステップS502を実行するプロセッサ32)を備える、
情報処理装置である。
The first aspect of the present embodiment is
An information processing device (for example, a server 30) that estimates a user's emotion,
A means for acquiring direct objective information (for example, information that can be obtained by MRI or fMRI) directly related to the objective emotion of the subject (for example, the processor 32 that executes step S103),
A means for acquiring at least one of the subject subjective information related to the subject's subjective feeling and the subject indirect objective information indirectly related to the subject's objective feeling (for example, steps S101 to S102 and S200 to S202). A processor 32) executing at least one of
Means for acquiring at least one of the user subjective information related to the user's subjective feeling and the user indirect objective information indirectly related to the user's objective feeling (for example, steps S300 to S202 and S400 to S402). A processor 32) executing at least one of
A means for estimating user emotion information related to a user's emotion by referring to direct objective information, at least one of subject subjective information and subject indirect objective information, and at least one of user subjective information and user indirect objective information ( For example, comprising a processor 32) performing step S502,
It is an information processing device.

第1態様によれば、直接客観情報を受けていないユーザの感情を司る脳の反応が直接的に反映された直接客観情報を推測することができる。その結果、ユーザの感情を高精度に推測することができる。 According to the first aspect, it is possible to infer the direct objective information that directly reflects the reaction of the brain that controls the emotion of the user who has not directly received the objective information. As a result, the emotion of the user can be estimated with high accuracy.

本実施形態の第2態様は、
推定されたユーザ感情情報を提示する手段(例えば、ステップS503を実行するプロセッサ32)を備える、
情報処理装置である。
The second aspect of the present embodiment is
A means for presenting the estimated user emotion information (for example, the processor 32 that executes step S503),
It is an information processing device.

第2態様によれば、ユーザの感情をユーザに可視化することができる。 According to the second aspect, the emotion of the user can be visualized by the user.

本実施形態の第3態様は、
主観情報は、被験者又はユーザに固着した主観的感情に関連する固着主観情報と、被験者又はユーザにとって流動的な主観的感情に関連する流動主観情報と、を含む、
情報処理装置である。
The third aspect of the present embodiment is
The subjective information includes fixed subjective information related to subjective feelings fixed to the subject or the user, and flowing subjective information related to subjective feelings that are fluid to the subject or the user.
It is an information processing device.

第3態様によれば、感情の推定のために参照する主観情報を被験者又はユーザに固着した情報と、被験者又はユーザにとって流動的な情報と、に分けて取り扱う。これにより、感情の推定の精度をより向上させることができる。 According to the third aspect, the subjective information referred to for emotion estimation is divided into information fixed to the subject or the user and information that is fluid to the subject or the user. As a result, the accuracy of emotion estimation can be further improved.

本実施形態の第4態様は、
間接客観情報は、被験者又はユーザに固着した客観的感情に関連する固着客観情報と、被験者又はユーザにとって流動的な客観的感情に関連する流動客観情報と、を含む、
情報処理装置である。
The fourth aspect of the present embodiment is
The indirect objective information includes fixed objective information related to objective emotions fixed to the subject or the user, and fluid objective information related to objective emotions that are fluid to the subject or the user.
It is an information processing device.

第4態様によれば、感情の推定のために参照する間接客観情報を被験者又はユーザに固着した情報と、被験者又はユーザにとって流動的な情報と、に分けて取り扱う。これにより、感情の推定の精度をより向上させることができる。 According to the fourth aspect, indirect objective information referred to for emotion estimation is divided into information fixed to the subject or the user and information that is fluid to the subject or the user. As a result, the accuracy of emotion estimation can be further improved.

本実施形態の第5態様は、
直接客観情報は、被験者に対する、MRI(Magnetic Resonance Imaging)検査、PET(Positron Emission Tomography)検査、fNIRS(functional Near Infrared Spectroscopy) 検査、EEG(Electroencephalogram)検査、及び、MEG(Magnetoencephalography)検査の少なくとも1つによって得られる情報である、
情報処理装置である。
The fifth aspect of the present embodiment is
The direct objective information is at least one of MRI (Magnetic Resonance Imaging) examination, PET (Positron Emission Tomography) examination, fNIRS (functional Near Infrared Spectroscopy) examination, EEG (Electroencephalogram) examination, and MEG (Magnetoencephalography) examination for the subject. Information obtained by
It is an information processing device.

本実施形態の第6態様は、
推定する手段は、被験者主観情報及び被験者間接客観情報の少なくとも1つと、直接客観情報と、により構成される推論モデルを用いて、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つからユーザ感情情報を推定する、
情報処理装置である。
The sixth aspect of the present embodiment is
The means for estimating uses at least one of the subject subjective information and the subject indirect objective information, and the inference model configured by the direct objective information to extract the user emotion information from at least one of the user subjective information and the user indirect objective information. presume,
It is an information processing device.

本実施形態の第7態様は、
感情を推定すべき対象ユーザとは異なる非対称ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つを参照して、複数の非対称ユーザの中から基準ユーザを決定する手段を備え、
推定する手段は、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、基準ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、基準ユーザのユーザ感情情報と、を参照して、対象ユーザのユーザ感情情報を推定する、
情報処理装置である。
A seventh aspect of the present embodiment is
A means for determining a reference user from a plurality of asymmetric users by referring to at least one of user subjective information and user indirect objective information of an asymmetric user different from the target user whose emotion should be estimated,
The estimating means includes at least one of the subject subjective information and the subject indirect objective information, at least one of the user subjective information and the user indirect objective information, at least one of the user subjective information and the user indirect objective information of the reference user, and the reference user. User emotion information, and estimates the user emotion information of the target user,
It is an information processing device.

第7態様によれば、被験者の情報だけでなく、対象ユーザ以外の基準ユーザの情報も参照して、ユーザ感情情報を推定する。これにより、対象ユーザの感情の推定精度を向上させることができる。 According to the seventh aspect, not only the subject information but also the reference user information other than the target user is referred to estimate the user emotion information. Thereby, the estimation accuracy of the emotion of the target user can be improved.

本実施形態の第8態様は、
コンピュータ(例えば、プロセッサ32)を、上記各手段として機能させるためのプログラムである。
The eighth aspect of the present embodiment is
It is a program for causing a computer (for example, the processor 32) to function as each of the above means.

(7)その他の変形例
その他の変形例について説明する。
(7) Other Modifications Other modifications will be described.

記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the client device 10 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.

上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。 Each step of the above information processing can be executed by either the client device 10 or the server 30.

ステップS101及びS301は、省略可能である。この場合、固着主観情報以外の情報を用いて、感情の可視化(OP5)が実行される。
ステップS102及びS302は、省略可能である。この場合、感情の可視化(OP5)が実行される。
ステップS200及びS400は、省略可能である。この場合、感情の可視化(OP5)が実行される。
ステップS201及びS202、並びに、S401及びS402は、省略可能である。この場合、感情の可視化(OP5)が実行される。
Steps S101 and S301 can be omitted. In this case, the emotion visualization (OP5) is performed using information other than the fixed subjective information.
Steps S102 and S302 can be omitted. In this case, emotion visualization (OP5) is executed.
Steps S200 and S400 can be omitted. In this case, emotion visualization (OP5) is executed.
Steps S201 and S202, and S401 and S402 can be omitted. In this case, emotion visualization (OP5) is executed.

流動主観情報は、被験者又はユーザが作成した文章であってもよい。流動主観情報は、例えば、以下の少なくとも1つを含む。
・日記
・ブログ
The flowing subjective information may be a sentence created by the subject or the user. The flow subjective information includes at least one of the following, for example.
・Diary/Blog

直接客観情報の測定方法は、MRIに限られない。直接客観情報は、以下の少なくとも1つの測定方法によって取得可能である。
・PET(Positron Emission Tomography)検査
・fNIRS(functional Near Infrared Spectroscopy) 検査
・EEG(Electroencephalogram)検査
・MEG(Magnetoencephalography)検査
The method of directly measuring objective information is not limited to MRI. The direct objective information can be acquired by at least one of the following measurement methods.
・PET (Positron Emission Tomography) inspection ・fNIRS (functional Near Infrared Spectroscopy) inspection ・EEG (Electroencephalogram) inspection ・MEG (Magnetoencephalography) inspection

ステップS201〜S202、及び、S401〜S402では、Q&A形式で回答を受け付けるだけでなく、主観情報の選択肢オブジェクトを提示し、且つ、操作された選択肢オブジェクトに対応する主観情報を流動主観情報として受け付けても良い。
選択肢オブジェクトは、例えば、以下の少なくとも1つを含む。
・感情の種類毎のアイコン
・感情を表す色の画像オブジェクト
In steps S201 to S202 and S401 to S402, not only the answer is accepted in the Q&A format, but also the option object of the subjective information is presented, and the subjective information corresponding to the operated option object is accepted as the flowing subjective information. Is also good.
The option object includes at least one of the following, for example.
・Icon for each emotion type ・Image object of color that represents emotion

ステップS102(図11)では、画像に代えて、音声を用いてもよい。
例えば、クライアント装置10は、ステレオスピーカ(一例として、操作者に対して左右に配置された左スピーカ及び右スピーカ)を備える。
プロセッサ12は、左スピーカ及び右スピーカのそれぞれから、サブリミナル音を再生する。
操作者は、左スピーカ及び右スピーカのそれぞれから再生されたサブリミナル音を聞いて、何れのスピーカから再生されたサブリミナル音が聞きやすかったかを示すユーザ指示をクライアント装置10に与える。
プロセッサ12は、当該ユーザ指示(つまり、サブリミナル音が聞きやすいスピーカを示す指示)を含む更新リクエストデータをサーバ30に送信する。
In step S102 (FIG. 11), sound may be used instead of the image.
For example, the client device 10 includes a stereo speaker (as an example, a left speaker and a right speaker arranged on the left and right of the operator).
The processor 12 reproduces the subliminal sound from each of the left speaker and the right speaker.
The operator hears the subliminal sound reproduced from each of the left speaker and the right speaker, and gives the client device 10 a user instruction indicating which speaker reproduced the subliminal sound was easy to hear.
The processor 12 transmits the update request data including the user instruction (that is, the instruction indicating the speaker in which the subliminal sound is easy to hear) to the server 30.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described above in detail, the scope of the present invention is not limited to the above embodiments. In addition, the above-described embodiment can be variously modified and changed without departing from the gist of the present invention. Further, the above-described embodiments and modified examples can be combined.

1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
1 :information processing system 10 :client device 11 :storage device 12 :processor 13 :input/output interface 14 :communication interface 30 :server 31 :storage device 32 :processor 33 :input/output interface 34 :communication interface

Claims (8)

ユーザの感情を推定する情報処理装置であって、
被験者の客観的感情に直接的に関連する直接客観情報を取得する手段を備え、
被験者の主観的感情に関連する被験者主観情報、及び、被験者の客観的感情に間接的に関連する被験間接客観情報の少なくとも1つを取得する手段を備え、
前記ユーザの主観的感情に関連するユーザ主観情報、及び、ユーザの客観的感情に間接的に関連するユーザ間接客観情報の少なくとも1つを取得する手段を備え、
前記直接客観情報と、前記被験者主観情報及び前記被験者間接客観情報の少なくとも1つと、前記ユーザ主観情報及び前記ユーザ間接客観情報の少なくとも1つと、を参照して、前記ユーザの感情に関連するユーザ感情情報を推定する手段を備える、
情報処理装置。
An information processing device for estimating a user's emotion,
Equipped with means for acquiring direct objective information that is directly related to the objective emotion of the subject,
Subjects subjective information related to subjective feelings of the subject, and comprises means for obtaining at least one of the subjects indirect objective information indirectly related to the objective emotion of a subject,
And a means for acquiring at least one of user subjective information related to the user's subjective feeling and user indirect objective information indirectly related to the user's objective feeling,
A user emotion related to the emotion of the user with reference to the direct objective information, at least one of the subject subjective information and the subject indirect objective information, and at least one of the user subjective information and the user indirect objective information. Equipped with means for estimating information,
Information processing device.
前記推定されたユーザ感情情報を提示する手段を備える、
請求項1に記載の情報処理装置。
A means for presenting the estimated user emotion information,
The information processing apparatus according to claim 1.
前記主観情報は、前記被験者又は前記ユーザに固着した主観的感情に関連する固着主観情報と、前記被験者又は前記ユーザにとって流動的な主観的感情に関連する流動主観情報と、を含む、
請求項1又は2に記載の情報処理装置。
The subjective information includes fixed subjective information related to subjective feelings fixed to the subject or the user, and flowing subjective information related to subjective feelings that are fluid to the subject or the user.
The information processing apparatus according to claim 1.
前記間接客観情報は、前記被験者又は前記ユーザに固着した客観的感情に関連する固着客観情報と、前記被験者又は前記ユーザにとって流動的な客観的感情に関連する流動客観情報と、含む、
請求項1〜3の何れかに記載の情報処理装置。
The indirect objective information includes fixed objective information related to objective emotions fixed to the subject or the user, and fluid objective information related to objective emotions that are fluid to the subject or the user,
The information processing device according to claim 1.
前記直接客観情報は、前記被験者に対する、MRI(Magnetic Resonance Imaging)検査、PET(Positron Emission Tomography)検査、fNIRS(functional Near Infrared Spectroscopy) 検査、EEG(Electroencephalogram)検査、及び、MEG(Magnetoencephalography)検査の少なくとも1つによって得られる情報である、
請求項1〜4の何れかに記載の情報処理装置。
The direct objective information is at least an MRI (Magnetic Resonance Imaging) test, a PET (Positron Emission Tomography) test, a fNIRS (functional Near Infrared Spectroscopy) test, an EEG (Electroencephalogram) test, and a MEG (Magnetoencephalography) test for the subject. Information obtained by one,
The information processing apparatus according to claim 1.
前記推定する手段は、前記被験者主観情報及び前記被験者間接客観情報の少なくとも1つと、前記直接客観情報と、により構成される推論モデルを用いて、前記ユーザ主観情報及び前記ユーザ間接客観情報の少なくとも1つから前記ユーザ感情情報を推定する、
請求項1〜5の何れかの記載の情報処理装置。
The estimating unit uses at least one of the subject subjective information and the subject indirect objective information, and the inference model configured by the direct objective information, and uses at least one of the user subjective information and the user indirect objective information. Estimating the user emotion information from
The information processing apparatus according to claim 1.
感情を推定すべき対象ユーザとは異なる非対称ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つを参照して、複数の非対称ユーザの中から基準ユーザを決定する手段を備え、
前記推定する手段は、前記被験者主観情報及び前記被験者間接客観情報の少なくとも1つと、前記ユーザ主観情報及び前記ユーザ間接客観情報の少なくとも1つと、前記基準ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、前記基準ユーザのユーザ感情情報と、を参照して、前記対象ユーザのユーザ感情情報を推定する、
請求項1〜6の何れかに記載の情報処理装置。
A means for determining a reference user from a plurality of asymmetric users by referring to at least one of user subjective information and user indirect objective information of an asymmetric user different from the target user whose emotion should be estimated,
The estimating means includes at least one of the subject subjective information and the subject indirect objective information, at least one of the user subjective information and the user indirect objective information, and at least the user subjective information and the user indirect objective information of the reference user. Estimating the user emotion information of the target user with reference to one and the user emotion information of the reference user,
The information processing device according to claim 1.
コンピュータを、請求項1〜7の何れかに記載の各手段として機能させるためのプログラム。 A program for causing a computer to function as each unit according to claim 1.
JP2018181377A 2018-09-27 2018-09-27 Information processing device, program Active JP6739805B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018181377A JP6739805B2 (en) 2018-09-27 2018-09-27 Information processing device, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018181377A JP6739805B2 (en) 2018-09-27 2018-09-27 Information processing device, program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020121797A Division JP7064787B2 (en) 2020-07-16 2020-07-16 Information processing equipment, programs, and information processing methods

Publications (2)

Publication Number Publication Date
JP2020048871A JP2020048871A (en) 2020-04-02
JP6739805B2 true JP6739805B2 (en) 2020-08-12

Family

ID=69994655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018181377A Active JP6739805B2 (en) 2018-09-27 2018-09-27 Information processing device, program

Country Status (1)

Country Link
JP (1) JP6739805B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102563243B1 (en) * 2022-10-31 2023-08-03 주식회사 마음스토리 Emotion prediction method and system for improving meta cognition based on big data

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011065237A1 (en) * 2009-11-27 2011-06-03 株式会社日立製作所 Biological light measurement device
JP2011238215A (en) * 2010-04-17 2011-11-24 Udo Toshihiro Mental and physical health condition management system
JP2016221056A (en) * 2015-06-01 2016-12-28 株式会社日立製作所 Biological light measurement result analysis apparatus, inquiry system using the same, and biological light measurement apparatus
JP6590411B2 (en) * 2015-10-16 2019-10-16 国立大学法人広島大学 Kansei evaluation method
JP6863563B2 (en) * 2016-03-31 2021-04-21 株式会社Triart Stress evaluation system

Also Published As

Publication number Publication date
JP2020048871A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
US20230058925A1 (en) System and method for providing and aggregating biosignals and action data
Arguel et al. Inside out: detecting learners’ confusion to improve interactive digital learning environments
Bergstrom et al. Eye tracking in user experience design
Courtemanche et al. Physiological heatmaps: a tool for visualizing users’ emotional reactions
Tan et al. Investigating the effects of using biofeedback as visual stress indicator during video-mediated collaboration
JP2009530071A (en) Visual attention and emotional reaction detection display system
Weibel et al. Virtual reality experiments with physiological measures
Bergstrom et al. Physiological response measurements
Falkowska et al. Eye tracking usability testing enhanced with EEG analysis
Trupp et al. Who benefits from online art viewing, and how: The role of pleasure, meaningfulness, and trait aesthetic responsiveness in computer-based art interventions for well-being
JP7064787B2 (en) Information processing equipment, programs, and information processing methods
JP6739805B2 (en) Information processing device, program
Fairbairn et al. Eye-tracking in map use, map user and map usability research: what are we looking for?
Verwulgen et al. Determining comfortable pressure ranges for wearable EEG headsets
Hu et al. The relationship between design outcomes and mental states during ideation
Biswas et al. Investigation of an EEG-based Indicator of skill acquisition as novice participants practice a lifeboat maneuvering task in a simulator
WO2022176865A1 (en) Server device, system, and program
Dambrun et al. Changes in Self-Location During the Practice of Mindfulness Meditation in Novices
Guisado-Fernández et al. Informal caregivers’ attitudes and compliance towards a connected health platform for home care support: insights from a long-term exposure
Gralha et al. Are there gender differences when interacting with social goal models? A quasi-experiment
Brunzini et al. An integrated methodology for the assessment of stress and mental workload applied on virtual training
US20160148530A1 (en) Method and system for facilitating overcoming of addictive behavior
JP6007376B2 (en) Drug therapy judgment ability development method and drug therapy judgment ability development program
WO2023027153A1 (en) Information processing method, information processing device, and information processing program
Hristov Wearables & Lifestyle: Wearables & Stress

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200508

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200508

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200716

R150 Certificate of patent or registration of utility model

Ref document number: 6739805

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250