JP2020048871A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2020048871A
JP2020048871A JP2018181377A JP2018181377A JP2020048871A JP 2020048871 A JP2020048871 A JP 2020048871A JP 2018181377 A JP2018181377 A JP 2018181377A JP 2018181377 A JP2018181377 A JP 2018181377A JP 2020048871 A JP2020048871 A JP 2020048871A
Authority
JP
Japan
Prior art keywords
information
user
subject
objective
subjective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018181377A
Other languages
Japanese (ja)
Other versions
JP6739805B2 (en
Inventor
瑞人 青砥
Mizuto Aoto
瑞人 青砥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dancing Einstein
Dancing Einstein Co Ltd
Original Assignee
Dancing Einstein
Dancing Einstein Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dancing Einstein, Dancing Einstein Co Ltd filed Critical Dancing Einstein
Priority to JP2018181377A priority Critical patent/JP6739805B2/en
Publication of JP2020048871A publication Critical patent/JP2020048871A/en
Application granted granted Critical
Publication of JP6739805B2 publication Critical patent/JP6739805B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To improve the accuracy of estimating emotions of a person about whom data representing objective emotions do not exist.SOLUTION: An information processing device includes: means for acquiring direct objective information directly related to objective emotions of a subject; means for acquiring at least one of subject subjective information related to subjective emotions of the subject and subject indirect objective information indirectly related to objective emotions of the subject; means for acquiring at least one of user subjective information related to subjective emotions of a user and user indirect objective information indirectly related to objective emotions of the user; and means for estimating user emotion information related to emotions of the user with reference to the direct objective information, at least one of the subject subjective emotion information and the subject indirect objective information, and at least one of the user subjective information and the user indirect objective information.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing device and a program.

一般に、人は、自身の感情を記録する方法として、文章(例えば、日記)を用いる。文章は、人の主観的感情を表す。つまり、人が作成した文章からは、その人の主観的感情に関連する主観感情指標が得られる。   Generally, a person uses a sentence (for example, a diary) as a method of recording his or her own emotion. Sentences express a person's subjective emotions. That is, a sentence created by a person can provide a subjective emotion index related to the subjective emotion of the person.

一方、特許文献1には、MRI(Magnetic Resonance Imaging)検査によって得られた情報に基づいて、被験者の感情を判定する技術が開示されている。MRI検査によって得られた情報は、定量値であるので、被験者の客観的感情を直接的に表す。   On the other hand, Patent Literature 1 discloses a technique for determining a subject's emotion based on information obtained by an MRI (Magnetic Resonance Imaging) test. Since the information obtained by the MRI examination is a quantitative value, it directly represents the objective emotion of the subject.

特開2013‐176406号公報JP 2013-176406 A

しかし、特許文献1のMRI検査を受けることは、費用及び手間がかかるため容易ではない。従って、MRI検査を受けたことがない(つまり、客観的感情を表すデータが存在しない)人も多い。そのため、MRI検査を受けたことがない人の感情を高い精度で判定することはできなかった。   However, it is not easy to receive the MRI test of Patent Document 1 because it is expensive and troublesome. Therefore, there are many people who have never undergone an MRI examination (that is, there is no data indicating objective emotion). Therefore, the emotion of a person who has never undergone an MRI test cannot be determined with high accuracy.

このように、従来技術では、客観的感情を表すデータが存在しない人については、感情の推定の精度が十分ではない。   As described above, in the related art, the accuracy of emotion estimation is not sufficient for a person for whom there is no data representing objective emotion.

本発明の目的は、客観的感情を表すデータが存在しない人の感情の推定の精度を向上させることである。   An object of the present invention is to improve the accuracy of estimating emotions of a person who does not have data representing objective emotions.

本発明の一態様は、
ユーザの感情を推定する情報処理装置であって、
被験者の客観的感情に直接的に関連する直接客観情報を取得する手段を備え、
被験者の主観的感情に関連する被験者主観情報、及び、被験者の客観的感情に間接的に関連する被験間接客観情報の少なくとも1つを取得する手段を備え、
ユーザの主観的感情に関連するユーザ主観情報、及び、ユーザの客観的感情に間接的に関連するユーザ間接客観情報の少なくとも1つを取得する手段を備え、
直接客観情報と、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、を参照して、ユーザの感情に関連するユーザ感情情報を推定する手段を備える、
情報処理装置である。
One embodiment of the present invention provides
An information processing apparatus for estimating a user's emotion,
Means for obtaining direct objective information directly related to the subject's objective emotions,
Subject subjective information related to the subject's subjective emotion, and means for acquiring at least one of the test indirect objective information indirectly related to the subject's objective emotion,
A means for acquiring at least one of user subjective information related to the user's subjective emotion, and user indirect objective information indirectly related to the user's objective emotion,
Means for estimating user emotion information related to the emotion of the user by referring to the direct objective information, at least one of the subject subjective information and the subject indirect objective information, and at least one of the user subjective information and the user indirect objective information; Prepare,
It is an information processing device.

本発明によれば、客観的感情を表すデータが存在しない人の感情の推定の精度を向上させることができる。   According to the present invention, it is possible to improve the accuracy of estimating the emotion of a person for whom there is no data representing objective emotion.

本実施形態の情報処理システムの構成を示すブロック図である。It is a block diagram showing the composition of the information processing system of this embodiment. 本実施形態の概要の説明図である。It is an explanatory view of the outline of the present embodiment. 本実施形態の概要の一態様の説明図である。It is an explanatory view of one mode of an outline of this embodiment. 本実施形態の被験者情報データベースのデータ構造を示す図である。It is a figure showing the data structure of the subject information database of this embodiment. 本実施形態の被験者流動主観情報データベースのデータ構造を示す図である。It is a figure showing the data structure of the subject flow subjective information database of this embodiment. 本実施形態の被験者流動間接客観情報データベースのデータ構造を示す図である。It is a figure showing the data structure of the subject flow indirect objective information database of this embodiment. 本実施形態のユーザ情報データベースのデータ構造を示す図である。It is a figure showing the data structure of the user information database of this embodiment. 本実施形態のユーザ流動主観情報データベースのデータ構造を示す図である。It is a figure showing the data structure of the user flow subjective information database of this embodiment. 本実施形態のユーザ流動間接客観情報データベースのデータ構造を示す図である。It is a figure showing the data structure of the user flow indirect objective information database of this embodiment. 本実施形態の情報処理の全体フローを示す図である。It is a figure showing the whole flow of information processing of this embodiment. 図10の被験者情報の登録の処理のシーケンス図である。FIG. 11 is a sequence diagram of a process of registering subject information in FIG. 10. 図11の情報処理において表示される画面例を示す図である。FIG. 12 is a diagram illustrating an example of a screen displayed in the information processing in FIG. 11. 図11の情報処理において表示される画面例を示す図である。FIG. 12 is a diagram illustrating an example of a screen displayed in the information processing in FIG. 11. 図10の被験者流動情報の登録の処理のシーケンス図である。FIG. 11 is a sequence diagram of a process of registering subject flow information of FIG. 10. 図14の情報処理において表示される画面例を示す図である。FIG. 15 is a diagram illustrating an example of a screen displayed in the information processing of FIG. 14. 図14の情報処理において表示される画面例を示す図である。FIG. 15 is a diagram illustrating an example of a screen displayed in the information processing of FIG. 14. 図14の情報処理において表示される画面例を示す図である。FIG. 15 is a diagram illustrating an example of a screen displayed in the information processing of FIG. 14. 図10のユーザ情報の登録の処理(OP3)の処理のシーケンス図である。FIG. 11 is a sequence diagram of a process (OP3) of registering user information in FIG. 図18の情報処理において表示される画面例を示す図である。FIG. 19 is a diagram illustrating an example of a screen displayed in the information processing in FIG. 18. 図10のユーザ流動情報の登録の処理のシーケンス図である。FIG. 11 is a sequence diagram of a process of registering the user flow information of FIG. 10. 図11の感情の可視化の処理のフローチャートである。It is a flowchart of the processing of visualization of the emotion of FIG. 図21の情報処理において表示される画面例を示す図である。FIG. 22 is a diagram showing an example of a screen displayed in the information processing of FIG. 21. 変形例のユーザ感情情報データベースのデータ構造を示す図である。It is a figure showing the data structure of the user emotion information database of a modification. 変形例の感情の可視化の処理のフローチャートである。It is a flowchart of the processing of visualization of the emotion of the modification.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In the drawings for describing the embodiments, the same components are denoted by the same reference numerals in principle, and the repeated description thereof will be omitted.

(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of Information Processing System The configuration of the information processing system will be described. FIG. 1 is a block diagram illustrating the configuration of the information processing system according to the present embodiment.

図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30と、を備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1, the information processing system 1 includes a client device 10 and a server 30.
The client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.

クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。   The client device 10 is an example of an information processing device that transmits a request to the server 30. The client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.

サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。   The server 30 is an example of an information processing device that provides a response to a request transmitted from the client device 10 to the client device 10. The server 30 is, for example, a web server.

(1−1)クライアント装置の構成
図1を参照して、クライアント装置10の構成について説明する。
(1-1) Configuration of Client Device The configuration of the client device 10 will be described with reference to FIG.

図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。   As shown in FIG. 1, the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, and a communication interface 14.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。   The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The programs include, for example, the following programs.
-OS (Operating System) program-Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・ Database referred to in information processing ・ Data obtained by executing information processing (that is, execution result of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。   The processor 12 is configured to realize a function of the client device 10 by activating a program stored in the storage device 11. Processor 12 is an example of a computer.

入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input / output interface 13 is configured to acquire a user's instruction from an input device connected to the client device 10 and output information to an output device connected to the client device 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。   The communication interface 14 is configured to control communication between the client device 10 and the server 30.

(1−2)サーバの構成
図1を参照して、サーバ30の構成について説明する。
(1-2) Configuration of Server The configuration of the server 30 will be described with reference to FIG.

図1に示すように、サーバ30は、記憶装置31と、プロセッサ32と、通信インタフェース34とを備える。   As shown in FIG. 1, the server 30 includes a storage device 31, a processor 32, and a communication interface.

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。   The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
The programs include, for example, the following programs.
-OS program-Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・ Database referenced in information processing ・ Execution result of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。   The processor 32 is configured to realize a function of the server 30 by activating a program stored in the storage device 31. Processor 32 is an example of a computer.

入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input / output interface 33 is configured to acquire a user instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース34は、サーバ30と、クライアント装置10との間の通信を制御するように構成される。   The communication interface 34 is configured to control communication between the server 30 and the client device 10.

(2)本実施形態の概要
本実施形態の概要について説明する。図2は、本実施形態の概要の説明図である。
(2) Overview of the present embodiment An overview of the present embodiment will be described. FIG. 2 is an explanatory diagram of the outline of the present embodiment.

図2に示すように、被験者は、3種類の検査(主観検査、間接客観検査、及び、直接客観検査)を受ける。つまり、被験者には、3種類の被験者検査情報(主観情報、間接客観情報、及び、直接客観情報)が関連付けられる。
主観検査は、被験者の主観的感情に関連する被験者主観情報を測定するための検査である。主観検査は、例えば、Q&A形式のテストによって実施される。主観情報は、被験者の主観によって決まる情報である。
間接客観検査は、被験者の客観的感情に関連する間接客観情報を測定するための検査である。間接客観検査は、例えば、サブリミナルテスト又はウェアラブルデバイスによる検査である。被験者間接客観情報は、被験者の感情を司る脳の反応が直接的に反映されるものではないが、間接的には反映されるものである。被験者間接客観情報は、例えば、脈拍、瞳孔サイズ、及び、汗腺の少なくとも1つのから類推される被験者の感情を司る脳の反応を示す情報である。
直接客観検査は、被験者の客観的感情に関連する直接客観情報を測定するための検査である。直接客観検査は、例えば、脳画像処理機器(一例として、MRI機器又はfMRI(functional Magnetic Resonance Imaging)機器)を用いて実施される検査である。直接客観情報は、被験者の感情を司る脳、及び、感情と関連する脳機能(例えば、感情の抑制)の反応が直接的に反映されるものである。換言すると、直接客観情報は、検査情報の中で、被験者の感情を最も客観的に表す情報である。
As shown in FIG. 2, the subject undergoes three types of tests (a subjective test, an indirect objective test, and a direct objective test). In other words, three types of subject test information (subjective information, indirect objective information, and direct objective information) are associated with the subject.
The subjective test is a test for measuring subject subjective information related to the subject's subjective emotion. The subjective test is performed by, for example, a Q & A type test. The subjective information is information determined by the subject's subjectivity.
The indirect objective test is a test for measuring indirect objective information related to a subject's objective emotion. The indirect objective inspection is, for example, an inspection using a subliminal test or a wearable device. Subject indirect objective information does not directly reflect the response of the brain that controls the emotions of the subject, but does reflect it indirectly. The subject-indirect objective information is, for example, information indicating a pulse, a pupil size, and a response of a brain governing a subject's emotions inferred from at least one of sweat glands.
The direct objective test is a test for measuring direct objective information related to a subject's objective emotion. The direct objective test is, for example, a test performed using a brain image processing device (for example, an MRI device or an fMRI (functional Magnetic Resonance Imaging) device). The direct objective information directly reflects the reaction of the brain that controls the emotions of the subject and the brain function related to the emotions (for example, suppression of emotions). In other words, the direct objective information is information that expresses the subject's emotion most objectively in the examination information.

ユーザは、2種類の検査(主観検査及び間接客観検査)を受ける。つまり、ユーザには、2種類のユーザ検査情報(主観情報及び間接客観情報)が関連付けられる。
ユーザは、被験者とは異なり、直接客観検査を受けていない。したがって、ユーザの直接客観感情情報は存在しない。
The user receives two types of tests (a subjective test and an indirect objective test). That is, two types of user examination information (subjective information and indirect objective information) are associated with the user.
The user, unlike the subject, has not received a direct objective test. Therefore, there is no direct objective emotion information of the user.

本実施形態では、被験者に関連付けられた3種類の検査情報(主観情報、間接客観情報、及び、直接客観情報)から、主観情報及び間接客観情報の組合せと、直接客観情報との相関性を計算する。
また、被験者に関連付けられた主観情報及び間接客観情報の組合せと、直接客観情報との相関性を参照して、ユーザに関連付けられた2種類の検査情報(主観情報及び間接客観情報)からユーザの感情情報(例えば、ユーザの感情コンディション、感情傾向、及び、感情に影響を与える感情因子)を推測する。
In the present embodiment, the correlation between the combination of the subjective information and the indirect objective information and the direct objective information is calculated from three types of test information (subjective information, indirect objective information, and direct objective information) associated with the subject. I do.
In addition, referring to the correlation between the subjective information and the indirect objective information associated with the subject and the direct objective information, the user can obtain the user's information from the two types of test information (the subjective information and the indirect objective information) associated with the user. Estimate emotion information (eg, emotional condition, emotional tendency, and emotional factors affecting the emotions of the user).

このように、本実施形態によれば、直接客観検査を受けていないユーザの感情を司る脳の反応が直接的に反映された直接客観情報を推測することができる。その結果、直接客観検査を受けていないユーザの感情を高精度に推測することができる。   As described above, according to the present embodiment, it is possible to infer direct objective information directly reflecting a brain reaction that controls the emotions of a user who has not received an objective test. As a result, it is possible to highly accurately estimate the emotion of the user who has not received the objective test directly.

(2−1)本実施形態の概要の一態様
本実施形態の概要の一態様について説明する。図3、本実施形態の概要の一態様の説明図である。
(2-1) One aspect of the outline of this embodiment One aspect of the outline of this embodiment will be described. FIG. 3 is an explanatory diagram of one aspect of the outline of the present embodiment.

図3示すように、主観検査は、2種類(固着主観検査及び流動主観検査)に分類される。
固着主観検査は、例えば、Q&A形式のテストである。このテストの質問は、被験者に対して、過去に起きた自己に関する出来事及び経験を振り返らせ、且つ、その出来事及び経験のパターンから自己認識を検査するための文脈を含んでいる。従って、このテストの回答から得られる情報は、固着主観情報である。
流動主観検査は、例えば、Q&A形式のテストである。このテストの質問は、被験者に対して、直近の1つの自己の出来事及び経験を振り返らせるための文脈を含んでいる。従って、このテストの回答から得られる情報は、流動主観情報である。複数の流動主観情報と固着主観情報との差は、個人の自己をみる能力、及び、メタ認知能力の差になる。この差は、感情観察力において有用な指標の一つである。
As shown in FIG. 3, the subjective tests are classified into two types (fixed subjective tests and flow subjective tests).
The sticking subjective test is, for example, a Q & A type test. The test question includes context for reminding the subject of past self-related events and experiences and for examining self-awareness from patterns of the events and experiences. Therefore, the information obtained from the answer to this test is the sticking subjective information.
The flow subjective test is, for example, a Q & A type test. The test questions include context to remind the subject of one of his most recent events and experiences. Therefore, the information obtained from the answer of this test is the flow subjective information. The difference between the plural pieces of flowing subjective information and the fixed subjective information is a difference in the ability of the individual to see the self and the meta-cognitive ability. This difference is one of the useful indices for emotion observation.

客観検査は、2種類(間接客観検査及び直接客観検査)に分類される。   The objective inspection is classified into two types (indirect objective inspection and direct objective inspection).

間接客観検査は、固着間接客観検査及び流動間接客観検査に分類される。
固着間接客観検査は、例えば、被験者に対して実施されるサブリミナルテストである。サブリミナルテストでは、被験者に対してサブリミナル効果を与えるコンテンツ(画像、音声、又は、それらの組合せ)を提示し、且つ、当該コンテンツに対する被験者の反応が計測される。一般的に、サブリミナル効果を与えられた脳は、個人の感情に依存する特定の反応を示す。つまり、計測された反応には、被験者の脳に固着した感情が反映される。したがって、被験者の反応は、固着間接客観情報である。
流動間接客観検査は、例えば、被験者が装着したウェアラブルデバイスを用いたテストである。ウェアラブルデバイスによって取得されたデータは、計測のタイミングによって変動する。従って、このデータは、流動間接客観情報である。
The indirect objective inspection is classified into a sticky indirect objective inspection and a flow indirect objective inspection.
The sticking indirect objective test is, for example, a subliminal test performed on a subject. In the subliminal test, content (image, sound, or a combination thereof) that gives a subliminal effect to the subject is presented, and the subject's response to the content is measured. In general, a brain subjected to a subliminal effect exhibits a particular response that depends on the individual's emotions. In other words, the measured response reflects the emotion that has stuck to the subject's brain. Therefore, the subject's response is sticky indirect objective information.
The flow indirect objective test is, for example, a test using a wearable device worn by a subject. Data acquired by the wearable device fluctuates depending on the timing of measurement. Therefore, this data is flow indirect objective information.

直接客観検査は、固着直接客観検査及び流動直接客観検査に分類される。
固着直接客観検査は、例えば、被験者に対して実施されるMRI検査である。MRI機器によって取得された画像は、被験者の脳に固着した感情が直接的に反映される。したがって、MRI機器によって取得された画像は、固着間接客観情報である。
流動直接客観検査は、例えば、被験者に対して実施されるEEG(Electroencephalogram)検査又はfMRI検査である。EEG検査又はfMRI検査の結果は、検査のタイミングによって変動する。従って、EEG検査及びfMRI検査の結果は、流動直接客観情報である。
The direct objective inspection is classified into a sticky direct objective inspection and a flow direct objective inspection.
The fixed direct objective test is, for example, an MRI test performed on a subject. The images acquired by the MRI apparatus directly reflect the emotions fixed on the brain of the subject. Therefore, the image acquired by the MRI apparatus is the fixed indirect objective information.
The flow direct objective test is, for example, an EEG (Electroencephalogram) test or fMRI test performed on a subject. The result of the EEG test or the fMRI test varies depending on the timing of the test. Therefore, the results of the EEG test and the fMRI test are flow direct objective information.

本実施形態の一態様では、被験者に関連付けられた5種類の検査情報(固着主観情報、流動主観情報、固着間接客観情報、流動間接客観情報、及び、直接客観情報)から、主観情報及び間接客観情報の組合せと、直接客観情報との相関性を計算する。
また、被験者に関連付けられた主観情報及び間接客観情報の組合せと、直接客観情報との相関性を参照して、ユーザに関連付けられた4種類の検査情報(固着主観情報、流動主観情報、固着間接客観情報、及び、流動間接客観情報)からユーザの感情情報(例えば、ユーザの感情コンディション、感情傾向、及び、感情に影響を与える感情因子)を推測する。
In one aspect of the present embodiment, subjective information and indirect objective information are obtained from five types of test information (fixed subjective information, fluid subjective information, fixed indirect objective information, fluid indirect objective information, and direct objective information) associated with the subject. Calculate the correlation between the information combination and the direct objective information.
Also, by referring to the correlation between the combination of the subjective information and the indirect objective information associated with the subject and the direct objective information, the four types of test information associated with the user (fixed subjective information, fluid subjective information, fixed indirect information, The user's emotion information (for example, the emotional condition, the emotional tendency, and the emotional factor affecting the emotional state of the user) is estimated from the objective information and the fluid indirect objective information.

(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3) Database The database of the present embodiment will be described. The following databases are stored in the storage device 31.

(3−1)被験者情報データベース
本実施形態の被験者情報データベースについて説明する。図4は、本実施形態の被験者情報データベースのデータ構造を示す図である。
(3-1) Subject Information Database The subject information database of the present embodiment will be described. FIG. 4 is a diagram showing a data structure of the subject information database of the present embodiment.

図4の被験者情報データベースには、被験者に関する被験者情報が格納される。
被験者情報データベースは、「被験者ID」フィールドと、「被験者名」フィールドと、「被験者属性」フィールドと、「固着主観」フィールドと、「直接客観」フィールドと、「固着間接客観」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
The subject information database of FIG. 4 stores subject information on the subject.
The subject information database includes a “subject ID” field, a “subject name” field, a “subject attribute” field, a “stick subjectivity” field, a “direct objective” field, and a “stick indirect objective” field. .
Each field is associated with one another.

「被験者ID」フィールドには、被験者を識別する被験者ID(「被験者識別情報」の一例)が格納される。   A subject ID (an example of “subject identification information”) for identifying a subject is stored in the “subject ID” field.

「被験者名」フィールドには、被験者名に関する情報(例えば、テキスト)が格納される。被験者名、例えば、被験者情報を登録するときに被験者によって任意に決定される。   In the “subject name” field, information (for example, text) on the subject name is stored. The subject is arbitrarily determined by the subject when registering the subject name, for example, subject information.

「被験者属性」フィールドには、被験者の属性に関する被験者属性情報が格納される。被験者属性情報は、例えば、被験者情報を登録するときに被験者によって任意に決定される。
「被験者属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。
The “subject attribute” field stores subject attribute information regarding the attributes of the subject. The subject attribute information is arbitrarily determined by the subject when registering the subject information, for example.
The “subject attribute” field includes a “sex” field, an “age” field, and a “occupation” field.

「性別」フィールドには、被験者の性別に関する情報が格納される。   The “sex” field stores information on the gender of the subject.

「年齢」フィールドには、被験者の年齢に関する情報が格納される。   The “age” field stores information on the age of the subject.

「職業」フィールドには、被験者の職業に関する情報が格納される。   The “occupation” field stores information on the occupation of the subject.

「固着主観」フィールドには、被験者の固着主観情報が格納される。固着主観情報は、予め用意された複数の質問に対する回答の組合せによって決まる情報である。固着主観情報は、例えば、被験者の性格の種類(以下「性格タイプ」という)に関する情報である。   The subject's subjective fixation information is stored in the “fixation subjective” field. The fixed subjective information is information determined by a combination of answers to a plurality of questions prepared in advance. The sticking subjective information is, for example, information on the type of the subject's character (hereinafter, referred to as “personal type”).

「直接客観」フィールドには、被験者の直接客観情報が格納される。
「直接客観」フィールドは、「MRI」フィールドと、「fMRI」フィールドと、を含む。
The "direct objective" field stores direct objective information of the subject.
The “direct objective” field includes an “MRI” field and an “fMRI” field.

「MRI」フィールドには、MRIの検査結果に関するMRI画像(「直接客観情報」の一例)が格納される。MRI画像は、例えば、被験者の脳の画像データである。   The “MRI” field stores an MRI image (an example of “direct objective information”) related to an MRI examination result. The MRI image is, for example, image data of the brain of the subject.

「fMRI」フィールドには、fMRIの検査結果に関するfMRI情報(「直接客観情報」の一例)が格納される。fMRI情報は、複数の刺激のそれぞれに対する脳の各部位の脳活動に関する血流動態反応パラメータ(例えば、扁桃体の活性度、島の活性度、背外側前頭前皮質の不活性度、血中コルチゾール量、血圧変動率、及び、表情筋)を含む。   The “fMRI” field stores fMRI information (an example of “direct objective information”) on the fMRI test result. The fMRI information includes hemodynamic response parameters (eg, amygdala activity, islet activity, dorsolateral prefrontal cortex inactivity, blood cortisol level) related to brain activity of each part of the brain in response to each of a plurality of stimuli. , Blood pressure fluctuation rate, and facial muscles).

「固着間接客観」フィールドには、被験者に対する固着間接客観検査(例えば、サブリミナルテスト)から得られる固着間接客観情報が格納される。固着間接客観情報は、例えば、以下を含む。
・サブリミナルコンテンツを提示したときの反応の内容
・サブリミナルコンテンツを提示したときの反応速度
The “sticky indirect objective” field stores sticky indirect objective information obtained from a sticky indirect objective test (for example, a subliminal test) on the subject. The fixed indirect objective information includes, for example, the following.
・ Content of reaction when presenting subliminal content ・ Reaction speed when presenting subliminal content

(3−2)被験者流動主観情報データベース
本実施形態の被験者流動主観情報データベースについて説明する。図5は、本実施形態の被験者流動主観情報データベースのデータ構造を示す図である。
(3-2) Subject flow subjective information database The subject flow subjective information database of the present embodiment will be described. FIG. 5 is a diagram showing a data structure of the subject flow subjective information database of the present embodiment.

図5の被験者流動主観情報データベースには、被験者に対して提示された質問に対する回答が格納される。
被験者流動主観情報データベースは、「データID」フィールドと、「チェックイン日時」フィールドと、「チェックイン回答」フィールドと、「チェックアウト日時」フィールドと、「チェックアウト回答」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
被験者流動主観情報データベースは、被験者IDに関連付けられる。
The subject flow subjective information database of FIG. 5 stores answers to the questions presented to the subject.
The subject flow subjective information database includes a “data ID” field, a “check-in date and time” field, a “check-in response” field, a “check-out date and time” field, and a “check-out response” field.
Each field is associated with one another.
The subject flow subjective information database is associated with the subject ID.

「データID」フィールドには、被験者流動主観情報データベースのレコードを識別するデータIDが格納される。   The “data ID” field stores a data ID for identifying a record in the subject flow subjective information database.

「チェックイン日時」フィールドには、チェックインの日時に関する情報が格納される。チェックインとは、あるタスクを実行する前に被験者に提示した質問に対する回答を取得するための処理である。   The “check-in date and time” field stores information on the date and time of check-in. Check-in is a process for acquiring an answer to a question presented to a subject before executing a certain task.

「チェックイン回答」フィールドには、チェックインにおいて取得された回答に関するチェックイン回答情報が格納される。「チェックイン回答」フィールドの情報は、質問毎に分けて格納される。   The “check-in response” field stores check-in response information relating to the response obtained at check-in. The information in the “check-in answer” field is stored separately for each question.

「チェックアウト日時」フィールドには、チェックアウトの日時に関する情報が格納される。チェックアウトとは、あるタスクを完了した後に被験者に提示した質問に対する回答を取得するための処理である。   The “checkout date and time” field stores information on the date and time of checkout. Checkout is a process for acquiring an answer to a question presented to a subject after completing a certain task.

「チェックアウト回答」フィールドには、チェックアウトにおいて取得された回答に関するチェックアウト回答情報が格納される。「チェックアウト回答」フィールドの情報は、質問毎に分けて格納される。   The “checkout answer” field stores checkout answer information on the answer obtained in the checkout. The information in the "checkout answer" field is stored separately for each question.

(3−3)被験者流動間接客観情報データベース
本実施形態の被験者流動間接客観情報データベースについて説明する。図6は、本実施形態の被験者流動間接客観情報データベースのデータ構造を示す図である。
(3-3) Subject Flow Indirect Objective Information Database The subject flow indirect objective information database of the present embodiment will be described. FIG. 6 is a diagram showing the data structure of the subject flow indirect objective information database of the present embodiment.

図6の被験者流動間接客観情報データベースには、被験者の流動間接客観情報が格納される。
被験者流動間接客観情報データベースは、「データID」フィールドと、「測定日時」フィールドと、「ウェアラブル」フィールドと、を含む。
被験者流動間接客観情報データベースは、被験者IDに関連付けられる。
The subject's flow indirect objective information of FIG. 6 stores the subject's flow indirect objective information.
The subject flow indirect objective information database includes a “data ID” field, a “measurement date and time” field, and a “wearable” field.
The subject flow indirect objective information database is associated with the subject ID.

「データID」フィールドには、被験者流動間接客観情報データベースのレコードを識別するデータIDが格納される。   The “data ID” field stores a data ID for identifying a record in the subject flow indirect objective information database.

「測定日時」フィールドには、ウェアラブルデバイスが計測したデータを取得した日時に関する情報が格納される。   The “measurement date and time” field stores information on the date and time when the data measured by the wearable device is acquired.

「ウェアラブル」フィールドには、ウェアラブルデバイスが計測したデータが格納される。ウェアラブルデバイスが計測したデータは、例えば、以下の少なくとも1つを含む。
・歩数
・脈拍
・心拍数
・消費カロリー
The “wearable” field stores data measured by the wearable device. The data measured by the wearable device includes, for example, at least one of the following.
・ Steps, pulse, heart rate, calories burned

(3−4)ユーザ情報データベース
本実施形態のユーザ情報データベースについて説明する。図7は、本実施形態のユーザ情報データベースのデータ構造を示す図である。
(3-4) User Information Database The user information database of the present embodiment will be described. FIG. 7 is a diagram illustrating a data structure of the user information database according to the present embodiment.

図7のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「固着主観」フィールドと、「固着間接客観」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
The user information database of FIG. 7 stores user information on the user.
The user information database includes a "user ID" field, a "user name" field, a "user attribute" field, a "sticky subjective" field, and a "sticky indirect objective" field.
Each field is associated with one another.

「ユーザID」フィールドには、ユーザを識別するユーザID(「ユーザ識別情報」の一例)が格納される。   The “user ID” field stores a user ID for identifying a user (an example of “user identification information”).

「ユーザ名」フィールドには、ユーザ名に関する情報(例えば、テキスト)が格納される。ユーザ名は、例えば、ユーザ情報を登録するときにユーザによって任意に決定される。   The “user name” field stores information (for example, text) related to the user name. The user name is arbitrarily determined by the user when registering the user information, for example.

「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。ユーザ属性情報は、例えば、ユーザ情報を登録するときにユーザによって任意に決定される。
「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。
The “user attribute” field stores user attribute information on the attribute of the user. The user attribute information is arbitrarily determined by the user when registering the user information, for example.
The “user attribute” field includes a “sex” field, an “age” field, and a “occupation” field.

「性別」フィールドには、ユーザの性別に関する情報が格納される。   The “sex” field stores information about the gender of the user.

「年齢」フィールドには、ユーザの年齢に関する情報が格納される。   The “age” field stores information on the age of the user.

「職業」フィールドには、ユーザの職業に関する情報が格納される。   The “occupation” field stores information on the occupation of the user.

「固着主観」フィールドには、ユーザの固着主観情報が格納される。固着主観情報は、予め用意された複数の質問に対する回答の組合せによって決まる情報である。固着主観情報は、例えば、ユーザの性格タイプに関する情報である。   The “fixed subjective” field stores the fixed subjective information of the user. The fixed subjective information is information determined by a combination of answers to a plurality of questions prepared in advance. The sticking subjective information is, for example, information on the personality type of the user.

「固着間接客観」フィールドには、ユーザに対する固着間接客観検査(例えば、サブリミナルテスト)から得られる固着間接客観情報が格納される。固着間接客観情報の例は、被験者情報データベース(図4)の「固着間接客観」フィールドの例と同様である。   The “sticky indirect objective” field stores sticky indirect objective information obtained from a sticky indirect objective inspection (for example, a subliminal test) for the user. An example of the fixed indirect objective information is the same as the example of the “fixed indirect objective” field of the subject information database (FIG. 4).

(3−5)ユーザ流動主観情報データベース
本実施形態のユーザ流動主観情報データベースについて説明する。図8は、本実施形態のユーザ流動主観情報データベースのデータ構造を示す図である。
(3-5) User flow subjective information database The user flow subjective information database of the present embodiment will be described. FIG. 8 is a diagram showing the data structure of the user flow subjective information database of the present embodiment.

図8のユーザ流動主観情報データベースには、ユーザに対して提示された質問に対する回答が格納される。
ユーザ流動主観情報データベースは、「データID」フィールドと、「チェックイン日時」フィールドと、「チェックイン回答」フィールドと、「チェックアウト日時」フィールドと、「チェックアウト回答」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
ユーザ流動主観情報データベースは、ユーザIDに関連付けられる。
The answer to the question presented to the user is stored in the user flow subjective information database of FIG.
The user flow subjective information database includes a “data ID” field, a “check-in date and time” field, a “check-in response” field, a “check-out date and time” field, and a “check-out response” field.
Each field is associated with one another.
The user flow subjective information database is associated with the user ID.

「データID」フィールドには、ユーザ流動主観情報データベースのレコードを識別するデータIDが格納される。   The “data ID” field stores a data ID for identifying a record in the user flow subjective information database.

「チェックイン日時」フィールドには、チェックインの日時に関する情報が格納される。チェックインとは、あるタスクを実行する前にユーザに提示した質問に対する回答を取得するための処理である。   The “check-in date and time” field stores information on the date and time of check-in. Check-in is a process for acquiring an answer to a question presented to a user before executing a certain task.

「チェックイン回答」フィールドには、チェックインにおいて取得された回答に関するチェックイン回答情報が格納される。「チェックイン回答」フィールドの情報は、質問毎に分けて格納される。   The “check-in response” field stores check-in response information relating to the response obtained at check-in. The information in the “check-in answer” field is stored separately for each question.

「チェックアウト日時」フィールドには、チェックアウトの日時に関する情報が格納される。チェックアウトとは、あるタスクを完了した後にユーザに提示した質問に対する回答を取得するための処理である。   The “checkout date and time” field stores information on the date and time of checkout. Checkout is a process for acquiring an answer to a question presented to a user after completing a certain task.

「チェックアウト回答」フィールドには、チェックアウトにおいて取得された回答に関するチェックアウト回答情報が格納される。「チェックアウト回答」フィールドの情報は、質問毎に分けて格納される。   The “checkout answer” field stores checkout answer information on the answer obtained in the checkout. The information in the "checkout answer" field is stored separately for each question.

(3−6)ユーザ流動間接客観情報データベース
本実施形態のユーザ流動間接客観情報データベースについて説明する。図9は、本実施形態のユーザ流動間接客観情報データベースのデータ構造を示す図である。
(3-6) User flow indirect objective information database The user flow indirect objective information database of the present embodiment will be described. FIG. 9 is a diagram showing the data structure of the user flow indirect objective information database of the present embodiment.

図9のユーザ流動間接客観情報データベースには、ユーザの流動間接客観情報が格納される。
ユーザ流動間接客観情報データベースは、「データID」フィールドと、「測定日時」フィールドと、「ウェアラブル」フィールドと、を含む。
ユーザ流動間接客観情報データベースは、ユーザIDに関連付けられる。
The user's flow indirect objective information of FIG. 9 stores the user's flow indirect objective information.
The user flow indirect objective information database includes a “data ID” field, a “measurement date and time” field, and a “wearable” field.
The user flow indirect objective information database is associated with the user ID.

「データID」フィールドには、ユーザ流動間接客観情報データベースのレコードを識別するデータIDが格納される。   The “data ID” field stores a data ID for identifying a record in the user flow indirect objective information database.

「測定日時」フィールドには、ウェアラブルデバイスが計測したデータを取得した日時に関する情報が格納される。   The “measurement date and time” field stores information on the date and time when the data measured by the wearable device is acquired.

「ウェアラブル」フィールドには、ウェアラブルデバイスが計測したデータが格納される。ウェアラブルデバイスが計測したデータの例は、被験者流動間接客観情報データベース(図6)の「ウェアラブル」フィールドの例と同様である。   The “wearable” field stores data measured by the wearable device. An example of the data measured by the wearable device is the same as the example of the “wearable” field of the subject flow indirect objective information database (FIG. 6).

(4)情報処理
本実施形態の情報処理について説明する。図10は、本実施形態の情報処理の全体フローを示す図である。
(4) Information Processing Information processing of the present embodiment will be described. FIG. 10 is a diagram illustrating an overall flow of the information processing according to the present embodiment.

図10に示すように、本実施形態の情報処理は、被験者情報の登録(OP1)と、被験者流動情報の登録(OP2)と、ユーザ情報の登録(OP3)と、ユーザ流動情報の登録(OP4)と、感情の可視化(OP5)と、を含む。
被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)は、被験者情報データベース(図4)、被験者流動主観情報データベース(図5)、及び、被験者流動間接客観情報データベース(図6)へのデータの登録を行うための処理である。被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)によって、サーバ30に、被験者検査情報と感情の推論モデルが構築される。
ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)は、ユーザ情報データベース(図7)、ユーザ流動主観情報データベース(図8)、及び、ユーザ流動間接客観情報データベース(図9)へのデータの登録を行うための処理である。ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)によって、感情の可視化(OP5)に必要な入力情報がサーバ30に与えられる。
感情の可視化(OP5)は、被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)によって生成された推論モデルと、ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)において与えられた入力情報とを用いて、ユーザの感情を可視化するための処理である。
As shown in FIG. 10, the information processing of this embodiment includes registration of subject information (OP1), registration of subject flow information (OP2), registration of user information (OP3), and registration of user flow information (OP4). ) And visualization of emotion (OP5).
Registration of subject information (OP1) and registration of subject flow information (OP2) are performed on the subject information database (FIG. 4), the subject flow subjective information database (FIG. 5), and the subject flow indirect objective information database (FIG. 6). This is a process for registering data. By registering the subject information (OP1) and registering the subject flow information (OP2), the server 30 constructs the subject test information and the emotion inference model.
Registration of user information (OP3) and registration of user flow information (OP4) are performed in the user information database (FIG. 7), the user flow subjective information database (FIG. 8), and the user flow indirect objective information database (FIG. 9). This is a process for registering data. By registering the user information (OP3) and registering the user flow information (OP4), the input information necessary for visualizing the emotion (OP5) is provided to the server 30.
The emotion visualization (OP5) is given in the inference model generated by the registration of the subject information (OP1) and the registration of the subject flow information (OP2), and the registration of the user information (OP3) and the registration of the user flow information (OP4). This is a process for visualizing the user's emotion using the input information obtained.

(4−1)被験者情報の登録
本実施形態の被験者情報の登録(OP1)の処理について説明する。図11は、図10の被験者情報の登録の処理のシーケンス図である。図12〜図13は、図11の情報処理において表示される画面例を示す図である。
(4-1) Registration of Subject Information The processing of registration of subject information (OP1) of the present embodiment will be described. FIG. 11 is a sequence diagram of the registration processing of the subject information in FIG. 12 and 13 are diagrams illustrating examples of screens displayed in the information processing of FIG.

図11に示すように、被験者情報の受付(S100)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P100(図12)をディスプレイに表示する。
As shown in FIG. 11, reception of subject information (S100) is performed.
Specifically, processor 12 of client device 10 displays screen P100 (FIG. 12) on the display.

画面P100は、操作オブジェクトB100と、フィールドオブジェクトF100と、を含む。
フィールドオブジェクトF100は、被験者情報(例えば、被験者名、性別、年齢、及び、職業)の入力を受け付けるオブジェクトである。
操作オブジェクトB100は、フィールドオブジェクトF100に入力された情報をサーバ30に送信させるための指示を受け付けるオブジェクトである。
Screen P100 includes an operation object B100 and a field object F100.
The field object F100 is an object that receives input of subject information (for example, subject name, gender, age, and occupation).
The operation object B100 is an object that receives an instruction to cause the server 30 to transmit information input to the field object F100.

被験者がフィールドオブジェクトF100に被験者情報を入力し、且つ、操作オブジェクトB100を操作すると、プロセッサ12は、被験者情報登録リクエストデータをサーバ30に送信する。被験者情報登録リクエストデータは、フィールドオブジェクトF100に入力された情報を含む。   When the subject inputs the subject information to the field object F100 and operates the operation object B100, the processor 12 transmits the subject information registration request data to the server 30. The subject information registration request data includes the information input to the field object F100.

サーバ30のプロセッサ32は、被験者情報データベース(図4)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「被験者ID」フィールドには、新規の被験者IDが格納される。
・「被験者名」フィールド及び「被験者属性」フィールドには、被験者情報登録リクエストデータに含まれる情報(つまり、フィールドオブジェクトF100に入力された情報)が格納される。
The processor 32 of the server 30 adds a new record to the subject information database (FIG. 4).
The following information is stored in each field of the new record.
A new subject ID is stored in the “subject ID” field.
In the “subject name” field and the “subject attribute” field, information included in the subject information registration request data (that is, information input to the field object F100) is stored.

ステップS100の後、初回Q&Aテスト(S101)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P101(図12)をディスプレイに表示する。
After step S100, an initial Q & A test (S101) is performed.
Specifically, processor 12 of client device 10 displays screen P101 (FIG. 12) on the display.

画面P101は、操作オブジェクトB101と、フィールドオブジェクトF101と、を含む。
フィールドオブジェクトF101には、質問と、当該質問に対する回答の選択肢と、が表示される。操作者が選択肢の少なくとも1つを指定すると、フィールドオブジェクトF101は、操作者によって指定された選択肢を操作者の回答として受け付ける。
操作オブジェクトB101は、フィールドオブジェクトF101が受け付けた回答を確定させるための指示を受け付けるオブジェクトである。
The screen P101 includes an operation object B101 and a field object F101.
The field object F101 displays a question and options for answering the question. When the operator specifies at least one of the options, the field object F101 receives the option specified by the operator as the operator's answer.
The operation object B101 is an object that receives an instruction for determining the answer received by the field object F101.

操作オブジェクトB101が操作されると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、フィールドオブジェクトF101に入力された情報を含む。   When the operation object B101 is operated, the processor 12 transmits update request data to the server 30. The update request data includes the information input to the field object F101.

サーバ30の記憶装置31には、フィールドオブジェクトF101に入力された情報の組合せと、入力者の性格タイプとの関係を示すマッチングテーブルが記憶されている。
プロセッサ32は、記憶装置31に記憶されたマッチングテーブルを参照して、更新リクエストデータに含まれる情報に対応する性格タイプを決定する。
プロセッサ32は、ステップS100で追加した新規レコードの「固着主観」フィールドに、決定した性格タイプに関する情報を格納する。
プロセッサ32は、更新レスポンスデータをクライアント装置10に送信する。更新レスポンスデータは、性格タイプに関する情報を含む。
The storage device 31 of the server 30 stores a matching table indicating the relationship between the combination of information input to the field object F101 and the personality type of the input user.
The processor 32 determines the personality type corresponding to the information included in the update request data with reference to the matching table stored in the storage device 31.
The processor 32 stores information on the determined personality type in the “fixed subjectivity” field of the new record added in step S100.
The processor 32 transmits the update response data to the client device 10. The update response data includes information on the personality type.

クライアント装置10のプロセッサ12は、更新リクエストデータに基づいて、画面P102(図12)をディスプレイに表示する。
画面P102には、サーバ30によって決定された性格タイプが表示される。
The processor 12 of the client device 10 displays the screen P102 (FIG. 12) on the display based on the update request data.
The screen P102 displays the personality type determined by the server 30.

ステップS101の後、サブリミナルテスト(S102)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P103(図13)をディスプレイに表示する。
After step S101, a subliminal test (S102) is performed.
Specifically, processor 12 of client device 10 displays screen P103 (FIG. 13) on the display.

画面P103は、表示オブジェクトA103を含む。
表示オブジェクトA103には、被験者に対して、操作を促すメッセージ(例えば、「表示された三角形をクリックしてください」というテキストメッセージ)が表示される。
Screen P103 includes display object A103.
The display object A103 displays a message prompting the subject to perform an operation (for example, a text message “Click on the displayed triangle”).

画面P103の表示から時間t1(例えば、4秒)経過後、プロセッサ12は、画面P104(図13)をディスプレイに表示する。   After a lapse of time t1 (for example, 4 seconds) from the display of the screen P103, the processor 12 displays the screen P104 (FIG. 13) on the display.

画面P104は、表示オブジェクトA103及びA104を含む。
表示オブジェクトA104は、表示領域A104a〜表示領域A104bを含む。
表示領域A104a〜A104bには、それぞれ、画像オブジェクトIMG104a〜IMG104bが表示される。画像オブジェクトIMG104a〜IMG104bは、所定方向に並んで表示される。画像オブジェクトIMG104a〜IMG104bは、例えば、四角形の画像である。
Screen P104 includes display objects A103 and A104.
The display object A104 includes a display area A104a to a display area A104b.
Image objects IMG104a to IMG104b are displayed in display areas A104a to A104b, respectively. The image objects IMG104a to IMG104b are displayed side by side in a predetermined direction. The image objects IMG104a to IMG104b are, for example, rectangular images.

画面P104の表示から時間t2(<t1)経過後、プロセッサ12は、画面P105a又はP105b(図13)をディスプレイに表示する。時間t2は、例えば、0.01秒である。つまり、画面P104は、画面P103に比べて極めて短時間だけ表示される。   After a lapse of time t2 (<t1) from the display of the screen P104, the processor 12 displays the screen P105a or P105b (FIG. 13) on the display. The time t2 is, for example, 0.01 second. That is, the screen P104 is displayed for an extremely short time as compared with the screen P103.

このように、画面P104の表示時間t2は、画面P103の表示時間t1より極めて短時間である。そのため、画像オブジェクトIMG104a〜IMG104bは、人間の視覚では認識することはできないが、通常、「意識」より下の部分(いわゆる潜在意識、又は、意識と潜在意識との境界領域)において、脳が認識可能である。したがって、被験者は、無意識のうちに、画像オブジェクトIMG104a又はIMG104bの何れかに注目する。この現象を、「サブリミナル効果」という。ステップS102では、このサブリミナル効果を利用して、被験者の固着間接客観情報を取得する。   Thus, the display time t2 of the screen P104 is much shorter than the display time t1 of the screen P103. Therefore, although the image objects IMG104a to IMG104b cannot be recognized by human vision, the brain usually recognizes the part below the “consciousness” (so-called subconscious, or a boundary region between consciousness and subconscious). It is possible. Therefore, the test subject unconsciously focuses on either the image object IMG 104a or the IMG 104b. This phenomenon is called "subliminal effect". In step S102, the indirect objective information of the subject is acquired by using the subliminal effect.

画面P105aは、表示オブジェクトA104を含む。
表示オブジェクトA104の表示領域A104aには、画像オブジェクトIMG105aが表示される。画像オブジェクトIMG105aは、例えば、三角形の画像である。画像オブジェクトIMG105aは、操作者による操作が可能なオブジェクトである。
The screen P105a includes a display object A104.
The image object IMG105a is displayed in the display area A104a of the display object A104. The image object IMG105a is, for example, a triangular image. The image object IMG 105a is an object that can be operated by the operator.

画面P105bは、表示オブジェクトA104を含む。
表示オブジェクトA104の表示領域A104bには、画像オブジェクトIMG105bが表示される。画像オブジェクトIMG105bは、例えば、三角形の画像である。画像オブジェクトIMG105bは、操作者による操作が可能なオブジェクトである。
The screen P105b includes a display object A104.
The image object IMG105b is displayed in the display area A104b of the display object A104. The image object IMG105b is, for example, a triangular image. The image object IMG 105b is an object that can be operated by the operator.

被験者が画像オブジェクトIMG105a又はIMG105bを操作すると、プロセッサ12は、画面P105a又はP105bの表示から被験者が画像オブジェクトIMG105a又はIMG105bを操作するまでの時間(以下「反応時間」という)を、記憶装置11に記憶する。
例えば、被験者が画面P104の画像オブジェクトIMG104aに注目していた場合には、画像オブジェクトIMG104aと同じ表示領域A104aに表示された画像オブジェクトIMG105aの操作に対する反応時間は、画像オブジェクトIMG104aと異なる表示領域A104bに表示された画像オブジェクトIMG105bの操作に対する反応時間より短くなる。
When the subject operates the image object IMG105a or IMG105b, the processor 12 stores the time from when the screen P105a or P105b is displayed to when the subject operates the image object IMG105a or IMG105b (hereinafter referred to as "reaction time") in the storage device 11. I do.
For example, when the subject is paying attention to the image object IMG104a on the screen P104, the reaction time to the operation of the image object IMG105a displayed in the same display area A104a as the image object IMG104a is displayed in the display area A104b different from the image object IMG104a. The response time to the operation of the displayed image object IMG 105b is shorter.

プロセッサ12は、上記のようなサビリミナルテストを複数回繰り返し実行する。
所定回数のサブリミナルテストが終了すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・画像オブジェクトIMG105aに対する反応時間に関する情報
・画像オブジェクトIMG105bに対する反応時間に関する情報
The processor 12 repeatedly executes the above-described sabilimetric test a plurality of times.
When a predetermined number of subliminal tests are completed, the processor 12 transmits update request data to the server 30. The update request data includes the following information.
Information about the reaction time for the image object IMG105a Information about the reaction time for the image object IMG105b

プロセッサ32は、ステップS100で追加した新規レコードの「固着間接客観」フィールドに、更新リクエストデータに含まれる反応時間に関する情報を格納する。
プロセッサ32は、更新レスポンスデータをクライアント装置10に送信する。
The processor 32 stores information on the reaction time included in the update request data in the “sticky indirect objective” field of the new record added in step S100.
The processor 32 transmits the update response data to the client device 10.

ステップS102の後、MRI検査(S103)が実行される。
具体的には、磁気共鳴装置に接続されたコンピュータが、磁気共鳴装置によって得られた信号に基づいて、被験者の脳活動パラメータと、血流動態反応パラメータと、を生成する。
当該コンピュータは、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・脳活動パラメータ
・血流動態反応パラメータ
After step S102, an MRI inspection (S103) is performed.
Specifically, a computer connected to the magnetic resonance apparatus generates a brain activity parameter and a hemodynamic response parameter of the subject based on a signal obtained by the magnetic resonance apparatus.
The computer transmits the update request data to the server 30.
The update request data includes the following information.
・ Brain activity parameters ・ Hemodynamic response parameters

サーバ30のプロセッサ32は、ステップS100で追加した新規レコードに以下の情報を格納する。
・「MRI」フィールドに、更新リクエストデータに含まれる脳活動パラメータが格納される。
・「fMRI」フィールドに、更新リクエストデータに含まれる血流動態反応パラメータが格納される。
The processor 32 of the server 30 stores the following information in the new record added in step S100.
-The brain activity parameter included in the update request data is stored in the "MRI" field.
-The hemodynamic response parameters included in the update request data are stored in the "fMRI" field.

(4−2)被験者流動情報の登録
本実施形態の被験者流動情報の登録(OP2)の処理について説明する。図14は、図10の被験者流動情報の登録の処理のシーケンス図である。図15〜図17は、図14の情報処理において表示される画面例を示す図である。
(4-2) Registration of subject flow information The process of registering subject flow information (OP2) of the present embodiment will be described. FIG. 14 is a sequence diagram of the process of registering the subject flow information of FIG. 15 to 17 are diagrams illustrating examples of screens displayed in the information processing in FIG.

図14に示すように、ウェアラブル情報の取得(S200)が実行される。
クライアント装置10のプロセッサ12は、被験者が装着したウェアラブルデバイスから、ウェアラブル情報(例えば、歩数、脈拍、及び、心拍数の少なくとも1つ)を取得する。
プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・ウェアラブルデバイスを装着した被験者の被験者ID
・ウェアラブル情報
・ステップS200の実行日時に関する情報
As shown in FIG. 14, the acquisition of wearable information (S200) is performed.
The processor 12 of the client device 10 acquires wearable information (for example, at least one of the number of steps, the pulse, and the heart rate) from the wearable device worn by the subject.
The processor 12 sends the update request data to the server 30. The update request data includes the following information.
・ Subject ID of the subject wearing the wearable device
-Wearable information-Information on the execution date and time of step S200

サーバ30のプロセッサ32は、更新リクエストデータに含まれる被験者IDに関連付けられた被験者流動間接客観情報データベース(図6)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「データID」フィールドには、新規データIDが格納される。
・「測定日時」フィールドには、更新リクエストデータに含まれる実行日時に関する情報が格納される。
・「ウェアラブル」フィールドには、更新リクエストデータに含まれるウェアラブル情報が格納される。
The processor 32 of the server 30 adds a new record to the subject flow indirect objective information database (FIG. 6) associated with the subject ID included in the update request data.
The following information is stored in each field of the new record.
-The new data ID is stored in the "data ID" field.
-The "measurement date" field stores information on the execution date and time included in the update request data.
-The "wearable" field stores wearable information included in the update request data.

ステップS200の後、チェックイン(S201)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P200(図15)をディスプレイに表示する。
After step S200, check-in (S201) is performed.
Specifically, processor 12 of client device 10 displays screen P200 (FIG. 15) on the display.

画面P200は、操作オブジェクトB200と、フィールドオブジェクトF200a〜F200eと、を含む。   Screen P200 includes an operation object B200 and field objects F200a to F200e.

フィールドオブジェクトF200a〜F200eには、ステップS201の後に行うタスクに関する質問が提示される。
フィールドオブジェクトF200aには、「タスクの内容は?」という質問が提示される。フィールドオブジェクトF200aに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、タスクの内容に関する情報として取得する。
フィールドオブジェクトF200bには、「タスクの種類は?」という質問が提示される。フィールドオブジェクトF200bの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、タスクの種類に関する情報として取得する。
フィールドオブジェクトF200cには、「誰と一緒?」という質問が提示される。フィールドオブジェクトF200cの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、タスクを一緒に行う人物に関する情報として取得する。
フィールドオブジェクトF200dには、「タスクの頻度は?」という質問が提示される。フィールドオブジェクトF200dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの頻度に関する情報として取得する。
フィールドオブジェクトF200eには、「タスクの難易度は?」という質問が提示される。フィールドオブジェクトF200eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの難易度に関する情報として取得する。
In the field objects F200a to F200e, a question regarding a task performed after step S201 is presented.
The question "What is the content of the task?" Is presented to the field object F200a. When any text is input to the field object F200a, the processor 12 acquires the input text as information relating to the content of the task.
The question "What kind of task is it?" Is presented to the field object F200b. When an arbitrary option is selected from a plurality of options of the field object F200b, the processor 12 acquires the selected option as information on the task type.
The field object F200c is presented with a question "who is with whom?" When an arbitrary option is selected from a plurality of options of the field object F200c, the processor 12 acquires the selected option as information on a person who performs the task together.
The field object F200d is presented with a question "What is the frequency of tasks?" When the slider of the field object F200d is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information on the frequency of the task.
The question "How difficult is the task?" Is presented to the field object F200e. When the slider of the field object F200e is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information on the task difficulty.

操作オブジェクトB200が操作されると、画面P201(図15)に遷移する。   When the operation object B200 is operated, the screen transits to a screen P201 (FIG. 15).

画面P201は、操作オブジェクトB201と、フィールドオブジェクトF201a〜F201bと、を含む。   The screen P201 includes an operation object B201 and field objects F201a to F201b.

フィールドオブジェクトF201a〜F201bには、ステップS201の前に行われた行動に関する質問が提示される。
フィールドオブジェクトF201aには、「直前30分は何をしていた?」という質問が提示される。フィールドオブジェクトF201aの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、チェックインの直前30分間に行っていた行動に関する情報として取得する。
フィールドオブジェクトF201bには、「直前30分はどうだった?」という質問が提示される。フィールドオブジェクトF201bのスライダを移動させると、プロセッサ12は、スライダの位置に応じた数値を、チェックインの直前30分間に行った行動に対する自己評価に関する情報として取得する。
In the field objects F201a to F201b, a question regarding an action performed before step S201 is presented.
The field object F201a is presented with a question "What was you doing in the last 30 minutes?" When an arbitrary option is selected from a plurality of options of the field object F201a, the processor 12 acquires the selected option as information on an action performed 30 minutes immediately before check-in.
The field object F201b is presented with a question "What was the last 30 minutes?" When the slider of the field object F201b is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information relating to self-evaluation of the action performed 30 minutes immediately before check-in.

操作オブジェクトB201が操作されると、画面P202(図16)に遷移する。   When the operation object B201 is operated, the screen transits to a screen P202 (FIG. 16).

画面P202は、操作オブジェクトB202と、フィールドオブジェクトF202a〜F202gと、を含む。   The screen P202 includes an operation object B202 and field objects F202a to F202g.

フィールドオブジェクトF202a〜F202gには、タスクを行う前の主観的感情に関連する質問が提示される。
フィールドオブジェクトF202aには、「空腹度は?」という質問が表示される。フィールドオブジェクトF202aのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、空腹度に関する情報として取得する。
フィールドオブジェクトF202bには、「眠気は?」という質問が表示される。フィールドオブジェクトF202bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、眠気に関する情報として取得する。
フィールドオブジェクトF202cには、「ストレスは?」という質問が表示される。フィールドオブジェクトF202cのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、ストレスに関する情報として取得する。
フィールドオブジェクトF202dには、「前回のタスクは?」という質問が表示される。フィールドオブジェクトF202dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、チェックインの前に行ったタスクに対する自己評価に関する情報として取得する。
フィールドオブジェクトF202eには、「モチベーションは?」という質問が表示される。フィールドオブジェクトF202eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対するモチベーションに関する情報として取得する。
フィールドオブジェクトF202fには、「不安感は?」という質問が表示される。フィールドオブジェクトF202fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する不安感に関する情報として取得する。
フィールドオブジェクトF202gには、「明確度は?」という質問が表示される。フィールドオブジェクトF202gのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する明確度に関する情報として取得する。
In the field objects F202a to F202g, questions related to subjective emotions before performing a task are presented.
In the field object F202a, a question "What is the degree of hunger?" Is displayed. When the slider of the field object F202a is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information on the hunger degree.
The question “Do you sleepy?” Is displayed in the field object F202b. When the slider of the field object F202b is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information about drowsiness.
The question "What is stress?" Is displayed in the field object F202c. When the slider of the field object F202c is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information regarding stress.
The field object F202d displays a question "What was the previous task?" When the slider of the field object F202d is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information related to self-evaluation of a task performed before check-in.
In the field object F202e, a question “What is your motivation?” Is displayed. When the slider of the field object F202e is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information on motivation for the task.
In the field object F202f, a question "What is your anxiety?" Is displayed. When the slider of the field object F202f is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information relating to anxiety about the task.
The question "What is the degree of clarity?" Is displayed in the field object F202g. When the slider of the field object F202g is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information relating to the clarity of the task.

操作オブジェクトB202が操作されると、画面P203(図16)に遷移する。   When the operation object B202 is operated, the screen changes to a screen P203 (FIG. 16).

画面P203は、操作オブジェクトB203と、フィールドオブジェクトF203a〜F203bと、を含む。   The screen P203 includes an operation object B203 and field objects F203a to F203b.

フィールドオブジェクトF203a〜F203bには、タスクを行った後の予定行動に関する質問が提示される。
フィールドオブジェクトF203aには、「タスクの後の行動は?」という質問が提示される。フィールドオブジェクトF203aの複数の選択肢の中から任意の選択肢が選択されると、選択された選択肢を、タスクを行った後の予定行動に関する情報として取得する。
フィールドオブジェクトF203bには、「タスクの後の行動の楽しみ度は?」という質問が提示される。フィールドオブジェクトF203bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの後の行動に対する期待感に関する情報として取得する。
In the field objects F203a to F203b, a question about a scheduled action after performing a task is presented.
In the field object F203a, a question "What is the action after the task?" Is presented. When an arbitrary option is selected from a plurality of options of the field object F203a, the selected option is acquired as information on the scheduled action after performing the task.
In the field object F203b, a question "What is the pleasure of the action after the task?" Is presented. When the slider of the field object F203b is moved, the processor 12 obtains a numerical value corresponding to the position of the slider as information relating to an expectation of an action after the task.

操作オブジェクトB203は、ステップS201の処理を完了させるための指示を受け付けるオブジェクトである。   The operation object B203 is an object that receives an instruction for completing the processing in step S201.

操作オブジェクトB203が操作されると、クライアント装置10のプロセッサ12は、チェックイン完了リクエストデータをサーバ30に送信する。
チェックイン完了リクエストデータは、以下の情報を含む。
・回答を行った被験者の被験者ID
・ステップS201の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF200a〜F200e、F201a〜F201b、F202a〜F202g、及び、F203a〜F203bに入力された情報
When the operation object B203 is operated, the processor 12 of the client device 10 sends check-in completion request data to the server 30.
Check-in completion request data includes the following information.
・ Subject ID of the subject who answered
-Check-in time information indicating the execution date and time of step S201-Information input to field objects F200a to F200e, F201a to F201b, F202a to F202g, and F203a to F203b

サーバ30のプロセッサ32は、チェックインリクエストデータに含まれる被験者IDに関連付けられた被験者流動主観情報データベース(図5)に新規レコードを追加する。   The processor 32 of the server 30 adds a new record to the subject flow subjective information database (FIG. 5) associated with the subject ID included in the check-in request data.

新規レコードの各フィールドには、以下の情報が格納される。
・「データID」フィールドには、新規のデータIDが格納される。
・「チェックイン日時」フィールドには、チェックイン完了リクエストデータに含まれるチェックイン時間情報が格納される。
・「チェックイン回答」フィールドには、チェックイン完了リクエストデータに含まれる回答情報が質問事項毎に格納される。
The following information is stored in each field of the new record.
-A new data ID is stored in the "data ID" field.
-The "check-in date" field stores check-in time information included in the check-in completion request data.
In the "check-in answer" field, answer information included in the check-in completion request data is stored for each question item.

ステップS201の後、チェックアウト(S202)の処理が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P204(図17)をディスプレイに表示する。
After step S201, a check-out (S202) process is executed.
Specifically, processor 12 of client device 10 displays screen P204 (FIG. 17) on the display.

画面P204は、操作オブジェクトB204と、フィールドオブジェクトF204a〜F204fと、を含む。   Screen P204 includes an operation object B204 and field objects F204a to F204f.

フィールドオブジェクトF204a〜F204fには、完了したタスクに関する質問が提示される。
フィールドオブジェクトF204aには、「何をした?」という質問が表示される。フィールドオブジェクトF204aに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、完了したタスクの内容に関する情報として取得する。
フィールドオブジェクトF204bには、「完了度は?」という質問が表示される。フィールドオブジェクトF204bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの完了度に関する情報として取得する。
フィールドオブジェクトF204cには、「何をやり残した?」という質問が表示される。フィールドオブジェクトF204cに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、やり残したタスクの内容に関する情報として取得する。
フィールドオブジェクトF204dには、「タスクの性質は?」という質問が表示される。フィールドオブジェクトF204dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの性質(例えば、作業性と指向性の割合)に関する情報として取得する。
フィールドオブジェクトF204eには、「インプット量は?」という質問が表示される。フィールドオブジェクトF204eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクのインプット量に関する情報として取得する。
フィールドオブジェクトF204fには、「アウトプット量は?」という質問が表示される。フィールドオブジェクトF204fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクのアウトプット量に関する情報として取得する。
Questions relating to completed tasks are presented to the field objects F204a to F204f.
The question "What did you do?" Is displayed in the field object F204a. When any text is input to the field object F204a, the processor 12 acquires the input text as information on the content of the completed task.
In the field object F204b, a question "What is the degree of completion?" Is displayed. When the slider of the field object F204b is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information on the degree of completion of the task.
The question "What did you do?" Is displayed in the field object F204c. When an arbitrary text is input to the field object F204c, the processor 12 acquires the input text as information relating to the content of the task left behind.
The question "What is the nature of the task?" Is displayed in the field object F204d. When the slider of the field object F204d is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information on the nature of the task (for example, the ratio of workability and directivity).
The question "input amount?" Is displayed in the field object F204e. When the slider of the field object F204e is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information on the input amount of the task.
The question "What is the output amount?" Is displayed in the field object F204f. When the slider of the field object F204f is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information on the output amount of the task.

操作オブジェクトB204が操作されると、画面P205に遷移する。   When the operation object B204 is operated, the screen transitions to a screen P205.

画面P205は、操作オブジェクトB205と、フィールドオブジェクトF205a〜F205fと、を含む。   The screen P205 includes an operation object B205 and field objects F205a to F205f.

フィールドオブジェクトF205aには、「今の気分は?」という質問が表示される。フィールドオブジェクトF205aの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、タスクを完了した後の気分に関する情報として取得する。
フィールドオブジェクトF205bには、「モヤモヤ感は?」という質問が表示される。フィールドオブジェクトF205bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対するモヤモヤ感に関する情報として取得する。
フィールドオブジェクトF205cには、「達成感は?」という質問が表示される。フィールドオブジェクトF205cのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する達成感に関する情報として取得する。
フィールドオブジェクトF205dには、「集中度は?」という質問が表示される。フィールドオブジェクトF205dのスライダを移動させると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する集中度に関する情報として取得する。
フィールドオブジェクトF205eには、「満足度は?」という質問が表示される。フィールドオブジェクトF205eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する満足度に関する情報として取得する。
フィールドオブジェクトF205fには、「疲労感は?」という質問が表示される。フィールドオブジェクトF205fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する疲労感に関する情報として取得する。
The question "How do you feel now?" Is displayed in the field object F205a. When an arbitrary option is selected from the plurality of options of the field object F205a, the processor 12 acquires the selected option as information on mood after completing the task.
In the field object F205b, a question "What is the feeling of frustration?" Is displayed. When the slider of the field object F205b is moved, the processor 12 obtains a numerical value corresponding to the position of the slider as information on the feeling of the task feeling.
In the field object F205c, a question "What is your sense of accomplishment?" Is displayed. When the slider of the field object F205c is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information on a sense of accomplishment for the task.
The question "What is the degree of concentration?" Is displayed in the field object F205d. When the slider of the field object F205d is moved, the processor 12 acquires a numerical value according to the position of the slider as information on the degree of concentration on the task.
In the field object F205e, a question "What is the degree of satisfaction?" Is displayed. When the slider of the field object F205e is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information on the degree of satisfaction with the task.
In the field object F205f, a question "How tired?" Is displayed. When the slider of the field object F205f is moved, the processor 12 acquires a numerical value corresponding to the position of the slider as information on the feeling of fatigue for the task.

操作オブジェクトB205は、ステップS202の処理を完了させるための指示を受け付けるオブジェクトである。   The operation object B205 is an object that receives an instruction for completing the processing in step S202.

操作オブジェクトB205が操作されると、クライアント装置10のプロセッサ12は、チェックアウト完了リクエストデータをサーバ30に送信する。
チェックアウト完了リクエストデータは、以下の情報を含む。
・回答を行った被験者の被験者ID
・ステップS202の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF204a〜F204f、及び、F205a〜F205fに入力された情報
When the operation object B205 is operated, the processor 12 of the client device 10 transmits checkout completion request data to the server 30.
Checkout completion request data includes the following information.
・ Subject ID of the subject who answered
-Check-in time information indicating the execution date and time of step S202-Information input to field objects F204a to F204f and F205a to F205f

サーバ30のプロセッサ32は、チェックアウトリクエストデータに含まれる被験者IDに関連付けられた被験者流動主観情報データベース(図5)を特定する。
プロセッサ32は、特定した被験者流動主観情報データベースにおいて、「チェックイン日時」フィールドの情報が最も新しい日時を示す最新レコード(つまり、ステップS201で追加された新規レコード)を特定する。
The processor 32 of the server 30 specifies the subject flow subjective information database (FIG. 5) associated with the subject ID included in the checkout request data.
The processor 32 specifies the latest record (that is, the new record added in step S201) indicating the latest date and time in the information of the “check-in date and time” field in the specified subject flow subjective information database.

最新レコードの各フィールドには、以下の情報が格納される。
・「チェックアウト日時」フィールドには、チェックアウト完了リクエストデータに含まれるチェックアウト時間情報が格納される。
・「チェックアウト回答」フィールドには、チェックアウト完了リクエストデータに含まれる回答情報が質問事項毎に格納される。
The following information is stored in each field of the latest record.
The “checkout date and time” field stores checkout time information included in the checkout completion request data.
In the "checkout answer" field, answer information included in the checkout completion request data is stored for each question item.

(4−3)ユーザ情報の登録の処理
本実施形態のユーザ情報の登録の処理について説明する。図18は、図10のユーザ情報の登録の処理(OP3)の処理のシーケンス図である。図19は、図18の情報処理において表示される画面例を示す図である。
(4-3) User Information Registration Process The user information registration process according to the present embodiment will be described. FIG. 18 is a sequence diagram of the user information registration process (OP3) in FIG. FIG. 19 is a diagram showing an example of a screen displayed in the information processing of FIG.

図18に示すように、ユーザ情報の登録(S300)が実行される。
具体的には、クライアント装置10のプロセッサ12は、画面P300(図19)をディスプレイに表示する。
As shown in FIG. 18, registration of user information (S300) is executed.
Specifically, processor 12 of client device 10 displays screen P300 (FIG. 19) on the display.

画面P300は、操作オブジェクトB300と、フィールドオブジェクトF300と、を含む。
フィールドオブジェクトF300は、ユーザ情報(例えば、ユーザ名、性別、年齢、及び、職業)の入力を受け付けるオブジェクトである。
操作オブジェクトB300は、フィールドオブジェクトF300に入力された情報をサーバ30に送信させるための指示を受け付けるオブジェクトである。
Screen P300 includes an operation object B300 and a field object F300.
The field object F300 is an object that receives input of user information (for example, user name, gender, age, and occupation).
The operation object B300 is an object that receives an instruction to cause the server 30 to transmit information input to the field object F300.

ユーザがフィールドオブジェクトF300にユーザ情報を入力し、且つ、操作オブジェクトB300を操作すると、プロセッサ12は、ユーザ情報登録リクエストデータをサーバ30に送信する。ユーザ情報登録リクエストデータは、フィールドオブジェクトF300に入力された情報を含む。   When the user inputs user information to the field object F300 and operates the operation object B300, the processor 12 transmits user information registration request data to the server 30. The user information registration request data includes the information input to the field object F300.

サーバ30のプロセッサ32は、ユーザ情報データベース(図7)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「ユーザID」フィールドには、新規のユーザIDが格納される。
・「ユーザ名」フィールド及び「ユーザ属性」フィールドには、ユーザ情報登録リクエストデータに含まれる情報(つまり、フィールドオブジェクトF300に入力された情報)が格納される。
The processor 32 of the server 30 adds a new record to the user information database (FIG. 7).
The following information is stored in each field of the new record.
-The "user ID" field stores a new user ID.
In the “user name” field and the “user attribute” field, information included in the user information registration request data (that is, information input to the field object F300) is stored.

ステップS300の後、初回Q&Aテスト(S301)が実行される。
ステップS301は、以下の点において、図11のステップS101とは異なる。
・サーバ30のプロセッサ32は、ステップS300で追加した新規レコードの「固着主観」フィールドに、更新リクエストデータに含まれる情報(つまり、ユーザの性格タイプに関する情報)を格納する。
After step S300, an initial Q & A test (S301) is performed.
Step S301 differs from step S101 in FIG. 11 in the following points.
The processor 32 of the server 30 stores information included in the update request data (that is, information on the personality type of the user) in the “stickiness subject” field of the new record added in step S300.

ステップS301の後、サブリミナルテスト(S302)が実行される。
ステップS302は、以下の点において、図11のステップS102とは異なる。
・サーバ30のプロセッサ32は、ステップS300で追加した新規レコードの「固着間接客観」フィールドに、更新リクエストデータに含まれる情報(つまり、ユーザの画像オブジェクトIMG105a〜IMG105bに対する反応時間に関する情報)を格納する。
After step S301, a subliminal test (S302) is performed.
Step S302 differs from step S102 in FIG. 11 in the following points.
The processor 32 of the server 30 stores information included in the update request data (that is, information on the reaction time of the user with respect to the image objects IMG105a to IMG105b) in the “sticky indirect objective” field of the new record added in step S300. .

(4−4)ユーザ流動情報の登録
本実施形態のユーザ流動情報の登録(OP4)の処理について説明する。図20は、図10のユーザ流動情報の登録の処理のシーケンス図である。
(4-4) Registration of User Flow Information The process of registering user flow information (OP4) of the present embodiment will be described. FIG. 20 is a sequence diagram of the process of registering the user flow information of FIG.

図20に示すように、ウェアラブル情報の取得(S400)が実行される。
クライアント装置10のプロセッサ12は、ユーザが装着したウェアラブルデバイスから、ウェアラブル情報(例えば、歩数、脈拍、及び、心拍数の少なくとも1つ)を取得する。
プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・ウェアラブルデバイスを装着したユーザのユーザID
・ウェアラブル情報
・ステップS400の実行日時に関する情報
As shown in FIG. 20, the acquisition of wearable information (S400) is performed.
The processor 12 of the client device 10 acquires wearable information (for example, at least one of the number of steps, the pulse, and the heart rate) from the wearable device worn by the user.
The processor 12 sends the update request data to the server 30. The update request data includes the following information.
・ User ID of the user wearing the wearable device
-Wearable information-Information on the execution date and time of step S400

サーバ30のプロセッサ32は、更新リクエストデータに含まれるユーザIDに関連付けられたユーザ流動間接客観情報データベース(図9)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「データID」フィールドには、新規データIDが格納される。
・「測定日時」フィールドには、更新リクエストデータに含まれる実行日時に関する情報が格納される。
・「ウェアラブル」フィールドには、更新リクエストデータに含まれるウェアラブル情報が格納される。
The processor 32 of the server 30 adds a new record to the user flow indirect objective information database (FIG. 9) associated with the user ID included in the update request data.
The following information is stored in each field of the new record.
-The new data ID is stored in the "data ID" field.
-The "measurement date" field stores information on the execution date and time included in the update request data.
-The "wearable" field stores wearable information included in the update request data.

ステップS400の後、チェックイン(S401)が実行される。
ステップS401は、チェックイン完了リクエストデータが以下の情報を含む点において、図14のステップS201と異なる。
・回答を行ったユーザのユーザID
・ステップS401の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF200a〜F200e、F201a〜F201b、F202a〜F202g、及び、F203a〜F203bに入力された情報
After step S400, check-in (S401) is performed.
Step S401 differs from step S201 in FIG. 14 in that the check-in completion request data includes the following information.
・ User ID of the user who answered
-Check-in time information indicating the execution date and time of step S401-Information input to field objects F200a to F200e, F201a to F201b, F202a to F202g, and F203a to F203b

ステップS401の後、チェックアウト(S402)が実行される。
ステップS402は、チェックアウト完了リクエストデータが以下の情報を含む点において、図14のステップS202と異なる。
・回答を行ったユーザのユーザID
・ステップS402の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF204a〜F204f、及び、F205a〜F205fに入力された情報
After step S401, check out (S402) is performed.
Step S402 differs from step S202 in FIG. 14 in that the checkout completion request data includes the following information.
・ User ID of the user who answered
-Check-in time information indicating the execution date and time of step S402-Information input to field objects F204a to F204f and F205a to F205f

(4−5)感情の可視化の処理
本実施形態の感情の可視化(OP5)の処理について説明する。図21は、図11の感情の可視化の処理のフローチャートである。図22は、図21の情報処理において表示される画面例を示す図である。
(4-5) Emotion Visualization Processing The emotion visualization (OP5) processing of the present embodiment will be described. FIG. 21 is a flowchart of the emotion visualization process of FIG. FIG. 22 is a diagram showing an example of a screen displayed in the information processing of FIG.

図21に示すように、対象ユーザ情報の決定(S500)が実行される。
具体的には、クライアント装置10のプロセッサ12は、可視化する感情の対象となる対象ユーザのユーザID(以下「対象ユーザID」という)を取得する。
プロセッサ12は、参照リクエストデータをサーバ30に送信する。参照リエクストデータは、対象ユーザIDを含む。
As shown in FIG. 21, the target user information is determined (S500).
Specifically, the processor 12 of the client device 10 acquires the user ID (hereinafter, referred to as “target user ID”) of the target user who is the target of the emotion to be visualized.
The processor 12 transmits the reference request data to the server 30. The reference re-ext data includes the target user ID.

ステップS500の第1例として、サーバ30のプロセッサ32は、ユーザ情報データベース(図7)を参照して、参照リクエストデータに含まれる対象ユーザIDに関連付けられたレコードの「ユーザ属性」フィールドの情報、「固着主観」フィールドの情報、及び、「固着間接客観」フィールドの情報を特定する。   As a first example of step S500, the processor 32 of the server 30 refers to the user information database (FIG. 7), and obtains information of a “user attribute” field of a record associated with the target user ID included in the reference request data; The information in the “fixed subjectivity” field and the information in the “fixed indirect objective” field are specified.

ステップS500の第2例として、サーバ30のプロセッサ32は、参照リクエストデータに含まれる対象ユーザIDに関連付けられたユーザ流動主観情報データベース(図8)の各フィールドの情報を特定する。   As a second example of Step S500, the processor 32 of the server 30 specifies information of each field of the user flow subjective information database (FIG. 8) associated with the target user ID included in the reference request data.

ステップS500の第3例として、サーバ30のプロセッサ32は、参照リクエストデータに含まれる対象ユーザIDに関連付けられたユーザ流動間接客観情報データベース(図9)の各フィールドの情報を特定する。   As a third example of Step S500, the processor 32 of the server 30 specifies information of each field of the user flow indirect objective information database (FIG. 9) associated with the target user ID included in the reference request data.

ステップS500の第4例として、サーバ30のプロセッサ32は、上記第1例〜第3例の一部又は全部を組み合わせる。   As a fourth example of step S500, the processor 32 of the server 30 combines some or all of the first to third examples.

ステップS500の後、基準被験者IDの決定(S501)が実行される。
ステップS501では、以下の方法により、少なくとも1つの基準被験者IDが特定される。
After step S500, a reference subject ID is determined (S501).
In step S501, at least one reference subject ID is specified by the following method.

ステップS501の第1例として、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS500で特定した「ユーザ属性」フィールドの情報と同一又は近似の情報に関連付けられた被験者ID(つまり、ユーザ属性について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた性別と同一の性別に関連付けられた被験者ID
・対象ユーザIDに関連付けられた年齢との差が所定範囲内である年齢に関連付けられた被験者ID
・対象ユーザIDに関連付けられた職業と同一の職業に関連付けられた被験者ID
As a first example of step S501, the processor 32 of the server 30 refers to the subject information database (FIG. 4) and associates the subject associated with the same or similar information as the information of the “user attribute” field specified in step S500. An ID (that is, a subject whose user attribute is the same as or similar to the target user) is specified. For example, the processor 32 specifies the following subject ID.
・ Subject ID associated with the same gender as the gender associated with the target user ID
A subject ID associated with an age whose difference from the age associated with the target user ID is within a predetermined range
・ Subject ID associated with the same occupation as the occupation associated with the target user ID

ステップS501の第2例として、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS500で特定した「固着主観」フィールドの情報と同一又は近似の被験者固着主観情報に関連付けられた被験者ID(つまり、固着主観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報と同一の被験者固着主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報との差が所定範囲内である被験者固着主観情報に関連付けられた被験者ID
As a second example of step S501, the processor 32 of the server 30 refers to the subject information database (FIG. 4) and associates it with the subject fixation subjective information that is the same as or similar to the information of the “fixation subjectivity” field specified in step S500. The identified subject ID (that is, the subject who is the same as or similar to the target user with respect to the fixed subjective information) is specified. For example, the processor 32 specifies the following subject ID.
The subject ID associated with the same subject fixation subjective information as the information in the “fixation subjectivity” field associated with the target user ID
A subject ID associated with subject fixation subjective information whose difference from the information in the “fixation subjectivity” field associated with the target user ID is within a predetermined range;

ステップS501の第3例として、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS500で特定した「固着間接客観」フィールドの情報と同一又は近似の被験者固着間接客観情報に関連付けられた被験者ID(つまり、固着間接客観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報と同一の被験者固着間接客観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報との差が所定範囲内である被験者固着間接客観情報に関連付けられた被験者ID
As a third example of step S501, the processor 32 of the server 30 refers to the subject information database (FIG. 4), and has the same or similar subject fixed indirect objective information as the information in the “fixed indirect objective” field specified in step S500. (That is, the same or similar subject as the target user with respect to the fixed indirect objective information). For example, the processor 32 specifies the following subject ID.
The subject ID associated with the same subject fixed indirect objective information as the information in the “sticky indirect objective” field associated with the target user ID
The subject ID associated with the subject fixed indirect objective information whose difference from the information in the “fixed indirect objective” field associated with the target user ID is within a predetermined range

ステップS501の第4例として、サーバ30のプロセッサ32は、被験者流動主観情報データベース(図5)を参照して、ステップS500で特定したユーザ流動主観情報データベース(図8)の情報と同一又は近似の被験者流動主観情報に関連付けられた被験者ID(つまり、流動主観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックイン日時」フィールドの情報が最も新しいレコードの「チェックイン回答」フィールドの情報と同一又は近似の被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックアウト日時」フィールドの情報が最も新しいレコードの「チェックアウト回答」フィールドの情報と同一又は近似の被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックイン日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「チェックイン回答」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックアウト日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「チェックアウト回答」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動主観情報に関連付けられた被験者ID
As a fourth example of step S501, the processor 32 of the server 30 refers to the subject flow subjective information database (FIG. 5), and has the same or similar information as the information of the user flow subjective information database (FIG. 8) specified in step S500. The subject ID associated with the subject flow subjective information (that is, the subject who is the same as or similar to the target user for the flow subject information) is specified. For example, the processor 32 specifies the following subject ID.
-Of the information in the user flow subjective information database associated with the target user ID, the information in the "check-in date" field is associated with the subject's flow subjective information that is the same as or similar to the information in the "check-in response" field of the most recent record Subject ID
-Of the information in the user flow subjective information database associated with the target user ID, the information in the "checkout date" field is associated with the subject's flow subjective information that is the same as or similar to the information in the "checkout answer" field of the most recent record Subject ID
-In the information of the user flow subjective information database associated with the target user ID, the information of the "check-in date" field is the information of the "check-in response" field of a plurality of records corresponding to a predetermined period (for example, the past month). Subject ID associated with subject flow subjective information having the same or similar tendency as the information tendency
-In the information of the user flow subjective information database associated with the target user ID, the information of the "checkout date" field is the information of the "checkout answer" field of a plurality of records corresponding to a predetermined period (for example, the past month). Subject ID associated with subject flow subjective information having the same or similar tendency as the information tendency

ステップS501の第5例として、サーバ30のプロセッサ32は、被験者流動間接客観情報データベース(図6)を参照して、ステップS500で特定したユーザ流動間接客観情報データベース(図9)の情報と同一又は近似の被験者流動間接客観情報に関連付けられた被験者ID(つまり、流動間接客観情報について、対象ユーザと同一又は近似の被験者)を特定する。例えば、プロセッサ32は、以下の被験者IDを特定する。
・対象ユーザIDに関連付けられた「測定日時」フィールドの情報が最も新しいレコードの「ウェアラブル」フィールドの情報と同一又は近似の被験者流動間接客観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「測定日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「ウェアラブル」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動間接客観情報に関連付けられた被験者ID
As a fifth example of step S501, the processor 32 of the server 30 refers to the subject flow indirect objective information database (FIG. 6), and is the same as or similar to the information in the user flow indirect objective information database (FIG. 9) specified in step S500. The subject ID associated with the approximate subject flow indirect objective information (that is, the subject who is the same as or similar to the target user in the flow indirect objective information) is specified. For example, the processor 32 specifies the following subject ID.
-The subject ID associated with the subject flow indirect objective information in which the information in the "measurement date" field associated with the target user ID is the same as or similar to the information in the "wearable" field of the newest record
A subject flow in which the information in the “measurement date and time” field associated with the target user ID has the same or similar tendency as the information in the “wearable” field of a plurality of records corresponding to a predetermined period (for example, the past month). Subject ID associated with indirect objective information

ステップS501の第6例として、第1例〜第5例の少なくとも2つの組合せである。組合せの数が多いほど、対象ユーザとの類似度の高い被験者の被験者IDが基準被験者IDとして特定される。これにより、後述のユーザ感情情報の推定(S502)における推定精度が向上する。   A sixth example of Step S501 is a combination of at least two of the first to fifth examples. As the number of combinations increases, the subject ID of a subject having a high degree of similarity to the target user is specified as the reference subject ID. This improves the estimation accuracy in estimating user emotion information (S502) described later.

ステップS501の後、ユーザ感情情報の推定(S502)が実行される。   After step S501, estimation of user emotion information (S502) is performed.

具体的には、サーバ30のプロセッサ32は、被験者情報データベース(図4)を参照して、ステップS501で特定した少なくとも1つの基準被験者IDに関連付けられた「直接客観」フィールドの情報(つまり、脳活動パラメータ及び血流動態反応パラメータ)を特定する。
プロセッサ32は、対象ユーザIDに関連付けられたユーザ流動主観情報(図8)の「チェックイン回答」フィールド、及び、「チェックアウト回答」フィールドの情報(つまり、対象ユーザの流動主観情報)を特定する。
プロセッサ43は、対象ユーザIDに関連付けられたユーザ流動間接客観情報(図9)の「ウェアラブル」フィールドの情報(つまり、対象ユーザの流動間接客観情報)を特定する。
記憶装置31には、脳活動パラメータ、血流動態反応パラメータ、流動主観情報、及び、流動間接客観情報と、感情コンディションとの推論モデルが構築されている。感情コンディションとは、脳の解剖学的な位置、伝達物質、受容体の発現、及び、時間を含む様々な要素に基づいて決定される神経科学上の感情の種類毎のレベルである。
プロセッサ32は、記憶装置31に記憶された推論モデルを用いて、対象ユーザの脳活動パラメータ、血流動態反応パラメータ、流動主観情報、及び、流動間接客観情報から、対象ユーザの感情コンディションを決定する。
感情の種類は、例えば、以下の少なくとも1つである。
・楽しみ
・不安
・緊張
Specifically, the processor 32 of the server 30 refers to the subject information database (FIG. 4), and refers to the information (that is, the brain) of the “direct objective” field associated with at least one reference subject ID specified in step S501. Activity parameters and hemodynamic response parameters).
The processor 32 specifies information in the “check-in response” field and the “check-out response” field of the user flow subjective information (FIG. 8) associated with the target user ID (that is, the flow subjective information of the target user). .
The processor 43 specifies the information of the “wearable” field of the user flow indirect objective information (FIG. 9) associated with the target user ID (that is, the flow indirect objective information of the target user).
In the storage device 31, an inference model of a brain activity parameter, a blood flow dynamic response parameter, flow subjective information, flow indirect objective information, and an emotional condition is constructed. The emotional condition is a level for each type of emotional neuroscience determined based on various factors including the anatomical position of the brain, the expression of a transmitter, a receptor, and time.
The processor 32 uses the inference model stored in the storage device 31 to determine the emotional condition of the target user from the brain activity parameter, the blood flow dynamic response parameter, the flow subjective information, and the flow indirect objective information of the target user. .
The type of emotion is, for example, at least one of the following.
・ Pleasure ・ Anxiety ・ Tension

サーバ30のプロセッサ32は、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「固着主観」フィールドの情報(つまり、対象ユーザの固着主観情報)及び「固着間接客観」フィールドの情報(つまり、対象ユーザの固着間接客観情報)を特定する。
プロセッサ32は、対象ユーザIDに関連付けられたユーザ流動間接客観情報データベース(図9)の「ウェアラブル」フィールドの情報(つまり、対象ユーザの流動間接客観情報)を特定する。
記憶装置31には、固着主観情報、固着間接客観情報、及び、流動間接客観情報と、感情傾向との相関正に関する推論モデルが構築されている。
プロセッサ32は、記憶装置31に記憶された推論モデルを用いて、対象ユーザの固着主観情報、固着間接客観情報、及び、流動間接客観情報から、対象ユーザの感情傾向を決定する。
感情傾向は、例えば、以下の少なくとも1つを含む。
・副交感神経に対する交感神経の優位度
・交感神経に対する副交感神経の優位度
・ストレス反応度
・ストレス耐性度
・扁桃体の活性度
・サリエンスネットワークの活用度
The processor 32 of the server 30 refers to the user information database (FIG. 7) and refers to the information of the “fixed subjectivity” field associated with the target user ID (that is, the fixed fixation subjective information of the target user) and the “fixed indirect objective” field. (That is, the fixed indirect objective information of the target user) is specified.
The processor 32 specifies the information of the “wearable” field of the user flow indirect objective information database (FIG. 9) associated with the target user ID (that is, the flow indirect objective information of the target user).
In the storage device 31, an inference model relating to the correlation between the sticky subjective information, the sticky indirect objective information, and the flow indirect objective information and the emotion tendency is constructed.
The processor 32 uses the inference model stored in the storage device 31 to determine the emotional tendency of the target user from the fixed subjective information, the fixed indirect objective information, and the fluid indirect objective information of the target user.
The emotion tendency includes, for example, at least one of the following.
・ Sympathetic superiority to parasympathetic nerve ・ Parasympathetic superiority to sympathetic nerve ・ Stress responsiveness ・ Stress tolerance ・ Amygdala activity ・ Salience network utilization

サーバ30のプロセッサ32は、被験者情報データベース(図4)、被験者流動主観情報データベース(図5)、及び、被験者流動間接客観情報データベース(図6)と、対象ユーザIDに関連付けられたユーザ流動主観情報(図8)及びユーザ流動間接客観情報データベース(図9)と、感情コンディションと、感情傾向と、を対比することにより、感情因子を決定する。
感情因子は、例えば、以下の少なくとも1つを含む。
・ユーザの行動(一例として、運動、仕事、勉強、又は、読書)
・ユーザの外的要因(一例として、天候、又は、温湿度)
・ユーザの対人要因(一例として、自他、親近感、関係性、好き嫌いのレベル、又は、接触頻度)
・ユーザの対物要因(一例として、親近感、関係性、好き嫌い度合い、接触頻度など)
・ユーザの環境要因(一例として、場所、天気、湿度、二酸化炭素濃度、気圧、又は、雨量)
・ユーザのコンディション要因(一例として、睡眠状態、又は、食事状態)
The processor 32 of the server 30 includes the subject information database (FIG. 4), the subject flow subjective information database (FIG. 5), the subject flow indirect objective information database (FIG. 6), and the user flow subjective information associated with the target user ID. The emotion factor is determined by comparing (FIG. 8) and the user flow indirect objective information database (FIG. 9) with the emotion condition and the emotion tendency.
The emotion factor includes, for example, at least one of the following.
-User behavior (eg, exercise, work, study, or reading)
-External factors of the user (for example, weather or temperature and humidity)
・ Interpersonal factors of the user (for example, self / other, affinity, relationship, level of likes / dislikes, or contact frequency)
-User objective factors (for example, closeness, relationship, likes and dislikes, contact frequency, etc.)
-Environmental factors of the user (for example, location, weather, humidity, carbon dioxide concentration, atmospheric pressure, or rainfall)
・ Condition factors of the user (for example, sleeping state or eating state)

ステップS502の後、ユーザ感情情報の提示(S503)が実行される。
具体的には、サーバ30のプロセッサ32は、ステップS502で推定されたユーザ感情情報をクライアント装置10に送信する。
クライアント装置10のプロセッサ12は、ユーザ感情情報に基づいて、画面P500(図22)をディスプレイに表示する。
After step S502, presentation of user emotion information (S503) is performed.
Specifically, the processor 32 of the server 30 transmits the user emotion information estimated in step S502 to the client device 10.
Processor 12 of client device 10 displays screen P500 (FIG. 22) on the display based on the user emotion information.

画面P500は、表示オブジェクトA500a〜A500cを含む。
表示オブジェクトA500aには、感情コンディションが表示される。感情コンディションは、例えば、感情の種類(例えば、楽しみ、不安、及び、緊張)毎のレベルである。
表示オブジェクトA500bには、感情傾向が表示される。
表示オブジェクトA500cには、感情因子が表示される。
Screen P500 includes display objects A500a to A500c.
The emotional condition is displayed on the display object A500a. The emotion condition is, for example, a level for each type of emotion (for example, enjoyment, anxiety, and tension).
An emotional tendency is displayed on the display object A500b.
An emotion factor is displayed on the display object A500c.

本実施形態によれば、MRI検査を受けた被験者に関連付けられた直接客観情報、被験者主観情報、及び、被験者間接客観情報によって構築された推論モデルを用いて、MRI検査を受けていないユーザに関連付けられたユーザ主観情報及びユーザ間接客観情報から、ユーザ感情情報を推定する。これにより、MRI検査を受けていないユーザの感情の推定の精度を向上させることができる。   According to the present embodiment, using an inference model constructed based on direct objective information, subject subjective information, and subject indirect objective information associated with a subject who has undergone an MRI examination, the user is associated with a user who has not undergone an MRI examination. User emotion information is estimated from the obtained user subjective information and user indirect objective information. As a result, it is possible to improve the accuracy of estimating the emotion of the user who has not undergone the MRI examination.

(5)変形例
本実施形態の変形例について説明する。
(5) Modification A modification of the present embodiment will be described.

(5−1)ユーザ感情情報データベース
変形例のユーザ感情情報データベースについて説明する。図23は、変形例のユーザ感情情報データベースのデータ構造を示す図である。
(5-1) User emotion information database A user emotion information database of a modification will be described. FIG. 23 is a diagram illustrating a data structure of a user emotion information database according to a modification.

図23のユーザ感情情報データベースには、ステップS502(図21)で推定されたユーザ感情情報が格納される。
ユーザ感情情報データベースは、「データID」フィールドと、「判定日時」フィールドと、「感情」フィールドと、を含む。
ユーザ感情情報データベースは、ユーザIDに関連付けられる。
The user emotion information database of FIG. 23 stores the user emotion information estimated in step S502 (FIG. 21).
The user emotion information database includes a “data ID” field, a “judgment date” field, and an “emotion” field.
The user emotion information database is associated with the user ID.

「データID」フィールドには、ユーザ感情情報データベースのレコードを識別するデータIDが格納される。   The “data ID” field stores a data ID for identifying a record in the user emotion information database.

「判定日時」フィールドには、ステップS502の実行日時に関する情報が格納される。   Information regarding the date and time of execution of step S502 is stored in the “determination date and time” field.

「感情」フィールドには、ステップS502の処理結果が格納される。
「感情」フィールドは、「感情コンディション」フィールドと、「感情傾向」フィールドと、「感情因子」フィールドと、を含む。
The processing result of step S502 is stored in the “emotion” field.
The “emotion” field includes an “emotional condition” field, an “emotional tendency” field, and an “emotional factor” field.

「感情コンディション」フィールドには、感情コンディションに関する情報が格納される。   In the “emotional condition” field, information on the emotional condition is stored.

「感情傾向」フィールドには、感情傾向に関する情報が格納される。   The “emotional tendency” field stores information about the emotional tendency.

「感情因子」フィールドには、感情因子に関する情報が格納される。   The information about the emotion factor is stored in the “emotional factor” field.

(5−2)感情の可視化の処理
変形例の感情の可視化の処理(OP5)について説明する。図24は、変形例の感情の可視化の処理のフローチャートである。
(5-2) Emotion Visualization Processing The emotion visualization processing (OP5) of the modified example will be described. FIG. 24 is a flowchart of a process of visualizing emotions according to a modification.

図24に示すように、変形例の感情の可視化の処理(OP5)は、基準ユーザIDの決定(S510)を含む点において、本実施形態の感情の可視化の処理(図21)とは異なる。   As shown in FIG. 24, the emotion visualization process (OP5) of the modification is different from the emotion visualization process (FIG. 21) of the present embodiment in that it includes determination of a reference user ID (S510).

ステップS501の後、基準ユーザIDの決定(S510)が実行される。
具体的には、サーバ30のプロセッサ32は、ステップS500で決定した対象ユーザ情報に基づいて、基準ユーザの基準ユーザIDを決定する。
After step S501, a reference user ID is determined (S510).
Specifically, the processor 32 of the server 30 determines the reference user ID of the reference user based on the target user information determined in step S500.

ステップS510の第1例として、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「ユーザ属性」フィールドの情報を特定する。
プロセッサ32は、ユーザ情報データベースを参照して、対象ユーザ以外のユーザの非対称ユーザIDに関連付けられた「ユーザ属性」フィールドを参照して、対象ユーザIDに関連付けられた「ユーザ属性」フィールドの情報と同一又は近似の情報を含むレコードを特定する。
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
As a first example of step S510, the information of the “user attribute” field associated with the target user ID is specified with reference to the user information database (FIG. 7).
The processor 32 refers to the user information database, refers to the “user attribute” field associated with the asymmetric user ID of a user other than the target user, and obtains information of the “user attribute” field associated with the target user ID. Identify records that contain the same or similar information.
The processor 32 determines the user ID of the specified record as the reference user ID.

ステップS510の第2例として、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「固着主観」フィールドの情報を特定する。
プロセッサ32は、ユーザ情報データベースを参照して、非対象ユーザIDに関連付けられた「固着主観」フィールドを参照して、対象ユーザIDに関連付けられた「固着主観」フィールドの情報と所定関係にある情報を含むレコードを特定する。
所定関係とは、以下の何れかの関係である。
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報と、非対称ユーザIDに関連付けられた「固着主観」フィールドの情報とが同一である関係
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報、及び、非対称ユーザIDに関連付けられた「固着主観」フィールドの情報が、予め定められた組合せ(例えば、相性が良い組合せ、又は、相性が悪い組合せ)である関係
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
As a second example of step S510, referring to the user information database (FIG. 7), the information of the "fixed subjectivity" field associated with the target user ID is specified.
The processor 32 refers to the user information database, refers to the “fixed subjectivity” field associated with the non-target user ID, and obtains information having a predetermined relationship with the information in the “fixed subjectivity” field associated with the target user ID. Identify records that contain.
The predetermined relationship is any of the following relationships.
A relationship in which the information in the “sticky subject” field associated with the target user ID is the same as the information in the “sticky subjective” field associated with the asymmetric user ID; and the “sticky subjective” field associated with the target user ID. And the information in the “sticky subjectivity” field associated with the asymmetric user ID is a predetermined combination (for example, a combination that has good compatibility or a combination that has poor compatibility). The processor 32 specifies The user ID of the record is determined as a reference user ID.

ステップS510の第3例として、ユーザ情報データベース(図7)を参照して、対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報を特定する。
プロセッサ32は、ユーザ情報データベースを参照して、非対象ユーザIDに関連付けられた「固着間接客観」フィールドを参照して、対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報と同一又は近似の情報を含むレコードを特定する。
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
As a third example of step S510, the information of the “fixed indirect objective” field associated with the target user ID is specified with reference to the user information database (FIG. 7).
The processor 32 refers to the user information database, refers to the “sticky indirect objective” field associated with the non-target user ID, and is the same as or similar to the information in the “sticky indirect objective” field associated with the target user ID. Identify the record that contains the information.
The processor 32 determines the user ID of the specified record as the reference user ID.

ステップS510の第4例として、ユーザ流動主観情報データベース(図8)を参照して、非対象ユーザIDの中から、対象ユーザIDに関連付けられたユーザ流動主観情報と同一又は類似のユーザ流動主観情報に関連付けられた非対称ユーザIDを、基準ユーザIDとして特定する。   As a fourth example of step S510, referring to the user flow subjective information database (FIG. 8), the user flow subjective information that is the same as or similar to the user flow subjective information associated with the target user ID is selected from the non-target user IDs. Is identified as the reference user ID.

ステップS510の第5例として、ユーザ流動間接客観情報データベース(図9)を参照して、非対象ユーザIDの中から、対象ユーザIDに関連付けられたユーザ流動間接情報と同一又は類似のユーザ流動間接情報に関連付けられた非対称ユーザIDを、基準ユーザIDとして特定する。   As a fifth example of step S510, referring to the user flow indirect objective information database (FIG. 9), from among the non-target user IDs, the same or similar user flow indirect information as the user flow indirect information associated with the target user ID is used. The asymmetric user ID associated with the information is specified as a reference user ID.

ステップS510の後、ユーザ感情情報の推定(S502)が実行される。
具体的には、記憶装置31には、更に、以下の少なくとも1つの推論モデルが構築されている。
・ユーザ属性情報とユーザ感情情報の推論モデル
・ユーザ固着主観情報とユーザ感情情報の推論モデル
・ユーザ固着間接客観情報とユーザ感情情報の推論モデル
・ユーザ流動主観情報とユーザ感情情報のユーザ推論モデル
・ユーザ流動間接客観情報とユーザ感情情報のユーザ推論モデル
After step S510, estimation of user emotion information (S502) is performed.
Specifically, the storage device 31 is further configured with at least one inference model described below.
・ Inference model of user attribute information and user emotion information ・ Inference model of user fixation subjective information and user emotion information ・ Inference model of user fixation indirect objective information and user emotion information ・ User inference model of user flow subjective information and user emotion information ・User inference model of user flow indirect objective information and user emotion information

サーバ30のプロセッサ32は、記憶装置31に記憶された推論モデル、及び、ユーザ推論モデルを用いて、ユーザ感情情報を推定する。   The processor 32 of the server 30 estimates user emotion information using the inference model stored in the storage device 31 and the user inference model.

変形例によれば、被験者の情報だけでなく、対象ユーザ以外の基準ユーザの情報も参照して、ユーザ感情情報を推定する。これにより、対象ユーザの感情の推定精度を向上させることができる。   According to the modification, the user emotion information is estimated with reference to not only the information of the subject but also the information of the reference user other than the target user. Thereby, the estimation accuracy of the emotion of the target user can be improved.

(6)本実施形態の小括
本実施形態について小括する。
(6) Summary of this Embodiment This embodiment will be summarized.

本実施形態の第1態様は、
ユーザの感情を推定する情報処理装置(例えば、サーバ30)であって、
被験者の客観的感情に直接的に関連する直接客観情報(例えば、MRI又はfMRIによって得られ得る情報)を取得する手段(例えば、ステップS103を実行するプロセッサ32)を備え、
被験者の主観的感情に関連する被験者主観情報、及び、被験者の客観的感情に間接的に関連する被験間接客観情報の少なくとも1つを取得する手段(例えば、ステップS101〜S102、及び、S200〜S202の少なくとも1つを実行するプロセッサ32)を備え、
ユーザの主観的感情に関連するユーザ主観情報、及び、ユーザの客観的感情に間接的に関連するユーザ間接客観情報の少なくとも1つを取得する手段(例えば、ステップS300〜S202、及び、S400〜S402の少なくとも1つを実行するプロセッサ32)を備え、
直接客観情報と、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、を参照して、ユーザの感情に関連するユーザ感情情報を推定する手段(例えば、ステップS502を実行するプロセッサ32)を備える、
情報処理装置である。
A first aspect of the present embodiment is:
An information processing device (e.g., server 30) for estimating a user's emotion,
Means for obtaining direct objective information (for example, information that can be obtained by MRI or fMRI) directly related to the objective emotion of the subject (for example, the processor 32 executing step S103);
Means for acquiring at least one of subject subjective information related to the subject's subjective emotion and subject indirect objective information indirectly related to the subject's objective emotion (for example, steps S101 to S102 and S200 to S202) A processor 32) that performs at least one of the following:
Means for acquiring at least one of user subjective information related to the user's subjective emotion and user indirect objective information indirectly related to the user's objective emotion (for example, steps S300 to S202 and S400 to S402) A processor 32) that performs at least one of the following:
Means for estimating user emotion information related to the user's emotion with reference to the direct objective information, at least one of the subject subjective information and the subject indirect objective information, and at least one of the user subjective information and the user indirect objective information ( For example, the processor 32) that executes Step S502 is provided.
It is an information processing device.

第1態様によれば、直接客観情報を受けていないユーザの感情を司る脳の反応が直接的に反映された直接客観情報を推測することができる。その結果、ユーザの感情を高精度に推測することができる。   According to the first aspect, it is possible to guess direct objective information directly reflecting a reaction of the brain that controls the emotion of the user who has not received the objective information directly. As a result, the emotion of the user can be estimated with high accuracy.

本実施形態の第2態様は、
推定されたユーザ感情情報を提示する手段(例えば、ステップS503を実行するプロセッサ32)を備える、
情報処理装置である。
A second aspect of the present embodiment is:
Including means for presenting the estimated user emotion information (for example, the processor 32 executing step S503);
It is an information processing device.

第2態様によれば、ユーザの感情をユーザに可視化することができる。   According to the second aspect, the emotion of the user can be visualized to the user.

本実施形態の第3態様は、
主観情報は、被験者又はユーザに固着した主観的感情に関連する固着主観情報と、被験者又はユーザにとって流動的な主観的感情に関連する流動主観情報と、を含む、
情報処理装置である。
A third aspect of the present embodiment is:
Subjective information includes sticky subjective information related to the subjective emotion fixed to the subject or the user, and fluid subjective information related to the subjective emotion that is fluid to the subject or the user,
It is an information processing device.

第3態様によれば、感情の推定のために参照する主観情報を被験者又はユーザに固着した情報と、被験者又はユーザにとって流動的な情報と、に分けて取り扱う。これにより、感情の推定の精度をより向上させることができる。   According to the third aspect, the subjective information to be referred to for estimating the emotion is handled separately as information fixed to the subject or the user and information fluid to the subject or the user. Thereby, the accuracy of emotion estimation can be further improved.

本実施形態の第4態様は、
間接客観情報は、被験者又はユーザに固着した客観的感情に関連する固着客観情報と、被験者又はユーザにとって流動的な客観的感情に関連する流動客観情報と、を含む、
情報処理装置である。
A fourth aspect of the present embodiment is:
Indirect objective information includes sticky objective information related to objective feelings fixed to the subject or the user, and fluid objective information related to objective feelings fluid to the subject or the user.
It is an information processing device.

第4態様によれば、感情の推定のために参照する間接客観情報を被験者又はユーザに固着した情報と、被験者又はユーザにとって流動的な情報と、に分けて取り扱う。これにより、感情の推定の精度をより向上させることができる。   According to the fourth aspect, the indirect objective information referred to for estimating the emotion is handled separately as information fixed to the subject or the user and information fluid to the subject or the user. Thereby, the accuracy of emotion estimation can be further improved.

本実施形態の第5態様は、
直接客観情報は、被験者に対する、MRI(Magnetic Resonance Imaging)検査、PET(Positron Emission Tomography)検査、fNIRS(functional Near Infrared Spectroscopy) 検査、EEG(Electroencephalogram)検査、及び、MEG(Magnetoencephalography)検査の少なくとも1つによって得られる情報である、
情報処理装置である。
A fifth aspect of the present embodiment is:
The direct objective information is at least one of MRI (Magnetic Resonance Imaging) test, PET (Positron Emission Tomography) test, fNIRS (functional Near Infrared Spectroscopy) test, EEG (Electroencephalogram) test, and MEG (Magnetoencephalography) test. Information obtained by
It is an information processing device.

本実施形態の第6態様は、
推定する手段は、被験者主観情報及び被験者間接客観情報の少なくとも1つと、直接客観情報と、により構成される推論モデルを用いて、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つからユーザ感情情報を推定する、
情報処理装置である。
A sixth aspect of the present embodiment is:
The estimating means uses the inference model constituted by at least one of the subject subjective information and the subject indirect objective information and the direct objective information, and extracts the user emotion information from at least one of the user subjective information and the user indirect objective information. presume,
It is an information processing device.

本実施形態の第7態様は、
感情を推定すべき対象ユーザとは異なる非対称ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つを参照して、複数の非対称ユーザの中から基準ユーザを決定する手段を備え、
推定する手段は、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、基準ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、基準ユーザのユーザ感情情報と、を参照して、対象ユーザのユーザ感情情報を推定する、
情報処理装置である。
A seventh aspect of the present embodiment is:
A means for determining a reference user from among a plurality of asymmetric users by referring to at least one of user subjective information and user indirect objective information of an asymmetric user different from a target user whose emotion is to be estimated,
The estimating means includes at least one of subject subjective information and subject indirect objective information; at least one of user subjective information and user indirect objective information; at least one of user subjective information and user indirect objective information of a reference user; With reference to the user emotion information, the user emotion information of the target user is estimated,
It is an information processing device.

第7態様によれば、被験者の情報だけでなく、対象ユーザ以外の基準ユーザの情報も参照して、ユーザ感情情報を推定する。これにより、対象ユーザの感情の推定精度を向上させることができる。   According to the seventh aspect, the user emotion information is estimated with reference to not only the information of the subject but also the information of the reference user other than the target user. Thereby, the estimation accuracy of the emotion of the target user can be improved.

本実施形態の第8態様は、
コンピュータ(例えば、プロセッサ32)を、上記各手段として機能させるためのプログラムである。
An eighth aspect of the present embodiment is:
This is a program for causing a computer (for example, the processor 32) to function as each of the above units.

(7)その他の変形例
その他の変形例について説明する。
(7) Other Modification Examples Other modification examples will be described.

記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。   The storage device 11 may be connected to the client device 10 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.

上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。   Each step of the above information processing can be executed by either the client device 10 or the server 30.

ステップS101及びS301は、省略可能である。この場合、固着主観情報以外の情報を用いて、感情の可視化(OP5)が実行される。
ステップS102及びS302は、省略可能である。この場合、感情の可視化(OP5)が実行される。
ステップS200及びS400は、省略可能である。この場合、感情の可視化(OP5)が実行される。
ステップS201及びS202、並びに、S401及びS402は、省略可能である。この場合、感情の可視化(OP5)が実行される。
Steps S101 and S301 can be omitted. In this case, emotion visualization (OP5) is performed using information other than the fixed subjective information.
Steps S102 and S302 can be omitted. In this case, emotion visualization (OP5) is performed.
Steps S200 and S400 can be omitted. In this case, emotion visualization (OP5) is performed.
Steps S201 and S202, and S401 and S402 can be omitted. In this case, emotion visualization (OP5) is performed.

流動主観情報は、被験者又はユーザが作成した文章であってもよい。流動主観情報は、例えば、以下の少なくとも1つを含む。
・日記
・ブログ
The flow subjective information may be a sentence created by the subject or the user. The flow subjective information includes, for example, at least one of the following.
・ Diary ・ Blog

直接客観情報の測定方法は、MRIに限られない。直接客観情報は、以下の少なくとも1つの測定方法によって取得可能である。
・PET(Positron Emission Tomography)検査
・fNIRS(functional Near Infrared Spectroscopy) 検査
・EEG(Electroencephalogram)検査
・MEG(Magnetoencephalography)検査
The method for directly measuring objective information is not limited to MRI. Direct objective information can be obtained by at least one of the following measurement methods.
-PET (Positron Emission Tomography) inspection-fNIRS (functional Near Infrared Spectroscopy) inspection-EEG (Electroencephalogram) inspection-MEG (Magnetoencephalography) inspection

ステップS201〜S202、及び、S401〜S402では、Q&A形式で回答を受け付けるだけでなく、主観情報の選択肢オブジェクトを提示し、且つ、操作された選択肢オブジェクトに対応する主観情報を流動主観情報として受け付けても良い。
選択肢オブジェクトは、例えば、以下の少なくとも1つを含む。
・感情の種類毎のアイコン
・感情を表す色の画像オブジェクト
In steps S201 to S202 and S401 to S402, not only the answer is received in the Q & A format, but also the option object of the subjective information is presented, and the subjective information corresponding to the operated option object is received as the fluid subjective information. Is also good.
The option object includes, for example, at least one of the following.
-Icons for each type of emotion-Image objects of colors representing emotions

ステップS102(図11)では、画像に代えて、音声を用いてもよい。
例えば、クライアント装置10は、ステレオスピーカ(一例として、操作者に対して左右に配置された左スピーカ及び右スピーカ)を備える。
プロセッサ12は、左スピーカ及び右スピーカのそれぞれから、サブリミナル音を再生する。
操作者は、左スピーカ及び右スピーカのそれぞれから再生されたサブリミナル音を聞いて、何れのスピーカから再生されたサブリミナル音が聞きやすかったかを示すユーザ指示をクライアント装置10に与える。
プロセッサ12は、当該ユーザ指示(つまり、サブリミナル音が聞きやすいスピーカを示す指示)を含む更新リクエストデータをサーバ30に送信する。
In step S102 (FIG. 11), sound may be used instead of an image.
For example, the client device 10 includes a stereo speaker (for example, a left speaker and a right speaker disposed on the left and right sides of the operator).
The processor 12 reproduces a subliminal sound from each of the left speaker and the right speaker.
The operator hears the subliminal sound reproduced from each of the left speaker and the right speaker, and gives a user instruction to the client device 10 indicating which of the speakers reproduces the subliminal sound.
The processor 12 transmits the update request data including the user instruction (that is, an instruction indicating a speaker that can easily hear the subliminal sound) to the server 30.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。   As mentioned above, although embodiment of this invention was described in detail, the scope of this invention is not limited to said embodiment. Further, the above-described embodiment can be variously improved or changed without departing from the gist of the present invention. Further, the above embodiments and modified examples can be combined.

1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
1: Information processing system 10: Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 30: Server 31: Storage device 32: Processor 33: Input / output interface 34: Communication interface

Claims (8)

ユーザの感情を推定する情報処理装置であって、
被験者の客観的感情に直接的に関連する直接客観情報を取得する手段を備え、
被験者の主観的感情に関連する被験者主観情報、及び、被験者の客観的感情に間接的に関連する被験間接客観情報の少なくとも1つを取得する手段を備え、
前記ユーザの主観的感情に関連するユーザ主観情報、及び、ユーザの客観的感情に間接的に関連するユーザ間接客観情報の少なくとも1つを取得する手段を備え、
前記直接客観情報と、前記被験者主観情報及び前記被験者間接客観情報の少なくとも1つと、前記ユーザ主観情報及び前記ユーザ間接客観情報の少なくとも1つと、を参照して、前記ユーザの感情に関連するユーザ感情情報を推定する手段を備える、
情報処理装置。
An information processing apparatus for estimating a user's emotion,
Means for obtaining direct objective information directly related to the subject's objective emotions,
Subject subjective information related to the subject's subjective emotion, and means for acquiring at least one of the test indirect objective information indirectly related to the subject's objective emotion,
The user subjective information related to the user's subjective emotion, and means for acquiring at least one of user indirect objective information indirectly related to the user's objective emotion,
A user emotion related to the emotion of the user with reference to the direct objective information, at least one of the subject subjective information and the subject indirect objective information, and at least one of the user subjective information and the user indirect objective information; Comprising means for estimating information;
Information processing device.
前記推定されたユーザ感情情報を提示する手段を備える、
請求項1に記載の情報処理装置。
Comprising means for presenting the estimated user emotion information,
The information processing device according to claim 1.
前記主観情報は、前記被験者又は前記ユーザに固着した主観的感情に関連する固着主観情報と、前記被験者又は前記ユーザにとって流動的な主観的感情に関連する流動主観情報と、を含む、
請求項1又は2に記載の情報処理装置。
The subjective information includes sticky subjective information related to the subjective emotion fixed to the subject or the user, and fluid subjective information related to a subjective emotion that is fluid for the subject or the user,
The information processing device according to claim 1.
前記間接客観情報は、前記被験者又は前記ユーザに固着した客観的感情に関連する固着客観情報と、前記被験者又は前記ユーザにとって流動的な客観的感情に関連する流動客観情報と、含む、
請求項1〜3の何れかに記載の情報処理装置。
The indirect objective information, fixed objective information related to the objective emotion fixed to the subject or the user, and fluid objective information related to the objective emotion that is fluid for the subject or the user,
The information processing device according to claim 1.
前記直接客観情報は、前記被験者に対する、MRI(Magnetic Resonance Imaging)検査、PET(Positron Emission Tomography)検査、fNIRS(functional Near Infrared Spectroscopy) 検査、EEG(Electroencephalogram)検査、及び、MEG(Magnetoencephalography)検査の少なくとも1つによって得られる情報である、
請求項1〜4の何れかに記載の情報処理装置。
The direct objective information is at least one of an MRI (Magnetic Resonance Imaging) test, a PET (Positron Emission Tomography) test, a fNIRS (functional Near Infrared Spectroscopy) test, an EEG (Electroencephalogram) test, and a MEG (Magnetoencephalography) test. Information obtained by one,
The information processing apparatus according to claim 1.
前記推定する手段は、前記被験者主観情報及び前記被験者間接客観情報の少なくとも1つと、前記直接客観情報と、により構成される推論モデルを用いて、前記ユーザ主観情報及び前記ユーザ間接客観情報の少なくとも1つから前記ユーザ感情情報を推定する、
請求項1〜5の何れかの記載の情報処理装置。
The estimating means uses at least one of the subject subjective information and the subject indirect objective information and the direct objective information, and uses an inference model constituted by the at least one of the user subjective information and the user indirect objective information. Estimating the user emotion information from the
The information processing device according to claim 1.
感情を推定すべき対象ユーザとは異なる非対称ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つを参照して、複数の非対称ユーザの中から基準ユーザを決定する手段を備え、
前記推定する手段は、前記被験者主観情報及び前記被験者間接客観情報の少なくとも1つと、前記ユーザ主観情報及び前記ユーザ間接客観情報の少なくとも1つと、前記基準ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、前記基準ユーザのユーザ感情情報と、を参照して、前記対象ユーザのユーザ感情情報を推定する、
請求項1〜6の何れかに記載の情報処理装置。
A means for determining a reference user from among a plurality of asymmetric users by referring to at least one of user subjective information and user indirect objective information of an asymmetric user different from a target user whose emotion is to be estimated,
The estimating means is at least one of the subject subjective information and the subject indirect objective information, at least one of the user subjective information and the user indirect objective information, and at least one of the user subjective information and the user indirect objective information of the reference user. Estimating the user emotion information of the target user with reference to one and the user emotion information of the reference user,
The information processing device according to claim 1.
コンピュータを、請求項1〜7の何れかに記載の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit according to claim 1.
JP2018181377A 2018-09-27 2018-09-27 Information processing device, program Active JP6739805B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018181377A JP6739805B2 (en) 2018-09-27 2018-09-27 Information processing device, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018181377A JP6739805B2 (en) 2018-09-27 2018-09-27 Information processing device, program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020121797A Division JP7064787B2 (en) 2020-07-16 2020-07-16 Information processing equipment, programs, and information processing methods

Publications (2)

Publication Number Publication Date
JP2020048871A true JP2020048871A (en) 2020-04-02
JP6739805B2 JP6739805B2 (en) 2020-08-12

Family

ID=69994655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018181377A Active JP6739805B2 (en) 2018-09-27 2018-09-27 Information processing device, program

Country Status (1)

Country Link
JP (1) JP6739805B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102563243B1 (en) * 2022-10-31 2023-08-03 주식회사 마음스토리 Emotion prediction method and system for improving meta cognition based on big data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011065237A1 (en) * 2009-11-27 2011-06-03 株式会社日立製作所 Biological light measurement device
JP2011238215A (en) * 2010-04-17 2011-11-24 Udo Toshihiro Mental and physical health condition management system
JP2016221056A (en) * 2015-06-01 2016-12-28 株式会社日立製作所 Biological light measurement result analysis apparatus, inquiry system using the same, and biological light measurement apparatus
JP2017074356A (en) * 2015-10-16 2017-04-20 国立大学法人広島大学 Sensitivity evaluation method
JP2017176762A (en) * 2016-03-31 2017-10-05 有限会社Triart Stress evaluation method and stress evaluation system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011065237A1 (en) * 2009-11-27 2011-06-03 株式会社日立製作所 Biological light measurement device
JP2011238215A (en) * 2010-04-17 2011-11-24 Udo Toshihiro Mental and physical health condition management system
JP2016221056A (en) * 2015-06-01 2016-12-28 株式会社日立製作所 Biological light measurement result analysis apparatus, inquiry system using the same, and biological light measurement apparatus
JP2017074356A (en) * 2015-10-16 2017-04-20 国立大学法人広島大学 Sensitivity evaluation method
JP2017176762A (en) * 2016-03-31 2017-10-05 有限会社Triart Stress evaluation method and stress evaluation system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102563243B1 (en) * 2022-10-31 2023-08-03 주식회사 마음스토리 Emotion prediction method and system for improving meta cognition based on big data

Also Published As

Publication number Publication date
JP6739805B2 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
US20230058925A1 (en) System and method for providing and aggregating biosignals and action data
Marinescu et al. Physiological parameter response to variation of mental workload
Bergstrom et al. Eye tracking in user experience design
Arguel et al. Inside out: detecting learners’ confusion to improve interactive digital learning environments
Li et al. Current and potential methods for measuring emotion in tourism experiences: A review
US11301775B2 (en) Data annotation method and apparatus for enhanced machine learning
Santos et al. Toward interactive context-aware affective educational recommendations in computer-assisted language learning
CN108078573B (en) Interest orientation value testing method based on physiological response information and stimulation information
Kim et al. Assessing consumer attention and arousal using eye-tracking technology in virtual retail environment
Fang et al. Comparison of the usability and flow experience of an exercise promotion virtual reality programme for different age groups
Carey et al. Toward measuring empathy in virtual reality
Bergstrom et al. Physiological response measurements
Falkowska et al. Eye tracking usability testing enhanced with EEG analysis
Trupp et al. Who benefits from online art viewing, and how: The role of pleasure, meaningfulness, and trait aesthetic responsiveness in computer-based art interventions for well-being
JP7064787B2 (en) Information processing equipment, programs, and information processing methods
Verwulgen et al. Determining comfortable pressure ranges for wearable EEG headsets
JP6739805B2 (en) Information processing device, program
Liu et al. Assessing the effect of flight information presentation styles on the usability of airline web booking interface
Sterna et al. How behavioral, photographic, and interactional realism influence the sense of co-presence in vr. an investigation with psychophysiological measurement
Lichtenstein-Vidne et al. Lateralisation of emotions: evidence from pupil size measurement
Deng et al. Do first impressions matter? Effect of first impressions on tourists’ destination choice: an event-related potential study
Baldwin et al. Exploring novel technologies to enhance food safety training and research opportunities
Brunzini et al. An integrated methodology for the assessment of stress and mental workload applied on virtual training
US20160148530A1 (en) Method and system for facilitating overcoming of addictive behavior
Zonyfar et al. E-government in the public health sector: kansei engineering method for redesigning website

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200508

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200508

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200716

R150 Certificate of patent or registration of utility model

Ref document number: 6739805

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250