JP2023178077A - Emotion estimation device, emotion estimation method, and emotion estimation system - Google Patents

Emotion estimation device, emotion estimation method, and emotion estimation system Download PDF

Info

Publication number
JP2023178077A
JP2023178077A JP2022091134A JP2022091134A JP2023178077A JP 2023178077 A JP2023178077 A JP 2023178077A JP 2022091134 A JP2022091134 A JP 2022091134A JP 2022091134 A JP2022091134 A JP 2022091134A JP 2023178077 A JP2023178077 A JP 2023178077A
Authority
JP
Japan
Prior art keywords
emotion
emotion estimation
user
index
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022091134A
Other languages
Japanese (ja)
Inventor
渉 長谷川
Wataru Hasegawa
君孝 村下
Kimitaka Murashita
徹洋 加藤
Tetsuyo Kato
和真 橋本
Kazuma Hashimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2022091134A priority Critical patent/JP2023178077A/en
Publication of JP2023178077A publication Critical patent/JP2023178077A/en
Pending legal-status Critical Current

Links

Images

Abstract

To easily improve emotion estimation accuracy based on a biological signal.SOLUTION: An estimation device (a server) according to an embodiment estimates an emotion of a user based on variation with the lapse of time of a plurality of indexes based on a biological signal of the user.SELECTED DRAWING: Figure 2

Description

本発明は、感情推定装置、感情推定方法及び感情推定システムに関する。 The present invention relates to an emotion estimation device, an emotion estimation method, and an emotion estimation system.

被験者の心臓の波形(心電波形)から得られる情報をラッセル円環モデルに当てはめ、被験者の感情を推定する技術が知られている(例えば、特許文献1を参照)。 2. Description of the Related Art There is a known technique for estimating a subject's emotion by applying information obtained from a subject's heart waveform (electrocardiographic waveform) to a Russell circular model (for example, see Patent Document 1).

特開2019-63324号公報JP2019-63324A

しかしながら、従来の技術には、生体信号に基づく感情の推定精度を容易に向上させることができない場合があるという問題がある。 However, the conventional technology has a problem in that it may not be possible to easily improve the accuracy of emotion estimation based on biological signals.

生体情報は、個人差及び環境差(そのときの体調、感情等)を大きく受ける。このため、生体信号から得られる情報をラッセル円環モデルのような感情推定モデルに当てはめて感情を推定する場合、推定精度を向上させるためには、被験者に合わせて感情推定モデルの補正(キャリブレーション)が必要となる。 Biometric information is greatly affected by individual and environmental differences (physical condition, emotions, etc. at the time). Therefore, when estimating emotions by applying information obtained from biological signals to an emotion estimation model such as the Russell ring model, it is necessary to correct (calibrate) the emotion estimation model according to the subject in order to improve estimation accuracy. )Is required.

一方で、感情推定モデルのキャリブレーションには、時間かかる、被験者に負担をかける(特定の刺激を付加する、特定の姿勢及び動作を行わせる等して、被験者を特定の感情状態に誘導し、その状態での計測値でキャリブレーションを行うため、被験者に身体的な負担等をかける)、外部環境の影響を受ける等の問題がある。 On the other hand, calibrating an emotion estimation model takes time and places a burden on the subject. Since calibration is performed using measured values in that state, there are problems such as placing a physical burden on the subject) and being influenced by the external environment.

本発明は、上記に鑑みてなされたものであって、個人差及び環境差による影響を抑え、生体信号に基づく感情の推定を適切に行えるようにすることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to suppress the influence of individual differences and environmental differences, and to appropriately estimate emotions based on biological signals.

上述した課題を解決し、目的を達成するために、本発明に係る推定装置は、感情を推定する感情推定装置であって、コントローラを有し、コントローラは、ユーザの生体信号に基づく複数の指標の時間経過に伴う変化に基づきユーザの感情を推定する。 In order to solve the above-mentioned problems and achieve the purpose, an estimation device according to the present invention is an emotion estimation device for estimating emotions, and includes a controller, and the controller has a plurality of indicators based on a user's biological signals. The user's emotions are estimated based on changes over time.

本発明によれば、個人差及び環境差による影響を抑え、生体信号に基づく感情の推定を適切に行うことができる。 According to the present invention, it is possible to suppress the influence of individual differences and environmental differences, and to appropriately estimate emotions based on biological signals.

図1は、実施形態に係る推定システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of an estimation system according to an embodiment. 図2は、実施形態に係るサーバの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of a server according to the embodiment. 図3は、感情推定モデル(心理平面)の一例を示す図である。FIG. 3 is a diagram showing an example of an emotion estimation model (psychological plane). 図4は、身体状態の指標をパラメータとする感情推定モデルの一例を示す図である。FIG. 4 is a diagram illustrating an example of an emotion estimation model using a physical condition index as a parameter. 図5は、センサテーブルと心理平面テーブルの一例を示す図である。FIG. 5 is a diagram showing an example of a sensor table and a psychological plane table. 図6は、感情変化テーブルの一例を示す図であるFIG. 6 is a diagram showing an example of an emotion change table. 図7は、感情種別の抽出方法を説明する図である。FIG. 7 is a diagram illustrating a method for extracting emotion types. 図8は、評価画面の一例、および感情に関する情報の利用状況を示す図である。FIG. 8 is a diagram showing an example of the evaluation screen and the usage status of information regarding emotions. 図9は、評価画面の一例、および感情に関する情報の利用状況を示す図である。FIG. 9 is a diagram showing an example of the evaluation screen and the usage status of information regarding emotions. 図10は、感情推定モデルのキャリブレーション方法を説明する図である。FIG. 10 is a diagram illustrating a method for calibrating an emotion estimation model. 図11は、機械学習モデルの学習方法を説明する図である。FIG. 11 is a diagram illustrating a learning method of a machine learning model. 図12は、モデル生成処理を示すフローチャートである。FIG. 12 is a flowchart showing the model generation process. 図13は、感情状態を推定する感情推定処理を示すフローチャートである。FIG. 13 is a flowchart showing an emotion estimation process for estimating an emotional state.

以下、添付図面を参照して、感情推定装置、感情推定方法及び感情推定システムの実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of an emotion estimation device, an emotion estimation method, and an emotion estimation system will be described in detail with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments described below.

まず、図1を用いて、実施形態に係る推定システムについて説明する。図1は、実施形態に係る推定システムの構成例を示す図である。 First, an estimation system according to an embodiment will be described using FIG. 1. FIG. 1 is a diagram illustrating a configuration example of an estimation system according to an embodiment.

図1に示すように、推定システム1は、サーバ10、端末装置20、センサ31a、センサ32a、センサ31b及びセンサ32bを有する。推定システム1は、被験者U02a及び被験者U02bの感情を推定する。サーバ10は、感情推定装置の一例である。 As shown in FIG. 1, the estimation system 1 includes a server 10, a terminal device 20, a sensor 31a, a sensor 32a, a sensor 31b, and a sensor 32b. The estimation system 1 estimates the emotions of the test subject U02a and the test subject U02b. The server 10 is an example of an emotion estimation device.

被験者U02a及び被験者U02bは、例えばeスポーツのプレーヤである。推定システム1は、ビデオゲームをプレイしている被験者U02a及び被験者U02bの感情を推定する。本実施形態の説明では、説明を具体化して分かりやすくするため、一適用例として上記のeスポーツでの適用場面を想定し、状態遷移等も交えて説明する。 Subject U02a and subject U02b are e-sports players, for example. Estimation system 1 estimates the emotions of test subject U02a and test subject U02b who are playing a video game. In the description of this embodiment, in order to make the description concrete and easy to understand, the above-described application scene in e-sports will be assumed as an application example, and state transitions will also be explained.

感情の推定結果は、例えばeスポーツにおける被験者U02a及び被験者U02bのメンタルトレーニングに利用される。例えば、ビデオゲームのプレイ中に、被験者U02が勝負において不利な感情(不安、怒り等)を覚えた場面については、当該感情状態に対応した集中的なトレーニングが必要と判断される。当該トレーニングにおいて、推定システム1で推定された被験者U02a及び被験者U02bの感情情報が利用される。 The emotion estimation results are used, for example, for mental training of test subject U02a and test subject U02b in e-sports. For example, in a scene where the subject U02 feels disadvantageous to the competition (anxiety, anger, etc.) while playing a video game, it is determined that intensive training corresponding to the emotional state is required. In the training, the emotional information of the test subject U02a and the test subject U02b estimated by the estimation system 1 is used.

また、各種eスポーツにおいては、被験者U02a及び被験者U02bは、協力してプレイするタイプのものや、対戦タイプのものがあるが、このようなeスポーツにおいて各プレーヤの感情状態を表示する等により、感情状態に応じてゲーム戦術を変える等、高度なゲームプレイが行えるようになり、またゲーム観戦者が各プレーヤの感情状態も把握してゲームを観戦できると言った、楽しみの要素が増したゲーム観戦が可能となるという効果を生じる。 In addition, in various e-sports, the subjects U02a and U02b may play cooperatively or competitively, but in such e-sports, displaying the emotional state of each player, etc. A game that has increased the element of enjoyment by allowing advanced gameplay, such as changing game tactics depending on the emotional state, and allowing game spectators to watch the game while also understanding the emotional state of each player. This has the effect of making it possible to watch the game.

なお、他の適用例としては、被験者は、医療機関における患者であってもよい。この場合、推定システム1によって推定された感情は、検査及び治療等に利用される。 In addition, as another application example, the subject may be a patient at a medical institution. In this case, the emotions estimated by the estimation system 1 are used for examinations, treatments, and the like.

例えば、医療機関のスタッフは、患者である被験者が不安に感じている場合、カウンセリング等の対応策を施すことができる。 For example, if a test subject who is a patient feels anxious, staff at a medical institution can provide countermeasures such as counseling.

また、被験者は、教育機関における生徒であってもよい。この場合、推定システム1によって推定された感情は、授業内容の改善に利用される。 Furthermore, the subject may be a student at an educational institution. In this case, the emotions estimated by the estimation system 1 are used to improve the lesson content.

例えば、教師は、生徒である被験者が授業を退屈に感じている場合、当該授業の内容をより生徒が興味を引くようなものに改善することができる。 For example, if a subject who is a student finds the lesson boring, the teacher can improve the content of the lesson to make it more interesting for the student.

また、被験者は、車両のドライバであってもよい。この場合、推定システム1によって推定された感情は、安全運転の促進に利用される。 Furthermore, the subject may be a vehicle driver. In this case, the emotions estimated by the estimation system 1 are used to promote safe driving.

例えば、ドライバである被験者が運転中に適度な緊張を感じていない場合、車載装置は、運転に集中することを促すメッセージを出力することができる。 For example, if a test subject who is a driver does not feel moderate tension while driving, the in-vehicle device can output a message urging the test subject to concentrate on driving.

また、被験者は、映像及び音楽といったコンテンツの視聴者であってもよい。この場合、推定システム1によって推定された感情は、さらなるコンテンツの作成に利用される。 Furthermore, the subject may be a viewer of content such as video and music. In this case, the emotions estimated by the estimation system 1 are used to create further content.

例えば、映像コンテンツの配信者は、視聴者である被験者が楽しく感じたシーンを集めて、ハイライト映像を作成することができる。このように、推定した感情はいろいろな用途に利用することができる。 For example, a video content distributor can create a highlight video by collecting scenes that viewers (test subjects) found enjoyable. In this way, the estimated emotions can be used for various purposes.

システムの説明に戻る。サーバ10と端末装置20は、ネットワークNを介して接続されている。例えば、ネットワークNはインターネット又はイントラネットである。 Return to system description. The server 10 and the terminal device 20 are connected via a network N. For example, network N is the Internet or an intranet.

例えば、端末装置20は、パーソナルコンピュータ、スマートフォン及びタブレット型コンピュータ等で構成される。端末装置20は、分析者U01によって使用される。 For example, the terminal device 20 includes a personal computer, a smartphone, a tablet computer, and the like. The terminal device 20 is used by the analyst U01.

センサ31a、センサ32a、センサ31b及びセンサ32bは、被験者U02a及び被験者U02bに装着され、被験者U02a及び被験者U02bの生体信号をセンサ信号として検出し、当該検出したセンサ信号を端末装置20に送信する。 Sensor 31a, sensor 32a, sensor 31b, and sensor 32b are attached to test subject U02a and test subject U02b, detect biological signals of test subject U02a and test subject U02b as sensor signals, and transmit the detected sensor signals to terminal device 20.

具体的には、センサ31a及びセンサ31bは、例えばヘッドギア型の脳波センサである。また、センサ32a及びセンサ32bは、例えばリストバンド型の脈拍センサである。 Specifically, the sensor 31a and the sensor 31b are, for example, headgear type brain wave sensors. Further, the sensor 32a and the sensor 32b are, for example, wristband type pulse sensors.

また、センサ31a、センサ32a、センサ31b及びセンサ32bは通信インタフェースを有し、例えばWi-Fi(登録商標)及び、Bluetooth(登録商標)等の通信規格に従って端末装置20と通信接続され、端末装置20にセンサ信号を送信する。 Moreover, the sensor 31a, the sensor 32a, the sensor 31b, and the sensor 32b have a communication interface, and are communicatively connected to the terminal device 20 according to communication standards such as Wi-Fi (registered trademark) and Bluetooth (registered trademark), and the terminal device The sensor signal is transmitted to 20.

図1を用いて、推定システム1の処理の流れを説明する。 The processing flow of the estimation system 1 will be explained using FIG. 1.

サーバ10は、被験者の生体信号に基づき感情推定のための生体状態指標値を算出するモデル(算出式や変換データテーブル)が登録され、また被験者の生体信号に基づく複数の指標から被験者の感情を推定する感情推定モデルが登録されているものとする。なお、感情推定モデルは医学的エビデンス(論文等)に基づき作成される。尚、感情推定モデルについては後述する。 The server 10 has registered models (calculation formulas and conversion data tables) that calculate biological state index values for emotion estimation based on the subject's biological signals, and also calculates the subject's emotions from a plurality of indicators based on the subject's biological signals. It is assumed that the emotion estimation model to be estimated has been registered. Note that the emotion estimation model is created based on medical evidence (papers, etc.). Note that the emotion estimation model will be described later.

センサ31a、センサ32a、センサ31b及びセンサ32bは、被験者U02a及び被験者U02bの生体状態(信号)を測定し、測定したセンサ信号を端末装置20に出力する(ステップS1)。そして、端末装置20は、入力したセンサ信号をサーバ10に送信する(ステップS2)。 The sensor 31a, the sensor 32a, the sensor 31b, and the sensor 32b measure the biological conditions (signals) of the subject U02a and the subject U02b, and output the measured sensor signals to the terminal device 20 (step S1). Then, the terminal device 20 transmits the input sensor signal to the server 10 (step S2).

サーバ10は、入力したセンサ信号生体信号に基づき生体状態を示す指標の値である生体状態指標値を生成する。例えば、サーバ10は、センサ信号である脳波又は心拍に関する2つの生体状態指標値を生成する。例えば、心拍センサのセンサ信号に基づく指標は「心拍間隔の平均」及び「心拍LF成分」で、サーバ10は、これら「心拍間隔の平均」及び「心拍LF成分」の値である指標値(例えば数値)を心拍センサのセンサ信号に基づき算出する。 The server 10 generates a biological condition index value, which is a value of an index indicating a biological condition, based on the input sensor signal biological signal. For example, the server 10 generates two biological condition index values related to brain waves or heartbeats, which are sensor signals. For example, the index based on the sensor signal of the heartbeat sensor is "average heartbeat interval" and "heartbeat LF component", and the server 10 stores the index value (for example, numeric value) is calculated based on the sensor signal of the heart rate sensor.

なお、センサ31a、センサ32a、センサ31b及びセンサ32bに演算機能を持たせて(コンピュータ等を内蔵)、センサ31a、センサ32a、センサ31b及びセンサ32bが、生体状態指標値を算出するように構成することも可能である。また、端末装置20が、入力したセンサ31a、センサ32a、センサ31b及びセンサ32bからの生体信号に基づき生体状態指標値を算出するように構成することも可能である。 Note that the sensor 31a, the sensor 32a, the sensor 31b, and the sensor 32b are provided with a calculation function (computer, etc. are built-in), and the sensor 31a, the sensor 32a, the sensor 31b, and the sensor 32b are configured to calculate the biological condition index value. It is also possible to do so. It is also possible to configure the terminal device 20 to calculate the biological condition index value based on the input biological signals from the sensor 31a, the sensor 32a, the sensor 31b, and the sensor 32b.

そして、サーバ10は、算出した生体状態指標値に基づき、内蔵する感情推定モデル等を用いて被験者U02a及び被験者U02bの感情状態を推定する(ステップS3)。なお、本実施形態において、サーバ10は、生体状態指標値の変化に基づき、感情変化状態等の感情状態情報を推定する。感情変化状態等の感情状態情報の詳細な内容や推定方法については後述する。 Then, the server 10 estimates the emotional states of the test subject U02a and the test subject U02b based on the calculated biological state index value using a built-in emotion estimation model or the like (step S3). Note that in this embodiment, the server 10 estimates emotional state information such as emotional change state based on changes in biological state index values. The detailed content and estimation method of the emotional state information such as the emotional change state will be described later.

そして、サーバ10は、感情状態情報の推定結果を端末装置20に提供する(ステップS4)。端末装置20は、受信した感情状態情報を、分析者U01の操作に基づき表示する、オペレータの操作に基づき外部の情報利用者に提供する、外部のゲームシステムに提供する等の動作を行い、感情状態情報はいろいろと利用されることになる。 Then, the server 10 provides the estimation result of the emotional state information to the terminal device 20 (step S4). The terminal device 20 performs operations such as displaying the received emotional state information based on the operation of the analyst U01, providing it to an external information user based on the operator's operation, and providing it to an external game system. State information will be used in a variety of ways.

なお、サーバ10、端末装置20、およびユーザ側装置(例えばゲーム装置)は、上述の機能・動作を行うコントローラを有することになる。 Note that the server 10, the terminal device 20, and the user side device (for example, a game device) have a controller that performs the above-mentioned functions and operations.

図2は、実施形態に係るサーバの構成例を示す図である。サーバ10は、感情状態情報の推定を実行するコンピュータの一例である。また、サーバ10は、推定装置の一例である。 FIG. 2 is a diagram illustrating a configuration example of a server according to the embodiment. The server 10 is an example of a computer that performs estimation of emotional state information. Further, the server 10 is an example of an estimation device.

図2に示すように、サーバ10は、通信部11、記憶部12及び制御部13を有する。 As shown in FIG. 2, the server 10 includes a communication section 11, a storage section 12, and a control section 13.

通信部11は、ネットワークNを介して他の装置との間でデータの通信を行うためのインタフェースである。通信部11は、例えばNIC(Network Interface Card)である。 The communication unit 11 is an interface for communicating data with other devices via the network N. The communication unit 11 is, for example, a NIC (Network Interface Card).

記憶部12は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12には、センサテーブル121と、心理平面テーブル122(2種の指標によるマップテーブルであるため分かりやすく心理平面テーブルと表現しているが、3種以上の場合は3~次元(マップ)テーブル)となる)、心理判断テーブル123がその記憶領域に設けられている。記憶部12は、記憶器の一例である。 The storage unit 12 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 12 includes a sensor table 121 and a psychological plane table 122 (it is expressed as a psychological plane table for easy understanding because it is a map table with two types of indicators, but if there are three or more types, it is a three-dimensional (map)). A psychological judgment table 123 is provided in the storage area. The storage unit 12 is an example of a storage device.

制御部13は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、記憶部12に記憶されている図示略の各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部13は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。 The control unit 13 is a controller, and various programs (not shown) stored in the storage unit 12 are executed by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), using the RAM as a work area. This is achieved by Further, the control unit 13 can be realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部13は、抽出部131と、心理分析部132と、生成部133と、特定部134と、提供部135、取得部136、モデル選択部137とを有し、後述する情報処理の機能や作用を実現または実行する。 The control unit 13 includes an extraction unit 131, a psychological analysis unit 132, a generation unit 133, a specification unit 134, a provision unit 135, an acquisition unit 136, and a model selection unit 137, and has information processing functions described below. accomplish or carry out an action.

なお、サーバ10は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。 Note that the server 10 may acquire the above-mentioned programs and various information via another computer or a portable recording medium connected via a wired or wireless network.

次に記憶部12に記憶される各種処理用のデータテーブル(データベース)については説明するが、理解し易くするために、まず心理推定モデル(心理推定原理)について簡単に説明する。 Next, the data table (database) for various processes stored in the storage unit 12 will be explained, but for ease of understanding, the psychological estimation model (psychological estimation principle) will be briefly explained first.

図3は、感情推定モデル(心理平面)の一例を示す図である。心理学に関する各種医学的エビデンスによると、心理は身体状態を示す2種類の指標に基づき推定できるとする技術思想がある。図3に示す2種類の心身状態の指標を軸とする心理平面はそのモデルの一例を示すもので、縦軸が「思考判断の活性度」、横軸が「身体の活性度」となっている。そして、当該心理平面における原点(たとえば、「思考判断の活性度」および「身体の活性度」中間点)を基準とする縦軸と横軸分離される各象限領域に該当する心理状態が割り当てられている。たとえば、図3の例では、第一象限に「楽しい、喜び、怒り、悲しみ」の心理状態が割り当てられている。そして、原点からの距離が該当する心理状態の強度を示すことになる。 FIG. 3 is a diagram showing an example of an emotion estimation model (psychological plane). According to various medical evidence related to psychology, there is a technical philosophy that states that psychology can be estimated based on two types of indicators that indicate physical conditions. The psychological plane centered on two types of mental and physical state indicators shown in Figure 3 is an example of such a model, with the vertical axis representing the "activation of thinking and judgment" and the horizontal axis representing the "activation of the body." There is. Then, the corresponding psychological state is assigned to each quadrant region separated from the vertical axis and the horizontal axis based on the origin of the psychological plane (for example, the midpoint between "activity level of thinking judgment" and "activity level of body"). ing. For example, in the example of FIG. 3, the psychological states of "fun, joy, anger, sadness" are assigned to the first quadrant. The distance from the origin indicates the strength of the corresponding psychological state.

つまり、計測した被験者における心身状態の指標(2種類)の心理平面での座標が、心理平面上のどの象限に存在するか、また原点からの距離に基づき、心理状態とその強度が推定されることになる。 In other words, the psychological state and its strength are estimated based on which quadrant on the psychological plane the coordinates of the measured mental and physical state indicators (two types) of the subject exist in, and the distance from the origin. It turns out.

また、「思考判断の活性度」や「身体の活性度」等の身体状態は、被験者の生体信号(被験者に装着された各種センサ出力)によって推定できることが学術論文等によってしられている。これらから、被験者の生体信号に基づき被験者の身体状態を示す2種類の指標を推定し、そして推定した2種類の指標を図3に示したような感情推定モデル(当該2種類の指標を用いたモデル)に適用することにより、被験者の心理が推定できることになる。 Further, it is known from academic papers and the like that physical states such as "activity level of thinking and judgment" and "activity level of body" can be estimated from the subject's biological signals (outputs of various sensors attached to the subject). From these, we estimated two types of indicators indicating the subject's physical condition based on the subject's biological signals, and then used the estimated two types of indicators to create an emotion estimation model (using these two types of indicators) as shown in Figure 3. model), it is possible to estimate the subject's psychology.

なお、生体信号と身体状態を示す指標の関係、そして身体状態を示す指標と心理状態の関係は、たとえば、これら生体信号(各種センサ信号の計測)、身体状態(各種センサ信号の計測)、心理状態(各種センサ信号の計測、アンケート、被験者表情等の観測・解析)の計測実験等により特定・推定することになる。 The relationship between biological signals and indicators indicating physical conditions, and the relationship between indicators indicating physical conditions and psychological conditions are, for example, biological signals (measurement of various sensor signals), physical conditions (measurement of various sensor signals), and psychological conditions. The state will be identified and estimated through measurement experiments, etc. (measurement of various sensor signals, questionnaires, observation and analysis of subjects' facial expressions, etc.).

また、本実施形態においては、身体状態の指標(2種類)の心理平面での座標位置ではなく、座標変化状態(座標軌跡)に基づき心身状態の推定を行う。次に座標変化状態と心理状態の関係について説明する。 Furthermore, in this embodiment, the mental and physical state is estimated based on the coordinate change state (coordinate trajectory) rather than the coordinate position of the physical state index (two types) on the psychological plane. Next, the relationship between the coordinate change state and the psychological state will be explained.

図4は、身体状態の指標をパラメータとする感情推定モデルの一例を示す図である。図3に示す感情推定モデルと同様に、2種類の身体状態の指標を軸とする心理平面により表されるモデルで、縦軸が「思考判断の活性度」、横軸が「身体の活性度」となっている。なお、他の種類の身体状態を縦軸、横軸のモデルも同様の思想で作成することができる。 FIG. 4 is a diagram illustrating an example of an emotion estimation model using a physical condition index as a parameter. Similar to the emotion estimation model shown in Figure 3, this is a model expressed on a psychological plane centered on two types of physical state indicators, with the vertical axis representing the "activity of thinking and judgment" and the horizontal axis representing the "activity of the body." ”. Note that models of other types of physical states with vertical and horizontal axes can be created using the same idea.

図4に示すモデルでは、身体の活性状態の各変化方向と思考判断の活性状態の各変化方向における感情の変化内容を示している。なお、このモデルは身体状態の指標の座標変化に基づくモデルで、基本的には身体状態の指標の座標位置は意味をなさないものとなる(身体状態の指標の座標位置に基づくモデルとの併用等は可能)。例えば、身体の活性状態が「身体鎮静・消化促進」、思考判断の活性状態が「思考認識判断が活性、高覚醒」の場合は、感情の変化状態は「混迷憂鬱方向・身体系:低調で倦怠、脳系:高思考混迷」となる。なお、この図4に示すモデルは、たとえば、図3に示す感情推定モデルにおいて各象限に配置された心理状態領域に対して、2種類の身体状態による座標位置がどのように移動しているか(どの心理状態領域(どの心理状態が強くなる方向、あるいはどの心理状態が弱くなる方向)の方向に移動しているか)に基づき生成される。 The model shown in FIG. 4 shows changes in emotions in each direction of change in the active state of the body and in each direction of change in the active state of thought and judgment. Note that this model is based on changes in the coordinates of indicators of physical condition, and basically the coordinate positions of indicators of physical condition have no meaning (this model cannot be used in combination with a model based on the coordinate positions of indicators of physical condition). etc. are possible). For example, if the active state of the body is "body sedation/promotes digestion" and the active state of thought/judgment is "active thinking/judgment, high arousal", the change state of emotion is "confusion/depression direction/physical system: low". Fatigue, brain system: high level of thought confusion.” The model shown in FIG. 4, for example, calculates how the coordinate positions according to two types of physical states move with respect to the psychological state area placed in each quadrant in the emotion estimation model shown in FIG. It is generated based on which psychological state area (which psychological state is moving in the direction of becoming stronger or which psychological state is moving in the direction of becoming weaker).

そして、この図4における縦軸、横軸の各方向の身体の活性状態および思考判断の活性状態間の各移動方向で、対応する感情の変化を層別分析することにより、後述する図6に示す心理判断テーブル123を生成することができる。 By conducting a stratified analysis of the corresponding changes in emotions in each direction of movement between the active state of the body and the active state of thinking and judgment in each direction of the vertical and horizontal axes in FIG. It is possible to generate a psychological judgment table 123 shown in FIG.

図5は、センサテーブル121(図5における(A)テーブル)と心理平面テーブル122(図5における(B)テーブル)の一例を示す図である。図3(A)テーブルに示すように、センサテーブル121の項目(データ記憶セル(記憶枠))には、「センサID」、「センサ種別」、「生体信号種別」、「対応指標ID」、「対応指標種別」、「指標変換情報」が含まれる。 FIG. 5 is a diagram showing an example of the sensor table 121 (table (A) in FIG. 5) and the psychological plane table 122 (table (B) in FIG. 5). As shown in the table in FIG. 3A, the items (data storage cells (memory frames)) of the sensor table 121 include "sensor ID", "sensor type", "biological signal type", "corresponding index ID", It includes "corresponding index type" and "index conversion information".

センサテーブル121の項目「センサID」は、センサテーブル121におけるデータレコードを識別するための識別情報であるセンサIDデータを記憶する。センサIDデータは、センサテーブル121におけるデータレコードの主キーでもある。つまりセンサテーブル121では、センサIDデータごとにデータレコードが構成され、当該データレコードにセンサIDデータに紐づいた各項目のデータが記憶されることになる。 The item “sensor ID” in the sensor table 121 stores sensor ID data that is identification information for identifying data records in the sensor table 121. The sensor ID data is also the primary key of the data record in the sensor table 121. That is, in the sensor table 121, a data record is configured for each sensor ID data, and data of each item linked to the sensor ID data is stored in the data record.

センサテーブル121の項目「対応指標種別」は、生体状態指標の種別を表す指標種別データを記憶する。 The item "corresponding index type" of the sensor table 121 stores index type data representing the type of biological condition index.

センサテーブル121の項目「センサ種別」は、センサ種別を特定するための情報、ここではセンサ名称(型番等のデータでも可)を記憶する。 The item "sensor type" in the sensor table 121 stores information for specifying the sensor type, here the sensor name (data such as model number may also be used).

センサテーブル121の項目「対応指標ID」は、センサの検出する生体信号に基づき生成(算出)される感情推定用指標を識別するための識別情報を記憶する。そして、センサテーブル121の項目「対応指標種別」は、指標の種別(名称等)を記憶する。 The item "corresponding index ID" of the sensor table 121 stores identification information for identifying an emotion estimation index generated (calculated) based on the biological signal detected by the sensor. The item "corresponding index type" of the sensor table 121 stores the type (name, etc.) of the index.

センサテーブル121の項目「生体信号種別」は、センサによりの検出される生体信号に基づく計測値の種別を記憶する。この生体信号種別データは、対応指標種別データと相関のあるデータである(学術的に当該対応指標種別データが対応する生体信号種別データにより推定(算出)できると認識されている)。 The item “biological signal type” in the sensor table 121 stores the type of measurement value based on the biological signal detected by the sensor. This biosignal type data is data that is correlated with the corresponding index type data (it is academically recognized that the corresponding index type data can be estimated (calculated) using the corresponding biosignal type data).

センサテーブル121の項目「指標変換情報」は、センサによりの検出される生体信号に基づき指標値を算出するための変換情報(演算式や変換データテーブル等)を記憶する。つまり、センサIDデータに対応するセンサにより検出された生体信号を、指標変換情報データに従って変換処理することにより、対応指標IDで識別される感情推定用指標の指標データ(値)が推定(算出)されることになる。 The item "index conversion information" in the sensor table 121 stores conversion information (arithmetic expressions, conversion data tables, etc.) for calculating index values based on biological signals detected by the sensor. In other words, by converting the biological signal detected by the sensor corresponding to the sensor ID data according to the index conversion information data, the index data (value) of the emotion estimation index identified by the corresponding index ID is estimated (calculated). will be done.

たとえば、図5で示すセンサテーブル121におけるセンサIDSN01のデータレコードは、「脳波センサBA」の出力信号により「脳波のβ波/α波」の生体信号を算出し、この「脳波のβ波/α波」を「FX01」の指標変換情報を用いて「思考認識判断の活性」の指標を算出できる、と言った内容の情報となる。 For example, the data record of sensor IDSN01 in the sensor table 121 shown in FIG. The information states that the index of "activation of thinking recognition judgment" can be calculated using the index conversion information of "FX01".

心理平面テーブル122は、指標種別(具体的には指標IDデータを使用)を縦軸、横軸のパラメータとする2次元マトリックステーブルで、2種類の指標種別で定まる記憶セル(記憶枠)に当該2種類の指標種別データで使用できる心理平面種別のデータが記憶されている。たとえば、指標として用いる指標種別が、指標種別VSmと指標種別VSnであれば、心理推定に用いる心理平面は心理平面mnとなり、心理平面mnを用いた処理を行なうための情報が読み出され、心理推定処理に使用されることになる。 The psychological plane table 122 is a two-dimensional matrix table with index types (specifically, using index ID data) as parameters on the vertical and horizontal axes, and is a two-dimensional matrix table that uses index types (specifically, index ID data is used) as parameters on the vertical and horizontal axes. Psychological plane type data that can be used with two types of index type data is stored. For example, if the index types used as indicators are index type VSm and index type VSn, the psychological plane used for psychological estimation is psychological plane mn, information for processing using psychological plane mn is read out, and psychological plane mn is used for psychological estimation. It will be used for estimation processing.

なお、センサテーブル121の指標IDと、心理平面テーブル122の指標IDのデータとは、共通のデータが用いられる。すなわち、センサテーブル121と心理平面テーブル122に基づき、被験者に装着された2種類のセンサにより心理推定に用いる心理平面mnを決定できる。たとえば、被験者に装着されたセンサ種別が「脳波センサBA(指標IDVS01)」と「心拍センサHA(指標IDVS02)」であれば、「脳波センサBA(指標IDVS01)」および「心拍センサHA(指標IDVS02)」に対応する指標ID値がセンサテーブル121に基づき決定される(たとえば、VS01:「思考認識判断の活性」に対応する指標ID値、VS02:「身体活性」に対応する指標ID値)。そして、心理平面テーブル122に基づき、「思考認識判断の活性」(VS01)と「身体活性」(VS02)を指標とする心理平面01-02が心理推定に用いる心理平面として決定されることになる。 Note that common data is used for the index ID of the sensor table 121 and the index ID data of the psychological plane table 122. That is, based on the sensor table 121 and the psychological plane table 122, the psychological plane mn used for psychological estimation can be determined using two types of sensors attached to the subject. For example, if the sensor types worn by the subject are "brain wave sensor BA (index IDVS01)" and "heartbeat sensor HA (index IDVS02)," then "brainwave sensor BA (index IDVS01)" and "heartbeat sensor HA (index IDVS02)" are used. )" is determined based on the sensor table 121 (for example, VS01: an index ID value corresponding to "activation of thinking recognition judgment", VS02: index ID value corresponding to "physical activity"). Then, based on the psychological plane table 122, psychological planes 01-02, whose indicators are "activation of thinking recognition and judgment" (VS01) and "physical activity" (VS02), are determined as psychological planes to be used for psychological estimation. .

図6は、2種類の指標種別(「思考判断の活性度」、「交感神経活性度」)の指標値を縦軸(「思考判断の活性度)」)・横軸(「交感神経活性度)」)とする平面上に感情を配置した2次元感情平面における、指標値の座標変化に基づく感情状態を示す感情変化テーブルの一例を示す図である。つまり、図4に示した身体状態の指標をパラメータとする感情推定モデルを形成するためのデータテーブルの一例を示す図である。 Figure 6 shows the index values of two types of indicators (“activity level of thinking judgment” and “level of sympathetic nerve activity”) on the vertical axis (“activity level of thinking judgment”) and horizontal axis (“level of sympathetic nerve activity”). )'') is a diagram showing an example of an emotion change table showing emotional states based on coordinate changes of index values in a two-dimensional emotion plane in which emotions are arranged on a plane. That is, it is a diagram showing an example of a data table for forming an emotion estimation model using the physical condition index shown in FIG. 4 as a parameter.

図6に示すように、心理判断テーブル123の項目(データテーブルにおける記憶セル(記憶枠))には、「感情変化ID」、「変化パターン」、「表示記号」、「変化方向の意味」、「感情種別」が含まれる。 As shown in FIG. 6, the items of the psychological judgment table 123 (memory cells (memory frames) in the data table) include "emotional change ID", "change pattern", "display symbol", "meaning of change direction", "Emotion type" is included.

心理判断テーブル123の項目「感情変化ID」は、心理判断テーブル123のデータレコードを識別するための識別情報である感情変化IDデータを記憶する。感情変化IDデータ感情変化は、心理判断テーブル123のデータレコードにおける主キーでもある。つまり心理判断テーブル123では、感情変化IDデータごとにデータレコードが構成され、当該データレコードに感情変化IDデータに紐づいた各項目のデータ感情変化IDデータが記憶されることになる。 The item “emotional change ID” of the psychological judgment table 123 stores emotional change ID data that is identification information for identifying the data record of the psychological judgment table 123. Emotion change ID data Emotion change is also the primary key in the data record of the psychological judgment table 123. That is, in the psychological judgment table 123, a data record is configured for each emotion change ID data, and the data emotion change ID data of each item linked to the emotion change ID data is stored in the data record.

心理判断テーブル123の項目「変化パターン」は、2次元感情平面における2種類の指標データの座標位置の変化パターン(座標軌跡の形状種別)を示す変化方向情報を記憶する。ここでは、変化方向を段階的に8方向に層別して(45度単位の方向に角度領域を分割し、変化方向がどの領域に属するかで層別する)、その層別された8方向の内の対象データが該当する方向のデータが記憶される。なお、座標位置の変化パターンとしては、変化方向以外に、座標軌跡の形状(曲線、直線等の組み合わせ等:この場合類似度で判断対象計測値の変化パターンを判定することになる)や変化速度等、およびその組み合わせを適用することができる。 The item "change pattern" of the psychological judgment table 123 stores change direction information indicating a change pattern (shape type of coordinate locus) of the coordinate positions of two types of index data on the two-dimensional emotion plane. Here, the direction of change is stratified into 8 directions step by step (the angular region is divided into 45 degree directions, and the direction of change is stratified according to which region it belongs to), and among the 8 stratified directions, Data in the direction to which the target data corresponds is stored. In addition to the direction of change, the change pattern of the coordinate position includes the shape of the coordinate locus (combination of curves, straight lines, etc.; in this case, the change pattern of the measurement value to be judged is judged based on the degree of similarity) and the change speed. etc., and combinations thereof can be applied.

心理判断テーブル123の項目「表示記号」は、2次元感情平面における2種類の指標データの座標位置の変化方向を示す記号(画像)を記憶する。この記号(画像)は感情変化をディスプレイ等に表示する場合等に利用される。なお、変化方向を示す記号(画像)も、上述の変化方向情報と同様に8方向に層別された記号(画像)が用いられ、該当するデータレコードに記憶される。また、この「表示記号」のデータは「変化パターン」のデータ内容に応じて適宜そのデータ内容を設定すればよい。たとえば、「変化パターン」のデータ内容が座標軌跡の形状であれば、「表示記号」のデータは座標軌跡の形状を示すような画像とすればよい。 The item "display symbol" of the psychological judgment table 123 stores a symbol (image) indicating the direction of change in the coordinate position of two types of index data on the two-dimensional emotional plane. This symbol (image) is used when displaying emotional changes on a display or the like. Note that the symbol (image) indicating the direction of change is also a symbol (image) stratified into eight directions, similar to the above-mentioned change direction information, and is stored in the corresponding data record. Moreover, the data content of this "display symbol" may be appropriately set according to the data content of the "change pattern". For example, if the data content of the "change pattern" is the shape of a coordinate locus, the data of the "display symbol" may be an image showing the shape of the coordinate locus.

心理判断テーブル123の項目「変化方向の意味」は、2次元感情平面における2種類の指標データの座標位置の変化方向に対する心身状態の変化状態を示す情報(テキストデータ)を記憶する。 The item "meaning of direction of change" in the psychological judgment table 123 stores information (text data) indicating the state of change in the mental and physical state with respect to the direction of change in the coordinate positions of the two types of index data on the two-dimensional emotional plane.

心理判断テーブル123の項目「感情種別」は、当該データレコードに対応する感情種別、つまり当該データレコードにおける「変化パターン」に記憶された2次元感情平面における2種類の指標データの座標位置の変化パターンに対応する感情種別(強度が増加すす感情の種別)を記憶する。 The item "emotion type" of the psychological judgment table 123 is the emotion type corresponding to the data record, that is, the change pattern of the coordinate positions of the two types of index data on the two-dimensional emotion plane stored in the "change pattern" in the data record. The emotion type corresponding to (the type of emotion whose intensity increases) is memorized.

例えば、項目「変化ID」の値が「D02」のデータレコードの情報は、2次元感情平面における2種類の指標データの座標位置の変化方向が「右上方向への座標変化」、表示に使用する記号(画像)は「右上方向を向いた矢印」、当該座標位置の変化に対する身体状態は「身体・脳が活性化」、対応する感情種別(強度が増加すす感情の種別)は「楽しい、喜び、怒り、悲しみ」となる。つまり、2次元感情平面における2種類の指標データの座標位置の変化方向が「右上方向への座標変化」の場合、身体状態は「身体・脳が活性化」と推定され、また発生している感情(強くなってきている感情)として「楽しい、喜び、怒り、悲しみ」が推定される。そして、これらの情報を用いて、ディスプレイには、たとえば、身体状態の変動情報表示として「右上方向を向いた矢印」が表示され、また発生している感情(強くなってきている感情)の変動情報表示として「楽しい、喜び、怒り、悲しみ」の文字情報等の表示がなされることになる。 For example, information on a data record where the value of the item "Change ID" is "D02" is used for display as the direction of change in the coordinate positions of the two types of index data on the two-dimensional emotion plane is "coordinate change toward the upper right direction." The symbol (image) is "an arrow pointing to the upper right", the physical state in response to the change in the coordinate position is "body and brain activated", and the corresponding emotion type (type of emotion whose intensity increases) is "fun, joy". , anger, sadness.” In other words, if the direction of change in the coordinate positions of the two types of index data on the two-dimensional emotional plane is "coordinate change toward the upper right," the physical state is presumed to be "body and brain activated," and it is assumed that the body/brain is activated. Emotions (emotions that are becoming stronger) are estimated to be "fun, joy, anger, and sadness." Using this information, the display displays, for example, an ``arrow pointing to the upper right'' as information on changes in physical condition, and changes in emotions that are occurring (emotions that are becoming stronger). As the information display, text information such as "fun, joy, anger, sadness" will be displayed.

なお、心理判断テーブル123は、たとえば、図4に示すような心理学における学術情報に基づき設計・開発者により作成されるが、AI等を用いて、心理学における学術情報、たとえば論文等を言語解析処理等することにより生成することも可能である。本実施形態においては、サーバ10(制御部13)が言語解析処理等により、心理判断テーブル123を生成する。 Note that the psychological judgment table 123 is created by a designer/developer based on academic information in psychology as shown in FIG. It is also possible to generate it by performing analysis processing or the like. In this embodiment, the server 10 (control unit 13) generates the psychological judgment table 123 through language analysis processing or the like.

図4の例は、身体の活性・不活性(鎮静)を横軸、脳の活性(覚醒)・不活性(低覚醒)を縦軸とした座標平面(例えば、後述する感情推定モデル)において、横軸および縦軸の各パラメータ(身体の活性・不活性(鎮静)度、および脳の活性(覚醒)・不活性(低覚醒)度)を増減させた方向に、各増減状態で推定される感情状態を割り当てる技術(心理学)思想を表現している。たとえば、図4の例は、生体信号に基づく指標が、身体鎮静および低覚醒の傾向が強くなる方向に変化すると、感情は「休息リラックス方向」に移行することを示している。 In the example of FIG. 4, in a coordinate plane (e.g., the emotion estimation model described later) with the horizontal axis representing physical activity/inactivity (sedation) and the vertical axis representing brain activity (alertness)/inactivity (low arousal), Estimates are made for each increase/decrease state in the direction in which each parameter on the horizontal and vertical axes (body activation/inactivity (sedation) degree, and brain activation (arousal)/inactivity (low arousal) degree) is increased or decreased. It expresses the technical (psychological) idea of assigning emotional states. For example, the example in FIG. 4 shows that when the index based on biological signals changes in a direction where the tendency toward physical sedation and low arousal becomes stronger, the emotion shifts toward "rest and relaxation."

図6に示した心理判断テーブル123は、この図4に示した技術思想をデータテーブル化し、制御部13等のコントローラによる処理を可能なものとしている。 The psychological judgment table 123 shown in FIG. 6 converts the technical idea shown in FIG. 4 into a data table, and enables processing by a controller such as the control unit 13.

制御部13の各部の処理内容を説明する。以降の説明における抽出部131、生成部133、特定部134及び提供部135による処理の主体は、制御部13と言い換えることができる。また、制御部13は、コントローラの一例である。 The processing contents of each part of the control unit 13 will be explained. In the following description, the main body of processing by the extraction unit 131, generation unit 133, identification unit 134, and provision unit 135 can be translated as the control unit 13. Further, the control unit 13 is an example of a controller.

抽出部131は、通信部11を介して外部の学術文献データベース等から入手した心理学に関する医学的エビデンス(論文等)から身体状態の指標データと感情種別の関係に関する情報を抽出する。図7は、感情種別の抽出方法を説明する図である。 The extraction unit 131 extracts information regarding the relationship between physical condition index data and emotion type from psychological medical evidence (papers, etc.) obtained from an external academic literature database or the like via the communication unit 11. FIG. 7 is a diagram illustrating a method for extracting emotion types.

図7に示すように、抽出部131は、論文及び書籍等に書かれたテキストに対して自然言語解析を行うことにより、生体信号や身体状態の指標及び感情種別の関係に関する情報を抽出する。 As shown in FIG. 7, the extraction unit 131 performs natural language analysis on texts written in papers, books, etc. to extract information regarding the relationship between biological signals, indicators of physical conditions, and emotion types.

抽出部131は、たとえば、既存の機械学習手法やAI(人工知能)により自然言語解析を行い、生体信号や身体状態の指標及び感情種別の関係に関する情報を抽出する。 The extraction unit 131 performs natural language analysis using, for example, existing machine learning techniques or AI (artificial intelligence), and extracts information regarding the relationship between biological signals, physical condition indicators, and emotion types.

具体的には、図7の例では、抽出部131は、医学的エビデンス情報における「(脳波の)β波が大きくなるに従って、思考判断の活性が増強する。」というテキスト情報を基に、生体信号に関する「β波優勢」に対し、感情推定のための指標に関する「思考判断の活性が増強する」を対応付ける。また、抽出部131は、「思考判断の活性が強くなるに従って、楽しさ、怒り、悲しみといった感情が増強した。」というテキスト情報を基に、感情推定のための指標に関する「思考判断の活性が増強する(思考判断の活性が強くなる)」に対し、感情に関する「「楽しい」、「怒り」、「悲しみ」」を対応付ける。 Specifically, in the example of FIG. 7, the extraction unit 131 extracts information from a living body based on text information such as "As the β waves (of the brain waves) become larger, the activity of thinking and judgment increases." ``Beta-wave predominance'' regarding signals is associated with ``increased activity of thinking and judgment'' regarding indicators for emotion estimation. In addition, the extraction unit 131 extracts ``The activity of thinking judgment increases as the activity of thinking judgment becomes stronger, the emotions such as happiness, anger, and sadness increase.'' ``enhancement (activation of thinking and judgment becomes stronger)'' is associated with emotions such as ``fun'', ``anger'', and ``sadness''.

また、抽出部131は、医学的エビデンス情報における「(脳波の)α波が大きくなると、思考判断の活性が低下する。」というテキスト情報を基に、生体信号に関する「α波優勢」に対し、感情推定のための指標に関する「思考判断の活性が低下する」を対応付ける。また、抽出部131は、「思考判断の活性が弱くなるに従って、不安、恐怖といった感情が増強した。」というテキスト情報を基に、感情推定のための指標に関する「思考判断の活性が低下する(思考判断の活性が弱くなる)」に対し、感情に関する「「不安」、「恐怖」」を対応付ける。 In addition, the extraction unit 131 extracts information regarding "α wave predominance" related to biological signals based on text information such as "As alpha waves (of brain waves) become larger, the activity of thinking and judgment decreases." in the medical evidence information. Associating "decreased thinking and judgment activity" with regard to indicators for emotion estimation. In addition, the extraction unit 131 extracts "As the activity of thinking and judging becomes weaker, the emotions such as anxiety and fear increase." ``Anxiety'' and ``Fear'' related to emotions are associated with ``The activity of thinking and judgment becomes weaker.''

生成部133は、抽出部131の抽出した生体信号や身体状態の指標及び感情種別の関係に関する情報に基づき感情推定モデルを生成する。感情推定モデルは、生体信号に基づき身体状態の指標値を生成し、そして2種類の身体状態の指標値から感情状態を推定するモデルであり、具体的には、例えば図4に示した2種類の身体状態の指標値の変化状態から感情状態を決定(推定)する心理判断テーブル123を主体とするモデルである。また生成部133は、感情推定モデルを使用する際に用いるデータテーブル等も生成するつまり、図5および図6に示したセンサテーブル121、心理平面テーブル122、および心理判断テーブル123を生成する。 The generation unit 133 generates an emotion estimation model based on the biological signals extracted by the extraction unit 131, the index of the physical condition, and the information regarding the relationship between emotion types. The emotion estimation model is a model that generates a physical state index value based on biological signals and then estimates an emotional state from two types of physical state index values. Specifically, for example, the two types shown in FIG. This model is mainly based on a psychological judgment table 123 that determines (estimates) the emotional state from the state of change in the index value of the physical state. The generation unit 133 also generates data tables used when using the emotion estimation model, that is, the sensor table 121, the psychological plane table 122, and the psychological judgment table 123 shown in FIGS. 5 and 6.

具体例で説明すると(図3のセンサIDSN01のデータレコードの値を例示する)、生成部133は、センサテーブル121の「センサ種別」に、オペレータの操作、あるいはインターネット情報の自動探索処理等により新たに入力されたセンサ種別データ(脳波センサBA)を記憶し、それに伴い「センサID」(SN01)を自動付与する。なお、生成部133は、新たに入力されたセンサ種別データの入手の際に、当該センサに関する各種情報(たとえば、測定項目)も記憶部12に別途記憶する。そして、生成部133は、当該センサに関する測定項目データと、抽出部131が抽出した生体信号と感情推定のための指標との関係を示す情報に基づき(共通性による判断)、センサテーブル121の「生体信号種別」と「対応指標種別」に記憶するデータを生成し、センサテーブル121に記憶する(脳波のβ波/α波と、思考認識判断の活性)。その際、生成部133は、新たな感情推定のための指標については「対応指標ID」に当該指標に対する識別データを付与して記憶し、既存の感情推定のための指標については既に付与された対応する識別データを記憶する(VS01)。また、抽出部131が抽出した生体信号と感情推定のための指標との関係を示す情報に基づき(両者の関係式や変換テーブル情報)、センサテーブル121の「指標変換情報」に記憶するデータを生成し、センサテーブル121に記憶する(FX01)。 To explain with a specific example (the value of the data record of sensor IDSN01 in FIG. 3 is exemplified), the generation unit 133 adds a new value to the "sensor type" of the sensor table 121 due to an operator's operation or an automatic search process for Internet information. The input sensor type data (brain wave sensor BA) is stored, and a "sensor ID" (SN01) is automatically assigned accordingly. Note that, when obtaining newly input sensor type data, the generation unit 133 also separately stores various information regarding the sensor (for example, measurement items) in the storage unit 12. Then, the generation unit 133 generates the information in the sensor table 121 based on information indicating the relationship between the measurement item data regarding the sensor, the biological signal extracted by the extraction unit 131, and the index for emotion estimation (judgment based on commonality). Data to be stored in "Biological Signal Type" and "Corresponding Index Type" are generated and stored in the sensor table 121 (β waves/α waves of brain waves and activity of thought recognition judgment). At this time, the generation unit 133 adds and stores identification data for the index in the "corresponding index ID" for a new index for emotion estimation, and stores the identification data for the index for the existing index for emotion estimation. Store the corresponding identification data (VS01). Also, based on information indicating the relationship between the biological signal extracted by the extraction unit 131 and the index for emotion estimation (the relational expression between the two and conversion table information), data to be stored in the "index conversion information" of the sensor table 121 is stored. It is generated and stored in the sensor table 121 (FX01).

また生成部133は、新たな感情推定のための指標の生成時には(VS03として、具体的データを例示する)、心理平面テーブル122における「指標A」、「指標B」に新たな「指標」(縦横の両軸にVS03)を設定する。そして生成部133は、抽出部131の抽出した身体状態の指標及び感情種別の関係に関する情報に基づき、新たな指標(VS03)における指標値に対する感情と、各既存の指標(VS01、VS02)における指標値に対する感情とを、2次元空間に配置して(各指標値を縦横軸とし、各感情に対する各指標における値が示す座標(座標象限)に感情を配置)心理平面データ(心理平面01-03、心理平面02-03)を生成し、心理平面テーブル122の該当記憶セル(枠)に記憶する。 Furthermore, when generating an index for new emotion estimation (specific data is exemplified as VS03), the generation unit 133 adds a new "index" ( Set VS03) on both the vertical and horizontal axes. Based on the information regarding the relationship between the physical condition index and the emotion type extracted by the extraction unit 131, the generation unit 133 generates the emotion for the index value in the new index (VS03) and the index in each existing index (VS01, VS02). Psychological plane data (Psychological Plane 01-03 , psychological planes 02-03) are generated and stored in the corresponding storage cells (frames) of the psychological plane table 122.

なお、心理平面は概念的に表現したものであり、その概念は図3で示した平面空間のようなものとなる。そして、具体的には心理平面の処理が行えるデータ群(データテーブル等)で構成され、図6に示す心理判断テーブル123で示されるようなものとなる。 Note that the psychological plane is expressed conceptually, and the concept is similar to the plane space shown in FIG. 3. Specifically, it is composed of a data group (data table, etc.) that can be processed on the psychological plane, and is as shown in the psychological judgment table 123 shown in FIG.

なお、本実施形態では、2種の身体状態の指標により感情を推定する例で心理平面テーブル122を用いたが、3種の身体状態の指標により感情を推定する例では心理3次元テーブルを使用する等、使用する身体状態の指標の種類数に応じた次元の心理テーブルを使用することになる。 In this embodiment, the psychological plane table 122 is used in an example in which emotions are estimated using two types of physical condition indicators, but a psychological three-dimensional table is used in an example in which emotions are estimated using three types of physical condition indicators. For example, psychological tables with dimensions corresponding to the number of types of physical condition indicators used are used.

次に、図7に示した感情推定モデル(心理平面)例を用いて、生成部133による感情推定モデルの生成方法の具体例について説明する。 Next, a specific example of a method for generating an emotion estimation model by the generation unit 133 will be described using the example of the emotion estimation model (psychological plane) shown in FIG.

ここでは、心理平面における指標軸の縦軸には「思考認識判断の活性」(生体信号:脳波のβ波/α波(指標ID:「VS01」))の指標が用いられ、指標軸の横軸には「身体活性」(生体信号:心臓の波形の低周波成分変動(指標ID:「VS01」))の指標が用いられる。 Here, the vertical axis of the index axis on the psychological plane uses the index of "activation of thinking recognition judgment" (biological signal: β wave/α wave of brain waves (index ID: "VS01")), and the horizontal axis of the index axis An index of "physical activity" (biological signal: low frequency component fluctuation of heart waveform (index ID: "VS01")) is used for the axis.

なお、事前に抽出部131が、医学的エビデンス(論文等)に基づき、指標「思考認識判断の活性」および指標「身体活性」の強弱における感情内容の情報が、次のように抽出されているとする。
「思考認識判断の活性」が強い(活性度状態):憂鬱、楽しみ、喜び、怒り、悲しみ
「思考認識判断の活性」が弱い(非活性状態):リラックス、落ち着き、不安、恐怖、不愉快
「身体活性」が強い(活性度状態):楽しみ、喜び、怒り、悲しみ、不安、恐怖、不愉快
「身体活性」が弱い(非活性状態):憂鬱、リラックス、落ち着き
Note that the extraction unit 131 has previously extracted emotional content information based on medical evidence (papers, etc.) regarding the strength of the index "activation of thinking recognition and judgment" and the index "physical activation" as follows. shall be.
``Activity of thinking, recognition, and judgment'' is strong (activation state): Depression, enjoyment, joy, anger, sadness ``Activity of thinking, recognition, and judgment'' is weak (inactive state): Relaxation, calmness, anxiety, fear, unpleasantness ``Body Strong "activity" (activity state): enjoyment, joy, anger, sadness, anxiety, fear, unpleasantness Low "physical activity" (inactive state): depression, relaxation, calmness

生成部133は、抽出部131が抽出した上述の各指標と、その指標の強弱に対する感情内容の関係に基づき、各感情(内容)を対応する心理平面における各象限に割り振り、心理平面を完成させる。 The generating unit 133 allocates each emotion (content) to each quadrant of the corresponding psychological plane based on the above-mentioned indicators extracted by the extracting unit 131 and the relationship between the emotional content and the strength of the indicator, and completes the psychological plane. .

例えば、心理平面の第一象限は「思考認識判断の活性」の指標値が強く、また「身体活性」の指標値が強い状況の領域であるので、当該第一象限には「思考認識判断の活性」の指標値が強い場合に対応する感情内容と、「身体活性」の指標値が強い場合に対応する感情とに共通する感情内容が割り振られることになる。 For example, the first quadrant of the psychological plane is an area of situations where the index value of "Activity of thinking, recognition and judgment" is strong, and the index value of "Physical activity" is strong. A common emotional content is assigned to the emotional content corresponding to a strong index value of "activity" and the emotion corresponding to a strong index value of "physical activity."

具体的には、生成部133は、指標ID「VS01」に対応する正側(「思考認識判断の活性」が強い側)の感情内容と、指標ID「VS02」に対応する正側(「身体活性」が強い側)の感情内容と、に共通する感情内容「楽しい、喜び、怒り、悲しみ」を第1象限の領域210に配置する。 Specifically, the generation unit 133 generates the emotional contents on the positive side (the side with strong “activation of thought recognition and judgment”) corresponding to the index ID “VS01” and the emotional content on the positive side (the side with “stronger activity of thinking recognition judgment”) corresponding to the index ID “VS02” The emotional content of the "active" side) and the emotional content common to "fun, joy, anger, sadness" are placed in the region 210 of the first quadrant.

また、生成部133は、指標ID「VS01」に対応する正側の感情内容と、指標ID「VS02」に対応する負側の感情内容と、に共通する感情内容「憂鬱」を第2象限の領域220に配置する。 In addition, the generation unit 133 generates the emotional content “depression” that is common to the positive emotional content corresponding to the index ID “VS01” and the negative emotional content corresponding to the index ID “VS02” in the second quadrant. It is placed in area 220.

また、生成部133は、指標ID「VS01」に対応する負側の感情内容と、指標ID「VS02」に対応する負側の感情内容と、に共通する感情種別「リラックス、落ち着き」を第3象限の領域230に配置する。 In addition, the generation unit 133 generates a third emotion type “relaxation, calmness” that is common to the negative emotion content corresponding to the index ID “VS01” and the negative emotion content corresponding to the index ID “VS02”. It is placed in the quadrant area 230.

また、生成部133は、指標ID「VS01」に対応する正側の感情内容と、指標ID「VS02」に対応する負側の感情内容と、に共通する感情内容「不安、恐怖、不愉快」を第4象限の領域240に配置する。 In addition, the generation unit 133 generates emotional content “anxiety, fear, unpleasantness” that is common to the positive emotional content corresponding to the index ID “VS01” and the negative emotional content corresponding to the index ID “VS02”. It is placed in the area 240 of the fourth quadrant.

取得部136は、通信部を介して、端末装置20より各種生体信号等のデータを受信し、その後の処理のために内部のメモリやあるいは記憶部12に必要なデータを記憶する。 The acquisition unit 136 receives data such as various biological signals from the terminal device 20 via the communication unit, and stores necessary data in the internal memory or storage unit 12 for subsequent processing.

モデル選択部137は、取得部136が取得したデータに含まれる各種生体信号の種別に基づき感情推定に用いるモデルを選択する。具体的には、モデル選択部137は、生体信号の種別でセンサテーブル121の「センサ種別」のデータを照合して生体信号に対応する「対応指標種別」の指標種別データを抽出する。そして、モデル選択部137は、抽出した指標種別データ(感情推定に用いる2種)で心理平面テーブル122の照合し、該当するモデルを使用する感情推定モデル(2種の指標種別の交点となるデータセルの心理平面モデル)として選択する。たとえば、センサ種別が脳波センサBA(センサIDSN01)と心拍センサHA(センサIDSN02)の場合、対応する生体状態指標は「思考認識判断の活性」(指標IDVS01)と「身体活性」(指標IDVS02)となり、モデル選択部137は、使用する感情推定モデルとして心理平面01-02のモデルを選択する。 The model selection unit 137 selects a model to be used for emotion estimation based on the types of various biological signals included in the data acquired by the acquisition unit 136. Specifically, the model selection unit 137 collates the "sensor type" data of the sensor table 121 with the type of biosignal and extracts the index type data of the "corresponding index type" corresponding to the biosignal. Then, the model selection unit 137 collates the psychological plane table 122 with the extracted index type data (two types used for emotion estimation), and creates an emotion estimation model using the corresponding model (data at the intersection of the two types of indicators). cell's psychological plane model). For example, when the sensor types are brain wave sensor BA (sensor IDSN01) and heart rate sensor HA (sensor IDSN02), the corresponding biological state indicators are "activity of thinking recognition judgment" (index IDVS01) and "physical activity" (index IDVS02). , the model selection unit 137 selects the model of psychological plane 01-02 as the emotion estimation model to be used.

特定部134は、モデル選択部137により選択された感情推定モデル、つまり使用する身体状態の指標(換言すれば使用するセンサ種別)に対応する感情推定モデルに、取得部136により取得された生体信号、つまり実際に測定された生体信号に基づく指標を適用して、感情種別を特定(感情を推定)する。 The identification unit 134 adds the biological signal acquired by the acquisition unit 136 to the emotion estimation model selected by the model selection unit 137, that is, the emotion estimation model corresponding to the index of the physical condition to be used (in other words, the sensor type to be used). In other words, the type of emotion is identified (estimated emotion) by applying an index based on actually measured biological signals.

具体的には、特定部134は、取得部136により取得された2種の生体信号について、センサテーブル121から当該生体信号に対応する指標変換情報(例えば、センサ種別が脳波センサBA(センサIDSN01)と心拍センサHA(センサIDSN02)の場合は、指標変換情報FX01と指標変換情報FX02)を読み出し、当該指標変換情報を用いて生体信号を生体状態指標値に変換する。 Specifically, for the two types of biosignals acquired by the acquisition unit 136, the identification unit 134 extracts index conversion information corresponding to the biosignals from the sensor table 121 (for example, the sensor type is brain wave sensor BA (sensor IDSN01)). In the case of heart rate sensor HA (sensor IDSN02), index conversion information FX01 and index conversion information FX02) are read out, and the biological signal is converted into a biological condition index value using the index conversion information.

そして、特定部134は、モデル選択部137により選択された感情推定モデルの心理平面上(脳波センサBAと心拍センサHAを使用の場合、心理平面01-02上)に、変換処理により算出された2種類の生体状態指標値による座標を順次プロットしていき、その軌跡に基づき感情種別を推定する。具体的には、特定部134は、生体信号に基づく2種類の指標値の変化状態で心理判断テーブル123における「変化パターン」の各データに対する照合処理(軌跡の図形パターン認識)を行ない、対応する「感情種別」のデータを感情の推定結果とする。 The specifying unit 134 then converts the emotion estimation model selected by the model selecting unit 137 onto the psychological plane (when using the brain wave sensor BA and heart rate sensor HA, on the psychological plane 01-02). The coordinates of two types of biological condition index values are sequentially plotted, and the emotion type is estimated based on the trajectory. Specifically, the specifying unit 134 performs matching processing (graphic pattern recognition of the locus) on each data of the "change pattern" in the psychological judgment table 123 in the state of change of the two types of index values based on the biological signals, and performs corresponding processing. The "emotion type" data is used as the emotion estimation result.

特定部134は、ユーザ(例えば、被験者U02a及び被験者U02b)の生体信号に基づく複数の指標を取得し、当該複数の指標の時間経過に伴う複数の指標の変化に基づきユーザの感情を推定する。 The identification unit 134 acquires a plurality of indicators based on biosignals of the user (for example, the subject U02a and the subject U02b), and estimates the user's emotion based on changes in the plurality of indicators over time.

また、感情推定モデルは、生体信号を指標変換情報に基づき感情推定用指標に変換し、複数種の感情推定用指標で表される座標の変化状態を、当該変化状態と感情情報を関連付けた心理マップ情報(例えば、心理平面テーブル122)に基づきユーザの感情を推定するモデルである。 In addition, the emotion estimation model converts biosignals into emotion estimation indicators based on indicator conversion information, and converts the state of change in coordinates expressed by multiple types of emotion estimation indicators into psychological information that associates the change state with emotional information. This is a model that estimates the user's emotions based on map information (for example, the psychological plane table 122).

生体信号(生体信号に基づく指標)の変化は、生体信号(指標)間の差成分であるので、個人差や周辺環境の差に基づく誤差が相殺され、生体信号(指標)の変化に基づく感情の推定は個人差や周辺環境の差による影響を抑えることができる。 Changes in biological signals (indicators based on biological signals) are the difference components between biological signals (indicators), so errors based on individual differences and differences in the surrounding environment are canceled out, and emotions based on changes in biological signals (indicators) are canceled out. The estimation of can suppress the influence of individual differences and differences in the surrounding environment.

次に、図3に示した心理平面テーブル122を使用する場合の感情推定方法について、具体的に説明する。 Next, the emotion estimation method when using the psychological plane table 122 shown in FIG. 3 will be specifically explained.

ここで、時刻tにおける第1の指標(「思考認識判断の活性」)をx(X座標値)、時刻tにおける第2の指標(「身体活性」)をy(Y座標値)とする。つまり、時刻tにおける対象の心理平面(心理平面テーブル122に対応する心理平面)上の座標(x,y)(XY平面座標値)とする。 Here, the first index ("activation of thinking recognition and judgment") at time t is x t (X coordinate value), and the second index ("physical activity") at time t is y t (Y coordinate value). do. In other words, the coordinates (x t , y t ) (XY plane coordinate values) on the psychological plane of the target at time t (the psychological plane corresponding to the psychological plane table 122).

この場合、時刻tより後の時刻t+1における座標は(xt+1,yt+1)となる。特定部134は、時刻tから時刻t+1にかけての変化量を、ベクトルの始点を原点(0,0)に設定した状態におけるベクトルンの終点座標でベクトルを表示する形式で、ベクトル(xt+1 ,yt+1-y)を算出する。 In this case, the coordinates at time t+1 after time t are (x t+1 , y t+1 ). The specifying unit 134 displays the amount of change from time t to time t+1 as a vector (x t+1 - x t , y t+1 − y t ).

続いて、特定部134は、ベクトルの示す方向が、図3の心理平面テーブル122における「変化パターン」のどの変化方向(変化パターン)に近いかを特定する。具体的には、特定部134は、ベクトル(xt+1 ,yt+1-y)の座標位置の原点からの方向(X軸正方向(右方向)を0°とし、半時計方向に増加する角度)を、直交座標から極座標への変換公式を算出する。指標値座標変化方向は8方向に分類されているので、ベクトル方向弁別の比較角度は、右、右上、上、左上、左、左下、下、右下の方向でそれぞれ0°、45°、90°、135°、180°、225°、270°、315°となる。 Subsequently, the specifying unit 134 specifies which change direction (change pattern) of the "change patterns" in the psychological plane table 122 in FIG. 3 the direction indicated by the vector is close to. Specifically, the specifying unit 134 determines the direction of the coordinate position of the vector (x t+1 x t , y t+1 − y t ) from the origin (with the X-axis positive direction (right direction) being 0°, Calculate the conversion formula for the increasing angle) from rectangular coordinates to polar coordinates. Since the index value coordinate change direction is classified into 8 directions, the comparison angles for vector direction discrimination are 0°, 45°, and 90° for the right, upper right, upper, upper left, left, lower left, lower, and lower right directions, respectively. °, 135°, 180°, 225°, 270°, and 315°.

特定部134は、上記の角度のうち、上述のベクトルの方向(角度)に最も近い角度を特定し、対応する方向を指標値座標の変化方向とする。例えば、ベクトルが(1.2,1.5)であれば、極座標における角度は約51°であり、上記の角度のうち45°に最も近い。このため、特定部134は、指標値座標の変化方向を右上と特定する。 The specifying unit 134 specifies the angle closest to the direction (angle) of the above-mentioned vector from among the above-mentioned angles, and sets the corresponding direction as the direction of change of the index value coordinates. For example, if the vector is (1.2, 1.5), the angle in polar coordinates is approximately 51°, which is the closest to 45° of the above angles. Therefore, the identifying unit 134 identifies the direction of change in the index value coordinates as the upper right.

さらに、特定部134は、心理平面テーブル122の「変化パターン」データを特定した方向(たとえば、右上)で照合し、指標値座標の変化方向が右上である場合の「感情種別」データを被験者の感情(たとえば、高揚サイキングアップ方向(喜びの増大))として推定する。 Furthermore, the specifying unit 134 collates the "change pattern" data of the psychological plane table 122 in the specified direction (for example, upper right), and selects the "emotion type" data of the subject when the direction of change of the index value coordinate is upper right. Estimate as an emotion (e.g. uplifting psychic up direction (increase in pleasure)).

提供部135は、特定部134が推定した感情の情報を端末装置20に提供する。 The providing unit 135 provides the terminal device 20 with the emotion information estimated by the specifying unit 134.

そして、分析者U01は、提供部135によって提供された感情に関する情報を、端末装置20を介して閲覧する等して利用する。図8は、評価画面の一例、および感情に関する情報の利用状況を示す図である。 Then, the analyst U01 uses the information regarding emotions provided by the providing unit 135 by, for example, viewing it via the terminal device 20. FIG. 8 is a diagram showing an example of the evaluation screen and the usage status of information regarding emotions.

提供部135は、感情変化を示す矢印(心理判断テーブル123における対応する「表示記号」データを使用)、すなわち対応する心理平面における座標変化方向を示す情報とともに、自然言語によるメッセージを提供する。端末装置20の評価画面21には、各被験者について提供部135から提供された情報が表示される。なお、これらの情報は、心理判断テーブル123にメッセージデータを追加記憶することにより、あるいは端末装置20に感情情報とメッセージ情報が関連付けられたデータベースを設置することにより実現することができる。 The providing unit 135 provides a message in natural language along with an arrow indicating a change in emotion (using the corresponding "display symbol" data in the psychological judgment table 123), that is, information indicating a direction of coordinate change in the corresponding psychological plane. The evaluation screen 21 of the terminal device 20 displays information provided from the providing unit 135 for each subject. Note that this information can be realized by additionally storing message data in the psychological judgment table 123 or by installing a database in which emotional information and message information are associated in the terminal device 20.

以下の説明で、「Aさん」は被験者U02aを指すものとする。また、「Bさん」は被験者U02bを指すものとする。 In the following explanation, "Mr. A" refers to subject U02a. Furthermore, "Mr. B" refers to subject U02b.

図8の例では、評価画面21には、右上方向の矢印とともに、「Aさんはサイキングアップ方向です。(正しい方向です。)」というメッセージが表示される。分析者U01は、評価画面21の表示内容を参照し、被験者U02aに対し、たとえば「Aさん、その調子です。」とAさんの精神状態に応じた適切な助言をAさんにする(アドバイス情報等をAさんのゲーム機等の端末に送信する)ことができる。 In the example of FIG. 8, the evaluation screen 21 displays a message "Mr. A is psyching up. (This is the correct direction.)" along with an arrow in the upper right direction. Analyst U01 refers to the content displayed on the evaluation screen 21 and gives appropriate advice to subject U02a according to A's mental state, for example, "Mr. A, how are you doing?" (Advice information etc. can be sent to Mr. A's terminal such as a game machine).

また、図8の例では、評価画面21には、左上方向の矢印とともに、「Bさんは憂鬱方向です。(副交感神経が優位です。)」というメッセージが表示される。分析者U01は、評価画面21の表示内容を参照し、被験者U02bに対し、たとえば「Bさん、交感神経の活性化を意識してください。」とBさんの精神状態に応じた適切な助言をBさんにする(アドバイス情報等をAさんのゲーム機等の端末に送信する)ことができる。 Further, in the example of FIG. 8, the evaluation screen 21 displays a message "Mr. B is depressed (parasympathetic nerves are dominant)" along with an arrow in the upper left direction. Analyst U01 refers to the content displayed on the evaluation screen 21 and gives appropriate advice to subject U02b according to Mr. B's mental state, such as "Mr. B, please be conscious of activating your sympathetic nervous system." can be sent to Mr. B (sending advice information, etc. to Mr. A's terminal such as a game machine).

次にeスポーツでの推定システム1の利用例を説明する。なお、被験者U01a及び被験者U02bは、eスポーツのプレーヤである。ここでは、当該eスポーツにおいてプレーヤは、該当心理平面における右上方向及び左下方向の感情変化を意識的に生じさせ、なるべく左上方向及び右下方向の感情変化を生じさせないことが望ましいものとする。なお、どのような感情変化が望ましいかは、プレイするゲームのタイトル、シーン等により異なる。また、ゲーム以外の利用形態によってもどのような感情変化が望ましいかはことなる。従って、推定システム1の利用形態に応じた感情情報とメッセージ情報が関連付けられたデータベース等を準備し、利用形態に応じて当該データベース等を選択して用い、利用形態に応じたメッセージ等が提示されるようにするのが好ましい。 Next, an example of how the estimation system 1 is used in e-sports will be explained. Note that the subject U01a and the subject U02b are e-sports players. Here, it is assumed that in the e-sports, it is desirable for the player to consciously cause emotional changes in the upper right direction and lower left direction on the relevant psychological plane, and to avoid emotional changes in the upper left direction and lower right direction as much as possible. Note that what kind of emotional change is desirable varies depending on the title, scene, etc. of the game to be played. Furthermore, what kind of emotional change is desirable also differs depending on the type of use other than games. Therefore, a database etc. in which emotional information and message information are associated according to the usage pattern of the estimation system 1 is prepared, the database etc. is selected and used according to the usage style, and messages etc. according to the usage style are presented. It is preferable that the

図9の例では、評価画面21には、左下の矢印方向とともに、「Aさんはリラックス方向です。(正しい方向です。)」というメッセージが表示される。分析者U01は、評価画面21の表示内容を参照し、被験者U02aに対し、「Aさんは習得がうまくいっているね。」とAさんの精神状態に応じた適切な助言をすることができる。 In the example of FIG. 9, the evaluation screen 21 displays the message "Mr. A is in the relaxing direction. (This is the correct direction.)" along with the direction of the arrow at the bottom left. Analyst U01 can refer to the content displayed on the evaluation screen 21 and give appropriate advice to subject U02a according to Mr. A's mental state, such as, "Mr. A is learning well."

また、図9の例では、評価画面21には、右下方向の矢印とともに、「Bさんは不安方向です。(交感神経が優位です。)」というメッセージが表示される。分析者U01は、評価画面21の表示内容を参照し、被験者U02bに対し、「Bさんは脳の覚醒がうまくいっているね。自律神経のコントロールをがんばろう。」とBさんの精神状態に応じた適切な助言をすることができる。 Further, in the example of FIG. 9, the evaluation screen 21 displays a message "Mr. B is anxious (sympathetic nerves are dominant)" along with an arrow pointing toward the lower right. Analyst U01 refers to the content displayed on the evaluation screen 21 and tells subject U02b, "Mr. B's brain arousal is going well. Let's do our best to control the autonomic nervous system," depending on Mr. B's mental state. can give appropriate advice.

このように、感情状態の推定結果に基づき、プレーヤに対して適切なアドバイスを与えることが可能になる。 In this way, it becomes possible to give appropriate advice to the player based on the estimation result of the emotional state.

また、感情推定用指標は、脳の覚醒度合いを表す第1の指標(例えば、図3の縦軸に対応する指標)と、ユーザの自律神経の活性度合いを表す第2の指標(例えば、図3の横軸に対応する指標)と、であるということができる。 In addition, the emotion estimation index includes a first index representing the degree of brain arousal (for example, an index corresponding to the vertical axis in Figure 3) and a second index representing the degree of activation of the user's autonomic nerves (for example, the index corresponding to the vertical axis in Figure 3). (index corresponding to the horizontal axis of 3).

(感情推定モデルのキャリブレーション)
以上説明した感情推定方法は、感情の変化(たとえば、憂鬱の方向(傾向が強くなる方向)に変化している)を捉える、つまり相対的な感情を捉えるものであったが、絶対的な感情を捉えるもの(たとえば、憂鬱のレベル)のキャリブレーションにも応用できる。この場合、サーバ10は、収集したユーザの生体信号に基づく複数の指標によるキャリブレーションが可能となった場合に、複数の指標の値自体による感情の推定を行う。
(Calibration of emotion estimation model)
The emotion estimation method described above captures changes in emotions (for example, changes in the direction of depression (increasing tendency)), that is, captures relative emotions, but It can also be applied to the calibration of things that capture things (for example, the level of depression). In this case, the server 10 estimates the emotion based on the values of the plurality of indicators themselves when calibration using a plurality of indicators based on the collected biological signals of the user becomes possible.

図10は、感情推定モデルのキャリブレーション方法を説明する図である。図10の連続する矢印の集合は、各時刻において特定部134が特定した生体状態指標の座標位置の変化状況を矢印(ベクトルの始点・終点を表示)で表したものである。 FIG. 10 is a diagram illustrating a method for calibrating an emotion estimation model. The set of continuous arrows in FIG. 10 represents the change status of the coordinate position of the biological condition index specified by the specifying unit 134 at each time using arrows (indicating the starting point and ending point of the vector).

また、図10の左側において破線で表される縦軸及び横軸は、感情推定モデルの心理平面における各指標軸を仮の位置に配置したものである。 Furthermore, the vertical and horizontal axes represented by broken lines on the left side of FIG. 10 are the respective index axes in the psychological plane of the emotion estimation model arranged at tentative positions.

特定部134は、各矢印の始点(あるいは終点)、つまり2種の生体状態指標における各座標値の平均を算出する(精度が期待できる所定数の座標値の収集後)。そして、平均の座標値が心理平面における原点となるように、2種の生体状態に対する指標補正値を算出する(生体状態指標を補正し、相対的に図10の左側において破線で表される縦軸及び横軸を図10の右側において実線で表される縦軸及び横軸に移動させる)。そして、特定部134は、当該補正値を用いて2種の生体状態指標値を補正し、当該補正を行った補正指標値を絶対的な感情を推定する感情推定モデルに適用して、感情を推定する。つまり、多くの生体状態指標値に対して統計処理を施して、当該統計処理値を用いてキャリブレーションを行うものである。 The specifying unit 134 calculates the start point (or end point) of each arrow, that is, the average of each coordinate value of the two types of biological condition indicators (after collecting a predetermined number of coordinate values that can be expected to be accurate). Then, index correction values for the two types of biological conditions are calculated so that the average coordinate value becomes the origin on the psychological plane. (the vertical and horizontal axes are moved to the vertical and horizontal axes represented by solid lines on the right side of FIG. 10). Then, the specifying unit 134 corrects the two types of biological condition index values using the correction values, applies the corrected correction index values to the emotion estimation model that estimates absolute emotions, and calculates the emotion. presume. That is, statistical processing is performed on many biological condition index values, and calibration is performed using the statistically processed values.

これにより、個人差や周囲環境による生体信号の誤差が相殺、抑制され、絶対的な感情を推定する感情推定モデルにおける感情推定精度を向上できる。 As a result, errors in biological signals due to individual differences and the surrounding environment are canceled out and suppressed, and the accuracy of emotion estimation in the emotion estimation model that estimates absolute emotions can be improved.

なお、上述の例では2種の生体状態指標における各座標値の平均値によるキャリブレーションを行ったが、2種の生体状態指標における各座標値の最大値、最小値により定まる領域に重心が(各座標値が収まる心理平面上の四角形の重心)が原点となる補正(当該四角形の大きさを調整する補正も有効)も適用可能である。 In addition, in the above example, calibration was performed using the average value of each coordinate value in two types of biological condition indicators, but the center of gravity is in the area determined by the maximum and minimum values of each coordinate value in two types of biological condition indicators ( It is also possible to apply a correction in which the origin is the center of gravity of a rectangle on the psychological plane in which each coordinate value fits (correction that adjusts the size of the rectangle is also effective).

また、当該キャリブレーションにはキャリブレーションに必要なデータ収集に時間がかかるので、当初は生体状態指標値の変化に基づく感情の推定を行い、充分な数のデータ収集が終了した後に、絶対的な感情を推定する感情推定モデルによる感情推定を行う(併用も可)のも、即応性の面で効果的である。 In addition, since this calibration takes time to collect the data necessary for calibration, emotions are initially estimated based on changes in biological condition index values, and after a sufficient amount of data has been collected, absolute Estimating emotions using an emotion estimation model that estimates emotions (combined use is also possible) is also effective in terms of responsiveness.

(感情変化のパターンを学習する機械学習モデル)
特定部134による感情状態の推定をは、人工知能を利用して行うことも可能である。その場合、特定部134はオペレータ等の学習を指示する操作およびオペレータ等から提供された学習データに基づき内蔵の人工知能に対する学習制御を行う。特定部134は、入力(取得)された生体信号を学習済みの機械学習モデルに適用して感情状態を推定し、その推定結果を提供部135により端末装置20に提供する。この場合、感情推定モデルは、時間経過に伴う複数の指標の変化のパターンと感情との対応関係を学習した機械学習モデルである。
(Machine learning model that learns patterns of emotional changes)
The estimation of the emotional state by the identification unit 134 can also be performed using artificial intelligence. In that case, the specifying unit 134 performs learning control on the built-in artificial intelligence based on the operation of the operator or the like to instruct learning and the learning data provided by the operator or the like. The specifying unit 134 estimates the emotional state by applying the input (acquired) biosignal to the trained machine learning model, and provides the estimation result to the terminal device 20 by the providing unit 135. In this case, the emotion estimation model is a machine learning model that has learned the correspondence between emotions and patterns of changes in multiple indicators over time.

図11は、機械学習モデルの学習方法を説明する図である。図11に示すように、特定部134は、機械学習モデルLM(例えば、ディープニューラルネットワーク)に、測定した生体信号の変化データ(所定時間間隔で測定した生体信号の差データ)とその測定の際の感情状態(感情変化:アンケートや表情等の解析により判断)のデータをスコア(生体信号の変化データに対する感情状態発生の確からしさ等で、たとえばデータ作成者等が設定する)とともに学習データ(LNIN)として入力する。このような学習により、生体信号データの入力(LDIN)により感情状態が推定され出力(FEOUT)される機械学習モデルが生成される。 FIG. 11 is a diagram illustrating a learning method of a machine learning model. As shown in FIG. 11, the identification unit 134 uses a machine learning model LM (for example, a deep neural network) to determine the change data of the measured biological signals (difference data of the biological signals measured at predetermined time intervals) and the change data of the measured biological signals. The emotional state (emotional change: determined by analysis of questionnaires, facial expressions, etc.) data is combined with the learning data (LNIN ). Through such learning, a machine learning model is generated in which the emotional state is estimated and output (FEOUT) based on the input of biological signal data (LDIN).

このように、本例では提供部135は、時間経過に伴う複数の指標の変化のパターンと感情との対応関係を学習した機械学習モデルを用いて、ユーザの感情を推定する。 In this way, in this example, the providing unit 135 estimates the user's emotion using a machine learning model that has learned the correspondence between patterns of changes in a plurality of indicators over time and emotions.

次に、図12、図13を用いて、サーバ10(制御部13)の行う処理の流れを説明する。図12は、外部の医学的エビデンス(論文等)に基づき感情推定モデルを生成する処理、つまりセンサテーブル121と、心理平面テーブル122と、心理判断テーブル123を生成するモデル生成処理を示すフローチャートであり、オペレータ等によるモデル生成処理開始操作により制御部13が実行する。 Next, the flow of processing performed by the server 10 (control unit 13) will be described using FIGS. 12 and 13. FIG. 12 is a flowchart showing a process of generating an emotion estimation model based on external medical evidence (papers, etc.), that is, a model generation process of generating a sensor table 121, a psychological plane table 122, and a psychological judgment table 123. , the control unit 13 executes the model generation processing start operation by an operator or the like.

サーバ10の制御部13(抽出部131)は、ステップS101において、医学情報データベースやインターネット情報等から医学的エビデンス(論文等)を収集し、ステップS102に移る。 In step S101, the control unit 13 (extraction unit 131) of the server 10 collects medical evidence (papers, etc.) from a medical information database, Internet information, etc., and moves to step S102.

制御部13(抽出部131)は、ステップS102において、収集した医学的エビデンス(論文等)の言語解析等を行い、各種センサに関するセンサ関連情報(センサ識別データ、センサ種別、出力生体信号種別等)、生体信号と生体状態指標の関係に関するデータ、生体状態指標と感情の関係(特に生体状態指標値の変化と感情変化の関係)に関するデータを抽出し、テーブルデータ化するための層別化等の処理を行ない、ステップS103に移る。 In step S102, the control unit 13 (extraction unit 131) performs language analysis of the collected medical evidence (papers, etc.), and extracts sensor-related information regarding various sensors (sensor identification data, sensor type, output biosignal type, etc.) , stratification, etc. to extract data on the relationship between biological signals and biological condition indicators, and data on the relationship between biological condition indicators and emotions (especially the relationship between changes in biological condition index values and emotional changes) and convert them into table data. After processing, the process moves to step S103.

制御部13(生成部133)は、ステップS103において、センサ関連情報、および生体信号と生体状態指標の関係に関するデータに基づきセンサテーブル121を生成し、ステップS104に移る。 In step S103, the control unit 13 (generation unit 133) generates the sensor table 121 based on the sensor-related information and data regarding the relationship between biological signals and biological condition indicators, and proceeds to step S104.

制御部13(生成部133)は、ステップS104において、2種類の生体状態指標と感情の関係に関するデータに基づき当該2種類の生体状態指標に基づく感情推定モデル(心理平面)を生成し、さらに生体状態指標の各組み合わせで同様に感情推定モデルを生成し、生体状態指標のマトリックステーブルに感情推定モデルを配置することにより、心理平面テーブル122を生成し、処理を終える。なお、感情推定モデル(心理平面)はテーブルデータ化により心理判断テーブル123となる。 In step S104, the control unit 13 (generation unit 133) generates an emotion estimation model (psychological plane) based on the two types of biological condition indicators based on data regarding the relationship between the two types of biological condition indicators and emotions, and further generates an emotion estimation model (psychological plane) based on the two types of biological condition indicators. Emotion estimation models are similarly generated for each combination of state indicators, and the emotional plane table 122 is generated by arranging the emotion estimation models in the matrix table of biological state indicators, and the process ends. Note that the emotion estimation model (psychological plane) becomes a psychological judgment table 123 by converting it into table data.

図13は、感情状態を推定する感情推定処理を示すフローチャートであり、端末装置20からの感情推定要求信号(オペレータ等による要求操作による)の受信、あるいはゲーム等の推定感情の利用システムの起動信号の受信等により制御部13が実行を開始し、推定感情の利用システムの停止(ゲームの終了等)まで繰り返し実行される。 FIG. 13 is a flowchart showing an emotion estimation process for estimating an emotional state, in which an emotion estimation request signal (by a request operation by an operator, etc.) is received from the terminal device 20, or a activation signal for a system for using estimated emotions such as a game. The control unit 13 starts execution upon reception of the estimated emotion, and the execution is repeated until the estimated emotion utilization system is stopped (e.g., the end of the game).

サーバ10の制御部13(取得部136)は、ステップS201において、通信部11を介して、端末装置20より各種生体信号等のデータを受信し、その後の処理のために内部のメモリやあるいは記憶部12に必要なデータを記憶し、ステップS202に移る。 In step S201, the control unit 13 (acquisition unit 136) of the server 10 receives data such as various biological signals from the terminal device 20 via the communication unit 11, and stores the data in the internal memory or storage for subsequent processing. The necessary data is stored in the section 12, and the process moves to step S202.

制御部13(モデル選択部137)は、ステップS202において、ステップS201で端末装置20から取得したデータに含まれる各種生体信号の種別(本例では2種の生体信号)に基づき感情推定に用いるモデルを選択し、ステップS203に移る。 In step S202, the control unit 13 (model selection unit 137) selects a model to be used for emotion estimation based on the types of various biosignals (two types of biosignals in this example) included in the data acquired from the terminal device 20 in step S201. is selected, and the process moves to step S203.

制御部13(取得部136)は、ステップS203において、通信部11を介して、端末装置20より各種生体信号のデータを受信し、その後の処理のために内部のメモリやあるいは記憶部12に必要なデータを記憶し、ステップS204に移る。 In step S203, the control unit 13 (acquisition unit 136) receives data of various biological signals from the terminal device 20 via the communication unit 11, and saves data to the internal memory or storage unit 12 for subsequent processing. The data is stored and the process moves to step S204.

制御部13(特定部134)は、ステップS204において、ステップS202で選択された感情推定モデル(センサテーブル121)により、端末装置20から取得した生体信号(本例では2種の生体信号)を生体状態指標値に変換し、ステップS205に移る。 In step S204, the control unit 13 (identification unit 134) uses the emotion estimation model (sensor table 121) selected in step S202 to identify the biological signals (two types of biological signals in this example) acquired from the terminal device 20. It is converted into a state index value, and the process moves to step S205.

制御部13(特定部134)は、ステップS205において、ステップS204で変換生成した生体状態指標値が予め定めた所定数(軌跡判断に必要な数で、例えば10個)に達したか判定し、所定数に達すればステップS206に移り(この際、生成した生体状態指標値のカウント数はリセットされる)、所定数に達していなければステップS203に戻る。 In step S205, the control unit 13 (identification unit 134) determines whether the biological condition index values converted and generated in step S204 have reached a predetermined number (the number required for trajectory determination, for example, 10), If the predetermined number is reached, the process moves to step S206 (at this time, the count number of the generated biological condition index value is reset), and if the predetermined number has not been reached, the process returns to step S203.

制御部13(特定部134)は、ステップS205において、所定数の生体状態指標値に基づく座標(2種の生体状態指標値の場合、心理平面の一方が縦軸値、他軸が横軸値となる)の軌跡(変化状態)を算出して、ステップS206に移る。 In step S205, the control unit 13 (specification unit 134) determines the coordinates based on a predetermined number of biological condition index values (in the case of two types of biological condition index values, one of the psychological planes is a vertical axis value and the other axis is a horizontal axis value). Then, the trajectory (change state) of the result is calculated, and the process moves to step S206.

制御部13(特定部134)は、ステップS206において、ステップS205で算出した生体状態指標の軌跡により心理判断テーブル123の照合処理(軌跡の図形パターン認識)を行ない、照合結果に基づき選択抽出された感情情報を推定結果として、ステップS207に移る。これらステップS204、ステップS205、ステップS206の処理が、生体信号の感情推定モデルへの適用処理となる。 In step S206, the control unit 13 (identifying unit 134) performs a matching process (graphic pattern recognition of the trajectory) on the psychological judgment table 123 using the trajectory of the biological condition index calculated in step S205, and selects and extracts based on the matching result. With the emotion information as the estimation result, the process moves to step S207. The processing in steps S204, S205, and S206 is the application processing of the biosignal to the emotion estimation model.

制御部13(提供部135)は、ステップS207において、ステップS206で推定した感情情報を通信部11により端末装置20へ送信(提供)して、処理を終える。 In step S207, the control unit 13 (providing unit 135) transmits (provides) the emotional information estimated in step S206 to the terminal device 20 through the communication unit 11, and ends the process.

なお、本実施形態では、サーバ10で感情推定処理、感情推定モデルの生成処理等、多くの処理を行なっているが、端末装置20に上述の構成を設けてこれら処理を行なうことや、またゲームプレーヤの使用するゲーム機に構成を設けてこれら処理を行なうことも可能である。さらに、たとえば生体信号を生体状態指標値に変換する処理を端末装置20で行う等、通信接続されたサーバ10、端末装置20、ゲーム機で、適宜各処理を分散することも可能である。 In this embodiment, the server 10 performs many processes such as emotion estimation processing and emotion estimation model generation processing, but the terminal device 20 may be provided with the above-mentioned configuration to perform these processings, and the game It is also possible to perform these processes by providing a configuration in the game machine used by the player. Further, it is also possible to appropriately distribute each process among the server 10, the terminal device 20, and the game machine that are communicatively connected, for example, the terminal device 20 performs the process of converting a biological signal into a biological condition index value.

感情推定システムは、ユーザがゲームを行うゲーム装置と、感情を推定するサーバ10と、ゲームを管理する端末装置20と、を有する。例えば、ゲーム装置は、図1で被験者U02a及び被験者U02bが操作する装置であり、PCであってもよいし、いわゆるコンシューマ機であってもよい。また、被験者U02a及び被験者U02bは、ユーザの一例である。 The emotion estimation system includes a game device on which a user plays a game, a server 10 that estimates emotions, and a terminal device 20 that manages the game. For example, the game device is a device operated by test subject U02a and test subject U02b in FIG. 1, and may be a PC or a so-called consumer device. Further, the subject U02a and the subject U02b are examples of users.

ゲーム装置は、ゲーム機コントロ-ラ(例えばCPU)を有する。ゲーム機コントロ-ラは、生体センサによりユーザの生体信号を測定し、測定したユーザの生体信号を端末装置20に送信し、端末装置20から送信された推定感情関連情報を受信し、受信した推定感情関連情報をユーザに提供する。 The game device has a game machine controller (for example, a CPU). The game machine controller measures the biosignal of the user using the biosensor, transmits the measured biosignal of the user to the terminal device 20, receives the estimated emotion-related information transmitted from the terminal device 20, and receives the estimated emotion-related information. Provide emotion-related information to users.

端末装置20は、端末コントローラ(例えばCPU)を有する。端末コントローラは、ゲーム装置からユーザの生体信号を受信し、受信したユーザの生体信号をサーバ10に送信し、サーバ10から送信された推定感情関連情報を受信し、受信した推定感情関連情報をゲーム装置に送信する。 The terminal device 20 has a terminal controller (for example, a CPU). The terminal controller receives the user's biosignal from the game device, transmits the received user's biosignal to the server 10, receives the estimated emotion-related information transmitted from the server 10, and uses the received estimated emotion-related information in the game. Send to device.

サーバ10は、感情推定コントローラ(例えばCPU)を有する。感情推定コントローラは、端末装置20からユーザの生体信号を受信し、受信したユーザの生体信号に基づく複数の指標の時間経過に伴う変化に基づきユーザの感情を推定し、推定した感情に関する推定感情関連情報を端末装置20に送信し、生体センサによって測定されたユーザの生体信号に基づく複数の指標を取得し、時間経過に伴う複数の指標の変化に基づきユーザの感情を推定する。 The server 10 includes an emotion estimation controller (for example, a CPU). The emotion estimation controller receives the user's biosignal from the terminal device 20, estimates the user's emotion based on changes over time in a plurality of indicators based on the received user's biosignal, and estimates the estimated emotion related to the estimated emotion. The information is transmitted to the terminal device 20, a plurality of indicators are obtained based on the user's biological signals measured by the biosensor, and the user's emotions are estimated based on changes in the plurality of indicators over time.

さらに、端末装置20は、サーバ10によって推定されたユーザの感情を示す情報を出力する。 Further, the terminal device 20 outputs information indicating the user's emotion estimated by the server 10.

また、本実施形態では、生体信号を感情推定用指標に変換して、感情推定モデルに適用したが、生体信号そのものを感情推定用指標として感情推定モデル(生体信号で動作するモデルを上述の感情推定用指標用のモデル生成方法と同様の方法で生成)に適用することも可能である。 Furthermore, in this embodiment, the biosignal is converted into an emotion estimation index and applied to the emotion estimation model. It is also possible to apply the model generation method to the model generation method for the estimation index).

以上のように、本実施形態によれば、被験者の生体信号の変化・変動に基づき、被験者の感情情報を生成するので、感情推定モデルのキャリブレーション等を省略することができる。つまり、生体信号の変化は、生体信号間の差成分であるので、個人差や周辺環境の差に基く誤差が相殺されるので、生体信号の変化に基づく感情の推定は個人差や周辺環境の差による影響を抑えることができる。その結果、実施形態によれば、生体信号に基づく感情の推定精度を容易に向上させることができる。 As described above, according to the present embodiment, the subject's emotional information is generated based on changes and fluctuations in the subject's biological signals, so that calibration of the emotion estimation model, etc. can be omitted. In other words, since changes in biosignals are the difference component between biosignals, errors based on individual differences and differences in the surrounding environment are canceled out. The influence of differences can be suppressed. As a result, according to the embodiment, the accuracy of estimating emotions based on biological signals can be easily improved.

また、本実施形態では、生体信号を感情推定用指標に変換し、当該感情推定用指標を感情推定指標に対する感情推定モデルに適用して感情を推定する。生体信号を測定するセンサは数多くの種類があり、そのセンサそれぞれについて複雑な感情推定モデルを準備するのは困難である。しかし、生体信号を感情推定用指標に変換するのは、センサの出力特性を合わせるのが主な補正点で、比較的単純で簡単に実現できる。従って、本実施形態にように、各センサの生体信号を規格化するような変換処理を挟むことにより、感情推定モデルの種類を低減することができ、システム規模上、有利となる。 Furthermore, in this embodiment, a biological signal is converted into an emotion estimation index, and the emotion estimation index is applied to an emotion estimation model for the emotion estimation index to estimate an emotion. There are many types of sensors that measure biological signals, and it is difficult to prepare a complex emotion estimation model for each sensor. However, the main correction point for converting biological signals into emotion estimation indicators is to match the output characteristics of the sensors, which can be achieved relatively simply and easily. Therefore, as in this embodiment, by including conversion processing to standardize the biological signals of each sensor, the types of emotion estimation models can be reduced, which is advantageous in terms of system scale.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細及び代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲及びその均等物によって定義される総括的な発明の概念の精神又は範囲から逸脱することなく、様々な変更が可能である。 Further advantages and modifications can be easily deduced by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

N ネットワーク
U01 分析者
U02 被験者
1 推定システム
10 サーバ
11 通信部
12 記憶部
13 制御部
20 端末装置
21 評価画面
31a、31b、32a、32b センサ
121 センサテーブル
122 心理平面テーブル
123 心理判断テーブル
131 抽出部
132 心理分析部
133 生成部
134 特定部
135 提供部
136 取得部
137 モデル選択部
210、220、230、240 領域
N Network U01 Analyst U02 Subject 1 Estimation system 10 Server 11 Communication unit 12 Storage unit 13 Control unit 20 Terminal device 21 Evaluation screen 31a, 31b, 32a, 32b Sensor 121 Sensor table 122 Psychological plane table 123 Psychological judgment table 131 Extraction unit 132 Psychological analysis section 133 Generation section 134 Specification section 135 Provision section 136 Acquisition section 137 Model selection section 210, 220, 230, 240 Area

Claims (9)

感情を推定する感情推定装置であって、コントローラを有し、
前記コントローラは、
ユーザの生体信号に基づく複数の指標の時間経過に伴う変化に基づきユーザの感情を推定する
感情推定装置。
An emotion estimation device for estimating emotions, comprising a controller,
The controller includes:
An emotion estimation device that estimates a user's emotion based on changes over time in multiple indicators based on the user's biological signals.
記憶器を有し、
前記コントローラは、
前記記憶器に記憶された感情推定モデルに基づきユーザの感情を推定する
請求項1に記載の感情推定装置。
has a memory device,
The controller includes:
The emotion estimation device according to claim 1, wherein the emotion estimation device estimates the user's emotion based on an emotion estimation model stored in the memory device.
前記感情推定モデルは、
前記生体信号を指標変換情報に基づき感情推定用指標に変換し、
複数種の感情推定用指標で表される座標の変化状態を、当該変化状態と感情情報を関連付けた心理マップ情報に基づきユーザの感情を推定するモデルである
請求項2に記載の感情推定装置。
The emotion estimation model is
converting the biological signal into an emotion estimation index based on index conversion information;
The emotion estimation device according to claim 2, which is a model that estimates the user's emotion based on psychological map information in which a change state of coordinates represented by a plurality of types of emotion estimation indicators is associated with emotional information.
前記感情推定用指標は、
脳の覚醒度合いを表す第1の指標と、前記ユーザの自律神経の活性度合いを表す第2の指標と、である
請求項3に記載の感情推定装置。
The emotion estimation index is
The emotion estimation device according to claim 3, comprising: a first index representing a degree of brain arousal; and a second index representing a degree of autonomic nerve activation of the user.
前記感情推定モデルは、
時間経過に伴う前記複数の指標の変化のパターンと感情との対応関係を学習した機械学習モデルである
請求項2に記載の感情推定装置。
The emotion estimation model is
The emotion estimation device according to claim 2, which is a machine learning model that has learned a correspondence relationship between a pattern of changes in the plurality of indicators over time and emotions.
前記コントローラは、
外部から取得したエビデンス情報に基づき前記感情推定モデルを生成する
請求項2に記載の感情推定装置。
The controller includes:
The emotion estimation device according to claim 2, wherein the emotion estimation model is generated based on evidence information acquired from the outside.
前記コントローラは、
収集したユーザの生体信号に基づく複数の指標によるキャリブレーションが可能となった場合に、複数の指標の値自体による感情の推定を行う
請求項1~6のいずれか1項に記載の感情推定装置。
The controller includes:
The emotion estimation device according to any one of claims 1 to 6, wherein when calibration using a plurality of indicators based on collected biological signals of the user becomes possible, emotions are estimated based on the values of the plurality of indicators themselves. .
感情を推定する感情推定方法であって、
ユーザの生体信号に基づく複数の指標の時間経過に伴う変化に基づきユーザの感情を推定する感情推定方法。
An emotion estimation method for estimating emotions, the method comprising:
An emotion estimation method that estimates a user's emotion based on changes over time in multiple indicators based on the user's biological signals.
ユーザがゲームを行うゲーム装置と、感情を推定する感情推定装置と、前記ゲームを管理する端末装置と、を有する感情推定システムであって、
前記ゲーム装置は、ゲーム機コントロ-ラを有し
前記ゲーム機コントロ-ラは、
生体センサによりユーザの生体信号を測定し、
測定したユーザの生体信号を前記端末装置に送信し、
前記端末装置から送信された推定感情関連情報を受信し、
受信した推定感情関連情報をユーザに提供し、
前記端末装置は、端末コントローラを有し
前記端末コントローラは、
前記ゲーム装置からユーザの生体信号を受信し、
受信したユーザの生体信号を前記感情推定装置に送信し、
前記感情推定装置から送信された推定感情関連情報を受信し、
受信した推定感情関連情報を前記ゲーム装置に送信し、
前記感情推定装置は、感情推定コントローラを有し、
前記感情推定コントローラは、
前記端末装置からユーザの生体信号を受信し、
受信したユーザの生体信号に基づく複数の指標の時間経過に伴う変化に基づきユーザの感情を推定し、
推定した感情に関する推定感情関連情報を前記端末装置に送信し、
前記生体センサによって測定された前記ユーザの生体信号に基づく複数の指標を取得し、
時間経過に伴う前記複数の指標の変化に基づき前記ユーザの感情を推定し、
前記端末装置は、
前記感情推定装置によって推定された前記ユーザの感情を示す情報を出力する
感情推定システム。
An emotion estimation system comprising a game device on which a user plays a game, an emotion estimation device for estimating an emotion, and a terminal device for managing the game,
The game device has a game machine controller, and the game machine controller includes:
Measures the user's biosignal using a biosensor,
transmitting the measured biosignal of the user to the terminal device;
receiving estimated emotion related information transmitted from the terminal device;
Providing the received estimated emotion related information to the user,
The terminal device includes a terminal controller, and the terminal controller includes:
receiving a biosignal of the user from the game device;
transmitting the received user's biosignal to the emotion estimation device;
receiving estimated emotion related information transmitted from the emotion estimation device;
transmitting the received estimated emotion related information to the game device;
The emotion estimation device includes an emotion estimation controller,
The emotion estimation controller is
receiving a user's biosignal from the terminal device;
Estimating the user's emotion based on changes over time in multiple indicators based on the user's biological signals received,
transmitting estimated emotion related information regarding the estimated emotion to the terminal device;
obtaining a plurality of indicators based on biosignals of the user measured by the biosensor;
Estimating the user's emotion based on changes in the plurality of indicators over time;
The terminal device is
An emotion estimation system that outputs information indicating the user's emotion estimated by the emotion estimation device.
JP2022091134A 2022-06-03 2022-06-03 Emotion estimation device, emotion estimation method, and emotion estimation system Pending JP2023178077A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022091134A JP2023178077A (en) 2022-06-03 2022-06-03 Emotion estimation device, emotion estimation method, and emotion estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022091134A JP2023178077A (en) 2022-06-03 2022-06-03 Emotion estimation device, emotion estimation method, and emotion estimation system

Publications (1)

Publication Number Publication Date
JP2023178077A true JP2023178077A (en) 2023-12-14

Family

ID=89124234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022091134A Pending JP2023178077A (en) 2022-06-03 2022-06-03 Emotion estimation device, emotion estimation method, and emotion estimation system

Country Status (1)

Country Link
JP (1) JP2023178077A (en)

Similar Documents

Publication Publication Date Title
US20220044824A1 (en) Systems and methods to assess cognitive function
KR102477327B1 (en) Processor-implemented systems and methods for measuring cognitive ability
EP3384437B1 (en) Systems, computer medium and methods for management training systems
RU2603047C2 (en) System and methods for medical use of motion imaging and capture
CN102388412B (en) Systems and methods for assessing a medical ultrasound imaging operator's competency
US20050216243A1 (en) Computer-simulated virtual reality environments for evaluation of neurobehavioral performance
JP2015514467A (en) System for acquiring and analyzing muscle activity and method of operation thereof
KR20150106954A (en) Brain computer interface (bci) system based on gathered temporal and spatial patterns of biophysical signals
Yannakakis et al. Experience-driven procedural content generation
JPWO2011158965A1 (en) KANSEI evaluation system, KANSEI evaluation method, and program
KR20220062197A (en) Cognitive function assessment system and method of assessing cognitive funtion
Perrey Training monitoring in sports: it is time to embrace cognitive demand
Mekruksavanich et al. Badminton activity recognition and player assessment based on motion signals using deep residual network
Yildirim et al. Developing educational game software which measures attention and meditation with brainwaves: matching mind math
JP2014188168A (en) Lexical determination problem analyzer, lexical determination problem analysis system, lexical determination problem analysis method, and program
JP2023178077A (en) Emotion estimation device, emotion estimation method, and emotion estimation system
Huang The influence of Sports Dance on the physical and Mental Development of Contemporary College Students based on Health detection
Chang et al. Exploration of Brain-Computer Interaction for Supporting Children’s Attention Training: A Multimodal Design Based on Attention Network and Gamification Design
WO2022057840A1 (en) Brain cognitive function detection system
KR20150122877A (en) Method and system for improving concentration using neuro-feedback
Corrado et al. Improving Mental Skills in Precision Sports by Using Neurofeedback Training: A Narrative Review
Sharifara et al. A robot-based cognitive assessment model based on visual working memory and attention level
WO2023127930A1 (en) Emotion inference device and emotion inference model generation method
Wolbers Posture as stress indicator in eSports
Drijfhout Improving eSports performance: conducting stress measurements during Fifa gameplay