JP7843663B2 - Estimation device, estimation system, and estimation method - Google Patents
Estimation device, estimation system, and estimation methodInfo
- Publication number
- JP7843663B2 JP7843663B2 JP2022125146A JP2022125146A JP7843663B2 JP 7843663 B2 JP7843663 B2 JP 7843663B2 JP 2022125146 A JP2022125146 A JP 2022125146A JP 2022125146 A JP2022125146 A JP 2022125146A JP 7843663 B2 JP7843663 B2 JP 7843663B2
- Authority
- JP
- Japan
- Prior art keywords
- estimation
- user
- emotion
- emotion estimation
- tasks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
本発明は、感情の推定を行う技術に関する。 This invention relates to a technique for estimating emotions.
従来、カメラや心拍計等のセンサにより取得した物理量に基づいて、人の感情を推定し、推定した感情を提示する装置が知られる(例えば、特許文献1参照)。 Conventionally, devices are known that estimate a person's emotions based on physical quantities acquired by sensors such as cameras and heart rate monitors, and then present the estimated emotions (see, for example, Patent Document 1).
ところで、生体情報は、環境や体調等の影響を受けやすい。この傾向は、例えば脳波において大きくなり易い。このために、感情の推定の対象となる者が、環境等の影響で感情を推定するのに不適な状態となることがあると考えられる。感情推定に不適な状態で感情推定が行われると、誤った感情推定を行う可能性が高くなる。 Incidentally, biological information is easily influenced by environmental factors and physical condition. This tendency is particularly pronounced in electroencephalography (EEG). Therefore, it is possible that a person being subjected to emotion estimation may be in an unsuitable state due to environmental influences. When emotion estimation is performed in an unsuitable state, the likelihood of inaccurate emotion estimation increases.
本発明は、上記の点に鑑み、感情の推定に適した状態で感情推定を行うことを可能とする技術を提供することを目的とする。 In view of the above points, the present invention aims to provide a technology that enables emotion estimation in a state suitable for emotion estimation.
例示的な本発明の推定装置は、コントローラを備える。前記コントローラは、ユーザに複数種のタスクを与える。前記コントローラは、前記複数種のタスクぞれぞれの実行時における生体信号に基づく指標値を取得する。前記コントローラは、複数の前記指標値間の関係性に基づき、前記ユーザの感情推定に対する適性を推定する。 An exemplary estimation device of the present invention comprises a controller. The controller provides the user with multiple types of tasks. The controller acquires index values based on biosignals during the execution of each of the multiple types of tasks. Based on the relationships between the multiple index values, the controller estimates the user's suitability for emotion estimation.
例示的な本発明によれば、感情の推定に適した状態で感情推定を行うことができる。 According to an exemplary version of the present invention, emotion estimation can be performed in a state suitable for emotion estimation.
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.
<1.第1実施形態>
[1-1.推定システム]
図1は、本発明の第1実施形態に係る推定システム1の構成例を示す図である。本実施形態において、ユーザU1は、eスポーツのプレーヤである。ユーザU1は、感情の推定が行われる者である。すなわち、推定システム1は、eスポーツのプレーヤU1の感情を推定するシステムとして構成されている。
<1. First Embodiment>
[1-1. Estimation System]
Figure 1 shows an example of the configuration of the estimation system 1 according to the first embodiment of the present invention. In this embodiment, user U1 is an e-sports player. User U1 is the person whose emotions are to be estimated. That is, the estimation system 1 is configured as a system for estimating the emotions of e-sports player U1.
なお、図1には、ユーザU1が一人のみ示されているが、ユーザU1は複数であってもよい。また、ユーザU1は、eスポーツのプレーヤ以外であってもよい。例えば、ユーザU1は、医療機関における患者、教育機関における生徒、車両のドライバ、映像や音楽といったコンテンツの視聴者等であってもよい。 Note that while Figure 1 shows only one user U1, there may be multiple users U1. Furthermore, user U1 may not be an e-sports player. For example, user U1 could be a patient in a medical institution, a student in an educational institution, a vehicle driver, or a viewer of content such as video or music.
図1に示すように、推定システム1は、サーバ10と、端末装置20と、生体センサ30と、ゲーム装置40とを備える。サーバ10と端末装置20とは、ネットワークNを介して接続される。ネットワークNは、例えばインターネットまたはイントラネットである。端末装置20と、生体センサ30およびゲーム装置40とは、有線または無線により通信可能に設けられる。端末装置20と、生体センサ30およびゲーム装置40とは、例えば、Wi-Fi(登録商標)やBluetooth(登録商標)等の通信規格にしたがって接続される。 As shown in Figure 1, the estimation system 1 comprises a server 10, a terminal device 20, a biosensor 30, and a game device 40. The server 10 and the terminal device 20 are connected via a network N. Network N is, for example, the internet or an intranet. The terminal device 20, the biosensor 30, and the game device 40 are provided to communicate via wired or wireless connections. The terminal device 20, the biosensor 30, and the game device 40 are connected according to communication standards such as Wi-Fi® or Bluetooth®.
サーバ10は、物理サーバであっても、仮想サーバであってもよい。本実施形態では、サーバ10は、感情を推定する推定装置を構成する。すなわち、推定システム1は、推定装置10を備える。以下、サーバ10のことを推定装置10と表現する。推定装置10の詳細については後述する。なお、推定装置10は、1つのサーバによって構成されても、複数のサーバによって構成されてもよい。 Server 10 may be a physical server or a virtual server. In this embodiment, Server 10 constitutes an estimation device for estimating emotions. That is, the estimation system 1 includes the estimation device 10. Hereafter, Server 10 will be referred to as the estimation device 10. Details of the estimation device 10 will be described later. Note that the estimation device 10 may be composed of one server or multiple servers.
端末装置20は、例えば、パーソナルコンピュータ、スマートフォン、または、タブレット型コンピュータである。本実施形態では、端末装置20はオペレータO1によって使用される。ただし、端末装置20は、ユーザU1が使用する構成であってもよい。この場合、端末装置20は、ゲーム装置40を兼ねてよい。また、端末装置20は、例えばユーザU1の数が複数である場合に、複数とされてもよい。 The terminal device 20 is, for example, a personal computer, a smartphone, or a tablet computer. In this embodiment, the terminal device 20 is used by operator O1. However, the terminal device 20 may also be configured for use by user U1. In this case, the terminal device 20 may also function as the game device 40. Furthermore, there may be multiple terminal devices 20, for example, if there are multiple users U1.
生体センサ30は、ユーザU1に装着され、ユーザU1の生体信号をセンサ信号として検出する。すなわち、推定システム1は、生体信号を計測する生体センサ30を備える。本実施形態では、生体センサ30は、第1センサ31と第2センサ32とを含む。第1センサ31は、ヘッドギア型の脳波センサである。第2センサ32は、リストバンド型の光学式心拍(脈拍)センサである。ただし、第1センサ31および第2センサ32は、取得したい生体情報等に応じて他の生体センサに変更されてよい。他の生体センサは、例えば、心電式心拍センサ、血圧計、または、NIRS(Near Infrared Spectroscopy)装置等であってよい。 The biosensor 30 is attached to user U1 and detects user U1's biological signals as sensor signals. That is, the estimation system 1 includes a biosensor 30 that measures biological signals. In this embodiment, the biosensor 30 includes a first sensor 31 and a second sensor 32. The first sensor 31 is a headgear-type electroencephalogram (EEG) sensor. The second sensor 32 is a wristband-type optical heart rate (pulse) sensor. However, the first sensor 31 and the second sensor 32 may be changed to other biosensors depending on the biological information to be acquired. Other biosensors may be, for example, an electrocardiogram (ECG) heart rate sensor, a blood pressure monitor, or a NIRS (Near Infrared Spectroscopy) device.
ゲーム装置40は、ユーザU1がゲームに関わる操作等を行う操作部41と、表示画面を有する表示部42とを備える。ゲーム装置40は、当該装置を操作するユーザU1の情報等を、端末装置20に適宜送信する。また、ゲーム装置40は、端末装置20から適宜情報を受信する。 The game device 40 comprises an operation unit 41 for user U1 to perform game-related operations, and a display unit 42 having a display screen. The game device 40 appropriately transmits information about user U1 operating the device to the terminal device 20. The game device 40 also appropriately receives information from the terminal device 20.
ここで、図1を参照して、推定システム1の処理の流れを説明する。 Now, referring to Figure 1, we will explain the processing flow of the estimation system 1.
第1センサ31および第2センサ32は、ユーザU1の生体信号を計測し、計測結果をセンサ信号として端末装置20に出力する(ステップS1)。端末装置20は、入力されたセンサ信号を推定装置(サーバ)10に送信する。推定装置10は、入力されたセンサ信号に基づき、ユーザU1の感情状態を推定する(ステップS3)。 The first sensor 31 and the second sensor 32 measure the user U1's biosignals and output the measurement results as sensor signals to the terminal device 20 (step S1). The terminal device 20 transmits the input sensor signals to the estimation device (server) 10. The estimation device 10 estimates the user U1's emotional state based on the input sensor signals (step S3).
ここで、ステップS3の感情推定の概要について説明する。推定装置10は、入力されたセンサ信号に基づき、心身状態を示す指標(生理反応)の値である指標値を生成する。本実施形態では、推定装置10は、脳波および心拍に関する2つの心身状態を示す指標の指標値を生成する。例えば、脳波に関する心身状態を示す指標は、中枢神経系覚醒度(以下、単に覚醒度と記載する)であり、その指標値は「脳波のβ波/α波」で与えることができる。また、例えば、心拍に関する心身状態を示す指標は、自律神経系の活性度であり、その指標値は「心拍LF成分の標準偏差」で与えることができる。指標値は、予めメモリ等に記憶される算出用のモデル(算出式や変換データテーブル)を用いて算出される。 Here, we will explain the overview of emotion estimation in step S3. The estimation device 10 generates index values, which are values of indicators (physiological responses) that represent the mental and physical state, based on the input sensor signals. In this embodiment, the estimation device 10 generates index values for two indicators of mental and physical state related to brain waves and heart rate. For example, the indicator of mental and physical state related to brain waves is the level of central nervous system arousal (hereinafter simply referred to as arousal), and its index value can be given as "beta waves/alpha waves of the brain wave." Also, for example, the indicator of mental and physical state related to heart rate is the activity level of the autonomic nervous system, and its index value can be given as "standard deviation of the heart rate LF component." The index values are calculated using a calculation model (calculation formula or conversion data table) that is pre-stored in memory or the like.
なお、第1センサ31および第2センサ32が演算機能を有する構成(コンピュータ等が内蔵された構成)として、センサ31、32が、指標値を算出する構成としてもよい。また、端末装置20が、第1センサ31および第2センサ32から入力されたセンサ信号に基いて指標値を算出する構成としてもよい。 Furthermore, the first sensor 31 and the second sensor 32 may be configured to have calculation functions (a configuration with a built-in computer, etc.), and the sensors 31 and 32 may be configured to calculate the index value. Alternatively, the terminal device 20 may be configured to calculate the index value based on the sensor signals input from the first sensor 31 and the second sensor 32.
推定装置10は、算出した指標値と、予めメモリ等に記憶される感情推定モデルとを用いてユーザU1の感情を推定する。なお、感情推定モデルは、医学的エビデンス(論文等)に基づいて作成される。 The estimation device 10 estimates the user U1's emotions using the calculated index values and an emotion estimation model pre-stored in memory or similar. The emotion estimation model is created based on medical evidence (such as research papers).
図2は、感情推定モデル(心理平面)の一例を示す図である。心理学に関する各種医学的エビデンスによると、心理は身体状態を示す2種類の指標に基づき推定できるとされる。図2に示される2種類の心身状態の指標を軸とする心理平面は、当該技術思想に従った感情推定モデルの一例である。図2において、一例として、縦軸は「覚醒度(覚醒-不覚醒)」、横軸は「自律神経系の活性度(交換神経活性(強い感情)-副交感神経活性(弱い感情)」である。 Figure 2 shows an example of an emotion estimation model (psychological plane). According to various medical evidence related to psychology, psychology can be estimated based on two types of indicators that represent physical states. The psychological plane shown in Figure 2, which uses two types of mental and physical state indicators as axes, is an example of an emotion estimation model in accordance with the aforementioned technological concept. In Figure 2, for example, the vertical axis represents "arousal level (arousal - unarousal)," and the horizontal axis represents "autonomic nervous system activity level (sympathetic nervous system activity (strong emotion) - parasympathetic nervous system activity (weak emotion))."
図2に示す心理平面では、縦軸と横軸で分離される4つの象限のそれぞれに、該当する心理状態が割り当てられている。各軸からの距離が、該当する心理状態の強度を示す。図2の例では、第一象限に「楽しい、喜び、怒り、悲しみ」の心理状態が割り当てられている。また、第二象限に「憂鬱」の心理状態が割り当てられている。また、第三象限に「リラックス、落ち着き」の心理状態が割り当てられている。また、第四象限に「不安、恐怖、不愉快」の心理状態が割り当てられている。 In the psychological plane shown in Figure 2, each of the four quadrants separated by the vertical and horizontal axes is assigned a corresponding psychological state. The distance from each axis indicates the intensity of the corresponding psychological state. In the example in Figure 2, the psychological states of "happy, joyful, angry, and sad" are assigned to the first quadrant. The psychological state of "depressed" is assigned to the second quadrant. The psychological state of "relaxed and calm" is assigned to the third quadrant. The psychological state of "anxious, fearful, and unpleasant" is assigned to the fourth quadrant.
生体信号の計測結果に基づいて得られる2種類の心身状態の指標値を、心理平面にプロットすることにより得られる座標から、心理状態の推定を行うことができる。具体的には、プロットした座標が、心理平面のどの象限に存在するか、また原点から距離がどの程度であるかに基づき、心理状態とその強度を推定することができる。 By plotting two types of mental and physical state indicators obtained based on the measurement results of biosignals onto a psychological plane, it is possible to estimate the psychological state from the resulting coordinates. Specifically, the psychological state and its intensity can be estimated based on which quadrant the plotted coordinates lie in on the psychological plane and their distance from the origin.
なお、本実施形態では、詳細には、図2に示す感情推定モデルに対してキャリブレーションを行い、キャリブレーション後の感情推定モデルを用いて感情の推定が行われる。これについては後述する。また、図2に示す例では、感情推定モデルは2次元の平面であるが、3次元以上の空間であってもよい。 In this embodiment, the emotion estimation model shown in Figure 2 is calibrated, and the emotion is estimated using the calibrated emotion estimation model. This will be described later. Also, in the example shown in Figure 2, the emotion estimation model is a two-dimensional plane, but it may be a three-dimensional or higher space.
図1に戻って、推定装置10は、感情の推定を行うと、得られた推定結果を端末装置20に提供(送信)する(ステップS4)。例えば、端末装置20は、受信したユーザU1の感情情報を、オペレータO1の操作に基づき画面に表示する。また、例えば、端末装置20は、受信したユーザU1の感情情報を、ゲーム装置40の表示部42に表示させる。また、端末装置20は、受信したユーザU1の感情情報を、外部のゲームシステムに提供する。 Returning to Figure 1, the estimation device 10 performs emotion estimation and then provides (transmits) the obtained estimation result to the terminal device 20 (step S4). For example, the terminal device 20 displays the received emotion information of user U1 on its screen based on the operation of operator O1. Alternatively, the terminal device 20 displays the received emotion information of user U1 on the display unit 42 of the game device 40. Furthermore, the terminal device 20 provides the received emotion information of user U1 to an external game system.
感情の推定結果は、例えばeスポーツにおけるユーザU1のメンタルトレーニングに利用することができる。例えば、ビデオゲームのプレイ中に、ユーザU1が勝負において不利な感情(不安、怒り等)を覚えた場面については、当該感情状態に対応した集中的なトレーニングが必要と判断される。当該トレーニングにおいて、推定システム1で推定されたユーザU1の感情情報が利用される。 The results of the emotion estimation can be used, for example, for the mental training of user U1 in esports. For instance, if user U1 experiences unfavorable emotions (anxiety, anger, etc.) during video game play, it is determined that intensive training corresponding to that emotional state is necessary. In this training, the emotion information of user U1 estimated by estimation system 1 is used.
また、各種eスポーツには、複数のユーザU1が協力してプレイするタイプや、複数のユーザU1が対戦するタイプがある。このようなタイプのeスポーツにおいて、各プレーヤの感情状態が表示される構成等とすると、感情状態に応じてゲーム戦術を変える等、高度なゲームプレイが行うことが可能になる。また、eスポーツの観戦者が各プレーヤの感情状態を把握してゲームを観戦するといった構成も可能であり、ゲーム観戦の楽しみの要素を増やすことができる。 Furthermore, various types of esports include those where multiple users (U1) cooperate and those where multiple users (U1) compete against each other. In these types of esports, if the emotional state of each player is displayed, it becomes possible to perform advanced gameplay, such as changing game tactics based on the emotional state. It also becomes possible for esports spectators to understand the emotional state of each player while watching the game, increasing the enjoyment of watching the game.
また、推定システム1によって感情を推定する対象(ユーザU1)が医療機関における患者である場合、推定された感情は、検査及び治療等に利用することができる。例えば、医療機関のスタッフは、患者が不安に感じていることを把握して、カウンセリング等の対応策を施すことができる。なお、医療機関のスタッフは、オペレータO1(図1参照)の一例であってよい。 Furthermore, if the target of emotion estimation by estimation system 1 (user U1) is a patient in a medical institution, the estimated emotion can be used for examinations and treatments. For example, medical institution staff can understand that the patient is feeling anxious and implement countermeasures such as counseling. Note that the medical institution staff may be just one example of operator O1 (see Figure 1).
また、推定システム1によって感情を推定する対象(ユーザU1)が教育機関における生徒である場合、推定された感情は、授業内容の改善に利用することができる。例えば、教師は、生徒が授業を退屈に感じていることを把握して、授業の内容を生徒が興味を引く内容に改善することができる。なお、教師は、オペレータO1(図1参照)の一例であってよい。 Furthermore, if the target of emotion estimation by estimation system 1 (user U1) is a student in an educational institution, the estimated emotion can be used to improve the lesson content. For example, a teacher can understand that a student is finding the lesson boring and improve the lesson content to make it more interesting for the student. Note that the teacher may be an example of operator O1 (see Figure 1).
また、推定システム1によって感情を推定する対象(ユーザU1)が車両のドライバである場合、推定された感情は、安全運転の促進に利用することができる。例えば、車載装置は、ドライバが運転中に適度な緊張を感じていないことを把握して、運転に集中することを促すメッセージを出力することができる。なお、車載装置は、端末装置20の一例であってよい。 Furthermore, if the target of emotion estimation by the estimation system 1 (user U1) is the vehicle driver, the estimated emotion can be used to promote safe driving. For example, the in-vehicle device can detect that the driver is not feeling adequate tension while driving and output a message encouraging them to concentrate on driving. Note that the in-vehicle device may be an example of a terminal device 20.
また、推定システム1によって感情を推定する対象(ユーザU1)が、映像や音楽といったコンテンツの視聴者である場合、推定された感情は、さらなるコンテンツの作成に利用することができる。例えば、映像コンテンツの配信者は、視聴者が楽しく感じたシーンを集めて、ハイライト映像を作成することができる。なお、映像コンテンツの配信者は、オペレータO1(図1参照)の一例であってよい。 Furthermore, if the target of emotion estimation by estimation system 1 (user U1) is a viewer of content such as video or music, the estimated emotions can be used to create further content. For example, a video content distributor can create a highlight video by compiling scenes that viewers found enjoyable. Note that the video content distributor may be just one example of operator O1 (see Figure 1).
なお、以上においては、サーバ10が推定装置である例を示したが、例えば、端末装置20や、eスポーツのプレーヤが使用するゲーム装置40が推定装置であってもよい。また、例えば、推定装置は、複数の装置で構成されてよい。例えば、通信接続されたサーバ10、端末装置20、および、ゲーム装置40が、感情を推定するための処理を分散して行ってもよい。 In the above example, the server 10 is shown as the estimation device, but for example, the terminal device 20 or the game device 40 used by the e-sports player may also be the estimation device. Furthermore, the estimation device may consist of multiple devices. For example, the server 10, terminal device 20, and game device 40, which are connected via communication, may distribute the processing for estimating emotions.
[1-2.推定装置]
図3は、本発明の第1実施形態に係る推定装置10の構成例を示す図である。なお、図3においては、本実施形態の特徴を説明するために必要な構成要素が示されており、一般的な構成要素についての記載は省略されている。図3に示すように,推定装置10は、通信部11および記憶部12を備える。また、推定装置10はコントローラ13を備える。推定装置10は、いわゆるコンピュータ装置であってよい。なお、推定装置10は、キーボード等の入力装置や、ディスプレイ等の出力装置を備える構成であってもよい。
[1-2. Estimation device]
Figure 3 shows an example configuration of an estimation device 10 according to the first embodiment of the present invention. In Figure 3, only the components necessary to explain the features of this embodiment are shown, and descriptions of general components are omitted. As shown in Figure 3, the estimation device 10 includes a communication unit 11 and a storage unit 12. The estimation device 10 also includes a controller 13. The estimation device 10 may be a so-called computer device. The estimation device 10 may also be configured to include an input device such as a keyboard and an output device such as a display.
通信部11は、ネットワークNを介して他の装置との間でデータの通信を行うためのインタフェースである。通信部11は、例えばNIC(Network Interface Card)である。 The communication unit 11 is an interface for communicating data with other devices via the network N. The communication unit 11 is, for example, a NIC (Network Interface Card).
記憶部12は、揮発性メモリおよび不揮発性メモリを含んで構成される。揮発性メモリには、例えばRAM(Random Access Memory)が含まれてよい。不揮発性メモリには、例えば、ROM(Read Only Memory)、フラッシュメモリ、又は、ハードディスクドライブが含まれてよい。不揮発性メモリには、コンピュータにより読み取り可能なプログラムおよびデータが格納される。なお、不揮発性メモリに格納されるプログラムおよびデータの少なくとも一部は、有線や無線で接続される他のコンピュータ装置、又は、可搬型記録媒体から取得される構成としてもよい。 The storage unit 12 is configured to include volatile memory and non-volatile memory. The volatile memory may include, for example, RAM (Random Access Memory). The non-volatile memory may include, for example, ROM (Read Only Memory), flash memory, or a hard disk drive. The non-volatile memory stores programs and data that can be read by a computer. At least a portion of the programs and data stored in the non-volatile memory may be acquired from other computer devices connected via wired or wireless connections, or from a portable recording medium.
図3に示すように、本実施形態では、記憶部12には、テーブル(データテーブル)121が含まれる。詳細には、テーブル121には、各種処理用の複数のテーブルが含まれる。例えば、テーブル121には、センサテーブル121aおよび心理平面テーブル121bが含まれる。図4Aは、センサテーブル121aの一例を示す図である。図4Bは、心理平面テーブル121bの一例を示す図である。 As shown in Figure 3, in this embodiment, the storage unit 12 includes a table (data table) 121. More specifically, table 121 includes multiple tables for various processing. For example, table 121 includes a sensor table 121a and a psychological plane table 121b. Figure 4A shows an example of the sensor table 121a. Figure 4B shows an example of the psychological plane table 121b.
図4Aに示すように、センサテーブル121aの項目には、「センサID」、「センサ種別」、「生体信号種別」、「対応指標ID」、「対応指標種別」、および、「指標変換情報」が含まれる。なお、テーブルの項目は、データ記憶セル(記憶枠)に対応する。 As shown in Figure 4A, the sensor table 121a includes the following items: "Sensor ID," "Sensor Type," "Biometric Signal Type," "Corresponding Indicator ID," "Corresponding Indicator Type," and "Indicator Conversion Information." Note that the table items correspond to data storage cells (storage frames).
センサテーブル121aの項目「センサID」は、センサテーブル121aにおけるデータレコードを識別するための識別情報であるセンサIDデータを記憶する。センサIDデータは、センサテーブル121aにおけるデータレコードの主キーでもある。つまりセンサテーブル121aでは、センサIDデータごとにデータレコードが構成され、当該データレコードにセンサIDデータに紐づいた各項目のデータが記憶されることになる。 The "Sensor ID" field in sensor table 121a stores the sensor ID data, which is identification information used to identify data records in sensor table 121a. The sensor ID data also serves as the primary key for the data records in sensor table 121a. In other words, in sensor table 121a, a data record is created for each sensor ID data, and the data for each item associated with the sensor ID data is stored in that data record.
センサテーブル121aの項目「センサ種別」は、センサ種別を特定するための情報を記憶する。本例では、センサ名称(型番等のデータでも可)が記憶される。 The "Sensor Type" item in sensor table 121a stores information to identify the sensor type. In this example, the sensor name (or model number) is stored.
センサテーブル121aの項目「生体信号種別」は、センサにより検出される生体信号に基づく計測値の種別を記憶する。この生体信号種別データは、対応指標種別データと相関のあるデータである。学術的に、対応指標種別データは、それと対応する生体信号種別データを取得することにより推定(算出)できると認識されている。 The "Biological Signal Type" item in sensor table 121a stores the type of measurement value based on the biological signal detected by the sensor. This biological signal type data is correlated with the corresponding index type data. Academically, it is recognized that the corresponding index type data can be estimated (calculated) by obtaining the corresponding biological signal type data.
センサテーブル121aの項目「対応指標ID」は、生体信号を検出するセンサの信号に基づき生成(算出)される心身状態指標を識別するための識別情報を記憶する。そして、センサテーブル121aの項目「対応指標種別」は、指標の種別(名称等)を記憶する。 The "Corresponding Indicator ID" item in sensor table 121a stores identification information for identifying the mental/physical state index generated (calculated) based on the signal from the sensor that detects biological signals. The "Corresponding Indicator Type" item in sensor table 121a stores the type (name, etc.) of the index.
センサテーブル121aの項目「指標変換情報」は、生体信号を検出するセンサから得られる信号に基づき指標値を算出するための変換情報(演算式や変換データテーブル等)を記憶する。つまり、センサIDデータに対応するセンサにより検出された生体信号を、指標変換情報に従って変換処理することにより、対応指標IDで識別される心身状態指標の指標値が推定(算出)されることになる。 The "Index Conversion Information" item in sensor table 121a stores conversion information (such as calculation formulas and conversion data tables) for calculating index values based on signals obtained from sensors that detect biological signals. In other words, by converting the biological signals detected by the sensor corresponding to the sensor ID data according to the index conversion information, the index value of the mental and physical state index identified by the corresponding index ID is estimated (calculated).
たとえば、図4Aで示すセンサテーブル121aにおけるセンサID「SN01」のデータレコードは、次のような情報を有する。「脳波センサBA」の出力信号により「脳波のβ波/α波」が計測される。そして、この「脳波のβ波/α波」を「FX01」の指標変換情報を用いて変換することによって、「覚醒度」の指標値が得られる。 For example, the data record for sensor ID "SN01" in the sensor table 121a shown in Figure 4A contains the following information: The output signal of "EEG sensor BA" measures "beta/alpha waves of the brainwave." Then, by converting these "beta/alpha waves of the brainwave" using the index conversion information of "FX01," an index value for "alertness level" is obtained.
図4Bに示すように、心理平面テーブル121bは、指標種別(具体的には指標IDデータを使用)を縦軸および横軸のパラメータとする2次元マトリックステーブルである。心理平面テーブル121bにおいては、2種類の指標種別で定まる記憶セル(記憶枠)に、当該2種類の指標種別データで使用できる心理平面種別のデータが記憶されている。例えば、指標として用いる指標種別が、指標種別VSmと指標種別VSnであれば、感情の推定に用いる心理平面は心理平面mnとなる。心理平面mnを用いた処理を行なうための情報が読み出され、感情の推定処理に使用されることになる。 As shown in Figure 4B, the psychological plane table 121b is a two-dimensional matrix table where the indicator type (specifically, indicator ID data) is used as the parameter on the vertical and horizontal axes. In the psychological plane table 121b, data for psychological plane types usable with two types of indicator data is stored in memory cells (memory frames) determined by the two types of indicator types. For example, if the indicator types used are indicator type VSm and indicator type VSn, the psychological plane used for emotion estimation will be psychological plane mn. Information for processing using psychological plane mn is then read out and used for emotion estimation processing.
なお、センサテーブル121aと心理平面テーブル121bとにおいては、共通の指標IDが用いられる。すなわち、センサテーブル121aと心理平面テーブル121bとに基づいて、ユーザU1に装着された2種類のセンサに対応する心理平面mnを決定することができる。例えば、ユーザU1に装着されたセンサ種別が「脳波センサBA(指標ID:VS01)」と「心拍センサHA(指標ID:VS02)」であるとする。この場合、「脳波センサBA(指標ID:VS01)」および「心拍センサHA(指標ID:VS02)」に対応する指標IDデータがセンサテーブル121aに基づき決定される。そして、心理平面テーブル121bに基づき、「覚醒度」(VS01)と「自律神経系活性度」(VS02)を指標とする心理平面01-02が、感情の推定に用いる心理平面として決定されることになる。 Furthermore, a common index ID is used in both the sensor table 121a and the psychological plane table 121b. That is, based on the sensor table 121a and the psychological plane table 121b, the psychological plane mn corresponding to the two types of sensors attached to user U1 can be determined. For example, suppose the sensor types attached to user U1 are "EEG sensor BA (index ID: VS01)" and "heart rate sensor HA (index ID: VS02)". In this case, the index ID data corresponding to "EEG sensor BA (index ID: VS01)" and "heart rate sensor HA (index ID: VS02)" is determined based on the sensor table 121a. Then, based on the psychological plane table 121b, psychological planes 01-02, using "alertness level" (VS01) and "autonomic nervous system activity level" (VS02) as indices, are determined as the psychological planes used for emotion estimation.
図3に戻って、コントローラ13は、演算処理等を行うプロセッサを含む。プロセッサは、例えばCPU(Central Processing Unit)を含んで構成されてよい。コントローラ13は、1つのプロセッサで構成されてもよいし、複数のプロセッサで構成されてもよい。複数のプロセッサで構成される場合には、それらのプロセッサは互いに通信可能に接続されればよい。なお、推定装置10がクラウドサーバで構成される場合、プロセッサを構成するCPUは仮想CPUであってよい。 Returning to Figure 3, the controller 13 includes a processor that performs calculations and other processing. The processor may include, for example, a CPU (Central Processing Unit). The controller 13 may consist of one processor or multiple processors. If it consists of multiple processors, they should be connected to each other in a way that allows them to communicate. Note that if the estimation device 10 is configured as a cloud server, the CPU constituting the processor may be a virtual CPU.
図3に示すように、コントローラ13は、その機能として、取得部131と、領域決定部132と、感情推定部133と、提供部134とを備える。本実施形態においては、コントローラ13の機能は、記憶部12に記憶されるプログラムにしたがった演算処理をプロセッサが実行することによって実現される。 As shown in Figure 3, the controller 13 comprises an acquisition unit 131, a region determination unit 132, an emotion estimation unit 133, and a provision unit 134. In this embodiment, the functions of the controller 13 are realized by the processor executing calculations according to the program stored in the storage unit 12.
なお、本実施形態の範囲には、推定装置10の少なくとも一部の機能をプロセッサ(コンピュータ)に実現させるコンピュータプログラムが含まれてよい。また、本実施形態の範囲には、そのようなコンピュータプログラムを記録するコンピュータ読取り可能な不揮発性記録媒体が含まれてよい。不揮発性記録媒体は、例えば、上述の不揮発性メモリの他、光記録媒体(例えば光ディスク)、光磁気記録媒体(例えば光磁気ディスク)、USBメモリ、或いは、SDカード等であってよい。 Furthermore, the scope of this embodiment may include a computer program that enables a processor (computer) to implement at least some of the functions of the estimation device 10. The scope of this embodiment may also include a computer-readable non-volatile recording medium for recording such a computer program. The non-volatile recording medium may be, for example, the non-volatile memory described above, an optical recording medium (e.g., an optical disc), a magneto-optical recording medium (e.g., a magneto-optical disc), a USB memory, or an SD card.
また、各機能部111~114は、1つのプログラムにより実現されてもよいが、例えば、機能部ごとに別々のプログラムにより実現される構成であってもよい。また、各機能部111~114が別々のサーバとして実現されてもよい。また、各機能部111~114は、上述のように、プロセッサにプログラムを実行させること、すなわちソフトウェアにより実現されてよいが、他の手法により実現されてもよい。各機能部111~114の少なくとも一部は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等を用いて実現されてもよい。すなわち、各機能部111~114は、専用のIC等を用いてハードウェアにより実現されてもよい。また、各機能部111~114は、ソフトウェアおよびハードウェアを併用して実現されてもよい。また、各機能部111~114は、概念的な構成要素である。1つの構成要素が実行する機能が、複数の構成要素に分散されてよい。また、複数の構成要素が有する機能が1つの構成要素に統合されてもよい。 Furthermore, each functional unit 111-114 may be implemented by a single program, but for example, each functional unit may be implemented by a separate program. Also, each functional unit 111-114 may be implemented as a separate server. Furthermore, each functional unit 111-114 may be implemented by having a processor execute a program, i.e., by software, as described above, but may also be implemented by other methods. At least a portion of each functional unit 111-114 may be implemented using, for example, an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). In other words, each functional unit 111-114 may be implemented by hardware using a dedicated IC, etc. Also, each functional unit 111-114 may be implemented using a combination of software and hardware. Furthermore, each functional unit 111-114 is a conceptual component. The functions performed by one component may be distributed among multiple components. Also, the functions of multiple components may be integrated into a single component.
取得部131は、通信部11を介して、端末装置20から第1センサ31および第2センサ32で計測されたデータ(センサ信号)を受信する。取得部131は、受信したデータを、その後の処理のために必要に応じて記憶部12に記憶する。 The acquisition unit 131 receives data (sensor signals) measured by the first sensor 31 and the second sensor 32 from the terminal device 20 via the communication unit 11. The acquisition unit 131 stores the received data in the storage unit 12 as needed for subsequent processing.
領域決定部132は、感情推定モデル(本例では心理平面)を、各ユーザU1の感情の推定に適したモデルとするためのキャリブレーションを行うための準備処理を実行する。ここで、当該準備処理の具体的な内容について説明する前に、キャリブレーションが必要な理由について説明する。 The domain determination unit 132 performs preparatory processing for calibration to make the emotion estimation model (in this example, the psychological plane) suitable for estimating the emotions of each user U1. Before explaining the specific details of this preparatory processing, we will first explain why calibration is necessary.
上述した図2に示す心理平面においては、生体信号に基づく各指標(縦軸および横軸)が2つの領域に分割されている。このような心理平面を利用する場合、例えば次のようになる。覚醒度を表す指標値は、「覚醒」と「非覚醒」とのいずれか一方に分類され、自律神経系活性度を表す指標は、「交感神経活性(強い感情)」と「副交感神経活性(弱い感情)」とのいずれか一方に分類される。しかしながら、例えば、覚醒度の場合を例に説明すると、人間の心身状態は、覚醒と非覚醒という状態だけでなく、どちらとも言えないニュートラルな状態もある。そして、このニュートラルな状態の範囲は、一般に個人差が存在する。同様なことが、自律神経系活性度にも言える。このために、図2に示す心理平面を単純に利用して感情の推定を行うと、感情の推定に誤りが生じる可能性がある。このような点を考慮して、本実施形態では、感情推定モデルである心理平面をキャリブレーションして利用する構成となっている。 In the psychological plane shown in Figure 2 above, each index based on biological signals (vertical and horizontal axes) is divided into two regions. When using such a psychological plane, for example, the following occurs: The index value representing arousal is classified into either "aroused" or "non-aroused," and the index representing autonomic nervous system activity is classified into either "sympathetic nervous system activity (strong emotion)" or "parasympathetic nervous system activity (weak emotion)." However, taking arousal as an example, a person's mental and physical state includes not only states of arousal and non-arousal, but also a neutral state that cannot be classified as either. Furthermore, the range of this neutral state generally varies from person to person. The same can be said for autonomic nervous system activity. Therefore, simply using the psychological plane shown in Figure 2 to estimate emotions may lead to errors in the estimation. Considering these points, this embodiment uses a configuration in which the psychological plane, which is an emotion estimation model, is calibrated before use.
領域決定部132は、キャリブレーションの準備処理として、生体信号に基づく各指標を、ニュートラル領域、正領域、および、負領域で構成される3つの領域に分割する処理を行う。別の言い方をすると、領域決定部132は、心理平面の縦軸および横軸を構成する各生理反応を上述の3つの領域に分けるために、ニュートラル領域を決定する領域決定処理を行う構成になっている。 The region determination unit 132, as a preparatory process for calibration, divides each index based on biological signals into three regions: a neutral region, a positive region, and a negative region. In other words, the region determination unit 132 is configured to perform a region determination process to determine the neutral region in order to divide each physiological response constituting the vertical and horizontal axes of the psychological plane into the three regions described above.
なお、ニュートラル領域は、生理反応(心身状態)が曖昧であり、特定することができない領域である。正領域は、ニュートラル領域に対して一方側の領域であり、ニュートラル領域よりも指標値が大きくなる領域である。負領域は、ニュートラル領域に対して他方側の領域であり、ニュートラル領域よりも指標値が小さくなる領域である。正領域および負領域では、生理反応は明確である。例えば生理反応の種別が覚醒度の場合、正領域は覚醒状態を示し、負領域は非覚醒状態を示す。例えば生理反応の種別が自律神経系活性度の場合、正領域は交感神経が活性である状態を示し、負領域は副交感神経が活性である状態を示す。 The neutral region is a region where physiological responses (physical and mental states) are ambiguous and cannot be specifically identified. The positive region is the region opposite to the neutral region, where the index value is higher than that of the neutral region. The negative region is the region opposite to the neutral region, where the index value is lower than that of the neutral region. Physiological responses are clear in both the positive and negative regions. For example, if the type of physiological response is arousal level, the positive region indicates an aroused state, and the negative region indicates a non-aroused state. For example, if the type of physiological response is autonomic nervous system activity, the positive region indicates a state where the sympathetic nervous system is active, and the negative region indicates a state where the parasympathetic nervous system is active.
以下、領域決定部132が、各指標(生理反応)においてニュートラル領域を決定する領域決定処理について2つの例を挙げて説明する。 The following describes, using two examples, the region determination process by which the region determination unit 132 determines the neutral region for each indicator (physiological response).
領域決定処理の第1の例では、ユーザU1に特殊タスクを実行させ、当該タスクの実行時における生体信号の計測結果に応じてニュートラル領域を決定する。特殊タスクは、医学的エビデンスに基づいて決められ、生理反応の種別ごとに予め準備される。予め準備された特殊タスクは、特殊タスクテーブル121cとして記憶部12に記憶されている。すなわち、本実施形態においては、テーブル121(図3参照)には、特殊タスクテーブル121cが含まれる。 In the first example of the region determination process, user U1 is instructed to perform a special task, and the neutral region is determined according to the measurement results of the biological signals during the execution of that task. The special tasks are determined based on medical evidence and are pre-prepared for each type of physiological response. The pre-prepared special tasks are stored in the storage unit 12 as a special task table 121c. That is, in this embodiment, table 121 (see Figure 3) includes the special task table 121c.
図5は、特殊タスクテーブル121cの一例を示す図である。図5に示すように、特殊タスクテーブル121cの項目には、「タスクID」、「センサ種別」、「対応指標種別」、「タスク種別」、および、「タスク内容」が含まれる。項目「センサ種別」および「対応指標種別」は、上述の図4Aと同様であるために、説明は省略する。なお、「対応指標種別」は、対応生理反応種別と表現してもよい。 Figure 5 shows an example of a special task table 121c. As shown in Figure 5, the items in the special task table 121c include "Task ID," "Sensor Type," "Corresponding Indicator Type," "Task Type," and "Task Content." The items "Sensor Type" and "Corresponding Indicator Type" are the same as those in Figure 4A above, so their explanation is omitted. Note that "Corresponding Indicator Type" may also be expressed as "Corresponding Physiological Response Type."
特殊タスクテーブル121cの項目「タスクID」は、特殊タスクテーブル121cにおけるタスク情報を識別するための識別情報であるIDデータを記憶する。 The "Task ID" field in the special task table 121c stores ID data, which is identification information used to identify task information in the special task table 121c.
特殊タスクテーブル121cの項目「タスク種別」は、生理反応を大とする第1タスクと、生理反応を小とする第2タスクとのいずれであるかを記憶する。なお、生理反応が大となると、指標値が大となる。生理反応が小となると、指標値が小となる。生理反応を大とするタスクであるか、小とするタスクであるかは、医学的エビデンスに基づいて決められる。例えば生理反応の種別が覚醒度である場合、覚醒度を大きくするタスクは第1タスクであり、覚醒度を小さくするタスクは第2タスクである。また、例えば生理反応の種別が自律神経系活性度である場合、交感神経を活性とするタスクは第1タスクであり、副交感神経を活性とする(すなわち、交感神経を不活性とする)タスクは第2タスクである。 The "Task Type" item in Special Task Table 121c stores whether the task is a first-class task (which elicits a large physiological response) or a second-class task (which elicits a small physiological response). A large physiological response results in a large index value, while a small physiological response results in a small index value. Whether a task elicits a large or small physiological response is determined based on medical evidence. For example, if the physiological response type is arousal level, tasks that increase arousal are first-class tasks, and tasks that decrease arousal are second-class tasks. Similarly, if the physiological response type is autonomic nervous system activity level, tasks that activate the sympathetic nervous system are first-class tasks, and tasks that activate the parasympathetic nervous system (i.e., deactivate the sympathetic nervous system) are second-class tasks.
特殊タスクテーブル121cの項目「タスク内容」は、ユーザU1に実行させるタスクの具体的な内容を記憶する。タスク内容は、上述のタスク種別と共に医学的エビデンスに基づき決定される。例えば生理反応の種別が覚醒度である場合の第1タスクのタスク内容は、「表示される数字を暗算加算」である。暗算加算の回数は、例えば10回等であってよい。また、例えば生理反応の種別が覚醒度である場合の第2タスクのタスク内容は、「安静にして拳を握る」である。拳を握って安静にする時間は、例えば3分等であってよい。また、例えば生理反応の種別が自律神経系活性度である場合の第1タスクのタスク内容は、「起立テスト」である。起立テストでは、例えば、所定時間開眼仰臥位で安静とし、その後、上半身を起こして開眼長座位で所定時間安静とすることが要求される。所定時間は3分等であってよい。また、例えば生理反応の種別が自律神経系活性度である場合の第2タスクのタスク内容は、「アシュネルテスト」である。アシュネルテストでは、例えば、閉眼安静状態にて、片目の瞼を人差し指および中指の腹で静かに所定時間押すことが要求される。アシュネルテストの別の例は、アイマスクを所定時間着用することであってもよい。所定時間は3分等であってよい。 The "Task Content" item in the special task table 121c stores the specific details of the task to be performed by user U1. The task content is determined based on medical evidence along with the task type mentioned above. For example, if the type of physiological response is arousal level, the task content of the first task is "mentally add the displayed numbers." The number of mental additions may be, for example, 10. Also, for example, if the type of physiological response is arousal level, the task content of the second task is "remain still and clench your fist." The time spent clenching your fist and remaining still may be, for example, 3 minutes. Also, for example, if the type of physiological response is autonomic nervous system activity level, the task content of the first task is "standing test." In the standing test, for example, the user is required to remain still in a supine position with eyes open for a predetermined time, and then raise their upper body and remain still in a long sitting position with eyes open for a predetermined time. The predetermined time may be, for example, 3 minutes. Also, for example, if the type of physiological response is autonomic nervous system activity level, the task content of the second task is "Aschnell test." The Aschnell test, for example, requires the subject to gently press one eyelid with the pads of their index and middle fingers for a predetermined time while their eyes are closed and at rest. Another variation of the Aschnell test may involve wearing an eye mask for a predetermined time, such as three minutes.
特殊タスクテーブル121cの内容からわかるように、各生理反応においてニュートラル領域を決定するにあたっては、生理反応の種別ごとに、ユーザU1による第1タスクおよび第2タスクの実行が必要とされる。領域決定部132(すなわちコントローラ13)は、各生理反応においてニュートラル領域を決定するにあたっては、次のような処理を行う。まず、領域決定部132は、互いを比較した場合に、タスクの実行時に得られる指標値が大きくなるとされる第1タスクと、小さくなるとされる第2タスクとをユーザU1に実行させる。そして、領域決定部132は、第1タスクおよび第2タスクの実行により得られる指標値に基づきニュートラル領域を決定する。なお、ニュートラル領域が決定されると、正領域および負領域は自動的に決定される。すなわち、生理反応(指標)を3つの領域に分割することができる。また、生理反応種別ごとに行われる第1タスクと第2タスクとが行われるタイミングは、時間差を有し、タスクごとに生理反応の計測が行われる。 As can be seen from the contents of the special task table 121c, determining the neutral region for each physiological reaction requires the user U1 to execute a first task and a second task for each type of physiological reaction. The region determination unit 132 (i.e., the controller 13) performs the following processing when determining the neutral region for each physiological reaction. First, the region determination unit 132 instructs user U1 to execute a first task that is expected to increase the index value obtained during task execution when compared to the second task, and a second task that is expected to decrease it. Then, the region determination unit 132 determines the neutral region based on the index values obtained from the execution of the first and second tasks. Once the neutral region is determined, the positive and negative regions are automatically determined. In other words, the physiological reaction (index) can be divided into three regions. Furthermore, there is a time difference between the timing of the first and second tasks performed for each type of physiological reaction, and the physiological reaction is measured for each task.
このような構成では、感情の推定の前に、ユーザU1に事前に特殊タスクを実行させて、その結果に応じて正領域、ニュートラル領域、および、負領域が決定されることになる。このために、ユーザU1が現在置かれている環境等を適切に反映して、生理反応(指標)を3つの領域に分割することができる。すなわち、感情の推定を適切に行うことが期待できる。 In this configuration, before emotion estimation, user U1 is required to perform a special task, and the positive, neutral, and negative regions are determined based on the results. This allows for the division of physiological responses (indicators) into three regions, appropriately reflecting user U1's current environment. In other words, it is expected that emotion estimation will be performed appropriately.
上述のニュートラル領域の決定手法の具体例について、図6を参照しながら説明する。図6は、第1タスクおよび第2タスクの実行時における生理反応の指標値の時間変化を模式的に示した図である。図6において、横軸は時間、縦軸は生理反応(指標)である。図6において、信号αは、第1タスクの実行時に得られる指標値の時間変化に相当する。信号βは、第2タスクの実行時に得られる指標値の時間変化に相当する。図6では、第1タスク、第2タスクの順に特殊タスクが実行されているが、これは例示であり、第2タスク、第1タスクの順に特殊タスクが実行されてもよい。また、図6において、矢印NRで示される領域(縦軸の一部の領域)は、ニュートラル領域に該当する。 A specific example of the neutral region determination method described above will be explained with reference to Figure 6. Figure 6 schematically shows the time change of the index value of the physiological response during the execution of the first and second tasks. In Figure 6, the horizontal axis represents time, and the vertical axis represents the physiological response (index). In Figure 6, signal α corresponds to the time change of the index value obtained during the execution of the first task. Signal β corresponds to the time change of the index value obtained during the execution of the second task. In Figure 6, the special tasks are executed in the order of the first task followed by the second task, but this is an example, and the special tasks may also be executed in the order of the second task followed by the first task. Also, in Figure 6, the region indicated by arrow NR (a part of the vertical axis) corresponds to the neutral region.
領域決定部132は、第1タスクの実行時に得られる指標値の時間変化データを統計処理して、ニュートラル領域NRの上限値を決定する。例えば、領域決定部132は、第1タスクの実行時に得られる指標値の時間変化データをスムージング処理し、スムージング処理後のデータの最小値をニュートラル領域NRの上限値とする。また、領域決定部132は、第2タスクの実行時に得られる指標値の時間変化データを統計処理して、ニュートラル領域NRの下限値を決定する。例えば、領域決定部132は、第2タスクの実行時に得られる指標値の時間変化データをスムージング処理し、スムージング処理後のデータの最大値をニュートラル領域NRの下限値とする。なお、スムージング処理は、例えば、微細なピーク信号のようなノイズ成分等の除去を目的として行われてよい。 The region determination unit 132 statistically processes the time-varying data of the index value obtained during the execution of the first task to determine the upper limit of the neutral region (NR). For example, the region determination unit 132 smooths the time-varying data of the index value obtained during the execution of the first task, and sets the minimum value of the data after smoothing as the upper limit of the neutral region (NR). Furthermore, the region determination unit 132 statistically processes the time-varying data of the index value obtained during the execution of the second task to determine the lower limit of the neutral region (NR). For example, the region determination unit 132 smooths the time-varying data of the index value obtained during the execution of the second task, and sets the maximum value of the data after smoothing as the lower limit of the neutral region (NR). Note that the smoothing process may be performed, for example, to remove noise components such as minute peak signals.
換言すると、領域決定部132(すなわちコントローラ13)は、第1タスクの実行時に得られる指標値により、ニュートラル領域と正領域との境界を定める。また、領域決定部132は、第2タスクの実行時に得られる指標値により、ニュートラル領域と負領域との境界を定める。このような構成は、生理反応の大小の差が大きい2つのタスク(第1タスクおよび第2タスク)を準備できる場合に好適である。 In other words, the region determination unit 132 (i.e., the controller 13) determines the boundary between the neutral region and the positive region based on the index value obtained during the execution of the first task. Furthermore, the region determination unit 132 determines the boundary between the neutral region and the negative region based on the index value obtained during the execution of the second task. This configuration is suitable when two tasks (the first task and the second task) with large differences in the magnitude of physiological responses can be prepared.
なお、領域決定部132は、生理反応の種別ごとにニュートラル領域の上限値および下限値を決定する。このために、本実施形態では、2つの生理反応(覚醒度および自律神経系活性度)のそれぞれについて、第1タスクおよび第2タスクで構成される特殊タスクの実行がユーザU1に対して要求される。そして、2つの生理反応のそれぞれについて、特殊タスクの実行時の生体信号の計測結果に応じてニュートラル領域の決定処理が行われる。 The region determination unit 132 determines the upper and lower limits of the neutral region for each type of physiological response. For this purpose, in this embodiment, the user U1 is requested to perform special tasks consisting of a first task and a second task for each of the two physiological responses (arousal level and autonomic nervous system activity level). Then, for each of the two physiological responses, the neutral region determination process is performed according to the measurement results of the biological signals during the execution of the special task.
また、以上では、第1タスクの実行時に得られる指標値の変動範囲である第1変動範囲と、第2タスクの実行時に得られる指標値の変動範囲である第2変動範囲とが離れていることを前提として、2つの変動範囲の間をニュートラル領域NRとした(図6参照)。なお、指標値の変動範囲は、指標値の時間変化に伴う値変動の範囲のことを指す。しかしながら、例えば、第1タスクと第2タスクとの間で生理反応の大小差が小さい場合には、第1変動範囲と第2変動範囲とが重なることもあり得る。このような場合には、例えば、第1タスクの実行時に得られる指標値の時間変化データをスムージング処理して得られるデータの最小値をニュートラル領域NRの下限値としてよい。また、例えば、第2タスクの実行時に得られる指標値の時間変化データをスムージング処理して得られるデータの最大値をニュートラル領域NRの上限値としてよい。 Furthermore, the above assumes that the first fluctuation range (the range of fluctuation of the index value obtained during the execution of the first task) and the second fluctuation range (the range of fluctuation of the index value obtained during the execution of the second task) are separate, and the area between the two fluctuation ranges is defined as the neutral region (NR) (see Figure 6). The fluctuation range of the index value refers to the range of value fluctuations associated with the time change of the index value. However, for example, if the difference in the magnitude of physiological responses between the first and second tasks is small, the first and second fluctuation ranges may overlap. In such cases, for example, the minimum value of the data obtained by smoothing the time-varying data of the index value obtained during the execution of the first task may be used as the lower limit of the neutral region (NR). Alternatively, for example, the maximum value of the data obtained by smoothing the time-varying data of the index value obtained during the execution of the second task may be used as the upper limit of the neutral region (NR).
換言すると、領域決定部132(すなわちコントローラ13)は、第2タスクの実行時に得られる指標値により、ニュートラル領域と正領域との境界を定めてよい。また、領域決定部132は、第1タスクの実行時に得られる指標値により、ニュートラル領域と負領域との境界を定めてもよい。更に別の言い方をすると、上記第1変動範囲と上記第2変動範囲とが重なる領域をニュートラル領域NRに決定してよい。上記第1変動範囲と上記第2変動範囲とが重なる領域に基づいてニュートラル領域NRを決定してよい。このような構成の採用により、第1タスクおよび第2タスクを決定する上での制約を緩和して、特殊タスクの設定を行い易くすることができる。 In other words, the region determination unit 132 (i.e., the controller 13) may define the boundary between the neutral region and the positive region based on the index value obtained during the execution of the second task. The region determination unit 132 may also define the boundary between the neutral region and the negative region based on the index value obtained during the execution of the first task. To put it another way, the region where the first and second variation ranges overlap may be determined as the neutral region NR. Alternatively, the neutral region NR may be determined based on the region where the first and second variation ranges overlap. By adopting this configuration, the constraints on determining the first and second tasks can be relaxed, making it easier to set up special tasks.
次に、ニュートラル領域を決定する領域決定処理の第2の例について説明する。第2の例では、ユーザU1に対して特殊タスクの実行を要求しない。第2の例では、生理反応の時系列データの蓄積が進むにつれて、統計処理で推定されるニュートラル領域の上限値と下限値とのそれぞれが一定の値に収束するという点に着目して、ニュートラル領域を決定する。なお、ニュートラル領域が決定されると、正領域および負領域は自動的に決定される。すなわち、ニュートラル領域が決定されると、生理反応を3つの領域に分割することができる。 Next, we will describe a second example of the region determination process for determining the neutral region. In this second example, we do not request user U1 to perform any special tasks. In this second example, we determine the neutral region by focusing on the fact that, as time-series data of physiological responses accumulates, the upper and lower limits of the neutral region estimated by statistical processing converge to a certain value. Once the neutral region is determined, the positive and negative regions are automatically determined. That is, once the neutral region is determined, the physiological response can be divided into three regions.
換言すると、第2の例では、領域決定部132(すなわちコントローラ13)は、指標値の時系列データを蓄積し、時系列データの統計処理結果に基づきニュートラル領域を決定する。このような構成では、感情の推定を行う前にユーザU1に対して特殊タスクの実行を要求する必要がなく、ユーザU1の負担を低減することができる。 In other words, in the second example, the region determination unit 132 (i.e., the controller 13) accumulates time-series data of the indicator values and determines the neutral region based on the statistical processing results of the time-series data. With this configuration, there is no need to request the user U1 to perform a special task before emotion estimation, thus reducing the burden on the user U1.
特殊タスクなしでニュートラル領域を決定する手法について、図7および図8を参照しながら説明する。図7は、生理反応の時間変化を模式的に示す図である。図7において、横軸は時間、縦軸は生理反応(指標)である。図8は、ニュートラル領域(図7参照)の推定された上限値の時間変化を示す模式図である。図8において、横軸は時間、縦軸はニュートラル領域の推定される上限値である。なお、ニュートラル領域の推定される下限値の時間変化は、図8に示す上限値と同様の時間変化を示す。すなわち、図8に示すグラフの縦軸は下限値と読み替えられてもよい。 A method for determining the neutral region without special tasks will be explained with reference to Figures 7 and 8. Figure 7 is a schematic diagram showing the temporal change of a physiological response. In Figure 7, the horizontal axis represents time, and the vertical axis represents the physiological response (indicator). Figure 8 is a schematic diagram showing the temporal change of the estimated upper limit of the neutral region (see Figure 7). In Figure 8, the horizontal axis represents time, and the vertical axis represents the estimated upper limit of the neutral region. Note that the temporal change of the estimated lower limit of the neutral region shows a similar temporal change to the upper limit shown in Figure 8. That is, the vertical axis of the graph shown in Figure 8 can be interpreted as the lower limit.
図7に示すように、人の生理反応(心身状態とも言える)は、特殊タスクを与えなくても、時間の変化(時間に伴い変化する環境等の変化に基づく)とともに様々な状態に変化する。詳細には、時間変化に伴い、生理反応が、大きい状態、小さい状態、或いは、曖昧な状態(ニュートラル状態)間で変動する。生理反応は外部からの刺激等により上下に変移するため、生理反応の値の分布は統計的に特徴あるものとなる。例えば、外部刺激等が無い状態が多いので、通常、生理反応の値はニュートラル領域に含まれる。刺激があると生理反応の値は急に変動する等の傾向がある。生理反応の時系列データを蓄積し、蓄積したデータを先の3つの状態に分けるクラスタ分析を行うことによってニュートラル領域の上限値と下限値を推定することができる。クラスタ分析には、公知の手法が利用されればよい。例えば、クラスタ分析の手法として、k-means法、大津の多値化手法、混合ガウスモデル等が利用されてよい。 As shown in Figure 7, a person's physiological responses (which can also be called their mental and physical states) change in various states over time (based on changes in the environment, etc., that occur over time), even without being given a special task. More specifically, physiological responses fluctuate between high, low, or ambiguous states (neutral states) over time. Because physiological responses shift up and down due to external stimuli, the distribution of physiological response values becomes statistically distinctive. For example, since there are often no external stimuli, physiological response values usually fall within the neutral region. When stimuli are present, physiological response values tend to fluctuate sharply. By accumulating time-series data of physiological responses and performing cluster analysis to divide the accumulated data into the three states mentioned above, the upper and lower limits of the neutral region can be estimated. Any known method can be used for cluster analysis. For example, k-means, Otsu's multi-level model, and Gaussian mixture models can be used as cluster analysis methods.
図8においては、時間の経過にともなって、生理反応の時系列データの蓄積量が増大することが想定されている。すなわち、図8においては、統計手法(詳細例はクラスタ分析)を用いたニュートラル領域の上限値の推定に利用されるデータ量は、時間の経過とともに増大することが想定されている。時間の経過にともなってデータ量が増大することにより、推定される上限値は、図8に示すように時間の経過にともって一定の値に収束していく。この傾向は、上述のように下限値でも同様である。収束した上限値および下限値で特定されるニュートラル領域は、信頼性が高いと解される。このために、本例では、推定される上限値および下限値が収束したと判定された段階で、ニュートラル領域を決定する構成としている。 In Figure 8, it is assumed that the amount of accumulated time-series data on physiological responses increases over time. That is, in Figure 8, the amount of data used to estimate the upper limit of the neutral region using statistical methods (cluster analysis in a detailed example) is assumed to increase over time. As the amount of data increases over time, the estimated upper limit converges to a constant value, as shown in Figure 8. This trend is also observed for the lower limit, as described above. The neutral region identified by the converged upper and lower limits is considered highly reliable. Therefore, in this example, the neutral region is determined when it is determined that the estimated upper and lower limits have converged.
なお、上限値が収束したか否かは、現時点における推定の上限値と、前回の推定の上限値との比較に基づき判定されてよい。例えば、両者の比が1に対して所定の範囲内であれば、収束したと判定されてよい。また、本例においても、領域決定部132は、生理反応の種別ごとにニュートラル領域の上限値および下限値を決定する。 Furthermore, whether or not the upper limit has converged can be determined based on a comparison between the currently estimated upper limit and the previously estimated upper limit. For example, if the ratio of the two is within a predetermined range relative to 1, it can be determined that convergence has occurred. In this example as well, the region determination unit 132 determines the upper and lower limits of the neutral region for each type of physiological response.
領域決定部132は、特殊タスクを行って、或いは、特殊タスクを行うことなく決定した上限値および下限値を記憶部12に記憶する。詳細には、領域決定部132は、決定した上限値および下限値をデータテーブル化して記憶部12に記憶する。すなわち、テーブル121(図3参照)には、ユーザU1ごとのニュートラル領域情報を含むニュートラル領域テーブル121dが含まれる。 The region determination unit 132 stores the determined upper and lower limits in the storage unit 12, either by performing a special task or without performing a special task. Specifically, the region determination unit 132 stores the determined upper and lower limits in a data table in the storage unit 12. That is, table 121 (see Figure 3) includes a neutral region table 121d containing neutral region information for each user U1.
図9は、ニュートラル領域テーブル121dの一例を示す図である。図9に示すように、ニュートラル領域テーブル121dの項目には、「ユーザID」、「センサ種別」、「対応指標種別」、「上限値」、「下限値」、および、「取得日時」が含まれる。項目「センサ種別」および「対応指標種別」は、上述の図4Aや図5と同様であるために、説明は省略する。 Figure 9 shows an example of the neutral region table 121d. As shown in Figure 9, the items in the neutral region table 121d include "User ID," "Sensor Type," "Corresponding Indicator Type," "Upper Limit," "Lower Limit," and "Acquisition Date and Time." The items "Sensor Type" and "Corresponding Indicator Type" are the same as those in Figures 4A and 5 above, so their explanation is omitted.
ニュートラル領域テーブル121dの項目「ユーザID」は、ニュートラル領域テーブル121dにおけるユーザ情報を識別するための識別情報であるユーザIDデータを記憶する。ユーザIDデータは、例えば、ゲーム装置40から端末装置20を介して推定装置10に送信される。 The "User ID" field in the neutral area table 121d stores user ID data, which is identification information used to identify user information in the neutral area table 121d. The user ID data is transmitted, for example, from the game device 40 to the estimation device 10 via the terminal device 20.
ニュートラル領域テーブル121dの項目「上限値」および「下限値」には、領域決定部132により決定された上限値および下限値の情報が記憶される。ニュートラル領域テーブル121dの項目「取得日時」には、上限値および下限値の情報が記憶された日時情報が記憶される。ユーザID等の項目ごとに決定される上限値および下限値は、最新の情報が取得されるごとに更新される。また、上限値および下限値の情報が更新されると、取得日時も更新される。 The "Upper Limit" and "Lower Limit" fields in the neutral area table 121d store the upper and lower limit information determined by the area determination unit 132. The "Acquisition Date and Time" field in the neutral area table 121d stores the date and time information for which the upper and lower limit information was acquired. The upper and lower limit values, determined for each item such as the user ID, are updated each time the latest information is acquired. Furthermore, when the upper and lower limit information is updated, the acquisition date and time are also updated.
図3に戻って、感情推定部133は、取得部131が取得したデータに基づき感情の推定に用いるモデルを選択する。具体的には、感情推定部133は、取得されたデータとセンサテーブル121aとを照合して、取得したデータに含まれるセンサ種別および生体信号種別に対応する「対応指標種別」のデータ(指標種別データ)を抽出する。そして、感情推定部133は、抽出した指標種別データの「指標ID」と心理平面テーブル121bとを照合して、感情の推定に用いるモデル(心理平面)を選択する。例えば、センサIDが「SN01」(センサ種別:脳波センサBA)と「SN02」(センサ種別:心拍センサHA)の場合、対応する指標IDは、「VS01」(指標種別:覚醒度)と「VS02」(指標種別:自律神経系活性度)となる(図4A参照)。これらに基づき、感情推定部133は、使用する感情推定モデルとして心理平面01-02を選択する。 Returning to Figure 3, the emotion estimation unit 133 selects a model to use for emotion estimation based on the data acquired by the acquisition unit 131. Specifically, the emotion estimation unit 133 compares the acquired data with the sensor table 121a and extracts the "corresponding index type" data (index type data) corresponding to the sensor type and biosignal type included in the acquired data. Then, the emotion estimation unit 133 compares the "index ID" of the extracted index type data with the psychological plane table 121b and selects a model (psychological plane) to use for emotion estimation. For example, if the sensor IDs are "SN01" (sensor type: electroencephalogram sensor BA) and "SN02" (sensor type: heart rate sensor HA), the corresponding index IDs are "VS01" (index type: arousal level) and "VS02" (index type: autonomic nervous system activity level) (see Figure 4A). Based on these, the emotion estimation unit 133 selects psychological planes 01-02 as the emotion estimation model to use.
感情推定部133は、使用する心理平面を選択すると、感情推定の対象となっているユーザU1のユーザIDを用いて、ニュートラル領域テーブル121dから選択した心理平面の指標種別に対応するニュートラル領域の上限値および下限値を抽出する。そして、感情推定部133は、選択した心理平面を、抽出した上限値および下限値を用いてニュートラル領域を含む心理平面に加工する。別の言い方をすると、感情推定部133は、予め準備された感情推定モデルに対してキャリブレーションを行う。 The emotion estimation unit 133, upon selecting the psychological plane to be used, extracts the upper and lower limits of the neutral region corresponding to the index type of the selected psychological plane from the neutral region table 121d using the user ID of user U1, the target of the emotion estimation. Then, the emotion estimation unit 133 processes the selected psychological plane to include the neutral region using the extracted upper and lower limits. In other words, the emotion estimation unit 133 performs calibration against a pre-prepared emotion estimation model.
図10は、ニュートラル領域を含む心理平面の一例を示す図である。図10に示すニュートラル領域を含む心理平面は、図2に示す心理平面を加工したものである。図10において、斜線で示す領域NRは、ニュートラル領域である。指標種別「覚醒度」の上限値により、覚醒度(縦軸)におけるニュートラル領域と正領域との境界が決まる。指標種別「覚醒度」の下限値により、覚醒度(縦軸)におけるニュートラル領域と負領域との境界が決まる。指標種別「自律神経系活性度」の上限値により、自律神経系活性度(横軸)におけるニュートラル領域と正領域との境界が決まる。指標種別「自律神経系活性度」の下限値により、自律神経系活性度(横軸)におけるニュートラル領域と負領域との境界が決まる。 Figure 10 shows an example of a psychological plane including the neutral region. The psychological plane including the neutral region shown in Figure 10 is a modified version of the psychological plane shown in Figure 2. In Figure 10, the shaded region NR represents the neutral region. The upper limit of the "Arousal Level" index determines the boundary between the neutral and positive regions on the arousal level (vertical axis). The lower limit of the "Arousal Level" index determines the boundary between the neutral and negative regions on the arousal level (vertical axis). The upper limit of the "Autonomic Nervous System Activity Level" index determines the boundary between the neutral and positive regions on the autonomic nervous system activity level (horizontal axis). The lower limit of the "Autonomic Nervous System Activity Level" index determines the boundary between the neutral and negative regions on the autonomic nervous system activity level (horizontal axis).
加工された心理平面において、指標種別「覚醒度」の上限値および下限値により決まる第1ニュートラル領域NR1は、横軸と平行な方向に延びる帯状の領域である。また、加工された心理平面において、指標種別「自律神経系活性度」の上限値および下限値により決まる第2ニュートラル領域NR2は、縦軸と平行な方向に延びる帯状の領域である。心理平面に設けられるニュートラル領域NRは、第1ニュートラル領域NR1と第2ニュートラル領域NR2とで構成され、その形状は、十字架状である。なお、それぞれ帯状に構成される第1ニュートラル領域NR1と第2ニュートラル領域NR2との幅は、互いに同じとなる場合もあるし、互いに異なる場合もある。また、図10に示す例では、第1ニュートラル領域NR1および第2ニュートラル領域NR2とは、それぞれ縦軸または横軸と重なっている。ここでいう縦軸および横軸は、当初、生体信号値から予想(設定)された軸のことである。ただし、第1ニュートラル領域NR1および第2ニュートラル領域NR2のうちの少なくとも一方が軸(当初予定の軸)からずれた位置となる場合もある。別の言い方をすると、ニュートラル領域NRの決定は、結果として縦横軸(原点を通る)を決めることになると言うことができる。各ニュートラル領域NR1、NR2の中間位置が縦横軸とされてよい。 In the processed psychological plane, the first neutral region NR1, determined by the upper and lower limits of the indicator type "arousal level," is a band-shaped region extending parallel to the horizontal axis. Similarly, in the processed psychological plane, the second neutral region NR2, determined by the upper and lower limits of the indicator type "autonomic nervous system activity level," is a band-shaped region extending parallel to the vertical axis. The neutral region NR on the psychological plane consists of the first neutral region NR1 and the second neutral region NR2, and its shape is cross-shaped. The widths of the band-shaped first neutral region NR1 and the second neutral region NR2 may be the same or different. Furthermore, in the example shown in Figure 10, the first neutral region NR1 and the second neutral region NR2 overlap with the vertical axis or the horizontal axis, respectively. Here, the vertical and horizontal axes refer to the axes initially predicted (set) from the biosignal values. However, it is possible that at least one of the first neutral region NR1 and the second neutral region NR2 may be located off-center from the axis (the initially planned axis). In other words, determining the neutral region NRs ultimately determines the vertical and horizontal axes (passing through the origin). The midpoint between each neutral region NR1 and NR2 may be considered the vertical and horizontal axes.
感情推定部133は、キャリブレーションを行った心理平面を生成すると、当該心理平面を用いて感情の推定処理を実行する。感情推定部133は、取得部131により取得された生体信号に基づく情報をセンサテーブル121aにおける指標変換情報を用いて指標値に変換する。本実施形態では、第1センサ31(センサ種別:脳波センサBA)と第2センサ32(センサ種別:心拍センサHA)とから得られるデータを用いて、覚醒度の指標値と、自律神経系活性度の指標値とが求められる。 The emotion estimation unit 133 generates a calibrated psychological plane and then performs emotion estimation processing using that psychological plane. The emotion estimation unit 133 converts information based on biosignals acquired by the acquisition unit 131 into index values using index conversion information in the sensor table 121a. In this embodiment, the index values for arousal level and autonomic nervous system activity are determined using data obtained from the first sensor 31 (sensor type: electroencephalogram sensor BA) and the second sensor 32 (sensor type: heart rate sensor HA).
そして、感情推定部133は、先の加工により得られたニュートラル領域NRを含む心理平面上に、各指標値をプロットして得られる座標の位置に応じて感情の推定を行う。本実施形態では、覚醒度を縦軸、自律神経系活性度を横軸としニュートラル領域を含む心理平面(図10参照)上に、覚醒度の指標値と自律神経系活性度の指標値とをそれぞれプロットして得られる座標の位置に応じて感情の推定を行う。 The emotion estimation unit 133 then estimates emotions according to the position of the coordinates obtained by plotting each index value on a psychological plane including the neutral region NR obtained by the previous processing. In this embodiment, the emotional estimation is performed according to the position of the coordinates obtained by plotting the index values of the arousal level and the index values of the autonomic nervous system activity on a psychological plane including the neutral region (see Figure 10), with the arousal level on the vertical axis and the autonomic nervous system activity level on the horizontal axis.
感情推定部133は、指標値のプロットにより得られる座標位置がニュートラル領域NRである場合、ユーザU1の感情の種別を特定できない状態であると判定する。すなわち、感情推定部133は、感情不定状態であると判定する。一方、指標値のプロットにより得られる座標位置がニュートラル領域NRの領域外である場合には、ユーザU1の感情の種別が、座標位置に対応する感情であると推定(特定)する。例えば、座標位置が、図10における第1ニュートラル領域NR1よりも上側、且つ、第2ニュートラル領域NR2よりも右側である場合(第一象限である場合)、「楽しい、喜び、怒り、悲しみ」といった感情を有すると推定(特定)する。 The emotion estimation unit 133 determines that if the coordinate position obtained from plotting the index values is within the neutral region NR, it cannot determine the type of emotion of user U1. That is, the emotion estimation unit 133 determines that the emotion is in an undetermined state. On the other hand, if the coordinate position obtained from plotting the index values is outside the neutral region NR, the unit estimates (specifies) that the type of emotion of user U1 corresponds to the emotion at that coordinate position. For example, if the coordinate position is above the first neutral region NR1 in Figure 10 and to the right of the second neutral region NR2 (i.e., in the first quadrant), the unit estimates (specifies) that the user has emotions such as "happy, joyful, angry, or sad."
以上からわかるように、コントローラ13は、生体信号に基づく指標値が、ニュートラル領域、ニュートラル領域に対して一方側の正領域、および、ニュートラル領域に対して他方側の負領域で構成される3つの領域のいずれに属するかを識別する。そして、コントローラ13は、指標値がニュートラル領域に属する場合に、感情不定状態であると判定する。なお、この感情不定状態であるとの判定は、例えば「感情不定状態フラグ」を立てるといった直接的判定であってよい。また、この感情不定状態であるとの判定には、先に示した直接的判定だけでなく、指標値がニュートラル領域に属する場合に以降の処理内容を変更するといった実質的な判定を行う間接的判定が含まれてもよい。 As can be seen from the above, the controller 13 identifies which of the three regions—the neutral region, the positive region on one side of the neutral region, and the negative region on the other side of the neutral region—the index value based on the biological signal belongs to. The controller 13 then determines that the individual is in an emotionally indecisive state if the index value belongs to the neutral region. This determination of an emotionally indecisive state may be a direct determination, such as setting an "emotionally indecisive state flag." Furthermore, this determination of an emotionally indecisive state may include not only the direct determination described above, but also indirect determinations, such as changing the subsequent processing content if the index value belongs to the neutral region.
また、コントローラ13は、指標値を複数種求める。コントローラ13は、複数種の指標値のそれぞれについて上述の3つの領域のいずれに属するかを識別する。コントローラ13は、複数種の指標値のいずれもがニュートラル領域の領域外である場合に、複数種の指標値と、予め準備された感情推定モデルとを用いて感情の種別を特定する。なお、本実施形態では、複数種は2種類である。ただし、3種類以上の指標値が求める構成であってよい。この場合、感情推定モデルは、2次元の平面ではなく、3次元以上の空間とされてよい。 Furthermore, the controller 13 calculates multiple types of index values. The controller 13 identifies which of the three regions described above each of these index values belongs to. If all of the multiple index values are outside the neutral region, the controller 13 uses the multiple index values and a pre-prepared emotion estimation model to identify the type of emotion. In this embodiment, there are two types of multiple values. However, the configuration may involve three or more index values. In this case, the emotion estimation model may be a three-dimensional or higher space, rather than a two-dimensional plane.
本実施形態のように、ニュートラル領域を設けて感情の推定を行う構成とすると、誤差要素が多く、誤判定が生じ易い傾向がある感情の推定処理において、誤った推定を行う可能性を低減することができる。また、ニュートラル領域は、ユーザU1ごとに作成される。そして、ニュートラル領域の位置や大きさ(幅)は、ユーザU1ごとに、通常は異なる。ニュートラル領域が設けられることによって、各ユーザの特性に合わせた感情の推定を行うことができ、感情の推定精度を向上させることができる。 As in this embodiment, by configuring the system to perform emotion estimation by providing a neutral region, the possibility of incorrect estimation can be reduced in emotion estimation processing, which tends to have many error factors and is prone to misjudgment. Furthermore, a neutral region is created for each user U1. The position and size (width) of the neutral region typically differ for each user U1. By providing a neutral region, emotion estimation can be tailored to the characteristics of each user, thereby improving the accuracy of emotion estimation.
図3に戻って、提供部134は、感情推定部133が推定した感情の情報を、ネットワークNを介して端末装置20に提供する。これにより、オペレータO1は、提供部134により提供された感情の情報を閲覧する等して利用する。オペレータO1は、感情の情報をeスポーツのプレーヤであるユーザU1に提供してもよい。 Returning to Figure 3, the provisioning unit 134 provides the emotion information estimated by the emotion estimation unit 133 to the terminal device 20 via the network N. Operator O1 then uses the emotion information provided by the provisioning unit 134, for example, by viewing it. Operator O1 may also provide the emotion information to user U1, who is an e-sports player.
[1-3.推定方法]
次に、推定装置10によって実行される推定方法について説明する。
[1-3. Estimation method]
Next, we will describe the estimation method performed by the estimation device 10.
なお、本実施形態の推定方法をコンピュータ装置に実現させるコンピュータプログラムは、本実施形態の範囲に含まれる。また、そのようなコンピュータプログラムを記録するコンピュータ読取り可能な不揮発性記録媒体は、本実施形態の範囲に含まれる。また、本実施形態の推定方法をコンピュータ装置に実現させるコンピュータプログラムは、1つのプログラムのみで構成されてもよいが、複数のプログラムによって構成されてもよい。 Furthermore, the computer program that implements the estimation method of this embodiment in a computer device is included within the scope of this embodiment. Also, the computer-readable non-volatile recording medium that records such a computer program is included within the scope of this embodiment. Moreover, the computer program that implements the estimation method of this embodiment in a computer device may consist of only one program, or it may consist of multiple programs.
(1-3-1.特殊タスクを行う場合)
まず、特殊タスクを行ってニュートラル領域を決定した後に、感情の推定を行う場合の処理例について説明する。図11は、第1実施形態の推定装置10によって実行される推定処理の前段部の一例を示すフローチャートである。図12は、第1実施形態の推定装置10によって実行される推定処理の後段部の一例を示すフローチャートである。ここで、推定処理の前段部は、上述のニュートラル領域を決定する領域決定処理に該当する。そして、図11に示す例においては、推定処理の前段部は、特殊タスクを実行する場合の領域決定処理に該当する。また、推定処理の後段部は、感情推定モデルを利用した感情の推定処理に該当する。
(1-3-1. When performing special tasks)
First, we will describe an example of processing when emotion estimation is performed after determining the neutral region by performing a special task. Figure 11 is a flowchart showing an example of the preliminary part of the estimation process performed by the estimation device 10 of the first embodiment. Figure 12 is a flowchart showing an example of the final part of the estimation process performed by the estimation device 10 of the first embodiment. Here, the preliminary part of the estimation process corresponds to the region determination process that determines the neutral region as described above. In the example shown in Figure 11, the preliminary part of the estimation process corresponds to the region determination process when performing a special task. The final part of the estimation process corresponds to the emotion estimation process using an emotion estimation model.
図11に示す処理は、例えば、第1センサ31および第2センサ32を含む生体センサ30からの信号を、推定装置10の取得部131が取得開始することにより開始される。当該取得開始は、例えばユーザU1の指示操作等により行われてよい。図12に示す処理は、図11に示す処理に続いて行われる。なお、図11に示す前段部の処理は、eスポーツが開始される前に行われることが好ましい。 The process shown in Figure 11 is initiated, for example, when the acquisition unit 131 of the estimation device 10 starts acquiring signals from the biosensor 30, which includes the first sensor 31 and the second sensor 32. This acquisition may be initiated, for example, by a user U1 instruction. The process shown in Figure 12 is performed following the process shown in Figure 11. It is preferable that the preceding process shown in Figure 11 is performed before the e-sports event begins.
ステップS11では、領域決定部132が、取得部131で取得した生体センサ30の情報と、センサテーブル121aとに基づいて対象となる指標種別を特定する。本実施形態では、指標種別として、「覚醒度」および「自律神経系活性度」が特定される。指標種別が特定されると、次のステップS12に処理が進められる。 In step S11, the region determination unit 132 identifies the target indicator type based on the information from the biosensor 30 acquired by the acquisition unit 131 and the sensor table 121a. In this embodiment, "alertness level" and "autonomic nervous system activity level" are identified as indicator types. Once the indicator types are identified, the process proceeds to the next step S12.
ステップS12では、領域決定部132が、感情の推定対象であるユーザU1について、各指標種別のニュートラル領域の上限値および下限値が決定済みであるか否かを判定する。感情推定対象のユーザU1の、ニュートラル領域の上限値および下限値が決定済みであるか否かは、ニュートラル領域テーブル121d(図9参照)に含まれる情報により判定される。本実施形態では、感情推定対象のユーザU1の、「覚醒度」および「自律神経系活性度」のニュートラル領域の上限値および下限値が決定済みであるか否かが確認される。決定済みである場合(ステップS12でYes)、ステップS20(図12参照)に処理が進められる。決定済みでない場合(ステップS12でNo)、ステップS13に処理が進められる。 In step S12, the domain determination unit 132 determines whether the upper and lower limits of the neutral domain for each indicator type have been determined for user U1, the target of emotion estimation. Whether the upper and lower limits of the neutral domain for user U1, the target of emotion estimation, have been determined is determined by the information contained in the neutral domain table 121d (see Figure 9). In this embodiment, it is confirmed whether the upper and lower limits of the neutral domain for "arousal level" and "autonomic nervous system activity level" for user U1, the target of emotion estimation, have been determined. If they have been determined (Yes in step S12), the process proceeds to step S20 (see Figure 12). If they have not been determined (No in step S12), the process proceeds to step S13.
なお、ステップS12の処理は行われなくてもよい。すなわち、過去に各指標種別のニュートラル領域の上限値および下限値が決定されたか否かにかかわらず、各指標種別のニュートラル領域の上限値および下限値を決定する処理が行われてもよい。ニュートラル領域は、例えばユーザU1が置かれる環境やユーザU1の体調等によって変動する可能性がある。このために、eスポーツの開始前に毎回、ニュートラル領域の上限値および下限値が決定されることが好ましい。 Furthermore, the process in step S12 is not required. That is, regardless of whether the upper and lower limits of the neutral region for each indicator type have been determined in the past, the process of determining the upper and lower limits of the neutral region for each indicator type may be performed. The neutral region may fluctuate depending on factors such as the environment in which user U1 is placed or the physical condition of user U1. For this reason, it is preferable to determine the upper and lower limits of the neutral region before each esports session begins.
また、本実施形態では、ステップS11で特定された指標種別の中に、ニュートラル領域の上限値および下限値が決定済みでない指標種別が存在すると、先に特定した全ての指標種別に対して上限値および下限値を決定する処理が行われる。ただし、これは例示である。すなわち、ニュートラル領域の上限値および下限値が決定済みでない指標種別に限って、ニュートラル領域の上限値および下限値を決定する処理が行われる構成としてもよい。 Furthermore, in this embodiment, if there are any indicator types identified in step S11 for which the upper and lower limits of the neutral region have not yet been determined, the process of determining the upper and lower limits is performed for all previously identified indicator types. However, this is merely an example. That is, the configuration may be such that the process of determining the upper and lower limits of the neutral region is performed only for indicator types for which the upper and lower limits of the neutral region have not yet been determined.
ステップS13では、領域決定部132が変数xを1とする。本実施形態では、変数xが1である場合、ステップS11で特定された2つの指標種別のうち、第1指標種別の処理を行うと判定する。また、変数xが2である場合、ステップS11で特定された2つの指標種別のうち、第2指標種別の処理を行うと判定する。変数xが1とされると、次のステップS14に処理が進められる。 In step S13, the region determination unit 132 sets variable x to 1. In this embodiment, if variable x is 1, it is determined that the processing for the first indicator type out of the two indicator types identified in step S11 will be performed. If variable x is 2, it is determined that the processing for the second indicator type out of the two indicator types identified in step S11 will be performed. When variable x is set to 1, the process proceeds to the next step S14.
ステップS14では、領域決定部132は、変数が1であるために、ユーザU1に対して第1指標種別の第1タスクの実行を要求する。タスクの要求は、例えば、ユーザU1が使用するゲーム装置40の表示部42に要求事項を画面表示することにより行われる。タスクの要求は、画面表示に代えて、或いは、画面表示に加えて音声案内によって行われてもよい。要求事項には、第1タスクの具体的内容が含まれることが好ましい。第1タスクの内容に関する情報は、特殊タスクテーブル121c(図5参照)に含まれる。本実施形態では、例えば、第1指標種別は「覚醒度」である。そして、第1タスクの内容は、「表示部42に表示される数字を暗算で加算する」である。第1指標種別の第1タスクの実行要求が行われると、次のステップS15に処理が進められる。 In step S14, the region determination unit 132 requests user U1 to execute the first task of the first indicator type because the variable is 1. The task request is made, for example, by displaying the request on the display unit 42 of the game device 40 used by user U1. The task request may also be made by voice guidance in addition to, or instead of, a screen display. Preferably, the request includes the specific content of the first task. Information regarding the content of the first task is contained in the special task table 121c (see Figure 5). In this embodiment, for example, the first indicator type is "awareness level." The content of the first task is "mentally add the numbers displayed on the display unit 42." Once the request to execute the first task of the first indicator type is made, the process proceeds to the next step S15.
ステップS15では、領域決定部132が、第1指標種別の第1タスクの実行時に第1センサ31から得られる信号に基づいて、ニュートラル領域の上限値を決定する。ユーザU1のタスクの開始および終了は、例えば、タスクの開始時および終了時にユーザU1に操作部材の操作を行うことを要求するようにし、当該操作部材の操作情報によって判定される構成としてよい。操作部材は、例えば、ゲーム装置40の操作部41に含まれてよい。また、別の例として、ユーザU1のタスクの開始および終了は、ゲーム装置40等に配置されるユーザU1を撮影するカメラから得られる情報によって判定される構成としてもよい。本実施形態では、領域決定部132は、感情推定の対象となるユーザU1の、覚醒度におけるニュートラル領域の上限値を決定する。なお、決定された上限値は、ニュートラル領域テーブル121d(図9参照)に保存される。ニュートラル領域の上限値が決定されると、次のステップS16に処理が進められる。 In step S15, the region determination unit 132 determines the upper limit of the neutral region based on the signal obtained from the first sensor 31 during the execution of the first task of the first index type. The start and end of the user U1's task may be determined, for example, by requiring the user U1 to operate an operating member at the start and end of the task, and the determination being made based on the operation information of the operating member. The operating member may, for example, be included in the operation unit 41 of the game device 40. Alternatively, the start and end of the user U1's task may be determined by information obtained from a camera that photographs the user U1, which is positioned in the game device 40 or the like. In this embodiment, the region determination unit 132 determines the upper limit of the neutral region in the arousal level of the user U1 who is the target of emotion estimation. The determined upper limit is stored in the neutral region table 121d (see Figure 9). Once the upper limit of the neutral region is determined, the process proceeds to the next step S16.
ステップS16では、領域決定部132が、ユーザU1に対して第1指標種別の第2タスクの実行を要求する。タスクの要求に関わる処理は、第1タスクの場合と同様であってよく、ここでは、詳細な説明は省略する。本実施形態では、第1指標種別は「覚醒度」であるために、第2タスクの内容は、「安静にして拳を握る」である。第1指標種別の第2タスクの実行要求が行われると、次のステップS17に処理が進められる。 In step S16, the domain determination unit 132 requests user U1 to execute the second task of the first indicator type. The processing related to the task request may be the same as for the first task, and a detailed explanation is omitted here. In this embodiment, since the first indicator type is "alertness," the content of the second task is "rest and clench your fist." Once the request to execute the second task of the first indicator type is made, the process proceeds to the next step S17.
ステップS17では、領域決定部132が、第1指標種別の第2タスクの実行時に第1センサ31から得られる信号に基づいて、ニュートラル領域の下限値を決定する。ユーザU1のタスクの開始および終了の判定は、第1タスクの場合と同様であってよい。本実施形態では、領域決定部132は、感情推定の対象となるユーザU1の、覚醒度におけるニュートラル領域の下限値を決定する。なお、決定された下限値は、ニュートラル領域テーブル121dに保存される。ニュートラル領域の下限値が決定されると、次のステップS18に処理が進められる。 In step S17, the region determination unit 132 determines the lower limit of the neutral region based on the signal obtained from the first sensor 31 during the execution of the second task of the first indicator type. The determination of the start and end of the user U1's task may be the same as in the case of the first task. In this embodiment, the region determination unit 132 determines the lower limit of the neutral region in terms of arousal level for user U1, who is the target of emotion estimation. The determined lower limit is stored in the neutral region table 121d. Once the lower limit of the neutral region is determined, the process proceeds to the next step S18.
なお、本例では、第1タスク、第2タスクの順で特殊タスクが実行される構成としているが、この順番は反対であってもよい。 In this example, the special tasks are executed in the order of Task 1 followed by Task 2, but this order can be reversed.
ステップS18では、領域決定部132が変数xに1を加算する処理を行う。変数xに対する加算処理が完了すると、次のステップS19に処理が進められる。 In step S18, the region determination unit 132 performs the operation of adding 1 to the variable x. Once the addition operation on variable x is complete, the process proceeds to the next step S19.
ステップS19では、領域決定部132が、変数xが3以上であるか否かを判定する。変数xが3より小さい場合(ステップS19でNo)、ステップS14に処理が戻され、ステップS14以降の処理が繰り返される。ただし、この段階では、変数xが2である。このために、第2指標種別に関する処理が行われる。本実施形態では、第2指標種別は「自律神経系活性度」である。このために、ステップS14で要求される第1タスクの内容は、「起立テスト」である。ステップS15では、感情推定の対象となるユーザU1の、自律神経系活性度におけるニュートラル領域の上限値が決定される。また、ステップS16で要求される第2タスクの内容は、「アシュネルテスト」である。ステップ17では、感情推定の対象となるユーザU1の、自律神経系活性度におけるニュートラル領域の下限値が決定される。変数xが3以上である場合(ステップS19でYes)、ステップS20(図12参照)に処理が進められる。 In step S19, the region determination unit 132 determines whether variable x is 3 or greater. If variable x is less than 3 (No in step S19), the process returns to step S14, and the processing from step S14 onward is repeated. However, at this stage, variable x is 2. Therefore, processing related to the second indicator type is performed. In this embodiment, the second indicator type is "autonomic nervous system activity level." For this reason, the content of the first task required in step S14 is the "standing test." In step S15, the upper limit of the neutral region in the autonomic nervous system activity level of user U1, the target of emotion estimation, is determined. Also, the content of the second task required in step S16 is the "Aschnell test." In step 17, the lower limit of the neutral region in the autonomic nervous system activity level of user U1, the target of emotion estimation, is determined. If variable x is 3 or greater (Yes in step S19), the process proceeds to step S20 (see Figure 12).
なお、本実施形態では、第1指標種別、第2指標種別の順番でニュートラル領域の上限値および下限値が決定される構成とした。ただしこれは例示であい、第2指標種別、第1指標種別の順番でニュートラル領域の上限値および下限値が決定されてもよい。 In this embodiment, the upper and lower limits of the neutral region are determined in the order of the first indicator type followed by the second indicator type. However, this is merely an example, and the upper and lower limits of the neutral region may be determined in the order of the second indicator type followed by the first indicator type.
ステップS20では、感情推定部133が、予め記憶される心理平面を、先の領域決定処理で得た指標種別ごとのニュートラル領域情報(上限値および下限値)によって加工する。そして、感情推定部133は、ニュートラル領域を含む心理平面を用いて感情の推定処理を行う。本実施形態では、例えば図10に示す加工された心理平面が使用されて感情の推定が行われる。上述のように、感情不定状態と判定されて感情の種別が特定されない場合と、感情の種別が具体的に特定される場合とがある。心理平面を用いた感情の推定処理が行われると、次のステップS21に処理が進められる。 In step S20, the emotion estimation unit 133 processes the pre-stored psychological plane using the neutral region information (upper and lower limits) for each index type obtained in the previous region determination process. Then, the emotion estimation unit 133 performs emotion estimation using the psychological plane including the neutral region. In this embodiment, for example, the processed psychological plane shown in Figure 10 is used to estimate the emotion. As described above, there are cases where the emotion is determined to be in an undefined state and the type of emotion is not specified, and cases where the type of emotion is specifically identified. Once the emotion estimation process using the psychological plane is complete, the process proceeds to the next step S21.
ステップS21では、提供部134が感情の推定結果を外部に提供する。提供部134は、例えば、端末装置20に感情の推定結果を提供する。端末装置20の表示画面には、感情の推定結果が適宜表示されてよい。また、端末装置20のオペレータO1は、感情の推定結果を利用した処理を適宜実施してよい。また、端末装置20に提供された感情の推定処理の結果は、端末装置20から自動的に、或いは、端末装置20のオペレータO1の操作によって、ゲーム装置40に出力されてよい。そして、ゲーム装置40に出力された感情の推定結果は、例えば、表示部42に表示されてよい。 In step S21, the provisioning unit 134 provides the emotion estimation result to an external source. For example, the provisioning unit 134 provides the emotion estimation result to the terminal device 20. The emotion estimation result may be displayed on the display screen of the terminal device 20 as appropriate. Furthermore, the operator O1 of the terminal device 20 may perform processing using the emotion estimation result as appropriate. The result of the emotion estimation processing provided to the terminal device 20 may be output to the game device 40 automatically from the terminal device 20, or by operation of the operator O1 of the terminal device 20. The emotion estimation result output to the game device 40 may then be displayed on, for example, the display unit 42.
図13Aおよび図13Bは、感情の推定結果が表示された画面を例示する図である。図13Aおよび図13Bに示す例では、画面上(詳細には画面右側)に、感情の推定結果を簡単に認識することを可能とする感情マップが示される。感情マップは、一例として、心理平面に計測結果(座標位置)をプロットしたグラフを含むグラフィック情報である。また、図13Aおよび図13Bに示す例では、画面上に、感情の推定結果を文字列で示す領域が設けられている。 Figures 13A and 13B illustrate screens displaying the emotion estimation results. In the examples shown in Figures 13A and 13B, an emotion map is displayed on the screen (specifically on the right side of the screen) to allow for easy recognition of the emotion estimation results. The emotion map is, for example, graphic information including a graph plotting the measurement results (coordinate positions) on a psychological plane. Furthermore, in the examples shown in Figures 13A and 13B, an area is provided on the screen to display the emotion estimation results as text.
図13Aは、2つの指標値で特定された座標位置がニュートラル領域NR外であった場合の結果を示す図である。この場合、感情の種別を特定できるために、感情の種別の特定結果が示される。また、図13Bは、2つの指標値で特定された座標位置がニュートラル領域NR上であった場合の結果を示す図である。この場合、感情不定状態で感情の種別を特定できないために、その旨が文字列により表示される。なお、図13Bに示す例では、自律神経系活性度(横軸)についてのみ注目すると、プロットされた位置はニュートラル領域NRではない。このために、例えば、「自律神経系活性度」については「弱い感情」の状態と推定されますといった表示を行ってもよい。 Figure 13A shows the results when the coordinate positions identified by the two index values are outside the neutral region (NR). In this case, the type of emotion can be identified, and the result of identifying the type of emotion is shown. Figure 13B shows the results when the coordinate positions identified by the two index values are within the neutral region (NR). In this case, since the type of emotion cannot be identified due to an indeterminate emotional state, this is indicated by text. Note that in the example shown in Figure 13B, if we focus only on autonomic nervous system activity (horizontal axis), the plotted position is not within the neutral region (NR). For this reason, for example, a message such as "The autonomic nervous system activity is estimated to be in a state of 'weak emotion'" may be displayed.
(1-3-2.特殊タスクを行わない場合)
次に、特殊タスクを行わずにニュートラル領域を決定した後に、感情の推定を行う場合の処理例について説明する。図14は、第1実施形態の推定装置10によって実行される推定処理の前段部の他の例を示すフローチャートである。図14に示す例では、推定処理の前段部は、特殊タスクを実行しない場合の領域決定処理に該当する。本例でも、推定処理の前段部が終了すると、図12に示す推定処理の後段部が行われる。
(1-3-2. When no special tasks are performed)
Next, we will describe an example of processing when emotion estimation is performed after determining the neutral region without performing a special task. Figure 14 is a flowchart showing another example of the preliminary part of the estimation process performed by the estimation device 10 of the first embodiment. In the example shown in Figure 14, the preliminary part of the estimation process corresponds to the region determination process when no special task is performed. In this example as well, once the preliminary part of the estimation process is completed, the subsequent part of the estimation process shown in Figure 12 is performed.
図14に示す処理は、例えば、第1センサ31および第2センサ32を含む生体センサ30からの信号を、推定装置10の取得部131が取得開始することにより開始される。なお、図14に示す処理は、eスポーツが開始される直前(例えば20分前等)に開始されることが好ましい。これにより、eスポーツを実際に行う環境等となるべく同じ状態としてニュートラル領域の決定を行うことができる。例えば、eスポーツを開始する前にウォーミングアップを行わせて(ゲームのウォーミングアップモードの実行)、その際に蓄積されるデータを利用して図14に示す処理が行われてもよい。ただし、図14に示す処理は、eスポーツの開始から数時間以上前に行われてもよい。また、図14に示す処理は、ユーザU1が日常生活を行っている間に行われてもよい。また、図14に示す処理は、場合によっては、eスポーツの開始後に行われてもよい。 The process shown in Figure 14 is initiated, for example, when the acquisition unit 131 of the estimation device 10 begins acquiring signals from the biosensor 30, including the first sensor 31 and the second sensor 32. It is preferable that the process shown in Figure 14 be initiated immediately before the start of the e-sports event (e.g., 20 minutes before). This allows for the determination of the neutral region to be as close as possible to the actual environment in which the e-sports event is played. For example, the user may be made to warm up before starting the e-sports event (by running the game's warm-up mode), and the data accumulated during this process may be used to perform the process shown in Figure 14. However, the process shown in Figure 14 may be performed several hours or more before the start of the e-sports event. Furthermore, the process shown in Figure 14 may be performed while the user U1 is going about their daily life. Also, in some cases, the process shown in Figure 14 may be performed after the start of the e-sports event.
ステップS31では、領域決定部132が、取得部131で取得した生体センサ30の情報に基づいて対象となる指標種別を特定する。当該処理は、図11に示すステップS11と同様であるために、詳細な説明は省略する。指標種別が特定されると、次のステップS32に処理が進められる。 In step S31, the region determination unit 132 identifies the target index type based on the information from the biosensor 30 acquired by the acquisition unit 131. This process is the same as step S11 shown in Figure 11, so a detailed explanation is omitted. Once the index type is identified, the process proceeds to the next step, S32.
ステップS32では、領域決定部132が、感情の推定対象であるユーザU1について、各指標種別のニュートラル領域の上限値および下限値が決定済みであるか否かを判定する。決定済みである場合(ステップS32でYes)、ステップS20(図12参照)に処理が進められる。決定済みでない場合(ステップS32でNo)、ステップS33に処理が進められる。ステップS32の処理は、図11に示すステップS12と同様であるために、詳細な説明は省略する。なお、図11に示す例と同様に、ステップS32の処理は行われなくてもよい。 In step S32, the domain determination unit 132 determines whether the upper and lower limits of the neutral domain for each indicator type have been determined for user U1, the target of emotion estimation. If they have been determined (Yes in step S32), the process proceeds to step S20 (see Figure 12). If they have not been determined (No in step S32), the process proceeds to step S33. The process in step S32 is the same as that in step S12 shown in Figure 11, so a detailed explanation is omitted. Note that, as in the example shown in Figure 11, the process in step S32 may be omitted.
ステップS33では、領域決定部132が、指標種別ごとに、例えばクラスタ分析等の統計処理手法を用いて、ニュートラル領域の上限値および下限値を推定する。なお、クラスタ分析等の統計処理が行われる対象データは、指標種別ごとに蓄積された指標値の時系列データである。本実施形態では、「覚醒度」と「自律神経系活性度」との各指標値の時系列データを用いて、指標種別ごとにニュートラル領域の上限値および下限値が推定される。指標種別ごとの上限値および下限値が推定されると、次のステップS34に処理が進められる。 In step S33, the region determination unit 132 estimates the upper and lower limits of the neutral region for each indicator type using statistical processing methods such as cluster analysis. The data subject to statistical processing such as cluster analysis is the time-series data of indicator values accumulated for each indicator type. In this embodiment, the upper and lower limits of the neutral region are estimated for each indicator type using the time-series data of the indicator values for "arousal level" and "autonomic nervous system activity level." Once the upper and lower limits for each indicator type are estimated, the process proceeds to the next step S34.
ステップS34では、領域決定部132が、指標種別ごとに、ニュートラル領域の上限値および下限値が収束したか否かを判定する。本実施形態では、「覚醒度」のニュートラル領域の上限値および下限値が収束した否かが判定される。また、「自律神経系活性度」のニュートラル領域の上限値および下限値が収束した否かが判定される。全ての指標種別のニュートラル領域の上限値および下限値が収束したと判定されると(ステップS34でYes)、次のステップS35に処理が進められる。一方、ニュートラル領域の上限値および下限値が収束していない指標種別が存在する場合(ステップS34でNo)、ステップS33に処理が戻され、ステップS33以降の処理が行われる。 In step S34, the region determination unit 132 determines whether the upper and lower limits of the neutral region have converged for each indicator type. In this embodiment, it is determined whether the upper and lower limits of the neutral region for "alertness level" have converged. It is also determined whether the upper and lower limits of the neutral region for "autonomic nervous system activity level" have converged. If it is determined that the upper and lower limits of the neutral region for all indicator types have converged (Yes in step S34), the process proceeds to the next step S35. On the other hand, if there are indicator types for which the upper and lower limits of the neutral region have not converged (No in step S34), the process returns to step S33, and the processing from step S33 onward is carried out.
ステップS35では、領域決定部132が、指標種別ごとに、先に収束したと判定された上限値および下限値を、ニュートラル領域の上限値および下限値に決定する。決定された上限値および下限値は、ニュートラル領域テーブル121dに保存される。指標種別ごとの、ニュートラル領域の上限値および下限値が決定されると、図12に示すステップS20に処理が進められて、感情の推定処理が行われる。当該感情の推定処理は、上述したために説明は省略する。 In step S35, the region determination unit 132 determines the upper and lower limits of the neutral region for each indicator type, using the upper and lower limits that were previously determined to have converged. These determined upper and lower limits are stored in the neutral region table 121d. Once the upper and lower limits of the neutral region for each indicator type are determined, the process proceeds to step S20 shown in Figure 12, where the emotion estimation process is performed. This emotion estimation process is omitted from this explanation as it has been described above.
なお、上限値および下限値が収束したと判定する判定条件(閾値)を厳しく設定しすぎると、上限値等が収束したと判定されるまでの時間が長くなる。そこで、時系列データの蓄積量が少ない段階では、判定条件を緩めに設定し、なるべく早くニュートラル領域が決定される構成としてよい。このようにすると、ニュートラル領域の設定精度は低下するが、短時間で感情の推定処理を行える状態とすることができる。そして、感情の推定が行える状態を早期に確保しつつ、データの蓄積量に応じて判定条件を変化させながら、図14に示すステップS33以降の処理を継続してもよい。このようにすると、ニュートラル領域の設定精度を徐々に上げ、感情の推定精度も徐々に高めることができる。 Furthermore, if the criteria (thresholds) for determining when the upper and lower limits have converged are set too strictly, the time it takes for the upper and lower limits to converge will increase. Therefore, in the early stages when the amount of accumulated time-series data is small, the criteria can be set more loosely to determine the neutral region as quickly as possible. While this reduces the accuracy of setting the neutral region, it allows for a state where emotion estimation can be performed in a short time. Then, while securing a state where emotion estimation can be performed early, the processing from step S33 onwards, as shown in Figure 14, can be continued while changing the criteria according to the amount of accumulated data. This allows for a gradual increase in the accuracy of setting the neutral region and a gradual increase in the accuracy of emotion estimation.
上述のニュートラル領域の設定精度を徐々に上げる構成は、例えばeスポーツにおいて、次のような使い方ができる。ニュートラル領域の設定精度が低いゲーム開始当初においては、感情の推定精度が低い点をユーザU1に知らせつつ、感情の推定結果を画面表示する。ニュートラル領域の設定精度が上がり、感情の推定精度が所定レベル以上に上がった段階で、感情の推定精度が低いといった通知を解除し、正式に感情の推定結果を画面表示する。 The configuration described above, which gradually increases the accuracy of the neutral zone settings, can be used in applications such as esports, for example, as follows: At the beginning of a game, when the accuracy of the neutral zone settings is low, the system informs user U1 of the low accuracy of emotion estimation and displays the estimated emotion results on the screen. Once the accuracy of the neutral zone settings increases and the emotion estimation accuracy reaches a predetermined level or higher, the notification about the low accuracy is removed, and the official emotion estimation results are displayed on the screen.
また、上述のニュートラル領域の設定精度を徐々に上げる構成は、例えば自動運転可能な車両において、次のような使い方ができる。ニュートラル領域の設定精度が低い段階では、単にドライバに感情の推定結果のみを表示する。ニュートラル領域の設定精度が上がり、感情の推定精度が所定レベル以上に上がった段階で、感情の推定結果に応じて自動運転と手動運転との切り替えを自動で行う。例えば、感情の推定結果からドライバがイライラしていると判定されると危険と判定して、手動運転を自動運転に切り替えるといったことができる。 Furthermore, the configuration described above, which gradually increases the accuracy of the neutral zone setting, can be used in, for example, an autonomous vehicle in the following way: At the stage where the accuracy of the neutral zone setting is low, only the emotion estimation result is displayed to the driver. Once the accuracy of the neutral zone setting increases and the emotion estimation accuracy reaches a predetermined level or higher, the system automatically switches between autonomous and manual driving according to the emotion estimation result. For example, if the emotion estimation result determines that the driver is irritated, the system can be judged as dangerous and switch from manual to autonomous driving.
[1-4.変形例]
次に、第1実施形態の変形例について説明する。
[1-4. Variations]
Next, a modified example of the first embodiment will be described.
(1-4-1.第1変形例)
以上では、領域決定部132によって決定されたニュートラル領域をそのまま利用して感情推定モデル(心理平面)のキャリブレーションを行う構成とした。これとは異なり、コントローラ13は、感情の推定結果の使用目的に応じて、ニュートラル領域の調整を行ってもよい。ニュートラル領域の調整は、詳細には、領域決定部132によって決定されたニュートラル領域の幅を調整することを意味する。このような構成とすると、感情の推定処理によって感情の種別を特定できる可能性を使用目的に応じて変動させることができる。
(1-4-1. First variation)
In the above configuration, the neutral region determined by the region determination unit 132 is used directly to calibrate the emotion estimation model (psychological plane). Alternatively, the controller 13 may adjust the neutral region depending on the intended use of the emotion estimation results. Specifically, adjusting the neutral region means adjusting the width of the neutral region determined by the region determination unit 132. With this configuration, the possibility of identifying the type of emotion through the emotion estimation process can be varied according to the intended use.
例えば、感情の推定の正確さを多少犠牲にしても、できるだけ推定される感情の種別をユーザU1に知らせたい場合には、心理平面において帯状となるニュートラル領域の幅が狭くなるように調整してよい。このように調整すれば、生体信号から得られる指標値がニュートラル領域に属する可能性が低減される。この結果、感情の種別を特定できる可能性を高くすることができる。なお、感情の推定の正確さを多少犠牲にしても、できるだけ推定される感情の種別をユーザU1に知らせたい場合としては、単に感情の種別を画面表示したい場合であって、感情の種別に応じた制御処理を行わない場合等が挙げられる。 For example, if the goal is to inform user U1 of the estimated emotion type as much as possible, even at the expense of some accuracy in emotion estimation, the width of the neutral region, which forms a band on the psychological plane, can be narrowed. This adjustment reduces the likelihood that the index value obtained from the biosignal will fall within the neutral region. As a result, the probability of identifying the emotion type can be increased. An example of a situation where the goal is to inform user U1 of the estimated emotion type as much as possible, even at the expense of some accuracy in emotion estimation, is simply to display the emotion type on the screen without performing any control processing based on the emotion type.
また、例えば、感情の種別をできるだけ正確に把握したい場合には、心理平面において帯状となるニュートラル領域の幅が広くなるように調整してよい。このように調整すれば、生体信号から得られる指標値が十分に大きくないと、ニュートラル領域に属することになる。この結果、感情の種別を誤って特定する可能性を低くすることができる。なお、感情の種別をできるだけ正確に把握したい場合としては、例えば、感情の推定結果をメンタルトレーニングに利用したい場合が挙げられる。また、感情の種別をできるだけ正確に把握したい場合としては、例えば、感情の種別を利用して車両の運転制御を行いたい場合が挙げられる。 Furthermore, if you want to identify the type of emotion as accurately as possible, you can adjust the settings so that the width of the neutral region, which forms a band on the psychological plane, is wider. With this adjustment, if the index value obtained from the biosignals is not sufficiently large, it will fall into the neutral region. As a result, the possibility of misidentifying the type of emotion can be reduced. Examples of situations where you want to identify the type of emotion as accurately as possible include using the emotion estimation results for mental training, or using emotion types to control vehicle operation.
(1-4-2.第2変形例)
以上では、感情推定モデルのみを利用して感情の推定を行う構成としたが、これは例示である。コントローラ13は、感情推定モデルを用いた感情の推定に際して、生体信号とは異なる情報から推定される感情の推定結果を加味してよい。このように構成することにより、感情の種別をより適切に推定することができる。
(1-4-2. Second variation)
The above configuration uses only an emotion estimation model to estimate emotions, but this is merely an example. The controller 13 may take into account the emotion estimation results derived from information other than biological signals when estimating emotions using the emotion estimation model. By configuring it in this way, the type of emotion can be estimated more appropriately.
図15は、第1実施形態の推定システム1の変形例の概略の構成を示す図である。図15に示すように、変形例の推定装置(サーバ)10Aも、上述の第1実施形態と同様に、端末装置20AとネットワークNにより通信可能に接続されている。ただし、本変形例においては、端末装置20Aに生体信号の他に画像信号が入力され、当該画像信号が推定装置10Aに送信される点が上述の実施形態と異なる。なお、生体信号は、正確には生体信号を生体センサ30で計測したセンサ信号である。また、画像信号は、ユーザU1を撮影するカメラ(不図示)から出力される信号である。当該カメラは、例えばゲーム装置40に内蔵されてよい。また、ゲーム装置40とは別に設置される構成であってもよい。 Figure 15 shows a schematic configuration of a modified version of the estimation system 1 of the first embodiment. As shown in Figure 15, the estimation device (server) 10A of the modified version is also connected to the terminal device 20A via a network N, similar to the first embodiment described above. However, this modified version differs from the above embodiment in that, in addition to biological signals, image signals are input to the terminal device 20A, and these image signals are transmitted to the estimation device 10A. The biological signals are, more precisely, sensor signals obtained by measuring biological signals with a biological sensor 30. The image signals are signals output from a camera (not shown) that photographs the user U1. This camera may, for example, be built into the game device 40. Alternatively, it may be configured to be installed separately from the game device 40.
推定装置10Aは、上述の第1実施形態と同様に、図10等に示される感情推定モデルを用いて感情の推定を行う。ここで、感情推定モデルの利用により、「楽しみ、喜び、怒り、悲しみ」(心理平面の第一象限に該当)の感情を有すると推定されたとする。このような場合に、推定装置10Aは、ユーザU1の顔画像の画像処理を行い、表情の解析を行って感情の種別を分類する。例えば、画像情報を利用して、「楽しみ、喜び」、「怒り」、「悲しみ」の3つのいずれかに分類する。すなわち、画像情報を加味することで、感情推定モデルにより推定される感情の種別を、より詳細に分類することができる。 The estimation device 10A, similar to the first embodiment described above, performs emotion estimation using the emotion estimation model shown in Figure 10, etc. Here, let's assume that the emotion estimation model estimates the user U1 to have one of the following emotions: "enjoyment, happiness, anger, or sadness" (corresponding to the first quadrant of the psychological plane). In this case, the estimation device 10A performs image processing of the user U1's face image, analyzes the facial expression, and classifies the type of emotion. For example, it uses image information to classify the emotion into one of the three categories: "enjoyment, happiness," "anger," or "sadness." In other words, by incorporating image information, the type of emotion estimated by the emotion estimation model can be classified in more detail.
なお、以上では、感情推定モデル(心理平面)により、第一象限の感情が推定された場合を例示したが、他の象限の感情が推定された場合にも、画像情報を利用した分類が行われてよい。例えば、感情推定モデルを利用して推定された感情の種別に、ポジティブな感情とネガティブな感情とが混在しているような場合に、画像情報を利用した分類が行われてよい。また、以上では、画像情報を利用したが、例えば音声情報等の画像情報以外の情報が利用されてもよい。 The above example illustrates the case where emotions in the first quadrant are estimated using an emotion estimation model (psychological plane). However, classification using image information may also be performed when emotions in other quadrants are estimated. For example, if the types of emotions estimated using the emotion estimation model include both positive and negative emotions, classification using image information may be performed. Furthermore, while image information was used above, other types of information, such as audio information, may also be used.
車両のドライバの感情の推定を行う場合を例に説明する。この場合、例えばドライブレコーダ用の車載カメラ等を、上述の画像情報を得るカメラとして利用することができる。画像情報以外を利用する場合、例えばドライブレコーダ等の車載装置が有するマイクにより得られる音声情報が利用されてもよい。なお、音声情報を利用する場合、ドライバに対して所定の質問をして、それに対するドライバの応答を解析して感情の分類を行ってもよい。また、画像情報以外を利用する場合の例として、CAN(Controller Area Network)情報や、運転行動情報等が利用されてもよい。 Let's explain using the example of estimating the emotions of a vehicle driver. In this case, for example, an in-vehicle camera for a dashcam can be used as the camera that obtains the image information mentioned above. If information other than image information is used, for example, audio information obtained from a microphone in an in-vehicle device such as a dashcam may be used. When using audio information, the driver may be asked predetermined questions, and their responses may be analyzed to classify their emotions. Furthermore, as an example of using information other than image information, CAN (Controller Area Network) information or driving behavior information may also be used.
感情の推定に利用されるCAN情報としては、例えばアクセル情報、ブレーキ情報、又は、舵角情報等が挙げられる。例えば、アクセル、ブレーキ、および、舵角は、ドライバが怒りの感情やイライラした感情を有する場合に粗い操作となり易く、これらの情報を解析することで感情の分類が可能である。また、運転行動情報は、例えば、CAN情報、レーダ情報、LiDAR(Light Detection and Ranging)情報、および、車両の周辺環境を撮影する画像情報のちの少なくとも1つの情報から取得することができる。例えば、歩行者や他の車両に道を譲る傾向が認められれば、怒りや悲しみの感情を有しないと判定できる。また、例えば、車間距離が短いと認められれば、怒りの感情やイライラした感情を有すると判定できる。 Examples of CAN information used to estimate emotions include accelerator information, brake information, and steering angle information. For instance, accelerator, brake, and steering angle operations tend to be rougher when a driver is angry or frustrated, and analyzing this information allows for emotional classification. Furthermore, driving behavior information can be obtained from at least one of the following: CAN information, radar information, LiDAR (Light Detection and Ranging) information, and image information capturing the vehicle's surrounding environment. For example, if a tendency to yield to pedestrians or other vehicles is observed, it can be determined that the driver is not experiencing anger or sadness. Conversely, if a short following distance is observed, it can be determined that the driver is experiencing anger or frustration.
<2.第2実施形態>
次に、第2実施形態について説明する。第2実施形態の説明にあたって、第1実施形態と同様の構成要素については、基本的に同様の符号を付し、特に説明の必要がない場合には説明を省略する。
<2. Second Embodiment>
Next, a second embodiment will be described. In describing the second embodiment, components similar to those in the first embodiment will be denoted by the same reference numerals, and explanations will be omitted unless they require special explanation.
[2-1.推定システム]
第2実施形態の推定システムは、第1実施形態の推定システム1と同様の構成である。このために、第2実施形態の推定システムの詳細な説明は省略する。なお、第2実施形態の推定システムは、推定装置10B(後述の図16参照)と、生体信号を計測する生体センサ30(図1参照)とを備える。生体センサ30は、脳波センサとして構成される第1センサ31と、心拍センサとして構成される第2センサ32とを含む。
[2-1. Estimation System]
The estimation system of the second embodiment has the same configuration as the estimation system 1 of the first embodiment. For this reason, a detailed description of the estimation system of the second embodiment will be omitted. The estimation system of the second embodiment includes an estimation device 10B (see Figure 16, described later) and a biosensor 30 for measuring biological signals (see Figure 1). The biosensor 30 includes a first sensor 31 configured as an electroencephalogram sensor and a second sensor 32 configured as a heart rate sensor.
[2-2.推定装置]
図16は、本発明の第2実施形態に係る推定装置10Bの構成例を示す図である。推定装置10Bの構成は、概ね第1実施形態の推定装置10(図3参照)と同様である。推定装置10Bは、第1実施形態と同様に、通信部11および記憶部12を備える。また、推定装置10Bは、コントローラ13Bを備える。
[2-2. Estimation device]
Figure 16 shows an example of the configuration of the estimation device 10B according to the second embodiment of the present invention. The configuration of the estimation device 10B is generally the same as that of the estimation device 10 of the first embodiment (see Figure 3). Similar to the first embodiment, the estimation device 10B includes a communication unit 11 and a storage unit 12. The estimation device 10B also includes a controller 13B.
コントローラ13Bの構成は、第1実施形態のコントローラ13の構成と同様である。また、コントローラ13Bの機能は、第1実施形態のコントローラ13の機能と概ね同様である。ただし、コントローラ13Bは、その機能として、適性推定部135を備える点で第1実施形態のコントローラ13と異なる。適性推定部135は、他の機能部131~134と同様に、例えば、ソフトウェアにより実現される。なお、適性推定部135は、専用のIC等を用いてハードウェアにより実現されてもよいし、ソフトウェアおよびハードウェアを併用して実現されてもよい。 The configuration of controller 13B is the same as that of controller 13 in the first embodiment. Furthermore, the functions of controller 13B are generally the same as those of controller 13 in the first embodiment. However, controller 13B differs from controller 13 in that it includes an aptitude estimation unit 135. The aptitude estimation unit 135, like the other functional units 131 to 134, is implemented, for example, by software. The aptitude estimation unit 135 may also be implemented by hardware using a dedicated IC, or by a combination of software and hardware.
また、本実施形態の推定装置10Bは、各機能部131~135のうち、取得部131および適性推定部135を備え、領域決定部132、感情推定部133、および、提供部134は備えない構成であってもよい。この場合、推定装置10Bは、感情の推定を行うための準備を行う装置であってよい。そして、領域決定部132、感情推定部133、および、提供部134のうち、少なくとも感情推定部133を備える感情推定装置が、推定装置10Bとは別に設けられてよい。 Furthermore, the estimation device 10B of this embodiment may be configured to include the acquisition unit 131 and the aptitude estimation unit 135 among the functional units 131 to 135, but may not include the domain determination unit 132, the emotion estimation unit 133, and the provision unit 134. In this case, the estimation device 10B may be a device that prepares for emotion estimation. In addition, an emotion estimation device comprising at least the emotion estimation unit 133 among the domain determination unit 132, the emotion estimation unit 133, and the provision unit 134 may be provided separately from the estimation device 10B.
適性推定部135の説明を行う前に、適性推定部135が設けられる理由について説明しておく。生体信号に基づいて得られる情報は、環境や体調等の影響を受けやすい。このために、生体信号に基づいて感情の推定を行う時点で、当該感情推定の対象となる者が、環境等の影響を受けて、感情推定に不適な状態となっていることがあり得る。そして、このような状態で感情推定が行われると、感情推定の誤りが生じる可能性が高く、感情の推定精度が低下する虞がある。本実施形態では、このような感情推定精度の低下を抑制するために、適性推定部135が設けられている。 Before explaining the aptitude estimation unit 135, let's explain why it is included. Information obtained based on biosignals is easily influenced by environmental factors and physical condition. Therefore, at the time of emotion estimation based on biosignals, the person being estimated may be in an unsuitable state due to environmental influences. If emotion estimation is performed in such a state, there is a high possibility of errors in the emotion estimation, potentially leading to a decrease in the accuracy of the emotion estimation. In this embodiment, the aptitude estimation unit 135 is provided to suppress such a decrease in emotion estimation accuracy.
適性推定部135は、ユーザU1の、生体信号に基づく感情推定に対する適性を推定する。詳細には、適性推定部135(すなわちコントローラ13B)は、ユーザU1に複数種のタスクを与える。また、適性推定部135は、複数種のタスクそれぞれの実行時における生体信号に基づく指標値を取得する。また、適性推定部135は、複数の指標値間の関係性に基づき、ユーザU1の感情推定に対する適性を推定する。 The aptitude estimation unit 135 estimates the user U1's aptitude for emotion estimation based on biosignals. Specifically, the aptitude estimation unit 135 (i.e., the controller 13B) assigns user U1 multiple tasks. The aptitude estimation unit 135 also acquires index values based on biosignals during the execution of each of these tasks. Furthermore, the aptitude estimation unit 135 estimates user U1's aptitude for emotion estimation based on the relationships between these index values.
このような構成によれば、感情推定の実施前に複数種のタスクをユーザU1に実行させることによって、ユーザU1の感情推定に対する適性を推定することができる。この結果、感情推定に適した状態で感情の推定を行うできる可能性が高まり、感情推定の精度を向上することができる。 With this configuration, by having user U1 perform multiple tasks before sentiment estimation, it is possible to estimate user U1's suitability for sentiment estimation. As a result, the likelihood of performing sentiment estimation in a suitable state increases, thereby improving the accuracy of sentiment estimation.
以上のような機能を有する適性推定部135について、更に詳細に説明する。 The aptitude estimation unit 135, which has the functions described above, will now be explained in more detail.
適性推定部135がユーザU1に実行させる複数種のタスクのそれぞれは、医学的エビデンスに基づき生理反応(例えば覚醒度等)を所定の状態に喚起できるタスクである。そして、複数種のタスクは、互いに、喚起できる生理反応の大きさ(指標値)が異なる。すなわち、複数種のタスクのそれぞれをユーザU1に実行させた際に得られる生理反応の大きさ(指標値)には序列が生じる。 Each of the multiple tasks that the aptitude estimation unit 135 has user U1 perform is a task that can evoke a predetermined state of physiological response (e.g., level of arousal) based on medical evidence. Furthermore, the magnitude (index value) of the physiological response that each of these tasks can evoke differs from one another. In other words, a hierarchy emerges in the magnitude (index value) of the physiological response obtained when user U1 performs each of the multiple tasks.
本実施形態において、テーブル121(図16参照)には、適性推定用のタスクテーブル121eが含まれる。適性推定用のタスクテーブル121eは、上述の複数種のタスクに関する情報を含む。図17は、適性推定用のタスクテーブル121eの一例を示す図である。図17に示すように、適性推定用のタスクテーブル121eの項目には、「タスクID」、「センサ種別」、「対応指標種別」、「序列」、および、「タスク内容」が含まれる。項目「センサ種別」および「対応指標種別」は、上述の図4A等と同様であるために、説明は省略する。なお、「対応指標種別」は、対応生理反応種別と表現してもよい。 In this embodiment, table 121 (see Figure 16) includes a task table 121e for aptitude estimation. The task table 121e for aptitude estimation contains information about the multiple types of tasks described above. Figure 17 shows an example of the task table 121e for aptitude estimation. As shown in Figure 17, the items in the task table 121e for aptitude estimation include "Task ID," "Sensor Type," "Corresponding Indicator Type," "Ranking," and "Task Content." The items "Sensor Type" and "Corresponding Indicator Type" are the same as those in Figure 4A, etc., described above, so their explanation is omitted. Note that "Corresponding Indicator Type" may also be expressed as "Corresponding Physiological Response Type."
適性推定用のタスクテーブル121eの項目「タスクID」は、適性推定用のタスクテーブル121eにおけるタスク情報を識別するための識別情報であるIDデータを記憶する。 The "Task ID" item in the aptitude estimation task table 121e stores ID data, which is identification information used to identify task information in the aptitude estimation task table 121e.
適性推定用のタスクテーブル121eの項目「序列」は、上述の複数種のタスクをユーザU1が実行した場合における生理反応の大きさ(指標値)の序列情報を記憶する。この序列情報は、医学的エビデンスに基づき決められる。例えば、生理反応の種別(指標種別)が覚醒度である場合、序列は、タスクに実行時に得られる指標値の大きさで決まる。適性推定用のテーブル121eにおいては、医学的エビデンスにより指標値が大きくなると判断されるものほど、序列が上位となる(序列を示す数字が小さくなる)構成である。 The "Ranking" item in the aptitude estimation task table 121e stores ranking information of the magnitude of physiological responses (index values) when user U1 performs the various tasks described above. This ranking information is determined based on medical evidence. For example, if the type of physiological response (index type) is arousal level, the ranking is determined by the magnitude of the index value obtained when performing the task. In the aptitude estimation table 121e, tasks judged to have larger index values based on medical evidence are ranked higher (the ranking number decreases).
適性推定用のタスクテーブル121eの項目「タスク内容」は、ユーザU1に実行させるタスクの具体的な内容を記憶する。タスク内容は、上述の序列と共に医学的エビデンスに基づき決定される。例えば生理反応の種別が覚醒度である場合の序列1位のタスク内容は、「圧痛を与える」である。「圧痛を与える」とは、詳細には、足裏マッサージなど、誰もが痛いと感じる圧痛を所定時間与えることである。また、例えば生理反応の種別が覚醒度である場合の序列2位のタスク内容は、「表示される数字を暗算加算」である。また、例えば生理反応の種別が覚醒度である場合の序列3位のタスク内容は、「安静にして拳を握る」である。また、例えば生理反応の種別が覚醒度である場合の序列4位のタスク内容は、「閉眼安静(何も考えない)」である。 The "Task Content" item in the aptitude estimation task table 121e stores the specific details of the task to be performed by user U1. The task content is determined based on medical evidence, along with the aforementioned hierarchy. For example, if the type of physiological response is arousal level, the highest-ranking task content is "applying tenderness." Specifically, "applying tenderness" means applying pressure that everyone would find painful, such as a foot massage, for a predetermined period of time. Similarly, if the type of physiological response is arousal level, the second-ranking task content is "mentally adding displayed numbers." Furthermore, if the type of physiological response is arousal level, the third-ranking task content is "resting and clenching a fist." Finally, if the type of physiological response is arousal level, the fourth-ranking task content is "remaining with eyes closed (not thinking about anything)."
適性推定部135は、例えば、ユーザU1が装着している生体センサ30のセンサ種別情報と、適性推定用のタスクテーブル121eとを照合して、ユーザU1に実行させる複数種のタスクを決定する。なお、センサ種別情報については、取得部131が、生体センサ30と通信接続される端末装置20を介して取得する。また、ユーザU1が装着する生体センサ30が複数種類である場合、各種別の生体センサ30を用いた適性推定が行われてもよい。また、ユーザU1が装着する生体センサ30が複数種類である場合に、いずれか1つの種別の生体センサ30を用いた適性推定が行われてもよい。 The aptitude estimation unit 135, for example, compares the sensor type information of the biosensor 30 worn by user U1 with the task table 121e for aptitude estimation to determine multiple types of tasks for user U1 to perform. The sensor type information is acquired by the acquisition unit 131 via a terminal device 20 that is communicated with the biosensor 30. Furthermore, if user U1 wears multiple types of biosensors 30, aptitude estimation may be performed using each type of biosensor 30. Alternatively, if user U1 wears multiple types of biosensors 30, aptitude estimation may be performed using only one type of biosensor 30.
例えば、本実施形態では、ユーザU1が装着する生体センサ30は、第1センサ31と第2センサ32との2つである。適性推定用のタスクテーブル121eに、これら2つのセンサ31、32に対応する適性推定用のタスクがある場合には、各センサ31、32を用いた適性推定が行われてもよいし、いずれか一方のセンサを用いた適性推定が行われてもよい。いずれか一方のセンサを用いた適性推定が行われる場合、例えば、予め準備された優先順位情報に従って、適性推定を行うセンサの種別が決められてよい。また、適性推定用のタスクテーブル121eに、いずれか一方のセンサに対応する適性推定用のタスクしかない場合には、当該センサを用いた適性推定が行われればよい。 For example, in this embodiment, the biosensors 30 worn by user U1 consist of two sensors: a first sensor 31 and a second sensor 32. If the aptitude estimation task table 121e contains aptitude estimation tasks corresponding to these two sensors 31 and 32, aptitude estimation may be performed using both sensors 31 and 32, or aptitude estimation may be performed using only one of the sensors. When aptitude estimation is performed using only one of the sensors, the type of sensor used for aptitude estimation may be determined, for example, according to pre-prepared priority information. Furthermore, if the aptitude estimation task table 121e contains only aptitude estimation tasks corresponding to one of the sensors, aptitude estimation may be performed using that sensor.
例えばセンサ種別が脳波センサBAである場合を例に説明する。適性推定部135は、ユーザU1に4つのタスクを実行させる。4つのタスクの実行させる順番は、特に限定されないが、例えば、序列の順位が低い方(すなわち覚醒度が小さい方)から行われる。適性推定部135は、ユーザU1が実行した4種類のタスクそれぞれの指標値(覚醒度の大きさ)を取得する。なお、指標値は、ユーザU1の脳波を計測する脳波センサBAから得られる信号と、センサテーブル121a(図4A参照)に含まれる指標変換情報とを用いて求められる。適性推定部135は、取得した4つの指標値の序列を、それらの指標値の大きさに応じて決定する。 For example, let's consider the case where the sensor type is an electroencephalogram (EEG) sensor BA. The aptitude estimation unit 135 has user U1 perform four tasks. The order in which the four tasks are performed is not particularly limited, but for example, they are performed starting with the lowest-ranking task (i.e., the one with the lowest level of arousal). The aptitude estimation unit 135 acquires the index value (magnitude of arousal) for each of the four tasks performed by user U1. The index value is determined using the signal obtained from the EEG sensor BA, which measures user U1's brainwaves, and the index conversion information contained in the sensor table 121a (see Figure 4A). The aptitude estimation unit 135 determines the order of the four acquired index values according to their magnitudes.
そして、適性推定部135は、ユーザU1による各タスクの実行時に得られる指標値の序列が、適性推定用のタスクテーブル121eの序列と一致するか否かを判定する。両者が一致する場合、適性推定部135は、ユーザU1が感情の推定に適した状態と推定する。両者が一致しない場合、適性推定部135は、ユーザU1が感情の推定に不適な状態であると推定する。 The aptitude estimation unit 135 then determines whether the sequence of index values obtained when user U1 performs each task matches the sequence in the aptitude estimation task table 121e. If they match, the aptitude estimation unit 135 estimates that user U1 is in a state suitable for emotion estimation. If they do not match, the aptitude estimation unit 135 estimates that user U1 is in an unsuitable state for emotion estimation.
すなわち、コントローラ13Bは、複数種のタスクそれぞれの実行時に得られる指標値の大きさの序列が、予め設定された序列である設定序列と一致する場合に、ユーザU1が感情の推定に適した状態であると推定する。また、コントローラ13Bは、複数種のタスクそれぞれの実行時に得られる指標値の大きさの序列が、設定序列と異なる場合に、ユーザU1が感情の推定に不適な状態であると推定する。このように構成では、医学的エビデンスに基づいて決まる生理反応の大きさの序列に応じて、簡単にユーザU1が感情の推定に適した状態であるか否かを判定できる。 In other words, the controller 13B estimates that user U1 is in a state suitable for emotion estimation when the order of magnitudes of the indicator values obtained during the execution of each of the multiple types of tasks matches a pre-set order. Conversely, the controller 13B estimates that user U1 is in an unsuitable state for emotion estimation when the order of magnitudes of the indicator values obtained during the execution of each of the multiple types of tasks differs from the pre-set order. This configuration allows for easy determination of whether user U1 is in a state suitable for emotion estimation based on the order of magnitudes of physiological responses determined based on medical evidence.
なお、以上に示す例では、生理反応の種別が覚醒度である場合、適性推定用にユーザU1が要求されるタスクの種類は4種類である(図17参照)。ただし、これは、例示である。適性推定用にユーザU1が要求されるタスクの種類は複数種類であればよく、例えば2つ等であってもよい。なお、タスクを実行させた際に起こる生理反応の大きさが大きく離れた2つのタスクだけを行わせる構成とすると、ユーザU1の体調や置かれている環境が変わった場合でも、ユーザU1によるタスクの実行時に得られる序列が設定序列と入れ替わらない可能性がある。すなわち、適性推定の意義が損なわれる可能性がある。このような点に注意して、適性推定が適当なものとなるように(環境変化等に応じてタスクの実行時に得られる序列が適当に入れ替わるように)ユーザU1に実行させるタスクの種類は決定されることが好ましい。 In the example shown above, when the type of physiological response is arousal level, there are four types of tasks required of user U1 for aptitude estimation (see Figure 17). However, this is merely an example. User U1 may be required to perform multiple types of tasks for aptitude estimation; for example, there may be only two. However, if the system is configured to have user U1 perform only two tasks with significantly different magnitudes of physiological responses, the order obtained during task execution may not change from the set order even if user U1's physical condition or environment changes. In other words, the significance of aptitude estimation may be diminished. Taking this into consideration, it is preferable to determine the types of tasks to be performed by user U1 in a way that ensures appropriate aptitude estimation (so that the order obtained during task execution changes appropriately in response to environmental changes, etc.).
本実施形態では、ユーザU1が感情の推定に適した状態と推定されると、領域決定部132および感情推定部133により、上述の第1実施形態と同様の感情推定が行われる。すなわち、コントローラ13Bは、ユーザU1が感情推定に適した状態と推定される場合に、生体信号に基づく指標値による感情推定を実行する。コントローラ13Bは、生体信号に基づく指標値が、ニュートラル領域、正領域、および、負領域で構成される3つの領域のいずれに属するかを識別する。コントローラ13Bは、指標値がニュートラル領域に属する場合に、感情不定状態であると判定する。コントローラ13Bは、指標値を複数種求め、複数種の指標値のいずれもがニュートラル領域の領域外である場合に、複数種の指標値と、予め準備された感情推定モデルとを用いて感情の種別を推定する。 In this embodiment, when user U1 is estimated to be in a state suitable for emotion estimation, the region determination unit 132 and emotion estimation unit 133 perform emotion estimation similar to that in the first embodiment described above. That is, when user U1 is estimated to be in a state suitable for emotion estimation, the controller 13B performs emotion estimation using index values based on biosignals. The controller 13B identifies which of the three regions—neutral, positive, and negative—the index value based on biosignals belongs to. If the index value belongs to the neutral region, the controller 13B determines that the user is in an undetermined emotional state. The controller 13B obtains multiple index values, and if all of these index values are outside the neutral region, it estimates the type of emotion using the multiple index values and a pre-prepared emotion estimation model.
なお、第2実施形態の感情の推定の手法は、第1実施形態の感情の推定の手法と全く異なる手法であってもよい。感情の推定の手法は、公知の手法であってもよい。 Furthermore, the emotion estimation method in the second embodiment may be completely different from the emotion estimation method in the first embodiment. The emotion estimation method may also be a known method.
また、本実施形態では、提供部134によって、感情の推定結果が、ネットワークNを介して端末装置20に提供される。 Furthermore, in this embodiment, the emotion estimation result is provided to the terminal device 20 via the network N by the providing unit 134.
[2-3.推定方法]
次に、推定装置10Bによって実行される推定方法について説明する。
[2-3. Estimation method]
Next, we will describe the estimation method performed by the estimation device 10B.
なお、本実施形態の推定方法をコンピュータ装置に実現させるコンピュータプログラムは、本実施形態の範囲に含まれる。また、そのようなコンピュータプログラムを記録するコンピュータ読取り可能な不揮発性記録媒体は、本実施形態の範囲に含まれる。また、本実施形態の推定方法をコンピュータ装置に実現させるコンピュータプログラムは、1つのプログラムのみで構成されてもよいが、複数のプログラムによって構成されてもよい。 Furthermore, the computer program that implements the estimation method of this embodiment in a computer device is included within the scope of this embodiment. Also, the computer-readable non-volatile recording medium that records such a computer program is included within the scope of this embodiment. Moreover, the computer program that implements the estimation method of this embodiment in a computer device may consist of only one program, or it may consist of multiple programs.
図18は、第2実施形態の推定装置10Bによって実行される適性推定処理の一例を示すフローチャートである。図18に示す処理は、例えば、第1センサ31および第2センサ32を含む生体センサ30からの信号を、推定装置10Bの取得部131が取得開始することにより開始される。なお、図18に示す適性推定処理は、eスポーツが開始される前に行われることが好ましい。 Figure 18 is a flowchart illustrating an example of the aptitude estimation process performed by the estimation device 10B of the second embodiment. The process shown in Figure 18 begins, for example, when the acquisition unit 131 of the estimation device 10B starts acquiring signals from the biosensor 30, including the first sensor 31 and the second sensor 32. It is preferable that the aptitude estimation process shown in Figure 18 is performed before the start of the e-sports event.
ステップS41では、適性推定部135が変数nをゼロとする。なお、変数nは回数を示す。変数nがゼロとされると次のステップS42に処理が進められる。 In step S41, the aptitude estimation unit 135 sets the variable n to zero. Note that the variable n represents the number of times. Once the variable n is set to zero, the process proceeds to the next step, S42.
ステップS42では、適性推定部135が、取得部131で取得した生体センサ30の情報と、適性推定用のテーブル121eとに基づいて対象となる指標値を特定する。本実施形態では、例えばセンサ種別として脳波センサが特定され、更に、指標として覚醒度が特定される。そして、適性推定部135は、特定された指標に対応したタスクをユーザU1に対して順次与え、与えられたタスクをユーザが実行している際に生体信号に基づく指標値を取得する。 In step S42, the aptitude estimation unit 135 identifies target index values based on the information from the biosensor 30 acquired by the acquisition unit 131 and the aptitude estimation table 121e. In this embodiment, for example, an electroencephalogram (EEG) sensor is identified as the sensor type, and the level of arousal is identified as the index. The aptitude estimation unit 135 then sequentially assigns tasks corresponding to the identified index to the user U1, and acquires index values based on biosignals while the user is performing the assigned tasks.
本実施形態では、例えば、「閉眼安静(何も考えない)」、「安静にして拳を握る」、「表示される数字を暗算加算」、「圧痛を与える」がユーザU1に対して順次与えられる。そして、ユーザU1によるタスクの実行ごとに、脳波に基づく指標値(覚醒度の指標値)が取得される。なお、タスクは、例えば、ユーザU1が使用するゲーム装置40における画面表示を利用して与えられてよい。また、タスクは、画面表示に代えて、或いは、画面表示に加えて音声案内によって与えられてもよい。適性推定部135は、与えたタスクごとの指標値を取得すると、次のステップS43に処理を進める。 In this embodiment, for example, the following tasks are sequentially given to user U1: "close eyes and rest (thinking nothing)," "rest and clench your fist," "mentally add the displayed numbers," and "apply pressure to the user." Each time user U1 performs a task, an index value (an index value of alertness) based on electroencephalography (EEG) is acquired. The tasks may be given, for example, using the screen display of the game device 40 used by user U1. Alternatively, tasks may be given via voice guidance instead of screen display, or in addition to screen display. Once the aptitude estimation unit 135 acquires the index value for each given task, it proceeds to the next step S43.
ステップS43では、適性推定部135は、ユーザU1のタスクの実行に応じて取得した複数(本実施形態では4つ)の指標値を、値が大きい方から序列の順位が上となるように並べる。そして、適性推定部135は、ユーザU1のタスクの実行により得られた序列が、適性推定用のテーブル121eに記憶される設定序列(項目「序列」に示される序列)と同じであるか否かを判定する。適性推定部135は、2つの序列が同じである場合(ステップS43でYes)、次のステップS44に処理を進める。一方、適性推定部135は、2つの序列が異なる場合(ステップS43でNo)、ステップS42に処理を戻す。 In step S43, the aptitude estimation unit 135 arranges the multiple (four in this embodiment) indicator values obtained in response to user U1's task execution in order of ranking, from largest to smallest. The aptitude estimation unit 135 then determines whether the ranking obtained from user U1's task execution is the same as the pre-set ranking (the ranking shown in the "Ranking" item) stored in the aptitude estimation table 121e. If the two rankings are the same (Yes in step S43), the aptitude estimation unit 135 proceeds to the next step, S44. On the other hand, if the two rankings are different (No in step S43), the aptitude estimation unit 135 returns to step S42.
ステップS44では、適性推定部135が、変数nに1を加える。変数nに1を加える処理が行われると、次のステップS45に処理が進められる。 In step S44, the aptitude estimation unit 135 adds 1 to the variable n. Once the process of adding 1 to variable n is complete, the process proceeds to the next step, S45.
ステップS45では、適性推定部135が、変数nが予め準備された閾回数nth以上であるか否かを判定する。閾回数nthは、例えば実験を行って決定される。変数nが閾回数以上であれば(ステップS45でYes)、ユーザU1が感情の推定に適した状態であると推定して、図11に示すステップS11或いは図14に示すステップS31に処理が進められる。そして、図11或いは図14に示す処理の完了後に、図12に示すステップS20に処理が進められて感情の推定が行われる。なお、図11或いは図14に示されるキャリブレーションの準備処理は省略されてもよい。一方、変数nが閾回数より小さい場合には(ステップS45でNo)、ステップS42に処理が戻される。 In step S45, the aptitude estimation unit 135 determines whether the variable n is greater than or equal to a pre-prepared threshold number nth. The threshold number nth is determined, for example, through experimentation. If the variable n is greater than or equal to the threshold number (Yes in step S45), the system estimates that user U1 is in a suitable state for emotion estimation, and the process proceeds to step S11 shown in Figure 11 or step S31 shown in Figure 14. After the completion of the process shown in Figure 11 or Figure 14, the process proceeds to step S20 shown in Figure 12 to perform emotion estimation. Note that the calibration preparation process shown in Figure 11 or Figure 14 may be omitted. On the other hand, if the variable n is less than the threshold number (No in step S45), the process returns to step S42.
以上からわかるように、本実施形態では、ユーザU1のタスクの実行により得られる序列と、予め準備された設定序列との一致回数が所定の複数回となった場合に、ユーザU1が感情の推定に適した状態であると推定される。ただし、これは例示であり、ユーザU1のタスクの実行により得られる序列と、予め準備された設定序列とが、一回一致すれば、ユーザU1が感情の推定に適した状態であると推定されてもよい。 As can be seen from the above, in this embodiment, when the number of times the sequence obtained by the execution of user U1's task matches the pre-prepared setting sequence reaches a predetermined number of times, user U1 is presumed to be in a state suitable for emotion estimation. However, this is an example, and user U1 may be presumed to be in a state suitable for emotion estimation if the sequence obtained by the execution of user U1's task matches the pre-prepared setting sequence even once.
また、本実施形態では、ユーザU1のタスクの実行により得られる序列と、予め準備された設定序列との一致回数が所定の複数回とならなければ、ユーザU1が感情の推定に不適な状態であると推定して、いつまでも適性推定用のタスクが与えられる。ただし、これは例示である。例えば、ユーザU1のタスクの実行により得られる序列と、予め準備された設定序列との不一致回数が所定回数となった時点で、ユーザU1が感情の推定に不適な状態であると推定して、適性推定の処理が一旦終了されてもよい。 Furthermore, in this embodiment, if the number of matches between the sequence obtained by user U1's task execution and the pre-prepared setting sequence does not reach a predetermined number of times, user U1 is presumed to be in an unsuitable state for emotion estimation, and the suitability estimation task is provided indefinitely. However, this is an example. For example, when the number of mismatches between the sequence obtained by user U1's task execution and the pre-prepared setting sequence reaches a predetermined number, user U1 may be presumed to be in an unsuitable state for emotion estimation, and the suitability estimation process may be terminated.
[2-4.変形例]
次に、第2実施形態の変形例について説明する。
[2-4. Modified Examples]
Next, a modified example of the second embodiment will be described.
(2-4-1.第1変形例)
図19は、第2実施形態の推定装置10Bによって実行される適性推定処理の変形例を示すフローチャートである。
(2-4-1. First variation)
Figure 19 is a flowchart showing a modified example of the suitability estimation process performed by the estimation device 10B of the second embodiment.
ステップS51では、適性推定部135が、取得部131で取得した生体センサ30の情報と、適性推定用のテーブル121eとに基づいて対象となる指標を特定する。そして、適性推定部135は、特定された指標に対応したタスクをユーザU1に対して順次与え、与えられたタスクをユーザが実行している際に生体信号に基づく指標値を取得する。これらの処理は、上述の図18のステップS42の処理と同様である。適性推定部135は、与えたタスクごとの指標値を取得すると、次のステップS52に処理を進める。 In step S51, the aptitude estimation unit 135 identifies the target indicators based on the information from the biosensor 30 acquired by the acquisition unit 131 and the aptitude estimation table 121e. The aptitude estimation unit 135 then sequentially assigns tasks corresponding to the identified indicators to the user U1, and acquires indicator values based on biosignals while the user performs the assigned tasks. These processes are the same as those in step S42 of Figure 18 described above. Once the aptitude estimation unit 135 has acquired the indicator values for each assigned task, it proceeds to the next step, S52.
ステップS52では、適性推定部135が、ユーザU1のタスクの実行に応じて取得した複数の指標値を、値が大きい方から序列の順位が上となるように並べる。そして、適性推定部135は、ユーザU1のタスクの実行により得られた序列と、適性推定用のテーブル121eに記憶される設定序列(項目「序列」に示される序列)とを比較する。例えば、当該比較により、2つの序列が完全に一致するといった結果が得られる。また、例えば、当該比較により、2つの序列の間で、前後関係にある順位の入れ替わりが1つあるという結果が得られる。例えば、生理反応(指標)が覚醒度の場合を例に説明する。前後関係にある順位の入れ替わりが1つある場合として、「安静にして拳を握る」が行われた場合に得られる指標値の大きさの順位が2位となり、「表示される数字を暗算加算」が行われた場合に得られる指標値の大きさの順位が3位となる場合が挙げられる。比較結果が得られると、次のステップS53に処理が進められる。 In step S52, the aptitude estimation unit 135 arranges the multiple index values obtained in response to user U1's task execution in order of ranking, from largest to smallest. The aptitude estimation unit 135 then compares the ranking obtained from user U1's task execution with the pre-set ranking (shown in the "Ranking" item) stored in the aptitude estimation table 121e. For example, this comparison may result in the two rankings being completely identical. Alternatively, it may result in one instance of a reversal of relative order between the two rankings. For example, let's consider the case where the physiological response (index) is arousal level. An example of a reversal of relative order might be when the index value obtained from "resting and clenching a fist" is ranked 2nd, and the index value obtained from "mentally adding the displayed numbers" is ranked 3rd. Once the comparison results are obtained, the process proceeds to the next step, S53.
ステップS53では、適性推定部135が、先に得られた比較結果に応じて適性レベルを推定する。適性レベルの推定には、適性レベルテーブル121f(図20参照)が利用される。図20は、適性レベルテーブル121fの一例を示す図である。図20に示すように、適性レベルテーブル121fの項目には、「適性推定タスクID」、「センサ種別」、「対応指標種別」、「比較状況」、および、「適性レベル」が含まれる。項目「センサ種別」および「対応指標種別」は、上述の図17等と同様であるために、説明は省略する。 In step S53, the aptitude estimation unit 135 estimates the aptitude level according to the comparison results obtained earlier. The aptitude level table 121f (see Figure 20) is used to estimate the aptitude level. Figure 20 shows an example of the aptitude level table 121f. As shown in Figure 20, the items in the aptitude level table 121f include "Aptitude Estimation Task ID," "Sensor Type," "Corresponding Indicator Type," "Comparison Status," and "Aptitude Level." The items "Sensor Type" and "Corresponding Indicator Type" are the same as those in Figure 17, etc., so their explanation is omitted.
適性レベルテーブル121fの項目「適性タスクID」は、適性推定用のタスクテーブル121e(図17参照)の項目「タスクID」に対応した情報を記憶する。 The "Aptitude Task ID" item in the aptitude level table 121f stores information corresponding to the "Task ID" item in the aptitude estimation task table 121e (see Figure 17).
適性レベルテーブル121fの項目「比較状況」は、ステップS52における比較結果と照合する情報を記憶する。なお、生理反応の種別によってタスクの数に違いがあることがある。このために、「比較状況」と「適性レベル」との対応関係は、必ずしも一通りとはならない。このような点を考慮して、本例では、生理反応の種別ごとに「比較状況」が設けられている。例えば、生理反応の種別(指標種別)が覚醒度である場合、比較状況の情報には、「完全一致」、「前後関係にある順位の入れ替わりが1つあり」、および、「その他」が含まれる。「その他」は、比較結果が「完全一致」と「前後関係にある順位の入れ替わりが1つあり」とのいずれでもない場合である。 The "Comparison Status" item in the aptitude level table 121f stores information to be compared with the comparison result in step S52. Note that the number of tasks may differ depending on the type of physiological response. Therefore, the correspondence between "Comparison Status" and "Aptitude Level" is not necessarily unique. Considering this point, in this example, a "Comparison Status" is provided for each type of physiological response. For example, if the type of physiological response (indicator type) is arousal level, the comparison status information includes "Exact Match," "One Change in the Order of Sequences," and "Other." "Other" refers to cases where the comparison result is neither "Exact Match" nor "One Change in the Order of Sequences."
引き続き、生理反応の種別が覚醒度の場合を例に説明する。「その他」として、例えば、2つ離れた順位の入れ替わりが1つある場合が挙げられる。このような場合として、例えば、「安静にして拳を握る」が行われた場合に得られる指標値の大きさの順位が1位となり、ユーザU1が「圧痛を与える」を行った場合に得られる指標値の大きさの順位が3位となる場合が挙げられる。また、「その他」には、例えば、序列の順位の入れ替わり箇所が2つ存在する場合が含まれる。このような場合として、次の第1の場合と、第2の場合との両方が満たされる場合が挙げられる。第1の場合は、例えば、「安静にして拳を握る」が行われた場合に得られる指標値の大きさの順位が4位となり、「閉眼安静」が行われた場合に得られる指標値の大きさの順位が3位となる場合である。第2の場合は、例えば、「圧痛を与える」が行われた場合に得られる指標値の大きさの順位が2位となり、「表示される数字を暗算加算」を行った場合に得られる指標値の大きさの順位が1位となる場合である。 Next, we will explain using the example of a physiological response type being arousal level. "Other" includes cases where there is one instance of a two-rank swap. For example, when "resting and clenching a fist" is performed, the index value obtained is ranked 1st, and when user U1 performs "tendering pressure," the index value obtained is ranked 3rd. "Other" also includes cases where there are two instances of rank swapping. For example, when both of the following cases are met: Case 1 is when, for example, "resting and clenching a fist" is performed, the index value obtained is ranked 4th, and when "closed-eyes and rest" is performed, the index value obtained is ranked 3rd. Case 2 is when, for example, "tendering pressure" is performed, the index value obtained is ranked 2nd, and when "mentally adding the displayed numbers" is performed, the index value obtained is ranked 1st.
適性レベルテーブル121fの項目「適性レベル」は、比較結果の内容に応じて決まる適性レベルの情報が含まれる。図20に示す例では、比較結果が「完全一致」の場合に適性レベルは「適正」である。比較結果が「前後関係にある順位の入れ替えが1つあり」の場合の適性レベルは、「やや不安定」である。比較結果が「その他」の場合の適性レベルは、「不適」である。なお、本例では、適性レベルは3段階であるが、これは例示であり、4段階以上であってもよい。 The "Aptitude Level" column in Aptitude Level Table 121f contains information about the aptitude level determined by the comparison results. In the example shown in Figure 20, the aptitude level is "Appropriate" when the comparison result is "Exact Match." The aptitude level is "Somewhat Unstable" when the comparison result is "Other." The aptitude level is "Unsuitable" when the comparison result is "Other." Note that in this example, there are three aptitude levels, but this is an example; there could be four or more levels.
適性レベルが推定されると、次のステップS54に処理が進められる。 Once the aptitude level is estimated, the process proceeds to the next step, S54.
ステップS54では、適性推定部135が、ユーザU1の感情の推定を実施するか否かを判定する。例えば、図20に示すような3段階で適性レベルが推定される構成では、上位2つのレベルの場合に、感情の推定を実施すると判定されてよい。なお、上位2つのレベルには、「適正」および「やや不安定」が該当する。また、最も低いレベルの場合には、感情の推定を実施しないと判定されてよい。なお、最も低いレベルには、「不適」が該当する。 In step S54, the aptitude estimation unit 135 determines whether or not to perform emotion estimation of user U1. For example, in a configuration where the aptitude level is estimated in three stages, as shown in Figure 20, emotion estimation may be performed if the user falls into the top two levels. The top two levels are "suitable" and "somewhat unstable." Conversely, emotion estimation may not be performed if the user falls into the lowest level. The lowest level is "unsuitable."
感情の推定を実施すると判定された場合(ステップS54でYes)、図11に示すステップS11或いは図14に示すステップS31に処理が進められる。そして、図11或いは図14に示す処理の完了後に、図12に示すステップS20に処理が進められて感情の推定が行われる。また、感情の推定を実施しないと判定された場合(ステップS54でNo)、ステップS55に処理が進められる。 If it is determined that emotion estimation should be performed (Yes in step S54), the process proceeds to step S11 shown in Figure 11 or step S31 shown in Figure 14. After the completion of the process shown in Figure 11 or Figure 14, the process proceeds to step S20 shown in Figure 12, where emotion estimation is performed. If it is determined that emotion estimation should not be performed (No in step S54), the process proceeds to step S55.
ステップS55では、適性推定部135は、ユーザU1が感情推定に不適であることを報知する処理を行う。例えば、適性推定部135は、ユーザU1が使用するゲーム装置40(図1参照)の画面に、ユーザU1が感情推定に不適であることを報知させる。図21は、ユーザU1が感情推定に不適であることを報知する画面例である。図21に示すように、ユーザU1が感情推定に不適な状態である場合、例えば20分後等に再度適性確認を行うように促してもよい。 In step S55, the aptitude estimation unit 135 performs a process to notify user U1 that they are unsuitable for emotion estimation. For example, the aptitude estimation unit 135 displays a notification on the screen of the game device 40 (see Figure 1) used by user U1, indicating that user U1 is unsuitable for emotion estimation. Figure 21 shows an example of a screen notifying user U1 that they are unsuitable for emotion estimation. As shown in Figure 21, if user U1 is unsuitable for emotion estimation, they may be prompted to perform an aptitude check again, for example, after 20 minutes.
以上からわかるように、本変形例では、コントローラ13Bは、複数種のタスクそれぞれの実行時に得られる指標値の大きさの序列と、複数種のタスクに予め設定された序列である設定序列とのずれ度合に応じて、ユーザの感情推定に対する適性のレベルを推定する。このように適性レベルの推定を行う構成とすると、コントローラ13Bは、レベルに応じて感情推定の結果の利用形態を変更することができる。 As can be seen from the above, in this modified version, the controller 13B estimates the user's level of suitability for emotion estimation based on the degree of discrepancy between the order of magnitude of the index values obtained during the execution of each of the multiple types of tasks and the pre-set order for the multiple types of tasks. With this configuration for estimating the suitability level, the controller 13B can change the way the emotion estimation results are used according to the level.
例えば、適性レベルが「適正」と推定された場合には、感情の推定結果を上述の図13Aや図13Bに示すような通常表示を行ってよい。一方、適性レベルが「やや不安定」と推定された場合には、図22に示すように、感情の推定結果を仮表示する構成としてよい。図22は、感情の推定結果を画面に仮表示する例を示す図である。図22では、注意書きを画面表示の中に入れて、仮表示であることをユーザU1に知らせる構成となっている。また、例えば、自動運転制御の場合を例に挙げて説明すると、適性レベルが「適正」である場合には、感情の推定結果に応じて自動運転に関わる制御を行う構成としてよい。一方、適性レベルが「やや不安定」である場合には、感情の推定結果は単に車載装置の画面に参考程度に表示するだけとし、自動運転に関わる制御には用いない構成としてよい。 For example, if the aptitude level is estimated to be "appropriate," the emotion estimation result may be displayed normally as shown in Figures 13A and 13B above. On the other hand, if the aptitude level is estimated to be "somewhat unstable," the emotion estimation result may be displayed provisionally, as shown in Figure 22. Figure 22 shows an example of provisionally displaying the emotion estimation result on the screen. In Figure 22, a cautionary note is included in the screen display to inform the user U1 that it is a provisional display. Furthermore, taking the case of autonomous driving control as an example, if the aptitude level is "appropriate," the system may be configured to perform autonomous driving-related control according to the emotion estimation result. On the other hand, if the aptitude level is "somewhat unstable," the emotion estimation result may be simply displayed on the in-vehicle device screen for reference only and not used for autonomous driving-related control.
また、コントローラ13Bは、適性レベルに応じてニュートラル領域NR(図10参照)の調整を行ってよい。このように構成することによって、感情の推定の誤りが生じる可能性を抑制することができる。例えば、適性レベルが「やや不安定」である場合に、適性レベルが「適正」である場合に比べて、ニュートラル領域の幅が広く調整されてよい。 Furthermore, the controller 13B may adjust the neutral region NR (see Figure 10) according to the aptitude level. This configuration can suppress the possibility of errors in emotion estimation. For example, when the aptitude level is "somewhat unstable," the width of the neutral region may be adjusted to be wider than when the aptitude level is "appropriate."
(2-4-2.第2変形例)
図23は、第2実施形態の推定装置10Bによって実行される適性推定処理の他の変形例を示すフローチャートである。図23に示すフローチャートは、図19に示すフローチャートと概ね同様である。このために、異なる部分に絞って説明する。図23に示す例では、感情の推定を実施しないと判定された場合(ステップS54でNo)、ステップS55に即座に処理が進められず、その前に、ステップS56の処理が行われる。この点が、図19に示すフローとは異なる。なお、本変形例では、ステップS53の適性レベルの推定に変えて、感情推定に適した状態であるか否かの推定が行われてもよい。
(2-4-2. Second variation)
Figure 23 is a flowchart showing another modified example of the aptitude estimation process performed by the estimation device 10B of the second embodiment. The flowchart shown in Figure 23 is generally similar to the flowchart shown in Figure 19. For this reason, we will focus on explaining the differences. In the example shown in Figure 23, if it is determined that emotion estimation should not be performed (No in step S54), the process does not proceed immediately to step S55, but rather to step S56. This is different from the flowchart shown in Figure 19. In this modified example, instead of estimating the aptitude level in step S53, an estimation of whether or not the state is suitable for emotion estimation may be performed.
ステップS56では、適性推定部135が、感情の推定を行う他の手段があるか否かを判定する。他の手段は、例えば、ユーザU1が装着している他の生体センサ30であってよい。例えば、脳波センサである第1センサ31を用いて感情推定に不適な状態であると判定された場合でも、心拍センサである第2センサ32を用いて感情推定に適した状態であると推定される可能性がある。このような場合には、脳波センサの代わりに心拍センサを用いて感情推定が行われてよい。また、例えば、他の手段は、ユーザU1の顔画像を撮影するカメラ(センサの一例)であってもよい。すなわち、カメラで撮影されたユーザU1の顔画像を用いて感情推定が行われてよい。 In step S56, the suitability estimation unit 135 determines whether there are other means for estimating emotions. These other means may be, for example, other biosensors 30 worn by user U1. For example, even if the first sensor 31, which is an electroencephalogram (EEG) sensor, determines that the user is in an unsuitable state for emotion estimation, the second sensor 32, which is a heart rate sensor, may determine that the user is in a suitable state for emotion estimation. In such cases, emotion estimation may be performed using the heart rate sensor instead of the EEG sensor. Alternatively, for example, the other means may be a camera (an example of a sensor) that captures an image of user U1's face. That is, emotion estimation may be performed using the face image of user U1 captured by the camera.
以上からわかるように、コントローラ13Bは、ユーザU1が感情推定に不適な状態であると推定された場合に、当該不適との推定を行うに至った情報を与えたセンサと異なるセンサの情報を利用して感情推定を実行してよい。このように構成することで、感情の推定結果が得られないという状態になる可能性を抑制することができる。 As can be seen from the above, when the controller 13B estimates that user U1 is in an unsuitable state for emotion estimation, it may perform emotion estimation using information from a different sensor than the one that provided the information leading to that estimation. By configuring it in this way, the possibility of a situation where no emotion estimation result can be obtained can be suppressed.
<3.留意事項等>
本明細書の、発明を実施するための形態に開示される種々の技術的特徴は、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。また、本明細書の、発明を実施するための形態に開示される複数の実施形態および変形例は可能な範囲で組み合わせて実施されてよい。
<3. Things to keep in mind>
The various technical features disclosed in the embodiments for carrying out the invention as described herein can be modified in various ways without departing from the spirit of the technical creation. Furthermore, the multiple embodiments and modifications disclosed in the embodiments for carrying out the invention as described herein may be combined to the extent possible.
1・・・推定システム
10、10A、10B・・・推定装置
13、13B・・・コントローラ
30・・・生体センサ
1... Estimation system 10, 10A, 10B... Estimation device 13, 13B... Controller 30... Biosensor
Claims (10)
前記コントローラは、
ユーザに複数種のタスクを与え、
前記複数種のタスクぞれぞれの実行時における生体信号に基づく指標値を取得し、
複数の前記指標値間の関係性に基づき、前記ユーザの感情推定に対する適性を推定する、推定装置。 An estimation device equipped with a controller,
The aforementioned controller,
Give the user multiple types of tasks,
Obtain index values based on biosignals during the execution of each of the aforementioned multiple tasks,
An estimation device that estimates the user's suitability for emotion estimation based on the relationships between a plurality of the aforementioned index values.
前記複数種のタスクぞれぞれの実行時に得られる前記指標値の大きさの序列が、前記複数種のタスクに予め設定された序列である設定序列と一致する場合に、前記ユーザが感情の推定に適した状態であると推定し、
前記複数種のタスクぞれぞれの実行時に得られる前記指標値の大きさの序列が、前記設定序列と異なる場合に、前記ユーザが感情の推定に不適な状態であると推定する、請求項1に記載の推定装置。 The aforementioned controller,
When the order of magnitude of the index values obtained during the execution of each of the aforementioned tasks matches the pre-set order for the aforementioned tasks, it is estimated that the user is in a state suitable for emotion estimation.
The estimation device according to claim 1, wherein if the order of magnitudes of the index values obtained during the execution of each of the aforementioned multiple tasks differs from the set order, the device estimates that the user is in a state unsuitable for emotion estimation.
前記ユーザが感情推定に適した状態と推定される場合に、生体信号に基づく指標値による感情推定を実行し、
前記レベルに応じて前記感情推定の結果の利用形態を変更する、請求項3に記載の推定装置。 The aforementioned controller,
If the user is estimated to be in a state suitable for emotion estimation, emotion estimation is performed using index values based on biosignals.
The estimation device according to claim 3, wherein the form of using the emotion estimation result is changed according to the level.
前記ユーザが感情推定に適した状態と推定される場合に、生体信号に基づく指標値による感情推定を実行し、
前記生体信号に基づく指標値が、ニュートラル領域、前記ニュートラル領域に対して一方側の正領域、および、前記ニュートラル領域に対して他方側の負領域で構成される3つの領域のいずれに属するかを識別し、
前記指標値が前記ニュートラル領域に属する場合に、感情不定状態であると判定する、請求項3に記載の推定装置。 The aforementioned controller,
If the user is estimated to be in a state suitable for emotion estimation, emotion estimation is performed using index values based on biosignals.
The system identifies which of the three regions—the neutral region, the positive region on one side of the neutral region, and the negative region on the other side of the neutral region—the index value based on the biological signal belongs to.
The estimation device according to claim 3, which determines that the state of emotion is indecisive when the index value falls within the neutral range.
前記推定装置は、
ユーザに複数種のタスクを与え、
前記複数種のタスクぞれぞれの実行時における生体信号に基づく指標値を取得し、
複数の前記指標値間の関係性に基づき、前記ユーザの感情推定に対する適性を推定し、
前記ユーザが感情推定に適した状態と推定される場合に、生体信号に基づく指標値による感情推定を実行する、推定システム。 An estimation system comprising an estimation device for estimating emotions and a biosensor for measuring biological signals,
The estimation device is,
Give the user multiple types of tasks,
Obtain index values based on biosignals during the execution of each of the aforementioned multiple tasks,
Based on the relationships between multiple aforementioned index values, the suitability of the user for emotion estimation is estimated.
An estimation system that performs emotion estimation using index values based on biosignals when the user is estimated to be in a state suitable for emotion estimation.
前記複数種のタスクぞれぞれの実行時における生体信号に基づく指標値を取得し、
複数の前記指標値間の関係性に基づき、前記ユーザの感情推定に対する適性を推定する、
処理を装置が実行する、推定方法。 Give the user multiple types of tasks,
Obtain index values based on biosignals during the execution of each of the aforementioned multiple tasks,
Based on the relationships between multiple aforementioned index values, the suitability of the user for emotion estimation is estimated.
An estimation method in which a device performs the processing.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022125146A JP7843663B2 (en) | 2022-08-05 | 2022-08-05 | Estimation device, estimation system, and estimation method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022125146A JP7843663B2 (en) | 2022-08-05 | 2022-08-05 | Estimation device, estimation system, and estimation method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024021934A JP2024021934A (en) | 2024-02-16 |
| JP7843663B2 true JP7843663B2 (en) | 2026-04-10 |
Family
ID=89855322
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022125146A Active JP7843663B2 (en) | 2022-08-05 | 2022-08-05 | Estimation device, estimation system, and estimation method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7843663B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025205193A1 (en) * | 2024-03-26 | 2025-10-02 | パナソニックホールディングス株式会社 | Information processing method and information processing system |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013027570A (en) | 2011-07-28 | 2013-02-07 | Panasonic Corp | Psychological condition evaluation device, psychological condition evaluation system, psychological condition evaluation method, and program |
| US20210015417A1 (en) | 2018-03-21 | 2021-01-21 | Limbic Limited | Emotion data training method and system |
| JP2021033524A (en) | 2019-08-21 | 2021-03-01 | 株式会社電通サイエンスジャム | Cognitive function promotion support system, learning system, estimation system, and cognitive function promotion support method |
-
2022
- 2022-08-05 JP JP2022125146A patent/JP7843663B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013027570A (en) | 2011-07-28 | 2013-02-07 | Panasonic Corp | Psychological condition evaluation device, psychological condition evaluation system, psychological condition evaluation method, and program |
| US20210015417A1 (en) | 2018-03-21 | 2021-01-21 | Limbic Limited | Emotion data training method and system |
| JP2021033524A (en) | 2019-08-21 | 2021-03-01 | 株式会社電通サイエンスジャム | Cognitive function promotion support system, learning system, estimation system, and cognitive function promotion support method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2024021934A (en) | 2024-02-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12390150B2 (en) | Processor implemented systems and methods for measuring cognitive abilities | |
| US12105872B2 (en) | Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance | |
| US20250098999A1 (en) | Method and system for monitoring and improving attention | |
| Schmidt et al. | Wearable affect and stress recognition: A review | |
| AU2017278992B2 (en) | Systems and methods for analyzing brain activity and applications thereof | |
| CN107427267B (en) | Method and apparatus for deriving a subject's mental state | |
| Valenza et al. | Autonomic nervous system dynamics for mood and emotional-state recognition: Significant advances in data acquisition, signal processing and classification | |
| US20220101981A1 (en) | Method and system for neuromodulation | |
| JP7676586B2 (en) | Emotion estimation device and emotion estimation model generation method | |
| JP7843663B2 (en) | Estimation device, estimation system, and estimation method | |
| WO2020139108A1 (en) | Method for conducting cognitive examinations using a neuroimaging system and a feedback mechanism | |
| JP2024021933A (en) | Estimation device, estimation system, and estimation method | |
| JP2024051307A (en) | AI model generation method, emotion estimation AI model learning data generation method, emotion estimation device, and vehicle control system | |
| JP2024141284A (en) | LEARNING METHOD, LEARNING DEVICE, LEARNING PROGRAM, AND EMOTION ESTIM | |
| Miltiadous et al. | An experimental protocol for exploration of stress in an immersive VR scenario with EEG | |
| JP2024139401A (en) | CALIBRATION METHOD, CALIBRATION PROGRAM, EMOTION ESTIMATION DEVICE, AND EMOTION ESTIMATION SYSTEM | |
| Vanheusden et al. | Objective evaluation of seat discomfort on eRacing performance | |
| Alzoubi | Automatic affect detection from physiological signals: Practical issues | |
| JP2025022186A (en) | ESTIMATION DEVICE, ESTIMATION METHOD, ON-VEHICLE SYSTEM, AND ESTIMATION PROGRAM | |
| JP2025087114A (en) | Learning method, detection device, learning data generation device, and learning data generation program | |
| JP2024141286A (en) | LEARNING METHOD, LEARNING DEVICE, LEARNING PROGRAM, AND EMOTION ESTIMATION DEVICE | |
| JP2025174495A (en) | Emotion estimation device, emotion estimation method, emotion estimation program, and emotion estimation system | |
| US20250319404A1 (en) | Adaptive gaming devices and methods employing neural and physiological signal detection to biometrically determine changes in player state and adaptively modify game state based on real time player | |
| Küçüktütüncü | Dynamic modulation of portable device interface with the assessment of cognitive load using built-in sensors | |
| JP2025030272A (en) | Estimation device, in-vehicle system, and estimation program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250625 |
|
| TRDD | Decision of grant or rejection written | ||
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20260227 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20260303 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20260331 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7843663 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |