JP6386810B2 - Group emotion estimation device, group emotion estimation method, and group emotion estimation program - Google Patents

Group emotion estimation device, group emotion estimation method, and group emotion estimation program Download PDF

Info

Publication number
JP6386810B2
JP6386810B2 JP2014129749A JP2014129749A JP6386810B2 JP 6386810 B2 JP6386810 B2 JP 6386810B2 JP 2014129749 A JP2014129749 A JP 2014129749A JP 2014129749 A JP2014129749 A JP 2014129749A JP 6386810 B2 JP6386810 B2 JP 6386810B2
Authority
JP
Japan
Prior art keywords
emotion
information
estimation
feature
emotion estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014129749A
Other languages
Japanese (ja)
Other versions
JP2016007363A (en
Inventor
要 船越
船越  要
裕 千明
裕 千明
大地 並河
大地 並河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014129749A priority Critical patent/JP6386810B2/en
Publication of JP2016007363A publication Critical patent/JP2016007363A/en
Application granted granted Critical
Publication of JP6386810B2 publication Critical patent/JP6386810B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は複数人の身体計測データから集団の感情状態を推定する分野に関する。   The present invention relates to the field of estimating an emotional state of a group from body measurement data of a plurality of persons.

生体センサからの感情推定について、感情を表現する覚醒度(覚醒,鎮静)と情動価(快,中性,不快)について心拍データを利用して推定する方法が知られている(非特許文献1)。これによれば、心拍数(HR)および心拍変動の高周波成分(HF)の組み合わせにより、低覚醒/中性、高覚醒/快,高覚醒/不快をある程度推定可能であるが、精度には限界がある。   Regarding emotion estimation from a biometric sensor, a method is known that uses heartbeat data to estimate arousal level (arousal, sedation) and emotional value (pleasant, neutral, unpleasant) expressing emotions (Non-patent Document 1). ). According to this, low arousal / neutral, high arousal / pleasant, and high arousal / discomfort can be estimated to some extent by a combination of heart rate (HR) and high frequency component (HF) of heart rate variability, but there is a limit to accuracy. There is.

また、心拍だけでなく、脳波や皮膚コンダクタンスレベル(発汗)を利用して更に多くの感情を予測する方法が知られている(非特許文献2)。心拍、脳波、発汗を用い、驚き、怒り、楽しさ、恐怖、悲しみ、中性といった感情を、種別によってはある程度推定可能であるが、やはり精度には限界がある。   In addition, a method for predicting more emotions using not only heartbeats but also brain waves and skin conductance levels (sweating) is known (Non-Patent Document 2). Although heartbeat, brain waves, and sweating can be used to estimate emotions such as surprise, anger, enjoyment, fear, sadness, and neutrality to some extent, accuracy is still limited.

豊沢聡,河合隆史,「視聴者の心拍活動を用いた映像短縮方法とその評価」,映像情報メディア学会誌,63(1),2009,pp86-94Satoshi Toyosawa, Takashi Kawai, “Video shortening method using viewer's heartbeat activity and its evaluation”, Journal of the Institute of Image Information and Television Engineers, 63 (1), 2009, pp86-94 大谷琢哉,工藤博章,松本哲也,竹内義則,大西昇,「映像視聴時における複数の生体信号を用いた感情の推定」,信学技報,IMQ2012-39,2013,pp.29-34Junya Otani, Hiroaki Kudo, Tetsuya Matsumoto, Yoshinori Takeuchi, Noboru Onishi, “Emotion estimation using multiple biological signals during video viewing”, IEICE Technical Report, IMQ2012-39, 2013, pp.29-34

従来は、個人の生体情報を利用した感情推定はある程度可能であるが、精度には限界がある。本発明は、この従来技術の問題点に鑑みて、集団の生体情報を同時に取得して利用することにより、集団の感情を高精度で推定することを課題とする。   Conventionally, emotion estimation using personal biometric information is possible to some extent, but accuracy is limited. In view of the problems of the prior art, an object of the present invention is to estimate a group's emotions with high accuracy by simultaneously acquiring and using the biological information of the group.

そこで、本発明は、複数の生体センサから受信した生体情報から抽出した特徴情報に基づき集団の感情情報を推定する。   Therefore, the present invention estimates group emotion information based on feature information extracted from biological information received from a plurality of biological sensors.

本発明の集団感情推定装置の態様としては、複数の個人の生体センサから受信した生体情報から集団の感情情報を推定する集団感情推定装置であって、複数の個人の生体センサから受信した生体情報を入力する入力手段と、前記生体情報の特徴情報に対応する特徴パターンIDを前記生体情報に対応付けた特徴データを出力する前処理手段と、感情推定の推定条件として、特定時刻とこの特定時刻からの時間間隔とからなる時間情報に基づく逓減関数、及び特定位置とこの特定位置からの距離とからなる位置情報に基づく逓減関数を入力する推定条件入力手段と、この推定条件入力手段において入力された推定条件に応じて選択された前記特徴データの単一の前記特徴パターンIDまたは複数の前記特徴パターンIDからなる組に与えられた感情内容に対応する感情パターンIDの群からなる感情推定候補を示す確率ベクトルである感情推定ベクトルの前記複数の個人についての荷重和が最大値となる当該感情推定ベクトルの要素番号に対応する前記感情パターンIDの前記感情内容を、集団の感情情報として出力する感情推定手段と、出力条件を入力する出力条件入力手段と、入力された前記出力条件に合致する前記集団の感情情報を出力する出力手段とを備え、前記前処理手段は、前記特徴データに前記特徴情報が抽出された時点での時間情報及び位置情報を付加し、前記感情推定手段は、前記推定条件入力手段において入力された前記時間情報に基づく逓減関数または前記位置情報に基づく逓減関数により、前記前処理手段において前記時間情報及び位置情報が付加された前記特徴データに基づき前記感情推定ベクトルに重み付けする。 As an aspect of the collective emotion estimation apparatus of the present invention, a collective emotion estimation apparatus for estimating collective emotion information from biometric information received from a plurality of individual biometric sensors, the biometric information received from a plurality of individual biometric sensors. input means for inputting a pre-processing means for outputting the feature data of the feature pattern ID associated with the biometric information corresponding to the characteristic information of the biometric information, as the estimated condition of the emotion estimation, this particular time and the particular time An estimation condition input means for inputting a decreasing function based on time information consisting of a time interval from and a decreasing function based on position information consisting of a specific position and a distance from the specific position, and input in the estimation condition input means It was given to a single said feature pattern ID or sets of the feature pattern ID of the feature data selected according to the estimated condition The emotion corresponding to the element number of the emotion estimation vector having the maximum load sum for the plurality of individuals of the emotion estimation vector that is a probability vector indicating an emotion estimation candidate consisting of a group of emotion pattern IDs corresponding to emotion content Emotion estimation means for outputting the emotion content of the pattern ID as group emotion information, output condition input means for inputting an output condition, and output means for outputting the group emotion information that matches the input output condition The preprocessing means adds time information and position information at the time when the feature information is extracted to the feature data, and the emotion estimation means is the time input by the estimation condition input means. by decreasing function based on decreasing function or the position information based on the information, before the time information and the positional information in the pre-processing means is added Weighting the emotion estimation vector based on the feature data.

本発明の集団感情推定方法は、複数の個人の生体センサから受信した生体情報から集団の感情情報を推定する集団感情推定装置が実行する集団感情推定方法であって、複数の個人の生体センサから受信した生体情報を入力する入力ステップと、前記生体情報の特徴情報に対応する特徴パターンIDを前記生体情報に対応付けた特徴データを出力する前処理ステップと、感情推定の推定条件として、特定時刻とこの特定時刻からの時間間隔とからなる時間情報に基づく逓減関数、及び特定位置とこの特定位置からの距離とからなる位置情報に基づく逓減関数を入力する推定条件入力ステップと、この推定条件入力ステップにおいて入力された推定条件に応じて選択された前記特徴データの単一の前記特徴パターンIDまたは複数の前記特徴パターンIDからなる組に与えられた感情内容に対応する感情パターンIDの群からなる感情推定候補を示す確率ベクトルである感情推定ベクトルの前記複数の個人についての荷重和が最大値となる当該感情推定ベクトルの要素番号に対応する前記感情パターンIDの前記感情内容を、集団の感情情報として出力する感情推定ステップと、出力条件を入力する出力条件入力ステップと、入力された前記出力条件に合致する前記集団の感情情報を出力する出力ステップとを有し、前記前処理ステップは、前記特徴データに前記特徴情報が抽出された時点での時間情報及び位置情報を付加し、前記感情推定ステップは、前記推定条件入力ステップにおいて入力された前記時間情報に基づく逓減関数または前記位置情報に基づく逓減関数により、前記前処理ステップにおいて前記時間情報及び位置情報が付加された前記特徴データに基づき前記感情推定ベクトルに重み付けする。 A group emotion estimation method according to the present invention is a group emotion estimation method executed by a group emotion estimation apparatus that estimates group emotion information from biological information received from a plurality of individual biometric sensors. An input step for inputting the received biometric information, a preprocessing step for outputting feature data corresponding to the feature pattern ID corresponding to the feature information of the biometric information, and a specific time as an estimation condition for emotion estimation And an estimation condition input step for inputting a decreasing function based on time information consisting of a time interval from this specific time, and a decreasing function based on position information consisting of a specific position and a distance from this specific position , and this estimation condition input single said feature pattern ID or the feature pattern of the feature data selected according to the estimated conditions input in step Emotion estimation vector that is a probability vector indicating an emotion estimation candidate consisting of a group of emotion pattern IDs corresponding to the emotion content given to the group consisting of the IDs, and that the sum of the weights of the plurality of individuals is the maximum value. The emotion estimation step for outputting the emotion content of the emotion pattern ID corresponding to the element number of the vector as group emotion information, the output condition input step for inputting an output condition, and the input condition that matches the input output condition An output step of outputting emotion information of a group, wherein the preprocessing step adds time information and position information at the time when the feature information is extracted to the feature data, and the emotion estimation step includes the step of by decreasing function based on decreasing function or the position information based on the time information input in the estimation condition input step, the front The time information and the positional information in the physical step is weighted to the emotion estimation vector based on the added the feature data.

尚、本発明は上記装置の各手段としてコンピュータを機能させるプログラムまたは上記方法のステップをコンピュータに実行させるプログラムの態様とすることもできる。   Note that the present invention may be in the form of a program that causes a computer to function as each unit of the apparatus or a program that causes a computer to execute the steps of the method.

本発明によれば集団の感情状態を高精度で推定できる。   According to the present invention, the emotional state of a group can be estimated with high accuracy.

本発明の実施形態における集団感情推定装置のブロック構成図。The block block diagram of the group emotion estimation apparatus in embodiment of this invention. 同実施形態における集団感情推定過程のフロー図。The flowchart of the group emotion estimation process in the embodiment. 同実施形態におけるデータ入力過程のフローチャート。The flowchart of the data input process in the embodiment. 同実施形態における前処理過程のフローチャート。The flowchart of the pre-processing process in the embodiment. 同実施形態における感情推定過程のフローチャート。The flowchart of the emotion estimation process in the embodiment. 同実施形態における推定条件入力過程のフローチャート。The flowchart of the estimation condition input process in the embodiment. 同実施形態における出力過程のフローチャート。The flowchart of the output process in the embodiment. 同実施形態における出力条件入力過程のフローチャート。The flowchart of the output condition input process in the embodiment.

以下、図面を参照しながら本発明の実施の形態について説明するが本発明はこの実施形態に限定されるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to these embodiments.

[概要]
図1に示された本実施形態の集団感情推定装置1は、複数の個人の生体センサから受信した生体情報から抽出した特徴情報に基づく集団の感情情報の推定に関する確立分布に従って感情推定ベクトルを重み付けて積算することにより、集団の感情情報の推定を行う。
[Overview]
The group emotion estimation apparatus 1 of the present embodiment shown in FIG. 1 weights an emotion estimation vector according to an established distribution related to estimation of group emotion information based on feature information extracted from biological information received from a plurality of individual biological sensors. To estimate the group's emotional information.

本実施形態の説明で述べられる技術用語について説明する。   Technical terms described in the description of this embodiment will be described.

「感情」:人間の感情。「怒り」「悲しみ」「喜び」等の感情情報にIDを付与して扱う。   “Emotion”: Human emotion. ID is assigned to emotion information such as “anger”, “sadness”, “joy” and the like.

「特徴データ」:個人に装着された生体センサから受信したセンサデータ(生体情報)から抽出した特徴情報に対して特徴パターンIDを付与したもの。これ以上の情報を含むこともできる。   “Characteristic data”: data obtained by adding a feature pattern ID to feature information extracted from sensor data (biometric information) received from a biosensor attached to an individual. More information can be included.

「特徴パターンID」:センサデータにおいて異常値が検出されたとき、異常値の種類に応じて定義されるID。異常値が検出されない場合であっても、正常であること自体についても特徴パターンIDが定義できる。   “Characteristic pattern ID”: ID defined according to the type of abnormal value when an abnormal value is detected in the sensor data. Even if no abnormal value is detected, the feature pattern ID can be defined for the normality itself.

「時間」:センサデータの特徴情報が抽出された時の時間情報。時間範囲若しくは特定の時刻として与えられる。映像データや音声データを非同期に視聴している場合には、絶対的な時間ではなく、データの開始からの相対的な経過時間で表現してもよい。   “Time”: Time information when feature information of sensor data is extracted. It is given as a time range or a specific time. When video data or audio data is viewed asynchronously, it may be expressed not by an absolute time but by a relative elapsed time from the start of the data.

「場所」:センサデータの特徴情報が抽出された時の生体センサの位置情報。物理的な位置に限定されず、ヴァーチャルな位置情報(ある番組を見ている人の集合、特定のチャットルームに入っている人の集合など)であってもよい。   “Place”: Position information of the biosensor when the feature information of the sensor data is extracted. It is not limited to a physical position, but may be virtual position information (a group of people watching a certain program, a group of people in a specific chat room, etc.).

[装置の構成]
集団感情推定装置1は、図1に示されたように、データ入力部2、前処理部3、推定条件入力部4、感情推定部5、出力条件入力部6、出力部7を備える。
[Device configuration]
The group emotion estimation apparatus 1 includes a data input unit 2, a preprocessing unit 3, an estimation condition input unit 4, an emotion estimation unit 5, an output condition input unit 6, and an output unit 7, as shown in FIG.

前処理部3は、データ入力部2から供されたセンサデータが特徴抽出済みのものである場合は不要である。推定条件入力部4も、感情推定部5における推定条件を随時設定する必要がない場合は不要である。出力条件入力部6も、出力部7における表示条件を随時設定する必要がなければ不要である。   The pre-processing unit 3 is not necessary when the sensor data provided from the data input unit 2 has already undergone feature extraction. The estimation condition input unit 4 is also unnecessary when it is not necessary to set the estimation conditions in the emotion estimation unit 5 at any time. The output condition input unit 6 is also unnecessary if it is not necessary to set display conditions in the output unit 7 as needed.

上記各機能部2〜7はコンピュータのハードウェアリソースによって実現される。すなわち、集団感情推定装置1は、少なくとも演算装置(CPU)、記憶装置(メモリ、ハードディスク装置等)、通信インタフェース等のコンピュータに係るハードウェアリソースを備える。そして、これらのハードウェアリソースがソフトウェアリソース(OS、アプリケーション等)と協働することにより各機能部2〜7が実装される。また、各々のコンピュータに機能部2〜7を各々実装させるようにしてもよい。   The functional units 2 to 7 are realized by computer hardware resources. That is, the collective emotion estimation apparatus 1 includes hardware resources relating to a computer such as at least a computing device (CPU), a storage device (memory, a hard disk device, etc.), and a communication interface. These hardware resources cooperate with software resources (OS, applications, etc.) to implement the function units 2-7. Moreover, you may make it each implement | achieve the function parts 2-7 in each computer.

データ入力部2は、複数のユーザに装着された生体センサから受信したセンサデータが特徴抽出済みのデータであるかを判断する。前記入力されたデータが特徴抽出前のデータである場合には当該データを前処理部3に供する。一方、前記入力されたデータが特徴抽出済みのデータである場合には当該データを感情推定部5に供する。   The data input unit 2 determines whether the sensor data received from the biosensors worn by a plurality of users is data whose features have been extracted. When the input data is data before feature extraction, the data is supplied to the preprocessing unit 3. On the other hand, when the input data is data whose features have been extracted, the data is provided to the emotion estimation unit 5.

前処理部3は、データ入力部2から供された特徴抽出済みでないと判断されたセンサデータからその特徴情報を抽出し、この特徴情報を当該データに付加してなる特徴データを感情推定部5に供する。より具体的には、データ入力部2から供された特徴抽出前のセンサデータから特徴情報を抽出してこの特徴情報の識別子である特徴パターンIDをユーザID、検出種目と対応付けて当該データに付与することにより特徴データを構成し、この特徴データを感情推定部5に供する。   The preprocessing unit 3 extracts the feature information from the sensor data determined not to have been subjected to the feature extraction provided from the data input unit 2, and the feature data obtained by adding the feature information to the data is the emotion estimation unit 5. To serve. More specifically, feature information is extracted from sensor data before feature extraction provided from the data input unit 2, and a feature pattern ID that is an identifier of the feature information is associated with a user ID and a detection item, and the data is included in the data. The characteristic data is configured by providing the data, and the characteristic data is provided to the emotion estimation unit 5.

推定条件入力部4は、前記感情情報の推定のための推定条件を感情推定部5に入力する。   The estimation condition input unit 4 inputs an estimation condition for estimating the emotion information to the emotion estimation unit 5.

感情推定部5は、データ入力部2または前処理部3から供された特徴データの特徴情報に基づき前記ユーザを含む集団の感情情報を推定し、この感情情報を出力部7に供する。より具体的には、特徴情報に対応付けて感情推定候補を定義した感情推定候補テーブルを参照することにより、データ入力部2または前処理部3から供された特徴データの特徴情報に対応する感情推定候補を示す確率ベクトルから成る感情推定ベクトルを取得する。そして、このベクトルの荷重和により前記ユーザを含む集団の感情情報を算出する。尚、推定条件が推定条件入力部4によって指定されている場合、この推定条件に応じて特徴データが選択され、この特徴データについて感情情報の推定を実行する。   The emotion estimation unit 5 estimates the emotion information of the group including the user based on the feature information of the feature data provided from the data input unit 2 or the preprocessing unit 3, and provides this emotion information to the output unit 7. More specifically, the emotion corresponding to the feature information of the feature data provided from the data input unit 2 or the preprocessing unit 3 by referring to the emotion estimation candidate table in which the emotion estimation candidates are defined in association with the feature information. An emotion estimation vector composed of probability vectors indicating estimation candidates is acquired. Then, the emotion information of the group including the user is calculated from the load sum of the vectors. When the estimation condition is specified by the estimation condition input unit 4, feature data is selected according to the estimation condition, and emotion information is estimated for this feature data.

出力条件入力部6は、出力される感情情報をフィルタリングするための条件を出力部7に供する。   The output condition input unit 6 provides a condition for filtering emotion information to be output to the output unit 7.

出力部7は、感情推定部5によって推定された感情情報を出力する。尚、出力条件が出力条件入力部6によって指定されている場合、この指定された出力条件に基づき感情情報を出力する。   The output unit 7 outputs the emotion information estimated by the emotion estimation unit 5. When the output condition is specified by the output condition input unit 6, emotion information is output based on the specified output condition.

[本実施形態における感情推定過程の説明]
図2〜8を参照しながら本実施形態の感情推定の過程S1〜S4について説明する。
[Explanation of emotion estimation process in this embodiment]
The emotion estimation processes S1 to S4 of the present embodiment will be described with reference to FIGS.

(データの入力)
S1:データ入力部2は、複数のユーザに装着された生体センサからセンサデータを受信し、このセンサデータが特徴抽出済みのデータである場合には感情推定部5に供する。一方、前記センサデータが特徴抽出前のデータである場合には当該データを前処理部3に供する。
(Data input)
S1: The data input unit 2 receives sensor data from biometric sensors worn by a plurality of users, and supplies the sensor data to the emotion estimation unit 5 when the sensor data is feature-extracted data. On the other hand, when the sensor data is data before feature extraction, the data is provided to the preprocessing unit 3.

S1の具体的な入力過程S101〜S105について図3を参照しながら説明する。   A specific input process S101 to S105 of S1 will be described with reference to FIG.

(S101)複数のユーザの生体センサから受信したセンサデータ(例えば、心電,心拍,脳波,筋肉電位,発汗,加速度等)を読み出す。   (S101) Sensor data (for example, electrocardiogram, heartbeat, brain wave, muscle potential, sweating, acceleration, etc.) received from a plurality of user biosensors is read.

(S102)前記センサデータが特徴抽出済みのもの(特徴データ)、特徴抽出前のもの(生データ)のいずれかであるかの判断を行う。   (S102) It is determined whether the sensor data has been extracted (feature data) or has not been extracted (raw data).

(S103)前記センサデータが特徴データである場合には、このデータを、前処理部3を経由せずに、感情推定部5に供する。前記特徴データは特徴パターンIDを含んでいる。結果のフィルタリングのために、これに、位置情報、時間情報、検出項目、ユーザ情報等を付加することも可能である。   (S103) When the sensor data is feature data, this data is provided to the emotion estimation unit 5 without going through the preprocessing unit 3. The feature data includes a feature pattern ID. In order to filter the results, position information, time information, detection items, user information, and the like can be added thereto.

(S104)前記センサデータが生データである場合には、このデータを前処理部3に供する。前記生データは、検出項目とそのデータ(離散あるいは連続)の組を含む。感情推定結果のフィルタリングのために、これに位置情報、時間情報、ユーザ情報等を加えることも可能である。   (S104) If the sensor data is raw data, the data is provided to the preprocessing unit 3. The raw data includes a set of detection items and their data (discrete or continuous). In order to filter the emotion estimation result, position information, time information, user information, and the like can be added thereto.

(S105)前記複数の生体センサから受信した全てのセンサデータについてS101〜S104のステップを実行する。   (S105) Steps S101 to S104 are executed for all sensor data received from the plurality of biological sensors.

(前処理)
S2:前処理部3は、データ入力部2から供された生データから特徴情報を抽出し、この特徴情報の識別子である特徴パターンIDをユーザID、検出種目と対応付けて当該データに付与することにより、特徴データを構成する。そして、この特徴データを感情推定部5に供する。
(Preprocessing)
S2: The preprocessing unit 3 extracts feature information from the raw data provided from the data input unit 2, and assigns the feature pattern ID, which is an identifier of the feature information, to the data in association with the user ID and the detection item. Thus, the feature data is configured. Then, this feature data is provided to the emotion estimation unit 5.

S2の具体的な前処理過程S201〜S205について図4を参照しながら説明する。   Specific preprocessing steps S201 to S205 of S2 will be described with reference to FIG.

(S201)データ入力部2から供された生データを読み出す。   (S201) The raw data provided from the data input unit 2 is read.

(S202)前記読み出された生データから予め定義された特徴パターンと合致する特徴情報を検出する。   (S202) Feature information that matches a predefined feature pattern is detected from the read raw data.

特徴パターンは検出項目に応じて予め定義されている。典型的には、生体に関して標準でないとみなされるデータのパターンが用いられる。具体例としては、心拍数が当人の正常値の平均より標準偏差を超えて上回る、体温が平常時より0.2度以上高くなる、といったパターンについて定義される。特徴パターンは正常状態についても定義可能であり、例えば予め定めた閾値を超えた時間、継続的に正常状態が続いていることを特徴パターンとして定義することができる。尚、後述するが、特徴パターンは前処理部3、推定条件入力部4及び感情推定部5で共有される。   The feature pattern is defined in advance according to the detection item. Typically, a pattern of data that is considered non-standard with respect to a living organism is used. As a specific example, the pattern is defined such that the heart rate exceeds the standard deviation of the person's normal value by more than the standard deviation, and the body temperature is 0.2 degrees or more higher than normal. The feature pattern can also be defined for the normal state. For example, it can be defined as the feature pattern that the normal state continues for a time exceeding a predetermined threshold. As will be described later, the feature pattern is shared by the preprocessing unit 3, the estimation condition input unit 4, and the emotion estimation unit 5.

(S203)前記特徴情報が検出された生データに当該情報に対応した特徴パターンIDを付与する。   (S203) A feature pattern ID corresponding to the information is assigned to the raw data in which the feature information is detected.

特徴パターンIDは、前記生データにおいて、予め定義された特徴パターンに合致する特徴的な数値(例えば、異常値)が検出されたときに、このデータに付与される。   The feature pattern ID is given to this data when a characteristic numerical value (for example, an abnormal value) that matches a predefined feature pattern is detected in the raw data.

特徴パターンは特徴パターンIDを与えることで符号化される。特徴パターンIDの命名規則は任意であり、数値として与えることも、種別名をIDの一部に加える(“心拍_1”など)ことも可能である。   The feature pattern is encoded by giving a feature pattern ID. The naming rule of the feature pattern ID is arbitrary, and can be given as a numerical value, or the type name can be added to a part of the ID (such as “heartbeat_1”).

(S204)特徴パターンIDが付与された生データを、特徴データとして、感情推定部5に供する。この特徴データには、さらに時刻情報、場所情報、あるいはユーザID等、センサデータ取得に付随する情報を付加することができる。   (S204) The raw data to which the feature pattern ID is assigned is provided to the emotion estimation unit 5 as feature data. Information accompanying sensor data acquisition, such as time information, location information, or a user ID, can be further added to the feature data.

(S205)入力部2から供された全ての生データについてS201〜S204のステップが実行される。   (S205) Steps S201 to S204 are executed for all raw data provided from the input unit 2.

(感情情報の推定)
S3:感情推定部5は、データ入力部2または前処理部3から供された特徴データの特徴パターンの特徴情報に基づき集団の感情情報の推定を行い、この感情情報を出力部7に供する。
(Emotion information estimation)
S3: The emotion estimation unit 5 estimates the emotion information of the group based on the feature information of the feature pattern of the feature data provided from the data input unit 2 or the preprocessing unit 3, and supplies this emotion information to the output unit 7.

ここで、推定条件が推定条件入力部4によって指定されている場合、この推定条件に応じて特徴データが選択され、この特徴データに基づき感情情報の推定を実行する。また、推定条件入力部4から、時間情報や場所情報が与えられた時、当該時間や当該地点からの時間若しくは空間上の距離に応じて重みづけた感情推定を行うこともできる。   Here, when the estimation condition is specified by the estimation condition input unit 4, feature data is selected according to the estimation condition, and emotion information is estimated based on the feature data. Further, when time information or place information is given from the estimation condition input unit 4, it is possible to perform emotion estimation weighted according to the time, the time from the point, or the distance in space.

先ず、推定条件入力部4によって実行される具体的な推定条件入力過程S311〜S312について図6を参照しながら説明する。   First, specific estimation condition input processes S311 to S312 executed by the estimation condition input unit 4 will be described with reference to FIG.

(S311)推定条件を集団感情推定装置1の記憶領域から読み出す。   (S311) The estimation condition is read from the storage area of the collective emotion estimation apparatus 1.

前記特徴データが、特徴パターンID以外の情報を含んでいる場合、その情報に基づいた推定条件を与えられる。例えば、前記特徴データに時間情報や場所情報が含まれていれば、特定の時間帯、特定のエリアなどの条件での検出を可能とする。また、ユーザIDやユーザ属性といった情報が特徴データに含まれていれば、推定条件としてもユーザIDやユーザ属性を指定可能となる。   When the feature data includes information other than the feature pattern ID, an estimation condition based on the information is given. For example, if time information and location information are included in the feature data, detection can be performed under conditions such as a specific time zone and a specific area. Further, if information such as a user ID and a user attribute is included in the feature data, the user ID and the user attribute can be specified as the estimation condition.

(S312)前記読み出した推定条件を感情推定部5に供する。   (S312) The read estimation condition is provided to the emotion estimation unit 5.

次に、感情推定部5によって実行される具体的な感情推定過程S301〜S304について図5を参照しながら説明する。   Next, specific emotion estimation processes S301 to S304 executed by the emotion estimation unit 5 will be described with reference to FIG.

(S301)推定条件入力部4によって推定条件が指定されているか否かの判断を行う。   (S301) It is determined whether or not an estimation condition is designated by the estimation condition input unit 4.

(S302)前記推定条件が指定されている場合は、指定された推定条件に応じて、利用する特徴データを選択する。例えば、特徴データに時間情報、位置情報、あるいは特徴データに対応するユーザIDが含まれている場合、推定条件入力部4から時間情報、位置情報、若しくはユーザIDが推定条件として入力されると、この推定条件に合致した特徴データのみを選択する。   (S302) When the estimation condition is designated, feature data to be used is selected according to the designated estimation condition. For example, when the feature data includes time information, position information, or a user ID corresponding to the feature data, when the time information, position information, or user ID is input from the estimation condition input unit 4 as an estimation condition, Only feature data that matches this estimation condition is selected.

(S303)前記選択した特徴データ群に対して感情情報の推定を行う。   (S303) Emotion information is estimated for the selected feature data group.

前記推定にあたり、予め、感情を表現するための感情パターンと、特徴パターンID毎に単独のセンサデータに対して推定される感情パターンに基づく感情推定候補とが定義される。感情パターンは、人間の感情状態をパターン化して感情IDを付与したものである。感情推定候補は、与えられた単独の特徴データに対して、推定される感情IDを、リスト、重み付きリスト、確率ベクトルなどの形式で設定したものである。   In the estimation, an emotion pattern for expressing an emotion and an emotion estimation candidate based on an emotion pattern estimated for a single sensor data for each feature pattern ID are defined in advance. The emotion pattern is obtained by patterning a human emotion state and giving an emotion ID. The emotion estimation candidate is obtained by setting an estimated emotion ID in the form of a list, a weighted list, a probability vector, or the like for given single feature data.

感情推定にあたり、前記特徴データ群の各特徴パターンIDについて、対応する感情推定候補を選択し、選択された感情推定候補を組み合わせることにより、特徴データ群全体に基づく集団の感情推定を行う。   For emotion estimation, for each feature pattern ID of the feature data group, a corresponding emotion estimation candidate is selected, and the selected emotion estimation candidates are combined to perform group emotion estimation based on the entire feature data group.

以下に感情推定の具体的な過程S303(1)〜S303(4)について説明する。   Hereinafter, specific steps S303 (1) to S303 (4) for emotion estimation will be described.

S303(1):特徴パターンが予め定義される。   S303 (1): A feature pattern is defined in advance.

表1に特徴パターンの定義例を示す。ここでは、正常状態も定義付けられている。また、推定条件入力部4からの推定条件として利用可能なように、センサデータの検出項目も定義されている。   Table 1 shows examples of feature pattern definitions. Here, the normal state is also defined. In addition, detection items of sensor data are also defined so that they can be used as estimation conditions from the estimation condition input unit 4.

特徴パターンは前処理部3、推定条件入力部4及び感情推定部5で共有される。データ入力部2から入力されるデータが特徴パターンIDによって符号化されている場合は、データ入力のための符号化の段階で定義された特徴パターンが共有される必要がある。   The feature pattern is shared by the preprocessing unit 3, the estimation condition input unit 4, and the emotion estimation unit 5. When the data input from the data input unit 2 is encoded by the feature pattern ID, the feature pattern defined at the encoding stage for data input needs to be shared.

Figure 0006386810
Figure 0006386810

S303(2):感情パターンが予め定義される。   S303 (2): An emotion pattern is defined in advance.

感情パターン定義の例を表2に示す。この感情内容に対応して定義付けされた感情パターンも、感情推定部5、出力条件入力部6及び出力部7で共有される。   An example of emotion pattern definition is shown in Table 2. The emotion pattern defined corresponding to the emotion content is also shared by the emotion estimation unit 5, the output condition input unit 6, and the output unit 7.

Figure 0006386810
Figure 0006386810

S303(3):感情推定候補が予め定義される。   S303 (3): Emotion estimation candidates are defined in advance.

特徴パターンIDと、単独の特徴データから推定される感情データへの関係が、感情推定候補として予め定義される。特徴データの特徴情報(特徴パターンID)に対して推定される感情推定候補の定義を格納した感情推定候補テーブルの一例を表3及び表4に示す。   The relationship between the feature pattern ID and emotion data estimated from single feature data is defined in advance as an emotion estimation candidate. Tables 3 and 4 show examples of emotion estimation candidate tables storing definitions of emotion estimation candidates estimated for the feature information (feature pattern ID) of the feature data.

表3は、一時の感情推定候補の一例であり、単独の特徴データの特徴パターンが与えられた時、推定される感情パターンID(f0,f1,f2,…)を示している。感情推定候補は、「感情推定候補」カラムのようにリストで表現されることも、「ベクトル表現」カラムのように確率ベクトルで表現されることもできる。この確率ベクトルは、感情パターンの数MについてM次元のベクトルであり、感情推定ベクトルと称する。 Table 3 is an example of a temporary emotion estimation candidate, and shows an estimated emotion pattern ID (f 0 , f 1 , f 2 ,...) When a feature pattern of single feature data is given. Emotion estimation candidates can be expressed as a list as in the “emotion estimation candidate” column, or can be expressed as a probability vector as in the “vector expression” column. This probability vector is an M-dimensional vector for the number M of emotion patterns, and is referred to as an emotion estimation vector.

Figure 0006386810
Figure 0006386810

特徴パターンに対する感情情報の推定は、複数の特徴パターンの複合に対しても定義できる。表4は、複数の特徴パターンIDの複合による感情推定候補を示す。これは、特徴データに複数の特徴パターンが同時に出現したときの感情推定を、リストあるいはベクトル(感情推定ベクトル)で表現したものである。   Estimating emotion information for a feature pattern can also be defined for a composite of a plurality of feature patterns. Table 4 shows emotion estimation candidates based on a combination of a plurality of feature pattern IDs. This is a list or vector (emotion estimation vector) representing emotion estimation when a plurality of feature patterns appear simultaneously in the feature data.

Figure 0006386810
Figure 0006386810

S303(4):感情情報を推定する。   S303 (4): Emotion information is estimated.

感情情報の推定の例を、ベクトルの加重和を利用した方法で示す。本事例では、特徴データの集合Sに対する集団感情推定にあたり、以下の過程S321,S322を実行する。   An example of emotion information estimation is shown by a method using a weighted sum of vectors. In this example, the following processes S321 and S322 are executed in the group emotion estimation for the feature data set S.

(S321)特徴データの集合Sに対する集団特徴パターンのベクトルqsを以下の過程(1)〜(3)により作成する。尚、ベクトルqsは特徴パターンIDの数Nについて、N次元ベクトルである。 (S321) A collective feature pattern vector q s for the feature data set S is created by the following steps (1) to (3). The vector q s is an N-dimensional vector for the number N of feature pattern IDs.

(1)初期状態ではベクトルqsの全ての要素が0に設定される。 (1) In the initial state, all elements of the vector q s are set to 0.

(2)1つの特徴データs∈Sについて、その特徴パターンIDがpiであれば、ベクトルqsの第i要素の値を1加える。 (2) For one feature data sεS, if the feature pattern ID is p i , add 1 to the value of the i-th element of the vector q s .

(3)特徴データの集合Sの全ての要素について、過程(2)を繰り返すことにより、ベクトルqsが構成される。 (3) The vector q s is constructed by repeating the step (2) for all elements of the feature data set S.

(S322)各特徴パターンIDに対する感情推定ベクトルv0,v1,…,vNとベクトルqsとから集合Sの感情推定パターンを示す関数fsを以下の過程(1)〜(3)により算出する。 (S322) The function f s indicating the emotion estimation pattern of the set S from the emotion estimation vectors v 0 , v 1 ,..., V N for each feature pattern ID and the vector q s is obtained by the following processes (1) to (3). calculate.

(1)感情推定ベクトルについて、行列Vを、以下の式(1)のように構成する。   (1) For the emotion estimation vector, the matrix V is configured as in the following equation (1).

Figure 0006386810
Figure 0006386810

(2)この行列Vとベクトルqsの積を計算することにより、各特徴パターンIDについて頻度と確率の積が各感情パターンに対して計算され、感情パターンに対する積和が以下の式(2)で示されるベクトルgsとして得られる。 (2) By calculating the product of the matrix V and the vector q s , the product of frequency and probability is calculated for each feature pattern ID for each feature pattern ID, and the product sum for the emotion pattern is expressed by the following equation (2) Is obtained as a vector g s indicated by

Figure 0006386810
Figure 0006386810

(3)ベクトルgsの要素について、最大の値をもつ要素の要素番号を求める。argmaxを、与えられたベクトルの最大値を持つ要素番号を返す関数fsと定義すると、感情推定結果は以下の関数fsの式(3)で示される感情パターンとして算出される。 (3) The element number of the element having the maximum value is obtained for the element of the vector g s . If argmax is defined as a function f s that returns an element number having the maximum value of a given vector, the emotion estimation result is calculated as an emotion pattern represented by the following function f s (3).

Figure 0006386810
Figure 0006386810

(4)重みを加えた集団感情の推定
推定条件入力部4から、特定の時間と時間間隔による逓減関数が入力された場合、あるいは、特定の地点と距離による逓減関数が入力された場合、感情推定は特徴データごとに重みつきで計算できる。
(4) Estimation of weighted group emotions When a decreasing function according to a specific time and time interval is input from the estimation condition input unit 4 or when a decreasing function according to a specific point and distance is input, The estimation can be calculated with weight for each feature data.

例えば、特定の地点と、距離xについての逓減関数f(x)=1/xが推定条件として入力された場合を考える。このとき、特徴データs∈Sに対して、指定された地点からの距離がLであったとすれば、過程(2)において、ベクトルqsの第i要素の値を1加えるとしていた部分で、1の代わりに1/Lを加えることで、距離による重みを考慮した集団感情推定が可能となる。 For example, consider a case where a specific point and a decreasing function f (x) = 1 / x for the distance x are input as estimation conditions. At this time, if the distance from the designated point is L with respect to the feature data s∈S, in the step (2), the value of the i-th element of the vector q s is added by 1, By adding 1 / L instead of 1, collective emotion estimation can be performed in consideration of the weight due to distance.

(5)特徴パターンIDの複合による感情情報の推定
特徴パターンのIDの複合による感情推定候補を使用する場合は、集団特徴パターンのベクトルqsの次元数を特徴パターン数Nに対し2s次元のベクトルとし、各要素に特徴パターンの組み合わせラベルを付与すればよい。
(5) Estimating Emotion Information by Composite of Feature Pattern IDs When using emotion estimation candidates by composite of feature pattern IDs, the number of dimensions of the group feature pattern vector q s is 2 s dimensional with respect to the number of feature patterns N. A vector is used, and a combination label of feature patterns may be given to each element.

(S304)ステップS303での推定によって得られた感情パターンを、感情情報として、出力部7に供する。この感情情報には、推定結果の感情種別が含まれる。また、感情情報には、強度若しくは確信度等の数値を含めることもできる。   (S304) The emotion pattern obtained by the estimation in step S303 is provided to the output unit 7 as emotion information. This emotion information includes the emotion type of the estimation result. The emotion information can also include numerical values such as strength or certainty.

(感情情報の出力)
S4:出力部7は、感情推定部5によって算出された感情情報を出力する。
(Output emotion information)
S4: The output unit 7 outputs the emotion information calculated by the emotion estimation unit 5.

ここで、出力条件が出力条件入力部6から指定されている場合、この指定された出力条件に従って感情情報がフィルタリングされる。これにより、ポジティブな感情に限定した推定の出力や、十分な推定精度が確保できないと判断されている感情を省いた出力を可能とする。   Here, when the output condition is designated from the output condition input unit 6, the emotion information is filtered according to the designated output condition. As a result, it is possible to output an estimation that is limited to positive emotions, or an output that excludes emotions that are determined to be unable to ensure sufficient estimation accuracy.

先ず、出力条件入力部6によって実行される出力条件入力過程S411〜S413について図8を参照しながら説明する。   First, the output condition input processes S411 to S413 executed by the output condition input unit 6 will be described with reference to FIG.

(S411)出力条件を前記記憶領域から読み出す。出力条件の指定にあたり、感情推定で使用した感情パターンIDを適用する。   (S411) The output condition is read from the storage area. In specifying the output condition, the emotion pattern ID used in emotion estimation is applied.

(S412)前記読み出した出力条件を符号化する。出力条件が感情パターンIDで表現されていない場合は、感情パターンIDに符号化する。感情の強度あるいは確信度について、出力する閾値を指定することも可能とする。   (S412) The read output condition is encoded. When the output condition is not expressed by the emotion pattern ID, it is encoded into the emotion pattern ID. It is also possible to specify a threshold value to be output for the emotion strength or certainty factor.

(S413)前記符号化された出力条件を出力部7に供する。   (S413) The encoded output condition is provided to the output unit 7.

次に、出力部7によって実行される具体的な出力過程S401〜S404について図7を参照しながら説明する。   Next, specific output processes S401 to S404 executed by the output unit 7 will be described with reference to FIG.

(S401)感情推定部5から感情情報の入力を受ける。   (S401) Receives emotion information from the emotion estimation unit 5.

(S402)出力条件入力部6によって出力条件が指定されているか否かの判断を行う。   (S402) It is determined whether or not an output condition is specified by the output condition input unit 6.

(S403)前記出力条件が指定されている場合、当該出力条件が出力条件入力部6から出力部7に供される。   (S403) When the output condition is designated, the output condition is provided from the output condition input unit 6 to the output unit 7.

(S404)ステップS401において受けた感情情報、または、ステップS403において指定された出力条件に基づき読み出した感情情報を出力する。この感情情報はさらにモニタ等の表示部に出力表示される。   (S404) The emotion information received in step S401 or the emotion information read based on the output condition specified in step S403 is output. This emotion information is further output and displayed on a display unit such as a monitor.

出力部7から出力される感情情報は少なくとも「時間情報」「位置情報」「推定された集団の感情情報」の3つの組を含む。尚、この感情情報には、感情の強度あるいは確信度などの数値を加えることもできる。   The emotion information output from the output unit 7 includes at least three sets of “time information”, “position information”, and “estimated group emotion information”. It should be noted that a numerical value such as emotion strength or certainty can be added to the emotion information.

[本実施形態の効果]
以上説明したように、本実施形態の集団感情推定装置1によれば、グループ化されたセンサデータ集合内のそれぞれの特徴データの感情推定に関する確率分布に従って感情推定ベクトルが重み付けられて積算されることにより、集団の感情情報が推定される。よって、個人レベルでは感情推定精度が十分に高くなくても、個人のレベルでの感情を推定することなしに、集団の感情状態を高精度に推定することができる。また、複数の生体センサデータを組み合わせることで、一人分の生体センサデータだけでは精度が期待できない感情推定を高精度で実現できる。特に、集団が場を共有するなど、同一の体験をしている場合には、感情推定はより高精度が期待される。
[Effect of this embodiment]
As described above, according to the collective emotion estimation apparatus 1 of the present embodiment, the emotion estimation vectors are weighted and integrated according to the probability distribution related to the emotion estimation of each feature data in the grouped sensor data set. Thus, emotion information of the group is estimated. Therefore, even if the emotion estimation accuracy is not sufficiently high at the individual level, the emotional state of the group can be estimated with high accuracy without estimating the emotion at the individual level. Also, by combining a plurality of biosensor data, emotion estimation that cannot be expected with only one biosensor data can be realized with high accuracy. In particular, when a group has the same experience, such as sharing a place, emotion estimation is expected to be more accurate.

特に、生体センサから供された生体情報が特徴抽出済みでない場合であっても前処理部3によって特徴情報が抽出されるので当該生体情報を感情推定部5に供することができる。   In particular, even if the biometric information provided from the biosensor is not already extracted, the preprocessing unit 3 extracts the feature information, so that the biometric information can be provided to the emotion estimation unit 5.

また、感情情報の推定にあたり、前記感情情報の推定に重み付けさせる関数を入力する推定条件入力部4によって前記推定に対して任意に重み付けが行える。例えば、前記重み付けさせる関数として、特定時刻と特定時刻間の間隔とに基づく逓減関数または特定位置と特定位置間の距離とに基づく逓減関数が供されることにより、時刻情報または位置情報に依存した感情情報の推定が行える。   Further, when estimating the emotion information, the estimation condition input unit 4 that inputs a function for weighting the estimation of the emotion information can arbitrarily weight the estimation. For example, as the function to be weighted, a decreasing function based on a specific time and an interval between the specific times or a decreasing function based on a distance between the specific position and the specific position is provided, thereby depending on time information or position information. Emotion information can be estimated.

さらに、感情情報の出力をフィルタリングする条件を出力条件入力部6から出力部7に供するようにすることにより、出力部7から出力される感情情報を任意に規定、例えば、時刻情報または位置情報に応じて任意に規定できる。   Furthermore, by providing the conditions for filtering the output of emotion information to the output unit 7 from the output condition input unit 6, the emotion information output from the output unit 7 is arbitrarily defined, for example, time information or position information. It can be arbitrarily defined according to

[本発明の他の態様]
本発明は、集団感情推定装置1を構成する上記の機能部2〜7の一部若しくは全てとしてコンピュータを機能させるプログラムで構成しこれを当該コンピュータに実行させることにより実現できる。または、同装置1が実行する上記の過程S1〜S4の一部若しくは全てをコンピュータに実行させるプログラムで構成しこれを当該コンピュータに実行させることにより実現できる。そして、このプログラムをそのコンピュータが読み取り可能な周知の記録媒体(例えば、ハードディスク、フレキシブルディスク、CD−ROM等)に格納して提供できる。または、前記プログラムをインターネットや電子メール等でネットワークを介して提供できる。
[Other Embodiments of the Present Invention]
The present invention can be realized by configuring a program that causes a computer to function as part or all of the functional units 2 to 7 constituting the collective emotion estimation apparatus 1 and causing the computer to execute the program. Alternatively, it can be realized by configuring a program that causes a computer to execute a part or all of the above-described steps S1 to S4 executed by the apparatus 1, and causing the computer to execute the program. The program can be provided by being stored in a known recording medium (for example, a hard disk, a flexible disk, a CD-ROM, etc.) that can be read by the computer. Alternatively, the program can be provided via the network via the Internet or e-mail.

本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更、応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

1…集団感情推定装置
2…データ入力部(入力手段)
3…前処理部(前処理手段)
4…推定条件入力部(推定条件入力手段)
5…感情推定部(感情推定手段)
6…出力条件入力部(出力条件入力手段)
7…出力部(出力手段)
DESCRIPTION OF SYMBOLS 1 ... Collective emotion estimation apparatus 2 ... Data input part (input means)
3. Pre-processing unit (pre-processing means)
4 ... Estimation condition input section (estimation condition input means)
5 ... Emotion estimation unit (Emotion estimation means)
6 ... Output condition input section (output condition input means)
7. Output unit (output means)

Claims (7)

複数の個人の生体センサから受信した生体情報から集団の感情情報を推定する集団感情推定装置であって、
複数の個人の生体センサから受信した生体情報を入力する入力手段と、
前記生体情報の特徴情報に対応する特徴パターンIDを前記生体情報に対応付けた特徴データを出力する前処理手段と、
感情推定の推定条件として、特定時刻とこの特定時刻からの時間間隔とからなる時間情報に基づく逓減関数、及び特定位置とこの特定位置からの距離とからなる位置情報に基づく逓減関数を入力する推定条件入力手段と、
この推定条件入力手段において入力された推定条件に応じて選択された前記特徴データの単一の前記特徴パターンIDまたは複数の前記特徴パターンIDからなる組に与えられた感情内容に対応する感情パターンIDの群からなる感情推定候補を示す確率ベクトルである感情推定ベクトルの前記複数の個人についての荷重和が最大値となる当該感情推定ベクトルの要素番号に対応する前記感情パターンIDの前記感情内容を、集団の感情情報として出力する感情推定手段と、
出力条件を入力する出力条件入力手段と、
入力された前記出力条件に合致する前記集団の感情情報を出力する出力手段と
を備え、
前記前処理手段は、前記特徴データに前記特徴情報が抽出された時点での時間情報及び位置情報を付加し、
前記感情推定手段は、前記推定条件入力手段において入力された前記時間情報に基づく逓減関数または前記位置情報に基づく逓減関数により、前記前処理手段において前記時間情報及び位置情報が付加された前記特徴データに基づき前記感情推定ベクトルに重み付けすること
を特徴とする集団感情推定装置。
A group emotion estimation device for estimating group emotion information from biological information received from a plurality of individual biological sensors,
Input means for inputting biometric information received from a plurality of individual biometric sensors;
Preprocessing means for outputting feature data in which feature pattern IDs corresponding to feature information of the biological information are associated with the biological information;
As estimation conditions for emotion estimation, an estimation function that inputs a decreasing function based on time information including a specific time and a time interval from the specific time, and a decreasing function based on position information including a specific position and a distance from the specific position Condition input means;
Emotion pattern ID corresponding to emotion content given to a single feature pattern ID of the feature data selected according to the estimation condition input by the estimation condition input means or a set of a plurality of feature pattern IDs The emotion content of the emotion pattern ID corresponding to the element number of the emotion estimation vector having the maximum load sum for the plurality of individuals of the emotion estimation vector, which is a probability vector indicating an emotion estimation candidate consisting of Emotion estimation means to output as group emotion information,
An output condition input means for inputting an output condition;
Output means for outputting emotion information of the group that matches the input output condition,
The preprocessing means adds time information and position information at the time when the feature information is extracted to the feature data,
The emotion estimation unit, by decreasing function based on decreasing function or the position information based on the time information input in the estimated condition input means, the characteristic data to which the time information and the positional information in the pre-processing means is added A collective emotion estimation apparatus characterized in that the emotion estimation vector is weighted based on the above.
前記時間情報は、絶対時間または特定イベントの開始からの相対的な経過時間であることを特徴とする請求項1に記載の集団感情推定装置。 The group emotion estimation apparatus according to claim 1, wherein the time information is an absolute time or a relative elapsed time from the start of a specific event. 前記位置情報は、物理的な位置情報またはヴァーチャルな位置情報に基づくことを特徴とする請求項1に記載の集団感情推定装置。 The group emotion estimation apparatus according to claim 1, wherein the position information is based on physical position information or virtual position information. 複数の個人の生体センサから受信した生体情報から集団の感情情報を推定する集団感情推定装置が実行する集団感情推定方法であって、
複数の個人の生体センサから受信した生体情報を入力する入力ステップと、
前記生体情報の特徴情報に対応する特徴パターンIDを前記生体情報に対応付けた特徴データを出力する前処理ステップと、
感情推定の推定条件として、特定時刻とこの特定時刻からの時間間隔とからなる時間情報に基づく逓減関数、及び特定位置とこの特定位置からの距離とからなる位置情報に基づく逓減関数を入力する推定条件入力ステップと、
この推定条件入力ステップにおいて入力された推定条件に応じて選択された前記特徴データの単一の前記特徴パターンIDまたは複数の前記特徴パターンIDからなる組に与えられた感情内容に対応する感情パターンIDの群からなる感情推定候補を示す確率ベクトルである感情推定ベクトルの前記複数の個人についての荷重和が最大値となる当該感情推定ベクトルの要素番号に対応する前記感情パターンIDの前記感情内容を、集団の感情情報として出力する感情推定ステップと、
出力条件を入力する出力条件入力ステップと、
入力された前記出力条件に合致する前記集団の感情情報を出力する出力ステップと
を有し、
前記前処理ステップは、前記特徴データに前記特徴情報が抽出された時点での時間情報及び位置情報を付加し、
前記感情推定ステップは、前記推定条件入力ステップにおいて入力された前記時間情報に基づく逓減関数または前記位置情報に基づく逓減関数により、前記前処理ステップにおいて前記時間情報及び位置情報が付加された前記特徴データに基づき前記感情推定ベクトルに重み付けすること
を特徴とする集団感情推定方法。
A group emotion estimation method executed by a group emotion estimation apparatus that estimates group emotion information from biological information received from a plurality of individual biological sensors,
An input step for inputting biometric information received from a plurality of individual biometric sensors;
A preprocessing step of outputting feature data in which a feature pattern ID corresponding to feature information of the biometric information is associated with the biometric information;
As estimation conditions for emotion estimation, an estimation function that inputs a decreasing function based on time information including a specific time and a time interval from the specific time, and a decreasing function based on position information including a specific position and a distance from the specific position Condition input step,
Emotion pattern ID corresponding to emotion content given to a single feature pattern ID or a set of a plurality of feature pattern IDs of the feature data selected according to the estimation condition input in the estimation condition input step The emotion content of the emotion pattern ID corresponding to the element number of the emotion estimation vector having the maximum load sum for the plurality of individuals of the emotion estimation vector, which is a probability vector indicating an emotion estimation candidate consisting of An emotion estimation step to output as group emotion information;
An output condition input step for inputting an output condition;
An output step of outputting emotion information of the group that matches the input output condition;
The preprocessing step adds time information and position information at the time when the feature information is extracted to the feature data,
The emotion estimation step, by diminishing function based on decreasing function or the position information based on the time information input in the estimated condition input step, the feature data to which the time information and location information is added in the pretreatment step A group emotion estimation method characterized in that the emotion estimation vector is weighted based on the above.
前記時間情報は、絶対時間または特定イベントの開始からの相対的な経過時間であることを特徴とする請求項4に記載の集団感情推定方法。 5. The group emotion estimation method according to claim 4, wherein the time information is an absolute time or a relative elapsed time from the start of a specific event. 前記位置情報は、物理的な位置情報またはヴァーチャルな位置情報に基づくことを特徴とする請求項4に記載の集団感情推定方法。 5. The group emotion estimation method according to claim 4, wherein the position information is based on physical position information or virtual position information. コンピュータを請求項1から3のいずれか1項に記載の集団感情推定装置を構成する各手段として機能させる集団感情推定プログラム。   A group emotion estimation program for causing a computer to function as each means constituting the group emotion estimation apparatus according to any one of claims 1 to 3.
JP2014129749A 2014-06-25 2014-06-25 Group emotion estimation device, group emotion estimation method, and group emotion estimation program Active JP6386810B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014129749A JP6386810B2 (en) 2014-06-25 2014-06-25 Group emotion estimation device, group emotion estimation method, and group emotion estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014129749A JP6386810B2 (en) 2014-06-25 2014-06-25 Group emotion estimation device, group emotion estimation method, and group emotion estimation program

Publications (2)

Publication Number Publication Date
JP2016007363A JP2016007363A (en) 2016-01-18
JP6386810B2 true JP6386810B2 (en) 2018-09-05

Family

ID=55225400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014129749A Active JP6386810B2 (en) 2014-06-25 2014-06-25 Group emotion estimation device, group emotion estimation method, and group emotion estimation program

Country Status (1)

Country Link
JP (1) JP6386810B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6798353B2 (en) * 2017-02-24 2020-12-09 沖電気工業株式会社 Emotion estimation server and emotion estimation method
JP7060779B2 (en) * 2017-03-28 2022-04-27 テイ・エス テック株式会社 Combination selection system
JP6680825B2 (en) * 2017-08-14 2020-04-15 裕一 高田 EEG evaluation method and evaluation apparatus
JP6837151B2 (en) * 2017-09-11 2021-03-03 株式会社日立製作所 Information processing system
JP6982792B2 (en) * 2017-09-22 2021-12-17 株式会社村田製作所 Voice analysis system, voice analysis method, and voice analysis program
JP7438653B2 (en) * 2018-03-28 2024-02-27 沖電気工業株式会社 Emotional information management server device, emotional information management method, program and information communication system
WO2019216504A1 (en) * 2018-05-09 2019-11-14 한국과학기술원 Method and system for human emotion estimation using deep physiological affect network for human emotion recognition
JP7305030B2 (en) * 2020-03-23 2023-07-07 三菱電機株式会社 Plant operation support device, plant operation support method
US11822696B2 (en) 2020-08-25 2023-11-21 International Business Machines Corporation Dynamic environmental control
JP7205528B2 (en) * 2020-11-17 2023-01-17 沖電気工業株式会社 emotion estimation system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067482A (en) * 1999-08-30 2001-03-16 Atr Media Integration & Communications Res Lab Human reaction recognizing device and computer- readable recording medium where program for the same is recorded
JP4604494B2 (en) * 2004-01-15 2011-01-05 セイコーエプソン株式会社 Biological information analysis system
US20090328089A1 (en) * 2007-05-16 2009-12-31 Neurofocus Inc. Audience response measurement and tracking system
JP2009201653A (en) * 2008-02-27 2009-09-10 Nippon Telegr & Teleph Corp <Ntt> Intellectual activity evaluation system, its learning method and label imparting method

Also Published As

Publication number Publication date
JP2016007363A (en) 2016-01-18

Similar Documents

Publication Publication Date Title
JP6386810B2 (en) Group emotion estimation device, group emotion estimation method, and group emotion estimation program
Muzammal et al. A multi-sensor data fusion enabled ensemble approach for medical data from body sensor networks
Peelen et al. Tool selectivity in left occipitotemporal cortex develops without vision
Carneiro et al. Multimodal behavioral analysis for non-invasive stress detection
Mohino-Herranz et al. Assessment of mental, emotional and physical stress through analysis of physiological signals using smartphones
US20190108191A1 (en) Affective response-based recommendation of a repeated experience
US20200170524A1 (en) Apparatus and method for utilizing a brain feature activity map database to characterize content
JP6455809B2 (en) Preference judgment system
WO2016132612A1 (en) Information processing device, control method, and program
US20210118323A1 (en) Method and apparatus for interactive monitoring of emotion during teletherapy
WO2019086856A1 (en) Systems and methods for combining and analysing human states
JP7278972B2 (en) Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology
Rincon et al. Detecting emotions through non-invasive wearables
JP2016009342A (en) Area burst estimation presenting device, area burst estimation presenting method, and area burst estimation presenting program
Lee et al. Empa talk: A physiological data incorporated human-computer interactions
JP6910919B2 (en) How to evaluate the system and actions to be taken to communicate
WO2023112384A1 (en) Computer system and emotion estimation method
EP4307206A1 (en) Content recommendation system, content recommendation method, content library, method for generating content library, and target input user interface
Ziefle et al. Why traditional usability criteria fall short in ambient assisted living environments
JP2020085856A (en) Estimation device, estimation method and estimation program
JP2019017946A (en) Feeling estimation system
JP7408103B2 (en) Information processing device, information processing method, and information processing program
Ekiz et al. Long short-term memory network based unobtrusive workload monitoring with consumer grade smartwatches
Banerjee Spatial survival models
JP6659011B2 (en) Search system, data collection device and search program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180810

R150 Certificate of patent or registration of utility model

Ref document number: 6386810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150