JP6965525B2 - Emotion estimation server device, emotion estimation method, presentation device and emotion estimation system - Google Patents

Emotion estimation server device, emotion estimation method, presentation device and emotion estimation system Download PDF

Info

Publication number
JP6965525B2
JP6965525B2 JP2017034037A JP2017034037A JP6965525B2 JP 6965525 B2 JP6965525 B2 JP 6965525B2 JP 2017034037 A JP2017034037 A JP 2017034037A JP 2017034037 A JP2017034037 A JP 2017034037A JP 6965525 B2 JP6965525 B2 JP 6965525B2
Authority
JP
Japan
Prior art keywords
information
team
social
emotion estimation
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017034037A
Other languages
Japanese (ja)
Other versions
JP2018139087A (en
Inventor
伸一 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017034037A priority Critical patent/JP6965525B2/en
Publication of JP2018139087A publication Critical patent/JP2018139087A/en
Application granted granted Critical
Publication of JP6965525B2 publication Critical patent/JP6965525B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、感情推定サーバ装置、感情推定方法、提示装置及び感情推定システムに関する。 The present invention relates to an emotion estimation server device, an emotion estimation method, a presentation device, and an emotion estimation system.

従来、ある人物の行動や生理反応を、各種センサを用いて外的に計測し、得られたデータから当該人物の内的な心理状態(たとえば感情)を推定する技術が存在する。そのような感情推定技術は、たとえばサービスロボットのように対人的なサービスを提供する機械のヒューマン・マシン・インタラクションに関する性能を向上させることに用いられたり、テレワークのように物理的に離れた環境下にある相手の状況を理解することの支援に用いられたりする。 Conventionally, there is a technique of externally measuring the behavior or physiological reaction of a person using various sensors and estimating the internal psychological state (for example, emotion) of the person from the obtained data. Such emotion estimation techniques are used to improve the performance of human-machine interaction of machines that provide interpersonal services, such as service robots, or in physically distant environments such as telework. It is also used to help understand the situation of the other person in.

一例として、特許文献1には、カメラ、マイクロフォン、生体信号等の複数の計測指標データを用いてある人物の感情を推定する感情推定装置が提案されている。 As an example, Patent Document 1 proposes an emotion estimation device that estimates the emotion of a person using a plurality of measurement index data such as a camera, a microphone, and a biological signal.

特許文献1に記載された技術のように、「ひとりの」人物の感情(以下「個人感情」)の推定を行う技術は既存に数多く存在する。一方で、「複数の」人物の協働活動により醸成される場の感情的な雰囲気(以下「チーム感情」)を推定し、その推定情報のユーザー共有を支援するような技術は少ない。 There are many existing techniques for estimating the emotion of a "single" person (hereinafter, "individual emotion"), such as the technique described in Patent Document 1. On the other hand, there are few technologies that estimate the emotional atmosphere of a place created by the collaborative activities of "multiple" people (hereinafter referred to as "team emotion") and support user sharing of the estimated information.

一例として、特許文献2には、複数の個人の生体センサから受信した生体情報が特徴抽出済みの生体情報であるか否かを判断し、前記特徴抽出済みと判断された生体情報の特徴情報に基づき集団の感情情報を推定する集団感情推定装置が提案されている。 As an example, in Patent Document 2, it is determined whether or not the biometric information received from the biometric sensors of a plurality of individuals is the biometric information whose features have been extracted, and the feature information of the biometric information determined to have been feature extracted is used. A group emotion estimation device that estimates group emotion information based on this has been proposed.

特開2012−59107号公報Japanese Unexamined Patent Publication No. 2012-59107 特開2016−7363号公報Japanese Unexamined Patent Publication No. 2016-7363

あらゆる仕組みが高度に複雑化する現代社会においては、ひとりの人物の作業のみで生み出せる成果には限界があり、自ずと複数名のチームによる協働型の仕事が多くなる。前述の感情推定技術においても、個人感情だけでなく、複数の人物の協働活動により醸成されるチーム感情を推定する方法の必要性が今後高まるだろう。 In a modern society where all mechanisms are highly complicated, there is a limit to the results that can be produced by the work of one person alone, and naturally there are many collaborative work by multiple teams. Even in the above-mentioned emotion estimation technology, there will be an increasing need for a method of estimating not only individual emotions but also team emotions cultivated by the collaborative activities of multiple people.

そこで、より精度の高いチーム感情を推定することが可能な技術が提供されることが求められている。 Therefore, it is required to provide a technique capable of estimating team emotions with higher accuracy.

上記問題を解決するために、本発明のある観点によれば、複数のユーザー間のコミュニケーション行動に対応する第1のセンサデータまたは前記コミュニケーション行動に関するユーザーを特定可能な情報を含んだ通信履歴データに基づいて、社会関係性を示す情報を生成する社会関係性情報管理部と、前記社会関係性を示す情報に基づいて、前記複数のユーザーの一部が選択された複数の対象ユーザーの各組み合わせに対応する重み付け係数を算出し、前記複数の対象ユーザーそれぞれの第2のセンサデータまたは前記第2のセンサデータに基づく情報と前記重み付け係数とに基づいて、チーム感情を推定するチーム感情推定部と、を備える、感情推定サーバが提供される。
In order to solve the above problem, according to a certain viewpoint of the present invention, the first sensor data corresponding to the communication behavior between a plurality of users or the communication history data including the user-identifiable information regarding the communication behavior Based on the social relationship information management unit that generates information indicating the social relationship, and each combination of the plurality of target users selected by a part of the plurality of users based on the information indicating the social relationship. A team emotion estimation unit that calculates the corresponding weighting coefficient and estimates the team emotion based on the second sensor data of each of the plurality of target users or the information based on the second sensor data and the weighting coefficient. An emotion estimation server is provided.

前記感情推定サーバは、前記複数の対象ユーザーそれぞれの第2のセンサデータに基づいて、対象ユーザーごとの個人感情を推定する個人感情推定部を備え、前記チーム感情推定部は、前記第2のセンサデータに基づく情報として前記個人感情を示す情報を得てもよい。
The emotion estimation server includes an individual emotion estimation unit that estimates individual emotions for each target user based on the second sensor data of each of the plurality of target users, and the team emotion estimation unit is the second sensor. Information indicating the personal feeling may be obtained as information based on the data.

前記チーム感情推定部は、前記第2のセンサデータに基づく情報として前記複数の対象ユーザーそれぞれの第2のセンサデータの特徴量データを得てもよい。
The team emotion estimation unit may obtain feature data of the second sensor data of each of the plurality of target users as information based on the second sensor data.

前記チーム感情推定部は、前記社会関係性を示す情報に基づいて重み付け係数を算出し、前記第2のセンサデータまたは前記第2のセンサデータに基づく情報と前記重み付け係数とに基づいて、前記チーム感情を推定してもよい。 The team emotion estimation unit calculates a weighting coefficient based on the information indicating the social relationship, and based on the second sensor data or the information based on the second sensor data and the weighting coefficient, the team Emotions may be estimated.

前記チーム感情推定部は、前記第2のセンサデータまたは前記第2のセンサデータに基づく情報に対して、前記重み付け係数によって重み付けを行い、当該重み付けがされたデータの平均値、中央値または最頻値を前記チーム感情として算出してもよい。 The team emotion estimation unit weights the second sensor data or information based on the second sensor data by the weighting coefficient, and the average value, median value, or mode of the weighted data. The value may be calculated as the team sentiment.

前記社会関係性情報管理部は、前記第1のセンサデータまたは前記通信履歴データに基づいて、社会ネットワーク情報を生成し、前記社会ネットワーク情報に基づいて、前記社会関係性を示す情報を生成してもよい。 The social relationship information management unit generates social network information based on the first sensor data or the communication history data, and generates information indicating the social relationship based on the social network information. May be good.

前記社会ネットワーク情報は、前記複数のユーザーそれぞれについて関係性を有する他のユーザーの数を示す次数を含み、前記社会関係性情報管理部は、前記次数に基づいて前記社会関係性を示す情報を生成してもよい。 The social network information includes a degree indicating the number of other users having a relationship with each of the plurality of users, and the social relationship information management unit generates information indicating the social relationship based on the order. You may.

前記社会ネットワーク情報は、前記複数のユーザーの二者間の関係性の強度を含み、前記社会関係性情報管理部は、前記強度に基づいて前記社会関係性を示す情報を生成してもよい。 The social network information includes the strength of the relationship between the two of the plurality of users, and the social relationship information management unit may generate information indicating the social relationship based on the strength.

前記社会ネットワーク情報は、前記複数のユーザーの関係性を表した社会ネットワークのクラスター係数を含み、前記社会関係性情報管理部は、前記クラスター係数に基づいて前記社会関係性を示す情報を生成してもよい。 The social network information includes a cluster coefficient of a social network representing the relationship between the plurality of users, and the social relationship information management unit generates information indicating the social relationship based on the cluster coefficient. May be good.

また、本発明の他の観点によれば、複数のユーザー間のコミュニケーション行動に対応する第1のセンサデータまたは前記コミュニケーション行動に関するユーザーを特定可能な情報を含んだ通信履歴データに基づいて、社会関係性を示す情報を生成することと、前記社会関係性を示す情報に基づいて、前記複数のユーザーの一部が選択された複数の対象ユーザーの各組み合わせに対応する重み付け係数を算出し、前記複数の対象ユーザーそれぞれの第2のセンサデータまたは前記第2のセンサデータに基づく情報と前記重み付け係数とに基づいて、チーム感情を推定することと、を含む、感情推定方法が提供される。
Further, according to another aspect of the present invention, the social relationship is based on the first sensor data corresponding to the communication behavior between a plurality of users or the communication history data including the information that can identify the user regarding the communication behavior. Based on the information indicating the sex and the information indicating the social relationship, a part of the plurality of users calculates the weighting coefficient corresponding to each combination of the selected plurality of target users, and the plurality of users. Provided is an emotion estimation method including estimating team emotions based on the second sensor data of each of the target users or the information based on the second sensor data and the weighting coefficient.

また、本発明の他の観点によれば、複数のユーザー間のコミュニケーション行動に対応する第1のセンサデータまたは前記コミュニケーション行動に関するユーザーを特定可能な情報を含んだ通信履歴データに基づいて生成された社会関係性を示す情報に基づいて算出された前記複数のユーザーの一部が選択された複数の対象ユーザーの各組み合わせに対応する重み付け係数と、前記複数の対象ユーザーそれぞれの第2のセンサデータまたは前記第2のセンサデータに基づく情報とに基づいて、推定されたチーム感情を示す情報を提示する提示部、を備える、提示装置が提供される。
Further, according to another aspect of the present invention, it is generated based on the first sensor data corresponding to the communication behavior between a plurality of users or the communication history data including the information that can identify the user regarding the communication behavior. A weighting coefficient corresponding to each combination of the plurality of target users selected by some of the plurality of target users calculated based on the information indicating the social relationship, and the second sensor data of each of the plurality of target users or A presentation device is provided that includes a presentation unit that presents information indicating an estimated team sentiment based on the information based on the second sensor data.

前記提示部は、複数のチームそれぞれのチーム感情を示す情報を、チーム同士のつながりが強いほど近い領域に提示してもよい。 The presentation unit may present information indicating the team emotions of each of the plurality of teams in a region closer to each other as the connection between the teams is stronger.

前記提示部は、前記チーム感情を示す情報と前記複数の対象ユーザーそれぞれの個人感情とを感情のカテゴリごとに提示してもよい。
The presenting unit may present information indicating the team emotion and individual emotions of each of the plurality of target users for each emotion category.

また、本発明の他の観点によれば、複数のユーザー間のコミュニケーション行動に対応する第1のセンサデータまたは前記コミュニケーション行動に関するユーザーを特定可能な情報を含んだ通信履歴データに基づいて、社会関係性を示す情報を生成する社会関係性情報管理部と、前記社会関係性を示す情報に基づいて、前記複数のユーザーの一部が選択された複数の対象ユーザーの各組み合わせに対応する重み付け係数を算出し、前記複数の対象ユーザーそれぞれの第2のセンサデータまたは前記第2のセンサデータに基づく情報と前記重み付け係数とに基づいて、チーム感情を推定するチーム感情推定部と、を備える、感情推定サーバと、前記チーム感情を示す情報を提示する提示部、を備える提示装置と、を有する、感情推定システムが提供される。 Further, according to another aspect of the present invention, the social relationship is based on the first sensor data corresponding to the communication behavior between a plurality of users or the communication history data including the information that can identify the user regarding the communication behavior. A social relationship information management unit that generates information indicating sex, and a weighting coefficient corresponding to each combination of a plurality of target users selected by a part of the plurality of users based on the information indicating the social relationship. Emotion estimation including a team emotion estimation unit that calculates and estimates team emotions based on the second sensor data of each of the plurality of target users or information based on the second sensor data and the weighting coefficient. An emotion estimation system is provided that includes a server and a presentation device including a presentation unit that presents information indicating the team emotion.

以上説明したように本発明によれば、より精度の高いチーム感情を推定することが可能な技術が提供されることが可能となる。 As described above, according to the present invention, it is possible to provide a technique capable of estimating team emotions with higher accuracy.

本実施形態に係る感情推定システムの概略的な構成の一例を示す説明図である。It is explanatory drawing which shows an example of the schematic structure of the emotion estimation system which concerns on this embodiment. 同実施形態に係る感情推定サーバ、PBX、センサ端末、情報提示端末のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware configuration of the emotion estimation server, PBX, a sensor terminal, and an information presentation terminal which concerns on this embodiment. 同実施形態に係るPBXの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of PBX which concerns on the same embodiment. 同実施形態に係る感情推定サーバの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the emotion estimation server which concerns on the same embodiment. 同実施形態に係る情報提示端末の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the information presenting terminal which concerns on this embodiment. 抽象化された社会ネットワークの一例を示す説明図である。It is explanatory drawing which shows an example of the abstracted social network. 抽象化された社会ネットワークの一例を示す説明図である。It is explanatory drawing which shows an example of the abstracted social network. 抽象化された社会ネットワークの一例を示す説明図である。It is explanatory drawing which shows an example of the abstracted social network. ユーザー間におけるコミュニケーション行動に基づく社会関係性を示す情報の一例を示す説明図である。It is explanatory drawing which shows an example of the information which shows the social relationship based on the communication behavior among users. ある組織における個人感情を示す情報とチーム感情を示す情報の一例を示す説明図である。It is explanatory drawing which shows an example of the information which shows the individual feeling and the information which shows the team feeling in a certain organization. 情報提示端末のアプリケーション画面の一例を示す説明図である。It is explanatory drawing which shows an example of the application screen of an information presenting terminal. 同実施形態に係る感情推定システムの情報処理の概略的な流れの一例を示すフロー図である。It is a flow chart which shows an example of the schematic flow of the information processing of the emotion estimation system which concerns on this embodiment.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

また、本明細書及び図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in the present specification and the drawings, a plurality of components having substantially the same or similar functional configurations are distinguished by adding different alphabets after the same reference numerals. However, if it is not necessary to distinguish each of the plurality of components having substantially the same or similar functional configurations, only the same reference numerals are given.

まず、前述の特許文献2の課題について説明する。前述の特許文献2は、個人感情から集団の感情情報を推定する方法について説明しているが、下記に述べる二点の大きな課題を有している。 First, the above-mentioned problems of Patent Document 2 will be described. The above-mentioned Patent Document 2 describes a method of estimating group emotional information from individual emotions, but has two major problems described below.

一点目の課題は、特許文献2が、感情を推定する対象となる集団の構成人物をどのように規定・選定するかについての説明をまったく行っていない点である。たとえば、所属人員が数千名や数万名にも上るような巨大組織においては、同じ組織に所属しているとはいっても日常においては接点がなく名前も顔も知らない人物の数の方が顔見知りである数よりもはるかに多いであろう。そのような交流のない人物同士について集団の感情を合わせて算出したとしても、そのチーム感情を示す情報は(当該人物同士はチームではないため)ほとんど意味を持たないであろう。 The first problem is that Patent Document 2 does not explain at all how to define and select the constituent persons of the group for which emotions are estimated. For example, in a huge organization with thousands or tens of thousands of people, the number of people who belong to the same organization but have no contact in daily life and do not know their names or faces. Would be far more than the number of acquaintances. Even if the group's emotions are combined and calculated for people who do not interact with each other, the information indicating the team's emotions will have little meaning (because the persons are not a team).

二点目の課題は、特許文献2が、集団の感情を算出する際に当該集団の構成人員間の「社会関係性」を影響要素に入れた推定処理を行う旨の説明を行っていない点である。たとえば、数十から数百名にも上る関係者が同時に関わるような大きな業務プロジェクトにおいては、協働関係といっても、同じチーム内の同僚で毎日共同作業を行うような強い社会関係性もあれば、所属部署が異なり月に数える程の接点しか持たないような弱い社会関係性もあるだろう。当然、前者の強い社会関係性を持った人物同士の方が、後者の弱い社会関係性である場合よりもチーム感情において人物同士がお互いに及ぼす影響は大きくなり、チーム感情の推定においてもその影響度を大きく設定されることが推定精度の向上に寄与すると考えられる。特許文献2には、センサデータの特徴情報が抽出された時間や場所の情報を集団の感情算出の重み付けに用いる方法に関する説明はあるが、上述の社会関係性への言及やそれを推定処理に用いる旨の記載はない。 The second problem is that Patent Document 2 does not explain that when calculating the emotions of a group, the estimation process is performed with the "social relationship" between the members of the group as an influential factor. Is. For example, in a large business project in which dozens to hundreds of people are involved at the same time, even if it is a collaborative relationship, there is also a strong social relationship in which colleagues in the same team collaborate every day. If so, there may be a weak social relationship in which the departments to which they belong are different and they have only a few points of contact each month. Naturally, the former person with a strong social relationship has a greater influence on each other in team emotions than the latter case with a weak social relationship, and the influence on the estimation of team emotions. It is considered that setting a large degree contributes to the improvement of estimation accuracy. Patent Document 2 describes a method of using the time and place information from which the characteristic information of the sensor data is extracted for weighting the emotion calculation of the group, but the above-mentioned reference to the social relationship and its estimation processing There is no description to use it.

チーム感情の推定技術に関して、特許文献2が有する上記二点の課題を解決するためには、集団のチーム感情の要素となる構成人物が互いに社会関係性を有するか否か、さらに、当該社会関係性の強さ、の情報を推定システムがチーム感情の推定処理に用いる仕組みが必要である。 In order to solve the above two problems of Patent Document 2 with respect to the team emotion estimation technique, whether or not the constituent persons who are the elements of the team emotion of the group have a social relationship with each other, and further, the social relationship. There is a need for a mechanism in which the estimation system uses information on sexual strength to estimate team emotions.

そこで、本発明は、個人感情に基づく「チーム感情」の推定処理に係る技術に関するものであり、チームの要素となる集団の構成人物の選定及びチーム感情算出の際の重み付けを当該構成人物間の「社会関係性」の有無及びその強さに基づいて処理することで精度の高いチーム感情を算出できる感情推定システムを実現させるものであって、さらに、当該社会関係性は、当該構成人物間で日常的に発生しているコミュニケーション行動のセンサデータやコミュニケーション支援機能サーバの通信履歴データから当該システムの「社会関係性情報管理部」が算出する「社会ネットワーク」情報のデータに基づき推定演算用のパラメータデータに変換されて当該チーム感情が推定されることを特徴とするチーム感情推定システムを提供することを目的とする。 Therefore, the present invention relates to a technique related to an estimation process of "team emotion" based on individual emotions, and weights are weighted between the constituent persons in the selection of the constituent persons of the group which are the elements of the team and the calculation of the team emotions. It realizes an emotion estimation system that can calculate highly accurate team emotions by processing based on the existence and strength of "social relations", and further, the social relations are among the constituent persons. Parameters for estimation calculation based on the data of "social network" information calculated by the "social relationship information management department" of the system from the sensor data of communication behavior that occurs on a daily basis and the communication history data of the communication support function server. It is an object of the present invention to provide a team emotion estimation system characterized in that the team emotion is estimated by being converted into data.

特に、本発明は、日常のコミュニケーション行動に基づく「インフォーマル」(informal)な社会関係性を示す情報を利用する点が特徴となる。 In particular, the present invention is characterized in that it uses information indicating "informal" social relationships based on daily communication behavior.

続いて、図1を参照して、本発明の実施形態に係るチーム感情推定システム(以下「感情推定システム」)の概略的な構成を説明する。 Subsequently, with reference to FIG. 1, a schematic configuration of a team emotion estimation system (hereinafter, “emotion estimation system”) according to the embodiment of the present invention will be described.

図1は、本実施形態に係る感情推定システムの概略的な構成の一例を示す説明図である。図1を参照すると、当感情推定システムは、感情推定サーバ100、PBX300、複数のユーザー900、複数のセンサ端末200、提示装置(以下「情報提示端末」とも言う。)400、LAN(Local Area Network)50を含む。 FIG. 1 is an explanatory diagram showing an example of a schematic configuration of an emotion estimation system according to the present embodiment. Referring to FIG. 1, the emotion estimation system includes an emotion estimation server 100, a PBX 300, a plurality of users 900, a plurality of sensor terminals 200, a presenting device (hereinafter, also referred to as an “information presenting terminal”) 400, and a LAN (Local Area Network). ) 50 is included.

PBX300は、当感情推定システムのために新たに用意されなくてよい。PBX300としては、たとえば社内イントラネットワーク上(もしくはクラウドネットワーク上)に存在する既存の社内情報基盤上にある、PBX(Private Branch eXchange)等のコミュニケーション支援機能やスケジューラ機能を有する既存のサーバ設備が利用されてもよい。 The PBX 300 does not have to be newly prepared for this emotion estimation system. As the PBX300, for example, an existing server facility having a communication support function and a scheduler function such as PBX (Private Branch eXchange) on an existing in-house information infrastructure existing on the in-house intra-network (or on the cloud network) is used. You may.

複数のユーザー900は、互いに社会関係性を有する(詳細は後述)。 The plurality of users 900 have a social relationship with each other (details will be described later).

図2は、本実施形態に係る感情推定サーバ100、PBX300、センサ端末200、情報提示端末400(以下、感情推定サーバ100、PBX300、センサ端末200及び情報提示端末400それぞれを区別せずに「本実施形態に係る装置」と言う場合がある。)のハードウェア構成の一例を示すブロック図である。なお、上記の各装置のすべてに下記のハードウェア構成のすべてが備えられている必要はなく(たとえば感情推定サーバ100に直接的にセンサが備えられている必要はない)、後述する各装置の機能構成を実現できるハードウェアモジュールが適宜限定して備えられてもよい。 FIG. 2 shows the "book" without distinguishing each of the emotion estimation server 100, PBX 300, sensor terminal 200, and information presentation terminal 400 (hereinafter, emotion estimation server 100, PBX 300, sensor terminal 200, and information presentation terminal 400) according to the present embodiment. It is a block diagram which shows an example of the hardware structure of (the device which concerns on embodiment"). It should be noted that it is not necessary for all of the above devices to be equipped with all of the following hardware configurations (for example, the emotion estimation server 100 does not need to be directly equipped with a sensor), and for each device described later. A hardware module capable of realizing a functional configuration may be provided with an appropriate limitation.

図2を参照すると、本実施形態に係る装置は、バス801、CPU(Central Processing Unit)803、ROM(Read Only
Memory)805、RAM(Random Access Memory)807、記憶装置809、通信インタフェース811、センサ813、入力装置815、表示装置817、スピーカ819を備える。
Referring to FIG. 2, the apparatus according to the present embodiment includes a bus 801 and a CPU (Central Processing Unit) 803, and a ROM (Read Only).
It includes a Memory) 805, a RAM (Random Access Memory) 807, a storage device 809, a communication interface 811 and a sensor 813, an input device 815, a display device 817, and a speaker 819.

CPU803は、本実施形態に係る装置における様々な処理を実行する。また、ROM805は、本実施形態に係る装置における処理をCPU803に実行させるためのプログラム及びデータを記憶する。また、RAM807は、CPU803の処理の実行時に、プログラム及びデータを一時的に記憶する。 The CPU 803 executes various processes in the apparatus according to the present embodiment. Further, the ROM 805 stores a program and data for causing the CPU 803 to execute the processing in the apparatus according to the present embodiment. Further, the RAM 807 temporarily stores the program and the data when the processing of the CPU 803 is executed.

バス801は、CPU803、ROM805及びRAM807を相互に接続する。バス801には、さらに、記憶装置809、通信インタフェース811、センサ813、入力装置815、表示装置817及びスピーカ819が接続される。バス801は、例えば、複数の種類のバスを含む。 The bus 801 connects the CPU 803, the ROM 805, and the RAM 807 to each other. A storage device 809, a communication interface 811, a sensor 813, an input device 815, a display device 817, and a speaker 819 are further connected to the bus 801. Bus 801 includes, for example, a plurality of types of buses.

一例として、バス801は、CPU803、ROM805及びRAM807を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含む。 As an example, bus 801 includes a high-speed bus connecting the CPU 803, ROM 805, and RAM 807, and one or more other buses slower than the high-speed bus.

記憶装置809は、本実施形態に係る装置内で一時的または恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、または、EEPROM(Electrically
Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash
memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase
change Random Access Memory)等の不揮発性メモリ(nonvolatile
memory)であってもよい。
The storage device 809 stores data to be temporarily or permanently stored in the device according to the present embodiment. The storage device 809 may be, for example, a magnetic storage device such as a hard disk, or an EEPROM (Electrically).
Erasable and Programmable Read Only Memory, flash memory
memory), MRAM (Magnetoresistive Random Access Memory), FeRAM (Ferroelectric Random Access Memory) and PRAM (Phase)
Nonvolatile memory (nonvolatile) such as change Random Access Memory)
memory) may be used.

通信インタフェース811は、本実施形態に係る装置が備える通信手段であり、ネットワークを介して(あるいは直接的に)外部装置と通信する。通信インタフェース811は、無線通信用のインタフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インタフェース811は、有線通信用のインタフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。 The communication interface 811 is a communication means included in the device according to the present embodiment, and communicates with an external device via a network (or directly). The communication interface 811 may be an interface for wireless communication, and in this case, for example, a communication antenna, an RF circuit, and other circuits for communication processing may be included. Further, the communication interface 811 may be an interface for wired communication, and in this case, for example, a LAN terminal, a transmission circuit, and other circuits for communication processing may be included.

センサ813は、たとえばカメラ、マイクロフォン、その他のセンサまたはそれらの複合である。カメラは、被写体を撮像するもので、例えば光学系、撮像素子及び画像処理回路を含む。マイクロフォンは、周囲の音を収音するもので、当該音を電気信号へ変換し当該電気信号をデジタルデータに変換する。 Sensor 813 is, for example, a camera, microphone, other sensor, or a combination thereof. The camera captures a subject and includes, for example, an optical system, an image sensor, and an image processing circuit. A microphone picks up ambient sound, converts the sound into an electric signal, and converts the electric signal into digital data.

入力装置815は、タッチパネル、マウス、視線検出装置等である。表示装置817は、本実施形態に係る装置からの出力画像(すなわち表示画面)を表示するもので、例えば液晶、有機EL(Organic Light-Emitting Diode)、CRT(Cathode
Ray Tube)等を用いて実現され得る。スピーカ819は、音声を出力するもので、デジタルデータを電気信号に変換し当該電気信号を音声に変換する。
The input device 815 is a touch panel, a mouse, a line-of-sight detection device, and the like. The display device 817 displays an output image (that is, a display screen) from the device according to the present embodiment, and is, for example, a liquid crystal display, an organic EL (Organic Light-Emitting Diode), or a CRT (Cathode).
It can be realized by using Ray Tube) or the like. The speaker 819 outputs voice, converts digital data into an electric signal, and converts the electric signal into voice.

次に、本実施形態に係る「センサ端末200」の機能構成の一例を説明する。 Next, an example of the functional configuration of the "sensor terminal 200" according to the present embodiment will be described.

センサ端末200は、ユーザー900の行動や生理反応を外的に計測し、該計測により取得したデータを、後述する感情推定サーバ100へ送信する。センサ端末200が有するセンサ813と計測する行動や生理反応のデータは、たとえば、カメラにより計測される顔表情や身体姿勢の状態内容を含む画像データ、マイクロフォンにより計測される音声データ、加速度センサにより計測される身体動作の加速度データ、キーボード・マウス・タッチパネル等の入力装置により計測される機器操作データ、各種生体センサにより計測される自律神経系活動(心拍活動、皮膚電気活動、血圧、発汗、呼吸、皮膚・深部体温等)のデータ、中枢神経系活動(脳波、脳血流等)のデータ、視線計測装置により計測される視線運動・瞳孔径・瞬目数等のデータを含む。 The sensor terminal 200 externally measures the behavior and physiological reaction of the user 900, and transmits the data acquired by the measurement to the emotion estimation server 100 described later. The behavioral and physiological reaction data measured by the sensor terminal 200 and the sensor 813 are, for example, image data including facial expressions and body posture state contents measured by a camera, voice data measured by a microphone, and measurement by an acceleration sensor. Acceleration data of body movements, device operation data measured by input devices such as keyboards, mice, and touch panels, and autonomic nervous system activity (heartbeat activity, skin electrical activity, blood pressure, sweating, breathing, etc.) measured by various biosensors. Includes data on skin / core body temperature, etc.), data on central nervous system activity (brain waves, cerebral blood flow, etc.), and data on line-of-sight movement, pupil diameter, number of blinks, etc. measured by a line-of-sight measuring device.

センサ端末200のセンサはユーザーへの非接触式でも接触式でもよい。センサ端末200のセンサが接触式の場合、たとえばセンサ端末200は腕時計等の形状をしたウェアラブル端末であっても構わない。また、センサ端末200は、カメラ、マイクロフォン、加速度センサ、通信部等を備えたスマートフォン端末であっても構わない。なお、センサ端末200は1名のユーザー900に対応して1台存在するように図1では図示されている。しかし、1台のセンサ端末200が複数のユーザー900のセンサデータを取得しても構わない。その場合、センサ端末200は複数のユーザー900それぞれについてセンサデータと計測対象人物の識別データとの1対1対応の紐づけ処理を行って、センサデータと計測対象人物の識別データとの各組み合わせを記憶または送信する。計測対象人物の識別データは、どのようにして得られてもよく、一例として、カメラによる撮像画像から顔認識によって特定される人物の識別データであってもよい。 The sensor of the sensor terminal 200 may be a non-contact type or a contact type to the user. When the sensor of the sensor terminal 200 is a contact type, for example, the sensor terminal 200 may be a wearable terminal in the shape of a wristwatch or the like. Further, the sensor terminal 200 may be a smartphone terminal including a camera, a microphone, an acceleration sensor, a communication unit, and the like. It should be noted that the sensor terminal 200 is shown in FIG. 1 so that there is one sensor terminal 200 corresponding to one user 900. However, one sensor terminal 200 may acquire sensor data of a plurality of users 900. In that case, the sensor terminal 200 performs a one-to-one correspondence process of the sensor data and the identification data of the measurement target person for each of the plurality of users 900, and obtains each combination of the sensor data and the identification data of the measurement target person. Remember or send. The identification data of the person to be measured may be obtained in any way, and as an example, it may be identification data of a person identified by face recognition from an image captured by a camera.

さらに、センサ端末200は、ユーザー900が他のユーザー900と行うコミュニケーション行動に対応するセンサデータを計測する。該コミュニケーション行動とは、たとえば対面での会話行動である。該コミュニケーション行動をセンシングするために、センサ端末200は、あるユーザー900の周囲環境の変動に関する情報、たとえばユーザー900の周囲での音声の発生や継続、他の人物の接近/離脱や滞在、ユーザーの身体姿勢の変化や場所移動等を検出することができる。それらは、前述のようにセンサ端末200がハードウェアとして備えるセンサ813のマイクロフォン、カメラ、加速度センサ等によって実現され得る。 Further, the sensor terminal 200 measures sensor data corresponding to a communication action performed by the user 900 with another user 900. The communication behavior is, for example, a face-to-face conversation behavior. In order to sense the communication behavior, the sensor terminal 200 uses information on changes in the surrounding environment of a user 900, such as generation and continuation of voice around the user 900, approach / detachment and stay of another person, and user's. It is possible to detect changes in body posture, movement of places, and the like. These can be realized by a microphone, a camera, an acceleration sensor, or the like of the sensor 813 provided as hardware in the sensor terminal 200 as described above.

また、センサ端末200は、ハードウェアとして赤外線送受信器、WiFi(登録商標)やGPS(Global Positioning System)等の無線通信器を備えていてもよい。それらハードウェアの機能により、複数のユーザー900それぞれが身体に装着するセンサ端末200同士の通信に基づいて、複数のユーザー900同士の身体の相互位置や向きの関係性を示す情報が取得され得る。 Further, the sensor terminal 200 may be provided with an infrared transmitter / receiver, a wireless communication device such as WiFi (registered trademark) or GPS (Global Positioning System) as hardware. With these hardware functions, information indicating the relationship between the mutual positions and orientations of the bodies of the plurality of users 900 can be acquired based on the communication between the sensor terminals 200 worn by the plurality of users 900 on their bodies.

まとめると、コミュニケーション行動に対応するセンサデータとは、誰が、誰と、いつ、どこで、どのような身体の相互位置や向きや会話音量でコミュニケーション行動をとったかの情報に対応する電子データを含む。具体例として、コミュニケーション行動に対応するセンサデータは「ユーザー900Aが、ユーザー900Bと、20XX年XX月XX日XX時XX分からYY時YY分まで、4階の通路Vで、立位正対の状態で」会話するコミュニケーション行動をとった、といった行動のセンサデータである。 In summary, the sensor data corresponding to the communication behavior includes electronic data corresponding to information on who, who, when, where, and what kind of body position and orientation and conversation volume were used for the communication behavior. As a specific example, the sensor data corresponding to the communication behavior is "User 900A and user 900B are standing in front of each other in the passage V on the 4th floor from XX hours XX minutes to XY hours YY minutes on XX days in 20XX years. It is sensor data of behavior such as taking a communication action to talk.

なお、複数のユーザー900同士が実際に会話等を行っていなくてもよい。たとえば、周辺視や物音などで周囲他者の雰囲気や状況を感じ取っているユーザーの状態(アウェアネス認知状態)が広義のコミュニケーション行動のひとつとみなされてもよい。その場合、センサ端末200は、たとえば数時間に渡るような長時間の継時的行動データをコミュニケーション行動に対応するセンサデータとしてもよい。 It should be noted that the plurality of users 900 may not actually have a conversation or the like. For example, the state of a user (awareness cognitive state) who senses the atmosphere and situation of others around him through peripheral vision and noise may be regarded as one of communication behaviors in a broad sense. In that case, the sensor terminal 200 may use long-term time-lapse behavior data, for example, over several hours, as sensor data corresponding to the communication behavior.

また、センサ端末200は、計測したデータを一時的に保存するための記憶部を備えていてもよい。また、センサ端末200は、計測だけでなく簡易な解析までを実施してもよいため、解析演算用の制御部を備えていてもよい。また、センサ端末200は、計測または簡易解析済みのデータを感情推定サーバ100へ送信するための通信部を備えていてもよい。なお、前記記憶部は記憶装置809により、前記制御部はCPU803、ROM805及びRAM807により、前記通信部は通信インタフェース811により実装され得る。 Further, the sensor terminal 200 may include a storage unit for temporarily storing the measured data. Further, since the sensor terminal 200 may perform not only measurement but also simple analysis, it may be provided with a control unit for analysis calculation. Further, the sensor terminal 200 may include a communication unit for transmitting the measured or simple-analyzed data to the emotion estimation server 100. The storage unit may be mounted by the storage device 809, the control unit may be mounted by the CPU 803, ROM 805 and RAM 807, and the communication unit may be mounted by the communication interface 811.

次に、図3を参照して、本実施形態に係る「PBX300」の機能構成の一例を説明する。 Next, an example of the functional configuration of the “PBX300” according to the present embodiment will be described with reference to FIG.

図3は、本実施形態に係るPBX300の機能構成の一例を示すブロック図である。図3を参照すると、PBX300は、通信部310、記憶部320及び制御部330を備える。PBX300は、各種コミュニケーションツールを用いたユーザー900間のデータ通信を支援する。該各種コミュニケーションツールは、たとえば、IP(Internet Protocol)電話、Web会議、アプリケーション共有、グループウェア、電子メール、チャット、インスタントメッセージ、社内SNS(Social Networking Service)等である。前述のように、PBX300は、当感情推定システムのために新たに用意されなくてよい。PBX300としては、当感情推定システムを利用するユーザーまたは組織がすでに有しているPBXやSIP(Session Initiation Protocol)サーバ等のコミュニケーション支援機能やスケジューラ機能を有する既存のサーバ設備が利用されてもよい。 FIG. 3 is a block diagram showing an example of the functional configuration of the PBX 300 according to the present embodiment. Referring to FIG. 3, the PBX 300 includes a communication unit 310, a storage unit 320, and a control unit 330. The PBX 300 supports data communication between users 900 using various communication tools. The various communication tools include, for example, IP (Internet Protocol) telephone, Web conferencing, application sharing, groupware, e-mail, chat, instant messaging, and in-house SNS (Social Networking Service). As mentioned above, the PBX 300 does not have to be newly prepared for this emotion estimation system. As the PBX 300, an existing server facility having a communication support function or a scheduler function such as a PBX or SIP (Session Initiation Protocol) server already owned by a user or an organization using this emotion estimation system may be used.

通信部310は、他の装置と通信する。たとえば、通信部310は、LAN50に直接的に接続され、前述のセンサ端末200や後述する感情推定サーバ100と通信する。さらに、通信部310は、前述のコミュニケーション支援機能を実現するために、ユーザー900が用いる各種コミュニケーションツールや通信機器(PCやスマートフォン)と通信する。なお、通信部310は、通信インタフェース811により実装され得る。 The communication unit 310 communicates with another device. For example, the communication unit 310 is directly connected to the LAN 50 and communicates with the sensor terminal 200 described above and the emotion estimation server 100 described later. Further, the communication unit 310 communicates with various communication tools and communication devices (PCs and smartphones) used by the user 900 in order to realize the above-mentioned communication support function. The communication unit 310 may be implemented by the communication interface 811.

記憶部320は、前述のコミュニケーション支援機能やスケジューラ機能の動作に関する通信履歴データを記憶する。該通信履歴データは、PBX300を介して行われたコミュニケーション行動に関する情報、たとえば、誰が、誰と、いつ、どこで、どのようなツールを用いて、どのような内容の、コミュニケーション行動をとったかを示す電子データを含む。具体例として、通信履歴データは、「ユーザー900Aが、ユーザー900Bと、20XX年XX月XX日XX時XX分からYY時YY分まで、自席で、IP電話を使って、テーマZZZに関する内容の」コミュニケーション行動を、PBX300を介して行った、といった利用の通信履歴を示す電子データである。 The storage unit 320 stores communication history data related to the operation of the above-mentioned communication support function and scheduler function. The communication history data indicates information on the communication action performed via the PBX300, for example, who, who, when, where, what kind of tool was used, and what kind of communication action was taken. Includes electronic data. As a specific example, the communication history data is "a user 900A and a user 900B, 20XX year XX month XX day XX hour XX minute to YY hour YY minute, at their own seat, using an IP phone, content related to the theme ZZZ" communication. It is electronic data showing the communication history of use such as the action being performed via the PBX300.

また別の例として、該通信履歴データは、スケジューラツールによりPBX300自体もしくはPBX300を経由してクラウド上に記録されたスケジュール情報、たとえば、誰が、誰と、いつ、どこで、どのような内容の、コミュニケーションに関する予定を入れていたかの電子データを含む。具体例としては、「ユーザー900Aのスケジュールであって、ユーザー900Bと、20XX年XX月XX日XX時XX分からYY時YY分まで、W会議室で、テーマZZZに関する内容の」打合せを行う予定である、といったスケジュール記録の通信履歴を示す電子データである。 As another example, the communication history data is communication of schedule information recorded on the cloud by the scheduler tool via the PBX300 itself or the PBX300, for example, who, who, when, where, what kind of content. Includes electronic data as to what was planned for. As a specific example, we are planning to hold a meeting with user 900B on the schedule of user 900A from XX hours XX minutes to YY hours YY minutes on XX days of 20XX in the W conference room. It is electronic data indicating the communication history of the schedule record such as "yes".

上記の通信履歴データを利用して、後述する感情推定サーバ100は、ユーザー900間の、PBX300の通信を介した電子的なコミュニケーション行動に関する情報と、ユーザー900のスケジューラツール入力によりPBX300に記録されたスケジュール情報との少なくともいずれか一方に基づいて、コミュニケーション行動を把握することができる。なお、記憶部320は、記憶装置809により実装され得る。 Using the above communication history data, the emotion estimation server 100 described later is recorded in the PBX 300 by the information regarding the electronic communication behavior between the users 900 via the communication of the PBX 300 and the scheduler tool input of the user 900. Communication behavior can be grasped based on at least one of the schedule information. The storage unit 320 may be mounted by the storage device 809.

制御部330は、PBX300の様々な機能を提供する。また、制御部330は、通信部310を介して、他の通信装置、たとえば感情推定サーバ100からの要求に応じて、上述の記憶部320に記憶された通信履歴データを該通信装置へ送信する機能を有する。なお、制御部330は、CPU803、ROM805及びRAM807により実装され得る。 The control unit 330 provides various functions of the PBX 300. Further, the control unit 330 transmits the communication history data stored in the above-mentioned storage unit 320 to the communication device via the communication unit 310 in response to a request from another communication device, for example, the emotion estimation server 100. Has a function. The control unit 330 may be mounted by the CPU 803, the ROM 805, and the RAM 807.

次に、図4を参照して、本実施形態に係る「感情推定サーバ100」の機能構成の一例を説明する。図4は、本実施形態に係る感情推定サーバ100の機能構成の一例を示すブロック図である。図4を参照すると、感情推定サーバ100は、通信部110、記憶部120及び制御部130を備える。 Next, an example of the functional configuration of the “emotion estimation server 100” according to the present embodiment will be described with reference to FIG. FIG. 4 is a block diagram showing an example of the functional configuration of the emotion estimation server 100 according to the present embodiment. Referring to FIG. 4, the emotion estimation server 100 includes a communication unit 110, a storage unit 120, and a control unit 130.

通信部110は、他の装置と通信する。たとえば、通信部110は、LAN50に直接的に接続され、センサ端末200やPBX300と通信する。なお、通信部110は、通信インタフェース811により実装され得る。 The communication unit 110 communicates with another device. For example, the communication unit 110 is directly connected to the LAN 50 and communicates with the sensor terminal 200 and the PBX 300. The communication unit 110 may be implemented by the communication interface 811.

記憶部120は、感情推定サーバ100の動作のためのプログラム及びデータを記憶する。なお、記憶部120は、記憶装置809により実装され得る。 The storage unit 120 stores programs and data for the operation of the emotion estimation server 100. The storage unit 120 may be mounted by the storage device 809.

制御部130は、感情推定サーバ100の様々な機能を提供する。制御部130は、個人感情推定部131、社会関係性情報管理部133及びチーム感情推定部135を含む。なお、制御部130は、CPU803、ROM805及びRAM807により実装され得る。個人感情推定部131、社会関係性情報管理部133及びチーム感情推定部135それぞれの機能については、後に説明する。 The control unit 130 provides various functions of the emotion estimation server 100. The control unit 130 includes an individual emotion estimation unit 131, a social relationship information management unit 133, and a team emotion estimation unit 135. The control unit 130 may be mounted by the CPU 803, the ROM 805, and the RAM 807. The functions of the individual emotion estimation unit 131, the social relationship information management unit 133, and the team emotion estimation unit 135 will be described later.

次に、図5を参照して、本実施形態に係る「情報提示端末400」の機能構成の一例を説明する。図5は、本実施形態に係る情報提示端末400の機能構成の一例を示すブロック図である。図5を参照すると、情報提示端末400は、通信部410、記憶部420、制御部430、操作部440及び提示部450を備える。 Next, an example of the functional configuration of the "information presentation terminal 400" according to the present embodiment will be described with reference to FIG. FIG. 5 is a block diagram showing an example of the functional configuration of the information presentation terminal 400 according to the present embodiment. Referring to FIG. 5, the information presenting terminal 400 includes a communication unit 410, a storage unit 420, a control unit 430, an operation unit 440, and a presentation unit 450.

通信部410は、他の装置と通信する。たとえば、通信部410は、LAN50に直接的に接続され、感情推定サーバ100と通信する。たとえば、通信部410は、感情推定サーバ100からチーム感情を示す情報を取得する。なお、通信部410は、通信インタフェース811により実装され得る。 The communication unit 410 communicates with another device. For example, the communication unit 410 is directly connected to the LAN 50 and communicates with the emotion estimation server 100. For example, the communication unit 410 acquires information indicating team emotions from the emotion estimation server 100. The communication unit 410 may be implemented by the communication interface 811.

記憶部420は、情報提示端末400の動作のためのプログラム及びデータを記憶する。たとえば、記憶部420は、通信部410によって感情推定サーバ100から取得されたチーム感情を示す情報を一時的に保存する。なお、記憶部420は、記憶装置809により実装され得る。 The storage unit 420 stores programs and data for the operation of the information presenting terminal 400. For example, the storage unit 420 temporarily stores information indicating team emotions acquired from the emotion estimation server 100 by the communication unit 410. The storage unit 420 may be mounted by the storage device 809.

制御部430は、情報提示端末400の様々な機能を提供する。たとえば、制御部430は、チーム感情を示す情報を可視化し、チーム感情を示す情報が提示部450によって提示されるように提示部450を制御する。なお、制御部430は、CPU803、ROM805及びRAM807により実装され得る。 The control unit 430 provides various functions of the information presentation terminal 400. For example, the control unit 430 visualizes the information indicating the team emotion, and controls the presentation unit 450 so that the information indicating the team emotion is presented by the presentation unit 450. The control unit 430 may be mounted by the CPU 803, the ROM 805, and the RAM 807.

操作部440は、ユーザーから入力される操作を受け付ける。操作部440は、受け付けた操作を制御部430に出力すると、操作は、制御部430による各種動作に利用される。なお、操作部440は、入力装置815により実装され得る。 The operation unit 440 receives an operation input from the user. When the operation unit 440 outputs the received operation to the control unit 430, the operation is used for various operations by the control unit 430. The operation unit 440 may be mounted by the input device 815.

提示部450は、制御部430による制御に従って、ユーザーに情報を提示する。たとえば、提示部450は、制御部430によって可視化されたチーム感情を示す情報をユーザーに提示する。なお、提示部450は、表示装置817により実装され得る。 The presentation unit 450 presents information to the user according to the control by the control unit 430. For example, the presentation unit 450 presents to the user information indicating team emotions visualized by the control unit 430. The presentation unit 450 may be mounted by the display device 817.

個人感情推定部131、社会関係性情報管理部133及びチーム感情推定部135それぞれの機能について説明する。個人感情推定部131は、ユーザー900からセンサ端末200及び通信部110を介して取得した行動や生理反応の計測データに基づいて、ユーザー900毎の個人感情を推定することによって個人感情の推定データ(個人感情を示す情報)を生成する。また、個人感情推定部131は、該生成したデータを記憶部120に記憶させる機能を有する。特に、個人感情推定部131は、あるユーザー900から推定した個人感情を示す情報を、該ユーザー900のIDと紐づけて記憶部120に記憶させてもよい(たとえば、後述する図10参照のこと)。 The functions of the individual emotion estimation unit 131, the social relationship information management unit 133, and the team emotion estimation unit 135 will be described. The personal emotion estimation unit 131 estimates personal emotions by estimating the personal emotions of each user 900 based on the measurement data of behaviors and physiological reactions acquired from the user 900 via the sensor terminal 200 and the communication unit 110. Generate information that indicates personal feelings). In addition, the personal emotion estimation unit 131 has a function of storing the generated data in the storage unit 120. In particular, the personal emotion estimation unit 131 may store information indicating personal emotions estimated from a user 900 in the storage unit 120 in association with the ID of the user 900 (see, for example, FIG. 10 described later). ).

ここで、個人感情とその推定方法について説明を補足する。個人感情は、一例として「人が心的過程の中で行うさまざまな情報処理のうちで、人、物、出来事、環境についてする評価的な反応」(Ortony et al.,1988;大平,2010)と定義される。感情の具体的な種類としては、心理学者Paul Ekmanによる表情に対応する基本感情ベースの離散型モデル上での幸福、驚き、恐れ、怒り、嫌悪、悲しみや、心理学者James A. Russellによる快度及び覚醒度の感情次元ベースの連続型モデルにおける喜怒哀楽の象限などが知られている。他の連続型モデルとしては、Watsonによるポジティブまたはネガティブ感情、Wundtによる3軸モデル(快度、興奮度、緊張度)、Plutchikによる4軸のモデルなどもある。その他、応用的・複合的な感情としては、困惑度、関心度、メンタルストレス、集中度、疲労感、多忙度、創造性、リラックス/緊張度、モチベーション、共感度、信頼度などが挙げられる。さらに、業務活動において集団の雰囲気として体感されるイキイキ感なども高次な感情の一種といえる。 Here, the explanation of personal feelings and their estimation methods is supplemented. As an example, personal emotions are "evaluative reactions to people, things, events, and the environment among various information processing performed by humans in the mental process" (Ortony et al., 1988; Ohira, 2010). Is defined as. Specific types of emotions include happiness, surprise, fear, anger, disgust, sadness, and psychologist James A. on a basic emotion-based discrete model that corresponds to facial expressions by psychologist Paul Ekman. The quadrants of emotions and sorrows in the emotional dimension-based continuous model of pleasure and alertness by Russel are known. Other continuous models include Watson's positive or negative emotions, Wundt's three-axis model (pleasure, excitement, tension), and Plutchik's four-axis model. Other applied / complex emotions include confusion, interest, mental stress, concentration, fatigue, busyness, creativity, relaxation / tension, motivation, empathy, and reliability. Furthermore, the liveliness that is experienced as a group atmosphere in business activities can be said to be a type of higher-level emotion.

ある人物がどのような感情とその程度にあるかは、たとえば質問紙法を用いることで、当該人物の文字、文章、記号による言語的報告によって求めることができる。当該質問紙としては“Affect Grid”などがよく知られている。 The emotions and degree of a person can be determined by, for example, using the questionnaire method, by linguistic reporting of the person's letters, sentences, and symbols. As the questionnaire, "Affect Grid" and the like are well known.

しかしながら、質問紙を用いた計測方法では回答作業が必要になるため、業務など何か別の作業を行っている日常生活においては計測それ自体が本来の目的作業に支障を及ぼしてしまう可能性がある。 However, since the measurement method using the questionnaire requires answering work, the measurement itself may interfere with the original purpose work in daily life where some other work such as work is performed. be.

そこで、当感情推定システムにおいて、個人感情推定部131は、前述のセンサ端末200により計測される行動や生理反応のデータに基づいて(質問紙法等で求めた)感情を機械的に推定処理する。当該推定処理を行うためには、予め学習処理によって生成された感情推定モデルのデータが必要となる。感情推定モデルは、たとえば、ある時点・状況における前記行動や生理反応のデータと前記質問紙の回答データからなる学習データとを対応づけたデータの群から生成される。たとえば、オフィスに埋め込まれた無数のカメラやマイクロフォン、ウェアラブル活動量計から計測されたユーザーの顔表情、音声、心拍活動、皮膚電気活動等の行動・生理データと、当該ユーザーの主観的感情を質問紙回答した正解データとが対応づけられて学習用データとされる。前記行動・生理データは、センサからの計測値が変換された学習処理用の特徴量データであってもよい。 Therefore, in this emotion estimation system, the personal emotion estimation unit 131 mechanically estimates and processes emotions (obtained by the questionnaire method or the like) based on the behavioral and physiological reaction data measured by the sensor terminal 200 described above. .. In order to perform the estimation process, the data of the emotion estimation model generated by the learning process in advance is required. The emotion estimation model is generated from, for example, a group of data in which the data of the behavior or physiological reaction at a certain time point / situation is associated with the learning data consisting of the answer data of the questionnaire. For example, ask questions about the user's facial expression, voice, heartbeat activity, skin electrical activity, and other behavioral / physiological data measured from countless cameras, microphones, and wearable activity meters embedded in the office, and the user's subjective emotions. The correct answer data that was answered on paper is associated with the data for learning. The behavior / physiological data may be feature data for learning processing in which the measured values from the sensors are converted.

特徴量データは、顔の代表的特徴点の位置や各2点間を結ぶ直線の距離や成す角度であってもよい。あるいは、特徴量データは、音声の基本周波数、パワー、平均発話速度、一次ケプストラム係数の最高値と標準偏差であってもよい。あるいは、特徴量データは、心拍数や拍動間隔の平均値や標準偏差、心拍変動性であってもよい。あるいは、特徴量データは、皮膚コンダクタンス水準の平均値や標準偏差や増減率などであってもよい。これらの特徴量データはどのように使用されてもよく、ある時点における絶対値として使用されてもよいし、2時点間の相対的な変化率として使用されてもよい。 The feature amount data may be the position of a representative feature point of the face, the distance of a straight line connecting each of the two points, or the angle formed. Alternatively, the feature data may be the fundamental frequency, power, average speech speed, maximum value and standard deviation of the first-order cepstrum coefficient of speech. Alternatively, the feature amount data may be the average value of the heart rate or the beat interval, the standard deviation, or the heart rate variability. Alternatively, the feature amount data may be an average value of the skin conductance level, a standard deviation, an increase / decrease rate, or the like. These feature data may be used in any way, as an absolute value at a certain time point, or as a relative rate of change between two time points.

前記学習用データを用いた感情推定モデルの生成には、学習の手法として、たとえば既知のSVM(Support Vector Machine)や深層学習(Deep Learning)法が用いられてもよいし、単純に回帰分析法が利用されてもよい。また、学習モデルはユーザー個人毎に生成されてもよいし、複数のユーザーの学習データを用いて人間に共通的なモデルが生成されてもよい。個人感情推定部131は、得られた感情推定モデルのデータを用いることで、ある人物の行動・生理データから個人感情を推定できるようになる。 For the generation of the emotion estimation model using the learning data, for example, a known SVM (Support Vector Machine) or deep learning method may be used as a learning method, or a simple regression analysis method may be used. May be used. Further, the learning model may be generated for each individual user, or a model common to humans may be generated using the learning data of a plurality of users. The individual emotion estimation unit 131 can estimate individual emotions from the behavior / physiological data of a certain person by using the obtained emotion estimation model data.

感情推定サーバ100や個人感情推定部131は、上述の個人感情推定処理のための学習用データや感情推定モデル自体を生成する機能を有していてもよい。さらに、学習用データのための前述の特徴量データの生成は、感情推定サーバ100ではなくセンサ端末200の方で行い、センサ端末200が、当該特徴量データを感情推定サーバ100へ送信するようにしてもよい。 The emotion estimation server 100 and the individual emotion estimation unit 131 may have a function of generating learning data for the above-mentioned individual emotion estimation process and the emotion estimation model itself. Further, the above-mentioned feature amount data for the learning data is generated not by the emotion estimation server 100 but by the sensor terminal 200, and the sensor terminal 200 transmits the feature amount data to the emotion estimation server 100. You may.

社会関係性情報管理部133は、後述するチーム感情推定部135がチーム感情を推定処理するために必要な、社会ネットワーク(社会NW)情報に基づく社会関係性を示す情報(以下「社会関係性情報」とも言う)を生成する。そのために、社会関係性情報管理部133は、通信部110を介して、前述の「センサ端末200によるコミュニケーション行動に対応するセンサデータ」または前述の「PBX300による通信履歴データ」を取得し、取得したデータに基づいて後述する社会NW情報を生成し、該生成した社会NW情報を記憶部120に記憶する機能を有する。 The social relationship information management unit 133 is provided with information indicating social relationships based on social network (social NW) information, which is necessary for the team emotion estimation unit 135, which will be described later, to estimate and process team emotions (hereinafter, “social relationship information”). Also called). Therefore, the social relationship information management unit 133 acquires and acquires the above-mentioned "sensor data corresponding to the communication behavior by the sensor terminal 200" or the above-mentioned "communication history data by PBX 300" via the communication unit 110. It has a function of generating social NW information described later based on the data and storing the generated social NW information in the storage unit 120.

ここで、「社会NW情報」について説明する。社会ネットワークは「互いのコミュニケーション行動の量または質により規定される人々のつながり」と定義され得る。また、社会ネットワークの量または質の大きさ・高さに対応して、社会ネットワークの強さが定められ得る。 Here, "social NW information" will be described. Social networks can be defined as "people's connections defined by the quantity or quality of communication behavior with each other." In addition, the strength of the social network can be determined according to the size or height of the quantity or quality of the social network.

抽象化した社会ネットワークは、それに属するユーザー900が円状のノード(要素)として表され、ユーザー900間の関係性が線分状のエッジ(要素間の関係)として表されることによって、その構造や機能が単純化したモデルとして示され得る。該モデルは、次数(あるノードに接続されるエッジの本数)、強度(あるノード間のつながりの強さ)、クラスター係数(ノードとエッジで形成される三角構造の存在割合)等の指標により、その構造や機能が社会関係性情報管理部133によって分析され得る。 The structure of an abstracted social network is such that the user 900 belonging to it is represented as a circular node (element), and the relationship between the user 900 is represented as a line segment-shaped edge (relationship between elements). And functions can be shown as a simplified model. The model is based on indicators such as degree (number of edges connected to a node), strength (strength of connection between nodes), and cluster coefficient (presence ratio of triangular structure formed by nodes and edges). Its structure and function can be analyzed by the Social Relations Information Management Department 133.

図6、図7、図8は、抽象化された社会ネットワークの一例を示す説明図である。図6には、社会ネットワークの基本モデルとして、「次数」指標が反映された社会ネットワークの一例が図示されている。 6, 7, and 8 are explanatory diagrams showing an example of an abstracted social network. FIG. 6 shows an example of a social network in which the “order” index is reflected as a basic model of the social network.

図中には、ユーザー900A、900B、900C、900D及び900Eに対応して、ノード910A、910B、910C、910D及び910Eが存在している。また、二つのノードの各組み合わせの一部にエッジ920が存在している。この例では、エッジ920は過去のコミュニケーション行動の発生が有ったことを示している。ユーザー900Aは900B、900C、900Dおよび900Eそれぞれと過去にコミュニケーション行動をとったことがあるため、ノード910Aとノード910B、910C、910D及び910Eとの間にエッジがある。反対にユーザー900Dは900Eとコミュニケーション行動をとったことがないため、ノード910Dとノード910Eとの間にエッジがない。 In the figure, nodes 910A, 910B, 910C, 910D and 910E are present corresponding to the users 900A, 900B, 900C, 900D and 900E. In addition, an edge 920 exists as a part of each combination of the two nodes. In this example, Edge 920 indicates that there was a past occurrence of communication behavior. Since the user 900A has communicated with each of 900B, 900C, 900D and 900E in the past, there is an edge between node 910A and node 910B, 910C, 910D and 910E. On the contrary, since the user 900D has never communicated with the 900E, there is no edge between the node 910D and the node 910E.

ここで、次数はあるノードに接続されるエッジの本数である。図6に示した例では、ノード910Aの次数は4であり、ノード910Eの次数は1である。社会関係性情報管理部133は、次数指標の大きさにより、あるユーザーの交流関係の広さを定量的データとしてもとめることができる。 Here, the order is the number of edges connected to a certain node. In the example shown in FIG. 6, the order of the node 910A is 4, and the order of the node 910E is 1. The social relations information management unit 133 can obtain the breadth of the interaction relations of a certain user as quantitative data by the size of the degree index.

より具体的には、社会関係性情報管理部133は、次数の大きいユーザー900ほど、他のユーザー900との社会関係性が強いと判断してよい。たとえば、社会関係性情報管理部133は、次数が0であるユーザー900の社会関係性を「なし」とし、次数が第1の次数よりも低いユーザー900の社会関係性を「弱」とし、次数が第2の次数以上、かつ、第2の次数未満のユーザー900の社会関係性を「中」とし、第2の次数以上のユーザー900の社会関係性を「強」としてもよい。なお、次数に関する閾値は三つでなくてもよい。すなわち、次数に基づく社会関係性は、四段階でなくてもよく、二段階であってもよいし、三段階であってもよいし、五段階以上であってもよい。また、各閾値の大きさも限定されない。 More specifically, the social relationship information management unit 133 may determine that the higher the order of the user 900, the stronger the social relationship with the other user 900. For example, the social relationship information management unit 133 sets the social relationship of the user 900 having a degree of 0 as "none" and the social relationship of the user 900 whose order is lower than the first order as "weak", and sets the order as "weak". May be "medium" for the social relationship of the user 900 having the second order or higher and less than the second order, and "strong" for the social relationship of the user 900 having the second order or higher. The threshold value for the order does not have to be three. That is, the social relationship based on the order does not have to be four stages, may be two stages, may be three stages, or may be five or more stages. Further, the size of each threshold value is not limited.

図7には、「強度」指標を反映した社会ネットワークの一例が図示されている。 FIG. 7 illustrates an example of a social network that reflects the “strength” index.

ここで強度は、前述の社会ネットワークの強さに対応する。たとえば、強度は、コミュニケーション行動の発生頻度、発生時間長、発生時刻の新しさ、コミュニケーションの内容の分量、コミュニケーションの内容のプライベートに関わる内容の量や深さ、用いられたコミュニケーションツールのメディアリッチネスの度合い、会話の音量や高低、互いの身体間の距離、互いの身体正面の向きにより成す角度、ポジティブ/ネガティブ感情の度合い等に対応して規定される。 Here, the strength corresponds to the strength of the social network mentioned above. For example, strength refers to the frequency of communication behavior, the length of time it occurs, the novelty of the time of occurrence, the amount of communication content, the amount and depth of private content of communication content, and the media richness of the communication tool used. It is defined according to the degree, the volume and level of conversation, the distance between each other's bodies, the angle formed by the direction of each other's front of the body, the degree of positive / negative emotions, and so on.

なお、互いの身体正面の向きにより成す角度は、どのようにして検出されてもよい。たとえば、あらかじめ異なる方向IDが割り当てられた複数の赤外線タグが複数のユーザーそれぞれの身体の正面を前として前後左右の4方向に取り付けられていてもよい。かかる場合、複数のユーザー間において赤外線タグによって交換された方向IDによって、互いの身体正面の向きにより成す角度が検出されてもよい。詳細は、「中村 嘉志、他4名、「複数の赤外線タグを用いた相対位置関係からのトポロジカルな位置および方向の推定」、2007年3月、情報処理学会論文誌、Vol.48、No.3」などに記述されている。また、特許第5907549号に記述されているように、複数のユーザーの位置関係が対面か非対面かが検出されてもよい。 The angle formed by the orientation of the front of the body may be detected in any way. For example, a plurality of infrared tags to which different direction IDs are assigned in advance may be attached in four directions of front, back, left, and right with the front of the body of each of the plurality of users in front. In such a case, the angle formed by the orientation of the front of the body may be detected by the direction ID exchanged by the infrared tag among the plurality of users. For details, see "Yoshi Nakamura and 4 others," Estimating Topological Position and Direction from Relative Positional Relationships Using Multiple Infrared Tags, "March 2007, IPSJ Journal, Vol. 48, No. 3 ”and so on. Further, as described in Japanese Patent No. 5907549, whether the positional relationship of a plurality of users is face-to-face or non-face-to-face may be detected.

たとえば、社会関係性情報管理部133は、二人のユーザー900の間の会話発生頻度が第1の頻度以上である場合、その二人のユーザー900の間の社会関係性を「強」としてもよい。また、社会関係性情報管理部133は、二人のユーザー900の間の会話発生頻度が強度が第2の頻度以上、かつ、第1の強度未満である場合、その二人のユーザー900の間の社会関係性を「中」としてもよい。また、社会関係性情報管理部133は、二人のユーザー900の間の会話発生頻度が第2の頻度未満である場合、その二人のユーザー900の間の社会関係性を「なし」としてもよい。 For example, the social relations information management unit 133 may set the social relation between the two users 900 as "strong" when the conversation occurrence frequency between the two users 900 is equal to or higher than the first frequency. good. Further, when the frequency of conversation occurrence between the two users 900 is equal to or higher than the second frequency and lower than the first intensity, the social relations information management unit 133 states that the frequency between the two users 900 Social relations may be set to "medium". Further, when the frequency of conversation occurrence between the two users 900 is less than the second frequency, the social relationship information management unit 133 may set the social relationship between the two users 900 to "none". good.

一例として、直近10日間における会話の発生頻度が指標とされる場合、社会関係性情報管理部133は、会話発生回数が10回以上であれば、社会関係性を「強」とし、会話発生回数が5回以上であれば、社会関係性を「中」とし、会話発生回数が1回以上であれば社会関係性を「弱」とし、会話発生回数が0回であれば社会関係性を「なし」としてもよい。図7には、ノード910Aとノード910Bとの間のエッジ920ABは社会関係性「強」で太く、ノード910Aとノード910Eとの間のエッジ920AEは社会関係性「中」で少し太く、それ以外のエッジ920は社会関係性「弱」で細く図示されている。 As an example, when the frequency of conversation occurrence in the last 10 days is used as an index, the social relations information management unit 133 considers the social relation to be "strong" if the number of conversation occurrences is 10 or more, and the number of conversation occurrences. If the number of times is 5 or more, the social relationship is "medium", if the number of conversations is 1 or more, the social relationship is "weak", and if the number of conversations is 0, the social relationship is "medium". It may be "none". In FIG. 7, the edge 920AB between the node 910A and the node 910B is thick with the social relationship “strong”, the edge 920AE between the node 910A and the node 910E is slightly thick with the social relationship “medium”, and the others. Edge 920 is illustrated thinly with social relations "weak".

なお、会話の発生頻度に関する期間は、直近10日間に限定されない。たとえば、会話の発生頻度に関する期間は、直近1カ月であってもよいし、他の期間であってもよい。また、会話発生回数に関する閾値は三つでなくてもよい。すなわち、強度に基づく社会関係性は、四段階でなくてもよく、二段階であってもよいし、三段階であってもよいし、五段階以上であってもよい。また、各閾値の大きさも限定されない。 The period regarding the frequency of conversation occurrence is not limited to the last 10 days. For example, the period regarding the frequency of conversation occurrence may be the latest one month or another period. Further, the threshold value regarding the number of conversation occurrences does not have to be three. That is, the social relationship based on strength does not have to be four stages, may be two stages, may be three stages, or may be five or more stages. Further, the size of each threshold value is not limited.

また、ここでは、コミュニケーション行動の発生頻度に基づいて強度を求める方法を例として説明したが、同様にして、上記他の情報に基づく社会関係性が求められ得る。このとき、コミュニケーション行動の発生時間が長いほど、社会関係性は強くてよい。また、コミュニケーション行動の発生時刻が新しいほど、社会関係性は強くてよい。また、コミュニケーションの内容の分量が多いほど、社会関係性は強くてよい。 Further, here, a method of obtaining the strength based on the frequency of occurrence of communication behavior has been described as an example, but similarly, a social relationship based on the above other information can be obtained. At this time, the longer the communication behavior occurs, the stronger the social relationship may be. In addition, the newer the time of occurrence of communication behavior, the stronger the social relationship. In addition, the greater the amount of communication content, the stronger the social relationship.

また、コミュニケーションの内容のプライベートに関わる内容の量が大きいほど、社会関係性は強くてよい。また、プライベートに関わる内容の深さが深いほど、社会関係性は強くてよい。また、用いられたコミュニケーションツールのメディアリッチネスの度合いが強いほど、社会関係性は強くてよい。また、会話の音量が小さいほど、社会関係性は強くてよい。また、会話の音が低いほど、社会関係性は強くてよい。また、互いの身体間の距離が近いほど、社会関係性は強くてよい。また、互いの身体正面の向きにより成す角度が小さい(すなわち、正対ではない向きに近い)ほど、社会関係性は強くてよい。また、ポジティブ/ネガティブ感情の度合いが強いほど、社会関係性は強くてよい。 In addition, the larger the amount of private communication content, the stronger the social relationship. In addition, the deeper the content related to private life, the stronger the social relationship. In addition, the stronger the degree of media richness of the communication tool used, the stronger the social relationship. In addition, the lower the volume of conversation, the stronger the social relationship. In addition, the lower the sound of conversation, the stronger the social relationship. In addition, the closer the distance between the bodies, the stronger the social relationship. In addition, the smaller the angle formed by the orientation of each other's front of the body (that is, the closer to the non-opposite orientation), the stronger the social relationship may be. In addition, the stronger the degree of positive / negative emotions, the stronger the social relationship.

図8には、その他の指標例として「クラスター係数」指標が反映された社会ネットワークの一例が図示されている。クラスター係数はネットワークのクラスター性の大きさに関わる指標であるが、公知の理論であるためここでは詳細な説明を省略する。一例として、社会関係性情報管理部133は、クラスター係数の大きさにより、社会ネットワーク全体としてのユーザーの交流関係の広さを定量的データとしてもとめることができる。 FIG. 8 shows an example of a social network in which the “cluster coefficient” index is reflected as another index example. The cluster coefficient is an index related to the size of the cluster property of the network, but since it is a known theory, detailed description thereof will be omitted here. As an example, the social relations information management unit 133 can obtain the breadth of the user's interaction relations as a whole social network as quantitative data by the size of the cluster coefficient.

より具体的には、社会関係性情報管理部133は、クラスター係数が大きいほど、社会ネットワーク全体としての社会関係性が強いと判断してよい。たとえば、社会関係性情報管理部133は、クラスター係数が0である社会ネットワークの社会関係性を「なし」とし、クラスター係数が第1の値よりも低い社会ネットワークの社会関係性を「弱」とし、クラスター係数が第2の値以上、かつ、第2の値未満の社会ネットワークの社会関係性を「中」とし、第2の値以上の社会ネットワークの社会関係性を「強」としてもよい。なお、クラスター係数に関する閾値は三つでなくてもよい。すなわち、クラスター係数に基づく社会関係性は、四段階でなくてもよく、二段階であってもよいし、三段階であってもよいし、五段階以上であってもよい。また、各閾値の大きさも限定されない。 More specifically, the social relations information management unit 133 may determine that the larger the cluster coefficient, the stronger the social relations of the social network as a whole. For example, the Social Relations Information Management Department 133 sets the social relations of the social network having a cluster coefficient of 0 as "none" and the social relations of the social network having a cluster coefficient lower than the first value as "weak". , The social relationship of the social network having the cluster coefficient of the second value or more and less than the second value may be set to "medium", and the social relationship of the social network having the cluster coefficient of the second value or more may be set to "strong". The threshold value for the cluster coefficient does not have to be three. That is, the social relationship based on the cluster coefficient does not have to be four stages, may be two stages, may be three stages, or may be five or more stages. Further, the size of each threshold value is not limited.

図9は、ユーザー900A〜900E間におけるコミュニケーション行動に基づく社会関係性を示す情報の一例を示す説明図である。図9には、ユーザー900A〜900E間におけるコミュニケーション行動のデータから生成された社会NW情報に基づく社会関係性情報のテーブル121が図示されている。図9に示すように、社会NW情報に基づく社会関係性情報のテーブル121は、たとえば、あるユーザー900を一意に特定する社員ID1、別のユーザー900の社員ID2、両者の社会関係性の強さを含む。なお、ここでは、社会関係性の強さは、前述の社会ネットワークにおけるエッジの「強度」指標に基づいて設定される場合を想定する。図9のテーブル121は、図7で示し説明した社会ネットワークを表形式で表したものともいえる(たとえば、図9の1行目は図7のノード910Aと910Bとの間のエッジ920ABが社会関係性「強」で太く図示されている表現と対応)。 FIG. 9 is an explanatory diagram showing an example of information showing a social relationship based on communication behavior between users 900A to 900E. FIG. 9 shows a table 121 of social relationship information based on social NW information generated from communication behavior data between users 900A to 900E. As shown in FIG. 9, the table 121 of the social relationship information based on the social NW information shows, for example, an employee ID 1 that uniquely identifies a certain user 900, an employee ID 2 of another user 900, and the strength of the social relationship between the two. including. Here, it is assumed that the strength of social relations is set based on the "strength" index of the edge in the above-mentioned social network. Table 121 in FIG. 9 can be said to represent the social network shown and described in FIG. 7 in tabular form (for example, in the first row of FIG. 9, the edge 920AB between the nodes 910A and 910B in FIG. 7 is a social relationship. Corresponds to the expression shown thickly with the gender "strong").

なお、図9の例では社会関係性の強さは「強」「中」「弱」「なし」の4段階となっているが、既に述べたように、強度に基づいて分類される社会関係性の強さの数は、当然これより多くても少なくても構わず、強度に基づいて分類される社会関係性の強さは、連続的な量的データであっても構わない。また、社会NW情報の強度指標と社会関係性の強さとの対応づけや分類のために用いられる閾値は当感情推定システムの管理者が予め任意に設定して構わず、その設定パラメータは予め記憶部120に記憶されても構わない。 In the example of FIG. 9, the strength of social relations is divided into four stages of "strong", "medium", "weak", and "none", but as already mentioned, social relations are classified based on strength. Of course, the number of sexual strengths may be greater or less than this, and the strengths of social relationships classified based on intensity may be continuous quantitative data. In addition, the threshold value used for associating and classifying the strength index of social NW information with the strength of social relations may be arbitrarily set in advance by the administrator of this emotion estimation system, and the setting parameters are stored in advance. It may be stored in the unit 120.

なお、図9に示した例では、強度指標に基づいて社会関係性の強さが設定されている。かかる例においては、二人のユーザー900に対して一つの社会関係性の強さが設定される。しかし、上記したように、次数指標に基づいて社会関係性の強さが設定されてもよいし、クラスター係数に基づいて社会関係性の強さが設定されてもよい。次数指標に基づいて社会関係性の強さが設定される場合、社会関係性の強さは、各ユーザー900に対して設定される。一方、クラスター係数に基づいて社会関係性の強さが設定される場合、社会関係性の強さは、社会ネットワーク全体に対して設定される。 In the example shown in FIG. 9, the strength of social relations is set based on the strength index. In such an example, one strength of social relationship is set for two users 900. However, as described above, the strength of social relations may be set based on the degree index, or the strength of social relations may be set based on the cluster coefficient. When the strength of social relations is set based on the degree index, the strength of social relations is set for each user 900. On the other hand, when the strength of social relations is set based on the cluster coefficient, the strength of social relations is set for the entire social network.

チーム感情推定部135は、個人感情推定部131が生成した前述の個人感情を示す情報と、社会関係性情報管理部133が生成した前述の社会NW情報に基づく社会関係性を示す情報と、に基づいてチーム感情を示す情報を生成する。また、チーム感情推定部135は、算出したチーム感情を示す情報を記憶部120に記憶する機能を有する。 The team emotion estimation unit 135 includes information indicating the above-mentioned individual emotions generated by the individual emotion estimation unit 131 and information indicating the social relationship based on the above-mentioned social NW information generated by the social relationship information management unit 133. Generate information that indicates team feelings based on it. Further, the team emotion estimation unit 135 has a function of storing the calculated information indicating the team emotion in the storage unit 120.

ここで、チーム感情は、たとえば、予め設定されたユーザーの集団における、構成員毎の個人感情を示す情報が該集団への社会関係性の強さで重み付けされた代表値、たとえば「平均値」「中央値」「最頻値」、として算出される。一例として、チーム感情推定部135は、個人感情を示す情報が量的データであり代表値として平均値が採用される場合、かつ、強度指標に基づいて社会関係性の強さが設定される場合、チーム感情を示す情報の例として、チーム感情値を以下の(数式1)で求めることができる。 Here, the team feeling is, for example, a representative value in which information indicating individual feelings for each member in a preset group of users is weighted by the strength of social relations with the group, for example, an "average value". It is calculated as "median" and "mode". As an example, in the team emotion estimation unit 135, when the information indicating individual emotions is quantitative data and the average value is adopted as the representative value, and when the strength of social relations is set based on the intensity index. , As an example of the information indicating the team emotion, the team emotion value can be obtained by the following (Equation 1).

Figure 0006965525
・・・(数式1)
Figure 0006965525
... (Formula 1)

ただし、TE:チーム感情値、m:集団において対象とされる二人のユーザーの組み合わせ数、QR:当該二人のユーザーの社会関係性の強さに対応する重み付け係数、RE:当該二人のユーザーの各個人感情値から求められる代表値(たとえば「平均値」「中央値」「最頻値」)とする。この際、チーム感情値算出の対象とするユーザーの集団は、図6の例でいえばユーザー900A〜900E全員でもよいし、その中から部分的に組み合わせ選択された任意の人物群であってもよい。前述の算出方式により、基になる個人感情値と社会NW情報のデータがあれば、任意に設定された集団についてチーム感情値を求めることができる。また、前述のユーザーの組み合わせ数は必ずしも二人である必要はなく、三人以上の組み合わせであってもよい。 However, TE: team emotion value, m: number of combinations of two users targeted in the group, QR: weighting coefficient corresponding to the strength of social relations of the two users, RE: of the two users. It is a representative value (for example, "average value", "median value", "mode value") obtained from each individual emotion value of the user. At this time, the group of users to be calculated for the team emotion value may be all users 900A to 900E in the example of FIG. 6, or may be an arbitrary group of people partially combined and selected from among them. good. By the above-mentioned calculation method, if there is data of the basic individual emotion value and social NW information, the team emotion value can be obtained for an arbitrarily set group. Further, the number of combinations of the above-mentioned users does not necessarily have to be two, and may be a combination of three or more.

ここで、各社会関係性の強さに対応する重み付け係数の値は限定されない。たとえば、社会関係性の強さが強くなるほど、重み付け係数の値は大きくてよい。より詳細には、社会関係性の強さ「強」に対応する重み付け係数は、社会関係性の強さ「中」に対応する重み付け係数よりも大きくてよい。また、社会関係性の強さ「中」に対応する重み付け係数は、社会関係性の強さ「弱」に対応する重み付け係数よりも大きくてよい。また、社会関係性の強さ「弱」に対応する重み付け係数は、社会関係性の強さ「なし」に対応する重み付け係数よりも大きくてよい。 Here, the value of the weighting coefficient corresponding to the strength of each social relationship is not limited. For example, the stronger the social relationship, the larger the value of the weighting coefficient may be. More specifically, the weighting coefficient corresponding to the strength "strong" of social relations may be larger than the weighting coefficient corresponding to the strength "medium" of social relations. Further, the weighting coefficient corresponding to the strength of social relation "medium" may be larger than the weighting coefficient corresponding to the strength of social relation "weak". Further, the weighting coefficient corresponding to the strength of social relation "weak" may be larger than the weighting coefficient corresponding to the strength of social relation "none".

なお、ここでは、強度指標に基づく社会関係性の強さからチーム感情値を求める方法を示した。しかし、強度指標に基づく社会関係性の強さの代わりに、次数指標に基づく社会関係性の強さからチーム感情値が求められてもよい。たとえば、チーム感情推定部135は、個人感情を示す情報が量的データであり代表値として平均値が採用される場合、かつ、次数指標に基づいて社会関係性の強さが設定される場合、チーム感情を示す情報の例として、チーム感情値を以下の(数式2)で求めることができる。 Here, the method of obtaining the team emotion value from the strength of social relations based on the strength index is shown. However, instead of the strength of social relations based on the intensity index, the team emotion value may be obtained from the strength of social relations based on the degree index. For example, the team emotion estimation unit 135 determines that the information indicating individual emotions is quantitative data and the average value is adopted as the representative value, and the strength of social relations is set based on the order index. As an example of the information indicating the team emotion, the team emotion value can be obtained by the following (formula 2).

Figure 0006965525
・・・(数式2)
Figure 0006965525
... (Formula 2)

ただし、TE:チーム感情値、n:集団において対象とされるユーザーの人数、SR:各ユーザーの社会関係性の強さに対応する重み付け係数、PE:個人感情値とする。 However, TE: team emotion value, n: number of users targeted in the group, SR: weighting coefficient corresponding to the strength of social relations of each user, PE: individual emotion value.

また、クラスター係数に基づく社会関係性の強さからチーム感情値が求められてもよい。たとえば、チーム感情推定部135は、個人感情を示す情報が量的データであり代表値として平均値が採用される場合、かつ、クラスター係数に基づいて社会関係性の強さが設定される場合、チーム感情を示す情報の例として、チーム感情値を以下の(数式3)で求めることができる。 In addition, the team emotion value may be obtained from the strength of social relations based on the cluster coefficient. For example, the team emotion estimation unit 135 determines that the information indicating individual emotions is quantitative data and the average value is adopted as the representative value, and the strength of social relations is set based on the cluster coefficient. As an example of the information indicating the team emotion, the team emotion value can be obtained by the following (formula 3).

Figure 0006965525
・・・(数式3)
Figure 0006965525
... (Formula 3)

ただし、TE:チーム感情値、n:集団において対象とされるユーザーの人数、UR:社会ネットワーク全体としての社会関係性の強さに対応する重み付け係数、PE:個人感情値とする。 However, TE: team emotion value, n: number of users targeted in the group, UR: weighting coefficient corresponding to the strength of social relations as a whole social network, PE: individual emotion value.

なお、本実施形態では、まず、個人感情推定部131が個人感情を推定してから、チーム感情推定部135がそれらの集合的データとしてチーム感情を推定する場合を主に想定する。しかし、チーム感情推定部135がチームの対象となる複数名のセンサデータから直接的にチーム感情を推定しても構わない。その場合、チーム感情推定部135は、センサデータの値自体もしくはその特徴量データ(変換値)に対して、前述の社会関係性の強さに対応する重み付けの演算処理を行っても構わない。 In the present embodiment, it is mainly assumed that the individual emotion estimation unit 131 first estimates the individual emotion, and then the team emotion estimation unit 135 estimates the team emotion as a collective data thereof. However, the team emotion estimation unit 135 may estimate the team emotion directly from the sensor data of a plurality of people targeted by the team. In that case, the team emotion estimation unit 135 may perform a weighting calculation process corresponding to the strength of the above-mentioned social relationship with respect to the sensor data value itself or its feature amount data (converted value).

このとき、センサデータの値自体もしくはその特徴量データは、特に限定されない。一例として、センサデータの特徴量データは、脈拍センサによって検出された脈拍から変換された後の心拍数の変化率などであってもよい。たとえば、心拍数の変化率は、心拍数の変化の割合であってよく、たとえば、直前の心拍数に対する現在の心拍数の割合(たとえば、「心拍数が20%上昇した」、「心拍数が10%減少した」など)によって表されてもよい。かかるセンサデータの値自体もしくはその特徴量データが、チーム感情の推定に際して、個人感情を示す情報の代わりに利用されてもよい。 At this time, the value of the sensor data itself or the feature amount data thereof is not particularly limited. As an example, the feature amount data of the sensor data may be the rate of change of the heart rate after being converted from the pulse detected by the pulse sensor. For example, the rate of change in heart rate can be the rate of change in heart rate, for example, the ratio of the current heart rate to the previous heart rate (eg, "heart rate increased by 20%", "heart rate increased". It may be represented by "10% decrease" etc.). The value of the sensor data itself or the feature amount data thereof may be used instead of the information indicating the individual emotion in estimating the team emotion.

図10は、ある組織における個人感情を示す情報とチーム感情を示す情報の一例を示す説明図である。図10には、図7で説明した社会NW情報の一例に対応する個人感情を示す情報とチーム感情を示す情報のテーブル122が図示されている。ここでは、個人感情を示す情報及びチーム感情を示す情報の一例として量的データのポジティブ度を例示している。 FIG. 10 is an explanatory diagram showing an example of information showing individual feelings and information showing team feelings in a certain organization. FIG. 10 shows a table 122 of information indicating individual emotions and information indicating team emotions corresponding to an example of social NW information described with reference to FIG. 7. Here, the positiveness of quantitative data is illustrated as an example of information indicating individual emotions and information indicating team emotions.

次に、本実施形態に係る「情報提示端末400」の機能構成の一例を説明する。情報提示端末400において、制御部430は、感情推定サーバ100が推定したチーム感情を示す情報や個人感情を示す情報を、通信部410を介して取得し、それらを可視化して提示部450を介してユーザーに提示する。前記ユーザーは、前記チーム感情や個人感情を推定されたユーザー900でも構わないし、前記チーム感情や個人感情を推定されたユーザー900とは異なる人物(たとえば、ある組織のメンタルヘルス管理を担当する産業医等)でも構わない。 Next, an example of the functional configuration of the "information presentation terminal 400" according to the present embodiment will be described. In the information presentation terminal 400, the control unit 430 acquires the information indicating the team emotion and the information indicating the individual emotion estimated by the emotion estimation server 100 via the communication unit 410, visualizes them, and uses the presentation unit 450. And present it to the user. The user may be a user 900 whose team emotions and individual emotions are estimated, or a person different from the user 900 whose team emotions and individual emotions are estimated (for example, an industrial physician in charge of mental health management of an organization). Etc.).

また、制御部430は、前記チーム感情を示す情報や個人感情を示す情報を可視化して提示するにあたり、前述の社会NW情報に基づく社会関係性を示す情報を用いてユーザーが情報を理解しやすいように前記チーム感情を示す情報や個人感情を示す情報を「カテゴリ化」して提示してもよい。たとえば、制御部430は、あるチームのチーム感情を示す情報を画面に表示する際、そのチームの構成者の個人感情を示す情報を、前記チーム感情を示す情報の近傍領域に併せて提示部450を介して提示してもよい。これにより、情報提示端末400のユーザーは、チーム感情を示す情報とその算出要素となった個人感情を示す情報とを併せて直観的に把握することができる。 Further, when the control unit 430 visualizes and presents the information indicating the team emotion and the information indicating the individual emotion, the user can easily understand the information by using the information indicating the social relationship based on the above-mentioned social NW information. As described above, the information indicating the team emotions and the information indicating the individual emotions may be "categorized" and presented. For example, when the control unit 430 displays information indicating the team emotions of a certain team on the screen, the control unit 430 combines the information indicating the individual emotions of the members of the team with the information in the vicinity of the information indicating the team emotions, and the presentation unit 450. May be presented via. As a result, the user of the information presenting terminal 400 can intuitively grasp the information indicating the team emotion and the information indicating the individual emotion which is the calculation element thereof.

また、たとえば、制御部430は、複数のチームによる複数のチーム感情を示す情報を画面に表示する際、前記社会関係性を示す情報に基づき、互いの構成員間のコミュニケーション行動によるつながりが強いチーム同士ほどより近い領域に互いのチーム感情を示す情報を、提示部450を介して提示してもよい。これにより、情報提示端末400のユーザーは、複数のチームのチーム感情を示す情報を確認する際に、チーム間の社会関係性の強さに基づきそれらの表示を効率的に観ることができる。 Further, for example, when the control unit 430 displays information indicating a plurality of team emotions by a plurality of teams on the screen, the team has a strong connection by communication behavior between the members based on the information indicating the social relationship. Information indicating each other's team feelings may be presented via the presentation unit 450 in a region closer to each other. As a result, the user of the information presenting terminal 400 can efficiently view the information indicating the team emotions of the plurality of teams based on the strength of the social relationship between the teams.

図11は、情報提示端末400のアプリケーション画面の一例を示す説明図である。図11を参照すると、あるチームのあるチーム感情を示す情報(チームT1のポジティブ度)とその算出要素となった個人感情を示す情報(チームT1に属するユーザーU11〜U14のポジティブ度)とが近傍の領域に表示され、同チームの別のチーム感情を示す情報(チームT1の疲労度)とその算出要素となった個人感情を示す情報(チームT1に属するユーザーU11〜U14の疲労度)とが近傍の領域に表示されている。このように、提示部450が、感情のカテゴリごとにチーム感情を示す情報と個人感情を示す情報とを提示することによって、チーム感情と個人感情とをカテゴリごとに把握しやすくなる。 FIG. 11 is an explanatory diagram showing an example of an application screen of the information presentation terminal 400. With reference to FIG. 11, information indicating a certain team feeling of a certain team (positive degree of team T1) and information indicating individual feelings as a calculation factor thereof (positive degree of users U11 to U14 belonging to team T1) are close to each other. Information indicating another team feeling of the same team (team T1 fatigue level) and information indicating individual feelings (fatigue degree of users U11 to U14 belonging to team T1) displayed in the area of It is displayed in the nearby area. In this way, the presentation unit 450 presents the information indicating the team emotion and the information indicating the individual emotion for each emotion category, so that the team emotion and the individual emotion can be easily grasped for each category.

なお、図11に示したように、制御部430は、チーム感情及び個人感情の過去の推定情報を履歴として提示させ、時系列グラフ状に情報提示しても構わない(図11には、グラフの右側線分端がチーム感情及び個人感情の現在の推定情報として示されており、右端から左へ向かうにつれて過去に遡った推定情報が示されている)。 As shown in FIG. 11, the control unit 430 may have the past estimated information of team emotions and individual emotions presented as a history, and the information may be presented in a time-series graph form (FIG. 11 shows a graph). The right end of the line is shown as the current estimated information of team emotions and individual emotions, and the estimated information that goes back to the past is shown from the right end to the left).

続いて、図12を参照して、本実施形態に係る情報処理の例を説明する。図12は、本実施形態に係る感情推定システムの情報処理の概略的な流れの一例を示すフロー図である。ステップS101で、感情推定サーバ100は、当感情推定システムの管理者により設定される、チーム感情を推定される対象となるチームとその構成者のパラメータ、推定するチーム感情の種類(たとえばポジティブ度、ネガティブ度、困惑度等)のパラメータ、チーム感情の算出法(たとえば代表値として平均値/中央値/最頻値の選択、社会関係性の強さの分類数、社会関係性の強さに対応する重み付けの係数値等)のパラメータ、などを記憶部120に記憶させる。 Subsequently, an example of information processing according to the present embodiment will be described with reference to FIG. FIG. 12 is a flow chart showing an example of a schematic flow of information processing of the emotion estimation system according to the present embodiment. In step S101, the emotion estimation server 100 sets the parameters of the team to be estimated for team emotions and its constituents, and the type of team emotions to be estimated (for example, positiveness, etc.), which is set by the administrator of the emotion estimation system. Corresponds to parameters of negativeness, confusion, etc., calculation method of team emotions (for example, selection of average / median / mode as representative values, number of classifications of strength of social relations, strength of social relations) The parameters of the weighting coefficient value, etc.) are stored in the storage unit 120.

なお、上記パラメータ類は当情報処理の前に予め管理者により設定されていてもよく、また、前回の情報処理時の設定パラメータが流用されてもよいし、初期設定パラメータがそのまま利用されてもよい。その場合は、当ステップS101の実行は省略しても構わない。 The above parameters may be set in advance by the administrator before the information processing, the setting parameters at the time of the previous information processing may be diverted, or the initial setting parameters may be used as they are. good. In that case, the execution of this step S101 may be omitted.

ステップS103で、感情推定サーバ100において、通信部110は、センサ端末200を介して前記チーム感情を推定される対象となるチームの構成者となるユーザー900の行動や生理反応のセンサデータを取得する。 In step S103, in the emotion estimation server 100, the communication unit 110 acquires sensor data of the behavior and physiological reaction of the user 900 who is a member of the team for which the team emotion is estimated, via the sensor terminal 200. ..

ステップS105で、感情推定サーバ100において、個人感情推定部131は、前記ユーザー900のセンサデータから個人感情の推定処理を行う。なお、本実施形態では、まず個人感情推定部131が個人感情を推定してから、チーム感情推定部135がそれらの集合的データとしてチーム感情を推定するという処理を例に説明を行った。しかし、チーム感情推定部135がチームの対象となる複数名のセンサデータから直接的にチーム感情を推定しても構わない。その場合、チーム感情推定部135は、センサデータの値自体もしくはその特徴量データに対して、前述の社会関係性の強さに対応する重み付けの演算処理を行っても構わない。その場合は、当ステップS105の実行は省略されても構わない。 In step S105, in the emotion estimation server 100, the individual emotion estimation unit 131 performs an individual emotion estimation process from the sensor data of the user 900. In the present embodiment, the process in which the individual emotion estimation unit 131 first estimates the individual emotion and then the team emotion estimation unit 135 estimates the team emotion as a collective data of them has been described as an example. However, the team emotion estimation unit 135 may estimate the team emotion directly from the sensor data of a plurality of people targeted by the team. In that case, the team emotion estimation unit 135 may perform a weighting calculation process corresponding to the above-mentioned strength of social relations on the sensor data value itself or its feature amount data. In that case, the execution of this step S105 may be omitted.

ステップS107で、感情推定サーバ100において、通信部110は、センサ端末200やPBX300から、前記チーム感情を推定される対象となるチームの構成者となるユーザー900の「センサ端末200によるコミュニケーション行動に対応するセンサデータ」または「PBX300による通信履歴データ」を取得し、社会関係性情報管理部133は、通信部110によって取得されたデータに基づいて、前述の社会NW情報を生成して、生成した社会NW情報に基づき社会関係性情報を算出する。 In step S107, in the emotion estimation server 100, the communication unit 110 responds to the “communication action by the sensor terminal 200” of the user 900 who is a member of the team to which the team emotion is estimated from the sensor terminal 200 or the PBX 300. Acquiring "sensor data" or "communication history data by PBX300", the social relationship information management unit 133 generates the above-mentioned social NW information based on the data acquired by the communication unit 110, and the generated society. Calculate social relationship information based on NW information.

ステップS109で、チーム感情推定部135は、前記個人感情を示す情報と前記社会関係性情報からステップS101で設定されたチームのチーム感情を推定する。ステップS111で、情報提示端末400において、制御部430は、感情推定サーバ100から取得したチーム感情を示す情報やその算出要素となった個人感情を示す情報を提示部450に提示させる。なお、推定したチーム感情を示す情報を情報提示端末400によって提示しない場合は、当ステップS111の実行は省略しても構わない。 In step S109, the team emotion estimation unit 135 estimates the team emotion of the team set in step S101 from the information indicating the individual emotion and the social relationship information. In step S111, in the information presentation terminal 400, the control unit 430 causes the presentation unit 450 to present the information indicating the team emotion acquired from the emotion estimation server 100 and the information indicating the individual emotion as the calculation element thereof. If the information presenting terminal 400 does not present the information indicating the estimated team emotion, the execution of this step S111 may be omitted.

以上のように、本発明の実施形態によれば、日常のコミュニケーション行動という動的で「インフォーマル」な社会関係性を示す情報を利用して、個人感情に基づくチーム感情を自動で高精度に推定することができる。 As described above, according to the embodiment of the present invention, team emotions based on individual emotions are automatically made highly accurate by using information indicating dynamic and "informal" social relationships such as daily communication behaviors. Can be estimated.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person having ordinary knowledge in the field of technology to which the present invention belongs can come up with various modifications or modifications within the scope of the technical ideas described in the claims. , These are also naturally understood to belong to the technical scope of the present invention.

たとえば、上記においては、情報提示端末400の制御部430が、提示部450によって提示される各種情報のレイアウトを決める例を主に説明した。しかし、提示部450によって提示される各種情報のレイアウトは、他の装置(たとえば、感情推定サーバ100など)によって決められてもよい。このとき、感情推定サーバ100は、情報提示端末400を視認するユーザーの種類(たとえば、ユーザーの役職など)ごとに、提示部450によって提示される各種情報のレイアウトを決めてもよい。 For example, in the above, an example in which the control unit 430 of the information presentation terminal 400 determines the layout of various information presented by the presentation unit 450 has been mainly described. However, the layout of various information presented by the presentation unit 450 may be determined by another device (for example, the emotion estimation server 100). At this time, the emotion estimation server 100 may determine the layout of various information presented by the presentation unit 450 for each type of user (for example, the job title of the user) who visually recognizes the information presentation terminal 400.

100 感情推定サーバ
110 通信部
120 記憶部
130 制御部
131 個人感情推定部
133 社会関係性情報管理部
135 チーム感情推定部
200 センサ端末
300 PBX
310 通信部
320 記憶部
330 制御部
400 情報提示端末
410 通信部
420 記憶部
430 制御部
440 操作部
450 提示部


100 Emotion estimation server 110 Communication unit 120 Storage unit 130 Control unit 131 Individual emotion estimation unit 133 Social relations information management department 135 Team emotion estimation unit 200 Sensor terminal 300 PBX
310 Communication unit 320 Storage unit 330 Control unit 400 Information presentation terminal 410 Communication unit 420 Storage unit 430 Control unit 440 Operation unit 450 Presentation unit


Claims (13)

複数のユーザー間のコミュニケーション行動に対応する第1のセンサデータまたは前記コミュニケーション行動に関するユーザーを特定可能な情報を含んだ通信履歴データに基づいて、社会関係性を示す情報を生成する社会関係性情報管理部と、
前記社会関係性を示す情報に基づいて、前記複数のユーザーの一部が選択された複数の対象ユーザーの各組み合わせに対応する重み付け係数を算出し、前記複数の対象ユーザーそれぞれの第2のセンサデータまたは前記第2のセンサデータに基づく情報と前記重み付け係数とに基づいて、チーム感情を推定するチーム感情推定部と、
を備える、感情推定サーバ。
Social relationship information management that generates information indicating social relationships based on the first sensor data corresponding to communication behaviors between a plurality of users or communication history data including information that can identify users related to the communication behaviors. Department and
Based on the information indicating the social relationship, a weighting coefficient corresponding to each combination of the plurality of target users selected by a part of the plurality of users is calculated, and the second sensor data of each of the plurality of target users is calculated. Alternatively, a team emotion estimation unit that estimates team emotions based on the information based on the second sensor data and the weighting coefficient, and
Emotion estimation server.
前記感情推定サーバは、
前記複数の対象ユーザーそれぞれの第2のセンサデータに基づいて、対象ユーザーごとの個人感情を推定する個人感情推定部を備え、
前記チーム感情推定部は、前記第2のセンサデータに基づく情報として前記個人感情を示す情報を得る、
請求項1に記載の感情推定サーバ。
The emotion estimation server
A personal emotion estimation unit that estimates the individual emotions of each target user based on the second sensor data of each of the plurality of target users is provided.
The team emotion estimation unit obtains information indicating the individual emotion as information based on the second sensor data.
The emotion estimation server according to claim 1.
前記チーム感情推定部は、前記第2のセンサデータに基づく情報として前記複数の対象ユーザーそれぞれの第2のセンサデータの特徴量データを得る、
請求項1に記載の感情推定サーバ。
The team emotion estimation unit obtains feature amount data of the second sensor data of each of the plurality of target users as information based on the second sensor data.
The emotion estimation server according to claim 1.
前記チーム感情推定部は、前記第2のセンサデータまたは前記第2のセンサデータに基づく情報に対して、前記重み付け係数によって重み付けを行い、当該重み付けがされたデータの平均値、中央値または最頻値を前記チーム感情として算出する、
請求項に記載の感情推定サーバ。
The team emotion estimation unit weights the second sensor data or information based on the second sensor data by the weighting coefficient, and the average value, median value, or mode of the weighted data. Calculate the value as the team feeling,
The emotion estimation server according to claim 1.
前記社会関係性情報管理部は、前記第1のセンサデータまたは前記通信履歴データに基づいて、社会ネットワーク情報を生成し、前記社会ネットワーク情報に基づいて、前記社会関係性を示す情報を生成する、
請求項1に記載の感情推定サーバ。
The social relationship information management unit generates social network information based on the first sensor data or the communication history data, and generates information indicating the social relationship based on the social network information.
The emotion estimation server according to claim 1.
前記社会ネットワーク情報は、前記複数のユーザーそれぞれについて関係性を有する他のユーザーの数を示す次数を含み、
前記社会関係性情報管理部は、前記次数に基づいて前記社会関係性を示す情報を生成する、
請求項に記載の感情推定サーバ。
The social network information includes a degree indicating the number of other users who have a relationship with each of the plurality of users.
The social relations information management unit generates information indicating the social relations based on the order.
The emotion estimation server according to claim 5.
前記社会ネットワーク情報は、前記複数のユーザーの二者間の関係性の強度を含み、
前記社会関係性情報管理部は、前記強度に基づいて前記社会関係性を示す情報を生成する、
請求項に記載の感情推定サーバ。
The social network information includes the strength of the relationship between the two of the plurality of users.
The social relations information management unit generates information indicating the social relations based on the strength.
The emotion estimation server according to claim 5.
前記社会ネットワーク情報は、前記複数のユーザーの関係性を表した社会ネットワークのクラスター係数を含み、
前記社会関係性情報管理部は、前記クラスター係数に基づいて前記社会関係性を示す情報を生成する、
請求項に記載の感情推定サーバ。
The social network information includes a cluster coefficient of the social network representing the relationship between the plurality of users.
The social relations information management unit generates information indicating the social relations based on the cluster coefficient.
The emotion estimation server according to claim 5.
複数のユーザー間のコミュニケーション行動に対応する第1のセンサデータまたは前記コミュニケーション行動に関するユーザーを特定可能な情報を含んだ通信履歴データに基づいて、社会関係性を示す情報を生成することと、
前記社会関係性を示す情報に基づいて、前記複数のユーザーの一部が選択された複数の対象ユーザーの各組み合わせに対応する重み付け係数を算出し、前記複数の対象ユーザーそれぞれの第2のセンサデータまたは前記第2のセンサデータに基づく情報と前記重み付け係数とに基づいて、チーム感情を推定することと、
を含む、感情推定方法。
To generate information indicating social relations based on the first sensor data corresponding to the communication behavior between a plurality of users or the communication history data including the information that can identify the user regarding the communication behavior.
Based on the information indicating the social relationship, a weighting coefficient corresponding to each combination of the plurality of target users selected by a part of the plurality of users is calculated, and the second sensor data of each of the plurality of target users is calculated. Alternatively, estimating team sentiment based on the information based on the second sensor data and the weighting coefficient, and
Emotion estimation methods, including.
複数のユーザー間のコミュニケーション行動に対応する第1のセンサデータまたは前記コミュニケーション行動に関するユーザーを特定可能な情報を含んだ通信履歴データに基づいて生成された社会関係性を示す情報に基づいて算出された前記複数のユーザーの一部が選択された複数の対象ユーザーの各組み合わせに対応する重み付け係数と、前記複数の対象ユーザーそれぞれの第2のセンサデータまたは前記第2のセンサデータに基づく情報とに基づいて、推定されたチーム感情を示す情報を提示する提示部、
を備える、提示装置。
It was calculated based on the first sensor data corresponding to the communication behavior between a plurality of users or the information indicating the social relationship generated based on the communication history data including the information that can identify the user regarding the communication behavior. Based on the weighting coefficient corresponding to each combination of the plurality of target users selected by a part of the plurality of users, and the second sensor data of each of the plurality of target users or the information based on the second sensor data. A presentation unit that presents information that indicates the estimated team sentiment,
A presentation device.
前記提示部は、複数のチームそれぞれのチーム感情を示す情報を、チーム同士のつながりが強いほど近い領域に提示する、
請求項10に記載の提示装置。
The presentation unit presents information indicating the team emotions of each of the plurality of teams in an area closer to each other as the connection between the teams is stronger.
The presentation device according to claim 10.
前記提示部は、前記チーム感情を示す情報と前記複数の対象ユーザーそれぞれの個人感情とを感情のカテゴリごとに提示する、
請求項10に記載の提示装置。
The presentation unit presents information indicating the team emotion and individual emotions of each of the plurality of target users for each emotion category.
The presentation device according to claim 10.
複数のユーザー間のコミュニケーション行動に対応する第1のセンサデータまたは前記コミュニケーション行動に関するユーザーを特定可能な情報を含んだ通信履歴データに基づいて、社会関係性を示す情報を生成する社会関係性情報管理部と、
前記社会関係性を示す情報に基づいて、前記複数のユーザーの一部が選択された複数の対象ユーザーの各組み合わせに対応する重み付け係数を算出し、前記複数の対象ユーザーそれぞれの第2のセンサデータまたは前記第2のセンサデータに基づく情報と前記重み付け係数とに基づいて、チーム感情を推定するチーム感情推定部と、
を備える、感情推定サーバと、
前記チーム感情を示す情報を提示する提示部、
を備える提示装置と、
を有する、感情推定システム。
Social relationship information management that generates information indicating social relationships based on the first sensor data corresponding to communication behaviors between a plurality of users or communication history data including information that can identify users related to the communication behaviors. Department and
Based on the information indicating the social relationship, a weighting coefficient corresponding to each combination of the plurality of target users selected by a part of the plurality of users is calculated, and the second sensor data of each of the plurality of target users is calculated. Alternatively, a team emotion estimation unit that estimates team emotions based on the information based on the second sensor data and the weighting coefficient, and
Emotion estimation server and
A presentation unit that presents information indicating the team emotions,
With a presentation device
Emotion estimation system.
JP2017034037A 2017-02-24 2017-02-24 Emotion estimation server device, emotion estimation method, presentation device and emotion estimation system Active JP6965525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017034037A JP6965525B2 (en) 2017-02-24 2017-02-24 Emotion estimation server device, emotion estimation method, presentation device and emotion estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017034037A JP6965525B2 (en) 2017-02-24 2017-02-24 Emotion estimation server device, emotion estimation method, presentation device and emotion estimation system

Publications (2)

Publication Number Publication Date
JP2018139087A JP2018139087A (en) 2018-09-06
JP6965525B2 true JP6965525B2 (en) 2021-11-10

Family

ID=63450858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017034037A Active JP6965525B2 (en) 2017-02-24 2017-02-24 Emotion estimation server device, emotion estimation method, presentation device and emotion estimation system

Country Status (1)

Country Link
JP (1) JP6965525B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7198483B2 (en) * 2018-10-05 2023-01-04 株式会社ケアコム Action situation visualization device
JPWO2020255630A1 (en) * 2019-06-17 2020-12-24
JP7273637B2 (en) * 2019-07-17 2023-05-15 本田技研工業株式会社 ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM
JP7014761B2 (en) * 2019-10-02 2022-02-01 株式会社エクサウィザーズ Cognitive function estimation method, computer program and cognitive function estimation device
JP7430132B2 (en) * 2020-10-23 2024-02-09 本田技研工業株式会社 Conference support device, conference support method, and conference support program
WO2022138153A1 (en) * 2020-12-22 2022-06-30 ソニーグループ株式会社 Information processing device and method, and program
JP2023132597A (en) * 2022-03-11 2023-09-22 株式会社リコー Information processing system, organizational structure support system, information processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005032167A (en) * 2003-07-11 2005-02-03 Sony Corp Apparatus, method, and system for information retrieval, client device, and server device
JP2011008393A (en) * 2009-06-24 2011-01-13 Nec Corp Group management support device, group management support method, and program

Also Published As

Publication number Publication date
JP2018139087A (en) 2018-09-06

Similar Documents

Publication Publication Date Title
JP6965525B2 (en) Emotion estimation server device, emotion estimation method, presentation device and emotion estimation system
US11160479B2 (en) Information processing device and control method
US8715179B2 (en) Call center quality management tool
US9138186B2 (en) Systems for inducing change in a performance characteristic
US20220392625A1 (en) Method and system for an interface to provide activity recommendations
US20190147367A1 (en) Detecting interaction during meetings
US8715178B2 (en) Wearable badge with sensor
JP2018045545A (en) Stress management system and stress management method
CN106910513A (en) Emotional intelligence chat engine
JP6930277B2 (en) Presentation device, presentation method, communication control device, communication control method and communication control system
US9058587B2 (en) Communication support device, communication support system, and communication support method
JP2018010501A (en) Interview system
JP6933076B2 (en) Control devices, control methods, programs and control systems
JP7205528B2 (en) emotion estimation system
JP6798353B2 (en) Emotion estimation server and emotion estimation method
JP7209200B2 (en) SPATIAL PROPOSAL SYSTEM AND SPATIAL PROPOSAL METHOD
Bavendiek et al. Meetings in the product development process: applying design methods to improve team interaction and meeting outcomes
JP2008306586A (en) Method and program for estimating situation, and network system
JP2019101872A (en) Information processor and program
US20230289731A1 (en) Information processing system, information processing method, and recording medium
TWI602174B (en) Emotion recording and management device, system and method based on voice recognition
JP2019101873A (en) Information processor and program
WO2024023897A1 (en) Information processing device, information processing method, and recording medium
WO2023145350A1 (en) Information processing method, information processing system, and program
Kim Group affect and group cohesion in human-agent teams

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R150 Certificate of patent or registration of utility model

Ref document number: 6965525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150