JP5233159B2 - Group emotion recognition support system - Google Patents

Group emotion recognition support system Download PDF

Info

Publication number
JP5233159B2
JP5233159B2 JP2007116066A JP2007116066A JP5233159B2 JP 5233159 B2 JP5233159 B2 JP 5233159B2 JP 2007116066 A JP2007116066 A JP 2007116066A JP 2007116066 A JP2007116066 A JP 2007116066A JP 5233159 B2 JP5233159 B2 JP 5233159B2
Authority
JP
Japan
Prior art keywords
unit
group
information
emotion
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007116066A
Other languages
Japanese (ja)
Other versions
JP2008272019A (en
Inventor
寛之 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2007116066A priority Critical patent/JP5233159B2/en
Publication of JP2008272019A publication Critical patent/JP2008272019A/en
Application granted granted Critical
Publication of JP5233159B2 publication Critical patent/JP5233159B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ある空間に存在する複数の人間が持つ感情を統合し、集団的感情として認識することを支援するシステムに関するものである。   The present invention relates to a system that supports integration of emotions possessed by a plurality of humans existing in a certain space and recognizes them as collective emotions.

従来、人間の感情を認識することに関し、『適正でかつ使用されている時間が長くなればなるほど正しい判断ができ、かつ、患者の状態に応じた正確な感情判断を可能にした生体情報に基づく感情認識システムを提供すること。』を目的とした技術として、『生体情報に基づく感情認識システム1は、患者の身体に着脱が可能なセンサー31を用いて、当該患者の身体から発せられる生体信号を取込む生体情報収集装置3と、前記生体情報収集装置3からの生体信号を取込み、ファジー関数処理を行うことによって当該生体の現在の感情を認識させてその認識結果を出力できる感情認識装置5とを備えたものである。』というものが提案されている(特許文献1)。   Conventionally, with regard to recognizing human emotions, it is based on “biological information that makes it possible to make a correct decision as the time is appropriate and used longer, and to make an accurate emotion determination according to the patient's condition. To provide an emotion recognition system. As a technology for the purpose, "the emotion recognition system 1 based on biometric information uses a sensor 31 that can be attached to and detached from the patient's body, and captures a biometric signal emitted from the patient's body." And an emotion recognition device 5 that captures a biological signal from the biological information collecting device 3 and performs a fuzzy function process to recognize the current emotion of the living organism and output the recognition result. Is proposed (Patent Document 1).

また、『ユーザの音声入力によって、絵文字や顔文字入りの楽しいメール又はMessageを作成することを可能とした音声感情認識によるメール作成機能付携帯端末、携帯端末システム、及び、音声感情認識によるメール作成方法を提供する。』ことを目的とした技術として、『携帯端末において、ユーザが発した音声を入力するための音声入力手段8と、ユーザ入力音声をテキストに変換する入力音声変換手段9と、ユーザ入力音声から感情を読み取り、対応する感情キーワードに変換する感情認識手段3と、入力音声変換手段9によりユーザ入力音声が変換されたテキストを、対応する発音キーワードに変換し、変換した発音キーワードと、感情認識手段3により変換された感情キーワードとを基に、文書登録リスト5を検索して、これと対応する記号、顔文字、又は、絵文字に変換する顔文字等変換手段4とを設ける。』というものが提案されている(特許文献2)。   In addition, “a mobile terminal with a mail creation function by voice emotion recognition, a mobile terminal system, and a mail creation by voice emotion recognition, which makes it possible to create a fun email or message containing pictographs or emoticons by user voice input. Provide a method. As a technology for the purpose of the above, “in a portable terminal, voice input means 8 for inputting voice uttered by a user, input voice conversion means 9 for converting user input voice into text, and emotion from user input voice” Is converted into a corresponding emotion keyword, and the text converted from the user input voice by the input voice conversion means 9 is converted into a corresponding pronunciation keyword, the converted pronunciation keyword and the emotion recognition means 3 On the basis of the emotion keyword converted by the above, the document registration list 5 is searched, and a conversion unit 4 such as a conversion unit 4 for converting into a corresponding symbol, emoticon, or pictogram is provided. Is proposed (Patent Document 2).

また、感情を認識した結果を利用することに関し、『発表者自身が自分の発表状況を把握して、それに対処することを可能にし得る発表支援装置を提供する。』ことを目的とした技術として、『発表者の音声を感情認識部12に与えて発表者の心理状態を認識し、その認識結果に応じた反応の表示情報を反応生成部13で生成し、発表内容生成部14で生成された発表内容とともに表示部15に表示する。』というものが提案されている(特許文献3)。   Further, regarding the use of the result of recognizing emotion, “providing a presentation support device that enables the presenter to grasp his / her own presentation situation and cope with it. As a technique for the purpose of the above, “the speech of the presenter is given to the emotion recognition unit 12 to recognize the presenter's psychological state, and the reaction generation unit 13 generates display information of the reaction according to the recognition result. The announcement content generated by the announcement content generation unit 14 is displayed on the display unit 15. Is proposed (Patent Document 3).

特開2006−130121号公報(要約)JP 2006-130121 A (summary) 特開2006−277567号公報(要約)JP 2006-277567 A (summary) 特開平10−254484号公報(要約)JP 10-254484 A (summary)

人間が集まる空間において、これらの人間からなる集団の集団的感情を認識することが有用な場合がある。例えば、プレゼンテーションや会議の場において、参加者の感情を認識することがこれに相当する。   In a space where people gather, it may be useful to recognize the collective emotions of a group of these people. For example, this corresponds to recognizing the emotions of participants in a presentation or meeting.

しかるに、上記特許文献1や特許文献2に記載の技術は、個人の感情を認識する技術であり、集団的感情を扱うものではない。
これら個人に対する感情認識技術を、集団の構成人員に対して個別に実施してその結果を統合し、もって集団の感情を認識することも考えられるが、人数分の感情認識処理を実施する必要があるため、これをシステムで行う場合にはシステム負荷がかかり、人間が集団感情を個別に判断する場合は、その者の負担が大きい。
However, the techniques described in Patent Document 1 and Patent Document 2 are techniques for recognizing individual emotions and do not handle collective emotions.
It may be possible to recognize the feelings of the group by implementing the emotion recognition technology for individuals individually for the members of the group and integrating the results, but it is necessary to perform emotion recognition processing for the number of people. Therefore, when this is performed by the system, a system load is applied, and when a human judges group feelings individually, the burden on the person is large.

一方、人間の感情の認識結果をプレゼンテーション等の発表の場面で利用することに関する上記特許文献3に記載の技術は、感情認識の対象が発表者自身であり、集団の感情を認識するものではない。したがって、集団感情の認識結果を利用することに関する開示はない。   On the other hand, the technique described in Patent Document 3 relating to the use of human emotion recognition results in presentations such as presentations, the subject of emotion recognition is the presenter himself and does not recognize group emotions. . Therefore, there is no disclosure regarding using the recognition results of group emotions.

以上のような背景から、複数人からなる集団の集団的感情を認識することを支援することのできるシステムが望まれていた。   From the above background, a system capable of supporting recognition of collective feelings of a group of a plurality of people has been desired.

本発明に係る集団感情認識支援システムは、複数人からなる聴衆である集団の集団的感情を認識し、前記聴衆にプレゼンテーションを行っている話者のプレゼンテーションの進行を支援するシステムであって、前記集団に属する個人の感情を表す情報を取得する感情情報取得部と、前記感情情報取得部が取得した情報を統合して前記集団の集団的感情を解析する集団感情解析部と、前記集団感情解析部の解析結果に基づいて、前記聴衆の関心対象を分類し、当該分類の結果から前記関心対象の割合データを生成して出力すると共に、前記プレゼンテーションのスライドの注目度合いから当該注目度合いの分布情報を生成して出力する出力データ処理部と、前記出力データ処理部から出力された前記割合データ及び前記分布情報を前記話者に情報提示する出力を行う出力部と、を備え、前記出力データ処理部は、前記話者のプレゼンテーションが継続中、前記割合データ及び前記分布情報の生成を繰り返し実行するものである。 A group emotion recognition support system according to the present invention is a system for recognizing the collective emotion of a group consisting of a plurality of people and supporting the progress of a presentation of a speaker who is presenting to the audience, An emotion information acquisition unit that acquires information representing the emotions of individuals belonging to a group, a group emotion analysis unit that integrates information acquired by the emotion information acquisition unit to analyze the collective emotion of the group, and the group emotion analysis Based on the analysis result of the part, classify the interests of the audience, generate and output the ratio data of the interests from the classification results, and distribute the attention degree distribution information from the degree of attention of the slide of the presentation An output data processing unit for generating and outputting the ratio data and the distribution data output from the output data processing unit to the speaker. Comprising an output unit that outputs presenting, wherein the output data processing unit, in the speaker of the presentation is continued, in which repeatedly executes the generation of the ratio data and the distribution information.

本発明に係る集団感情認識支援システムによれば、集団に属する個人の感情を統合的に扱うことにより、その集団の集団的感情を解析し、その解析結果を出力するので、集団的感情の認識を支援することができる。   According to the collective emotion recognition support system according to the present invention, collective emotions are analyzed by processing the emotions of individuals belonging to the collective, and the analysis results are output. Can help.

実施の形態1.
図1は、本発明の実施の形態1に係る集団感情認識支援システム100の機能ブロック図である。ここでは、話者が聴衆に対しプレゼンテーションを行っている場面を想定して以下の説明を行う。
集団感情認識支援システム100は、聴衆の集団的感情を解析して話者がこれを認識することを支援するとともに、その解析結果を用いて話者のプレゼンテーションの進行を支援するものである。
Embodiment 1 FIG.
FIG. 1 is a functional block diagram of group emotion recognition support system 100 according to Embodiment 1 of the present invention. Here, the following explanation is given on the assumption that the speaker is giving a presentation to the audience.
The group emotion recognition support system 100 analyzes the collective emotions of the audience and assists the speaker in recognizing it, and uses the analysis result to support the progress of the speaker's presentation.

プレゼンテーションという場は、話者対聴衆という1対多の空間が構成されているものであり、情報発信が1から多数に向けられ、情報発信元がほぼ固定されているという特長を持つ。
そこで、本実施の形態1では、この情報発信の一方向性を利用し、聴衆が話者側へ向ける視線を検知することにより集団感情を認識することを考える。
The place of presentation is a one-to-many space consisting of speakers and audiences, and has the feature that information transmission is directed from one to many and the information transmission source is almost fixed.
Therefore, in the first embodiment, it is considered that the collective emotion is recognized by detecting the line of sight toward the speaker side by using the one-way information transmission.

集団感情認識支援システム100は、情報取得部101、集団感情解析部102、入力部103、出力データ処理部104、出力部105、話者用表示部105A、聴衆用表示部105B、記憶部106を備える。   The group emotion recognition support system 100 includes an information acquisition unit 101, a group emotion analysis unit 102, an input unit 103, an output data processing unit 104, an output unit 105, a speaker display unit 105A, an audience display unit 105B, and a storage unit 106. Prepare.

情報取得部101は、集団感情認識を行うために用いる評価データを取得するものである。ここでいう評価データとは、聴衆の視線情報である。
即ち、プレゼンテーション会場に視線検知装置を配置しておき、この視線検知装置から赤外光を聴衆の目に照射して、反射されて戻ってきた光を測定する等により、聴衆の視線をトラッキングする。
The information acquisition unit 101 acquires evaluation data used for performing group emotion recognition. The evaluation data here is audience gaze information.
In other words, a gaze detection device is placed in the presentation venue, and the audience's gaze is tracked by irradiating infrared light from the gaze detection device to the audience's eyes and measuring the light reflected and returned. .

また、情報取得部101は、プレゼンテーションに関する情報も取得する。ここでいうプレゼンテーションに関する情報とは、(1)表示プレゼンテーションスライドの内容、(2)プレゼンテーションスライドの切り替えタイミング、(3)話者の発表内容、といった情報のことである。   The information acquisition unit 101 also acquires information related to the presentation. The information related to the presentation here refers to information such as (1) the content of the displayed presentation slide, (2) the presentation slide switching timing, and (3) the content of the speaker's presentation.

情報取得部101が取得した視線情報とプレゼンテーションに関する情報は、集団感情解析部102と記憶部106へ出力される。
なお、聴衆が自身の感情を自ら入力部103等を介して情報取得部101に入力するように構成してもよい。以下の実施の形態についても同様である。
The line-of-sight information acquired by the information acquisition unit 101 and the information related to the presentation are output to the group emotion analysis unit 102 and the storage unit 106.
In addition, you may comprise so that an audience may input own emotion into the information acquisition part 101 via the input part 103 grade | etc.,. The same applies to the following embodiments.

集団感情解析部102は、情報取得部101から受け取った視線情報とプレゼンテーションに関する情報に基づき、プレゼンテーション会場の聴衆の集団感情を解析する。ここでは、聴衆の視線量、注視点(視線の移動)などから集団感情の解析を行う。
集団感情の解析は、例えば以下の(1)(2)のように行うことができる。
The collective emotion analysis unit 102 analyzes the collective emotions of the audience at the presentation venue based on the line-of-sight information received from the information acquisition unit 101 and information related to the presentation. Here, group emotions are analyzed from the audience's visual dose, gaze point (gaze movement), and the like.
The analysis of group emotion can be performed, for example, as in (1) and (2) below.

(1)聴衆の視線が、話者や後述の聴衆用表示部105Bに向けられている割合が多い場合には、そのプレゼンテーションは聴衆から興味をもたれていると判断する。
一方、情報取得部101が取得した視線情報(あるいはプレゼンテーション会場にいる聴衆人数)のうち、話者や後述の聴衆用表示部105B以外に向けられている視線の割合が多い場合には、そのプレゼンテーションは聴衆から興味をもたれていない、もしくは飽きられている、と判断する。
(1) When there is a large proportion of the audience's line of sight directed at the speaker or the audience display unit 105B described later, it is determined that the presentation is interested by the audience.
On the other hand, when there is a large proportion of the line of sight that is directed to other than the speaker or the audience display unit 105B described below, among the line-of-sight information acquired by the information acquisition unit 101 (or the number of audiences at the presentation venue), the presentation Concludes that the audience is not interested or bored.

(2)後述の聴衆用表示部105Bに注がれる視線が、プレゼンテーションスライドのどの部分に集中しているか、あるいはスライド上でどのように視線が流れていくか、といった情報から、聴衆のプレゼンテーションに対する理解度(スライドの見易さ、話者の意図通りの部分に視線が集まっているか)等を判断することができる。 (2) From the information such as which part of the presentation slide the line of sight poured into the audience display unit 105B described later is concentrated on the slide or how the line of sight flows on the slide, The degree of comprehension (ease of viewing the slide, whether the line of sight is gathered at the part intended by the speaker), etc. can be determined.

集団感情解析部102の解析結果は、出力データ処理部104と記憶部106へ出力される。   The analysis result of the group emotion analysis unit 102 is output to the output data processing unit 104 and the storage unit 106.

入力部103は、キーボードなどの入力装置により、話者から集団感情認識支援システム100に対する入力を受け付けるものである。
ここでいう入力とは、(1)プレゼンテーションスライドの切替指示、(2)集団感情解析部102と出力データ処理部104を通して加工された、プレゼンテーション支援情報の表示切替指示、などである。(2)については後述する。
The input unit 103 receives input to the collective emotion recognition support system 100 from a speaker using an input device such as a keyboard.
The input here includes (1) a presentation slide switching instruction, and (2) a presentation support information display switching instruction processed through the group emotion analysis unit 102 and the output data processing unit 104. (2) will be described later.

出力データ処理部104は、出力部105で出力する情報を生成するものである。
例えば、入力部103からのプレゼンテーションスライドの切替指示に基づいて、後述の聴衆用表示部105Bのスライド表示を切り替える、といった処理を行うため、必要な情報を生成する。
また、集団感情解析部102の解析結果を後述の話者用表示部105Aに表示するに際し、必要な形式へ加工ないし選別を行う。
ここでいう加工ないし選別として、例えば以下の(1)(2)が挙げられる。
The output data processing unit 104 generates information output by the output unit 105.
For example, necessary information is generated to perform processing such as switching slide display of the audience display unit 105B described later based on a presentation slide switching instruction from the input unit 103.
Further, when the analysis result of the collective emotion analysis unit 102 is displayed on the speaker display unit 105A described later, it is processed or selected into a necessary format.
Examples of processing or selection here include the following (1) and (2).

(1)視線量に基づく聴衆の関心について、(a)聴衆用表示部105Bに向けられている、(b)話者に向けられている、(c)それ以外、に分類するとともに、それぞれの割合データを生成する。 (1) Audience interests based on visual dose are classified into (a) directed to the audience display unit 105B, (b) directed to the speaker, (c) otherwise, and Generate percentage data.

(2)主に聴衆用表示部105Bに向けられている関心のうち、プレゼンテーションスライドのどの部分に注目が集まっているかということを、分布情報としてまとめ、これを話者に対する支援情報として、話者用表示部105Aに表示するように加工する。 (2) Of the interests mainly directed to the audience display unit 105B, which part of the presentation slide is attracting attention is collected as distribution information, and this is used as support information for the speaker. It is processed so as to be displayed on the display unit 105A.

出力データ処理部104の処理結果は、出力部105と記憶部106に出力される。
なお、加工ないし選別の内容は、入力部103から指示することにより変更することも可能である。
The processing result of the output data processing unit 104 is output to the output unit 105 and the storage unit 106.
It should be noted that the content of processing or sorting can be changed by instructing from the input unit 103.

出力部105は、集団感情認識支援システム100の出力を行うものである。本実施の形態1においては、話者用表示部105Aと聴衆用表示部105Bに細分される。
話者用表示部105Aは、ディスプレイなどの画面表示デバイスで実現される情報出力装置であり、話者に対する情報提示を行うものである。提示内容は、出力データ処理部104が話者用表示部105Aのために生成・加工等した情報である。
聴衆用表示部105Bは、例えばプロジェクタとスクリーンなどで実現される情報出力装置であり、プレゼンテーションの聴衆に対する情報提示を行うものである。提示内容は、出力データ処理部104が聴衆用表示部105Bのために生成・加工等した情報である。
The output unit 105 outputs the group emotion recognition support system 100. In the first embodiment, it is subdivided into a speaker display unit 105A and an audience display unit 105B.
The speaker display unit 105A is an information output device realized by a screen display device such as a display, and presents information to the speaker. The presentation content is information generated and processed by the output data processing unit 104 for the speaker display unit 105A.
The audience display unit 105B is an information output device realized by a projector and a screen, for example, and presents information to the audience of the presentation. The presentation content is information generated and processed by the output data processing unit 104 for the audience display unit 105B.

記憶部106は、情報取得部101、集団情報解析部102、出力データ処理部104が出力した情報を格納するものである。記憶部106に格納される情報は、プレゼンテーション終了後に、プレゼンテーションの反省や解析のために用いることができる。
即ち、記憶部106には、プレゼンテーションにおける話者の発話状態、スライドの状態、及び聴衆の(集団としての)反応を、それぞれ同期された形で格納しておく。これにより、プレゼンテーション中のどの挙動が、聴衆のどの行動、衝動、感情を引き出したのかを解析・比較しやすい。
The storage unit 106 stores information output by the information acquisition unit 101, the group information analysis unit 102, and the output data processing unit 104. Information stored in the storage unit 106 can be used for reflection and analysis of the presentation after the presentation is completed.
That is, the storage unit 106 stores the speaker's speech state, slide state, and audience's (as a group) reaction in the presentation in a synchronized manner. This makes it easy to analyze and compare which behavior during the presentation has drawn which behavior, impulse, and emotion of the audience.

情報取得部101は、視線検知装置の仕様、及びプレゼンテーションソフトウェア等の仕様に応じて、適宜必要なインターフェースを備える。
集団感情解析部102、出力データ処理部104は、これらの機能を実現する回路デバイス等のハードウェアとして実現することもできるし、CPUやマイコン等の演算装置上で実行されるソフトウェアとして実現することもできる。
出力部105、話者用表示部105A、聴衆用表示部105Bは、これらの仕様に応じて適宜必要なインターフェース、ドライバソフトウェア等を備える。
記憶部106は、HDD(Hard Disk Drive)等の書込み可能な記憶装置で構成することができる。
さらには、これらの機能部の全部又は一部を、コンピュータにより実現することもできる。また、これらの機能部を一体化して構成する必要はなく、各部を分離して構成してもよい。
The information acquisition unit 101 includes necessary interfaces according to the specifications of the line-of-sight detection device and the specifications of presentation software and the like.
The collective emotion analysis unit 102 and the output data processing unit 104 can be realized as hardware such as a circuit device that realizes these functions, or as software executed on a calculation device such as a CPU or a microcomputer. You can also.
The output unit 105, the speaker display unit 105A, and the audience display unit 105B include necessary interfaces, driver software, and the like according to these specifications.
The storage unit 106 can be configured by a writable storage device such as an HDD (Hard Disk Drive).
Furthermore, all or part of these functional units can be realized by a computer. Moreover, it is not necessary to integrate these functional units, and each unit may be configured separately.

本実施の形態1における「感情情報取得部」は、情報取得部101がこれに相当する。   The “emotion information acquisition unit” in the first embodiment corresponds to the information acquisition unit 101.

図2は、プレゼンテーション会場で集団感情認識支援システム100を用いている様子を示すものである。
話者は演壇で話者用表示部105Aを見ながらプレゼンテーションスライドの内容を発話している。また、聴衆は、聴衆用表示部105Bに表示されるスライドの内容を見ている。聴衆は、スライドの特定の部分に視線を注ぐ場合もあるし、話者に視線を注ぐ場合もある。
FIG. 2 shows a state where the group emotion recognition support system 100 is used at the presentation venue.
The speaker speaks the content of the presentation slide while looking at the speaker display unit 105A on the podium. The audience is watching the content of the slide displayed on the audience display unit 105B. The audience may focus on a particular part of the slide or may focus on the speaker.

図2において、話者用表示部105Aは、ノートパソコンのディスプレイ部として構成している。また、聴衆用表示部105Bは、大型のプロジェクタとスクリーンで構成している。
入力部103、記憶部106は、コンピュータ200のキーボード等の入力装置とHDDにより構成している。また、集団感情解析部102、出力データ処理部104は、コンピュータ200上で実行されるプログラムとして構成している。
プレゼンテーションスライドのデータはコンピュータ200上に格納されている。
情報取得部101のうち、聴衆の視線を検知する機能に関しては、赤外線アイカメラ等の視線検知装置として構成し、検知情報はコンピュータ200に出力される。
また、プレゼンテーションスライドはコンピュータ200上に格納されているため、プレゼンテーションに関する情報は、コンピュータ200が自ら取得するものとする。
In FIG. 2, the speaker display unit 105A is configured as a display unit of a notebook computer. The audience display unit 105B includes a large projector and a screen.
The input unit 103 and the storage unit 106 include an input device such as a keyboard of the computer 200 and an HDD. The group emotion analysis unit 102 and the output data processing unit 104 are configured as programs executed on the computer 200.
Presentation slide data is stored on the computer 200.
In the information acquisition unit 101, the function of detecting the audience's line of sight is configured as a line-of-sight detection device such as an infrared eye camera, and the detection information is output to the computer 200.
In addition, since the presentation slide is stored on the computer 200, the computer 200 acquires information on the presentation by itself.

図3は、集団感情認識支援システム100の動作フローである。以下、各ステップについて説明する。   FIG. 3 is an operation flow of the collective emotion recognition support system 100. Hereinafter, each step will be described.

(S301)
プレゼンテーション開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部101は、聴衆の視線情報と、プレゼンテーションに関する情報とを取得する。取得した情報は、集団感情解析部102に出力される。
(2)集団感情解析部102は、情報取得部101からの出力に基づき、聴衆の集団感情を解析する。解析結果は、出力データ処理部104に出力される。
(3)出力データ処理部104は、話者用表示部105Aと聴衆用表示部105Bが表示を行うための情報の生成・加工等を実行する。
(4)情報取得部101、集団感情解析部102、出力データ処理部104のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
(S301)
For the initial state before the presentation starts, initial processing is executed as follows.
(1) The information acquisition unit 101 acquires audience gaze information and information related to the presentation. The acquired information is output to the collective emotion analysis unit 102.
(2) The group emotion analysis unit 102 analyzes the audience's group emotion based on the output from the information acquisition unit 101. The analysis result is output to the output data processing unit 104.
(3) The output data processing unit 104 generates and processes information for display by the speaker display unit 105A and the audience display unit 105B.
(4) The processing results of the information acquisition unit 101, group emotion analysis unit 102, and output data processing unit 104 are stored in the storage unit 106 as initial state data.

(S302)
話者はプレゼンテーション(スライドの内容説明等)を開始する。このとき、話者は入力部103でスライドを開始する旨の入力を行い、これにより集団感情認識支援システム100は、プレゼンテーションが開始されたことを認識する。
(S302)
The speaker starts a presentation (such as explaining the contents of a slide). At this time, the speaker inputs using the input unit 103 to start the slide, whereby the group emotion recognition support system 100 recognizes that the presentation has started.

(S303)
ステップS304〜S308の処理を、プレゼンテーションが継続される間、繰り返し実行する。なお、集団感情認識支援システム100は、プレゼンテーションの終了の旨を話者が入力部103に入力することにより認識する。
(S303)
The processes in steps S304 to S308 are repeatedly executed while the presentation is continued. In addition, the collective emotion recognition support system 100 recognizes that the speaker has input to the input unit 103 to end the presentation.

(S304)
話者用表示部105Aと聴衆用表示部105Bは、出力データ処理部104からの出力に基づき、それぞれの表示を行う。
(S305)
情報取得部101は、聴衆の視線情報と、プレゼンテーションに関する情報とを取得する。取得した情報は、集団感情解析部102と記憶部106に出力される。
(S304)
The speaker display unit 105 </ b> A and the audience display unit 105 </ b> B perform respective displays based on the output from the output data processing unit 104.
(S305)
The information acquisition unit 101 acquires audience gaze information and presentation information. The acquired information is output to the collective emotion analysis unit 102 and the storage unit 106.

(S306)
集団感情解析部102は、情報取得部101から受け取った聴衆の視線情報に基づき、聴衆の集団心理状態を解析する。
ここでは、プレゼンテーションへの関心度(話者・表示されるプレゼンテーション資料へどの程度視線が注がれているかの割合)、スライドのどこ部分へ視線が集中しているか、などの解析が行われる。
解析結果は、出力データ処理部104と記憶部106に出力される。
(S306)
The group emotion analysis unit 102 analyzes the audience's collective psychological state based on the audience's line-of-sight information received from the information acquisition unit 101.
Here, the degree of interest in the presentation (the ratio of how much the line of sight has been poured into the speaker and the presentation material to be displayed) and the part of the slide where the line of sight is concentrated are analyzed.
The analysis result is output to the output data processing unit 104 and the storage unit 106.

(S307)
出力データ処理部104は、入力部103からの指示入力に基づき、話者用表示部105Aと聴衆用表示部105Bが表示を行うための情報の生成・加工等を実行する。
(S308)
記憶部106は、情報取得部101、集団感情解析部102、出力データ処理部104がそれぞれ出力した情報を、同期を取って格納する。
同期の取り方は、例えば相互の関連付けを関係テーブル形式で保持する、同一のフォルダに格納する、など任意の手法を適宜用いればよい。以下の実施の形態においても同様である。
(S307)
Based on the instruction input from the input unit 103, the output data processing unit 104 generates and processes information for display by the speaker display unit 105A and the audience display unit 105B.
(S308)
The storage unit 106 stores the information output by the information acquisition unit 101, the collective emotion analysis unit 102, and the output data processing unit 104 in synchronization with each other.
As a method of synchronization, any method may be used as appropriate, for example, holding the association in the relationship table format or storing them in the same folder. The same applies to the following embodiments.

本実施の形態1では、プレゼンテーションの場面を想定し、情報取得部101、集団感情解析部102、入力部103、出力データ処理部104、話者用表示部105A、聴衆用表示部105B、の構成や動作を説明した。
これら各機能部は、集団感情認識支援システム100の利用場面が異なる場合は、適宜適切な構成や動作をとるようにしてもよい。
In the first embodiment, assuming a presentation scene, the information acquisition unit 101, group emotion analysis unit 102, input unit 103, output data processing unit 104, speaker display unit 105A, and audience display unit 105B are configured. And explained the operation.
These functional units may take appropriate configurations and operations as appropriate when the use scene of the collective emotion recognition support system 100 is different.

以上のように、本実施の形態1によれば、プレゼンテーション会場に存在する複数人の聴衆の感情を統合して取り扱い、集団的感情として認識することができる。
また、解析の結果得られた集団感情を、話者用表示部105Aで話者に即座に提示することにより、話者はプレゼンテーションに対する聴衆の反応を速やかに把握でき、聴衆の反応状況を参考に、より理解し易く注目され易いようにプレゼンテーションの発話内容を変更するなど、プレゼンテーションの展開を即座に調整することができる。
As described above, according to the first embodiment, the emotions of a plurality of audiences present at the presentation venue can be handled in an integrated manner and recognized as a collective emotion.
Moreover, by presenting the group emotion obtained as a result of the analysis to the speaker immediately by the speaker display unit 105A, the speaker can quickly grasp the audience's reaction to the presentation, and refer to the audience's reaction status. The development of the presentation can be adjusted immediately, such as changing the utterance content of the presentation so that it is easier to understand and attract attention.

例えば、話者が意図している部分へ聴衆の注目が集まっていないようであれば、説明の前に注意を喚起する一言を加えることができる。また、聴衆が飽きている、疲れによって注意が散漫になっている、などのようであれば、発表のテンポを変えてみる、注意を引きやすい内容(動画など)の順番を入れ替える、といった対応をとることができる。   For example, if the audience does not attract attention to the part intended by the speaker, a word to call attention can be added before the explanation. Also, if the audience is bored or distracted due to fatigue, try changing the tempo of the presentation or changing the order of content that is easy to draw attention (such as videos). Can take.

また、記憶部106にプレゼンテーションに関する情報や集団感情の解析結果などを格納しておくので、プレゼンテーションを行っている最中のみならず、その終了後に、プレゼンテーションの反省や解析に、格納したデータを利用することができる。   In addition, since information related to presentations and analysis results of group sentiment are stored in the storage unit 106, the stored data is used not only during the presentation but also for reflection and analysis of the presentation after the presentation. can do.

記憶部106には、各種データ(発表内容、スライド切替タイミング、集団感情の解析結果など)を同期させて格納しておくので、それぞれの相互関係、例えば聴衆の視線がスライドの内容に沿って移動しているか否か、といったことを把握しやすく、少ない負担でプレゼンテーションの反省や解析を行うことができる。   Since various data (presentation contents, slide switching timing, group emotion analysis results, etc.) are stored in synchronization in the storage unit 106, their mutual relationship, for example, the audience's line of sight moves along the slide contents. It is easy to grasp whether or not the presentation is being performed, and the reflection and analysis of the presentation can be performed with a small burden.

さらには、聴衆の反応のトリガーとなるアクションが何であったかを解析することにより、次回のプレゼンテーションではそのトリガーを組み込み、同様の聴衆反応を誘導することを図る、といった用法が可能である。   Furthermore, by analyzing what the action that triggered the audience reaction was, the next presentation could incorporate that trigger and induce a similar audience response.

実施の形態2.
実施の形態1では、話者対聴衆という1対多の構成をとるプレゼンテーション会場を想定し、聴衆の視線情報に基づき集団感情を認識するように構成した。
本発明の実施の形態2では、情報発信が一方向的である実施の形態1とは異なり、情報発信元が流動的に変化する状況を取り扱う。この場合、状況の特性上、視線情報を統合するのみでは集団感情の解析が困難であるため、その他複数の情報を取得し、これらを統合して集団感情を認識する。
ここでは、会議の場面を想定し、会議参加者に対する集団感情認識を行い、さらにその結果を利用して会議運営を支援するシステムについて説明する。
Embodiment 2. FIG.
In the first embodiment, a presentation venue having a one-to-many configuration of speakers vs. audience is assumed, and group emotion is recognized based on audience gaze information.
In the second embodiment of the present invention, unlike the first embodiment in which information transmission is unidirectional, a situation in which the information transmission source changes in a fluid manner is handled. In this case, since it is difficult to analyze group emotions only by integrating line-of-sight information due to the characteristics of the situation, a plurality of other information is acquired and integrated to recognize group emotions.
In this section, a system for performing group emotion recognition with respect to a conference participant assuming a conference scene and using the result to support conference management will be described.

図4は、本発明の実施の形態2に係る集団感情認識支援システム400の機能ブロック図である。
集団感情認識支援システム400は、情報取得部401、集団感情解析部102、入力部103、出力処理部402、出力部403、表示部403A、動作部403B、記憶部106を備える。
なお、図1と同様または対応する機能部については、同じ符号を付して、説明を省略ないし補足説明に留める。
FIG. 4 is a functional block diagram of group emotion recognition support system 400 according to Embodiment 2 of the present invention.
The group emotion recognition support system 400 includes an information acquisition unit 401, a group emotion analysis unit 102, an input unit 103, an output processing unit 402, an output unit 403, a display unit 403A, an operation unit 403B, and a storage unit 106.
In addition, about the function part similar to or corresponding to FIG. 1, the same code | symbol is attached | subjected and description is abbreviate | omitted thru | or supplementary description.

情報取得部401は、会議に関する情報、および集団感情認識を行うための評価データを取得するものである。情報取得部401は、対会場センサ401Aと、対参加者センサ401Bとに細分される。   The information acquisition unit 401 acquires information about the conference and evaluation data for performing group emotion recognition. The information acquisition unit 401 is subdivided into an anti-site sensor 401A and an anti-participant sensor 401B.

対会場センサ401Aは、例えば会議室内に設置された温度計により測定される温度・湿度など、会議室内の物理的環境に関する情報を取得する。これらの変化を取得することにより、会議室内の不快度、議論の白熱度などの指標とすることができる。   The on-site sensor 401A acquires information on the physical environment in the conference room such as temperature and humidity measured by a thermometer installed in the conference room, for example. By acquiring these changes, it is possible to obtain an index such as the degree of discomfort in the conference room and the incandescence of the discussion.

対参加者センサ401Bは、以下の(1)〜(3)のような情報を取得する。   The anti-participant sensor 401B acquires information such as the following (1) to (3).

(1)会議参加者の生体情報
例えば、会議参加者に、体温・心拍・発汗量を測定するセンサ、あるいは、脳波計測装置などを身に付けさせておき、その取得情報から会議参加者の感情・状態を解析する。
(1) Biological information of the conference participant For example, the conference participant is allowed to wear a sensor for measuring body temperature, heart rate, sweating, an electroencephalogram measurement device, etc., and the emotion of the conference participant from the acquired information・ Analyze the state.

(2)会議参加者の発言・発話・音量に関する情報
例えば、各会議参加者の前に個人専用マイクを設置し、音声データを取得する。無発言時間の割合の増加から会議の停滞を検知して、休憩を挟む指針としたり、発言場所の分布から会議の活性部分を検知し、発言が少ない人に対して話を振ったりするための指針としたりすることができる。
(2) Information on Conference Participant's Speech / Speech / Volume For example, a personal microphone is installed in front of each conference participant to acquire voice data. To detect stagnation of the meeting from the increase in the percentage of no-speaking time and use it as a guideline to put a break, or to detect the active part of the meeting from the distribution of speaking places and to talk to people with few utterances It can be used as a guideline.

(3)会議参加者の姿勢状態に関する情報
会議室の椅子の背もたれ等に圧力センサを取り付けるなどしておき、会議参加者の姿勢状態(椅子へのもたれかかり具合)を検知し、その変化から会議参加者の感情・状態を解析する。
例えば、(a)背もたれにもたれかかる、(b)座り直しが多い、(c)肘掛に手を置いてしばらく動かない、といった会議参加者の人数が多ければ、会議室内では疲労、退屈、興味なしなどの感情が優勢であると判断できる。
その他、床面へ振動センサを設置しておき、会議参加者の足踏み動作などを集団感情の指標にすることも可能である。
(3) Information related to the posture status of the conference participants Attaching a pressure sensor to the chair back in the conference room, etc., detects the posture status of the conference participants (the amount of leaning on the chair), and participates in the conference based on the change. Analyzing the person's emotions and conditions.
For example, if there are a large number of participants such as (a) leaning on the back, (b) often sitting back, (c) putting their hands on the armrests and not moving for a while, fatigue, boredom, no interest in the meeting room It can be judged that feelings such as are dominant.
In addition, it is possible to install a vibration sensor on the floor and use the stepping action of the conference participants as an indicator of group emotion.

情報取得部401が取得した情報は、集団感情解析部102と記憶部106へ出力される。   Information acquired by the information acquisition unit 401 is output to the group emotion analysis unit 102 and the storage unit 106.

集団感情解析部102の動作は実施の形態1と同様であるが、情報取得部401が取得する情報が複数種類にわたるため、実施の形態1と異なり、これら取得情報を統合化して集団感情を解析する処理を行う。   The operation of the collective emotion analysis unit 102 is the same as that of the first embodiment. However, since the information acquisition unit 401 acquires a plurality of types of information, unlike the first embodiment, the acquired information is integrated to analyze the collective emotion. Perform the process.

入力部103の動作は、実施の形態1と同様である。入力部103を操作可能な者は、会議参加者全員、もしくは議長等の特定人物に絞るなど、任意に設定可能とする。   The operation of the input unit 103 is the same as that in the first embodiment. A person who can operate the input unit 103 can be arbitrarily set, such as narrowing down to all the conference participants or a specific person such as a chairperson.

出力処理部402は、出力部403で出力する情報を生成するものである。
例えば、集団感情解析部102の解析結果に基づいて、後述の表示部403Aの画面表示を切り替えるために必要な情報の処理を行う。また、動作部403Bに対する指示を行うために必要な情報の処理を行う。
The output processing unit 402 generates information output by the output unit 403.
For example, based on the analysis result of the collective emotion analysis unit 102, information necessary for switching the screen display of the display unit 403A described later is processed. Also, information necessary for giving an instruction to the operation unit 403B is processed.

表示部403Aの画面表示を切り替えるために必要な情報の処理とは、例えば、集団感情解析部102により会議が停滞していると判断された際に、休憩を入れるように提案すべき旨を議長用の情報提示装置のみに出力する、といったものである。   The processing of information necessary for switching the screen display of the display unit 403A is, for example, that when the group emotion analysis unit 102 determines that the conference is stagnant, the chairperson should propose a break. Output only to the information presentation device.

動作部403Bに対する指示とは、例えば、集団感情解析部102により会議参加者のフラストレーションが上昇していると判断された際に、室温を低下させて頭をクールダウンさせる、といったものである。
動作部403Bの詳細については、後述する。
The instruction to the operation unit 403B is, for example, that when the group emotion analysis unit 102 determines that the frustration of the conference participant is rising, the head is cooled down by lowering the room temperature.
Details of the operation unit 403B will be described later.

出力部403は、表示部403Aと動作部403Bに細分される。   The output unit 403 is subdivided into a display unit 403A and an operation unit 403B.

表示部403Aは、会議参加者が使用する資料、あるいは出力処理部402によって処理された情報を表示するものである。
表示部403Aは、例えば各会議参加者に割り当てられたコンピュータのディスプレイや、会議室内に設置されるスクリーンとプロジェクタからなる情報提示装置で構成することができる。
The display unit 403A displays materials used by the conference participants or information processed by the output processing unit 402.
The display unit 403A can be configured by, for example, a computer display assigned to each conference participant, or an information presentation device including a screen and a projector installed in the conference room.

動作部403Bは、例えば会議室内の空調設備の動作を制御する機能部であり、出力処理部402からの指示に基づき、会議室内の温度を調整する。また、空調設備の動作制御に代えて、会議室内に音楽をかける、会議室内にリラックス作用のある香りを散布する、照明を変更する、といった動作を行うように構成してもよい。
即ち、動作部403Bは、出力処理部402からの指示に基づき会議室内の物理的環境を変動させる作用を実行する機能を持つ。
The operation unit 403B is a functional unit that controls the operation of the air conditioning equipment in the conference room, for example, and adjusts the temperature in the conference room based on an instruction from the output processing unit 402. Moreover, it may replace with operation | movement control of an air conditioner, and you may comprise so that operation | movement, such as putting music in a meeting room, spraying the fragrance which has a relaxation effect | action in a meeting room, and changing illumination, may be performed.
That is, the operation unit 403B has a function of executing an action of changing the physical environment in the conference room based on an instruction from the output processing unit 402.

記憶部106が格納する内容は、実施の形態1と同様であるが、その格納内容を会議の議事録として用いることもできる。   The content stored in the storage unit 106 is the same as that in the first embodiment, but the stored content can also be used as a meeting minutes.

出力処理部402は、その機能を実現する回路デバイス等のハードウェアとして実現することもできるし、CPUやマイコン等の演算装置上で実行されるソフトウェアとして実現することもできる。   The output processing unit 402 can be realized as hardware such as a circuit device that realizes the function, or can be realized as software executed on an arithmetic device such as a CPU or a microcomputer.

本実施の形態2における「感情情報取得部」は、情報取得部401、対参加者センサ401Bがこれに相当する。
また、「センサ部」は、情報取得部401、対会場センサ401Aがこれに相当する。
The “emotion information acquisition unit” in the second embodiment corresponds to the information acquisition unit 401 and the participant sensor 401B.
The “sensor unit” corresponds to the information acquisition unit 401 and the anti-site sensor 401A.

図5は、会議室内で集団感情認識支援システム400を用いている様子を示すものである。
対参加者センサ401Bは、会議参加者毎に取り付けられており、各個人の生体情報、発話音声データ、姿勢情報などを取得する。
入力部103、記憶部106は、コンピュータ500のキーボード等の入力装置とHDDにより構成している。また、集団感情解析部102、出力処理部402は、コンピュータ500上で実行されるプログラムとして構成している。
FIG. 5 shows a state in which the group emotion recognition support system 400 is used in the conference room.
The anti-participant sensor 401B is attached to each conference participant, and acquires biometric information, speech voice data, posture information, and the like of each individual.
The input unit 103 and the storage unit 106 are configured by an input device such as a keyboard of the computer 500 and an HDD. The group emotion analysis unit 102 and the output processing unit 402 are configured as programs executed on the computer 500.

図6は、集団感情認識支援システム400の動作フローである。以下、各ステップについて説明する。   FIG. 6 is an operation flow of the collective emotion recognition support system 400. Hereinafter, each step will be described.

(S601)
会議開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。取得した情報は、集団感情解析部102に出力される。
(2)集団感情解析部102は、情報取得部401からの出力に基づき、会議参加者の集団感情を解析する。解析結果は、出力処理部402に出力される。
(3)表示部403Aは、会議参加者が使用する資料、出力処理部402によって処理された情報を表示する。
(4)情報取得部401、集団感情解析部102、出力処理部402のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
(S601)
For the initial state before the start of the conference, the initial process is executed as follows.
(1) The information acquisition unit 401 acquires information on the above-described conference and evaluation data for performing group emotion recognition. The acquired information is output to the collective emotion analysis unit 102.
(2) The group emotion analysis unit 102 analyzes the group emotions of the conference participants based on the output from the information acquisition unit 401. The analysis result is output to the output processing unit 402.
(3) The display unit 403A displays the materials used by the conference participants and the information processed by the output processing unit 402.
(4) The processing results of the information acquisition unit 401, the collective emotion analysis unit 102, and the output processing unit 402 are stored in the storage unit 106 as initial state data.

(S602)
会議が開始されると、例えば議長が入力部103よりその旨の入力を行い、これにより集団感情認識支援システム400は、会議が開始された旨を認識する。
(S603)
ステップS604〜S608の処理を、会議が継続される間、繰り返し実行する。なお、集団感情認識支援システム400は、会議の終了の旨を議長が入力部103に入力することにより認識する。
(S602)
When the conference is started, for example, the chairman inputs the information from the input unit 103, and the collective emotion recognition support system 400 recognizes that the conference is started.
(S603)
The processes in steps S604 to S608 are repeatedly executed while the conference is continued. In addition, the collective emotion recognition support system 400 recognizes that the end of the conference is input to the input unit 103 by the chairperson.

(S604)
出力処理部402は、集団感情解析部102の解析結果に基づいて、出力内容を更新する。表示部403Aと動作部403Bは、出力処理部402からの出力に基づき、それぞれの動作を行う。
(S605)
情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。情報取得部401が取得した情報は、集団感情解析部102と記憶部106に出力される。
(S604)
The output processing unit 402 updates the output content based on the analysis result of the collective emotion analysis unit 102. The display unit 403 </ b> A and the operation unit 403 </ b> B perform respective operations based on the output from the output processing unit 402.
(S605)
The information acquisition unit 401 acquires information on the above-described conference and evaluation data for performing group emotion recognition. Information acquired by the information acquisition unit 401 is output to the group emotion analysis unit 102 and the storage unit 106.

(S606)
集団感情解析部102は、情報取得部401から受け取った情報に基づき、会議参加者の集団心理状態を解析する。
解析結果は、出力処理部402と記憶部106に出力される。
(S606)
The group emotion analysis unit 102 analyzes the group psychological state of the conference participant based on the information received from the information acquisition unit 401.
The analysis result is output to the output processing unit 402 and the storage unit 106.

(S607)
出力処理部402は、入力部103からの指示入力、および集団感情解析部102の解析結果に基づき、表示部403Aと動作部403Bがそれぞれの動作を行うための情報を生成する。
(S608)
記憶部106は、情報取得部401、集団感情解析部102、出力処理部402がそれぞれ出力した情報を、同期を取って格納する。
(S607)
Based on the instruction input from the input unit 103 and the analysis result of the collective emotion analysis unit 102, the output processing unit 402 generates information for the display unit 403A and the operation unit 403B to perform the respective operations.
(S608)
The storage unit 106 stores information output by the information acquisition unit 401, the collective emotion analysis unit 102, and the output processing unit 402 in synchronization with each other.

本実施の形態2では、会議の場面を想定し、情報取得部401、集団感情解析部102、入力部103、出力処理部402、表示部403A、動作部403B、の構成や動作を説明した。
これら各機能部は、集団感情認識支援システム400の利用場面が異なる場合は、適宜適切な構成や動作をとるようにしてもよい。
In the second embodiment, the configuration and operation of the information acquisition unit 401, the collective emotion analysis unit 102, the input unit 103, the output processing unit 402, the display unit 403A, and the operation unit 403B have been described assuming a meeting scene.
These functional units may take appropriate configurations and operations as appropriate when the use scene of the collective emotion recognition support system 400 is different.

以上のように、本実施の形態2によれば、会議のように情報発信元が流動的に変化する場合においても、会議室内に複数のセンサを配置し、これから得られる計測データを統合的に解析することにより、会議参加者の集団感情を認識することが可能である。
さらには、集団感情の認識結果に基づき、会議室内の空調を調節するなど、会議室内の物理的環境に対する作用を実施することにより、会議室環境を適切に変動させ、効率的な会議運営を支援することができる。
As described above, according to the second embodiment, a plurality of sensors are arranged in a conference room and measurement data obtained therefrom are integrated in a case where the information transmission source is fluidly changed as in a conference. By analyzing, it is possible to recognize the collective feelings of the conference participants.
In addition, by adjusting the air conditioning in the conference room based on the recognition results of group emotions, the conference room environment is appropriately changed by implementing actions on the physical environment in the conference room to support efficient conference management. can do.

実施の形態3.
実施の形態2では、会議参加者を集団として取り扱い、集団感情の認識結果に基づき、例えば会議室の空調を調節するなど、集団全体に効果を及ぼす物理的作用を実施することとした。
本発明の実施の形態3では、集団全体に効果を及ぼす作用とともに、集団を構成する個人に合わせた作用を実施する構成例について説明する。
ここでは、実施の形態2と同様に会議の場面を想定し、会議参加者の集団感情認識により休憩を挟むべき旨を判断した際などに、参加者個人の嗜好に合わせたハーブティーを供給する例を説明する。
Embodiment 3 FIG.
In the second embodiment, the conference participants are treated as a group, and based on the recognition result of the group emotion, for example, the physical action that exerts an effect on the entire group is performed such as adjusting the air conditioning of the conference room.
In the third embodiment of the present invention, a configuration example will be described in which an operation that has an effect on the entire group and an operation tailored to the individuals making up the group are implemented.
Here, as in the case of Embodiment 2, assuming a meeting scene, when it is determined that a break should be sandwiched by recognition of group participants' emotions, herbal tea that matches the individual preferences of the participants is supplied. An example will be described.

図7は、本発明の実施の形態3に係る集団感情認識支援システム700の機能ブロック図である。
集団感情認識支援システム700は、情報取得部401、集団感情解析部701、入力部103、データベース702、出力処理部703、出力部704、表示部704A、動作部704B、記憶部106を備える。
なお、実施の形態2の図4と同様または対応する機能部については、同じ符号を付して、説明を省略ないし補足説明に留める。
FIG. 7 is a functional block diagram of group emotion recognition support system 700 according to Embodiment 3 of the present invention.
The group emotion recognition support system 700 includes an information acquisition unit 401, a group emotion analysis unit 701, an input unit 103, a database 702, an output processing unit 703, an output unit 704, a display unit 704A, an operation unit 704B, and a storage unit 106.
In addition, about the function part which is the same as that of FIG. 4 of Embodiment 2, or respond | corresponds, the same code | symbol is attached | subjected and description is abbreviate | omitted thru | or supplementary description.

情報取得部401の機能は、実施の形態2と同様である。情報取得部401が取得した情報は、集団感情解析部701、記憶部106、データベース702へ出力される。   The function of the information acquisition unit 401 is the same as that of the second embodiment. Information acquired by the information acquisition unit 401 is output to the collective emotion analysis unit 701, the storage unit 106, and the database 702.

集団感情解析部701は、実施の形態2と同様に、情報取得部401が取得した情報を統合的に取り扱って集団感情認識を行う。また、これに加えて、会議参加者個人の感情認識も実施する。個人の感情認識の手法は、任意の公知の技術を用いるものとする。
解析結果は、出力処理部703、記憶部106に出力される。また、会議参加者個人の感情認識結果に関しては、データベース702にも出力される。詳細は後述する。
As in the second embodiment, the collective emotion analysis unit 701 performs collective emotion recognition by handling the information acquired by the information acquisition unit 401 in an integrated manner. In addition to this, the participants will also recognize the emotions of individual participants. Any known technique is used as a method of personal emotion recognition.
The analysis result is output to the output processing unit 703 and the storage unit 106. Further, the emotion recognition result of the individual conference participant is also output to the database 702. Details will be described later.

データベース702は、会議参加者個人の特性に関するデータを保持するものである。
ここでいう会議参加者個人の特性に関するデータとは、例えば以下の(1)(2)のようなデータのことである。
The database 702 holds data regarding the characteristics of individual conference participants.
The data relating to the characteristics of the individual conference participants here are, for example, the following data (1) and (2).

(1)ハーブティーに関する嗜好
会議参加者に対して事前に実施するヒアリングやアンケート、もしくは会議参加者自身が入力部103に入力する、などにより、会議参加者個人のハーブティーに関する嗜好をデータベース702に格納しておく。
(1) Preferences related to herbal teas The preferences regarding herbal teas of individual conference participants are entered into the database 702 through interviews and questionnaires conducted in advance for the conference participants, or by the conference participants themselves entering the input unit 103. Store it.

(2)会議中の感情変化の傾向
情報取得部401からの出力、および集団感情解析部701による個人感情解析の結果により、会議中の感情変化の傾向を、会議参加者個人単位でデータベース702に保持しておく。
(2) Emotion change tendency during meeting Based on the output from the information acquisition unit 401 and the result of individual emotion analysis by the group emotion analysis unit 701, the tendency of emotion change during the meeting is stored in the database 702 for each individual conference participant. Keep it.

データベース702が保持している情報は、後述の動作部704Bが会議参加者個人に対して動作を実行する際に用いられる。   Information held in the database 702 is used when an operation unit 704B described later executes an operation on a conference participant.

なお、データベース702は、HDDのような書込み可能な記憶装置に、必要なデータファイルを格納する等により構成することができる。   The database 702 can be configured by storing necessary data files in a writable storage device such as an HDD.

出力処理部402は、出力部704で出力する情報を生成するものである。例えば以下の(1)(2)のような情報を生成する。なお、これらの情報は、入力部103からの指示入力により変更可能である。   The output processing unit 402 generates information to be output by the output unit 704. For example, the following information (1) (2) is generated. These pieces of information can be changed by inputting instructions from the input unit 103.

(1)集団感情解析部701の解析結果に基づき、表示部704Aに対し、ハーブティーの配膳に関する指示等を表示するように指示する。詳細は後述する。
(2)集団感情解析部701の解析結果に基づき、データベース702から会議参加者個人のハーブティーに関する嗜好等を読み出し、会議参加者個人の嗜好にあったハーブティーの配合・作成を行うように、動作部704Bへ指示する。詳細は後述する。
(1) Based on the analysis result of the collective emotion analysis unit 701, the display unit 704A is instructed to display an instruction relating to herbal tea arrangement. Details will be described later.
(2) Based on the analysis results of the collective emotion analysis unit 701, the preferences regarding the herbal tea of the conference participants are read from the database 702, and the herbal tea is formulated and created according to the preferences of the conference participants. The operation unit 704B is instructed. Details will be described later.

出力部704は、表示部704Aと動作部704Bに細分される。   The output unit 704 is subdivided into a display unit 704A and an operation unit 704B.

表示部704Aは、出力処理部402の指示に基づき、実施の形態2で説明した、会議資料の表示等の動作に加え、以下の動作を行う。   The display unit 704A performs the following operation in addition to the operation of displaying the conference material and the like described in the second embodiment based on the instruction from the output processing unit 402.

(1)ハーブティーを会議室に持ち込むタイミングの指示を表示する。
(2)会議参加者個人毎に配合されたハーブティーの個々の配膳指示を表示する。
(1) Display instructions for timing of bringing herbal tea into the conference room.
(2) Display individual instructions for herbal teas formulated for each individual participant.

これらの表示は、例えば議長の手元にあるディスプレイにのみ表示するようにしてもよいし、会議室の外で待機している運営スタッフに対して表示するようにしてもよい。   These displays may be displayed only on a display at hand of the chairman, for example, or may be displayed to an operating staff waiting outside the conference room.

動作部704Bは、出力処理部402の指示に基づき、実施の形態2で説明した、会議室の空調設備の制御動作に加え、ハーブティーの配合・作成を実施する。
動作部704Bは、例えば電子制御可能なティーサーバと連動しており、出力処理部402より会議参加者個人の嗜好にあったハーブティーの配合・作成を行うように指示を受け、これに基づいてティーサーバに指示を与える。
ハーブティーの配膳等は、表示部704Aの表示に従って、運営スタッフ等が別途実施する。
Based on the instruction of the output processing unit 402, the operation unit 704B performs herbal tea blending and creation in addition to the control operation of the air conditioning equipment in the conference room described in the second embodiment.
The operation unit 704B is linked to, for example, an electronically controllable tea server, and receives an instruction from the output processing unit 402 to mix and create herbal tea according to the personal preference of the conference participant. Give instructions to the tea server.
Herbal tea is arranged by the management staff separately according to the display on the display unit 704A.

図8は、集団感情認識支援システム700の動作フローである。以下、各ステップについて説明する。   FIG. 8 is an operation flow of the collective emotion recognition support system 700. Hereinafter, each step will be described.

(S801)
会議開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。取得した情報は、集団感情解析部701とデータベース702に出力される。
(2)集団感情解析部701は、情報取得部401からの出力に基づき、会議参加者の集団感情を解析する。解析結果は、出力処理部703に出力される。
また、集団感情解析部701は、情報取得部401からの出力に基づき、会議参加者個人の感情認識を行う。認識結果は、初期状態データとしてデータベース702に格納される。
(3)表示部704Aは、会議参加者が使用する資料、出力処理部703によって処理された情報を表示する。
(4)情報取得部401、集団感情解析部701、出力処理部703のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
(S801)
For the initial state before the start of the conference, the initial process is executed as follows.
(1) The information acquisition unit 401 acquires information on the above-described conference and evaluation data for performing group emotion recognition. The acquired information is output to the collective emotion analysis unit 701 and the database 702.
(2) The group emotion analysis unit 701 analyzes a group participant's group emotion based on the output from the information acquisition unit 401. The analysis result is output to the output processing unit 703.
In addition, the collective emotion analysis unit 701 recognizes the emotions of individual conference participants based on the output from the information acquisition unit 401. The recognition result is stored in the database 702 as initial state data.
(3) The display unit 704A displays the materials used by the conference participants and the information processed by the output processing unit 703.
(4) The processing results of the information acquisition unit 401, group emotion analysis unit 701, and output processing unit 703 are stored in the storage unit 106 as initial state data.

(S802)〜(S803)
図6のステップS602〜S603と同様である。
(S804)
出力処理部703は、集団感情解析部701の解析結果に基づいて、出力内容を更新する。表示部704Aと動作部704Bは、出力処理部703からの出力に基づき、それぞれの動作を行う。
(S802) to (S803)
This is the same as steps S602 to S603 in FIG.
(S804)
The output processing unit 703 updates the output content based on the analysis result of the group emotion analysis unit 701. The display unit 704A and the operation unit 704B perform respective operations based on the output from the output processing unit 703.

(S805)
情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。情報取得部401が取得した情報は、集団感情解析部701とデータベース702に出力される。
(S805)
The information acquisition unit 401 acquires information on the above-described conference and evaluation data for performing group emotion recognition. Information acquired by the information acquisition unit 401 is output to the group emotion analysis unit 701 and the database 702.

(S806)
集団感情解析部701は、情報取得部401から受け取った情報に基づき、会議参加者の集団心理状態を解析する。また、会議参加者個人の感情認識を実施する。
解析結果は、出力処理部703、記憶部106、データベース702に出力される。
(S807)
データベース702は、集団感情解析部701より会議参加者個人の感情認識の結果を受け取るとともに、情報取得部401が取得した情報を受け取り、これを保存する。
(S806)
The group emotion analysis unit 701 analyzes a group participant's group psychological state based on the information received from the information acquisition unit 401. In addition, we will recognize the emotions of individual participants.
The analysis result is output to the output processing unit 703, the storage unit 106, and the database 702.
(S807)
The database 702 receives the result of emotion recognition of individual conference participants from the collective emotion analysis unit 701 and receives the information acquired by the information acquisition unit 401 and stores it.

(S808)
出力処理部703は、入力部103からの指示入力、集団感情解析部701の解析結果、およびデータベース702が保持しているデータに基づき、表示部704Aと動作部704Bがそれぞれの動作を行うための情報を生成する。
(S809)
記憶部106は、情報取得部401、集団感情解析部701、出力処理部703がそれぞれ出力した情報を、同期を取って格納する。
(S808)
Based on the instruction input from the input unit 103, the analysis result of the collective emotion analysis unit 701, and the data held in the database 702, the output processing unit 703 is used for the display unit 704A and the operation unit 704B to perform respective operations. Generate information.
(S809)
The storage unit 106 stores the information output by the information acquisition unit 401, the collective emotion analysis unit 701, and the output processing unit 703 in synchronization with each other.

本実施の形態3では、会議の場面において、会議参加者個人の嗜好に合わせたハーブティーを供給し、会議運営を支援することについて説明したが、集団感情認識支援システム700の利用場面が異なる場合は、本実施の形態3で説明したもの以外に、適宜適切な構成や動作をとるようにしてもよい。   In the third embodiment, it has been described that in the meeting scene, herbal tea is supplied according to the individual preferences of the meeting participants and the meeting operation is supported, but the use situation of the collective emotion recognition support system 700 is different. In addition to those described in the third embodiment, appropriate configurations and operations may be taken as appropriate.

なお、動作部704Bは、会議参加者の嗜好に合わせてハーブティーの配合・作成を行うものとしたが、これに限られるものではなく、例えば香りを発する、照明を変更するなど、他の作用を実施するものとして構成してもよい。   The operation unit 704B mixes and creates herbal tea according to the preferences of the conference participants. However, the operation unit 704B is not limited to this. For example, the action unit 704B emits a scent or changes lighting. You may comprise as what implements.

また、本実施の形態3において、個人の特性をデータベース702に格納してこれを利用する例を説明したが、集団の特性をデータベース702に格納して利用してもよい。   In the third embodiment, an example in which personal characteristics are stored in the database 702 and used is described. However, group characteristics may be stored in the database 702 and used.

以上のように、本実施の形態3によれば、会議参加者を集団として取り扱うのみならず、会議参加者個人の嗜好を格納したデータベース702と、会議参加者個人の感情認識の結果に基づき、会議参加者個人に合わせた出力(本実施の形態3ではハーブティーの配合を例にした)を行うことができる。
即ち、集団感情の認識に基づいて集団全体に対する出力を行うとともに、個々の出力に関しては各個人に最適化した出力を行うことが可能となる。
As described above, according to the third embodiment, not only the conference participants are handled as a group, but also based on the database 702 storing the individual preferences of the conference participants and the results of the emotion recognition of the individual conference participants, An output tailored to the individual of the conference participant can be performed (in the third embodiment, herbal tea is used as an example).
That is, it is possible to perform output for the entire group based on recognition of group emotions and to perform output optimized for each individual regarding individual outputs.

実施の形態4.
以上の実施の形態1〜3では、集団感情の認識結果に基づき、プレゼンテーションや会議運営の支援を行う構成例について説明した。
集団感情認識のその他の利用例として、例えば学習環境(学校や学習塾)における利用が考えられる。
Embodiment 4 FIG.
In the above first to third embodiments, the configuration examples for supporting the presentation and conference management based on the recognition result of the collective emotion have been described.
As another use example of group emotion recognition, for example, use in a learning environment (a school or a cram school) can be considered.

例えば、生徒の授業に対する感情を集団感情として取り扱い、生徒が授業の内容について抱いている感情(内容が理解できた、分かりにくい、等)を認識し、これに基づいて教師の授業進行を支援することが考えられる。
また、生徒集団に対する動作に加えて、生徒個人の学習の進捗をデータベースに保持しておき、生徒個人に合わせた課題を自動的に生成する、といった利用例も考えられる。
For example, students 'feelings about classes are treated as group feelings, and the students' feelings about the contents of the classes (the contents were understood, difficult to understand, etc.) are recognized, and teachers are promoted based on this. It is possible.
Further, in addition to the operations for the student group, a usage example is also conceivable in which a student's learning progress is stored in a database, and a task tailored to the student is automatically generated.

以上の実施の形態1〜4において、ある1空間における集団感情認識について説明したが、複数の空間を対象として集団感情認識を行ってもよい。   In Embodiments 1 to 4 described above, group emotion recognition in a certain space has been described, but group emotion recognition may be performed for a plurality of spaces.

実施の形態1に係る集団感情認識支援システム100の機能ブロック図である。1 is a functional block diagram of a group emotion recognition support system 100 according to Embodiment 1. FIG. プレゼンテーション会場で集団感情認識支援システム100を用いている様子を示すものである。2 shows a state where the group emotion recognition support system 100 is used at a presentation venue. 集団感情認識支援システム100の動作フローである。It is an operation | movement flow of the group emotion recognition assistance system 100. FIG. 実施の形態2に係る集団感情認識支援システム400の機能ブロック図である。It is a functional block diagram of the group emotion recognition support system 400 which concerns on Embodiment 2. FIG. 会議室内で集団感情認識支援システム400を用いている様子を示すものである。This shows how the group emotion recognition support system 400 is used in a conference room. 集団感情認識支援システム400の動作フローである。It is an operation | movement flow of the group emotion recognition assistance system 400. FIG. 実施の形態3に係る集団感情認識支援システム700の機能ブロック図である。FIG. 10 is a functional block diagram of a collective emotion recognition support system 700 according to Embodiment 3. 集団感情認識支援システム700の動作フローである。It is an operation | movement flow of the group emotion recognition support system 700. FIG.

符号の説明Explanation of symbols

100 集団感情認識支援システム、101 情報取得部、102 集団感情解析部、103 入力部、104 出力データ処理部、105 出力部、105A 話者用表示部、105B 聴衆用表示部、106 記憶部、400 集団感情認識支援システム、401 情報取得部、402 出力処理部、403 出力部、403A 表示部、403B 動作部、700 集団感情認識支援システム、701 集団感情解析部、702 データベース、703 出力処理部、704 出力部、704A 表示部、704B 動作部。   DESCRIPTION OF SYMBOLS 100 Group emotion recognition support system, 101 Information acquisition part, 102 Group emotion analysis part, 103 Input part, 104 Output data processing part, 105 Output part, 105A Speaker display part, 105B Audience display part, 106 Storage part, 400 Group emotion recognition support system, 401 information acquisition unit, 402 output processing unit, 403 output unit, 403A display unit, 403B operation unit, 700 group emotion recognition support system, 701 group emotion analysis unit, 702 database, 703 output processing unit, 704 Output unit, 704A display unit, 704B operation unit.

Claims (9)

複数人からなる聴衆である集団の集団的感情を認識し、前記聴衆にプレゼンテーションを行っている話者のプレゼンテーションの進行を支援するシステムであって、
前記集団に属する個人の感情を表す情報を取得する感情情報取得部と、
前記感情情報取得部が取得した情報を統合して前記集団の集団的感情を解析する集団感情解析部と、
前記集団感情解析部の解析結果に基づいて、
前記聴衆の関心対象を分類し、当該分類の結果から前記関心対象の割合データを生成して出力すると共に、
前記プレゼンテーションのスライドの注目度合いから当該注目度合いの分布情報を生成して出力する出力データ処理部と、
前記出力データ処理部から出力された前記割合データ及び前記分布情報を前記話者に情報提示する出力を行う出力部と、
を備え、
前記出力データ処理部は、
前記話者のプレゼンテーションが継続中、前記割合データ及び前記分布情報の生成を繰り返し実行する
ことを特徴とする集団感情認識支援システム。
A system for recognizing the collective feelings of a group of multiple audiences and supporting the progress of a speaker presenting to the audience,
An emotion information acquisition unit for acquiring information representing the emotions of individuals belonging to the group;
A collective emotion analysis unit that integrates information acquired by the emotion information acquisition unit and analyzes the collective emotion of the group;
Based on the analysis result of the group sentiment analysis unit,
Classifying the audience's interests, generating and outputting the percentage data of the interests from the classification results,
An output data processing unit that generates and outputs distribution information of the degree of attention from the degree of attention of the slide of the presentation;
An output unit for outputting the ratio data and the distribution information output from the output data processing unit to the speaker;
With
The output data processing unit
A group emotion recognition support system characterized by repeatedly generating the ratio data and the distribution information while the speaker's presentation continues.
前記集団が存在している空間の物理的環境の情報を取得するセンサ部を備え、
前記集団感情解析部は、
前記感情情報取得部が取得した情報と、前記センサ部が取得した情報とに基づき、前記集団の集団的感情を解析する
ことを特徴とする請求項に記載の集団感情認識支援システム。
A sensor unit that acquires information on a physical environment of a space in which the group exists;
The group sentiment analysis unit
The emotion information acquisition unit acquires information, population emotion recognition support system according to claim 1, wherein the sensor unit is based on the obtained information, characterized by analyzing the collective feelings of the population.
前記出力部の出力に基づき前記集団が存在している空間の物理的環境を変動させる物理的作用を実行する動作部
を備えたことを特徴とする請求項1又は請求項に記載の集団感情認識支援システム。
Population feelings of claim 1 or claim 2 characterized by comprising an operation unit that performs a physical action to vary the physical environment of space where the population based on the output of the output portion is present Recognition support system.
前記集団感情解析部は、
前記集団的感情を解析するとともに、前記集団に属する個人の感情の変化を解析し、
前記出力部は、
前記集団感情解析部が解析した個人の感情の変化の解析結果を出力する
ことを特徴とする請求項1ないし請求項のいずれかに記載の集団感情認識支援システム。
The group sentiment analysis unit
Analyzing the collective emotions and analyzing changes in the emotions of individuals belonging to the group,
The output unit is
The group emotion recognition support system according to any one of claims 1 to 3 , wherein the group emotion analysis unit outputs an analysis result of an individual emotion change.
前記集団感情解析部の解析結果を時系列に沿って格納する記憶部を備え、
前記記憶部は、
前記集団感情解析部の解析結果、前記感情情報取得部が取得した情報、および前記出力部の出力内容を、同期させて格納する
ことを特徴とする請求項1ないし請求項のいずれかに記載の集団感情認識支援システム。
A storage unit that stores the analysis results of the group emotion analysis unit in chronological order,
The storage unit
Analysis results of the population emotion analysis section, information in which the emotion information acquisition unit acquires, and wherein the output content of the output unit, in any one of claims 1 to 4, characterized in that storing in synchronism Group emotion recognition support system.
前記集団に属する個人の特性に関する情報を保持するデータベースを備え、
前記出力部は、
前記集団感情解析部の解析結果とともに、前記データベースに格納されている情報を出力する
ことを特徴とする請求項1ないし請求項のいずれかに記載の集団感情認識支援システム。
A database for holding information on characteristics of individuals belonging to the group;
The output unit is
The group emotion recognition support system according to any one of claims 1 to 5 , wherein information stored in the database is output together with an analysis result of the group emotion analysis unit.
前記集団に属する個人の特性に関する情報を保持するデータベースを備え、
前記動作部は、
前記データベースに格納されている情報に基づき、前記集団に属する個人の特性に対応した前記物理的作用を実行する
ことを特徴とする請求項に記載の集団感情認識支援システム。
A database for holding information on characteristics of individuals belonging to the group;
The operating unit is
The group emotion recognition support system according to claim 3 , wherein the physical action corresponding to the characteristics of individuals belonging to the group is executed based on information stored in the database.
前記感情情報取得部は、前記集団に属する個人の生体的情報を取得するセンサである
ことを特徴とする請求項1ないし請求項のいずれかに記載の集団感情認識支援システム。
The group emotion recognition support system according to any one of claims 1 to 7 , wherein the emotion information acquisition unit is a sensor that acquires biological information of individuals belonging to the group.
前記出力部の出力を画面表示する表示部を備えた
ことを特徴とする請求項1ないし請求項のいずれかに記載の集団感情認識支援システム。
The group emotion recognition support system according to any one of claims 1 to 8 , further comprising a display unit configured to display an output of the output unit on a screen.
JP2007116066A 2007-04-25 2007-04-25 Group emotion recognition support system Expired - Fee Related JP5233159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007116066A JP5233159B2 (en) 2007-04-25 2007-04-25 Group emotion recognition support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007116066A JP5233159B2 (en) 2007-04-25 2007-04-25 Group emotion recognition support system

Publications (2)

Publication Number Publication Date
JP2008272019A JP2008272019A (en) 2008-11-13
JP5233159B2 true JP5233159B2 (en) 2013-07-10

Family

ID=40050770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007116066A Expired - Fee Related JP5233159B2 (en) 2007-04-25 2007-04-25 Group emotion recognition support system

Country Status (1)

Country Link
JP (1) JP5233159B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107847195A (en) * 2016-03-15 2018-03-27 欧姆龙株式会社 Care degree estimation unit, care degree method of estimation, program and recording medium

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101045659B1 (en) * 2009-02-19 2011-06-30 강장묵 System and Method for Emotional Information Service
KR101649158B1 (en) * 2010-03-03 2016-08-18 엘지전자 주식회사 Method for generating emotion imformation, apparatus for generating motion imformation, and image display apparatus including the same
JP2011134167A (en) * 2009-12-25 2011-07-07 Naoto Yajima Ability counseling system and ability counseling method
JP2014011489A (en) * 2012-06-27 2014-01-20 Nikon Corp Electronic apparatus
JP6115074B2 (en) * 2012-10-25 2017-04-19 株式会社リコー Information presentation system, information presentation apparatus, program, and information presentation method
WO2014083779A1 (en) 2012-11-30 2014-06-05 パナソニック株式会社 Information provision method
JP6814236B2 (en) 2012-11-30 2021-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing method
JP2016009342A (en) * 2014-06-25 2016-01-18 日本電信電話株式会社 Area burst estimation presenting device, area burst estimation presenting method, and area burst estimation presenting program
JP6678392B2 (en) * 2015-03-31 2020-04-08 パイオニア株式会社 User state prediction system
JP6497185B2 (en) * 2015-04-09 2019-04-10 本田技研工業株式会社 Autonomous mobile device and control method of autonomous mobile device
KR102076807B1 (en) 2015-05-18 2020-02-13 전자부품연구원 User group activity sensing in service area and behavior semantic analysis system
JP6655378B2 (en) * 2015-12-17 2020-02-26 株式会社イトーキ Meeting support system
JP6536510B2 (en) * 2016-07-28 2019-07-03 京セラドキュメントソリューションズ株式会社 Presentation support system, presentation support device and presentation support method
JP6798353B2 (en) * 2017-02-24 2020-12-09 沖電気工業株式会社 Emotion estimation server and emotion estimation method
JP2019159707A (en) * 2018-03-12 2019-09-19 富士ゼロックス株式会社 Information presentation device, information presentation method, and information presentation program
JP6872757B2 (en) * 2018-06-21 2021-05-19 日本電信電話株式会社 Group state estimation device, group state estimation method and group state estimation program
JP6918748B2 (en) * 2018-06-27 2021-08-11 ヤフー株式会社 Information processing equipment, information processing methods, and information processing programs
JP7087804B2 (en) * 2018-08-08 2022-06-21 沖電気工業株式会社 Communication support device, communication support system and communication method
JP7255437B2 (en) * 2019-09-30 2023-04-11 富士通株式会社 Diffusion object control method, diffusion object control program, and diffusion object control device
WO2021181909A1 (en) * 2020-03-10 2021-09-16 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7369942B2 (en) * 2020-07-02 2023-10-27 パナソニックIpマネジメント株式会社 Communication analysis system and communication analysis method
JP7430132B2 (en) * 2020-10-23 2024-02-09 本田技研工業株式会社 Conference support device, conference support method, and conference support program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2816799B2 (en) * 1993-08-10 1998-10-27 株式会社日立製作所 Sensing device, environmental control device, and environmental control method
JPH09206291A (en) * 1996-02-02 1997-08-12 Japan Small Corp Device for detecting emotion and state of human
JP4608858B2 (en) * 2003-08-12 2011-01-12 ソニー株式会社 Emotion visualization device, emotion visualization method, and emotion visualization output
JP2005124909A (en) * 2003-10-24 2005-05-19 Sony Corp Method for presenting emotional information, emotional information display device, and method for retrieving information content
JP2005188969A (en) * 2003-12-24 2005-07-14 Matsushita Electric Ind Co Ltd Toilet system and residential environment controlling system
JP4604494B2 (en) * 2004-01-15 2011-01-05 セイコーエプソン株式会社 Biological information analysis system
JP4497966B2 (en) * 2004-03-17 2010-07-07 横河電機株式会社 Equipment control system
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107847195A (en) * 2016-03-15 2018-03-27 欧姆龙株式会社 Care degree estimation unit, care degree method of estimation, program and recording medium
CN107847195B (en) * 2016-03-15 2020-06-12 欧姆龙株式会社 Attention estimation device, attention estimation method, and recording medium

Also Published As

Publication number Publication date
JP2008272019A (en) 2008-11-13

Similar Documents

Publication Publication Date Title
JP5233159B2 (en) Group emotion recognition support system
US10748037B2 (en) Machine intelligent predictive communications and control system
Tsiourti et al. A virtual assistive companion for older adults: design implications for a real-world application
CN109074117B (en) Providing emotion-based cognitive assistant systems, methods, and computer-readable media
CA2655189C (en) Measuring cognitive load
US20180032126A1 (en) Method and system for measuring emotional state
US20130234826A1 (en) Electronic device and electronic device control program
KR101759335B1 (en) Presentation and interview training system
US10163362B2 (en) Emotion and mood data input, display, and analysis device
US10580434B2 (en) Information presentation apparatus, information presentation method, and non-transitory computer readable medium
JP4829696B2 (en) Conversation support system
JP2016177483A (en) Communication support device, communication support method, and program
Carrasco et al. Linking emotional dissonance and service climate to well-being at work: A cross-level analysis
Yfantidou et al. 14 Years of Self-Tracking Technology for mHealth—Literature Review: Lessons Learned and the PAST SELF Framework
JP2019133451A (en) Evaluation method, evaluation device, evaluation program, and evaluation system
Chuckun et al. Enabling the Disabled using mHealth
Schreitter et al. The OFAI multi-modal task description corpus
JP2016021259A (en) Electronic apparatus and control program for electronic apparatus
KR101800546B1 (en) Virtual interview system
KR20160142648A (en) Presentation training system through the virtual reality
US11677575B1 (en) Adaptive audio-visual backdrops and virtual coach for immersive video conference spaces
JP2012146216A (en) Electronic device and program for controlling the same
Koleva et al. On the interplay between spontaneous spoken instructions and human visual behaviour in an indoor guidance task.
JP5811537B2 (en) Electronics
JP7358265B2 (en) Characterization system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5233159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees