JP5233159B2 - Group emotion recognition support system - Google Patents
Group emotion recognition support system Download PDFInfo
- Publication number
- JP5233159B2 JP5233159B2 JP2007116066A JP2007116066A JP5233159B2 JP 5233159 B2 JP5233159 B2 JP 5233159B2 JP 2007116066 A JP2007116066 A JP 2007116066A JP 2007116066 A JP2007116066 A JP 2007116066A JP 5233159 B2 JP5233159 B2 JP 5233159B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- group
- information
- emotion
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000008909 emotion recognition Effects 0.000 title claims description 69
- 230000008451 emotion Effects 0.000 claims description 122
- 238000004458 analytical method Methods 0.000 claims description 92
- 238000012545 processing Methods 0.000 claims description 68
- 230000008859 change Effects 0.000 claims description 4
- 230000000704 physical effect Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 17
- 235000015092 herbal tea Nutrition 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000004378 air conditioning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 241001122767 Theaceae Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 235000013616 tea Nutrition 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010048909 Boredom Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001310793 Podium Species 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000003205 fragrance Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000001429 stepping effect Effects 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Description
本発明は、ある空間に存在する複数の人間が持つ感情を統合し、集団的感情として認識することを支援するシステムに関するものである。 The present invention relates to a system that supports integration of emotions possessed by a plurality of humans existing in a certain space and recognizes them as collective emotions.
従来、人間の感情を認識することに関し、『適正でかつ使用されている時間が長くなればなるほど正しい判断ができ、かつ、患者の状態に応じた正確な感情判断を可能にした生体情報に基づく感情認識システムを提供すること。』を目的とした技術として、『生体情報に基づく感情認識システム1は、患者の身体に着脱が可能なセンサー31を用いて、当該患者の身体から発せられる生体信号を取込む生体情報収集装置3と、前記生体情報収集装置3からの生体信号を取込み、ファジー関数処理を行うことによって当該生体の現在の感情を認識させてその認識結果を出力できる感情認識装置5とを備えたものである。』というものが提案されている(特許文献1)。
Conventionally, with regard to recognizing human emotions, it is based on “biological information that makes it possible to make a correct decision as the time is appropriate and used longer, and to make an accurate emotion determination according to the patient's condition. To provide an emotion recognition system. As a technology for the purpose, "the
また、『ユーザの音声入力によって、絵文字や顔文字入りの楽しいメール又はMessageを作成することを可能とした音声感情認識によるメール作成機能付携帯端末、携帯端末システム、及び、音声感情認識によるメール作成方法を提供する。』ことを目的とした技術として、『携帯端末において、ユーザが発した音声を入力するための音声入力手段8と、ユーザ入力音声をテキストに変換する入力音声変換手段9と、ユーザ入力音声から感情を読み取り、対応する感情キーワードに変換する感情認識手段3と、入力音声変換手段9によりユーザ入力音声が変換されたテキストを、対応する発音キーワードに変換し、変換した発音キーワードと、感情認識手段3により変換された感情キーワードとを基に、文書登録リスト5を検索して、これと対応する記号、顔文字、又は、絵文字に変換する顔文字等変換手段4とを設ける。』というものが提案されている(特許文献2)。
In addition, “a mobile terminal with a mail creation function by voice emotion recognition, a mobile terminal system, and a mail creation by voice emotion recognition, which makes it possible to create a fun email or message containing pictographs or emoticons by user voice input. Provide a method. As a technology for the purpose of the above, “in a portable terminal, voice input means 8 for inputting voice uttered by a user, input voice conversion means 9 for converting user input voice into text, and emotion from user input voice” Is converted into a corresponding emotion keyword, and the text converted from the user input voice by the input voice conversion means 9 is converted into a corresponding pronunciation keyword, the converted pronunciation keyword and the emotion recognition means 3 On the basis of the emotion keyword converted by the above, the
また、感情を認識した結果を利用することに関し、『発表者自身が自分の発表状況を把握して、それに対処することを可能にし得る発表支援装置を提供する。』ことを目的とした技術として、『発表者の音声を感情認識部12に与えて発表者の心理状態を認識し、その認識結果に応じた反応の表示情報を反応生成部13で生成し、発表内容生成部14で生成された発表内容とともに表示部15に表示する。』というものが提案されている(特許文献3)。 Further, regarding the use of the result of recognizing emotion, “providing a presentation support device that enables the presenter to grasp his / her own presentation situation and cope with it. As a technique for the purpose of the above, “the speech of the presenter is given to the emotion recognition unit 12 to recognize the presenter's psychological state, and the reaction generation unit 13 generates display information of the reaction according to the recognition result. The announcement content generated by the announcement content generation unit 14 is displayed on the display unit 15. Is proposed (Patent Document 3).
人間が集まる空間において、これらの人間からなる集団の集団的感情を認識することが有用な場合がある。例えば、プレゼンテーションや会議の場において、参加者の感情を認識することがこれに相当する。 In a space where people gather, it may be useful to recognize the collective emotions of a group of these people. For example, this corresponds to recognizing the emotions of participants in a presentation or meeting.
しかるに、上記特許文献1や特許文献2に記載の技術は、個人の感情を認識する技術であり、集団的感情を扱うものではない。
これら個人に対する感情認識技術を、集団の構成人員に対して個別に実施してその結果を統合し、もって集団の感情を認識することも考えられるが、人数分の感情認識処理を実施する必要があるため、これをシステムで行う場合にはシステム負荷がかかり、人間が集団感情を個別に判断する場合は、その者の負担が大きい。
However, the techniques described in
It may be possible to recognize the feelings of the group by implementing the emotion recognition technology for individuals individually for the members of the group and integrating the results, but it is necessary to perform emotion recognition processing for the number of people. Therefore, when this is performed by the system, a system load is applied, and when a human judges group feelings individually, the burden on the person is large.
一方、人間の感情の認識結果をプレゼンテーション等の発表の場面で利用することに関する上記特許文献3に記載の技術は、感情認識の対象が発表者自身であり、集団の感情を認識するものではない。したがって、集団感情の認識結果を利用することに関する開示はない。
On the other hand, the technique described in
以上のような背景から、複数人からなる集団の集団的感情を認識することを支援することのできるシステムが望まれていた。 From the above background, a system capable of supporting recognition of collective feelings of a group of a plurality of people has been desired.
本発明に係る集団感情認識支援システムは、複数人からなる聴衆である集団の集団的感情を認識し、前記聴衆にプレゼンテーションを行っている話者のプレゼンテーションの進行を支援するシステムであって、前記集団に属する個人の感情を表す情報を取得する感情情報取得部と、前記感情情報取得部が取得した情報を統合して前記集団の集団的感情を解析する集団感情解析部と、前記集団感情解析部の解析結果に基づいて、前記聴衆の関心対象を分類し、当該分類の結果から前記関心対象の割合データを生成して出力すると共に、前記プレゼンテーションのスライドの注目度合いから当該注目度合いの分布情報を生成して出力する出力データ処理部と、前記出力データ処理部から出力された前記割合データ及び前記分布情報を前記話者に情報提示する出力を行う出力部と、を備え、前記出力データ処理部は、前記話者のプレゼンテーションが継続中、前記割合データ及び前記分布情報の生成を繰り返し実行するものである。 A group emotion recognition support system according to the present invention is a system for recognizing the collective emotion of a group consisting of a plurality of people and supporting the progress of a presentation of a speaker who is presenting to the audience, An emotion information acquisition unit that acquires information representing the emotions of individuals belonging to a group, a group emotion analysis unit that integrates information acquired by the emotion information acquisition unit to analyze the collective emotion of the group, and the group emotion analysis Based on the analysis result of the part, classify the interests of the audience, generate and output the ratio data of the interests from the classification results, and distribute the attention degree distribution information from the degree of attention of the slide of the presentation An output data processing unit for generating and outputting the ratio data and the distribution data output from the output data processing unit to the speaker. Comprising an output unit that outputs presenting, wherein the output data processing unit, in the speaker of the presentation is continued, in which repeatedly executes the generation of the ratio data and the distribution information.
本発明に係る集団感情認識支援システムによれば、集団に属する個人の感情を統合的に扱うことにより、その集団の集団的感情を解析し、その解析結果を出力するので、集団的感情の認識を支援することができる。 According to the collective emotion recognition support system according to the present invention, collective emotions are analyzed by processing the emotions of individuals belonging to the collective, and the analysis results are output. Can help.
実施の形態1.
図1は、本発明の実施の形態1に係る集団感情認識支援システム100の機能ブロック図である。ここでは、話者が聴衆に対しプレゼンテーションを行っている場面を想定して以下の説明を行う。
集団感情認識支援システム100は、聴衆の集団的感情を解析して話者がこれを認識することを支援するとともに、その解析結果を用いて話者のプレゼンテーションの進行を支援するものである。
FIG. 1 is a functional block diagram of group emotion
The group emotion
プレゼンテーションという場は、話者対聴衆という1対多の空間が構成されているものであり、情報発信が1から多数に向けられ、情報発信元がほぼ固定されているという特長を持つ。
そこで、本実施の形態1では、この情報発信の一方向性を利用し、聴衆が話者側へ向ける視線を検知することにより集団感情を認識することを考える。
The place of presentation is a one-to-many space consisting of speakers and audiences, and has the feature that information transmission is directed from one to many and the information transmission source is almost fixed.
Therefore, in the first embodiment, it is considered that the collective emotion is recognized by detecting the line of sight toward the speaker side by using the one-way information transmission.
集団感情認識支援システム100は、情報取得部101、集団感情解析部102、入力部103、出力データ処理部104、出力部105、話者用表示部105A、聴衆用表示部105B、記憶部106を備える。
The group emotion
情報取得部101は、集団感情認識を行うために用いる評価データを取得するものである。ここでいう評価データとは、聴衆の視線情報である。
即ち、プレゼンテーション会場に視線検知装置を配置しておき、この視線検知装置から赤外光を聴衆の目に照射して、反射されて戻ってきた光を測定する等により、聴衆の視線をトラッキングする。
The
In other words, a gaze detection device is placed in the presentation venue, and the audience's gaze is tracked by irradiating infrared light from the gaze detection device to the audience's eyes and measuring the light reflected and returned. .
また、情報取得部101は、プレゼンテーションに関する情報も取得する。ここでいうプレゼンテーションに関する情報とは、(1)表示プレゼンテーションスライドの内容、(2)プレゼンテーションスライドの切り替えタイミング、(3)話者の発表内容、といった情報のことである。
The
情報取得部101が取得した視線情報とプレゼンテーションに関する情報は、集団感情解析部102と記憶部106へ出力される。
なお、聴衆が自身の感情を自ら入力部103等を介して情報取得部101に入力するように構成してもよい。以下の実施の形態についても同様である。
The line-of-sight information acquired by the
In addition, you may comprise so that an audience may input own emotion into the
集団感情解析部102は、情報取得部101から受け取った視線情報とプレゼンテーションに関する情報に基づき、プレゼンテーション会場の聴衆の集団感情を解析する。ここでは、聴衆の視線量、注視点(視線の移動)などから集団感情の解析を行う。
集団感情の解析は、例えば以下の(1)(2)のように行うことができる。
The collective
The analysis of group emotion can be performed, for example, as in (1) and (2) below.
(1)聴衆の視線が、話者や後述の聴衆用表示部105Bに向けられている割合が多い場合には、そのプレゼンテーションは聴衆から興味をもたれていると判断する。
一方、情報取得部101が取得した視線情報(あるいはプレゼンテーション会場にいる聴衆人数)のうち、話者や後述の聴衆用表示部105B以外に向けられている視線の割合が多い場合には、そのプレゼンテーションは聴衆から興味をもたれていない、もしくは飽きられている、と判断する。
(1) When there is a large proportion of the audience's line of sight directed at the speaker or the
On the other hand, when there is a large proportion of the line of sight that is directed to other than the speaker or the
(2)後述の聴衆用表示部105Bに注がれる視線が、プレゼンテーションスライドのどの部分に集中しているか、あるいはスライド上でどのように視線が流れていくか、といった情報から、聴衆のプレゼンテーションに対する理解度(スライドの見易さ、話者の意図通りの部分に視線が集まっているか)等を判断することができる。
(2) From the information such as which part of the presentation slide the line of sight poured into the
集団感情解析部102の解析結果は、出力データ処理部104と記憶部106へ出力される。
The analysis result of the group
入力部103は、キーボードなどの入力装置により、話者から集団感情認識支援システム100に対する入力を受け付けるものである。
ここでいう入力とは、(1)プレゼンテーションスライドの切替指示、(2)集団感情解析部102と出力データ処理部104を通して加工された、プレゼンテーション支援情報の表示切替指示、などである。(2)については後述する。
The
The input here includes (1) a presentation slide switching instruction, and (2) a presentation support information display switching instruction processed through the group
出力データ処理部104は、出力部105で出力する情報を生成するものである。
例えば、入力部103からのプレゼンテーションスライドの切替指示に基づいて、後述の聴衆用表示部105Bのスライド表示を切り替える、といった処理を行うため、必要な情報を生成する。
また、集団感情解析部102の解析結果を後述の話者用表示部105Aに表示するに際し、必要な形式へ加工ないし選別を行う。
ここでいう加工ないし選別として、例えば以下の(1)(2)が挙げられる。
The output
For example, necessary information is generated to perform processing such as switching slide display of the
Further, when the analysis result of the collective
Examples of processing or selection here include the following (1) and (2).
(1)視線量に基づく聴衆の関心について、(a)聴衆用表示部105Bに向けられている、(b)話者に向けられている、(c)それ以外、に分類するとともに、それぞれの割合データを生成する。
(1) Audience interests based on visual dose are classified into (a) directed to the
(2)主に聴衆用表示部105Bに向けられている関心のうち、プレゼンテーションスライドのどの部分に注目が集まっているかということを、分布情報としてまとめ、これを話者に対する支援情報として、話者用表示部105Aに表示するように加工する。
(2) Of the interests mainly directed to the
出力データ処理部104の処理結果は、出力部105と記憶部106に出力される。
なお、加工ないし選別の内容は、入力部103から指示することにより変更することも可能である。
The processing result of the output
It should be noted that the content of processing or sorting can be changed by instructing from the
出力部105は、集団感情認識支援システム100の出力を行うものである。本実施の形態1においては、話者用表示部105Aと聴衆用表示部105Bに細分される。
話者用表示部105Aは、ディスプレイなどの画面表示デバイスで実現される情報出力装置であり、話者に対する情報提示を行うものである。提示内容は、出力データ処理部104が話者用表示部105Aのために生成・加工等した情報である。
聴衆用表示部105Bは、例えばプロジェクタとスクリーンなどで実現される情報出力装置であり、プレゼンテーションの聴衆に対する情報提示を行うものである。提示内容は、出力データ処理部104が聴衆用表示部105Bのために生成・加工等した情報である。
The
The
The
記憶部106は、情報取得部101、集団情報解析部102、出力データ処理部104が出力した情報を格納するものである。記憶部106に格納される情報は、プレゼンテーション終了後に、プレゼンテーションの反省や解析のために用いることができる。
即ち、記憶部106には、プレゼンテーションにおける話者の発話状態、スライドの状態、及び聴衆の(集団としての)反応を、それぞれ同期された形で格納しておく。これにより、プレゼンテーション中のどの挙動が、聴衆のどの行動、衝動、感情を引き出したのかを解析・比較しやすい。
The
That is, the
情報取得部101は、視線検知装置の仕様、及びプレゼンテーションソフトウェア等の仕様に応じて、適宜必要なインターフェースを備える。
集団感情解析部102、出力データ処理部104は、これらの機能を実現する回路デバイス等のハードウェアとして実現することもできるし、CPUやマイコン等の演算装置上で実行されるソフトウェアとして実現することもできる。
出力部105、話者用表示部105A、聴衆用表示部105Bは、これらの仕様に応じて適宜必要なインターフェース、ドライバソフトウェア等を備える。
記憶部106は、HDD(Hard Disk Drive)等の書込み可能な記憶装置で構成することができる。
さらには、これらの機能部の全部又は一部を、コンピュータにより実現することもできる。また、これらの機能部を一体化して構成する必要はなく、各部を分離して構成してもよい。
The
The collective
The
The
Furthermore, all or part of these functional units can be realized by a computer. Moreover, it is not necessary to integrate these functional units, and each unit may be configured separately.
本実施の形態1における「感情情報取得部」は、情報取得部101がこれに相当する。
The “emotion information acquisition unit” in the first embodiment corresponds to the
図2は、プレゼンテーション会場で集団感情認識支援システム100を用いている様子を示すものである。
話者は演壇で話者用表示部105Aを見ながらプレゼンテーションスライドの内容を発話している。また、聴衆は、聴衆用表示部105Bに表示されるスライドの内容を見ている。聴衆は、スライドの特定の部分に視線を注ぐ場合もあるし、話者に視線を注ぐ場合もある。
FIG. 2 shows a state where the group emotion
The speaker speaks the content of the presentation slide while looking at the
図2において、話者用表示部105Aは、ノートパソコンのディスプレイ部として構成している。また、聴衆用表示部105Bは、大型のプロジェクタとスクリーンで構成している。
入力部103、記憶部106は、コンピュータ200のキーボード等の入力装置とHDDにより構成している。また、集団感情解析部102、出力データ処理部104は、コンピュータ200上で実行されるプログラムとして構成している。
プレゼンテーションスライドのデータはコンピュータ200上に格納されている。
情報取得部101のうち、聴衆の視線を検知する機能に関しては、赤外線アイカメラ等の視線検知装置として構成し、検知情報はコンピュータ200に出力される。
また、プレゼンテーションスライドはコンピュータ200上に格納されているため、プレゼンテーションに関する情報は、コンピュータ200が自ら取得するものとする。
In FIG. 2, the
The
Presentation slide data is stored on the computer 200.
In the
In addition, since the presentation slide is stored on the computer 200, the computer 200 acquires information on the presentation by itself.
図3は、集団感情認識支援システム100の動作フローである。以下、各ステップについて説明する。
FIG. 3 is an operation flow of the collective emotion
(S301)
プレゼンテーション開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部101は、聴衆の視線情報と、プレゼンテーションに関する情報とを取得する。取得した情報は、集団感情解析部102に出力される。
(2)集団感情解析部102は、情報取得部101からの出力に基づき、聴衆の集団感情を解析する。解析結果は、出力データ処理部104に出力される。
(3)出力データ処理部104は、話者用表示部105Aと聴衆用表示部105Bが表示を行うための情報の生成・加工等を実行する。
(4)情報取得部101、集団感情解析部102、出力データ処理部104のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
(S301)
For the initial state before the presentation starts, initial processing is executed as follows.
(1) The
(2) The group
(3) The output
(4) The processing results of the
(S302)
話者はプレゼンテーション(スライドの内容説明等)を開始する。このとき、話者は入力部103でスライドを開始する旨の入力を行い、これにより集団感情認識支援システム100は、プレゼンテーションが開始されたことを認識する。
(S302)
The speaker starts a presentation (such as explaining the contents of a slide). At this time, the speaker inputs using the
(S303)
ステップS304〜S308の処理を、プレゼンテーションが継続される間、繰り返し実行する。なお、集団感情認識支援システム100は、プレゼンテーションの終了の旨を話者が入力部103に入力することにより認識する。
(S303)
The processes in steps S304 to S308 are repeatedly executed while the presentation is continued. In addition, the collective emotion
(S304)
話者用表示部105Aと聴衆用表示部105Bは、出力データ処理部104からの出力に基づき、それぞれの表示を行う。
(S305)
情報取得部101は、聴衆の視線情報と、プレゼンテーションに関する情報とを取得する。取得した情報は、集団感情解析部102と記憶部106に出力される。
(S304)
The
(S305)
The
(S306)
集団感情解析部102は、情報取得部101から受け取った聴衆の視線情報に基づき、聴衆の集団心理状態を解析する。
ここでは、プレゼンテーションへの関心度(話者・表示されるプレゼンテーション資料へどの程度視線が注がれているかの割合)、スライドのどこ部分へ視線が集中しているか、などの解析が行われる。
解析結果は、出力データ処理部104と記憶部106に出力される。
(S306)
The group
Here, the degree of interest in the presentation (the ratio of how much the line of sight has been poured into the speaker and the presentation material to be displayed) and the part of the slide where the line of sight is concentrated are analyzed.
The analysis result is output to the output
(S307)
出力データ処理部104は、入力部103からの指示入力に基づき、話者用表示部105Aと聴衆用表示部105Bが表示を行うための情報の生成・加工等を実行する。
(S308)
記憶部106は、情報取得部101、集団感情解析部102、出力データ処理部104がそれぞれ出力した情報を、同期を取って格納する。
同期の取り方は、例えば相互の関連付けを関係テーブル形式で保持する、同一のフォルダに格納する、など任意の手法を適宜用いればよい。以下の実施の形態においても同様である。
(S307)
Based on the instruction input from the
(S308)
The
As a method of synchronization, any method may be used as appropriate, for example, holding the association in the relationship table format or storing them in the same folder. The same applies to the following embodiments.
本実施の形態1では、プレゼンテーションの場面を想定し、情報取得部101、集団感情解析部102、入力部103、出力データ処理部104、話者用表示部105A、聴衆用表示部105B、の構成や動作を説明した。
これら各機能部は、集団感情認識支援システム100の利用場面が異なる場合は、適宜適切な構成や動作をとるようにしてもよい。
In the first embodiment, assuming a presentation scene, the
These functional units may take appropriate configurations and operations as appropriate when the use scene of the collective emotion
以上のように、本実施の形態1によれば、プレゼンテーション会場に存在する複数人の聴衆の感情を統合して取り扱い、集団的感情として認識することができる。
また、解析の結果得られた集団感情を、話者用表示部105Aで話者に即座に提示することにより、話者はプレゼンテーションに対する聴衆の反応を速やかに把握でき、聴衆の反応状況を参考に、より理解し易く注目され易いようにプレゼンテーションの発話内容を変更するなど、プレゼンテーションの展開を即座に調整することができる。
As described above, according to the first embodiment, the emotions of a plurality of audiences present at the presentation venue can be handled in an integrated manner and recognized as a collective emotion.
Moreover, by presenting the group emotion obtained as a result of the analysis to the speaker immediately by the
例えば、話者が意図している部分へ聴衆の注目が集まっていないようであれば、説明の前に注意を喚起する一言を加えることができる。また、聴衆が飽きている、疲れによって注意が散漫になっている、などのようであれば、発表のテンポを変えてみる、注意を引きやすい内容(動画など)の順番を入れ替える、といった対応をとることができる。 For example, if the audience does not attract attention to the part intended by the speaker, a word to call attention can be added before the explanation. Also, if the audience is bored or distracted due to fatigue, try changing the tempo of the presentation or changing the order of content that is easy to draw attention (such as videos). Can take.
また、記憶部106にプレゼンテーションに関する情報や集団感情の解析結果などを格納しておくので、プレゼンテーションを行っている最中のみならず、その終了後に、プレゼンテーションの反省や解析に、格納したデータを利用することができる。
In addition, since information related to presentations and analysis results of group sentiment are stored in the
記憶部106には、各種データ(発表内容、スライド切替タイミング、集団感情の解析結果など)を同期させて格納しておくので、それぞれの相互関係、例えば聴衆の視線がスライドの内容に沿って移動しているか否か、といったことを把握しやすく、少ない負担でプレゼンテーションの反省や解析を行うことができる。
Since various data (presentation contents, slide switching timing, group emotion analysis results, etc.) are stored in synchronization in the
さらには、聴衆の反応のトリガーとなるアクションが何であったかを解析することにより、次回のプレゼンテーションではそのトリガーを組み込み、同様の聴衆反応を誘導することを図る、といった用法が可能である。 Furthermore, by analyzing what the action that triggered the audience reaction was, the next presentation could incorporate that trigger and induce a similar audience response.
実施の形態2.
実施の形態1では、話者対聴衆という1対多の構成をとるプレゼンテーション会場を想定し、聴衆の視線情報に基づき集団感情を認識するように構成した。
本発明の実施の形態2では、情報発信が一方向的である実施の形態1とは異なり、情報発信元が流動的に変化する状況を取り扱う。この場合、状況の特性上、視線情報を統合するのみでは集団感情の解析が困難であるため、その他複数の情報を取得し、これらを統合して集団感情を認識する。
ここでは、会議の場面を想定し、会議参加者に対する集団感情認識を行い、さらにその結果を利用して会議運営を支援するシステムについて説明する。
In the first embodiment, a presentation venue having a one-to-many configuration of speakers vs. audience is assumed, and group emotion is recognized based on audience gaze information.
In the second embodiment of the present invention, unlike the first embodiment in which information transmission is unidirectional, a situation in which the information transmission source changes in a fluid manner is handled. In this case, since it is difficult to analyze group emotions only by integrating line-of-sight information due to the characteristics of the situation, a plurality of other information is acquired and integrated to recognize group emotions.
In this section, a system for performing group emotion recognition with respect to a conference participant assuming a conference scene and using the result to support conference management will be described.
図4は、本発明の実施の形態2に係る集団感情認識支援システム400の機能ブロック図である。
集団感情認識支援システム400は、情報取得部401、集団感情解析部102、入力部103、出力処理部402、出力部403、表示部403A、動作部403B、記憶部106を備える。
なお、図1と同様または対応する機能部については、同じ符号を付して、説明を省略ないし補足説明に留める。
FIG. 4 is a functional block diagram of group emotion
The group emotion
In addition, about the function part similar to or corresponding to FIG. 1, the same code | symbol is attached | subjected and description is abbreviate | omitted thru | or supplementary description.
情報取得部401は、会議に関する情報、および集団感情認識を行うための評価データを取得するものである。情報取得部401は、対会場センサ401Aと、対参加者センサ401Bとに細分される。
The
対会場センサ401Aは、例えば会議室内に設置された温度計により測定される温度・湿度など、会議室内の物理的環境に関する情報を取得する。これらの変化を取得することにより、会議室内の不快度、議論の白熱度などの指標とすることができる。
The on-
対参加者センサ401Bは、以下の(1)〜(3)のような情報を取得する。
The
(1)会議参加者の生体情報
例えば、会議参加者に、体温・心拍・発汗量を測定するセンサ、あるいは、脳波計測装置などを身に付けさせておき、その取得情報から会議参加者の感情・状態を解析する。
(1) Biological information of the conference participant For example, the conference participant is allowed to wear a sensor for measuring body temperature, heart rate, sweating, an electroencephalogram measurement device, etc., and the emotion of the conference participant from the acquired information・ Analyze the state.
(2)会議参加者の発言・発話・音量に関する情報
例えば、各会議参加者の前に個人専用マイクを設置し、音声データを取得する。無発言時間の割合の増加から会議の停滞を検知して、休憩を挟む指針としたり、発言場所の分布から会議の活性部分を検知し、発言が少ない人に対して話を振ったりするための指針としたりすることができる。
(2) Information on Conference Participant's Speech / Speech / Volume For example, a personal microphone is installed in front of each conference participant to acquire voice data. To detect stagnation of the meeting from the increase in the percentage of no-speaking time and use it as a guideline to put a break, or to detect the active part of the meeting from the distribution of speaking places and to talk to people with few utterances It can be used as a guideline.
(3)会議参加者の姿勢状態に関する情報
会議室の椅子の背もたれ等に圧力センサを取り付けるなどしておき、会議参加者の姿勢状態(椅子へのもたれかかり具合)を検知し、その変化から会議参加者の感情・状態を解析する。
例えば、(a)背もたれにもたれかかる、(b)座り直しが多い、(c)肘掛に手を置いてしばらく動かない、といった会議参加者の人数が多ければ、会議室内では疲労、退屈、興味なしなどの感情が優勢であると判断できる。
その他、床面へ振動センサを設置しておき、会議参加者の足踏み動作などを集団感情の指標にすることも可能である。
(3) Information related to the posture status of the conference participants Attaching a pressure sensor to the chair back in the conference room, etc., detects the posture status of the conference participants (the amount of leaning on the chair), and participates in the conference based on the change. Analyzing the person's emotions and conditions.
For example, if there are a large number of participants such as (a) leaning on the back, (b) often sitting back, (c) putting their hands on the armrests and not moving for a while, fatigue, boredom, no interest in the meeting room It can be judged that feelings such as are dominant.
In addition, it is possible to install a vibration sensor on the floor and use the stepping action of the conference participants as an indicator of group emotion.
情報取得部401が取得した情報は、集団感情解析部102と記憶部106へ出力される。
Information acquired by the
集団感情解析部102の動作は実施の形態1と同様であるが、情報取得部401が取得する情報が複数種類にわたるため、実施の形態1と異なり、これら取得情報を統合化して集団感情を解析する処理を行う。
The operation of the collective
入力部103の動作は、実施の形態1と同様である。入力部103を操作可能な者は、会議参加者全員、もしくは議長等の特定人物に絞るなど、任意に設定可能とする。
The operation of the
出力処理部402は、出力部403で出力する情報を生成するものである。
例えば、集団感情解析部102の解析結果に基づいて、後述の表示部403Aの画面表示を切り替えるために必要な情報の処理を行う。また、動作部403Bに対する指示を行うために必要な情報の処理を行う。
The
For example, based on the analysis result of the collective
表示部403Aの画面表示を切り替えるために必要な情報の処理とは、例えば、集団感情解析部102により会議が停滞していると判断された際に、休憩を入れるように提案すべき旨を議長用の情報提示装置のみに出力する、といったものである。
The processing of information necessary for switching the screen display of the
動作部403Bに対する指示とは、例えば、集団感情解析部102により会議参加者のフラストレーションが上昇していると判断された際に、室温を低下させて頭をクールダウンさせる、といったものである。
動作部403Bの詳細については、後述する。
The instruction to the operation unit 403B is, for example, that when the group
Details of the operation unit 403B will be described later.
出力部403は、表示部403Aと動作部403Bに細分される。
The
表示部403Aは、会議参加者が使用する資料、あるいは出力処理部402によって処理された情報を表示するものである。
表示部403Aは、例えば各会議参加者に割り当てられたコンピュータのディスプレイや、会議室内に設置されるスクリーンとプロジェクタからなる情報提示装置で構成することができる。
The
The
動作部403Bは、例えば会議室内の空調設備の動作を制御する機能部であり、出力処理部402からの指示に基づき、会議室内の温度を調整する。また、空調設備の動作制御に代えて、会議室内に音楽をかける、会議室内にリラックス作用のある香りを散布する、照明を変更する、といった動作を行うように構成してもよい。
即ち、動作部403Bは、出力処理部402からの指示に基づき会議室内の物理的環境を変動させる作用を実行する機能を持つ。
The operation unit 403B is a functional unit that controls the operation of the air conditioning equipment in the conference room, for example, and adjusts the temperature in the conference room based on an instruction from the
That is, the operation unit 403B has a function of executing an action of changing the physical environment in the conference room based on an instruction from the
記憶部106が格納する内容は、実施の形態1と同様であるが、その格納内容を会議の議事録として用いることもできる。
The content stored in the
出力処理部402は、その機能を実現する回路デバイス等のハードウェアとして実現することもできるし、CPUやマイコン等の演算装置上で実行されるソフトウェアとして実現することもできる。
The
本実施の形態2における「感情情報取得部」は、情報取得部401、対参加者センサ401Bがこれに相当する。
また、「センサ部」は、情報取得部401、対会場センサ401Aがこれに相当する。
The “emotion information acquisition unit” in the second embodiment corresponds to the
The “sensor unit” corresponds to the
図5は、会議室内で集団感情認識支援システム400を用いている様子を示すものである。
対参加者センサ401Bは、会議参加者毎に取り付けられており、各個人の生体情報、発話音声データ、姿勢情報などを取得する。
入力部103、記憶部106は、コンピュータ500のキーボード等の入力装置とHDDにより構成している。また、集団感情解析部102、出力処理部402は、コンピュータ500上で実行されるプログラムとして構成している。
FIG. 5 shows a state in which the group emotion
The
The
図6は、集団感情認識支援システム400の動作フローである。以下、各ステップについて説明する。
FIG. 6 is an operation flow of the collective emotion
(S601)
会議開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。取得した情報は、集団感情解析部102に出力される。
(2)集団感情解析部102は、情報取得部401からの出力に基づき、会議参加者の集団感情を解析する。解析結果は、出力処理部402に出力される。
(3)表示部403Aは、会議参加者が使用する資料、出力処理部402によって処理された情報を表示する。
(4)情報取得部401、集団感情解析部102、出力処理部402のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
(S601)
For the initial state before the start of the conference, the initial process is executed as follows.
(1) The
(2) The group
(3) The
(4) The processing results of the
(S602)
会議が開始されると、例えば議長が入力部103よりその旨の入力を行い、これにより集団感情認識支援システム400は、会議が開始された旨を認識する。
(S603)
ステップS604〜S608の処理を、会議が継続される間、繰り返し実行する。なお、集団感情認識支援システム400は、会議の終了の旨を議長が入力部103に入力することにより認識する。
(S602)
When the conference is started, for example, the chairman inputs the information from the
(S603)
The processes in steps S604 to S608 are repeatedly executed while the conference is continued. In addition, the collective emotion
(S604)
出力処理部402は、集団感情解析部102の解析結果に基づいて、出力内容を更新する。表示部403Aと動作部403Bは、出力処理部402からの出力に基づき、それぞれの動作を行う。
(S605)
情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。情報取得部401が取得した情報は、集団感情解析部102と記憶部106に出力される。
(S604)
The
(S605)
The
(S606)
集団感情解析部102は、情報取得部401から受け取った情報に基づき、会議参加者の集団心理状態を解析する。
解析結果は、出力処理部402と記憶部106に出力される。
(S606)
The group
The analysis result is output to the
(S607)
出力処理部402は、入力部103からの指示入力、および集団感情解析部102の解析結果に基づき、表示部403Aと動作部403Bがそれぞれの動作を行うための情報を生成する。
(S608)
記憶部106は、情報取得部401、集団感情解析部102、出力処理部402がそれぞれ出力した情報を、同期を取って格納する。
(S607)
Based on the instruction input from the
(S608)
The
本実施の形態2では、会議の場面を想定し、情報取得部401、集団感情解析部102、入力部103、出力処理部402、表示部403A、動作部403B、の構成や動作を説明した。
これら各機能部は、集団感情認識支援システム400の利用場面が異なる場合は、適宜適切な構成や動作をとるようにしてもよい。
In the second embodiment, the configuration and operation of the
These functional units may take appropriate configurations and operations as appropriate when the use scene of the collective emotion
以上のように、本実施の形態2によれば、会議のように情報発信元が流動的に変化する場合においても、会議室内に複数のセンサを配置し、これから得られる計測データを統合的に解析することにより、会議参加者の集団感情を認識することが可能である。
さらには、集団感情の認識結果に基づき、会議室内の空調を調節するなど、会議室内の物理的環境に対する作用を実施することにより、会議室環境を適切に変動させ、効率的な会議運営を支援することができる。
As described above, according to the second embodiment, a plurality of sensors are arranged in a conference room and measurement data obtained therefrom are integrated in a case where the information transmission source is fluidly changed as in a conference. By analyzing, it is possible to recognize the collective feelings of the conference participants.
In addition, by adjusting the air conditioning in the conference room based on the recognition results of group emotions, the conference room environment is appropriately changed by implementing actions on the physical environment in the conference room to support efficient conference management. can do.
実施の形態3.
実施の形態2では、会議参加者を集団として取り扱い、集団感情の認識結果に基づき、例えば会議室の空調を調節するなど、集団全体に効果を及ぼす物理的作用を実施することとした。
本発明の実施の形態3では、集団全体に効果を及ぼす作用とともに、集団を構成する個人に合わせた作用を実施する構成例について説明する。
ここでは、実施の形態2と同様に会議の場面を想定し、会議参加者の集団感情認識により休憩を挟むべき旨を判断した際などに、参加者個人の嗜好に合わせたハーブティーを供給する例を説明する。
In the second embodiment, the conference participants are treated as a group, and based on the recognition result of the group emotion, for example, the physical action that exerts an effect on the entire group is performed such as adjusting the air conditioning of the conference room.
In the third embodiment of the present invention, a configuration example will be described in which an operation that has an effect on the entire group and an operation tailored to the individuals making up the group are implemented.
Here, as in the case of
図7は、本発明の実施の形態3に係る集団感情認識支援システム700の機能ブロック図である。
集団感情認識支援システム700は、情報取得部401、集団感情解析部701、入力部103、データベース702、出力処理部703、出力部704、表示部704A、動作部704B、記憶部106を備える。
なお、実施の形態2の図4と同様または対応する機能部については、同じ符号を付して、説明を省略ないし補足説明に留める。
FIG. 7 is a functional block diagram of group emotion
The group emotion
In addition, about the function part which is the same as that of FIG. 4 of
情報取得部401の機能は、実施の形態2と同様である。情報取得部401が取得した情報は、集団感情解析部701、記憶部106、データベース702へ出力される。
The function of the
集団感情解析部701は、実施の形態2と同様に、情報取得部401が取得した情報を統合的に取り扱って集団感情認識を行う。また、これに加えて、会議参加者個人の感情認識も実施する。個人の感情認識の手法は、任意の公知の技術を用いるものとする。
解析結果は、出力処理部703、記憶部106に出力される。また、会議参加者個人の感情認識結果に関しては、データベース702にも出力される。詳細は後述する。
As in the second embodiment, the collective emotion analysis unit 701 performs collective emotion recognition by handling the information acquired by the
The analysis result is output to the
データベース702は、会議参加者個人の特性に関するデータを保持するものである。
ここでいう会議参加者個人の特性に関するデータとは、例えば以下の(1)(2)のようなデータのことである。
The
The data relating to the characteristics of the individual conference participants here are, for example, the following data (1) and (2).
(1)ハーブティーに関する嗜好
会議参加者に対して事前に実施するヒアリングやアンケート、もしくは会議参加者自身が入力部103に入力する、などにより、会議参加者個人のハーブティーに関する嗜好をデータベース702に格納しておく。
(1) Preferences related to herbal teas The preferences regarding herbal teas of individual conference participants are entered into the
(2)会議中の感情変化の傾向
情報取得部401からの出力、および集団感情解析部701による個人感情解析の結果により、会議中の感情変化の傾向を、会議参加者個人単位でデータベース702に保持しておく。
(2) Emotion change tendency during meeting Based on the output from the
データベース702が保持している情報は、後述の動作部704Bが会議参加者個人に対して動作を実行する際に用いられる。
Information held in the
なお、データベース702は、HDDのような書込み可能な記憶装置に、必要なデータファイルを格納する等により構成することができる。
The
出力処理部402は、出力部704で出力する情報を生成するものである。例えば以下の(1)(2)のような情報を生成する。なお、これらの情報は、入力部103からの指示入力により変更可能である。
The
(1)集団感情解析部701の解析結果に基づき、表示部704Aに対し、ハーブティーの配膳に関する指示等を表示するように指示する。詳細は後述する。
(2)集団感情解析部701の解析結果に基づき、データベース702から会議参加者個人のハーブティーに関する嗜好等を読み出し、会議参加者個人の嗜好にあったハーブティーの配合・作成を行うように、動作部704Bへ指示する。詳細は後述する。
(1) Based on the analysis result of the collective emotion analysis unit 701, the
(2) Based on the analysis results of the collective emotion analysis unit 701, the preferences regarding the herbal tea of the conference participants are read from the
出力部704は、表示部704Aと動作部704Bに細分される。
The
表示部704Aは、出力処理部402の指示に基づき、実施の形態2で説明した、会議資料の表示等の動作に加え、以下の動作を行う。
The
(1)ハーブティーを会議室に持ち込むタイミングの指示を表示する。
(2)会議参加者個人毎に配合されたハーブティーの個々の配膳指示を表示する。
(1) Display instructions for timing of bringing herbal tea into the conference room.
(2) Display individual instructions for herbal teas formulated for each individual participant.
これらの表示は、例えば議長の手元にあるディスプレイにのみ表示するようにしてもよいし、会議室の外で待機している運営スタッフに対して表示するようにしてもよい。 These displays may be displayed only on a display at hand of the chairman, for example, or may be displayed to an operating staff waiting outside the conference room.
動作部704Bは、出力処理部402の指示に基づき、実施の形態2で説明した、会議室の空調設備の制御動作に加え、ハーブティーの配合・作成を実施する。
動作部704Bは、例えば電子制御可能なティーサーバと連動しており、出力処理部402より会議参加者個人の嗜好にあったハーブティーの配合・作成を行うように指示を受け、これに基づいてティーサーバに指示を与える。
ハーブティーの配膳等は、表示部704Aの表示に従って、運営スタッフ等が別途実施する。
Based on the instruction of the
The operation unit 704B is linked to, for example, an electronically controllable tea server, and receives an instruction from the
Herbal tea is arranged by the management staff separately according to the display on the
図8は、集団感情認識支援システム700の動作フローである。以下、各ステップについて説明する。
FIG. 8 is an operation flow of the collective emotion
(S801)
会議開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。取得した情報は、集団感情解析部701とデータベース702に出力される。
(2)集団感情解析部701は、情報取得部401からの出力に基づき、会議参加者の集団感情を解析する。解析結果は、出力処理部703に出力される。
また、集団感情解析部701は、情報取得部401からの出力に基づき、会議参加者個人の感情認識を行う。認識結果は、初期状態データとしてデータベース702に格納される。
(3)表示部704Aは、会議参加者が使用する資料、出力処理部703によって処理された情報を表示する。
(4)情報取得部401、集団感情解析部701、出力処理部703のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
(S801)
For the initial state before the start of the conference, the initial process is executed as follows.
(1) The
(2) The group emotion analysis unit 701 analyzes a group participant's group emotion based on the output from the
In addition, the collective emotion analysis unit 701 recognizes the emotions of individual conference participants based on the output from the
(3) The
(4) The processing results of the
(S802)〜(S803)
図6のステップS602〜S603と同様である。
(S804)
出力処理部703は、集団感情解析部701の解析結果に基づいて、出力内容を更新する。表示部704Aと動作部704Bは、出力処理部703からの出力に基づき、それぞれの動作を行う。
(S802) to (S803)
This is the same as steps S602 to S603 in FIG.
(S804)
The
(S805)
情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。情報取得部401が取得した情報は、集団感情解析部701とデータベース702に出力される。
(S805)
The
(S806)
集団感情解析部701は、情報取得部401から受け取った情報に基づき、会議参加者の集団心理状態を解析する。また、会議参加者個人の感情認識を実施する。
解析結果は、出力処理部703、記憶部106、データベース702に出力される。
(S807)
データベース702は、集団感情解析部701より会議参加者個人の感情認識の結果を受け取るとともに、情報取得部401が取得した情報を受け取り、これを保存する。
(S806)
The group emotion analysis unit 701 analyzes a group participant's group psychological state based on the information received from the
The analysis result is output to the
(S807)
The
(S808)
出力処理部703は、入力部103からの指示入力、集団感情解析部701の解析結果、およびデータベース702が保持しているデータに基づき、表示部704Aと動作部704Bがそれぞれの動作を行うための情報を生成する。
(S809)
記憶部106は、情報取得部401、集団感情解析部701、出力処理部703がそれぞれ出力した情報を、同期を取って格納する。
(S808)
Based on the instruction input from the
(S809)
The
本実施の形態3では、会議の場面において、会議参加者個人の嗜好に合わせたハーブティーを供給し、会議運営を支援することについて説明したが、集団感情認識支援システム700の利用場面が異なる場合は、本実施の形態3で説明したもの以外に、適宜適切な構成や動作をとるようにしてもよい。
In the third embodiment, it has been described that in the meeting scene, herbal tea is supplied according to the individual preferences of the meeting participants and the meeting operation is supported, but the use situation of the collective emotion
なお、動作部704Bは、会議参加者の嗜好に合わせてハーブティーの配合・作成を行うものとしたが、これに限られるものではなく、例えば香りを発する、照明を変更するなど、他の作用を実施するものとして構成してもよい。 The operation unit 704B mixes and creates herbal tea according to the preferences of the conference participants. However, the operation unit 704B is not limited to this. For example, the action unit 704B emits a scent or changes lighting. You may comprise as what implements.
また、本実施の形態3において、個人の特性をデータベース702に格納してこれを利用する例を説明したが、集団の特性をデータベース702に格納して利用してもよい。
In the third embodiment, an example in which personal characteristics are stored in the
以上のように、本実施の形態3によれば、会議参加者を集団として取り扱うのみならず、会議参加者個人の嗜好を格納したデータベース702と、会議参加者個人の感情認識の結果に基づき、会議参加者個人に合わせた出力(本実施の形態3ではハーブティーの配合を例にした)を行うことができる。
即ち、集団感情の認識に基づいて集団全体に対する出力を行うとともに、個々の出力に関しては各個人に最適化した出力を行うことが可能となる。
As described above, according to the third embodiment, not only the conference participants are handled as a group, but also based on the
That is, it is possible to perform output for the entire group based on recognition of group emotions and to perform output optimized for each individual regarding individual outputs.
実施の形態4.
以上の実施の形態1〜3では、集団感情の認識結果に基づき、プレゼンテーションや会議運営の支援を行う構成例について説明した。
集団感情認識のその他の利用例として、例えば学習環境(学校や学習塾)における利用が考えられる。
In the above first to third embodiments, the configuration examples for supporting the presentation and conference management based on the recognition result of the collective emotion have been described.
As another use example of group emotion recognition, for example, use in a learning environment (a school or a cram school) can be considered.
例えば、生徒の授業に対する感情を集団感情として取り扱い、生徒が授業の内容について抱いている感情(内容が理解できた、分かりにくい、等)を認識し、これに基づいて教師の授業進行を支援することが考えられる。
また、生徒集団に対する動作に加えて、生徒個人の学習の進捗をデータベースに保持しておき、生徒個人に合わせた課題を自動的に生成する、といった利用例も考えられる。
For example, students 'feelings about classes are treated as group feelings, and the students' feelings about the contents of the classes (the contents were understood, difficult to understand, etc.) are recognized, and teachers are promoted based on this. It is possible.
Further, in addition to the operations for the student group, a usage example is also conceivable in which a student's learning progress is stored in a database, and a task tailored to the student is automatically generated.
以上の実施の形態1〜4において、ある1空間における集団感情認識について説明したが、複数の空間を対象として集団感情認識を行ってもよい。
In
100 集団感情認識支援システム、101 情報取得部、102 集団感情解析部、103 入力部、104 出力データ処理部、105 出力部、105A 話者用表示部、105B 聴衆用表示部、106 記憶部、400 集団感情認識支援システム、401 情報取得部、402 出力処理部、403 出力部、403A 表示部、403B 動作部、700 集団感情認識支援システム、701 集団感情解析部、702 データベース、703 出力処理部、704 出力部、704A 表示部、704B 動作部。
DESCRIPTION OF
Claims (9)
前記集団に属する個人の感情を表す情報を取得する感情情報取得部と、
前記感情情報取得部が取得した情報を統合して前記集団の集団的感情を解析する集団感情解析部と、
前記集団感情解析部の解析結果に基づいて、
前記聴衆の関心対象を分類し、当該分類の結果から前記関心対象の割合データを生成して出力すると共に、
前記プレゼンテーションのスライドの注目度合いから当該注目度合いの分布情報を生成して出力する出力データ処理部と、
前記出力データ処理部から出力された前記割合データ及び前記分布情報を前記話者に情報提示する出力を行う出力部と、
を備え、
前記出力データ処理部は、
前記話者のプレゼンテーションが継続中、前記割合データ及び前記分布情報の生成を繰り返し実行する
ことを特徴とする集団感情認識支援システム。 A system for recognizing the collective feelings of a group of multiple audiences and supporting the progress of a speaker presenting to the audience,
An emotion information acquisition unit for acquiring information representing the emotions of individuals belonging to the group;
A collective emotion analysis unit that integrates information acquired by the emotion information acquisition unit and analyzes the collective emotion of the group;
Based on the analysis result of the group sentiment analysis unit,
Classifying the audience's interests, generating and outputting the percentage data of the interests from the classification results,
An output data processing unit that generates and outputs distribution information of the degree of attention from the degree of attention of the slide of the presentation;
An output unit for outputting the ratio data and the distribution information output from the output data processing unit to the speaker;
With
The output data processing unit
A group emotion recognition support system characterized by repeatedly generating the ratio data and the distribution information while the speaker's presentation continues.
前記集団感情解析部は、
前記感情情報取得部が取得した情報と、前記センサ部が取得した情報とに基づき、前記集団の集団的感情を解析する
ことを特徴とする請求項1に記載の集団感情認識支援システム。 A sensor unit that acquires information on a physical environment of a space in which the group exists;
The group sentiment analysis unit
The emotion information acquisition unit acquires information, population emotion recognition support system according to claim 1, wherein the sensor unit is based on the obtained information, characterized by analyzing the collective feelings of the population.
を備えたことを特徴とする請求項1又は請求項2に記載の集団感情認識支援システム。 Population feelings of claim 1 or claim 2 characterized by comprising an operation unit that performs a physical action to vary the physical environment of space where the population based on the output of the output portion is present Recognition support system.
前記集団的感情を解析するとともに、前記集団に属する個人の感情の変化を解析し、
前記出力部は、
前記集団感情解析部が解析した個人の感情の変化の解析結果を出力する
ことを特徴とする請求項1ないし請求項3のいずれかに記載の集団感情認識支援システム。 The group sentiment analysis unit
Analyzing the collective emotions and analyzing changes in the emotions of individuals belonging to the group,
The output unit is
The group emotion recognition support system according to any one of claims 1 to 3 , wherein the group emotion analysis unit outputs an analysis result of an individual emotion change.
前記記憶部は、
前記集団感情解析部の解析結果、前記感情情報取得部が取得した情報、および前記出力部の出力内容を、同期させて格納する
ことを特徴とする請求項1ないし請求項4のいずれかに記載の集団感情認識支援システム。 A storage unit that stores the analysis results of the group emotion analysis unit in chronological order,
The storage unit
Analysis results of the population emotion analysis section, information in which the emotion information acquisition unit acquires, and wherein the output content of the output unit, in any one of claims 1 to 4, characterized in that storing in synchronism Group emotion recognition support system.
前記出力部は、
前記集団感情解析部の解析結果とともに、前記データベースに格納されている情報を出力する
ことを特徴とする請求項1ないし請求項5のいずれかに記載の集団感情認識支援システム。 A database for holding information on characteristics of individuals belonging to the group;
The output unit is
The group emotion recognition support system according to any one of claims 1 to 5 , wherein information stored in the database is output together with an analysis result of the group emotion analysis unit.
前記動作部は、
前記データベースに格納されている情報に基づき、前記集団に属する個人の特性に対応した前記物理的作用を実行する
ことを特徴とする請求項3に記載の集団感情認識支援システム。 A database for holding information on characteristics of individuals belonging to the group;
The operating unit is
The group emotion recognition support system according to claim 3 , wherein the physical action corresponding to the characteristics of individuals belonging to the group is executed based on information stored in the database.
ことを特徴とする請求項1ないし請求項7のいずれかに記載の集団感情認識支援システム。 The group emotion recognition support system according to any one of claims 1 to 7 , wherein the emotion information acquisition unit is a sensor that acquires biological information of individuals belonging to the group.
ことを特徴とする請求項1ないし請求項8のいずれかに記載の集団感情認識支援システム。 The group emotion recognition support system according to any one of claims 1 to 8 , further comprising a display unit configured to display an output of the output unit on a screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007116066A JP5233159B2 (en) | 2007-04-25 | 2007-04-25 | Group emotion recognition support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007116066A JP5233159B2 (en) | 2007-04-25 | 2007-04-25 | Group emotion recognition support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008272019A JP2008272019A (en) | 2008-11-13 |
JP5233159B2 true JP5233159B2 (en) | 2013-07-10 |
Family
ID=40050770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007116066A Expired - Fee Related JP5233159B2 (en) | 2007-04-25 | 2007-04-25 | Group emotion recognition support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5233159B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107847195A (en) * | 2016-03-15 | 2018-03-27 | 欧姆龙株式会社 | Care degree estimation unit, care degree method of estimation, program and recording medium |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101045659B1 (en) * | 2009-02-19 | 2011-06-30 | 강장묵 | System and Method for Emotional Information Service |
KR101649158B1 (en) * | 2010-03-03 | 2016-08-18 | 엘지전자 주식회사 | Method for generating emotion imformation, apparatus for generating motion imformation, and image display apparatus including the same |
JP2011134167A (en) * | 2009-12-25 | 2011-07-07 | Naoto Yajima | Ability counseling system and ability counseling method |
JP2014011489A (en) * | 2012-06-27 | 2014-01-20 | Nikon Corp | Electronic apparatus |
JP6115074B2 (en) * | 2012-10-25 | 2017-04-19 | 株式会社リコー | Information presentation system, information presentation apparatus, program, and information presentation method |
WO2014083779A1 (en) | 2012-11-30 | 2014-06-05 | パナソニック株式会社 | Information provision method |
JP6814236B2 (en) | 2012-11-30 | 2021-01-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information processing method |
JP2016009342A (en) * | 2014-06-25 | 2016-01-18 | 日本電信電話株式会社 | Area burst estimation presenting device, area burst estimation presenting method, and area burst estimation presenting program |
JP6678392B2 (en) * | 2015-03-31 | 2020-04-08 | パイオニア株式会社 | User state prediction system |
JP6497185B2 (en) * | 2015-04-09 | 2019-04-10 | 本田技研工業株式会社 | Autonomous mobile device and control method of autonomous mobile device |
KR102076807B1 (en) | 2015-05-18 | 2020-02-13 | 전자부품연구원 | User group activity sensing in service area and behavior semantic analysis system |
JP6655378B2 (en) * | 2015-12-17 | 2020-02-26 | 株式会社イトーキ | Meeting support system |
JP6536510B2 (en) * | 2016-07-28 | 2019-07-03 | 京セラドキュメントソリューションズ株式会社 | Presentation support system, presentation support device and presentation support method |
JP6798353B2 (en) * | 2017-02-24 | 2020-12-09 | 沖電気工業株式会社 | Emotion estimation server and emotion estimation method |
JP2019159707A (en) * | 2018-03-12 | 2019-09-19 | 富士ゼロックス株式会社 | Information presentation device, information presentation method, and information presentation program |
JP6872757B2 (en) * | 2018-06-21 | 2021-05-19 | 日本電信電話株式会社 | Group state estimation device, group state estimation method and group state estimation program |
JP6918748B2 (en) * | 2018-06-27 | 2021-08-11 | ヤフー株式会社 | Information processing equipment, information processing methods, and information processing programs |
JP7087804B2 (en) * | 2018-08-08 | 2022-06-21 | 沖電気工業株式会社 | Communication support device, communication support system and communication method |
JP7255437B2 (en) * | 2019-09-30 | 2023-04-11 | 富士通株式会社 | Diffusion object control method, diffusion object control program, and diffusion object control device |
WO2021181909A1 (en) * | 2020-03-10 | 2021-09-16 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP7369942B2 (en) * | 2020-07-02 | 2023-10-27 | パナソニックIpマネジメント株式会社 | Communication analysis system and communication analysis method |
JP7430132B2 (en) * | 2020-10-23 | 2024-02-09 | 本田技研工業株式会社 | Conference support device, conference support method, and conference support program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2816799B2 (en) * | 1993-08-10 | 1998-10-27 | 株式会社日立製作所 | Sensing device, environmental control device, and environmental control method |
JPH09206291A (en) * | 1996-02-02 | 1997-08-12 | Japan Small Corp | Device for detecting emotion and state of human |
JP4608858B2 (en) * | 2003-08-12 | 2011-01-12 | ソニー株式会社 | Emotion visualization device, emotion visualization method, and emotion visualization output |
JP2005124909A (en) * | 2003-10-24 | 2005-05-19 | Sony Corp | Method for presenting emotional information, emotional information display device, and method for retrieving information content |
JP2005188969A (en) * | 2003-12-24 | 2005-07-14 | Matsushita Electric Ind Co Ltd | Toilet system and residential environment controlling system |
JP4604494B2 (en) * | 2004-01-15 | 2011-01-05 | セイコーエプソン株式会社 | Biological information analysis system |
JP4497966B2 (en) * | 2004-03-17 | 2010-07-07 | 横河電機株式会社 | Equipment control system |
US20050289582A1 (en) * | 2004-06-24 | 2005-12-29 | Hitachi, Ltd. | System and method for capturing and using biometrics to review a product, service, creative work or thing |
-
2007
- 2007-04-25 JP JP2007116066A patent/JP5233159B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107847195A (en) * | 2016-03-15 | 2018-03-27 | 欧姆龙株式会社 | Care degree estimation unit, care degree method of estimation, program and recording medium |
CN107847195B (en) * | 2016-03-15 | 2020-06-12 | 欧姆龙株式会社 | Attention estimation device, attention estimation method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP2008272019A (en) | 2008-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5233159B2 (en) | Group emotion recognition support system | |
US10748037B2 (en) | Machine intelligent predictive communications and control system | |
Tsiourti et al. | A virtual assistive companion for older adults: design implications for a real-world application | |
CN109074117B (en) | Providing emotion-based cognitive assistant systems, methods, and computer-readable media | |
CA2655189C (en) | Measuring cognitive load | |
US20180032126A1 (en) | Method and system for measuring emotional state | |
US20130234826A1 (en) | Electronic device and electronic device control program | |
KR101759335B1 (en) | Presentation and interview training system | |
US10163362B2 (en) | Emotion and mood data input, display, and analysis device | |
US10580434B2 (en) | Information presentation apparatus, information presentation method, and non-transitory computer readable medium | |
JP4829696B2 (en) | Conversation support system | |
JP2016177483A (en) | Communication support device, communication support method, and program | |
Carrasco et al. | Linking emotional dissonance and service climate to well-being at work: A cross-level analysis | |
Yfantidou et al. | 14 Years of Self-Tracking Technology for mHealth—Literature Review: Lessons Learned and the PAST SELF Framework | |
JP2019133451A (en) | Evaluation method, evaluation device, evaluation program, and evaluation system | |
Chuckun et al. | Enabling the Disabled using mHealth | |
Schreitter et al. | The OFAI multi-modal task description corpus | |
JP2016021259A (en) | Electronic apparatus and control program for electronic apparatus | |
KR101800546B1 (en) | Virtual interview system | |
KR20160142648A (en) | Presentation training system through the virtual reality | |
US11677575B1 (en) | Adaptive audio-visual backdrops and virtual coach for immersive video conference spaces | |
JP2012146216A (en) | Electronic device and program for controlling the same | |
Koleva et al. | On the interplay between spontaneous spoken instructions and human visual behaviour in an indoor guidance task. | |
JP5811537B2 (en) | Electronics | |
JP7358265B2 (en) | Characterization system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120229 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130311 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5233159 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160405 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |