JP7213857B2 - CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM - Google Patents

CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM Download PDF

Info

Publication number
JP7213857B2
JP7213857B2 JP2020177720A JP2020177720A JP7213857B2 JP 7213857 B2 JP7213857 B2 JP 7213857B2 JP 2020177720 A JP2020177720 A JP 2020177720A JP 2020177720 A JP2020177720 A JP 2020177720A JP 7213857 B2 JP7213857 B2 JP 7213857B2
Authority
JP
Japan
Prior art keywords
participant
participants
emotion
conference
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020177720A
Other languages
Japanese (ja)
Other versions
JP2022068903A (en
Inventor
修司 仲山
央男 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020177720A priority Critical patent/JP7213857B2/en
Publication of JP2022068903A publication Critical patent/JP2022068903A/en
Application granted granted Critical
Publication of JP7213857B2 publication Critical patent/JP7213857B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、会議の進行を支援する会議支援装置、会議支援方法および会議支援プログラムに関する。 The present invention relates to a conference assistance device, a conference assistance method, and a conference assistance program for assisting progress of a conference.

この種の装置として、従来、会議の参加者の発言や表情を検出し、検出結果に基づいて会議の進行を支援する情報を提示するようにした装置が知られている(例えば特許文献1,2参照)。特許文献1記載の装置では、画像や音声に基づいて参加者の心理状態が推定されるとともに、推定された心理状態の情報が表示される。特許文献2記載の装置では、参加者の発言の内容が解析され、解析結果が表示されることで、会議の論点や方向性が視覚化される。 As this type of device, there has been known a device that detects speech and facial expressions of participants in a conference and presents information to support the progress of the conference based on the detection results (for example, Patent Document 1, 2). In the device described in Patent Document 1, the psychological state of the participant is estimated based on images and voices, and information on the estimated mental state is displayed. The apparatus described in Patent Document 2 analyzes the contents of statements made by participants and displays the analysis results, thereby visualizing the discussion points and direction of the conference.

特開2004-112518号公報JP 2004-112518 A 特開2020-106687号公報JP 2020-106687 A

ところで、会議を円滑に進行するには、必要に応じて参加者に発言を促すことが望ましい。しかしながら、上記特許文献1,2記載の装置は、単に参加者の感情や議論の内容を表示するだけであり、特許文献1,2記載の装置では、参加者に発言をいかに促すかについては何ら提案されていない。 By the way, in order to proceed smoothly with the conference, it is desirable to encourage the participants to speak as necessary. However, the devices described in Patent Documents 1 and 2 simply display the emotions of the participants and the content of the discussion, and the devices described in Patent Documents 1 and 2 have no idea how to prompt the participants to speak. Not proposed.

本発明の一態様である会議支援装置は、第1参加者と第2参加者とを含む複数の参加者が参加する会議の進行を支援する。会議支援装置は、複数の参加者のそれぞれの生体情報を取得する情報取得部と、情報取得部により取得された生体情報に基づいて、複数の参加者のそれぞれについて発言しているか否かを判定する発言判定部と、情報取得部により取得された生体情報に基づいて、複数の参加者のそれぞれの感情を推定する感情推定部と、発言判定部により第1参加者が発言していると判定されるとき、発言判定部により継続して所定時間以上、第2参加者が発言していないと判定され、かつ、第1参加者の発言中に感情推定部により推定された第2参加者の感情が変化すると、第2参加者に発言を促すための指令を出力する出力部と、を備える。 A conference support device that is one aspect of the present invention supports progress of a conference in which a plurality of participants including a first participant and a second participant participate. A conference support device includes an information acquisition unit that acquires biometric information of each of a plurality of participants, and based on the biometric information acquired by the information acquisition unit, determines whether or not each of the plurality of participants is speaking. an emotion estimating unit for estimating the emotion of each of the plurality of participants based on the biological information acquired by the information acquiring unit; and the utterance determining unit determining that the first participant is speaking. is determined by the utterance determination unit that the second participant has not made a statement continuously for a predetermined time or longer, and the second participant estimated by the emotion estimation unit during the utterance of the first participant an output unit for outputting a command for prompting the second participant to speak when the emotion changes.

本発明の他の態様は、第1参加者と第2参加者とを含む複数の参加者が参加する会議の進行を支援する会議支援方法であって、複数の参加者のそれぞれの生体情報を取得する情報取得ステップと、情報取得ステップで取得された生体情報に基づいて、複数の参加者のそれぞれについて発言しているか否かを判定する発言判定ステップと、情報取得ステップで取得された生体情報に基づいて、複数の参加者のそれぞれの感情を推定する感情推定ステップと、発言判定ステップで第1参加者が発言していると判定されるとき、発言判定ステップで継続して所定時間以上、第2参加者が発言していないと判定され、かつ、第1参加者の発言中に感情推定ステップで推定された第2参加者の感情が変化すると、第2参加者に発言を促すための指令を出力する指令出力ステップと、をコンピュータにより実行することを含む。 Another aspect of the present invention is a conference support method for supporting progress of a conference in which a plurality of participants including a first participant and a second participant participate, wherein biometric information of each of the plurality of participants is an information acquisition step to be acquired; an utterance determination step for determining whether or not each of a plurality of participants is speaking based on the biometric information acquired in the information acquisition step; and the biometric information acquired in the information acquisition step an emotion estimation step of estimating the emotion of each of a plurality of participants based on ; When it is determined that the second participant is not speaking, and the emotion of the second participant estimated in the emotion estimation step changes during the speech of the first participant , the second participant is prompted to speak. and a command output step of outputting a command.

本発明のさらなる他の態様は、第1参加者と第2参加者とを含む複数の参加者が参加する会議の進行を支援する会議支援プログラムであって、複数の参加者のそれぞれの生体情報を取得する情報取得ステップと、情報取得ステップで取得された生体情報に基づいて、複数の参加者のそれぞれについて発言しているか否かを判定する発言判定ステップと、情報取得ステップで取得された生体情報に基づいて、複数の参加者のそれぞれの感情を推定する感情推定ステップと、発言判定ステップで第1参加者が発言していると判定されるとき、発言判定ステップで継続して所定時間以上、第2参加者が発言していないと判定され、かつ、第1参加者の発言中に感情推定ステップで推定された第2参加者の感情が変化すると、第2参加者に発言を促すための指令を出力する指令出力ステップと、をコンピュータに実行させる。
Still another aspect of the present invention is a conference support program for supporting progress of a conference in which a plurality of participants including a first participant and a second participant participate, wherein biometric information of each of the plurality of participants a speech determination step of determining whether or not each of a plurality of participants is speaking based on the biometric information acquired in the information acquisition step; and the biometric acquired in the information acquisition step Based on the information, an emotion estimation step of estimating the emotion of each of a plurality of participants; , to prompt the second participant to speak when it is determined that the second participant is not speaking and the emotion of the second participant estimated in the emotion estimation step changes during the speech of the first participant. and a command output step of outputting a command of .

本発明によれば、会議の円滑な進行を支援することができる。 According to the present invention, it is possible to support the smooth progress of a conference.

本発明の実施形態に係る会議支援装置を有する会議支援システムの全体構成の一例を概略的に示すブロック図。1 is a block diagram schematically showing an example of the overall configuration of a conference support system having a conference support device according to an embodiment of the present invention; FIG. 図1の各端末装置の要部構成の一例を概略的に示すブロック図。FIG. 2 is a block diagram schematically showing an example of a main configuration of each terminal device in FIG. 1; 本発明の実施形態に係る会議支援装置の要部構成の一例を概略的に示すブロック図。1 is a block diagram schematically showing an example of a configuration of essential parts of a conference support device according to an embodiment of the present invention; FIG. 図3の発言判定部の判定結果と個人感情推定部の推定結果の一例を示す図。4A and 4B are diagrams showing an example of the determination result of the utterance determination unit in FIG. 3 and the estimation result of the personal emotion estimation unit; FIG. 介入指令を受信したときの、図1の端末装置の表示画面の一例を示す図。FIG. 2 is a diagram showing an example of a display screen of the terminal device in FIG. 1 when an intervention command is received; 図5Aの変形例を示す図。The figure which shows the modification of FIG. 5A. 本発明の実施形態に係る会議支援装置により実行される介入指令出力処理の一例を示すフローチャート。4 is a flowchart showing an example of intervention command output processing executed by the conference support device according to the embodiment of the present invention; 図3の活性度算出部の算出結果の一例を示す図。FIG. 4 is a diagram showing an example of a calculation result of an activity calculation unit in FIG. 3; 図7Aの変形例を示す図。The figure which shows the modification of FIG. 7A. 活性度情報を受信したときの、図1のファシリテータが使用する端末装置の表示画面の一例を示す図。FIG. 3 is a diagram showing an example of a display screen of a terminal device used by the facilitator of FIG. 1 when activity level information is received; 図8Aの変形例を示す図。The figure which shows the modification of FIG. 8A. 本発明の実施形態に係る会議支援装置により実行される活性度情報出力処理の一例を示すフローチャート。4 is a flowchart showing an example of activity level information output processing executed by the conference support device according to the embodiment of the present invention; 図3の個人感情推定部および全体感情推定部の推定結果の一例を示す図。FIG. 4 is a diagram showing an example of an estimation result of an individual emotion estimating unit and an overall emotion estimating unit of FIG. 3; 全体感情の情報を受信したときの、図1のファシリテータが使用する端末装置の表示画面の一例を示す図。FIG. 10 is a view showing an example of a display screen of a terminal device used by the facilitator of FIG. 1 when information on overall emotion is received; 図11Aの変形例を示す図。The figure which shows the modification of FIG. 11A. 本発明の実施形態に係る会議支援装置により実行される全体感情出力処理の一例を示すフローチャート。4 is a flowchart showing an example of overall emotion output processing executed by the conference support device according to the embodiment of the present invention;

以下、図1~図12を参照して本発明の一実施形態について説明する。本発明の実施形態に係る会議支援装置は、新たなアイデアを生み出すための社内会議などの会議の進行を支援する。より具体的には、会議の進行を管理するファシリテータを支援することで間接的に会議の進行を支援し、あるいは、ファシリテータの役割を担うことで直接的に会議の進行を支援する。 An embodiment of the present invention will be described below with reference to FIGS. 1 to 12. FIG. A meeting support device according to an embodiment of the present invention supports progress of a meeting such as an internal meeting for generating new ideas. More specifically, the progress of the conference is indirectly supported by supporting the facilitator who manages the progress of the conference, or the progress of the conference is directly supported by taking on the role of the facilitator.

会議は、例えば新たな商品やサービスのアイデアを生み出すために開催され、開発部門の各分野のエキスパートなど、多様な知見を有する複数の参加者により構成される。このような会議は、複数の参加者が互いの意見を交換し、議論することで進行するが、会議の進行が参加者の自治に委ねられると、特定の参加者が発言し続けたり、発言しなかったり、率直に発言できなかったりする不適切な状況が発生することがある。このような不適切な状況が発生すると、多様な知見が反映された良質なアイデアを生み出すことが難しくなる。 Meetings are held to generate ideas for new products and services, for example, and consist of multiple participants with diverse knowledge, such as experts in each field of the development department. Such a meeting progresses by exchanging opinions and debating among multiple participants. Inappropriate situations may arise where you do not respond or are unable to speak up. When such an inappropriate situation occurs, it becomes difficult to generate good ideas that reflect diverse knowledge.

ファシリテータは、例えば開発部門の会議に立ち会う心理学の専門性を有するカウンセラなどの担当者であり、会議の議論そのものには関与せず、専ら会議の進行のみを管理する。より具体的には、会議の進行状況を観察し、不適切な状況が発生しないよう、必要に応じて参加者に発言を促す「介入」を行うことで、会議の進行を促進する。 A facilitator is a person in charge, such as a counselor who attends a meeting of the development department and who has expertise in psychology. More specifically, by observing the progress of the meeting and intervening as necessary to prevent inappropriate situations from occurring, participants are encouraged to speak, thereby promoting the progress of the meeting.

ファシリテータが各参加者の発言量や表情、動作などを観察し、適切な介入対象者および介入タイミングを見極めて適切な態様で介入すると会議の進行が促進されるが、不適切な態様で介入すると、かえって会議の進行が妨げられる可能性がある。そこで、本実施形態では、介入が適切な態様で行われるように支援することで、会議の円滑な進行を支援できるよう、以下のように会議支援装置を構成する。 If the facilitator observes the amount of speech, facial expressions, actions, etc. of each participant, and intervenes in an appropriate manner by determining the appropriate intervention target and intervention timing, the progress of the conference will be promoted, but if the facilitator intervenes in an inappropriate manner , there is a possibility that the progress of the meeting will be hindered. Therefore, in this embodiment, the conference support apparatus is configured as follows so as to support the smooth progress of the conference by supporting intervention in an appropriate manner.

図1は、本発明の実施形態に係る会議支援装置を有する会議支援システム100の全体構成の一例を概略的に示すブロック図である。図1に示すように、会議支援システム100は、会議の複数の参加者Pa~Pdのそれぞれが使用する端末装置10a~10dと、ファシリテータPfが使用する端末装置10fと、本発明の実施形態に係る会議支援装置を構成するサーバ20とを有する。各端末装置10(10a~10d,10f)は、パーソナルコンピュータやスマートフォンなどの一般的なユーザ端末により構成される。 FIG. 1 is a block diagram schematically showing an example of the overall configuration of a conference support system 100 having a conference support device according to an embodiment of the invention. As shown in FIG. 1, a conference support system 100 includes terminal devices 10a to 10d used by a plurality of conference participants Pa to Pd, respectively, a terminal device 10f used by a facilitator Pf, and a terminal device 10f used by a facilitator Pf. and a server 20 constituting such a conference support device. Each terminal device 10 (10a to 10d, 10f) is composed of a general user terminal such as a personal computer or a smart phone.

各端末装置10とサーバ20とは、インターネット網や携帯電話網等に代表される公衆無線通信網を含む通信ネットワーク30に接続され、通信ネットワーク30を介して互いに通信可能に構成される。通信ネットワーク30には、公衆無線通信網だけでなく、所定の管理地域ごとに設けられた閉鎖的な通信網、例えば無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)等も含まれる。 Each terminal device 10 and server 20 are connected to a communication network 30 including a public wireless communication network such as the Internet network and a mobile phone network, and are configured to communicate with each other via the communication network 30 . The communication network 30 includes not only a public wireless communication network but also a closed communication network provided for each predetermined management area, such as a wireless LAN, Wi-Fi (registered trademark), Bluetooth (registered trademark), and the like. .

なお、図1には、各参加者Pa~PdおよびファシリテータPfが個人で参加するWeb会議の構成を示すが、会議は、複数の参加者Pa~PdおよびファシリテータPfの一部がグループで参加するテレビ会議や、オンライン会議以外の会議であってもよい。この場合、複数の参加者Pa~PdおよびファシリテータPfまたはその一部が単一の端末装置10を共用してもよい。 Note that FIG. 1 shows the configuration of a Web conference in which each of the participants Pa to Pd and the facilitator Pf participate individually, but the conference is attended by a plurality of the participants Pa to Pd and some of the facilitators Pf as a group. It may be a teleconference or a conference other than an online conference. In this case, a single terminal device 10 may be shared by a plurality of participants Pa-Pd and facilitator Pf or some of them.

図2は、各端末装置10の要部構成の一例を概略的に示すブロック図である。図2に示すように、端末装置10は、CPUなどの演算部11と、ROM,RAMなどの記憶部12と、I/Oインターフェースなどの周辺回路とを有するコンピュータを含んで構成される。端末装置10は、さらに、コンピュータに接続されたマイク13と、カメラ14と、入力部15と、スピーカ16と、表示部17と、を有する。記憶部12には、演算部11が実行するプログラム、端末装置10を使用するユーザ(参加者Pa~Pd、ファシリテータPf)の識別情報などが記憶される。 FIG. 2 is a block diagram schematically showing an example of a main configuration of each terminal device 10. As shown in FIG. As shown in FIG. 2, the terminal device 10 includes a computer having an arithmetic section 11 such as a CPU, a storage section 12 such as ROM and RAM, and peripheral circuits such as an I/O interface. The terminal device 10 further includes a microphone 13 connected to a computer, a camera 14, an input section 15, a speaker 16, and a display section 17. The storage unit 12 stores programs executed by the calculation unit 11, identification information of users (participants Pa to Pd, facilitator Pf) using the terminal device 10, and the like.

マイク13は、端末装置10のユーザが発した音声を取得する。マイク13からの音声信号は、演算部11での処理により、通信ネットワーク30を介して、他の参加者Pa~PdおよびファシリテータPfが使用する端末装置10に送信される。また、マイク13からの音声信号は、記憶部12に一時的に記憶され、識別情報とともにユーザ(参加者Pa~Pd、ファシリテータPf)ごとの音声情報として、演算部11での処理により通信ネットワーク30を介して所定周期でサーバ20に送信される。マイク13は、ファシリテータPfによる各種の指令の音声操作入力を受け付けることもできる。マイク13を介して入力されたファシリテータPfからの指令の情報は、演算部11での処理により通信ネットワーク30を介してサーバ20に送信される。 The microphone 13 acquires the voice uttered by the user of the terminal device 10 . The audio signal from the microphone 13 is processed by the calculation unit 11 and transmitted via the communication network 30 to the terminal devices 10 used by the other participants Pa to Pd and the facilitator Pf. In addition, the audio signal from the microphone 13 is temporarily stored in the storage unit 12, and processed by the calculation unit 11 as audio information for each user (participants Pa to Pd, facilitator Pf) together with the identification information. is transmitted to the server 20 at predetermined intervals via the . The microphone 13 can also receive voice operation inputs of various commands from the facilitator Pf. Information on instructions from the facilitator Pf input via the microphone 13 is processed by the calculation unit 11 and transmitted to the server 20 via the communication network 30 .

カメラ14は、CCDセンサやCMOSセンサ等の撮像素子を有し、端末装置10のユーザの顔を撮像する。カメラ14からの画像信号は、演算部11での処理により、通信ネットワーク30を介して、他の参加者Pa~PdおよびファシリテータPfが使用する端末装置10に送信される。また、カメラ14からの画像信号は、記憶部12に一時的に記憶され、識別情報とともにユーザ(参加者Pa~Pd、ファシリテータPf)ごとの画像情報として、演算部11での処理により通信ネットワーク30を介して所定周期でサーバ20に送信される。カメラ14は、ファシリテータPfのジェスチャによる各種の指令の操作入力を受け付けることもできる。カメラ14を介して入力されたファシリテータPfからの指令の情報は、演算部11での処理により通信ネットワーク30を介してサーバ20に送信される。 The camera 14 has an imaging element such as a CCD sensor or a CMOS sensor, and images the face of the user of the terminal device 10 . An image signal from the camera 14 is processed by the calculation unit 11 and transmitted via the communication network 30 to the terminal devices 10 used by the other participants Pa to Pd and the facilitator Pf. In addition, the image signal from the camera 14 is temporarily stored in the storage unit 12, and processed by the calculation unit 11 as image information for each user (participants Pa to Pd, facilitator Pf) together with identification information. is transmitted to the server 20 at predetermined intervals via the . The camera 14 can also receive operation inputs of various commands by gestures of the facilitator Pf. Information on instructions from the facilitator Pf input via the camera 14 is processed by the calculation unit 11 and transmitted to the server 20 via the communication network 30 .

入力部15は、キーボードやマウス、タッチパネルなどにより構成され、ユーザによる操作入力を受け付ける。例えば、マイク13やカメラ14をオンまたはオフする操作入力を受け付ける。また、ファシリテータPfによる各種の指令の操作入力を受け付ける。入力部15を介して入力されたファシリテータPfからの各種の指令の情報は、演算部11での処理により通信ネットワーク30を介してサーバ20に送信される。 The input unit 15 includes a keyboard, a mouse, a touch panel, and the like, and receives operation input from the user. For example, an operation input for turning on or off the microphone 13 or the camera 14 is accepted. It also accepts operation inputs of various commands from the facilitator Pf. Information on various commands from the facilitator Pf input via the input unit 15 is processed by the calculation unit 11 and transmitted to the server 20 via the communication network 30 .

スピーカ16は、演算部11からの制御信号に応じて音声を出力する。例えば、通信ネットワーク30を介して取得された音声情報に基づいて、他の参加者Pa~PdまたはファシリテータPfが発した音声を出力する。各端末装置10のユーザは、マイク13とスピーカ16とを介して、他の参加者Pa~PdまたはファシリテータPfと対話することができる。 The speaker 16 outputs sound according to the control signal from the calculation unit 11 . For example, based on the voice information acquired via the communication network 30, voices uttered by the other participants Pa to Pd or the facilitator Pf are output. The user of each terminal device 10 can interact with other participants Pa-Pd or facilitator Pf via microphone 13 and speaker 16 .

表示部17は、演算部11からの制御信号に応じて画像を表示する。例えば、通信ネットワーク30を介して取得された画像情報に基づいて、他の参加者Pa~PdまたはファシリテータPfの画像を表示する。各端末装置10のユーザは、表示部17を介して、他の参加者Pa~PdまたはファシリテータPfの表情や動作を認識することができる。 The display section 17 displays an image according to the control signal from the calculation section 11 . For example, images of other participants Pa to Pd or facilitator Pf are displayed based on image information obtained via communication network 30 . The user of each terminal device 10 can recognize the facial expressions and actions of the other participants Pa to Pd or the facilitator Pf via the display unit 17 .

図3は、本発明の実施形態に係る会議支援装置を構成するサーバ20の要部構成の一例を概略的に示すブロック図である。図3に示すように、サーバ20は、CPUなどの演算部21と、ROM,RAMなどの記憶部22と、I/Oインターフェースなどの周辺回路とを有するコンピュータを含んで構成される。なお、図1には単一のサーバ20を示すが、図3に示す機能を分散させた複数のサーバによりサーバ20を構成してもよい。 FIG. 3 is a block diagram schematically showing an example of the main configuration of the server 20 that constitutes the conference support device according to the embodiment of the present invention. As shown in FIG. 3, the server 20 includes a computer having an arithmetic unit 21 such as a CPU, a storage unit 22 such as ROM and RAM, and peripheral circuits such as an I/O interface. Although a single server 20 is shown in FIG. 1, the server 20 may be configured by a plurality of servers in which the functions shown in FIG. 3 are distributed.

記憶部22には、演算部21が実行する会議支援プログラムやプログラムで使用される閾値、各端末装置10から取得された参加者Pa~Pd、ファシリテータPfごとの音声情報や画像情報、演算部21による演算結果などが記憶される。演算部21は、CPUが担う機能的構成として、情報取得部23と、発言判定部24と、個人感情推定部25と、全体感情推定部26と、活性度算出部27と、介入認識部28と、出力部29と、を有する。 The storage unit 22 stores the conference support program executed by the calculation unit 21, the threshold used in the program, the participants Pa to Pd acquired from each terminal device 10, the audio information and image information for each facilitator Pf, the calculation unit 21 , and the like are stored. The calculation unit 21 includes an information acquisition unit 23, an utterance determination unit 24, an individual emotion estimation unit 25, a general emotion estimation unit 26, an activity level calculation unit 27, and an intervention recognition unit 28 as functional components of the CPU. , and an output unit 29 .

情報取得部23は、通信ネットワーク30を介して各端末装置10から参加者Pa~Pd、ファシリテータPfごとの音声情報および画像情報、すなわち生体情報取得するとともに、ファシリテータPfの端末装置10fから各種の指令の情報を取得する。情報取得部23により取得された各参加者Pa~Pdの生体情報は、各参加者Pa~Pdの識別情報に関連付けられて記憶部22に記憶される。 The information acquisition unit 23 acquires voice information and image information for each of the participants Pa to Pd and the facilitator Pf, that is, biometric information, from each terminal device 10 via the communication network 30, and various commands from the terminal device 10f of the facilitator Pf. Get information about The biometric information of each of the participants Pa to Pd acquired by the information acquisition unit 23 is stored in the storage unit 22 in association with the identification information of each of the participants Pa to Pd.

発言判定部24は、情報取得部23により取得された音声情報に基づいて、各参加者Pa~Pdが発言しているか否かを判定する。より具体的には、参加者Pa~Pdごとの音声情報に基づいて、各端末装置10のマイク13を介して音声信号が入力されたか否かを判定することで、複数の参加者Pa~Pdのそれぞれについて発言の有無を判定する。発言判定部24による判定結果は、各参加者Pa~Pdの識別情報に関連付けられ、時系列の情報として記憶部22に記憶される。 The utterance determination unit 24 determines whether or not each of the participants Pa to Pd is uttering based on the voice information acquired by the information acquisition unit 23 . More specifically, based on the voice information of each of the participants Pa to Pd, it is determined whether or not a voice signal has been input via the microphone 13 of each terminal device 10, so that the plurality of participants Pa to Pd The presence or absence of a statement is determined for each of The determination result by the utterance determination unit 24 is associated with the identification information of each of the participants Pa to Pd and stored in the storage unit 22 as time-series information.

個人感情推定部25は、情報取得部23により取得された画像情報に基づいて、各参加者Pa~Pdの表情(口角等)から、各参加者Pa~Pdの感情(個人感情)ea~edが予め設定された複数の種類の感情のいずれに属するかを推定する。例えば、Plutchikの感情の輪を用いて、8つの基本感情(喜び、信頼、恐れ、驚き、悲しみ、嫌悪、怒り、期待)と、隣り合う2つの感情の組み合わせによる応用感情とに分類し、感情の輪のいずれかのパターンに当てはめる。 Based on the image information acquired by the information acquisition unit 23, the personal emotion estimation unit 25 calculates the emotions (personal emotions) ea to ed of the participants Pa to Pd from the facial expressions (mouth corners, etc.) of the participants Pa to Pd. To which of a plurality of types of preset emotions belongs is estimated. For example, using Plutchik's circle of emotions, it is classified into eight basic emotions (joy, trust, fear, surprise, sadness, disgust, anger, and expectation) and applied emotions that are combinations of two adjacent emotions. fit to one of the patterns in the circle of

個人感情推定部25は、感情の輪への当てはめに応じて個人感情ea~edを数値化する。例えば、喜びなどの好ましい感情(正の感情)をプラスの値で、悲しみなどの好ましからぬ感情(負の感情)をマイナスの値で表す。この場合、例えば感情が強いほど(感情の輪の内側に行くほど)、感情を表す値(絶対値)を大きくする。個人感情推定部25による推定結果は、各参加者Pa~Pdの識別情報に関連付けられ、時系列の情報として記憶部22に記憶される。 The personal emotion estimating unit 25 quantifies the personal emotions ea to ed in accordance with the application to the emotion circle. For example, a positive emotion such as joy (positive emotion) is represented by a positive value, and an unfavorable emotion (negative emotion) such as sadness is represented by a negative value. In this case, for example, the stronger the emotion (the closer it gets to the inner side of the circle of emotion), the larger the value (absolute value) representing the emotion. The estimation result by the personal emotion estimation unit 25 is associated with the identification information of each of the participants Pa to Pd and stored in the storage unit 22 as time-series information.

[介入の対象者と介入のタイミング]
図4は、発言判定部24の判定結果と個人感情推定部25の推定結果の一例を示す図であり、会議中における参加者Pa~Pdの発言の有無と個人感情ea~edの変化の一例を示す。図4の例では、参加者Pa,Pb,Pdのみが発言し、参加者Pcが発言していない。このような状況が継続すると、参加者Pcの意見が反映されないまま議論が進んでしまうため、参加者Pcに発言を促す介入を行う必要がある。一方、参加者Pcが発言する意見の内容について考えている場合や発言する意見がない場合など、まだ発言できない段階で介入が行われると、単に議論の流れを妨げることになる。また、介入された参加者Pcが委縮し、かえって発言しにくくなる。
[Intervention targets and timing of intervention]
FIG. 4 is a diagram showing an example of the determination result of the utterance determination unit 24 and the estimation result of the personal emotion estimation unit 25, and an example of changes in the presence or absence of utterances of participants Pa to Pd and personal emotions ea to ed during the conference. indicate. In the example of FIG. 4, only participants Pa, Pb, and Pd speak, and participant Pc does not speak. If this situation continues, the discussion will proceed without reflecting the opinion of the participant Pc, so it is necessary to intervene to encourage the participant Pc to speak. On the other hand, if the participant Pc is thinking about the content of the opinion to be spoken or has no opinion to speak, and intervention is performed at the stage where the participant Pc cannot speak yet, the flow of the discussion will simply be interrupted. In addition, the intervened participant Pc becomes atrophied and becomes more difficult to speak.

図4に示すように、時刻t1~t2において参加者Pcが一度も発言せず、継続して所定時間T1(例えば、5分間)以上、発言していない場合は、参加者Pcを介入すべき対象者(介入対象者)の候補者(介入候補者)とみなす。さらに、時刻t3において、他の参加者Paの発言中に参加者Pcの個人感情ecが変化すると(図では正の感情が“+1”から“+3”に強まる)、参加者Pcに何らかの意見が生じたものとみなし、参加者Pcを介入対象者とする。すなわち、他の参加者の発言を受けて個人感情が変化した場合は、何らかの意見が生じた蓋然性が高いため、このようなタイミング、例えば、他の参加者の発言の直後に介入すれば、介入対象者にとって発言しやすく、議論の流れを妨げることがない。なお、誰も発言していないときの個人感情の変化は、発言内容に関係ない個人的な事柄に起因する可能性が高い。 As shown in FIG. 4, if the participant Pc does not speak even once from time t1 to t2 and does not speak continuously for a predetermined time T1 (for example, 5 minutes), the participant Pc should be intervened. Considered as a candidate (intervention candidate) of the target (intervention target). Furthermore, at time t3, when the personal emotion ec of participant Pc changes while other participant Pa is speaking (in the figure, positive emotion increases from "+1" to "+3"), participant Pc has some opinion. It is regarded as having occurred, and the participant Pc is made the subject of intervention. In other words, if the personal feeling changes in response to another participant's remarks, there is a high probability that some kind of opinion is generated. It is easy for the target audience to speak up and does not interfere with the flow of discussion. It should be noted that there is a high possibility that changes in personal feelings when no one is speaking are caused by personal matters unrelated to the content of the speech.

出力部29は、発言判定部24により他の参加者Paが発言していると判定されるとき、個人感情推定部25により推定された参加者Pc(介入候補者)の個人感情ecが変化すると、参加者Pcを介入対象者として発言を促すための指令(介入指令)を出力する。例えば、通信ネットワーク30を介してファシリテータPfの端末装置10fに、介入対象者を特定するための識別情報と個人感情の変化の情報を送信する。なお、継続して所定時間T1以上、発言していない複数の介入候補者の個人感情が同時に変化した場合は、発言していない時間がより長い介入候補者、あるいは、個人感情の変化がより大きい介入候補者を介入対象者として介入指令を出力する。 When the utterance determining unit 24 determines that the other participant Pa is speaking, the output unit 29 outputs a change in the personal emotion ec of the participant Pc (intervention candidate) estimated by the personal emotion estimating unit 25. , and outputs a command (intervention command) for prompting the participant Pc to speak. For example, through the communication network 30, the identification information for specifying the intervention candidate and the information on the change in personal emotion are transmitted to the terminal device 10f of the facilitator Pf. If the individual emotions of a plurality of intervention candidates who have not spoken continuously for a predetermined period of time T1 or longer have changed simultaneously, the intervention candidate who has not spoken for a longer period of time or the change in individual emotions has a greater change. An intervention command is output with the intervention candidate as the intervention target person.

図5Aは、介入指令を受信したときの端末装置10fの表示画面の一例を示す図であり、サーバ20からの介入指令に応じてファシリテータPfが使用する端末装置10fの表示部17に表示される表示画面の一例を示す。図5Aに示すように、サーバ20から端末装置10fに介入指令が送信されると、表示部17に表示される複数(図では4人)の参加者Pa~Pdのうち、介入指令により特定された参加者Pcが他の参加者Pa,Pb,Pdよりも強調して表示される。 FIG. 5A is a diagram showing an example of a display screen of the terminal device 10f when receiving an intervention command, which is displayed on the display unit 17 of the terminal device 10f used by the facilitator Pf in response to the intervention command from the server 20. An example of a display screen is shown. As shown in FIG. 5A, when an intervention command is transmitted from the server 20 to the terminal device 10f, among the plurality of (four in the figure) participants Pa to Pd displayed on the display unit 17, the participants identified by the intervention command Participant Pc is displayed with more emphasis than other participants Pa, Pb, and Pd.

このように、参加者Paの発言中、長時間発言していない参加者Pcの個人感情ecが変化すると直ちに、ファシリテータPfに対し、参加者Pcに介入すべきタイミングであることが通知される。これにより、例えば参加者Paが発言し終わり、他の参加者Pb,Pdが発言する前に、ファシリテータPfが参加者Pcに発言を促すことができるため、参加者Pcがスムーズに議論に加わることができる。このような通知は、ファシリテータPfが不慣れで介入のタイミングを判断しかねる場合だけでなく、資料などが全画面表示されることでファシリテータPfが参加者Pcの表情や動作を観察できない場合にも、ファシリテータPfを支援することができる。 Thus, as soon as the personal emotion ec of the participant Pc who has not spoken for a long time changes while the participant Pa is speaking, the facilitator Pf is notified that it is time to intervene in the participant Pc. Thus, for example, the facilitator Pf can prompt the participant Pc to speak before the participant Pa finishes speaking and the other participants Pb and Pd speak, so that the participant Pc smoothly participates in the discussion. can be done. Such a notification is sent not only when the facilitator Pf is unfamiliar and cannot judge the timing of intervention, but also when the facilitator Pf cannot observe the facial expressions and actions of the participants Pc because the materials are displayed on the full screen. Facilitator Pf can be assisted.

さらに、端末装置10fの表示部17には、介入指令により特定された参加者Pcについての、個人感情ecの変化の情報が表示される。個人感情ecの変化の情報は、例えば感情の種類や強さを示す表情アイコンを用いて示される。図5Aの例では、参加者Pcの個人感情ecが弱い正の感情“+1”から、やや強い正の感情“+3”に変化したことが、変化の前後の感情にそれぞれ対応する2つの表情アイコンを用いて示される。 Further, the display unit 17 of the terminal device 10f displays information on changes in the personal emotion ec of the participant Pc specified by the intervention command. Information on changes in personal emotion ec is indicated using, for example, facial expression icons that indicate the type and intensity of emotion. In the example of FIG. 5A, when the personal emotion ec of the participant Pc changes from a weak positive emotion "+1" to a slightly strong positive emotion "+3", two facial expression icons corresponding to the emotions before and after the change are displayed. is shown using

このように個人感情ecの変化の情報を表示することで、ファシリテータPfが参加者Pcの個人感情ecの変化の内容を把握した上で介入できるため、参加者Pcの心理状態に応じた適切な声の掛け方などで発言を促すことができる。また、表示部17に表示される情報が表情アイコンなど最小限に止められるため、ファシリテータPfによる参加者Pa~Pdの表情や動作などの観察を妨げることがない。 By displaying the information on the change in the personal emotion ec in this way, the facilitator Pf can intervene after grasping the content of the change in the personal emotion ec of the participant Pc. You can encourage people to speak by using their voice. In addition, since the information displayed on the display unit 17 is minimized, such as the facial expression icons, the facilitator Pf can observe the facial expressions and movements of the participants Pa to Pd without hindrance.

図5Bは、介入指令を受信したときの端末装置10の表示画面の変形例を示す図であり、サーバ20からの介入指令に応じて参加者Pa~PdおよびファシリテータPfが使用する端末装置10a~10d,10fの表示部17に表示される表示画面の一例を示す。図5Bに示すように、サーバ20から各端末装置10に介入指令が送信されると、表示部17に表示される複数(図では4人)の参加者Pa~Pdのうち、介入指令により特定された参加者Pcが他の参加者Pa,Pb,Pdよりも強調して表示される。例えば、参加者Pcの画像が他の参加者Pa,Pb,Pdの画像よりも大きく表示される。 FIG. 5B is a diagram showing a modified example of the display screen of the terminal device 10 when receiving an intervention command. Examples of display screens displayed on the display units 17 of 10d and 10f are shown. As shown in FIG. 5B, when an intervention command is transmitted from the server 20 to each terminal device 10, among the plurality of participants Pa to Pd displayed on the display unit 17 (four in the figure), the intervention command specifies The selected participant Pc is displayed with more emphasis than the other participants Pa, Pb, and Pd. For example, the image of participant Pc is displayed larger than the images of other participants Pa, Pb, and Pd.

このように、ファシリテータPfや介入対象者だけでなく、参加者Pa~Pd全体に対し、次の発言者が明示されるため、より自然な態様で介入対象者に発言を促すことができる。このように参加者Pa~Pd全体に対して通知を行う場合は、ファシリテータPfによる介入を支援するだけでなく、会議支援装置がファシリテータの役割を担うことで直接的に会議の進行を支援することができる。 In this way, the next speaker is clearly indicated not only to the facilitator Pf and the intervention target, but also to all of the participants Pa to Pd, so that the intervention target can be encouraged to speak in a more natural manner. When notifying all of the participants Pa to Pd in this manner, not only the intervention by the facilitator Pf is supported, but also the conference support device plays the role of the facilitator to directly support the progress of the conference. can be done.

図6は、サーバ20の記憶部22に予め記憶された会議支援プログラムに従い、サーバ20の演算部21で実行される介入指令出力処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばファシリテータPfからの開始指令が入力されると開始され、終了指令が入力されるまで所定周期で繰り返し実行される。 FIG. 6 is a flow chart showing an example of intervention command output processing executed by the computing unit 21 of the server 20 according to the meeting support program pre-stored in the storage unit 22 of the server 20 . The processing shown in this flow chart is started, for example, when a start command is input from the facilitator Pf, and is repeatedly executed at a predetermined cycle until an end command is input.

先ずステップS1で、参加者Pa~Pdごとの生体情報を取得する。次いでステップS2で、ステップS1で取得された音声情報に基づいて参加者Pa~Pdごとの発言の有無を判定する。次いでステップS3で、ステップS1で取得された画像情報に基づいて参加者Pa~Pdごとの個人感情ea~edを推定する。次いでステップS4で、ステップS2の判定結果に基づいて、継続して所定時間T1以上、発言していない介入候補者がいるか否かを判定する。ステップS4で肯定されるとステップS5に進み、否定されると処理を終了する。ステップS5では、ステップS2の判定結果とステップS3の推定結果とに基づいて、他の参加者の発言中に介入候補者の感情に変化があったか否かを判定する。ステップS5で肯定されるとステップS6に進み、否定されると処理を終了する。ステップS6では、介入候補者を介入対象者として発言を促すための介入指令を端末装置10に送信する。 First, in step S1, biometric information is acquired for each of the participants Pa to Pd. Next, in step S2, based on the voice information acquired in step S1, it is determined whether or not each of the participants Pa to Pd speaks. Next, in step S3, individual emotions ea to ed of each of the participants Pa to Pd are estimated based on the image information acquired in step S1. Next, in step S4, based on the determination result of step S2, it is determined whether or not there is an intervention candidate who has not made a statement continuously for a predetermined period of time T1 or longer. If the result in step S4 is affirmative, the process proceeds to step S5, and if the result is negative, the process ends. In step S5, based on the determination result of step S2 and the estimation result of step S3, it is determined whether or not there was a change in the emotions of the intervention candidate during the speech of the other participants. If the result in step S5 is affirmative, the process proceeds to step S6, and if the result is negative, the process ends. In step S6, an intervention command is transmitted to the terminal device 10 for prompting the intervention candidate to speak as an intervention candidate.

このように、長時間発言していない参加者を特定し(ステップS1,S2,S4)、他の参加者の発言を受けて個人感情が変化したタイミングで介入指令を出力するため(ステップS1~S3,S5,S6)、発言しやすいタイミングで介入を行うことができる。これにより、議論の流れを妨げることなく効果的に介入を行うことができるため、会議の円滑な進行を支援することができる。 In this way, a participant who has not spoken for a long time is specified (steps S1, S2, S4), and an intervention command is output at the timing when the personal emotion changes in response to the speech of another participant (steps S1 to S4). S3, S5, S6), intervention can be performed at a timing when it is easy to speak. As a result, it is possible to effectively intervene without interfering with the flow of the discussion, thereby supporting the smooth progress of the conference.

[議論の活性度と介入の効果]
ファシリテータPfは、自身が行った介入が効果的であったか否かを知ることで、必要に応じて次回以降の介入の態様を見直すことができる。ファシリテータPfによる介入の効果をファシリテータPfにフィードバックすることで、ファシリテータPfによる効果的な介入を支援し、会議の円滑な進行を支援することができる。
[Activity of discussion and effect of intervention]
The facilitator Pf knows whether or not the intervention performed by him/herself was effective, so that the facilitator Pf can review the mode of subsequent intervention as necessary. By feeding back the effect of the intervention by the facilitator Pf to the facilitator Pf, it is possible to assist the effective intervention by the facilitator Pf and assist the smooth progress of the conference.

活性度算出部27は、情報取得部23により取得された生体情報に基づいて、会議における議論の活性化の程度を表す活性度aを算出する。例えば、情報取得部23により取得された音声情報に基づいて参加者Pa~Pdによる発言の頻度fを算出し、算出された発言の頻度fに基づいて活性度aを算出する。 Based on the biometric information acquired by the information acquisition unit 23, the activity level calculation unit 27 calculates the activity level a, which represents the degree of activation of the discussion in the meeting. For example, based on the voice information acquired by the information acquiring unit 23, the frequency f of utterances by the participants Pa to Pd is calculated, and the activity level a is calculated based on the calculated frequency f of utterances.

図7Aは、活性度算出部27の算出結果の一例を示す図であり、発言の頻度fに基づく活性度aの一例を示す。図7Aに示すように、時刻t6にファシリテータPfによる介入が行われると、介入前の時刻t5~t6における発言の頻度fと、介入後の所定期間T2(例えば、5分程度)、時刻t6~t7における発言の頻度fが算出される。図7Aの例では、時刻t5~t6の3分間に2回の発言があり、介入前の発言の頻度fが0.7回/分として算出され、時刻t6~t7の5分間に7回の発言があり、介入後の発言の頻度fが1.4回/分として算出される。この場合、介入前の活性度aが“0.7”、介入後の活性度aが“1.4”として算出される。 FIG. 7A is a diagram showing an example of the calculation result of the activity level calculator 27, showing an example of the activity level a based on the utterance frequency f. As shown in FIG. 7A, when the intervention by the facilitator Pf is performed at time t6, the frequency f of utterances from time t5 to t6 before the intervention, the predetermined period T2 after the intervention (for example, about 5 minutes), the time t6 to The frequency f of utterances at t7 is calculated. In the example of FIG. 7A, there are two utterances in 3 minutes from time t5 to t6, the frequency f of utterances before intervention is calculated as 0.7 times/minute, and 7 times in 5 minutes from time t6 to t7. There is an utterance, and the utterance frequency f after the intervention is calculated as 1.4 times/minute. In this case, the activity level a before intervention is calculated as "0.7" and the activity level a after intervention is calculated as "1.4".

活性度算出部27は、個人感情推定部25により推定された参加者Pa~Pdの個人感情ea~edに基づいて活性度aを算出することもできる。例えば、参加者Pa~Pdの個人感情ea~edの平均値を活性度aとして算出する。 The activity level calculation unit 27 can also calculate the activity level a based on the individual emotions ea to ed of the participants Pa to Pd estimated by the individual emotion estimation unit 25 . For example, the average value of the individual emotions ea to ed of the participants Pa to Pd is calculated as the activity level a.

図7Bは、活性度算出部27の算出結果の一例を示す図であり、個人感情ea~edに基づく活性度aの一例を示す。図7Bの例では、時刻t6に介入が行われると、時刻t8に参加者Pdの個人感情edが負の感情“-3”から正の感情“+3”に変化し、時刻t9に参加者Pcの個人感情ecが弱い正の感情“+1”から、強い正の感情“+5”に変化する。この場合、参加者Pa~Pdの個人感情ea~edの平均値、すなわち活性度aが、時刻t5~t8に“+1.5”、時刻t8~t9に“+3”、時刻t9~t7に“+4”として算出される。 FIG. 7B is a diagram showing an example of the calculation result of the activity level calculator 27, showing an example of the activity level a based on the individual emotions ea to ed. In the example of FIG. 7B, when intervention is performed at time t6, the individual emotion ed of participant Pd changes from negative emotion “−3” to positive emotion “+3” at time t8, and participant Pc changes at time t9. changes from weak positive emotion "+1" to strong positive emotion "+5". In this case, the average value of the individual emotions ea to ed of the participants Pa to Pd, that is, the activity level a is "+1.5" at times t5 to t8, "+3" at times t8 to t9, and "+3" at times t9 to t7. +4".

活性度算出部27は、参加者Pa~Pdの発言の頻度fおよび個人感情ea~edの両方に基づいて活性度aを算出してもよい。この場合、例えば、発言の頻度fに基づく活性度aおよび個人感情ea~edに基づく活性度aを、最小値および最大値を統一した数値af,aeに換算するとともに、換算された数値af,aeの平均値を活性度aとして算出する。 The activity level calculator 27 may calculate the activity level a based on both the utterance frequency f and the individual emotions ea to ed of the participants Pa to Pd. In this case, for example, the activation level a based on the frequency of utterances f and the activation levels a based on individual emotions ea to ed are converted into numerical values af and ae that are the same minimum and maximum values, and the converted numerical values af and The average value of ae is calculated as the activity a.

介入認識部28は、ファシリテータPfによる介入のタイミング(図7A、図7Bの時刻t6)を認識する。より具体的には、情報取得部23により取得されたファシリテータPfの音声情報に基づいて、端末装置10fのマイク13を介して音声信号が入力されたか否かを判定することで、ファシリテータPfが介入を行うタイミングを認識する。この場合、ファシリテータPfが介入を行うと自動的に介入のタイミングが認識される。 The intervention recognition unit 28 recognizes the timing of intervention by the facilitator Pf (time t6 in FIGS. 7A and 7B). More specifically, based on the voice information of the facilitator Pf acquired by the information acquisition unit 23, the facilitator Pf intervenes by determining whether a voice signal is input via the microphone 13 of the terminal device 10f. Recognize when to do In this case, when the facilitator Pf intervenes, the timing of intervention is automatically recognized.

介入認識部28は、ファシリテータPfによる意識的な操作入力、すなわち、介入の開始および介入の効果のフィードバックを要求するために予め定められた操作入力に基づいて、介入のタイミングを認識してもよい。より具体的には、情報取得部23により取得されたファシリテータPfからの各種の指令の情報に基づいて、端末装置10fの入力部15を介した操作、マイク13を介した音声操作、カメラ14を介したジェスチャによる操作が入力されたか否かを判定する。このような意識的な操作入力を契機として介入のタイミングを認識する場合、例えば介入以外の発言を契機として誤って介入の効果が算出されることがなく、ファシリテータPfの意図に沿って正確な介入の効果をフィードバックすることができる。 The intervention recognition unit 28 may recognize the timing of intervention based on a conscious operation input by the facilitator Pf, that is, an operation input predetermined for requesting feedback on the start of intervention and the effect of intervention. . More specifically, based on the information of various commands from the facilitator Pf acquired by the information acquisition unit 23, operation via the input unit 15 of the terminal device 10f, voice operation through the microphone 13, camera 14 It is determined whether or not an operation by a gesture is input. When recognizing the timing of intervention triggered by such a conscious operation input, for example, the effect of intervention is not calculated erroneously triggered by remarks other than intervention, and accurate intervention is performed in line with the intention of the facilitator Pf. effect can be fed back.

出力部29は、介入認識部28により介入のタイミングが認識されると、その後の所定期間T2内に活性度算出部27により算出された活性度aに基づいて、活性度aの変化を表す活性度情報を生成し、通信ネットワーク30を介して端末装置10fに送信する。例えば、図7Aに示すように、活性度算出部27により介入前の活性度aが“0.7”、介入後の所定期間T2における活性度aが“1.4”として算出されると、介入の効果として活性度aが向上したことを示す活性度情報を生成し、出力する。あるいは、図7Bに示すように、活性度算出部27により介入後の所定期間T2における活性度aが“+1.5”、“+3”、“+4”として算出されると、介入の効果として活性度aの推移を示す活性度情報を生成し、出力する。 When the timing of the intervention is recognized by the intervention recognition unit 28, the output unit 29 generates an activity level representing a change in the activity level a based on the activity level a calculated by the activity level calculation unit 27 within a predetermined period T2 thereafter. The frequency information is generated and transmitted to the terminal device 10f via the communication network 30. FIG. For example, as shown in FIG. 7A, when the activity level a before the intervention is calculated by the activity level calculation unit 27 as "0.7" and the activity level a in the predetermined period T2 after the intervention is calculated as "1.4", Activation level information indicating that the activation level a has improved as an effect of the intervention is generated and output. Alternatively, as shown in FIG. 7B, when the activity level a in the predetermined period T2 after the intervention is calculated by the activity level calculation unit 27 as "+1.5", "+3", and "+4", the effect of the intervention is activity. Generate and output activity level information indicating the transition of the degree a.

図8Aおよび図8Bは、活性度情報を受信したときの、ファシリテータPfが使用する端末装置10fの表示画面の一例を示す図である。図8Aの例では、介入の効果として、介入の前後で活性度aが向上したことを示す矢印が画面中央に表示される。図8Bの例では、介入の効果として、介入後の所定期間T2に活性度aが弱い正の感情に対応する“+1.5”から、やや強い正の感情に対応する“+3”、強い正の感情に対応する“+4”に推移したことを示す表情アイコンが画面中央に表示される。このような介入の効果は、介入認識部28により介入のタイミングが認識された後、所定期間T2が経過してから表示されるが、図8Bのように活性度aの推移を表示する場合には、介入のタイミングが認識された後の所定期間T2、継続的に表示してもよい。 8A and 8B are diagrams showing an example of the display screen of the terminal device 10f used by the facilitator Pf when the activity level information is received. In the example of FIG. 8A, as an effect of the intervention, an arrow indicating that the activity level a has improved before and after the intervention is displayed in the center of the screen. In the example of FIG. 8B, the effect of the intervention varies from "+1.5" corresponding to a weak positive emotion, to "+3" corresponding to a slightly strong positive emotion, to "+3" A facial expression icon is displayed in the center of the screen indicating that it has changed to "+4" corresponding to the emotion of . The effect of such an intervention is displayed after a predetermined period of time T2 has elapsed after the timing of intervention is recognized by the intervention recognition unit 28. may be continuously displayed for a predetermined period of time T2 after the timing of intervention is recognized.

図9は、サーバ20の記憶部22に予め記憶された会議支援プログラムに従い、サーバ20の演算部21で実行される活性度情報出力処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばファシリテータPfからの開始指令が入力されると開始され、終了指令が入力されるまで所定周期で繰り返し実行される。 FIG. 9 is a flow chart showing an example of activity level information output processing executed by the computing unit 21 of the server 20 according to the conference support program pre-stored in the storage unit 22 of the server 20 . The processing shown in this flow chart is started, for example, when a start command is input from the facilitator Pf, and is repeatedly executed at a predetermined cycle until an end command is input.

先ずステップS1で、参加者Pa~Pdごとの生体情報を取得する。次いでステップS7で、ステップS1で取得された生体情報に基づいて活性度aを算出する。次いでステップS8で、ファシリテータPfによる介入のタイミングが認識されたか否かを判定する。ステップS8で肯定されるとステップS9に進み、否定されると処理を終了する。ステップS9では、ステップS7で算出された活性度aの変化を表す活性度情報を生成し、ファシリテータPfの端末装置10fに出力する。次いでステップS10で、ステップS8で認識された介入タイミングから所定期間T2が経過したか否かを判定する。ステップS10で肯定されると処理を終了し、否定されるとステップS9に戻る。 First, in step S1, biometric information is acquired for each of the participants Pa to Pd. Next, in step S7, the degree of activity a is calculated based on the biological information acquired in step S1. Next, in step S8, it is determined whether or not the timing of intervention by the facilitator Pf has been recognized. If the result in step S8 is affirmative, the process proceeds to step S9, and if the result is negative, the process ends. In step S9, activity level information representing changes in the activity level a calculated in step S7 is generated and output to the terminal device 10f of the facilitator Pf. Next, in step S10, it is determined whether or not a predetermined period of time T2 has elapsed from the intervention timing recognized in step S8. If the result in step S10 is affirmative, the process is terminated, and if the result is negative, the process returns to step S9.

このように、ファシリテータPfによる介入のタイミングを認識し(ステップS8)、介入前後の活性度aの変化や介入後の活性度aの推移をフィードバックするため(ステップS9,S10)、ファシリテータPfが自身の介入による効果を把握することができる。これにより、ファシリテータPfによる効果的な介入を支援し、会議の円滑な進行を支援することができる。 In this way, in order to recognize the timing of intervention by the facilitator Pf (step S8) and feed back the change in the activity level a before and after the intervention and the transition in the activity level a after the intervention (steps S9 and S10), the facilitator Pf itself It is possible to grasp the effect of the intervention of As a result, effective intervention by the facilitator Pf can be supported, and smooth progress of the conference can be supported.

[会議の全体的な雰囲気の形成]
会議を円滑に進行し、参加者全体の意見が反映された結論に至るには、会議の全体的な雰囲気を的確に把握することが必要となる。会議の全体的な雰囲気は、参加者全体の個人感情が概ね一致することで形成される。各参加者が率直に発言を尽くし、互いの意見が十分に交換されると、参加者全体の個人感情が一致し、このような満場一致の雰囲気で結論に至ることで、多様な知見が反映された良質なアイデアを生み出すことができる。
[Shaping the overall atmosphere of the meeting]
It is necessary to accurately grasp the overall atmosphere of the conference in order to smoothly proceed with the conference and arrive at a conclusion that reflects the opinions of all participants. The overall atmosphere of the meeting is formed by the general agreement of personal feelings of all the participants. When each participant speaks frankly and fully exchanges their opinions, the personal feelings of all participants are aligned, and reaching a conclusion in such a unanimous atmosphere reflects diverse knowledge. You can create well-designed and high-quality ideas.

全体感情推定部26は、個人感情推定部25で推定された各参加者Pa~Pdの個人感情ea~edに基づいて、複数の参加者Pa~Pd全体の感情(全体感情)e、すなわち会議全体の雰囲気を推定する。より具体的には、個人感情推定部25により同一の種類の感情に属すると推定された参加者Pa~Pdの割合が所定割合(例えば、70%)以上であるか否かを判定し、所定割合以上であると判定されると、その感情を全体感情eとして推定する。 Based on the individual emotions ea to ed of each of the participants Pa to Pd estimated by the individual emotion estimation unit 25, the overall emotion estimation unit 26 is based on the overall emotions (overall emotions) e of the participants Pa to Pd, that is, the conference Estimate the overall atmosphere. More specifically, it is determined whether or not the percentage of participants Pa to Pd that are estimated to belong to the same type of emotion by the personal emotion estimation unit 25 is equal to or greater than a predetermined percentage (eg, 70%), and If it is determined to be equal to or greater than the ratio, the emotion is estimated as the overall emotion e.

図10は、個人感情推定部25および全体感情推定部26の推定結果の一例を示す図である。図10に示すように、例えば会議の開始直後は各参加者Pa~Pdの個人感情ea~edが殆ど一致せず、会議の全体的な雰囲気が形成されていない。このような段階で、例えば個人感情ea~edの平均値として全体感情eを推定したとしても、会議の全体的な雰囲気を的確に表すことはできない。 FIG. 10 is a diagram showing an example of estimation results of the individual emotion estimating section 25 and the overall emotion estimating section 26. As shown in FIG. As shown in FIG. 10, for example, immediately after the start of the conference, the individual emotions ea to ed of the participants Pa to Pd hardly match, and the general atmosphere of the conference is not formed. At this stage, even if the overall emotion e is estimated as an average value of the individual emotions ea to ed, the overall atmosphere of the meeting cannot be expressed accurately.

会議が円滑に進行し、すべての参加者Pa~Pdが率直に発言し、互いの意見が十分に交換されると、すべての参加者Pa~Pdの個人感情ea~edが正の感情として満場一致し、全体感情推定部26により全体感情eが正の感情として推定される。また、個人感情ea~edの平均値が全体感情eの絶対値として算出される。 When the meeting proceeds smoothly, all participants Pa-Pd speak frankly, and mutual opinions are sufficiently exchanged, the personal emotions ea-ed of all participants Pa-Pd are unanimously expressed as positive emotions. They match, and the overall emotion estimation unit 26 estimates the overall emotion e as a positive emotion. Also, the average value of the individual emotions ea to ed is calculated as the absolute value of the overall emotion e.

一方、会議が進行して殆どの参加者Pa~Pcが率直に発言し、意見を交換したものの、一部の参加者Pdが十分に発言できていなかったり、率直に発言できていなかったりする場合は、一部の参加者Pdの個人感情edが全体感情eと不一致となる。この場合、所定割合以上の参加者Pa~Pcの個人感情ea~ecが属する正の感情が全体感情eとして推定され、参加者Pa~Pcの個人感情ea~ecの平均値が全体感情eの絶対値として算出される。 On the other hand, when the conference progresses and most of the participants Pa to Pc speak frankly and exchange opinions, some of the participants Pd cannot speak sufficiently or frankly. , the personal emotion ed of some participants Pd is inconsistent with the overall emotion e. In this case, the positive emotion to which the individual emotions ea-ec of the participants Pa-Pc belong to a predetermined percentage or more is estimated as the overall emotion e, and the average value of the individual emotions ea-ec of the participants Pa-Pc is the total emotion e. Calculated as an absolute value.

出力部29は、全体感情推定部26により全体感情eが推定されると、推定された全体感情eおよび個人感情edが全体感情eと不一致の参加者Pdの情報を、通信ネットワーク30を介して端末装置10fに送信する。 When the overall emotion estimating unit 26 estimates the overall emotion e, the output unit 29 outputs the information of the participant Pd whose estimated overall emotion e and individual emotion ed do not match the overall emotion e via the communication network 30. It transmits to the terminal device 10f.

図11Aおよび図11Bは、全体感情eの情報を受信したときの、ファシリテータPfが使用する端末装置10fの表示画面の一例を示す図である。図11Aの例では、図10において満場一致の全体感情eとして推定された、やや強い正の感情“+4”に対応する表情アイコンが画面中央に表示される。 FIGS. 11A and 11B are diagrams showing an example of the display screen of the terminal device 10f used by the facilitator Pf when the information of the overall emotion e is received. In the example of FIG. 11A, the facial expression icon corresponding to the rather strong positive emotion “+4” estimated as the unanimously agreed overall emotion e in FIG. 10 is displayed in the center of the screen.

図11Bの例では、図10において個人感情edが全体感情eと不一致の参加者Pdがいる場合の全体感情eとして推定された、やや強い正の感情“+3”に対応する表情アイコンが画面中央に表示される。また、個人感情edが全体感情eと不一致の参加者Pdが他の参加者Pa~Pcよりも強調して表示されるとともに、その参加者Pdの個人感情edとして推定された、やや強い負の感情“-3”に対応する表情アイコンが表示される。 In the example of FIG. 11B, the facial expression icon corresponding to the somewhat strong positive emotion "+3" estimated as the overall emotion e when there is a participant Pd whose personal emotion ed does not match the overall emotion e in FIG. to be displayed. In addition, the participant Pd, whose personal emotion ed does not match the overall emotion e, is displayed with more emphasis than the other participants Pa to Pc, and the slightly strong negative value estimated as the individual emotion ed of the participant Pd is displayed. A facial expression icon corresponding to the emotion "-3" is displayed.

図12は、サーバ20の記憶部22に予め記憶された会議支援プログラムに従い、サーバ20の演算部21で実行される全体感情出力処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばファシリテータPfからの開始指令が入力されると開始され、終了指令が入力されるまで所定周期で繰り返し実行される。 FIG. 12 is a flow chart showing an example of overall emotion output processing executed by the computing section 21 of the server 20 according to the meeting support program pre-stored in the storage section 22 of the server 20 . The processing shown in this flow chart is started, for example, when a start command is input from the facilitator Pf, and is repeatedly executed at a predetermined cycle until an end command is input.

先ずステップS1で、参加者Pa~Pdごとの生体情報を取得する。次いでステップS3で、ステップS1で取得された画像情報に基づいて参加者Pa~Pdごとの個人感情ea~edを推定する。次いでステップS11で、ステップS3で推定された参加者Pa~Pdごとの個人感情ea~edが概ね一致しているか否かを判定する。ステップS11で肯定されるとステップS12に進み、否定されると処理を終了する。ステップS12では、ステップS11で概ね一致すると判定された感情を参加者Pa~Pd全体の全体感情eとして推定するとともに、一致した個人感情ea~ecの平均値を全体感情eの絶対値として算出する。 First, in step S1, biometric information is acquired for each of the participants Pa to Pd. Next, in step S3, individual emotions ea to ed of each of the participants Pa to Pd are estimated based on the image information acquired in step S1. Next, in step S11, it is determined whether or not the individual emotions ea to ed of the participants Pa to Pd estimated in step S3 generally match each other. If the result in step S11 is affirmative, the process proceeds to step S12, and if the result is negative, the process ends. In step S12, the emotion determined to be generally matched in step S11 is estimated as the overall emotion e of all participants Pa to Pd, and the average value of the matched individual emotions ea to ec is calculated as the absolute value of the overall emotion e. .

次いでステップS13で、ステップS3で推定された個人感情ea~edがステップS12で推定された全体感情eと一致しない参加者Pa~Pdがいるか否かを判定する。ステップS13で肯定されるとステップS14に進み、ステップS12で推定された全体感情eと、ステップS13で個人感情が全体感情eと一致しないと判定された参加者の識別情報および不一致の個人感情とを、ファシリテータPfの端末装置10fに出力する。ステップS13で否定されるとステップS15に進み、ステップS12で推定された満場一致の全体感情eのみをファシリテータPfの端末装置10fに出力する。 Next, in step S13, it is determined whether or not there are participants Pa to Pd whose individual emotions ea to ed estimated in step S3 do not match the overall emotion e estimated in step S12. If the result in step S13 is affirmative, the process advances to step S14, where the total emotion e estimated in step S12, the identification information of the participant whose personal emotion is determined not to match the total emotion e in step S13, and the mismatched personal emotion. is output to the terminal device 10f of the facilitator Pf. If the result in step S13 is NO, the process proceeds to step S15, and only the unanimously agreed overall emotion e estimated in step S12 is output to the terminal device 10f of the facilitator Pf.

このように、参加者Pa~Pd全体の個人感情ea~edが概ね一致すると全体感情eを推定し、提示するため(ステップS11,S12,S14、S15)、ファシリテータPfによる会議の全体的な雰囲気の把握を支援することができる。これにより、ファシリテータPfが会議の全体的な雰囲気が形成されつつあることや、その雰囲気の性質を的確に把握することができ、例えば介入の必要性を適切に判断することが可能になり、会議を円滑に進行することができる。また、全体感情eと異なる個人感情edを有する参加者Pdの情報を提示することで(ステップS14)、ファシリテータPfによる適切な介入を支援することができる。 In this way, when the individual emotions ea to ed of all the participants Pa to Pd are generally matched, the overall emotion e is estimated and presented (steps S11, S12, S14, S15). can support the understanding of As a result, the facilitator Pf can accurately grasp the fact that the overall atmosphere of the conference is being formed and the nature of the atmosphere. can proceed smoothly. Also, by presenting the information of the participant Pd who has the individual emotion ed different from the overall emotion e (step S14), it is possible to assist the appropriate intervention by the facilitator Pf.

本実施形態によれば以下のような作用効果を奏することができる。
(1)サーバ20は、第1参加者(図4の参加者Pa)と第2参加者(図4の参加者Pc)とを含む複数の参加者Pa~Pdが参加する会議の進行を支援する。サーバ20は、複数の参加者Pa~Pdのそれぞれの生体情報を取得する情報取得部23と、情報取得部23により取得された生体情報に基づいて、複数の参加者Pa~Pdのそれぞれについて発言しているか否かを判定する発言判定部24と、情報取得部23により取得された生体情報に基づいて、複数の参加者Pa~Pdのそれぞれの個人感情ea~edを推定する個人感情推定部25と、発言判定部24により他の参加者Paが発言していると判定されるとき、個人感情推定部25により推定された参加者Pcの個人感情ecが変化すると、参加者Pcに発言を促すための指令を出力する出力部29と、を備える(図3)。
According to this embodiment, the following effects can be obtained.
(1) The server 20 supports progress of a conference in which a plurality of participants Pa to Pd including a first participant (participant Pa in FIG. 4) and a second participant (participant Pc in FIG. 4) participate. do. The server 20 includes an information acquisition unit 23 that acquires biometric information of each of the participants Pa to Pd, and based on the biometric information acquired by the information acquisition unit 23, each of the participants Pa to Pd makes a statement. and a personal emotion estimation unit for estimating the individual emotions ea to ed of each of the participants Pa to Pd based on the biometric information acquired by the information acquisition unit 23. 25, when the speech determination unit 24 determines that another participant Pa is speaking, if the personal emotion ec of the participant Pc estimated by the personal emotion estimation unit 25 changes, the participant Pc is made to speak. and an output unit 29 for outputting a prompting command (FIG. 3).

これにより、介入対象者が適時に特定されるため、会議の円滑な進行を支援することができる。例えば、図5Aに示すように、会議の進行を管理するファシリテータPfに対し、適時に介入対象者を提案することができる。あるいは、図5Bに示すように、会議の参加者Pa~Pd全体に対し、次の発言者を明示することができる。 As a result, since the intervening target person is identified in a timely manner, it is possible to support the smooth progress of the conference. For example, as shown in FIG. 5A, it is possible to timely propose intervention candidates to a facilitator Pf who manages the progress of the conference. Alternatively, as shown in FIG. 5B, the next speaker can be made explicit to all conference participants Pa-Pd.

(2)情報取得部23は、複数の参加者Pa~Pdのそれぞれの生体情報として音声情報および画像情報を取得する。発言判定部24は、情報取得部23により取得された音声情報に基づいて、複数の参加者Pa~Pdのそれぞれについて発言しているか否かを判定する(図4)。個人感情推定部25は、情報取得部23により取得された画像情報に基づいて、複数の参加者Pa~Pdのそれぞれの個人感情ea~edを推定する(図4)。パーソナルコンピュータやスマートフォンなどの一般的な端末装置10(10a~10d)のマイク13やカメラ14を利用して参加者Pa~Pdの生体情報を取得するため、オンライン会議にも好適に適用することができる。 (2) The information acquisition unit 23 acquires voice information and image information as biological information of each of the participants Pa to Pd. The utterance determining unit 24 determines whether or not each of the participants Pa to Pd is speaking based on the voice information acquired by the information acquiring unit 23 (FIG. 4). Based on the image information acquired by the information acquiring section 23, the individual emotion estimating section 25 estimates individual emotions ea to ed of each of the participants Pa to Pd (FIG. 4). Since the biometric information of the participants Pa to Pd is acquired using the microphone 13 and camera 14 of general terminal devices 10 (10a to 10d) such as personal computers and smartphones, it can be suitably applied to online conferences. can.

(3)出力部29は、継続して所定時間T1以上、発言判定部24により参加者Pc(図4)が発言していないと判定されていることを条件として、参加者Pcに発言を促すための指令を出力する。これにより、長時間発言していない参加者Pcに対し、他の参加者Paの発言を受けて個人感情ecの変化があったタイミングで発言を促すことができるため、参加者Pcにとって発言しやすいタイミングで介入することができる。 (3) The output unit 29 urges the participant Pc to speak on the condition that the speech determination unit 24 continuously determines that the participant Pc (FIG. 4) has not spoken for a predetermined time T1 or more. output commands for As a result, the participant Pc, who has not spoken for a long time, can be urged to speak at the timing when the personal emotion ec changes in response to the speech of the other participant Pa, making it easier for the participant Pc to speak. You can intervene in time.

(4)出力部29は、参加者Pcに発言を促すための指令を出力するとき、個人感情推定部25により推定された参加者Pcの個人感情ecの変化の情報を出力する(図5A)。これにより、ファシリテータPfが参加者Pcの個人感情ecの変化の内容を把握した上で介入できるため、参加者Pcの心理状態に応じた適切な態様で介入することができる。 (4) The output unit 29 outputs information on changes in the personal emotion ec of the participant Pc estimated by the personal emotion estimation unit 25 when outputting a command to prompt the participant Pc to speak (FIG. 5A). . As a result, the facilitator Pf can intervene after grasping the content of the change in the personal emotion ec of the participant Pc, so that it is possible to intervene in an appropriate manner according to the psychological state of the participant Pc.

(5)出力部29は、参加者Pcに発言を促すための指令を、参加者Pcの識別情報とともに、会議の進行を管理するファシリテータPfが使用する端末装置10fに出力する(図5A)。これにより、端末装置10fを介してファシリテータPfを支援することができる。 (5) The output unit 29 outputs a command for prompting the participant Pc to speak together with the identification information of the participant Pc to the terminal device 10f used by the facilitator Pf who manages the progress of the conference (FIG. 5A). As a result, the facilitator Pf can be assisted via the terminal device 10f.

(6)複数の参加者Pa~Pdのそれぞれが使用する端末装置10a~10dの表示部17には、複数の参加者Pa~Pdが表示される(図5B)。出力部29は、複数の参加者Pa~Pdのそれぞれが使用する端末装置10a~10dに対し、参加者Pcが他の参加者よりも強調して表示されるように表示部17を制御する指令を、参加者Pcに発言を促すための指令として出力する(図5B)。これにより、ファシリテータPfや介入対象者だけでなく、参加者Pa~Pd全体に対し、次の発言者が明示されるため、より自然な態様で介入対象者に発言を促すことができる。また、会議支援装置がファシリテータの役割を担うことで直接的に会議の進行を支援することができる。 (6) A plurality of participants Pa to Pd are displayed on the display units 17 of the terminal devices 10a to 10d used by the plurality of participants Pa to Pd (FIG. 5B). The output unit 29 instructs the terminal devices 10a to 10d used by each of the participants Pa to Pd to control the display unit 17 so that the participant Pc is displayed with more emphasis than the other participants. is output as a command to prompt the participant Pc to speak (FIG. 5B). As a result, the next speaker is clearly indicated not only to the facilitator Pf and the intervention target, but also to all of the participants Pa to Pd, so that the intervention target can be encouraged to speak in a more natural manner. Further, the conference support device can directly support the progress of the conference by playing the role of the facilitator.

上記実施形態では、各参加者Pa~Pdの生体情報を各端末装置10a~10dのマイク13およびカメラ14を介して取得する例を説明したが、複数の参加者のそれぞれの生体情報を取得する情報取得部は、このようなものに限らない。端末装置に付属するものに限らず、独立したマイクやカメラでもよい。参加者ごとに設けられるものに限らず、複数の参加者が共用するものでもよい。この場合は、例えば指向性を有し、方向によって音声を取得する感度が異なるマイクを用いて参加者ごとの音声情報を取得するとともに、音声情報に基づいて個人を認識してもよい。また、広角カメラにより複数の参加者を撮影し、画像情報に基づいて個人を認識してもよい。 In the above embodiment, an example was described in which the biometric information of each of the participants Pa to Pd was acquired via the microphone 13 and the camera 14 of each of the terminal devices 10a to 10d. The information acquisition unit is not limited to such. It is not limited to those attached to the terminal device, and may be an independent microphone or camera. It is not limited to being provided for each participant, but may be shared by a plurality of participants. In this case, voice information for each participant may be acquired using, for example, a microphone having directivity and different sensitivity for acquiring voice depending on the direction, and an individual may be recognized based on the voice information. Also, a plurality of participants may be photographed by a wide-angle camera, and individuals may be recognized based on the image information.

上記実施形態では、音声情報に基づいて参加者Pa~Pdの発言の有無を判定する例を説明したが、生体情報に基づいて参加者の発言の有無を判定する発言判定部は、このようなものに限らない。例えば、画像情報に基づいて手話による発言の有無を判定してもよい。 In the above embodiment, an example of determining whether or not participants Pa to Pd have spoken based on voice information has been described. Not limited to things. For example, the presence or absence of a statement in sign language may be determined based on image information.

上記実施形態では、画像情報に基づいて参加者Pa~Pdの表情から個人感情ea~edを推定する例を説明したが、生体情報に基づいて参加者の感情を推定する感情推定部は、このようなものに限らない。例えば、表情に加えて動作に基づいて個人感情を推定してもよい。画像情報に代えて、あるいは画像情報に加えて、参加者ごとの心拍数や顔面温度、音声情報などの生体情報を利用して個人感情を推定してもよい。また、個人感情を感情の輪によって分類されたパターンに当てはめて数値化するようにしたが、他の分類された感情のパターンに当てはめて数値化するようにしてもよい。 In the above embodiment, an example has been described in which individual emotions ea to ed are estimated from facial expressions of participants Pa to Pd based on image information. It is not limited to something like For example, personal emotion may be estimated based on actions in addition to facial expressions. Instead of image information, or in addition to image information, biometric information such as heart rate, facial temperature, and voice information of each participant may be used to estimate personal emotion. In addition, although individual emotions are quantified by applying them to patterns classified by the circle of emotions, they may be quantified by applying them to other classified patterns of emotions.

上記実施形態では、参加者Pa~Pdの発言の頻度fまたは個人感情ea~edに基づいて活性度aを算出する例を説明したが、会議における議論の活性化の程度を表す活性度を算出する活性度算出部は、このようなものに限らない。例えば、会議の音声情報に基づいて特定のキーワードを検出し、議論の進行の度合いや雰囲気などを推定することで活性度を算出してもよい。 In the above embodiment, an example was explained in which the activity level a is calculated based on the utterance frequency f or the individual emotions ea to ed of the participants Pa to Pd. The activity level calculation unit that performs the calculation is not limited to this type. For example, the degree of activity may be calculated by detecting a specific keyword based on the audio information of the meeting and estimating the progress of the discussion, the atmosphere, and the like.

上記実施形態では、図10などで参加者Pa~Pdの個人感情ea~edが正の感情であるか負の感情であるかを判定する例を説明したが、個人感情が予め設定された複数の種類の感情のいずれに属するかを推定する個人感情推定部は、このようなものに限らない。例えば、8つの基本感情など、3つ以上の感情に分類してもよい。この場合は、個人感情が概ね一致しているか否かを判定するための所定割合は、70%より低い割合(例えば、60%)とする。 In the above embodiment, an example of determining whether the personal emotions ea to ed of the participants Pa to Pd are positive emotions or negative emotions has been described with reference to FIG. The personal emotion estimating unit for estimating which of the types of emotions belongs to is not limited to this. For example, it may be classified into three or more emotions, such as eight basic emotions. In this case, the predetermined percentage for determining whether or not the personal feelings are generally in agreement is set to a percentage lower than 70% (for example, 60%).

第1参加者と第2参加者とを含む複数の参加者が参加する会議の進行を支援する会議支援方法に関し、複数の参加者のそれぞれの生体情報を取得し、取得された生体情報に基づいて、複数の参加者のそれぞれについて発言しているか否かを判定し、複数の参加者のそれぞれの感情を推定し、第1参加者が発言していると判定されるとき、推定された第2参加者の感情が変化すると、第2参加者に発言を促すための指令を出力するのであれば、他の構成はいかなるものでもよい。 Regarding a conference support method for supporting progress of a conference in which a plurality of participants including a first participant and a second participant participate, biometric information of each of the plurality of participants is acquired, and based on the acquired biometric information determines whether or not each of the plurality of participants is speaking, estimates the emotion of each of the plurality of participants, and when it is determined that the first participant is speaking, Any other configuration may be used as long as a command for prompting the second participant to speak is output when the emotions of the two participants change.

第1参加者と第2参加者とを含む複数の参加者が参加する会議の進行を支援する会議支援プログラムに関し、複数の参加者のそれぞれの生体情報を取得する情報取得ステップS1と、情報取得ステップS1で取得された生体情報に基づいて、複数の参加者のそれぞれについて発言しているか否かを判定する発言判定ステップS2と、情報取得ステップS1で取得された生体情報に基づいて、複数の参加者のそれぞれの感情を推定する感情推定ステップS3と、発言判定ステップS2で第1参加者が発言していると判定されるとき、感情推定ステップS3で推定された第2参加者の感情が変化すると、第2参加者に発言を促すための指令を出力する指令出力ステップS5~S6と、を含むのであれば、サーバ20の演算部21で実行される処理は図6に示したものに限らない。したがって、これらの手順をコンピュータに実行させる会議支援プログラムの構成も上述したものに限らない。上記実施形態では、会議支援プログラムをサーバ20の記憶部22内に格納したが、フラッシュメモリ等の外部記憶媒体に格納してもよい。通信ネットワーク30を介して会議支援プログラムを取得することもできる。 An information acquisition step S1 for acquiring biometric information of each of the plurality of participants, and an information acquisition for a conference assistance program for assisting progress of a conference attended by a plurality of participants including a first participant and a second participant. Based on the biometric information acquired in step S1, an utterance determination step S2 for determining whether or not each of the plurality of participants is speaking, and based on the biometric information acquired in the information acquisition step S1, a plurality of Emotion estimation step S3 for estimating the emotions of each of the participants, and when it is determined that the first participant is speaking in the utterance determination step S2, the emotions of the second participant estimated in the emotion estimation step S3 are: If command output steps S5 to S6 for outputting a command for prompting the second participant to speak when changed, the processing executed by the calculation unit 21 of the server 20 is the same as that shown in FIG. Not exclusively. Therefore, the configuration of the conference support program that causes the computer to execute these procedures is not limited to the one described above. Although the conference support program is stored in the storage unit 22 of the server 20 in the above embodiment, it may be stored in an external storage medium such as a flash memory. A conference assistance program can also be obtained via the communication network 30 .

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited by the above-described embodiments and modifications as long as the features of the present invention are not impaired. It is also possible to arbitrarily combine one or more of the above embodiments and modifications, and it is also possible to combine modifications with each other.

10(10a~10d,10f) 端末装置、11 演算部、12 記憶部、13 マイク、14 カメラ、15 入力部、16 スピーカ、17 表示部、20 サーバ、21 演算部、22 記憶部、23 情報取得部、24 発言判定部、25 個人感情推定部、26 全体感情推定部、27 活性度算出部、28 介入認識部、29 出力部、30 通信ネットワーク、100 会議支援システム 10 (10a to 10d, 10f) terminal device, 11 calculation unit, 12 storage unit, 13 microphone, 14 camera, 15 input unit, 16 speaker, 17 display unit, 20 server, 21 calculation unit, 22 storage unit, 23 information acquisition Section 24 Speech Judgment Section 25 Individual Emotion Estimation Section 26 Overall Emotion Estimation Section 27 Activity Calculation Section 28 Intervention Recognition Section 29 Output Section 30 Communication Network 100 Conference Support System

Claims (7)

第1参加者と第2参加者とを含む複数の参加者が参加する会議の進行を支援する会議支援装置であって、
前記複数の参加者のそれぞれの生体情報を取得する情報取得部と、
前記情報取得部により取得された生体情報に基づいて、前記複数の参加者のそれぞれについて発言しているか否かを判定する発言判定部と、
前記情報取得部により取得された生体情報に基づいて、前記複数の参加者のそれぞれの感情を推定する感情推定部と、
前記発言判定部により前記第1参加者が発言していると判定されるとき、前記発言判定部により継続して所定時間以上、前記第2参加者が発言していないと判定され、かつ、前記第1参加者の発言中に前記感情推定部により推定された前記第2参加者の感情が変化すると、前記第2参加者に発言を促すための指令を出力する出力部と、を備えることを特徴とする会議支援装置。
A conference support device for supporting progress of a conference in which a plurality of participants including a first participant and a second participant participate,
an information acquisition unit that acquires biometric information of each of the plurality of participants;
an utterance determination unit that determines whether or not each of the plurality of participants is speaking based on the biometric information acquired by the information acquisition unit;
an emotion estimation unit that estimates the emotion of each of the plurality of participants based on the biometric information acquired by the information acquisition unit;
When the speech determination unit determines that the first participant is speaking, the speech determination unit continuously determines that the second participant has not spoken for a predetermined time or longer, and an output unit that outputs a command to prompt the second participant to speak when the emotion of the second participant estimated by the emotion estimation unit changes during the speech of the first participant. A meeting support device characterized by:
請求項1に記載の会議支援装置において、
前記情報取得部は、前記複数の参加者のそれぞれの生体情報として音声情報および画像情報を取得し、
前記発言判定部は、前記情報取得部により取得された音声情報に基づいて、前記複数の参加者のそれぞれについて発言しているか否かを判定し、
前記感情推定部は、前記情報取得部により取得された画像情報に基づいて、前記複数の参加者のそれぞれの感情を推定することを特徴とする会議支援装置。
The conference support device according to claim 1,
The information acquisition unit acquires audio information and image information as biological information of each of the plurality of participants,
The speech determination unit determines whether or not each of the plurality of participants is speaking based on the voice information acquired by the information acquisition unit;
The conference support apparatus, wherein the emotion estimation unit estimates the emotion of each of the plurality of participants based on the image information acquired by the information acquisition unit.
請求項1または2に記載の会議支援装置において、 The conference support device according to claim 1 or 2,
前記出力部は、前記第2参加者に発言を促すための指令を出力するとき、前記感情推定部により推定された前記第2参加者の感情の変化の情報を出力することを特徴とする会議支援装置。 The conference, wherein the output unit outputs information on changes in the emotion of the second participant estimated by the emotion estimation unit when outputting a command for prompting the second participant to speak. support equipment.
請求項1~3のいずれか1項に記載の会議支援装置において、 The conference support device according to any one of claims 1 to 3,
前記出力部は、前記第2参加者に発言を促すための指令を、前記第2参加者の識別情報とともに、前記会議の進行を管理するファシリテータが使用する端末装置に出力することを特徴とする会議支援装置。 The output unit outputs a command for prompting the second participant to speak, together with the identification information of the second participant, to a terminal device used by a facilitator who manages progress of the conference. Conference support device.
請求項1~4のいずれか1項に記載の会議支援装置において、 The conference support device according to any one of claims 1 to 4,
前記複数の参加者のそれぞれが使用する端末装置の表示部には、前記複数の参加者が表示され、 The plurality of participants are displayed on the display unit of the terminal device used by each of the plurality of participants,
前記出力部は、前記複数の参加者のそれぞれが使用する端末装置に対し、前記第2参加者が他の参加者よりも強調して表示されるように前記表示部を制御する指令を、前記第2参加者に発言を促すための指令として出力することを特徴とする会議支援装置。 The output unit instructs the terminal device used by each of the plurality of participants to control the display unit so that the second participant is displayed with more emphasis than the other participants. A conference support device that outputs as a command for prompting a second participant to speak.
第1参加者と第2参加者とを含む複数の参加者が参加する会議の進行を支援する会議支援方法であって、 A conference support method for supporting progress of a conference in which a plurality of participants including a first participant and a second participant participate,
前記複数の参加者のそれぞれの生体情報を取得する情報取得ステップと、 an information acquisition step of acquiring biometric information of each of the plurality of participants;
前記情報取得ステップで取得された生体情報に基づいて、前記複数の参加者のそれぞれについて発言しているか否かを判定する発言判定ステップと、 a statement determination step of determining whether or not each of the plurality of participants is speaking based on the biometric information acquired in the information acquisition step;
前記情報取得ステップで取得された生体情報に基づいて、前記複数の参加者のそれぞれの感情を推定する感情推定ステップと、 an emotion estimation step of estimating the emotion of each of the plurality of participants based on the biometric information acquired in the information acquisition step;
前記発言判定ステップで前記第1参加者が発言していると判定されるとき、前記発言判定ステップで継続して所定時間以上、前記第2参加者が発言していないと判定され、かつ、前記第1参加者の発言中に前記感情推定ステップで推定された前記第2参加者の感情が変化すると、前記第2参加者に発言を促すための指令を出力する指令出力ステップと、をコンピュータにより実行することを含むことを特徴とする会議支援方法。 When it is determined in the statement determination step that the first participant has made a statement, it is determined in the statement determination step that the second participant has not made a statement continuously for a predetermined time or longer, and a command output step of outputting a command for prompting the second participant to speak when the emotion of the second participant estimated in the emotion estimation step changes during the speech of the first participant, by a computer; A conference support method, comprising executing.
第1参加者と第2参加者とを含む複数の参加者が参加する会議の進行を支援する会議支援プログラムであって、 A conference support program for supporting progress of a conference in which a plurality of participants including a first participant and a second participant participate,
前記複数の参加者のそれぞれの生体情報を取得する情報取得ステップと、 an information acquisition step of acquiring biometric information of each of the plurality of participants;
前記情報取得ステップで取得された生体情報に基づいて、前記複数の参加者のそれぞれについて発言しているか否かを判定する発言判定ステップと、 a statement determination step of determining whether or not each of the plurality of participants is speaking based on the biometric information acquired in the information acquisition step;
前記情報取得ステップで取得された生体情報に基づいて、前記複数の参加者のそれぞれの感情を推定する感情推定ステップと、 an emotion estimation step of estimating the emotion of each of the plurality of participants based on the biometric information acquired in the information acquisition step;
前記発言判定ステップで前記第1参加者が発言していると判定されるとき、前記発言判定ステップで継続して所定時間以上、前記第2参加者が発言していないと判定され、かつ、前記第1参加者の発言中に前記感情推定ステップで推定された前記第2参加者の感情が変化すると、前記第2参加者に発言を促すための指令を出力する指令出力ステップと、をコンピュータに実行させるための会議支援プログラム。 When it is determined in the statement determination step that the first participant has made a statement, it is determined in the statement determination step that the second participant has not made a statement continuously for a predetermined time or longer, and a command output step of outputting a command to prompt the second participant to speak when the emotion of the second participant estimated in the emotion estimation step changes during the speech of the first participant; A meeting support program to make it run.
JP2020177720A 2020-10-23 2020-10-23 CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM Active JP7213857B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020177720A JP7213857B2 (en) 2020-10-23 2020-10-23 CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020177720A JP7213857B2 (en) 2020-10-23 2020-10-23 CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM

Publications (2)

Publication Number Publication Date
JP2022068903A JP2022068903A (en) 2022-05-11
JP7213857B2 true JP7213857B2 (en) 2023-01-27

Family

ID=81521848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020177720A Active JP7213857B2 (en) 2020-10-23 2020-10-23 CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM

Country Status (1)

Country Link
JP (1) JP7213857B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277462A (en) 2004-03-22 2005-10-06 Fujitsu Ltd Conference support system, proceeding forming method, and computer program
JP2018045660A (en) 2016-09-16 2018-03-22 ヤフー株式会社 Estimation device and estimation method
JP2018045659A (en) 2016-09-16 2018-03-22 ヤフー株式会社 Information provision device and information provision method
WO2018174088A1 (en) 2017-03-21 2018-09-27 国立大学法人東京工業大学 Communication analysis device, measurement/feedback device used therefor, and interaction device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277462A (en) 2004-03-22 2005-10-06 Fujitsu Ltd Conference support system, proceeding forming method, and computer program
JP2018045660A (en) 2016-09-16 2018-03-22 ヤフー株式会社 Estimation device and estimation method
JP2018045659A (en) 2016-09-16 2018-03-22 ヤフー株式会社 Information provision device and information provision method
WO2018174088A1 (en) 2017-03-21 2018-09-27 国立大学法人東京工業大学 Communication analysis device, measurement/feedback device used therefor, and interaction device

Also Published As

Publication number Publication date
JP2022068903A (en) 2022-05-11

Similar Documents

Publication Publication Date Title
US10757367B1 (en) Enhanced video conference management
JP6992870B2 (en) Information processing systems, control methods, and programs
US11483273B2 (en) Chat-based interaction with an in-meeting virtual assistant
JP7036046B2 (en) Information processing equipment, information processing methods, and information processing programs
CN110910887B (en) Voice wake-up method and device
US20160294892A1 (en) Storage Medium Storing Program, Server Apparatus, and Method of Controlling Server Apparatus
JP7323098B2 (en) Dialogue support device, dialogue support system, and dialogue support program
US20160231890A1 (en) Information processing apparatus and phase output method for determining phrases based on an image
US10902301B2 (en) Information processing device and non-transitory computer readable medium storing information processing program
KR20110060039A (en) Communication robot and controlling method therof
JP7213857B2 (en) CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM
EP3624136A1 (en) Invoking chatbot in a communication session
JP7430618B2 (en) Conference support device, conference support method, and conference support program
JP7430132B2 (en) Conference support device, conference support method, and conference support program
US20200118562A1 (en) Electronic device processing user utterance and control method thereof
WO2020027073A1 (en) Information processing device and information processing method
CN114898755B (en) Voice processing method and related device, electronic equipment and storage medium
JP2023097789A (en) Video conference analysis system and video conference analysis program
JP2023009563A (en) Harassment prevention system and harassment prevention method
JP7123028B2 (en) Information processing system, information processing method, and program
Moriya et al. Estimation of conversational activation level during video chat using turn-taking information.
JP7452299B2 (en) Conversation support system, conversation support method and program
US20230069287A1 (en) Server device, conference assistance system, conference assistance method, and non-transitory computer readable storage medium
US20230066829A1 (en) Server device, conference assistance system, and conference assistance method
WO2023032736A1 (en) Communication assistance system, communication assistance method, and communication assistance program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230117

R150 Certificate of patent or registration of utility model

Ref document number: 7213857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150