JP2024053975A - Conference support device and method - Google Patents

Conference support device and method Download PDF

Info

Publication number
JP2024053975A
JP2024053975A JP2022160526A JP2022160526A JP2024053975A JP 2024053975 A JP2024053975 A JP 2024053975A JP 2022160526 A JP2022160526 A JP 2022160526A JP 2022160526 A JP2022160526 A JP 2022160526A JP 2024053975 A JP2024053975 A JP 2024053975A
Authority
JP
Japan
Prior art keywords
participant
display
information
participants
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022160526A
Other languages
Japanese (ja)
Inventor
千咲紀 田窪
知沙 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2022160526A priority Critical patent/JP2024053975A/en
Publication of JP2024053975A publication Critical patent/JP2024053975A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】参加者ごとに、その参加者に有用な情報をリアルタイムで提示し得る会議支援装置及び方法を提案する。【解決手段】会議を支援する会議支援装置により実行される会議支援方法であって、各参加者の行動・状態に関する情報をそれぞれ取得する各センサの出力に基づいて各参加者の行動・状態を判定し、判定した参加者の行動・状態と、予め設定された各参加者の立場とに基づいて、参加者に対して提示すべき情報を決定し、決定した情報を、対応する参加者側に設けられた端末を介して参加者に提示するようにした。【選択図】 図13[Problem] We propose a conference support device and method capable of presenting useful information to each participant in real time. [Solution] A conference support method executed by a conference support device that supports a conference, which judges the behavior and state of each participant based on the output of each sensor that acquires information on the behavior and state of each participant, determines information to be presented to the participants based on the determined behavior and state of the participant and each participant's previously set position, and presents the determined information to the participant via a terminal provided on the corresponding participant's side. [Selected Figure] Figure 13

Description

本発明は会議支援装置及び方法に関し、例えば、オンライン会議やハイブリッド会議を支援する会議支援システムに適用して好適なものである。 The present invention relates to a conference support device and method, and is suitable for use in a conference support system that supports online conferences and hybrid conferences, for example.

近年のDX(Digital Transformation)化に伴い、会議(ワークショップも含む)の可視化が求められている。また従来の会議は、対面が主流であったが、近年は世界的な感染症の拡大に伴いオンライン化も進められている。さらには、対面とオンラインとで行うハイブリッド会議の形態も広く利用されている。 With the recent trend towards DX (Digital Transformation), there is a demand for visualization of meetings (including workshops). In addition, while traditionally most meetings were held face-to-face, in recent years online meetings have been increasingly held due to the global spread of infectious diseases. Furthermore, hybrid meetings that combine face-to-face and online meetings are also becoming widely used.

なお会議の可視化に関して、下記特許文献1には、第1のユーザの非言語行動に対応する動作パターンで相手側の第2のユーザの端末に表示された第1のユーザに対応するアバターを動作させることが開示されている。 Regarding visualization of a meeting, the following Patent Document 1 discloses that an avatar corresponding to a first user displayed on the terminal of a second user on the other side is made to move in a movement pattern corresponding to the non-verbal behavior of the first user.

また特許文献2には、オンラインでのビデオ会議において、カメラやマイクなどのセンサを用いて会議出席者をそれぞれセンシングし、センシングにより得られた各出席者の動きの情報に基づいて、音声データにおける各発言の発言者を特定し、各出席者の音声データを発言の時系列でタイムラインとして出力することが開示されている。 Patent document 2 also discloses that in an online video conference, sensors such as a camera and a microphone are used to sense each of the conference attendees, and based on information on the movements of each attendee obtained by sensing, the speaker of each statement in the voice data is identified, and the voice data of each attendee is output as a timeline in the chronological order of the statements.

国際公開第2020/203999号International Publication No. 2020/203999 特開2019-061594号公報JP 2019-061594 A

ところで、特許文献1及び特許文献2にも開示されているように、オンラインで会議に参加する場合、他の参加者の表情や様子が分かり難いことから、他の参加者の発話(音声)や画像及び各種センサ情報の可視化が行われる。 As disclosed in Patent Documents 1 and 2, when participating in an online conference, it is difficult to see the expressions and behavior of other participants, so the speech (audio), images, and various sensor information of other participants are visualized.

しかしながら、このとき表示される情報の情報量が多く、本人に必要な情報が分かり難いという問題があった。また、このとき表示される情報は会議全体や相手側に関する情報だけで、その参加者自体のそのときの行動や状態などを考慮しておらず、その参加者にとってさほど有用な情報ではない場合が多いという問題もあった。 However, there was an issue that the amount of information displayed was so large that it was difficult for the participant to understand the information they needed. There was also an issue that the information displayed only covered the entire meeting or the other party, and did not take into account the participant's own actions or status at the time, meaning that the information was often not particularly useful to the participant.

本発明は以上の点を考慮してなされたもので、参加者ごとに、その参加者に有用な情報をリアルタイムで提示し得る会議支援装置及び方法を提案しようとするものである。 The present invention has been made in consideration of the above points, and aims to propose a conference support device and method that can present useful information to each participant in real time.

かかる課題を解決するため本発明においては、会議を支援する会議支援装置であって、各参加者の行動・状態に関する情報をそれぞれ取得する各センサの出力に基づいて各前記参加者の行動・状態をリアルタイムで判定する行動・状態判定部と、前記行動・状態判定部により判定された前記参加者の行動・状態と、予め設定された各前記参加者の立場とに基づいて、前記参加者に対して提示すべき情報を決定する提示情報決定部と、前記提示情報決定部により決定された前記情報を、対応する参加者側に設けられた端末を介して前記参加者に提示する提示処理部とを設けるようにした。 In order to solve this problem, the present invention provides a conference support device that supports a conference, and includes a behavior/state determination unit that determines the behavior/state of each participant in real time based on the output of each sensor that acquires information on the behavior/state of each participant, a presentation information determination unit that determines information to be presented to the participants based on the behavior/state of the participants determined by the behavior/state determination unit and the previously set position of each participant, and a presentation processing unit that presents the information determined by the presentation information determination unit to the participants via a terminal provided on the corresponding participant's side.

また本発明においては、会議を支援する会議支援装置により実行される会議支援方法であって、各参加者の行動・状態に関する情報をそれぞれ取得する各センサの出力に基づいて各前記参加者の行動・状態をリアルタイムで判定する第1のステップと、判定した前記参加者の行動・状態と、予め設定された各前記参加者の立場とに基づいて、前記参加者に対して提示すべき情報を決定する第2のステップと、決定した前記情報を、対応する参加者側に設けられた端末を介して前記参加者に提示する第3のステップとを設けるようにした。 The present invention also provides a conference support method executed by a conference support device that supports a conference, which includes a first step of determining the behavior and state of each participant in real time based on the output of each sensor that acquires information on the behavior and state of each participant, a second step of determining information to be presented to the participant based on the determined behavior and state of the participant and the previously set position of each participant, and a third step of presenting the determined information to the participant via a terminal provided on the corresponding participant's side.

本発明の会議支援装置及び方法によれば、参加者の立場とそのときの参加者の行動・状態とに応じた情報が、その参加者の端末を介してその参加者にリアルタイムで提示される。 According to the conference support device and method of the present invention, information according to the participant's position and the participant's behavior and status at that time is presented to the participant in real time via the participant's terminal.

本発明によれば、参加者ごとに、その参加者に有用な情報をリアルタイムで提示し得る会議支援装置及び方法を実現できる。 The present invention provides a meeting support device and method that can present useful information to each participant in real time.

本実施の形態による会議支援システムの全体構成を示すブロック図である。1 is a block diagram showing an overall configuration of a conference support system according to an embodiment of the present invention; 会議支援装置の論理構成を示すブロック図である。FIG. 2 is a block diagram showing a logical configuration of the conference support device. 参加者属性管理テーブルの構成例を示す図表である。13 is a diagram showing an example of the configuration of a participant attribute management table. センシング情報管理テーブルの構成例を示す図表である。11 is a diagram showing an example of the configuration of a sensing information management table. 判定行動・状態管理テーブルの構成例を示す図表である。13 is a diagram showing an example of the configuration of a determination action/state management table. (A)は、ファシリ用の表示ルール管理テーブルの構成例を示す図表であり、(B)は、各表示項目が表示要件を満たすか否かを判定する際に利用する情報の説明に供する図表である。13A is a diagram showing an example of the configuration of a display rule management table for a facilitator, and FIG. 13B is a diagram explaining information used when determining whether each display item satisfies the display requirements. (A)は、上司用の表示ルール管理テーブルの構成例を示す図表であり、(B)は、各表示項目が表示要件を満たすか否かを判定する際に利用する情報の説明に供する図表である。13A is a diagram showing an example of the configuration of a display rule management table for superiors, and FIG. 13B is a diagram explaining information used when determining whether each display item satisfies a display requirement. (A)は、部下用の表示ルール管理テーブルの構成例を示す図表であり、(B)は、各表示項目が表示要件を満たすか否かを判定する際に利用する情報の説明に供する図表である。13A is a diagram showing an example of the configuration of a display rule management table for subordinates, and FIG. 13B is a diagram explaining information used when determining whether each display item satisfies the display requirements. (A)は、ゲスト用の表示ルール管理テーブルの構成例を示す図表であり、(B)は、各表示項目が表示要件を満たすか否かを判定する際に利用する情報の説明に供する図表である。13A is a diagram showing an example of the configuration of a display rule management table for guests, and FIG. 13B is a diagram explaining information used when determining whether each display item satisfies a display requirement. 表示要件管理テーブルの構成例を示す図表である。13 is a diagram showing an example of the configuration of a display requirement management table; 表示情報管理テーブルの構成例を示す図表である。11 is a diagram showing an example of the configuration of a display information management table; 行動・状態判定処理の処理手順を示すフローチャートである。13 is a flowchart showing a processing procedure of an action/state determination process. 表示情報決定処理の処理手順を示すフローチャートである。13 is a flowchart showing a processing routine for display information determination processing.

以下図面について、本発明の一実施の形態を詳述する。 One embodiment of the present invention will be described in detail below with reference to the drawings.

(1)本実施の形態による会議支援システムの構成
図1において、1は全体として本実施の形態による会議支援システムを示す。この会議支援システム1は、会議(ワークショップ等も含む)の会場に設置された対面参加者側システム2と、オンラインで会議に参加する各参加者側にそれぞれ設けられたオンライン参加者側システム3と、会議支援装置4とを備えて構成される。
(1) Configuration of the conference support system according to the present embodiment In Fig. 1, the conference support system according to the present embodiment is generally designated by reference numeral 1. This conference support system 1 is configured with a face-to-face participant system 2 installed at the venue of the conference (including a workshop, etc.), an online participant system 3 installed at each participant who participates in the conference online, and a conference support device 4.

対面参加者側システム2は、対面で会議に参加する各参加者の行動及び状態に関する各種情報をセンシングによりそれぞれ取得するセンサ群10Aと、これらの参加者にそれぞれ対応して設けられた複数の表示装置14Aとから構成される。センサ群10Aは、対面で会議に参加する各参加者にそれぞれ対応させて設けられた撮像装置11A、集音装置12A及び振動センサ13Aから構成される。 The face-to-face participant system 2 is composed of a sensor group 10A that acquires various information about the behavior and state of each participant participating in the face-to-face conference through sensing, and a plurality of display devices 14A provided corresponding to each of these participants. The sensor group 10A is composed of an imaging device 11A, a sound collection device 12A, and a vibration sensor 13A provided corresponding to each participant participating in the face-to-face conference.

撮像装置11Aは、汎用のカメラ装置から構成され、対応する参加者の表情を撮影するために利用される。ただし、対面で会議に参加する各参加者にそれぞれ対応させて撮像装置11Aを設けるのではなく、例えば360°カメラを利用するようにしてもよい。各撮像装置11Aは、それぞれ撮影により得られた映像信号を会議支援装置4に送信する。 The imaging device 11A is composed of a general-purpose camera device and is used to capture the facial expressions of the corresponding participants. However, instead of providing an imaging device 11A for each participant who will be attending the meeting face-to-face, it is also possible to use, for example, a 360° camera. Each imaging device 11A transmits the video signal obtained by capturing the image to the meeting support device 4.

集音装置12Aは、汎用のマイクロホンから構成され、対応する参加者から発せられた音声を集音するために利用される。ただし、対面で会議に参加する各参加者にそれぞれ対応させて集音装置12Aを設けるのではなく、例えば、音源方向を特定可能な複数チャンネルのマイクロホンアレイを利用するようにしてもよい。各集音装置12Aは、集音した音声に応じた音声信号を会議支援装置4に送信する。 The sound collection device 12A is composed of a general-purpose microphone and is used to collect the sound emitted by the corresponding participant. However, instead of providing a sound collection device 12A for each participant who participates in the meeting face-to-face, for example, a multi-channel microphone array that can identify the direction of the sound source may be used. Each sound collection device 12A transmits an audio signal corresponding to the collected sound to the meeting support device 4.

振動センサ13Aは、例えば加速度センサから構成され、対面で会議に参加する各参加者がそれぞれ着席する椅子の座面等にそれぞれ設置される。振動センサ13Aは、自身が設置された椅子に着席した参加者が頷くことにより生じる振動を検知し、検知した振動に応じた振動信号を会議支援装置4に出力する。 The vibration sensor 13A is composed of, for example, an acceleration sensor, and is installed on the seat of the chair on which each participant who participates in the meeting face-to-face sits. The vibration sensor 13A detects vibrations caused by the participant nodding when seated in the chair on which the vibration sensor 13A is installed, and outputs a vibration signal corresponding to the detected vibration to the meeting support device 4.

表示装置14Aは、例えば小型の液晶モニタなどから構成され、必要な情報を表示するために利用される。各表示装置14Aは、それぞれ対応する参加者の着座位置近傍に、その参加者が表示情報を目視可能な状態に設置される。 The display device 14A is composed of, for example, a small LCD monitor and is used to display necessary information. Each display device 14A is installed near the seating position of the corresponding participant so that the participant can visually view the displayed information.

オンライン参加者側システム3は、オンラインで会議に参加する対応する参加者の行動及び状態に関する各種情報をセンシングにより取得するセンサ群10Bと、その参加者に対して会議画面やその他の各種情報を表示するための表示装置14Bとから構成され、ネットワーク5を介して会議支援装置4に接続される。センサ群10Bは、撮像装置11B、集音装置12B及び振動センサ13Bから構成される。 The online participant system 3 is composed of a sensor group 10B that acquires various information about the actions and status of the corresponding participants participating in the online conference by sensing, and a display device 14B that displays the conference screen and various other information to the participants, and is connected to the conference support device 4 via the network 5. The sensor group 10B is composed of an imaging device 11B, a sound collection device 12B, and a vibration sensor 13B.

撮像装置11B、集音装置12B、振動センサ13B及び表示装置14Bの構成及び設置状態は、対面参加者側システム2の撮像装置11A、集音装置12A、振動センサ13A及び表示装置14Aと同様であるため、ここでの説明は省略する。撮像装置11Bから出力された映像信号、集音装置12Bから出力された音声信号、及び、振動センサ13Bから出力された振動信号は、それぞれネットワーク5を介して会議支援装置4に送信される。 The configurations and installation states of the imaging device 11B, sound collection device 12B, vibration sensor 13B, and display device 14B are similar to those of the imaging device 11A, sound collection device 12A, vibration sensor 13A, and display device 14A of the face-to-face participant system 2, so a description thereof will be omitted here. The video signal output from the imaging device 11B, the audio signal output from the sound collection device 12B, and the vibration signal output from the vibration sensor 13B are each transmitted to the conference support device 4 via the network 5.

会議支援装置4は、対面参加者側システム2のセンサ群10Aと、各オンライン参加者側システム3のセンサ群10Bとによりそれぞれ収集された各参加者の行動及び状態に関する各種情報に基づいて各参加者の現在の行動・状態をリアルタイムで判定し、参加者ごとに、適宜、その参加者の属性と、そのときのその参加者の行動・状態とに応じた情報をその参加者の表示装置14A,14Bに表示する機能を有するコンピュータ装置である。 The conference support device 4 is a computer device that has the function of determining the current behavior and status of each participant in real time based on various information regarding the behavior and status of each participant collected by the sensor group 10A of the face-to-face participant system 2 and the sensor group 10B of each online participant system 3, and displaying information for each participant that corresponds to the attributes of that participant and the behavior and status of that participant at that time on the participant's display device 14A, 14B as appropriate.

この会議支援装置4は、CPU(Central Processing Unit)20、メモリ21、記憶装置22及び入力装置23などの情報処理資源を備えて構成される。CPU20は、会議支援装置4全体の動作制御を司るプロセッサである。またメモリ21は、例えば揮発性の半導体メモリから構成され、CPU20のワーキングメモリとして利用される。 This conference support device 4 is configured with information processing resources such as a CPU (Central Processing Unit) 20, a memory 21, a storage device 22, and an input device 23. The CPU 20 is a processor that controls the operation of the entire conference support device 4. The memory 21 is configured, for example, from a volatile semiconductor memory, and is used as a working memory for the CPU 20.

記憶装置22は、例えばハードディスク装置やSSD(Solid State Drive)などの不揮発性の大容量の記憶装置から構成され、各種プログラムや長期間保存が必要なデータを保持するために利用される。会議支援装置4の起動時や必要時に必要なプログラムが記憶装置22からメモリ21にロードされ、メモリ21にロードされたプログラムをCPU20が実行することにより、後述のような会議支援装置4全体として各種処理が実行される。 The storage device 22 is composed of a non-volatile large-capacity storage device such as a hard disk drive or SSD (Solid State Drive), and is used to store various programs and data that needs to be stored for a long period of time. When the conference support device 4 is started up or when needed, the necessary programs are loaded from the storage device 22 into the memory 21, and the CPU 20 executes the programs loaded into the memory 21, thereby performing various processes by the conference support device 4 as a whole, as described below.

本実施の形態の場合、メモリ21には、記憶装置22からロードされた後述の画像処理プログラム30、音声処理プログラム31、頷き検出プログラム32、行動・状態判定プログラム33、表示情報決定プログラム34及び表示処理プログラム35が格納され、記憶装置22には、後述のような複数の管理テーブルから構成される情報管理データベース36が格納される。 In this embodiment, the memory 21 stores an image processing program 30, a voice processing program 31, a nod detection program 32, a behavior/state determination program 33, a display information determination program 34, and a display processing program 35, which are loaded from the storage device 22 and will be described later, and the storage device 22 stores an information management database 36 consisting of a number of management tables, as will be described later.

入力装置23は、例えばマウス及びキーボードなどから構成され、進行役の参加者(以下、これをファシリテータ又はファシリと呼ぶ)などが会議支援装置4に対する各種データや各種操作の入力を行うために利用される。 The input device 23 is composed of, for example, a mouse and a keyboard, and is used by the participant in charge of the conference (hereinafter referred to as the facilitator or facilitator) to input various data and various operations to the conference support device 4.

図2は、本実施の形態による会議支援装置4の論理構成を示す。この図2に示すように、会議支援装置4は、機能部として画像処理部40、音声処理部41、頷き検出部42、行動・状態判定部43、表示情報決定部44及び表示処理部45を備え、管理テーブルとして情報管理データベース36に格納された参加者属性管理テーブル50、センシング情報管理テーブル51、判定行動・状態管理テーブル52、複数の表示ルール管理テーブル53、表示要件管理テーブル54及び表示情報管理テーブル55を備えて構成される。 Figure 2 shows the logical configuration of the conference support device 4 according to this embodiment. As shown in this Figure 2, the conference support device 4 includes an image processing unit 40, an audio processing unit 41, a nod detection unit 42, an action/state determination unit 43, a display information determination unit 44, and a display processing unit 45 as functional units, and includes a participant attribute management table 50, a sensing information management table 51, a determined action/state management table 52, a plurality of display rule management tables 53, a display requirement management table 54, and a display information management table 55 stored as management tables in the information management database 36.

なお、以下においては、会議に参加する各参加者と、どの撮像装置11A,11B、集音装置12A,12B、振動センサ13A,13B及び表示装置14A,14Bとがそれぞれ対応付けられるかという情報が事前に画像処理部40、音声処理部41、頷き検出部42及び表示処理部45にそれぞれ与えられているものとする。また以下においては、各参加者には、それぞれその参加者に固有の識別子(以下、これを参加者IDと呼ぶ)が付与されているものとする。 In the following, it is assumed that information regarding which imaging devices 11A, 11B, sound collection devices 12A, 12B, vibration sensors 13A, 13B, and display devices 14A, 14B are associated with each participant who will participate in the conference, is provided in advance to the image processing unit 40, the audio processing unit 41, the nodding detection unit 42, and the display processing unit 45. In the following, it is assumed that each participant is assigned a unique identifier (hereinafter referred to as a participant ID).

画像処理部40は、メモリ21(図1)にロードされた図1の画像処理プログラム30をCPU20(図1)が実行することにより具現化される機能部である。画像処理部40は、各撮像装置11A,11Bからそれぞれ与えられた映像信号に基づいて、各参加者の顔の表情を所定の判定周期(例えば1秒周期)で判定し、いずれかの参加者の笑顔又は発言したそうな表情(例えば、意見を述べたそうに無言で口を開閉するなどの表情)を検出したときに、その旨及びその参加者の参加者IDを行動・状態判定部43に通知する。 The image processing unit 40 is a functional unit that is realized by the CPU 20 (Fig. 1) executing the image processing program 30 of Fig. 1 that is loaded into the memory 21 (Fig. 1). The image processing unit 40 judges the facial expression of each participant at a predetermined judgment period (e.g., 1 second period) based on the video signals provided by each of the imaging devices 11A, 11B, and when it detects a smile or an expression that suggests the participant is about to speak (e.g., an expression such as silently opening and closing the mouth as if the participant is about to express an opinion), it notifies the behavior/state judgment unit 43 of that fact and the participant ID of that participant.

また画像処理部40は、対面参加者側システム2の各撮像装置11Aからそれぞれ与えられた映像信号に基づいて、対面で会議に出席した各参加者の顔の向きを上述の判定周期でそれぞれ判定し、いずれかの参加者が他の参加者を見ていると判定した場合に、その参加者の参加者IDと、その参加者が見ていた他の参加者の参加者IDとを行動・状態判定部43に通知する。 The image processing unit 40 also determines the facial direction of each participant attending the conference face-to-face based on the video signals provided by each imaging device 11A of the face-to-face participant system 2 at the above-mentioned determination period, and if it determines that any participant is looking at another participant, notifies the behavior/state determination unit 43 of the participant ID of that participant and the participant ID of the other participant that the participant was looking at.

音声処理部41は、メモリ21にロードされた図1の音声処理プログラム31をCPU20が実行することにより具現化される機能部である。音声処理部41は、各集音装置12A,12Bからそれぞれ与えられた音声信号に基づいて、いずれかの参加者の発話があった場合にその発話の音量の計測を上述の判定周期で行い、その発話を行った参加者の参加者IDと、計測したその発話の音量とを行動・状態判定部43に通知する。 The audio processing unit 41 is a functional unit that is realized by the CPU 20 executing the audio processing program 31 of FIG. 1 that is loaded into the memory 21. When any participant speaks, the audio processing unit 41 measures the volume of the speech at the above-mentioned determination period based on the audio signals provided by each of the sound collection devices 12A, 12B, and notifies the behavior/state determination unit 43 of the participant ID of the participant who made the speech and the measured volume of the speech.

頷き検出部42は、メモリ21にロードされた図1の頷き検出プログラム32をCPU20が実行することにより具現化される機能部である。頷き検出部42は、各振動センサ13A,13Bからそれぞれ与えられる振動信号を上述の判定周期で分析し、いずれかの参加者が頷いていることを検出した場合に、その旨及びその参加者の参加者IDを行動・状態判定部43に通知する。 The nodding detection unit 42 is a functional unit that is realized by the CPU 20 executing the nodding detection program 32 of FIG. 1 that is loaded into the memory 21. The nodding detection unit 42 analyzes the vibration signals provided by each of the vibration sensors 13A, 13B at the above-mentioned determination period, and when it detects that any of the participants is nodding, it notifies the behavior/state determination unit 43 of that fact and the participant ID of that participant.

行動・状態判定部43は、メモリ21にロードされた図1の行動・状態判定プログラム33をCPU20が実行することにより具現化される機能部である。行動・状態判定部43は、上述の判定周期で画像処理部40、音声処理部41及び頷き検出部42からそれぞれ通知される各情報を後述のセンシング情報管理テーブル51に順次格納して管理する。また行動・状態判定部43は、センシング情報管理テーブル51に格納した各情報に基づいて各参加者のそのときの行動・状態を上述の判定周期で判定し、判定結果を判定行動・状態管理テーブル52に登録して管理する。 The behavior/state determination unit 43 is a functional unit that is realized by the CPU 20 executing the behavior/state determination program 33 of FIG. 1 that is loaded into the memory 21. The behavior/state determination unit 43 sequentially stores and manages each piece of information notified from the image processing unit 40, the audio processing unit 41, and the nod detection unit 42 in the above-mentioned determination cycle in a sensing information management table 51 described below. The behavior/state determination unit 43 also determines the behavior/state of each participant at that time in the above-mentioned determination cycle based on each piece of information stored in the sensing information management table 51, and registers and manages the determination results in the determined behavior/state management table 52.

なお、本実施の形態の場合、行動・状態判定部43は、参加者が「発話中」、「非発話中かつ真面目に聞いている」及び「非発話中かつ興味なし/内職中」のいずれかの行動をとっているか否かを判定するものとする。 In this embodiment, the behavior/state determination unit 43 determines whether the participant is performing one of the following behaviors: "talking," "not talking and listening attentively," and "not talking and not interested/doing side work."

「発話中」は、対応する参加者が発話を行っている状態を指す。また「非発話中かつ真面目に聞いている」は、対応する参加者が、発話を行っておらず(非発話中)、かつそのとき発話を行っている参加者(以下、適宜、これを発話者と呼ぶ)の発話内容を真面目に聞いている状態を指す。さらに「非発話中かつ興味なし/内職中」は、対応する参加者が、発話を行っておらず(非発話中)、かつそのときの発話者の発話内容に興味がないか又は会議とは関係のない作業を行っている状態を指す。 "Speaking" refers to a state in which the corresponding participant is speaking. "Not speaking and listening attentively" refers to a state in which the corresponding participant is not speaking (not speaking) and is listening attentively to what the participant who is currently speaking (hereinafter referred to as the speaker) is saying. "Not speaking and not interested/doing side work" refers to a state in which the corresponding participant is not speaking (not speaking) and is not interested in what the speaker is saying at the time or is doing work unrelated to the meeting.

表示情報決定部44は、メモリ21にロードされた図1の表示情報決定プログラム34をCPU20が実行することにより具現化される機能部である。表示情報決定部44は、上述のセンシング情報管理テーブル51及び判定行動・状態管理テーブル52にそれぞれ格納された各情報と、後述する参加者属性管理テーブル50、各表示ルール管理テーブル53及び表示要件管理テーブル54とにそれぞれ格納された各情報とに基づいて、参加者ごとに、現在の状況がその参加者の表示装置14A,14Bに何らかの情報を表示すべき状況であるか否かを上述の判定周期で判定する。 The display information determination unit 44 is a functional unit that is realized by the CPU 20 executing the display information determination program 34 of FIG. 1 that is loaded into the memory 21. The display information determination unit 44 determines, for each participant, at the above-mentioned determination period, whether or not the current situation is one in which some information should be displayed on the participant's display device 14A, 14B, based on the information stored in the above-mentioned sensing information management table 51 and the determination action/state management table 52, and the information stored in the participant attribute management table 50, the display rule management tables 53, and the display requirement management table 54, which will be described later.

そして表示情報決定部44は、いずれかの参加者について、何らかの情報を表示すべき状況にあると判定した場合には、後述の表示情報管理テーブル55を参照してそのときその参加者の表示装置14A,14Bに表示すべき情報を決定し、決定した情報をその参加者の参加者IDと共に表示処理部45に通知する。 When the display information determination unit 44 determines that a certain information should be displayed for any of the participants, it refers to the display information management table 55 described below to determine the information to be displayed on the display device 14A, 14B of that participant at that time, and notifies the display processing unit 45 of the determined information together with the participant ID of that participant.

表示処理部45は、メモリ21にロードされた図1の表示処理プログラム35をCPU20が実行することにより具現化される機能部である。表示処理部45は、表示情報決定部44から通知された情報及び参加者IDに基づいて、その参加者IDが付与された参加者の表示装置14A,14Bにその情報を送信する。これにより、その情報がその参加者の表示装置14A,14Bに表示される。 The display processing unit 45 is a functional unit that is realized by the CPU 20 executing the display processing program 35 of FIG. 1 that is loaded into the memory 21. Based on the information notified by the display information determination unit 44 and the participant ID, the display processing unit 45 transmits the information to the display device 14A, 14B of the participant to whom the participant ID has been assigned. As a result, the information is displayed on the display device 14A, 14B of the participant.

一方、参加者属性管理テーブル50は、予め設定された各参加者の属性を管理するに利用されるテーブルである。ここでの「参加者の属性」とは、会議におけるその参加者の立場を意味する。本実施の形態においては、このような「参加者の属性(立場)」として、例えば会議が社内会議である場合には、司会進行役である「ファシリ」と、参加者の中で立場が上の「上司」と、参加者の中で立場が「上司」よりも下の「部下」と、クライアントなどのゲスト的な存在である「ゲスト」との4つの属性が規定されている。 Meanwhile, the participant attribute management table 50 is a table used to manage the attributes of each participant that have been set in advance. Here, "participant attributes" refers to the position of the participant in the conference. In this embodiment, for example, if the conference is an internal conference, four attributes are defined as such "participant attributes (positions)": "facilitator" who acts as the moderator, "superior" who has a higher position among the participants, "subordinate" who has a lower position than the "superior" among the participants, and "guest" who is a guest-like presence such as a client.

参加者属性管理テーブル50は、図3に示すように、参加者ID欄50A及び属性欄50Bを備えて構成される。参加者属性管理テーブル50では、1つの行が一人の参加者に対応する。そして参加者ID欄50Aには、対応する参加者の参加者IDが格納され、属性欄50Bには、予め設定されたその参加者のその会議における属性(立場)が格納される。 As shown in FIG. 3, the participant attribute management table 50 is configured with a participant ID column 50A and an attribute column 50B. In the participant attribute management table 50, one row corresponds to one participant. The participant ID column 50A stores the participant ID of the corresponding participant, and the attribute column 50B stores the preset attribute (position) of that participant in the conference.

従って、図3の例の場合、「0001」という参加者IDが付与された参加者の属性(立場)は「ファシリ」であり、「0002」という参加者IDが付与された参加者の属性(立場)は「上司」であることが示されている。 Therefore, in the example of Figure 3, the attribute (position) of the participant assigned the participant ID "0001" is "facilitator," and the attribute (position) of the participant assigned the participant ID "0002" is "supervisor."

センシング情報管理テーブル51は、上述のように判定周期で画像処理部40、音声処理部41及び頷き検出部42からそれぞれ与えられる各通知に基づく情報を参加者ごとに分けて保存するために利用されるテーブルであり、参加者ごとにそれぞれ生成される。 The sensing information management table 51 is a table used to store information based on each notification provided by the image processing unit 40, the audio processing unit 41, and the nodding detection unit 42 at the determination period as described above, separately for each participant, and is generated for each participant.

センシング情報管理テーブル51は、図4に示すように、経過時間欄51A、表情欄51B、向き欄51C、発話欄51D、音量欄51E、発話時間欄51F及び頷き欄51Gを備えて構成される。センシング情報管理テーブル51では、1つのレコード(行)が、上述の判定周期で画像処理部40、音声処理部41及び頷き検出部42からそれぞれ通知されてきた1回分の分析結果に対応する。なお、以下においては、かかる判定周期で到来し、画像処理部40、音声処理部41及び頷き検出部42が映像信号、音声信号又は頷き検出信号の分析を行うタイミングをデータ分析タイミングと呼ぶものとする。 As shown in FIG. 4, the sensing information management table 51 is configured with an elapsed time column 51A, a facial expression column 51B, a direction column 51C, a speech column 51D, a volume column 51E, a speech time column 51F, and a nod column 51G. In the sensing information management table 51, one record (row) corresponds to one analysis result notified from the image processing unit 40, the audio processing unit 41, and the nod detection unit 42 in the above-mentioned judgment cycle. In the following, the timing that arrives in such a judgment cycle and at which the image processing unit 40, the audio processing unit 41, and the nod detection unit 42 analyze the video signal, audio signal, or nod detection signal is referred to as the data analysis timing.

経過時間欄51Aには、対応するデータ分析タイミングの会議開始からの経過時間が格納される。また表情欄51Bには、1つ前のデータ分析タイミングから対応するデータ分析タイミングまでの期間(以下、これを直前のデータ分析期間と呼ぶ)内に、画像処理部40が検出した対応する参加者の表情に応じた値が格納される。例えば、かかる直前のデータ分析期間内に、画像処理部40が対応する参加者の表情として笑顔を検出した場合には「1」、発言したそうな表情を検出した場合には「2」、これ以外の場合には「0」が表情欄51Bに格納される。 The elapsed time column 51A stores the time that has elapsed since the start of the conference at the corresponding data analysis timing. The facial expression column 51B stores a value corresponding to the facial expression of the corresponding participant detected by the image processing unit 40 during the period from the previous data analysis timing to the corresponding data analysis timing (hereinafter, this is referred to as the most recent data analysis period). For example, if the image processing unit 40 detects a smiling face as the facial expression of the corresponding participant during the most recent data analysis period, a value of "1" is stored in the facial expression column 51B; if the image processing unit 40 detects a facial expression that suggests the participant is about to speak, a value of "2" is stored; and otherwise a value of "0" is stored in the facial expression column 51B.

また向き欄51Cには、直前のデータ分析期間内に、対面で会議に参加していた対応する参加者の顔が他の参加者に向いていた(つまり対応する参加者が他の参加者を見ていた)と画像処理部40が判定したときに、その画像処理部40から行動・状態判定部43に通知された当該他の参加者の参加者IDが格納される。 In addition, the orientation column 51C stores the participant ID of the other participant notified to the behavior/state determination unit 43 by the image processing unit 40 when the image processing unit 40 determines that the face of the corresponding participant who participated in the meeting face-to-face during the immediately preceding data analysis period was facing the other participant (i.e., the corresponding participant was looking at the other participant).

発話欄51Dには、直前のデータ分析期間内に、対応する参加者の発話を音声処理部41が検出したか否かを表すフラグ(以下、これを発話フラグと呼ぶ)が格納される。図4の例では、かかるデータ分析期間内に対応する参加者の発話を音声処理部41が検出した場合には発話フラグが「1」に設定され、検出しなかった場合には発話フラグが「0」に設定される。 The speech column 51D stores a flag (hereinafter, referred to as a speech flag) indicating whether the voice processing unit 41 detected the corresponding participant's speech during the immediately preceding data analysis period. In the example of FIG. 4, if the voice processing unit 41 detected the corresponding participant's speech during the data analysis period, the speech flag is set to "1," and if not, the speech flag is set to "0."

また音量欄51Eには、直前のデータ分析期間内に音声処理部41が対応する参加者の発話を検出したときに、音声処理部41により計測されたその発話の音量(発話音量)が格納され、発話時間欄51Fには、その発話が開始されてからの継続時間が格納される。 The volume column 51E stores the volume of the speech (speech volume) measured by the audio processing unit 41 when the audio processing unit 41 detects the speech of the corresponding participant during the immediately preceding data analysis period, and the speech time column 51F stores the duration from when the speech started.

さらに頷き欄51Gには、直前のデータ分析期間内に、対応する参加者が頷いていることを頷き検出部42が検出したか否かを表すフラグ(以下、これを頷きフラグと呼ぶ)が格納される。図4の例では、かかるデータ分析期間内に対応する参加者が頷いていたことを頷き検出部42が検出した場合には頷きフラグが「1」に設定され、検出しなかった場合には頷きフラグが「0」に設定される。 Furthermore, the nod column 51G stores a flag (hereinafter, referred to as a nod flag) indicating whether the nod detection unit 42 detected that the corresponding participant nodded during the immediately preceding data analysis period. In the example of FIG. 4, if the nod detection unit 42 detected that the corresponding participant nodded during the data analysis period, the nod flag is set to "1," and if not, the nod flag is set to "0."

従って、図4の例の場合、この図4に対応する参加者は、例えば会議の開始後「00:00:01」~「00:00:02」の期間内に、笑顔や発言したそうな表情になることも、さらには発話することもなく、「1」という参加者IDの参加者に顔を向けており、この間に少なくとも「1」度は頷いたことが検出されたことが示されている。 Therefore, in the example of Figure 4, the participant corresponding to this Figure 4 does not smile or look as if he or she is about to speak, nor does he or she speak, for example, during the period from "00:00:01" to "00:00:02" after the start of the conference, but turns his or her face toward the participant with participant ID "1", and is detected to have nodded at least "1" time during this period.

判定行動・状態管理テーブル52は、行動・状態判定部43がセンシング情報管理テーブル51に格納された情報に基づいて判定周期で判定した、参加者ごとの、その参加者がそのとき行っていた行動又はそのときの状態を管理するために利用されるテーブルであり、図5に示すように、参加者ID欄52A及び判定行動・状態欄52Bを備えて構成される。判定行動・状態管理テーブル52では、1つのレコード(行)が、一人の参加者に対応する。 The determined action/state management table 52 is a table used to manage the action or state that each participant was performing at that time, which was determined at a determination period by the action/state determination unit 43 based on the information stored in the sensing information management table 51, and as shown in FIG. 5, is configured with a participant ID column 52A and a determined action/state column 52B. In the determined action/state management table 52, one record (row) corresponds to one participant.

そして参加者ID欄52Aには、対応する参加者の参加者IDが格納され、判定行動・状態欄52Bには、行動・状態判定部43により判定されたその参加者がそのとき行っていた行動又はその参加者のそのときの状態が格納される。 The participant ID column 52A stores the participant ID of the corresponding participant, and the determined action/status column 52B stores the action that the participant was performing at that time or the state of the participant at that time, as determined by the action/status determination unit 43.

なお、本実施の形態の場合、上述のように行動・状態判定部43は、参加者が「発話中」、「非発話中かつ真面目に聞いている」及び「非発話中かつ興味なし/内職中」のいずれかの行動をとっているかを判定するため、各レコードの判定行動・状態欄52Bには、原則としてこれら「発話中」、「非発話中かつ真面目に聞いている」又は「非発話中かつ興味なし/内職中」と、これらのいずれにも該当しないことを意味する「-」とのうちのいずれかの情報が格納される。 In the case of this embodiment, as described above, the behavior/state determination unit 43 determines whether the participant is "talking," "not talking and listening attentively," or "not talking and not interested/doing side work," so in principle, the determined behavior/state column 52B of each record stores one of the following information: "talking," "not talking and listening attentively," "not talking and not interested/doing side work," or "-," which means that none of these apply.

ただし、参加者が「ファシリ」の場合には、行動・状態判定部43により判定された行動・状態が「非発話中かつ真面目に聞いている」又は「非発話中かつ興味なし/内職中」であったときには、「非発話中」という情報が判定行動・状態欄52Bに格納される(図5の参加者IDが「0001」の判定行動欄を参照)。 However, if the participant is a "facilitator," and the behavior/state determined by the behavior/state determination unit 43 is "not speaking and listening attentively" or "not speaking and not interested/doing side work," the information "not speaking" is stored in the determined behavior/state column 52B (see the determined behavior column for participant ID "0001" in Figure 5).

従って、「ファシリ」については、対応する判定行動・状態欄52Bに「非発話中」という情報が格納されていた場合、そのときの行動が「非発話中かつ真面目に聞いている」及び「非発話中かつ興味なし/内職中」のいずれかであったことを意味する。 Therefore, for a "facilitator," if the information "not speaking" is stored in the corresponding judgment behavior/status column 52B, this means that the behavior at that time was either "not speaking and listening attentively" or "not speaking and not interested/doing side work."

一方、表示ルール管理テーブル53は、どのような属性(立場)の参加者がどのような行動をとり又はどのような状態にあるときに、どのような要件を満たせば、どのような項目の情報をその参加者の表示装置14A,14Bに表示するかといった、予め定められた情報の表示ルールを管理するために利用されるテーブルである。 On the other hand, the display rule management table 53 is a table used to manage the display rules of predetermined information, such as what items of information are displayed on the display devices 14A and 14B of participants when what attributes (positions) of participants take what actions or are in what states and what requirements are met.

表示ルール管理テーブル53は、参加者の各属性にそれぞれ対応させて「ファシリ」用、「上司」用、「部下」用及び「ゲスト」用の4種類があり、これら4種類の表示ルール管理テーブル53がそれぞれ事前に作成されて情報管理データベース37に格納される。 There are four types of display rule management tables 53, one for "facilitator," one for "supervisor," one for "subordinate," and one for "guest," each corresponding to a different attribute of a participant. Each of these four types of display rule management tables 53 is created in advance and stored in the information management database 37.

図6(A)は、このうちの「ファシリ」用の表示ルール管理テーブル53Aを示す。この図6(A)に示すように、「ファシリ」用の表示ルール管理テーブル53Aは、「ファシリ」の行動・状態が発話中である場合と対応付けられた第1の領域53AAと、「ファシリ」の行動・状態が非発話中である場合と対応付けられた第2の領域53ABとから構成される。 Figure 6 (A) shows the display rule management table 53A for the "facilitator." As shown in Figure 6 (A), the display rule management table 53A for the "facilitator" is composed of a first area 53AA associated with the action/state of the "facilitator" being speaking, and a second area 53AB associated with the action/state of the "facilitator" not speaking.

第1の領域53AAは、「ファシリ」のそのときの行動・状態が発話中の場合に、状況に応じてその「ファシリ」の表示装置14A,14Bに情報を表示すべき各項目(以下、これらを表示項目と呼ぶ)にそれぞれ対応させた1又は複数の列(以下、これを表示項目列と呼ぶ)53AAAから構成される。本実施の形態では、「ファシリ」が発話中である場合、その「ファシリ」の表示装置14A,14Bに情報を表示する表示項目は「同意者数多1」という表示項目だけであるため、第1の領域53AAは「同意者数1」という表示項目列53AAAのみから構成される。なお、「同意者数1」は、「ファシリ」の発話中に、その「ファシリ」の発話内容に同意した参加者の人数を「ファシリ」の表示装置14A,14Bに表示するという内容の表示項目である。 The first area 53AA is composed of one or more columns (hereinafter referred to as display item columns) 53AAA corresponding to each item (hereinafter referred to as display items) whose information should be displayed on the display device 14A, 14B of the "facilitator" depending on the situation when the "facilitator" is currently speaking. In this embodiment, when the "facilitator" is speaking, the only display item whose information is displayed on the display device 14A, 14B of the "facilitator" is the display item "Number of people who agree: 1", so the first area 53AA is composed only of the display item column 53AAA "Number of people who agree: 1". Note that "Number of people who agree: 1" is a display item whose content displays the number of participants who agree with what the "facilitator" is saying on the display device 14A, 14B of the "facilitator" while the "facilitator" is speaking.

同様に、第2の領域53ABは、「ファシリ」のそのときの行動が非発話中の場合、状況に応じてその「ファシリ」の表示装置14A,14Bに情報を表示する各表示項目にそれぞれ対応させた1又は複数の表示項目列53ABA、53ABB、53ABCから構成される。本実施の形態の場合、「ファシリ」が非発話中である場合、状況に応じて「ファシリ」の表示装置14A,14Bに対応する情報を表示すべき表示項目として、「盛上り度」、「同意者数多2」及び「発話希望者」の3つの表示項目が規定されている。このため第2の領域53ABは、「盛上り度」、「同意者数2」及び「発話希望者有」という3つの表示項目列53ABA~53ABCから構成されている。 Similarly, the second area 53AB is composed of one or more display item columns 53ABA, 53ABB, 53ABC, each corresponding to a display item that displays information on the display device 14A, 14B of the "facilitator" depending on the situation when the "facilitator" is not speaking. In the present embodiment, when the "facilitator" is not speaking, three display items, "Level of excitement," "Number of people who agree: 2," and "People who want to speak," are specified as display items that should display information corresponding to the "facilitator"'s display device 14A, 14B depending on the situation. Therefore, the second area 53AB is composed of three display item columns 53ABA to 53ABC, "Level of excitement," "Number of people who agree: 2," and "People who want to speak."

「盛上り度」は、「ファシリ」以外の参加者の発話による会議の盛上りの度合(盛上り度)を「ファシリ」の表示装置14A,14Bに表示するという内容の表示項目である。「盛上り度」の詳細については後述する。また「同意者数2」は、「ファシリ」以外の参加者の発話内容に同意した他の参加者の人数を「ファシリ」の表示装置14A,14Bに表示するという内容の表示項目であり、「発言希望者有」は、発言したそうな表情(発話したそうな表情)の参加者がいる場合に、その参加者の参加者IDを「ファシリ」の表示装置14A,14Bに表示するという内容の表示項目である。 "Excitement level" is a display item that displays the degree of excitement of the meeting (excitement level) due to the speech of participants other than the "facilitator" on the "facilitator's" display devices 14A and 14B. Details of "excitement level" will be described later. "Number of participants who agree 2" is a display item that displays the number of other participants who agree with the speech of participants other than the "facilitator" on the "facilitator's" display devices 14A and 14B, and "Someone wants to speak" is a display item that displays the participant ID of a participant who looks like they want to speak (want to speak) on the "facilitator's" display devices 14A and 14B.

さらに第1及び第2の領域53AA,53ABの各表示項目列53AAA,53ABA~53ABCは、それぞれ表示項目欄53AC、表示優先度欄53AD及び表示情報欄53AEに区分されている。 Furthermore, each of the display item columns 53AAA, 53ABA to 53ABC in the first and second areas 53AA, 53AB is divided into a display item column 53AC, a display priority column 53AD, and a display information column 53AE, respectively.

そして表示項目欄53ACには、その表示項目列53AAA,53ABA~53ABCに対応する表示項目の名称が格納され、表示優先度欄53ADには、その表示項目の表示優先度が格納される。表示優先度は、対応する表示項目の情報を表示する際の優先度であり、その表示ルール管理テーブル53が適用される参加者が発話中及び非発話中の場合ごとにそれぞれ独立して決定される。 The display item column 53AC stores the names of the display items corresponding to the display item columns 53AAA, 53ABA to 53ABC, and the display priority column 53AD stores the display priority of the display items. The display priority is the priority when displaying the information of the corresponding display item, and is determined independently for each case in which the participant to whom the display rule management table 53 applies is speaking and not speaking.

その表示ルール管理テーブル53が適用される参加者が発話中又は非発話中の場合に、複数の表示項目の情報を表示すべき状況となった場合、最も表示優先度が高い表示項目の情報のみがその参加者の表示装置に表示され、他の表示項目の情報は表示されない。また最も表示優先度が高い表示項目が複数存在する場合には、これらすべての表示項目の情報がその参加者の表示装置14A,14Bに表示される。 When a participant to whom the display rule management table 53 applies is speaking or not speaking and a situation arises in which information on multiple display items should be displayed, only the information on the display item with the highest display priority is displayed on the participant's display device, and information on the other display items is not displayed. Furthermore, if there are multiple display items with the highest display priority, information on all of these display items is displayed on the participant's display devices 14A and 14B.

さらに表示情報番号欄53AEには、対応する表示項目の情報を表示するための表示要件が満たされたときに表示すべき情報に付与された、その情報に固有の識別番号(以下、これを表示情報番号と呼ぶ)が格納される。いずれかの表示項目の表示要件が満たされた場合には、その表示項目に対応する表示項目列53AAA,53ABA~53ABCの表示情報番号欄53AEに格納された表示情報番号を検索キーとして後述する表示情報管理テーブル55上でそのとき表示すべき情報を検索し、検出した情報をその表示ルール管理テーブル53が適用される参加者の表示装置14A,14Bに表示することになる。 Furthermore, the display information number column 53AE stores an identification number (hereinafter referred to as the display information number) unique to the information to be displayed when the display requirements for displaying the information of the corresponding display item are met. When the display requirements for any display item are met, the display information number stored in the display information number column 53AE of the display item column 53AAA, 53ABA to 53ABC corresponding to that display item is used as a search key to search for the information to be displayed at that time in the display information management table 55 described below, and the detected information is displayed on the display device 14A, 14B of the participant to which the display rule management table 53 is applied.

一方、図7(A)、図8(A)及び図9(A)は、それぞれ「上司」用、「部下」用又は「ゲスト」用の表示ルール管理テーブル53B、53C,53Dを示す。これら図7(A)~図9(A)にそれぞれ示すように、「上司」用、「部下」用及び「ゲスト」用の各表示ルール管理テーブル53B~53Dの基本的な構成は「ファシリ」用の表示ルール管理テーブル53Aと同じである。 Meanwhile, Figures 7(A), 8(A) and 9(A) show display rule management tables 53B, 53C and 53D for "Superior", "Subordinate" and "Guest", respectively. As shown in Figures 7(A) to 9(A), the basic configuration of each of the display rule management tables 53B to 53D for "Superior", "Subordinate" and "Guest" is the same as the display rule management table 53A for "Facilitator".

ただし、参加者の属性が「上司」、「部下」又は「ゲスト」である場合、その参加者が発話中のときに、状況に応じてその参加者の表示装置14A,14Bに対応する情報を表示する表示項目として「同意者数多1」、「後押し」及び「発話時間」という3つの表示項目が規定されている。 However, if the attribute of a participant is "superior," "subordinate," or "guest," three display items, "Number of consenters 1," "Support," and "Speech duration," are specified as display items that display information corresponding to the participant's display device 14A, 14B depending on the situation when the participant is speaking.

このため「上司」用、「部下」用又は「ゲスト」用の表示ルール管理テーブル53B~53Dでは、第1の領域53BA,53CA,53DAがこれら「同意者数多3」という表示項目に対応する表示項目列53BAA,53CAA,53DAAと、「後押し」という表示項目に対応する表示項目列53BAB,53CAB,53DABと、「発話時間」という表示項目に対応する表示項目列53BAC,53CAC,53DACとから構成されている。 For this reason, in the display rule management tables 53B to 53D for "Superior," "Subordinate," or "Guest," the first areas 53BA, 53CA, 53DA are made up of display item columns 53BAA, 53CAA, 53DAA corresponding to the display item "Number of consenters: 3," display item columns 53BAB, 53CAB, 53DAB corresponding to the display item "Support," and display item columns 53BAC, 53CAC, 53DAC corresponding to the display item "Speech time."

なお「同意者数多1」は、その表示ルール管理テーブル53(53B~53D)が適用される参加者(「上司」、「部下」又は「ゲスト」)の発話中に、その参加者の発話内容に同意した他の参加者の人数が多いと判定された場合に、その人数をその参加者の表示装置14A,14Bに表示するという内容の表示項目である。 Note that "Many Agreeees 1" is a display item that, when it is determined that there are many other participants who agree with the content of a speech made by a participant ("Superior", "Subordinate" or "Guest") to whom the display rule management table 53 (53B to 53D) applies, displays the number of such participants on the display devices 14A and 14B of the participant.

また「後押し」は、その表示ルール管理テーブル53(53B~53D)が適用される参加者が発話中である場合に、発話を後押しするようなメッセージをその参加者の表示装置14A,14Bに表示するという内容の表示項目である。さらに「発話時間」は、その表示ルール管理テーブル53(53B~53D)が適用される参加者の発話中に、その発話の継続時間をその参加者の表示装置14A,14Bに表示するという内容の表示項目である。 "Boost" is a display item whose content is to display a message encouraging a participant to speak on the display device 14A, 14B when the participant to whom the display rule management table 53 (53B to 53D) applies is speaking. "Speech duration" is a display item whose content is to display the duration of the speech on the display device 14A, 14B when the participant to whom the display rule management table 53 (53B to 53D) applies is speaking.

また、参加者の属性が「上司」、「部下」又は「ゲスト」である場合、非発話中という行動・状態は、「真面目に聞いている」及び「興味なし/内職中」という行動・状態に細分化されている。「真面目に聞いている」は、参加者の「非発話中かつ真面目に聞いている」という行動・状態に対応し、「興味なし/内職中」は、参加者の「非発話中かつ興味なし/内職中」という行動・状態に対応する。 In addition, when the attribute of a participant is "superior," "subordinate," or "guest," the behavior/state of not speaking is subdivided into the behavior/states of "listening attentively" and "not interested/doing work from home." "Listening attentively" corresponds to the behavior/state of the participant "not speaking and listening attentively," and "not interested/doing work from home" corresponds to the behavior/state of the participant "not speaking and not interested/doing work from home."

そして、その表示ルール管理テーブル53(53B~53D)が適用される参加者が「非発話中かつ真面目に聞いている」という行動・状態である場合、状況に応じてその参加者の表示装置14A,14Bに対応する情報を表示する表示項目として、「口出し」及び「影響・効果」という2つの表示項目が規定されている。 When a participant to whom the display rule management table 53 (53B to 53D) is applied is in the behavior/state of "not speaking and listening attentively," two display items, "interjection" and "influence/effect," are specified as display items that display information corresponding to the participant's display device 14A, 14B depending on the situation.

また、その対象参加者が「非発話中かつ興味なし/内職中」という行動をとっている場合、状況に応じてその対象参加者の表示装置に対応する情報を表示する表示項目として、「非聴時間」という表示項目が規定されている。 In addition, if the target participant is in the "not speaking and not interested/doing side work" behavior, a display item called "non-listening time" is defined as a display item that displays information corresponding to the target participant's display device depending on the situation.

このため「上司」用、「部下」用又は「ゲスト」用の表示ルール管理テーブル53(53B~53D)では、第2の領域53BB,53CB,53DBが、さらに「真面目に聞いている」という領域53BBX、53CBX,53DBXと、「興味なし/内職中」という領域53BBY、53CBY,53DBYとに分けられている。 For this reason, in the display rule management table 53 (53B-53D) for "Superior", "Subordinate" or "Guest", the second area 53BB, 53CB, 53DB is further divided into areas 53BBX, 53CBX, 53DBX for "Listening attentively" and areas 53BBY, 53CBY, 53DBY for "Not interested/doing side work".

そして「真面目に聞いている」という領域53BBX、53CBX,53DBXは、「口出し」という表示項目に対応する表示項目列53BAB,53CBA,53DBAと、「影響・効果」という表示項目に対応する表示項目列53BBB,53CBB,53DBBとから構成されている。また「興味なし/内職中」という領域53BBY、53CBY,53DBYは、「興味なし/内職中」という表示項目に対応する表示項目列53BBC,53CBC,53DBCから構成されている。 The "listening attentively" areas 53BBX, 53CBX, 53DBX are made up of display item columns 53BAB, 53CBA, 53DBA corresponding to the display item "interfering" and display item columns 53BBB, 53CBB, 53DBB corresponding to the display item "influence/effect." The "not interested/doing side work" areas 53BBY, 53CBY, 53DBY are made up of display item columns 53BBC, 53CBC, 53DBC corresponding to the display item "not interested/doing side work."

なお、「口出し」は、参加者が非発話中、かつその参加者が発言したそうな表情のときに、他の参加者の発話が終了したタイミングでその対象参加者に対して発話を促すメッセージをその参加者の表示装置14A,14Bに表示するという内容の表示項目である。また「影響・効果」は、対象参加者が口火を切った話題についての議論が継続している間、その話題について発話を行った参加者の人数と、その話題の現在までの継続時間とを対象参加者の表示装置14A,14Bに表示するという内容の表示項目である。さらに「非聴時間」は、対象参加者が会議に興味がない又は会議に関係しない作業を行っていると推測される行動をとり又は状態にあるときに、その行動・状態の継続時間(以下、これを「非聴時間」と呼ぶ)を表示するという内容の表示項目である。 "Interjection" is a display item that displays a message on the display device 14A, 14B of a target participant encouraging the target participant to speak when other participants finish speaking, when the target participant is not speaking and looks as if he or she wants to speak. "Influence/Effect" is a display item that displays the number of participants who have spoken on a topic that the target participant started, and the duration of the topic to date, while the discussion on that topic is ongoing, on the display device 14A, 14B of the target participant. "Non-listening time" is a display item that displays the duration of the behavior/state (hereinafter referred to as "non-listening time") when the target participant is taking an action or being in a state that suggests that he or she is not interested in the conference or is performing work unrelated to the conference.

また「上司」用、「部下」用及び「ゲスト」用の表示ルール管理テーブル53(53B、53C,53D)において、表示項目列(53BAA~53BAC,53BBA~53BBC)、(53CAA~53CAC,53CBA~53CBC)、(53DAA~53DAC,53DBA~53DBC)の表示情報欄53BE,53CE,53DEに「非表示」と表記された表示項目については、現在の状況がその表示項目の情報を対象参加者の表示装置14A,14Bに対応する情報を表示すべき状況にあるか否かの判定は行われず、この結果としてこれらの表示項目の情報は対象参加者の表示装置14A,14Bには表示されないことを意味する。 In addition, in the display rule management tables 53 (53B, 53C, 53D) for "Superior", "Subordinate" and "Guest", for display items marked as "Hidden" in the display information columns 53BE, 53CE, 53DE of the display item columns (53BAA-53BAC, 53BBA-53BBC), (53CAA-53CAC, 53CBA-53CBC), (53DAA-53DAC, 53DBA-53DBC), no determination is made as to whether the current situation is such that the information for that display item should be displayed on the display devices 14A, 14B of the target participant, and as a result, the information for these display items is not displayed on the display devices 14A, 14B of the target participant.

他方、表示要件管理テーブル54は、「ファシリ」用、「上司」用、「部下」用及び「ゲスト」用の各表示ルール管理テーブル53(53A~53D)で規定された各表示項目の情報を、対象参加者の表示装置14A,14Bに表示するための要件(以下、これを表示要件と呼ぶ)を管理するために利用されるテーブルである。各表示項目の表示要件は予め定められ、事前に表示要件管理テーブル54に格納されて管理される。 On the other hand, the display requirements management table 54 is a table used to manage the requirements (hereinafter referred to as display requirements) for displaying the information of each display item defined in each display rule management table 53 (53A-53D) for "facilitator," "supervisor," "subordinate," and "guest" on the target participant's display device 14A, 14B. The display requirements for each display item are determined in advance and are stored and managed in advance in the display requirements management table 54.

表示要件管理テーブル54は、図10に示すように、表示項目欄54A及び表示要件欄54Bを備えて構成される。表示要件管理テーブル54では、1つのレコード(行)が、1つの表示項目に対応する。 As shown in FIG. 10, the display requirements management table 54 is configured with a display item column 54A and a display requirements column 54B. In the display requirements management table 54, one record (row) corresponds to one display item.

そして表示項目欄54Aには、対応する表示項目の名称が格納され、表示要件欄54Bには、その表示項目の情報を対象とする参加者の表示装置14A,14Bに表示するための要件(表示要件)が格納される。 The display item column 54A stores the name of the corresponding display item, and the display requirements column 54B stores the requirements (display requirements) for displaying the information of that display item on the display devices 14A and 14B of the target participants.

従って、図10の例の場合、例えば、「同意者数多1」という表示項目は、対象とする参加者(ここでは「ファシリ」のみ)が発話中にその参加者の発話内容に同意した他の参加者の人数を表示するという内容の表示項目であるため、対象参加者が発話中であることがその表示要件であることが示されている。 Therefore, in the example of Figure 10, for example, the display item "Number of Agreeing Participants: 1" is a display item whose content is to display the number of other participants who agree with what the target participant (here, only the "facilitator") is saying while that participant is speaking, so it is indicated that the display requirement is that the target participant is speaking.

なお、各表示項目の表示要件が満たされたか否か(その表示項目の情報を表示する状況にあるか否か)の判定は、図6(B)、図7(B)、図8(B)及び図9(B)において「○」が付された情報を利用して行う。 The determination of whether the display requirements for each display item are met (whether the situation is such that the information for that display item can be displayed) is made using the information marked with an "O" in Figures 6(B), 7(B), 8(B), and 9(B).

図6(B)~図9(B)において、「自分」欄53AF、53BF,53CF,53DFの「表情」、「向き」、「発話」、「発話時間」及び「頷き」の各欄53AG,53BG,53CG,53DGは、それぞれ対象参加者(ここでは「ファシリ」)のセンシング情報管理テーブル51(図4)の表情欄51B、向き欄51C、発話欄51D、音量欄51E、発話時間欄51F及び頷き欄51Gにそれぞれ対応し、「他者」欄53AH,53BH,53CH,53DHの「表情」、「向き」、「発話」、「音量」、「発話時間」及び「頷き」の各欄53AI,53BI,53CI,53DIは、それぞれ対象参加者以外の参加者のセンシング情報管理テーブル51における表情欄51B、向き欄51C、発話欄51D、音量欄51E、発話時間欄51F及び頷き欄51Gにそれぞれ対応する。 6(B) to 9(B), the "Facial Expression," "Direction," "Speech," "Speech Time," and "Nod" columns 53AG, 53BG, 53CG, and 53DG in the "Self" columns 53AF, 53BF, 53CF, and 53DF correspond to the facial expression column 51B, direction column 51C, speech column 51D, volume column 51E, speech time column 51F, and nod column 51G in the sensing information management table 51 (FIG. 4) of the target participant (here, the "facilitator"). The "Facial Expression," "Direction," "Speech," "Volume," "Speech Time," and "Nodding" columns 53AI, 53BI, 53CI, and 53DI in the "Others" columns 53AH, 53BH, 53CH, and 53DH correspond to the facial expression column 51B, direction column 51C, speech column 51D, volume column 51E, speech time column 51F, and nodding column 51G in the sensing information management table 51 of participants other than the target participant, respectively.

従って、例えば「同意者数1」という表示項目の情報を表示する表示要件が満たされたか否かを判定する場合には、対象参加者(「ファシリ」)のセンシング情報管理テーブル51の発話欄51Dに格納された発話フラグの値を参照して対象参加者が発話中であると判定したことを前提として、対象参加者以外の各参加者のセンシング情報管理テーブル51の表情欄51B、向き欄51C及び頷き51Gにそれぞれ格納された情報を利用して、対象参加者の発話内容に同意した人数をカウントすることになる。 Therefore, for example, when determining whether the display requirements for displaying information for a display item such as "Number of people who agree: 1" have been met, the system will determine that the target participant ("facilitator") is speaking by referring to the value of the speech flag stored in the speech column 51D of the sensing information management table 51 for the target participant, and will count the number of people who agree with the content of the target participant's speech using the information stored in the facial expression column 51B, direction column 51C, and nod column 51G of the sensing information management table 51 for each participant other than the target participant.

また表示情報管理テーブル55は、各表示ルール管理テーブル53(53A~53D)の表示情報番号欄53AE,53BE,53CE,53DEにそれぞれ格納された表示情報番号と、実際に対応する参加者の表示装置14A,14Bに表示すべき具体的な情報との対応関係を管理するために利用されるテーブルであり、予め作成されて情報管理データベース37に格納される。 The display information management table 55 is a table used to manage the correspondence between the display information numbers stored in the display information number columns 53AE, 53BE, 53CE, and 53DE of each display rule management table 53 (53A to 53D) and the specific information that should actually be displayed on the corresponding participant's display device 14A or 14B, and is created in advance and stored in the information management database 37.

表示情報管理テーブル55は、図11に示すように、表示情報番号欄55A及び表示情報欄55Bを備えて構成される。そして表示情報欄55Bには、対応する参加者の表示装置14A,14Bに表示すべき情報の具体的な内容が格納され、表示情報番号欄55Aには、その情報に対して付与されたその情報に固有の表示情報番号が格納される。 As shown in FIG. 11, the display information management table 55 is configured with a display information number column 55A and a display information column 55B. The display information column 55B stores the specific content of the information to be displayed on the corresponding participant's display device 14A, 14B, and the display information number column 55A stores a display information number that is assigned to the information and is unique to that information.

なお、図11において、括弧で示された情報は、その情報の具体的数値が対応する参加者の表示装置14A,14Bに表示すべき情報であることを意味し、かぎ括弧で示された情報は、そのかぎ括弧内のメッセージが対応する参加者の表示装置14A,14Bに表示すべき情報であることを意味する。 In FIG. 11, information in parentheses means that the specific numerical value of the information is to be displayed on the display device 14A, 14B of the corresponding participant, and information in quotation marks means that the message in the quotation marks is to be displayed on the display device 14A, 14B of the corresponding participant.

従って、図11の例の場合、例えば「1」という表示情報番号が付与された情報は、「同意者数」(つまり発話者の発話内容に同意している参加者の人数)であり、「4」という表示情報番号が付与された表示情報は、「いいね!」というメッセージであることが示されている。 Therefore, in the example of Figure 11, the information assigned with a display information number of "1" is the "number of people who agree" (i.e., the number of participants who agree with what the speaker said), and the display information assigned with a display information number of "4" is the message "Like!".

(2)各機能部の具体的な処理内容
次に、上述した会議支援装置4の各機能部の具体的な処理内容について説明する。ただし、画像処理部40、音声処理部41、頷き検出部42及び表示処理部45の処理内容は、既存技術を利用した汎用の処理内容であるので説明は省略する。ここでは、特に、行動・状態判定部43による各参加者の行動の判定手法と、表示情報決定部44による表示情報の決定手法とについて説明する。
(2) Specific Processing Contents of Each Functional Unit Next, specific processing contents of each functional unit of the above-mentioned conference support device 4 will be described. However, the processing contents of the image processing unit 40, the audio processing unit 41, the nod detection unit 42, and the display processing unit 45 are general-purpose processing contents using existing technology, so their description will be omitted. Here, in particular, the method of determining the behavior of each participant by the behavior/state determination unit 43 and the method of determining display information by the display information determination unit 44 will be described.

(2-1)行動・状態判定部の具体的な処理内容
行動・状態判定部43は、各参加者のセンシング情報管理テーブル51(図4)を利用して、上述のデータ分析タイミングごとに、現在の各参加者の行動をそれぞれ以下のようにして判定する。
(2-1) Specific Processing Contents of the Behavior/State Determination Unit The behavior/state determination unit 43 uses the sensing information management table 51 (Figure 4) of each participant to determine the current behavior of each participant at each of the above-mentioned data analysis timings as follows.

行動・状態判定部43は、まず、処理の対象となる参加者(対象参加者)のセンシング情報管理テーブル51における最新のレコードの発話欄51Dを参照する。そして行動・状態判定部43は、その発話欄51Dに格納されている発話フラグが「1」の場合には、現在の対象参加者の行動が発話中であると判定する。 The behavior/state determination unit 43 first refers to the speech column 51D of the latest record in the sensing information management table 51 of the participant to be processed (target participant). If the speech flag stored in the speech column 51D is "1", the behavior/state determination unit 43 determines that the current behavior of the target participant is speaking.

また行動・状態判定部43は、かかる発話フラグが「0」の場合には、現在、その対象参加者は非発話中であると判定する。そして対象参加者が非発話中であると判定した場合、行動・状態判定部43は、対象参加者以外の各参加者のセンシング情報管理テーブル51における最新のレコードの発話欄51Dを参照して、上述と同様にして対象参加者以外の各参加者が発話中であるか否かを判定する。そして行動・状態判定部43は、対象参加者以外のいずれかの参加者が発話中であると判定した場合には、対象参加者がその参加者(発話者)の話を真面目に聞いているか否かを判定する。 Furthermore, if the speech flag is "0", the behavior/state determination unit 43 determines that the target participant is currently not speaking. If it is determined that the target participant is not speaking, the behavior/state determination unit 43 refers to the speech column 51D of the latest record in the sensing information management table 51 for each participant other than the target participant, and determines whether each participant other than the target participant is speaking in the same manner as described above. If the behavior/state determination unit 43 determines that any participant other than the target participant is speaking, it determines whether the target participant is seriously listening to that participant (speaker).

本実施の形態では、対象参加者がその発話者が発話を開始してから1度でも頷いた場合や、発話者が発話を開始してから現在までに一定割合(例えば90%であり、以下、これを第1の割合と呼ぶ)以上の時間を発話者に顔を向けている場合(対面での会議参加者に限定)に、その対象参加者が発話者の話を真面目に聞いているものとする。 In this embodiment, if the target participant nods at least once since the speaker started speaking, or if the target participant has been facing the speaker for a certain percentage (e.g., 90%, hereafter referred to as the first percentage) or more since the speaker started speaking (limited to face-to-face conference participants), the target participant is deemed to be listening to the speaker attentively.

そこで行動・状態判定部43は、まず、その発話者のセンシング情報管理テーブル51を参照して、その発話者が発話を開始した時刻(以下、これを発話開始時刻と呼ぶ)を特定する。この発話開始時刻は、そのセンシング情報管理テーブル51の発話欄51Dに格納されている発話フラグの値が現時点まで連続して又はほぼ連続して「1」となり始めた最古の時刻である。 The behavior/state determination unit 43 first refers to the sensing information management table 51 of the speaker to identify the time when the speaker started speaking (hereinafter, this is called the speech start time). This speech start time is the earliest time at which the value of the speech flag stored in the speech column 51D of the sensing information management table 51 started to be "1" continuously or almost continuously up to the current time.

次に、行動・状態判定部43は、対象参加者のセンシング情報管理テーブル51を参照して、発話者の発話開始時刻のレコードから最新のレコードまでの各レコードのうちの少なくとも1つのレコードの頷き欄51Gに格納された頷きフラグが「1」に設定されているか否か、及び、かかる発話開始時刻のレコードから最新のレコードまでの各レコードのうちの向き欄51Cに発話者の発話者IDが格納されているレコードの割合が第1の割合以上のレコードであるか否かをそれぞれ判定する。 The behavior/state determination unit 43 then refers to the sensing information management table 51 of the target participant to determine whether the nod flag stored in the nod column 51G of at least one of the records from the record of the speaker's speech start time to the latest record is set to "1", and whether the proportion of records in which the speaker's speaker ID is stored in the direction column 51C of the records from the record of the speaker's speech start time to the latest record is equal to or greater than a first proportion.

そして行動・状態判定部43は、前者及び後者の少なくとも一方の判定で肯定結果が得られた場合には、その対象参加者の現在の行動が「非発話中かつ真面目に聞いている」であると判定する。なお、このような顔の向きによる対象参加者の行動・状態の判定は、対面での会議参加者に限定される。以下においても同様である。 If a positive result is obtained in at least one of the former and latter determinations, the behavior/state determination unit 43 determines that the target participant's current behavior is "not speaking and listening attentively." Note that such determination of the target participant's behavior/state based on the direction of the face is limited to face-to-face conference participants. The same applies below.

また行動・状態判定部43は、対象参加者以外のいずれかの参加者が発話中であると判定した場合、対象参加者がその発話者の発話内容に興味がない又は会議に関係しない作業(内職)を行っているか否かを判定する。 In addition, when the behavior/state determination unit 43 determines that any participant other than the target participant is speaking, it determines whether the target participant is not interested in the content of the speaker or is performing work unrelated to the meeting (side work).

本実施の形態では、対象参加者がその発話者が発話を開始してから1度も頷いていない場合や、発話者が発話を開始してから現在までに対象参加者が発話者に顔を向けている時間が一定割合(例えば20%であり、以下、これを第2の割合と呼ぶ)以下あった場合には、その対象参加者がその発話者の発話内容に興味がない又は会議に関係しない作業(内職)を行っている状態と判定するものとする。 In this embodiment, if the target participant has not nodded even once since the speaker started speaking, or if the target participant has been facing the speaker for a certain percentage or less (e.g., 20%, hereafter referred to as the second percentage) since the speaker started speaking, it is determined that the target participant is not interested in what the speaker is saying or is engaged in work unrelated to the meeting (side work).

そこで行動・状態判定部43は、対象参加者のセンシング情報管理テーブル51を参照して、発話者の発話開始時刻のレコードから最新のレコードまでの各レコードの頷き欄51Gにそれぞれ格納された頷きフラグがすべて「0」に設定されているか否か、及び、かかる発話開始時刻のレコードから最新のレコードまでの各レコードのうちの向き欄51Cに発話者の発話者IDが格納されているレコードの割合が第2の割合以下であるか否かをそれぞれ判定する。 The behavior/state determination unit 43 then refers to the sensing information management table 51 of the target participant to determine whether the nod flags stored in the nod column 51G of each record from the record of the speaker's speech start time to the latest record are all set to "0" and whether the proportion of records in which the speaker's speaker ID is stored in the direction column 51C of each record from the record of the speaker's speech start time to the latest record is less than or equal to a second proportion.

そして行動・状態判定部43は、前者及び後者の少なくとも一方の判定で肯定結果が得られた場合には、その対象参加者の現在の行動が「非発話中かつ興味がない又は内職中」であると判定する。 If a positive result is obtained in at least one of the former and latter judgments, the behavior/state judgment unit 43 judges that the target participant's current behavior is "not speaking and not interested, or doing side work."

行動・状態判定部43は、以上の行動判定処理をすべての参加者について実行することにより、各参加者のそのときの行動が「発話中」、「非発話中かつ真面目に聞いている」及び「非発話中かつ興味がない又は内職中」のいずれかに該当するか否かをそれぞれ判定し、判定結果を上述の判定行動・状態管理テーブル52(図5)にそれぞれ格納する。 The behavior/state determination unit 43 executes the above behavior determination process for all participants to determine whether the behavior of each participant at that time corresponds to any of "talking," "not talking and listening attentively," and "not talking and not interested or doing side work," and stores the determination results in the above-mentioned determined behavior/state management table 52 (Figure 5).

(2-2)表示情報決定部の具体的な処理内容
表示情報決定部44は、対象参加者の属性を参加者属性管理テーブル50(図3)から取得する。また表示情報決定部44は、行動・状態判定部43により判定されたその対象参加者の現在の行動(「発話中」、非発話中かつ真面目に聞いている」、「非発話中かつ興味なし/内職中」又は「-」)を判定行動・状態管理テーブル52(図5)から取得する。
(2-2) Specific Processing Contents of the Display Information Determination Unit The display information determination unit 44 acquires the attributes of the target participant from the participant attribute management table 50 (FIG. 3). The display information determination unit 44 also acquires the current behavior of the target participant determined by the behavior/state determination unit 43 ("talking", "not talking and listening seriously", "not talking and not interested/doing side work", or "-") from the determined behavior/state management table 52 (FIG. 5).

そして表示情報決定部44は、取得した対象参加者の属性と、その対象参加者の現在の行動・状態とに基づき、その対象参加者の属性に応じた表示ルール管理テーブル53を参照して、状況に応じてその対象参加者の表示装置14A,14Bに対応する表示情報を表示すべき表示項目があるか否かを判定する。 Then, based on the acquired attributes of the target participant and the current behavior and state of the target participant, the display information determination unit 44 refers to the display rule management table 53 according to the attributes of the target participant and determines whether there is a display item for which display information corresponding to the target participant's display device 14A, 14B should be displayed according to the situation.

また表示情報決定部44は、そのような表示項目がある場合には、表示要件管理テーブル54からその表示項目の表示要件を取得し、現在の状況がその表示要件を満たしているか否かを判定する。そして表示情報決定部44は、現在の状況がかかる表示要件を満たしていると判定した場合には、対象参加者の表示装置14A,14Bに表示する情報を以下のように決定し、決定した情報を表示処理部45に出力する。 If there is such a display item, the display information determination unit 44 obtains the display requirements of the display item from the display requirements management table 54 and determines whether the current situation satisfies the display requirements. If the display information determination unit 44 determines that the current situation satisfies the display requirements, it determines the information to be displayed on the display devices 14A and 14B of the target participant as follows, and outputs the determined information to the display processing unit 45.

(2-2-1)対象参加者が「ファシリ」で「発話中」の場合
対象参加者の属性が「ファシリ」であり、その対象参加者の現在の行動が「発話中」である場合、「ファシリ」用の表示ルール管理テーブル53A(図6)を参照すると、対応する表示項目は「同意者数1」だけである。
(2-2-1) When the target participant is a "facilitator" and is "speaking" When the attribute of the target participant is "facilitator" and the current action of the target participant is "speaking," when referring to the display rule management table 53A for "facilitator" (Figure 6), the only corresponding display item is "Number of consenters: 1."

この「同意者数1」は、上述のように「ファシリ」の発話中に、その「ファシリ」の発話内容に同意した他の参加者の人数を「ファシリ」の表示装置14A,14Bに表示するという内容の表示項目である。そして表示要件管理テーブル54(図10)を参照すると、対象参加者(「ファシリ」)が発話中であることが「同意者数1」の表示要件として規定されている。この場合、「ファシリ」は発話中であるため、表示情報決定部44は、現在の状況がこの「同意者数1」の表示要件を満たしていると判定する。 As described above, "Number of Agreeing Parties: 1" is a display item that displays the number of other participants who agree with what the "facilitator" is saying on the "facilitator's" display devices 14A, 14B while the "facilitator" is speaking. With reference to the display requirement management table 54 (Figure 10), it is stipulated that the display requirement for "Number of Agreeing Parties: 1" is that the target participant ("facilitator") is speaking. In this case, since the "facilitator" is speaking, the display information determination unit 44 determines that the current situation meets the display requirement for "Number of Agreeing Parties: 1".

そこで表示情報決定部44は、「ファシリ」用の表示情報管理テーブル53Aにおける「同意者数1」の表示情報列53AA(図6)の表示情報番号欄53AEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55(図11)から取得する。図11の例では、「同意者数」、つまり「ファシリ」の発話内容に同意している参加者の人数が表示情報であるため、表示情報決定部44は、「ファシリ」の発話内容に同意している他の参加者の人数をカウントする。 Therefore, the display information determination unit 44 reads the display information number stored in the display information number column 53AE of the display information column 53AA (Fig. 6) for "Number of Agreeees 1" in the display information management table 53A for the "facilitator," and obtains the display information assigned with that display information number from the display information management table 55 (Fig. 11). In the example of Fig. 11, the display information is the "number of agreeees," that is, the number of participants who agree with what the "facilitator" said, so the display information determination unit 44 counts the number of other participants who agree with what the "facilitator" said.

本実施の形態では、発話者が発話を開始してから現在までに他の参加者が1度でも頷いた場合、又は、他の参加者が発話者に顔を向けており、その表情が笑顔である場合に、当該他の参加者が発話者の発話内容に同意していると判断するものとする。 In this embodiment, if the other participants have nodded at least once since the speaker started speaking, or if the other participants are facing the speaker and have a smile on their face, it is determined that the other participants agree with what the speaker has said.

そこで表示情報決定部44は、「ファシリ」以外の参加者のセンシング情報管理テーブル51(図4)をそれぞれ参照して、表情欄51Bに格納された数値が「1」で、かつ向き欄51Cに「ファシリ」の参加者IDが格納されている他の参加者と、対応するセンシング情報管理テーブル51における「ファシリ」が発話を開始した時刻から現在の各レコードのうちの少なくとも1つのレコードの頷き欄51Gに格納された頷きフラグが「1」となっている他の参加者との合計人数を、「ファシリ」の発話内容に同意している他の参加者の人数としてカウントする。 The display information determination unit 44 then refers to the sensing information management table 51 (Figure 4) of each participant other than the "facilitator," and counts the total number of other participants who agree with the content of the "facilitator's" speech as the number of other participants who agree with the content of the "facilitator's" speech, including the other participants whose numerical value stored in the facial expression column 51B is "1" and whose participant ID of the "facilitator" is stored in the direction column 51C, and the other participants whose nod flag stored in the nod column 51G of at least one of the current records in the corresponding sensing information management table 51 is "1" from the time the "facilitator" started speaking.

そして表示情報決定部44は、かかるカウントのカウント結果を対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、このカウント結果を対象参加者の参加者IDと共に表示処理部45に出力する。 The display information determination unit 44 then determines the count result as the display information to be displayed on the display devices 14A and 14B of the target participant, and outputs this count result together with the participant ID of the target participant to the display processing unit 45.

(2-2-2)対象参加者が「ファシリ」で「非発話中」の場合
対象参加者の属性が「ファシリ」であり、その対象参加者の現在の行動・状態が「非発話中」(「非発話中かつ真面目に聞いている」又は「非発話中かつ興味なし/内職中」)である場合、「ファシリ」用の表示ルール管理テーブル53Aを参照すると、図6の例では「ファシリ」が非発話中の表示項目としては、「盛上り度」、「同意者数2」及び「発話希望者」の3つが規定されている。
(2-2-2) When the target participant is a "facilitator" and "not speaking" When the attribute of the target participant is "facilitator" and the current behavior/status of the target participant is "not speaking"("not speaking and listening attentively" or "not speaking and not interested/doing side work"), referring to the display rule management table 53A for the "facilitator," in the example of Figure 6, three items are specified as display items when the "facilitator" is not speaking: "Level of excitement,""Number of people who agree: 2," and "People wanting to speak."

また、これら「盛上り度」、「同意者数2」及び「発話希望者」の各表示項目は、表示優先度がいずれも「1」であるため、その表示要件を満たす表示項目については、すべて対象参加者の表示装置14A,14Bに対応する表示情報を表示する必要がある。そこで表示情報決定部44は、これら3つの各表示項目について、現在の状況がその表示項目の表示要件を満たしているか否かをそれぞれ判定し、表示要件を満たしている表示項目については表示情報を決定する。 In addition, the display items "Level of excitement," "Number of people who agree 2," and "People who wish to speak" all have a display priority of "1," so for all display items that satisfy the display requirements, it is necessary to display display information corresponding to the display devices 14A and 14B of the target participants. Therefore, for each of these three display items, the display information determination unit 44 determines whether the current situation satisfies the display requirements for that display item, and determines display information for display items that satisfy the display requirements.

例えば、「盛上り度」という表示項目は、上述のように対象参加者(ここでは「ファシリ」)以外の参加者の発話による会議の盛上り度を表示する表示項目である。そして表示要件管理テーブル54を参照すると、対象参加者以外の参加者が発話中であることが「盛上り度」の表示要件として規定されている。そこで表示情報決定部44は、現在の状況がこの表示要件を満たしているか否かを判定する。 For example, the display item "Excitement level" is a display item that displays the excitement level of the conference based on the speech of participants other than the target participant (here, the "facilitator") as described above. With reference to the display requirement management table 54, it is stipulated that a participant other than the target participant is speaking as a display requirement for "Excitement level." The display information determination unit 44 then determines whether or not the current situation satisfies this display requirement.

具体的に、表示情報決定部44は、対象参加者以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、最新のレコードの発話欄51Dに格納された発話フラグが「1」に設定された参加者が存在するか否かを確認する。そして表示情報決定部44は、そのような参加者が存在する場合には、現在の状況が「盛上り度」という表示項目の表示要件を満たしていると判定する。 Specifically, the display information determination unit 44 refers to the sensing information management table 51 of each participant other than the target participant, and checks whether there is a participant whose speech flag stored in the speech column 51D of the latest record is set to "1". If such a participant is present, the display information determination unit 44 determines that the current situation satisfies the display requirements for the display item "excitement level".

そして表示情報決定部44は、現在の状況が「盛上り度」という表示項目の表示要件を満たしているという判定結果が得られた場合、「ファシリ」用の表示ルール管理テーブル53Aにおける「盛上り度」の表示情報列53ABAの表示情報番号欄53AEに格納された表示情報番号を読み出し、その表示情報番号が付与された情報を表示情報管理テーブル55から取得する。図11では、「盛上り度」が表示情報であるため、表示情報決定部44は、直前のデータ分析期間における現在の会議の盛上り度を算出する。 When the display information determination unit 44 determines that the current situation meets the display requirements for the display item "excitement level," it reads the display information number stored in the display information number column 53AE of the display information column 53ABA for "excitement level" in the display rule management table 53A for the "facilitator," and obtains the information assigned with that display information number from the display information management table 55. In FIG. 11, since "excitement level" is the display information, the display information determination unit 44 calculates the excitement level of the current meeting in the immediately preceding data analysis period.

本実施の形態では、直前のデータ分析期間におけるすべての参加者の発話音量の合計と、そのデータ分析期間における表情が笑顔であった参加者の人数と、そのデータ分析期間に頷いた参加者の人数とをそれぞれ正規化して合算したものを、そのデータ分析期間における盛上り度とする。 In this embodiment, the degree of excitement during a data analysis period is calculated by normalizing and adding together the total speech volume of all participants during the immediately preceding data analysis period, the number of participants who had a smiling expression during that data analysis period, and the number of participants who nodded during that data analysis period.

そこで表示情報決定部44は、「ファシリ」以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、これらセンシング情報管理テーブル51の最新のレコードの音量欄51Eにそれぞれ格納された音量をすべて読み出して合算して正規化する。また表示情報決定部44は、「ファシリ」以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されている参加者の人数を正規化する。さらに表示情報決定部44は、「ファシリ」以外の各参加者のうち、頷き欄51Gの頷きフラグが「1」に設定されている参加者の人数を正規化する。そして表示情報決定部44は、これらの正規化により得られた各値の合計値をそのデータ分析期間における盛上り度として算出する。 The display information determination unit 44 then refers to the sensing information management table 51 of each participant other than the "facilitator," reads all the volumes stored in the volume column 51E of the latest records in these sensing information management tables 51, adds them up, and normalizes them. The display information determination unit 44 also normalizes the number of participants other than the "facilitator" who have a "1" stored in the facial expression column 51B of the latest record in the corresponding sensing information management table 51. Furthermore, the display information determination unit 44 normalizes the number of participants other than the "facilitator" who have a nod flag set to "1" in the nod column 51G. The display information determination unit 44 then calculates the sum of the values obtained by these normalizations as the excitement level for that data analysis period.

そして表示情報決定部44は、このようにして算出した盛上り度を対象参加者(「ファシリ」)の表示装置14A,14Bに表示すべき表示情報に決定し、この盛上り度を対象参加者の参加者IDと共に表示処理部45に出力する。 The display information determination unit 44 then determines the excitement level calculated in this manner as the display information to be displayed on the display devices 14A and 14B of the target participant (the "facilitator"), and outputs this excitement level together with the participant ID of the target participant to the display processing unit 45.

また「同意者数2」という表示項目については、上述のように「ファシリ」以外の参加者の発話内容に同意した他の参加者の人数を表示するという内容の表示項目である。そして表示要件管理テーブル54を参照すると、「ファシリ」以外の参加者が発話していることが「同意者数2」の表示要件として規定されている。そこで表示情報決定部44は、現在の状況がこの表示要件を満たしているか否かを判定する。 The display item "Number of Agreeing Parties 2" is a display item that displays the number of other participants who agree with the content of the speech of a participant other than the "facilitator," as described above. With reference to the display requirement management table 54, it is stipulated that a participant other than the "facilitator" is speaking as a display requirement for "Number of Agreeing Parties 2." The display information determination unit 44 then determines whether or not the current situation satisfies this display requirement.

具体的に、表示情報決定部44は、「ファシリ」以外の各参加者のセンシング情報管理テーブルを51それぞれ参照して、最新のレコードの発話欄51Dに格納された発話フラグが「1」に設定された参加者が存在するか否かを確認する。そして表示情報決定部44は、そのような参加者が存在する場合には、現在の状況が「同意者数2」という表示項目の表示要件を満たしていると判定する。 Specifically, the display information determination unit 44 refers to the sensing information management table 51 of each participant other than the "facilitator" and checks whether there is a participant whose speech flag stored in the speech column 51D of the latest record is set to "1". If such a participant is present, the display information determination unit 44 determines that the current situation meets the display requirements for the display item "Number of consenters: 2".

そして表示情報決定部44は、現在の状況が「同意者数2」という表示項目の表示要件を満たしているという判定結果を得た場合、「ファシリ」用の表示情報管理テーブル53Aにおける「同意者数2」の表示情報列53ABBの表示情報番号欄53AEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。図11の例では、「同意者数」、つまりそのときの発話者の発話内容に同意している他の参加者の人数が表示情報である。そこで表示情報決定部44は、直前のデータ分析期間において、そのときの発話者の発話内容に同意している参加者の人数をカウントする。 When the display information determination unit 44 determines that the current situation meets the display requirements for the display item "Number of Agreeing Parties 2," it reads the display information number stored in the display information number column 53AE of the display information column 53ABB for "Number of Agreeing Parties 2" in the display information management table 53A for the "facilitator," and obtains the display information assigned with that display information number from the display information management table 55. In the example of FIG. 11, the display information is "Number of Agreeing Parties," that is, the number of other participants who agree with the content of the speaker at that time. Therefore, the display information determination unit 44 counts the number of participants who agree with the content of the speaker at that time during the immediately preceding data analysis period.

具体的に、表示情報決定部44は、発話者以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、表情欄51Bに格納された数値が「1」で、かつ向き欄51Cにそのときの発話者の参加者IDが格納されている参加者と、対応するセンシング情報管理テーブル51におけるそのときの発話者が発話を開始した時刻から現在の各レコードのうちの少なくとも1つのレコードの頷き欄51Gに格納された頷きフラグが「1」となっている参加者との合計人数を、そのときの発話者の発話内容に同意している他の参加者の人数としてカウントする。 Specifically, the display information determination unit 44 refers to the sensing information management table 51 of each participant other than the speaker, and counts the total number of participants whose numerical value stored in the facial expression column 51B is "1" and whose participant ID of the current speaker is stored in the orientation column 51C, and whose nod flag stored in the nod column 51G of at least one record of the corresponding sensing information management table 51 from the time the current speaker started speaking, as the number of other participants who agree with the content of the current speaker's speech.

そして表示情報決定部44は、かかるカウントのカウント結果を、対象参加者(「ファシリ」)の表示装置14A,14Bに表示すべき表示情報に決定し、このカウント結果を対象参加者の参加者IDと共に表示処理部45に出力する。 The display information determination unit 44 then determines the count result as the display information to be displayed on the display device 14A, 14B of the target participant ("facilitator"), and outputs this count result together with the participant ID of the target participant to the display processing unit 45.

さらに「発言希望者有」という表示項目は、上述のように発言したそうな表情の参加者がいる場合のその参加者の参加者IDを表示するという表示項目である。そして表示要件管理テーブル54を参照すると、「ファシリ」以外の参加者が発話中であること、及び、発言したそうな表情の参加者が存在することが「発言希望者有」の表示要件として規定されている。そこで表示情報決定部44は、現在の状況がこの表示要件を満たしているか否かを判定する。 The display item "Someone wants to speak" is a display item that displays the participant ID of a participant who looks like they want to speak, as described above. With reference to the display requirement management table 54, the display requirements for "Someone wants to speak" are that a participant other than the "facilitator" is speaking, and that there is a participant who looks like they want to speak. The display information determination unit 44 then determines whether or not the current situation meets these display requirements.

具体的に、表示情報決定部44は、「同意者数2」と同様にして「ファシリ」以外の参加者が発話中であるか否かを判定する。また表示情報決定部44は、この判定で肯定結果が得られた場合には、「ファシリ」及び現在の発話者以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに格納された数値が「2」である参加者が存在するか否かを判定する。そして表示情報決定部44は、そのような参加者が存在する場合(発言したそうな参加者が存在する場合)には、現在の状況が「発言希望者有」という表示項目の表示要件を満たしていると判定する。 Specifically, the display information determination unit 44 determines whether any participant other than the "facilitator" is speaking, in the same way as for "Number of consenters: 2". If the determination returns a positive result, the display information determination unit 44 refers to the sensing information management table 51 of each participant other than the "facilitator" and the current speaker, and determines whether there is a participant whose most recent record in the corresponding sensing information management table 51 has a numerical value of "2" stored in the facial expression column 51B. If such a participant exists (if there is a participant who appears to want to speak), the display information determination unit 44 determines that the current situation meets the display requirements for the display item "Someone wishes to speak".

そして表示情報決定部44は、「発言希望者有」という表示項目の表示要件を満たしているという判定結果が得られた場合、「ファシリ」用の表示情報管理テーブル53Aにおける「発話希望者有」の表示情報列53ABCの表示情報番号欄53AEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。図11では、発言したそうな表情の参加者の参加者IDが表示情報であるため、表示情報決定部44は、その参加者の参加者IDを取得する。 When the display information determination unit 44 obtains a determination result that the display requirements for the display item "Someone wants to speak" are met, it reads out the display information number stored in the display information number column 53AE of the display information column 53ABC for "Someone wants to speak" in the display information management table 53A for the "facilitator," and obtains the display information assigned with that display information number from the display information management table 55. In FIG. 11, the display information is the participant ID of the participant who looks like he or she wants to speak, so the display information determination unit 44 obtains the participant ID of that participant.

そして表示情報決定部44は、取得した参加者IDを対象参加者の表示装置14A,14Bに表示すべき表示情報として決定し、この参加者IDを対象参加者の参加者IDと共に表示処理部45に出力する。 Then, the display information determination unit 44 determines the acquired participant ID as the display information to be displayed on the display devices 14A and 14B of the target participant, and outputs this participant ID together with the participant ID of the target participant to the display processing unit 45.

(2-2-3)対象参加者が「上司」で「発話中」の場合
一方、対象参加者の属性が「上司」であり、その対象参加者の現在の行動が「発話中」である場合、「上司」用の表示ルール管理テーブル53Bを参照すると、対応する表示項目は「同意者数多1」及び「発話時間」の2つである。
(2-2-3) When the target participant is a “Superior” and is “Speaking” On the other hand, when the attribute of the target participant is “Superior” and the current behavior of the target participant is “Speaking”, when referring to the display rule management table 53B for “Superior”, the corresponding display items are “Number of consenters: 1” and “Speaking time”.

また、これら「同意者数多1」及び「発話時間」の各表示項目は、表示優先度がいずれも「1」であるため、その表示要件を満たす表示項目については、すべて対象参加者の表示装置14A,14Bに対応する表示情報を表示する必要がある。そこで表示情報決定部44は、これら2つの各表示項目について、現在の状況がその表示項目の表示要件を満たしているか否かをそれぞれ判定し、表示要件を満たしている表示項目については表示情報を決定する。 In addition, since the display priority of each of these display items "Number of consenters 1" and "Speech duration" is "1", it is necessary to display the display information corresponding to the display devices 14A and 14B of the target participants for all display items that satisfy the display requirements. Therefore, the display information determination unit 44 determines whether or not the current situation satisfies the display requirements for each of these two display items, and determines the display information for display items that satisfy the display requirements.

例えば、「同意者数多1」という表示項目は、上述のようにその対象参加者(ここでは「上司」)が発話中にその対象参加者の発話内容に同意した他の参加者の人数が多数である場合にその人数を表示する表示項目である。そして表示要件管理テーブル54を参照すると、対象参加者の発話内容に同意した他の参加者が多数であることが「同意者数多1」の表示要件として規定されている。 For example, the display item "Many Agreeing Participants 1" is a display item that displays the number of other participants who agreed with the content of the target participant (here, the "boss") while the target participant was speaking, if that number is large, as described above. And, referring to the display requirement management table 54, it is specified as a display requirement for "Many Agreeing Participants 1" that there is a large number of other participants who agreed with the content of the target participant's speech.

本実施の形態では、「同意者数多1」については、そのデータ分析期間における表情が笑顔であった参加者の人数と、そのデータ分析期間において対象参加者を見ていた(顔を向けていた)参加者の人数と、そのデータ分析期間に頷いた参加者の人数とをそれぞれ正規化して合算した値が予め設定された閾値(以下、これを第1の同意者数閾値と呼ぶ)以上である場合に、対象参加者の発話内容に同意した他の参加者が多数であるものとする。 In this embodiment, for "large number of agreeers 1", if the normalized sum of the number of participants who had a smiling expression during the data analysis period, the number of participants who looked at (turned their faces towards) the target participant during the data analysis period, and the number of participants who nodded during the data analysis period is equal to or greater than a preset threshold (hereinafter referred to as the first number of agreeers threshold), then it is considered that there are a large number of other participants who agree with the content of the target participant's speech.

そこで表示情報決定部44は、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されている参加者の人数を正規化する。また表示情報決定部44は、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの向き欄51Cに対象参加者の参加者IDが格納されている参加者の人数を正規化する。さらに表示情報決定部44は、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの頷き欄51Gの頷きフラグが「1」に設定されている参加者の人数を正規化する。 The display information determination unit 44 then normalizes the number of participants other than the target participant who have "1" stored in the facial expression column 51B of the latest record in the corresponding sensing information management table 51. The display information determination unit 44 also normalizes the number of participants other than the target participant who have the participant ID of the target participant stored in the orientation column 51C of the latest record in the corresponding sensing information management table 51. Furthermore, the display information determination unit 44 normalizes the number of participants other than the target participant who have the nod flag set to "1" in the nod column 51G of the latest record in the corresponding sensing information management table 51.

そして表示情報決定部44は、これらの正規化により得られた各値の合計値が第1の同意者数閾値以上であるか否かを判定する。そして表示情報決定部44は、かかる合計値が第1の同意者数閾値以上である場合には、現在の状況が「同意者数多1」という表示項目の表示要件を満たしていると判定する。 The display information determination unit 44 then determines whether the sum of the values obtained by these normalizations is equal to or greater than the first consenter number threshold. If the sum is equal to or greater than the first consenter number threshold, the display information determination unit 44 determines that the current situation satisfies the display requirements for the display item "Number of consenters: 1".

そして表示情報決定部44は、「同意者数多1」という表示項目の表示要件を満たしているという判定結果が得られた場合、「上司」用の表示情報管理テーブル53Bにおける「同意者数多1」の表示情報列53BAAの表示情報番号欄53BEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。図11では、「同意者数」が表示情報であるため、表示情報決定部44は、直前のデータ分析期間において、そのときの発話者の発話内容に同意している参加者の人数をカウントする。 When the display information determination unit 44 obtains a determination result that the display requirements for the display item "Many agreeers 1" are met, it reads out the display information number stored in the display information number column 53BE of the display information column 53BAA for "Many agreeers 1" in the display information management table 53B for "Superior", and obtains the display information assigned with that display information number from the display information management table 55. In FIG. 11, since "Number of agreeers" is the display information, the display information determination unit 44 counts the number of participants who agree with the content of the speaker at that time during the immediately preceding data analysis period.

具体的に、表示情報決定部44は、まず、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されている参加者の人数と、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの向き欄51Cに対象参加者の参加者IDが格納されている参加者の人数と、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの頷き欄51Gの頷きフラグが「1」に設定されている参加者の人数との合計値を求める。 Specifically, the display information determination unit 44 first calculates the total number of participants other than the target participant who have "1" stored in the facial expression column 51B of the latest record in the corresponding sensing information management table 51, the number of participants other than the target participant who have the participant ID of the target participant stored in the orientation column 51C of the latest record in the corresponding sensing information management table 51, and the number of participants other than the target participant who have the nod flag set to "1" in the nod column 51G of the latest record in the corresponding sensing information management table 51.

次に、表示情報決定部44は、この合計値から重複してカウントされている参加者の人数を減算する。「重複してカウントされている参加者」としては、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されると共に、そのレコードの向き欄51Cに対象参加者の参加者IDが格納され、かつそのレコードの頷き欄51Gの頷きフラグが「0」に設定されている参加者がこれに該当する。また、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されると共に、そのレコードの向き欄51Cに対象参加者の参加者IDが格納されておらず、かつそのレコードの頷き欄51Gの頷きフラグが「1」に設定されている参加者も該当する。さらに、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「0」又は「1」が格納されると共に、そのレコードの向き欄51Cに対象参加者の参加者IDが格納され、かつそのレコードの頷き欄51Gの頷きフラグが「1」に設定されている参加者も該当する。さらには、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されると共に、そのレコードの向き欄51Cに対象参加者の参加者IDが格納され、かつそのレコードの頷き欄51Gの頷きフラグが「1」に設定されている参加者も該当する。 Next, the display information determination unit 44 subtracts the number of participants who are counted in duplicate from this total value. "Participants who are counted in duplicate" are participants who have "1" stored in the facial expression column 51B of the latest record in the corresponding sensing information management table 51, the participant ID of the target participant is stored in the orientation column 51C of the record, and the nod flag in the nod column 51G of the record set to "0". Also, participants who have "1" stored in the facial expression column 51B of the latest record in the corresponding sensing information management table 51, the participant ID of the target participant is not stored in the orientation column 51C of the record, and the nod flag in the nod column 51G of the record set to "1" are also included. Furthermore, participants who have "0" or "1" stored in the facial expression column 51B of the latest record in the corresponding sensing information management table 51, the participant ID of the target participant is stored in the orientation column 51C of the record, and the nod flag in the nod column 51G of the record set to "1" are also included. Furthermore, this also applies to participants for whom "1" is stored in the facial expression column 51B of the latest record in the corresponding sensing information management table 51, the participant ID of the target participant is stored in the orientation column 51C of that record, and the nod flag in the nod column 51G of that record is set to "1."

そして表示情報決定部44は、このようにして求めた対象参加者の発話内容に同意した他の参加者の人数を対象参加者(「上司」)の表示装置14A,14Bに表示すべき表示情報に決定し、この人数を対象参加者の参加者IDと共に表示処理部45に出力する。 The display information determination unit 44 then determines the number of other participants who agree with the speech content of the target participant thus obtained as the display information to be displayed on the display devices 14A and 14B of the target participant (the "boss"), and outputs this number to the display processing unit 45 together with the participant ID of the target participant.

また「発話時間」という表示項目は、上述のように対象参加者の発話時間をその対象参加者の表示装置14A,14Bに表示するという内容の表示項目である。そして表示要件管理テーブル54を参照すると、その参加者が発話中であることが「発話時間」の表示要件として規定されている。このため対象参加者が発話中の場合、直ちに「発話時間」という表示項目の表示要件を満たすと判定される。 The display item "Speech Time" is a display item whose content is to display the speaking time of the target participant on the display devices 14A and 14B of the target participant, as described above. And when referring to the display requirement management table 54, it is stipulated that the display requirement for "Speech Time" is that the participant is speaking. Therefore, when the target participant is speaking, it is immediately determined that the display requirement for the display item "Speech Time" is met.

そして表示情報決定部44は、「発話時間」という表示項目の表示要件を満たしているという判定結果が得られた場合、「上司」用の表示情報管理テーブル53Bにおける「発話時間」の表示情報列53BACの表示情報番号欄53BEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。 When the display information determination unit 44 obtains a judgment result that the display requirements for the display item "speech time" are met, it reads out the display information number stored in the display information number column 53BE of the display information column 53BAC for "speech time" in the display information management table 53B for "boss," and obtains the display information to which the display information number is assigned from the display information management table 55.

図11の例では、その対象参加者が発話を開始してから現在までの経過時間が表示情報であるため、表示情報決定部44は、対象参加者のセンシング情報管理テーブル51における最新のレコードの発話時間欄51Fに格納されている発話時間を取得する。 In the example of Figure 11, the display information is the elapsed time from when the target participant started speaking to the present, so the display information determination unit 44 obtains the speech time stored in the speech time column 51F of the latest record in the sensing information management table 51 for the target participant.

そして表示情報決定部44は、取得した発話時間をその対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、この発話時間をその対象参加者の参加者IDと共に表示処理部に出力する。 Then, the display information determination unit 44 determines the acquired speech time as the display information to be displayed on the display devices 14A and 14B of the target participant, and outputs this speech time together with the participant ID of the target participant to the display processing unit.

(2-2-4)対象参加者が「上司」で「非発話中かつ真面目に聞いている」の場合
対象参加者の属性が「上司」であり、その対象参加者の現在の行動が「非発話中かつ真面目に聞いている」である場合、「上司」用の表示ルール管理テーブル53Bを参照すると、対応する表示項目は「口出し」だけである。
(2-2-4) When the target participant is a “superior” and is “not speaking and listening attentively” When the attribute of the target participant is “superior” and the current behavior of the target participant is “not speaking and listening attentively”, when referring to the display rule management table 53B for “superior”, the only corresponding display item is “interfering”.

「口出し」という表示項目は、上述のようにその対象参加者が発言したそうな表情のときに、他の参加者の発話が終了したタイミングでその対象参加者に対して発話を促すメッセージを表示する表示項目である。そして表示要件管理テーブル54を参照すると、その対象参加者が発言したそうな表情であること、及び、対象参加者以外の参加者の発話が終了したことが「口出し」の表示要件として規定されている。そこで表示情報決定部44は、現在の状況がこの表示要件を満たしているか否かを判定する。 The "Interjection" display item is a display item that displays a message encouraging the target participant to speak when the other participants have finished speaking, when the target participant looks as if they want to speak, as described above. With reference to the display requirement management table 54, the display requirements for "Interjection" are that the target participant looks as if they want to speak, and that the participants other than the target participant have finished speaking. The display information determination unit 44 then determines whether the current situation meets these display requirements.

具体的に、表示情報決定部44は、その対象参加者のセンシング情報管理テーブル51を参照して、最新のレコードの表情欄51Bに「2」が格納されているか否かを判定する。さらに表示情報決定部44は、その対象参加者以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、最新のレコードの1つ前のレコードの発話欄51Dに格納された発話フラグが「1」で、かつ最新のレコードの発話欄51Dに格納された発話フラグが「0」に設定された参加者が存在するか否かを判定する。そして表示情報決定部44は、これら2つの判定の双方で肯定結果を得た場合には、現在の状況が「口出し」という表示項目の表示要件を満たしていると判定する。 Specifically, the display information determination unit 44 refers to the sensing information management table 51 of the target participant and determines whether or not "2" is stored in the facial expression column 51B of the latest record. Furthermore, the display information determination unit 44 refers to the sensing information management table 51 of each participant other than the target participant and determines whether or not there is a participant for whom the speech flag stored in the speech column 51D of the record immediately before the latest record is set to "1" and the speech flag stored in the speech column 51D of the latest record is set to "0". If the display information determination unit 44 obtains positive results from both of these two determinations, it determines that the current situation satisfies the display requirements for the display item "Speaking out".

そして表示情報決定部44は、現在の状況が「口出し」という表示項目の表示要件を満たしているという判定結果が得られた場合、「上司」用の表示情報管理テーブル53Bにおける「口出し」の表示情報列53BBAの表示情報番号欄53BEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。 When the display information determination unit 44 determines that the current situation meets the display requirements for the display item "Interference," it reads out the display information number stored in the display information number column 53BE of the display information column 53BBA for "Interference" in the display information management table 53B for "Superior," and obtains the display information to which the display information number is assigned from the display information management table 55.

図11の例では、「今が発言のチャンス!」というメッセージが表示情報であるため、表示情報決定部44は、このメッセージをその対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、このメッセージのテキストデータをその対象参加者の参加者IDと共に表示処理部45に出力する。 In the example of FIG. 11, the message "Now's your chance to speak!" is the display information, so the display information determination unit 44 determines this message as the display information to be displayed on the display devices 14A and 14B of the target participant, and outputs the text data of this message together with the participant ID of the target participant to the display processing unit 45.

(2-2-5)対象参加者が「上司」で「非発話中かつ興味なし/内職中」の場合
対象参加者の属性が「上司」であり、その対象参加者の行動が「非発話中かつ興味なし/内職中」である場合、「上司」用の表示ルール管理テーブル53Bを参照すると、表示項目はない。このため「非発話中かつ興味なし/内職中」の場合には、対象参加者(「上司」)の行動に関わりなく、その対象参加者の表示装置14A,14Bには何らの情報も表示されない。これは、対象参加者が「上司」という属性(立場)であることを考慮したものである。
(2-2-5) When the target participant is a "boss" and "not speaking and not interested/doing side work" When the attribute of the target participant is "boss" and the behavior of the target participant is "not speaking and not interested/doing side work", there is no display item when referring to the display rule management table 53B for "boss". Therefore, in the case of "not speaking and not interested/doing side work", no information is displayed on the display devices 14A and 14B of the target participant regardless of the behavior of the target participant ("boss"). This is because the target participant has the attribute (position) of "boss".

(2-2-6)対象参加者が「部下」で「発話中」の場合
他方、対象参加者の属性が「部下」であり、その対象参加者の現在の行動が「発話中」である場合、「部下」用の表示ルール管理テーブル53Cを参照すると、対応する表示項目は「同意者数多2」及び「後押し」の2つである。
(2-2-6) When the target participant is a “subordinate” and is “speaking” On the other hand, when the attribute of the target participant is “subordinate” and the current behavior of the target participant is “speaking”, when referring to the display rule management table 53C for “subordinate”, the corresponding display items are “Many people who agree: 2” and “Support”.

また、これら「同意者数多2」及び「後押し」の各表示項目は、表示優先度がいずれも「1」であるため、その表示要件を満たす表示項目については、すべて対象参加者の表示装置14A,14Bに対応する表示情報を表示する必要がある。そこで表示情報決定部44は、これら2つの各表示項目について、現在の状況がその表示項目の表示要件を満たしているか否かをそれぞれ判定し、表示要件を満たしている表示項目については表示情報を決定する。 In addition, since the display priority of each of these display items "Many Agreeees 2" and "Support" is "1", it is necessary to display the display information corresponding to the display devices 14A and 14B of the target participants for all display items that satisfy the display requirements. Therefore, the display information determination unit 44 determines whether or not the current situation for each of these two display items satisfies the display requirements for that display item, and determines the display information for display items that satisfy the display requirements.

例えば、「同意者数多2」という表示項目は、上述のようにその対象参加者(ここでは「部下」)が発話中にその対象参加者の発話内容に同意した他の参加者の人数が多数である場合にその人数を表示する表示項目である。そして表示要件管理テーブル54を参照すると、その対象参加者以外で対象参加者の発話内容に同意した他の参加者が多数であることが「同意者数多2」の表示要件として規定されている。 For example, the display item "Many Agreeing Parties 2" is a display item that displays the number of other participants who agreed with the content of the target participant (here, "subordinates") while the target participant was speaking, if that number is large, as described above. And when referring to the display requirement management table 54, it is stipulated as a display requirement for "Many Agreeing Parties 2" that there is a large number of other participants other than the target participant who agreed with the content of the target participant's speech.

本実施の形態では、「同意者数多2」については、そのデータ分析期間における表情が笑顔であった参加者の人数と、そのデータ分析期間において対象参加者を見ていた(顔を向けていた)参加者の人数と、そのデータ分析期間に頷いた参加者の人数とをそれぞれ正規化して合算した値が予め設定された閾値(第1の同意者数閾値よりも小さい値であり、以下、これを第2の同意者数閾値と呼ぶ)以上である場合に、対象参加者の発話内容に同意した他の参加者が多数であるものとする。なお、第2の同意者数閾値を第1の同意者数閾値よりも小さくしたのは、「部下」という属性の参加者に自信を付けさせるためである。 In this embodiment, for "large number of agreeers 2", if the sum of the number of participants who had a smiling expression during the data analysis period, the number of participants who looked at (turned their faces towards) the target participant during the data analysis period, and the number of participants who nodded during the data analysis period is normalized and equal to or exceeds a preset threshold (a value smaller than the first number of agreeers threshold, hereinafter referred to as the second number of agreeers threshold), it is deemed that there are many other participants who agree with the content of the target participant's utterance. Note that the reason why the second number of agreeers threshold is smaller than the first number of agreeers threshold is to give confidence to participants with the attribute of "subordinate".

そこで表示情報決定部44は、「同意者数多1」の場合と同様にして、現在の状況が「同意者数多1」という表示項目の表示要件を満たしているか否かを判定する。そして表示情報決定部44は、「同意者数多2」という表示項目の表示要件を満たしているという判定結果が得られた場合、「同意者数多1」と同様にして、対象参加者の発話内容に同意した他の参加者の人数をカウントする。 Then, the display information determination unit 44 judges whether or not the current situation satisfies the display requirements for the display item "Many Agreeing People 1", in the same way as in the case of "Many Agreeing People 1". Then, if the display information determination unit 44 obtains a judgment result that the display requirements for the display item "Many Agreeing People 2" are satisfied, it counts the number of other participants who agree with the content of the target participant's speech, in the same way as in "Many Agreeing People 1".

そして表示情報決定部44は、このようにして求めた対象参加者の発話内容に同意した他の参加者の人数を対象参加者(「部下」)の表示装置14A,14Bに表示すべき表示情報に決定し、この人数を対象参加者の参加者IDと共に表示処理部45に出力する。 The display information determination unit 44 then determines the number of other participants who agree with the speech content of the target participant thus obtained as the display information to be displayed on the display devices 14A and 14B of the target participant ("subordinate"), and outputs this number to the display processing unit 45 together with the participant ID of the target participant.

また「後押し」という表示項目は、上述のように対象参加者が発話中である場合に、発話を後押しするようなメッセージをその参加者の表示装置14A,14Bに表示するという内容の表示項目である。そして表示要件管理テーブル54を参照すると、その参加者が発話中であることが「後押し」の表示要件として規定されている。このため対象参加者が発話中の場合、直ちに「後押し」という表示項目の表示要件を満たすと判定される。 The display item "Boost" is a display item whose content is to display a message encouraging the target participant to speak on the display devices 14A, 14B of the target participant when the target participant is speaking, as described above. When the display requirement management table 54 is referenced, it is stipulated that the display requirement for "Boost" is that the target participant is speaking. Therefore, when the target participant is speaking, it is immediately determined that the display requirement for the display item "Boost" is met.

そして表示情報決定部44は、「後押し」という表示項目の表示要件を満たしているという判定結果が得られた場合、「部下」用の表示情報管理テーブル53Cにおける「後押し」の表示情報列53CABの表示情報番号欄53CEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。 If the display information determination unit 44 obtains a judgment result that the display requirements for the display item "support" are met, it reads out the display information number stored in the display information number column 53CE of the display information column 53CAB for "support" in the display information management table 53C for "subordinates," and obtains the display information to which the display information number is assigned from the display information management table 55.

図11の例では、「いいね!」というメッセージが表示情報であるため、表示情報決定部44は、このメッセージをその対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、そのテキストデータをその対象参加者の参加者IDと共に表示処理部45に出力する。 In the example of FIG. 11, the message "Like!" is the display information, so the display information determination unit 44 determines this message as the display information to be displayed on the display devices 14A and 14B of the target participant, and outputs the text data to the display processing unit 45 together with the participant ID of the target participant.

(2-2-7)対象参加者が「部下」で「非発話中かつ真面目に聞いている」の場合
対象参加者の属性が「部下」であり、その対象参加者の現在の行動が「非発話中かつ真面目に聞いている」である場合、「部下」用の表示ルール管理テーブル53Cを参照すると、対応する表示項目は「口出し」及び「影響・効果」という2つの表示項目である。
(2-2-7) When the target participant is a “subordinate” and is “not speaking and listening attentively” When the attribute of the target participant is “subordinate” and the current behavior of the target participant is “not speaking and listening attentively”, when referring to the display rule management table 53C for “subordinate”, the corresponding display items are two display items, “interfering” and “influence/effect”.

そして「非発話中かつ真面目に聞いている」という表示項目において、「口出し」という表示項目は表示優先度が「1」に設定され、「興味なし/内職中」という表示項目は表示優先度が「2」に設定されている。 And in the display item "not speaking and listening attentively," the display priority of the display item "interfering" is set to "1," and the display priority of the display item "not interested/doing side work" is set to "2."

そこで表示情報決定部44は、まず、「口出し」という表示項目について、現在の状況がその表示項目の表示要件を満たしているか否かを判定し、表示要件を満たしている場合には、その表示項目の表示情報を決定する。 The display information determination unit 44 therefore first determines whether the current situation satisfies the display requirements for the display item "opinion," and if the display requirements are met, determines the display information for that display item.

具体的に、表示情報決定部44は、「上司」の「口出し」の場合と同様にして、対象参加者について、現在の状況が「口出し」の表示要件を満たすか否かを判定し、現在の状況が「口出し」という表示項目の表示要件を満たしていると判定した場合には、対象参加者の表示装置14A,14Bに表示すべき表示情報を「今が発言のチャンス!」というメッセージに決定し、そのテキストデータをその対象参加者の参加者IDと共に表示処理部45に出力する。 Specifically, the display information determination unit 44 determines whether the current situation of the target participant satisfies the display requirements for "interfering" in the same way as in the case of "interfering" by the "boss," and if it determines that the current situation satisfies the display requirements for the display item "interfering," determines that the display information to be displayed on the display devices 14A and 14B of the target participant is the message "Now's your chance to speak up!" and outputs the text data to the display processing unit 45 together with the participant ID of the target participant.

一方、表示情報決定部44は、現在の状況が「口出し」の表示項目の表示要件を満たさないと判定した場合には、現在の状況が「影響・効果」という表示項目の表示要件を満たしているか否かを判定する。そして表示情報決定部44は、表示要件を満たしていると判定した場合には、その表示項目に対する表示情報を決定する。 On the other hand, if the display information determination unit 44 determines that the current situation does not satisfy the display requirements for the display item "opinion," it determines whether or not the current situation satisfies the display requirements for the display item "impact/effect." If the display information determination unit 44 determines that the display requirements are satisfied, it determines the display information for that display item.

例えば、「影響・効果」という表示項目は、上述のように対象参加者が口火を切った話題についての議論が継続している間、その話題について発話を行った参加者の人数と、その話題の現在までの継続時間とを対象参加者の表示装置に表示するという内容の表示項目である。そして表示要件管理テーブル54を参照すると、対象参加者が口火を切った話題が現在も継続していることが「影響・効果」の表示要件として規定されている。 For example, the display item "Influence/Effect" is a display item that displays, on the display device of the target participant, the number of participants who have spoken on a topic initiated by the target participant and the current duration of the topic while the discussion on that topic continues, as described above. And when referring to the display requirement management table 54, it is stipulated as a display requirement for "Influence/Effect" that the topic initiated by the target participant is still ongoing.

ここで、会議では、通常、ある話題について1又は複数の参加者が連続的に発話する「議論」が一定以上時間行われ、その後、一定の静寂期間(いずれの参加者も発話を行っていない期間)を経て次の話題についての「議論」が開始される。従って、各参加者のセンシング情報管理テーブル51を参照して、直近の一定時間以上の静寂期間(いずれの参加者も発話を行っていない期間)を検出し、その静寂期間の最初に対象参加者が発話を行っている場合に、その対象参加者が口火を切った話題が現在も継続して議論されていると判断することができる。 In a conference, a "discussion" in which one or more participants speak continuously about a certain topic is usually carried out for a certain period of time or more, after which a certain period of quietness (a period during which none of the participants are speaking) has passed and then a "discussion" about the next topic begins. Therefore, by referring to the sensing information management table 51 of each participant, the most recent quiet period of a certain period of time or more (a period during which none of the participants are speaking) can be detected, and if the target participant speaks at the beginning of the quiet period, it can be determined that the topic initiated by the target participant is still being discussed.

そこで表示情報決定部44は、各参加者のセンシング情報管理テーブル51を参照して、最新のレコードから遡ってすべての参加者のセンシング情報管理テーブル51の発話欄51Dに格納されている発話フラグが一定期間の「0」となっている静寂期間を検出する。そして表示情報決定部44は、その静寂期間の終了後に最初に発話を行ったのが対象参加者であるか否かを判定する。 The display information determination unit 44 then refers to the sensing information management table 51 of each participant, and detects a quiet period during which the speech flag stored in the speech column 51D of the sensing information management table 51 of all participants going back from the most recent record is "0". The display information determination unit 44 then determines whether the first person to speak after the end of the quiet period is the target participant.

具体的に、表示情報決定部44は、対象参加者のセンシング情報管理テーブル51におけるその静寂期間の終了後の最初のレコードの発話欄51Dに格納された発話フラグが「1」であるか否かを判定する。そして表示情報決定部44は、かかる発話フラグが「1」であった場合には、現在の話題の口火を切ったのが対象参加者であると判断し、「影響・効果」という表示項目の表示要件を満たしていると判定する。 Specifically, the display information determination unit 44 determines whether the speech flag stored in the speech column 51D of the first record in the sensing information management table 51 of the target participant after the end of the quiet period is "1". If the speech flag is "1", the display information determination unit 44 determines that the target participant is the one who started the current topic, and determines that the display requirements for the display item "influence/effect" are met.

そして表示情報決定部44は、「影響・効果」という表示項目の表示要件を満たしているという判定結果が得られた場合、「部下」用の表示情報管理テーブル53Cにおける「影響・効果」の表示情報列53CBBの表示情報番号欄53CEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。 If the display information determination unit 44 obtains a judgment result that the display requirements for the display item "impact/effect" are met, it reads out the display information number stored in the display information number column 53CE of the display information column 53CBB for "impact/effect" in the display information management table 53C for "subordinates," and obtains the display information to which the display information number is assigned from the display information management table 55.

図11の例では、その話題への参加者数及びその話題の継続時間が表示情報であるため、表示情報決定部44は、これら参加者数及び継続時間をそれぞれ算出する。 In the example of FIG. 11, the number of participants in the topic and the duration of the topic are the display information, so the display information determination unit 44 calculates the number of participants and the duration, respectively.

具体的に、表示情報決定部44は、まず、対象参加者のセンシング情報管理テーブル51を参照して、現在の話題が開始された時刻のレコードの経過時間欄51Aに格納された経過時間と、最新のレコードの経過時間欄51Aに格納された経過時間とをそれぞれ取得し、後者の経過時間から前者の経過時間を減算するようにして、現在の話題の継続時間を算出する。 Specifically, the display information determination unit 44 first refers to the sensing information management table 51 of the target participant, obtains the elapsed time stored in the elapsed time column 51A of the record at which the current topic started and the elapsed time stored in the elapsed time column 51A of the most recent record, and calculates the duration of the current topic by subtracting the former elapsed time from the latter elapsed time.

また表示情報決定部44は、各参加者のセンシング情報管理テーブル51の発話欄51Dの発話フラグをそれぞれ参照して、現在の話題が開始された時刻のレコードから最新のレコードまでの各レコードのうちの少なくとも1つのレコードの発話欄51Dに格納された発話フラグが「1」となっている参加者の人数をカウントする。この人数が現在の話題に参加した参加者数である。 The display information determination unit 44 also refers to the speech flag in the speech column 51D of the sensing information management table 51 for each participant, and counts the number of participants whose speech flag is set to "1" in the speech column 51D of at least one record among the records from the record at the time the current topic started to the most recent record. This number is the number of participants who participated in the current topic.

そして表示情報決定部44は、このようにして求めた現在の話題への参加者数と、現在の話題の継続時間とを対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、これら参加者数及び継続時間を対象参加者の参加者IDと共に表示処理部45に出力する。 The display information determination unit 44 then determines the number of participants in the current topic and the duration of the current topic obtained in this manner as the display information to be displayed on the display devices 14A and 14B of the target participant, and outputs the number of participants and the duration together with the participant ID of the target participant to the display processing unit 45.

(2-2-8)対象参加者が「部下」で「非発話中かつ興味なし/内職中」の場合
対象参加者の属性が「部下」であり、その対象参加者の現在の行動が「非発話中」かつ「興味なし/内職中」に該当する場合、「部下」用の表示ルール管理テーブル53Cを参照すると、対応する表示項目は「非聴時間」だけである。
(2-2-8) When the target participant is a “subordinate” and “not speaking and not interested/doing work from home” When the attribute of the target participant is “subordinate” and the current behavior of the target participant corresponds to “not speaking” and “not interested/doing work from home”, when referring to the display rule management table 53C for “subordinate”, the only corresponding display item is “non-listening time”.

そして「非聴時間」という表示項目は、上述のように対象参加者が会議に興味がない又は会議に関係する作業以外の作業を行っていると推測される行動・状態にあるときに、その行動・状態を行っている時間(非聴時間)を表示する表示項目である。 The "Non-listening time" display item is a display item that displays the time (non-listening time) that a target participant is engaged in when they are in an action or state that suggests they are not interested in the meeting or are engaged in work other than that related to the meeting, as described above.

そして表示要件管理テーブル54を参照すると、対象参加者がオンラインでの会議参加者の場合には、対象参加者が直近の一定時間一度も頷いていないことが「非聴時間」の表示要件として規定され、対象参加者が対面での会議参加者の場合には、対面での会議参加者が直近の一定時間一度も発話者を見ていない(発話者に顔を向けていない)ことが「非聴時間」の表示要件として規定されている。 Referring to the display requirement management table 54, if the target participant is an online conference participant, the requirement for displaying "non-listening time" is that the target participant has not nodded even once during the most recent fixed period of time, and if the target participant is a face-to-face conference participant, the requirement for displaying "non-listening time" is that the face-to-face conference participant has not looked at the speaker (has not turned his or her face to the speaker) during the most recent fixed period of time.

そこで表示情報決定部44は、対象参加者がオンラインでの会議参加者の場合には、対象参加者のセンシング情報管理テーブル51を参照して、直近一定時間内の各レコードの頷き欄51Gに格納にそれぞれ格納された頷きフラグがすべて「0」となっているか否かを判定する。そして表示情報決定部44は、その対象参加者がこの判定で否定結果を得た場合には、現在の状況が「非聴時間」という表示項目の表示要件を満たしていると判定する。 Then, when the target participant is an online conference participant, the display information determination unit 44 refers to the sensing information management table 51 of the target participant and determines whether all of the nod flags stored in the nod column 51G of each record within the most recent fixed time period are "0". If the display information determination unit 44 obtains a negative result in this determination, it determines that the current situation of the target participant satisfies the display requirements for the display item "non-listening time".

また表示情報決定部44は、対象参加者が対面で会議に参加している場合には、その対象参加者以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、直近一定時間内に発話したすべての参加者を時間帯ごとにそれぞれ特定する。そして表示情報決定部44は、この後、その対象参加者のセンシング情報管理テーブル51を参照して、直近一定時間内の時間帯ごとのレコードの向き欄51Cにその時間帯の発話者の参加者IDが一度も格納されていないか否かを判定する。そして表示情報決定部44は、その対象参加者がこの判定で肯定結果を得た場合には、現在の状況が「非聴時間」という表示項目の表示要件を満たしていると判定する。 When the target participant is participating in the conference face-to-face, the display information determination unit 44 refers to the sensing information management table 51 of each participant other than the target participant to identify all participants who have spoken within a certain period of time, for each time period. The display information determination unit 44 then refers to the sensing information management table 51 of the target participant to determine whether the participant ID of the speaker during that period of time has never been stored in the orientation column 51C of the record for each period of time within the last certain period of time. When the target participant obtains a positive result in this determination, the display information determination unit 44 determines that the current situation meets the display requirements for the display item "non-listening time".

そして表示情報決定部44は、現在の状況が「非聴時間」という表示項目の表示要件を満たしているという判定結果が得られた場合、「部下」用の表示情報管理テーブル53Cにおける「非聴時間」の表示情報列53CBCの表示情報番号欄53CEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。図11の例では、「非聴時間」が表示情報であるため、表示情報決定部44は、対象参加者のそのときまでの直近の非聴時間を取得する。 When the display information determination unit 44 obtains a determination result that the current situation satisfies the display requirements for the display item "Non-listening time", it reads out the display information number stored in the display information number column 53CE of the display information column 53CBC for "Non-listening time" in the display information management table 53C for "subordinates", and obtains the display information assigned with that display information number from the display information management table 55. In the example of FIG. 11, since "Non-listening time" is the display information, the display information determination unit 44 obtains the most recent non-listening time of the target participant up to that point.

具体的に、表示情報決定部44は、対象参加者がオンラインでの会議参加者である場合には、その対象参加者のセンシング情報管理テーブル51を参照して、最新のレコードから遡って頷き欄51Gに格納された頷きフラグの値が連続して「0」となっている最古のレコードの経過時間欄51Aに格納されている経過時間を取得する。そして表示情報決定部44は、最新のレコードの経過時間欄51Aに格納されている経過時間から上述のようにして取得した経過時間を減算するようにして頷いていない時間を非聴時間として算出する。 Specifically, when the target participant is an online conference participant, the display information determination unit 44 refers to the sensing information management table 51 of the target participant, and obtains the elapsed time stored in the elapsed time column 51A of the oldest record in which the nod flag value stored in the nod column 51G has been consecutively set to "0" going back from the most recent record. The display information determination unit 44 then subtracts the elapsed time obtained as described above from the elapsed time stored in the elapsed time column 51A of the most recent record to calculate the time during which the participant is not nodding as the non-listening time.

そして表示情報決定部44は、このようにして算出した非聴時間をその対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、この非聴時間を対象参加者の参加者IDと共に表示処理部45に出力する。 Then, the display information determination unit 44 determines the non-listening time calculated in this manner as the display information to be displayed on the display devices 14A and 14B of the target participant, and outputs this non-listening time together with the participant ID of the target participant to the display processing unit 45.

また表示情報決定部44は、対象参加者が対面での会議参加者である場合には、その対象参加者のセンシング情報管理テーブル51を参照して、最新のレコードから遡って向き欄51Cにその時間帯に発話していた参加者の参加者IDが連続して格納されていない最古のレコードの経過時間欄51Aに格納されている経過時間を取得する。そして表示情報決定部44は、最新のレコードの経過時間欄51Cに格納されている経過時間から上述のようにして取得した経過時間を減算するようにして対象参加者が発話者に顔を向けていない時間を非聴時間として算出する。 When the target participant is a face-to-face conference participant, the display information determination unit 44 refers to the sensing information management table 51 of the target participant, and obtains the elapsed time stored in the elapsed time column 51A of the oldest record in which the participant ID of a participant who was speaking during that time period is not consecutively stored in the orientation column 51C, going back from the latest record. The display information determination unit 44 then subtracts the elapsed time obtained as described above from the elapsed time stored in the elapsed time column 51C of the latest record, to calculate the time during which the target participant is not facing the speaker as the non-listening time.

そして表示情報決定部44は、このようにして算出した非聴時間をその対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、この非聴時間を対象参加者の参加者IDと共に表示処理部45に出力する。 Then, the display information determination unit 44 determines the non-listening time calculated in this manner as the display information to be displayed on the display devices 14A and 14B of the target participant, and outputs this non-listening time together with the participant ID of the target participant to the display processing unit 45.

(2-2-9)対象参加者が「ゲスト」で「発話中」の場合
対象参加者の属性が「ゲスト」であり、その対象参加者の現在の行動が「発話中」である場合における表示情報決定部の処理内容は、「部下」の「発話中」と同様である。よって、ここでの説明は省略する。
(2-2-9) When the target participant is a “guest” and “talking” When the attribute of the target participant is a “guest” and the current behavior of the target participant is “talking”, the processing content of the display information determination unit is the same as that of a “subordinate” who is “talking”. Therefore, the explanation here is omitted.

(2-2-10)対象参加者が「ゲスト」で「非発話中かつ真面目に聞いている」の場合
対象参加者の属性が「ゲスト」であり、その対象参加者の現在の行動が「非発話中かつ真面目に聞いている」である場合、「ゲスト」用の表示ルール管理テーブル53Dを参照すると、対応する表示項目は「口出し」という表示項目だけである。
(2-2-10) When the target participant is a “guest” and “not speaking and listening attentively” When the attribute of the target participant is a “guest” and the current behavior of the target participant is “not speaking and listening attentively”, when referring to the display rule management table 53D for “guest”, the only corresponding display item is the display item “interfering”.

そこで表示情報決定部44は、「口出し」という表示項目について、「上司」の「口出し」と同様にして、現在の状況がその表示項目の表示要件を満たしているか否かを判定し、表示要件を満たしている場合には、その表示項目の表示情報を「今が発言のチャンス」に決定し、決定した表示情報をその対象参加者の参加者IDと共に表示処理部45に出力する。 Then, the display information determination unit 44 determines whether or not the current situation satisfies the display requirements for the display item "Interfering," in the same way as with "Interfering" for "Superior," and if the display requirements are met, determines the display information for that display item to be "Now is your chance to speak up," and outputs the determined display information to the display processing unit 45 together with the participant ID of the target participant.

(2-2-11)対象参加者が「ゲスト」で「非発話中かつ興味なし/内職中」の場合
対象参加者の属性「ゲスト」であり、その対象参加者の行動が「非発話中かつ興味なし/内職中」である場合、「ゲスト」用の表示ルール管理テーブル53Dを参照すると、表示項目はない。このため「非発話中かつ興味なし/内職中」の場合には、対象参加者の行動に関わりなく、対象参加者の表示装置14A,14Bに何らの情報も表示されない。これは、対象参加者が「ゲスト」という属性(立場)であることを考慮したものである。
(2-2-11) When the target participant is a "guest" and "not speaking and not interested/doing side work" When the attribute of the target participant is "guest" and the behavior of the target participant is "not speaking and not interested/doing side work", there are no display items when referring to the display rule management table 53D for "guest". Therefore, in the case of "not speaking and not interested/doing side work", no information is displayed on the display devices 14A and 14B of the target participant regardless of the behavior of the target participant. This is because the target participant has the attribute (position) of "guest".

(2-3)行動・状態判定部及び表示情報決定部の処理の流れ
(2-3-1)行動・状態判定処理
次に、行動・状態判定部43により実行される一連の処理(以下、これを行動・状態判定処理と呼ぶ)の流れについて、図12を参照して説明する。なお、図12の各ステップにおける行動・状態判定部43の具体的な処理内容は既に詳述しているため、重複する説明については省略する。
(2-3) Processing Flow of Action/State Determination Unit and Display Information Determination Unit (2-3-1) Action/State Determination Process Next, the flow of a series of processes (hereinafter, referred to as action/state determination process) executed by the action/state determination unit 43 will be described with reference to Fig. 12. Note that the specific processing contents of the action/state determination unit 43 in each step of Fig. 12 have already been described in detail, so duplicated description will be omitted.

図12は、行動・状態判定部43により上述の判定周期で実行される行動・状態判定処理の流れを示す。行動・状態判定部43は、この図12に示す処理手順に従って、各参加者のそのときの行動を判定する。 Figure 12 shows the flow of the action/state determination process executed by the action/state determination unit 43 at the above-mentioned determination cycle. The action/state determination unit 43 determines the action of each participant at that time according to the processing procedure shown in this Figure 12.

実際上、行動・状態判定部43は、この行動・状態判定処理を開始すると、まず、画像処理部40、音声処理部41及び頷き検出部42から与えられた各参加者の各種情報を、それぞれ対応する参加者のセンシング情報管理テーブル51(図4)にそれぞれ格納する(S1)。 In practice, when the behavior/state determination unit 43 starts this behavior/state determination process, it first stores the various pieces of information about each participant provided by the image processing unit 40, the audio processing unit 41, and the nodding detection unit 42 in the sensing information management table 51 (Figure 4) for each corresponding participant (S1).

具体的に、行動・状態判定部43は、画像処理部40から通知された各参加者の表情に応じた数値を、対応するセンシング情報管理テーブル51の表情欄51Bにそれぞれ格納する。また行動・状態判定部43は、画像処理部40から通知された各参加者がそれぞれ顔を向けている他の参加者の参加者IDを、その参加者のセンシング情報管理テーブル51の向き欄51Cにそれぞれ格納する。 Specifically, the behavior/state determination unit 43 stores a numerical value corresponding to the facial expression of each participant notified by the image processing unit 40 in the facial expression column 51B of the corresponding sensing information management table 51. The behavior/state determination unit 43 also stores the participant ID of the other participant toward whom each participant is facing, notified by the image processing unit 40, in the orientation column 51C of the sensing information management table 51 for that participant.

また行動・状態判定部43は、音声処理部41から通知された各参加者が発話しているか否かの情報に基づいて、その参加者が発話している場合には、その参加者のセンシング情報管理テーブル51の発話欄51Dに格納された発話フラグを「1」に設定し、その参加者が発話を行っていない場合には、その発話フラグを「0」に設定する。また行動・状態判定部43は、音声処理部41から通知された各参加者の発話音量及び発話時間を、その参加者のセンシング情報管理テーブル51の音量欄51E及び発話時間欄51Fにそれぞれ格納する。 The behavior/state determination unit 43 also sets the speech flag stored in the speech column 51D of the sensing information management table 51 of that participant to "1" if the participant is speaking based on the information notified by the audio processing unit 41 as to whether or not the participant is speaking, and sets the speech flag to "0" if the participant is not speaking. The behavior/state determination unit 43 also stores the speech volume and speech time of each participant notified by the audio processing unit 41 in the volume column 51E and speech time column 51F, respectively, of the sensing information management table 51 of that participant.

さらに行動・状態判定部43は、頷き検出部42から通知された各参加者が頷いているか否かの情報に基づいて、参加者が頷いている場合には、その参加者のセンシング情報管理テーブル51の頷き欄51Gに格納された頷きフラグを「1」に設定し、その参加者が頷いていない場合には、その頷きフラグを「0」に設定する。 Furthermore, based on the information notified by the nodding detection unit 42 as to whether or not each participant is nodding, the behavior/state determination unit 43 sets the nodding flag stored in the nodding column 51G of the sensing information management table 51 for that participant to "1" if the participant is nodding, and sets the nodding flag to "0" if the participant is not nodding.

続いて、行動・状態判定部43は、ステップS3以降が未処理の参加者を一人選択し、選択した参加者(以下、図12の説明においてこの参加者を選択参加者と呼ぶ)のセンシング情報管理テーブル51の発話欄51Dを参照して、その選択参加者が発話中であるか否かを判定する(S2)。 Next, the behavior/state determination unit 43 selects one participant who has not been processed after step S3, and determines whether the selected participant is speaking by referring to the speech column 51D of the sensing information management table 51 of the selected participant (hereinafter, in the explanation of Figure 12, this participant will be referred to as the selected participant) (S2).

そして行動・状態判定部43は、この判定で肯定結果を得ると、その選択参加者のそのときの行動・状態を「発話中」と判定し(S4)、判定結果を選択参加者の参加者IDと対応付けて判定行動・状態管理テーブル52(図5)に格納する(S10)。 If the behavior/state determination unit 43 obtains a positive result in this determination, it determines that the behavior/state of the selected participant at that time is "talking" (S4), and stores the determination result in the determined behavior/state management table 52 (Figure 5) in association with the participant ID of the selected participant (S10).

また行動・状態判定部43は、ステップS3で否定結果を得ると、選択参加者のセンシング情報管理テーブル51を参照して、選択参加者がそのときの発話者の発話内容を真面目に聞いているか否かを判定する(S5)。 If the behavior/state determination unit 43 obtains a negative result in step S3, it refers to the sensing information management table 51 of the selected participant to determine whether the selected participant is seriously listening to the content of the speaker at that time (S5).

そして行動・状態判定部43は、この判定で肯定結果を得ると、その選択参加者のそのときの行動・状態を「非発話中かつ真面目に聞いている」と判定し(S6)、判定結果を選択参加者の参加者IDと対応付けて判定行動・状態管理テーブル52に格納する(S10)。 If the behavior/state determination unit 43 obtains a positive result in this determination, it determines that the behavior/state of the selected participant at that time is "not speaking and listening attentively" (S6), and stores the determination result in the determined behavior/state management table 52 in association with the participant ID of the selected participant (S10).

また行動・状態判定部43は、ステップS5で否定結果を得ると、選択参加者のセンシング情報管理テーブル51を参照して、選択参加者がそのときの発話者の発話内容に興味がないか、又は、会議に関係しない作業を行っているか否かを判定する(S7)。 If the behavior/state determination unit 43 obtains a negative result in step S5, it refers to the sensing information management table 51 of the selected participant to determine whether the selected participant is not interested in the content of the speaker at that time or is performing work unrelated to the conference (S7).

そして行動・状態判定部43は、この判定で肯定結果を得ると、その選択参加者のそのときの行動・状態を「非発話中かつ興味なし/内職中」と判定し(S8)、判定結果を選択参加者の参加者IDと対応付けて判定行動・状態管理テーブル52に格納する(S10)。 If the behavior/state determination unit 43 obtains a positive result in this determination, it determines the behavior/state of the selected participant at that time as "not speaking and not interested/doing side work" (S8), and stores the determination result in the determined behavior/state management table 52 in association with the participant ID of the selected participant (S10).

これに対して行動・状態判定部43は、ステップS7の判定で否定結果を得ると、その選択参加者のそのときの行動・状態が「発話中」、「非発話中かつ真面目に聞いている」及び「非発話中かつ興味なし/内職中」のいずれにも該当しないと判定し(S9)、判定結果を選択参加者の参加者IDと対応付けて判定行動・状態管理テーブル52に格納する(S10)。この場合には、判定行動・状態管理テーブル52におけるその選択参加者に対応するレコードの判定行動・情報欄52Bに「-」が格納される(図5の参加者IDが「0004」のレコードを参照)。 In response to this, if the behavior/state determination unit 43 obtains a negative result in the determination in step S7, it determines that the selected participant's behavior/state at that time does not correspond to any of "talking," "not talking and listening attentively," or "not talking and not interested/doing side work" (S9), and stores the determination result in the determined behavior/state management table 52 in association with the participant ID of the selected participant (S10). In this case, "-" is stored in the determined behavior/information column 52B of the record corresponding to the selected participant in the determined behavior/state management table 52 (see the record with participant ID "0004" in Figure 5).

この後、行動・状態判定部43は、すべての参加者についてステップS3~ステップS10の処理が完了したか否かを判定する(S11)。そして行動・状態判定部43は、この判定で否定結果を得るとステップS2に戻り、この後、ステップS2で選択する参加者をステップS3以降が未処理の他の参加者に順次切り替えながらステップS2~ステップS11の処理を繰り返す。 Then, the behavior/state determination unit 43 determines whether the processing of steps S3 to S10 has been completed for all participants (S11). If the behavior/state determination unit 43 obtains a negative result in this determination, it returns to step S2, and thereafter repeats the processing of steps S2 to S11 while sequentially switching the participant selected in step S2 to another participant who has not yet been processed in steps S3 and after.

この繰返し処理により各参加者のそのときの行動・状態が順次判定されて、判定された行動・状態が判定行動・状態管理テーブル52に順次格納される。 This repeated process sequentially determines the behavior and status of each participant at that time, and the determined behavior and status are stored sequentially in the determined behavior and status management table 52.

そして行動・状態判定部43は、やがてすべての参加者のそのときの行動・状態を判定し終え、その判定結果を判定行動・状態管理テーブル52に格納し終えることによりステップS11で肯定結果を得ると、この行動・状態判定処理を終了する。 Then, when the behavior/state determination unit 43 has finished determining the behavior/state of all participants at that time and has finished storing the determination results in the determined behavior/state management table 52, it obtains a positive result in step S11 and terminates this behavior/state determination process.

(2-3-2)表示情報決定処理
次に、表示情報決定部44により実行される一連の処理(以下、これを表示情報決定処理と呼ぶ)の流れについて、図13を参照して説明する。なお、図13の各ステップにおける表示情報決定部の具体的な処理内容についても既に詳述しているため、重複する説明については省略する。
(2-3-2) Display Information Determination Process Next, the flow of a series of processes (hereinafter, referred to as the display information determination process) executed by the display information determination unit 44 will be described with reference to Fig. 13. Note that the specific process contents of the display information determination unit in each step of Fig. 13 have already been described in detail, so duplicated descriptions will be omitted.

図13は、表示情報決定部44により上述の判定周期で実行される表示情報決定処理の流れを示す。表示情報決定部44は、この図13に示す処理手順に従って、必要な参加者の表示装置14A,14Bにそのとき表示すべき情報を決定する。 Figure 13 shows the flow of the display information determination process executed by the display information determination unit 44 at the above-mentioned judgment period. The display information determination unit 44 determines the information to be displayed at that time on the display devices 14A and 14B of the necessary participants according to the processing procedure shown in Figure 13.

実際上、表示情報決定部44は、この表示情報決定処理を開始すると、まず、ステップS21以降が未処理の参加者を一人選択する(S20)。また表示情報決定部44は、選択した参加者(以下、図13の説明においてこの参加者を選択参加者と呼ぶ)の属性を参加者属性管理テーブル50(図3)から取得すると共に、選択参加者の現在の行動・状態を判定行動・状態管理テーブル51(図4)から取得する(S21)。 In practice, when the display information determination unit 44 starts this display information determination process, it first selects one participant who has not been processed after step S21 (S20). The display information determination unit 44 also obtains the attributes of the selected participant (hereinafter, in the explanation of FIG. 13, this participant will be referred to as the selected participant) from the participant attribute management table 50 (FIG. 3), and obtains the current behavior and status of the selected participant from the determined behavior and status management table 51 (FIG. 4) (S21).

続いて、表示情報決定部44は、ステップS21で取得した選択参加者の属性及び現在の行動・状態に基づき、その選択参加者の属性に応じた表示ルール管理テーブル53を参照して、状況に応じて選択参加者の表示装置14A,14Bに情報を表示すべき表示項目を特定する(S22)。 Next, based on the attributes and current actions/state of the selected participant acquired in step S21, the display information determination unit 44 refers to the display rule management table 53 corresponding to the attributes of the selected participant, and identifies the display items for which information should be displayed on the display devices 14A and 14B of the selected participant depending on the situation (S22).

次いで、表示情報決定部44は、ステップS22において、状況に応じて選択参加者の表示装置14A,14Bに情報を表示すべき表示項目を特定できたか否かを判定する(S23)。そして表示情報決定部44は、この判定で表示項目を特定できなかった場合(例えば、「上司」の「非発話中かつ興味なし/内職中」の場合)には、ステップS29に進む。 Then, in step S22, the display information determination unit 44 judges whether or not it has been possible to identify a display item for which information should be displayed on the display device 14A, 14B of the selected participant depending on the situation (S23). If the display information determination unit 44 is unable to identify a display item in this judgment (for example, in the case of "Boss" being "Not speaking and not interested/doing side work"), it proceeds to step S29.

これに対して、表示情報決定部44は、ステップS23の判定で肯定結果を得ると、ステップS22で特定した表示項目の中で表示優先度が最も高い表示項目をすべて特定する(S24)。また表示情報決定部44は、ステップS24で特定した各表示項目について、それぞれ表示要件管理テーブル54(図10)を参照して、現在の状況がその表示項目の情報を表示するための表示要件を満たしているか否かを判定する(S25)。そして表示情報決定部44は、この判定で否定結果を得るとステップS29に進む。 In response to this, if the display information determination unit 44 obtains a positive result in the determination of step S23, it identifies all of the display items identified in step S22 that have the highest display priority (S24). Furthermore, for each display item identified in step S24, the display information determination unit 44 refers to the display requirement management table 54 (FIG. 10) and determines whether or not the current situation satisfies the display requirement for displaying information of that display item (S25). If the display information determination unit 44 obtains a negative result in this determination, it proceeds to step S29.

これに対して表示情報決定部44は、ステップS25の判定で肯定結果を得ると、肯定結果を得たすべての表示項目について、表示情報管理テーブル55(図11)を参照して、表示すべき情報を特定する(S26)。また表示情報決定部44は、特定した情報を表示情報管理テーブル55から読み出し又は演算により取得する(S27)。 In response to this, if the display information determination unit 44 obtains a positive result in the determination of step S25, it refers to the display information management table 55 (FIG. 11) and identifies the information to be displayed for all display items for which a positive result has been obtained (S26). The display information determination unit 44 also reads out the identified information from the display information management table 55 or obtains it by calculation (S27).

そして表示情報決定部44は、ステップS27で取得した情報を選択参加者の参加者IDと共に表示処理部45に出力し(S28)、この後、すべての参加者についてステップS21以降の処理を実行し終えたか否かを判断する(S29)。 The display information determination unit 44 then outputs the information acquired in step S27 to the display processing unit 45 together with the participant ID of the selected participant (S28), and then determines whether the processing from step S21 onwards has been executed for all participants (S29).

そして表示情報決定部44は、この判断で否定結果を得るとステップS20に戻り、この後、ステップS20で選択する参加者をステップS21以降が未処理の他の参加者に順次切り替えながらステップS20~ステップS29の処理を繰り返す。 If the display information determination unit 44 obtains a negative result in this determination, it returns to step S20, and thereafter repeats the processing of steps S20 to S29 while sequentially switching the participant selected in step S20 to other participants who have not yet been processed in steps S21 and after.

この繰返し処理により、対応する表示装置14A,14Bに情報を表示すべきすべての参加者について、そのとき表示すべき情報と、その参加者の参加者IDとが順次表示処理部45に送信される。そして、この結果として、これらの参加者の表示装置14A,14Bにその情報が表示されることになる。 By this repeated process, for all participants whose information should be displayed on the corresponding display devices 14A and 14B, the information to be displayed at that time and the participant ID of the participant are sequentially transmitted to the display processing unit 45. As a result, the information is displayed on the display devices 14A and 14B of these participants.

そして、表示情報決定部44は、やがてすべての参加者についてステップS21~ステップS28の処理を実行し終えることによりステップS29で肯定結果を得ると、この表示情報決定処理を終了する。 Then, when the display information determination unit 44 eventually completes the processing of steps S21 to S28 for all participants and obtains a positive result in step S29, it ends the display information determination process.

(3)本実施の形態の効果
以上のように本実施の形態の会議支援装置4は、対面参加者側システム2のセンサ群10Aと、各オンライン参加者側システム3のセンサ群10Bとによりそれぞれ収集された各参加者の行動及び状態に関する各種情報に基づいて各参加者の現在の行動・状態をリアルタイムで判定し、参加者ごとに、適宜、その参加者の属性と、そのときのその参加者の行動・状態とに応じた情報をその参加者の表示装置14A,14Bにそれぞれ表示する。
(3) Effects of this embodiment As described above, the conference support device 4 of this embodiment determines the current behavior and status of each participant in real time based on various information regarding the behavior and status of each participant collected by the sensor group 10A of the face-to-face participant system 2 and the sensor group 10B of each online participant system 3, and displays, for each participant, information corresponding to the attributes of that participant and the behavior and status of that participant at that time on the participant's display devices 14A, 14B as appropriate.

従って、本会議支援装置4によれば、参加者ごとに、その参加者の立場と、その参加者のそのときの行動・状態とに応じた情報がその参加者の端末を介してその参加者にリアルタイムで提示されるため、参加者ごとに、その参加者に有用な情報をリアルタイムで提示することができる。 Therefore, according to the conference support device 4, information according to the participant's position and the participant's current behavior and state is presented to each participant in real time via the participant's terminal, making it possible to present useful information to each participant in real time.

(4)他の実施の形態
なお上述の実施の形態においては、情報を提示する端末(以下、これを情報提示装置と呼ぶ)として各参加者側に表示装置14A,14Bをそれぞれ配置し、そのとき必要な情報を表示装置14A,14Bに表示するようにして必要な参加者に提示するようにした場合について述べたが、本発明はこれに限らず、例えば、一部又は全部の参加者側に表示装置14A,14Bに代えてロボットをかかる情報提示端末としてそれぞれ配置し、情報を表示ではなくロボットの動きにより参加者に提示するようにしてもよい。またロボットに情報を表示可能な表示装置を設け、ロボットの動きだけでなく表示によっても情報を提示するようにしてもよい。さらに発話できるようロボットにスピーカを設け、メッセージやその他の情報を音声や音などにより参加者に提示するようにしてもよい。
(4) Other embodiments In the above embodiment, the display devices 14A and 14B are arranged on each participant side as terminals for presenting information (hereinafter, these are referred to as information presentation devices), and the necessary information is displayed on the display devices 14A and 14B to present to the necessary participants. However, the present invention is not limited to this. For example, robots may be arranged as such information presentation terminals instead of the display devices 14A and 14B on some or all of the participants' sides, and information may be presented to the participants by the movement of the robot rather than by display. Furthermore, a display device capable of displaying information may be provided on the robot, and information may be presented not only by the movement of the robot but also by display. Furthermore, a speaker may be provided on the robot so that the robot can speak, and messages and other information may be presented to the participants by voice or sound.

また上述の実施の形態においては、会議の参加者の属性(立場)が「ファシリ」、「上司」、「部下」及び「ゲスト」の4種類である場合について述べたが、本発明はこれに限らず、これ以外の属性を規定するようにしてもよい。例えば、会議がワークショップである場合には、参加者の属性として「講師」及び「生徒」の2種類としてもよい。 In the above embodiment, the attributes (positions) of participants in a conference are described as four types: "facilitator," "superior," "subordinate," and "guest." However, the present invention is not limited to this, and other attributes may be defined. For example, if the conference is a workshop, the attributes of participants may be two types: "lecturer" and "student."

本発明は会議支援装置及び方法に関し、オンラインでの参加者を含む会議を支援する会議支援装置に適用することができる。 The present invention relates to a conference support device and method, and can be applied to a conference support device that supports conferences including online participants.

1……会議支援システム、2……対面参加者側システム、3……オンライン参加者側システム、4……会議支援装置、11A,11B……撮像装置、12A,12B……集音装置、13A,13B……振動センサ、14A,14B……表示装置、20……CPU、40……画像処理部、41……音声処理部、42……頷き検出部、43……行動・状態判定部、44……表示情報決定部、45……表示処理部、50……参加者属性管理テーブル、51……センシング情報管理テーブル、52……判定行動・状態管理テーブル、53,53A~53D……表示ルール管理テーブル、54……表示要件管理テーブル、55……表示情報管理テーブル。
1...conference support system, 2...face-to-face participant side system, 3...online participant side system, 4...conference support device, 11A, 11B...imaging device, 12A, 12B...sound collection device, 13A, 13B...vibration sensor, 14A, 14B...display device, 20...CPU, 40...image processing unit, 41...audio processing unit, 42...nodding detection unit, 43...action/state determination unit, 44...display information determination unit, 45...display processing unit, 50...participant attribute management table, 51...sensing information management table, 52...determined action/state management table, 53, 53A to 53D...display rule management table, 54...display requirement management table, 55...display information management table.

Claims (10)

会議を支援する会議支援装置であって、
各参加者の行動・状態に関する情報をそれぞれ取得する各センサの出力に基づいて各前記参加者の行動・状態をリアルタイムで判定する行動・状態判定部と、
前記行動・状態判定部により判定された前記参加者の行動・状態と、予め設定された各前記参加者の立場とに基づいて、前記参加者に対して提示すべき情報を決定する提示情報決定部と、
前記提示情報決定部により決定された前記情報を、対応する参加者側に設けられた端末を介して前記参加者に提示する提示処理部と
を備えることを特徴とする会議支援装置。
A conference support device for supporting a conference, comprising:
a behavior/state determination unit that determines the behavior/state of each participant in real time based on the output of each sensor that acquires information regarding the behavior/state of each participant;
a presentation information determination unit that determines information to be presented to the participants based on the actions and states of the participants determined by the action and state determination unit and a previously set position of each of the participants;
a presentation processing unit that presents the information determined by the presentation information determination unit to the participant via a terminal provided on the corresponding participant's side.
前記立場及び前記行動・状態の組合せごとに、前記参加者に情報を提示すべき項目が予め設定され、
前記提示情報決定部は、
前記参加者ごとに、当該参加者の前記立場及び前記行動・状態に応じた前記項目の情報を当該参加者に提示すべき情報として決定する
ことを特徴とする請求項1に記載の会議支援装置。
An item of information to be presented to the participant is set in advance for each combination of the position and the action/state;
The presentation information determination unit
The conference support device according to claim 1 , wherein, for each participant, information of the item corresponding to the position and the action/state of the participant is determined as information to be presented to the participant.
各前記項目には、それぞれ当該項目の情報を前記参加者に提示するための要件が予め設定され、
前記提示情報決定部は、
前記要件を満たす前記項目の情報を前記参加者に提示すべき情報として決定する
ことを特徴とする請求項2に記載の会議支援装置。
For each of the items, requirements for presenting information of the item to the participants are set in advance;
The presentation information determination unit
The conference support device according to claim 2 , further comprising: determining, as information to be presented to the participants, information on the items that satisfy the requirements.
1つの前記立場及び前記行動・状態の組合せに対して、前記項目が複数設定されている場合には、各前記項目に対して優先順位が設定され、
前記提示情報決定部は、
前記要件を満たす前記項目が複数ある場合には、最も前記優先順位が高い前記項目の情報を当該参加者に提示する情報として決定する
ことを特徴とする請求項3に記載の会議支援装置。
When a plurality of items are set for one combination of the position and the action/state, a priority is set for each of the items;
The presentation information determination unit
4. The conference support device according to claim 3, wherein, when there are a plurality of said items that satisfy said requirements, information on said item having the highest priority is determined as information to be presented to said participant.
予め設定された前記行動・状態に応じて前記参加者に提示すべき前記情報の少なくとも一部が、前記立場に応じて異なる
ことを特徴とする請求項1に記載の会議支援装置。
The conference support device according to claim 1 , wherein at least a part of the information to be presented to the participants in accordance with the preset actions and states differs depending on the participants' positions.
会議を支援する会議支援装置により実行される会議支援方法であって、
各参加者の行動・状態に関する情報をそれぞれ取得する各センサの出力に基づいて各前記参加者の行動・状態をリアルタイムで判定する第1のステップと、
判定した前記参加者の行動・状態と、予め設定された各前記参加者の立場とに基づいて、前記参加者に対して提示すべき情報を決定する第2のステップと、
決定した前記情報を、対応する参加者側に設けられた端末を介して前記参加者に提示する第3のステップと
を備えることを特徴とする会議支援方法。
A conference support method executed by a conference support device that supports a conference, comprising:
a first step of determining in real time the behavior/state of each participant based on the output of each sensor that acquires information on the behavior/state of each participant;
a second step of determining information to be presented to the participants based on the determined actions and states of the participants and a preset position of each of the participants;
and a third step of presenting the determined information to the participant via a terminal provided on the corresponding participant's side.
前記立場及び前記行動・状態の組合せごとに、前記参加者に情報を提示すべき項目が予め設定され、
前記第2のステップにおいて、前記会議支援装置は、
前記参加者ごとに、当該参加者の前記立場及び前記行動・状態に応じた前記項目の情報を当該参加者に提示すべき情報として決定する
ことを特徴とする請求項6に記載の会議支援方法。
An item of information to be presented to the participant is set in advance for each combination of the position and the action/state;
In the second step, the conference support device
7. The conference support method according to claim 6, further comprising: determining, for each participant, information of the item corresponding to the position and the action/state of the participant as information to be presented to the participant.
各前記項目には、それぞれ当該項目の情報を前記参加者に提示するための要件が予め設定され、
前記第2のステップにおいて、前記会議支援装置は、
前記要件を満たす前記項目の情報を前記参加者に提示すべき情報として決定する
ことを特徴とする請求項7に記載の会議支援方法。
For each of the items, requirements for presenting information of the item to the participants are set in advance;
In the second step, the conference support device
The conference support method according to claim 7 , further comprising determining, as information to be presented to the participants, information on the items that satisfy the requirements.
1つの前記立場及び前記行動・状態の組合せに対して、前記項目が複数設定されている場合には、各前記項目に対して優先順位が設定され、
前記第2のステップにおいて、前記会議支援装置は、
前記要件を満たす前記項目が複数ある場合には、最も前記優先順位が高い前記項目の情報を当該参加者に提示する情報として決定する
ことを特徴とする請求項8に記載の会議支援方法。
When a plurality of items are set for one combination of the position and the action/state, a priority is set for each of the items;
In the second step, the conference support device
9. The conference support method according to claim 8, wherein, when there are a plurality of said items that satisfy said requirements, information on said item having the highest priority is determined as information to be presented to said participant.
予め設定された前記行動・状態に応じて前記参加者に提示すべき前記情報の少なくとも一部が、前記立場に応じて異なる
ことを特徴とする請求項6に記載の会議支援方法。
The conference support method according to claim 6 , wherein at least a part of the information to be presented to the participants in accordance with the preset actions and states differs depending on the positions of the participants.
JP2022160526A 2022-10-04 2022-10-04 Conference support device and method Pending JP2024053975A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022160526A JP2024053975A (en) 2022-10-04 2022-10-04 Conference support device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022160526A JP2024053975A (en) 2022-10-04 2022-10-04 Conference support device and method

Publications (1)

Publication Number Publication Date
JP2024053975A true JP2024053975A (en) 2024-04-16

Family

ID=90670646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022160526A Pending JP2024053975A (en) 2022-10-04 2022-10-04 Conference support device and method

Country Status (1)

Country Link
JP (1) JP2024053975A (en)

Similar Documents

Publication Publication Date Title
US20200228358A1 (en) Coordinated intelligent multi-party conferencing
US11783645B2 (en) Multi-camera, multi-sensor panel data extraction system and method
JP6535681B2 (en) Presenter Display During Video Conference
JP2017201479A (en) Communication supporting system
JP2017123149A (en) Method and system of group interaction by user state detection
JP6817580B2 (en) Information processing method, information processing system and information processing equipment
Dai et al. Group interaction analysis in dynamic context
TWI795759B (en) Online meeting system
Nakano et al. Generating robot gaze on the basis of participation roles and dominance estimation in multiparty interaction
WO2022093623A1 (en) Methods and systems for automatic queuing in conference calls
JP6867971B2 (en) Conference support device and conference support system
JP2013008114A (en) Conference quality evaluation device and conference quality evaluation method
JP2007030050A (en) Robot control device, robot control system, robot device and robot control method
JP2024053975A (en) Conference support device and method
Dai et al. Group Interaction Analysis in Dynamic Context $^{\ast} $
JP7152453B2 (en) Information processing device, information processing method, information processing program, and information processing system
WO2022004244A1 (en) System, method, and program for performing communication using computer
WO2022137547A1 (en) Communication assistance system
WO2022180860A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
US10523897B2 (en) Information processing method, information processing system, and information processing apparatus
Colburn et al. Graphical enhancements for voice only conference calls
JP7465040B1 (en) Communication visualization system
Kesim et al. The eHRI database: a multimodal database of engagement in human–robot interactions
JP7121433B1 (en) Video analysis program
WO2022201266A1 (en) Video analysis program