JP2024053975A - Conference support device and method - Google Patents
Conference support device and method Download PDFInfo
- Publication number
- JP2024053975A JP2024053975A JP2022160526A JP2022160526A JP2024053975A JP 2024053975 A JP2024053975 A JP 2024053975A JP 2022160526 A JP2022160526 A JP 2022160526A JP 2022160526 A JP2022160526 A JP 2022160526A JP 2024053975 A JP2024053975 A JP 2024053975A
- Authority
- JP
- Japan
- Prior art keywords
- participant
- display
- information
- participants
- determination unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000009471 action Effects 0.000 claims description 44
- 230000006399 behavior Effects 0.000 description 123
- 238000007405 data analysis Methods 0.000 description 27
- 230000008921 facial expression Effects 0.000 description 27
- 230000008569 process Effects 0.000 description 18
- 238000001514 detection method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 230000015654 memory Effects 0.000 description 11
- 230000002452 interceptive effect Effects 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 208000035473 Communicable disease Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Abstract
【課題】参加者ごとに、その参加者に有用な情報をリアルタイムで提示し得る会議支援装置及び方法を提案する。【解決手段】会議を支援する会議支援装置により実行される会議支援方法であって、各参加者の行動・状態に関する情報をそれぞれ取得する各センサの出力に基づいて各参加者の行動・状態を判定し、判定した参加者の行動・状態と、予め設定された各参加者の立場とに基づいて、参加者に対して提示すべき情報を決定し、決定した情報を、対応する参加者側に設けられた端末を介して参加者に提示するようにした。【選択図】 図13[Problem] We propose a conference support device and method capable of presenting useful information to each participant in real time. [Solution] A conference support method executed by a conference support device that supports a conference, which judges the behavior and state of each participant based on the output of each sensor that acquires information on the behavior and state of each participant, determines information to be presented to the participants based on the determined behavior and state of the participant and each participant's previously set position, and presents the determined information to the participant via a terminal provided on the corresponding participant's side. [Selected Figure] Figure 13
Description
本発明は会議支援装置及び方法に関し、例えば、オンライン会議やハイブリッド会議を支援する会議支援システムに適用して好適なものである。 The present invention relates to a conference support device and method, and is suitable for use in a conference support system that supports online conferences and hybrid conferences, for example.
近年のDX(Digital Transformation)化に伴い、会議(ワークショップも含む)の可視化が求められている。また従来の会議は、対面が主流であったが、近年は世界的な感染症の拡大に伴いオンライン化も進められている。さらには、対面とオンラインとで行うハイブリッド会議の形態も広く利用されている。 With the recent trend towards DX (Digital Transformation), there is a demand for visualization of meetings (including workshops). In addition, while traditionally most meetings were held face-to-face, in recent years online meetings have been increasingly held due to the global spread of infectious diseases. Furthermore, hybrid meetings that combine face-to-face and online meetings are also becoming widely used.
なお会議の可視化に関して、下記特許文献1には、第1のユーザの非言語行動に対応する動作パターンで相手側の第2のユーザの端末に表示された第1のユーザに対応するアバターを動作させることが開示されている。
Regarding visualization of a meeting, the following
また特許文献2には、オンラインでのビデオ会議において、カメラやマイクなどのセンサを用いて会議出席者をそれぞれセンシングし、センシングにより得られた各出席者の動きの情報に基づいて、音声データにおける各発言の発言者を特定し、各出席者の音声データを発言の時系列でタイムラインとして出力することが開示されている。
ところで、特許文献1及び特許文献2にも開示されているように、オンラインで会議に参加する場合、他の参加者の表情や様子が分かり難いことから、他の参加者の発話(音声)や画像及び各種センサ情報の可視化が行われる。
As disclosed in
しかしながら、このとき表示される情報の情報量が多く、本人に必要な情報が分かり難いという問題があった。また、このとき表示される情報は会議全体や相手側に関する情報だけで、その参加者自体のそのときの行動や状態などを考慮しておらず、その参加者にとってさほど有用な情報ではない場合が多いという問題もあった。 However, there was an issue that the amount of information displayed was so large that it was difficult for the participant to understand the information they needed. There was also an issue that the information displayed only covered the entire meeting or the other party, and did not take into account the participant's own actions or status at the time, meaning that the information was often not particularly useful to the participant.
本発明は以上の点を考慮してなされたもので、参加者ごとに、その参加者に有用な情報をリアルタイムで提示し得る会議支援装置及び方法を提案しようとするものである。 The present invention has been made in consideration of the above points, and aims to propose a conference support device and method that can present useful information to each participant in real time.
かかる課題を解決するため本発明においては、会議を支援する会議支援装置であって、各参加者の行動・状態に関する情報をそれぞれ取得する各センサの出力に基づいて各前記参加者の行動・状態をリアルタイムで判定する行動・状態判定部と、前記行動・状態判定部により判定された前記参加者の行動・状態と、予め設定された各前記参加者の立場とに基づいて、前記参加者に対して提示すべき情報を決定する提示情報決定部と、前記提示情報決定部により決定された前記情報を、対応する参加者側に設けられた端末を介して前記参加者に提示する提示処理部とを設けるようにした。 In order to solve this problem, the present invention provides a conference support device that supports a conference, and includes a behavior/state determination unit that determines the behavior/state of each participant in real time based on the output of each sensor that acquires information on the behavior/state of each participant, a presentation information determination unit that determines information to be presented to the participants based on the behavior/state of the participants determined by the behavior/state determination unit and the previously set position of each participant, and a presentation processing unit that presents the information determined by the presentation information determination unit to the participants via a terminal provided on the corresponding participant's side.
また本発明においては、会議を支援する会議支援装置により実行される会議支援方法であって、各参加者の行動・状態に関する情報をそれぞれ取得する各センサの出力に基づいて各前記参加者の行動・状態をリアルタイムで判定する第1のステップと、判定した前記参加者の行動・状態と、予め設定された各前記参加者の立場とに基づいて、前記参加者に対して提示すべき情報を決定する第2のステップと、決定した前記情報を、対応する参加者側に設けられた端末を介して前記参加者に提示する第3のステップとを設けるようにした。 The present invention also provides a conference support method executed by a conference support device that supports a conference, which includes a first step of determining the behavior and state of each participant in real time based on the output of each sensor that acquires information on the behavior and state of each participant, a second step of determining information to be presented to the participant based on the determined behavior and state of the participant and the previously set position of each participant, and a third step of presenting the determined information to the participant via a terminal provided on the corresponding participant's side.
本発明の会議支援装置及び方法によれば、参加者の立場とそのときの参加者の行動・状態とに応じた情報が、その参加者の端末を介してその参加者にリアルタイムで提示される。 According to the conference support device and method of the present invention, information according to the participant's position and the participant's behavior and status at that time is presented to the participant in real time via the participant's terminal.
本発明によれば、参加者ごとに、その参加者に有用な情報をリアルタイムで提示し得る会議支援装置及び方法を実現できる。 The present invention provides a meeting support device and method that can present useful information to each participant in real time.
以下図面について、本発明の一実施の形態を詳述する。 One embodiment of the present invention will be described in detail below with reference to the drawings.
(1)本実施の形態による会議支援システムの構成
図1において、1は全体として本実施の形態による会議支援システムを示す。この会議支援システム1は、会議(ワークショップ等も含む)の会場に設置された対面参加者側システム2と、オンラインで会議に参加する各参加者側にそれぞれ設けられたオンライン参加者側システム3と、会議支援装置4とを備えて構成される。
(1) Configuration of the conference support system according to the present embodiment In Fig. 1, the conference support system according to the present embodiment is generally designated by
対面参加者側システム2は、対面で会議に参加する各参加者の行動及び状態に関する各種情報をセンシングによりそれぞれ取得するセンサ群10Aと、これらの参加者にそれぞれ対応して設けられた複数の表示装置14Aとから構成される。センサ群10Aは、対面で会議に参加する各参加者にそれぞれ対応させて設けられた撮像装置11A、集音装置12A及び振動センサ13Aから構成される。
The face-to-
撮像装置11Aは、汎用のカメラ装置から構成され、対応する参加者の表情を撮影するために利用される。ただし、対面で会議に参加する各参加者にそれぞれ対応させて撮像装置11Aを設けるのではなく、例えば360°カメラを利用するようにしてもよい。各撮像装置11Aは、それぞれ撮影により得られた映像信号を会議支援装置4に送信する。
The
集音装置12Aは、汎用のマイクロホンから構成され、対応する参加者から発せられた音声を集音するために利用される。ただし、対面で会議に参加する各参加者にそれぞれ対応させて集音装置12Aを設けるのではなく、例えば、音源方向を特定可能な複数チャンネルのマイクロホンアレイを利用するようにしてもよい。各集音装置12Aは、集音した音声に応じた音声信号を会議支援装置4に送信する。
The
振動センサ13Aは、例えば加速度センサから構成され、対面で会議に参加する各参加者がそれぞれ着席する椅子の座面等にそれぞれ設置される。振動センサ13Aは、自身が設置された椅子に着席した参加者が頷くことにより生じる振動を検知し、検知した振動に応じた振動信号を会議支援装置4に出力する。
The
表示装置14Aは、例えば小型の液晶モニタなどから構成され、必要な情報を表示するために利用される。各表示装置14Aは、それぞれ対応する参加者の着座位置近傍に、その参加者が表示情報を目視可能な状態に設置される。
The
オンライン参加者側システム3は、オンラインで会議に参加する対応する参加者の行動及び状態に関する各種情報をセンシングにより取得するセンサ群10Bと、その参加者に対して会議画面やその他の各種情報を表示するための表示装置14Bとから構成され、ネットワーク5を介して会議支援装置4に接続される。センサ群10Bは、撮像装置11B、集音装置12B及び振動センサ13Bから構成される。
The
撮像装置11B、集音装置12B、振動センサ13B及び表示装置14Bの構成及び設置状態は、対面参加者側システム2の撮像装置11A、集音装置12A、振動センサ13A及び表示装置14Aと同様であるため、ここでの説明は省略する。撮像装置11Bから出力された映像信号、集音装置12Bから出力された音声信号、及び、振動センサ13Bから出力された振動信号は、それぞれネットワーク5を介して会議支援装置4に送信される。
The configurations and installation states of the
会議支援装置4は、対面参加者側システム2のセンサ群10Aと、各オンライン参加者側システム3のセンサ群10Bとによりそれぞれ収集された各参加者の行動及び状態に関する各種情報に基づいて各参加者の現在の行動・状態をリアルタイムで判定し、参加者ごとに、適宜、その参加者の属性と、そのときのその参加者の行動・状態とに応じた情報をその参加者の表示装置14A,14Bに表示する機能を有するコンピュータ装置である。
The
この会議支援装置4は、CPU(Central Processing Unit)20、メモリ21、記憶装置22及び入力装置23などの情報処理資源を備えて構成される。CPU20は、会議支援装置4全体の動作制御を司るプロセッサである。またメモリ21は、例えば揮発性の半導体メモリから構成され、CPU20のワーキングメモリとして利用される。
This
記憶装置22は、例えばハードディスク装置やSSD(Solid State Drive)などの不揮発性の大容量の記憶装置から構成され、各種プログラムや長期間保存が必要なデータを保持するために利用される。会議支援装置4の起動時や必要時に必要なプログラムが記憶装置22からメモリ21にロードされ、メモリ21にロードされたプログラムをCPU20が実行することにより、後述のような会議支援装置4全体として各種処理が実行される。
The
本実施の形態の場合、メモリ21には、記憶装置22からロードされた後述の画像処理プログラム30、音声処理プログラム31、頷き検出プログラム32、行動・状態判定プログラム33、表示情報決定プログラム34及び表示処理プログラム35が格納され、記憶装置22には、後述のような複数の管理テーブルから構成される情報管理データベース36が格納される。
In this embodiment, the
入力装置23は、例えばマウス及びキーボードなどから構成され、進行役の参加者(以下、これをファシリテータ又はファシリと呼ぶ)などが会議支援装置4に対する各種データや各種操作の入力を行うために利用される。
The
図2は、本実施の形態による会議支援装置4の論理構成を示す。この図2に示すように、会議支援装置4は、機能部として画像処理部40、音声処理部41、頷き検出部42、行動・状態判定部43、表示情報決定部44及び表示処理部45を備え、管理テーブルとして情報管理データベース36に格納された参加者属性管理テーブル50、センシング情報管理テーブル51、判定行動・状態管理テーブル52、複数の表示ルール管理テーブル53、表示要件管理テーブル54及び表示情報管理テーブル55を備えて構成される。
Figure 2 shows the logical configuration of the
なお、以下においては、会議に参加する各参加者と、どの撮像装置11A,11B、集音装置12A,12B、振動センサ13A,13B及び表示装置14A,14Bとがそれぞれ対応付けられるかという情報が事前に画像処理部40、音声処理部41、頷き検出部42及び表示処理部45にそれぞれ与えられているものとする。また以下においては、各参加者には、それぞれその参加者に固有の識別子(以下、これを参加者IDと呼ぶ)が付与されているものとする。
In the following, it is assumed that information regarding which
画像処理部40は、メモリ21(図1)にロードされた図1の画像処理プログラム30をCPU20(図1)が実行することにより具現化される機能部である。画像処理部40は、各撮像装置11A,11Bからそれぞれ与えられた映像信号に基づいて、各参加者の顔の表情を所定の判定周期(例えば1秒周期)で判定し、いずれかの参加者の笑顔又は発言したそうな表情(例えば、意見を述べたそうに無言で口を開閉するなどの表情)を検出したときに、その旨及びその参加者の参加者IDを行動・状態判定部43に通知する。
The
また画像処理部40は、対面参加者側システム2の各撮像装置11Aからそれぞれ与えられた映像信号に基づいて、対面で会議に出席した各参加者の顔の向きを上述の判定周期でそれぞれ判定し、いずれかの参加者が他の参加者を見ていると判定した場合に、その参加者の参加者IDと、その参加者が見ていた他の参加者の参加者IDとを行動・状態判定部43に通知する。
The
音声処理部41は、メモリ21にロードされた図1の音声処理プログラム31をCPU20が実行することにより具現化される機能部である。音声処理部41は、各集音装置12A,12Bからそれぞれ与えられた音声信号に基づいて、いずれかの参加者の発話があった場合にその発話の音量の計測を上述の判定周期で行い、その発話を行った参加者の参加者IDと、計測したその発話の音量とを行動・状態判定部43に通知する。
The
頷き検出部42は、メモリ21にロードされた図1の頷き検出プログラム32をCPU20が実行することにより具現化される機能部である。頷き検出部42は、各振動センサ13A,13Bからそれぞれ与えられる振動信号を上述の判定周期で分析し、いずれかの参加者が頷いていることを検出した場合に、その旨及びその参加者の参加者IDを行動・状態判定部43に通知する。
The nodding
行動・状態判定部43は、メモリ21にロードされた図1の行動・状態判定プログラム33をCPU20が実行することにより具現化される機能部である。行動・状態判定部43は、上述の判定周期で画像処理部40、音声処理部41及び頷き検出部42からそれぞれ通知される各情報を後述のセンシング情報管理テーブル51に順次格納して管理する。また行動・状態判定部43は、センシング情報管理テーブル51に格納した各情報に基づいて各参加者のそのときの行動・状態を上述の判定周期で判定し、判定結果を判定行動・状態管理テーブル52に登録して管理する。
The behavior/
なお、本実施の形態の場合、行動・状態判定部43は、参加者が「発話中」、「非発話中かつ真面目に聞いている」及び「非発話中かつ興味なし/内職中」のいずれかの行動をとっているか否かを判定するものとする。
In this embodiment, the behavior/
「発話中」は、対応する参加者が発話を行っている状態を指す。また「非発話中かつ真面目に聞いている」は、対応する参加者が、発話を行っておらず(非発話中)、かつそのとき発話を行っている参加者(以下、適宜、これを発話者と呼ぶ)の発話内容を真面目に聞いている状態を指す。さらに「非発話中かつ興味なし/内職中」は、対応する参加者が、発話を行っておらず(非発話中)、かつそのときの発話者の発話内容に興味がないか又は会議とは関係のない作業を行っている状態を指す。 "Speaking" refers to a state in which the corresponding participant is speaking. "Not speaking and listening attentively" refers to a state in which the corresponding participant is not speaking (not speaking) and is listening attentively to what the participant who is currently speaking (hereinafter referred to as the speaker) is saying. "Not speaking and not interested/doing side work" refers to a state in which the corresponding participant is not speaking (not speaking) and is not interested in what the speaker is saying at the time or is doing work unrelated to the meeting.
表示情報決定部44は、メモリ21にロードされた図1の表示情報決定プログラム34をCPU20が実行することにより具現化される機能部である。表示情報決定部44は、上述のセンシング情報管理テーブル51及び判定行動・状態管理テーブル52にそれぞれ格納された各情報と、後述する参加者属性管理テーブル50、各表示ルール管理テーブル53及び表示要件管理テーブル54とにそれぞれ格納された各情報とに基づいて、参加者ごとに、現在の状況がその参加者の表示装置14A,14Bに何らかの情報を表示すべき状況であるか否かを上述の判定周期で判定する。
The display
そして表示情報決定部44は、いずれかの参加者について、何らかの情報を表示すべき状況にあると判定した場合には、後述の表示情報管理テーブル55を参照してそのときその参加者の表示装置14A,14Bに表示すべき情報を決定し、決定した情報をその参加者の参加者IDと共に表示処理部45に通知する。
When the display
表示処理部45は、メモリ21にロードされた図1の表示処理プログラム35をCPU20が実行することにより具現化される機能部である。表示処理部45は、表示情報決定部44から通知された情報及び参加者IDに基づいて、その参加者IDが付与された参加者の表示装置14A,14Bにその情報を送信する。これにより、その情報がその参加者の表示装置14A,14Bに表示される。
The
一方、参加者属性管理テーブル50は、予め設定された各参加者の属性を管理するに利用されるテーブルである。ここでの「参加者の属性」とは、会議におけるその参加者の立場を意味する。本実施の形態においては、このような「参加者の属性(立場)」として、例えば会議が社内会議である場合には、司会進行役である「ファシリ」と、参加者の中で立場が上の「上司」と、参加者の中で立場が「上司」よりも下の「部下」と、クライアントなどのゲスト的な存在である「ゲスト」との4つの属性が規定されている。 Meanwhile, the participant attribute management table 50 is a table used to manage the attributes of each participant that have been set in advance. Here, "participant attributes" refers to the position of the participant in the conference. In this embodiment, for example, if the conference is an internal conference, four attributes are defined as such "participant attributes (positions)": "facilitator" who acts as the moderator, "superior" who has a higher position among the participants, "subordinate" who has a lower position than the "superior" among the participants, and "guest" who is a guest-like presence such as a client.
参加者属性管理テーブル50は、図3に示すように、参加者ID欄50A及び属性欄50Bを備えて構成される。参加者属性管理テーブル50では、1つの行が一人の参加者に対応する。そして参加者ID欄50Aには、対応する参加者の参加者IDが格納され、属性欄50Bには、予め設定されたその参加者のその会議における属性(立場)が格納される。
As shown in FIG. 3, the participant attribute management table 50 is configured with a
従って、図3の例の場合、「0001」という参加者IDが付与された参加者の属性(立場)は「ファシリ」であり、「0002」という参加者IDが付与された参加者の属性(立場)は「上司」であることが示されている。 Therefore, in the example of Figure 3, the attribute (position) of the participant assigned the participant ID "0001" is "facilitator," and the attribute (position) of the participant assigned the participant ID "0002" is "supervisor."
センシング情報管理テーブル51は、上述のように判定周期で画像処理部40、音声処理部41及び頷き検出部42からそれぞれ与えられる各通知に基づく情報を参加者ごとに分けて保存するために利用されるテーブルであり、参加者ごとにそれぞれ生成される。
The sensing information management table 51 is a table used to store information based on each notification provided by the
センシング情報管理テーブル51は、図4に示すように、経過時間欄51A、表情欄51B、向き欄51C、発話欄51D、音量欄51E、発話時間欄51F及び頷き欄51Gを備えて構成される。センシング情報管理テーブル51では、1つのレコード(行)が、上述の判定周期で画像処理部40、音声処理部41及び頷き検出部42からそれぞれ通知されてきた1回分の分析結果に対応する。なお、以下においては、かかる判定周期で到来し、画像処理部40、音声処理部41及び頷き検出部42が映像信号、音声信号又は頷き検出信号の分析を行うタイミングをデータ分析タイミングと呼ぶものとする。
As shown in FIG. 4, the sensing information management table 51 is configured with an elapsed
経過時間欄51Aには、対応するデータ分析タイミングの会議開始からの経過時間が格納される。また表情欄51Bには、1つ前のデータ分析タイミングから対応するデータ分析タイミングまでの期間(以下、これを直前のデータ分析期間と呼ぶ)内に、画像処理部40が検出した対応する参加者の表情に応じた値が格納される。例えば、かかる直前のデータ分析期間内に、画像処理部40が対応する参加者の表情として笑顔を検出した場合には「1」、発言したそうな表情を検出した場合には「2」、これ以外の場合には「0」が表情欄51Bに格納される。
The elapsed
また向き欄51Cには、直前のデータ分析期間内に、対面で会議に参加していた対応する参加者の顔が他の参加者に向いていた(つまり対応する参加者が他の参加者を見ていた)と画像処理部40が判定したときに、その画像処理部40から行動・状態判定部43に通知された当該他の参加者の参加者IDが格納される。
In addition, the
発話欄51Dには、直前のデータ分析期間内に、対応する参加者の発話を音声処理部41が検出したか否かを表すフラグ(以下、これを発話フラグと呼ぶ)が格納される。図4の例では、かかるデータ分析期間内に対応する参加者の発話を音声処理部41が検出した場合には発話フラグが「1」に設定され、検出しなかった場合には発話フラグが「0」に設定される。
The
また音量欄51Eには、直前のデータ分析期間内に音声処理部41が対応する参加者の発話を検出したときに、音声処理部41により計測されたその発話の音量(発話音量)が格納され、発話時間欄51Fには、その発話が開始されてからの継続時間が格納される。
The
さらに頷き欄51Gには、直前のデータ分析期間内に、対応する参加者が頷いていることを頷き検出部42が検出したか否かを表すフラグ(以下、これを頷きフラグと呼ぶ)が格納される。図4の例では、かかるデータ分析期間内に対応する参加者が頷いていたことを頷き検出部42が検出した場合には頷きフラグが「1」に設定され、検出しなかった場合には頷きフラグが「0」に設定される。
Furthermore, the
従って、図4の例の場合、この図4に対応する参加者は、例えば会議の開始後「00:00:01」~「00:00:02」の期間内に、笑顔や発言したそうな表情になることも、さらには発話することもなく、「1」という参加者IDの参加者に顔を向けており、この間に少なくとも「1」度は頷いたことが検出されたことが示されている。 Therefore, in the example of Figure 4, the participant corresponding to this Figure 4 does not smile or look as if he or she is about to speak, nor does he or she speak, for example, during the period from "00:00:01" to "00:00:02" after the start of the conference, but turns his or her face toward the participant with participant ID "1", and is detected to have nodded at least "1" time during this period.
判定行動・状態管理テーブル52は、行動・状態判定部43がセンシング情報管理テーブル51に格納された情報に基づいて判定周期で判定した、参加者ごとの、その参加者がそのとき行っていた行動又はそのときの状態を管理するために利用されるテーブルであり、図5に示すように、参加者ID欄52A及び判定行動・状態欄52Bを備えて構成される。判定行動・状態管理テーブル52では、1つのレコード(行)が、一人の参加者に対応する。
The determined action/state management table 52 is a table used to manage the action or state that each participant was performing at that time, which was determined at a determination period by the action/
そして参加者ID欄52Aには、対応する参加者の参加者IDが格納され、判定行動・状態欄52Bには、行動・状態判定部43により判定されたその参加者がそのとき行っていた行動又はその参加者のそのときの状態が格納される。
The
なお、本実施の形態の場合、上述のように行動・状態判定部43は、参加者が「発話中」、「非発話中かつ真面目に聞いている」及び「非発話中かつ興味なし/内職中」のいずれかの行動をとっているかを判定するため、各レコードの判定行動・状態欄52Bには、原則としてこれら「発話中」、「非発話中かつ真面目に聞いている」又は「非発話中かつ興味なし/内職中」と、これらのいずれにも該当しないことを意味する「-」とのうちのいずれかの情報が格納される。
In the case of this embodiment, as described above, the behavior/
ただし、参加者が「ファシリ」の場合には、行動・状態判定部43により判定された行動・状態が「非発話中かつ真面目に聞いている」又は「非発話中かつ興味なし/内職中」であったときには、「非発話中」という情報が判定行動・状態欄52Bに格納される(図5の参加者IDが「0001」の判定行動欄を参照)。
However, if the participant is a "facilitator," and the behavior/state determined by the behavior/
従って、「ファシリ」については、対応する判定行動・状態欄52Bに「非発話中」という情報が格納されていた場合、そのときの行動が「非発話中かつ真面目に聞いている」及び「非発話中かつ興味なし/内職中」のいずれかであったことを意味する。
Therefore, for a "facilitator," if the information "not speaking" is stored in the corresponding judgment behavior/
一方、表示ルール管理テーブル53は、どのような属性(立場)の参加者がどのような行動をとり又はどのような状態にあるときに、どのような要件を満たせば、どのような項目の情報をその参加者の表示装置14A,14Bに表示するかといった、予め定められた情報の表示ルールを管理するために利用されるテーブルである。
On the other hand, the display rule management table 53 is a table used to manage the display rules of predetermined information, such as what items of information are displayed on the
表示ルール管理テーブル53は、参加者の各属性にそれぞれ対応させて「ファシリ」用、「上司」用、「部下」用及び「ゲスト」用の4種類があり、これら4種類の表示ルール管理テーブル53がそれぞれ事前に作成されて情報管理データベース37に格納される。 There are four types of display rule management tables 53, one for "facilitator," one for "supervisor," one for "subordinate," and one for "guest," each corresponding to a different attribute of a participant. Each of these four types of display rule management tables 53 is created in advance and stored in the information management database 37.
図6(A)は、このうちの「ファシリ」用の表示ルール管理テーブル53Aを示す。この図6(A)に示すように、「ファシリ」用の表示ルール管理テーブル53Aは、「ファシリ」の行動・状態が発話中である場合と対応付けられた第1の領域53AAと、「ファシリ」の行動・状態が非発話中である場合と対応付けられた第2の領域53ABとから構成される。 Figure 6 (A) shows the display rule management table 53A for the "facilitator." As shown in Figure 6 (A), the display rule management table 53A for the "facilitator" is composed of a first area 53AA associated with the action/state of the "facilitator" being speaking, and a second area 53AB associated with the action/state of the "facilitator" not speaking.
第1の領域53AAは、「ファシリ」のそのときの行動・状態が発話中の場合に、状況に応じてその「ファシリ」の表示装置14A,14Bに情報を表示すべき各項目(以下、これらを表示項目と呼ぶ)にそれぞれ対応させた1又は複数の列(以下、これを表示項目列と呼ぶ)53AAAから構成される。本実施の形態では、「ファシリ」が発話中である場合、その「ファシリ」の表示装置14A,14Bに情報を表示する表示項目は「同意者数多1」という表示項目だけであるため、第1の領域53AAは「同意者数1」という表示項目列53AAAのみから構成される。なお、「同意者数1」は、「ファシリ」の発話中に、その「ファシリ」の発話内容に同意した参加者の人数を「ファシリ」の表示装置14A,14Bに表示するという内容の表示項目である。
The first area 53AA is composed of one or more columns (hereinafter referred to as display item columns) 53AAA corresponding to each item (hereinafter referred to as display items) whose information should be displayed on the
同様に、第2の領域53ABは、「ファシリ」のそのときの行動が非発話中の場合、状況に応じてその「ファシリ」の表示装置14A,14Bに情報を表示する各表示項目にそれぞれ対応させた1又は複数の表示項目列53ABA、53ABB、53ABCから構成される。本実施の形態の場合、「ファシリ」が非発話中である場合、状況に応じて「ファシリ」の表示装置14A,14Bに対応する情報を表示すべき表示項目として、「盛上り度」、「同意者数多2」及び「発話希望者」の3つの表示項目が規定されている。このため第2の領域53ABは、「盛上り度」、「同意者数2」及び「発話希望者有」という3つの表示項目列53ABA~53ABCから構成されている。
Similarly, the second area 53AB is composed of one or more display item columns 53ABA, 53ABB, 53ABC, each corresponding to a display item that displays information on the
「盛上り度」は、「ファシリ」以外の参加者の発話による会議の盛上りの度合(盛上り度)を「ファシリ」の表示装置14A,14Bに表示するという内容の表示項目である。「盛上り度」の詳細については後述する。また「同意者数2」は、「ファシリ」以外の参加者の発話内容に同意した他の参加者の人数を「ファシリ」の表示装置14A,14Bに表示するという内容の表示項目であり、「発言希望者有」は、発言したそうな表情(発話したそうな表情)の参加者がいる場合に、その参加者の参加者IDを「ファシリ」の表示装置14A,14Bに表示するという内容の表示項目である。
"Excitement level" is a display item that displays the degree of excitement of the meeting (excitement level) due to the speech of participants other than the "facilitator" on the "facilitator's"
さらに第1及び第2の領域53AA,53ABの各表示項目列53AAA,53ABA~53ABCは、それぞれ表示項目欄53AC、表示優先度欄53AD及び表示情報欄53AEに区分されている。 Furthermore, each of the display item columns 53AAA, 53ABA to 53ABC in the first and second areas 53AA, 53AB is divided into a display item column 53AC, a display priority column 53AD, and a display information column 53AE, respectively.
そして表示項目欄53ACには、その表示項目列53AAA,53ABA~53ABCに対応する表示項目の名称が格納され、表示優先度欄53ADには、その表示項目の表示優先度が格納される。表示優先度は、対応する表示項目の情報を表示する際の優先度であり、その表示ルール管理テーブル53が適用される参加者が発話中及び非発話中の場合ごとにそれぞれ独立して決定される。 The display item column 53AC stores the names of the display items corresponding to the display item columns 53AAA, 53ABA to 53ABC, and the display priority column 53AD stores the display priority of the display items. The display priority is the priority when displaying the information of the corresponding display item, and is determined independently for each case in which the participant to whom the display rule management table 53 applies is speaking and not speaking.
その表示ルール管理テーブル53が適用される参加者が発話中又は非発話中の場合に、複数の表示項目の情報を表示すべき状況となった場合、最も表示優先度が高い表示項目の情報のみがその参加者の表示装置に表示され、他の表示項目の情報は表示されない。また最も表示優先度が高い表示項目が複数存在する場合には、これらすべての表示項目の情報がその参加者の表示装置14A,14Bに表示される。
When a participant to whom the display rule management table 53 applies is speaking or not speaking and a situation arises in which information on multiple display items should be displayed, only the information on the display item with the highest display priority is displayed on the participant's display device, and information on the other display items is not displayed. Furthermore, if there are multiple display items with the highest display priority, information on all of these display items is displayed on the participant's
さらに表示情報番号欄53AEには、対応する表示項目の情報を表示するための表示要件が満たされたときに表示すべき情報に付与された、その情報に固有の識別番号(以下、これを表示情報番号と呼ぶ)が格納される。いずれかの表示項目の表示要件が満たされた場合には、その表示項目に対応する表示項目列53AAA,53ABA~53ABCの表示情報番号欄53AEに格納された表示情報番号を検索キーとして後述する表示情報管理テーブル55上でそのとき表示すべき情報を検索し、検出した情報をその表示ルール管理テーブル53が適用される参加者の表示装置14A,14Bに表示することになる。
Furthermore, the display information number column 53AE stores an identification number (hereinafter referred to as the display information number) unique to the information to be displayed when the display requirements for displaying the information of the corresponding display item are met. When the display requirements for any display item are met, the display information number stored in the display information number column 53AE of the display item column 53AAA, 53ABA to 53ABC corresponding to that display item is used as a search key to search for the information to be displayed at that time in the display information management table 55 described below, and the detected information is displayed on the
一方、図7(A)、図8(A)及び図9(A)は、それぞれ「上司」用、「部下」用又は「ゲスト」用の表示ルール管理テーブル53B、53C,53Dを示す。これら図7(A)~図9(A)にそれぞれ示すように、「上司」用、「部下」用及び「ゲスト」用の各表示ルール管理テーブル53B~53Dの基本的な構成は「ファシリ」用の表示ルール管理テーブル53Aと同じである。 Meanwhile, Figures 7(A), 8(A) and 9(A) show display rule management tables 53B, 53C and 53D for "Superior", "Subordinate" and "Guest", respectively. As shown in Figures 7(A) to 9(A), the basic configuration of each of the display rule management tables 53B to 53D for "Superior", "Subordinate" and "Guest" is the same as the display rule management table 53A for "Facilitator".
ただし、参加者の属性が「上司」、「部下」又は「ゲスト」である場合、その参加者が発話中のときに、状況に応じてその参加者の表示装置14A,14Bに対応する情報を表示する表示項目として「同意者数多1」、「後押し」及び「発話時間」という3つの表示項目が規定されている。
However, if the attribute of a participant is "superior," "subordinate," or "guest," three display items, "Number of
このため「上司」用、「部下」用又は「ゲスト」用の表示ルール管理テーブル53B~53Dでは、第1の領域53BA,53CA,53DAがこれら「同意者数多3」という表示項目に対応する表示項目列53BAA,53CAA,53DAAと、「後押し」という表示項目に対応する表示項目列53BAB,53CAB,53DABと、「発話時間」という表示項目に対応する表示項目列53BAC,53CAC,53DACとから構成されている。 For this reason, in the display rule management tables 53B to 53D for "Superior," "Subordinate," or "Guest," the first areas 53BA, 53CA, 53DA are made up of display item columns 53BAA, 53CAA, 53DAA corresponding to the display item "Number of consenters: 3," display item columns 53BAB, 53CAB, 53DAB corresponding to the display item "Support," and display item columns 53BAC, 53CAC, 53DAC corresponding to the display item "Speech time."
なお「同意者数多1」は、その表示ルール管理テーブル53(53B~53D)が適用される参加者(「上司」、「部下」又は「ゲスト」)の発話中に、その参加者の発話内容に同意した他の参加者の人数が多いと判定された場合に、その人数をその参加者の表示装置14A,14Bに表示するという内容の表示項目である。
Note that "
また「後押し」は、その表示ルール管理テーブル53(53B~53D)が適用される参加者が発話中である場合に、発話を後押しするようなメッセージをその参加者の表示装置14A,14Bに表示するという内容の表示項目である。さらに「発話時間」は、その表示ルール管理テーブル53(53B~53D)が適用される参加者の発話中に、その発話の継続時間をその参加者の表示装置14A,14Bに表示するという内容の表示項目である。
"Boost" is a display item whose content is to display a message encouraging a participant to speak on the
また、参加者の属性が「上司」、「部下」又は「ゲスト」である場合、非発話中という行動・状態は、「真面目に聞いている」及び「興味なし/内職中」という行動・状態に細分化されている。「真面目に聞いている」は、参加者の「非発話中かつ真面目に聞いている」という行動・状態に対応し、「興味なし/内職中」は、参加者の「非発話中かつ興味なし/内職中」という行動・状態に対応する。 In addition, when the attribute of a participant is "superior," "subordinate," or "guest," the behavior/state of not speaking is subdivided into the behavior/states of "listening attentively" and "not interested/doing work from home." "Listening attentively" corresponds to the behavior/state of the participant "not speaking and listening attentively," and "not interested/doing work from home" corresponds to the behavior/state of the participant "not speaking and not interested/doing work from home."
そして、その表示ルール管理テーブル53(53B~53D)が適用される参加者が「非発話中かつ真面目に聞いている」という行動・状態である場合、状況に応じてその参加者の表示装置14A,14Bに対応する情報を表示する表示項目として、「口出し」及び「影響・効果」という2つの表示項目が規定されている。
When a participant to whom the display rule management table 53 (53B to 53D) is applied is in the behavior/state of "not speaking and listening attentively," two display items, "interjection" and "influence/effect," are specified as display items that display information corresponding to the participant's
また、その対象参加者が「非発話中かつ興味なし/内職中」という行動をとっている場合、状況に応じてその対象参加者の表示装置に対応する情報を表示する表示項目として、「非聴時間」という表示項目が規定されている。 In addition, if the target participant is in the "not speaking and not interested/doing side work" behavior, a display item called "non-listening time" is defined as a display item that displays information corresponding to the target participant's display device depending on the situation.
このため「上司」用、「部下」用又は「ゲスト」用の表示ルール管理テーブル53(53B~53D)では、第2の領域53BB,53CB,53DBが、さらに「真面目に聞いている」という領域53BBX、53CBX,53DBXと、「興味なし/内職中」という領域53BBY、53CBY,53DBYとに分けられている。 For this reason, in the display rule management table 53 (53B-53D) for "Superior", "Subordinate" or "Guest", the second area 53BB, 53CB, 53DB is further divided into areas 53BBX, 53CBX, 53DBX for "Listening attentively" and areas 53BBY, 53CBY, 53DBY for "Not interested/doing side work".
そして「真面目に聞いている」という領域53BBX、53CBX,53DBXは、「口出し」という表示項目に対応する表示項目列53BAB,53CBA,53DBAと、「影響・効果」という表示項目に対応する表示項目列53BBB,53CBB,53DBBとから構成されている。また「興味なし/内職中」という領域53BBY、53CBY,53DBYは、「興味なし/内職中」という表示項目に対応する表示項目列53BBC,53CBC,53DBCから構成されている。 The "listening attentively" areas 53BBX, 53CBX, 53DBX are made up of display item columns 53BAB, 53CBA, 53DBA corresponding to the display item "interfering" and display item columns 53BBB, 53CBB, 53DBB corresponding to the display item "influence/effect." The "not interested/doing side work" areas 53BBY, 53CBY, 53DBY are made up of display item columns 53BBC, 53CBC, 53DBC corresponding to the display item "not interested/doing side work."
なお、「口出し」は、参加者が非発話中、かつその参加者が発言したそうな表情のときに、他の参加者の発話が終了したタイミングでその対象参加者に対して発話を促すメッセージをその参加者の表示装置14A,14Bに表示するという内容の表示項目である。また「影響・効果」は、対象参加者が口火を切った話題についての議論が継続している間、その話題について発話を行った参加者の人数と、その話題の現在までの継続時間とを対象参加者の表示装置14A,14Bに表示するという内容の表示項目である。さらに「非聴時間」は、対象参加者が会議に興味がない又は会議に関係しない作業を行っていると推測される行動をとり又は状態にあるときに、その行動・状態の継続時間(以下、これを「非聴時間」と呼ぶ)を表示するという内容の表示項目である。
"Interjection" is a display item that displays a message on the
また「上司」用、「部下」用及び「ゲスト」用の表示ルール管理テーブル53(53B、53C,53D)において、表示項目列(53BAA~53BAC,53BBA~53BBC)、(53CAA~53CAC,53CBA~53CBC)、(53DAA~53DAC,53DBA~53DBC)の表示情報欄53BE,53CE,53DEに「非表示」と表記された表示項目については、現在の状況がその表示項目の情報を対象参加者の表示装置14A,14Bに対応する情報を表示すべき状況にあるか否かの判定は行われず、この結果としてこれらの表示項目の情報は対象参加者の表示装置14A,14Bには表示されないことを意味する。
In addition, in the display rule management tables 53 (53B, 53C, 53D) for "Superior", "Subordinate" and "Guest", for display items marked as "Hidden" in the display information columns 53BE, 53CE, 53DE of the display item columns (53BAA-53BAC, 53BBA-53BBC), (53CAA-53CAC, 53CBA-53CBC), (53DAA-53DAC, 53DBA-53DBC), no determination is made as to whether the current situation is such that the information for that display item should be displayed on the
他方、表示要件管理テーブル54は、「ファシリ」用、「上司」用、「部下」用及び「ゲスト」用の各表示ルール管理テーブル53(53A~53D)で規定された各表示項目の情報を、対象参加者の表示装置14A,14Bに表示するための要件(以下、これを表示要件と呼ぶ)を管理するために利用されるテーブルである。各表示項目の表示要件は予め定められ、事前に表示要件管理テーブル54に格納されて管理される。
On the other hand, the display requirements management table 54 is a table used to manage the requirements (hereinafter referred to as display requirements) for displaying the information of each display item defined in each display rule management table 53 (53A-53D) for "facilitator," "supervisor," "subordinate," and "guest" on the target participant's
表示要件管理テーブル54は、図10に示すように、表示項目欄54A及び表示要件欄54Bを備えて構成される。表示要件管理テーブル54では、1つのレコード(行)が、1つの表示項目に対応する。
As shown in FIG. 10, the display requirements management table 54 is configured with a
そして表示項目欄54Aには、対応する表示項目の名称が格納され、表示要件欄54Bには、その表示項目の情報を対象とする参加者の表示装置14A,14Bに表示するための要件(表示要件)が格納される。
The
従って、図10の例の場合、例えば、「同意者数多1」という表示項目は、対象とする参加者(ここでは「ファシリ」のみ)が発話中にその参加者の発話内容に同意した他の参加者の人数を表示するという内容の表示項目であるため、対象参加者が発話中であることがその表示要件であることが示されている。 Therefore, in the example of Figure 10, for example, the display item "Number of Agreeing Participants: 1" is a display item whose content is to display the number of other participants who agree with what the target participant (here, only the "facilitator") is saying while that participant is speaking, so it is indicated that the display requirement is that the target participant is speaking.
なお、各表示項目の表示要件が満たされたか否か(その表示項目の情報を表示する状況にあるか否か)の判定は、図6(B)、図7(B)、図8(B)及び図9(B)において「○」が付された情報を利用して行う。 The determination of whether the display requirements for each display item are met (whether the situation is such that the information for that display item can be displayed) is made using the information marked with an "O" in Figures 6(B), 7(B), 8(B), and 9(B).
図6(B)~図9(B)において、「自分」欄53AF、53BF,53CF,53DFの「表情」、「向き」、「発話」、「発話時間」及び「頷き」の各欄53AG,53BG,53CG,53DGは、それぞれ対象参加者(ここでは「ファシリ」)のセンシング情報管理テーブル51(図4)の表情欄51B、向き欄51C、発話欄51D、音量欄51E、発話時間欄51F及び頷き欄51Gにそれぞれ対応し、「他者」欄53AH,53BH,53CH,53DHの「表情」、「向き」、「発話」、「音量」、「発話時間」及び「頷き」の各欄53AI,53BI,53CI,53DIは、それぞれ対象参加者以外の参加者のセンシング情報管理テーブル51における表情欄51B、向き欄51C、発話欄51D、音量欄51E、発話時間欄51F及び頷き欄51Gにそれぞれ対応する。
6(B) to 9(B), the "Facial Expression," "Direction," "Speech," "Speech Time," and "Nod" columns 53AG, 53BG, 53CG, and 53DG in the "Self" columns 53AF, 53BF, 53CF, and 53DF correspond to the
従って、例えば「同意者数1」という表示項目の情報を表示する表示要件が満たされたか否かを判定する場合には、対象参加者(「ファシリ」)のセンシング情報管理テーブル51の発話欄51Dに格納された発話フラグの値を参照して対象参加者が発話中であると判定したことを前提として、対象参加者以外の各参加者のセンシング情報管理テーブル51の表情欄51B、向き欄51C及び頷き51Gにそれぞれ格納された情報を利用して、対象参加者の発話内容に同意した人数をカウントすることになる。
Therefore, for example, when determining whether the display requirements for displaying information for a display item such as "Number of people who agree: 1" have been met, the system will determine that the target participant ("facilitator") is speaking by referring to the value of the speech flag stored in the
また表示情報管理テーブル55は、各表示ルール管理テーブル53(53A~53D)の表示情報番号欄53AE,53BE,53CE,53DEにそれぞれ格納された表示情報番号と、実際に対応する参加者の表示装置14A,14Bに表示すべき具体的な情報との対応関係を管理するために利用されるテーブルであり、予め作成されて情報管理データベース37に格納される。
The display information management table 55 is a table used to manage the correspondence between the display information numbers stored in the display information number columns 53AE, 53BE, 53CE, and 53DE of each display rule management table 53 (53A to 53D) and the specific information that should actually be displayed on the corresponding participant's
表示情報管理テーブル55は、図11に示すように、表示情報番号欄55A及び表示情報欄55Bを備えて構成される。そして表示情報欄55Bには、対応する参加者の表示装置14A,14Bに表示すべき情報の具体的な内容が格納され、表示情報番号欄55Aには、その情報に対して付与されたその情報に固有の表示情報番号が格納される。
As shown in FIG. 11, the display information management table 55 is configured with a display
なお、図11において、括弧で示された情報は、その情報の具体的数値が対応する参加者の表示装置14A,14Bに表示すべき情報であることを意味し、かぎ括弧で示された情報は、そのかぎ括弧内のメッセージが対応する参加者の表示装置14A,14Bに表示すべき情報であることを意味する。
In FIG. 11, information in parentheses means that the specific numerical value of the information is to be displayed on the
従って、図11の例の場合、例えば「1」という表示情報番号が付与された情報は、「同意者数」(つまり発話者の発話内容に同意している参加者の人数)であり、「4」という表示情報番号が付与された表示情報は、「いいね!」というメッセージであることが示されている。 Therefore, in the example of Figure 11, the information assigned with a display information number of "1" is the "number of people who agree" (i.e., the number of participants who agree with what the speaker said), and the display information assigned with a display information number of "4" is the message "Like!".
(2)各機能部の具体的な処理内容
次に、上述した会議支援装置4の各機能部の具体的な処理内容について説明する。ただし、画像処理部40、音声処理部41、頷き検出部42及び表示処理部45の処理内容は、既存技術を利用した汎用の処理内容であるので説明は省略する。ここでは、特に、行動・状態判定部43による各参加者の行動の判定手法と、表示情報決定部44による表示情報の決定手法とについて説明する。
(2) Specific Processing Contents of Each Functional Unit Next, specific processing contents of each functional unit of the above-mentioned
(2-1)行動・状態判定部の具体的な処理内容
行動・状態判定部43は、各参加者のセンシング情報管理テーブル51(図4)を利用して、上述のデータ分析タイミングごとに、現在の各参加者の行動をそれぞれ以下のようにして判定する。
(2-1) Specific Processing Contents of the Behavior/State Determination Unit The behavior/
行動・状態判定部43は、まず、処理の対象となる参加者(対象参加者)のセンシング情報管理テーブル51における最新のレコードの発話欄51Dを参照する。そして行動・状態判定部43は、その発話欄51Dに格納されている発話フラグが「1」の場合には、現在の対象参加者の行動が発話中であると判定する。
The behavior/
また行動・状態判定部43は、かかる発話フラグが「0」の場合には、現在、その対象参加者は非発話中であると判定する。そして対象参加者が非発話中であると判定した場合、行動・状態判定部43は、対象参加者以外の各参加者のセンシング情報管理テーブル51における最新のレコードの発話欄51Dを参照して、上述と同様にして対象参加者以外の各参加者が発話中であるか否かを判定する。そして行動・状態判定部43は、対象参加者以外のいずれかの参加者が発話中であると判定した場合には、対象参加者がその参加者(発話者)の話を真面目に聞いているか否かを判定する。
Furthermore, if the speech flag is "0", the behavior/
本実施の形態では、対象参加者がその発話者が発話を開始してから1度でも頷いた場合や、発話者が発話を開始してから現在までに一定割合(例えば90%であり、以下、これを第1の割合と呼ぶ)以上の時間を発話者に顔を向けている場合(対面での会議参加者に限定)に、その対象参加者が発話者の話を真面目に聞いているものとする。 In this embodiment, if the target participant nods at least once since the speaker started speaking, or if the target participant has been facing the speaker for a certain percentage (e.g., 90%, hereafter referred to as the first percentage) or more since the speaker started speaking (limited to face-to-face conference participants), the target participant is deemed to be listening to the speaker attentively.
そこで行動・状態判定部43は、まず、その発話者のセンシング情報管理テーブル51を参照して、その発話者が発話を開始した時刻(以下、これを発話開始時刻と呼ぶ)を特定する。この発話開始時刻は、そのセンシング情報管理テーブル51の発話欄51Dに格納されている発話フラグの値が現時点まで連続して又はほぼ連続して「1」となり始めた最古の時刻である。
The behavior/
次に、行動・状態判定部43は、対象参加者のセンシング情報管理テーブル51を参照して、発話者の発話開始時刻のレコードから最新のレコードまでの各レコードのうちの少なくとも1つのレコードの頷き欄51Gに格納された頷きフラグが「1」に設定されているか否か、及び、かかる発話開始時刻のレコードから最新のレコードまでの各レコードのうちの向き欄51Cに発話者の発話者IDが格納されているレコードの割合が第1の割合以上のレコードであるか否かをそれぞれ判定する。
The behavior/
そして行動・状態判定部43は、前者及び後者の少なくとも一方の判定で肯定結果が得られた場合には、その対象参加者の現在の行動が「非発話中かつ真面目に聞いている」であると判定する。なお、このような顔の向きによる対象参加者の行動・状態の判定は、対面での会議参加者に限定される。以下においても同様である。
If a positive result is obtained in at least one of the former and latter determinations, the behavior/
また行動・状態判定部43は、対象参加者以外のいずれかの参加者が発話中であると判定した場合、対象参加者がその発話者の発話内容に興味がない又は会議に関係しない作業(内職)を行っているか否かを判定する。
In addition, when the behavior/
本実施の形態では、対象参加者がその発話者が発話を開始してから1度も頷いていない場合や、発話者が発話を開始してから現在までに対象参加者が発話者に顔を向けている時間が一定割合(例えば20%であり、以下、これを第2の割合と呼ぶ)以下あった場合には、その対象参加者がその発話者の発話内容に興味がない又は会議に関係しない作業(内職)を行っている状態と判定するものとする。 In this embodiment, if the target participant has not nodded even once since the speaker started speaking, or if the target participant has been facing the speaker for a certain percentage or less (e.g., 20%, hereafter referred to as the second percentage) since the speaker started speaking, it is determined that the target participant is not interested in what the speaker is saying or is engaged in work unrelated to the meeting (side work).
そこで行動・状態判定部43は、対象参加者のセンシング情報管理テーブル51を参照して、発話者の発話開始時刻のレコードから最新のレコードまでの各レコードの頷き欄51Gにそれぞれ格納された頷きフラグがすべて「0」に設定されているか否か、及び、かかる発話開始時刻のレコードから最新のレコードまでの各レコードのうちの向き欄51Cに発話者の発話者IDが格納されているレコードの割合が第2の割合以下であるか否かをそれぞれ判定する。
The behavior/
そして行動・状態判定部43は、前者及び後者の少なくとも一方の判定で肯定結果が得られた場合には、その対象参加者の現在の行動が「非発話中かつ興味がない又は内職中」であると判定する。
If a positive result is obtained in at least one of the former and latter judgments, the behavior/
行動・状態判定部43は、以上の行動判定処理をすべての参加者について実行することにより、各参加者のそのときの行動が「発話中」、「非発話中かつ真面目に聞いている」及び「非発話中かつ興味がない又は内職中」のいずれかに該当するか否かをそれぞれ判定し、判定結果を上述の判定行動・状態管理テーブル52(図5)にそれぞれ格納する。
The behavior/
(2-2)表示情報決定部の具体的な処理内容
表示情報決定部44は、対象参加者の属性を参加者属性管理テーブル50(図3)から取得する。また表示情報決定部44は、行動・状態判定部43により判定されたその対象参加者の現在の行動(「発話中」、非発話中かつ真面目に聞いている」、「非発話中かつ興味なし/内職中」又は「-」)を判定行動・状態管理テーブル52(図5)から取得する。
(2-2) Specific Processing Contents of the Display Information Determination Unit The display
そして表示情報決定部44は、取得した対象参加者の属性と、その対象参加者の現在の行動・状態とに基づき、その対象参加者の属性に応じた表示ルール管理テーブル53を参照して、状況に応じてその対象参加者の表示装置14A,14Bに対応する表示情報を表示すべき表示項目があるか否かを判定する。
Then, based on the acquired attributes of the target participant and the current behavior and state of the target participant, the display
また表示情報決定部44は、そのような表示項目がある場合には、表示要件管理テーブル54からその表示項目の表示要件を取得し、現在の状況がその表示要件を満たしているか否かを判定する。そして表示情報決定部44は、現在の状況がかかる表示要件を満たしていると判定した場合には、対象参加者の表示装置14A,14Bに表示する情報を以下のように決定し、決定した情報を表示処理部45に出力する。
If there is such a display item, the display
(2-2-1)対象参加者が「ファシリ」で「発話中」の場合
対象参加者の属性が「ファシリ」であり、その対象参加者の現在の行動が「発話中」である場合、「ファシリ」用の表示ルール管理テーブル53A(図6)を参照すると、対応する表示項目は「同意者数1」だけである。
(2-2-1) When the target participant is a "facilitator" and is "speaking" When the attribute of the target participant is "facilitator" and the current action of the target participant is "speaking," when referring to the display rule management table 53A for "facilitator" (Figure 6), the only corresponding display item is "Number of consenters: 1."
この「同意者数1」は、上述のように「ファシリ」の発話中に、その「ファシリ」の発話内容に同意した他の参加者の人数を「ファシリ」の表示装置14A,14Bに表示するという内容の表示項目である。そして表示要件管理テーブル54(図10)を参照すると、対象参加者(「ファシリ」)が発話中であることが「同意者数1」の表示要件として規定されている。この場合、「ファシリ」は発話中であるため、表示情報決定部44は、現在の状況がこの「同意者数1」の表示要件を満たしていると判定する。
As described above, "Number of Agreeing Parties: 1" is a display item that displays the number of other participants who agree with what the "facilitator" is saying on the "facilitator's"
そこで表示情報決定部44は、「ファシリ」用の表示情報管理テーブル53Aにおける「同意者数1」の表示情報列53AA(図6)の表示情報番号欄53AEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55(図11)から取得する。図11の例では、「同意者数」、つまり「ファシリ」の発話内容に同意している参加者の人数が表示情報であるため、表示情報決定部44は、「ファシリ」の発話内容に同意している他の参加者の人数をカウントする。
Therefore, the display
本実施の形態では、発話者が発話を開始してから現在までに他の参加者が1度でも頷いた場合、又は、他の参加者が発話者に顔を向けており、その表情が笑顔である場合に、当該他の参加者が発話者の発話内容に同意していると判断するものとする。 In this embodiment, if the other participants have nodded at least once since the speaker started speaking, or if the other participants are facing the speaker and have a smile on their face, it is determined that the other participants agree with what the speaker has said.
そこで表示情報決定部44は、「ファシリ」以外の参加者のセンシング情報管理テーブル51(図4)をそれぞれ参照して、表情欄51Bに格納された数値が「1」で、かつ向き欄51Cに「ファシリ」の参加者IDが格納されている他の参加者と、対応するセンシング情報管理テーブル51における「ファシリ」が発話を開始した時刻から現在の各レコードのうちの少なくとも1つのレコードの頷き欄51Gに格納された頷きフラグが「1」となっている他の参加者との合計人数を、「ファシリ」の発話内容に同意している他の参加者の人数としてカウントする。
The display
そして表示情報決定部44は、かかるカウントのカウント結果を対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、このカウント結果を対象参加者の参加者IDと共に表示処理部45に出力する。
The display
(2-2-2)対象参加者が「ファシリ」で「非発話中」の場合
対象参加者の属性が「ファシリ」であり、その対象参加者の現在の行動・状態が「非発話中」(「非発話中かつ真面目に聞いている」又は「非発話中かつ興味なし/内職中」)である場合、「ファシリ」用の表示ルール管理テーブル53Aを参照すると、図6の例では「ファシリ」が非発話中の表示項目としては、「盛上り度」、「同意者数2」及び「発話希望者」の3つが規定されている。
(2-2-2) When the target participant is a "facilitator" and "not speaking" When the attribute of the target participant is "facilitator" and the current behavior/status of the target participant is "not speaking"("not speaking and listening attentively" or "not speaking and not interested/doing side work"), referring to the display rule management table 53A for the "facilitator," in the example of Figure 6, three items are specified as display items when the "facilitator" is not speaking: "Level of excitement,""Number of people who agree: 2," and "People wanting to speak."
また、これら「盛上り度」、「同意者数2」及び「発話希望者」の各表示項目は、表示優先度がいずれも「1」であるため、その表示要件を満たす表示項目については、すべて対象参加者の表示装置14A,14Bに対応する表示情報を表示する必要がある。そこで表示情報決定部44は、これら3つの各表示項目について、現在の状況がその表示項目の表示要件を満たしているか否かをそれぞれ判定し、表示要件を満たしている表示項目については表示情報を決定する。
In addition, the display items "Level of excitement," "Number of people who agree 2," and "People who wish to speak" all have a display priority of "1," so for all display items that satisfy the display requirements, it is necessary to display display information corresponding to the
例えば、「盛上り度」という表示項目は、上述のように対象参加者(ここでは「ファシリ」)以外の参加者の発話による会議の盛上り度を表示する表示項目である。そして表示要件管理テーブル54を参照すると、対象参加者以外の参加者が発話中であることが「盛上り度」の表示要件として規定されている。そこで表示情報決定部44は、現在の状況がこの表示要件を満たしているか否かを判定する。
For example, the display item "Excitement level" is a display item that displays the excitement level of the conference based on the speech of participants other than the target participant (here, the "facilitator") as described above. With reference to the display requirement management table 54, it is stipulated that a participant other than the target participant is speaking as a display requirement for "Excitement level." The display
具体的に、表示情報決定部44は、対象参加者以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、最新のレコードの発話欄51Dに格納された発話フラグが「1」に設定された参加者が存在するか否かを確認する。そして表示情報決定部44は、そのような参加者が存在する場合には、現在の状況が「盛上り度」という表示項目の表示要件を満たしていると判定する。
Specifically, the display
そして表示情報決定部44は、現在の状況が「盛上り度」という表示項目の表示要件を満たしているという判定結果が得られた場合、「ファシリ」用の表示ルール管理テーブル53Aにおける「盛上り度」の表示情報列53ABAの表示情報番号欄53AEに格納された表示情報番号を読み出し、その表示情報番号が付与された情報を表示情報管理テーブル55から取得する。図11では、「盛上り度」が表示情報であるため、表示情報決定部44は、直前のデータ分析期間における現在の会議の盛上り度を算出する。
When the display
本実施の形態では、直前のデータ分析期間におけるすべての参加者の発話音量の合計と、そのデータ分析期間における表情が笑顔であった参加者の人数と、そのデータ分析期間に頷いた参加者の人数とをそれぞれ正規化して合算したものを、そのデータ分析期間における盛上り度とする。 In this embodiment, the degree of excitement during a data analysis period is calculated by normalizing and adding together the total speech volume of all participants during the immediately preceding data analysis period, the number of participants who had a smiling expression during that data analysis period, and the number of participants who nodded during that data analysis period.
そこで表示情報決定部44は、「ファシリ」以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、これらセンシング情報管理テーブル51の最新のレコードの音量欄51Eにそれぞれ格納された音量をすべて読み出して合算して正規化する。また表示情報決定部44は、「ファシリ」以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されている参加者の人数を正規化する。さらに表示情報決定部44は、「ファシリ」以外の各参加者のうち、頷き欄51Gの頷きフラグが「1」に設定されている参加者の人数を正規化する。そして表示情報決定部44は、これらの正規化により得られた各値の合計値をそのデータ分析期間における盛上り度として算出する。
The display
そして表示情報決定部44は、このようにして算出した盛上り度を対象参加者(「ファシリ」)の表示装置14A,14Bに表示すべき表示情報に決定し、この盛上り度を対象参加者の参加者IDと共に表示処理部45に出力する。
The display
また「同意者数2」という表示項目については、上述のように「ファシリ」以外の参加者の発話内容に同意した他の参加者の人数を表示するという内容の表示項目である。そして表示要件管理テーブル54を参照すると、「ファシリ」以外の参加者が発話していることが「同意者数2」の表示要件として規定されている。そこで表示情報決定部44は、現在の状況がこの表示要件を満たしているか否かを判定する。
The display item "Number of Agreeing
具体的に、表示情報決定部44は、「ファシリ」以外の各参加者のセンシング情報管理テーブルを51それぞれ参照して、最新のレコードの発話欄51Dに格納された発話フラグが「1」に設定された参加者が存在するか否かを確認する。そして表示情報決定部44は、そのような参加者が存在する場合には、現在の状況が「同意者数2」という表示項目の表示要件を満たしていると判定する。
Specifically, the display
そして表示情報決定部44は、現在の状況が「同意者数2」という表示項目の表示要件を満たしているという判定結果を得た場合、「ファシリ」用の表示情報管理テーブル53Aにおける「同意者数2」の表示情報列53ABBの表示情報番号欄53AEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。図11の例では、「同意者数」、つまりそのときの発話者の発話内容に同意している他の参加者の人数が表示情報である。そこで表示情報決定部44は、直前のデータ分析期間において、そのときの発話者の発話内容に同意している参加者の人数をカウントする。
When the display
具体的に、表示情報決定部44は、発話者以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、表情欄51Bに格納された数値が「1」で、かつ向き欄51Cにそのときの発話者の参加者IDが格納されている参加者と、対応するセンシング情報管理テーブル51におけるそのときの発話者が発話を開始した時刻から現在の各レコードのうちの少なくとも1つのレコードの頷き欄51Gに格納された頷きフラグが「1」となっている参加者との合計人数を、そのときの発話者の発話内容に同意している他の参加者の人数としてカウントする。
Specifically, the display
そして表示情報決定部44は、かかるカウントのカウント結果を、対象参加者(「ファシリ」)の表示装置14A,14Bに表示すべき表示情報に決定し、このカウント結果を対象参加者の参加者IDと共に表示処理部45に出力する。
The display
さらに「発言希望者有」という表示項目は、上述のように発言したそうな表情の参加者がいる場合のその参加者の参加者IDを表示するという表示項目である。そして表示要件管理テーブル54を参照すると、「ファシリ」以外の参加者が発話中であること、及び、発言したそうな表情の参加者が存在することが「発言希望者有」の表示要件として規定されている。そこで表示情報決定部44は、現在の状況がこの表示要件を満たしているか否かを判定する。
The display item "Someone wants to speak" is a display item that displays the participant ID of a participant who looks like they want to speak, as described above. With reference to the display requirement management table 54, the display requirements for "Someone wants to speak" are that a participant other than the "facilitator" is speaking, and that there is a participant who looks like they want to speak. The display
具体的に、表示情報決定部44は、「同意者数2」と同様にして「ファシリ」以外の参加者が発話中であるか否かを判定する。また表示情報決定部44は、この判定で肯定結果が得られた場合には、「ファシリ」及び現在の発話者以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに格納された数値が「2」である参加者が存在するか否かを判定する。そして表示情報決定部44は、そのような参加者が存在する場合(発言したそうな参加者が存在する場合)には、現在の状況が「発言希望者有」という表示項目の表示要件を満たしていると判定する。
Specifically, the display
そして表示情報決定部44は、「発言希望者有」という表示項目の表示要件を満たしているという判定結果が得られた場合、「ファシリ」用の表示情報管理テーブル53Aにおける「発話希望者有」の表示情報列53ABCの表示情報番号欄53AEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。図11では、発言したそうな表情の参加者の参加者IDが表示情報であるため、表示情報決定部44は、その参加者の参加者IDを取得する。
When the display
そして表示情報決定部44は、取得した参加者IDを対象参加者の表示装置14A,14Bに表示すべき表示情報として決定し、この参加者IDを対象参加者の参加者IDと共に表示処理部45に出力する。
Then, the display
(2-2-3)対象参加者が「上司」で「発話中」の場合
一方、対象参加者の属性が「上司」であり、その対象参加者の現在の行動が「発話中」である場合、「上司」用の表示ルール管理テーブル53Bを参照すると、対応する表示項目は「同意者数多1」及び「発話時間」の2つである。
(2-2-3) When the target participant is a “Superior” and is “Speaking” On the other hand, when the attribute of the target participant is “Superior” and the current behavior of the target participant is “Speaking”, when referring to the display rule management table 53B for “Superior”, the corresponding display items are “Number of consenters: 1” and “Speaking time”.
また、これら「同意者数多1」及び「発話時間」の各表示項目は、表示優先度がいずれも「1」であるため、その表示要件を満たす表示項目については、すべて対象参加者の表示装置14A,14Bに対応する表示情報を表示する必要がある。そこで表示情報決定部44は、これら2つの各表示項目について、現在の状況がその表示項目の表示要件を満たしているか否かをそれぞれ判定し、表示要件を満たしている表示項目については表示情報を決定する。
In addition, since the display priority of each of these display items "Number of
例えば、「同意者数多1」という表示項目は、上述のようにその対象参加者(ここでは「上司」)が発話中にその対象参加者の発話内容に同意した他の参加者の人数が多数である場合にその人数を表示する表示項目である。そして表示要件管理テーブル54を参照すると、対象参加者の発話内容に同意した他の参加者が多数であることが「同意者数多1」の表示要件として規定されている。
For example, the display item "Many Agreeing
本実施の形態では、「同意者数多1」については、そのデータ分析期間における表情が笑顔であった参加者の人数と、そのデータ分析期間において対象参加者を見ていた(顔を向けていた)参加者の人数と、そのデータ分析期間に頷いた参加者の人数とをそれぞれ正規化して合算した値が予め設定された閾値(以下、これを第1の同意者数閾値と呼ぶ)以上である場合に、対象参加者の発話内容に同意した他の参加者が多数であるものとする。
In this embodiment, for "large number of
そこで表示情報決定部44は、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されている参加者の人数を正規化する。また表示情報決定部44は、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの向き欄51Cに対象参加者の参加者IDが格納されている参加者の人数を正規化する。さらに表示情報決定部44は、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの頷き欄51Gの頷きフラグが「1」に設定されている参加者の人数を正規化する。
The display
そして表示情報決定部44は、これらの正規化により得られた各値の合計値が第1の同意者数閾値以上であるか否かを判定する。そして表示情報決定部44は、かかる合計値が第1の同意者数閾値以上である場合には、現在の状況が「同意者数多1」という表示項目の表示要件を満たしていると判定する。
The display
そして表示情報決定部44は、「同意者数多1」という表示項目の表示要件を満たしているという判定結果が得られた場合、「上司」用の表示情報管理テーブル53Bにおける「同意者数多1」の表示情報列53BAAの表示情報番号欄53BEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。図11では、「同意者数」が表示情報であるため、表示情報決定部44は、直前のデータ分析期間において、そのときの発話者の発話内容に同意している参加者の人数をカウントする。
When the display
具体的に、表示情報決定部44は、まず、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されている参加者の人数と、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの向き欄51Cに対象参加者の参加者IDが格納されている参加者の人数と、対象参加者以外の各参加者のうち、対応するセンシング情報管理テーブル51の最新のレコードの頷き欄51Gの頷きフラグが「1」に設定されている参加者の人数との合計値を求める。
Specifically, the display
次に、表示情報決定部44は、この合計値から重複してカウントされている参加者の人数を減算する。「重複してカウントされている参加者」としては、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されると共に、そのレコードの向き欄51Cに対象参加者の参加者IDが格納され、かつそのレコードの頷き欄51Gの頷きフラグが「0」に設定されている参加者がこれに該当する。また、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されると共に、そのレコードの向き欄51Cに対象参加者の参加者IDが格納されておらず、かつそのレコードの頷き欄51Gの頷きフラグが「1」に設定されている参加者も該当する。さらに、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「0」又は「1」が格納されると共に、そのレコードの向き欄51Cに対象参加者の参加者IDが格納され、かつそのレコードの頷き欄51Gの頷きフラグが「1」に設定されている参加者も該当する。さらには、対応するセンシング情報管理テーブル51の最新のレコードの表情欄51Bに「1」が格納されると共に、そのレコードの向き欄51Cに対象参加者の参加者IDが格納され、かつそのレコードの頷き欄51Gの頷きフラグが「1」に設定されている参加者も該当する。
Next, the display
そして表示情報決定部44は、このようにして求めた対象参加者の発話内容に同意した他の参加者の人数を対象参加者(「上司」)の表示装置14A,14Bに表示すべき表示情報に決定し、この人数を対象参加者の参加者IDと共に表示処理部45に出力する。
The display
また「発話時間」という表示項目は、上述のように対象参加者の発話時間をその対象参加者の表示装置14A,14Bに表示するという内容の表示項目である。そして表示要件管理テーブル54を参照すると、その参加者が発話中であることが「発話時間」の表示要件として規定されている。このため対象参加者が発話中の場合、直ちに「発話時間」という表示項目の表示要件を満たすと判定される。
The display item "Speech Time" is a display item whose content is to display the speaking time of the target participant on the
そして表示情報決定部44は、「発話時間」という表示項目の表示要件を満たしているという判定結果が得られた場合、「上司」用の表示情報管理テーブル53Bにおける「発話時間」の表示情報列53BACの表示情報番号欄53BEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。
When the display
図11の例では、その対象参加者が発話を開始してから現在までの経過時間が表示情報であるため、表示情報決定部44は、対象参加者のセンシング情報管理テーブル51における最新のレコードの発話時間欄51Fに格納されている発話時間を取得する。
In the example of Figure 11, the display information is the elapsed time from when the target participant started speaking to the present, so the display
そして表示情報決定部44は、取得した発話時間をその対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、この発話時間をその対象参加者の参加者IDと共に表示処理部に出力する。
Then, the display
(2-2-4)対象参加者が「上司」で「非発話中かつ真面目に聞いている」の場合
対象参加者の属性が「上司」であり、その対象参加者の現在の行動が「非発話中かつ真面目に聞いている」である場合、「上司」用の表示ルール管理テーブル53Bを参照すると、対応する表示項目は「口出し」だけである。
(2-2-4) When the target participant is a “superior” and is “not speaking and listening attentively” When the attribute of the target participant is “superior” and the current behavior of the target participant is “not speaking and listening attentively”, when referring to the display rule management table 53B for “superior”, the only corresponding display item is “interfering”.
「口出し」という表示項目は、上述のようにその対象参加者が発言したそうな表情のときに、他の参加者の発話が終了したタイミングでその対象参加者に対して発話を促すメッセージを表示する表示項目である。そして表示要件管理テーブル54を参照すると、その対象参加者が発言したそうな表情であること、及び、対象参加者以外の参加者の発話が終了したことが「口出し」の表示要件として規定されている。そこで表示情報決定部44は、現在の状況がこの表示要件を満たしているか否かを判定する。
The "Interjection" display item is a display item that displays a message encouraging the target participant to speak when the other participants have finished speaking, when the target participant looks as if they want to speak, as described above. With reference to the display requirement management table 54, the display requirements for "Interjection" are that the target participant looks as if they want to speak, and that the participants other than the target participant have finished speaking. The display
具体的に、表示情報決定部44は、その対象参加者のセンシング情報管理テーブル51を参照して、最新のレコードの表情欄51Bに「2」が格納されているか否かを判定する。さらに表示情報決定部44は、その対象参加者以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、最新のレコードの1つ前のレコードの発話欄51Dに格納された発話フラグが「1」で、かつ最新のレコードの発話欄51Dに格納された発話フラグが「0」に設定された参加者が存在するか否かを判定する。そして表示情報決定部44は、これら2つの判定の双方で肯定結果を得た場合には、現在の状況が「口出し」という表示項目の表示要件を満たしていると判定する。
Specifically, the display
そして表示情報決定部44は、現在の状況が「口出し」という表示項目の表示要件を満たしているという判定結果が得られた場合、「上司」用の表示情報管理テーブル53Bにおける「口出し」の表示情報列53BBAの表示情報番号欄53BEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。
When the display
図11の例では、「今が発言のチャンス!」というメッセージが表示情報であるため、表示情報決定部44は、このメッセージをその対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、このメッセージのテキストデータをその対象参加者の参加者IDと共に表示処理部45に出力する。
In the example of FIG. 11, the message "Now's your chance to speak!" is the display information, so the display
(2-2-5)対象参加者が「上司」で「非発話中かつ興味なし/内職中」の場合
対象参加者の属性が「上司」であり、その対象参加者の行動が「非発話中かつ興味なし/内職中」である場合、「上司」用の表示ルール管理テーブル53Bを参照すると、表示項目はない。このため「非発話中かつ興味なし/内職中」の場合には、対象参加者(「上司」)の行動に関わりなく、その対象参加者の表示装置14A,14Bには何らの情報も表示されない。これは、対象参加者が「上司」という属性(立場)であることを考慮したものである。
(2-2-5) When the target participant is a "boss" and "not speaking and not interested/doing side work" When the attribute of the target participant is "boss" and the behavior of the target participant is "not speaking and not interested/doing side work", there is no display item when referring to the display rule management table 53B for "boss". Therefore, in the case of "not speaking and not interested/doing side work", no information is displayed on the
(2-2-6)対象参加者が「部下」で「発話中」の場合
他方、対象参加者の属性が「部下」であり、その対象参加者の現在の行動が「発話中」である場合、「部下」用の表示ルール管理テーブル53Cを参照すると、対応する表示項目は「同意者数多2」及び「後押し」の2つである。
(2-2-6) When the target participant is a “subordinate” and is “speaking” On the other hand, when the attribute of the target participant is “subordinate” and the current behavior of the target participant is “speaking”, when referring to the display rule management table 53C for “subordinate”, the corresponding display items are “Many people who agree: 2” and “Support”.
また、これら「同意者数多2」及び「後押し」の各表示項目は、表示優先度がいずれも「1」であるため、その表示要件を満たす表示項目については、すべて対象参加者の表示装置14A,14Bに対応する表示情報を表示する必要がある。そこで表示情報決定部44は、これら2つの各表示項目について、現在の状況がその表示項目の表示要件を満たしているか否かをそれぞれ判定し、表示要件を満たしている表示項目については表示情報を決定する。
In addition, since the display priority of each of these display items "
例えば、「同意者数多2」という表示項目は、上述のようにその対象参加者(ここでは「部下」)が発話中にその対象参加者の発話内容に同意した他の参加者の人数が多数である場合にその人数を表示する表示項目である。そして表示要件管理テーブル54を参照すると、その対象参加者以外で対象参加者の発話内容に同意した他の参加者が多数であることが「同意者数多2」の表示要件として規定されている。
For example, the display item "Many Agreeing
本実施の形態では、「同意者数多2」については、そのデータ分析期間における表情が笑顔であった参加者の人数と、そのデータ分析期間において対象参加者を見ていた(顔を向けていた)参加者の人数と、そのデータ分析期間に頷いた参加者の人数とをそれぞれ正規化して合算した値が予め設定された閾値(第1の同意者数閾値よりも小さい値であり、以下、これを第2の同意者数閾値と呼ぶ)以上である場合に、対象参加者の発話内容に同意した他の参加者が多数であるものとする。なお、第2の同意者数閾値を第1の同意者数閾値よりも小さくしたのは、「部下」という属性の参加者に自信を付けさせるためである。
In this embodiment, for "large number of
そこで表示情報決定部44は、「同意者数多1」の場合と同様にして、現在の状況が「同意者数多1」という表示項目の表示要件を満たしているか否かを判定する。そして表示情報決定部44は、「同意者数多2」という表示項目の表示要件を満たしているという判定結果が得られた場合、「同意者数多1」と同様にして、対象参加者の発話内容に同意した他の参加者の人数をカウントする。
Then, the display
そして表示情報決定部44は、このようにして求めた対象参加者の発話内容に同意した他の参加者の人数を対象参加者(「部下」)の表示装置14A,14Bに表示すべき表示情報に決定し、この人数を対象参加者の参加者IDと共に表示処理部45に出力する。
The display
また「後押し」という表示項目は、上述のように対象参加者が発話中である場合に、発話を後押しするようなメッセージをその参加者の表示装置14A,14Bに表示するという内容の表示項目である。そして表示要件管理テーブル54を参照すると、その参加者が発話中であることが「後押し」の表示要件として規定されている。このため対象参加者が発話中の場合、直ちに「後押し」という表示項目の表示要件を満たすと判定される。
The display item "Boost" is a display item whose content is to display a message encouraging the target participant to speak on the
そして表示情報決定部44は、「後押し」という表示項目の表示要件を満たしているという判定結果が得られた場合、「部下」用の表示情報管理テーブル53Cにおける「後押し」の表示情報列53CABの表示情報番号欄53CEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。
If the display
図11の例では、「いいね!」というメッセージが表示情報であるため、表示情報決定部44は、このメッセージをその対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、そのテキストデータをその対象参加者の参加者IDと共に表示処理部45に出力する。
In the example of FIG. 11, the message "Like!" is the display information, so the display
(2-2-7)対象参加者が「部下」で「非発話中かつ真面目に聞いている」の場合
対象参加者の属性が「部下」であり、その対象参加者の現在の行動が「非発話中かつ真面目に聞いている」である場合、「部下」用の表示ルール管理テーブル53Cを参照すると、対応する表示項目は「口出し」及び「影響・効果」という2つの表示項目である。
(2-2-7) When the target participant is a “subordinate” and is “not speaking and listening attentively” When the attribute of the target participant is “subordinate” and the current behavior of the target participant is “not speaking and listening attentively”, when referring to the display rule management table 53C for “subordinate”, the corresponding display items are two display items, “interfering” and “influence/effect”.
そして「非発話中かつ真面目に聞いている」という表示項目において、「口出し」という表示項目は表示優先度が「1」に設定され、「興味なし/内職中」という表示項目は表示優先度が「2」に設定されている。 And in the display item "not speaking and listening attentively," the display priority of the display item "interfering" is set to "1," and the display priority of the display item "not interested/doing side work" is set to "2."
そこで表示情報決定部44は、まず、「口出し」という表示項目について、現在の状況がその表示項目の表示要件を満たしているか否かを判定し、表示要件を満たしている場合には、その表示項目の表示情報を決定する。
The display
具体的に、表示情報決定部44は、「上司」の「口出し」の場合と同様にして、対象参加者について、現在の状況が「口出し」の表示要件を満たすか否かを判定し、現在の状況が「口出し」という表示項目の表示要件を満たしていると判定した場合には、対象参加者の表示装置14A,14Bに表示すべき表示情報を「今が発言のチャンス!」というメッセージに決定し、そのテキストデータをその対象参加者の参加者IDと共に表示処理部45に出力する。
Specifically, the display
一方、表示情報決定部44は、現在の状況が「口出し」の表示項目の表示要件を満たさないと判定した場合には、現在の状況が「影響・効果」という表示項目の表示要件を満たしているか否かを判定する。そして表示情報決定部44は、表示要件を満たしていると判定した場合には、その表示項目に対する表示情報を決定する。
On the other hand, if the display
例えば、「影響・効果」という表示項目は、上述のように対象参加者が口火を切った話題についての議論が継続している間、その話題について発話を行った参加者の人数と、その話題の現在までの継続時間とを対象参加者の表示装置に表示するという内容の表示項目である。そして表示要件管理テーブル54を参照すると、対象参加者が口火を切った話題が現在も継続していることが「影響・効果」の表示要件として規定されている。 For example, the display item "Influence/Effect" is a display item that displays, on the display device of the target participant, the number of participants who have spoken on a topic initiated by the target participant and the current duration of the topic while the discussion on that topic continues, as described above. And when referring to the display requirement management table 54, it is stipulated as a display requirement for "Influence/Effect" that the topic initiated by the target participant is still ongoing.
ここで、会議では、通常、ある話題について1又は複数の参加者が連続的に発話する「議論」が一定以上時間行われ、その後、一定の静寂期間(いずれの参加者も発話を行っていない期間)を経て次の話題についての「議論」が開始される。従って、各参加者のセンシング情報管理テーブル51を参照して、直近の一定時間以上の静寂期間(いずれの参加者も発話を行っていない期間)を検出し、その静寂期間の最初に対象参加者が発話を行っている場合に、その対象参加者が口火を切った話題が現在も継続して議論されていると判断することができる。 In a conference, a "discussion" in which one or more participants speak continuously about a certain topic is usually carried out for a certain period of time or more, after which a certain period of quietness (a period during which none of the participants are speaking) has passed and then a "discussion" about the next topic begins. Therefore, by referring to the sensing information management table 51 of each participant, the most recent quiet period of a certain period of time or more (a period during which none of the participants are speaking) can be detected, and if the target participant speaks at the beginning of the quiet period, it can be determined that the topic initiated by the target participant is still being discussed.
そこで表示情報決定部44は、各参加者のセンシング情報管理テーブル51を参照して、最新のレコードから遡ってすべての参加者のセンシング情報管理テーブル51の発話欄51Dに格納されている発話フラグが一定期間の「0」となっている静寂期間を検出する。そして表示情報決定部44は、その静寂期間の終了後に最初に発話を行ったのが対象参加者であるか否かを判定する。
The display
具体的に、表示情報決定部44は、対象参加者のセンシング情報管理テーブル51におけるその静寂期間の終了後の最初のレコードの発話欄51Dに格納された発話フラグが「1」であるか否かを判定する。そして表示情報決定部44は、かかる発話フラグが「1」であった場合には、現在の話題の口火を切ったのが対象参加者であると判断し、「影響・効果」という表示項目の表示要件を満たしていると判定する。
Specifically, the display
そして表示情報決定部44は、「影響・効果」という表示項目の表示要件を満たしているという判定結果が得られた場合、「部下」用の表示情報管理テーブル53Cにおける「影響・効果」の表示情報列53CBBの表示情報番号欄53CEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。
If the display
図11の例では、その話題への参加者数及びその話題の継続時間が表示情報であるため、表示情報決定部44は、これら参加者数及び継続時間をそれぞれ算出する。
In the example of FIG. 11, the number of participants in the topic and the duration of the topic are the display information, so the display
具体的に、表示情報決定部44は、まず、対象参加者のセンシング情報管理テーブル51を参照して、現在の話題が開始された時刻のレコードの経過時間欄51Aに格納された経過時間と、最新のレコードの経過時間欄51Aに格納された経過時間とをそれぞれ取得し、後者の経過時間から前者の経過時間を減算するようにして、現在の話題の継続時間を算出する。
Specifically, the display
また表示情報決定部44は、各参加者のセンシング情報管理テーブル51の発話欄51Dの発話フラグをそれぞれ参照して、現在の話題が開始された時刻のレコードから最新のレコードまでの各レコードのうちの少なくとも1つのレコードの発話欄51Dに格納された発話フラグが「1」となっている参加者の人数をカウントする。この人数が現在の話題に参加した参加者数である。
The display
そして表示情報決定部44は、このようにして求めた現在の話題への参加者数と、現在の話題の継続時間とを対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、これら参加者数及び継続時間を対象参加者の参加者IDと共に表示処理部45に出力する。
The display
(2-2-8)対象参加者が「部下」で「非発話中かつ興味なし/内職中」の場合
対象参加者の属性が「部下」であり、その対象参加者の現在の行動が「非発話中」かつ「興味なし/内職中」に該当する場合、「部下」用の表示ルール管理テーブル53Cを参照すると、対応する表示項目は「非聴時間」だけである。
(2-2-8) When the target participant is a “subordinate” and “not speaking and not interested/doing work from home” When the attribute of the target participant is “subordinate” and the current behavior of the target participant corresponds to “not speaking” and “not interested/doing work from home”, when referring to the display rule management table 53C for “subordinate”, the only corresponding display item is “non-listening time”.
そして「非聴時間」という表示項目は、上述のように対象参加者が会議に興味がない又は会議に関係する作業以外の作業を行っていると推測される行動・状態にあるときに、その行動・状態を行っている時間(非聴時間)を表示する表示項目である。 The "Non-listening time" display item is a display item that displays the time (non-listening time) that a target participant is engaged in when they are in an action or state that suggests they are not interested in the meeting or are engaged in work other than that related to the meeting, as described above.
そして表示要件管理テーブル54を参照すると、対象参加者がオンラインでの会議参加者の場合には、対象参加者が直近の一定時間一度も頷いていないことが「非聴時間」の表示要件として規定され、対象参加者が対面での会議参加者の場合には、対面での会議参加者が直近の一定時間一度も発話者を見ていない(発話者に顔を向けていない)ことが「非聴時間」の表示要件として規定されている。 Referring to the display requirement management table 54, if the target participant is an online conference participant, the requirement for displaying "non-listening time" is that the target participant has not nodded even once during the most recent fixed period of time, and if the target participant is a face-to-face conference participant, the requirement for displaying "non-listening time" is that the face-to-face conference participant has not looked at the speaker (has not turned his or her face to the speaker) during the most recent fixed period of time.
そこで表示情報決定部44は、対象参加者がオンラインでの会議参加者の場合には、対象参加者のセンシング情報管理テーブル51を参照して、直近一定時間内の各レコードの頷き欄51Gに格納にそれぞれ格納された頷きフラグがすべて「0」となっているか否かを判定する。そして表示情報決定部44は、その対象参加者がこの判定で否定結果を得た場合には、現在の状況が「非聴時間」という表示項目の表示要件を満たしていると判定する。
Then, when the target participant is an online conference participant, the display
また表示情報決定部44は、対象参加者が対面で会議に参加している場合には、その対象参加者以外の各参加者のセンシング情報管理テーブル51をそれぞれ参照して、直近一定時間内に発話したすべての参加者を時間帯ごとにそれぞれ特定する。そして表示情報決定部44は、この後、その対象参加者のセンシング情報管理テーブル51を参照して、直近一定時間内の時間帯ごとのレコードの向き欄51Cにその時間帯の発話者の参加者IDが一度も格納されていないか否かを判定する。そして表示情報決定部44は、その対象参加者がこの判定で肯定結果を得た場合には、現在の状況が「非聴時間」という表示項目の表示要件を満たしていると判定する。
When the target participant is participating in the conference face-to-face, the display
そして表示情報決定部44は、現在の状況が「非聴時間」という表示項目の表示要件を満たしているという判定結果が得られた場合、「部下」用の表示情報管理テーブル53Cにおける「非聴時間」の表示情報列53CBCの表示情報番号欄53CEに格納された表示情報番号を読み出し、その表示情報番号が付与された表示情報を表示情報管理テーブル55から取得する。図11の例では、「非聴時間」が表示情報であるため、表示情報決定部44は、対象参加者のそのときまでの直近の非聴時間を取得する。
When the display
具体的に、表示情報決定部44は、対象参加者がオンラインでの会議参加者である場合には、その対象参加者のセンシング情報管理テーブル51を参照して、最新のレコードから遡って頷き欄51Gに格納された頷きフラグの値が連続して「0」となっている最古のレコードの経過時間欄51Aに格納されている経過時間を取得する。そして表示情報決定部44は、最新のレコードの経過時間欄51Aに格納されている経過時間から上述のようにして取得した経過時間を減算するようにして頷いていない時間を非聴時間として算出する。
Specifically, when the target participant is an online conference participant, the display
そして表示情報決定部44は、このようにして算出した非聴時間をその対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、この非聴時間を対象参加者の参加者IDと共に表示処理部45に出力する。
Then, the display
また表示情報決定部44は、対象参加者が対面での会議参加者である場合には、その対象参加者のセンシング情報管理テーブル51を参照して、最新のレコードから遡って向き欄51Cにその時間帯に発話していた参加者の参加者IDが連続して格納されていない最古のレコードの経過時間欄51Aに格納されている経過時間を取得する。そして表示情報決定部44は、最新のレコードの経過時間欄51Cに格納されている経過時間から上述のようにして取得した経過時間を減算するようにして対象参加者が発話者に顔を向けていない時間を非聴時間として算出する。
When the target participant is a face-to-face conference participant, the display
そして表示情報決定部44は、このようにして算出した非聴時間をその対象参加者の表示装置14A,14Bに表示すべき表示情報に決定し、この非聴時間を対象参加者の参加者IDと共に表示処理部45に出力する。
Then, the display
(2-2-9)対象参加者が「ゲスト」で「発話中」の場合
対象参加者の属性が「ゲスト」であり、その対象参加者の現在の行動が「発話中」である場合における表示情報決定部の処理内容は、「部下」の「発話中」と同様である。よって、ここでの説明は省略する。
(2-2-9) When the target participant is a “guest” and “talking” When the attribute of the target participant is a “guest” and the current behavior of the target participant is “talking”, the processing content of the display information determination unit is the same as that of a “subordinate” who is “talking”. Therefore, the explanation here is omitted.
(2-2-10)対象参加者が「ゲスト」で「非発話中かつ真面目に聞いている」の場合
対象参加者の属性が「ゲスト」であり、その対象参加者の現在の行動が「非発話中かつ真面目に聞いている」である場合、「ゲスト」用の表示ルール管理テーブル53Dを参照すると、対応する表示項目は「口出し」という表示項目だけである。
(2-2-10) When the target participant is a “guest” and “not speaking and listening attentively” When the attribute of the target participant is a “guest” and the current behavior of the target participant is “not speaking and listening attentively”, when referring to the display rule management table 53D for “guest”, the only corresponding display item is the display item “interfering”.
そこで表示情報決定部44は、「口出し」という表示項目について、「上司」の「口出し」と同様にして、現在の状況がその表示項目の表示要件を満たしているか否かを判定し、表示要件を満たしている場合には、その表示項目の表示情報を「今が発言のチャンス」に決定し、決定した表示情報をその対象参加者の参加者IDと共に表示処理部45に出力する。
Then, the display
(2-2-11)対象参加者が「ゲスト」で「非発話中かつ興味なし/内職中」の場合
対象参加者の属性「ゲスト」であり、その対象参加者の行動が「非発話中かつ興味なし/内職中」である場合、「ゲスト」用の表示ルール管理テーブル53Dを参照すると、表示項目はない。このため「非発話中かつ興味なし/内職中」の場合には、対象参加者の行動に関わりなく、対象参加者の表示装置14A,14Bに何らの情報も表示されない。これは、対象参加者が「ゲスト」という属性(立場)であることを考慮したものである。
(2-2-11) When the target participant is a "guest" and "not speaking and not interested/doing side work" When the attribute of the target participant is "guest" and the behavior of the target participant is "not speaking and not interested/doing side work", there are no display items when referring to the display rule management table 53D for "guest". Therefore, in the case of "not speaking and not interested/doing side work", no information is displayed on the
(2-3)行動・状態判定部及び表示情報決定部の処理の流れ
(2-3-1)行動・状態判定処理
次に、行動・状態判定部43により実行される一連の処理(以下、これを行動・状態判定処理と呼ぶ)の流れについて、図12を参照して説明する。なお、図12の各ステップにおける行動・状態判定部43の具体的な処理内容は既に詳述しているため、重複する説明については省略する。
(2-3) Processing Flow of Action/State Determination Unit and Display Information Determination Unit (2-3-1) Action/State Determination Process Next, the flow of a series of processes (hereinafter, referred to as action/state determination process) executed by the action/
図12は、行動・状態判定部43により上述の判定周期で実行される行動・状態判定処理の流れを示す。行動・状態判定部43は、この図12に示す処理手順に従って、各参加者のそのときの行動を判定する。
Figure 12 shows the flow of the action/state determination process executed by the action/
実際上、行動・状態判定部43は、この行動・状態判定処理を開始すると、まず、画像処理部40、音声処理部41及び頷き検出部42から与えられた各参加者の各種情報を、それぞれ対応する参加者のセンシング情報管理テーブル51(図4)にそれぞれ格納する(S1)。
In practice, when the behavior/
具体的に、行動・状態判定部43は、画像処理部40から通知された各参加者の表情に応じた数値を、対応するセンシング情報管理テーブル51の表情欄51Bにそれぞれ格納する。また行動・状態判定部43は、画像処理部40から通知された各参加者がそれぞれ顔を向けている他の参加者の参加者IDを、その参加者のセンシング情報管理テーブル51の向き欄51Cにそれぞれ格納する。
Specifically, the behavior/
また行動・状態判定部43は、音声処理部41から通知された各参加者が発話しているか否かの情報に基づいて、その参加者が発話している場合には、その参加者のセンシング情報管理テーブル51の発話欄51Dに格納された発話フラグを「1」に設定し、その参加者が発話を行っていない場合には、その発話フラグを「0」に設定する。また行動・状態判定部43は、音声処理部41から通知された各参加者の発話音量及び発話時間を、その参加者のセンシング情報管理テーブル51の音量欄51E及び発話時間欄51Fにそれぞれ格納する。
The behavior/
さらに行動・状態判定部43は、頷き検出部42から通知された各参加者が頷いているか否かの情報に基づいて、参加者が頷いている場合には、その参加者のセンシング情報管理テーブル51の頷き欄51Gに格納された頷きフラグを「1」に設定し、その参加者が頷いていない場合には、その頷きフラグを「0」に設定する。
Furthermore, based on the information notified by the nodding
続いて、行動・状態判定部43は、ステップS3以降が未処理の参加者を一人選択し、選択した参加者(以下、図12の説明においてこの参加者を選択参加者と呼ぶ)のセンシング情報管理テーブル51の発話欄51Dを参照して、その選択参加者が発話中であるか否かを判定する(S2)。
Next, the behavior/
そして行動・状態判定部43は、この判定で肯定結果を得ると、その選択参加者のそのときの行動・状態を「発話中」と判定し(S4)、判定結果を選択参加者の参加者IDと対応付けて判定行動・状態管理テーブル52(図5)に格納する(S10)。
If the behavior/
また行動・状態判定部43は、ステップS3で否定結果を得ると、選択参加者のセンシング情報管理テーブル51を参照して、選択参加者がそのときの発話者の発話内容を真面目に聞いているか否かを判定する(S5)。
If the behavior/
そして行動・状態判定部43は、この判定で肯定結果を得ると、その選択参加者のそのときの行動・状態を「非発話中かつ真面目に聞いている」と判定し(S6)、判定結果を選択参加者の参加者IDと対応付けて判定行動・状態管理テーブル52に格納する(S10)。
If the behavior/
また行動・状態判定部43は、ステップS5で否定結果を得ると、選択参加者のセンシング情報管理テーブル51を参照して、選択参加者がそのときの発話者の発話内容に興味がないか、又は、会議に関係しない作業を行っているか否かを判定する(S7)。
If the behavior/
そして行動・状態判定部43は、この判定で肯定結果を得ると、その選択参加者のそのときの行動・状態を「非発話中かつ興味なし/内職中」と判定し(S8)、判定結果を選択参加者の参加者IDと対応付けて判定行動・状態管理テーブル52に格納する(S10)。
If the behavior/
これに対して行動・状態判定部43は、ステップS7の判定で否定結果を得ると、その選択参加者のそのときの行動・状態が「発話中」、「非発話中かつ真面目に聞いている」及び「非発話中かつ興味なし/内職中」のいずれにも該当しないと判定し(S9)、判定結果を選択参加者の参加者IDと対応付けて判定行動・状態管理テーブル52に格納する(S10)。この場合には、判定行動・状態管理テーブル52におけるその選択参加者に対応するレコードの判定行動・情報欄52Bに「-」が格納される(図5の参加者IDが「0004」のレコードを参照)。
In response to this, if the behavior/
この後、行動・状態判定部43は、すべての参加者についてステップS3~ステップS10の処理が完了したか否かを判定する(S11)。そして行動・状態判定部43は、この判定で否定結果を得るとステップS2に戻り、この後、ステップS2で選択する参加者をステップS3以降が未処理の他の参加者に順次切り替えながらステップS2~ステップS11の処理を繰り返す。
Then, the behavior/
この繰返し処理により各参加者のそのときの行動・状態が順次判定されて、判定された行動・状態が判定行動・状態管理テーブル52に順次格納される。 This repeated process sequentially determines the behavior and status of each participant at that time, and the determined behavior and status are stored sequentially in the determined behavior and status management table 52.
そして行動・状態判定部43は、やがてすべての参加者のそのときの行動・状態を判定し終え、その判定結果を判定行動・状態管理テーブル52に格納し終えることによりステップS11で肯定結果を得ると、この行動・状態判定処理を終了する。
Then, when the behavior/
(2-3-2)表示情報決定処理
次に、表示情報決定部44により実行される一連の処理(以下、これを表示情報決定処理と呼ぶ)の流れについて、図13を参照して説明する。なお、図13の各ステップにおける表示情報決定部の具体的な処理内容についても既に詳述しているため、重複する説明については省略する。
(2-3-2) Display Information Determination Process Next, the flow of a series of processes (hereinafter, referred to as the display information determination process) executed by the display
図13は、表示情報決定部44により上述の判定周期で実行される表示情報決定処理の流れを示す。表示情報決定部44は、この図13に示す処理手順に従って、必要な参加者の表示装置14A,14Bにそのとき表示すべき情報を決定する。
Figure 13 shows the flow of the display information determination process executed by the display
実際上、表示情報決定部44は、この表示情報決定処理を開始すると、まず、ステップS21以降が未処理の参加者を一人選択する(S20)。また表示情報決定部44は、選択した参加者(以下、図13の説明においてこの参加者を選択参加者と呼ぶ)の属性を参加者属性管理テーブル50(図3)から取得すると共に、選択参加者の現在の行動・状態を判定行動・状態管理テーブル51(図4)から取得する(S21)。
In practice, when the display
続いて、表示情報決定部44は、ステップS21で取得した選択参加者の属性及び現在の行動・状態に基づき、その選択参加者の属性に応じた表示ルール管理テーブル53を参照して、状況に応じて選択参加者の表示装置14A,14Bに情報を表示すべき表示項目を特定する(S22)。
Next, based on the attributes and current actions/state of the selected participant acquired in step S21, the display
次いで、表示情報決定部44は、ステップS22において、状況に応じて選択参加者の表示装置14A,14Bに情報を表示すべき表示項目を特定できたか否かを判定する(S23)。そして表示情報決定部44は、この判定で表示項目を特定できなかった場合(例えば、「上司」の「非発話中かつ興味なし/内職中」の場合)には、ステップS29に進む。
Then, in step S22, the display
これに対して、表示情報決定部44は、ステップS23の判定で肯定結果を得ると、ステップS22で特定した表示項目の中で表示優先度が最も高い表示項目をすべて特定する(S24)。また表示情報決定部44は、ステップS24で特定した各表示項目について、それぞれ表示要件管理テーブル54(図10)を参照して、現在の状況がその表示項目の情報を表示するための表示要件を満たしているか否かを判定する(S25)。そして表示情報決定部44は、この判定で否定結果を得るとステップS29に進む。
In response to this, if the display
これに対して表示情報決定部44は、ステップS25の判定で肯定結果を得ると、肯定結果を得たすべての表示項目について、表示情報管理テーブル55(図11)を参照して、表示すべき情報を特定する(S26)。また表示情報決定部44は、特定した情報を表示情報管理テーブル55から読み出し又は演算により取得する(S27)。
In response to this, if the display
そして表示情報決定部44は、ステップS27で取得した情報を選択参加者の参加者IDと共に表示処理部45に出力し(S28)、この後、すべての参加者についてステップS21以降の処理を実行し終えたか否かを判断する(S29)。
The display
そして表示情報決定部44は、この判断で否定結果を得るとステップS20に戻り、この後、ステップS20で選択する参加者をステップS21以降が未処理の他の参加者に順次切り替えながらステップS20~ステップS29の処理を繰り返す。
If the display
この繰返し処理により、対応する表示装置14A,14Bに情報を表示すべきすべての参加者について、そのとき表示すべき情報と、その参加者の参加者IDとが順次表示処理部45に送信される。そして、この結果として、これらの参加者の表示装置14A,14Bにその情報が表示されることになる。
By this repeated process, for all participants whose information should be displayed on the
そして、表示情報決定部44は、やがてすべての参加者についてステップS21~ステップS28の処理を実行し終えることによりステップS29で肯定結果を得ると、この表示情報決定処理を終了する。
Then, when the display
(3)本実施の形態の効果
以上のように本実施の形態の会議支援装置4は、対面参加者側システム2のセンサ群10Aと、各オンライン参加者側システム3のセンサ群10Bとによりそれぞれ収集された各参加者の行動及び状態に関する各種情報に基づいて各参加者の現在の行動・状態をリアルタイムで判定し、参加者ごとに、適宜、その参加者の属性と、そのときのその参加者の行動・状態とに応じた情報をその参加者の表示装置14A,14Bにそれぞれ表示する。
(3) Effects of this embodiment As described above, the
従って、本会議支援装置4によれば、参加者ごとに、その参加者の立場と、その参加者のそのときの行動・状態とに応じた情報がその参加者の端末を介してその参加者にリアルタイムで提示されるため、参加者ごとに、その参加者に有用な情報をリアルタイムで提示することができる。
Therefore, according to the
(4)他の実施の形態
なお上述の実施の形態においては、情報を提示する端末(以下、これを情報提示装置と呼ぶ)として各参加者側に表示装置14A,14Bをそれぞれ配置し、そのとき必要な情報を表示装置14A,14Bに表示するようにして必要な参加者に提示するようにした場合について述べたが、本発明はこれに限らず、例えば、一部又は全部の参加者側に表示装置14A,14Bに代えてロボットをかかる情報提示端末としてそれぞれ配置し、情報を表示ではなくロボットの動きにより参加者に提示するようにしてもよい。またロボットに情報を表示可能な表示装置を設け、ロボットの動きだけでなく表示によっても情報を提示するようにしてもよい。さらに発話できるようロボットにスピーカを設け、メッセージやその他の情報を音声や音などにより参加者に提示するようにしてもよい。
(4) Other embodiments In the above embodiment, the
また上述の実施の形態においては、会議の参加者の属性(立場)が「ファシリ」、「上司」、「部下」及び「ゲスト」の4種類である場合について述べたが、本発明はこれに限らず、これ以外の属性を規定するようにしてもよい。例えば、会議がワークショップである場合には、参加者の属性として「講師」及び「生徒」の2種類としてもよい。 In the above embodiment, the attributes (positions) of participants in a conference are described as four types: "facilitator," "superior," "subordinate," and "guest." However, the present invention is not limited to this, and other attributes may be defined. For example, if the conference is a workshop, the attributes of participants may be two types: "lecturer" and "student."
本発明は会議支援装置及び方法に関し、オンラインでの参加者を含む会議を支援する会議支援装置に適用することができる。 The present invention relates to a conference support device and method, and can be applied to a conference support device that supports conferences including online participants.
1……会議支援システム、2……対面参加者側システム、3……オンライン参加者側システム、4……会議支援装置、11A,11B……撮像装置、12A,12B……集音装置、13A,13B……振動センサ、14A,14B……表示装置、20……CPU、40……画像処理部、41……音声処理部、42……頷き検出部、43……行動・状態判定部、44……表示情報決定部、45……表示処理部、50……参加者属性管理テーブル、51……センシング情報管理テーブル、52……判定行動・状態管理テーブル、53,53A~53D……表示ルール管理テーブル、54……表示要件管理テーブル、55……表示情報管理テーブル。
1...conference support system, 2...face-to-face participant side system, 3...online participant side system, 4...conference support device, 11A, 11B...imaging device, 12A, 12B...sound collection device, 13A, 13B...vibration sensor, 14A, 14B...display device, 20...CPU, 40...image processing unit, 41...audio processing unit, 42...nodding detection unit, 43...action/state determination unit, 44...display information determination unit, 45...display processing unit, 50...participant attribute management table, 51...sensing information management table, 52...determined action/state management table, 53, 53A to 53D...display rule management table, 54...display requirement management table, 55...display information management table.
Claims (10)
各参加者の行動・状態に関する情報をそれぞれ取得する各センサの出力に基づいて各前記参加者の行動・状態をリアルタイムで判定する行動・状態判定部と、
前記行動・状態判定部により判定された前記参加者の行動・状態と、予め設定された各前記参加者の立場とに基づいて、前記参加者に対して提示すべき情報を決定する提示情報決定部と、
前記提示情報決定部により決定された前記情報を、対応する参加者側に設けられた端末を介して前記参加者に提示する提示処理部と
を備えることを特徴とする会議支援装置。 A conference support device for supporting a conference, comprising:
a behavior/state determination unit that determines the behavior/state of each participant in real time based on the output of each sensor that acquires information regarding the behavior/state of each participant;
a presentation information determination unit that determines information to be presented to the participants based on the actions and states of the participants determined by the action and state determination unit and a previously set position of each of the participants;
a presentation processing unit that presents the information determined by the presentation information determination unit to the participant via a terminal provided on the corresponding participant's side.
前記提示情報決定部は、
前記参加者ごとに、当該参加者の前記立場及び前記行動・状態に応じた前記項目の情報を当該参加者に提示すべき情報として決定する
ことを特徴とする請求項1に記載の会議支援装置。 An item of information to be presented to the participant is set in advance for each combination of the position and the action/state;
The presentation information determination unit
The conference support device according to claim 1 , wherein, for each participant, information of the item corresponding to the position and the action/state of the participant is determined as information to be presented to the participant.
前記提示情報決定部は、
前記要件を満たす前記項目の情報を前記参加者に提示すべき情報として決定する
ことを特徴とする請求項2に記載の会議支援装置。 For each of the items, requirements for presenting information of the item to the participants are set in advance;
The presentation information determination unit
The conference support device according to claim 2 , further comprising: determining, as information to be presented to the participants, information on the items that satisfy the requirements.
前記提示情報決定部は、
前記要件を満たす前記項目が複数ある場合には、最も前記優先順位が高い前記項目の情報を当該参加者に提示する情報として決定する
ことを特徴とする請求項3に記載の会議支援装置。 When a plurality of items are set for one combination of the position and the action/state, a priority is set for each of the items;
The presentation information determination unit
4. The conference support device according to claim 3, wherein, when there are a plurality of said items that satisfy said requirements, information on said item having the highest priority is determined as information to be presented to said participant.
ことを特徴とする請求項1に記載の会議支援装置。 The conference support device according to claim 1 , wherein at least a part of the information to be presented to the participants in accordance with the preset actions and states differs depending on the participants' positions.
各参加者の行動・状態に関する情報をそれぞれ取得する各センサの出力に基づいて各前記参加者の行動・状態をリアルタイムで判定する第1のステップと、
判定した前記参加者の行動・状態と、予め設定された各前記参加者の立場とに基づいて、前記参加者に対して提示すべき情報を決定する第2のステップと、
決定した前記情報を、対応する参加者側に設けられた端末を介して前記参加者に提示する第3のステップと
を備えることを特徴とする会議支援方法。 A conference support method executed by a conference support device that supports a conference, comprising:
a first step of determining in real time the behavior/state of each participant based on the output of each sensor that acquires information on the behavior/state of each participant;
a second step of determining information to be presented to the participants based on the determined actions and states of the participants and a preset position of each of the participants;
and a third step of presenting the determined information to the participant via a terminal provided on the corresponding participant's side.
前記第2のステップにおいて、前記会議支援装置は、
前記参加者ごとに、当該参加者の前記立場及び前記行動・状態に応じた前記項目の情報を当該参加者に提示すべき情報として決定する
ことを特徴とする請求項6に記載の会議支援方法。 An item of information to be presented to the participant is set in advance for each combination of the position and the action/state;
In the second step, the conference support device
7. The conference support method according to claim 6, further comprising: determining, for each participant, information of the item corresponding to the position and the action/state of the participant as information to be presented to the participant.
前記第2のステップにおいて、前記会議支援装置は、
前記要件を満たす前記項目の情報を前記参加者に提示すべき情報として決定する
ことを特徴とする請求項7に記載の会議支援方法。 For each of the items, requirements for presenting information of the item to the participants are set in advance;
In the second step, the conference support device
The conference support method according to claim 7 , further comprising determining, as information to be presented to the participants, information on the items that satisfy the requirements.
前記第2のステップにおいて、前記会議支援装置は、
前記要件を満たす前記項目が複数ある場合には、最も前記優先順位が高い前記項目の情報を当該参加者に提示する情報として決定する
ことを特徴とする請求項8に記載の会議支援方法。 When a plurality of items are set for one combination of the position and the action/state, a priority is set for each of the items;
In the second step, the conference support device
9. The conference support method according to claim 8, wherein, when there are a plurality of said items that satisfy said requirements, information on said item having the highest priority is determined as information to be presented to said participant.
ことを特徴とする請求項6に記載の会議支援方法。
The conference support method according to claim 6 , wherein at least a part of the information to be presented to the participants in accordance with the preset actions and states differs depending on the positions of the participants.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022160526A JP2024053975A (en) | 2022-10-04 | 2022-10-04 | Conference support device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022160526A JP2024053975A (en) | 2022-10-04 | 2022-10-04 | Conference support device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024053975A true JP2024053975A (en) | 2024-04-16 |
Family
ID=90670646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022160526A Pending JP2024053975A (en) | 2022-10-04 | 2022-10-04 | Conference support device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024053975A (en) |
-
2022
- 2022-10-04 JP JP2022160526A patent/JP2024053975A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200228358A1 (en) | Coordinated intelligent multi-party conferencing | |
US11783645B2 (en) | Multi-camera, multi-sensor panel data extraction system and method | |
JP6535681B2 (en) | Presenter Display During Video Conference | |
JP2017201479A (en) | Communication supporting system | |
JP2017123149A (en) | Method and system of group interaction by user state detection | |
JP6817580B2 (en) | Information processing method, information processing system and information processing equipment | |
Dai et al. | Group interaction analysis in dynamic context | |
TWI795759B (en) | Online meeting system | |
Nakano et al. | Generating robot gaze on the basis of participation roles and dominance estimation in multiparty interaction | |
WO2022093623A1 (en) | Methods and systems for automatic queuing in conference calls | |
JP6867971B2 (en) | Conference support device and conference support system | |
JP2013008114A (en) | Conference quality evaluation device and conference quality evaluation method | |
JP2007030050A (en) | Robot control device, robot control system, robot device and robot control method | |
JP2024053975A (en) | Conference support device and method | |
Dai et al. | Group Interaction Analysis in Dynamic Context $^{\ast} $ | |
JP7152453B2 (en) | Information processing device, information processing method, information processing program, and information processing system | |
WO2022004244A1 (en) | System, method, and program for performing communication using computer | |
WO2022137547A1 (en) | Communication assistance system | |
WO2022180860A1 (en) | Video session evaluation terminal, video session evaluation system, and video session evaluation program | |
US10523897B2 (en) | Information processing method, information processing system, and information processing apparatus | |
Colburn et al. | Graphical enhancements for voice only conference calls | |
JP7465040B1 (en) | Communication visualization system | |
Kesim et al. | The eHRI database: a multimodal database of engagement in human–robot interactions | |
JP7121433B1 (en) | Video analysis program | |
WO2022201266A1 (en) | Video analysis program |