JP2022142913A - 会議支援制御装置および会議支援方法 - Google Patents
会議支援制御装置および会議支援方法 Download PDFInfo
- Publication number
- JP2022142913A JP2022142913A JP2021043183A JP2021043183A JP2022142913A JP 2022142913 A JP2022142913 A JP 2022142913A JP 2021043183 A JP2021043183 A JP 2021043183A JP 2021043183 A JP2021043183 A JP 2021043183A JP 2022142913 A JP2022142913 A JP 2022142913A
- Authority
- JP
- Japan
- Prior art keywords
- line
- participant
- unit
- presentation
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 15
- 230000002776 aggregation Effects 0.000 claims abstract description 14
- 238000004220 aggregation Methods 0.000 claims abstract description 14
- 238000011156 evaluation Methods 0.000 claims description 26
- 238000004891 communication Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 12
- 230000005236 sound signal Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】ウェブ会議において発表者が参加者の視線の状況を確認可能にすること。
【解決手段】ネットワークを介して発表画像データを共有して開催される会議を支援する制御部40であって、参加者が使用する参加者端末の表示部における参加者の視線位置を含む視線位置情報を取得する視線位置情報取得部43と、視線位置情報取得部43が取得した視線位置情報を集計して、参加者の視線位置の分布状況を算出する集計部44と、発表画像データに、集計部44による集計結果である分布状況を重畳した重畳画像データを生成する重畳画像生成部45と、重畳画像生成部45によって生成された重畳画像データを発表者が使用する発表者端末30の表示部33に表示するように制御する表示制御部46と、を備える。
【選択図】図4
【解決手段】ネットワークを介して発表画像データを共有して開催される会議を支援する制御部40であって、参加者が使用する参加者端末の表示部における参加者の視線位置を含む視線位置情報を取得する視線位置情報取得部43と、視線位置情報取得部43が取得した視線位置情報を集計して、参加者の視線位置の分布状況を算出する集計部44と、発表画像データに、集計部44による集計結果である分布状況を重畳した重畳画像データを生成する重畳画像生成部45と、重畳画像生成部45によって生成された重畳画像データを発表者が使用する発表者端末30の表示部33に表示するように制御する表示制御部46と、を備える。
【選択図】図4
Description
本発明は、会議支援制御装置および会議支援方法に関する。
オンラインで行う会議として、いわゆるウェブ会議が知られている。ウェブ会議では、離れた場所にいる発表者および参加者がそれぞれの端末を使用する。このため、発表者が、参加者の反応を確認しながら、会議の進め方を変えたりすることが難しい。ビデオ会議等で撮像された人物の視線方向に基づいて、ビデオ会議装置の表示部の画面レイアウトを変更する技術が知られている(例えば、特許文献1参照)。
しかしながら、特許文献1に記載の技術では、画面を複数の領域に分割し、最も注目された領域が検出されるが、複数の参加者の視線の状況を把握することは困難である。
本発明は、上記に鑑みてなされたものであり、ウェブ会議において発表者が参加者の視線の状況を確認することが可能な会議支援制御装置および会議支援方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る会議支援制御装置は、ネットワークを介して発表画像データを共有して開催される会議を支援する会議支援制御装置であって、参加者が使用する参加者端末の表示部における前記参加者の視線位置を含む視線位置情報を取得する視線位置情報取得部と、前記視線位置情報取得部が取得した前記視線位置情報を集計して、前記参加者の視線位置の分布状況を算出する集計部と、前記発表画像データに、前記集計部による集計結果である前記分布状況を重畳した重畳画像データを生成する重畳画像生成部と、前記重畳画像生成部によって生成された前記重畳画像データを発表者が使用する発表者端末の表示部に表示するように制御する表示制御部と、を備える。
目的を達成するために、本発明に係る会議支援方法は、ネットワークを介して発表画像データを共有して開催される会議を支援する会議支援方法であって、参加者が使用する参加者端末の表示部における前記参加者の視線位置を含む視線位置情報を取得する視線位置情報取得ステップと、前記視線位置情報取得ステップによって取得された前記視線位置情報を集計して、前記参加者の視線位置の分布状況を算出する集計ステップと、前記発表画像データに、前記集計ステップによる集計結果である前記分布状況を重畳した重畳画像データを生成する重畳画像生成ステップと、前記重畳画像生成ステップによって生成された前記重畳画像データを発表者が使用する発表者端末の表示部に表示するように制御する表示制御ステップと、を含む。
本発明によれば、ウェブ会議において発表者が参加者の視線の状況を確認することができる。
以下、本発明に係る会議支援制御装置および会議支援方法の実施形態を図面に基づいて説明する。なお、以下の実施形態により本発明が限定されるものではない。ネットワークを介して発表画像データを共有して開催される会議、いわゆるウェブ会議は、発表画像データを提示しながら発表する発表者と、複数の視聴者である参加者とが存在する。ウェブ会議は、会議支援システム1を使用して行われる。発表画像データとは、ウェブ会議で使用する、例えば、プレゼンテーション画像データなどである。発表画像データは、説明時に表示されたポインタの画像データを含んでもよい。
[第一実施形態]
(会議支援システム)
図1は、会議支援システム1の一例を模式的に示す図である。会議支援システム1は、ネットワークを介して発表画像データを共有して開催される会議を支援する。より詳しくは、会議支援システム1は、ウェブ会議において発表する際に、参加者Uの集中状況を、視線検出技術を用いて収集し、提示する。会議支援システム1は、複数の参加者Uが使用する複数の参加者端末10と、発表者Tが使用する発表者端末30とを備える。複数の参加者端末10と、発表者端末30とは、ネットワークNWを介して互いに情報を通信可能である。
(会議支援システム)
図1は、会議支援システム1の一例を模式的に示す図である。会議支援システム1は、ネットワークを介して発表画像データを共有して開催される会議を支援する。より詳しくは、会議支援システム1は、ウェブ会議において発表する際に、参加者Uの集中状況を、視線検出技術を用いて収集し、提示する。会議支援システム1は、複数の参加者Uが使用する複数の参加者端末10と、発表者Tが使用する発表者端末30とを備える。複数の参加者端末10と、発表者端末30とは、ネットワークNWを介して互いに情報を通信可能である。
本実施形態では、発表者端末30は、発表者Tの発表時に、発表内容データを記録する。本実施形態では発表内容データは、発表画像データと発表者映像データとを含む発表映像データと、発表音声データとを含む。発表者を表示しない場合には、発表者映像データは含まない。発表者端末30は、発表内容データを参加者端末10へ送信する。参加者端末10は、受信した発表内容データを出力する。参加者端末10は、発表時に、参加者Uの視線位置を示す視線位置情報を検出する。参加者端末10は、視線位置情報を発表者端末30へ送信する。発表者端末30は、視線位置情報を表示する。
(参加者端末)
図2は、参加者端末10の構成例を示すブロック図である。図3は、参加者端末10を模式的に示す概略図である。参加者端末10は、ウェブ会議の参加者Uが使用する端末である。参加者端末10は、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータなどの情報端末が挙げられる。参加者端末10は、参加者Uが視聴する発表内容データを発表者端末30から受信する。参加者端末10は、発表内容データを出力する。参加者端末10は、発表時、表示部12における参加者Uの視線位置を示す視線位置情報を検出して、発表者端末30へ送信する。参加者端末10は、カメラ11と、表示部12と、スピーカ13と、通信部14と、制御部20とを有する。
図2は、参加者端末10の構成例を示すブロック図である。図3は、参加者端末10を模式的に示す概略図である。参加者端末10は、ウェブ会議の参加者Uが使用する端末である。参加者端末10は、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータなどの情報端末が挙げられる。参加者端末10は、参加者Uが視聴する発表内容データを発表者端末30から受信する。参加者端末10は、発表内容データを出力する。参加者端末10は、発表時、表示部12における参加者Uの視線位置を示す視線位置情報を検出して、発表者端末30へ送信する。参加者端末10は、カメラ11と、表示部12と、スピーカ13と、通信部14と、制御部20とを有する。
カメラ11は、参加者Uを撮影するカメラである。カメラ11は、参加者端末10の表示部12を視認している参加者Uの顔部を撮影可能な位置に配置されている。カメラ11は、例えば、可視光カメラまたは遠赤外線カメラ、または近赤外線カメラで構成される。カメラ11は、例えば、可視光カメラと遠赤外線カメラまたは近赤外線カメラとの組み合わせで構成されてもよい。カメラ11は、発表映像データが表示されている間は、参加者映像データを常時撮影する。カメラ11は、撮影した参加者映像データを制御部20の視線位置算出部21へ出力する。
表示部12は、各種の情報を表示する装置である。表示部12は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどを含むディスプレイである。表示部12は、制御部20の表示制御部22から出力された映像信号に基づいて、映像データを表示する。本実施形態では、表示部12は、発表映像データを表示する。表示部12は、発表映像データのうち発表画像データのみを表示し、発表者映像データを表示しなくてもよい。図3は、表示部12に、発表画像100のみが表示されている。表示部12は、発表画像データとともに、発表者映像データを表示してもよい。
スピーカ13は、各種の音声データを出力する装置である。スピーカ13は、制御部20の音声出力制御部23から出力された音声信号に基づいて、音声データを出力する。本実施形態では、スピーカ13は、発表音声データを出力する。
通信部14は、通信ユニットである。通信部14は、インターネットまたは携帯電話回線などいずれの方法で通信を行ってもよい。通信部14は、ネットワークNWを介して発表者端末30とデータを通信可能に接続する。通信部14は、発表者端末30から発表内容データを受信する。通信部14は、参加者Uの視線位置情報を発表者端末30へ送信する。
制御部20は、例えば、CPUなどで構成された演算処理装置(制御装置)である。制御部20は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部20には図示しない内部メモリが含まれ、内部メモリは制御部20におけるデータの一時記憶などに用いられる。制御部20は、視線位置算出部21と、表示制御部22と、音声出力制御部23と、通信制御部24とを有する。
視線位置算出部21は、参加者Uの視線位置を算出する。視線位置算出部21は、参加者Uが使用する参加者端末10の表示部12における参加者Uの視線位置を算出する。本実施形態では、視線位置算出部21は、発表画像データにおいて参加者Uがどこを見ているかを示す、発表画像データにおける参加者Uの視線位置を算出する。視線位置算出部21は、カメラ11から参加者映像データを取得する。視線位置算出部21は、取得した参加者映像データに画像処理を行って、参加者Uの眼の映像から、表示部12における参加者Uの視線位置を検出する。視線位置算出部21は、例えば参加者Uの瞳孔の位置と角膜反射像の位置とに基づいて視線位置を検出すること、または参加者Uの目頭の位置と虹彩の位置とに基づいて視線位置を検出することなど、各種の手法により参加者Uの視線位置を検出する。このようにして、視線位置算出部21は、発表画像データにおける参加者Uの視線位置を示す視線位置情報を算出する。
視線位置情報は、発表画像データと対応付け可能である。視線位置情報は、例えば、発表映像データの開始時点からの経過時間に対応する経過時間情報、または、発表映像データにおいて発表画像データを特定可能なフレーム番号情報などを含んでもよい。
表示制御部22は、表示部12における映像データの表示を制御する。表示制御部22は、映像データを表示部12に出力させる映像信号を出力する。より詳しくは、表示制御部22は、発表映像データなどを表示する映像信号を出力する。表示制御部22は、発表画像データのみを表示する映像信号を出力してもよい。表示制御部22は、発表画像データとともに、発表者映像データを表示する映像信号を出力してもよい。
音声出力制御部23は、スピーカ13からの音声データの出力を制御する。音声出力制御部23は、音声データをスピーカ13から出力させる音声信号を出力する。より詳しくは、音声出力制御部23は、発表音声データなどを出力する音声信号を出力する。
通信制御部24は、通信部14を介したデータの送受信を制御する。通信制御部24は、通信部14を介して、発表者端末30から発表内容データを受信するよう制御する。通信制御部24は、通信部14を介して、発表者端末30へ、参加者Uの視線位置を示す視線位置情報を送信するよう制御する。
(発表者端末)
図4は、第一実施形態に係る制御部40を有する発表者端末30の構成例を示すブロック図である。図5は、発表者端末30を模式的に示す概略図である。発表者端末30は、ウェブ会議の発表者Tが使用する端末である。発表者端末30は、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータなどの情報端末が挙げられる。発表者Tは、発表者端末30を使用して、発表画像データを提示しながら発表内容を発表する。発表者端末30は、発表映像データと発表音声データとを含む発表内容データを参加者端末10へ送信する。発表者端末30は、参加者Uの視線位置情報を参加者端末10から受信する。発表者端末30は、参加者Uの視線位置を発表画像データに重畳した重畳画像データを表示する。発表者端末30は、カメラ31と、マイクロフォン32と、表示部33と、スピーカ34と、通信部35と、制御部(会議支援制御装置)40とを有する。本実施形態では、発表者端末30は、発表者Tが発表している間、カメラ31によって発表者の顔などを含む発表者映像データを撮影し、マイクロフォン32によって発表音声データを収音するものとして説明する。発表者Tを撮影しない場合、発表者端末30は、カメラ31を有していなくてよい。
図4は、第一実施形態に係る制御部40を有する発表者端末30の構成例を示すブロック図である。図5は、発表者端末30を模式的に示す概略図である。発表者端末30は、ウェブ会議の発表者Tが使用する端末である。発表者端末30は、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータなどの情報端末が挙げられる。発表者Tは、発表者端末30を使用して、発表画像データを提示しながら発表内容を発表する。発表者端末30は、発表映像データと発表音声データとを含む発表内容データを参加者端末10へ送信する。発表者端末30は、参加者Uの視線位置情報を参加者端末10から受信する。発表者端末30は、参加者Uの視線位置を発表画像データに重畳した重畳画像データを表示する。発表者端末30は、カメラ31と、マイクロフォン32と、表示部33と、スピーカ34と、通信部35と、制御部(会議支援制御装置)40とを有する。本実施形態では、発表者端末30は、発表者Tが発表している間、カメラ31によって発表者の顔などを含む発表者映像データを撮影し、マイクロフォン32によって発表音声データを収音するものとして説明する。発表者Tを撮影しない場合、発表者端末30は、カメラ31を有していなくてよい。
カメラ31は、発表者Tを撮影するカメラである。カメラ31は、発表者Tの顔部を撮影可能である。カメラ31は、例えば、可視光カメラで構成される。カメラ31は、発表者Tが発表している間、常時撮影する。カメラ31は、撮影した発表者映像データを制御部40の映像データ取得部41へ出力する。上述したように、カメラ31は必須の構成ではない。
マイクロフォン32は、発表者Tの音声データを収音するマイクロフォンである。マイクロフォン32は、発表者Tの音声データを収音可能な位置に配置されている。マイクロフォン32は、発表者Tが発表している間、音声データを常時収音する。マイクロフォン32は、収音した音声データを制御部40の音声データ取得部42へ出力する。
表示部33は、各種の情報を表示する装置である。表示部33は、例えば、液晶ディスプレイまたは有機ELディスプレイなどを含むディスプレイである。表示部33は、制御部40の表示制御部46から出力された映像信号に基づいて、映像データを表示する。本実施形態では、表示部33は、発表画像データおよび重畳画像データを表示する。
スピーカ34は、各種の音声データを出力する装置である。スピーカ34は、制御部40の音声出力制御部47から出力された音声信号に基づいて、音声データを出力する。本実施形態では、スピーカ34は、発表音声データを出力する。
通信部35は、通信ユニットである。通信部35は、インターネットまたは携帯電話回線などいずれの方法で通信を行ってもよい。通信部35は、ネットワークNWを介して参加者端末10とデータを通信可能に接続する。通信部35は、参加者端末10へ発表内容データを送信する。通信部35は、参加者Uの視線位置情報を参加者端末10から受信する。
制御部40は、例えば、CPUなどで構成された演算処理装置(制御装置)である。制御部40は、ウェブ会議において発表者を支援する。制御部40は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部40には図示しない内部メモリが含まれ、内部メモリは制御部40におけるデータの一時記憶などに用いられる。制御部40は、映像データ取得部41と、音声データ取得部42と、視線位置情報取得部43と、集計部44と、重畳画像生成部45と、表示制御部46と、音声出力制御部47と、通信制御部48とを有する。
映像データ取得部41は、発表者Tを撮影した発表者映像データを取得する。映像データ取得部41は、カメラ31が撮影した発表者映像データを取得する。発表者映像データは、例えば毎秒30フレームの画像から構成される動画像である。
音声データ取得部42は、発表者Tが発表内容を発表する発表音声データを取得する。音声データ取得部42は、マイクロフォン32が収音した発表音声データを取得する。
視線位置情報取得部43は、参加者Uが使用する参加者端末10の表示部12における参加者Uの視線位置を示す視線位置情報を取得する。視線位置情報取得部43は、複数の参加者端末10から参加者Uの視線位置情報を取得する。
集計部44は、視線位置情報取得部43が取得した視線位置情報を集計して、複数の参加者Uの視線位置の分布状況を算出する。集計部44は、取得した複数の参加者Uの視線位置情報に基づいて、発表画像データにおける複数の参加者Uの視線位置の分布状況を集計する。より詳しくは、集計部44は、複数の参加者Uの視線位置情報から、発表画像データに対応付けて、複数の参加者Uの視線位置の分布状況を集計する。
集計された分布状況は、どれくらいの参加者Uが発表画像データのどこを見ているかを示す。分布状況によって、複数の参加者Uの発表内容に対する集中度が示される。分布状況によって、発表内容において参加者Uが興味を持っていることが示される。
重畳画像生成部45は、発表画像データに、集計部44による集計結果である分布状況を重畳した重畳画像データを生成する。重畳画像生成部45は、例えば、発表画像データに、分布状況をヒートマップ状などのように度数分布がわかるように重畳した重畳画像データを生成する。重畳画像データは、発表画像データ上に透過性のレイヤーとして表示されてもよい。
重畳画像データは、点の分布によって分布状況を示してもよい。より詳しくは、重畳画像データは、例えば、各参加者Uの視線位置の分布状況を点によって示してもよい。多くの参加者Uの視線位置が集まる場所は、多くの点が集まる。多くの点が集まる場所は、多くの参加者Uが見ている場所である。図5は、表示部33に、発表画像100が表示されている。発表画像100上に、発表者Tが入力装置を用いてポインタとして指し示している位置であるポインタ位置101と、視線位置の分布状況を点で示した重畳画像102とが表示されている。ポインタ位置101は、発表画像100の右側に位置する円グラフを指し示している。重畳画像102は、発表画像100の左側に位置する棒グラフの近傍に位置している。重畳画像102は、中央部に多くの点が集まり、中央部から離れるほど点の数が少なくなっている。図5に示す例では、ポインタ位置101と、重畳画像102とが離れている。これらにより、多くの参加者Uが、発表者Tが説明している位置とは異なる場所を見ていることがわかる。
重畳画像データは、例えば、色によって分布状況を示してもよい。例えば、多くの参加者Uの視線位置が集まる場所ほど、色を濃くする。例えば、多くの参加者Uの視線位置が集まる場所は、色を赤く、参加者Uの視線位置が集中していない場所は、色を青くする。
重畳画像データは、例えば、視線位置の数に応じたアイコン画像で分布状況を示してもよい。例えば、多くの参加者Uの視線位置が集まる場所には、所定のアイコン画像を表示する。
重畳画像データは、例えば、発表画像100における発表者が入力装置を用いて指し示す位置であり、発表画像100上にポインタとして示されるポインタの位置(発表位置)と、参加者Uの視線位置との距離に応じて色を変えてもよい。例えば、分布状況を点によって示す場合、ポインタの位置と参加者Uの視線位置とが近い点は、色を赤く、ポインタの位置と参加者Uの視線位置とが離れている点は、色を青くする。
発表位置は、図示しない入力装置による入力を受け付ける入力受付部によって、発表画像100におけるポインタ位置101の座標位置として取得可能である。
表示制御部46は、表示部33における映像データの表示を制御する。表示制御部46は、映像データを表示部33に出力させる映像信号を出力する。より詳しくは、表示制御部46は、発表画像データおよび重畳映像データなどを表示する映像信号を出力する。表示制御部46は、重畳画像生成部45によって生成された重畳画像データを表示部33に表示するように制御する。表示制御部46は、発表者Tが発表している間、リアルタイムで生成した重畳映像データを表示部33に表示させる。
音声出力制御部47は、スピーカ34からの音声データの出力を制御する。音声出力制御部47は、音声データをスピーカ34から出力させる音声信号を出力する。より詳しくは、音声出力制御部47は、発表音声データなどを出力する音声信号を出力する。
通信制御部48は、通信部35を介したデータの送受信を制御する。通信制御部48は、通信部35を介して、参加者端末10へ、発表内容データを送信するよう制御する。通信制御部48は、通信部35を介して、参加者端末10から視線位置情報を受信するよう制御する。
(会議支援システムにおける処理)
次に、上記のように構成された会議支援システム1の動作の一例を説明する。
次に、上記のように構成された会議支援システム1の動作の一例を説明する。
(参加者端末における処理)
図6を用いて、参加者端末10における処理について説明する。図6は、参加者端末10における処理の一例を示すフローチャートである。ウェブ会議の開催中、参加者端末10は、発表者端末30から発表内容データを受信する。ウェブ会議の開催中、ステップS11ないしステップS14の処理が常時実行される。
図6を用いて、参加者端末10における処理について説明する。図6は、参加者端末10における処理の一例を示すフローチャートである。ウェブ会議の開催中、参加者端末10は、発表者端末30から発表内容データを受信する。ウェブ会議の開催中、ステップS11ないしステップS14の処理が常時実行される。
制御部20は、発表内容データを出力する(ステップS11)。より詳しくは、制御部20は、表示制御部22によって、発表画像データとともに、発表者映像データを表示部12に表示させる映像信号を出力する。制御部20は、音声出力制御部23によって、発表音声データなどをスピーカ13から出力させる音声信号を出力する。制御部20は、ステップS12へ進む。
制御部20は、視線を検出する(ステップS12)。より詳しくは、カメラ11によって、発表映像データが表示されている間、参加者Uの顔部の参加者映像データを常時撮影する。制御部20は、ステップS13へ進む。
制御部20は、視線位置を算出する(ステップS13)。より詳しくは、制御部20は、視線位置算出部21によって、参加者映像データに画像処理を行って、参加者Uが使用する参加者端末10の表示部12における参加者Uの視線位置を算出する。制御部20は、視線位置算出部21によって、発表画像データにおける参加者Uの視線位置を示す視線位置情報を算出する。制御部20は、ステップS14へ進む。
制御部20は、視線位置情報を送信する(ステップS14)。より詳しくは、制御部20は、通信制御部24によって、通信部14を介して、発表者端末30へ、参加者Uの視線位置を示す視線位置情報を送信するよう制御する。
(発表者端末における処理)
図7を用いて、発表者端末30における処理について説明する。図7は、発表者端末30における処理の一例を示すフローチャートである。ウェブ会議の開催中、ステップS21ないしステップS24の処理が常時実行される。
図7を用いて、発表者端末30における処理について説明する。図7は、発表者端末30における処理の一例を示すフローチャートである。ウェブ会議の開催中、ステップS21ないしステップS24の処理が常時実行される。
制御部40は、複数の参加者Uの視線位置情報を取得する(ステップS21)。より詳しくは、制御部40は、視線位置情報取得部43によって、複数の参加者端末10から参加者Uの視線位置情報を取得する。制御部40は、ステップS22へ進む。
制御部40は、視線位置の分布を算出する(ステップS22)。より詳しくは、制御部40は、集計部44によって、複数の参加者Uの視線位置情報から、発表画像データに対応付けて、複数の参加者Uの視線位置の分布状況を集計する。制御部40は、ステップS23へ進む。
制御部40は、重畳画像データを生成する(ステップS23)。より詳しくは、制御部40は、重畳画像生成部45によって、発表画像データに、集計部44による集計結果である分布状況を重畳した重畳画像データを生成する。制御部40は、重畳画像生成部45によって、例えば、発表画像データに、分布状況をヒートマップ状などのように度数分布がわかるように重畳した重畳画像データを生成する。制御部40は、ステップS24へ進む。
制御部40は、重畳画像を表示する(ステップS24)。より詳しくは、制御部40は、表示制御部46によって、生成した重畳画像データを表示部33に表示させる。
(効果)
上述したように、本実施形態では、発表者端末30の表示部33に、発表画像データに、複数の参加者Uの視線位置の分布状況を重畳した重畳画像データを表示する。本実施形態によれば、ウェブ会議において発表者Tが参加者Uの視線位置の分布状況を確認することができる。本実施形態によれば、発表者Tが発表中に、発表内容に対する参加者Uの興味の状況を確認することができる。
上述したように、本実施形態では、発表者端末30の表示部33に、発表画像データに、複数の参加者Uの視線位置の分布状況を重畳した重畳画像データを表示する。本実施形態によれば、ウェブ会議において発表者Tが参加者Uの視線位置の分布状況を確認することができる。本実施形態によれば、発表者Tが発表中に、発表内容に対する参加者Uの興味の状況を確認することができる。
以上説明してきたように、発表者端末30の表示部33に、発表画像データに、複数の参加者Uの視線位置の分布状況を重畳した重畳画像データを単に表示するとしていたが、以下の条件を満たす場合に表示することにしてもよい。条件としては、ポインタの位置と参加者Uの視線位置とが所定距離以上離れた場合、または、ポインタの位置と参加者Uの視線位置とが所定距離以上離れ、かつ、所定時間以上経過した場合などがある。これにより、発表者Tが発表中に、発表内容から参加者Uの視線がそれた場合に、参加者Uの視線がそれていることを視覚的に認識することができ、発表者Tが発表中に、発表内容に対する参加者Uの興味の状況をより適切に確認することができる。
[第二実施形態]
図8、図9を参照しながら、本実施形態に係る制御部40Aを有する発表者端末30Aについて説明する。図8は、第二実施形態に係る制御部40Aを有する発表者端末30Aの構成例を示すブロック図である。図9は、発表者端末30Aにおける処理の一例を示すフローチャートである。発表者端末30Aは、基本的な構成は第一実施形態の発表者端末30と同様である。以下の説明においては、発表者端末30と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態の制御部40Aは、評価部49Aを有する点と、表示制御部46Aにおける処理とが第一実施形態と異なる。
図8、図9を参照しながら、本実施形態に係る制御部40Aを有する発表者端末30Aについて説明する。図8は、第二実施形態に係る制御部40Aを有する発表者端末30Aの構成例を示すブロック図である。図9は、発表者端末30Aにおける処理の一例を示すフローチャートである。発表者端末30Aは、基本的な構成は第一実施形態の発表者端末30と同様である。以下の説明においては、発表者端末30と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態の制御部40Aは、評価部49Aを有する点と、表示制御部46Aにおける処理とが第一実施形態と異なる。
発表者端末30Aは、発表終了後に参加者Uがどれほど興味を示していたかを、視線位置情報と発表画像データのポインタの位置とから数値化して評価し、評価結果を提示する。
評価部49Aは、視線位置情報取得部43が取得した視線位置と、発表画像データにおけるポインタの位置との距離を発表時間で積分して、参加者Uの集中度を評価する。より詳しくは、まず、評価部49Aは、参加者Uごとに、視線位置と、発表画像データにおけるポインタの位置との距離を発表時間で積分する。そして、評価部49Aは、算出した各参加者Uの積分値を合計する。
発表時間は、例えば、視線位置情報に含まれる経過時間情報が示す経過時間から算出可能である。発表時間で積分するとは、視線位置と発表画像データにおけるポインタの位置との距離を、距離を算出した時間の差分で積分することである。
参加者Uが発表者Tの発表内容に集中している場合、参加者Uの視線位置は、ポインタの位置の近傍に位置する。参加者Uの視線位置とポインタの位置との距離が離れている場合、参加者Uは、発表者Tが発表している位置と関係ない位置を見ている。視線位置とポインタの位置との距離が大きくなるほど、参加者Uの集中度は低いと評価される。
評価部49Aは、積分値が大きいほど、参加者Uの集中度が低いと判定してもよい。評価部49Aは、例えば、積分値が閾値以上である場合、参加者Uの集中度が「低い」と評価し、積分値が閾値未満である場合、参加者Uの集中度が「高い」と評価する。集中度は、例えば、高い順に「A」、「B」、「C」などのランクで示してもよい。集中度は、興味度合いである。
評価部49Aは、発表画像が切り替わるタイミング、または、ポインタの移動時は、評価の対象外としてもよい。このような場合は、発表に関係ない場合も含まれるためである。評価部49Aは、発表画像が静止している状態における距離を積分する。評価部49Aは、ポインタの位置が安定している状態における距離を積分する。ポインタの位置が安定しているとは、例えば、ポインタの位置が停止している、または、ポインタの位置の移動が所定範囲内に収まり揺らいでいる程度の状態である。
このような評価部49Aによる評価結果は、発表終了後に、例えば、発表者端末30Aの表示部33で確認可能である。
表示制御部46Aは、評価部49Aの評価結果を表示部33に表示するように制御する。表示制御部46Aは、評価結果を、例えば、集中度が「高い」、集中度が「低い」などと表示してもよい。表示制御部46Aは、評価結果を、例えば、集中度を示すランクで表示してもよい。表示制御部46Aは、評価結果を、集中度の経時変化がわかるように、発表時間の経過に伴う経時変化を確認可能なグラフなどで表示してもよい。
評価結果は、発表画像が切り替わるタイミングなどの任意のタイミングにおける集中度を記録したものを時系列で示してもよい。これにより、発表中の任意のタイミングにおける集中度が確認可能である。
図9を用いて、発表者端末30Aにおける処理について説明する。ウェブ会議の終了後、ステップS31ないしステップS32の処理が実行される。
制御部40Aは、評価を行う(ステップS31)。より詳しくは、制御部40Aは、評価部49Aによって、視線位置と、発表画像データにおけるポインタの位置との距離を発表時間で積分して、参加者Uの集中度を評価する。制御部40Aは、ステップS32へ進む。
制御部40Aは、評価結果を表示する(ステップS32)。より詳しくは、制御部40Aは、表示制御部46Aによって、評価結果を、例えば、集中度の経時変化がわかるように、発表時間の経過に伴う経時変化を確認可能なグラフなどで表示する。
上述したように、本実施形態は、参加者Uの視線位置と発表画像データにおけるポインタ位置との距離を発表時間で積分して、参加者Uの集中度を評価することができる。本実施形態によれば、発表者Tの発表内容に対する参加者Uの興味の状況を評価することができる。
本実施形態では、発表画像が切り替わるタイミング、または、ポインタの移動時は、評価の対象外とする。本実施形態によれば、より正確に参加者Uの集中度を評価することができる。
本実施形態では、積分値が大きいほど、参加者Uの集中度が低いと判定する。本実施形態によれば、参加者Uの集中度を客観的な指標を用いて適切に判定することができる。
図示した会議支援システムの各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
会議支援システムの構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして発表した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
上記において、発表者端末の制御部は、集計部が集計した複数の参加者Uの視線位置の分布状況に基づいて、発表内容に対するアドバイスを行う指導部を有してもよい。指導部は、例えば、分布状況から、多くの参加者Uが、現在の発表位置ではなく、説明済みの発表位置を見ていると判定される場合、前の内容を再度説明するよう促すメッセージを表示部33に表示する。
上記では、発表位置は、ポインタの位置であることとして説明したが、これに限定されない。発表位置は、例えば、カメラ31が撮影した、発表者映像データから、発表者の視線位置を検出して、発表画像データにおける発表位置としてもよい。発表位置は、例えば、マイクロフォン32が収音した発表者の音声データを音声認識することによって、発表画像データにおける発表位置としてもよい。
1 会議支援システム
10 参加者端末
11 カメラ
12 表示部
13 スピーカ
14 通信部
20 制御部
21 視線位置算出部
22 表示制御部
23 音声出力制御部
24 通信制御部
30 発表者端末
31 カメラ
32 マイクロフォン
33 表示部
34 スピーカ
35 通信部
40 制御部(会議支援制御装置)
41 映像データ取得部
42 音声データ取得部
43 視線位置情報取得部
44 集計部
45 重畳画像生成部
46 表示制御部
47 音声出力制御部
48 通信制御部
10 参加者端末
11 カメラ
12 表示部
13 スピーカ
14 通信部
20 制御部
21 視線位置算出部
22 表示制御部
23 音声出力制御部
24 通信制御部
30 発表者端末
31 カメラ
32 マイクロフォン
33 表示部
34 スピーカ
35 通信部
40 制御部(会議支援制御装置)
41 映像データ取得部
42 音声データ取得部
43 視線位置情報取得部
44 集計部
45 重畳画像生成部
46 表示制御部
47 音声出力制御部
48 通信制御部
Claims (5)
- ネットワークを介して発表画像データを共有して開催される会議を支援する会議支援制御装置であって、
参加者が使用する参加者端末の表示部における前記参加者の視線位置を含む視線位置情報を取得する視線位置情報取得部と、
前記視線位置情報取得部が取得した前記視線位置情報を集計して、前記参加者の視線位置の分布状況を算出する集計部と、
前記発表画像データに、前記集計部による集計結果である前記分布状況を重畳した重畳画像データを生成する重畳画像生成部と、
前記重畳画像生成部によって生成された前記重畳画像データを発表者が使用する発表者端末の表示部に表示するように制御する表示制御部と、
を備える、会議支援制御装置。 - 前記視線位置情報取得部が取得した前記視線位置と前記発表画像データにおける発表位置との距離を算出し、算出した距離を発表時間で積分して積分値を求め、前記参加者の集中度を評価する評価部、
を備える、請求項1に記載の会議支援制御装置。 - 前記評価部は、前記発表位置が安定している状態における距離を積分する、
請求項2に記載の会議支援制御装置。 - 前記評価部は、前記積分値が大きいほど、前記参加者の集中度が低いと判定する、
請求項2に記載の会議支援制御装置。 - ネットワークを介して発表画像データを共有して開催される会議を支援する会議支援方法であって、
参加者が使用する参加者端末の表示部における前記参加者の視線位置を含む視線位置情報を取得する視線位置情報取得ステップと、
前記視線位置情報取得ステップによって取得された前記視線位置情報を集計して、前記参加者の視線位置の分布状況を算出する集計ステップと、
前記発表画像データに、前記集計ステップによる集計結果である前記分布状況を重畳した重畳画像データを生成する重畳画像生成ステップと、
前記重畳画像生成ステップによって生成された前記重畳画像データを発表者が使用する発表者端末の表示部に表示するように制御する表示制御ステップと、
を含む、会議支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021043183A JP2022142913A (ja) | 2021-03-17 | 2021-03-17 | 会議支援制御装置および会議支援方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021043183A JP2022142913A (ja) | 2021-03-17 | 2021-03-17 | 会議支援制御装置および会議支援方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022142913A true JP2022142913A (ja) | 2022-10-03 |
Family
ID=83454728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021043183A Pending JP2022142913A (ja) | 2021-03-17 | 2021-03-17 | 会議支援制御装置および会議支援方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022142913A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024042817A1 (ja) * | 2022-08-22 | 2024-02-29 | 株式会社日立製作所 | 情報提供装置及び情報提供方法 |
-
2021
- 2021-03-17 JP JP2021043183A patent/JP2022142913A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024042817A1 (ja) * | 2022-08-22 | 2024-02-29 | 株式会社日立製作所 | 情報提供装置及び情報提供方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11374991B2 (en) | Technologies for audiovisual communication using interestingness algorithms | |
US9179191B2 (en) | Information processing apparatus, information processing method, and program | |
US11341148B2 (en) | Information processing system and information processing method to specify persons with good affinity toward each other | |
JP6165846B2 (ja) | 目のトラッキングに基づくディスプレイの一部の選択的強調 | |
JP6263617B2 (ja) | 表示制御方法及び装置、電子機器 | |
RU2665901C1 (ru) | Способ и аппаратура для тестирования программного обеспечения головного устройства отображения виртуальной реальности | |
EP3236660A1 (en) | Video processing method and device | |
US10325144B2 (en) | Wearable apparatus and information processing method and device thereof | |
CN111601064B (zh) | 信息交互方法和信息交互装置 | |
EP2988205A1 (en) | Method and device for transmitting image | |
JP5316286B2 (ja) | ビデオ会議システム,サーバ装置,及びビデオ会議プログラム | |
CN112702533B (zh) | 视线修正方法及视线修正装置 | |
US20160295118A1 (en) | Method and apparatus for displaying framing information | |
JP2022142913A (ja) | 会議支援制御装置および会議支援方法 | |
CN105635573B (zh) | 摄像头视角调整方法和装置 | |
CN110636377A (zh) | 视频处理方法、装置、存储介质、终端及服务器 | |
CN107463373B (zh) | 图片美颜方法、好友颜值的管理方法和装置 | |
CN115134516A (zh) | 拍摄方法及装置 | |
JP2022168570A (ja) | 会議支援制御装置および会議支援方法 | |
CN116437147B (zh) | 直播任务交互方法、装置、电子设备及存储介质 | |
CN110213524B (zh) | 视联网会议异常处理方法及装置 | |
CN112217989A (zh) | 图像显示方法及装置 | |
CN113551768A (zh) | 确定环境亮度的方法及装置 | |
CN117201824A (zh) | 对象信息展示方法、装置、电子设备及存储介质 | |
CN113050843A (zh) | 情绪识别及管理方法、计算机程序及电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231228 |