JP2009232054A - 会議支援システム - Google Patents

会議支援システム Download PDF

Info

Publication number
JP2009232054A
JP2009232054A JP2008073580A JP2008073580A JP2009232054A JP 2009232054 A JP2009232054 A JP 2009232054A JP 2008073580 A JP2008073580 A JP 2008073580A JP 2008073580 A JP2008073580 A JP 2008073580A JP 2009232054 A JP2009232054 A JP 2009232054A
Authority
JP
Japan
Prior art keywords
data
conference
unit
client terminal
aggressiveness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008073580A
Other languages
English (en)
Inventor
Yusuke Suzuki
雄介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2008073580A priority Critical patent/JP2009232054A/ja
Publication of JP2009232054A publication Critical patent/JP2009232054A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】音声や映像などの複数の指標を用いて、会議の盛り上がり等の進行状況を確実に判断することのできる会議支援システムを得る。
【解決手段】クライアント端末100は、会議参加者の音声入力を受け付けてその音声データを出力する音声入力部120と、会議参加者の映像を撮像してその映像データを出力する撮像部110と、音声入力部120および撮像部110からの出力を加算して当該会議参加者の積極度を表す第1積極度データを算出する演算部160と、クライアント端末同士でデータを送受信する通信部130と、情報を画面表示する表示部140と、を備え、通信部130は、第1積極度データを他クライアント端末に送信するとともに、他クライアント端末から当該他クライアント端末を使用している会議参加者の積極度を表す第2積極度データを受信し、表示部140は、第2積極度データを画面表示する。
【選択図】図1

Description

本発明は、遠隔会議の進行を支援するシステムに関するものである。
近年のブロードバンド化の流れから、会議参加者がインターネットなどのネットワークを介して、音声や映像を双方向に送受信して行う遠隔会議システムが一般化している。
このような遠隔地を通信技術で接続する会議においては、参加者が会議室などの実空間を共有して行う通常の会議では顕在化しづらい課題が顕著に現れる。
例えば、表情や姿勢などの言語化しづらい情報が共有されづらいため、会議参加者が話者の発言内容に対してどの程度興味を持っているのか、遠隔地で行われている会議がどのような盛り上がり方をしているのか、等が分かりづらい。
上記のような点に鑑み、『複数の会議場間で行われる遠隔会議において、遠隔地の会議場の盛り上がりの度合いを把握することを容易化する。』ことを目的とした技術として、『会議支援装置10は、会議場Aにおける参加者の動作を表す動作情報を取得し、取得された動作情報に基づき会議場Aにおける発言動作を認識し、この認識結果に基づいて会議場Aの盛り上がりの度合いを示す会議場活性度を算出し、算出された会議場活性度を会議場Bの参加者に提示する。』というものが提案されている(特許文献1)。
特開2006−302047号公報(要約)
上記特許文献1に記載の技術では、会議における音声や映像などを指標として会議の盛り上がり具合などの進行状況を判断するが、これらの指標のうちいずれを重点的に用いるかによって進行状況に関する判断が異なる上、各指標には一定のノイズ等が含まれていることがあるため、進行状況を確実に判断することが難しい場合があった。
そのため、音声や映像などの複数の指標を用いて、会議の盛り上がり等の進行状況を確実に判断することのできる会議支援システムが望まれていた。
本発明に係る会議支援システムは、会議参加者の映像と音声を相互に送受信する複数のクライアント端末を有し、前記クライアント端末は、会議参加者の音声入力を受け付けてその音声データを出力する音声入力部と、会議参加者の映像を撮像してその映像データを出力する撮像部と、前記音声入力部および前記撮像部からの出力を加算して当該会議参加者の積極度を表す第1積極度データを算出する演算部と、クライアント端末同士でデータを送受信する通信部と、情報を画面表示する表示部と、を備え、前記通信部は、前記第1積極度データを他クライアント端末に送信するとともに、他クライアント端末から当該他クライアント端末を使用している会議参加者の積極度を表す第2積極度データを受信し、前記表示部は、前記第2積極度データを画面表示するものである。
本発明に係る会議支援システムによれば、クライアント端末の演算部は、会議参加者の音声データと映像データを加算して、当該会議参加者の積極度を求めるので、音声や映像にノイズ等が含まれている場合であっても、これらが平滑化されて総合的に精度良く積極度を求めることができる。
また、他クライアント端末との間で積極度データを互いに送受信することにより、遠隔地との間でも会議の盛り上がり具合などの進行状況を、相互に把握することができる。
実施の形態1.
図1は、本発明の実施の形態1に係る会議支援システムの構成図である。
図1において、クライアント端末100aと100bは、同様の構成を備え、ネットワーク200を介して接続されており、相互に音声や映像を送受信することで、会議参加者同士が遠隔会議を行うことを支援する端末である。以下、クライアント端末100aと100bを総称するときは、単にクライアント端末100とする。
クライアント端末100aや100bを利用して遠隔会議に参加する会議参加者は、各クライアント端末が設置されている空間において、1ないし複数存在するものとする。即ち、複数の会議参加者が存在する空間にクライアント端末100を設置し、同一のクライアント端末100を複数の会議参加者が利用する場合もある。
クライアント端末100は、撮像部110、音声入力部120、通信部130、表示部140、音声出力部150、演算部160を備える。
撮像部110は、例えばデジタル式カメラなどの映像撮像デバイスで構成され、クライアント端末100を利用する会議参加者の映像を撮像してその撮像データを演算部160と通信部130に出力する。
音声入力部120は、例えばマイクなどの音声入力デバイスで構成され、クライアント端末100を利用する会議参加者の発話音声を取得してその音声データを演算部160と通信部130に出力する。
通信部130は、撮像部110、音声入力部120、演算部160が出力するデータを他の会議参加者が使用するクライアント端末(図1ではクライアント端末100b、以下同様)に送信する。
また、通信部130は、クライアント端末100bが送信する音声データ、映像データ、会議データを受信し、音声データは音声出力部150へ、映像データと会議データは表示部140へ、それぞれ出力する。会議データの内容については、後述する。
なお、図1では、通信部130が受信したデータをそのまま表示部140や音声出力部150に出力するように記載したが、演算部160が一旦データを受け付けて、適当な形式に適宜変換するなどしてから各部に出力するようにしてもよい。
同様に、撮像部110や音声入力部120が取得した映像データや音声データを一旦演算部160に出力し、適当な形式に適宜変換するなどしてから通信部130に出力するようにしてもよい。
表示部140は、ディスプレイ等の画面表示デバイスで構成され、クライアント端末100bから送信された映像データや会議データを画面表示する。
音声出力部150は、スピーカ等の音声出力デバイスで構成され、クライアント端末100bから送信された音声データを音声出力する。
演算部160は、CPU(Central Processing Unit)等の演算装置で構成され、クライアント端末100の全体動作の制御と、後述する会議データの生成や受信に関する処理を実行する。
演算部160は、差分検出部161、画像保持部162、動作推定部163、音源推定部164、平均出力部165、会議データ生成部166を備える。これら各部は、演算部160の一部を構成する回路デバイス等のハードウェアとして構成してもよいし、演算部160の動作を規定するソフトウェアとして構成してもよい。
差分検出部161は、撮像部110より映像データを受け取り、その1コマ分(例えば30コマ/秒の映像データであれば30分の1秒相当の静止画像)の画像データと、画像保持部162が保持している1コマ分の画像データとの差分を求め、動作推定部163に差分データとして出力する。差分検出の具体動作は、後述の図6で説明する。
画像保持部162は、撮像部110より映像データを受け取り、その映像データを各コマ毎に分割して得た複数の静止画像データを、図示しないメモリ等の記憶装置内に保持する。保持する画像データの数は、メモリの記憶容量等に応じて適宜定める。
動作推定部163は、差分検出部161が出力する差分に基づき、当該差分の元となった映像データ内で動いている人物や物体の動きを推定し、その推定結果を平均出力部165に出力する。動作推定の具体例は、後述の図7で説明する。
音源推定部164は、音声入力部120より音声データを受け取り、公知の音源推定アルゴリズム等を用いて、クライアント端末100が設置されている空間における当該音声データの発生源(音源位置)を推定し、推定結果を平均出力部165に出力する。
平均出力部165は、動作推定部163と音源推定部164の推定結果データを受け取り、両者の重み付き加算値を求める。これにより、発話を行ったり、身振り手振りを激しく行ったりして、当該クライアント端末100が設置されている空間で会議に積極的に参加している参加者の当該空間における存在位置を、精度良く推定することができる。
平均出力部165は、上述の重み付き加算値を求めた後、その結果データを、2次元平面上の起伏データの形式で生成する。
即ち、クライアント端末100を設置している空間の2次元座標と、その各座標において積極的な会議参加者が存在している可能性の高さを起伏値で表したデータを、上述の結果データとして生成する。
この結果、後述の図5で説明するように、積極的な会議参加者が存在している可能性が高い座標は山状の盛り上がりが高く、そうでない座標は平坦に表現した、凹凸データを含む2次元平面データが生成される。
会議データ生成部166は、平均出力部165が出力する2次元平面データを、後述の図5で説明するような画像データに変換し、通信部130に出力する。
以上、本実施の形態1に係る会議支援システム、およびクライアント端末100の構成を説明した。次に、クライアント端末100による会議支援動作について説明する。
なお、遠隔会議に関する動作は、音声と映像をクライアント端末間で相互に送受信する一般的なものであるため、説明を省略する。
図2は、クライアント端末100を設置した会議空間のイメージ図である。ここでは、会議空間を天井から見た図を示した。なお、クライアント端末100の記載は省略した。
図2において、会議参加者300は、クライアント端末100を使用して遠隔会議に参加している。遠隔の会議参加者にとっては、図2の会議空間の状況が直接には把握できないため、会議参加者300がどの程度積極的に会議に参加しているかが分かりにくい。
そこで、クライアント端末100は、以下に説明するような手法により、会議参加者300の積極度を求め、他クライアント端末に送信して、遠隔の会議参加者が会議参加者300の積極度を把握できるように支援する。
図3は、動作推定部163の推定結果を視覚的に表したものである。ここでは、撮像部110を図2の会議空間の天井に配設してクライアント端末100と接続した例を示す。
図3において、山状の盛り上がりが高くなっている部分は、その高さに比例する映像上の大きな動きがあったことを示している。即ち、盛り上がりが高い部分に会議参加者300が存在し、その盛り上がりが高いほど、会議参加者300が身振り手振りを大きくするなどして積極的に会議へ参加しているものと推測される。
なお、動作推定部163の推定動作については、後述の図7で説明する。
図4は、音源推定部164の推定結果を視覚的に表したものである。
図4において、山状の盛り上がりが高くなっている部分は、その高さに比例する大きな音声入力があったことを示している。即ち、盛り上がりが高い部分に会議参加者300が存在し、その盛り上がりが高いほど、会議参加者300が大きな声で発話するなどして積極的に会議へ参加しているものと推測される。
ところが、音声の反響などの影響により、図2の会議空間における音源が会議参加者300の発話音声による1箇所のみであっても、音源推定部164は複数の箇所に音源が存在するものと誤って推定してしまう場合がある。
動作推定の結果についても、例えば会議空間内に会議参加者以外の移動物体等が存在することにより、音源推定と同様にノイズや検出誤差等が発生する可能性がある。
このような推定誤りは、会議参加者300の積極度を推測する妨げとなるため、遠隔会議を支援する観点から好ましくない。そこで、動作推定部163の推定結果と音源推定部164の推定結果を足し合わせ、両者を総合的に評価することで、より正確に会議参加者300の積極度を求めることを考える。
図5は、平均出力部165の算出結果を視覚的に表したものである。
平均出力部165は、図3〜図4で説明したような各部の推定結果を、重み付けをした上で足し合わせ、図5に示すような凹凸データを含む2次元平面データを出力する。
各部の推定結果を足し合わせることにより、各部の推定誤り等が平滑化され、推定結果の精度が向上する。また、重み付けの配分を調整することにより、映像と音声のいずれを重視して会議参加者300の積極度を推測するかを調整することができる。
平均出力部165の動作については、後述の図8で説明する。
図6は、差分抽出部161の動作フローを説明するものである。以下、図6の各ステップについて説明する。
(S601)
差分抽出部161は、撮像部110が取得した映像データから、1コマ分の画像データを取得する。即ち、ここで取得する画像データは、静止画像データである。
(S602)
差分抽出部161は、画像保持部162が画像データを保持しているか否かを確認する。保持していればステップS603へ進み、保持していなければS608へ進む。
なお、画像保持部162が保持している画像データは、後述のステップS608で説明する通り、1コマ前の画像データである。
(S603)
差分抽出部161は、以下のステップS604〜S606を、ステップS601で取得した画像データの全ての画素について実行する。
(S604)
差分抽出部161は、画像保持部162が保持している画像データと、ステップS601で取得した画像データとの、画像上の同じ位置における画素値の差分を求める。
なお、説明の簡易のため、画像データは2次元平面上の画素毎に画素値を1つのみ持つものとする。色表現のため画素毎に複数の画素値を持つ場合でも、減色処理を行うなどして、本ステップと同様の処理を行うことができる。
(S605)
差分抽出部161は、ステップS604で求めた差分が、所定閾値以上であるか否かを判定する。閾値以上であればステップS606へ進み、閾値未満であればステップS603へ戻って次の画素について同様の処理を繰り返す。
(S606)
差分抽出部161は、メモリ等の記憶装置に、動作推定部163へ出力するための差分データを格納する領域を確保しておき、現在の画素に相当する位置に、現在の画素値をコピーする。
本ステップの処理により、1コマ前の画像データと比較して動きの大きい部分の画素のみが、差分データとして保持されることになる。
(S607)
差分抽出部161は、メモリ等の記憶装置に格納している差分データを、動作推定部163へ出力する。動作推定部163は、メモリ等の記憶装置に、受け取った差分データを格納する。
(S608)
差分抽出部161は、ステップS601で取得した画像データを、画像保持部162に格納する。
以後、本処理フローを再度実行するときは、ステップS601で次の1コマ分の画像データを取得し、本ステップで画像保持部162に格納した現在の画像データとの差分を求めることになる。
以上の図6の処理により、撮像部110が取得した映像データのなかで動きの大きい部分のみを抽出した複数の静止画像データが抽出されることになる。
図7は、動作推定部163の動作フローを説明するものである。以下、図7の各ステップについて説明する。
(S701)
動作推定部163は、一定時間処理を行わずに待機する。
(S702)
動作推定部163は、差分抽出部161が出力した差分データを、メモリ等の記憶装置上にn個(所定の基準値)以上保持しているか否かを判定する。n個以上保持していなければステップS701へ戻って一定時間待機し、n個以上保持していればステップS703へ進む。
ここでの基準値nは、何コマ分の静止画像データを用いて動作推定を行うかの基準に相当する。
(S703)
動作推定部163は、差分データの全画素について、以下のステップS704〜S705を実行する。
(S704)
動作推定部163は、保持しているn個の差分データの全てについて、以下のステップS705を実行する。ここでいうn個の差分データとは、差分抽出部161の処理によって、1コマずつ時間を進めたnコマの静止画像のうち動きが大きい部分を抽出したものに相当する。
(S705)
動作推定部163は、下記(式1)を用いて、差分データの平均値を求める。
Figure 2009232054
上記(式1)により、n個の差分データの時間的な平均値が得られる。
(S706)
動作推定部163は、以上のステップにより得られたデータを、平均出力部165に出力する。本ステップで出力するデータは、図3で説明したようなデータを含む2次元平面データとなる。
即ち、会議空間の2次元平面座標のうち、動きの大きい部分が高く、動きの少ない部分が平坦に表された2次元平面データが出力される。
以上の図7の処理により、差分データの時間平均を用いて、大きな動きがあった部分の座標を高くした2次元平面データが、動作推定データとして平均出力部165に出力される。
次に、音源推定部164の動作について簡単に説明する。
(1)音源推定部164は、音声入力部120より音声データを受け取る。
(2)次に、音源推定部164は、例えばマイクロホンとMUSIC法(サブスペース法)等の公知の音源推定アルゴリズム等を用いて、クライアント端末100が設置されている空間において発声が行われている可能性が高い位置(音源位置)を推定する。
(3)音源推定部164は、音源が存在している可能性が高い部分を高く盛り上げた2次元平面データを、音源推定データとして平均出力部165に出力する。
図8は、平均出力部165の動作フローを説明するものである。以下、図8の各ステップについて説明する。
(S801)
平均出力部165は、動作推定部163が出力した動作推定データと、音源推定部164が出力した音源推定データを取得する。
(S802)
平均出力部165は、ステップS801で取得した動作推定データと音源推定データの全座標について、以下のステップS803を実行する。
なお、説明の簡易のため、動作推定データと音源推定データの次元は等しく、縦幅・横幅ともに一致しているものとする。これらが異なる場合は、座標変換やサンプリングの変更などを行って、本ステップと同様に処理することができる。
(S803)
平均出力部165は、ステップS801で取得した動作推定データと音源推定データの1つの座標について、データ値を下記(式2)のような演算式により重み付き加算する。
Figure 2009232054
各重みを0.5とすると、両者の単純平均が求められるが、適宜重み付けを変更することにより、動作推定データと音源推定データのいずれを優先するかなどを調整することができる。
(S804)
平均出力部165は、以上のステップで得られた重み付き加算データを、会議データ生成部166に出力する。本ステップで出力する重み付き加算データは、本実施の形態1における「第1積極度データ」に相当する。
以上の図8の処理により、動作推定データと音源推定データが重み付きで加算され、図5で説明したような、ノイズや検出誤り等が平滑化されたデータが出力される。
会議データ生成部166は、同データに基づき図5で説明したような画像を会議データとして生成し、通信部130を介して他クライアント端末に送信する。他クライアント端末を使用している遠隔の会議参加者は、これを閲覧することにより、会議参加者300の積極度を把握することができる。
以上のように、本実施の形態1によれば、動作推定データと音源推定データの双方を加算することにより、いずれか単体の推定データのみではノイズや検出誤り等を含んでいる場合であっても、会議に積極的に参加している参加者を精度良く推定することができる。
また、得られた推定結果を時系列で見ることにより、会議の盛り上がり等の状況を把握することもできる。
実施の形態2.
実施の形態1では、会議参加者300の積極度を表す会議データを他クライアント端末に送信することにより、遠隔側の会議参加者が、会議参加者300の積極度を把握できるようにすることを説明した。
本発明の実施の形態2では、会議参加者300が存在している側の会議空間内で、新たに会議の進行を支援するロボット400を設け、会議進行を補助させる構成と動作について説明する。
図9は、本実施の形態2に係る会議支援システムの構成図である。
図9において、実施の形態1で説明した図1の構成に加えて、新たにロボット400を設けた。その他の構成は図1と同様であるため、説明を省略する。
ロボット400は、クライアント端末100aを設置している会議空間で会議の進行を支援する自律移動式ロボットであり、制御部410、位置センサ420、マイク430、駆動部440を備える。
制御部410は、クライアント端末100aの会議データ生成部166より、適当な通信手段等(図示せず)を介して会議データ、またはその元となった重み付き加算データを受信し、これに基づきロボット400の動作を制御する。
以下の説明では、制御部410は会議データを受信してロボット400の動作制御に用いることとするが、その元となった重み付き加算データを受信して動作制御に用いるように構成してもよい。
制御部410は、その機能を実現する回路デバイス等のハードウェアで構成することもできるし、マイコンやCPU等の演算装置と、その動作を規定するソフトウェアとで構成することもできる。また、必要な通信インターフェース等を適宜備える。
位置センサ420は、少なくともロボット400を設置している会議空間内におけるロボット400の位置を検出することのできるセンサであり、検出結果を制御部410に出力する。
マイク430は、ロボット400周辺からの音声入力を受け付けて、音声データとして制御部410に出力する。この音声データは、クライアント端末100aへ、適当な通信手段等(図示せず)を介して送信される。クライアント端末100aはこれを受信し、音源推定部164に入力する。
駆動部440は、車輪や脚部などで構成され、制御部410の指示に基づきロボット400が自律的に移動することのできる機能を提供する。車輪や脚部以外の移動手段(例えばプロペラ等の飛行手段)を用いて構成することもできる。
図10は、ロボット400の設置イメージを示すものである。ここでは図2と同様に、会議空間を天井から見た図を示した。
ロボット400は、後述の図13で説明する動作フローにしたがい、発話や身振り手振りなどを行って会議に積極的に参加している会議参加者(図10では会議参加者300)の方向に向かって移動する。
図11は、ロボット400が会議空間内の進行方向を決定する際の周辺座標を表したものである。ロボット400は、後述の図13で説明する動作フローにしたがい、自己を中心として9区画に区切った自己周辺8座標のうち、会議データの値が最も高い方向に進行方向を決定する。
例えば、図11の右側の座標の会議データが最も値が高ければ、ロボット400は右側の座標に向かって移動する。
図12は、ロボット400が移動方向を決定する際に使用する会議データのイメージである。ここでは、直感的に理解できるように、実施の形態1と異なり、会議参加者300が存在している可能性が高い座標をより低く表した例を示した。なお、実施の形態1と同様に表しても構わないことは言うまでもない。
ロボット400は、図12における高さが低い谷間部分の座標方向へ向かって下がっていくようなイメージで移動する。具体的な動作フローは、次の図13で説明する。
図13は、ロボット400の動作フローである。以下、図13の各ステップについて説明する。
(S1301)
制御部410は、位置センサ420が取得したロボット400の位置と、クライアント端末100aより取得した会議データ上の座標における位置とが合致するように、両者の対応付けを行う。対応付けは、例えば基準となる座標を重ね合わせるといった適当な手法で行えばよい。
(S1302)
制御部410は、図11で説明したような、会議データ内におけるロボット400周辺の8座標について、データ値の高低を調べる。本ステップは、8座標のいずれの方向に会議参加者300が存在している可能性が最も高いかを調べることに相当する。
(S1303)
制御部410は、ステップS1302で調べた8座標のデータ値の高低が全て同じであるか否かを判定する。全て同じであればステップS1305へ進み、全て同じでなければステップS1304へ進む。
(S1304)
制御部410は、ステップS1302で調べた8座標のデータ値のうち最小値の方向を選択する。
(S1305)
制御部410は、ステップS1302で調べた8座標からランダムに1つの方向を選択する。
(S1306)
制御部410は、ステップS1304またはS1305で選択した方向に移動するように駆動部440を制御する。本ステップにより、ロボット400は図12で説明したような谷間方向に向かって移動することになる。
(S1307)
制御部410は、ロボット400に対する動作終了指示がなされたか否かを判定する。終了指示があれば動作を終了し、なければステップS1301に戻って同様の動作を継続する。
以上、図10〜図13を用いて、ロボット400の動作について説明した。
これらの動作により、ロボット400は、会議に積極的に参加している会議参加者300の方向へ向かって移動し、マイク430により発話音声を取得してクライアント端末100aへ送信する。
そのため、発話を積極的に行う会議参加者の近傍で発話音声を取得することができ、会議進行の円滑に資する。
なお、本実施の形態2では、ロボット400にマイク430を搭載した例を示したが、マイク430の他にカメラ等の撮像手段を搭載し、音声と映像をともに取得できるように構成してもよい。
クライアント端末100aにも撮像部110と音声入力部120が備えられており、ロボット400にカメラやマイク430を搭載すると、これらの機能と重複が生じる。
そこで、ロボット400にマイク430やカメラを搭載し、撮像部110と音声入力部120に代えてもよい。
また、ロボット400に搭載するマイク430やカメラと、クライアント端末100aに備える撮像部110や音声入力部120とを併用し、より確実に音声や映像を取得できるように構成してもよい。
以上のように、本実施の形態2によれば、ロボット400にマイク430やカメラを搭載することにより、会議に積極的に参加している会議参加者の近傍で会議参加者の発話音声や映像を取得し、積極的な会議参加者の明瞭な音声や映像が得られるので、会議進行の円滑に資する。
また、本実施の形態2によれば、クライアント端末100aを設置している会議空間内で複数人が会議に積極的に参加している場合、ロボット400が積極度の高い会議参加者の間を移動することになる。
これによれば、当該会議空間内における会議参加者の積極度を視覚的に把握することができるので、実施の形態1で説明したような会議データを画面表示等することなく、当該会議空間内の会議の盛り上がり等の進行状況を容易に把握することができ、会議の円滑な進行に資する。
実施の形態3.
実施の形態1〜2では、遠隔会議の進行中に会議支援システムを使用する例を説明したが、本発明の実施の形態3では、会議の終了後に会議支援システムが蓄積しているデータを活用する例について説明する。
図14は、本実施の形態3に係る会議支援システムの構成図である。
図14において、実施の形態1の図1で説明した構成に加えて、新たにデータ蓄積部170と閲覧部180を設けた。その他の構成は図1と同様であるため、説明を省略する。なお、実施の形態2の図9で説明した構成に加えて、データ蓄積部170と閲覧部180を設けてもよい。
データ蓄積部170は、HDD(Hard Disk Drive)のような書き込み可能な記憶装置で構成され、撮像部110、音声入力部120、会議データ生成部166より、それぞれ映像データ、音声データ、会議データを受け取って格納する。
閲覧部180は、データ蓄積部170に格納されている上述の各データを読み出し、後述の図15で説明するような閲覧画面を画面表示して、音声とともに出力する。
閲覧画面を画面表示するための画面表示デバイスは、表示部140と兼用してもよいし、新たに画面表示デバイスを設けてもよい。同様に、音声出力デバイスは、音声出力部150と兼用してもよいし、新たに設けてもよい。
閲覧部180は、その機能を実現する回路デバイスのようなハードウェアで構成することもできるし、マイコンやCPUのような演算装置と、その動作を規定するソフトウェアとで構成することもできる。また、演算部160の1構成部として構成してもよい。
図15は、閲覧部180が画面表示する閲覧画面の構成例である。
閲覧画面は、映像表示部1501、会議データ表示部1502、音量調整部1503、操作ボタン1504、スライドバー1505、時間表示部1506を備える。
映像表示部1501は、データ蓄積部170に格納されている映像データを画面表示する部分である。
会議データ表示部1502は、データ蓄積部170に格納されている会議データを画面表示する部分である。
音量調整部1503は、音量を調整するためのスライドバーである。
操作ボタン1504は、映像データ、音声データ、会議データの再生、一時停止、停止などの操作を指示するための操作部である。
スライドバー1505は、会議全体時間に占める現在の再生位置を表示するとともに、バーのドラッグにより再生位置を進めたり戻したりするための操作部である。
時間表示部1506は、会議全体時間における現在の再生位置を数値で示す表示部である。図15の例では、会議全体時間が15:00であるのに対し、現在の再生時刻は03:42であることを表示している。
以上、図14〜図15に示す各構成部について説明した。
次に、閲覧部180に係る動作について、以下のステップ(1)〜(4)で説明する。
(1)撮像部110、音声入力部120、会議データ生成部166は、それぞれ映像データ、音声データ、会議データを取得ないし生成した際に、これらのデータをデータ蓄積部170に格納しておく。格納の際、各データを時間軸上で関連付けておく。
また、通信部130が他クライアント端末から受信した会議データも、同様に時間軸上で関連付けてデータ蓄積部170に格納しておく。
(2)クライアント端末100aのユーザは、図示しないマウスやキーボード等を操作して、図15で説明した画面を画面表示するよう、閲覧部180に指示を出す。
(3)閲覧部180は、データ蓄積部170より映像データ、音声データ、会議データを取得し、それぞれを時間同期させて再生する。
これにより、会議進行に伴う各会議参加者の発話音声、映像、およびその時の会議の状況を表した会議データが同期表示され、会議をリードしているのが誰であるのか、といった会議の進行状況を、会議終了後に分析することができる。
(4)クライアント端末100aのユーザが、操作ボタン1504を押下したり、スライドバー1505を移動させるなどした際は、閲覧部180は、これにともなって再生停止や再生位置の変更などを行う。
以上、閲覧部180に係る動作について簡単に説明した。
以上の動作によれば、撮像部110、音声入力部120、会議データ生成部166は、各データを時間軸上で対応付けてデータ蓄積部170に格納し、閲覧部180がこれらのデータを読み出すときは、それぞれを同期させて再生することができる。
本実施の形態3では、全ての映像データ、音声データ、および会議データをデータ蓄積部170に格納することとしたが、会議データは一定時間間隔でサンプリングして格納するようにしてもよい。
映像データや音声データは会議の内容そのものであるため、全てデータ蓄積部170に格納する必要があるが、会議データは会議の進行状況を把握するための指標として用いるものであるため、サンプリングしたデータでも十分に役割を果たすことができる。
また、本実施の形態3では、閲覧部180はクライアント端末100aの1構成部として説明したが、クライアント端末100aとは別の閲覧端末として構成してもよい。データ蓄積部180についても同様である。
この場合、閲覧端末は、データ蓄積部180に適当なインターフェースを介してアクセスし、格納されている各データを読み取って、本実施の形態3で説明したものと同様の動作を行う。
以上のように、本実施の形態3によれば、会議データを会議の進行状況の指標として用い、これと同期させながら映像データと音声データを出力することにより、例えば「AさんとBさんが会議で中心的に発言していた時」のように、あいまいな印象を条件として、該当する映像データや音声データを読み出すことができる。
また、本実施の形態3によれば、映像や音声のみでは分かりづらい、発言の支持状況のような状況データも、会議データとして提示されるため、会議におけるキーパーソンを抽出することが可能となる。
即ち、会議中により多くの発言をした人、またその発言が、多くの参加者の支持を集めていることなどが、会議データとして提示されるので、会議内で重要な役割を果たした人物(キーパーソン)が誰であるかを可視化して見ることができる。
実施の形態1に係る会議支援システムの構成図である。 クライアント端末100を設置した会議空間のイメージ図である。 動作推定部163の推定結果を視覚的に表したものである。 音源推定部164の推定結果を視覚的に表したものである。 平均出力部165の算出結果を視覚的に表したものである。 差分抽出部161の動作フローを説明するものである。 動作推定部163の動作フローを説明するものである。 平均出力部165の動作フローを説明するものである。 実施の形態2に係る会議支援システムの構成図である。 ロボット400の設置イメージを示すものである。 ロボット400が会議空間内の進行方向を決定する際の周辺座標を表したものである。 ロボット400が移動方向を決定する際に使用する会議データのイメージである。 ロボット400の動作フローである。 実施の形態3に係る会議支援システムの構成図である。 閲覧部180が画面表示する閲覧画面の構成例である。
符号の説明
100 クライアント端末、110 撮像部、120 音声入力部、130 通信部、140 表示部、150 音声出力部、160 演算部、161 差分検出部、162 画像保持部、163 動作推定部、164 音源推定部、165 平均出力部、166 会議データ生成部、170 データ蓄積部、180 閲覧部、200 ネットワーク、300 会議参加者、400 ロボット、410 制御部、420 位置センサ、430 マイク、440 駆動部、1501 映像表示部、1502 会議データ表示部、1503 音量調整部、1504 操作ボタン、1505 スライドバー、1506 時間表示部。

Claims (8)

  1. 会議参加者の映像と音声を相互に送受信する複数のクライアント端末を有し、
    前記クライアント端末は、
    会議参加者の音声入力を受け付けてその音声データを出力する音声入力部と、
    会議参加者の映像を撮像してその映像データを出力する撮像部と、
    前記音声入力部および前記撮像部からの出力を加算して当該会議参加者の積極度を表す第1積極度データを算出する演算部と、
    クライアント端末同士でデータを送受信する通信部と、
    情報を画面表示する表示部と、
    を備え、
    前記通信部は、
    前記第1積極度データを他クライアント端末に送信するとともに、
    他クライアント端末から当該他クライアント端末を使用している会議参加者の積極度を表す第2積極度データを受信し、
    前記表示部は、前記第2積極度データを画面表示する
    ことを特徴とする会議支援システム。
  2. 前記演算部は、
    前記音声データに基づき当該会議参加者の位置を表す音源位置を算出するとともに、
    前記映像データに基づき当該会議参加者の動作を算出し、
    算出した音源位置と動作を、会議が行われている空間の2次元座標上で重み付きで加算して前記第1積極度データを算出する
    ことを特徴とする請求項1に記載の会議支援システム。
  3. 前記演算部は、
    前記第1積極度データを、
    会議が行われている空間を表す2次元座標と、
    その各座標における当該会議参加者の積極度を表す高さと、
    で構成される3次元データ形式で算出する
    ことを特徴とする請求項2に記載の会議支援システム。
  4. 前記クライアント端末と通信して会議を支援する自律移動式ロボットを設け、
    前記自律移動式ロボットは、
    当該自律移動式ロボットの位置を検出する位置センサと、
    前記第1積極度データを受信する手段と、
    当該自律移動式ロボットが移動するための駆動部と、
    当該自律移動式ロボットの動作を制御する制御部と、
    前記クライアント端末と通信する通信部と、
    を備え、
    前記制御部は、
    前記第1積極度データにおいて、当該自律移動式ロボットを設置している会議空間で最も積極度の高い会議参加者が存在している旨が表されている方向へ、当該自律移動式ロボットが移動するよう、前記駆動部の動作を制御する
    ことを特徴とする請求項1ないし請求項3のいずれかに記載の会議支援システム。
  5. 前記自律移動式ロボットは、
    会議参加者の音声入力を受け付けてその音声データを出力する第2音声入力部と、
    会議参加者の映像を撮像してその映像データを出力する第2撮像部と、
    の少なくともいずれか一方を備え、
    前記通信部は、
    前記第2音声入力部または前記第2撮像部が出力したデータを前記クライアント端末に送信する
    ことを特徴とする請求項4に記載の会議支援システム。
  6. 前記クライアント端末は、
    会議の進行時間と関連付けられた前記音声データ、前記映像データ、前記第1積極度データ、および前記第2積極度データを格納する記憶部を備えた
    ことを特徴とする請求項1ないし請求項5のいずれかに記載の会議支援システム。
  7. 前記記憶手段に格納されている音声データ、映像データ、および会議の進行時間を同期表示する閲覧部を備えた
    ことを特徴とする請求項6に記載の会議支援システム。
  8. 前記閲覧部は、
    前記第1積極度データまたは第2積極度データの少なくとも一方を、
    音声データ、映像データ、および会議の進行時間とともに同期表示する
    ことを特徴とする請求項7に記載の会議支援システム。
JP2008073580A 2008-03-21 2008-03-21 会議支援システム Withdrawn JP2009232054A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008073580A JP2009232054A (ja) 2008-03-21 2008-03-21 会議支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008073580A JP2009232054A (ja) 2008-03-21 2008-03-21 会議支援システム

Publications (1)

Publication Number Publication Date
JP2009232054A true JP2009232054A (ja) 2009-10-08

Family

ID=41246987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008073580A Withdrawn JP2009232054A (ja) 2008-03-21 2008-03-21 会議支援システム

Country Status (1)

Country Link
JP (1) JP2009232054A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162001A (ja) * 2015-02-26 2016-09-05 Kddi株式会社 業務支援装置および業務支援プログラム
US9973553B2 (en) 2015-07-24 2018-05-15 Fujitsu Limited Meeting support apparatus, method for executing meeting support process, and non-transitory computer-readable recording medium
WO2022091604A1 (ja) * 2020-10-26 2022-05-05 株式会社ブイキューブ 会議管理装置、会議管理方法、プログラム及び会議管理システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162001A (ja) * 2015-02-26 2016-09-05 Kddi株式会社 業務支援装置および業務支援プログラム
US9973553B2 (en) 2015-07-24 2018-05-15 Fujitsu Limited Meeting support apparatus, method for executing meeting support process, and non-transitory computer-readable recording medium
WO2022091604A1 (ja) * 2020-10-26 2022-05-05 株式会社ブイキューブ 会議管理装置、会議管理方法、プログラム及び会議管理システム

Similar Documents

Publication Publication Date Title
US10452982B2 (en) Emotion estimating system
JP7379907B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、情報処理方法
KR101693951B1 (ko) 제스처 인식 방법 및 제스처 검출기
WO2016103988A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2017123149A (ja) ユーザー状態検出による集団相互作用の方法及びシステム
JP2012040655A (ja) ロボット制御方法、プログラム、及びロボット
WO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2017034720A1 (en) Gesture based annotations
US9372550B2 (en) Automatic audio-video switching
JP7136216B2 (ja) 授業支援システム、判定装置、授業支援方法及びプログラム
JP2019217558A (ja) 対話システム及び対話システムの制御方法
EP3739573B1 (en) Information processing device, information processing method, and program
JP2009166184A (ja) ガイドロボット
JP2007213282A (ja) 講演者支援装置および講演者支援方法
JP2009232054A (ja) 会議支援システム
JPWO2020021861A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
WO2023084715A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20220189200A1 (en) Information processing system and information processing method
US11189289B2 (en) Information processing device, information processing method, and information processing system
JP4585380B2 (ja) 次発言者検出方法、装置、およびプログラム
US20210316462A1 (en) Multimodal intent recognition for telepresence robots
US11935449B2 (en) Information processing apparatus and information processing method
US11928253B2 (en) Virtual space control system, method for controlling the same, and control program
US9883142B1 (en) Automated collaboration system
JP5613102B2 (ja) 会議装置、会議方法および会議プログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110607