JP7110669B2 - ビデオ会議システム、ビデオ会議方法、およびプログラム - Google Patents

ビデオ会議システム、ビデオ会議方法、およびプログラム Download PDF

Info

Publication number
JP7110669B2
JP7110669B2 JP2018065248A JP2018065248A JP7110669B2 JP 7110669 B2 JP7110669 B2 JP 7110669B2 JP 2018065248 A JP2018065248 A JP 2018065248A JP 2018065248 A JP2018065248 A JP 2018065248A JP 7110669 B2 JP7110669 B2 JP 7110669B2
Authority
JP
Japan
Prior art keywords
person
image
information
identified
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018065248A
Other languages
English (en)
Other versions
JP2019176415A (ja
Inventor
直志 合川
智 木村
伸正 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2018065248A priority Critical patent/JP7110669B2/ja
Publication of JP2019176415A publication Critical patent/JP2019176415A/ja
Priority to JP2022115486A priority patent/JP7501575B2/ja
Application granted granted Critical
Publication of JP7110669B2 publication Critical patent/JP7110669B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、ビデオ会議システム、ビデオ会議方法、およびプログラムに関する。
離れた場所にいる人物と会議を行う方法の1つとして、ビデオ会議システムが利用されている。ビデオ会議システムでは、それぞれの場所で撮影された映像を互いにやり取りすることにより、互いに離れた場所にいる人物同士で会議を行うことができる。
上述のビデオ会議システムに関連する技術が、例えば、下記特許文献1乃至3に開示されている。
下記特許文献1には、2以上の地点間で双方向コミュニケーションを行う際、双方向コミュニケーションの参加者を容易に把握するための技術が開示されている。具体的には、(1)データベースに記憶されている識別情報を用いて各地点の参加者を認証し、(2)認証された参加者の位置を検出し、(3)各地点で撮影された映像のうち、参加者の検出位置に対応する部分に、データベースに記憶されているその参加者の属性情報を視覚的に表示するデータを付加する技術が開示されている。
また、下記特許文献2には、会議の参加者が初対面の相手であっても、その参加者に関する情報を知ることを可能とする技術が開示されている。具体的には、(1)会議の参加者に関する参加者情報の入力を受け付け、(2)各参加者に対して所定の動作(口頭での返事や挙手など)を行わせ、(3)その動作を行った人物を撮影画像上で特定し、(4)特定した人物の顔認識結果と参加者情報とを対応付け、(5)その対応付けに従って各参加者が写る撮影画像上に参加者情報を合成する技術が開示されている。
また、下記特許文献3には、会議の参加者として認証された人物が写る範囲を、相手側に表示する映像の範囲として自動的に調整する技術が開示されている。
特開2004-129071号公報 特開2010-028715号公報 特開2015-177418号公報
ビデオ会議用のシステムを利用して開催される会議を含め、会議の場では、誰が参加しているかをはっきりさせるべきであり、個人として特定されていない人物がそのままでいることは好ましくない。
本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、ビデオ会議システムにおいて、個人として特定されていない人物がそのまま会議の場に残ることを抑制する技術を提供することである。
本発明のビデオ会議システムは、
会議の参加人物が写る画像を取得する画像取得手段と、
前記画像の中から、人物と認識される領域を検出する人物領域検出手段と、
前記領域に含まれる人物を特定する人物特定処理を実行する人物特定手段と、
前記人物特定処理で前記人物が特定できなかったことを示す第1情報を表示装置に表示させる表示制御手段と、
を備える。
本発明のビデオ会議方法は、
コンピュータが、
会議の参加人物が写る画像を取得し、
前記画像の中から、人物と認識される領域を検出し、
前記領域に含まれる人物を特定する人物特定処理を実行し、
前記人物特定処理で前記人物が特定できなかったことを示す第1情報を表示装置に表示させる、
ことを含む。
本発明のプログラムは、コンピュータに、上述のビデオ会議方法を実行させる。
本発明によれば、ビデオ会議システムにおいて、個人として特定されていない人物がそのまま会議の場に残ることを抑制することができる。
第1実施形態におけるビデオ会議システムの構成例を示す図である。 ビデオ会議システムのハードウエア構成を例示するブロック図である。 第1実施形態のビデオ会議システムにより実行される処理の流れを例示するフローチャートである。 表示制御部により表示される第1情報の一例を示す図である。 人物領域検出部により表示される第2情報の一例を示す図である。 表示制御部による表示の一例を示す図である。 第2情報を一覧形式で表示する例を示す図である。 第3実施形態におけるビデオ会議システムの構成例を示す図である。 第3実施形態のビデオ会議システムにより実行される処理の流れを例示するフローチャートである。 第4実施形態におけるビデオ会議システムの構成例を示す図である。 第4実施形態のビデオ会議システムにより実行される処理の流れを例示するフローチャートである。
以下、本発明の実施形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
[第1実施形態]
〔システム構成例〕
図1は、第1実施形態におけるビデオ会議システム1の構成例を示す図である。図1に例示されるビデオ会議システム1では、サーバ装置10が、通信端末20Aおよび通信端末20Bと接続されている。通信端末20Aおよび通信端末20Bは、それぞれ、互いに離れた場所に位置する地点Aおよび地点Bに設けられている端末である。ビデオ会議は、これらの端末を用いて行われる。通信端末20Aには、撮像装置30Aおよび表示装置40Aが接続されている。また、通信端末20Bには、撮像装置30Bおよび表示装置40Bが接続されている。撮像装置30Aおよび撮像装置30Bは、それぞれの地点における会議の参加人物を撮影するために利用される。撮像装置30Aにより生成された地点Aの参加人物の画像は、サーバ装置10を経由して、地点Bの表示装置40Bに表示される。また、撮像装置30Bにより生成された地点Bの参加人物の画像は、サーバ装置10を経由して、地点Aの表示装置40Aに表示される。なお、地点Aの参加人物の画像は、地点Aの参加人物が撮影された画像を確認できるように、地点Aの表示装置40Aに表示されてもよい。同様に、地点Bの参加人物の画像は、地点Bの参加人物が撮影された画像を確認できるように、地点Bの表示装置40Bに表示されてもよい。
図1に示されるように、ビデオ会議システム1は、画像取得部110、人物領域検出部120、人物特定部130、および表示制御部140を備える。図1の例において、これらの処理部は、1台のサーバ装置10に備えられているが、ビデオ会議システム1の構成は図1の例に制限されない。図示されていないが、これらの処理部の全部または一部は、複数のサーバ装置に分散して或いは重複して設けられていてもよい。
画像取得部110は、会議の参加人物が写る画像を取得する。図1の例では、画像取得部110は、会議の参加人物が写る画像を、ネットワークを介して接続された通信端末20Aおよび通信端末20Bから取得することができる。
人物領域検出部120は、画像取得部110により取得された画像の中から、人物と認識される領域を検出する。人物領域検出部120は、既知の一般物体検出アルゴリズムを利用して、「人物」と認識(分類)される領域を検出することができる。また、人物領域検出部120は、例えば、動きのある物体の領域を、人物の領域として検出してもよい。人物領域検出部120は、「動きのある物体」を、例えば、時系列で並ぶ複数の画像間での特徴点の移動量に基づいて判断することができる。具体的には、人物領域検出部120は、時系列で並ぶ複数の画像間において、基準値以上移動している特徴点が含まれる物体の領域を、人物の領域として推定することができる。
人物特定部130は、人物領域検出部120により「人物」と認識された領域に含まれる人物を特定する処理(人物特定処理)を実行する。言い換えると、人物特定部130は、画像取得部110により取得された画像に写る参加人物を個々に特定(認証)する。人物特定部130は、人物領域検出部120により検出された領域から抽出される特徴量と、予め登録された参加人物の特徴量とを照合した結果に基づいて、各領域に含まれる人物が誰であるかを特定することができる。なお、会議の参加人物の特徴量は、その参加人物の情報(氏名、所属など)と対応付けて、サーバ装置10のストレージデバイスなどに予め記憶されている。ここで、人物特定部130は、人物領域検出部120で検出された領域に含まれる人物が特定できなかった場合、その領域に含まれる人物が特定できなかったことを示す情報(特定失敗情報)をその領域に関連付ける。なお、「人物が特定できなかった場合」とは、例えば、照合の結果として算出されるスコアが基準値以上となる人物が存在しなかった場合などである。
表示制御部140は、各地点に設けられた撮像装置30により生成された画像を、その他の地点に設けられた通信端末20に送信する。また、表示制御部140は、各地点に設けられた撮像装置30により生成された画像を、各々の撮像装置30が設けられている地点の通信端末20に送信してもよい。各地点の通信端末20は、受け取った画像を、当該通信端末20に接続された表示装置40に表示させる。図1の例では、表示制御部140は、通信端末20Bを介して取得した地点Bの画像を通信端末20Aに送信する。また、表示制御部140は、通信端末20Aを介して取得した地点Aの画像を通信端末20Bに送信する。また、表示制御部140は、人物特定部130の人物特定処理で特定できなかった人物が存在する場合、人物特定処理で人物が特定できなかったことを示す情報(第1情報)を少なくともいずれかの地点に設けられた表示装置に表示させる。なお、表示制御部140は、例えば、特定失敗情報が関連付けられた領域が存在するか否かに基づいて、人物特定処理で特定できなかった人物が存在するか否かを判断することができる。表示制御部140により表示される第1情報は、ビデオ会議システム1が、ある人物の存在を認識しているが、その人物が誰かまでは特定できていないことを示す情報と言える。
〔ハードウエア構成例〕
ビデオ会議システム1の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、ビデオ会議システム1の各機能構成部が、サーバ装置10においてハードウエアとソフトウエアとの組み合わせによって実現される場合について、さらに説明する。
図2は、ビデオ会議システム1のハードウエア構成を例示するブロック図である。図2の例において、サーバ装置10は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040はビデオ会議システム1の各機能(画像取得部110、人物領域検出部120、人物特定部130、および表示制御部140など)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。
入出力インタフェース1050は、サーバ装置10と各種入出力デバイスとを接続するためのインタフェースである。入出力インタフェース1050には、キーボードやマウスといった入力装置(図示せず)、または、ディスプレイやスピーカーといった出力装置(図示せず)などが接続され得る。
ネットワークインタフェース1060は、サーバ装置10をネットワークに接続するためのインタフェースである。このネットワークは、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。図示されるように、サーバ装置10は、ネットワークインタフェース1060を介して、通信端末20Aおよび通信端末20Bと通信可能に接続されている。各通信端末20には、会議の参加人物を撮影するための撮像装置30、各撮像装置30により生成された画像を表示させるための表示装置40、および、会議中の音声を拾うための集音装置50が接続されている。また、通信端末20には、会議の音声を出力するための音声出力装置(図示せず)が更に接続されている。
画像取得部110は、ネットワークインタフェース1060を介して各通信端末20から会議の参加人物が写る画像を取得することができる。また、表示制御部140は、ネットワークインタフェース1060を介して、各通信端末20に相手の参加人物の画像を送信することができる。また、表示制御部140は、ネットワークインタフェース1060を介して、各通信端末20にその通信端末20が備えられている地点の参加人物の画像を送信することができる。
〔処理の流れ〕
図3を用いて、第1実施形態のビデオ会議システム1により実行される処理の流れについて説明する。図3は、第1実施形態のビデオ会議システム1により実行される処理の流れを例示するフローチャートである。
画像取得部110は、通信端末20Aまたは通信端末20Bから、会議の参加人物が写る画像を取得する(S102)。そして、人物領域検出部120は、S102の処理で取得された画像の中から、人物と認識される領域を検出する(S104)。
人物特定部130は、S104の処理で検出された領域について、人物特定処理を実行する(S106)。人物特定部130は、人物が特定できなかった場合(S108:NO)、人物特定処理の対象となった領域に対して、その領域に含まれる人物が特定できなかったことを示す情報(特定失敗情報)を関連付ける(S110)。一方、人物が特定できなかった場合(S108:NO)、上述の特定失敗情報を関連付ける処理は実行されない。なお、S106からS110の処理は、S104の処理で検出された人物の領域の全てが処理されるまで繰り返される(S112:NO)。
S104の処理で検出された人物の領域の全てが処理された後(S112:YES)、表示制御部140は、各地点で撮影された参加人物の画像を、互いの相手いる地点に備えられた表示装置にそれぞれ表示させる(S114)。ここで、表示制御部140は、S108の処理で特定失敗情報が関連づけられた領域が存在する場合、その人物が特定されていないことが分かるように、例えば、その領域の人物の位置に合わせて第1情報を重畳表示させる(例:図4)。
図4は、表示制御部140により表示される第1情報の一例を示す図である。図4の例では、画像において後ろ姿が写っている2人の人物に対して、第1情報「Unknown」が重畳表示されている様子が描かれている。なお、第1情報は、その人物が特定できなかったことを示す特定の印であればよく、「Unknwon」という表示に制限されない。この図では、次のようにして、「Unknwon」という第1情報が表示される。まず、人物領域検出部120が、図4の画像から、4人の人物領域を検出する。検出された4人のうちの2人は後ろ向き(目、鼻、口といった個人を特定するために利用される特徴量が抽出できない状況)で写っているため、人物特定部130は、人物特定処理でこれらの人物の特定に失敗する。人物特定部130は、人物特定処理の結果に基づいて、これら二人の領域に対して特定失敗情報を関連付ける。表示制御部140は、各人物の領域に関連付けられた特定失敗情報に基づいて画像上に第1情報を重畳させて、表示装置に向けて出力する。このデータを受け取った表示装置は、例えば、図4に例示されるような画像を、その表示面に表示することができる。
本実施形態では、ビデオ会議システム1を利用して開催される会議の参加人物の中に特定できていない人物が存在する場合、その会議で利用される表示装置に第1情報が表示される。この第1情報は、人物が特定されていないことを示す情報(例えば、「Unknown」などの表示)である。つまり、会議の参加人物は、ビデオ会議システム1で特定されていない人物がいることを、この第1情報によって一目で把握することができる。また、第1情報は画像の中で特定できなかった人物の領域の位置に合わせて表示される。これにより、会議の参加人物は、どの人物が特定されていないかを認識できる。そして、会議の参加人物は、ビデオ会議システム1がその人物を特定できるように適切な措置を取ることができる。例えば、会議の参加人物は、特定されていない人物に対して、顔(人物特定時に利用される特徴点を含む領域)がはっきりと画像に写り込むように、顔の向きや姿勢を変えるように促すことができる。
ここで、表示制御部140は、画像に写っている会議の参加人物が見る表示装置に、第1情報を表示させてもよい。すなわち、人物特定処理で特定できなかった人物がいた場合、表示制御部140は、その人物がいる地点に設けられた表示装置に第1情報を表示させてもよい。例えば、地点Aにいる会議の参加人物を人物特定処理で特定できなかったとする。この場合、表示制御部140は、撮像装置30Aで生成された画像に第1情報を重畳させたデータを、通信端末20Aに送信する。通信端末20Aは、表示装置40Aに、撮像装置30Aで生成された画像と、その画像に重畳された第1情報とを表示させる。このようにすることで、地点A側にいる会議の参加人物が、特定されていない(認証されていない)人物がいることを容易に把握することができる。その結果、例えば、特定されなかった人物は、自身の顔(人物特定時に利用される特徴点を含む領域)がはっきりと画像に写り込むように、顔の向きや姿勢を自発的に変えるといった措置を取ることができる。
[第2実施形態]
本実施形態は、以下の点を除き、上述の第1実施形態と同様の構成を有する。
本実施形態の表示制御部140は、人物特定部130の人物特定処理で会議の参加人物が特定された場合、その人物の氏名を含む情報(第2情報)を表示装置に更に表示させる(例:図5)。図5は、人物領域検出部120により表示される第2情報の一例を示す図である。図5の例において、画像中の奥側に座っている2人の人物については、目、鼻、口といった特徴点がはっきりと写っており、人物特定部130はこれら2人の人物を特定できたとする。この場合、人物特定部130は、特定した人物の氏名を含む第2情報を取得し、その人物の領域に関連付ける。なお、第2情報は、会議の開催前に参加人物の特徴量と関連付けて取得され、ストレージデバイス1040などに事前に登録されている。第2情報は、人物の氏名のほか、その人物が所属するグループ(会社や部署など)の名称、その人物の役職名などを更に含んでいてもよい。そして、表示制御部140は、人物特定部130の人物特定処理の結果に基づいて、第2情報が関連付けられた領域の人物の位置に合わせて、その第2情報を重畳表示させる。その結果、例えば、図5に例示されるような画像が、ビデオ会議システム1を利用して開催される会議の参加人物が見る表示装置40に表示される。これにより、会議の参加人物の名前や所属といった、その人物に関する情報が一目で把握できるようになる。
表示制御部140は、第1情報と第2情報とを併せて表示させる際、第1情報の表示態様を、第2情報の表示態様と異ならせてもよい。言い換えると、表示制御部140は、視覚的に第1情報と第2情報とを異ならせてもよい。一例として、表示制御部140は、第1情報を第2情報よりも目立たせてもよい。具体的には、表示制御部140は、第1情報の外形、大きさ、色、言語、およびフォントの少なくともいずれを、第2情報と異ならせることにより、第1情報を第2情報よりも目立たせることができる。例えば、表示制御部140は、第1情報を第2情報よりも大きく表示したり、第1情報の色を目立つ色に設定したり、第1情報のフォントを標準的なフォントとは異なる特殊なフォントに設定したりして、第1情報を第2情報よりも目立たせることができる。図6は、表示制御部140による表示の一例を示す図である。図6の例では、第1表示の背景色を変えることにより、第2表示よりも目立たせている様子が描かれている。このようにすることで、会議の参加人物が、ビデオ会議システム1で特定できていない人物の存在に気づき易くなる。
また、表示制御部140は、人物特定処理で特定された、会議の参加人物の数が所定の閾値以上である場合、第2情報を一覧形式で表示させてもよい(例:図7)。図7は、第2情報を一覧形式で表示する例を示す図である。図7に示されるように、表示制御部140は、画像中の空き領域(人物の領域以外の領域)を特定して、その領域に一覧形式の第2情報を表示することができる。表示制御部140は、空き領域のサイズに応じて、一覧の大きさを決定してもよい。また、表示制御部140は、一覧をスクロールバーと共に表示させて、一覧を表示する領域を節約してもよい。このようにすることで、第2情報が多数表示されることにより会議の参加人物の顔(画像の主となる情報)の視認性の低下を抑制できる。
〔第2実施形態の変形例〕
表示制御部140は、第1情報を第2情報よりも目立たなくさせてもよい。特に、表示制御部140は、ある地点の参加人物の画像を相手側の地点に送信する場合において、第1情報を第2情報よりも目立たなくさせると好ましい。例えば、表示制御部140は、相手側に送信する画像において、第1情報を小さくしたり、第1情報の色を薄くしたり、第1情報を非表示としたりして、第1情報を第2情報よりも目立たなくさせることができる。ある地点の参加人物の画像を相手側の地点に送信する場合に第1情報を目立たなくすることによって、その相手側にとってより重要度の高い情報(人物の顔または人物の動作など、会議で本来必要な情報)の視認性が低下することを抑制できる。
[第3実施形態]
本実施形態のビデオ会議システム1は、ビデオ会議システム1で特定できなかった人物がいる場合にその人物を特定するための構成を更に有している点を除き、上述の各実施形態と同様の構成を有する。
〔システム構成〕
図8は、第3実施形態におけるビデオ会議システム1の構成例を示す図である。図8に例示されるビデオ会議システム1では、上述の撮像装置30(30A、30B)とは別に、移動型の撮像装置32(32A、32B)が各地点に更に備えられている。移動型の撮像装置32は、例えば、カメラ機能付き携帯端末(スマートフォンやタブレット端末など)、或いは、カメラ付きノートPC(Personal Computer)などといった、個人が所有する装置である。
本実施形態において、画像取得部110は、撮像装置30を介して取得された画像に基づく人物特定処理で特定されなかった会議の参加人物が存在する場合、その参加人物が写る追加の画像を、移動型の撮像装置32Aまたは撮像装置32Bから取得する。そして、画像取得部110は、画像取得部110により取得された追加画像に基づいて、特定されなかった参加人物を特定する。
〔処理の流れ〕
図9を用いて、本実施形態のビデオ会議システム1により実行される処理の流れについて説明する。図9は、第3実施形態のビデオ会議システム1により実行される処理の流れを例示するフローチャートである。
まず、図3のS106の人物特定処理で特定されなかった人物の追加画像が、移動型の撮像装置32により生成される(S202)。なお、会議の参加人物は、表示装置40上に表示された第1情報に基づいて、自身がビデオ会議システム1において個人として特定されているか否かを把握することができる。表示装置40上に表示された第1情報から、自分が特定されていないことを認識した人物は、例えば、スマートフォンやノートPCにインストールされた専用のアプリケーションを立ち上げて、追加画像を撮影する。撮影された追加画像は、ネットワークを介してサーバ装置10に送信され、画像取得部110により取得される(S204)。ここで、撮像装置30により生成された画像の中に複数の未特定人物が存在する場合もある。この場合には、追加画像がどの未特定人物に対応する画像かを示す情報が必要となる。そこで、撮像装置30により生成された画像の中に複数の未特定人物が存在する場合、一例として、スマートフォンやノートPC上で立ち上げたアプリケーションで、追加画像に対応する未特定人物を指定する操作を更に受け付けてもよい。例えば、スマートフォンやノートPC上で立ち上げたアプリケーションは、追加画像の撮影前または撮影後に図4から図6などに例示される画面をスマートフォンやノートPCの表示面に表示させ、その画像の中から未特定人物を選択する操作を受け付けてもよい。この場合、画像取得部110は、追加画像と、その追加画像に対応する未特定人物を示す情報とを取得することができる。
人物特定部130は、スマートフォンやノートPCといった移動型の撮像装置32により生成された追加画像を用いて、人物特定処理を実行する(S206)。具体的には、図3のS106の人物特定処理と同様に、追加画像から抽出される特徴量と、予め登録された参加人物の特徴量とを照合することによって、その追加画像の人物を特定することができる。ここで、追加画像が不鮮明であって人物が特定できない場合などには、人物特定部130は、その追加画像の送信元の装置に対し、画像の撮り直しを促すメッセージを出力するように構成されていてもよい。また、人物特定部130は、追加画像の取り直しを予め決められた回数行ったにもかかわらず未特定人物が特定できなかった場合、その未特定人物を部外者(会議の参加人物として予め登録された人物以外の人物)と判断してもよい。この場合、人物特定部130は、表示装置40や図示しないスピーカーなどを用いて、部外者の存在を報知する処理を実行してもよい。このようにすることで、会議の参加人物が、会議の場に紛れ込んだ部外者の存在を認識することができる。
以上、本実施形態によれば、移動型の撮像装置32から、ビデオ会議システム1が特定できていない人物について、その人物を特定するための追加画像を取得することができる。なお、移動型の撮像装置32を利用することにより、その人物の特徴点がより鮮明に写る画像を取得することができる。結果として、ビデオ会議システム1が特定できていない人物を、精度よく特定することができる。
なお、人物特定部130は、会議の参加人物を一度特定すれば、その後に取得された画像から人物の特徴量が抽出できないような場合(例えば、俯いてしまって顔の特徴点が見えなくなった場合など)であっても、その人物が特定された状態を維持することができる。例えば、人物特定部130は、複数の画像間で、特定した人物の領域を画像中の位置などに基づいて追跡することにより、その人物が特定された状態を維持することができる。
〔第3実施形態の変形例〕
本実施形態において、移動型の撮像装置32により生成された追加画像を用いる代わりに、会議の参加人物のいずれかが、特定できなかった人物を特定するための情報を直接入力してもよい。一例として、次のような動作が実行されてもよい。まず、会議の参加人物は、表示装置40上で「Unknown」といった第1情報が関連付けられている人物を確認した後、その人物の氏名といった情報を携帯型端末(スマートフォンやノートPCなど)上で立ち上げたアプリケーションを介して入力する。なお、特定できていない人物が複数存在する場合には、それら複数の人物の中で対象とする人物を選択する入力が更に実行される。そして、人物特定部130は、特定できなかった人物の領域に関連付けられている特定失敗情報を、入力された情報を用いて更新する。これにより、特定できていなかった人物は、ビデオ会議システム1で特定(認証)された状態となる。また、この結果、「Unknown」といった第1情報の表示は、入力された人物の氏名に置き換わることになる。
[第4実施形態]
本実施形態では、自動的に議事録を作成する機能を更に有する点を除き、上述の各実施形態と同様の構成を有する。
図10は、第4実施形態におけるビデオ会議システム1の構成例を示す図である。図10に例示されるビデオ会議システム1は、リスト作成部150、音声取得部160、発言者特定部170、議事録作成部180を更に備える。
リスト作成部150は、人物特定部130の人物特定処理によって特定された人物のリストを作成する。リスト作成部150は、例えば次のように動作する。まず、リスト作成部150は、人物特定部130の人物特定処理で人物が特定された場合に、人物特定部130からその結果を取得する。そして、リスト作成部150は、人物特定部130から取得した人物の特定結果を、メモリ1030などに保持されるリストに追加する。これにより、ビデオ会議システム1を利用して開催される会議の参加者のリストを自動的に生成することができる。
音声取得部160は、図示しないマイクにより生成された、会議中の会話の音声データを取得する。発言者特定部170は、音声取得部160により取得された音声データに関する発言者を特定する。一例として、発言者特定部170は、例えば会議の開催前にストレージデバイス1040などに予め登録された各参加人物の声紋データとの照合を行うことにより、音声取得部160が取得した音声データに関する発言者を特定することができる。他の一例として、発言者特定部170は、音声データと同期して取得される画像(撮像装置30により生成される画像)を解析することによって、音声取得部160が取得した音声データに関する発言者を特定することができる。具体的には、発言者特定部170は、音声データと同期して取得された画像を解析した結果、口の部分が動いている人物の領域を特定する。そして、口の部分が動いている人物の領域についての人物特定処理の結果から、その発話者を特定することができる。議事録作成部180は、発言者特定部170による発言者の特定結果と、音声取得部160により取得された音声データに基づいて生成されたテキストデータとを対応付けることにより、議事録データを生成する。また、議事録作成部180は、リスト作成部150により生成された人物のリストを、会議の参加者として議事録データに付加することができる。
〔ハードウエア構成例〕
本実施形態のビデオ会議システム1は、第1実施形態と同様のハードウエア構成(例:図2)を有する。本実施形態のストレージデバイス1040は、上述のリスト作成部150、音声取得部160、発言者特定部170および議事録作成部180の機能を実現するためのプログラムモジュールを更に記憶している。プロセッサ1020が、これらのプログラムモジュールをメモリ1030上に読み出して実行することにより、上述の本実施形態の各機能が実現される。
〔処理の流れ〕
図11を用いて、本実施形態のビデオ会議システム1により実行される処理の流れについて説明する。図11は、第4実施形態のビデオ会議システム1により実行される処理の流れを例示するフローチャートである。
まず、音声取得部160は会議の音声データを取得する(S302)。会議の音声データは、各地点に設けられている集音装置50により生成される。集音装置50は、通信端末20に接続されている。音声取得部160は、ネットワークインタフェース1060を介して各地点の通信端末20と通信して、その地点の集音装置50により生成された音声データを取得することができる。
そして、発言者特定部170は、音声取得部160により取得された音声データに関する発言者を特定する(S304)。一例として、発言者特定部170は、次のようにして、音声取得部160により取得された音声データに関する発言者を特定することができる。まず、発言者特定部170は、ストレージデバイス1040などに事前に登録された各参加人物の声紋データと音声データとを照合して、当該音声データの声紋との一致度が基準を満たす声紋データを特定する。そして、発言者特定部170は、特定した声紋データに関連付けられている参加人物の識別情報(人物の氏名、または、人物毎に割り当てられたIDなど)を取得することにより、音声取得部160により取得された音声データの発言者を特定することができる。他の一例として、発言者特定部170は、次のようにして、音声取得部160により取得された音声データに関する発言者を特定することができる。まず、発言者特定部170は、音声データと同期して画像取得部110により取得された画像を解析する。具体的には、発言者特定部170は、画像の中から人物の口の領域を検出し、その領域(すなわち、口)が時系列で並ぶ複数の画像間で動いているか否かを判定する。そして、発言者特定部170は、口の領域が動いていると判定された人物の領域について、人物特定部130の人物特定処理の結果を取得することにより、音声取得部160により取得された音声データの発言者を特定することができる。なお、ここでは、例えば、第3実施形態で説明したような構成を利用して、全ての人物が特定されているものと仮定している。
議事録作成部180は、音声取得部160および発言者特定部170の処理結果に基づいて、議事録データを生成する(S306)。具体的には、議事録作成部180は、音声データをテキスト化するAPI(Application Programming Interface)などを利用して、音声取得部160により取得された音声データをテキストデータ化する。また、議事録作成部180は、発言者特定部170によって特定された、当該音声データの発言者の情報(例えば、発言者の氏名など)を取得する。そして、議事録作成部180は、音声取得部160により取得された音声データから生成されたテキストデータと、その音声データに関する発言者として特定された人物の情報とを対応付けて、議事録データに追加する。また、議事録作成部180は、リスト作成部150により生成された、会議の参加人物リストを読み出し、議事録データに参加人物の情報を付加してもよい。
以上、本実施形態の構成によれば、ビデオ会議システム1を利用した開催される会議の議事録を、自動で作成することができる。これにより、会議の参加人物が議事録の作成する手間を削減することができる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1.
会議の参加人物が写る画像を取得する画像取得手段と、
前記画像の中から、人物と認識される領域を検出する人物領域検出手段と、
前記領域に含まれる人物を特定する人物特定処理を実行する人物特定手段と、
前記人物特定処理で前記人物が特定できなかったことを示す第1情報を表示装置に表示させる表示制御手段と、
を備えるビデオ会議システム。
2.
前記表示制御手段は、前記人物特定処理で特定された前記会議の参加人物の氏名を含む第2情報を前記表示装置に更に表示させる、
1.に記載のビデオ会議システム。
3.
前記表示制御手段は、前記第1情報の表示態様を、前記第2情報の表示態様と異ならせる、
2.に記載のビデオ会議システム。
4.
前記表示制御手段は、前記第1情報を前記第2情報よりも目立たせる、
3.に記載のビデオ会議システム。
5.
前記表示制御手段は、前記第1情報の外形、大きさ、色、言語、およびフォントの少なくとも1つを前記第2情報と異ならせることにより、前記第1情報を目立たせる、
4.に記載のビデオ会議システム。
6.
前記表示制御手段は、前記人物特定処理により特定された前記会議の参加人物の数が所定の閾値以上である場合、前記第2情報を一覧形式で表示させる、
2.から5.のいずれか1つに記載のビデオ会議システム。
7.
前記表示制御手段は、前記画像に写っている前記会議の参加人物が見る表示装置に、前記第1情報を表示させる、
1.から6.のいずれか1つに記載のビデオ会議システム。
8.
前記画像取得手段は、前記画像に基づく前記人物特定処理で特定されなかった参加人物が写る追加画像を、前記画像を生成した撮像装置とは異なる移動型の撮像装置から取得し、
前記人物特定手段は、前記追加画像に基づいて前記画像に基づく前記人物特定処理で特定されなかった参加人物を特定する、
1.から7.のいずれか1つに記載のビデオ会議システム。
9.
前記人物特定処理によって特定された人物のリストを作成するリスト作成手段を更に備える、
8.に記載のビデオ会議システム。
10.
音声データを取得する音声取得手段と、
前記音声データまたは前記音声データと同期して取得された画像を解析することによって、前記音声データに関する発言者を特定する発言者特定手段と、
前記発言者の特定結果と前記音声データに基づいて生成されたテキストデータとを対応付けることにより、議事録データを生成する議事録作成手段と、を更に備える、
8.または9.に記載のビデオ会議システム。
11.
前記表示制御手段は、前記第1情報を前記第2情報よりも目立たなくさせる、
3.に記載のビデオ会議システム。
12.
コンピュータが、
会議の参加人物が写る画像を取得し、
前記画像の中から、人物と認識される領域を検出し、
前記領域に含まれる人物を特定する人物特定処理を実行し、
前記人物特定処理で前記人物が特定できなかったことを示す第1情報を表示装置に表示させる、
ことを含むビデオ会議方法。
13.
前記コンピュータが、
前記人物特定処理で特定された前記会議の参加人物の氏名を含む第2情報を前記表示装置に更に表示させる、
ことを含む12.に記載のビデオ会議方法。
14.
前記コンピュータが、
前記第1情報の表示態様を、前記第2情報の表示態様と異ならせる処理を実行する、
ことを含む13.に記載のビデオ会議方法。
15.
前記コンピュータが、前記第1情報を前記第2情報よりも目立たせる処理を実行する、
ことを含む14.に記載のビデオ会議方法。
16.
前記コンピュータが、
前記第1情報の外形、大きさ、色、言語、およびフォントの少なくとも1つを前記第2情報と異ならせることにより、前記第1情報を目立たせる、
ことを含む15.に記載のビデオ会議方法。
17.
前記コンピュータが、
前記人物特定処理により特定された前記会議の参加人物の数が所定の閾値以上である場合、前記第2情報を一覧形式で表示させる、
ことを含む13.から16.のいずれか1つに記載のビデオ会議方法。
18.
前記コンピュータが、
前記画像に写っている前記会議の参加人物が見る表示装置に、前記第1情報を表示させる、
ことを含む12.から17.のいずれか1つに記載のビデオ会議方法。
19.
前記コンピュータが、
前記画像に基づく前記人物特定処理で特定されなかった参加人物が写る追加画像を、前記画像を生成した撮像装置とは異なる移動型の撮像装置から取得し、
前記追加画像に基づいて前記画像に基づく前記人物特定処理で特定されなかった参加人物を特定する、
ことを含む12.から18.のいずれか1つに記載のビデオ会議方法。
20.
前記コンピュータが、
前記人物特定処理によって特定された人物のリストを作成する、
ことを含む19.に記載のビデオ会議方法。
21.
前記コンピュータが、
音声データを取得し、
前記音声データまたは前記音声データと同期して取得された画像を解析することによって、前記音声データに関する発言者を特定し、
前記発言者の特定結果と前記音声データに基づいて生成されたテキストデータとを対応付けることにより、議事録データを生成する、
ことを含む19.または20.に記載のビデオ会議方法。
22.
前記コンピュータが、
前記第1情報を前記第2情報よりも目立たなくさせる処理を実行する、
ことを含む14.に記載のビデオ会議方法。
23.
コンピュータに、12.から22.のいずれか1つに記載のビデオ会議方法を実行させるプログラム。
1 ビデオ会議システム
10 サーバ装置
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース
110 画像取得部
120 人物領域検出部
130 人物特定部
140 表示制御部
150 リスト作成部
160 音声取得部
170 発言者特定部
180 議事録作成部20 通信端末
30 撮像装置
32 撮像装置
40 表示装置
50 集音装置

Claims (17)

  1. 会議の参加人物が写る画像を取得する画像取得手段と、
    前記画像の中から、人物と認識される領域を検出する人物領域検出手段と、
    前記領域に含まれる人物を特定する人物特定処理を実行する人物特定手段と、
    前記人物特定処理で前記人物が特定できなかったことを示す第1情報を表示装置に表示させる表示制御手段と、
    を備え、
    前記画像取得手段は、前記画像に基づく前記人物特定処理で特定されなかった参加人物が写る追加画像を取得し、
    前記人物特定手段は、前記追加画像に基づいて前記画像に基づく前記人物特定処理で特定されなかった参加人物を特定するビデオ会議システム。
  2. 前記画像取得手段は、前記画像に基づく前記人物特定処理で特定されなかった参加人物が写る前記画像から撮像範囲を移動させた追加画像を取得する、
    請求項1に記載のビデオ会議システム。
  3. 前記画像取得手段は、前記画像に基づく前記人物特定処理で特定されなかった参加人物が写る撮像角度の異なる前記追加画像を取得する、
    請求項1又は2に記載のビデオ会議システム。
  4. 前記画像取得手段は、前記画像に基づく前記人物特定処理で特定されなかった参加人物が写る前記追加画像を、前記画像を生成した撮像装置とは異なる撮像装置から取得する、
    請求項1から3のいずれか1項に記載のビデオ会議システム。
  5. 前記画像取得手段は、前記人物が特定できなかったことを表示する表示制御手段を実行すると、前記追加画像を取得する、
    請求項1から4のいずれか1項に記載のビデオ会議システム。
  6. 前記人物特定手段は、前記人物が特定できなかったことを表示する表示制御手段を実行すると、前記追加画像に基づいて前記画像に基づく前記人物特定処理で特定されなかった参加人物を特定する人物特定処理を実行する、
    請求項1から5のいずれか1項に記載のビデオ会議システム。
  7. 前記表示制御手段は、前記人物特定処理で特定された前記会議の参加人物の氏名を含む第2情報を前記表示装置に更に表示させる、
    請求項1から6のいずれか1項に記載のビデオ会議システム。
  8. 前記表示制御手段は、前記第1情報の表示態様を、前記第2情報の表示態様と異ならせる、
    請求項7に記載のビデオ会議システム。
  9. 前記表示制御手段は、前記第1情報を前記第2情報よりも目立たせる、
    請求項8に記載のビデオ会議システム。
  10. 前記表示制御手段は、前記第1情報の外形、大きさ、色、言語、およびフォントの少なくとも1つを前記第2情報と異ならせることにより、前記第1情報を目立たせる、
    請求項9に記載のビデオ会議システム。
  11. 前記表示制御手段は、前記人物特定処理により特定された前記会議の参加人物の数が所定の閾値以上である場合、前記第2情報を一覧形式で表示させる、
    請求項7から10のいずれか1項に記載のビデオ会議システム。
  12. 前記表示制御手段は、前記画像に写っている前記会議の参加人物が見る表示装置に、前記第1情報を表示させる、
    請求項1から11のいずれか1項に記載のビデオ会議システム。
  13. 前記人物特定処理によって特定された人物のリストを作成するリスト作成手段を更に備える、
    請求項1から12のいずれか1項に記載のビデオ会議システム。
  14. 音声データを取得する音声取得手段と、
    前記音声データまたは前記音声データと同期して取得された画像を解析することによって、前記音声データに関する発言者を特定する発言者特定手段と、
    前記発言者の特定結果と前記音声データに基づいて生成されたテキストデータとを対応付けることにより、議事録データを生成する議事録作成手段と、を更に備える、
    請求項1から請求項13のいずれか1項に記載のビデオ会議システム。
  15. 前記表示制御手段は、前記第1情報を前記第2情報よりも目立たなくさせる、
    請求項8に記載のビデオ会議システム。
  16. コンピュータが、
    会議の参加人物が写る画像を取得し、
    前記画像の中から、人物と認識される領域を検出し、
    前記領域に含まれる人物を特定する人物特定処理を実行し、
    前記人物特定処理で前記人物が特定できなかったことを示す第1情報を表示装置に表示さ
    前記画像に基づく前記人物特定処理で特定されなかった参加人物が写る追加画像を取得し、
    前記追加画像に基づいて前記画像に基づく前記人物特定処理で特定されなかった参加人物を特定する、
    ことを含むビデオ会議方法。
  17. コンピュータに、請求項16に記載のビデオ会議方法を実行させるプログラム。
JP2018065248A 2018-03-29 2018-03-29 ビデオ会議システム、ビデオ会議方法、およびプログラム Active JP7110669B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018065248A JP7110669B2 (ja) 2018-03-29 2018-03-29 ビデオ会議システム、ビデオ会議方法、およびプログラム
JP2022115486A JP7501575B2 (ja) 2018-03-29 2022-07-20 ビデオ会議システム、ビデオ会議方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018065248A JP7110669B2 (ja) 2018-03-29 2018-03-29 ビデオ会議システム、ビデオ会議方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022115486A Division JP7501575B2 (ja) 2018-03-29 2022-07-20 ビデオ会議システム、ビデオ会議方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019176415A JP2019176415A (ja) 2019-10-10
JP7110669B2 true JP7110669B2 (ja) 2022-08-02

Family

ID=68169773

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018065248A Active JP7110669B2 (ja) 2018-03-29 2018-03-29 ビデオ会議システム、ビデオ会議方法、およびプログラム
JP2022115486A Active JP7501575B2 (ja) 2018-03-29 2022-07-20 ビデオ会議システム、ビデオ会議方法、およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022115486A Active JP7501575B2 (ja) 2018-03-29 2022-07-20 ビデオ会議システム、ビデオ会議方法、およびプログラム

Country Status (1)

Country Link
JP (2) JP7110669B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206924A (ja) 2008-02-28 2009-09-10 Fuji Xerox Co Ltd 情報処理装置、情報処理システム及び情報処理プログラム
JP2011004007A (ja) 2009-06-16 2011-01-06 Ricoh Co Ltd テレビ会議装置、テレビ会議方法、そのプログラム
JP2011045028A (ja) 2009-08-24 2011-03-03 Sharp Corp 会議中継装置、会議システム及びコンピュータプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3633415B2 (ja) 2000-01-14 2005-03-30 日本電気株式会社 Gui制御方法及び装置並びに記録媒体
JP2003023612A (ja) 2001-07-10 2003-01-24 Mitsubishi Electric Corp 画像通信端末装置
WO2015033599A1 (ja) 2013-09-06 2015-03-12 日本電気株式会社 情報入力装置、制御方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206924A (ja) 2008-02-28 2009-09-10 Fuji Xerox Co Ltd 情報処理装置、情報処理システム及び情報処理プログラム
JP2011004007A (ja) 2009-06-16 2011-01-06 Ricoh Co Ltd テレビ会議装置、テレビ会議方法、そのプログラム
JP2011045028A (ja) 2009-08-24 2011-03-03 Sharp Corp 会議中継装置、会議システム及びコンピュータプログラム

Also Published As

Publication number Publication date
JP7501575B2 (ja) 2024-06-18
JP2019176415A (ja) 2019-10-10
JP2022140529A (ja) 2022-09-26

Similar Documents

Publication Publication Date Title
CN106657865B (zh) 会议纪要的生成方法、装置及视频会议系统
US9894320B2 (en) Information processing apparatus and image processing system
KR101636716B1 (ko) 발언자를 구별하는 영상 회의 장치 및 방법
CN107918771B (zh) 人物识别方法和佩戴式人物识别系统
JP2022048147A5 (ja)
WO2010010736A1 (ja) 会議画像生成方法、会議システム、サーバ装置及び会議装置等
US11303756B2 (en) System and method for auto-initiating conference calls from a user device
US20160231890A1 (en) Information processing apparatus and phase output method for determining phrases based on an image
JP2004129071A (ja) 双方向コミュニケーションシステム
CN110633677A (zh) 人脸识别的方法及装置
JP2011004007A (ja) テレビ会議装置、テレビ会議方法、そのプログラム
JP5088463B2 (ja) 監視システム
JP2019159647A (ja) プログラム、ネットワークシステム及び画像判定方法
JP2018081662A (ja) 画像プリントシステム
JP7400886B2 (ja) ビデオ会議システム、ビデオ会議方法、およびプログラム
JP7110669B2 (ja) ビデオ会議システム、ビデオ会議方法、およびプログラム
US12094250B2 (en) Image processing apparatus, control method, and non-transitory storage medium
CN114040145B (zh) 一种视频会议人像显示方法、系统、终端及存储介质
JP2012049774A (ja) 映像監視装置
US12106619B2 (en) Server device, entry/exit management method and program recording medium
JP2016158170A (ja) インターホン用データベース生成装置およびそれを利用したインターホン室内装置、インターホンシステム
US20230056993A1 (en) Authentication terminal, entrance/exit management system, entrance/exit management method, and program
JP2005269207A (ja) 情報伝達方法及びこの方法を実現するための通信装置とそのプログラム
JP6539624B2 (ja) 視線一致顔画像合成方法、テレビ会議システム、及びプログラム
CN105096943B (zh) 信号处理的方法与装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220704

R151 Written notification of patent or utility model registration

Ref document number: 7110669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151