JP5151131B2 - テレビ会議装置 - Google Patents

テレビ会議装置 Download PDF

Info

Publication number
JP5151131B2
JP5151131B2 JP2006331642A JP2006331642A JP5151131B2 JP 5151131 B2 JP5151131 B2 JP 5151131B2 JP 2006331642 A JP2006331642 A JP 2006331642A JP 2006331642 A JP2006331642 A JP 2006331642A JP 5151131 B2 JP5151131 B2 JP 5151131B2
Authority
JP
Japan
Prior art keywords
video
video conference
personal area
sound
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006331642A
Other languages
English (en)
Other versions
JP2008147910A (ja
Inventor
紀行 畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006331642A priority Critical patent/JP5151131B2/ja
Publication of JP2008147910A publication Critical patent/JP2008147910A/ja
Application granted granted Critical
Publication of JP5151131B2 publication Critical patent/JP5151131B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、映像データを送受信する技術に関する。
ネットワーク経由で映像データや音声データの通信を行うことにより、遠隔地において会議を行うことができるテレビ会議システムがある。遠隔地にいながら音声だけでなく映像も確認しながら会議を行うことができる一方、複数人の参加者と会議を行う場合に、参加者から発言があっても、画面に表示されている参加者のうち誰が発言しているのか、わからないことがあった。このような状況を改善して発言者を特定する目的で、特許文献1には、音の発生方向を検出して、その方向に人間がいるかどうか画像認識を行うことにより判断し、人間がいる場合には、その人間が発言者であるとして、画面上の発言者の近くにマーカを表示させる技術を用いたテレビ会議システムが開示されている。
特開2003−189273号公報
しかし、特許文献1のように、画像認識において人間がいるかどうかを判断する処理は、その会議システムの制御部であるCPU(Central Processing Unit)などの負担が非常に大きく、高性能なCPUを用いなくてはならず、高価なテレビ会議システムとなっていた。
本発明は、上述の事情に鑑みてなされたものであり、発言者の特定を簡単に行い、画面上の発言者を強調表示できるテレビ会議装置を提供することを目的とする。
上述の課題を解決するため、本発明は、通信網を介して他のテレビ会議装置からデータを送信および受信する通信手段と、前記通信手段によって前記他のテレビ会議装置における撮影範囲の映像を示す映像データが受信されると、当該映像を表示手段に表示させる表示制御手段と、前記撮影範囲の一部分の範囲を前記他のテレビ会議装置に対応するパーソナルエリアとして設定するエリア設定手段と、前記映像データを加工する映像データ加工手段とを具備し、前記通信手段は、前記エリア設定手段によって設定されたパーソナルエリアを示す第1の情報を前記他のテレビ会議装置に送信するとともに、前記第1の情報が示すパーソナルエリアの中から当該他のテレビ会議装置において選定されたパーソナルエリアを示す第2の情報を当該他のテレビ会議装置から受信し、前記映像データ加工手段は、前記通信手段によって前記第2の情報が受信されると、前記映像データを再生して得られる映像の当該第2の情報が示すパーソナルエリアに対応する部分が予め設定された態様になるように前記映像データを加工することを特徴とするテレビ会議装置を提供する。
また、別の好ましい態様において、前記エリア設定手段は、前記パーソナルエリアを複数設定し、前記映像データ加工手段は、複数の前記パーソナルエリアに対応する部分が予め設定された態様になるように前記映像データを加工してもよい。
また、別の好ましい態様において、自装置における撮影範囲の映像を映像データとして生成する撮影手段と、前記他のテレビ会議装置において設定されたパーソナルエリアを示し、前記通信手段によって受信された前記第1の情報を記憶する記憶手段と、音源からの音を収音して音声データを生成する収音手段と、前記収音手段によって生成された音声データに基づいて、前記音源の方向を特定する音源方向特定手段と、前記記憶手段に記憶された前記第1の情報が示すパーソナルエリアに、前記音源方向特定手段によって特定された音源の方向に対応する位置を含むパーソナルエリアがある場合に、当該パーソナルエリアを選定する選定手段とを備え、前記通信手段は、前記選定手段によって選定されたパーソナルエリアを示す前記第2の情報と、前記撮影手段によって生成された映像データとを前記他のテレビ会議装置へ送信してもよい。
また、別の好ましい態様において、前記第1の情報を複数記憶し、前記選定手段は、前記記憶手段に記憶された複数の前記第1の情報が示す複数のパーソナルエリアから、前記音源方向特定手段によって特定された音源の方向に対応する位置を含むパーソナルエリアを選定してもよい。
また、別の好ましい態様において、前記収音手段は、複数のマイクロフォンを有し、前記音源方向特定手段は、前記複数のマイクロフォンが音源からの音を収音することによって生成された各音声データに基づいて、前記音源の方向を特定してもよい。
本発明によれば、発言者の特定を簡単に行い、画面上の発言者を強調表示できるテレビ会議装置を提供することができる。
以下、本発明の一実施形態について説明する。
<実施形態>
図1は、本発明の本実施形態に係るテレビ会議装置を含むテレビ会議システム1の構成を示すブロック図である。テレビ会議システム1は、テレビ会議装置100aとテレビ会議装置100bと通信網10とを有し、テレビ会議装置100aおよびテレビ会議装置100bは、通信網10に有線接続または無線接続されている。テレビ会議装置100aおよびテレビ会議装置100bは同じ構成であって、以下、テレビ会議装置100aおよびテレビ会議装置100bを区別する必要が無いときには、両者をテレビ会議装置100という。なお、ここでは2台のテレビ会議装置100が通信網10に接続されているが、3台以上のテレビ会議装置100が接続されていてもよい。
次に、テレビ会議装置100の構成について説明する。図2は、テレビ会議装置100の構成を示すブロック図である。なお、以下の説明において、テレビ会議装置100の構成がテレビ会議装置100aまたはテレビ会議装置100bのいずれかに属するものであるかを区別する必要があるときには、テレビ会議装置100aのCPU101をCPU101aのようにアルファベットを付して記載する。
CPU101は、ROM(Read Only Memory)102に記憶されているプログラムを読み出して、RAM(Random Access Memory)103にロードして実行することにより、テレビ会議装置100の各部について、バス110を介して制御する。RAM103は、さらに音声入力部104から出力された音声データ、映像入力部105から出力された映像データ、通信網10を介して受信した音声データ、映像データなどを記憶する。また、CPU101が記憶された各データの加工などを行う際のワークエリアとして機能する。
音声入力部104は、マイクアレイとA/Dコンバータを有する。A/Dコンバータは、マイクアレイから入力されたアナログ信号の音声信号をアナログデジタル変換してデジタル信号の音声データを生成する。マイクアレイは、水平方向に並んだ複数のマイクロフォンを有している。CPU101は、ある音源からの放音を複数のマイクロフォンで収音してそれぞれ生成された音声データを解析し、各マイクロフォンへの音の到達時間のずれを計算して、音源の位置についてテレビ会議装置100から見た場合の水平方向の角度として特定することができる。
例えば、図3に示すように、特定の音源Sからの放音を4台のマイクロフォン1041、1042、1043、1044によって収音した場合、音源Sから各マイクロフォン1041、1042、1043、1044までの距離の違いから、音の到達時間がずれることになる。例えば、音源Sからマイクロフォン1041までの距離はマイクロフォン1044までの距離よりdだけ長いので、マイクロフォン1041は、音源Sから放出された音をマイクロフォン1044よりd/v(v:音速)だけ遅く収音する。すなわち、CPU101は、音声出力部108から出力された音声データを解析し、この時間のずれを計算することにより、音源Sから各マイクロフォン1041、1042、1043、1044までの距離の違いをそれぞれ算出できることになり、音源Sの位置について水平方向の角度θを特定することができる。ここで、θは、水平方向に並んだ複数のマイクロフォンと垂直な方向M(本実施形態においては、テレビ会議装置100の正面方向)を0度として規定されている。なお、音源Sの方向だけでなく、距離についても算出することは可能であるが、本実施形態においては、方向のみ特定するものとする。また、複数の音源から放音されていても、それぞれの音源の方向を特定することが可能であるが、本実施形態においては、最も音量の大きい方向を音源の方向として特定する。
映像入力部105は、CCDやCMOSなどのイメージセンサを有し、イメージセンサによって所定の画像サイズ(ピクセル数)および単位時間あたりのフレーム数で撮影し、映像データを生成する。本実施形態においては、映像入力部105のイメージセンサと音声入力部104のマイクロフォンは、テレビ会議装置100に固定されている。このように固定することにより、イメージセンサの撮影範囲に存在する音源とCPU101が特定する音源の方向との位置関係が保たれることになる。例えば、図4に示すように、水平方向の角度θはイメージセンサの撮影範囲の中心方向Mを0度し、図中の右側については正の値、左側は負の値とする。ここで、図4は、イメージセンサの撮影範囲について、水平に並んだ複数のマイクロフォンを含む面によって切ったときの断面図であり、図中の右側は以下に示す表示部107に映像を表示したときには、画面の右側に表示される。
操作部106は、例えばキーボードやマウスなどであり、テレビ会議装置100の操作者が操作部106を操作すると、その操作内容を表すデータがCPU101へ出力される。
表示部107は、映像を画面に表示する液晶ディスプレイなどの表示デバイスであって、入力された映像データに基づいて表示を行う。
音声出力部108は、入力された音声データを放音するものであって、スピーカとD/Aコンバータを有している。D/Aコンバータは、入力されたデジタル信号の音声データをデジタルアナログ変換してアナログ信号の音声信号を生成しスピーカへ出力する。スピーカは、入力された音声信号を放音する。
通信IF(インタフェイス)109は、例えば、NIC(Network Interface Card)であり、通信網10に接続されている。この通信IF109は、送信すべき音声データ及び映像データなどの各種データを通信網10へ送信する。また、通信IF109は、通信網10から音声データ及び映像データなどの各種データを受信しCPU101に出力する。
次に、テレビ会議システム1を用いて遠隔会議を行う際に、テレビ会議装置100のCPU101が、ROM102に記憶されているプログラムを実行することにより実現する動作について説明する。
図5は、テレビ会議装置100aの映像入力部105aの撮影対象を示している図であり、この撮影範囲の映像データがテレビ会議装置100bに送信されることにより、テレビ会議装置100bの表示部107bに表示される映像となる。図6は、テレビ会議装置100bの映像入力部105bの撮影対象を示している図であり、この撮影範囲の映像データがテレビ会議装置100aに送信されることにより、テレビ会議装置100aの表示部107aに表示される映像となる。
ここで、本実施形態においては、部屋aと部屋bとの間において遠隔会議が行われ、部屋aにはテレビ会議装置100aが設置され、5名の参加者201、202、・・・、205が会議に参加しており、部屋bにはテレビ会議装置100bが設置され、3名の参加者301、302、303が会議に参加しているものとする。そして、それぞれのテレビ会議装置100は、映像入力部105のイメージセンサによって机200、300付近に座っている参加者を撮影するように設置されている。
まず、遠隔会議の開始前にパーソナルエリアの設定が行われる。ここで、パーソナルエリアの設定について図5、図6を用いて説明する。まず、各テレビ会議装置100は、撮影して生成した映像データをもう一方のテレビ会議装置100に送信する。部屋aの参加者は、表示部107aの映像を確認しながら操作部106aを操作して、部屋bにいる参加者の位置を指定する。この位置の指定は、図6の破線で示したように、表示部107aに表示されている参加者301、302、303を四角で囲むようにして行われる。CPU101aは、このそれぞれの四角の範囲をそれぞれのパーソナルエリアとして認識する。この際、CPU101aは、パーソナルエリアを四角の左上と右下の点の座標(ピクセル単位)によって認識する。これは、画面の位置をピクセル数で表した際に、画面の左上を(0,0)として、その点から右にxピクセル、下にyピクセル移動した点が(x,y)とした場合に、左上の座標(xL,yL)と右下の座標(xR,yR)として、1つのパーソナルエリアが認識される。以下、画面の右方向をx方向とし、その座標をx座標、下方向をy方向とし、その座標をy座標という。
そして、テレビ会議装置100aのCPU101aは、テレビ会議装置100bに対して認識した3つのパーソナルエリアに関する情報を送信して、テレビ会議装置100bの映像入力部105bの撮影範囲におけるパーソナルエリアの位置をCPU101bに認識させる。部屋bについても、部屋aと同様にテレビ会議装置100bの操作が行われ、テレビ会議装置100aの映像入力部105aの撮影範囲におけるパーソナルエリアの位置をCPU101aに認識させる。以下、参加者201に対応するパーソナルエリアはPSA201、参加者202に対応するパーソナルエリアはPSA202として表記し、他の参加者に対応するパーソナルエリアも同様にして表記し、PSA201の左上の座標は(xL201,yL201)とし、右下の座標は(xR201,yL201)という。また、各参加者で区別する必要が無い場合は、単にパーソナルエリアといい、左上の座標は(xL,yL)、右下の座標は(xR,yR)というものとする。
ここで、表示部107に表示される画面には、撮影範囲全体が表示され、左上の座標は(0,0)、右下の座標は(xmax,ymax)となる。ここで、xmaxは撮影範囲全体のx方向のピクセル数から1引いた数字、ymaxは撮影範囲全体のy方向のピクセル数から1引いた数字となり、撮影範囲のピクセル数が640×480である場合には、xmax=639、ymax=479となる。これにより、各テレビ会議装置100の各CPU101は、各テレビ会議装置100が設置された部屋についての各パーソナルエリアを座標として認識することになる。
パーソナルエリアの設定が終了すると、映像データと音声データの通信が開始される。以下、本発明の特徴である発言している参加者(以下、話者という)を強調表示する方法について、テレビ会議装置100aがテレビ会議装置100bに送信を行うとき、すなわちテレビ会議装置100bの表示部107bに表示されている参加者のうち、話者に対応する参加者を強調表示する場合を例として説明する。なお、テレビ会議装置100bからテレビ会議装置100aに送信を行うときについては、以下の説明と同様に行われるため説明を省略する。
まず、テレビ会議装置100aのCPU101aは、通信IF109aを介して、テレビ会議装置100bに対して映像データの送信が開始される。そして、部屋aの参加者のうち、話をしている参加者(以下、話者という)に対応するパーソナルエリアを選定する。この選定は、上述したように、音声入力部104aのマイクアレイが話者の声を収音して、その音声データをCPU101aが解析して、話者の方向(水平方向の角度θ)を特定し、パーソナルエリアの座標と対応させて、話者に対応するパーソナルエリアを選定する。
ここで、水平方向の角度θとパーソナルエリアの座標との対応は、以下のように行われる。水平方向の角度θは、水平方向のみを示しているため、角度θを水平方向の座標であるx座標に変換することができる。この変換について図7を用いて説明する。図7は、y方向から見た撮影範囲を示したものである。αは映像入力部105のイメージセンサの受光面であり、焦点Fは撮影範囲の端部と受光面αの端部をそれぞれ結んだときの交点を示している。受光面αの左端の点Oはx座標の原点であり、右端の点のx座標はxmaxである。マイクアレイを用いて特定した話者の水平方向の角度θは、本実施形態に置いては、焦点Fから受光面αへの垂線FMからの角度とほぼ同じになっている。ここで、焦点Fから話者の方向への直線は、受光面α上の点Pと交わり、その座標xsはxm+fa×tanθとして計算できる。xmは受光面の中心Mの座標(xm=xmax/2)であり、faは中心Mと焦点Fの距離である。CPU101aは、このようにして得られた座標xsと各パーソナルエリアの座標xL、xRとを比較し、xsがxLとxRの間になるパーソナルエリアを選定する。例えば、xsがxL204以上xR204以下であれば、PSA204が選定されることになる。
CPU101aは、話者に対応するパーソナルエリアを選定すると、当該パーソナルエリアの左上の座標(xL,yL)と右下の座標(xR,yR)を示す座標情報を通信IF109aに出力し、テレビ会議装置100bへ送信させる。そして、CPU101aは、話者が変わったことを検出すると、変わったことにより選定したパーソナルエリアの座標情報を再び通信IF109aに出力し、テレビ会議装置100bへ送信させる。
そして、いずれかの部屋の参加者がテレビ会議装置100の操作部106を操作して、通信を終了させる指示を出すまで以上の処理を続けることになる。
以上、映像データの送信方法について説明したが、テレビ会議装置100aから送信された映像データとパーソナルエリアの座標情報をテレビ会議装置100bが受信して、表示部107bに表示中の話者の強調表示について説明する。
まず、通信が開始されると、テレビ会議装置100bは、オールエリアの映像データを受信し、CPU101bは、その映像を表示部107bに表示させる。その後、CPU101bは、パーソナルエリアの座標情報を受信すると、表示されている映像のうち、そのパーソナルエリアの外周を太線で囲うように強調表示させる。例えば、PSA202に対応する座標情報を受信した場合には、図8に示すように表示される。そして、CPU101bは、別のパーソナルエリアの座標情報を受信したときに、太線で囲う場所を新たに受信したパーソナルエリアの外周に移動させて表示させる。このようにして、パーソナルエリアの座標情報を受信するたびに強調表示される場所が移動することによって、部屋aの参加者のうち誰が話者であるかについて、部屋bの参加者が確認することができる。
以上、テレビ会議装置100aからテレビ会議装置100bへ、映像データを送信した場合について説明したが、これらの処理は、テレビ会議装置100bからテレビ会議装置100aに対しても行われ、テレビ会議装置100aとテレビ会議装置100bとの間において双方向で行われることになる。そして、音声入力部104において収音されて生成された音声データについても、映像データと並行して双方向に通信が行われる。
このようにして、各部屋の参加者が他方の部屋の参加者の位置を表示部107の表示を確認しながら操作部106を操作して、各参加者に対してパーソナルエリアを設定しておくことにより、CPU101は、音声入力部104から出力された音声データから計算した音源の方向とパーソナルエリアの座標情報とを比較することによって、どのパーソナルエリアの参加者が話者であるかを簡単に特定することができる。そして、CPU101は、表示部107に表示されている映像のうち、特定した参加者に対応するパーソナルエリアの部分を強調表示させることによって、会議相手の参加者のうち誰が話者であるかを確認することができる。
以上、本発明の実施形態について説明したが、本発明は以下のように、さまざまな態様で実施可能である。
<変形例1>
実施形態においては、音声入力部104が、複数の話者からの放音を収音した場合には、CPU101aは、最大の音量の方向を話者の方向として計算したが、それぞれの話者の方向を計算してもよい。この場合は、CPU101aは、パーソナルエリアの選定を複数行うことになるが、当該複数のパーソナルエリアの座標情報を出力し、通信IF109aに送信させればよい。そして、CPU101bは、複数のパーソナルエリアの座標情報を受信した後に、表示部107bに表示されている映像のうち、複数のパーソナルエリアの外周を太線で囲うように強調表示させればよい。このようにすると、複数の話者がいてもそれぞれの話者に対応するパーソナルエリアを強調表示することができる。
<変形例2>
実施形態においては、参加者が設定したパーソナルエリアについては、x座標の範囲が重複しないように設定されていたが、重複するように設定してもよい。例えば、図9に示すように、PSA202とPSA203において重複する場合、すなわちxR202よりxL203が小さくなる場合には、重複部分の中心のx座標(xR202+xL203)/2として、CPU101aは、PSA202とPSA203の境界を認識すればよい。なお、中心部分で分けずに、この重複部分に話者がいると計算された場合は、CPU101aは、両方のパーソナルエリアを選定し、変形例1のような複数のパーソナルエリアが選定されたものとして処理してもよい。
なお、PSA202とPSA203に関する座標情報をCPU101bが受信したときには、CPU101bは、図中の2点鎖線で示すようなエリアを強調表示させてもよい。このようなエリアは、複数のパーソナルエリアを含み、かつ最小の大きさになる四角の範囲になるように決定すればよい。すなわち、左上の座標は、複数のパーソナルエリアの左上の座標のうち最小のxL(xLmin)と最小のyL(yLmin)によって決まり、右下の座標は、同パーソナルエリアの右下の座標のうち最大のxR(xRmax)とyR(yRmax)によって決まることにより、左上の座標は(xLmin,yLmin)、右下の座標は(xRmax,yRmax)となる。そのため図9の場合には、左上の座標は(xL202,yL203)、右下の座標は(xR203,yR202)となり、CPU101bは、このエリアの外周を強調表示させればよい。このようにすれば、参加者が多い場合に、パーソナルエリアの設定が困難であっても、実施形態と同様な効果を得ることができる。
<変形例3>
実施形態においては、音声入力部104にはマイクアレイを用い、これを利用して話者の方向をCPU101が計算していたが、マイクアレイの代わりにそれぞれ参加者の前にマイクロフォンを用意し、これらのマイクロフォンの収音によって生成された音声データの音量からCPU101が話者を特定するようにしてもよい。この場合は、各マイクロフォンとパーソナルエリアの対応を参加者が操作部106を操作して、CPU101に認識させればよい。このようにすると、より正確な話者の位置を特定することができる。
<変形例4>
実施形態においては、部屋aの参加者に係るパーソナルエリアの設定は、部屋bの参加者によって行われたが、部屋aの参加者が自ら設定するようにしてもよい。この場合は、パーソナルエリア設定時においてテレビ会議装置100aの映像入力部105aが撮影した映像データをテレビ会議装置100aの表示部107aに表示させることによって、部屋aの参加者は自らの映像を確認しながら設定することができる。ここで、設定を行いやすくするために映像を左右反転して、表示部107aに表示された映像が鏡を見ているような感覚になるようにすれば、参加者は設定を簡易に行うことができる。
<変形例5>
実施形態においては、映像入力部105のイメージセンサと音声入力部104のマイクアレイはテレビ会議装置100に固定されていたが、別々に移動可能にしてもよい。この場合は、イメージセンサの撮影範囲とマイクアレイの方向の対応について、参加者が操作部106を操作して、CPU101に認識させればよい。このようにすると、テレビ会議装置100の設置が様々な態様で行うことができる。
<変形例6>
実施形態においては、CPU101aが話者の方向を計算して、対応するパーソナルエリアの選定し、選定するパーソナルエリアが変わったら、新たに選定したパーソナルエリアの座標情報をテレビ会議装置100bに送信するようにしているため、テレビ会議装置100bの表示部107bには、一度強調表示がされると、発言が無くなっても直前に発言していた参加者に対応するパーソナルエリアが強調表示される。そこで、選定したパーソナルエリアの座標情報を送信する際に、発言が開始されたことを示す開始情報を送信するようにし、発言が終了したときにはパーソナルエリアの座標情報とともに発言が終了したことを示す終了情報を送信するようにして、テレビ会議装置100bのCPU101bが開始情報を受信したときには、対応するパーソナルエリアの外周を強調表示するようにし、終了情報を受信したときには、当該強調表示を消すようにしてもよい。このようにすると、一時的に話者がいなくなった状態においては、強調表示がなくなるようにすることができる。なお、話者が発言を少し止めただけで強調表示がなくならないように、発言が所定の時間以上止まっている場合にのみ終了情報を送信するようにしてもよい。
なお、発言が行なわれている間は、各テレビ会議装置100は、パーソナルエリアの座標情報の送信を所定の時間ごとに送信するようにし、発言が終了した場合には送信を停止するようにしてもよい。この場合は、各テレビ会議装置100がパーソナルエリアの座標情報を受信している間は強調表示を行い、所定の時間以上、パーソナルエリアの座標情報を受信しなかった場合には、強調表示を停止するようにすればよい。このようにしても、同様の効果を得ることができる。
<変形例7>
実施形態においては、強調表示については、話者に対応するパーソナルエリアの外周部分を太線で囲うようにして強調表示を行っていたが、以下のように様々な態様によって強調表示が可能である。様々な態様の例としては、話者に対応するパーソナルエリア以外の部分をモノクロ表示、暗転表示、薄く表示、網掛け表示する、また、話者に対応するパーソナルエリアを矢印で指すような表示がある。また、図10に示すように、話者に対応するパーソナルエリア(図中においてはPSA204)を拡大表示するようにしてもよい。この際の表示は、もとの映像に対して、拡大表示されたパーソナルエリアが上書きされるようにして行われる。以上の表示をさせるための処理は、プログラムに予め設定された態様に基づいてCPU101bによって行われる。また、プログラムにこれらの態様全てを予め設定しておき、参加者が操作部106を操作することによって、強調表示の態様を選択して設定するようにしてもよい。
<変形例8>
実施形態においては、CPU101は、パーソナルエリアの座標情報を受信することにより、強調表示する部分を認識していたが、座標ではなく、各エリアを番号によって認識するようにしてもよい。この場合には、各テレビ会議装置100において、パーソナルエリアの座標の情報を送受信する際に、各パーソナルエリアに対応させてエリア番号を付加して送受信するようにすればよい。このようにすると、対応関係を簡易に送受信することができ、ネットワークの負荷を低減することができる。
<変形例9>
実施形態においては、パーソナルエリアの座標情報を受信することにより、当該パーソナルエリアに対応する部分を強調表示していたが、パーソナルエリアの座標情報を送信する代わりに、強調表示させた映像データを送信するようにしてもよい。この場合は、CPU101はパーソナルエリアの選定を行なった後、当該パーソナルエリアに対応する部分を強調した映像データを生成し、その映像データを他のテレビ会議装置100に送信するようにすればよい。そして、変形例4のようにパーソナルエリアの設定を行なえばよい。このようにすると、映像データを送信するだけで、他のテレビ会議装置100の表示部107に強調表示された映像を再生することができる。また、会議に参加しないが会議の状況を確認したい場合には、映像データを受信して再生することにより表示できる一般的な表示装置を用いることができる。
<変形例10>
実施形態においては、テレビ会議装置100は、映像データとCPU101が選定したパーソナルエリアの座標情報を送信するまでの機能を有する送信機能部と、これらを受信して映像データを加工することで表示する受信機能部を具備していたが、受信機能部だけを具備したテレビ会議装置としてもよい。この場合、テレビ会議装置は、送信機能部を具備する通信端末から映像データとパーソナルエリアの座標情報を受信して、当該パーソナルエリアに対応する部分を強調した映像データを生成すればよい。このように別個の装置としても、本発明の効果を得ることができる。
テレビ会議システムの構成を示すブロック図である。 実施形態に係るテレビ会議装置の構成を示すブロック図である。 マイクアレイと音源の距離と方向の計算に関する説明図である。 イメージセンサの撮影範囲と音源の方向の関係を示す説明図である。 部屋bにおける画面表示を示す説明図である。 部屋aにおける画面表示を示す説明図である。 話者の方向をx座標で表す際の計算に関する説明図である。 部屋bにおいての表示において、強調表示されている状態を示す説明図である。 変形例2に係るパーソナルエリアとアクティブエリアに関する説明図である。 変形例7に係る強調表示の一例を示す説明図である。
符号の説明
1…テレビ会議システム、10…通信網、100…テレビ会議装置、101…CPU、102…ROM、103…RAM、104…音声入力部、1041、・・・1044…マイクロフォン、105…映像入力部、106…操作部、107…表示部、108…音声出力部、109…通信IF、110…バス、201、・・・205、301、302、303…参加者、200、300…机

Claims (5)

  1. 通信網を介して他のテレビ会議装置からデータを送信および受信する通信手段と、
    前記通信手段によって前記他のテレビ会議装置における撮影範囲の映像を示す映像データが受信されると、当該映像を表示手段に表示させる表示制御手段と、
    前記撮影範囲の一部分の範囲を前記他のテレビ会議装置に対応するパーソナルエリアとして設定するエリア設定手段と、
    前記映像データを加工する映像データ加工手段と
    を具備し、
    前記通信手段は、前記エリア設定手段によって設定されたパーソナルエリアを示す第1の情報を前記他のテレビ会議装置に送信するとともに、前記第1の情報が示すパーソナルエリアの中から当該他のテレビ会議装置において選定されたパーソナルエリアを示す第2の情報を当該他のテレビ会議装置から受信し、
    前記映像データ加工手段は、前記通信手段によって前記第2の情報が受信されると、前記映像データを再生して得られる映像の当該第2の情報が示すパーソナルエリアに対応する部分が予め設定された態様になるように前記映像データを加工する
    ことを特徴とするテレビ会議装置。
  2. 前記エリア設定手段は、前記パーソナルエリアを複数設定し、
    前記映像データ加工手段は、複数の前記パーソナルエリアに対応する部分が予め設定された態様になるように前記映像データを加工する
    ことを特徴とする請求項1に記載のテレビ会議装置。
  3. 自装置における撮影範囲の映像を映像データとして生成する撮影手段と、
    前記他のテレビ会議装置において設定されたパーソナルエリアを示し、前記通信手段によって受信された前記第1の情報を記憶する記憶手段と、
    音源からの音を収音して音声データを生成する収音手段と、
    前記収音手段によって生成された音声データに基づいて、前記音源の方向を特定する音源方向特定手段と、
    前記記憶手段に記憶された前記第1の情報が示すパーソナルエリアに、前記音源方向特定手段によって特定された音源の方向に対応する位置を含むパーソナルエリアがある場合に、当該パーソナルエリアを選定する選定手段とを備え、
    前記通信手段は、前記選定手段によって選定されたパーソナルエリアを示す前記第2の情報と、前記撮影手段によって生成された映像データとを前記他のテレビ会議装置へ送信する
    ことを特徴とする請求項1または請求項2に記載のテレビ会議装置。
  4. 前記記憶手段は、前記第1の情報を複数記憶し、
    前記選定手段は、前記記憶手段に記憶された複数の前記第1の情報が示す複数のパーソナルエリアから、前記音源方向特定手段によって特定された音源の方向に対応する位置を含むパーソナルエリアを選定する
    ことを特徴とする請求項3に記載のテレビ会議装置。
  5. 前記収音手段は、複数のマイクロフォンを有し、
    前記音源方向特定手段は、前記複数のマイクロフォンが音源からの音を収音することによって生成された各音声データに基づいて、前記音源の方向を特定する
    ことを特徴とする請求項3または請求項4に記載のテレビ会議装置。
JP2006331642A 2006-12-08 2006-12-08 テレビ会議装置 Expired - Fee Related JP5151131B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006331642A JP5151131B2 (ja) 2006-12-08 2006-12-08 テレビ会議装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006331642A JP5151131B2 (ja) 2006-12-08 2006-12-08 テレビ会議装置

Publications (2)

Publication Number Publication Date
JP2008147910A JP2008147910A (ja) 2008-06-26
JP5151131B2 true JP5151131B2 (ja) 2013-02-27

Family

ID=39607606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006331642A Expired - Fee Related JP5151131B2 (ja) 2006-12-08 2006-12-08 テレビ会議装置

Country Status (1)

Country Link
JP (1) JP5151131B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5316286B2 (ja) * 2009-07-28 2013-10-16 株式会社リコー ビデオ会議システム,サーバ装置,及びビデオ会議プログラム
EP2665255A1 (en) * 2012-05-14 2013-11-20 Thomson Licensing Solution for sub-titling of images and image sequences
WO2023276701A1 (ja) * 2021-06-28 2023-01-05 パナソニックIpマネジメント株式会社 話者ダイアライゼーションシステム、コミュニケーション解析システム、及び、発話量推定方法
CN113286114A (zh) * 2021-07-20 2021-08-20 北京微吼时代科技有限公司 基于视频混流直播技术的视频画面标记方法、装置和设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08331534A (ja) * 1995-06-05 1996-12-13 Nec Corp テレビ会議装置及びその画像表示方法
JPH0983985A (ja) * 1995-09-19 1997-03-28 Matsushita Electric Ind Co Ltd 画像表示方法
US6496607B1 (en) * 1998-06-26 2002-12-17 Sarnoff Corporation Method and apparatus for region-based allocation of processing resources and control of input image formation
JP2000083229A (ja) * 1998-09-07 2000-03-21 Ntt Data Corp 会議システム、話者表示方法及び記録媒体

Also Published As

Publication number Publication date
JP2008147910A (ja) 2008-06-26

Similar Documents

Publication Publication Date Title
JP4770178B2 (ja) カメラ制御装置、カメラシステム、電子会議システムおよびカメラ制御方法
US10264210B2 (en) Video processing apparatus, method, and system
US7460150B1 (en) Using gaze detection to determine an area of interest within a scene
US20170041570A1 (en) Communication apparatus, communication method, and communication system
JP2017085372A (ja) 通信システム、通信装置、通信方法およびプログラム
CN113676592B (zh) 录音方法、装置、电子设备及计算机可读介质
US20040218745A1 (en) Head postion based telephone conference system and associated method
JP5151131B2 (ja) テレビ会議装置
CN113905204B (zh) 图像显示方法、装置、设备及存储介质
US8525870B2 (en) Remote communication apparatus and method of estimating a distance between an imaging device and a user image-captured
CN114531564A (zh) 处理方法及电子设备
JP2009017330A (ja) テレビ会議システム、テレビ会議方法およびテレビ会議プログラム
JP2009177592A (ja) 通信端末装置、画像表示制御方法
JP5120020B2 (ja) 画像付音声通信システム、画像付音声通信方法およびプログラム
US11665391B2 (en) Signal processing device and signal processing system
JP2017168903A (ja) 情報処理装置、会議システムおよび情報処理装置の制御方法
JP2010004480A (ja) 撮像装置、その制御方法及びプログラム
JP2006339869A (ja) 映像信号と音響信号の統合装置
JP2007074081A (ja) 車載用通信装置
JP4957221B2 (ja) 通信装置
CN112804455A (zh) 远程交互方法、装置、视频设备和计算机可读存储介质
CN217546174U (zh) 智能会议系统
JP7111202B2 (ja) 収音制御システム及び収音制御システムの制御方法
JP7387167B2 (ja) 仮想的空間接続装置、システム
JP2010028299A (ja) 会議撮影画像処理方法及び会議装置等

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5151131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees