JP4244416B2 - Information processing apparatus and method, and recording medium - Google Patents
Information processing apparatus and method, and recording medium Download PDFInfo
- Publication number
- JP4244416B2 JP4244416B2 JP31076698A JP31076698A JP4244416B2 JP 4244416 B2 JP4244416 B2 JP 4244416B2 JP 31076698 A JP31076698 A JP 31076698A JP 31076698 A JP31076698 A JP 31076698A JP 4244416 B2 JP4244416 B2 JP 4244416B2
- Authority
- JP
- Japan
- Prior art keywords
- angle
- subject
- image
- information processing
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
- Telephonic Communication Services (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は情報処理装置および方法、並びに記録媒体に関し、特に、テレビ会議システムに参加している参加者の向いている方向を検出し、その検出された方向に従って、各会議室に設置されているスピーカから出力される音量や、ディスプレイに表示される画像を制御することにより、自分に注目している他の参加者を認識させるようにする情報処理装置および方法、並びに記録媒体に関する。
【0002】
【従来の技術】
複数の会議室をネットワークを用いて接続し、あたかも1つのテーブルを囲んで会議しているような遠隔会議システムが提案されている。このようなシステムにおける各会議室には、自分(参加者Aと称する)以外の参加者の映像を映し出すディスプレイと、そのディスプレイに映し出されている参加者の発言を出力するスピーカが備え付けられている。ディスプレイとスピーカは、参加者Aを除いた参加人数と同じ数だけ設置される。
【0003】
また、各会議室には、その会議室にいる参加者を撮像するためのビデオカメラと、音声を取り込む為のマイクロホンも備え付けられている。そのビデオカメラやマイクロホンは、各会議室に備え付けられているディスプレイの近傍(主に上部)に設置されている。ビデオカメラにより撮像された参加者Aの映像や、マイクロホンにより取り込まれた音声は、各会場に備え付けられた、参加者Aに対応するディスプレイとスピーカに出力される。
【0004】
【発明が解決しようとする課題】
上述した会議室の構成において、複数の参加者が同時に発言したとき、その発言は、それぞれの参加者に対応するスピーカから出力される。その結果、注目している参加者の発言を聞き取りづらくなってしまう課題があった。
【0005】
また、上述した会議室の構成では、ディスプレイの映像は、差異なく表示されているので、自分の発言に注目している参加者や、自分に対して話しかけている参加者とを区別することができず、自分に注目している参加者を認識することは困難であった。
【0006】
本発明はこのような状況に鑑みてなされたものであり、参加者の向いている方向を検出し、その検出された方向に従って、スピーカから出力される音量やディスプレイに表示される画像を制御することにより、自分に注目している参加者を認識させるようにするものである。
【0010】
【課題を解決するための手段】
本発明の情報処理装置は、被写体の画像を撮像する撮像手段と、被写体が発した音声を取り込む取り込み手段と、被写体の角度を検出する検出手段と、撮像手段により撮像された画像、取り込み手段により取り込まれた音声、および検出手段により検出された角度の、それぞれのデータを他の情報処理装置に送信する送信手段と、他の情報処理装置から送信された他の被写体を撮像した画像の画像データ、他の被写体が発した音声の音声データ、および他の被写体が向いている方向を示す角度データを受信する受信手段と、受信手段により受信された角度データが示す角度が、所定の条件を満たすか否かを判断することで、他の被写体が被写体の方向に向いていないと判断された場合、受信手段で受信された画像データに基づく画像の解像度を落として表示するための制御、または受信手段で受信された音声データに基づく音声の音量レベルを小さくして出力するための制御のうち、少なくとも一方を行う制御手段とを備えることを特徴とする。
【0011】
本発明の情報処理方法は、被写体の画像を撮像する撮像ステップと、被写体が発した音声を取り込む取り込みステップと、被写体の角度を検出する検出ステップと、撮像ステップで撮像された画像、取り込みステップで取り込まれた音声、および検出ステップで検出された角度の、それぞれのデータを他の情報処理装置に送信する送信ステップと、他の情報処理装置から送信された他の被写体を撮像した画像の画像データ、他の被写体が発した音声の音声データ、および他の被写体が向いている方向を示す角度データを受信する受信ステップと、受信ステップで受信された角度データが示す角度が、所定の条件を満たすか否かを判断することで、他の被写体が被写体の方向に向いていないと判断された場合、受信ステップの処理で受信された画像データに基づく画像の解像度を落として表示するための制御、または受信ステップの処理で受信された音声データに基づく音声の音量レベルを小さくして出力するための制御のうち、少なくとも一方を行う制御ステップとを含むことを特徴とする。
【0012】
本発明の記録媒体は、情報処理装置に、被写体の画像を撮像する撮像ステップと、被写体が発した音声を取り込む取り込みステップと、被写体の角度を検出する検出ステップと、撮像ステップで撮像された画像、取り込みステップで取り込まれた音声、および検出ステップで検出された角度の、それぞれのデータを他の情報処理装置に送信する送信ステップと、他の情報処理装置から送信された他の被写体を撮像した画像の画像データ、他の被写体が発した音声の音声データ、および他の被写体が向いている方向を示す角度データを受信する受信ステップと、受信ステップで受信された角度データが示す角度が、所定の条件を満たすか否かを判断することで、他の被写体が被写体の方向に向いていないと判断された場合、受信ステップの処理で受信された画像データに基づく画像の解像度を落として表示するための制御、または受信ステップの処理で受信された音声データに基づく音声の音量レベルを小さくして出力するための制御のうち、少なくとも一方を行う制御ステップとを含む処理を実行させるコンピュータが読みとり可能なプログラムを記録したことを特徴とする。
【0014】
本発明の情報処理装置および方法、並びに記録媒体においては、被写体の画像が撮像され、被写体が発した音声が取り込まれ、被写体の角度が検出され、撮像された画像、取り込まれた音声、および検出された角度の、それぞれのデータが他の情報処理装置に送信され、他の情報処理装置から送信された他の被写体を撮像した画像の画像データ、他の被写体が発した音声の音声データ、および他の被写体が向いている方向を示す角度データが受信され、受信された角度データが示す角度が、所定の条件を満たすか否かが判断されることで、他の被写体が被写体の方向に向いていないと判断された場合、受信された画像データに基づく画像の解像度を落として表示するための制御、または受信された音声データに基づく音声の音量レベルを小さくして出力するための制御のうち、少なくとも一方が行われる。
【0015】
【発明の実施の形態】
以下に本発明の実施の形態を説明するが、特許請求の範囲に記載の発明の各手段と以下の実施の形態との対応関係を明らかにするために、各手段の後の括弧内に、対応する実施の形態(但し一例)を付加して本発明の特徴を記述すると、次のようになる。但し勿論この記載は、各手段を記載したものに限定することを意味するものではない。また、従来の場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
【0017】
請求項1に記載の情報処理装置は、被写体の画像を撮像する撮像手段(例えば、図9の正面ビデオカメラ31−21)と、被写体が発した音声を取り込む取り込み手段(例えば、図9のマイクロホン32)と、被写体の角度を検出する検出手段(例えば、図10のステップS22)と、撮像手段により撮像された画像、取り込み手段により取り込まれた音声、および検出手段により検出された角度の、それぞれのデータを他の情報処理装置に送信する送信手段(例えば、図10のステップS23)と、他の情報処理装置から送信された他の被写体を撮像した画像の画像データ、他の被写体が発した音声の音声データ、および他の被写体が向いている方向を示す角度データを受信する受信手段(例えば、図9の送受信装置42)と、受信手段により受信された角度データが示す角度が、所定の条件を満たすか否かを判断することで、他の被写体が前記被写体の方向に向いていないと判断された場合、受信手段で受信された画像データに基づく画像の解像度を落として表示するための制御、または受信手段で受信された音声データに基づく音声の音量レベルを小さくして出力するための制御のうち、少なくとも一方を行う制御手段(例えば、図11のステップS33,S34)とを備えることを特徴とする。
【0018】
図1は、本発明の情報処理装置を適用したテレビ会議システムの構成を示している。なお、本明細書において、システムとは、複数の装置で構成される全体的な装置を表すものとする。図1に示されるように、複数(この実施の形態の場合、4つ)の通信センタ1−1乃至1ー4が、例えば、ISDN(Integrated Service Digital Network)などのネットワーク2を介して相互に接続されている。また、各通信センタは、例えば、図2に示すような1つの会議室を備えている。
【0019】
図2に示す会議室においては、1つのテーブル10、1つの椅子及び3台のディスプレイ装置が設けられている。例えば、通信センタ1−4の会議室においては、図2に示される番号4の位置に椅子が配置されており、番号1乃至3の位置にディスプレイ装置が配置されている。また、通信センタ1−3の会議室においては、図2に示される番号3の位置に椅子が配置されており、番号1,2、および4の位置にディスプレイ装置が配置されている。また、通信センタ1−2の会議室においては、図2に示される番号2の位置に椅子が配置されており、番号1,3、および4の位置にディスプレイ装置が配置されている。さらに、通信センタ1−1の会議室においては、図2に示される番号1の位置に椅子が配置されており、番号2乃至4の位置にディスプレイ装置が配置される。
【0020】
また、通信センタ1−4の会議室に配置されたディスプレイ装置において、図2に示される番号1の位置に配置されたディスプレイ装置には、通信センタ1−1の参加者を撮影した画像が表示され、番号2の位置に配置されたディスプレイ装置には、通信センタ1−2の参加者を撮影した画像が表示され、番号3の位置に配置されたディスプレイ装置には、通信センタ1−3の参加者を撮影した画像が表示されるようになされている。他の通信センタも同様に、参加者が座る椅子以外の位置に配置されたディスプレイ装置には、対応する通信センタの参加者を撮影した映像が表示されることになる。
【0021】
このように、それぞれの通信センタの会議室には、その通信センタの特定の位置に参加者が座るための椅子が配置されており、その他は、他の通信センタの参加者を表示するディスプレイ装置が配置されることになる。したがって、このように、会議室を構成することにより、どの通信センタの会議室においても、参加者の配置が同一の位置となる。すなわち、あたかも、テーブル10を中心にして、4人の参加者が、実際に特定の位置に配置されたような状態となる。ただし、各通信センタの会議室において、実在する参加者自身以外は、全てディスプレイ表示による参加者になるが、どの会議室においても、同様の会議状態が実現されていることになる。
【0022】
次に、各通信センタの詳細について、図3を用いて説明する。なお、各通信センタとも、ディスプレイ装置の配置状態は多少異なるが、ほぼ同一の構成であるため、ここでは、通信センタ1−4についてのみ説明し、他の通信センタ1−1乃至1−3の説明は省略する。
【0023】
まず、通信センタ1−4の会議室には、図2に示したように、番号4の位置に椅子が配置されており、番号1乃至3の位置にディスプレイ装置がそれぞれ配置されている。従って、図3に示される参加者24は、図2の番号4の位置に配置されている椅子に座ることになる。また、各ディスプレイ装置21乃至23には、参加者24の映像を取り込むために、参加者24の左側に設置されている左側面ビデオカメラ31−22、参加者24の正面に設置されている正面ビデオカメラ31−21、および参加者24の右側に設置されている右側面ビデオカメラ31−23が設けられている。さらに、その参加者24の発言を取り込むマイクロホン32−21乃至32−23(以下、マイクロホン32−21乃至32−23を個々に区別する必要がない場合、単にマイクロホン32と記述する。その他の装置に付いても同様に記述する)、他の通信センタからそれぞれ供給される音声を出力するスピーカ部33−21乃至33−23、およびその音声に対応する画像を表示するディスプレイ部34−21乃至34−23が設けられている。
【0024】
スピーカ部33−21乃至33−23とディスプレイ部34−21乃至34−23は、通信センタ1−1乃至1−3から送信されてきた画像とその画像に対応する音声をそれぞれ出力するようになされている。すなわち、例えば、ディスプレイ装置21のディスプレイ部34−21には、通信センタ1−1の参加者の画像が表示され、スピーカ部33−21からは、その参加者の発言が出力されるようになされている。また、ディスプレイ装置22のディスプレイ部34−22には、通信センタ1−2の参加者の画像が表示され、スピーカ部33−22からは、その参加者の発言が出力されるようになされている。さらに、ディスプレイ装置23のディスプレイ部34−23には、通信センタ1−3の参加者の画像が表示され、スピーカ部33−23からは、その参加者の発言が出力されるようになされている。
【0025】
また、ディスプレイ装置21に配置されている正面ビデオカメラ31−21は、通信センタ1−4の参加者24を撮影し、マイクロホン32−21は、その参加者24の発言を取り込み、その参加者24の画像と発言が、通信センタ1−1に供給される。また、ディスプレイ装置22に設置されている左側面ビデオカメラ31−22は、通信センタ1−4の参加者24を撮影し、マイクロホン32−22は、その参加者24の発言を取り込み、その参加者24の画像と発言が、通信センタ1−2に供給される。さらに、ディスプレイ装置23に設置されているビデオカメラ31−23は、通信センタ1−4の参加者24を撮影し、マイクロホン32−23は、その参加者24の発言を取り込み、その参加者24の画像と発言が、通信センタ1−3に供給される。
【0026】
そして、図3に示すように、ディスプレイ装置21乃至23は、参加者24が各ディスプレイ装置21乃至23のディスプレイ部34−21乃至34−23を見ることができるように、図2に示された所定の位置に配置されている。
【0027】
このような構成をもつ会議室において、参加者24が注目している参加者を検出し、その参加者に対応するディスプレイ装置21乃至23のスピーカ部33から出力される発言、または、ディスプレイ部34に映し出される映像を強調する方法について説明する。まず、発言を強調する場合を説明する。
【0028】
図4は、参加者24が注目している参加者を判断し、換言すれば、見ているディスプレイ装置21乃至23を判断し、その参加者の発言を強調するための処理を行うのに必要な装置を示したブロック図である。参加者24は、例えば頭部に、参加者24の向いている方向(角度)を検出するための角度検出装置41を装着する。この角度検出装置41は、例えば、磁気センサ、ジャイロ、角速度センサなどから構成され、参加者24の水平方向の顔の向きを検出する。
【0029】
演算装置42は、スピーカ部33−21乃至33−23と、それぞれ接続されており、角度検出装置41により検出された参加者24の顔の向きを基に、送受信装置43により受信された音声データが、各スピーカ部33から出力される際の音量を制御するようになされている。具体的には、参加者24が向いていると判断されたスピーカ部33の音量を、他のスピーカ部33よりも大きくする、または逆に、他のスピーカ部33の音量を参加者24が向いていると判断されたスピーカ部33の音量よりも小さくする。または、周波数を変化することにより、参加者24の顔の向きに応じて聞こえる音質を変化させるようにしても良い。すなわち、正面から聞こえてくる音以外の音は、壁などに反射した後に聞こえてくる音であるから、その壁の質にもよるが、一般的には、高い帯域の音声信号は減衰して聞こえる。このことを考慮し、参加者24が向いている方に存在するスピーカ部33以外のスピーカ部33から出力される音は、高い帯域の音声信号が減衰された音として出力されるようにしても良い。。
【0030】
ここでは、参加者24が向いていると判断されたスピーカ部33の音量を大きくすることにより、他のスピーカ部33から出力される音と区別が付くようにする場合を例に挙げて説明する。
【0031】
ここで、正面ビデオカメラ31−21、左側面ビデオカメラ31−22、および右側面ビデオカメラ31−23の配置について、図5を参照して説明する。角度dI1,dI2,dI3は、それぞれ正面ビデオカメラ31−21、左側面ビデオカメラ31−22、右側面ビデオカメラ31−23の角度を表している。ここでは、正面ビデオカメラ31−21の角度dI1を0度とする。そして、左側面ビデオカメラ31−22と、正面ビデオカメラ31−21との角度dI2をマイナス45度とし、ビデオカメラ31−23と、正面ビデオカメラ31−21との角度dI3を45度とする。そして、角度検出装置41で検出される参加者24の角度dI1に対しての角度を、角度d(−45度乃至45度)とする。
【0032】
角度Th2と角度Th3は、それぞれ、角度dI1となす所定の大きさの角度である。この角度は、参加者24が、どのビデオカメラ31に向いているのかを決定する際の閾値として用いられる。
【0033】
図6は、演算装置42の動作を説明するフローチャートである。ステップS1において、ユーザは、正面ビデオカメラ31−21に向かって座り、その時の角度検出装置41で検出された角度を、演算装置42は、初期値0度(角度dI1)として設定する。初期値が設定されたら、ステップS2に進み、角度検出装置41での、参加者24の顔の向きの検出が開始される。
【0034】
ステップS3において、演算装置42は、角度検出装置41で検出された角度dが閾値である角度Th2よりも小さいか否かが判断される。角度dが角度Th2よりも小さいと判断された場合、参加者24は、左側面ビデオカメラ31−22の方に向いていると判断され、ステップS4において、演算装置42は、スピーカ部33−22から出力される音量を、スピーカ部33−21とスピーカ部33−23よりも大きな音量で出力されるように制御する。
【0035】
一方、ステップS3において、角度dが角度Th2と等しいか、それよりも大きいと判断された場合、ステップS5に進み、角度dが角度Th3よりも大きいか否かが判断される。角度dが角度Th3よりも大きいと判断された場合、参加者24は、右側面ビデオカメラ31−23の方に向いていると判断され、ステップS6において、演算装置42は、スピーカ部33−23から出力される音量を、スピーカ部33−21とスピーカ部33−22よりも大きな音量で出力されるように制御する。
【0036】
ステップS5において、角度dが角度Th3と等しいか、それよりも小さいと判断された場合、換言すれば、角度dが、角度Th2≦角度d≦角度Th3の関係にあると判断された場合、参加者24は、正面ビデオカメラ31−21の方に向いていると判断され、ステップS7において、演算装置42は、スピーカ部33−21から出力される音量を、スピーカ部33−22とスピーカ部33−23よりも大きな音量で出力されるように制御する。
【0037】
ステップS2乃至ステップS7の処理が、会議中繰り返されることにより、スピーカ部33から出力される音量が、参加者24の向いている方向に対応して制御される。このフローチャートの処理は、会議が終了した時点で、割り込み処理として終了される。
【0038】
図7は、角度検出装置42により検出された参加者24の顔の向きにより、ディスプレイ部34に映し出される映像を制御する場合の構成例を示すブロック図である。この構成においては、送受信装置43で受信された画像データが、演算装置42を介して、それぞれ対応するディスプレイ部34−21乃至34−23に供給される。
【0039】
図7に示した演算装置42の動作について、図8のフローチャートを参照して説明するが、ステップS11乃至S13、およびステップS15の処理は、図6のステップS1乃至S3、およびステップS5の処理と同様の処理なので、その説明は省略する。
【0040】
ステップS13において、角度Th2よりも角度dの方が小さいと判断された場合、換言すれば、ディスプレイ部34−22に映し出されている参加者の方を向いていると判断された場合、ステップS14に進む。ステップS14において、演算装置42は、ディスプレイ部34−22に映し出された映像が、他のディスプレイ部34−21とディスプレイ部34−23に映し出されている映像よりも強調されるように制御する。具体的には、ディスプレイ部34−21とディスプレイ部34−23に映し出される映像の輝度を下げる、解像度を下げるなどの処理が行われる。
【0041】
ステップS15において、角度Th3よりも角度dの方が大きいと判断された場合、換言すれば、ディスプレイ部34−23に映し出されている参加者の方を向いていると判断された場合、ステップS16に進み、ディスプレイ部34−23に映し出された映像が、他のディスプレイ部34−21とディスプレイ部34−22に映し出されている映像よりも強調されるように制御される。また、ステップS15において、角度Th3よりも角度dの方が小さいと判断された場合、換言すれば、ディスプレイ部34−21の方を向いていると判断された場合、ステップS17に進み、ディスプレイ部34−21に映し出された映像が、他のディスプレイ部34−22とディスプレイ部34−23に映し出されている映像よりも強調されるように制御される。
【0042】
上述した説明においては、音声または映像のうち、一方を制御するようにしたが、両方とも制御するようにしてもよい。また、上述した説明では、参加者24の会議室に備え付けられているスピーカ部33やディスプレイ部34を制御するようにしたが、換言すれば、送受信装置43で受信されたデータを制御していたが、送信するデータを制御することにより同様の効果を得ることも可能である。以下に、送信するデータを制御する場合を、図9を参照して説明する。
【0043】
図9においては、演算装置42に正面ビデオカメラ31−21、左側面ビデオカメラ31−22、右側面ビデオカメラ31−23、およびマイクロホン32が接続されている。マイクロホン32は、図3においては、ディスプレイ装置21乃至23毎に設置されていたが、以下の実施の形態においては、1本のマイクロホン32が、参加者24の前に設置されているとして説明する。また、マイクロホン32は、参加者24の耳から装着できるタイプにすると、参加者24とマイクロホン32が常に一定の位置関係に保てるので、マイクロホン32を机の上などに固定しておくよりも良い。さらに、そのようなマイクロホン32を用いる場合、そのマイクロホン32の一部に、例えば、耳にかける枝の部分に角度検出装置41を装着することにより、頭上に付けるよりも目立たずに、角度を検出することが可能となる。
【0044】
図9に示した演算装置42の動作について、図10のフローチャートを参照して説明する。ステップS21において、図6のステップS1で説明した場合と同様に、角度検出装置41の初期化が行われる。ステップS22において、初期化された角度を基準に、角度検出装置41により角度検出が開始される。そして、ステップS23において、検出された角度は、演算装置42により、各ビデオカメラ31で撮像された画像と、マイクロホン32で取り込まれた音声とともに、送受信装置43に出力され、対応する会議室(通信センタ1−1乃至1−3)に送信される。
【0045】
図11のフローチャートを参照して、演算装置42が、他の通信センタから送信されたデータを受信した際の動作を説明する。ステップS31において、送受信装置43で受信されたデータは、通信センタ1−1から送信されたデータであるか否かが判断される。通信センタ1−1から送信されたデータであると判断された場合、ステップS32に進む。ステップS32において、受信された角度情報の角度dが、角度Th2以上、角度Th3以下であるか否かが判断される。角度dが角度Th2≦角度d≦角度Th3の関係にあると判断された場合、換言すれば、通信センタ1−1の参加者が参加者24が映し出されているディスプレイ装置の方を向いていると判断された場合、ステップS33に進み、演算装置42は、受信された画像データを、ディスプレイ部34−21に、解像度等に処理を加えないで出力する。
【0046】
一方、ステップS32において、角度Th2≦角度d≦角度Th3の関係ではないと判断された場合、ステップS34に進む。ステップS34において、演算装置42は、受信された画像データを、解像度が落とされて表示されるように処理し、ディスプレイ部34−21に出力する。
【0047】
ステップS31において、受信されたデータが通信センタ1−1から送信されたデータではないと判断された場合、ステップS35に進み、通信センタ1−2から送信されたデータであるか否かが判断される。受信されたデータが通信センタ1−2から送信されたデータであると判断された場合、ステップS36に進む。ステップS36において、受信された角度情報の角度dが、角度d>角度Th3の関係にあるか否かが判断される。角度dが、角度d>角度Th3の関係にあると判断された場合、換言すれば、通信センタ1−2の参加者が参加者24が映し出されているディスプレイ装置の方を向いていると判断された場合、ステップS33に進み、演算装置42は、受信された画像データを、ディスプレイ部34−22に、解像度等に処理を加えないで出力する。
【0048】
一方、ステップS36において、角度d>角度Th3の関係ではないと判断された場合、ステップS34に進む。ステップS34において、演算装置42は、受信された画像データを、解像度が落とされて表示されるように処理し、ディスプレイ部34−22に出力する。
【0049】
ステップS35において、受信されたデータが通信センタ1−2から送信されたデータではないと判断された場合、ステップS37に進み、通信センタ1−3から送信されたデータであるか否かが判断される。受信されたデータが通信センタ1−3から送信されたデータであると判断された場合、ステップS38に進む。ステップS38において、受信された角度情報の角度dが、角度d<角度Th2の関係にあるか否かが判断される。角度dが、角度d<角度Th2の関係にあると判断された場合、換言すれば、通信センタ1−3の参加者が参加者24が映し出されているディスプレイ装置の方を向いていると判断された場合、ステップS33に進み、演算装置42は、受信された画像データを、ディスプレイ部34−23に、解像度等に処理を加えないで出力する。
【0050】
一方、ステップS38において、角度d<角度Th2の関係ではないと判断された場合、ステップS34に進む。ステップS34において、演算装置42は、受信された画像データを、解像度が落とされて表示されるように処理し、ディスプレイ部34−23に出力する。
【0051】
ステップS37において、受信されたデータが通信センタ1−3から送信されたデータではないと判断された場合、ステップS39に進む。ステップS39に進むということは、通信センタ1−1乃至1−3のうちの、いずれの通信センタからも送信されたデータではないと判断された場合であるので、エラーが生じたと判断され、エラー処理が行われる。エラー処理としては、例えば、受信されたデータを破棄するなどである。
【0052】
上述した説明においては、ディスプレイ部34に映し出される画像が制御されるようにしたが、スピーカ部33から出力される音声を制御するようにしてもよい。
【0053】
このようにして、参加者が注目しているディスプレイ装置の情報(角度情報)とともに、画像データと音声データを送受信することにより、自分に注目している参加者を認識する事が可能となる。
【0054】
図12は、図9で示した演算装置42の他の動作を説明するフローチャートである。このフローチャートにおいて、図6のフローチャートと同様の処理は、その説明を省略する。
【0055】
ステップS41とステップS42の処理が終了され、ステップS43において、演算装置42が角度Th2が角度dよりも小さいと判断された場合、ステップS44に進む。角度Th2が角度dよりも小さいと判断された場合、参加者24は、左側面ビデオカメラ31−22の方に向いていると判断されたことになるので、演算装置42は、ステップS44において、正面ビデオカメラ31−21と右側面ビデオカメラ31−23から出力された画像データの、輝度を小さくする、または解像度を落とすなどの処理を施して、送受信装置43に出力する。この際、演算装置42は、マイクロホン32から出力されたデータを、正面ビデオカメラ31−21と右側面ビデオカメラ31−23から出力されたデータと共に送るとき、その音声データは、音量が小さくなるように制御し、送受信装置32に出力するようにしても良い。
【0056】
ステップS45において、角度Th3が角度dよりも小さいと判断された場合、ステップS46に進む。ステップS46において、正面ビデオカメラ31−21と左側面ビデオカメラ31−22から出力されるデータが制御され、送受信装置43に出力される。
【0057】
ステップS45において、角度Th3が角度dと等しいか、それよりも大きいと判断された場合、ステップS47に進む。ステップS47において、左側面ビデオカメラ31−21と右側面ビデオカメラ31−23から出力されるデータが制御され、送受信装置43に出力される。
【0058】
このようにして、制御され、送受信装置43に出力されたデータは、ステップS48において、それぞれ対応する通信センタ1−1乃至1−3に送信される。
【0059】
このように、送信されるデータを制御することにより、送信されるデータ量を減少させることができ、さらに、受信されたデータを再生することにより、臨場感があるテレビ会議を行うことが可能となる。
【0060】
上述した説明においては、参加者24の顔の向きを検出するのに、角度検出装置41を用いたが、予め、参加者24の顔の画像と角度を関連付けて記憶しておくことにより、同様の効果を得ることができる。図13に示した構成例では、記憶部51が新たに設けられ、演算装置42には、正面ビデオカメラ31−21、送受信装置43、および記憶部51が接続されている。
【0061】
参加者24は、正面ビデオカメラ31−21の前に座り、一定角度毎に、一時静止し、その時の画像を正面ビデオカメラ31−21に撮像させる。撮像された画像は、撮像された時の角度と関係づけられて、演算装置42を介して、記憶部51に記憶される。このようにして、記憶部51には、一定の角度毎に得られた参加者24の顔の画像が記憶される。
【0062】
このような構成において、得られた角度からスピーカ部33から出力される音量を制御する場合は、図4を参照して説明したのと同様に、演算装置42にスピーカ部33−21乃至33−23が接続される。また、得られた角度からディスプレイ部34の映像を制御する場合は、図7を参照して説明したのと同様に、演算装置42にディスプレイ部34−21乃至34−23が接続される。さらに、得られた角度から送信する画像データや音声データを制御する場合は、図9を参照して説明したのと同様に、演算装置42に正面ビデオカメラ31−21の他に、左側面ビデオカメラ31−22と右側面ビデオカメラ31−23も接続され、さらにマイクロホン32も接続される。
【0063】
図14のフローチャートを参照して、演算装置42の動作について説明する。ステップS51において、演算装置42は、正面ビデオカメラ31−21から得られた参加者24の顔の画像を、角度と関連付けて記憶部51に記憶させる。所定の枚数の画像が記憶されたら、ステップS52に進む。ステップS52において、参加者24の顔が向いている方向を判断するために、まず、参加者24の顔の画像が、正面ビデオカメラ31−21により撮像される。
【0064】
演算装置42は、記憶部51に記憶されている画像から、撮像された画像に近似する画像を検索する。その検索の仕方としては、例えば、正規化相関関数が用いられる。その正規化相関関数を以下に示す。
【数1】
この式において、Rは、ステップS51において、記憶部51に記憶されたリファレンス画像の画素値を示し、CはステップS52において、正面ビデオカメラ31−21により撮像された画像の画素値を示し、アルファベットの添字は、その画像の画素値の位置を示し、アルファベット上部の横線は、その画像の画素値の平均値を示す。
【0065】
式(1)により求められた値が、1に近ければ近いほど、相関が高い画像であることを示している。また、式(1)のように、画像毎の画素値の平均値を基準値として相関度を求めてもよいし、次式(2)に示すように、画像毎の画素値の平均値を用いない式により相関度を求めるようにしてもよい。
【数2】
【0066】
ステップS53において、式(1)または式(2)により、記憶部51に記憶されている画像と近似する画像(相関度が高い画像)が検索されたら、ステップS54において、その画像に関連付けられている角度情報が取得される。上述したように、記憶部51に記憶されている基準画像は、角度情報と関連づけられて記憶されているので、相関度が高いと判断された基準画像と関連付けられている角度を検索することにより、角度情報が得られる
【0067】
演算装置42は、取得された角度情報を用いて、例えば、図4に示したように、スピーカ部33を制御するようになされている場合、図6のステップS3以降の処理を行う。同様に、図7に示したように、ディスプレイ部34を制御するようにされている場合、図8のステップS13以降の処理を行う。
【0068】
このように、参加者24が演算装置41を装着しなくても、角度情報を予め記憶された画像との相関度を算出することにより求めることが可能である。
【0069】
なお、上述した実施の形態においては、水平方向の向きのみを検出の対象としたが、垂直方向の向きも検出するようにしても良い。垂直方向の向きも検出する場合、例えば、参加者24が所定の角度以上、下または上を向いているとき、水平方向に顔を動かしたとしても、その角度の検出は行わず、換言すると、音量や映像の制御を行わず、送受信装置43で送信するデータ、または受信したデータをそのまま送受信する。このようにすることで、例えば、参加者24が書類を見るために下を向いているときに、顔を左右に動かしたとしても、音声や映像が変化することがないので、注目していないのに音声や映像が変化するといった不都合を解消することができる。
【0070】
本明細書中において、上記処理を実行するコンピュータプログラムをユーザに提供する提供媒体には、磁気ディスク、CD-ROMなどの情報記録媒体の他、インターネット、デジタル衛星などのネットワークによる伝送媒体も含まれる。
【0071】
【発明の効果】
以上の如く本発明によれば、臨場感があるテレビ会議などを提供する事が可能となる。
【図面の簡単な説明】
【図1】本発明の情報処理装置を適用したテレビ会議システムの構成例を示す図である。
【図2】 テレビ会議システムにおける各通信センタの会議室の状態を示す図である。
【図3】図1における通信センタにおけるディスプレイ装置の配置状態を示す図である。
【図4】参加者の向きを検出する装置の構成を示すブロック図である。
【図5】ビデオカメラの配置を説明する図である。
【図6】図4に示した演算装置の動作を説明するフローチャートである。
【図7】参加者の向きを検出する装置の他の構成を示すブロック図である。
【図8】図7に示した演算装置の動作を説明するフローチャートである。
【図9】参加者の向きを検出する装置のさらに他の構成を示すブロック図である。
【図10】図9に示した演算装置の動作を説明するフローチャートである。
【図11】図9の送受信装置から送信された情報を受信した演算装置の動作を説明するフローチャートである。
【図12】図9に示した演算装置の他の動作を説明するフローチャートである。
【図13】参加者の向きを検出する装置のさらに他の構成を示すブロック図である。
【図14】図13に示した演算装置の動作を説明するフローチャートである。
【符号の説明】
1−1乃至1−6 通信センタ, 2 ネットワーク, 21−23 ディスプレイ装置, 35−21 正面ビデオカメラ, 35−22 左側面ビデオカメラ, 35−23 右側面ビデオカメラ, 36−21乃至36−23 マイクロホン, 37−21乃至37−23 ディスプレイ部, 38−21乃至38−23 スピーカ部, 41 角度検出装置, 42 演算装置, 43 送受信装置, 51 記憶部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus and method, and Record Regarding the media, in particular, the direction in which the participants participating in the video conference system are facing is detected, and the volume output from the speakers installed in each conference room and the display on the display according to the detected direction Processing apparatus and method for recognizing other participants who are paying attention to themselves by controlling the image to be displayed, and Record It relates to the medium.
[0002]
[Prior art]
There has been proposed a remote conference system in which a plurality of conference rooms are connected using a network and a conference is held as if surrounding a single table. Each conference room in such a system is equipped with a display that displays a video of a participant other than myself (referred to as participant A) and a speaker that outputs the speech of the participant displayed on the display. . The same number of displays and speakers as the number of participants excluding participant A are installed.
[0003]
Each conference room is also equipped with a video camera for capturing the participants in the conference room and a microphone for capturing audio. The video camera and microphone are installed in the vicinity (mainly at the top) of the display provided in each conference room. Participant A's video imaged by the video camera and audio captured by the microphone are output to a display and a speaker corresponding to the participant A provided at each venue.
[0004]
[Problems to be solved by the invention]
In the configuration of the conference room described above, when a plurality of participants speak at the same time, the speech is output from the speaker corresponding to each participant. As a result, there was a problem that it was difficult to hear the remarks of participants who were paying attention.
[0005]
Also, in the conference room configuration described above, the video on the display is displayed without difference, so it is possible to distinguish between participants who are paying attention to their speech and participants who are talking to themselves. It was difficult to recognize the participants who were paying attention to them.
[0006]
The present invention has been made in view of such circumstances, and detects the direction in which the participant is facing, and controls the sound volume output from the speaker and the image displayed on the display according to the detected direction. This makes it possible to recognize participants who are paying attention to themselves.
[0010]
[Means for Solving the Problems]
The information processing apparatus according to the present invention includes an imaging unit that captures an image of a subject, a capturing unit that captures sound generated by the subject, a detecting unit that detects an angle of the subject, an image captured by the imaging unit, and a capturing unit. Transmitted means for transmitting each data of the captured voice and the angle detected by the detecting means to the other information processing apparatus, and transmitted from the other information processing apparatus Images of other subjects image data, Of audio from other subjects Audio data, and Indicates the direction that other subjects are facing Receiving means for receiving angle data, and angle data received by the receiving means When it is determined that the other object is not facing the direction of the subject by judging whether the angle indicated by , Received by receiving means image data Image based on Control to display with reduced resolution, or Received by receiving means Audio data Based on voice The volume level of small And a control means for performing at least one of the control for output.
[0011]
The information processing method according to the present invention includes an imaging step for capturing an image of a subject, a capturing step for capturing sound produced by the subject, a detecting step for detecting the angle of the subject, an image captured in the capturing step, and a capturing step. A transmission step for transmitting each data of the captured voice and the angle detected in the detection step to another information processing device, and a transmission from the other information processing device. Images of other subjects image data, Of audio from other subjects Audio data, and Indicates the direction that other subjects are facing Reception step for receiving angle data, and angle data received at the reception step When it is determined that the other object is not facing the direction of the subject by judging whether the angle indicated by , Received during receive step processing image data Image based on Control to display with reduced resolution, or Received during receive step processing Audio data Based on voice The volume level of small And a control step for performing at least one of the control for output.
[0012]
The recording medium of the present invention includes an image capturing step for capturing an image of a subject, a capturing step for capturing sound produced by the subject, a detection step for detecting the angle of the subject, and an image captured by the imaging step. , A transmission step of transmitting each data of the voice captured in the capture step and the angle detected in the detection step to the other information processing device, and transmitted from the other information processing device Images of other subjects image data, Of audio from other subjects Audio data, and Indicates the direction that other subjects are facing Reception step for receiving angle data, and angle data received at the reception step When it is determined that the other object is not facing the direction of the subject by judging whether the angle indicated by , Received during receive step processing image data Image based on Control to display with reduced resolution, or Received during receive step processing Audio data Based on voice The volume level of small A computer-readable program for executing a process including a control step for performing at least one of the control for output did It is characterized by that.
[0014]
In the information processing apparatus and method and the recording medium of the present invention, an image of a subject is picked up, sound emitted from the subject is captured, the angle of the subject is detected, the captured image, captured sound, and detection Each data of the specified angle was sent to another information processing device and sent from another information processing device Images of other subjects image data, Of audio from other subjects Audio data, and Indicates the direction that other subjects are facing Angle data is received and received angle data When it is determined that the angle indicated by indicates whether or not a predetermined condition is satisfied, the other subject is not facing the direction of the subject. , Received image data Image based on Control to display with reduced resolution, or Received Audio data Based on voice The volume level of small Then, at least one of the control for outputting is performed.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below, but in order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, in parentheses after each means, The features of the present invention will be described with the corresponding embodiment (however, an example) added. However, of course, this description does not mean that each means is limited to the description. In addition, parts corresponding to those in the conventional case are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
[0017]
The information processing apparatus according to
[0018]
FIG. 1 shows a configuration of a video conference system to which an information processing apparatus of the present invention is applied. In the present specification, the system represents an overall apparatus composed of a plurality of apparatuses. As shown in FIG. 1, a plurality (four in this embodiment) of communication centers 1-1 to 1-4 are mutually connected via a
[0019]
In the conference room shown in FIG. 2, one table 10, one chair, and three display devices are provided. For example, in the conference room of the communication center 1-4, a chair is arranged at the position of the
[0020]
Further, in the display device arranged in the conference room of the communication center 1-4, an image obtained by photographing the participant of the communication center 1-1 is displayed on the display device arranged at the position of the
[0021]
As described above, the conference room of each communication center is provided with a chair for a participant to sit at a specific position of the communication center, and the others are display devices that display participants of other communication centers. Will be placed. Therefore, by configuring the conference room in this way, the participants are placed at the same position in the conference room of any communication center. That is, it is as if the four participants are actually placed at specific positions with the table 10 as the center. However, in the conference rooms of each communication center, all participants other than the actual participants themselves are participants by display display, but the same conference state is realized in any conference room.
[0022]
Next, details of each communication center will be described with reference to FIG. Each communication center has almost the same configuration although the arrangement of display devices is somewhat different. Therefore, only the communication center 1-4 will be described here, and the other communication centers 1-1 to 1-3 will be described. Description is omitted.
[0023]
First, in the conference room of the communication center 1-4, as shown in FIG. 2, a chair is arranged at the position of the
[0024]
The speaker units 33-21 to 33-23 and the display units 34-21 to 34-23 output the images transmitted from the communication centers 1-1 to 1-3 and the audio corresponding to the images, respectively. ing. That is, for example, an image of a participant of the communication center 1-1 is displayed on the display unit 34-21 of the
[0025]
Further, the front video camera 31-21 arranged in the
[0026]
And as shown in FIG. 3, the
[0027]
In the conference room having such a configuration, a participant who is paying attention to the participant 24 is detected, and a speech output from the speaker unit 33 of the
[0028]
FIG. 4 is necessary to determine the participant that the participant 24 is paying attention to, in other words, to determine the
[0029]
The
[0030]
Here, an example will be described in which the volume of the speaker unit 33 determined to be facing the participant 24 is increased so that the sound can be distinguished from the sound output from the other speaker units 33. .
[0031]
Here, the arrangement of the front video camera 31-21, the left side video camera 31-22, and the right side video camera 31-23 will be described with reference to FIG. Angle dI 1 , DI 2 , DI Three Are angles of the front video camera 31-21, the left side video camera 31-22, and the right side video camera 31-23, respectively. Here, the angle dI of the front video camera 31-21 1 Is 0 degrees. Then, the angle dI between the left video camera 31-22 and the front video camera 31-21. 2 Is 45 degrees, and the angle dI between the video camera 31-23 and the front video camera 31-21 is Three Is 45 degrees. Then, the angle dI of the participant 24 detected by the
[0032]
Angle Th 2 And angle Th Three Respectively, the angle dI 1 This is an angle of a predetermined size. This angle is used as a threshold for determining which video camera 31 the participant 24 is facing.
[0033]
FIG. 6 is a flowchart for explaining the operation of the
[0034]
In step S <b> 3, the
[0035]
On the other hand, in step S3, the angle d is equal to the angle Th. 2 If it is determined that the angle d is greater than or equal to, the process proceeds to step S5 where the angle d is equal to the angle Th. Three It is judged whether it is larger. Angle d is angle Th Three If it is determined that the volume is larger than that, the participant 24 is determined to be facing the right-side video camera 31-23, and in step S6, the
[0036]
In step S5, the angle d is an angle Th. Three In other words, the angle d is equal to the angle Th. 2 ≦ angle d ≦ angle Th Three If it is determined that the relationship is, the participant 24 is determined to be facing the front video camera 31-21, and in step S7, the
[0037]
By repeating the processes of step S2 to step S7 during the meeting, the volume output from the speaker unit 33 is controlled corresponding to the direction in which the participant 24 is facing. The process of this flowchart is terminated as an interruption process when the conference is terminated.
[0038]
FIG. 7 is a block diagram illustrating a configuration example in the case of controlling an image displayed on the
[0039]
The operation of the
[0040]
In step S13, the angle Th 2 If it is determined that the angle d is smaller than the angle d, in other words, if it is determined that the angle d is facing the participant shown on the display unit 34-22, the process proceeds to step S14. In step S14, the
[0041]
In step S15, the angle Th Three If it is determined that the angle d is larger than the angle d, in other words, if it is determined that the angle d is facing the participant shown on the display unit 34-23, the process proceeds to step S16, and the
[0042]
In the above description, one of audio and video is controlled, but both may be controlled. In the above description, the speaker unit 33 and the
[0043]
In FIG. 9, a front video camera 31-21, a left side video camera 31-22, a right side video camera 31-23, and a
[0044]
The operation of the
[0045]
With reference to the flowchart of FIG. 11, the operation when the
[0046]
On the other hand, in step S32, the angle Th 2 ≦ angle d ≦ angle Th Three If it is determined that the relationship is not, the process proceeds to step S34. In step S34, the
[0047]
In step S31, when it is determined that the received data is not data transmitted from the communication center 1-1, the process proceeds to step S35, and it is determined whether the received data is data transmitted from the communication center 1-2. The If it is determined that the received data is data transmitted from the communication center 1-2, the process proceeds to step S36. In step S36, the angle d of the received angle information is expressed as follows: angle d> angle Th Three It is determined whether or not there is a relationship. Angle d is such that angle d> angle Th Three In other words, if it is determined that the participant of the communication center 1-2 is facing the display device on which the participant 24 is projected, the process proceeds to step S33. The
[0048]
On the other hand, in step S36, angle d> angle Th Three If it is determined that the relationship is not, the process proceeds to step S34. In step S34, the
[0049]
In step S35, when it is determined that the received data is not data transmitted from the communication center 1-2, the process proceeds to step S37, and it is determined whether the received data is data transmitted from the communication center 1-3. The If it is determined that the received data is data transmitted from the communication center 1-3, the process proceeds to step S38. In step S38, the angle d of the received angle information is expressed as follows: angle d <angle Th 2 It is determined whether or not there is a relationship. Angle d is equal to angle d <angle Th 2 In other words, if it is determined that the participant of the communication center 1-3 is facing the display device on which the participant 24 is projected, the process proceeds to step S33. The
[0050]
On the other hand, in step S38, the angle d <angle Th 2 If it is determined that the relationship is not, the process proceeds to step S34. In step S <b> 34, the
[0051]
If it is determined in step S37 that the received data is not data transmitted from the communication center 1-3, the process proceeds to step S39. Proceeding to step S39 is a case where it is determined that the data is not transmitted from any of the communication centers 1-1 to 1-3, so that it is determined that an error has occurred and an error has occurred. Processing is performed. As the error processing, for example, received data is discarded.
[0052]
In the above description, the image displayed on the
[0053]
In this way, it is possible to recognize a participant who is paying attention to himself / herself by transmitting and receiving image data and audio data together with information (angle information) of the display device that the participant is paying attention to.
[0054]
FIG. 12 is a flowchart for explaining another operation of the
[0055]
The process of step S41 and step S42 is complete | finished, and the
[0056]
In step S45, the angle Th Three Is determined to be smaller than the angle d, the process proceeds to step S46. In step S46, data output from the front video camera 31-21 and the left side video camera 31-22 is controlled and output to the transmission /
[0057]
In step S45, the angle Th Three When it is determined that is equal to or greater than the angle d, the process proceeds to step S47. In step S <b> 47, data output from the left side video camera 31-21 and the right side video camera 31-23 is controlled and output to the transmission /
[0058]
In this manner, the data controlled and output to the transmission /
[0059]
In this way, the amount of data to be transmitted can be reduced by controlling the data to be transmitted, and further, a realistic video conference can be performed by reproducing the received data. Become.
[0060]
In the above description, the
[0061]
The participant 24 sits in front of the front video camera 31-21, pauses at fixed angles, and causes the front video camera 31-21 to capture an image at that time. The captured image is associated with the angle at which the image was captured and stored in the
[0062]
In such a configuration, when the volume output from the speaker unit 33 is controlled from the obtained angle, the speaker units 33-21 to 33- are connected to the
[0063]
The operation of the
[0064]
The
[Expression 1]
In this equation, R indicates the pixel value of the reference image stored in the
[0065]
The closer the value obtained by Equation (1) is to 1, the higher the correlation is. Further, the degree of correlation may be obtained by using the average value of the pixel values for each image as a reference value as shown in Expression (1), or the average value of the pixel values for each image as shown in Expression (2) The degree of correlation may be obtained by an expression that is not used.
[Expression 2]
[0066]
In step S53, when an image that approximates the image stored in the storage unit 51 (an image with a high degree of correlation) is retrieved by the equation (1) or equation (2), the image is associated with the image in step S54. Angle information is acquired. As described above, since the reference image stored in the
[0067]
For example, when the
[0068]
In this way, even if the participant 24 does not wear the
[0069]
In the above-described embodiment, only the horizontal direction is detected, but the vertical direction may also be detected. In the case of detecting the vertical direction as well, for example, when the participant 24 faces down or above a predetermined angle, even if the face is moved in the horizontal direction, the angle is not detected. The data transmitted by the transmission /
[0070]
In this specification, the medium for providing a computer program for executing the above processing to the user includes not only an information recording medium such as a magnetic disk and a CD-ROM, but also a transmission medium via a network such as the Internet and a digital satellite. .
[0071]
【The invention's effect】
As above According to the present invention, It is possible to provide a realistic video conference.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of a video conference system to which an information processing apparatus of the present invention is applied.
FIG. 2 is a diagram illustrating a state of a conference room of each communication center in the video conference system.
3 is a diagram showing an arrangement state of display devices in the communication center in FIG. 1. FIG.
FIG. 4 is a block diagram showing a configuration of an apparatus for detecting the orientation of a participant.
FIG. 5 is a diagram illustrating the arrangement of video cameras.
6 is a flowchart for explaining the operation of the arithmetic unit shown in FIG. 4;
FIG. 7 is a block diagram showing another configuration of an apparatus for detecting the orientation of a participant.
8 is a flowchart for explaining the operation of the arithmetic device shown in FIG. 7;
FIG. 9 is a block diagram showing still another configuration of an apparatus for detecting the orientation of a participant.
10 is a flowchart for explaining the operation of the arithmetic device shown in FIG. 9;
11 is a flowchart for explaining the operation of the arithmetic device that has received the information transmitted from the transmission / reception device of FIG. 9;
12 is a flowchart for explaining another operation of the arithmetic unit shown in FIG. 9;
FIG. 13 is a block diagram showing still another configuration of an apparatus for detecting the orientation of a participant.
14 is a flowchart for explaining the operation of the arithmetic unit shown in FIG. 13;
[Explanation of symbols]
1-1 to 1-6 Communication Center, 2 Networks, 21-23 Display Device, 35-21 Front Video Camera, 35-22 Left Side Video Camera, 35-23 Right Side Video Camera, 36-21 to 36-23 Microphone , 37-21 to 37-23 display unit, 38-21 to 38-23 speaker unit, 41 angle detection device, 42 arithmetic unit, 43 transmission / reception device, 51 storage unit
Claims (3)
被写体の画像を撮像する撮像手段と、
前記被写体が発した音声を取り込む取り込み手段と、
前記被写体の角度を検出する検出手段と、
前記撮像手段により撮像された画像、前記取り込み手段により取り込まれた音声、および前記検出手段により検出された角度の、それぞれのデータを前記他の情報処理装置に送信する送信手段と、
前記他の情報処理装置から送信された他の被写体を撮像した画像の画像データ、前記他の被写体が発した音声の音声データ、および前記他の被写体が向いている方向を示す角度データを受信する受信手段と、
前記受信手段により受信された角度データが示す角度が、所定の条件を満たすか否かを判断することで、前記他の被写体が前記被写体の方向に向いていないと判断された場合、前記受信手段で受信された画像データに基づく画像の解像度を落として表示するための制御、または前記受信手段で受信された音声データに基づく音声の音量レベルを小さくして出力するための制御のうち、少なくとも一方を行う制御手段と
を備えることを特徴とする情報処理装置。In an information processing apparatus that exchanges data with other information processing apparatuses via a network,
Imaging means for capturing an image of a subject;
Capturing means for capturing audio generated by the subject;
Detecting means for detecting an angle of the subject;
Transmitting means for transmitting respective data of the image captured by the imaging means, the sound captured by the capturing means, and the angle detected by the detecting means to the other information processing apparatus;
Image data of an image obtained by imaging another subject transmitted from the other information processing device , audio data of sound emitted from the other subject , and angle data indicating a direction in which the other subject is facing are received. Receiving means;
When it is determined that the angle indicated by the angle data received by the receiving unit satisfies a predetermined condition, and thus it is determined that the other subject is not facing the direction of the subject , the receiving unit At least one of the control for reducing the resolution of the image based on the image data received in the display and the control for reducing the volume level of the sound based on the audio data received by the receiving means An information processing apparatus comprising: control means for performing
被写体の画像を撮像する撮像ステップと、
前記被写体が発した音声を取り込む取り込みステップと、
前記被写体の角度を検出する検出ステップと、
前記撮像ステップで撮像された画像、前記取り込みステップで取り込まれた音声、および前記検出ステップで検出された角度の、それぞれのデータを前記他の情報処理装置に送信する送信ステップと、
前記他の情報処理装置から送信された他の被写体を撮像した画像の画像データ、前記他の被写体が発した音声の音声データ、および前記他の被写体が向いている方向を示す角度データを受信する受信ステップと、
前記受信ステップで受信された角度データが示す角度が、所定の条件を満たすか否かを判断することで、前記他の被写体が前記被写体の方向に向いていないと判断された場合、前記受信ステップの処理で受信された画像データに基づく画像の解像度を落として表示するための制御、または前記受信ステップの処理で受信された音声データに基づく音声の音量レベルを小さくして出力するための制御のうち、少なくとも一方を行う制御ステップと
を含むことを特徴とする情報処理方法。In an information processing method of an information processing apparatus that exchanges data with another information processing apparatus via a network,
An imaging step for capturing an image of a subject;
A capturing step for capturing audio generated by the subject;
A detection step of detecting an angle of the subject;
A transmission step of transmitting each data of the image captured in the imaging step, the sound captured in the capture step, and the angle detected in the detection step to the other information processing device;
Image data of an image obtained by imaging another subject transmitted from the other information processing device , audio data of sound emitted from the other subject , and angle data indicating a direction in which the other subject is facing are received. Receiving step;
If it is determined that the angle indicated by the angle data received in the receiving step satisfies a predetermined condition, and it is determined that the other subject is not facing the subject , the receiving step Control for reducing the resolution of the image based on the image data received in the process of the display, or for reducing the volume level of the sound based on the audio data received in the process of the reception step A control step for performing at least one of the information processing methods.
被写体の画像を撮像する撮像ステップと、
前記被写体が発した音声を取り込む取り込みステップと、
前記被写体の角度を検出する検出ステップと、
前記撮像ステップで撮像された画像、前記取り込みステップで取り込まれた音声、および前記検出ステップで検出された角度の、それぞれのデータを前記他の情報処理装置に送信する送信ステップと、
前記他の情報処理装置から送信された他の被写体を撮像した画像の画像データ、前記他の被写体が発した音声の音声データ、および前記他の被写体が向いている方向を示す角度データを受信する受信ステップと、
前記受信ステップで受信された角度データが示す角度が、所定の条件を満たすか否かを判断することで、前記他の被写体が前記被写体の方向に向いていないと判断された場合、前記受信ステップの処理で受信された画像データに基づく画像の解像度を落として表示するための制御、または前記受信ステップの処理で受信された音声データに基づく音声の音量レベルを小さくして出力するための制御のうち、少なくとも一方を行う制御ステップと
を含む処理を実行させるコンピュータが読み取り可能なプログラムを記録した記録媒体。To an information processing device that exchanges data with other information processing devices via a network,
An imaging step for capturing an image of a subject;
A capturing step for capturing audio generated by the subject;
A detection step of detecting an angle of the subject;
A transmission step of transmitting each data of the image captured in the imaging step, the sound captured in the capture step, and the angle detected in the detection step to the other information processing device;
Image data of an image obtained by imaging another subject transmitted from the other information processing device , audio data of sound emitted from the other subject , and angle data indicating a direction in which the other subject is facing are received. Receiving step;
If it is determined that the angle indicated by the angle data received in the receiving step satisfies a predetermined condition, and it is determined that the other subject is not facing the subject , the receiving step Control for reducing the resolution of the image based on the image data received in the process of the display, or for reducing the volume level of the sound based on the audio data received in the process of the reception step A recording medium storing a computer-readable program that executes a process including a control step that performs at least one of them.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31076698A JP4244416B2 (en) | 1998-10-30 | 1998-10-30 | Information processing apparatus and method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31076698A JP4244416B2 (en) | 1998-10-30 | 1998-10-30 | Information processing apparatus and method, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000138913A JP2000138913A (en) | 2000-05-16 |
JP4244416B2 true JP4244416B2 (en) | 2009-03-25 |
Family
ID=18009227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP31076698A Expired - Lifetime JP4244416B2 (en) | 1998-10-30 | 1998-10-30 | Information processing apparatus and method, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4244416B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1425909A4 (en) | 2001-08-07 | 2006-10-18 | Polycom Inc | System and method for high resolution videoconferencing |
DE102005012132A1 (en) * | 2005-03-16 | 2006-09-28 | Valenzuela, Carlos Alberto, Dr.-Ing. | Arrangement for conducting a video conference |
JP2010245946A (en) * | 2009-04-08 | 2010-10-28 | Toyota Motor Corp | Sound transmission apparatus |
JP5452158B2 (en) * | 2009-10-07 | 2014-03-26 | 株式会社日立製作所 | Acoustic monitoring system and sound collection system |
JP5942170B2 (en) * | 2011-03-08 | 2016-06-29 | パナソニックIpマネジメント株式会社 | Voice control device and voice control method |
JP5754595B2 (en) * | 2011-11-22 | 2015-07-29 | 日本電信電話株式会社 | Trans oral system |
JP5892797B2 (en) * | 2012-01-20 | 2016-03-23 | 日本放送協会 | Transmission / reception system, transmission / reception method, reception apparatus, and reception method |
JP5929243B2 (en) * | 2012-01-30 | 2016-06-01 | カシオ計算機株式会社 | Information processing apparatus, information processing method, and program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0652945B2 (en) * | 1988-08-24 | 1994-07-06 | 日本電信電話株式会社 | Video phone |
JPH0730877A (en) * | 1993-07-12 | 1995-01-31 | Oki Electric Ind Co Ltd | Inter-multi location multimedia communications conference system |
JPH07162532A (en) * | 1993-12-07 | 1995-06-23 | Nippon Telegr & Teleph Corp <Ntt> | Inter-multi-point communication conference support equipment |
JP3263253B2 (en) * | 1994-09-01 | 2002-03-04 | シャープ株式会社 | Face direction determination device and image display device using the same |
JPH0981475A (en) * | 1995-09-18 | 1997-03-28 | Toshiba Corp | Information terminal equipment |
JP4363672B2 (en) * | 1996-04-05 | 2009-11-11 | ソニー株式会社 | Video conference system and method, and communication center |
JPH09275533A (en) * | 1996-04-08 | 1997-10-21 | Sony Corp | Signal processor |
JPH1066057A (en) * | 1996-08-19 | 1998-03-06 | Sony Corp | Remote supervisory equipment |
-
1998
- 1998-10-30 JP JP31076698A patent/JP4244416B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2000138913A (en) | 2000-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8115799B2 (en) | Method and apparatus for obtaining acoustic source location information and a multimedia communication system | |
KR100639750B1 (en) | Communication apparatus and method | |
JP4872871B2 (en) | Sound source direction detecting device, sound source direction detecting method, and sound source direction detecting camera | |
JP6651989B2 (en) | Video processing apparatus, video processing method, and video processing system | |
US11095849B2 (en) | System and method of dynamic, natural camera transitions in an electronic camera | |
TWI311286B (en) | ||
US10447970B1 (en) | Stereoscopic audio to visual sound stage matching in a teleconference | |
US20080246833A1 (en) | Video conferencing apparatus, control method, and program | |
JP2003506927A (en) | Method and apparatus for allowing video conferencing participants to appear in front of an opponent user with focus on the camera | |
JP4244416B2 (en) | Information processing apparatus and method, and recording medium | |
JPH09275533A (en) | Signal processor | |
JPH08163522A (en) | Video conference system and terminal equipment | |
JP6149433B2 (en) | Video conference device, video conference device control method, and program | |
JP4501037B2 (en) | COMMUNICATION CONTROL SYSTEM, COMMUNICATION DEVICE, AND COMMUNICATION METHOD | |
JP2000132693A (en) | Device and method for processing picture, and providing medium | |
JP2011066467A (en) | Television conference terminal apparatus, method for controlling voice of the same, and voice control program | |
JP2007251355A (en) | Relaying apparatus for interactive system, interactive system, and interactive method | |
JP2006339869A (en) | Apparatus for integrating video signal and voice signal | |
JP2009027246A (en) | Television conference apparatus | |
JPS62209985A (en) | Video conference equipment | |
JPH01206765A (en) | Video conference system | |
JP4300437B2 (en) | Image processing apparatus and method, and recording medium | |
JP7111202B2 (en) | SOUND COLLECTION CONTROL SYSTEM AND CONTROL METHOD OF SOUND COLLECTION CONTROL SYSTEM | |
JP2005110103A (en) | Voice normalizing method in video conference | |
TWI799048B (en) | Panoramic video conference system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071116 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080930 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081216 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081229 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120116 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130116 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |