JP4501171B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP4501171B2 JP4501171B2 JP07437899A JP7437899A JP4501171B2 JP 4501171 B2 JP4501171 B2 JP 4501171B2 JP 07437899 A JP07437899 A JP 07437899A JP 7437899 A JP7437899 A JP 7437899A JP 4501171 B2 JP4501171 B2 JP 4501171B2
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- image
- unit
- user
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Video Image Reproduction Devices For Color Tv Systems (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像処理装置に関し、特に、テレビ会議システムにおいて、テレビ会議出席者の視線とビデオカメラの目線とを一致させることができるようにした画像処理装置に関する。
【0002】
【従来の技術】
遠隔地に位置する複数の人の間で、画像、音声、データなどを通信し、意志の疎通を図るシステムとして、テレビ電話システムやテレビ会議システムがある。これらのシステムは、既に実用段階にあり、ビジネス用途を中心に普及しつつある。
【0003】
これらのシステムにおいては、人の顔を撮像し、また、その音声を取り込むために、ビデオカメラとマイクロホンが用意されている。さらに、相手側から伝送されてきた画像と音声を出力するために、モニタとスピーカが用意されている。通常、ビデオカメラは、モニタの周辺(例えば、上部、下部、または側面)に設置される。
【0004】
また、テレビ会議システムにおいて、多くの人数で会議を行うような場合、コスト的な問題やオフィス環境の狭さなどの理由に基づき、参加者全員の顔の画像をモニタ上にタイル状に並べて表示することが多い。そして、出席者の数が多くなった場合、画像のサイズを小さくして(1つのタイルの大きさを小さくして)、多くの参加者の画像を表示するようにしている。
【0005】
【発明が解決しようとする課題】
しかしながら、ビデオカメラをモニタの周辺に配置すると、モニタの中心とビデオカメラの目線とは一致しない。その結果、通常、使用者は、ビデオカメラではなく、モニタを見ながら、そのモニタに写されている相手に話をするため、例えば、ビデオカメラがモニタの上部に設置されている場合、モニタに写し出される相手の顔は、若干うつ向き加減の画像となる。ビデオカメラがモニタの下部に設置されている場合、逆に、モニタに写し出された相手の顔は、上向き加減の画像となる。いずれの場合にも、不自然な画像となり、使用者は違和感を覚えることがあった。
【0006】
また、参加者の画像をタイル状に表示すると、全ての人が自分に向かって話をしているかのように感じられ、やはり実際の会議におけるような臨場感を得ることができない課題があった。
【0007】
さらに、参加者の数の増加にともなって、画像のサイズを小さくすると、参加者の顔が見にくくなり、自然なコミュニケーションを図ることができなくなる課題があった。
本発明はこのような状況に鑑みてなされたものであり、参加者の視線とカメラ目線とを一致させることができるようにするものである。
【0008】
また、本発明は、参加者が多くても、自然な臨場感で会議に参加することができるようにするものである。
【0012】
【課題を解決するための手段】
請求項1に記載の画像処理装置は、所定の数の端末によりユニットを構成し、複数のユニットを仮想空間内の所定の位置に配置する配置手段と、配置手段による配置に対応して、各端末の撮像手段により撮像された画像に基づいて生成された、端末の仮想空間内の配置位置から見た仮想空間内の各端末の画像が端末において表示されるように、ユニットの各端末の画像の表示を制御する制御手段と、端末の使用者の移動入力を検出し、検出された移動入力により示される移動先のユニットを構成する端末が予め定められた特定の数より少ない場合、端末が移動先のユニットを構成するように、仮想空間内で端末を移動先のユニットの配置位置に移動させる移動手段とを含むことを特徴とする。
【0016】
請求項1に記載の画像処理装置においては、所定の数の端末によりユニットが構成され、複数のユニットが仮想空間内の所定の位置に配置される。
【0017】
【発明の実施の形態】
図1は、本発明を適用した画像処理システムの構成例を示す図である。この構成例においては、複数の端末1−1乃至1−6が、ネットワーク3を介して、マスターサーバ2と接続されている。ネットワーク3は、インターネットなどのほか、イントラネットあるいはLAN(Local Area Network)などで構成することができる。
【0018】
図2は、端末1(以下、端末1−1乃至1−6を個々に区別する必要がない場合、単に端末1と称する。その他の装置についても同様とする)の構成を表している。検出装置11は、後述する図3に示す使用者51の顔の向きまたは視線の方向を検出する。検出装置11の検出結果は、A/D変換器15によりA/D変換された後、演算装置19に入力される。意志入力装置12は、例えばキーボード、マウス、ジョイスティックなどにより構成され、必要に応じて使用者により操作される。意志入力装置12より入力された信号は、A/D変換器16によりA/D変換された後、演算装置19に入力される。
【0019】
音響入力装置13は、例えばマイクロホンにより構成され、使用者の音声を取り込む。音響入力装置13より入力された音響信号は、A/D変換器17によりA/D変換された後、演算装置19に入力される。画像入力装置14は、例えばビデオカメラにより構成され、画像入力装置14より入力された画像信号は、A/D変換器18によりA/D変換された後、演算装置19に入力される。
【0020】
音声再生装置22は、例えばスピーカにより構成され、演算装置19より入力されたデジタル音声信号がD/A変換器20によりD/A変換された後、入力される。音声再生装置22は、入力された音声信号を出力する。映像表示装置23は、例えばLCD(Liquid Crystal Display)よりなるスクリーンと、そのスクリーンに画像を投映するプロジェクタにより構成され、演算装置19より出力されたデジタル画像データがD/A変換器21によりD/A変換された後、入力される。映像表示装置23は、入力された映像信号を表示する。また、図3を参照して後述するように、画像入力装置14は、映像表示装置23を介して、使用者を撮像する。そこで、演算装置19は、映像表示装置23を制御し、その画像を表示するタイミングと、画像入力装置14により画像を撮像するタイミングとを制御する。
【0021】
演算装置19は、例えばパーソナルコンピュータなどにより構成することができる。送受信装置24は、例えばモデムなどにより構成され、ネットワーク3を介して、マスターサーバ2と通信する。
【0022】
図3は、端末1を構成する各装置の配置を表している。端末1の使用者51は、映像表示装置23を構成するプロジェクタ44により、スクリーン45に表示された他の端末の使用者の画像を観察する。スクリーン45の後方には、音響入力装置13を構成するマイクロホン41、画像入力装置14を構成するビデオカメラ42、および音声再生装置22を構成するスピーカ43が配置されている。マイクロホン41は、使用者51の発生する音声信号を取り込み、スピーカ43は、使用者51に伝達する他の使用者からの音声信号を出力する。
【0023】
ビデオカメラ42は、スクリーン45を介して、使用者51を撮像する。スクリーン45は、LCDにより構成され、演算装置19により、時分割動作するように制御される。すなわち、スクリーン45は、プロジェクタ44の画像を表示するとき、光を透過しないように制御され、ビデオカメラ42から使用者51を撮像するとき、光を透過するように制御される。演算装置19は、プロジェクタ44による画像をスクリーン45に表示させるとき、ビデオカメラ42による撮像を中止させ、プロジェクタ44より照射された画像をスクリーン45に表示させ、使用者51に観察させる。また、演算装置19は、ビデオカメラ42により使用者51の画像を取り込むタイミングにおいて、プロジェクタ44の動作を停止させ、スクリーン45を光を透過する状態に制御する。従って、ビデオカメラ42は、スクリーン45を介して、使用者51の画像を撮像することができる。
【0024】
図4は、マスターサーバ2の構成例を表している。入力装置31は、キーボード、マウスなどにより構成され、管理者が各種の指令を入力するとき操作する。演算装置32は、入力装置31からの指令に対応して、各種の処理を実行する。記憶装置34は、ハードディスク、磁気ディスク、光磁気ディスクなどにより構成され、演算装置32が実行する各種のデータやプログラムなどを記憶する。送受信装置33は、例えばモデムなどにより構成され、演算装置32により制御され、ネットワーク3を介して、端末1と通信する。
【0025】
端末1は、この例の場合、図5に示すように、合計4台のビデオカメラ42F,42R,42L,42Bを有している。ビデオカメラ42F,42R,42Lは、使用者51から見て、スクリーン45の裏側に配置されている。ビデオカメラ42Fは、使用者51の顔を正面から撮像する位置に配置され、ビデオカメラ42Rは、使用者51の顔を右側から撮像する位置に配置され、ビデオカメラ42Lは、使用者51の顔を左側から撮像する位置に配置されている。ビデオカメラ42Bは、使用者51の後方に配置され、使用者51を後方から撮像する。
【0026】
いずれの端末1においても、各ビデオカメラは、同様に配置されている。
【0027】
マスターサーバ2の演算装置32は、自己が管理する仮想空間内において、4つの端末1を図6に示すように正方形状に配列することで、1つのユニットを構成させる。図6の例においては、端末1−1のビデオカメラが下中央に配置され、端末1−2のビデオカメラが、その右上に配置され、端末1−3のビデオカメラが、その上側に配置され、端末1−4のビデオカメラが、左上側に配置される。勿論、実際には、各端末1−1乃至1−4は、仮想空間において、それぞれ独立した位置に配置されているものであり、図6に示す配置は、あくまでマスターサーバ2が管理する仮想空間上での配置である。
【0028】
換言すれば、演算装置32は、端末1−1乃至1−4をこのように配置することで、図7に示すように、仮想空間上に、テーブルTと、その周囲に座席S1乃至S4が配置された状態を1つのユニットとして管理する。すなわち、演算装置32は、端末1−1乃至1−4の使用者が、それぞれ仮想空間上の座席S1乃至S4に座り、会議をしている状態を想定して、各スクリーン45−1乃至45−4の画像の表示を制御する。
【0029】
さらに、演算装置32は、図8に示すように、仮想空間60に、3つのテーブルT1乃至T3を配置する。この例では、テーブルT1が仮想空間60の下方中央に配置され、テーブルT2は、その右側に配置され、テーブルT3は、その左側に配置されている。なお、図8において、各ビデオカメラとスクリーンの数字の最後に、テーブルT1のものには、−1を付加し、テーブルT2のものには、−2を付加し、テーブルT3のものには、−3を付加して表している。
【0030】
演算装置32が管理している図8の仮想空間60を簡略化して図示すると、図9に示すようになる。テーブルT1には、A乃至Dの4つの座席が用意され、テーブルT2には、E乃至Hの4つの座席が用意され、テーブルT3には、I乃至Lの4つの座席が用意される。各端末1の使用者は、マスターサーバ2にアクセスしたとき、仮想空間60の図9に示すようなテーブルの配置図の提供を受け、所望のテーブルの座席を指定することで、この仮想空間60における会議に出席する。
【0031】
例えば、端末1の使用者がテーブルT1の座席Aを自らの座席として取得した場合、マスターサーバ2の演算装置32は、その端末1のスクリーン45に対して、図10に示すような画像を表示させる。すなわち、スクリーン45には、自分自身が座っている座席AのテーブルT1の他の座席B乃至Dに座っている他の端末1の使用者b乃至dの画像がテーブルT1の周囲に表示される。同様に、テーブルT2の周囲には、座席E乃至Hに座っている各端末1の使用者の画像e乃至hが表示され、テーブルT3の周囲には、座席I乃至Lに座っている使用者の画像i乃至lが表示される。
【0032】
次に、図11と図12のフローチャートを参照して、このテレビ会議システムの動作について説明する。端末1の演算装置19は、使用者が意志入力装置12を操作することでテレビ会議システムへの出席を指令すると、ステップS1において、送受信装置24を制御し、ネットワーク3を介して、マスターサーバ2に対してアクセスさせ、テレビ会議システムの現在の接続状況を紹介する。演算装置19は、ステップS2において、マスターサーバ2から接続状況照会に対する応答があったか否かを判定し、応答がない場合には、ステップS3に進み、接続要求の回数が予め設定されている所定の閾値Nより小さいか否かを判定する。接続要求回数が閾値Nより小さい場合には、ステップS1に戻り、再び接続状況照会処理を実行する。
【0033】
以上のようにして、マスターサーバ2に対して、N回接続状況照会を行っても応答がない場合には、端末1の演算装置19は、処理を終了させる。
【0034】
マスターサーバ2の演算装置32は、送受信装置33を介して、端末1から接続状況照会の要求を受けたとき、記憶装置34に記憶されている仮想空間60の現在の接続状況を調べ、空いている座席があるか否かを判定する。空いている座席がない場合には、演算装置32は、端末1に対して応答しない。従って、このような場合には、端末1は、テレビ会議に出席することができないことになる。
【0035】
マスターサーバ2の演算装置32は、仮想空間60の座席に空きがある場合には、ステップS4において、現在の接続状況を示す画像を生成し、送受信装置33から、端末1にネットワーク3を介して送信する。端末1の演算装置19は、送受信装置24を介してマスターサーバ2からの応答を受信したとき、ステップS4において、受信したデータに対応する画像を、D/A変換器21を介して、映像処理装置23を構成するプロジェクタ44に供給し、スクリーン45に表示させる。これにより、スクリーン45には、例えば図13に示すような、各テーブルと座席の位置が表示される。各座席は、空いている席と他の使用者が既に座っている席とが識別できるように表示される。図13の例においては、ハッチングを施して示す席が、他の使用者が座っている席であり、ハッチングを施していない席が空いている席である。従って、図13の例では、席A,D,Gが空いており、その他の席は、他の使用者が既に使用している。
【0036】
使用者は、図13に示す表示を見て、ステップS5において、意志入力装置12を操作して、空いている座席の中から取得を希望する座席を入力するとともに、ログインを要求する。例えば使用者が座席Aを指定する場合、キーボードで文字Aのキーを操作する。演算装置19は、意志入力装置12からの入力に対応するデータを、送受信装置24を介して、マスターサーバ2に送信する。
【0037】
ステップS6において、演算装置19は、マスターサーバ2からログインOKの信号を受信したか否かを判定し、ログインOKの信号を受信できなかった場合には、ステップS7に進み、接続要求回数が予め設定してある所定の閾値Nより小さいか否かを判定する。接続要求回数が閾値Nより小さい場合には、ステップS5に戻り、それ以降の処理が繰り返し実行される。接続要求回数が閾値Nと等しいか、それより大きくなった場合には、演算装置19は処理を終了させる。
【0038】
マスターサーバ2の演算装置32は、ログインがOKであると判定した場合、ステップS8に進み、ステップS5で端末1から指定された座席に、その端末1を割り当て、仮想空間60内における接続を変更する。これにより、例えば図13に示す座席Aに新たな端末1が割り当てられた状態が、現在の仮想空間60の接続状況ということになる。マスターサーバ2の演算装置32は、この接続状況に対応する画像を記憶装置34から読み出し、送受信装置33を介して、端末1に送信する。
【0039】
端末1の演算装置19は、送受信装置24を介して、このデータを受信したとき、対応する画像をスクリーン45に表示させる。これにより、スクリーン45には、いまの場合、例えば図14に示すような画像が表示される。すなわち、テーブルT3には、4つの各座席I乃至Lに座っている各端末の使用者の画像i乃至lが表示される。テーブルT2の周囲には、座席Gを除く座席E,FおよびHに座っている使用者の画像e,f,hが表示される。テーブルT1には、座席BとCにそれぞれ座っている使用者の画像b,cが表示される。座席DとHは空席であるため、画像が表示されていない。自分が位置するテーブルT1の座席の画像b,cは、他のテーブルT2,T3の画像e,f,h乃至lより大きく表示される。
【0040】
検出装置11は、使用者がテレビ会議に出席すると、使用者の顔の向きもしくは視線の方向を検出する。検出結果は、演算装置19から、送受信装置20を介して、マスターサーバ2に送信される。
【0041】
マスターサーバ2の演算装置32は、端末1からの方向の検出データを受信し、ステップS9において、端末1の使用者が予め設定してある一定時間以上同一の方向を注視しているか否かを判定する。同一の方向を一定時間以上注視していなければ、ステップS9の処理が繰り返し実行される。
【0042】
使用者がいずれの方向を向いているかは、図14に示すように、使用者が向いている方向として検出された角度θ1を、図15に示すように、仮想空間60上の角度θ2に換算することで判定される。
【0043】
演算装置32は、端末1の使用者51が一定時間以上所定の方向を注視していると判定した場合、ステップS10に進み、その注視者(所定の方向を注視している使用者)が位置するテーブルからの音量を制限する。例えば、テーブルT1の座席Aに座っている使用者が、テーブルT2の座席Gを一定時間以上注視している場合、その使用者は、いまテーブルT1の会話には興味をもっていないものと判断し、テーブルT1の座席Bまたは座席Cに座っている使用者からの音声のボリュームを減少させる。あるいはまた、図14に示す座席Bに座っている使用者の画像bと座席Cに座っている使用者の画像cを小さくさせる。同様に、座席Bと座席Cに座っている使用者の端末1に提供する座席Aの使用者の音声のボリュームを減少させるとともに、その画像aを小さくさせる。これにより、例えばテーブルT1の座席B,Cに座っている使用者は、座席Aに座っている使用者がいま会話に興味を示していないことを知ることができる。
【0044】
次に、ステップS11に進み、演算装置32は、注視されているテーブルの使用者に対する表示画像上の注視者の画像を大きく表示させる。いまの場合、座席Aの使用者がテーブルT2の座席Gを注視しているので、テーブルT2の座席E,F,Hを使用している使用者から見た使用者Aの画像aを他の画像に較べて大きく表示させる。
【0045】
すなわち、テーブルT2の座席Fに座っている使用者の端末のスクリーン45には、図16に示すような画像が表示されている。自分自身が座っているテーブルT2に座っている使用者の画像e,hは、遠いテーブルT1,T3の座席に座っている使用者の画像a乃至d,i乃至lに較べて大きく表示されている。座席Aに座っている使用者の画像aも、遠いテーブルT1の画像であるから、座席Aの使用者がテーブルT2を注視しなければ、他の画像b乃至dと同じ大きさで表示されるのであるが、座席Aの使用者が、一定時間以上テーブルT2を注視すると、テーブルT2の使用者がこれに気付くことができるように、座席Aの使用者の画像aが、図16に2点鎖線で示すように大きく表示される。このときまた、座席Aからの音声もテーブルT2の使用者に対して大きく出力させるようにしてもよい。これにより、テーブルT2の使用者は、座席Aの使用者がテーブルT2に移動していくるかもしれないということを予め推察することができる。
【0046】
なお、画像aを大きく表示する以外に、他に較べて明るく表示させたり、点滅させたりしてもよい。
【0047】
ステップS12において、演算装置32は、さらに一定時間以上使用者が同一方向を注視しているか否かを判定し、使用者が途中で注視を中止した場合には、ステップS9に戻り、それ以降の処理を繰り返し実行する。使用者がさらに一定時間注視したままである場合には、ステップS13に進み、演算装置32は、使用者が注視している方向に空いている座席があるか否かを判定する。空いている座席がない場合には、ステップS9に戻り、それ以降の処理が繰り返し実行される。空いている座席がある場合には、ステップS14に進み、端末1の演算装置19は、マスターサーバ2に対して、意志入力装置12から所定の座席への移動が要求された場合と同様の処理を実行する。すなわち、演算装置19は、マスターサーバ2に対して、座席Gへの移動を要求する。
【0048】
マスターサーバ2の演算装置32は、端末1の演算装置19から移転の要求を受けたとき、ステップS15において、これをOKするか否かを判定する。他の使用者が既にその座席の取得を申し込んできたような場合には、この要求は拒否され、ステップS9に戻り、それ以降の処理が実行される。その座席が空いている場合には、マスターサーバ2の演算装置32は、この要求に対応して、その座席を端末1に割り当てる。このため、ステップS8に戻り、演算装置32は、座席Gを端末1のユーザに割り当てる処理を実行する。
【0049】
その結果、座席Gに移動した端末1のスクリーン45には、それまでの図14に示すような画像から、図17に示すような画像に切り替えられる。
【0050】
なお、一定時間以上の注視は、各端末側で検出するようにしてもよい。また、移動の意思表示は、その方向を使用者が指で示すジェスチャで行ったり、キーボード、マウス、ジョイスティックなどの機械的な操作で行うようにしてもよい。
【0051】
以上においては、スクリーン45を1つとし、そこに仮想空間60上の全てのテレビ会議出席者の画像を表示するようにしたが、例えば図18に示すように、自分自身が座っている座席のテーブルT1の座席に座っている使用者の画像を表示するスクリーン45BL,45BC,BRを、その他のテーブルT2乃至T4の座席に座っている使用者の画像を表示するスクリーン45Aと独立した構成にすることもできる。このようにすることで、より臨場感に富んだシステムを実現することができる。
【0052】
また、図18に示す例においては、自分が座っているテーブルT1の画像は、自分を中心として、その正面のスクリーン45BCに、自分と反対側の座席に座っている使用者の画像cを表示し、その右側のスクリーン45BRに、自分の右側の座席に座っている使用者の画像bを表示し、その左側のスクリーン45BLに、左側の座席に座っている使用の画像dを表示しているが、スクリーン45Aにおいては、例えばテーブルT2に示すように、2つの座席GとHに座っている使用者の画像gとhを正面の画像として表示し、手前の2つの座席EとFに座っている使用者の画像eとfを、それぞれ右側から見た画像と左側から見た画像としている。
【0053】
このように、画像を表示する場合、マスターサーバ2の演算装置32は、仮想空間60を例えば図19に示すように管理する。テーブルT1のスクリーン45BCに表示する画像cは、ビデオカメラ42F−3−1で撮像した画像とし、スクリーン45BRに表示する画像bは、ビデオカメラ42L−2−1で撮像した画像とし、スクリーン45BLに表示する画像dは、ビデオカメラ42R−4−1で撮像した画像とする。これに対して、例えばテーブルT2の画像gは、ビデオカメラ42F−3−2で撮像した画像とし、画像hは、ビデオカメラ42F−4−2で撮像した画像とし、画像eは、ビデオカメラ42R−1−2で撮像した画像とし、画像fは、ビデオカメラ42L−2−2で撮像した画像とすることができる。
【0054】
このようにすれば、後ろ向きの画像がなくなり、出席者をより容易に確認することが可能となる。従って、この場合には、使用者を後方から撮像するビデオカメラ42Bが不要となる。
【0055】
なお、例えば図10に示すように、自分のテーブルの画像も、他のテーブルの画像と同様に、1つのスクリーン45に表示させる例においても、自分のテーブルと他のテーブルとで、座席の配置が若干異なるようにしてもよいのであれば、各端末1の後方のビデオカメラ42Bを省略することができる。
【0056】
図20は、各端末1におけるプロジェクタ、ビデオカメラ、およびスクリーンの他の配置例を示している。この例においては、使用者51の前方に、ビデオカメラ42Fが、後方にビデオカメラ42Bが、正面左側にビデオカメラ42Lが、正面右側にビデオカメラ42Rが、それぞれ配置されている。このことは、図5における場合と同様であるが、この例では、スクリーン45がサラウンドスクリーンとされ、使用者51の周囲を囲むように配置されている。そして、このサラウンドスクリーンに対して画像を表示できるように、使用者51の正面にプロジェクタ44Aが配置され、左後方にプロジェクタ44Bが配置され、右後方にプロジェクタ44Cが配置されている。これにより、サラウンドスクリーン上の少なくとも使用者51が視認可能な範囲に画像が表示される。このようにすることで、より臨場感に富んだシステムを実現することができる。
【0057】
以上においては、本発明をテレビ会議システムに応用した場合を例として説明したが、テレビ会議以外の例えば仮想空間のパーティーなどにも適用することが可能である。
【0058】
このように、少なくとも自分が位置しているテーブルの使用者の画像を他のテーブルに位置する使用者の画像に較べて大きく表示するようにしたので、テーブルの数が増えたとしても、少なくとも自分自身が位置するテーブルの使用者の画像は、確実に確認することが可能である。また、仮想空間内において、他のテーブルに移動することができるので、他のテーブルの画像が小さく表示されていたとしても、そのテーブルに移動することで、そのテーブルの出席者の顔を大きく表示させ、確認することが可能となる。従って、実際の会議あるいはパーティーなどにおける場合と同様に、大人数でのコミュニケーションを図ることが、容易に実現可能となる。
【0059】
半透明のスクリーンを実現するために、以上においては、スクリーン45を時分割動作させるようにしたが、例えば図21に示すように、スクリーン45を、一方の面を乱反射面81とし、他方の面を半透明面82とし、実質的にハーフミラーのような半透明のスクリーンとすることができる。この場合、図21に示すように、乱反射面81がプロジェクタ44側に配置され、半透明面82がビデオカメラ42側に配置される。
【0060】
乱反射面81には、図22に示すように、それぞれ正方形状の乱反射部91と透明部92とが市松模様状に配置されている。乱反射部91は、入射された光を乱反射するように、その表面が加工されている。また、透明部92は、入射された光をそのまま透過するように構成されている。
【0061】
乱反射部91の反対側(ビデオカメラ42側)は、図23に示すように、黒色部93とされている。黒色部93は、黒色に色付けされている。この乱反射部91と透明部92、従って、黒色部93と透明部92は、十分小さい領域とされている。
【0062】
プロジェクタ44から出射された光が、乱反射面81に照射されると、その乱反射部91で光が乱反射され、使用者51は、この乱反射された光により構成される画像を視認することができる。乱反射面81の透明部92に入射された光は、そのままビデオカメラ42側に透過される。
【0063】
一方、ビデオカメラ42は、透明部92を介して、使用者51を撮像する。ビデオカメラ42の焦点は、スクリーン45ではなく、使用者51に合わされるため、ビデオカメラ42は、使用者51の画像を若干暗い画像とはなるが、撮像することができる。透明部92を透過してくるプロジェクタ44からの光は、ビデオカメラ42に指向性を持たせたり、あるいは、レンズフードを設けるなどして、実質的に制限することが可能である。
【0064】
図22と図23に示した例においては、乱反射部91、黒色部93、および透明部92は、それぞれ四角形状とされ、市松状に配置されたが、例えば図24に示すように、乱反射部91(黒色部93)を六角形状に構成し、透明部92を乱反射部91(黒色部93)の周囲に形成するようにしても良い。
【0065】
また、図25に示すように、乱反射部91(黒色部93)を四角形状とし、その周囲に透明部92を配置するようにしても良い。
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものとする。
なお、上記したような処理を行うコンピュータプログラムをユーザに提供する提供媒体としては、磁気ディスク、CD-ROM、固体メモリなどの記録媒体の他、ネットワーク、衛星などの通信媒体を利用することができる。
【0067】
【発明の効果】
請求項1に記載の画像処理装置によれば、所定の数の端末により構成されたユニットを仮想空間内の所定の位置に配置するようにし、そのユニットの各端末の画像の表示を制御するようにしたので、大人数で相互にコミュニケーションを図ることが、現実の空間における場合と同様にできるようになる。
【図面の簡単な説明】
【図1】本発明を適用したシステムの構成例を示す図である。
【図2】図1の端末の構成例を示すブロック図である。
【図3】図2の端末を構成する各装置の配置を説明する図である。
【図4】図1のマスターサーバの構成例を示すブロック図である。
【図5】図2の端末を構成する各装置の平面的配置を説明する図である。
【図6】ユニットの構成を説明する図である。
【図7】ユニットの仮想空間内における構成を説明する図である。
【図8】仮想空間内におけるユニットの配置を説明する図である。
【図9】仮想空間内におけるユニットの配置を説明する図である。
【図10】スクリーンの表示例を示す図である。
【図11】図1のシステムの動作を説明するフローチャートである。
【図12】図1のシステムの動作を説明するフローチャートである。
【図13】スクリーンの表示例を示す図である。
【図14】スクリーンの注視を説明する図である。
【図15】仮想空間における注視を説明する図である。
【図16】注視された端末側のスクリーンの表示例を示す図である。
【図17】仮想空間内を移動した後のスクリーンの表示例を示す図である。
【図18】スクリーンの他の表示例を示す図である。
【図19】図18の表示例を実現する仮想空間内におけるユニットの配置を説明する図である。
【図20】端末を構成する各装置の平面的な配置の他の例を示す図である。
【図21】スクリーンの他の例を示す図である。
【図22】図21のスクリーンの乱反射面の構成を示す図である。
【図23】図21のスクリーンの半透明面の構成を示す図である。
【図24】図21のスクリーンの他の構成例を示す図である。
【図25】図21のスクリーンの他の構成例を示す図である。
【符号の説明】
1−1乃至1−6 端末, 2 マスターサーバ, 3 ネットワーク, 11 検出装置, 14 画像入力装置, 22 音声再生装置, 23 映像表示装置, 19 演算装置, 32 演算装置, 34 記憶装置, 41 マイクロホン, 42 ビデオカメラ, 43 スピーカ, 44 プロジェクタ, 45 スクリーン[0001]
BACKGROUND OF THE INVENTION
The present invention Image processing device In particular, in the video conference system, the line of sight of the video conference attendee and the line of sight of the video camera can be matched. Image processing device About.
[0002]
[Prior art]
There are a video phone system and a video conference system as a system for communicating images, voices, data, and the like among a plurality of people located at remote locations to facilitate communication. These systems are already in the practical stage and are spreading mainly for business use.
[0003]
In these systems, a video camera and a microphone are prepared for capturing an image of a person's face and capturing the sound. Further, a monitor and a speaker are prepared for outputting the image and sound transmitted from the other party. Usually, the video camera is installed around the monitor (for example, at the top, the bottom, or the side).
[0004]
Also, in a video conference system, when a large number of people hold a meeting, images of all participants' faces are displayed in tiles on the monitor based on reasons such as cost problems and the narrowness of the office environment. Often to do. When the number of attendees increases, the image size is reduced (the size of one tile is reduced) to display images of many participants.
[0005]
[Problems to be solved by the invention]
However, when the video camera is arranged around the monitor, the center of the monitor does not coincide with the line of sight of the video camera. As a result, the user usually talks to the person shown on the monitor while looking at the monitor instead of the video camera. For example, if the video camera is installed at the top of the monitor, The face of the opponent to be projected is a slightly depressing image. When the video camera is installed at the bottom of the monitor, on the other hand, the face of the other party projected on the monitor is an upward and downward image. In either case, the image becomes unnatural and the user may feel uncomfortable.
[0006]
In addition, when participants' images are displayed in tiles, it feels as if everyone is talking to them, and there is still a problem that it is impossible to get a sense of realism in an actual meeting. .
[0007]
Furthermore, as the number of participants increases, there is a problem that if the image size is reduced, the faces of the participants become difficult to see and natural communication cannot be achieved.
The present invention has been made in view of such a situation, and makes it possible to match a participant's line of sight with a camera line of sight.
[0008]
Further, the present invention makes it possible to participate in a conference with a natural sense of presence even if there are many participants.
[0012]
[Means for Solving the Problems]
The image processing apparatus according to
[0016]
[0017]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration example of an image processing system to which the present invention is applied. In this configuration example, a plurality of terminals 1-1 to 1-6 are connected to the
[0018]
FIG. 2 shows a configuration of the terminal 1 (hereinafter, when the terminals 1-1 to 1-6 do not need to be individually distinguished, they are simply referred to as the
[0019]
The
[0020]
The
[0021]
The
[0022]
FIG. 3 shows the arrangement of each device constituting the
[0023]
The
[0024]
FIG. 4 shows a configuration example of the
[0025]
In this example, the
[0026]
In any
[0027]
The
[0028]
In other words, the
[0029]
Furthermore, the
[0030]
A simplified illustration of the
[0031]
For example, when the user of the
[0032]
Next, the operation of this video conference system will be described with reference to the flowcharts of FIG. 11 and FIG. When the user commands attendance to the video conference system by operating the will input
[0033]
As described above, when there is no response even if the connection status inquiry is performed N times with respect to the
[0034]
When the
[0035]
When there is a vacant seat in the
[0036]
The user looks at the display shown in FIG. 13 and operates the will input
[0037]
In step S6, the
[0038]
If it is determined that the login is OK, the
[0039]
When the
[0040]
When the user attends the video conference, the
[0041]
The
[0042]
As shown in FIG. 14, the angle θ1 detected as the direction in which the user is facing is converted into an angle θ2 in the
[0043]
When it is determined that the
[0044]
Next, it progresses to step S11 and the calculating
[0045]
That is, an image as shown in FIG. 16 is displayed on the
[0046]
In addition to displaying the image a larger, the image a may be displayed brighter than others or blinked.
[0047]
In step S12, the
[0048]
When the
[0049]
As a result, the
[0050]
Note that gaze for a certain time or more may be detected on each terminal side. In addition, the intention to move may be displayed by a gesture in which the user indicates the direction with a finger, or by a mechanical operation such as a keyboard, a mouse, or a joystick.
[0051]
In the above, one
[0052]
In the example shown in FIG. 18, the image of the table T1 on which the user is sitting displays the image c of the user sitting on the seat on the opposite side of the user on the screen 45BC in front of the table T1. The image b of the user sitting in his / her right seat is displayed on the right screen 45BR, and the image d of use sitting in the left seat is displayed on the left screen 45BL. However, on the
[0053]
Thus, when displaying an image, the
[0054]
In this way, there is no backward-facing image, and attendees can be confirmed more easily. Therefore, in this case, the
[0055]
For example, as shown in FIG. 10, in the example in which the image of the own table is displayed on one
[0056]
FIG. 20 shows another arrangement example of the projector, the video camera, and the screen in each
[0057]
In the above, the case where the present invention is applied to a video conference system has been described as an example. However, the present invention can also be applied to parties other than a video conference such as a virtual space party.
[0058]
In this way, at least the image of the user of the table where he / she is located is displayed larger than the image of the user located at the other table, so even if the number of tables increases, The image of the user of the table where the user is located can be confirmed with certainty. In addition, since it is possible to move to another table in the virtual space, even if the image of the other table is displayed in a small size, the face of the attendees at that table can be displayed larger by moving to that table. Can be confirmed. Therefore, it is possible to easily realize communication with a large number of people as in an actual meeting or party.
[0059]
In order to realize a translucent screen, the
[0060]
On the
[0061]
The opposite side (
[0062]
When the light emitted from the projector 44 is irradiated onto the
[0063]
On the other hand, the
[0064]
In the example shown in FIGS. 22 and 23, the
[0065]
Further, as shown in FIG. 25, the irregular reflection portion 91 (black portion 93) may be formed in a quadrangular shape, and a
In the present specification, the term “system” represents the entire apparatus including a plurality of apparatuses.
In addition, as a providing medium for providing a computer program for performing the processing as described above to a user, a communication medium such as a network or a satellite can be used in addition to a recording medium such as a magnetic disk, a CD-ROM, or a solid memory. .
[0067]
【The invention's effect】
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of a system to which the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration example of the terminal in FIG. 1;
FIG. 3 is a diagram for explaining an arrangement of devices constituting the terminal of FIG. 2;
4 is a block diagram illustrating a configuration example of a master server in FIG. 1. FIG.
FIG. 5 is a diagram for explaining a planar arrangement of devices included in the terminal of FIG. 2;
FIG. 6 is a diagram illustrating the configuration of a unit.
FIG. 7 is a diagram illustrating a configuration of a unit in a virtual space.
FIG. 8 is a diagram illustrating the arrangement of units in a virtual space.
FIG. 9 is a diagram illustrating the arrangement of units in a virtual space.
FIG. 10 is a diagram illustrating a display example of a screen.
FIG. 11 is a flowchart for explaining the operation of the system of FIG. 1;
FIG. 12 is a flowchart for explaining the operation of the system of FIG. 1;
FIG. 13 is a diagram illustrating a display example of a screen.
FIG. 14 is a diagram illustrating gaze on a screen.
FIG. 15 is a diagram illustrating gaze in a virtual space.
FIG. 16 is a diagram illustrating a display example of a screen on the terminal side that is watched.
FIG. 17 is a diagram illustrating a display example of a screen after moving in a virtual space.
FIG. 18 is a diagram showing another display example of the screen.
19 is a diagram for explaining the arrangement of units in a virtual space for realizing the display example of FIG.
FIG. 20 is a diagram illustrating another example of a planar arrangement of devices included in a terminal.
FIG. 21 is a diagram showing another example of the screen.
22 is a diagram showing a configuration of an irregular reflection surface of the screen of FIG. 21. FIG.
FIG. 23 is a diagram showing a configuration of a translucent surface of the screen of FIG.
24 is a diagram showing another configuration example of the screen in FIG. 21. FIG.
25 is a diagram showing another configuration example of the screen in FIG. 21. FIG.
[Explanation of symbols]
1-1 to 1-6 terminal, 2 master server, 3 network, 11 detection device, 14 image input device, 22 audio reproduction device, 23 video display device, 19 arithmetic device, 32 arithmetic device, 34 storage device, 41 microphone, 42 video cameras, 43 speakers, 44 projectors, 45 screens
Claims (3)
前記表示手段を介して使用者を撮像する撮像手段と
を含む複数の端末とともに、ネットワークに接続され、仮想空間を提供する画像処理装置において、
所定の数の前記端末によりユニットを構成し、複数の前記ユニットを仮想空間内の所定の位置に配置する配置手段と、
前記配置手段による配置に対応して、各端末の前記撮像手段により撮像された画像に基づいて生成された、前記端末の前記仮想空間内の配置位置から見た前記仮想空間内の各端末の画像が前記端末において表示されるように、前記ユニットの各端末の画像の表示を制御する制御手段と、
前記端末の使用者の移動入力を検出し、検出された前記移動入力により示される移動先の前記ユニットを構成する端末が予め定められた特定の数より少ない場合、前記端末が前記移動先の前記ユニットを構成するように、前記仮想空間内で前記端末を前記移動先の前記ユニットの配置位置に移動させる移動手段と
を含むことを特徴とする画像処理装置。Display means for displaying images of other users;
In an image processing apparatus that is connected to a network and provides a virtual space, together with a plurality of terminals including an imaging unit that images a user via the display unit,
A disposing unit that configures a unit by a predetermined number of the terminals, and disposes the plurality of units at predetermined positions in a virtual space;
Corresponding to the arrangement by the arrangement unit, the image of each terminal in the virtual space, which is generated based on the image captured by the imaging unit of each terminal and viewed from the arrangement position of the terminal in the virtual space. Control means for controlling display of an image of each terminal of the unit, so that is displayed on the terminal ;
When the movement input of the user of the terminal is detected and the number of terminals constituting the unit of the movement destination indicated by the detected movement input is less than a predetermined number, the terminal An image processing apparatus comprising: moving means for moving the terminal to an arrangement position of the destination unit in the virtual space so as to constitute a unit.
ことを特徴とする請求項1に記載の画像処理装置。The image processing according to claim 1 , wherein the moving unit detects the movement input from a line of sight of a predetermined position of the user of the terminal, a face direction, a gesture, or a mechanical operation input. apparatus.
ことを特徴とする請求項1に記載の画像処理装置。 When the control unit moves the terminal to the destination unit, the control unit displays an image of each terminal of the unit or outputs a sound according to the arrangement of the terminals constituting the unit after the movement. The image processing apparatus according to claim 1 , wherein the image processing apparatus is updated .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP07437899A JP4501171B2 (en) | 1999-03-18 | 1999-03-18 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP07437899A JP4501171B2 (en) | 1999-03-18 | 1999-03-18 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000270306A JP2000270306A (en) | 2000-09-29 |
JP4501171B2 true JP4501171B2 (en) | 2010-07-14 |
Family
ID=13545458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP07437899A Expired - Lifetime JP4501171B2 (en) | 1999-03-18 | 1999-03-18 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4501171B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070279483A1 (en) * | 2006-05-31 | 2007-12-06 | Beers Ted W | Blended Space For Aligning Video Streams |
JP2014197109A (en) * | 2013-03-29 | 2014-10-16 | 株式会社コナミデジタルエンタテインメント | Image display device, image display method, and computer program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02228893A (en) * | 1989-03-02 | 1990-09-11 | Nippon Telegr & Teleph Corp <Ntt> | Display photographing device for image communication |
JPH0496581A (en) * | 1990-08-14 | 1992-03-27 | Nippon Telegr & Teleph Corp <Ntt> | Picture display device of visual line coincidence type |
JPH05316504A (en) * | 1992-05-08 | 1993-11-26 | Nippon Telegr & Teleph Corp <Ntt> | Seat selection device in video communication |
JPH0970030A (en) * | 1995-08-31 | 1997-03-11 | Mitsubishi Electric Corp | Image display method for virtual conference system and virtual conference terminal equipment |
JPH09325991A (en) * | 1996-06-04 | 1997-12-16 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional virtual world display system |
JPH1040197A (en) * | 1996-07-19 | 1998-02-13 | Fujitsu Ltd | Communication managing device |
-
1999
- 1999-03-18 JP JP07437899A patent/JP4501171B2/en not_active Expired - Lifetime
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02228893A (en) * | 1989-03-02 | 1990-09-11 | Nippon Telegr & Teleph Corp <Ntt> | Display photographing device for image communication |
JPH0496581A (en) * | 1990-08-14 | 1992-03-27 | Nippon Telegr & Teleph Corp <Ntt> | Picture display device of visual line coincidence type |
JPH05316504A (en) * | 1992-05-08 | 1993-11-26 | Nippon Telegr & Teleph Corp <Ntt> | Seat selection device in video communication |
JPH0970030A (en) * | 1995-08-31 | 1997-03-11 | Mitsubishi Electric Corp | Image display method for virtual conference system and virtual conference terminal equipment |
JPH09325991A (en) * | 1996-06-04 | 1997-12-16 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional virtual world display system |
JPH1040197A (en) * | 1996-07-19 | 1998-02-13 | Fujitsu Ltd | Communication managing device |
Also Published As
Publication number | Publication date |
---|---|
JP2000270306A (en) | 2000-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7756675B2 (en) | Group-determination-table generating device and method | |
US8355040B2 (en) | Telepresence conference room layout, dynamic scenario manager, diagnostics and control system and method | |
US8300078B2 (en) | Computer-processor based interface for telepresence system, method and computer program product | |
US6330022B1 (en) | Digital processing apparatus and method to support video conferencing in variable contexts | |
US8638354B2 (en) | Immersive video conference system | |
US20040254982A1 (en) | Receiving system for video conferencing system | |
US11595448B1 (en) | Method and apparatus for automatically creating mirrored views of the video feed of meeting participants in breakout rooms or conversation groups during a videoconferencing session | |
US20110283008A1 (en) | Video Class Room | |
JP2004072741A (en) | Multi-participant conference system for controlling contents and delivery with back channel video interface | |
US20110074911A1 (en) | Gesture-Based Actions in a Video Communication Session | |
JP3660198B2 (en) | Three-dimensional shared virtual space display method, three-dimensional shared virtual space communication system and method, virtual conference system, and recording medium recording user terminal program therefor | |
US11546385B1 (en) | Method and apparatus for self-selection by participant to display a mirrored or unmirrored video feed of the participant in a videoconferencing platform | |
US11621979B1 (en) | Method and apparatus for repositioning meeting participants within a virtual space view in an online meeting user interface based on gestures made by the meeting participants | |
CN105306872B (en) | Control the methods, devices and systems of multipoint videoconference | |
US11831454B2 (en) | Full dome conference | |
WO2000014958A1 (en) | Method for generating video programs, variants, and system for realising this method | |
JP4501171B2 (en) | Image processing device | |
JP2004007561A (en) | Video conference system, terminal equipment included in the same system, and data distributing method | |
JPH09107534A (en) | Video conference equipment and video conference system | |
KR20150087017A (en) | Audio control device based on eye-tracking and method for visual communications using the device | |
JP4085685B2 (en) | Video conference system, terminal device included therein, and communication method | |
US11647064B1 (en) | Computer systems for managing interactive enhanced communications | |
JP2003101981A (en) | Electronic cooperative work system and program for cooperative work system | |
Okada et al. | Design and evaluation of MAJIC videoconferencing system | |
JP2010028299A (en) | Conference photographed image processing method, conference device, and the like |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090430 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100330 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100412 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130430 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140430 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |