JP4501171B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4501171B2
JP4501171B2 JP07437899A JP7437899A JP4501171B2 JP 4501171 B2 JP4501171 B2 JP 4501171B2 JP 07437899 A JP07437899 A JP 07437899A JP 7437899 A JP7437899 A JP 7437899A JP 4501171 B2 JP4501171 B2 JP 4501171B2
Authority
JP
Japan
Prior art keywords
terminal
image
unit
user
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP07437899A
Other languages
Japanese (ja)
Other versions
JP2000270306A (en
Inventor
哲二郎 近藤
淳一 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP07437899A priority Critical patent/JP4501171B2/en
Publication of JP2000270306A publication Critical patent/JP2000270306A/en
Application granted granted Critical
Publication of JP4501171B2 publication Critical patent/JP4501171B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置に関し、特に、テレビ会議システムにおいて、テレビ会議出席者の視線とビデオカメラの目線とを一致させることができるようにした画像処理装置に関する。
【0002】
【従来の技術】
遠隔地に位置する複数の人の間で、画像、音声、データなどを通信し、意志の疎通を図るシステムとして、テレビ電話システムやテレビ会議システムがある。これらのシステムは、既に実用段階にあり、ビジネス用途を中心に普及しつつある。
【0003】
これらのシステムにおいては、人の顔を撮像し、また、その音声を取り込むために、ビデオカメラとマイクロホンが用意されている。さらに、相手側から伝送されてきた画像と音声を出力するために、モニタとスピーカが用意されている。通常、ビデオカメラは、モニタの周辺(例えば、上部、下部、または側面)に設置される。
【0004】
また、テレビ会議システムにおいて、多くの人数で会議を行うような場合、コスト的な問題やオフィス環境の狭さなどの理由に基づき、参加者全員の顔の画像をモニタ上にタイル状に並べて表示することが多い。そして、出席者の数が多くなった場合、画像のサイズを小さくして(1つのタイルの大きさを小さくして)、多くの参加者の画像を表示するようにしている。
【0005】
【発明が解決しようとする課題】
しかしながら、ビデオカメラをモニタの周辺に配置すると、モニタの中心とビデオカメラの目線とは一致しない。その結果、通常、使用者は、ビデオカメラではなく、モニタを見ながら、そのモニタに写されている相手に話をするため、例えば、ビデオカメラがモニタの上部に設置されている場合、モニタに写し出される相手の顔は、若干うつ向き加減の画像となる。ビデオカメラがモニタの下部に設置されている場合、逆に、モニタに写し出された相手の顔は、上向き加減の画像となる。いずれの場合にも、不自然な画像となり、使用者は違和感を覚えることがあった。
【0006】
また、参加者の画像をタイル状に表示すると、全ての人が自分に向かって話をしているかのように感じられ、やはり実際の会議におけるような臨場感を得ることができない課題があった。
【0007】
さらに、参加者の数の増加にともなって、画像のサイズを小さくすると、参加者の顔が見にくくなり、自然なコミュニケーションを図ることができなくなる課題があった。
本発明はこのような状況に鑑みてなされたものであり、参加者の視線とカメラ目線とを一致させることができるようにするものである。
【0008】
また、本発明は、参加者が多くても、自然な臨場感で会議に参加することができるようにするものである。
【0012】
【課題を解決するための手段】
請求項1に記載の画像処理装置は、所定の数の端末によりユニットを構成し、複数のユニットを仮想空間内の所定の位置に配置する配置手段と、配置手段による配置に対応して、各端末の撮像手段により撮像された画像に基づいて生成された、端末の仮想空間内の配置位置から見た仮想空間内の各端末の画像が端末において表示されるように、ユニットの各端末の画像の表示を制御する制御手段と、端末の使用者の移動入力を検出し、検出された移動入力により示される移動先のユニットを構成する端末が予め定められた特定の数より少ない場合、端末が移動先のユニットを構成するように、仮想空間内で端末を移動先のユニットの配置位置に移動させる移動手段とを含むことを特徴とする。
【0016】
請求項1に記載の画像処理装置においては、所定の数の端末によりユニットが構成され、複数のユニットが仮想空間内の所定の位置に配置される。
【0017】
【発明の実施の形態】
図1は、本発明を適用した画像処理システムの構成例を示す図である。この構成例においては、複数の端末1−1乃至1−6が、ネットワーク3を介して、マスターサーバ2と接続されている。ネットワーク3は、インターネットなどのほか、イントラネットあるいはLAN(Local Area Network)などで構成することができる。
【0018】
図2は、端末1(以下、端末1−1乃至1−6を個々に区別する必要がない場合、単に端末1と称する。その他の装置についても同様とする)の構成を表している。検出装置11は、後述する図3に示す使用者51の顔の向きまたは視線の方向を検出する。検出装置11の検出結果は、A/D変換器15によりA/D変換された後、演算装置19に入力される。意志入力装置12は、例えばキーボード、マウス、ジョイスティックなどにより構成され、必要に応じて使用者により操作される。意志入力装置12より入力された信号は、A/D変換器16によりA/D変換された後、演算装置19に入力される。
【0019】
音響入力装置13は、例えばマイクロホンにより構成され、使用者の音声を取り込む。音響入力装置13より入力された音響信号は、A/D変換器17によりA/D変換された後、演算装置19に入力される。画像入力装置14は、例えばビデオカメラにより構成され、画像入力装置14より入力された画像信号は、A/D変換器18によりA/D変換された後、演算装置19に入力される。
【0020】
音声再生装置22は、例えばスピーカにより構成され、演算装置19より入力されたデジタル音声信号がD/A変換器20によりD/A変換された後、入力される。音声再生装置22は、入力された音声信号を出力する。映像表示装置23は、例えばLCD(Liquid Crystal Display)よりなるスクリーンと、そのスクリーンに画像を投映するプロジェクタにより構成され、演算装置19より出力されたデジタル画像データがD/A変換器21によりD/A変換された後、入力される。映像表示装置23は、入力された映像信号を表示する。また、図3を参照して後述するように、画像入力装置14は、映像表示装置23を介して、使用者を撮像する。そこで、演算装置19は、映像表示装置23を制御し、その画像を表示するタイミングと、画像入力装置14により画像を撮像するタイミングとを制御する。
【0021】
演算装置19は、例えばパーソナルコンピュータなどにより構成することができる。送受信装置24は、例えばモデムなどにより構成され、ネットワーク3を介して、マスターサーバ2と通信する。
【0022】
図3は、端末1を構成する各装置の配置を表している。端末1の使用者51は、映像表示装置23を構成するプロジェクタ44により、スクリーン45に表示された他の端末の使用者の画像を観察する。スクリーン45の後方には、音響入力装置13を構成するマイクロホン41、画像入力装置14を構成するビデオカメラ42、および音声再生装置22を構成するスピーカ43が配置されている。マイクロホン41は、使用者51の発生する音声信号を取り込み、スピーカ43は、使用者51に伝達する他の使用者からの音声信号を出力する。
【0023】
ビデオカメラ42は、スクリーン45を介して、使用者51を撮像する。スクリーン45は、LCDにより構成され、演算装置19により、時分割動作するように制御される。すなわち、スクリーン45は、プロジェクタ44の画像を表示するとき、光を透過しないように制御され、ビデオカメラ42から使用者51を撮像するとき、光を透過するように制御される。演算装置19は、プロジェクタ44による画像をスクリーン45に表示させるとき、ビデオカメラ42による撮像を中止させ、プロジェクタ44より照射された画像をスクリーン45に表示させ、使用者51に観察させる。また、演算装置19は、ビデオカメラ42により使用者51の画像を取り込むタイミングにおいて、プロジェクタ44の動作を停止させ、スクリーン45を光を透過する状態に制御する。従って、ビデオカメラ42は、スクリーン45を介して、使用者51の画像を撮像することができる。
【0024】
図4は、マスターサーバ2の構成例を表している。入力装置31は、キーボード、マウスなどにより構成され、管理者が各種の指令を入力するとき操作する。演算装置32は、入力装置31からの指令に対応して、各種の処理を実行する。記憶装置34は、ハードディスク、磁気ディスク、光磁気ディスクなどにより構成され、演算装置32が実行する各種のデータやプログラムなどを記憶する。送受信装置33は、例えばモデムなどにより構成され、演算装置32により制御され、ネットワーク3を介して、端末1と通信する。
【0025】
端末1は、この例の場合、図5に示すように、合計4台のビデオカメラ42F,42R,42L,42Bを有している。ビデオカメラ42F,42R,42Lは、使用者51から見て、スクリーン45の裏側に配置されている。ビデオカメラ42Fは、使用者51の顔を正面から撮像する位置に配置され、ビデオカメラ42Rは、使用者51の顔を右側から撮像する位置に配置され、ビデオカメラ42Lは、使用者51の顔を左側から撮像する位置に配置されている。ビデオカメラ42Bは、使用者51の後方に配置され、使用者51を後方から撮像する。
【0026】
いずれの端末1においても、各ビデオカメラは、同様に配置されている。
【0027】
マスターサーバ2の演算装置32は、自己が管理する仮想空間内において、4つの端末1を図6に示すように正方形状に配列することで、1つのユニットを構成させる。図6の例においては、端末1−1のビデオカメラが下中央に配置され、端末1−2のビデオカメラが、その右上に配置され、端末1−3のビデオカメラが、その上側に配置され、端末1−4のビデオカメラが、左上側に配置される。勿論、実際には、各端末1−1乃至1−4は、仮想空間において、それぞれ独立した位置に配置されているものであり、図6に示す配置は、あくまでマスターサーバ2が管理する仮想空間上での配置である。
【0028】
換言すれば、演算装置32は、端末1−1乃至1−4をこのように配置することで、図7に示すように、仮想空間上に、テーブルTと、その周囲に座席S1乃至S4が配置された状態を1つのユニットとして管理する。すなわち、演算装置32は、端末1−1乃至1−4の使用者が、それぞれ仮想空間上の座席S1乃至S4に座り、会議をしている状態を想定して、各スクリーン45−1乃至45−4の画像の表示を制御する。
【0029】
さらに、演算装置32は、図8に示すように、仮想空間60に、3つのテーブルT1乃至T3を配置する。この例では、テーブルT1が仮想空間60の下方中央に配置され、テーブルT2は、その右側に配置され、テーブルT3は、その左側に配置されている。なお、図8において、各ビデオカメラとスクリーンの数字の最後に、テーブルT1のものには、−1を付加し、テーブルT2のものには、−2を付加し、テーブルT3のものには、−3を付加して表している。
【0030】
演算装置32が管理している図8の仮想空間60を簡略化して図示すると、図9に示すようになる。テーブルT1には、A乃至Dの4つの座席が用意され、テーブルT2には、E乃至Hの4つの座席が用意され、テーブルT3には、I乃至Lの4つの座席が用意される。各端末1の使用者は、マスターサーバ2にアクセスしたとき、仮想空間60の図9に示すようなテーブルの配置図の提供を受け、所望のテーブルの座席を指定することで、この仮想空間60における会議に出席する。
【0031】
例えば、端末1の使用者がテーブルT1の座席Aを自らの座席として取得した場合、マスターサーバ2の演算装置32は、その端末1のスクリーン45に対して、図10に示すような画像を表示させる。すなわち、スクリーン45には、自分自身が座っている座席AのテーブルT1の他の座席B乃至Dに座っている他の端末1の使用者b乃至dの画像がテーブルT1の周囲に表示される。同様に、テーブルT2の周囲には、座席E乃至Hに座っている各端末1の使用者の画像e乃至hが表示され、テーブルT3の周囲には、座席I乃至Lに座っている使用者の画像i乃至lが表示される。
【0032】
次に、図11と図12のフローチャートを参照して、このテレビ会議システムの動作について説明する。端末1の演算装置19は、使用者が意志入力装置12を操作することでテレビ会議システムへの出席を指令すると、ステップS1において、送受信装置24を制御し、ネットワーク3を介して、マスターサーバ2に対してアクセスさせ、テレビ会議システムの現在の接続状況を紹介する。演算装置19は、ステップS2において、マスターサーバ2から接続状況照会に対する応答があったか否かを判定し、応答がない場合には、ステップS3に進み、接続要求の回数が予め設定されている所定の閾値Nより小さいか否かを判定する。接続要求回数が閾値Nより小さい場合には、ステップS1に戻り、再び接続状況照会処理を実行する。
【0033】
以上のようにして、マスターサーバ2に対して、N回接続状況照会を行っても応答がない場合には、端末1の演算装置19は、処理を終了させる。
【0034】
マスターサーバ2の演算装置32は、送受信装置33を介して、端末1から接続状況照会の要求を受けたとき、記憶装置34に記憶されている仮想空間60の現在の接続状況を調べ、空いている座席があるか否かを判定する。空いている座席がない場合には、演算装置32は、端末1に対して応答しない。従って、このような場合には、端末1は、テレビ会議に出席することができないことになる。
【0035】
マスターサーバ2の演算装置32は、仮想空間60の座席に空きがある場合には、ステップS4において、現在の接続状況を示す画像を生成し、送受信装置33から、端末1にネットワーク3を介して送信する。端末1の演算装置19は、送受信装置24を介してマスターサーバ2からの応答を受信したとき、ステップS4において、受信したデータに対応する画像を、D/A変換器21を介して、映像処理装置23を構成するプロジェクタ44に供給し、スクリーン45に表示させる。これにより、スクリーン45には、例えば図13に示すような、各テーブルと座席の位置が表示される。各座席は、空いている席と他の使用者が既に座っている席とが識別できるように表示される。図13の例においては、ハッチングを施して示す席が、他の使用者が座っている席であり、ハッチングを施していない席が空いている席である。従って、図13の例では、席A,D,Gが空いており、その他の席は、他の使用者が既に使用している。
【0036】
使用者は、図13に示す表示を見て、ステップS5において、意志入力装置12を操作して、空いている座席の中から取得を希望する座席を入力するとともに、ログインを要求する。例えば使用者が座席Aを指定する場合、キーボードで文字Aのキーを操作する。演算装置19は、意志入力装置12からの入力に対応するデータを、送受信装置24を介して、マスターサーバ2に送信する。
【0037】
ステップS6において、演算装置19は、マスターサーバ2からログインOKの信号を受信したか否かを判定し、ログインOKの信号を受信できなかった場合には、ステップS7に進み、接続要求回数が予め設定してある所定の閾値Nより小さいか否かを判定する。接続要求回数が閾値Nより小さい場合には、ステップS5に戻り、それ以降の処理が繰り返し実行される。接続要求回数が閾値Nと等しいか、それより大きくなった場合には、演算装置19は処理を終了させる。
【0038】
マスターサーバ2の演算装置32は、ログインがOKであると判定した場合、ステップS8に進み、ステップS5で端末1から指定された座席に、その端末1を割り当て、仮想空間60内における接続を変更する。これにより、例えば図13に示す座席Aに新たな端末1が割り当てられた状態が、現在の仮想空間60の接続状況ということになる。マスターサーバ2の演算装置32は、この接続状況に対応する画像を記憶装置34から読み出し、送受信装置33を介して、端末1に送信する。
【0039】
端末1の演算装置19は、送受信装置24を介して、このデータを受信したとき、対応する画像をスクリーン45に表示させる。これにより、スクリーン45には、いまの場合、例えば図14に示すような画像が表示される。すなわち、テーブルT3には、4つの各座席I乃至Lに座っている各端末の使用者の画像i乃至lが表示される。テーブルT2の周囲には、座席Gを除く座席E,FおよびHに座っている使用者の画像e,f,hが表示される。テーブルT1には、座席BとCにそれぞれ座っている使用者の画像b,cが表示される。座席DとHは空席であるため、画像が表示されていない。自分が位置するテーブルT1の座席の画像b,cは、他のテーブルT2,T3の画像e,f,h乃至lより大きく表示される。
【0040】
検出装置11は、使用者がテレビ会議に出席すると、使用者の顔の向きもしくは視線の方向を検出する。検出結果は、演算装置19から、送受信装置20を介して、マスターサーバ2に送信される。
【0041】
マスターサーバ2の演算装置32は、端末1からの方向の検出データを受信し、ステップS9において、端末1の使用者が予め設定してある一定時間以上同一の方向を注視しているか否かを判定する。同一の方向を一定時間以上注視していなければ、ステップS9の処理が繰り返し実行される。
【0042】
使用者がいずれの方向を向いているかは、図14に示すように、使用者が向いている方向として検出された角度θ1を、図15に示すように、仮想空間60上の角度θ2に換算することで判定される。
【0043】
演算装置32は、端末1の使用者51が一定時間以上所定の方向を注視していると判定した場合、ステップS10に進み、その注視者(所定の方向を注視している使用者)が位置するテーブルからの音量を制限する。例えば、テーブルT1の座席Aに座っている使用者が、テーブルT2の座席Gを一定時間以上注視している場合、その使用者は、いまテーブルT1の会話には興味をもっていないものと判断し、テーブルT1の座席Bまたは座席Cに座っている使用者からの音声のボリュームを減少させる。あるいはまた、図14に示す座席Bに座っている使用者の画像bと座席Cに座っている使用者の画像cを小さくさせる。同様に、座席Bと座席Cに座っている使用者の端末1に提供する座席Aの使用者の音声のボリュームを減少させるとともに、その画像aを小さくさせる。これにより、例えばテーブルT1の座席B,Cに座っている使用者は、座席Aに座っている使用者がいま会話に興味を示していないことを知ることができる。
【0044】
次に、ステップS11に進み、演算装置32は、注視されているテーブルの使用者に対する表示画像上の注視者の画像を大きく表示させる。いまの場合、座席Aの使用者がテーブルT2の座席Gを注視しているので、テーブルT2の座席E,F,Hを使用している使用者から見た使用者Aの画像aを他の画像に較べて大きく表示させる。
【0045】
すなわち、テーブルT2の座席Fに座っている使用者の端末のスクリーン45には、図16に示すような画像が表示されている。自分自身が座っているテーブルT2に座っている使用者の画像e,hは、遠いテーブルT1,T3の座席に座っている使用者の画像a乃至d,i乃至lに較べて大きく表示されている。座席Aに座っている使用者の画像aも、遠いテーブルT1の画像であるから、座席Aの使用者がテーブルT2を注視しなければ、他の画像b乃至dと同じ大きさで表示されるのであるが、座席Aの使用者が、一定時間以上テーブルT2を注視すると、テーブルT2の使用者がこれに気付くことができるように、座席Aの使用者の画像aが、図16に2点鎖線で示すように大きく表示される。このときまた、座席Aからの音声もテーブルT2の使用者に対して大きく出力させるようにしてもよい。これにより、テーブルT2の使用者は、座席Aの使用者がテーブルT2に移動していくるかもしれないということを予め推察することができる。
【0046】
なお、画像aを大きく表示する以外に、他に較べて明るく表示させたり、点滅させたりしてもよい。
【0047】
ステップS12において、演算装置32は、さらに一定時間以上使用者が同一方向を注視しているか否かを判定し、使用者が途中で注視を中止した場合には、ステップS9に戻り、それ以降の処理を繰り返し実行する。使用者がさらに一定時間注視したままである場合には、ステップS13に進み、演算装置32は、使用者が注視している方向に空いている座席があるか否かを判定する。空いている座席がない場合には、ステップS9に戻り、それ以降の処理が繰り返し実行される。空いている座席がある場合には、ステップS14に進み、端末1の演算装置19は、マスターサーバ2に対して、意志入力装置12から所定の座席への移動が要求された場合と同様の処理を実行する。すなわち、演算装置19は、マスターサーバ2に対して、座席Gへの移動を要求する。
【0048】
マスターサーバ2の演算装置32は、端末1の演算装置19から移転の要求を受けたとき、ステップS15において、これをOKするか否かを判定する。他の使用者が既にその座席の取得を申し込んできたような場合には、この要求は拒否され、ステップS9に戻り、それ以降の処理が実行される。その座席が空いている場合には、マスターサーバ2の演算装置32は、この要求に対応して、その座席を端末1に割り当てる。このため、ステップS8に戻り、演算装置32は、座席Gを端末1のユーザに割り当てる処理を実行する。
【0049】
その結果、座席Gに移動した端末1のスクリーン45には、それまでの図14に示すような画像から、図17に示すような画像に切り替えられる。
【0050】
なお、一定時間以上の注視は、各端末側で検出するようにしてもよい。また、移動の意思表示は、その方向を使用者が指で示すジェスチャで行ったり、キーボード、マウス、ジョイスティックなどの機械的な操作で行うようにしてもよい。
【0051】
以上においては、スクリーン45を1つとし、そこに仮想空間60上の全てのテレビ会議出席者の画像を表示するようにしたが、例えば図18に示すように、自分自身が座っている座席のテーブルT1の座席に座っている使用者の画像を表示するスクリーン45BL,45BC,BRを、その他のテーブルT2乃至T4の座席に座っている使用者の画像を表示するスクリーン45Aと独立した構成にすることもできる。このようにすることで、より臨場感に富んだシステムを実現することができる。
【0052】
また、図18に示す例においては、自分が座っているテーブルT1の画像は、自分を中心として、その正面のスクリーン45BCに、自分と反対側の座席に座っている使用者の画像cを表示し、その右側のスクリーン45BRに、自分の右側の座席に座っている使用者の画像bを表示し、その左側のスクリーン45BLに、左側の座席に座っている使用の画像dを表示しているが、スクリーン45Aにおいては、例えばテーブルT2に示すように、2つの座席GとHに座っている使用者の画像gとhを正面の画像として表示し、手前の2つの座席EとFに座っている使用者の画像eとfを、それぞれ右側から見た画像と左側から見た画像としている。
【0053】
このように、画像を表示する場合、マスターサーバ2の演算装置32は、仮想空間60を例えば図19に示すように管理する。テーブルT1のスクリーン45BCに表示する画像cは、ビデオカメラ42F−3−1で撮像した画像とし、スクリーン45BRに表示する画像bは、ビデオカメラ42L−2−1で撮像した画像とし、スクリーン45BLに表示する画像dは、ビデオカメラ42R−4−1で撮像した画像とする。これに対して、例えばテーブルT2の画像gは、ビデオカメラ42F−3−2で撮像した画像とし、画像hは、ビデオカメラ42F−4−2で撮像した画像とし、画像eは、ビデオカメラ42R−1−2で撮像した画像とし、画像fは、ビデオカメラ42L−2−2で撮像した画像とすることができる。
【0054】
このようにすれば、後ろ向きの画像がなくなり、出席者をより容易に確認することが可能となる。従って、この場合には、使用者を後方から撮像するビデオカメラ42Bが不要となる。
【0055】
なお、例えば図10に示すように、自分のテーブルの画像も、他のテーブルの画像と同様に、1つのスクリーン45に表示させる例においても、自分のテーブルと他のテーブルとで、座席の配置が若干異なるようにしてもよいのであれば、各端末1の後方のビデオカメラ42Bを省略することができる。
【0056】
図20は、各端末1におけるプロジェクタ、ビデオカメラ、およびスクリーンの他の配置例を示している。この例においては、使用者51の前方に、ビデオカメラ42Fが、後方にビデオカメラ42Bが、正面左側にビデオカメラ42Lが、正面右側にビデオカメラ42Rが、それぞれ配置されている。このことは、図5における場合と同様であるが、この例では、スクリーン45がサラウンドスクリーンとされ、使用者51の周囲を囲むように配置されている。そして、このサラウンドスクリーンに対して画像を表示できるように、使用者51の正面にプロジェクタ44Aが配置され、左後方にプロジェクタ44Bが配置され、右後方にプロジェクタ44Cが配置されている。これにより、サラウンドスクリーン上の少なくとも使用者51が視認可能な範囲に画像が表示される。このようにすることで、より臨場感に富んだシステムを実現することができる。
【0057】
以上においては、本発明をテレビ会議システムに応用した場合を例として説明したが、テレビ会議以外の例えば仮想空間のパーティーなどにも適用することが可能である。
【0058】
このように、少なくとも自分が位置しているテーブルの使用者の画像を他のテーブルに位置する使用者の画像に較べて大きく表示するようにしたので、テーブルの数が増えたとしても、少なくとも自分自身が位置するテーブルの使用者の画像は、確実に確認することが可能である。また、仮想空間内において、他のテーブルに移動することができるので、他のテーブルの画像が小さく表示されていたとしても、そのテーブルに移動することで、そのテーブルの出席者の顔を大きく表示させ、確認することが可能となる。従って、実際の会議あるいはパーティーなどにおける場合と同様に、大人数でのコミュニケーションを図ることが、容易に実現可能となる。
【0059】
半透明のスクリーンを実現するために、以上においては、スクリーン45を時分割動作させるようにしたが、例えば図21に示すように、スクリーン45を、一方の面を乱反射面81とし、他方の面を半透明面82とし、実質的にハーフミラーのような半透明のスクリーンとすることができる。この場合、図21に示すように、乱反射面81がプロジェクタ44側に配置され、半透明面82がビデオカメラ42側に配置される。
【0060】
乱反射面81には、図22に示すように、それぞれ正方形状の乱反射部91と透明部92とが市松模様状に配置されている。乱反射部91は、入射された光を乱反射するように、その表面が加工されている。また、透明部92は、入射された光をそのまま透過するように構成されている。
【0061】
乱反射部91の反対側(ビデオカメラ42側)は、図23に示すように、黒色部93とされている。黒色部93は、黒色に色付けされている。この乱反射部91と透明部92、従って、黒色部93と透明部92は、十分小さい領域とされている。
【0062】
プロジェクタ44から出射された光が、乱反射面81に照射されると、その乱反射部91で光が乱反射され、使用者51は、この乱反射された光により構成される画像を視認することができる。乱反射面81の透明部92に入射された光は、そのままビデオカメラ42側に透過される。
【0063】
一方、ビデオカメラ42は、透明部92を介して、使用者51を撮像する。ビデオカメラ42の焦点は、スクリーン45ではなく、使用者51に合わされるため、ビデオカメラ42は、使用者51の画像を若干暗い画像とはなるが、撮像することができる。透明部92を透過してくるプロジェクタ44からの光は、ビデオカメラ42に指向性を持たせたり、あるいは、レンズフードを設けるなどして、実質的に制限することが可能である。
【0064】
図22と図23に示した例においては、乱反射部91、黒色部93、および透明部92は、それぞれ四角形状とされ、市松状に配置されたが、例えば図24に示すように、乱反射部91(黒色部93)を六角形状に構成し、透明部92を乱反射部91(黒色部93)の周囲に形成するようにしても良い。
【0065】
また、図25に示すように、乱反射部91(黒色部93)を四角形状とし、その周囲に透明部92を配置するようにしても良い。
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものとする。
なお、上記したような処理を行うコンピュータプログラムをユーザに提供する提供媒体としては、磁気ディスク、CD-ROM、固体メモリなどの記録媒体の他、ネットワーク、衛星などの通信媒体を利用することができる。
【0067】
【発明の効果】
請求項1に記載の画像処理装置によれば、所定の数の端末により構成されたユニットを仮想空間内の所定の位置に配置するようにし、そのユニットの各端末の画像の表示を制御するようにしたので、大人数で相互にコミュニケーションを図ることが、現実の空間における場合と同様にできるようになる。
【図面の簡単な説明】
【図1】本発明を適用したシステムの構成例を示す図である。
【図2】図1の端末の構成例を示すブロック図である。
【図3】図2の端末を構成する各装置の配置を説明する図である。
【図4】図1のマスターサーバの構成例を示すブロック図である。
【図5】図2の端末を構成する各装置の平面的配置を説明する図である。
【図6】ユニットの構成を説明する図である。
【図7】ユニットの仮想空間内における構成を説明する図である。
【図8】仮想空間内におけるユニットの配置を説明する図である。
【図9】仮想空間内におけるユニットの配置を説明する図である。
【図10】スクリーンの表示例を示す図である。
【図11】図1のシステムの動作を説明するフローチャートである。
【図12】図1のシステムの動作を説明するフローチャートである。
【図13】スクリーンの表示例を示す図である。
【図14】スクリーンの注視を説明する図である。
【図15】仮想空間における注視を説明する図である。
【図16】注視された端末側のスクリーンの表示例を示す図である。
【図17】仮想空間内を移動した後のスクリーンの表示例を示す図である。
【図18】スクリーンの他の表示例を示す図である。
【図19】図18の表示例を実現する仮想空間内におけるユニットの配置を説明する図である。
【図20】端末を構成する各装置の平面的な配置の他の例を示す図である。
【図21】スクリーンの他の例を示す図である。
【図22】図21のスクリーンの乱反射面の構成を示す図である。
【図23】図21のスクリーンの半透明面の構成を示す図である。
【図24】図21のスクリーンの他の構成例を示す図である。
【図25】図21のスクリーンの他の構成例を示す図である。
【符号の説明】
1−1乃至1−6 端末, 2 マスターサーバ, 3 ネットワーク, 11 検出装置, 14 画像入力装置, 22 音声再生装置, 23 映像表示装置, 19 演算装置, 32 演算装置, 34 記憶装置, 41 マイクロホン, 42 ビデオカメラ, 43 スピーカ, 44 プロジェクタ, 45 スクリーン
[0001]
BACKGROUND OF THE INVENTION
The present invention Image processing device In particular, in the video conference system, the line of sight of the video conference attendee and the line of sight of the video camera can be matched. Image processing device About.
[0002]
[Prior art]
There are a video phone system and a video conference system as a system for communicating images, voices, data, and the like among a plurality of people located at remote locations to facilitate communication. These systems are already in the practical stage and are spreading mainly for business use.
[0003]
In these systems, a video camera and a microphone are prepared for capturing an image of a person's face and capturing the sound. Further, a monitor and a speaker are prepared for outputting the image and sound transmitted from the other party. Usually, the video camera is installed around the monitor (for example, at the top, the bottom, or the side).
[0004]
Also, in a video conference system, when a large number of people hold a meeting, images of all participants' faces are displayed in tiles on the monitor based on reasons such as cost problems and the narrowness of the office environment. Often to do. When the number of attendees increases, the image size is reduced (the size of one tile is reduced) to display images of many participants.
[0005]
[Problems to be solved by the invention]
However, when the video camera is arranged around the monitor, the center of the monitor does not coincide with the line of sight of the video camera. As a result, the user usually talks to the person shown on the monitor while looking at the monitor instead of the video camera. For example, if the video camera is installed at the top of the monitor, The face of the opponent to be projected is a slightly depressing image. When the video camera is installed at the bottom of the monitor, on the other hand, the face of the other party projected on the monitor is an upward and downward image. In either case, the image becomes unnatural and the user may feel uncomfortable.
[0006]
In addition, when participants' images are displayed in tiles, it feels as if everyone is talking to them, and there is still a problem that it is impossible to get a sense of realism in an actual meeting. .
[0007]
Furthermore, as the number of participants increases, there is a problem that if the image size is reduced, the faces of the participants become difficult to see and natural communication cannot be achieved.
The present invention has been made in view of such a situation, and makes it possible to match a participant's line of sight with a camera line of sight.
[0008]
Further, the present invention makes it possible to participate in a conference with a natural sense of presence even if there are many participants.
[0012]
[Means for Solving the Problems]
The image processing apparatus according to claim 1 comprises a unit by a predetermined number of terminals, plural Corresponding to the arrangement by the arrangement means for arranging the unit at a predetermined position in the virtual space, In order that the image of each terminal in the virtual space generated from the image captured by the imaging means of each terminal and viewed from the arrangement position in the virtual space of the terminal is displayed on the terminal Control means for controlling display of images of each terminal of unit If the number of terminals constituting the destination unit indicated by the detected movement input is less than a predetermined number, the terminal constitutes the destination unit. And moving means for moving the terminal to the arrangement position of the destination unit in the virtual space, It is characterized by including.
[0016]
Claim 1 Image processing device The unit is composed of a predetermined number of terminals, plural The unit is arranged at a predetermined position in the virtual space.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration example of an image processing system to which the present invention is applied. In this configuration example, a plurality of terminals 1-1 to 1-6 are connected to the master server 2 via the network 3. The network 3 can be configured by an intranet or a LAN (Local Area Network) in addition to the Internet.
[0018]
FIG. 2 shows a configuration of the terminal 1 (hereinafter, when the terminals 1-1 to 1-6 do not need to be individually distinguished, they are simply referred to as the terminal 1. The same applies to other devices). The detection device 11 detects the orientation of the face or line of sight of the user 51 shown in FIG. The detection result of the detection device 11 is A / D converted by the A / D converter 15 and then input to the arithmetic device 19. The will input device 12 is composed of, for example, a keyboard, a mouse, a joystick, and the like, and is operated by a user as necessary. The signal input from the will input device 12 is A / D converted by the A / D converter 16 and then input to the arithmetic device 19.
[0019]
The acoustic input device 13 is configured by a microphone, for example, and takes in a user's voice. The sound signal input from the sound input device 13 is A / D converted by the A / D converter 17 and then input to the arithmetic device 19. The image input device 14 is configured by, for example, a video camera, and the image signal input from the image input device 14 is A / D converted by the A / D converter 18 and then input to the arithmetic device 19.
[0020]
The audio reproduction device 22 is constituted by a speaker, for example, and is input after the digital audio signal input from the arithmetic device 19 is D / A converted by the D / A converter 20. The audio playback device 22 outputs the input audio signal. The video display device 23 includes a screen made of, for example, an LCD (Liquid Crystal Display) and a projector that projects an image on the screen. The digital image data output from the arithmetic device 19 is converted into D / A by the D / A converter 21. It is input after A conversion. The video display device 23 displays the input video signal. As will be described later with reference to FIG. 3, the image input device 14 images the user via the video display device 23. Therefore, the arithmetic device 19 controls the video display device 23 to control the timing for displaying the image and the timing for capturing an image with the image input device 14.
[0021]
The arithmetic unit 19 can be configured by, for example, a personal computer. The transmission / reception device 24 is configured by a modem or the like, for example, and communicates with the master server 2 via the network 3.
[0022]
FIG. 3 shows the arrangement of each device constituting the terminal 1. The user 51 of the terminal 1 observes the image of the user of the other terminal displayed on the screen 45 by the projector 44 constituting the video display device 23. Behind the screen 45, a microphone 41 constituting the acoustic input device 13, a video camera 42 constituting the image input device 14, and a speaker 43 constituting the audio reproduction device 22 are arranged. The microphone 41 captures an audio signal generated by the user 51, and the speaker 43 outputs an audio signal from another user that is transmitted to the user 51.
[0023]
The video camera 42 images the user 51 via the screen 45. The screen 45 is composed of an LCD, and is controlled by the arithmetic unit 19 so as to perform time-division operation. That is, the screen 45 is controlled so as not to transmit light when displaying the image of the projector 44, and is controlled so as to transmit light when the user 51 is imaged from the video camera 42. When displaying the image by the projector 44 on the screen 45, the arithmetic unit 19 stops the imaging by the video camera 42, displays the image irradiated from the projector 44 on the screen 45, and causes the user 51 to observe it. In addition, the arithmetic unit 19 stops the operation of the projector 44 and controls the screen 45 to transmit light at the timing when the video camera 42 captures the image of the user 51. Therefore, the video camera 42 can capture an image of the user 51 via the screen 45.
[0024]
FIG. 4 shows a configuration example of the master server 2. The input device 31 includes a keyboard, a mouse, and the like, and is operated when an administrator inputs various commands. The arithmetic device 32 executes various processes in response to commands from the input device 31. The storage device 34 includes a hard disk, a magnetic disk, a magneto-optical disk, and the like, and stores various data and programs executed by the arithmetic device 32. The transmission / reception device 33 is configured by a modem or the like, for example, is controlled by the arithmetic device 32, and communicates with the terminal 1 via the network 3.
[0025]
In this example, the terminal 1 has a total of four video cameras 42F, 42R, 42L, and 42B as shown in FIG. The video cameras 42F, 42R, and 42L are disposed on the back side of the screen 45 as viewed from the user 51. The video camera 42F is disposed at a position for capturing the face of the user 51 from the front, the video camera 42R is disposed at a position for capturing the face of the user 51 from the right side, and the video camera 42L is disposed at the position of the user 51. Is arranged at a position for imaging from the left side. The video camera 42B is disposed behind the user 51 and images the user 51 from behind.
[0026]
In any terminal 1, the video cameras are arranged similarly.
[0027]
The computing device 32 of the master server 2 configures one unit by arranging four terminals 1 in a square shape as shown in FIG. 6 in a virtual space managed by the master server 2. In the example of FIG. 6, the video camera of the terminal 1-1 is arranged at the lower center, the video camera of the terminal 1-2 is arranged at the upper right, and the video camera of the terminal 1-3 is arranged at the upper side. The video camera of the terminal 1-4 is arranged on the upper left side. Of course, each of the terminals 1-1 to 1-4 is actually arranged at an independent position in the virtual space, and the arrangement shown in FIG. 6 is only a virtual space managed by the master server 2. Arrangement above.
[0028]
In other words, the arithmetic unit 32 arranges the terminals 1-1 to 1-4 in this way, so that the table T and the seats S1 to S4 around the table T are provided in the virtual space as shown in FIG. The arranged state is managed as one unit. That is, the computing device 32 assumes that the users of the terminals 1-1 to 1-4 are sitting in the seats S1 to S4 in the virtual space and are having a meeting, respectively. -4 controls the display of the image.
[0029]
Furthermore, the arithmetic unit 32 arranges three tables T1 to T3 in the virtual space 60 as shown in FIG. In this example, the table T1 is arranged at the lower center of the virtual space 60, the table T2 is arranged on the right side thereof, and the table T3 is arranged on the left side thereof. In FIG. 8, at the end of the numbers of each video camera and the screen, -1 is added to the table T1, the -2 is added to the table T2, and the table T3 has -3 is added.
[0030]
A simplified illustration of the virtual space 60 of FIG. 8 managed by the arithmetic device 32 is as shown in FIG. Four seats A to D are prepared on the table T1, four seats E to H are prepared on the table T2, and four seats I to L are prepared on the table T3. When the user of each terminal 1 accesses the master server 2, he / she is provided with a table layout diagram as shown in FIG. 9 of the virtual space 60, and designates a desired seat of the virtual space 60. Attend a meeting at
[0031]
For example, when the user of the terminal 1 acquires the seat A of the table T1 as his / her seat, the arithmetic device 32 of the master server 2 displays an image as shown in FIG. 10 on the screen 45 of the terminal 1 Let That is, on the screen 45, images of the users b to d of the other terminals 1 sitting on the other seats B to D of the table T1 of the seat A on which they are sitting are displayed around the table T1. . Similarly, the images e to h of the users of the terminals 1 sitting on the seats E to H are displayed around the table T2, and the users sitting on the seats I to L around the table T3. Images i to l are displayed.
[0032]
Next, the operation of this video conference system will be described with reference to the flowcharts of FIG. 11 and FIG. When the user commands attendance to the video conference system by operating the will input device 12, the computing device 19 of the terminal 1 controls the transmission / reception device 24 in step S 1, and the master server 2 via the network 3. And introduce the current connection status of the video conference system. In step S2, the arithmetic unit 19 determines whether or not there is a response to the connection status inquiry from the master server 2. If there is no response, the operation unit 19 proceeds to step S3, and a predetermined number of times of connection requests is set in advance. It is determined whether or not the threshold value is smaller than N. If the connection request count is smaller than the threshold value N, the process returns to step S1, and the connection status inquiry process is executed again.
[0033]
As described above, when there is no response even if the connection status inquiry is performed N times with respect to the master server 2, the arithmetic unit 19 of the terminal 1 ends the processing.
[0034]
When the arithmetic device 32 of the master server 2 receives a connection status inquiry request from the terminal 1 via the transmission / reception device 33, it checks the current connection status of the virtual space 60 stored in the storage device 34, and is free. Determine if there are seats available. When there is no vacant seat, the computing device 32 does not respond to the terminal 1. Therefore, in such a case, the terminal 1 cannot attend the video conference.
[0035]
When there is a vacant seat in the virtual space 60, the arithmetic device 32 of the master server 2 generates an image indicating the current connection status in step S4, and the transmission / reception device 33 transmits the image to the terminal 1 via the network 3. Send. When the arithmetic device 19 of the terminal 1 receives the response from the master server 2 via the transmission / reception device 24, the image corresponding to the received data is processed via the D / A converter 21 in step S4. The image is supplied to the projector 44 constituting the device 23 and displayed on the screen 45. Thereby, the position of each table and seat is displayed on the screen 45, for example, as shown in FIG. Each seat is displayed so that a vacant seat and a seat where another user is already sitting can be identified. In the example of FIG. 13, the hatched seats are seats where other users are sitting, and the seats that are not hatched are empty seats. Therefore, in the example of FIG. 13, seats A, D, and G are vacant, and other users have already used other seats.
[0036]
The user looks at the display shown in FIG. 13 and operates the will input device 12 in step S5 to input a seat desired to be acquired from vacant seats and request login. For example, when the user designates seat A, the letter A key is operated on the keyboard. The arithmetic device 19 transmits data corresponding to the input from the will input device 12 to the master server 2 via the transmission / reception device 24.
[0037]
In step S6, the arithmetic unit 19 determines whether or not the login OK signal has been received from the master server 2, and if the login OK signal has not been received, the processing unit 19 proceeds to step S7, and the connection request count is set in advance. It is determined whether or not it is smaller than a predetermined threshold value N set. If the connection request count is smaller than the threshold value N, the process returns to step S5, and the subsequent processing is repeatedly executed. If the connection request count is equal to or greater than the threshold value N, the arithmetic unit 19 ends the process.
[0038]
If it is determined that the login is OK, the arithmetic device 32 of the master server 2 proceeds to step S8, assigns the terminal 1 to the seat designated from the terminal 1 in step S5, and changes the connection in the virtual space 60. To do. Thereby, for example, the state where the new terminal 1 is assigned to the seat A shown in FIG. 13 is the current connection state of the virtual space 60. The arithmetic device 32 of the master server 2 reads an image corresponding to this connection status from the storage device 34 and transmits it to the terminal 1 via the transmission / reception device 33.
[0039]
When the arithmetic device 19 of the terminal 1 receives this data via the transmission / reception device 24, it displays a corresponding image on the screen 45. Thereby, for example, an image as shown in FIG. 14 is displayed on the screen 45 in this case. That is, images i to l of users of the terminals sitting in the four seats I to L are displayed on the table T3. Around the table T2, images e, f, and h of users sitting in the seats E, F, and H excluding the seat G are displayed. On the table T1, images b and c of the users sitting in the seats B and C, respectively, are displayed. Since seats D and H are vacant, no image is displayed. The images b and c of the seat of the table T1 where the user is located are displayed larger than the images e, f, h to l of the other tables T2 and T3.
[0040]
When the user attends the video conference, the detection device 11 detects the face direction or the line-of-sight direction of the user. The detection result is transmitted from the arithmetic device 19 to the master server 2 via the transmission / reception device 20.
[0041]
The arithmetic device 32 of the master server 2 receives the direction detection data from the terminal 1 and, in step S9, determines whether or not the user of the terminal 1 has been gazing at the same direction for a predetermined time set in advance. judge. If the same direction is not watched for a certain period of time, the process of step S9 is repeatedly executed.
[0042]
As shown in FIG. 14, the angle θ1 detected as the direction in which the user is facing is converted into an angle θ2 in the virtual space 60 as shown in FIG. It is determined by doing.
[0043]
When it is determined that the user 51 of the terminal 1 is gazing at the predetermined direction for a certain time or longer, the arithmetic device 32 proceeds to step S10, and the gazing person (the user gazing at the predetermined direction) is positioned. Limit the volume from the table to be played. For example, if the user sitting on the seat A of the table T1 has been watching the seat G of the table T2 for a certain period of time, the user determines that he is not interested in the conversation at the table T1. The volume of the voice from the user sitting on the seat B or the seat C of the table T1 is reduced. Alternatively, the image b of the user sitting on the seat B and the image c of the user sitting on the seat C shown in FIG. Similarly, the volume of the voice of the user of the seat A provided to the terminal 1 of the user sitting in the seat B and the seat C is reduced, and the image a is reduced. Thereby, for example, the user sitting on the seats B and C of the table T1 can know that the user sitting on the seat A is not interested in the conversation now.
[0044]
Next, it progresses to step S11 and the calculating apparatus 32 displays the image of the gaze person on the display image with respect to the user of the table currently being watched large. In this case, since the user of the seat A is gazing at the seat G of the table T2, the image a of the user A viewed from the user using the seats E, F, and H of the table T2 Display larger than the image.
[0045]
That is, an image as shown in FIG. 16 is displayed on the screen 45 of the user terminal sitting on the seat F of the table T2. The images e and h of the user sitting on the table T2 on which the user is sitting are displayed larger than the images a to d and i to l of the user sitting on the seats of the distant tables T1 and T3. Yes. Since the image a of the user sitting on the seat A is also an image of the distant table T1, if the user of the seat A does not watch the table T2, the image a is displayed in the same size as the other images b to d. However, when the user of the seat A watches the table T2 for a certain period of time, two images a of the user of the seat A are shown in FIG. 16 so that the user of the table T2 can notice this. It is displayed large as shown by the chain line. At this time, the sound from the seat A may also be greatly output to the user of the table T2. Thereby, the user of the table T2 can guess beforehand that the user of the seat A may move to the table T2.
[0046]
In addition to displaying the image a larger, the image a may be displayed brighter than others or blinked.
[0047]
In step S12, the computing device 32 further determines whether or not the user has been gazing in the same direction for a certain period of time. If the user has stopped gazing on the way, the process returns to step S9, and thereafter Repeat the process. When the user keeps gazing for a certain period of time, the process proceeds to step S13, and the calculation device 32 determines whether there is a vacant seat in the direction in which the user is gazing. If there is no vacant seat, the process returns to step S9, and the subsequent processing is repeatedly executed. If there is a vacant seat, the process proceeds to step S14, and the computing device 19 of the terminal 1 performs the same processing as when the master server 2 is requested to move from the will input device 12 to a predetermined seat. Execute. That is, the arithmetic unit 19 requests the master server 2 to move to the seat G.
[0048]
When the arithmetic device 32 of the master server 2 receives a transfer request from the arithmetic device 19 of the terminal 1, it determines whether or not to accept it in step S15. If another user has already applied for the seat, the request is rejected, the process returns to step S9, and the subsequent processing is executed. When the seat is vacant, the arithmetic device 32 of the master server 2 allocates the seat to the terminal 1 in response to this request. For this reason, it returns to step S8 and the arithmetic unit 32 performs the process which allocates the seat G to the user of the terminal 1. FIG.
[0049]
As a result, the screen 45 of the terminal 1 that has moved to the seat G is switched from the image shown in FIG. 14 to the image shown in FIG.
[0050]
Note that gaze for a certain time or more may be detected on each terminal side. In addition, the intention to move may be displayed by a gesture in which the user indicates the direction with a finger, or by a mechanical operation such as a keyboard, a mouse, or a joystick.
[0051]
In the above, one screen 45 is displayed and images of all video conference attendees on the virtual space 60 are displayed on the screen 45. For example, as shown in FIG. The screens 45BL, 45BC, BR for displaying the image of the user sitting on the seat of the table T1 are configured independently of the screen 45A for displaying the images of the user sitting on the seats of the other tables T2 to T4. You can also. In this way, a more realistic system can be realized.
[0052]
In the example shown in FIG. 18, the image of the table T1 on which the user is sitting displays the image c of the user sitting on the seat on the opposite side of the user on the screen 45BC in front of the table T1. The image b of the user sitting in his / her right seat is displayed on the right screen 45BR, and the image d of use sitting in the left seat is displayed on the left screen 45BL. However, on the screen 45A, for example, as shown in the table T2, the images g and h of the users sitting in the two seats G and H are displayed as front images, and they are seated in the two seats E and F in front A user's images e and f are an image viewed from the right side and an image viewed from the left side, respectively.
[0053]
Thus, when displaying an image, the arithmetic unit 32 of the master server 2 manages the virtual space 60 as shown in FIG. 19, for example. The image c displayed on the screen 45BC of the table T1 is an image captured by the video camera 42F-3-1, the image b displayed on the screen 45BR is an image captured by the video camera 42L-2-1, and is displayed on the screen 45BL. The image d to be displayed is an image captured by the video camera 42R-4-1. On the other hand, for example, the image g of the table T2 is an image captured by the video camera 42F-3-2, the image h is an image captured by the video camera 42F-4-2, and the image e is the video camera 42R. It is assumed that the image is captured with -1-2, and the image f is an image captured with the video camera 42L-2-2.
[0054]
In this way, there is no backward-facing image, and attendees can be confirmed more easily. Therefore, in this case, the video camera 42B that images the user from behind is not necessary.
[0055]
For example, as shown in FIG. 10, in the example in which the image of the own table is displayed on one screen 45 as well as the image of the other table, the arrangement of the seats between the own table and the other table. Can be slightly different, the video camera 42B behind each terminal 1 can be omitted.
[0056]
FIG. 20 shows another arrangement example of the projector, the video camera, and the screen in each terminal 1. In this example, a video camera 42F is disposed in front of the user 51, a video camera 42B is disposed in the rear, a video camera 42L is disposed on the front left side, and a video camera 42R is disposed on the front right side. This is the same as in the case of FIG. 5, but in this example, the screen 45 is a surround screen and is arranged so as to surround the user 51. A projector 44A is disposed in front of the user 51, a projector 44B is disposed on the left rear, and a projector 44C is disposed on the right rear so that an image can be displayed on the surround screen. Thereby, an image is displayed on at least a range on the surround screen that is visible to the user 51. In this way, a more realistic system can be realized.
[0057]
In the above, the case where the present invention is applied to a video conference system has been described as an example. However, the present invention can also be applied to parties other than a video conference such as a virtual space party.
[0058]
In this way, at least the image of the user of the table where he / she is located is displayed larger than the image of the user located at the other table, so even if the number of tables increases, The image of the user of the table where the user is located can be confirmed with certainty. In addition, since it is possible to move to another table in the virtual space, even if the image of the other table is displayed in a small size, the face of the attendees at that table can be displayed larger by moving to that table. Can be confirmed. Therefore, it is possible to easily realize communication with a large number of people as in an actual meeting or party.
[0059]
In order to realize a translucent screen, the screen 45 is operated in a time-sharing manner in the above. However, as shown in FIG. 21, for example, the screen 45 has one surface as an irregular reflection surface 81 and the other surface. Can be a translucent surface 82 and can be a translucent screen substantially like a half mirror. In this case, as shown in FIG. 21, the irregular reflection surface 81 is disposed on the projector 44 side, and the translucent surface 82 is disposed on the video camera 42 side.
[0060]
On the irregular reflection surface 81, square irregular reflection portions 91 and transparent portions 92 are arranged in a checkered pattern, as shown in FIG. The surface of the irregular reflection portion 91 is processed so as to diffusely reflect the incident light. The transparent portion 92 is configured to transmit the incident light as it is.
[0061]
The opposite side (video camera 42 side) of the irregular reflection portion 91 is a black portion 93 as shown in FIG. The black portion 93 is colored black. The irregular reflection portion 91 and the transparent portion 92, and thus the black portion 93 and the transparent portion 92 are sufficiently small regions.
[0062]
When the light emitted from the projector 44 is irradiated onto the irregular reflection surface 81, the irregular reflection portion 91 reflects the light irregularly, and the user 51 can visually recognize an image composed of the irregularly reflected light. The light incident on the transparent portion 92 of the irregular reflection surface 81 is directly transmitted to the video camera 42 side.
[0063]
On the other hand, the video camera 42 images the user 51 via the transparent portion 92. Since the focus of the video camera 42 is not on the screen 45 but on the user 51, the video camera 42 can capture an image of the user 51, although it is a slightly dark image. The light from the projector 44 transmitted through the transparent portion 92 can be substantially limited by providing the video camera 42 with directivity or providing a lens hood.
[0064]
In the example shown in FIGS. 22 and 23, the irregular reflection portion 91, the black portion 93, and the transparent portion 92 are each rectangular and arranged in a checkered pattern, but for example, as shown in FIG. 91 (black part 93) may be formed in a hexagonal shape, and the transparent part 92 may be formed around the irregular reflection part 91 (black part 93).
[0065]
Further, as shown in FIG. 25, the irregular reflection portion 91 (black portion 93) may be formed in a quadrangular shape, and a transparent portion 92 may be disposed around the quadrangular shape.
In the present specification, the term “system” represents the entire apparatus including a plurality of apparatuses.
In addition, as a providing medium for providing a computer program for performing the processing as described above to a user, a communication medium such as a network or a satellite can be used in addition to a recording medium such as a magnetic disk, a CD-ROM, or a solid memory. .
[0067]
【The invention's effect】
Claim 1 Image processing device According to the above, a unit composed of a predetermined number of terminals is arranged at a predetermined position in the virtual space, and the display of the image of each terminal of the unit is controlled. Communication will be possible in the same way as in real space.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of a system to which the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration example of the terminal in FIG. 1;
FIG. 3 is a diagram for explaining an arrangement of devices constituting the terminal of FIG. 2;
4 is a block diagram illustrating a configuration example of a master server in FIG. 1. FIG.
FIG. 5 is a diagram for explaining a planar arrangement of devices included in the terminal of FIG. 2;
FIG. 6 is a diagram illustrating the configuration of a unit.
FIG. 7 is a diagram illustrating a configuration of a unit in a virtual space.
FIG. 8 is a diagram illustrating the arrangement of units in a virtual space.
FIG. 9 is a diagram illustrating the arrangement of units in a virtual space.
FIG. 10 is a diagram illustrating a display example of a screen.
FIG. 11 is a flowchart for explaining the operation of the system of FIG. 1;
FIG. 12 is a flowchart for explaining the operation of the system of FIG. 1;
FIG. 13 is a diagram illustrating a display example of a screen.
FIG. 14 is a diagram illustrating gaze on a screen.
FIG. 15 is a diagram illustrating gaze in a virtual space.
FIG. 16 is a diagram illustrating a display example of a screen on the terminal side that is watched.
FIG. 17 is a diagram illustrating a display example of a screen after moving in a virtual space.
FIG. 18 is a diagram showing another display example of the screen.
19 is a diagram for explaining the arrangement of units in a virtual space for realizing the display example of FIG.
FIG. 20 is a diagram illustrating another example of a planar arrangement of devices included in a terminal.
FIG. 21 is a diagram showing another example of the screen.
22 is a diagram showing a configuration of an irregular reflection surface of the screen of FIG. 21. FIG.
FIG. 23 is a diagram showing a configuration of a translucent surface of the screen of FIG.
24 is a diagram showing another configuration example of the screen in FIG. 21. FIG.
25 is a diagram showing another configuration example of the screen in FIG. 21. FIG.
[Explanation of symbols]
1-1 to 1-6 terminal, 2 master server, 3 network, 11 detection device, 14 image input device, 22 audio reproduction device, 23 video display device, 19 arithmetic device, 32 arithmetic device, 34 storage device, 41 microphone, 42 video cameras, 43 speakers, 44 projectors, 45 screens

Claims (3)

他の使用者の画像を表示する表示手段と、
前記表示手段を介して使用者を撮像する撮像手段と
を含む複数の端末とともに、ネットワークに接続され、仮想空間を提供する画像処理装置において、
所定の数の前記端末によりユニットを構成し、複数の前記ユニットを仮想空間内の所定の位置に配置する配置手段と、
前記配置手段による配置に対応して、各端末の前記撮像手段により撮像された画像に基づいて生成された、前記端末の前記仮想空間内の配置位置から見た前記仮想空間内の各端末の画像が前記端末において表示されるように、前記ユニットの各端末の画像の表示を制御する制御手段と、
前記端末の使用者の移動入力を検出し、検出された前記移動入力により示される移動先の前記ユニットを構成する端末が予め定められた特定の数より少ない場合、前記端末が前記移動先の前記ユニットを構成するように、前記仮想空間内で前記端末を前記移動先の前記ユニットの配置位置に移動させる移動手段と
を含むことを特徴とする画像処理装置。
Display means for displaying images of other users;
In an image processing apparatus that is connected to a network and provides a virtual space, together with a plurality of terminals including an imaging unit that images a user via the display unit,
A disposing unit that configures a unit by a predetermined number of the terminals, and disposes the plurality of units at predetermined positions in a virtual space;
Corresponding to the arrangement by the arrangement unit, the image of each terminal in the virtual space, which is generated based on the image captured by the imaging unit of each terminal and viewed from the arrangement position of the terminal in the virtual space. Control means for controlling display of an image of each terminal of the unit, so that is displayed on the terminal ;
When the movement input of the user of the terminal is detected and the number of terminals constituting the unit of the movement destination indicated by the detected movement input is less than a predetermined number, the terminal An image processing apparatus comprising: moving means for moving the terminal to an arrangement position of the destination unit in the virtual space so as to constitute a unit.
前記移動手段は、前記移動入力を、前記端末の使用者の所定の位置の視線、顔の向き、ジェスチャ、または機械的な操作入力から検出する
ことを特徴とする請求項1に記載の画像処理装置。
The image processing according to claim 1 , wherein the moving unit detects the movement input from a line of sight of a predetermined position of the user of the terminal, a face direction, a gesture, or a mechanical operation input. apparatus.
前記制御手段は、前記端末を前記移動先の前記ユニットに移動させた場合、移動後の前記ユニットを構成する各端末の配置に応じて、前記ユニットの各端末の画像の表示または音の出力更新する
ことを特徴とする請求項1に記載の画像処理装置。
When the control unit moves the terminal to the destination unit, the control unit displays an image of each terminal of the unit or outputs a sound according to the arrangement of the terminals constituting the unit after the movement. The image processing apparatus according to claim 1 , wherein the image processing apparatus is updated .
JP07437899A 1999-03-18 1999-03-18 Image processing device Expired - Lifetime JP4501171B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP07437899A JP4501171B2 (en) 1999-03-18 1999-03-18 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07437899A JP4501171B2 (en) 1999-03-18 1999-03-18 Image processing device

Publications (2)

Publication Number Publication Date
JP2000270306A JP2000270306A (en) 2000-09-29
JP4501171B2 true JP4501171B2 (en) 2010-07-14

Family

ID=13545458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07437899A Expired - Lifetime JP4501171B2 (en) 1999-03-18 1999-03-18 Image processing device

Country Status (1)

Country Link
JP (1) JP4501171B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070279483A1 (en) * 2006-05-31 2007-12-06 Beers Ted W Blended Space For Aligning Video Streams
JP2014197109A (en) * 2013-03-29 2014-10-16 株式会社コナミデジタルエンタテインメント Image display device, image display method, and computer program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02228893A (en) * 1989-03-02 1990-09-11 Nippon Telegr & Teleph Corp <Ntt> Display photographing device for image communication
JPH0496581A (en) * 1990-08-14 1992-03-27 Nippon Telegr & Teleph Corp <Ntt> Picture display device of visual line coincidence type
JPH05316504A (en) * 1992-05-08 1993-11-26 Nippon Telegr & Teleph Corp <Ntt> Seat selection device in video communication
JPH0970030A (en) * 1995-08-31 1997-03-11 Mitsubishi Electric Corp Image display method for virtual conference system and virtual conference terminal equipment
JPH09325991A (en) * 1996-06-04 1997-12-16 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional virtual world display system
JPH1040197A (en) * 1996-07-19 1998-02-13 Fujitsu Ltd Communication managing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02228893A (en) * 1989-03-02 1990-09-11 Nippon Telegr & Teleph Corp <Ntt> Display photographing device for image communication
JPH0496581A (en) * 1990-08-14 1992-03-27 Nippon Telegr & Teleph Corp <Ntt> Picture display device of visual line coincidence type
JPH05316504A (en) * 1992-05-08 1993-11-26 Nippon Telegr & Teleph Corp <Ntt> Seat selection device in video communication
JPH0970030A (en) * 1995-08-31 1997-03-11 Mitsubishi Electric Corp Image display method for virtual conference system and virtual conference terminal equipment
JPH09325991A (en) * 1996-06-04 1997-12-16 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional virtual world display system
JPH1040197A (en) * 1996-07-19 1998-02-13 Fujitsu Ltd Communication managing device

Also Published As

Publication number Publication date
JP2000270306A (en) 2000-09-29

Similar Documents

Publication Publication Date Title
US7756675B2 (en) Group-determination-table generating device and method
US8355040B2 (en) Telepresence conference room layout, dynamic scenario manager, diagnostics and control system and method
US8300078B2 (en) Computer-processor based interface for telepresence system, method and computer program product
US6330022B1 (en) Digital processing apparatus and method to support video conferencing in variable contexts
US8638354B2 (en) Immersive video conference system
US20040254982A1 (en) Receiving system for video conferencing system
US11595448B1 (en) Method and apparatus for automatically creating mirrored views of the video feed of meeting participants in breakout rooms or conversation groups during a videoconferencing session
US20110283008A1 (en) Video Class Room
JP2004072741A (en) Multi-participant conference system for controlling contents and delivery with back channel video interface
US20110074911A1 (en) Gesture-Based Actions in a Video Communication Session
JP3660198B2 (en) Three-dimensional shared virtual space display method, three-dimensional shared virtual space communication system and method, virtual conference system, and recording medium recording user terminal program therefor
US11546385B1 (en) Method and apparatus for self-selection by participant to display a mirrored or unmirrored video feed of the participant in a videoconferencing platform
US11621979B1 (en) Method and apparatus for repositioning meeting participants within a virtual space view in an online meeting user interface based on gestures made by the meeting participants
CN105306872B (en) Control the methods, devices and systems of multipoint videoconference
US11831454B2 (en) Full dome conference
WO2000014958A1 (en) Method for generating video programs, variants, and system for realising this method
JP4501171B2 (en) Image processing device
JP2004007561A (en) Video conference system, terminal equipment included in the same system, and data distributing method
JPH09107534A (en) Video conference equipment and video conference system
KR20150087017A (en) Audio control device based on eye-tracking and method for visual communications using the device
JP4085685B2 (en) Video conference system, terminal device included therein, and communication method
US11647064B1 (en) Computer systems for managing interactive enhanced communications
JP2003101981A (en) Electronic cooperative work system and program for cooperative work system
Okada et al. Design and evaluation of MAJIC videoconferencing system
JP2010028299A (en) Conference photographed image processing method, conference device, and the like

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100412

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140430

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term