JP4089027B2 - Bidirectional communication system, terminal device and control method - Google Patents

Bidirectional communication system, terminal device and control method Download PDF

Info

Publication number
JP4089027B2
JP4089027B2 JP25157898A JP25157898A JP4089027B2 JP 4089027 B2 JP4089027 B2 JP 4089027B2 JP 25157898 A JP25157898 A JP 25157898A JP 25157898 A JP25157898 A JP 25157898A JP 4089027 B2 JP4089027 B2 JP 4089027B2
Authority
JP
Japan
Prior art keywords
point
camera
user
terminal device
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25157898A
Other languages
Japanese (ja)
Other versions
JP2000083228A (en
Inventor
哲二郎 近藤
洋 一木
靖 立平
真史 内田
知之 大月
淳一 石橋
典文 吉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP25157898A priority Critical patent/JP4089027B2/en
Publication of JP2000083228A publication Critical patent/JP2000083228A/en
Application granted granted Critical
Publication of JP4089027B2 publication Critical patent/JP4089027B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、例えば、異なる複数の地点間においてなされる遠隔テレビ会議等に用いて好適な双方向通信システム、端末装置および制御方法に関する。
【0002】
【従来の技術】
従来、映像表示装置と撮影装置と通信手段とを用いて、遠隔地において相互にコミニュケーションを図ることが可能な装置が種々提案されている。このような装置を実際に用いる場合には、映像表示装置の上や隣接箇所に別体の撮影装置を設置するか、あるいは、映像表示装置と撮影装置とが一体化され、映像表示装置の縁部に撮影装置が内蔵されたものが用いられる。例えば、A地点に人物aが位置し、B地点に人物bが位置しているものとし、A地点およびB地点の間でコミニュケーションを図る場合について説明すると、A地点の撮影装置による映像は、B地点の映像表示装置の画面上に映し出され、B地点の撮影装置による映像は、A地点の映像表示装置の画面上に映し出される。このようにそれぞれ互いに相手側の映像を映し出すことで、離れている2者a,bがあたかもお互いの目の前にいるような視覚的な状況が形成され、コミニュケーションが図られる。
【0003】
【発明が解決しようとする課題】
しかしながら、上述した装置においては、撮影装置の光軸と表示画面を見る目線がずれているため、コミニュケーションが不自然になってしまうことがある。このため、表示画面を十分に大きくしたものを用いて臨場感を高めることでコミニュケーションを図り易くすることが考えられるが、表示画面を大きくすればする程、目線が合いにくくなる問題点があった。このような問題を解決するため、一つの方法としてハーフミラーを用いて撮影装置の光軸と表示画面とを一致させることが考えられるが、構造上表示画面を大きくしにくく、また、コストや設置面積が大きくなるという問題点がある。また、他の方法として、網のようなスクリーンとプロジェクタを用いて表示画面の裏側から撮影するように構成された装置も提案されているが、投影された映像が暗くなってしまうため、明るい部屋等では、かえって使いにくくなる欠点を有していた。
【0004】
従って、この発明の目的は、利用者の視線と顔の位置に応じて相手側の撮影装置を制御し、表示画面と視線を一致させることで臨場感を高めることができると共に、円滑にコミュニケーションを図ることができる双方向通信システム、端末装置および制御方法を提供することにある。
【0005】
【課題を解決するための手段】
以上の問題を達成するために、請求項1の発明は、通信を介して異なる一方の地点および他方の地点に位置する第1の端末装置および第2の端末装置の間で映像および音声情報の交換がなされる双方向通信システムにおいて、
一方の地点の利用者の顔の位置および視線方向を検出する一の検出方法と、利用者の顔の位置を検出し、検出された顔の位置とカメラおよび一方の地点の利用者との距離に応じて視線方向を推定する他の検出方法の一方によって得られた顔の位置および視線方向に応じて、他方の地点のカメラの光軸を制御する制御情報を出力する第1の検出手段と、一の検出方法と他の検出方法との一方を選択する第1の設定手段と、第2の端末装置から送られてくる制御情報に応じて、一方の地点のカメラの光軸を制御する第1の制御手段と、他方の地点のカメラによる映像を映し出す第1の表示手段とを備えた第1の端末装置と、
他方の地点の利用者の顔の位置および視線方向を検出する一の検出方法と、利用者の顔の位置を検出し、検出された顔の位置とカメラおよび他方の地点の利用者との距離に応じて視線方向を推定する他の検出方法の一方によって得られた顔の位置および視線方向に応じて、一方の地点のカメラの光軸を制御する制御情報を出力する第2の検出手段と、一の検出方法と他の検出方法との一方を選択する第2の設定手段と、第1の端末装置から送られてくる制御情報に応じて、他方の地点のカメラの光軸を制御する第2の制御手段と、一方の地点のカメラによる映像を映し出す第2の表示手段とを備えた第2の端末装置とにより構成されることを特徴とする双方向通信システムである。
【0006】
請求項2の発明は、通信を介して異なる一方の地点および他方の地点に位置する複数の端末装置の間で映像および音声情報の交換がなされる双方向通信システムにおける一方の地点に位置する端末装置において、
一方の地点の利用者の顔の位置および視線方向を検出する一の検出方法と、利用者の顔の位置を検出し、検出された顔の位置とカメラおよび一方の地点の利用者との距離に応じて視線方向を推定する他の検出方法の一方によって得られた顔の位置および視線方向に応じて、他方の地点のカメラの光軸を制御する制御情報を出力する検出手段と、
一の検出方法と他の検出方法との一方を選択する設定手段と、
他方の地点の端末装置から送られてくる制御情報に応じて、一方の地点のカメラの光軸を制御する制御手段と、
他方の地点のカメラによる映像を映し出す表示手段とを備えたことを特徴とする端末装置である。
【0007】
さらに、請求項の発明は、通信を介して異なる一方の地点および他方の地点に位置する複数の端末装置の間で映像および音声情報の交換を行う制御方法において、
一方の地点の利用者の顔の位置および視線方向を検出する一の検出方法と、利用者の顔の位置を検出し、検出された顔の位置とカメラおよび一方の地点の利用者との距離に応じて視線方向を推定する他の検出方法の一方によって得られた顔の位置および視線方向に応じて、他方の地点のカメラの光軸を制御する制御情報を出力する検出ステップと、
一の検出方法と他の検出方法との一方を選択する設定ステップと、
他方の地点の端末装置から送られてくる制御情報に応じて、一方の地点のカメラの光軸を制御する制御ステップと、
他方の地点のカメラによる映像を映し出す表示ステップとを有することを特徴とする制御方法である。
【0008】
この発明では、例えば、地点Aおよび地点Bに位置するそれぞれの利用者に対して検出部、表示部、撮影部、および光軸制御部を有した同一構成の端末装置が設けられる。地点Aの端末装置の検出部において利用者の顔の位置および視線方向が検出され、この検出結果に応じて形成された制御情報が相手先となる地点Bの端末装置の光軸制御部に供給される。光軸制御部において制御情報に応じた制御信号が形成され、この制御信号により撮影部が制御されてカメラの光軸が所定位置に変位されると共に、所定方向に向けられる。地点Bの撮影部のカメラにより撮影された映像情報が表示部に供給され、表示部には、地点Aの利用者の顔の位置および視線方向に応じて撮影された地点Bの利用者の映像が映し出される。同様な動作が地点Bの端末装置においてもなされ、このことで、利用者のそれぞれの目の前には、互いに先方の利用者を所望の位置と方向から見ているような状況がハーフミラーを介して形成される。
【0009】
【発明の実施の形態】
以下、この発明の一実施形態について図面を参照して説明する。図1は、この発明による双方向通信システムの構成を示し、図2は、この発明による端末装置の主要な部分の構成を示す。なお、図1および図2において対応する箇所に関しては、同一の参照符号が付されている。
【0010】
図1に示すように2つの異なる地点Aおよび地点Bに位置する1aおよび1bで示される利用者の間において双方向に映像および音声情報の交換を行うものとして説明する。この場合においては、利用者1a,1bのそれぞれに対して同一の構成の端末装置2a,2bが設置される。なお、他の地点に利用者が存在する場合や、同一箇所に複数人の利用者が存在する場合には、全ての利用者の組み合わせ毎に端末装置が設置され、端末装置の正面に一人の利用者のみが位置するように用いられる。
【0011】
端末装置2aは、本体ユニット11aと、検出部12aと、図示せずも音声処理部および伝送処理部等により構成され、本体ユニット11aには、表示部14a、光軸制御部15a、およびカメラ16aを有した撮影部17a等が設けられている。また、端末装置2bは、本体ユニット11bと、検出部12bと、図示せずも音声処理部および伝送処理部等により構成され、本体ユニット11bには、表示部14b、光軸制御部15b、およびカメラ16bを有した撮影部17b等が設けられている。
【0012】
端末装置2a,2bのそれぞれがネットワーク/電話回線3に接続され、地点A,Bにおいてネットワーク/電話回線3を介して互いに映像および音声情報と制御情報との交換が可能な状態とされる。具体的には、端末装置2aにおいて形成された映像情報DAと、制御情報CAと、音声情報等とが端末装置2bに供給されると共に、端末装置2bにおいて形成された映像情報DBと、制御情報CBと音声情報等とが端末装置2aに供給される。地点Aおよび地点Bのいずれの地点の端末装置1a,1bも同一の構成とされているため、利用者1a側の端末装置2aを例に挙げてその構成と動作について以下に説明する。
【0013】
図2に示すように端末装置2aを構成する本体ユニット11aの略々中央上側には、ハーフミラー13が配設され、ハーフミラー13の下側に表示部14aが配設され、ハーフミラー13の背面にカメラ16aと機構部等を有した撮影部17aが配設されている。また、撮影部17aに対して光軸制御部15aが配設されている。さらに、本体ユニット11aのハーフミラー13に近接した上端部には、検出部12aが取り付けられている。
【0014】
表示部14aは、例えば、CRT等により構成されており、表示部14aには、B地点のカメラ16bにより撮影された映像情報DBが供給される。従って、表示部14aにおいて、映像情報DBに基づいて映像信号が形成され、この映像信号により表示画面上にB地点において撮影された映像が映し出される。なお、この時、表示部14aの表示画面上においては、ハーフミラーを介して利用者1aが図2中において矢印31で示されるように映像を見ることを考慮し、例えば、反転されると共に、所定の比率で縦方向に伸長処理された映像が映し出される。また、表示部14aとしてCRT以外の例えば液晶表示板等を用いても良い。
【0015】
撮影部17aは、カメラ16aおよび機構部等により構成されおり、機構部には、図2に示すようにY軸直線軌道23と、X軸直線軌道24と、駆動モータ等からなる位置決め用のXYステージが配設されており、Y軸直線軌道23上にカメラ16aが取り付けられている。カメラ16aは、チルト/パン機能を有し、制御信号に応じてチルト角(垂直方向)およびパン角(水平方向)が自在に制御される。従って、撮影部17a全体としては、制御信号により4軸制御が可能とされ、カメラ16aの光軸の位置と方向が自在に制御される。
【0016】
光軸制御部15aには、B地点の検出部12bにおいて形成された制御情報CBが供給され、光軸制御部15において、制御情報CBに基づいて各部への制御信号が形成され、この制御信号が撮影部17aの各部に供給される。このことで、撮影部17aのカメラ16aの光軸の位置と方向とがB地点の利用者1bの所望する状態に変位する。この状態でカメラ16aにより図2中において矢印32で示されるように利用者1aが撮影され、カメラ16aの映像信号が伝送処理部を介されることで映像情報DAとされる。この映像情報DAがネットワーク/電話回線3を介して端末装置2bの表示部14bに供給される。
【0017】
本体ユニット11aのハーフミラー13に近接した上端部に取り付けられた検出部12aは、カメラ21および検出器22により構成されている。図2中において矢印33で示されるようにカメラ21により利用者1aの姿が撮影され、カメラ21の映像出力が検出器22に供給される。検出器22は、所定の処理を行い、利用者1aの顔の位置と視線方向とを検出し、得られた検出結果に基づいて利用者1aの見たい方向を推定して地点B側の端末装置2bの撮影部16bを4軸制御するための制御信号を形成する。
【0018】
検出器22においてなされる顔の位置の検出処理は、例えば、映像信号から肌色成分の分布を計測し、面積の大きい肌色成分部分を顔と判定する。そして、面積の大きい肌色成分部分の重心を顔の中心位置と判定し、重心の変動を顔の動きとして検出する。なお、端末装置2a,2bの間における情報交換に先立って、利用者の顔の登録および較正処理が予めなされ、顔の位置の検出が精度良く行われる。
【0019】
また、検出器22においてなされる視線方向を検出処理は、例えば、先ず、テンプレートマッチング等により顔の幅や黒目、目頭の位置を検出し、大まかな顔の方向を推定する。そして、眼球の回転角度を計算し、得られた顔の方向と加算することで視線方向を検出する。なお、幅や黒目、目頭の位置以外に眉毛、白目、鼻、口等の位置情報を用いるようにしても良い。
【0020】
このように検出器22において利用者1aの顔の位置と視線方向とが検出され、得られた検出結果に応じた制御信号が検出器22において形成される。この制御信号が伝送処理部を介されることで制御情報CAとされ、この制御情報CAがネットワーク/電話回線3を介して端末装置2bの光軸制御部15bに供給される。
【0021】
なお、図示されていない端末装置2aに内蔵された音声処理部は、アンプ、スピーカおよびマイクロホン等により構成されており、音声信号の入出力処理を行う。また、伝送処理部は、ネットワークインターフェース回路、伝送符号/復号器等により構成されており、映像信号および音声信号と制御信号とを伝送媒体等に応じた伝送形態となるように変換し、得られた情報を伝送路上に送出すると共に、その逆に供給される先方からの所定の伝送形態の情報から元の情報を復元し、各部に供給する。
【0022】
上述した端末装置1aと同様に他方の端末装置1b側が構成される。従って、システム全体の動作としては、端末装置2aの検出部12aにおいて利用者1aの顔の位置および視線方向が検出され、この検出結果に応じて形成された制御情報CAが端末装置2bの光軸制御部15bに供給されると共に、端末装置2bの検出部12bにおいて利用者1bの顔の位置および視線方向が検出され、この検出結果に応じて形成された制御情報CBが端末装置2aの光軸制御部15aに供給される。
【0023】
端末装置2aの光軸制御部15aにおいて制御情報CBに応じた制御信号が形成され、この制御信号により撮影部17aが制御されてカメラ16aの光軸が所定位置に変位されると共に、所定方向に向けられる。一方、端末装置2bの光軸制御部15bにおいて制御情報CAに応じた制御信号が形成され、この制御信号により撮影部17bが制御されてカメラ16bの光軸が所定位置に変位されると共に、所定方向に向けられる。
【0024】
端末装置2aの撮影部17aのカメラ16aにより撮影された映像情報DAが端末装置2bの表示部14bに供給されると共に、端末装置2bの撮影部17bのカメラ16bにより撮影された映像情報DBが端末装置2aの表示部14aに供給される。このため、表示部14aには、利用者1aの顔の位置および視線方向に応じ、B地点において撮影された利用者1bの映像が映し出される。一方、表示部14bには、利用者1bの顔の位置および視線方向に応じ、A地点において撮影された利用者1aの映像が映し出される。従って、利用者1a,1bは、互いに先方の利用者を所望の位置と方向から見ているような映像をハーフミラー13を介して目の前にすることができ、あたかも窓を介して会話しているような臨場感でコミニュケーションを図ることができる。
【0025】
上述した利用者の顔の位置および視線方向に応じたカメラの制御動作について図3および図4を用いてさらに詳細に説明する。図3は、端末装置2a側からのの相手側のカメラの制御動作の処理手順を示し、各ステップには、S1〜S6の参照符号が付されている。
【0026】
先ず、ステップS1において、B地点の端末装置2bのカメラ16bを正面に向ける処理がなされる。つまり、撮影部17bの制御状態が初期化され、カメラ16bの光軸の位置および方向が原点位置に戻される。
【0027】
そして、ステップS2において、A地点の利用者1aの顔の位置の検出がなされる。例えば、映像信号から肌色成分の分布を計測し、面積の大きい肌色成分部分を顔と判定する。そして、面積の大きい肌色成分部分の重心を顔の中心位置と判定し、重心の変動を顔の動きとして検出する。
【0028】
次に、ステップS3において、A地点の利用者1aの顔の位置の検出が終了したかどうかの判定がなされる。検出結果がカメラの移動範囲を越えた場合や、処理が不可能だった場合には、ステップS2に戻り、引き続いてA地点の利用者1aの顔の位置の検出がなされる。また、A地点の利用者1aの顔の位置の検出が終了したと判定される場合には、ステップS4に移行する。
【0029】
A地点の利用者1aの顔の位置の検出が終了すると、ステップS4において、A地点の利用者1aの視線方向の検出がなされる。例えば、先ず、テンプレートマッチング等により顔の幅や黒目、目頭の位置を検出し、大まかな顔の方向を推定する。そして、眼球の回転角度を計算し、得られた顔の方向と加算することで視線方向を検出する。なお、テンプレートマッチングにおいては、画像中でマッチングをとる領域をIT とし、テンプレートをTとし、分散をσで表し、平均を<>で表すとすると、下記(1) 式によって計算される相関値Cを最大にするような領域を求めることでなされる。
【0030】
C=(<IT T>−<IT ><T>)/σ(IT )σ(T) ・・・(1)
次に、ステップS5において、A地点の利用者1aの視線方向の検出が終了したかどうかの判定がなされる。検出結果がカメラの移動範囲を越えた場合や、処理が不可能だった場合には、ステップS4に戻り、引き続いてA地点の利用者1aの視線方向の検出がなされる。また、A地点の利用者1aの視線方向の検出が終了したと判定される場合には、ステップS6に移行する。
【0031】
A地点の利用者1aの視線方向の検出が終了すると、ステップS6において、A地点の利用者1aの顔の位置と視線方向の検出結果に基づいてB地点のカメラ16Bの光軸の位置および方向が決定され、制御信号が形成される。つまり、ステップS2において検出されたA地点の利用者1aの顔の位置の結果に応じて端末装置2bの撮影部17bのXYステージが制御され、カメラ16bの光軸が所定位置に変位する。また、ステップS2において検出されたA地点の利用者1aの視線方向の結果に応じて端末装置2bの撮影部17bのカメラ16bのチルト角およびパン角が制御され、カメラ16bの光軸が所定角度に変位する。
【0032】
具体的には、例えば、地点Aの利用者1aが下から見上げるような恰好をしたとすると、検出器22において利用者1aの顔の位置と視線方向とが検出され、得られた検出結果に応じた制御信号が検出器22において形成される。この制御信号が伝送処理部を介されることで制御情報CAとされ、この制御情報CAがネットワーク/電話回線3を介して端末装置2bの光軸制御部15bに供給される。従って、地点Bの撮影部17Bのカメラ16bは、A地点の利用者1aの顔の位置の結果に応じて端末装置2bの撮影部17bのXYステージが制御されることにより、図4においてDropで示される分だけ降下し、16xで示される位置に変位する。また、カメラ16bの光軸は、A地点の利用者1aの視線方向の結果に応じてチルト角およびパン角が制御され、図2においてθにて示される分だけチルトアップする。
【0033】
このように端末装置2b側の撮影部17bのカメラ16bを制御することで利用者1aは、利用者1bを所望の位置と方向から見ているような映像をハーフミラー13を介して目の前にすることができ、この状態で以て端末装置2a側の一連の処理が完了する。また、この時、端末装置2b側においても同様の処理がなされ、利用者1bは、利用者1aを所望の位置と方向から見ているような映像をハーフミラー13を介して目の前にすることができ、この状態で以て端末装置2b側の一連の処理が完了する。
【0034】
なお、上述した一実施形態の説明においては、検出器22において利用者の顔の位置と視線方向とを検出する場合について説明したが、利用者から端末装置までのそれぞれ距離が略々一定でお互いの顔が主に端末装置側に向いている場合には、検出器22において顔の位置の検出のみを行うようにしても良い。この場合においては、カメラの制御動作の処理手順は、図3において破線の矢印JP1で示されるようにステップS4およびステップS5を飛ばしてステップSS3からステップS6に移行して処理がなされる。
【0035】
また、検出器22において顔の位置の検出のみを行う場合には、顔の位置の検出結果に基づいて検出結果に応じたカメラを変位させる量をaとし、利用者から端末装置までの距離bとして、下記(2) 式の演算によりカメラの光軸の方向を決定し、その数値と顔の位置に応じて制御信号を形成するようにしても良い。
【0036】
tan θ=a/b ・・・(2)
例えば、上述した光軸の方向を決定する数値の算出を前述した地点Aの利用者1aが下から見上げるような恰好をした図4の場合に当てはめてみると、(tan θ=a/b=Drop/Distance)となる。このように利用者から端末装置までのそれぞれ距離が略々一定でお互いの顔が主に端末装置側に向いている場合には、視線の方向を検出せずとも、良好に制御することが可能となる。
【0037】
さらに、設定手段を設けて、検出器22において利用者の顔の位置と視線方向とを検出する場合と、検出器22において顔の位置の検出のみを行う場合とを選択的に行うようにしても良い。
【0038】
また、上述した一実施形態の説明においては、検出部12a,12bを本体ユニット11a,11bの上端部に設ける場合について説明したが、本体ユニット11a,11bのハーフミラー13の背面側に検出部12a,12bを固定して設けるようにしても良い。
【0039】
【発明の効果】
従って、この発明に依れば、利用者の視線と顔の位置に応じて相手側の撮影装置を制御し、表示画面の映像と視線を一致させることで臨場感を高めることができると共に、円滑にコミュニケーションを図ることができる。また、この発明に依れば、1組毎に独立して使用可能な構成とされているため、各地において任意独立に通信先を拡張することができ、全体として柔軟性の高いシステムを構築することが可能となる。さらに、この発明の一実施形態の場合には、ハーフミラーとCRTを用いる構成とされているため、特に設置面積、画質、明るさの点で有利な端末装置を提供することができる。よりさらに、この発明では、顔の位置と視線方向の両者を検出する一の検出方法と、顔の位置のみを検出し、視線方向を顔の位置とカメラとの距離に基づいて推定する他の検出方法との一方を選択的に設定可能としているので、実際の状況に適した検出方法を設定することができる。
【図面の簡単な説明】
【図1】この発明による双方向通信システムの構成を示すブロック図である。
【図2】この発明による表示端末装置の主要な部分の構成を示すブロック図である。
【図3】この発明の一実施形態の動作説明に用いるフローチャートである。
【図4】この発明の一実施形態の動作説明に用いる略線図である。
【符号の説明】
1a,1b・・・利用者、2a,2b・・・端末装置、3・・・ネットワーク/電話回線、11a,11b・・・本体ユニット、12a,12b・・・検出部、13・・・ハーフミラー、14a,14b・・・表示部、15a、15b・・・光軸制御部、16a,16b・・・カメラ、17a,17b・・・撮影部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a bidirectional communication system, a terminal device, and a control method suitable for use in, for example, a remote video conference between a plurality of different points.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, various devices that can communicate with each other remotely using a video display device, a photographing device, and communication means have been proposed. When such a device is actually used, a separate photographing device is installed on or adjacent to the video display device, or the video display device and the photographing device are integrated to form an edge of the video display device. A device with a built-in photographing device is used. For example, assuming that a person a is located at a point A and a person b is located at a point B, and communication between the points A and B is described. The video by the photographing device at the point B is projected on the screen of the video display device at the point B, and the video by the photographing device at the point B is projected on the screen of the video display device at the point A. By projecting the images of the other party in this way, a visual situation is formed as if two distant parties a and b are in front of each other, and communication is achieved.
[0003]
[Problems to be solved by the invention]
However, in the above-described apparatus, communication may become unnatural because the optical axis of the photographing apparatus is not aligned with the line of sight of the display screen. For this reason, it may be possible to facilitate communication by enhancing the sense of reality using a display screen that is sufficiently large. However, the larger the display screen, the more difficult the line of sight is. . In order to solve these problems, it is conceivable to use a half mirror to match the optical axis of the photographing device with the display screen, but it is difficult to make the display screen large due to the structure, and the cost and installation are also low. There is a problem that the area becomes large. As another method, an apparatus configured to shoot from the back side of the display screen using a screen such as a net and a projector has been proposed, but the projected image becomes dark, so a bright room However, it has a drawback that it is difficult to use.
[0004]
Therefore, an object of the present invention is to control the other-side photographing device according to the user's line of sight and the position of the face, and to make the display screen and the line of sight coincide with each other, so that the presence can be enhanced and the communication can be smoothly performed. An object is to provide a bidirectional communication system, a terminal device, and a control method that can be achieved.
[0005]
[Means for Solving the Problems]
In order to achieve the above problems, the invention of claim 1 is characterized in that video and audio information is transmitted between a first terminal device and a second terminal device which are located at different one point and the other point through communication. In a bidirectional communication system in which exchanges are made,
One detection method for detecting the position and line-of-sight direction of the user's face at one point, the position of the user's face , and the distance between the detected face position and the camera and the user at one point First detection means for outputting control information for controlling the optical axis of the camera at the other point according to the face position and the line-of-sight direction obtained by one of the other detection methods for estimating the line-of-sight direction according to The first setting means for selecting one of the one detection method and the other detection method and the optical axis of the camera at one point are controlled in accordance with the control information sent from the second terminal device. first control means, a first terminal apparatus that includes a first display means for projecting an image by the other point of the camera,
One detection method for detecting the position and line-of-sight direction of the user's face at the other point, the position of the user's face , and the distance between the detected face position and the camera and the user at the other point Second detection means for outputting control information for controlling the optical axis of the camera at one point according to the face position and the line-of-sight direction obtained by one of the other detection methods for estimating the line-of-sight direction according to The second setting means for selecting one of the one detection method and the other detection method, and the optical axis of the camera at the other point according to the control information sent from the first terminal device and second control means, a bidirectional communication system, characterized in that the camera of the one point is constituted by a second terminal device and a second display means for displaying an image.
[0006]
The invention of claim 2 is a terminal located at one point in a bidirectional communication system in which video and audio information is exchanged between a plurality of terminal devices located at one different point and the other point via communication. In the device
One detection method for detecting the position and line-of-sight direction of the user's face at one point, the position of the user's face , and the distance between the detected face position and the camera and the user at one point Detecting means for outputting control information for controlling the optical axis of the camera at the other point according to the face position and the line-of-sight direction obtained by one of the other detection methods for estimating the line-of-sight direction according to
Setting means for selecting one of the one detection method and the other detection method;
In accordance with control information sent from the terminal device at the other point, control means for controlling the optical axis of the camera at one point;
A terminal device comprising display means for displaying an image from a camera at the other point.
[0007]
Furthermore, the invention of claim 3 is a control method for exchanging video and audio information between a plurality of terminal devices located at one different point and the other point via communication.
One detection method for detecting the position and line-of-sight direction of the user's face at one point, the position of the user's face , and the distance between the detected face position and the camera and the user at one point A detection step of outputting control information for controlling the optical axis of the camera at the other point according to the face position and the line-of-sight direction obtained by one of the other detection methods for estimating the line-of-sight direction according to
A setting step for selecting one of one detection method and another detection method;
A control step for controlling the optical axis of the camera at one point according to the control information sent from the terminal device at the other point ;
And a display step of displaying an image by the camera at the other point .
[0008]
In the present invention, for example, a terminal device having the same configuration having a detection unit, a display unit, a photographing unit, and an optical axis control unit is provided for each user located at the point A and the point B. The position and line-of-sight direction of the user's face is detected by the detection unit of the terminal device at the point A, and control information formed according to the detection result is supplied to the optical axis control unit of the terminal device at the point B as the destination. Is done. A control signal corresponding to the control information is formed in the optical axis control unit, and the photographing unit is controlled by this control signal, and the optical axis of the camera is displaced to a predetermined position and directed in a predetermined direction. Video information photographed by the camera of the photographing unit at the point B is supplied to the display unit, and the video of the user at the point B photographed according to the position and line-of-sight direction of the user's face at the point A is displayed on the display unit. Is projected. A similar operation is also performed at the terminal device at the point B. With this, in front of each of the users, a situation in which the other users are seen from the desired position and direction with respect to the half mirror is displayed. Formed through.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows a configuration of a bidirectional communication system according to the present invention, and FIG. 2 shows a configuration of main parts of a terminal device according to the present invention. In FIG. 1 and FIG. 2, the same reference numerals are assigned to corresponding portions.
[0010]
As shown in FIG. 1, it is assumed that video and audio information is exchanged bidirectionally between users indicated by 1a and 1b located at two different points A and B. In this case, terminal devices 2a and 2b having the same configuration are installed for users 1a and 1b, respectively. In addition, when there are users at other points, or when there are multiple users at the same location, a terminal device is installed for each combination of all users, and one user is placed in front of the terminal device. Used so that only the user is located.
[0011]
The terminal device 2a includes a main unit 11a, a detection unit 12a, a voice processing unit and a transmission processing unit (not shown), and the main unit 11a includes a display unit 14a, an optical axis control unit 15a, and a camera 16a. A photographing unit 17a having the above is provided. The terminal device 2b includes a main unit 11b, a detection unit 12b, a voice processing unit and a transmission processing unit (not shown), and the main unit 11b includes a display unit 14b, an optical axis control unit 15b, and An imaging unit 17b having a camera 16b is provided.
[0012]
Each of the terminal devices 2a and 2b is connected to the network / telephone line 3 so that video and audio information and control information can be exchanged with each other via the network / telephone line 3 at the points A and B. Specifically, video information DA formed in the terminal device 2a, control information CA, audio information and the like are supplied to the terminal device 2b, and a video information DB formed in the terminal device 2b, and control information The CB and voice information are supplied to the terminal device 2a. Since the terminal devices 1a and 1b at any of the points A and B have the same configuration, the configuration and operation will be described below by taking the terminal device 2a on the user 1a side as an example.
[0013]
As shown in FIG. 2, the half mirror 13 is disposed approximately at the center upper side of the main body unit 11 a constituting the terminal device 2 a, and the display unit 14 a is disposed below the half mirror 13. An imaging unit 17a having a camera 16a and a mechanism unit is disposed on the back side. Further, an optical axis control unit 15a is provided for the photographing unit 17a. Furthermore, the detection part 12a is attached to the upper end part close | similar to the half mirror 13 of the main body unit 11a.
[0014]
The display unit 14a is configured by a CRT, for example, and the display unit 14a is supplied with the video information DB taken by the camera 16b at the point B. Accordingly, a video signal is formed on the display unit 14a based on the video information DB, and the video imaged at the point B is displayed on the display screen by this video signal. At this time, on the display screen of the display unit 14a, considering that the user 1a views the video as shown by the arrow 31 in FIG. An image expanded in the vertical direction at a predetermined ratio is displayed. Further, for example, a liquid crystal display panel other than the CRT may be used as the display unit 14a.
[0015]
The imaging unit 17a includes a camera 16a, a mechanism unit, and the like. The mechanism unit includes an X-axis linear track 23, an X-axis linear track 24, a positioning motor XY, and the like as shown in FIG. A stage is provided, and a camera 16 a is mounted on the Y-axis linear track 23. The camera 16a has a tilt / pan function, and a tilt angle (vertical direction) and a pan angle (horizontal direction) are freely controlled according to a control signal. Accordingly, the entire photographing unit 17a can be controlled by four axes by the control signal, and the position and direction of the optical axis of the camera 16a can be freely controlled.
[0016]
The optical axis control unit 15a is supplied with the control information CB formed in the point B detection unit 12b, and the optical axis control unit 15 forms a control signal to each unit based on the control information CB. Is supplied to each part of the photographing unit 17a. As a result, the position and direction of the optical axis of the camera 16a of the photographing unit 17a are displaced to a state desired by the user 1b at the point B. In this state, the user 1a is photographed by the camera 16a as indicated by an arrow 32 in FIG. 2, and the video signal of the camera 16a is converted into video information DA through the transmission processing unit. This video information DA is supplied to the display unit 14b of the terminal device 2b via the network / telephone line 3.
[0017]
The detection unit 12 a attached to the upper end portion of the main unit 11 a close to the half mirror 13 includes a camera 21 and a detector 22. As shown by an arrow 33 in FIG. 2, the user 21 a is photographed by the camera 21, and the video output of the camera 21 is supplied to the detector 22. The detector 22 performs predetermined processing, detects the face position and line-of-sight direction of the user 1a, estimates the direction the user 1a wants to see based on the obtained detection result, and is a terminal on the point B side A control signal for controlling the imaging unit 16b of the apparatus 2b in four axes is formed.
[0018]
In the face position detection processing performed by the detector 22, for example, a skin color component distribution is measured from a video signal, and a skin color component portion having a large area is determined as a face. Then, the center of gravity of the skin color component part having a large area is determined as the center position of the face, and the change in the center of gravity is detected as the movement of the face. Prior to the information exchange between the terminal devices 2a and 2b, the user's face is registered and calibrated in advance, and the face position is accurately detected.
[0019]
In addition, the line-of-sight direction detection process performed by the detector 22 first detects the face width, the position of the black eye, and the eye head by template matching or the like, and estimates the rough face direction. Then, the rotational angle of the eyeball is calculated and added to the obtained face direction to detect the line-of-sight direction. In addition to the position of the width, the black eye, and the position of the eyes, position information such as eyebrows, white eyes, nose, and mouth may be used.
[0020]
As described above, the detector 22 detects the face position and the line-of-sight direction of the user 1 a, and a control signal corresponding to the obtained detection result is formed in the detector 22. The control signal is converted into control information CA through the transmission processing unit, and the control information CA is supplied to the optical axis control unit 15b of the terminal device 2b through the network / telephone line 3.
[0021]
Note that a voice processing unit built in the terminal device 2a (not shown) includes an amplifier, a speaker, a microphone, and the like, and performs voice signal input / output processing. The transmission processing unit includes a network interface circuit, a transmission code / decoder, and the like, and is obtained by converting a video signal, an audio signal, and a control signal so as to have a transmission form according to a transmission medium. The original information is sent out on the transmission line, and on the contrary, the original information is restored from the information of the predetermined transmission form supplied from the other side and supplied to each unit.
[0022]
Similar to the terminal device 1a described above, the other terminal device 1b side is configured. Therefore, as an operation of the entire system, the position and line-of-sight direction of the user 1a is detected by the detection unit 12a of the terminal device 2a, and the control information CA formed according to the detection result is the optical axis of the terminal device 2b. While being supplied to the control unit 15b, the detection unit 12b of the terminal device 2b detects the face position and the line-of-sight direction of the user 1b, and the control information CB formed according to the detection result is the optical axis of the terminal device 2a. It is supplied to the controller 15a.
[0023]
A control signal corresponding to the control information CB is formed in the optical axis control unit 15a of the terminal device 2a, and the photographing unit 17a is controlled by this control signal, and the optical axis of the camera 16a is displaced to a predetermined position, and in a predetermined direction. Directed. On the other hand, a control signal corresponding to the control information CA is formed in the optical axis control unit 15b of the terminal device 2b, and the imaging unit 17b is controlled by this control signal, and the optical axis of the camera 16b is displaced to a predetermined position. Directed in the direction.
[0024]
The video information DA captured by the camera 16a of the imaging unit 17a of the terminal device 2a is supplied to the display unit 14b of the terminal device 2b, and the video information DB captured by the camera 16b of the imaging unit 17b of the terminal device 2b is the terminal. It is supplied to the display unit 14a of the device 2a. For this reason, the video of the user 1b photographed at the point B is displayed on the display unit 14a according to the position of the face of the user 1a and the line-of-sight direction. On the other hand, the video of the user 1a photographed at the point A is displayed on the display unit 14b in accordance with the face position and line-of-sight direction of the user 1b. Therefore, the users 1a and 1b can view images of the other users from the desired position and direction in front of each other through the half mirror 13, as if they were talking through the window. Communication can be achieved with a sense of presence.
[0025]
The above-described camera control operation according to the user's face position and line-of-sight direction will be described in more detail with reference to FIGS. FIG. 3 shows a processing procedure of the control operation of the counterpart camera from the terminal device 2a side, and reference numerals S1 to S6 are given to the steps.
[0026]
First, in step S1, a process of directing the camera 16b of the terminal device 2b at the point B to the front is performed. That is, the control state of the photographing unit 17b is initialized, and the position and direction of the optical axis of the camera 16b are returned to the origin position.
[0027]
In step S2, the position of the face of the user 1a at the point A is detected. For example, the skin color component distribution is measured from the video signal, and the skin color component portion having a large area is determined as the face. Then, the center of gravity of the skin color component part having a large area is determined as the center position of the face, and the change in the center of gravity is detected as the movement of the face.
[0028]
Next, in step S3, it is determined whether or not the detection of the position of the face of the user 1a at the point A has been completed. If the detection result exceeds the moving range of the camera or if the process is impossible, the process returns to step S2, and subsequently the position of the face of the user 1a at the point A is detected. If it is determined that the detection of the position of the face of the user 1a at the point A has been completed, the process proceeds to step S4.
[0029]
When the detection of the position of the face of the user 1a at the point A is completed, the line-of-sight direction of the user 1a at the point A is detected in step S4. For example, first, the face width, the black eye, and the position of the eyes are detected by template matching or the like, and a rough face direction is estimated. Then, the rotational angle of the eyeball is calculated and added to the obtained face direction to detect the line-of-sight direction. In template matching, if the region to be matched in the image is I T , the template is T, the variance is represented by σ, and the average is represented by <>, the correlation value calculated by the following equation (1) This is done by finding a region that maximizes C.
[0030]
C = (<I T T> − <I T ><T>) / σ (I T ) σ (T) (1)
Next, in step S5, it is determined whether or not the detection of the line-of-sight direction of the user 1a at the point A is completed. If the detection result exceeds the moving range of the camera or if the processing is impossible, the process returns to step S4, and the line-of-sight direction of the user 1a at the point A is subsequently detected. On the other hand, if it is determined that the detection of the line-of-sight direction of the user 1a at the point A is completed, the process proceeds to step S6.
[0031]
When the detection of the line-of-sight direction of the user 1a at the point A is completed, in step S6, the position and direction of the optical axis of the camera 16B at the point B based on the position of the user 1a at the point A and the detection result of the line-of-sight direction. Is determined and a control signal is formed. That is, the XY stage of the photographing unit 17b of the terminal device 2b is controlled according to the result of the face position of the user 1a at the point A detected in step S2, and the optical axis of the camera 16b is displaced to a predetermined position. Further, the tilt angle and pan angle of the camera 16b of the photographing unit 17b of the terminal device 2b are controlled according to the result of the line-of-sight direction of the user 1a at the point A detected in step S2, and the optical axis of the camera 16b is a predetermined angle. It is displaced to.
[0032]
Specifically, for example, if the user 1a at the point A looks up from below, the detector 22 detects the face position and the line-of-sight direction of the user 1a. A corresponding control signal is formed at the detector 22. The control signal is converted into control information CA through the transmission processing unit, and the control information CA is supplied to the optical axis control unit 15b of the terminal device 2b through the network / telephone line 3. Therefore, the camera 16b of the photographing unit 17B at the point B is controlled by Drop in FIG. 4 by controlling the XY stage of the photographing unit 17b of the terminal device 2b according to the result of the face position of the user 1a at the point A. It is lowered by the amount shown and displaced to the position indicated by 16x. Further, the tilt angle and pan angle of the optical axis of the camera 16b are controlled according to the result of the direction of the line of sight of the user 1a at the point A, and the tilt is increased by the amount indicated by θ in FIG.
[0033]
In this way, by controlling the camera 16b of the photographing unit 17b on the terminal device 2b side, the user 1a can view an image that the user 1b is seen from a desired position and direction through the half mirror 13 in front of him. In this state, a series of processing on the terminal device 2a side is completed. At this time, the same processing is also performed on the terminal device 2b side, and the user 1b looks through the half mirror 13 in front of the user 1a as if viewing the user 1a from a desired position and direction. In this state, a series of processing on the terminal device 2b side is completed.
[0034]
In the description of the above-described embodiment, the case where the detector 22 detects the position of the user's face and the line-of-sight direction has been described. If the face is mainly facing the terminal device, the detector 22 may detect only the face position. In this case, the processing procedure of the camera control operation is skipped from step S4 and step S5 as shown by the dashed arrow JP1 in FIG. 3, and the process proceeds from step SS3 to step S6.
[0035]
When the detector 22 only detects the face position, the amount of displacement of the camera according to the detection result based on the detection result of the face is a, and the distance b from the user to the terminal device is b. As an alternative, the direction of the optical axis of the camera may be determined by the calculation of the following equation (2), and a control signal may be formed according to the numerical value and the face position.
[0036]
tan θ = a / b (2)
For example, when the calculation of the numerical value for determining the direction of the optical axis is applied to the case of FIG. 4 where the user 1a at the point A mentioned above looks up from below, (tan θ = a / b = Drop / Distance). In this way, when the distance from the user to the terminal device is substantially constant and each other's faces are mainly facing the terminal device side, it is possible to control well without detecting the direction of the line of sight It becomes.
[0037]
Further, a setting unit is provided so that the detector 22 can selectively detect the face position and the line-of-sight direction of the user and the detector 22 can only detect the face position. Also good.
[0038]
In the description of the above-described embodiment, the case where the detection units 12a and 12b are provided at the upper ends of the main body units 11a and 11b has been described. However, the detection unit 12a is provided on the back side of the half mirror 13 of the main body units 11a and 11b. , 12b may be fixedly provided.
[0039]
【The invention's effect】
Therefore, according to the present invention, it is possible to enhance the sense of reality by controlling the photographing device on the other side according to the user's line of sight and the position of the face and matching the line of sight with the video on the display screen. Can communicate with each other. In addition, according to the present invention, since it is configured so that it can be used independently for each set, the communication destination can be arbitrarily expanded in various places, and a highly flexible system as a whole is constructed. It becomes possible. Furthermore, in the case of one embodiment of the present invention, a configuration using a half mirror and a CRT can provide a terminal device that is particularly advantageous in terms of installation area, image quality, and brightness. Furthermore, in the present invention, there is one detection method for detecting both the face position and the line-of-sight direction, and only the face position is detected, and the line-of-sight direction is estimated based on the distance between the face position and the camera. Since one of the detection methods can be selectively set, a detection method suitable for the actual situation can be set.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a bidirectional communication system according to the present invention.
FIG. 2 is a block diagram showing a configuration of main parts of a display terminal device according to the present invention.
FIG. 3 is a flowchart used for explaining the operation of the embodiment of the present invention.
FIG. 4 is a schematic diagram used for explaining the operation of the embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1a, 1b ... User, 2a, 2b ... Terminal device, 3 ... Network / telephone line, 11a, 11b ... Main unit, 12a, 12b ... Detection part, 13 ... Half Mirror, 14a, 14b ... display unit, 15a, 15b ... optical axis control unit, 16a, 16b ... camera, 17a, 17b ... imaging unit

Claims (3)

通信を介して異なる一方の地点および他方の地点に位置する第1の端末装置および第2の端末装置の間で映像および音声情報の交換がなされる双方向通信システムにおいて、
一方の地点の利用者の顔の位置および視線方向を検出する一の検出方法と、上記利用者の顔の位置を検出し、検出された顔の位置とカメラおよび上記一方の地点の利用者との距離に応じて視線方向を推定する他の検出方法の一方によって得られた顔の位置および視線方向に応じて、上記他方の地点のカメラの光軸を制御する制御情報を出力する第1の検出手段と、上記一の検出方法と上記他の検出方法との一方を選択する第1の設定手段と、上記第2の端末装置から送られてくる制御情報に応じて、上記一方の地点のカメラの光軸を制御する第1の制御手段と、上記他方の地点のカメラによる映像を映し出す第1の表示手段とを備えた第1の端末装置と、
他方の地点の利用者の顔の位置および視線方向を検出する一の検出方法と、上記利用者の顔の位置を検出し、検出された顔の位置とカメラおよび上記他方の地点の利用者との距離に応じて視線方向を推定する他の検出方法の一方によって得られた顔の位置および視線方向に応じて、上記一方の地点のカメラの光軸を制御する制御情報を出力する第2の検出手段と、上記一の検出方法と上記他の検出方法との一方を選択する第2の設定手段と、上記第1の端末装置から送られてくる制御情報に応じて、上記他方の地点のカメラの光軸を制御する第2の制御手段と、上記一方の地点のカメラによる映像を映し出す第2の表示手段とを備えた第2の端末装置とにより構成されることを特徴とする双方向通信システム。
In a bidirectional communication system in which video and audio information is exchanged between a first terminal device and a second terminal device located at different one point and the other point via communication,
One detection method for detecting the position and line-of-sight direction of the user's face at one point, and detecting the position of the user's face, the detected face position and the camera, and the user at the one point The control information for controlling the optical axis of the camera at the other point is output according to the face position and the line-of-sight direction obtained by one of the other detection methods for estimating the line-of-sight direction according to the first distance. In accordance with control information sent from the detection means, the first setting method for selecting one of the one detection method and the other detection method, and the control information sent from the second terminal device , A first terminal device comprising: a first control means for controlling the optical axis of the camera; and a first display means for projecting an image from the camera at the other point;
One detection method for detecting the position and line-of-sight direction of the user's face at the other point, detecting the position of the user's face, the detected face position and camera, and the user at the other point The control information for controlling the optical axis of the camera at the one point is output according to the face position and the line-of-sight direction obtained by one of the other detection methods for estimating the line-of-sight direction according to the distance of the second. a detecting unit, a second setting means for selecting one of the detection methods and the other methods of detection of the one, in accordance with the control information sent from the first terminal device, the other point bidirectional characterized and second control means for controlling the optical axis of the camera, to be constituted by a second terminal device and a second display means for displaying an image by the camera in one point the Communications system.
通信を介して異なる一方の地点および他方の地点に位置する複数の端末装置の間で映像および音声情報の交換がなされる双方向通信システムにおける一方の地点に位置する端末装置において、
一方の地点の利用者の顔の位置および視線方向を検出する一の検出方法と、上記利用者の顔の位置を検出し、検出された顔の位置とカメラおよび上記一方の地点の利用者との距離に応じて視線方向を推定する他の検出方法の一方によって得られた顔の位置および視線方向に応じて、上記他方の地点のカメラの光軸を制御する制御情報を出力する検出手段と、
上記一の検出方法と上記他の検出方法との一方を選択する設定手段と、
上記他方の地点の端末装置から送られてくる制御情報に応じて、上記一方の地点のカメラの光軸を制御する制御手段と、
上記他方の地点のカメラによる映像を映し出す表示手段とを備えたことを特徴とする端末装置。
In a terminal device located at one point in a two-way communication system in which video and audio information is exchanged between a plurality of terminal devices located at one different point and the other point via communication,
One detection method for detecting the position and line-of-sight direction of the user's face at one point, and detecting the position of the user's face, the detected face position and the camera, and the user at the one point depending of the location and direction of the line of sight of the face obtained by one of the other detection method to estimate the gaze direction according to the distance, and detection means for outputting control information for controlling the optical axis of the other point of the camera ,
Setting means for selecting one of the one detection method and the other detection method;
In accordance with control information sent from the terminal device at the other point, control means for controlling the optical axis of the camera at the one point;
A terminal device comprising: display means for displaying an image from the camera at the other point.
通信を介して異なる一方の地点および他方の地点に位置する複数の端末装置の間で映像および音声情報の交換を行う制御方法において、
一方の地点の利用者の顔の位置および視線方向を検出する一の検出方法と、上記利用者の顔の位置を検出し、検出された顔の位置とカメラおよび上記一方の地点の利用者との距離に応じて視線方向を推定する他の検出方法の一方によって得られた顔の位置および視線方向に応じて、上記他方の地点のカメラの光軸を制御する制御情報を出力する検出ステップと、
上記一の検出方法と上記他の検出方法との一方を選択する設定ステップと、
上記他方の地点の端末装置から送られてくる制御情報に応じて、上記一方の地点のカメラの光軸を制御する制御ステップと、
上記他方の地点のカメラによる映像を映し出す表示ステップとを有することを特徴とする制御方法。
In a control method for exchanging video and audio information between a plurality of terminal devices located at different one point and the other point via communication,
One detection method for detecting the position and line-of-sight direction of the user's face at one point, and detecting the position of the user's face, the detected face position and the camera, and the user at the one point A detection step of outputting control information for controlling the optical axis of the camera at the other point according to the face position and the line-of-sight direction obtained by one of the other detection methods for estimating the line-of-sight direction according to the distance ; ,
A setting step for selecting one of the one detection method and the other detection method;
A control step for controlling the optical axis of the camera at the one point according to the control information sent from the terminal device at the other point ;
Control method characterized by having a display step for projecting an image by the other point of the camera.
JP25157898A 1998-09-04 1998-09-04 Bidirectional communication system, terminal device and control method Expired - Fee Related JP4089027B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25157898A JP4089027B2 (en) 1998-09-04 1998-09-04 Bidirectional communication system, terminal device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25157898A JP4089027B2 (en) 1998-09-04 1998-09-04 Bidirectional communication system, terminal device and control method

Publications (2)

Publication Number Publication Date
JP2000083228A JP2000083228A (en) 2000-03-21
JP4089027B2 true JP4089027B2 (en) 2008-05-21

Family

ID=17224909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25157898A Expired - Fee Related JP4089027B2 (en) 1998-09-04 1998-09-04 Bidirectional communication system, terminal device and control method

Country Status (1)

Country Link
JP (1) JP4089027B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7705877B2 (en) 2004-01-28 2010-04-27 Hewlett-Packard Development Company, L.P. Method and system for display of facial features on nonplanar surfaces
JP2005286442A (en) * 2004-03-29 2005-10-13 Saxa Inc Supervisory system and image communication apparatus
WO2009119288A1 (en) * 2008-03-25 2009-10-01 コニカミノルタホールディングス株式会社 Communication system and communication program
JP4998364B2 (en) * 2008-04-28 2012-08-15 オムロン株式会社 Gaze detection apparatus and method, and program
JP2011113206A (en) * 2009-11-25 2011-06-09 Nippon Telegr & Teleph Corp <Ntt> System and method for video image communication
JP5477777B2 (en) * 2010-03-31 2014-04-23 サクサ株式会社 Image acquisition device
US20210281802A1 (en) * 2017-02-03 2021-09-09 Vestel Elektronik Sanayi Ve Ticaret A.S. IMPROVED METHOD AND SYSTEM FOR VIDEO CONFERENCES WITH HMDs

Also Published As

Publication number Publication date
JP2000083228A (en) 2000-03-21

Similar Documents

Publication Publication Date Title
TWI311286B (en)
US7856180B2 (en) Camera device
US7957581B2 (en) Image processing apparatus and method
US6208373B1 (en) Method and apparatus for enabling a videoconferencing participant to appear focused on camera to corresponding users
US20060192847A1 (en) Display apparatus, and display control method for the display apparatus
US20110169986A1 (en) Perspective improvement for image and video applications
KR100469727B1 (en) Communication terminal and method capable of displaying face image of user at the middle part of screen
JP4144492B2 (en) Image display device
CN103945117A (en) Photographing unit, cooperative photographing method, and recording medium having recorded program
JP2006333301A (en) Video communication apparatus
US7391439B2 (en) Modular audio-visual system to bring together a local scene and a remote scene
JP4089027B2 (en) Bidirectional communication system, terminal device and control method
JP2006522559A (en) Facilities and methods to enable eye contact between video conference participants
CN111163280B (en) Asymmetric video conference system and method thereof
WO2009119288A1 (en) Communication system and communication program
JP2005117285A (en) Information input device, communication terminal and communication method
JP4244416B2 (en) Information processing apparatus and method, and recording medium
JP2012010059A (en) Imaging apparatus and remote communication system using the same
KR100264035B1 (en) Method and device of perceiving a voice in a monitor
TWI248021B (en) Method and system for correcting out-of-focus eyesight of attendant images in video conferencing
JP2018050156A (en) Two-way communication device
JP4586447B2 (en) Image processing apparatus and method, and program
JP2002027419A (en) Image terminal device and communication system using the same
JP3962881B2 (en) Screen device
JP2005110160A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120307

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130307

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130307

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140307

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees