JPH09154114A - Electronic conference terminal equipment - Google Patents

Electronic conference terminal equipment

Info

Publication number
JPH09154114A
JPH09154114A JP7309062A JP30906295A JPH09154114A JP H09154114 A JPH09154114 A JP H09154114A JP 7309062 A JP7309062 A JP 7309062A JP 30906295 A JP30906295 A JP 30906295A JP H09154114 A JPH09154114 A JP H09154114A
Authority
JP
Japan
Prior art keywords
image
cameras
conference
camera
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7309062A
Other languages
Japanese (ja)
Inventor
Motoki Mori
素樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP7309062A priority Critical patent/JPH09154114A/en
Publication of JPH09154114A publication Critical patent/JPH09154114A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Telephonic Communication Services (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide the terminal equipment in which the entire equipment is made small, a degree of freedom on layout is sufficiently provided and a sight of lines is matched surely. SOLUTION: Its own image signal picked up by cameras 1, 2 is given to an image synthesis section 3. Opposite image data compressed and received by a communication section 7 are decoded by a CODEC 8, and the decoded data are given to an opposite image display window 9 designating a position on a screen of a CRT 5 of the opposite image and a pattern recognition section 10 recognizing a position of eyes of the opposite image. A virtual camera coordinate calculation section 12 receives position information of the window on which an opposite image is displayed from an OS 11 and eye relative position information of the opposite image from the pattern recognition section 10 and calculates a coordinate of the position of the eyes of the opposite image on the display screen and provides an output of the coordinate to the image synthesis section 3. The image synthesis section 3 synthesizes an image of conference participants when viewed from the position of the virtual camera onto its own image signal picked up by the cameras 1, 2 and provides an output of the synthesized image to the CODEC 8.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は電子会議端末装置に
関し、特に自動的に会議参加者同志の視線を合せる機能
を有する電子会議端末装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic conference terminal device, and more particularly to an electronic conference terminal device having a function of automatically matching the line of sight of participants in a conference.

【0002】[0002]

【従来の技術】従来の電子会議端末装置は、コミュニケ
ーションを円滑に図るための工夫として、相手の顔を動
画としてリアルタイムに見る機能を設けている。しかし
このとき、相手となる会議参加者を撮影しているカメラ
の位置は、通常では可視表示部の表示面(相手となる会
議参加者が凝視していると考えられもの)とは異なるた
め、視線は一致せず不自然な感じを与えることになる。
この状態を改善し、視線を一致させる方法の一案とし
て、図5に示すように、ハーフミラーを用いて相手画像
の位置から自画像を撮影する方法がある。これによっ
て、会議参加者は、相手会議参加者を見ることが、自己
の視線をカメラに向けることになるので、相手会議参加
者と相互に視線を合せて会議を行うことができることに
なる。また、これとは異なる発想に基づく方法として
は、たとえば、特開平1―320584号公報に示され
るように、複数台のカメラの撮像データを画像処理によ
り回転させることによって、任意の角度の連続視域被写
体画像を得る方法を利用することが考えられる。
2. Description of the Related Art A conventional electronic conference terminal device is provided with a function of viewing the face of the other party as a moving image in real time as a device for smooth communication. However, at this time, since the position of the camera capturing the conference participant who is the other party is usually different from the display surface of the visible display unit (which is considered to be staring at the conference participant who is the other party), The lines of sight do not match and give an unnatural feeling.
As a method of improving this state and matching the lines of sight, as shown in FIG. 5, there is a method of taking a self-portrait from the position of the partner image using a half mirror. As a result, the conference participant can see the partner conference participant by directing his or her line of sight to the camera, so that the conference participant and the partner conference participant can hold the conference. Further, as a method based on an idea different from this, for example, as shown in JP-A-1-320584, by rotating image data of a plurality of cameras by image processing, continuous viewing at an arbitrary angle is performed. It is conceivable to use a method of obtaining a region subject image.

【0003】[0003]

【発明が解決しようとする課題】上述した従来の電子会
議端末装置は、相手会議参加者と相互に視線を合せて会
議を行うためには、ハーフミラーを用いて相手画像の位
置から自画像を撮影し、相手会議参加者と相互に視線を
合せるようにしたので、ハーフミラーの下部に可視表示
部を埋込む形になるため、装置全体が大がかりになり、
レイアウト上の自由度も低くなるという問題点がある。
また、複数台のカメラの撮像データを画像処理により回
転させ、任意の角度の連続視域被写体画像を得る方法を
利用する場合は、ここで言う任意の角度をどのように定
めるかについては記載されていないので、この任意の角
度の選択を誤ると、ほとんど視線を合すことができない
ことになるという問題点がある。
SUMMARY OF THE INVENTION The above-described conventional electronic conference terminal device takes a self-portrait from the position of the partner image using a half mirror in order to hold a conference with the other participants in the line of sight. However, since the line of sight is matched with the other participants in the conference, the visible display part is embedded under the half mirror, which makes the entire device large-scale.
There is a problem that the degree of freedom in layout is also reduced.
In addition, when using the method of rotating the imaged data of multiple cameras by image processing to obtain a continuous viewing area subject image at an arbitrary angle, how to determine the arbitrary angle mentioned here is described. Therefore, there is a problem in that if the user selects this arbitrary angle incorrectly, the line of sight can hardly be met.

【0004】本発明の目的は、装置全体を小型とし、レ
イアウト上の自由度を十分に持たせることができ、さら
に確実に視線を合すことができる電子会議端末装置を提
供することにある。
It is an object of the present invention to provide an electronic conference terminal device which is small in size, has a sufficient degree of freedom in layout, and can surely meet the line of sight.

【0005】[0005]

【課題を解決するための手段】本発明の電子会議端末装
置は、ウィンドウの位置および大きさをユーザが変更で
きる手段を持ったウィンドウシステム上で動作し、可視
表示部に任意の会議参加者の画像を表示するウィンドウ
を持った電子会議システムの電子会議端末装置におい
て、前記可視表示部の近傍に設置する少なくとも2台の
カメラを用いて取得した前記カメラの前の会議参加者の
画像データから立体画像データを生成すると共に前記カ
メラの前の会議参加者の指定した前記可視表示部の前記
任意の会議参加者の画像上の眼の位置に仮想する仮想カ
メラが取得する前記カメラの前の会議参加者の画像を前
記立体画像データから合成し出力する画像合成部と、こ
の画像合成部の合成した前記カメラの前の会議参加者の
画像およびデータを前記電子会議システムの他の電子会
議端末装置に送信すると共に他の会議参加者の画像およ
びデータを受信する通信部とを有する構成である。
The electronic conference terminal device of the present invention operates on a window system having means for allowing the user to change the position and size of the window, and the visual display unit displays the information of any conference participant. In an electronic conference terminal device of an electronic conference system having a window for displaying an image, a stereoscopic image is obtained from image data of a conference participant in front of the camera, which is acquired by using at least two cameras installed near the visible display unit. Participating in a conference in front of the camera that generates image data and is acquired by a virtual camera that is virtual at the eye position on the image of the arbitrary conference participant in the visual display unit specified by the conference participant in front of the camera An image synthesizing section for synthesizing an image of the person from the stereoscopic image data and outputting the image, and an image and data of a conference participant in front of the camera synthesized by the image synthesizing section. Serial is configured to have a communication unit for receiving image and data of the other conference participants and transmits the other electronic conference terminal device of the electronic conference system.

【0006】本発明の電子会議端末装置は、2台のカメ
ラを可視表示部の左右でかつ同一水準に設け、前記可視
表示部の任意の会議参加者の画像上の眼の位置に仮想す
る仮想カメラの位置が前記2台のカメラを通る直線上で
かつ前記可視表示部上の任意の会議参加者の画像を表示
するウィンドウの表示位置であってもよい。
In the electronic conference terminal device according to the present invention, two cameras are provided on the left and right sides of the visible display portion at the same level, and the virtual display portion is virtual at the position of the eye on the image of any conference participant. The position of the camera may be a display position of a window on the straight line passing through the two cameras and displaying an image of an arbitrary conference participant on the visible display unit.

【0007】本発明の電子会議端末装置は、3台のカメ
ラを可視表示部の上下左右で前記可視表示部を囲むよう
に配置してもよい。
In the electronic conference terminal device according to the present invention, three cameras may be arranged so as to surround the visible display section at the upper, lower, left and right sides of the visible display section.

【0008】本発明の電子会議端末装置は、4台のカメ
ラを可視表示部の上下左右で前記可視表示部を囲むよう
に配置してもよい。
In the electronic conference terminal device of the present invention, four cameras may be arranged so as to surround the visible display section at the upper, lower, left and right sides of the visible display section.

【0009】[0009]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0010】図1は本発明の第1の実施の形態を示すブ
ロック図である。
FIG. 1 is a block diagram showing a first embodiment of the present invention.

【0011】第1の実施の形態としては、カメラを2台
用いているものとする。カメラ1,2は、撮影した自画
像信号を自画像入力として画像合成部3に入力する。こ
のときカメラ1,2の位置は、予めカメラ位置設定ツー
ル4が画像合成部3に入力しておくものとする。また、
相手画像を表示する可視表示部としては、CRT5を用
いる。CRT5に表示する画像データとしては、LAN
またはISDNの回線6を介して他の電子会議端末装置
と接続している通信部7が、圧縮された自画像データお
よび圧縮された相手画像データを送信および受信する。
通信部7が受信した圧縮された相手画像データは、CO
DEC8が相手画像として復号し、相手画像のCRT5
の表示面上の位置を指定する相手画像表示ウィンドウ9
と、相手画像上の眼の位置(両眼の中心)を認識するパ
タン認識部10とに送出する。相手画像表示ウィンドウ
9は、予めこの電子会議端末を利用する会議参加者が入
力済の、相手画像を表示するウィンドウの位置情報と共
に、受信した相手画像をOS11に送る。OS11は、
相手画像を相手画像を表示するウィンドウの位置に表示
した状態でCRT5に送り、相手画像を表示するウィン
ドウの位置情報を仮想するカメラの位置座標を計算する
仮想カメラ座標計算部12に送る。パタン認識部10
は、相手画像を受け相手画像上の眼の位置(両眼の中
心)を認識し、相手画像における眼の相対位置情報を仮
想カメラ座標計算部12に送る。仮想カメラ座標計算部
12は、OS11からの相手画像を表示するウィンドウ
の位置情報およびパタン認識部10からの相手画像にお
ける眼の相対位置情報を受け、表示画面上の相手画像の
眼の位置の座標を算出し、この座標を仮想カメラの位置
を定める指標として画像合成部3に出力する。画像合成
部3は、既にカメラ位置設定ツール4が入力してあるカ
メラ1,2の位置と合せて、カメラ1,2を結ぶ直線上
で、パタン認識部10からの相手画像の眼の位置の座標
に最も近い位置を仮想カメラの位置と定め、カメラ1,
2が撮影した自画像信号から、いま定めた仮想カメラの
位置から見た会議参加者の画像を合成しCODEC8に
出力する。CODEC8は、会議参加者の画像を圧縮し
て通信部7に出力する。
In the first embodiment, two cameras are used. The cameras 1 and 2 input the captured self-portrait signal to the image compositing unit 3 as a self-portrait input. At this time, the camera position setting tool 4 inputs the positions of the cameras 1 and 2 into the image composition unit 3 in advance. Also,
The CRT 5 is used as the visible display unit that displays the partner image. The image data displayed on the CRT 5 is LAN
Alternatively, the communication unit 7 connected to another electronic conference terminal device via the ISDN line 6 transmits and receives the compressed self-image data and the compressed partner image data.
The compressed partner image data received by the communication unit 7 is CO
DEC8 decodes it as a partner image, and CRT5 of the partner image
Image display window 9 for specifying the position on the display surface of
And the pattern recognition unit 10 that recognizes the position of the eye (center of both eyes) on the partner image. The partner image display window 9 sends the received partner image to the OS 11 together with the position information of the window for displaying the partner image, which has been input by the conference participant who uses the electronic conference terminal in advance. OS11 is
The partner image is sent to the CRT 5 while being displayed at the position of the window displaying the partner image, and the position information of the window displaying the partner image is sent to the virtual camera coordinate calculation unit 12 which calculates the position coordinates of the virtual camera. Pattern recognition unit 10
Receives the partner image, recognizes the eye position (center of both eyes) on the partner image, and sends the relative position information of the eye in the partner image to the virtual camera coordinate calculation unit 12. The virtual camera coordinate calculation unit 12 receives the position information of the window for displaying the partner image from the OS 11 and the relative position information of the eyes in the partner image from the pattern recognition unit 10, and receives the coordinates of the eye position of the partner image on the display screen. And outputs the coordinates to the image synthesizing unit 3 as an index for determining the position of the virtual camera. The image synthesizing unit 3 matches the positions of the cameras 1 and 2 that have already been input by the camera position setting tool 4 with the positions of the eyes of the partner image from the pattern recognizing unit 10 on the straight line connecting the cameras 1 and 2. The position closest to the coordinates is defined as the position of the virtual camera, and the camera 1,
The image of the conference participant viewed from the position of the virtual camera just determined is synthesized from the self-image signal captured by 2 and output to the CODEC 8. The CODEC 8 compresses the images of the conference participants and outputs them to the communication unit 7.

【0012】次に動作について説明する。Next, the operation will be described.

【0013】会議参加者は、最初にカメラ位置設定ツー
ル4を用いて、カメラ1,2の位置情報を画像合成部3
に入力しておく。2台のカメラ1,2は、図2の第1の
実施の形態を示す正面図に示すように、CRT5の両側
に設けてあるのでCRT5の表示領域上にはない。従っ
て、カメラ1,2の座標は、仮想的な値を取り、例え
ば、カメラ1(−120,40)、カメラ2(114
3,40)となる。次に、会議参加者は、相手画像表示
ウィンドウ9に、CRT5の表示領域上の相手画像の表
示位置を指定しておく。この指定はOS10に伝えら
れ、さらに仮想カメラ座標計算部12に伝達される。仮
想カメラ座標計算部12は、パタン認識部10からの相
手画像における眼の相対位置情報を受けなければ、OS
10からのCRT5の表示領域上の相手画像の表示位
置、例えば(600,0)のみにより、予め定める手順
に従って相手の眼の位置情報を計算し、CRT5の表示
領域上での相手の眼の位置情報(絶対位置)を出力す
る。また、パタン認識部10からの相手画像、例えば
(320*240ドット)における眼の相対位置情報、
例えば(160,40)を受ければ、OS10からのC
RT5の表示領域上の相手画像の表示位置に、眼の相対
位置情報を当はめ、CRT5の表示領域上での相手の眼
の位置(760,40)を出力する。画像合成部3は、
カメラ位置設定ツール4からのカメラ1,2の位置情報
と共に、仮想カメラ座標計算部12からの相手の眼の位
置情報を受けることで、仮想カメラの位置を求めてお
く。
The conference participant first uses the camera position setting tool 4 to obtain the position information of the cameras 1 and 2 from the image composition unit 3.
Enter in. As shown in the front view of the first embodiment of FIG. 2, the two cameras 1 and 2 are provided on both sides of the CRT 5 and therefore are not on the display area of the CRT 5. Therefore, the coordinates of the cameras 1 and 2 take virtual values, for example, camera 1 (-120, 40) and camera 2 (114
3, 40). Next, the conference participants specify the display position of the partner image on the display area of the CRT 5 in the partner image display window 9. This designation is transmitted to the OS 10 and further transmitted to the virtual camera coordinate calculation unit 12. If the virtual camera coordinate calculation unit 12 does not receive the relative position information of the eyes in the partner image from the pattern recognition unit 10, the OS recognizes the OS.
The position information of the other party's eye on the display area of the CRT 5 from 10, such as (600,0) alone, is used to calculate the position information of the other party's eye according to a predetermined procedure, and the position of the other party's eye on the display area of the CRT 5 is calculated. Outputs information (absolute position). In addition, a relative image from the pattern recognition unit 10, for example, relative position information of the eye in (320 * 240 dots),
For example, if (160,40) is received, C from the OS 10
The relative position information of the eye is applied to the display position of the partner image on the display area of RT5, and the position (760, 40) of the eye of the partner on the display area of CRT5 is output. The image composition unit 3
The position of the virtual camera is obtained by receiving the position information of the cameras 1 and 2 from the camera position setting tool 4 and the position information of the eye of the other party from the virtual camera coordinate calculation unit 12.

【0014】電子会議が開始されると、会議参加者の自
画像は、カメラ1,2の自画像入力を基に、画像合成部
3により先に求めた仮想カメラの位置から見た自画像と
して合成され、出力される。この合成された仮想カメラ
からの自画像は、CODEC8で圧縮され、圧縮された
自画像データとして通信部7およびLANまたはISD
Nの回線6を介して図示されていない他の電子会議端末
装置に送出される。
When the electronic conference is started, the self-portraits of the conference participants are combined as self-portraits as seen from the position of the virtual camera previously obtained by the image synthesizing unit 3 based on the self-portraits of the cameras 1 and 2, Is output. The synthesized self-portrait from the virtual camera is compressed by the CODEC 8 and is compressed as self-portrait data by the communication unit 7 and the LAN or ISD.
It is sent to another electronic conference terminal device (not shown) via the N line 6.

【0015】一方、図示されていない他の電子会議端末
装置からの相手画像は、LANまたはISDNの回線6
を介して他の電子会議端末装置と接続している通信部7
が、圧縮された相手画像データを受信する。通信部7が
受信した圧縮された相手画像データは、CODEC8が
相手画像として復号し、相手画像のCRT5の表示面上
の位置を指定する相手画像表示ウィンドウ9と、相手画
像上の眼の位置を認識するパタン認識部10とに送出す
る。相手画像表示ウィンドウ9は、相手画像を表示する
ウィンドウの位置情報と共に、受信した相手画像をOS
11に送る。OS11は、相手画像を相手画像を表示す
るウィンドウの位置に表示した状態でCRT5に送り、
同時に相手画像を表示するウィンドウの位置情報を仮想
するカメラの位置座標を計算する仮想カメラ座標計算部
12に送る。CRT5は、指定されている位置に相手画
像を表示する。会議参加者は、この相手画像に注目する
と自動的に相手に視線を合せたことになり、相手も同様
に表示されている会議参加者の画像に注目すれば視線を
合せることになる。
On the other hand, a partner image from another electronic conference terminal device (not shown) is a LAN or ISDN line 6
Communication unit 7 connected to another electronic conference terminal device via
Receives the compressed partner image data. The compressed partner image data received by the communication unit 7 is decoded by the CODEC 8 as the partner image, and the partner image display window 9 for designating the position of the partner image on the display surface of the CRT 5 and the eye position on the partner image are displayed. It is sent to the pattern recognition unit 10 for recognition. The partner image display window 9 displays the received partner image in the OS together with the position information of the window for displaying the partner image.
Send to 11. The OS 11 sends the partner image to the CRT 5 while displaying the partner image at the position of the window displaying the partner image,
At the same time, the position information of the window displaying the partner image is sent to the virtual camera coordinate calculation unit 12 which calculates the position coordinates of the virtual camera. The CRT 5 displays the partner image at the designated position. When the conference participant pays attention to the image of the other party, it means that the line of sight is automatically aligned with the other party, and when the other party also focuses on the image of the conference participant who is also displayed, the line of sight is aligned.

【0016】以上の説明は、カメラが2台の場合である
ので、相手画像を表示するウィンドウの位置は、2台の
カメラを結ぶ直線上になければ視線を合すことができな
いものである。
Since the above description is for the case of two cameras, the position of the window for displaying the partner image is not on the straight line connecting the two cameras so that the line of sight cannot be met.

【0017】図3は本発明の第2の実施の形態を示す正
面図である。
FIG. 3 is a front view showing a second embodiment of the present invention.

【0018】第2の実施の形態としては、カメラを3台
用いた場合を示す。ここで、カメラ21,22,23
は、CRT24を囲むように配置してある。このように
カメラ21,22,23を配置することにより、カメラ
21,22,23で囲まれる範囲内の任意の位置に相手
画像表示ウィンドウ9を設定することを可能とする。こ
の場合、第1の実施の形態と異なる点は、画像合成部4
の機能が3台のカメラに対応するよう拡張されているこ
とである。この技術は従来の技術の項で説明した特開平
1―320584号公報に示される技術の応用である。
The second embodiment shows the case where three cameras are used. Here, the cameras 21, 22, 23
Are arranged so as to surround the CRT 24. By arranging the cameras 21, 22, and 23 in this way, it is possible to set the partner image display window 9 at an arbitrary position within the range surrounded by the cameras 21, 22, and 23. In this case, the difference from the first embodiment is that the image synthesizing unit 4
Function has been expanded to support three cameras. This technique is an application of the technique disclosed in JP-A-1-320584 described in the section of the conventional technique.

【0019】図4は本発明の第3の実施の形態を示す正
面図である。
FIG. 4 is a front view showing a third embodiment of the present invention.

【0020】第3の実施の形態としては、カメラを4台
用いた場合を示す。ここで、カメラ31,32,33,
34は、CRT35を囲むように配置してある。このよ
うにカメラ31,32,33,34を配置することによ
り、カメラ31,32,33,34で囲まれる範囲内の
任意の位置に相手画像表示ウィンドウ9を設定すること
を可能とする。この場合、第1の実施の形態と異なる点
は、画像合成部4の機能が4台のカメラに対応するよう
拡張されていることである。
The third embodiment shows the case where four cameras are used. Here, the cameras 31, 32, 33,
34 is arranged so as to surround the CRT 35. By arranging the cameras 31, 32, 33, and 34 in this way, it is possible to set the partner image display window 9 at an arbitrary position within the range surrounded by the cameras 31, 32, 33, and 34. In this case, the difference from the first embodiment is that the function of the image synthesizing unit 4 is expanded to support four cameras.

【0021】[0021]

【発明の効果】以上説明したように、本発明は、可視表
示部の近傍に設置する少なくとも2台のカメラを用いて
取得したカメラの前の会議参加者の画像データから立体
画像データを生成すると共にカメラの前の会議参加者の
指定した可視表示部の任意の会議参加者の画像上の眼の
位置に仮想する仮想カメラが取得するカメラの前の会議
参加者の画像を立体画像データから合成し出力する画像
合成部と、この画像合成部の合成したカメラの前の会議
参加者の画像およびデータを電子会議システムの他の電
子会議端末装置に送信すると共に他の会議参加者の画像
およびデータを受信する通信部とを有することにより、
装置全体を小型とし、レイアウト上の自由度を十分に持
たせることができ、さらに確実に視線を合せて会議を行
うことができるという効果が有る。
As described above, according to the present invention, stereoscopic image data is generated from the image data of the conference participants in front of the cameras acquired by using at least two cameras installed near the visible display section. Along with the stereoscopic image data, the image of the conference participant in front of the camera acquired by the virtual virtual camera at the eye position on the image of the arbitrary conference participant in the visible display area designated by the conference participant in front of the camera is synthesized. The image composing unit that outputs the image and the image and data of the conference participant in front of the camera composed by the image compositing unit are transmitted to the other electronic conference terminal device of the electronic conference system, and the images and data of the other conference participants are transmitted. By having a communication unit for receiving
There is an effect that the entire apparatus can be made small, the degree of freedom in layout can be sufficiently provided, and the line of sight can be surely met to hold a conference.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態を示すブロック図で
ある。
FIG. 1 is a block diagram showing a first embodiment of the present invention.

【図2】本発明の第1の実施の形態を示す正面図であ
る。
FIG. 2 is a front view showing the first embodiment of the present invention.

【図3】本発明の第2の実施の形態を示す正面図であ
る。
FIG. 3 is a front view showing a second embodiment of the present invention.

【図4】本発明の第3の実施の形態を示す正面図であ
る。
FIG. 4 is a front view showing a third embodiment of the present invention.

【図5】従来の電子会議端末装置の概念図である。FIG. 5 is a conceptual diagram of a conventional electronic conference terminal device.

【符号の説明】[Explanation of symbols]

1,2,21,22,23,31,32,33,34
カメラ 3 画像合成部 4 カメラ位置設定ツール 5,24,35 CRT 6 LANまたはISDNの回線 7 通信部 8 CODEC 9 相手画像表示ウィンドウ 10 パタン認識部 11 OS 12 仮想カメラ座標計算部
1, 2, 21, 22, 23, 31, 32, 33, 34
Camera 3 Image synthesizer 4 Camera position setting tool 5, 24, 35 CRT 6 LAN or ISDN line 7 Communication part 8 CODEC 9 Other image display window 10 Pattern recognition part 11 OS 12 Virtual camera coordinate calculation part

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ウィンドウの位置および大きさをユーザ
が変更できる手段を持ったウィンドウシステム上で動作
し、可視表示部に任意の会議参加者の画像を表示するウ
ィンドウを持った電子会議システムの電子会議端末装置
において、前記可視表示部の近傍に設置する少なくとも
2台のカメラを用いて取得した前記カメラの前の会議参
加者の画像データから立体画像データを生成すると共に
前記カメラの前の会議参加者の指定した前記可視表示部
の前記任意の会議参加者の画像上の眼の位置に仮想する
仮想カメラが取得する前記カメラの前の会議参加者の画
像を前記立体画像データから合成し出力する画像合成部
と、この画像合成部の合成した前記カメラの前の会議参
加者の画像およびデータを前記電子会議システムの他の
電子会議端末装置に送信すると共に他の会議参加者の画
像およびデータを受信する通信部とを有することを特徴
とする電子会議端末装置。
1. An electronic conferencing system electronic device which operates on a window system having means for changing the position and size of the window and which has a window for displaying an image of an arbitrary conference participant on a visible display part. In a conference terminal device, stereoscopic image data is generated from image data of a conference participant in front of the camera acquired using at least two cameras installed near the visible display unit, and participation in the conference in front of the camera is also performed. The image of the conference participant in front of the camera acquired by the virtual camera at the position of the eye on the image of the conference participant on the visual display unit designated by the person is synthesized from the stereoscopic image data and output. The image synthesizing unit and the image and data of the conference participant in front of the camera synthesized by the image synthesizing unit are transferred to another electronic conference terminal device of the electronic conference system. An electronic conference terminal device, comprising: a communication unit that transmits and receives images and data of other conference participants.
【請求項2】 2台のカメラを可視表示部の左右でかつ
同一水準に設け、前記可視表示部の任意の会議参加者の
画像上の眼の位置に仮想する仮想カメラの位置が前記2
台のカメラを通る直線上でかつ前記可視表示部上の任意
の会議参加者の画像を表示するウィンドウの表示位置で
あることを特徴とする請求項1記載の電子会議端末装
置。
2. Two cameras are provided on the left and right sides of the visible display unit at the same level, and the position of the virtual camera which is virtual at the position of the eye on the image of any conference participant of the visible display unit is the above-mentioned 2 positions.
The electronic conference terminal device according to claim 1, wherein the electronic conference terminal is a display position of a window for displaying an image of an arbitrary conference participant on the visible display unit on a straight line passing through one camera.
【請求項3】 3台のカメラを可視表示部の上下左右で
前記可視表示部を囲むように配置することを特徴とする
請求項1記載の電子会議端末装置。
3. The electronic conference terminal device according to claim 1, wherein three cameras are arranged on the upper, lower, left and right sides of the visible display unit so as to surround the visible display unit.
【請求項4】 4台のカメラを可視表示部の上下左右で
前記可視表示部を囲むように配置することを特徴とする
請求項1記載の電子会議端末装置。
4. The electronic conference terminal device according to claim 1, wherein four cameras are arranged so as to surround the visible display unit at the top, bottom, left and right sides of the visible display unit.
JP7309062A 1995-11-28 1995-11-28 Electronic conference terminal equipment Pending JPH09154114A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7309062A JPH09154114A (en) 1995-11-28 1995-11-28 Electronic conference terminal equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7309062A JPH09154114A (en) 1995-11-28 1995-11-28 Electronic conference terminal equipment

Publications (1)

Publication Number Publication Date
JPH09154114A true JPH09154114A (en) 1997-06-10

Family

ID=17988428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7309062A Pending JPH09154114A (en) 1995-11-28 1995-11-28 Electronic conference terminal equipment

Country Status (1)

Country Link
JP (1) JPH09154114A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355804A (en) * 1998-06-04 1999-12-24 Nec Corp Network conference image processing unit
WO2001084827A1 (en) * 2000-04-28 2001-11-08 Nozomu Saruhashi Floor-mounted camera device
US6661315B2 (en) 2000-03-07 2003-12-09 Murata Manufactuing Co. Ltd Resonator, filter, oscillator, duplexer, and communication apparatus
JP2004193962A (en) * 2002-12-11 2004-07-08 Sony Corp Image communication equipment, image communication method, and computer program
JP2014522622A (en) * 2012-06-11 2014-09-04 センター オブ ヒューマン−センタード インタラクション フォー コイグジステンス 3D teleconferencing device capable of eye contact and method using the same
WO2018225518A1 (en) * 2017-06-07 2018-12-13 ソニー株式会社 Image processing device, image processing method, program, and telecommunication system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03278686A (en) * 1990-03-28 1991-12-10 Nec Corp Video telephone set
JPH0652945A (en) * 1992-07-28 1994-02-25 Matsushita Electric Works Ltd Wiring device
JPH0750819A (en) * 1993-03-30 1995-02-21 Nec Corp Video conference system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03278686A (en) * 1990-03-28 1991-12-10 Nec Corp Video telephone set
JPH0652945A (en) * 1992-07-28 1994-02-25 Matsushita Electric Works Ltd Wiring device
JPH0750819A (en) * 1993-03-30 1995-02-21 Nec Corp Video conference system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355804A (en) * 1998-06-04 1999-12-24 Nec Corp Network conference image processing unit
US6661315B2 (en) 2000-03-07 2003-12-09 Murata Manufactuing Co. Ltd Resonator, filter, oscillator, duplexer, and communication apparatus
WO2001084827A1 (en) * 2000-04-28 2001-11-08 Nozomu Saruhashi Floor-mounted camera device
US6848842B2 (en) 2000-04-28 2005-02-01 Nozomu Saruhashi Floor-mounted camera device
JP2004193962A (en) * 2002-12-11 2004-07-08 Sony Corp Image communication equipment, image communication method, and computer program
JP2014522622A (en) * 2012-06-11 2014-09-04 センター オブ ヒューマン−センタード インタラクション フォー コイグジステンス 3D teleconferencing device capable of eye contact and method using the same
US9077974B2 (en) 2012-06-11 2015-07-07 Center Of Human-Centered Interaction For Coexistence 3D video-teleconferencing apparatus capable of eye contact and method using the same
WO2018225518A1 (en) * 2017-06-07 2018-12-13 ソニー株式会社 Image processing device, image processing method, program, and telecommunication system
US11068699B2 (en) 2017-06-07 2021-07-20 Sony Corporation Image processing device, image processing method, and telecommunication system to generate an output image for telecommunication

Similar Documents

Publication Publication Date Title
JP4057241B2 (en) Improved imaging system with virtual camera
CA2157613C (en) Video conference system and method of providing parallax correction and a sense of presence
US7773108B2 (en) Method of maintaining eye contact in video conferencing using view morphing
US5438357A (en) Image manipulating teleconferencing system
Gibbs et al. Teleport–towards immersive copresence
US6753900B2 (en) Method and apparatus for overcoming the limitations of camera angle in video conferencing applications
CN108076307B (en) AR-based video conference system and AR-based video conference method
US20130242036A1 (en) Displaying panoramic video image streams
EP2292009A2 (en) Compositing video streams
Breiteneder et al. TELEPORT—an augmented reality teleconferencing environment
JPH0730877A (en) Inter-multi location multimedia communications conference system
JP3587106B2 (en) Eye-gaze video conferencing equipment
JP3610423B2 (en) Video display system and method for improving its presence
JPH09154114A (en) Electronic conference terminal equipment
JPH0690445A (en) Video input/output device
JPH08256316A (en) Communication conference system
JPH0652945B2 (en) Video phone
JP2005142765A (en) Apparatus and method for imaging
JPH11355804A (en) Network conference image processing unit
JP2001092990A (en) Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program
JP3203614B2 (en) Virtual shared display method in image communication system
JP2001216531A (en) Method for displaying participant in three-dimensional virtual space and three-dimensional virtual space display device
JP2001313917A (en) Network meeting image processor
KR101860773B1 (en) Apparatus and method for compositing image in a portable terminal
JP2003163905A (en) Television conference system and method therefor

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19980728