JPH07250313A - Multi-point video conference terminal equipment - Google Patents

Multi-point video conference terminal equipment

Info

Publication number
JPH07250313A
JPH07250313A JP6068005A JP6800594A JPH07250313A JP H07250313 A JPH07250313 A JP H07250313A JP 6068005 A JP6068005 A JP 6068005A JP 6800594 A JP6800594 A JP 6800594A JP H07250313 A JPH07250313 A JP H07250313A
Authority
JP
Japan
Prior art keywords
image data
video conference
conference terminal
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6068005A
Other languages
Japanese (ja)
Inventor
Hitoshi Yasuda
均 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP6068005A priority Critical patent/JPH07250313A/en
Priority to US08/402,023 priority patent/US6549178B2/en
Publication of JPH07250313A publication Critical patent/JPH07250313A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PURPOSE:To provide a multi-point video conference terminal in which image data at an optional point are displayed on a display means, the image data at an optional point are displayed on the display means even in the case of the multi-point communication system and also image data at other point are displayed simultaneously on the display means. CONSTITUTION:Image data at a point designated by input information from an input section 10 are displayed on a display section 2 under the control of a system control section 11. Furthermore, in the multi-point communication system, image data at an optional point designated by input information from the input section 10 or image data at multi-points are displayed simultaneously on the display section 2.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、多地点の画像データを
表示手段に表示しながら多地点間で会議を行うための多
地点テレビ会議端末に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multipoint video conference terminal for holding a conference between multiple points while displaying image data of multiple points on a display means.

【0002】[0002]

【従来の技術】近年、出張コストの削減や時間の有効活
用等の観点から、通信回線を使ったテレビ会議端末の有
効性が重要視されている。そして、2地点間のポイント
・トゥー・ポイント機能を備えたテレビ会議端末のみで
なく、多数の地点間で同時に会議を行えるマルチポイン
ト機能を備えた多地点テレビ会議端末が開発されてい
る。
2. Description of the Related Art In recent years, the effectiveness of a video conference terminal using a communication line has been emphasized from the viewpoints of reducing business trip costs and effectively utilizing time. Then, not only a video conference terminal having a point-to-point function between two points but also a multi-point video conference terminal having a multipoint function capable of holding a conference between a number of points at the same time has been developed.

【0003】図4は、従来のこの種の多地点テレビ会議
端末の構成を示すブロック図である。同図において、1
は本端末の画像入力手段としてのカメラで、自画像や図
面等を入力するものである。2は表示部で、カメラ1か
らの入力画像データ及び相手からの受信画像データを等
を表示するもので、CRT(Cathod RayTu
be;陰極線管)或はLCD(Liquid Crys
tal Display;液晶表示器)等からなる。3
はビデオ入力インタフェース部で、後述するシステム制
御部11の指示による画像入力手段(カメラ1)の切り
換え、画像データのA/D変換(アナログからディジタ
ルへの変換)、画像データサイズ変換、画像データのフ
ォーマット変換等を行うものである。
FIG. 4 is a block diagram showing the structure of a conventional multipoint video conference terminal of this type. In the figure, 1
Is a camera as an image input means of this terminal, which inputs a self-portrait, a drawing and the like. A display unit 2 displays input image data from the camera 1, received image data from the other party, and the like, and is a CRT (Cathode RayTu).
be; cathode ray tube) or LCD (Liquid Crys)
tal Display; liquid crystal display) and the like. Three
Is a video input interface unit, which switches image input means (camera 1) in accordance with an instruction from a system control unit 11 described later, A / D conversion of image data (conversion from analog to digital), image data size conversion, image data conversion Format conversion is performed.

【0004】4はビデオ出力インタフェース部で、受信
画像データの画像サイズを変換する受信画像スケーリン
グ部4aと、該受信画像スケーリング部4aで画像サイ
ズを変換する際に画像データを一時格納する領域として
の画像メモリ部4bと、該画像メモリ部4bに対する画
像データの書き込み及び読み出しを制御する画像メモリ
制御部4cと、該画像メモリ制御部4cの制御により画
像メモリ部4bから読み出した画像データをテレビ(以
下、TVと記述する)信号に変換するTV信号エンコー
ド部4dからなる。
Reference numeral 4 denotes a video output interface section which serves as a received image scaling section 4a for converting the image size of the received image data and an area for temporarily storing the image data when the image size is converted by the received image scaling section 4a. An image memory unit 4b, an image memory control unit 4c that controls writing and reading of image data to and from the image memory unit 4b, and image data read from the image memory unit 4b under the control of the image memory control unit 4c. , TV) of the TV signal.

【0005】5はビデオ符号化/復号化部で、ITU−
T(旧CCITT;国際電信電話諮問委員会)の勧告
H.261に従って送信画像信号の符号化処理及び受信
画像信号の復号化処理を行うもので、ビデオ符号化部5
aと、ビデオ復号化部5bとからなる。6は本端末の音
声入出力手段としてのハンドセット、7は本端末のもう
1つの音声入出力手段としてのマイク/スピーカ、8は
音声入出力インタフェース部で、ハンドセット6やマイ
ク/スピーカ7を使用した時にエコーを消去するエコー
キャンセル処理、ダイヤルトーン,呼び出し音,ビジー
トーン,着信音等のトーンの生成処理、システム制御部
11の指示による音声入出力手段(ハンドセット6及び
マイク/スピーカ7)の切り換え処理を行うものであ
る。
Reference numeral 5 denotes a video encoding / decoding unit, which is ITU-
Recommendation of H.T (former CCITT; International Telegraph and Telephone Advisory Committee) The video coding unit 5 performs coding processing of a transmission image signal and decoding processing of a reception image signal according to H.261.
a and a video decoding unit 5b. 6 is a handset as a voice input / output unit of the terminal, 7 is a microphone / speaker as another voice input / output unit of the terminal, 8 is a voice input / output interface unit, and the handset 6 or the microphone / speaker 7 is used. Echo cancellation processing to eliminate echo at times, generation processing of tones such as dial tone, ringing tone, busy tone, and ringing tone, switching processing of voice input / output means (handset 6 and microphone / speaker 7) according to instructions from the system control unit 11 It is something to do.

【0006】9は音声符号化/復号化部で、システム制
御部11の指示により、64kbps PCMA-law、
64kbps PCMμ-law、64kbps/56kb
ps/48kbps SB−ADPCM、32kbps
ADPCM、16kbps(例えば、LD−CEL
P)、8kbps等の音声符号化/復号化アルゴリズム
に従って、送信音声信号の符号化処理及び受信音声信号
の復号化処理を行うもので、音声符号化部9aと、音声
復号化部9bとからなる。10は入力部で、本端末の制
御全般を行うための制御情報を入力するもので、キーボ
ード、タッチパネル、マウス等からなる。
Reference numeral 9 denotes a voice encoding / decoding unit, which is instructed by the system control unit 11 so that 64 kbps PCM A-law,
64 kbps PCM μ-law, 64 kbps / 56 kb
ps / 48kbps SB-ADPCM, 32kbps
ADPCM, 16 kbps (for example, LD-CEL
P), 8 kbps, etc., according to a voice encoding / decoding algorithm, it performs a transmission voice signal encoding process and a reception voice signal decoding process, and comprises a voice encoding unit 9a and a voice decoding unit 9b. . An input unit 10 is for inputting control information for performing overall control of this terminal, and includes a keyboard, a touch panel, a mouse, and the like.

【0007】11はシステム制御部で、CPU(Cen
tral ProcessingUnit;中央演算処
理装置)、ROM(Read Only Memor
y;読み出し専用メモリ)、RAM(Random A
ccess Memory;読み書き可能メモリ)、補
助記憶装置等を備え、各部の状態を監視して、本端末全
体の制御、状態に応じた操作・表示画面の作成及びアプ
リケーションプログラムの実行等を行うものである。1
2は分離/多重化部で、ITU−Tの勧告H.261に
従って音声符号化部9aからの音声信号、ビデオ符号化
部5aからの画像信号、システム制御部11からの制御
信号を送信フレーム単位に多重化すると共に、受信フレ
ームを構成単位の各メディアに分離して各部に通知する
ものである。13は回線インタフェース部で、ISDN
(サービス総合ディジタル網)ユーザ網インタフェース
に従って回線を制御するものである。14はISDN等
の通信回線である。
Reference numeral 11 denotes a system control unit, which is a CPU (Cen
central processing unit), ROM (Read Only Memory)
y; read-only memory), RAM (Random A)
access memory; a readable / writable memory), an auxiliary storage device, and the like, and monitors the status of each unit, controls the entire terminal, creates an operation / display screen according to the status, and executes an application program. . 1
2 is a demultiplexing / multiplexing unit, which is recommended by ITU-T. In accordance with H.261, the audio signal from the audio encoding unit 9a, the image signal from the video encoding unit 5a, and the control signal from the system control unit 11 are multiplexed in transmission frame units, and the reception frame is separated into each medium of constituent units. Then, each part is notified. Reference numeral 13 is a line interface section for ISDN
(Service integrated digital network) The line is controlled according to the user network interface. Reference numeral 14 is a communication line such as ISDN.

【0008】次に、上記構成になる多地点テレビ会議端
末の動作について説明する。
Next, the operation of the multipoint video conference terminal configured as described above will be described.

【0009】カメラ1からの入力画像は、ビデオ入力イ
ンタフェース部3を経てビデオ符号化部5aに入力され
る。また、ハンドセット6或はマイク/スピーカ7から
の入力音声は、音声入出力インタフェース部8を経て音
声符号化部9aに入力される。そして、ビデオ符号化部
5aで符号化された入力画像と、音声符号化部9aで符
号化された入力音声と、システム制御部11からの制御
信号とが分離/多重化部12で送信フレーム単位に多重
化された後、回線インタフェース部13を経て通信回線
14へ送信される。
An input image from the camera 1 is input to the video encoding unit 5a via the video input interface unit 3. The input voice from the handset 6 or the microphone / speaker 7 is input to the voice encoding unit 9a via the voice input / output interface unit 8. Then, the input image coded by the video coding unit 5a, the input sound coded by the audio coding unit 9a, and the control signal from the system control unit 11 are transmitted by the demultiplexing / multiplexing unit 12 in transmission frame units. And then transmitted to the communication line 14 via the line interface unit 13.

【0010】次に、通信回線14からの受信フレーム
は、回線インタフェース部13を経て分離/多重化部1
2で画像信号と音声信号及び制御信号とに分離され、各
々ビデオ復号化部5b、音声復号化部9b及びシステム
制御部11へそれぞれ入る。そして、ビデオ復号化部5
bで復号化された受信画像データは、ビデオ出力インタ
フェース部4を経て表示部2に表示される。また、音声
復号化部9bで復号化された受信音声は、音声入出力イ
ンタフェース部8を経てハンドセット6或はマイク/ス
ピーカ7から出力される。
Next, the received frame from the communication line 14 passes through the line interface unit 13 and the demultiplexing / multiplexing unit 1
At 2, the image signal is separated into the audio signal and the control signal, and they are input to the video decoding unit 5b, the audio decoding unit 9b and the system control unit 11, respectively. Then, the video decoding unit 5
The received image data decoded in b is displayed on the display unit 2 via the video output interface unit 4. Further, the received voice decoded by the voice decoding unit 9b is output from the handset 6 or the microphone / speaker 7 via the voice input / output interface unit 8.

【0011】ビデオ出力インタフェース部4での動作を
更に詳述する。ビデオ復号化部5bで復号化された受信
画像データは、画像メモリ部4bに格納される。受信画
像データは1フレームのデータとして、ある一定の画像
サイズを持っている。この画像サイズが表示部2である
TVモニタの画像サイズと等しければ、該画像サイズの
スケーリングは不要であるが、通常は異なっている。こ
の画像サイズを合わせるため、画像メモリ部4bに格納
された受信画像データは、その変換方式に応じて画像メ
モリ制御部4cの制御により読み出され、受信画像スケ
ーリング部4aに入力される。
The operation of the video output interface section 4 will be described in more detail. The received image data decoded by the video decoding unit 5b is stored in the image memory unit 4b. The received image data has a certain image size as one frame of data. If this image size is equal to the image size of the TV monitor that is the display unit 2, scaling of the image size is not necessary, but it is usually different. In order to match the image size, the received image data stored in the image memory unit 4b is read out by the control of the image memory control unit 4c according to the conversion method and is input to the received image scaling unit 4a.

【0012】受信画像スケーリング部4aでは、事前に
決められた方式に従って画像サイズの変換が行われ、再
び画像メモリ制御部4cの制御により画像メモリ部4b
に書き込まれる。ここで、画像メモリ部4bに書き込ま
れた画像データは、TVモニタへの表示画像サイズと等
しくなっている。このTVモニタ表示画像サイズで画像
メモリ部4bに書き込まれた画像データは、画像メモリ
制御部4cの制御による読み出しによって、TV信号エ
ンコード部4dに入力される。このTV信号エンコード
部4dでは、TVモニタへの表示が可能なように信号を
変換すると共に、各種の同期信号やバースト信号を付加
し、TV信号を形成する。この結果、受信画像データは
TVモニタである表示部2に表示される。
The received image scaling unit 4a performs image size conversion according to a predetermined method, and again the image memory control unit 4c controls the image memory unit 4b.
Written in. Here, the image data written in the image memory unit 4b has the same size as the image displayed on the TV monitor. The image data written in the image memory unit 4b in the TV monitor display image size is read out by the control of the image memory control unit 4c and input to the TV signal encoding unit 4d. The TV signal encoding unit 4d converts a signal so that it can be displayed on a TV monitor and adds various synchronization signals and burst signals to form a TV signal. As a result, the received image data is displayed on the display unit 2 which is a TV monitor.

【0013】このようなビデオ出力インタフェース部4
の動作の具体例について説明する。例えば、ITU−T
の勧告H.261に基づいた符号化方式では、受信画像
データの1フレームサイズは、352×288画素のモ
ード(FCIFモード)と、176×144画素のモー
ド(QCIFモード)とがある。NTSC−TVモニタ
へ表示する場合の1つの変換方式を考えてみる。図5に
動作概念図を示す。同図において、352×288サイ
ズの画像データが画像メモリ部4bに格納されている。
今、水平352画素の1ラインを読み出し、両端に4画
素ずつのダミーデータ(例えば、黒レベルの値)を1つ
付加して360画素とする。この各画素の間に、その2
点の加算平均値の画素を挿入する。最後に右端にダミー
データ(例えば、黒レベルの値)を1つ付加する。これ
で352画素から720画素への変換が完了する。
Such a video output interface unit 4
A specific example of the operation will be described. For example, ITU-T
H. In the encoding system based on 261, one frame size of the received image data has a mode of 352 × 288 pixels (FCIF mode) and a mode of 176 × 144 pixels (QCIF mode). Consider one conversion method for displaying on an NTSC-TV monitor. FIG. 5 shows a conceptual diagram of operation. In the figure, image data of 352 × 288 size is stored in the image memory unit 4b.
Now, one line of horizontal 352 pixels is read out, and one dummy data (for example, a black level value) of 4 pixels is added to both ends to make 360 pixels. Between each pixel, 2
Insert the pixel of the arithmetic mean value of the points. Finally, one dummy data (for example, a black level value) is added to the right end. This completes the conversion from 352 pixels to 720 pixels.

【0014】次に、垂直ラインについて考える。垂直2
88ラインについては、TVモニタがインタレース走査
表示するため、まず、288ラインから1フレーム48
0ラインをライン補間(3ラインにつき2ラインを補間
挿入する)により求め、奇数ライン、偶数ラインでフィ
ールドに分割してTV信号エンコーダ4dへ読み出す。
また、288ラインを240ラインに間引きし(6ライ
ンにつき1ラインを補間間引きする)、1フィールドデ
ータを形成しておいて、インタレース出力する時に同じ
フィールドを2度繰り返して出力しても良い。但し、同
じフィールドを2回繰り返して出力する場合は、TVモ
ニタの表示画面上、同じラインが2ライン出力されるこ
とになり、画質の劣化が目立つため、各フィールドを出
力する際に、補間処理やフィルタ処理を行うことがあ
る。
Next, consider the vertical line. Vertical 2
For 88 lines, since the TV monitor performs interlaced scanning display, first, from 288 lines to 1 frame 48
0 line is obtained by line interpolation (2 lines are interpolated and inserted for every 3 lines), divided into fields by odd lines and even lines, and read out to the TV signal encoder 4d.
It is also possible to thin out 288 lines to 240 lines (interpolate one line out of every 6 lines) to form one field data and repeatedly output the same field twice during interlaced output. However, when the same field is repeatedly output twice, two lines of the same line are output on the display screen of the TV monitor, and the deterioration of the image quality is noticeable. Therefore, when outputting each field, interpolation processing is performed. Or filter processing may be performed.

【0015】以上のような変換処理を行うことにより、
352×288サイズの画像データのTVモニタ表示へ
の変換が完了する。当然のことながら、上述した方法以
外にも変換方法はある。
By performing the above conversion processing,
The conversion of the 352 × 288 size image data into the TV monitor display is completed. Of course, there are other conversion methods than the above.

【0016】多地点テレビ会議では、通常、図6〜図8
に示すように多地点制御装置(以下、MCUと記述す
る)16が使用される。このMCU16は、通信される
複数地点の多地点テレビ会議端末(図6〜図8において
は、第1〜第4端末)と通信回線14及び網17を介し
て直接接続される(図6)。各地点からの受信画像デー
タを合成或は選択し、画像データの再構成を行い、各地
点の多地点テレビ会議端末に配信する。各地点の多地点
テレビ会議端末は、MCU16から配信された画像デー
タを受信し、該受信した画像データの形で表示部2であ
るTVモニタに画像を表示する。つまり、受信した画像
データに1地点の画像データのみしかなければ、その1
地点の画像データのみがTVモニタに表示される(図
7)。また、受信した画像データに多地点分の画像デー
タが合成されていれば、多地点の画像データがTVモニ
タに表示される(図8)。このように、多地点テレビ会
議端末は、TVモニタへの画像データの表示に関してM
CU16に依存しており、通常のテレビ会議端末に対し
て何等特別な処理は施していない。
In a multipoint video conference, normally, FIGS.
A multipoint control unit (hereinafter referred to as MCU) 16 is used as shown in FIG. The MCU 16 is directly connected to the multipoint video conference terminals (first to fourth terminals in FIGS. 6 to 8) at a plurality of points to be communicated via the communication line 14 and the network 17 (FIG. 6). The image data received from each point is combined or selected, the image data is reconstructed, and the image data is distributed to the multipoint video conference terminal at each point. The multipoint video conference terminal at each point receives the image data distributed from the MCU 16 and displays the image on the TV monitor, which is the display unit 2, in the form of the received image data. In other words, if there is only one image data in the received image data,
Only the image data of the spot is displayed on the TV monitor (Fig. 7). Further, if the received image data is combined with the image data for multiple points, the image data for multiple points is displayed on the TV monitor (FIG. 8). As described above, the multipoint video conference terminal has an M number for displaying image data on the TV monitor.
It depends on the CU 16 and does not perform any special processing on a normal video conference terminal.

【0017】[0017]

【発明が解決しようとする課題】しかしながら、上述し
た従来の多地点テレビ会議端末にあっては、受信画像デ
ータをTVモニタに表示する際、受信した多地点の画像
データの中のどの画像データがどこの地点の画像データ
であるかを識別していなかったため、その中の任意の地
点のみの画像データ、或は任意の数地点の画像データを
抜き出してTVモニタに表示することができなかった。
However, in the above-mentioned conventional multipoint video conference terminal, when the received image data is displayed on the TV monitor, which image data in the received multipoint image data is displayed. Since the image data of which point was not identified, it was not possible to extract the image data of only an arbitrary point or the image data of an arbitrary number of points and display it on the TV monitor.

【0018】また、上述した従来の多地点テレビ会議端
末にあっては、複数のフレームによって多地点分の画像
データを受信する多地点通信方式においては、任意の地
点の画像データを抜き出してTVモニタに表示すること
は勿論、受信した多地点の画像データを一括して同時に
TVモニタに表示することができなかった。
Further, in the above-mentioned conventional multipoint video conference terminal, in the multipoint communication system in which the image data for multiple points is received by a plurality of frames, the image data of an arbitrary point is extracted to the TV monitor. Of course, the received image data of multiple points could not be displayed on the TV monitor at the same time.

【0019】本発明は上述した従来の技術の有するこの
ような問題点に鑑みてなされたものであり、その目的と
するところは、受信した多地点の画像データの中から任
意の地点の画像データを表示手段に表示することができ
ると共に、複数のフレームによって多地点分の画像デー
タを受信する多地点通信方式においても、受信した多地
点の画像データの中から任意の地点の画像データを表示
手段に表示することができることは勿論、受信した多地
点の画像データを一括して同時に表示手段に表示するこ
とができる多地点テレビ会議端末を提供しようとするも
のである。
The present invention has been made in view of the above-mentioned problems of the above-mentioned conventional technique, and an object thereof is to obtain image data of an arbitrary point from the received image data of multiple points. Can be displayed on the display means, and even in a multipoint communication system for receiving image data of multiple points by a plurality of frames, the image data of an arbitrary point can be displayed from the image data of the received multipoint. The present invention intends to provide a multi-point video conference terminal capable of displaying the received multi-point image data collectively on the display means at the same time.

【0020】[0020]

【課題を解決するための手段】上記目的を達成するため
に本発明の第1発明は、多地点の画像データを表示手段
に表示しながら多地点間で会議を行うための多地点テレ
ビ会議端末において、前記多地点の画像データの中から
任意の地点の画像データを指定する情報を入力する入力
手段と、該入力手段により入力された情報に対応する地
点の画像データを前記表示手段に表示するように制御す
る制御手段とを具備したことを特徴とするものである。
In order to achieve the above object, the first invention of the present invention is a multipoint video conference terminal for holding a conference between multiple points while displaying image data of multiple points on a display means. In, the input means for inputting information designating image data of an arbitrary point from the image data of the multipoint, and the image data of the point corresponding to the information input by the input means are displayed on the display means. And a control means for controlling the above.

【0021】同じ目的を達成するために本発明の第2発
明は、受信した多地点の画像データを格納する画像デー
タ格納手段と、該画像データ格納手段に対する画像デー
タの書き込み制御及び読み出し制御を行う書き込み/読
み出し制御手段と、該書き込み/読み出し制御手段の制
御により前記画像データ格納手段から読み出された画像
データをテレビ信号にエンコードするエンコード手段
と、該エンコード手段から出力されたテレビ信号を表示
する表示手段と、制御情報を入力する入力手段とを有す
る多地点テレビ会議端末において、前記受信した多地点
の画像データから各地点の画像データを識別する画像デ
ータ識別手段と、前記画像データ格納手段から読み出さ
れた画像データのサイズを変換する画像データサイズ変
換手段と、前記入力手段から入力された制御情報に基づ
いて生成すべきキャラクタのコードを生成するキャラク
タコード生成手段と、該キャラクタコード生成手段から
出力されるキャラクタコードに対応したキャラクタを生
成するキャラクタ生成手段と、前記エンコード手段から
出力されるテレビ信号に前記キャラクタ生成手段により
生成されたキャラクタを合成するキャラクタ合成手段と
を具備したことを特徴とするものである。
In order to achieve the same object, a second invention of the present invention performs image data storage means for storing received multipoint image data, and write control and read control of image data to the image data storage means. The writing / reading control means, the encoding means for encoding the image data read from the image data storage means into a television signal under the control of the writing / reading control means, and the television signal output from the encoding means are displayed. In a multipoint video conference terminal having a display means and an input means for inputting control information, an image data identification means for identifying image data of each location from the received image data of the multipoint, and an image data storage means Image data size conversion means for converting the size of the read image data, and the input Character code generating means for generating a code of a character to be generated based on control information input from the column, character generating means for generating a character corresponding to the character code output from the character code generating means, and the encoding And a character synthesizing unit for synthesizing the character generated by the character generating unit with the television signal output from the unit.

【0022】さらには、送信画像をも表示しうるための
画像データ取り込み手段を具備したことを特徴とするも
のである。
Further, it is characterized in that it comprises an image data fetching means for displaying a transmitted image.

【0023】[0023]

【作用】本発明の多地点テレビ会議端末は、受信した多
地点の画像データの中から任意の地点の画像データを、
入力手段からの入力情報により指定し、該指定された地
点の画像データが制御手段の制御により表示手段に表示
される。また、複数のフレームによって多地点分の画像
データを受信する多地点通信方式においては、入力手段
からの入力情報により任意の地点の画像データを指定し
て表示手段に表示することができると共に、多地点の画
像データを一括して同時に表示手段に表示することがで
きる。さらに、送信画像を選択表示することもできる。
The multipoint video conference terminal according to the present invention displays the image data of an arbitrary point from the received image data of the multipoint,
It is designated by the input information from the input means, and the image data of the designated point is displayed on the display means under the control of the control means. Further, in a multipoint communication system in which image data for multiple points is received by a plurality of frames, image data at an arbitrary point can be designated by the input information from the input means and displayed on the display means. The image data of the spot can be displayed on the display unit at the same time. Further, the transmitted image can be selectively displayed.

【0024】[0024]

【実施例】以下、本発明の一実施例を図1〜図3に基づ
き説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to FIGS.

【0025】図1は、本発明の一実施例に係る多地点テ
レビ会議端末の構成を示すブロック図であり、同図にお
いて、上述した従来の図4と同一部分については、同一
符号を付してある。図1において図4と異なる点は、図
4の構成に、多地点データ識別部12a、画像サイズ変
換部4e、スーパーインポーズ部4f、キャラクタ生成
部4g、キャラクタコード生成部11a、高速ビデオス
イッチ15を付加したことである。
FIG. 1 is a block diagram showing the configuration of a multipoint video conference terminal according to an embodiment of the present invention. In FIG. 1, the same parts as those in the above-mentioned conventional FIG. There is. 1 is different from that of FIG. 4 in that the multipoint data identification unit 12a, the image size conversion unit 4e, the superimposing unit 4f, the character generation unit 4g, the character code generation unit 11a, and the high-speed video switch 15 are different from those of FIG. Is added.

【0026】多地点データ識別部12aは、分離/多重
化部12の内部に設けられ、受信した多地点の画像デー
タから各地点の画像データを識別してシステム制御部1
1へ伝えるものである。システム制御部11では、多地
点データ識別部12aから受け取ったデータ識別情報
を、その内部のRAMに格納する。画像サイズ変換部4
eは、画像メモリ部4bとTV信号エンコード部4dと
の間に設けられ、画像メモリ部4bから読み出された画
像データのサイズを変換する。スーパーインポーズ部4
fは、TV信号エンコード部4dと表示部2との間に設
けられ、TV信号エンコード部4dから出力されるTV
信号に、キャラクタ生成部4gからのキャラクタ情報を
合成する。キャラクタコード生成部11aは、システム
制御部11の中に設けられ、入力部10から入力した制
御情報に従い、キャラクタ生成すべきキャラクタのコー
ドを生成し、キャラクタ生成部4gへ出力する。高速ビ
デオスイッチ15は、送信画像データも表示部2に表示
できるように、画像メモリ部4bに送信画像データを取
り込むためのスイッチである。
The multipoint data identification section 12a is provided inside the demultiplexing / multiplexing section 12 and identifies the image data of each point from the received multipoint image data and the system control section 1
It is something to convey to 1. The system control unit 11 stores the data identification information received from the multipoint data identification unit 12a in its internal RAM. Image size conversion unit 4
e is provided between the image memory unit 4b and the TV signal encoding unit 4d, and converts the size of the image data read from the image memory unit 4b. Superimpose part 4
f is provided between the TV signal encoding unit 4d and the display unit 2, and is a TV output from the TV signal encoding unit 4d.
The character information from the character generator 4g is combined with the signal. The character code generation unit 11a is provided in the system control unit 11, generates a code of a character to be generated according to the control information input from the input unit 10, and outputs the code to the character generation unit 4g. The high-speed video switch 15 is a switch for loading the transmission image data into the image memory unit 4b so that the transmission image data can be displayed on the display unit 2.

【0027】次に、本実施例に係わる多地点テレビ会議
端末の動作を説明する。
Next, the operation of the multipoint video conference terminal according to this embodiment will be described.

【0028】カメラ入力部1からの入力画像は、ビデオ
入力インタフェース部3を経てビデオ符号化部5aに入
力される。また、ハンドセット6或はマイク/スピーカ
7からの入力音声は、音声入出力インタフェース部8を
経て音声符号化部9aに入力される。そして、ビデオ符
号化部5aで符号化された入力画像と、音声符号化部9
aで符号化された入力音声と、システム制御部11から
の制御信号は、分離/多重化部12で送信フレーム単位
に多重化され、回線インタフェース部13を経て通信回
線14へ送信される。
The input image from the camera input unit 1 is input to the video encoding unit 5a via the video input interface unit 3. The input voice from the handset 6 or the microphone / speaker 7 is input to the voice encoding unit 9a via the voice input / output interface unit 8. Then, the input image encoded by the video encoding unit 5a and the audio encoding unit 9
The input voice coded in a and the control signal from the system control unit 11 are multiplexed in transmission frame units by the demultiplexing / multiplexing unit 12 and transmitted to the communication line 14 via the line interface unit 13.

【0029】次に、この通信回線14からの受信フレー
ムは、回線インタフェース部13を経て分離/多重化部
12で画像信号と音声信号と制御信号とにそれぞれ分離
され、各々ビデオ復号化部5b、音声復号化部9b及び
システム制御部11へそれぞれ入る。ビデオ復号化部5
bで復号化された受信画像は、高速ビデオスイッチ15
及びビデオ出力インタフェース部4を経て表示部2に表
示される。また、音声復号化部9bで復号化された受信
音声は、音声入出力インタフェース部4を経てハンドセ
ット6或はマイク/スピーカ7から出力される。また、
高速ビデオスイッチ15により送信画像データも取り込
めるため、受信画像データと同様に送信画像データも表
示部2に表示することができる。
Next, the received frame from the communication line 14 is separated into an image signal, an audio signal and a control signal by a demultiplexing / multiplexing unit 12 via a line interface unit 13, and a video decoding unit 5b, respectively. It enters the voice decoding unit 9b and the system control unit 11, respectively. Video decoding unit 5
The received image decoded in b is the high-speed video switch 15
And is displayed on the display unit 2 via the video output interface unit 4. Further, the received voice decoded by the voice decoding unit 9b is output from the handset 6 or the microphone / speaker 7 via the voice input / output interface unit 4. Also,
Since the transmission image data can be fetched by the high-speed video switch 15, the transmission image data can be displayed on the display unit 2 as well as the reception image data.

【0030】多地点データ識別部12aでは、受信した
フレームの中を検索し、同一フレームの中に複数地点の
データが嵌め込まれていても、どのデータがどの地点の
データであるのかを識別する。フレーム構造の一例を図
2に示す。図2(a)は、ITU−Tの勧告H.221
単一64kbpsチャネル(Bチャネル)のフレーム構
造である。図2(b)は、同一フレームの中に4地点の
データを嵌め込み且つ時間方向の総てのフレーム構造が
同じである独自のフレーム構造を示す。図2(c)は、
同一フレームの中に1地点のデータを嵌め込み且つ時間
方向のフレームによって4地点のデータが受信される場
合の独自のフレーム構造を示す。図2(d)は、同一フ
レームの中に2地点のデータを嵌め込み且つ時間方向の
フレームによって4地点のデータが受信される場合の独
自のフレーム構造を示す。
The multi-point data identification unit 12a searches the received frame and identifies which data is the data of which point even if the data of a plurality of points is embedded in the same frame. An example of the frame structure is shown in FIG. FIG. 2A shows ITU-T Recommendation H.264. 221
It is a frame structure of a single 64 kbps channel (B channel). FIG. 2B shows a unique frame structure in which data at four points are embedded in the same frame and all the frame structures in the time direction are the same. Figure 2 (c) shows
The unique frame structure in the case where the data of one point is embedded in the same frame and the data of four points is received by the frame in the time direction is shown. FIG. 2D shows a unique frame structure in which data at two points is embedded in the same frame and data at four points is received by a frame in the time direction.

【0031】基本的には、サブチャネル領域を各地点の
データ領域として割り付け、その割り付け情報をあるサ
ブチャネルに入れておくというものである。多地点デー
タ識別部12aは、この割り付け情報を識別する。該多
地点データ識別部12aにより識別された識別情報であ
る地点情報及び通信地点数等は、総てシステム制御部1
1に伝えられる。このシステム制御部11は、多地点デ
ータ識別部12aにより識別された識別情報を、その内
部のRAMに格納すると共に、この識別情報を受けて、
通信地点数による画像メモリ部4bの格納領域の割り付
けや、地点情報による受信画像データの書き込み領域の
指示等を画像メモリ制御部4cに伝える。この結果、同
一フレームの中に複数地点のデータが嵌め込まれていて
も、或は異なる地点のデータを複数のフレームに分かれ
て受信しても、その地点の画像データの表示部2への表
示が可能となる。
Basically, the sub-channel area is allocated as a data area at each point, and the allocation information is put in a certain sub-channel. The multipoint data identification unit 12a identifies this allocation information. The location information, the number of communication locations, etc., which are the identification information identified by the multipoint data identification unit 12a, are all included in the system control unit 1.
It is transmitted to 1. The system control unit 11 stores the identification information identified by the multipoint data identification unit 12a in the internal RAM and receives the identification information.
Allocation of a storage area of the image memory unit 4b according to the number of communication points, instruction of a writing area of received image data according to point information, and the like are transmitted to the image memory control unit 4c. As a result, even if the data of a plurality of points is embedded in the same frame or the data of different points is received by being divided into a plurality of frames, the display of the image data of that point on the display unit 2 is possible. It will be possible.

【0032】キャラクタコード生成部11aでは、入力
部10から入力された制御情報に従い、キャラクタ生成
すべきキャラクタのコードを生成して、キャラクタ生成
部4gへ出力する。このキャラクタ生成部4gは、キャ
ラクタコード生成部11aからのコードに対応したキャ
ラクタを生成し、スーパーインポーズ部4fへ出力す
る。このスーパーインポーズ部4fは、TV信号エンコ
ード部4dから出力されるTV信号に、キャラクタ生成
部4gからのキャラクタ情報を合成して表示部2へ表示
する。画像サイズ変換部4eは、画像メモリ部4bに格
納されている複数地点の画像データの中から、例えば1
地点のみを取り出して表示部2に表示する時、画像メモ
リ部4bに格納されている画像データの画像サイズより
も大きい領域で表示部2に表示できるため、その表示サ
イズの指示に応じて表示する画像データの画像サイズを
変換する。前記表示サイズの指示は、入力部10から入
力される制御情報によりシステム制御部11を経由して
行われる。
The character code generation unit 11a generates a code of a character to be generated according to the control information input from the input unit 10 and outputs the code to the character generation unit 4g. The character generation unit 4g generates a character corresponding to the code from the character code generation unit 11a and outputs it to the superimposing unit 4f. The superimposing unit 4f synthesizes the TV signal output from the TV signal encoding unit 4d with the character information from the character generating unit 4g and displays it on the display unit 2. The image size conversion unit 4e selects, for example, 1 from the image data of a plurality of points stored in the image memory unit 4b.
When only the points are taken out and displayed on the display unit 2, the display unit 2 can display the region in an area larger than the image size of the image data stored in the image memory unit 4b. Therefore, the display is performed according to the instruction of the display size. Converts the image size of image data. The display size is instructed via the system control unit 11 according to the control information input from the input unit 10.

【0033】これらの一連の動作の具体例を図3に示
す。図3(a)は、画像メモリ部4bータの画像サイズ
を変換する。前記表示サイズの指示は、入力部10から
入力される制御情報によりシステム制御部11を経由し
て行われる。
A concrete example of the series of operations is shown in FIG. In FIG. 3A, the image size of the image memory unit 4b is converted. The display size is instructed via the system control unit 11 according to the control information input from the input unit 10.

【0034】これらの一連の動作の具体例を図3に示
す。図3(a)は、画像メモリ部4bに格納されている
4地点分の画像データをそのまま総て表示部2に表示し
ている状態を示す。ここで、入力部10から入力される
制御情報により表示モードを変更する場合について説明
する。図3(g)は、入力部2からの入力キーの一例で
ある。まず、入力部10の入力キーの1つである”EN
TER”キーにより表示設定モードに入る(図3
(b))。この時、表示部2の画面中央部に表示モード
設定ウインドがスーパーインポーズによりポップアップ
する。これは、キャラクタコード生成部11a、キャラ
クタ生成部4g及びスーパーインポーズ部4fの機能に
よるものである。
A concrete example of the series of operations is shown in FIG. FIG. 3A shows a state in which all the image data for four points stored in the image memory unit 4b are displayed on the display unit 2 as they are. Here, a case where the display mode is changed by the control information input from the input unit 10 will be described. FIG. 3G is an example of an input key from the input unit 2. First, "EN" which is one of the input keys of the input unit 10
Enter the display setting mode by pressing the "TER" key (Fig. 3
(B)). At this time, the display mode setting window pops up in the center of the screen of the display unit 2 by superimposing. This is due to the functions of the character code generation unit 11a, the character generation unit 4g, and the superimposing unit 4f.

【0035】このような表示画面の中を、入力部10の
入力キーの1つである”矢印”キーを使って変更したい
場所へカーソルを移動する。図3(c)では、表示地点
Cの項を入力部10の入力キーの1つである”SPAC
E”キーを使って反転させている。これによってC地点
表示の非選択状態となる。この設定が終了すれば、前
記”ENTER”キーにより表示モードを確定する。そ
の結果、図3(d)に示す様にA,B,D点のみの表示
モードとなる。図3(e)は、図3(b)において、
A,B,Cの3つの地点表示を非選択状態とする場合で
ある。この場合は、表示されるのがDの1地点のみであ
るため、画像サイズ変換部4eにより縦横のサイズが2
倍に拡大されて表示部2に表示される。この状態を図3
(f)に示す。
In such a display screen, the cursor is moved to the place to be changed by using the "arrow" key which is one of the input keys of the input section 10. In FIG. 3C, the item of the display point C is one of the input keys of the input unit 10 "SPAC".
The "E" key is used for reversing. This makes the display of the point C unselected. When this setting is completed, the display mode is confirmed by the "ENTER" key. As a result, FIG. The display mode is only for the points A, B, and D as shown in Fig. 3. Fig. 3 (e) is the same as Fig. 3 (b).
This is a case where the three point displays of A, B, and C are in the non-selected state. In this case, since only one point of D is displayed, the vertical and horizontal sizes are set to 2 by the image size conversion unit 4e.
It is magnified twice and displayed on the display unit 2. This state is shown in Figure 3.
It shows in (f).

【0036】[0036]

【発明の効果】以上詳述したように本発明の多地点テレ
ビ会議端末によれば、受信した多地点画像データの中か
ら任意の地点の画像データを、入力手段から入力される
情報に従って表示手段に表示できると共に、複数のフレ
ームによって多地点分の画像データを受信する多地点通
信方式においては、入力手段から入力される情報に従っ
て、任意の地点を抜き出して表示手段に表示できること
は勿論、多地点画像データを一括して同時に表示手段に
表示できる。また、送信画像も選択して表示できる。
As described above in detail, according to the multipoint video conference terminal of the present invention, the image data of an arbitrary point among the received multipoint image data is displayed by the display means according to the information input from the input means. In the multipoint communication system that can display the image data for multiple points by a plurality of frames, it is possible to extract any point according to the information input from the input means and display it on the display means. The image data can be displayed collectively on the display means at the same time. Also, the transmission image can be selected and displayed.

【0037】従って、ユーザは、多地点テレビ会議にお
いて、見たい地点の画像データのみを抜き出して表示手
段に拡大して表示したり、或は総ての地点の画像データ
を一括して同時に表示手段に表示する等、その表示モー
ドを表示手段の表示画面を見ながら自由に選択して実行
することができ、この結果、通信におけるユーザ・イン
タフェースを向上させることができるという効果を奏す
る。
Therefore, in the multipoint video conference, the user extracts only the image data of the desired point and enlarges and displays it on the display means, or displays the image data of all the points collectively at the same time. The display mode can be freely selected and executed while looking at the display screen of the display means, and as a result, the user interface in communication can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係わる多地点テレビ会議端
末の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a multipoint video conference terminal according to an embodiment of the present invention.

【図2】同多地点テレビ会議端末における通信フレーム
の構造の一例を示す図である。
FIG. 2 is a diagram showing an example of a structure of a communication frame in the multipoint video conference terminal.

【図3】同多地点テレビ会議端末における表示モード設
定の操作の一例を示す図である。
FIG. 3 is a diagram showing an example of a display mode setting operation in the multipoint video conference terminal.

【図4】従来の多地点テレビ会議端末の構成を示すブロ
ック図である。
FIG. 4 is a block diagram showing a configuration of a conventional multipoint video conference terminal.

【図5】従来の多地点テレビ会議端末におけるビデオ出
力インタフェース部の動作を示す図である。
FIG. 5 is a diagram showing an operation of a video output interface unit in a conventional multipoint video conference terminal.

【図6】従来の多地点テレビ会議端末における画像表示
の一例を示す図である。
FIG. 6 is a diagram showing an example of image display in a conventional multipoint video conference terminal.

【図7】従来の多地点テレビ会議端末における画像表示
の一例を示す図である。
FIG. 7 is a diagram showing an example of image display in a conventional multipoint video conference terminal.

【図8】従来の多地点テレビ会議端末における画像表示
の一例を示す図である。
FIG. 8 is a diagram showing an example of image display in a conventional multipoint video conference terminal.

【符号の説明】[Explanation of symbols]

2 表示部(表示手段) 4b 画像メモリ部(画像データ格納手段) 4c 画像メモリ制御部(書込み/読み出し制御手
段) 4d TV信号エンコード部(エンコード手段) 4e 画像サイズ変換部(画像データサイズ変換手
段) 4f スーパーインポーズ部(キャラクタ合成手段) 4g キャラクタ生成部(キャラクタ生成手段) 10 入力部(入力手段) 11a キャラクタコード生成部(キャラクタコード生
成手段) 12a 多地点データ識別部(画像データ識別手段) 15 高速ビデオスイッチ(画像データ取り込み手
段)
2 display unit (display unit) 4b image memory unit (image data storage unit) 4c image memory control unit (writing / reading control unit) 4d TV signal encoding unit (encoding unit) 4e image size conversion unit (image data size conversion unit) 4f Superimpose section (character synthesizing means) 4g Character generating section (character generating means) 10 Input section (input means) 11a Character code generating section (character code generating means) 12a Multipoint data identifying section (image data identifying means) 15 High-speed video switch (image data acquisition means)

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 多地点の画像データを表示手段に表示し
ながら多地点間で会議を行うための多地点テレビ会議端
末において、前記多地点の画像データの中から任意の地
点の画像データを指定する情報を入力する入力手段と、
該入力手段により入力された情報に対応する地点の画像
データを前記表示手段に表示するように制御する制御手
段とを具備したことを特徴とする多地点テレビ会議端
末。
1. In a multipoint video conference terminal for holding a conference between multiple points while displaying image data of the multiple points on a display unit, image data of an arbitrary point is designated from among the image data of the multiple points. Input means for inputting information to
A multipoint video conference terminal, comprising: control means for controlling image data of a spot corresponding to the information input by the input means to be displayed on the display means.
【請求項2】 前記入力手段はキーボードであることを
特徴とする請求項1記載の多地点テレビ会議端末。
2. The multipoint video conference terminal according to claim 1, wherein the input means is a keyboard.
【請求項3】 前記入力手段はタッチパネルであること
を特徴とする請求項1記載の多地点テレビ会議端末。
3. The multipoint video conference terminal according to claim 1, wherein the input means is a touch panel.
【請求項4】 前記入力手段はマウスであることを特徴
とする請求項1記載の多地点テレビ会議端末。
4. The multipoint video conference terminal according to claim 1, wherein the input means is a mouse.
【請求項5】 前記表示手段はCRT(陰極線管)であ
ることを特徴とする請求項1記載の多地点テレビ会議端
末。
5. The multipoint video conference terminal according to claim 1, wherein the display means is a CRT (cathode ray tube).
【請求項6】 前記表示手段はLCD(液晶表示器)で
あることを特徴とする請求項1記載の多地点テレビ会議
端末。
6. The multipoint video conference terminal according to claim 1, wherein the display means is an LCD (liquid crystal display).
【請求項7】 受信した多地点の画像データを格納する
画像データ格納手段と、該画像データ格納手段に対する
画像データの書き込み制御及び読み出し制御を行う書き
込み/読み出し制御手段と、該書き込み/読み出し制御
手段の制御により前記画像データ格納手段から読み出さ
れた画像データをテレビ信号にエンコードするエンコー
ド手段と、該エンコード手段から出力されたテレビ信号
を表示する表示手段と、制御情報を入力する入力手段と
を有する多地点テレビ会議端末において、前記受信した
多地点の画像データから各地点の画像データを識別する
画像データ識別手段と、前記画像データ格納手段から読
み出された画像データのサイズを変換する画像データサ
イズ変換手段と、前記入力手段から入力された制御情報
に基づいて生成すべきキャラクタのコードを生成するキ
ャラクタコード生成手段と、該キャラクタコード生成手
段から出力されるキャラクタコードに対応したキャラク
タを生成するキャラクタ生成手段と、前記エンコード手
段から出力されるテレビ信号に前記キャラクタ生成手段
により生成されたキャラクタを合成するキャラクタ合成
手段とを具備したことを特徴とする多地点テレビ会議端
末。
7. An image data storage means for storing received multi-point image data, a write / read control means for controlling writing and reading of image data to / from the image data storage means, and the write / read control means. The encoding means for encoding the image data read out from the image data storage means into a television signal under the control of the above, the display means for displaying the television signal output from the encoding means, and the input means for inputting the control information. In a multipoint video conference terminal having, image data identifying means for identifying image data of each location from the received image data of multiple locations, and image data for converting the size of the image data read from the image data storage means. It should be generated based on the size conversion means and the control information input from the input means. Character code generating means for generating a character code, character generating means for generating a character corresponding to the character code output from the character code generating means, and the character generating means for the television signal output from the encoding means. A multipoint video conference terminal, comprising: a character synthesizing means for synthesizing a character generated by the above.
【請求項8】 前記画像データ格納手段へ送信画像デー
タを取り込む画像データ取り込み手段を備えたことを特
徴とする請求項7記載の多地点テレビ会議端末。
8. The multipoint video conference terminal according to claim 7, further comprising image data fetching means for fetching transmission image data to said image data storing means.
【請求項9】 前記画像データ取り込み手段はスイッチ
であることを特徴とする請求項8記載の多地点テレビ会
議端末。
9. The multipoint video conference terminal according to claim 8, wherein the image data capturing means is a switch.
【請求項10】 前記入力手段はキーボードであること
を特徴とする請求項7記載の多地点テレビ会議端末。
10. The multipoint video conference terminal according to claim 7, wherein the input means is a keyboard.
【請求項11】 前記入力手段はタッチパネルであるこ
とを特徴とする請求項7記載の多地点テレビ会議端末。
11. The multipoint video conference terminal according to claim 7, wherein the input unit is a touch panel.
【請求項12】 前記入力手段はマウスであることを特
徴とする請求項7記載の多地点テレビ会議端末。
12. The multipoint video conference terminal according to claim 7, wherein the input means is a mouse.
【請求項13】 前記表示手段はCRT(陰極線管)で
あることを特徴とする請求項7記載の多地点テレビ会議
端末。
13. The multipoint video conference terminal according to claim 7, wherein the display means is a CRT (cathode ray tube).
【請求項14】 前記表示手段はLCD(液晶表示器)
であることを特徴とする請求項7記載の多地点テレビ会
議端末。
14. The display means is an LCD (liquid crystal display).
The multipoint video conference terminal according to claim 7, wherein
JP6068005A 1994-03-11 1994-03-11 Multi-point video conference terminal equipment Pending JPH07250313A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP6068005A JPH07250313A (en) 1994-03-11 1994-03-11 Multi-point video conference terminal equipment
US08/402,023 US6549178B2 (en) 1994-03-11 1995-03-10 Communication terminal apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6068005A JPH07250313A (en) 1994-03-11 1994-03-11 Multi-point video conference terminal equipment

Publications (1)

Publication Number Publication Date
JPH07250313A true JPH07250313A (en) 1995-09-26

Family

ID=13361325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6068005A Pending JPH07250313A (en) 1994-03-11 1994-03-11 Multi-point video conference terminal equipment

Country Status (1)

Country Link
JP (1) JPH07250313A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102215375A (en) * 2011-06-24 2011-10-12 中兴通讯股份有限公司 Selection method and device for video source of sub-picture of multi-picture in multimedia conference
JP2019501584A (en) * 2015-12-04 2019-01-17 スリング メディア,インク. Remotely controlled media studio

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102215375A (en) * 2011-06-24 2011-10-12 中兴通讯股份有限公司 Selection method and device for video source of sub-picture of multi-picture in multimedia conference
JP2019501584A (en) * 2015-12-04 2019-01-17 スリング メディア,インク. Remotely controlled media studio
US10715838B2 (en) 2015-12-04 2020-07-14 Sling Media L.L.C. Remote-controlled media studio
US11153613B2 (en) 2015-12-04 2021-10-19 Sling Media L.L.C. Remote-controlled media studio

Similar Documents

Publication Publication Date Title
US5673079A (en) Image communication apparatus with interactive operator display
US6549178B2 (en) Communication terminal apparatus
JP4559976B2 (en) Video composition apparatus, video composition method, and video composition program
JPH07203407A (en) Communication terminal equipment and multi-point communication system
JPH0670040A (en) Display form changing system for multi-position video conference system
JPH07250313A (en) Multi-point video conference terminal equipment
JP3672561B2 (en) Moving picture synthesizing apparatus, moving picture synthesizing method, and information terminal apparatus with moving picture synthesizing function
JPH08321884A (en) Multi-spot video conference system
JPS62200883A (en) Graphic display device for electronic conference system
JPH05227320A (en) Multi-medium communication equipment
KR100380823B1 (en) Method for converting to CIF Image to NTSC Image
JP3039498B2 (en) Videophone equipment
KR100587164B1 (en) Method and apparatus for coverting equal interval vertical image as CIF image convert into NTSC image
JPH0715708A (en) Image transmission system
JP2515174B2 (en) Multi-source video conference system
JPH05328337A (en) Image communication terminal equipment
JPH08130720A (en) Video telephone system
JP3514785B2 (en) Image communication terminal
JPH08274961A (en) Method and device for image transmission and resolution controller
JPH06250639A (en) Image communication terminal equipment
WO1997018663A1 (en) Video conference system
JPH09270954A (en) Screen compositing circuit
JPH07322231A (en) Video conference system, terminal equipment and common use screen display controller
JP3031309B2 (en) Video conferencing equipment
JPH10200652A (en) Electronic conference device