JPH07184182A - Video conference equipment - Google Patents

Video conference equipment

Info

Publication number
JPH07184182A
JPH07184182A JP32812193A JP32812193A JPH07184182A JP H07184182 A JPH07184182 A JP H07184182A JP 32812193 A JP32812193 A JP 32812193A JP 32812193 A JP32812193 A JP 32812193A JP H07184182 A JPH07184182 A JP H07184182A
Authority
JP
Japan
Prior art keywords
delay
video signal
unit
signal
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP32812193A
Other languages
Japanese (ja)
Inventor
Hirobumi Fuchigami
寛文 渕上
Yasuyuki Ito
康行 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP32812193A priority Critical patent/JPH07184182A/en
Publication of JPH07184182A publication Critical patent/JPH07184182A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To always make timing of video and audio signals to match each other with respect to a change in picture quality and the picture by varying a delay quantity of the audio signal matching a delay quantity of the video signal. CONSTITUTION:A de-frame arithmetic section 18 calculates a de-frame multi- value processing based on a TR obtained from a variable length decoding section 4, a mean value arithmetic section 19 calculates a mean value of de-frame quantity for n-frames, a delay arithmetic section 20 calculates a delay based on the mean value of the de-frame quantity and sets the delay to a counter section 12. Thus, a delay time of an audio signal by an audio signal delay section 11 is changed by a delay set to the counter section 12 to increase a delay time of the audio signal when the de-frame quantity is much, that is, the delay in the received video signal is large and to decrease a delay time of the audio signal when the de-frame quantity is less, that is, the delay in the received video signal is small conversely, then the delay time of the received audio signal is changed matching the delay in the received video signal and the output timing of the video signal is always matched with the output timing of the audio signal.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はテレビ会議の映像/音声
信号を送受信するテレビ会議装置において映像信号に音
声信号の出力タイミングを合わせるための音声信号の遅
延方法並びに、同テレビ会議装置における画像処理に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audio signal delay method for adjusting the output timing of an audio signal to a video signal in a video conference apparatus for transmitting and receiving video / audio signals of a video conference, and image processing in the video conference apparatus. Regarding

【0002】[0002]

【従来の技術】従来この種のテレビ会議映像音声受信装
置は映像信号と音声信号を受信した段階で、送信の際の
符号化及び伝送に時間がかかる映像信号に音声信号の出
力タイミングを合わせるために音声信号を遅延すること
が行われている。
2. Description of the Related Art Conventionally, a video conference video / audio receiving apparatus of this type adjusts the output timing of the audio signal to the video signal which takes a long time for the encoding and the transmission at the time of the transmission when receiving the video signal and the audio signal. It has been done to delay audio signals.

【0003】図8は従来のテレビ会議装置の一例を示し
たブロック図である。データ分離部1は伝送路上から多
重化されて送られてきた映像信号と音声信号を入力し
て、これら両信号を分離し、映像信号を誤り補正部に、
音声信号を音声遅延部11に出力する。誤り補正部2は
入力された映像信号の誤りを補正した後、入力バッファ
部3に送ってここでパラレル信号化し、このパラレル信
号化された映像信号を可変長復号化部で復号化した後、
逆量子化部5に送る。逆量子化部5は入力される映像信
号の量子化状態の粗密を均一な量子化状態に直して、こ
れを逆DCT部に出力する。逆DCT部6は入力される
映像信号を時間領域に変換した後、加算器22に出力す
る。フレームメモリ部7は前フレームの映像信号を記憶
しており、これをループフィルタ(LPF)部8、スイ
ッチ23を介して加算器22に出力する。加算器22は
逆DCT部6からの差分映像信号をフレームメモリ部7
から読み出した前フレームの映像信号に加算して、一画
面を構成する完全な映像信号とした後、これを逆フォー
マット変換部9に出力する。逆フォーマット変換部9は
入力された映像信号をNTSC方式に変換して、これを
D/A変換部10に出力する。D/A変換部10は入力
されたデジタル映像信号をアナログ信号に変換し、これ
を図示されないモニタ等に出力する。ここで、スイッチ
23は可変長復号化部4から受信した映像信号が差分を
取ったものであるかどうかの情報を得て、映像信号が差
分を取ったものである場合はオンになり、差分を取って
いない場合はオフになる。又、可変長復号化部4はルー
プフィルタ部8の特性を受信信号に含まれている制御信
号によって変化させることにより、受信映像信号のエッ
ヂ部の強弱の調整を行っている。
FIG. 8 is a block diagram showing an example of a conventional video conference apparatus. The data separation unit 1 inputs the video signal and the audio signal multiplexed and sent from the transmission line, separates these two signals, and the video signal to the error correction unit,
The audio signal is output to the audio delay unit 11. The error correction unit 2 corrects the error of the input video signal, sends it to the input buffer unit 3, converts it into a parallel signal, and decodes this parallel signalized video signal in the variable length decoding unit.
It is sent to the inverse quantizer 5. The inverse quantization unit 5 restores the density of the quantization state of the input video signal to a uniform quantization state and outputs this to the inverse DCT unit. The inverse DCT unit 6 converts the input video signal into the time domain and then outputs it to the adder 22. The frame memory unit 7 stores the video signal of the previous frame, and outputs this to the adder 22 via the loop filter (LPF) unit 8 and the switch 23. The adder 22 receives the difference video signal from the inverse DCT unit 6 from the frame memory unit 7
It is added to the video signal of the previous frame read from to obtain a complete video signal that constitutes one screen, and this is output to the inverse format conversion unit 9. The inverse format converter 9 converts the input video signal into the NTSC system and outputs it to the D / A converter 10. The D / A converter 10 converts the input digital video signal into an analog signal and outputs it to a monitor or the like (not shown). Here, the switch 23 obtains information as to whether or not the video signal received from the variable length decoding unit 4 is a difference, and is turned on when the video signal is a difference, If you have not taken it, it will be turned off. Further, the variable length decoding unit 4 adjusts the strength of the edge portion of the received video signal by changing the characteristic of the loop filter unit 8 according to the control signal included in the received signal.

【0004】一方、音声信号は音声遅延部11に入力さ
れ、カウンタ部12によるカウント値分だけ遅延された
後、PCM用音声復号化部13と広帯域用音声復号化部
14に入力される。選択部15はPCM用音声復号化部
13又は広帯域用音声復号化部14のいずれか一方の出
力信号を選択して、これをD/A変換部15に出力して
アナログ音声信号とし、これを上記したモニタ部等に出
力する。ここでカウンタ部12はダウンカウンタであ
り、このカウンタ部12のカウント時間分だけ前記音声
信号が遅延されることになるが、このカウンタ部12の
ダウンカウント値が固定であり、音声信号の遅延量は固
定化されている。
On the other hand, the voice signal is input to the voice delay unit 11, delayed by the count value by the counter unit 12, and then input to the PCM voice decoding unit 13 and the wideband voice decoding unit 14. The selection unit 15 selects an output signal from either the PCM audio decoding unit 13 or the wideband audio decoding unit 14 and outputs it to the D / A conversion unit 15 as an analog audio signal. It is output to the above-mentioned monitor section or the like. Here, the counter unit 12 is a down counter, and the audio signal is delayed by the count time of the counter unit 12. However, the down count value of the counter unit 12 is fixed and the delay amount of the audio signal is delayed. Is fixed.

【0005】ところで、送信側から送信される映像信号
はその画質や映像の変化の多少によって処理時間が異な
り、従って、データ分離部1に入力された時点で、音声
信号に対してその時間ずれ量は固定されておらず変化す
ることがある。それにも拘らず、上記従来の装置では音
声信号の遅延量が固定化されているため、映像信号に対
して音声信号の遅延量が適切ではなくなり、映像と音声
が合わなくなってしまうという欠点があった。
By the way, the processing time of the video signal transmitted from the transmitting side differs depending on the quality of the image and the degree of change in the video. Therefore, when the video signal is input to the data separating section 1, the time shift amount thereof with respect to the audio signal is increased. Is not fixed and can change. Nevertheless, in the above-mentioned conventional apparatus, since the delay amount of the audio signal is fixed, the delay amount of the audio signal becomes inappropriate with respect to the video signal, and there is a drawback that the video and the audio do not match. It was

【0006】又、従来のテレビ会議装置では、テレビカ
メラ等から得られた画像に画像処理を施して、受信側に
伝送する場合がある。この画像処理にはスプリット機能
やピクチャ・イン・ピクチャ機能と呼ばれるものがあっ
た。
Further, in the conventional video conference apparatus, an image obtained from a television camera or the like may be subjected to image processing and transmitted to the receiving side. This image processing includes what is called a split function and a picture-in-picture function.

【0007】図9は上記したスプリット機能を送信側装
置で行なう説明図である。2台のテレビカメラ91、9
2でそれぞれ符号93、94の画像を撮ったものとす
る。画像93、94の上1/4と下1/4を切り捨てて
真中の1/2を符号95に示すように合成し、1枚の画
像にして、これを受信側に伝送すると、受信側は符号9
6のような合成画像を得ることができる。
FIG. 9 is an explanatory view for performing the above-mentioned split function in the transmitting side device. Two TV cameras 91, 9
It is assumed that images of reference numerals 93 and 94 are taken in 2. When the upper 1/4 and lower 1/4 of the images 93 and 94 are cut off and the middle 1/2 is combined as shown by reference numeral 95 to form one image, which is transmitted to the receiving side, the receiving side Code 9
A composite image like 6 can be obtained.

【0008】図10はピクチャ・イン・ピクチャ機能を
受信側装置で行なう説明図である。送信側装置から受信
した画像を親画面101として写し、その一部分の子画
面102に自局の画像を合成してモニタに表示する。
FIG. 10 is an explanatory diagram for performing the picture-in-picture function in the receiving side device. The image received from the transmitting side device is copied as a parent screen 101, and a part of the child screen 102 is combined with the image of its own station and displayed on the monitor.

【0009】上記したスピリット機能は半分ずつの画像
を上半分と下半分で合成したり、ピクチャ・イン・ピク
チャ機能は自局の画像をある決められた位置に合成する
ために、両画像処理とも画像と画像の境界は固定であ
り、画像合成の柔軟性に欠け、利用者にとって使い勝手
が悪いという欠点があった。
The above-described spirit function combines half images in the upper half and the lower half, and the picture-in-picture function combines the images of its own station at a predetermined position. The boundary between images is fixed, and there is a drawback in that the flexibility of image composition is lacking and the usability is poor for the user.

【0010】[0010]

【発明が解決しようとする課題】従来のテレビ会議装置
では、受信した音声信号の遅延量が固定化されているた
め、画質や画像の変化の多少によって時間ずれ量が変化
する映像信号に対して、前記音声信号の出力タイミング
が合わなくなってしまうという欠点があった。特に被写
体等が動いた場合には映像信号の送信側での処理に時間
がかかり、映像に対して音声の出力が先になってしま
い、視聴者に異和感を与えるという欠点があった。
In the conventional video conference apparatus, since the delay amount of the received audio signal is fixed, the video signal whose time shift amount changes depending on the image quality and the change of the image. However, there is a drawback that the output timing of the audio signal is not matched. In particular, when a subject or the like moves, it takes time to process the video signal on the transmission side, and audio is output first to the video, which gives a viewer a feeling of strangeness.

【0011】又、従来のテレビ会議装置において、例え
ば送信側で2台のカメラで撮った2つの画像を上半分と
下半分に1画面として合成して伝送したり、受信した画
像のある決められた位置に自局の画像を合成するような
ことが行われるが、このような画像処理では画像と画像
の境界が固定であり、必ずしも利用者が合成したい部分
に画像をはめ込むことができず、画像合成の柔軟性に欠
けるという欠点があった。
Further, in the conventional video conference apparatus, for example, two images taken by two cameras on the transmitting side are combined into one screen in the upper half and the lower half to be transmitted, or there is a predetermined received image. Although it is possible to combine the image of your own station at a certain position, the boundary between the image and the image is fixed in such image processing, and it is not always possible for the user to fit the image in the part that he wants to combine. There is a drawback that the image composition lacks flexibility.

【0012】そこで本発明は上記の欠点を除去し、映像
信号の遅延量に合わせて音声信号の遅延量を変化させる
ことにより、画質や画像の変化に対して常に映像と音声
の出力タイミングを合わせることができ、又、画像と画
像の境界を自由に変えて画像合成を行なうことができる
テレビ会議装置を提供することを目的としている。
Therefore, the present invention eliminates the above-mentioned drawbacks and changes the delay amount of the audio signal in accordance with the delay amount of the video signal so that the output timings of the video and audio are always matched to the image quality and the change of the image. It is an object of the present invention to provide a video conference apparatus capable of performing image composition by freely changing the boundary between images.

【0013】[0013]

【課題を解決するための手段】請求項1の発明は、伝送
線路上の多重化された映像信号と音声信号を受信して両
信号を分離した後、分離した各信号に受信処理を行うテ
レビ会議装置において、受信した映像信号の遅延量を検
出する検出手段と、この検出手段によって検出された遅
延量に対応して前記音声信号の遅延時間を変化させる遅
延手段とを具備した構成を有する。
According to a first aspect of the present invention, a television which receives a multiplexed video signal and audio signal on a transmission line, separates both signals, and performs a reception process on each separated signal. The conference apparatus has a configuration including a detection unit that detects the delay amount of the received video signal, and a delay unit that changes the delay time of the audio signal in accordance with the delay amount detected by the detection unit.

【0014】請求項4の発明は、映像信号に画像合成を
行って送信する機能を有するテレビ会議装置において、
1画面分の映像信号の任意の部分を指定する第1の指定
手段と、この第1の指定手段によって指定された映像信
号部分を切り出す切出手段と、1画面分の非合成映像信
号の中の任意の部分を指定する第2の指定手段と、前記
切出手段によって切り出された映像信号を第2の指定手
段によって指定された部分に合成する合成手段とを具備
した構成を有する。
According to a fourth aspect of the present invention, there is provided a video conference apparatus having a function of performing image synthesis on a video signal and transmitting the image signal.
First specifying means for specifying an arbitrary part of the video signal for one screen, cutting means for cutting out the video signal part specified by the first specifying means, and among the non-composite video signals for one screen A second specifying means for specifying an arbitrary part of the above, and a combining means for combining the video signal cut out by the cutting means with the part specified by the second specifying means.

【0015】[0015]

【作用】請求項1の発明のテレビ会議装置において、検
出手段は受信した映像信号の遅延量を検出する。遅延手
段は前記検出手段によって検出された遅延量に対応して
前記音声信号の遅延時間を変化させる。これにより、画
質や画像の変化によって送信されてくる映像信号が遅延
しても、これに合わせて受信した音声信号の遅延時間を
変化させることができるため、映像と音声の出力タイミ
ングを常に合わせることができる。
According to the first aspect of the invention, the detecting means detects the delay amount of the received video signal. The delay means changes the delay time of the audio signal in accordance with the delay amount detected by the detection means. As a result, even if the video signal that is transmitted is delayed due to changes in image quality or image, the delay time of the received audio signal can be changed accordingly, so the output timing of the video and audio must always be matched. You can

【0016】請求項4の発明のテレビ会議装置おいて、
第1の指定手段は1画面分の映像信号の任意の部分を指
定する。切出手段は前記第1の指定手段によって指定さ
れた映像信号部分を切り出す。第2の指定手段は1画面
分の非合成映像信号の中の任意の部分を指定する。合成
手段は前記切出手段によって切り出された映像信号を第
2の指定手段によって指定された部分に合成する。これ
により、任意の画像を切り取って任意の部分に合成する
ことができるようになり、画像合成の自由度が向上し
て、使い勝手が著しく向上する。
In the video conference apparatus of the invention of claim 4,
The first designating means designates an arbitrary portion of the video signal for one screen. The cutout unit cuts out the video signal portion designated by the first designation unit. The second designating means designates an arbitrary part in the non-composite video signal for one screen. The synthesizing means synthesizes the video signal cut out by the cutting means with the portion designated by the second designating means. As a result, an arbitrary image can be cut and combined into an arbitrary portion, the degree of freedom in image combination is improved, and usability is significantly improved.

【0017】[0017]

【実施例】以下、本発明の一実施例を図面を参照して説
明する。図1は請求項1の発明のテレビ会議装置の一実
施例を示したブロック図である。1はデータ分離部、2
は誤り補正部、3は入力バッファ部、4は可変長復号化
部、5は逆量子化部、6は逆DCT部、7はフレームメ
モリ部、8はループフィルタ部、9は逆フォーマット変
換部、10はD/A変換部、11は音声遅延部、12は
カウンタ部、13はPCM用音声復号化部、14は広帯
域用音声復号化部、15は切換部、16はD/A変換
部、17は同期信号発生部、18はこま落し演算部、1
9は平均値演算部、20は遅延量演算部、21は比較部
である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of the video conference apparatus of the first aspect of the invention. 1 is a data separation unit, 2
Is an error correction unit, 3 is an input buffer unit, 4 is a variable length decoding unit, 5 is an inverse quantization unit, 6 is an inverse DCT unit, 7 is a frame memory unit, 8 is a loop filter unit, and 9 is an inverse format conversion unit. Reference numeral 10 is a D / A conversion unit, 11 is a voice delay unit, 12 is a counter unit, 13 is a PCM voice decoding unit, 14 is a wideband voice decoding unit, 15 is a switching unit, and 16 is a D / A conversion unit. , 17 is a synchronizing signal generator, 18 is a chopping-off calculator, 1
Reference numeral 9 is an average value calculation unit, 20 is a delay amount calculation unit, and 21 is a comparison unit.

【0018】次に本実施例の動作について説明する。デ
ータ分離部1は伝送路上から多重化されて送られてきた
映像信号と音声信号を入力して、これら両信号を分離
し、映像信号を誤り補正部2に、音声信号を音声遅延部
11に出力する。誤り補正部2は入力された映像信号の
誤りを補正した後、入力バッファ部3に送り可変長復号
化部で復号化した後、逆量子化部5に送る。逆量子化部
5は入力される映像信号の量子化状態の粗密を均一な量
子化状態に直して、これを逆DCT部に出力する。逆D
CT部6は入力される映像信号を時間領域に変換した
後、加算器22に出力する。フレームメモリ部7は前フ
レームの映像信号を記憶しており、これをループフィル
タ(LPF)8、スイッチ23を介して加算器22に出
力する。加算器22は逆DCT部6からの差分映像信号
をフレームメモリ部7から読み出した前フレームの映像
信号に加算して、一画面を構成する完全な映像信号とし
た後、これをフォーマット逆変換部9に出力する。フォ
ーマット逆変換部9は入力された映像信号をNTSC方
式に変換して、これをD/A変換部10に出力する。D
/A変換部10は入力されるデジタル映像信号をアナロ
グ信号に変換し、これを図示されないモニタ等に出力す
る。ここで、スイッチ23は可変長復号化部4から受信
した映像信号が差分を取ったものであるかどうかの情報
を得て、映像信号が差分を取ったものである場合はオン
になり、差分を取っいない場合はオフになる。又、可変
長復号化部4はループフィルタ部8の特性を受信信号に
含まれている制御信号によって変化させることにより、
受信映像信号のエッヂ部の強弱の調整を行っている。
Next, the operation of this embodiment will be described. The data separation unit 1 inputs the video signal and the audio signal which are multiplexed and sent from the transmission line, separates these two signals, the video signal to the error correction unit 2 and the audio signal to the audio delay unit 11. Output. The error correction unit 2 corrects the error of the input video signal, sends it to the input buffer unit 3, decodes it in the variable length decoding unit, and then sends it to the dequantization unit 5. The inverse quantization unit 5 restores the density of the quantization state of the input video signal to a uniform quantization state and outputs this to the inverse DCT unit. Reverse D
The CT unit 6 converts the input video signal into the time domain and then outputs it to the adder 22. The frame memory unit 7 stores the video signal of the previous frame, and outputs this to the adder 22 via the loop filter (LPF) 8 and the switch 23. The adder 22 adds the differential video signal from the inverse DCT unit 6 to the video signal of the previous frame read from the frame memory unit 7 to form a complete video signal forming one screen, and then adds this to the format reverse conversion unit. Output to 9. The format reverse converter 9 converts the input video signal into the NTSC system and outputs it to the D / A converter 10. D
The / A converter 10 converts the input digital video signal into an analog signal and outputs it to a monitor (not shown) or the like. Here, the switch 23 obtains information as to whether or not the video signal received from the variable length decoding unit 4 is a difference, and is turned on when the video signal is a difference, If not taken off. Further, the variable length decoding unit 4 changes the characteristics of the loop filter unit 8 according to the control signal included in the received signal,
The strength of the edge of the received video signal is adjusted.

【0019】同期信号発生部17は可変長復号化部4に
より分離されたピクチャーヘッダ部からTRをとる同期
信号50と演算用同期信号60を発生して、これら同期
信号をこま落とし演算部18、平均値演算部19に出力
する。こま落とし演算部18は同期信号50によって可
変長復号化部4からTR信号を入力し、前フレームとフ
レームとの差分をフレーム毎に取って、受信された映像
信号のこま落し数を演算し、得られたこま落し数を平均
値演算部19に出力する。平均値演算部19は同期信号
60によって入力されるこま落し数をn回加算し、加算
結果をnで割ることにより、こま落し数の平均値を求
め、これを遅延量演算部20に出力する。遅延量演算部
20は入力されるこま落し数の平均値から音声信号の遅
延量を求め、これをカウンタ部12にセットする。
The sync signal generator 17 generates a TR sync signal 50 and an arithmetic sync signal 60 from the picture header section separated by the variable length decoder 4, and drops the sync signals into a chopping operation section 18, It is output to the average value calculator 19. The drop-off calculator 18 receives the TR signal from the variable-length decoder 4 according to the synchronization signal 50, calculates the difference between the previous frame and the frame for each frame, and calculates the number of drops of the received video signal. The obtained number of dropped frames is output to the average value calculation unit 19. The average value calculation unit 19 adds the number of dropouts input by the synchronization signal 60 n times, divides the addition result by n, obtains the average value of the number of dropouts, and outputs this to the delay amount calculation unit 20. . The delay amount calculation unit 20 obtains the delay amount of the audio signal from the average value of the input dropping numbers, and sets it in the counter unit 12.

【0020】一方、音声信号は音声遅延部11に入力さ
れ、カウンタ部12のカウント値だけ遅延された後、P
CM用音声復号化部13と広帯域用音声復号化部14に
入力される。切換部15はPCM用音声復号化部13又
は広帯域音声復号化部14のいずれか一方の出力信号を
選択して、これをD/A変換部16に出力して、ここで
アナログ音声信号として上記したモニタ部等に出力す
る。ここで,カウンタ部12は前記遅延量演算部20に
よるセット値からのダウンカウンタであり、このカウン
タ部12のカウント時間分だけ前記音声信号が遅延され
る。前記D/A変換部16から出力されるアナログ音声
信号は比較部21に入力され、そのレベルが基準値0と
比較され、一定時間以上基準値以下になると、これを遅
延量演算部20に出力して、この遅延量演算部20から
出力される遅延量を固定値Dにし、これをカウンタ部1
2にセットする。
On the other hand, the voice signal is input to the voice delay unit 11 and delayed by the count value of the counter unit 12, and then P
It is input to the CM voice decoding unit 13 and the wideband voice decoding unit 14. The switching unit 15 selects an output signal from either the PCM audio decoding unit 13 or the wideband audio decoding unit 14 and outputs it to the D / A conversion unit 16, where it is converted into an analog audio signal as described above. Output to the monitor unit etc. Here, the counter unit 12 is a down counter from the set value by the delay amount calculation unit 20, and the audio signal is delayed by the count time of the counter unit 12. The analog audio signal output from the D / A conversion unit 16 is input to the comparison unit 21, the level thereof is compared with the reference value 0, and when the level becomes equal to or less than the reference value for a certain period of time, it is output to the delay amount calculation unit 20. Then, the delay amount output from the delay amount calculation unit 20 is set to a fixed value D, and this is set to the counter unit 1
Set to 2.

【0021】図2は図1に示したこま落し演算部18、
平均値演算部19及び遅延量演算部20の詳細例を示し
た回路図である。同期信号発生部17は可変長復号化部
4から入力される図3(B)に示すようなフレームパル
スに図3(A)に示すような内部クロックを同期させ、
この内部クロックから図3(C)、(D)に示すような
同期信号50、60を作成して、これらをこま落し演算
部18のラッチ回路181に出力する。ラッチ回路18
1は同期信号50が入力されると、可変長復号化部4か
ら入力されるTRをラッチして、これを減算器182に
出力する。このため、減算器182は今回入力されるT
Rからラッチ回路181から入力された前フレームのT
Rを減算し、得られた差分を(こま落とし量に相当)平
均値演算部19の加算器191に出力する。平均値演算
部19のラッチ回路191は同期信号60が入力される
と、加算器192から出力される加算値をラッチして、
これを加算器192に出力する。
FIG. 2 is a block diagram calculator 18 shown in FIG.
3 is a circuit diagram showing a detailed example of an average value calculator 19 and a delay amount calculator 20. FIG. The synchronization signal generator 17 synchronizes the internal clock as shown in FIG. 3A with the frame pulse as shown in FIG. 3B input from the variable length decoder 4.
Synchronous signals 50 and 60 as shown in FIGS. 3C and 3D are created from this internal clock, and these are dropped and output to the latch circuit 181 of the arithmetic unit 18. Latch circuit 18
When the synchronization signal 50 is input, 1 latches the TR input from the variable length decoding unit 4 and outputs it to the subtractor 182. Therefore, the subtractor 182 receives the T that is input this time.
T of the previous frame input from the latch circuit 181 from R
R is subtracted and the obtained difference is output to the adder 191 of the average value calculation unit 19 (corresponding to the amount of frame drop). When the synchronization signal 60 is input, the latch circuit 191 of the average value calculation unit 19 latches the added value output from the adder 192,
This is output to the adder 192.

【0022】これにより、加算器192はこれをこま落
し演算部18から入力される差分を順次加算していく
が、ラッチ回路191はリセット信号70が同期信号発
生部17から入力されると、リセットされるため、加算
器192は前記ラッチ回路191がリセットされるので
間に入力される前記差分を加算する。同期信号発生部1
7は図3(E)に示すように前記フレームパルスがn回
入力される毎に、図3(F)に示すようなリセット信号
70を発生して、これをラッチ回路191に出力する。
したがって、加算器192はTRをn回加算し、このn
回の加算値が遅延量演算部20の割算器201に入力さ
れる。遅延量演算部20の除算部201はn回の加算値
をnで割って、前記差分のn回の平均値を出し、これを
掛算部202に入力して、係数Aを前記平均値に掛け算
し、これに別途入力される固定値Dに加算して図1のカ
ウンタ部12に出力する。掛算部202は比較部21か
ら音声信号レベルが一定時間以上0になったことを知ら
せる信号を受けとると、遅延量を固定値Dにして、これ
をカウンタ部12に出力する。尚、こま落とし量と送信
映像信号の情報量の多寡は対応関係があり、こま落とし
量が多いということは映像信号の情報量が多く、送信側
で送信する際の映像信号の処理時間が長くかかることに
対応し、こま落とし量が少ないということは映像信号の
情報量が少なく、送信側で送信する際の映像信号の処理
時間が短いことに対応しているため、こま落とし量が多
い場合は、それだけ映像信号が遅延しているため、音声
信号の遅延量を増大し、こま落とし量が少ない場合は、
それだけ映像信号が遅延していないため、音声信号の遅
延量を減少させれば、映像と音声のタイミングを合わせ
ることができる。
As a result, the adder 192 skips this and sequentially adds the differences input from the calculation unit 18, but the latch circuit 191 resets when the reset signal 70 is input from the synchronization signal generation unit 17. Since the latch circuit 191 is reset, the adder 192 adds the difference input between the two. Sync signal generator 1
7 generates a reset signal 70 as shown in FIG. 3 (F) every time the frame pulse is input n times as shown in FIG. 3 (E), and outputs it to the latch circuit 191.
Therefore, the adder 192 adds TR n times,
The added value of the number of times is input to the divider 201 of the delay amount calculation unit 20. The division unit 201 of the delay amount calculation unit 20 divides the added value of n times by n and outputs an average value of the difference n times, inputs this to the multiplication unit 202, and multiplies the average value by the coefficient A. Then, it is added to the fixed value D separately input to this and output to the counter unit 12 of FIG. When the multiplication unit 202 receives a signal from the comparison unit 21 indicating that the audio signal level has become 0 for a certain period of time or more, it sets the delay amount to the fixed value D and outputs it to the counter unit 12. It should be noted that there is a correspondence between the amount of drop of the top and the amount of information of the transmitted video signal. A large amount of drop of the top means that the amount of information of the video signal is large, and the processing time of the video signal when transmitting is long. Corresponding to this, a small amount of top drop corresponds to a small amount of information of the video signal and a short processing time of the video signal at the transmission side. Since the video signal is delayed by that much, if the delay amount of the audio signal is increased and the amount of top drop is small,
Since the video signal is not delayed by that much, if the delay amount of the audio signal is reduced, the timing of the video and the audio can be matched.

【0023】図4は上記した遅延量演算部20により演
算された遅延量の特性図である。横軸はコマ落しの数の
平均値で、縦軸は音声遅延量になる。、コマ落しの平均
値がh以下の場合で、遅延量演算部20はy=Ax+D
(A=33ms)に従って前記遅延量を算出し、イの特
性になる。しかし、コマ落しの平均値がh以上になる
と、遅延量演算部20はy=x+Dに従って前記遅延量
を算出し、ロの特性になる。又、比較部21にて、一定
時間以上音声信号が無いと判定されると、遅延量演算部
20は前記遅延量を固定値Dにし、ハの特性になる。
FIG. 4 is a characteristic diagram of the delay amount calculated by the delay amount calculating section 20 described above. The horizontal axis represents the average number of dropped frames, and the vertical axis represents the audio delay amount. , If the average value of dropped frames is less than or equal to h, the delay amount calculation unit 20 determines that y = Ax + D.
The delay amount is calculated according to (A = 33 ms), and the characteristic becomes a. However, when the average value of dropped frames becomes equal to or greater than h, the delay amount calculation unit 20 calculates the delay amount according to y = x + D, resulting in the characteristic of b. When the comparison unit 21 determines that there is no audio signal for a certain period of time or more, the delay amount calculation unit 20 sets the delay amount to the fixed value D, resulting in the characteristic of C.

【0024】本実施例によれば、受信した映像信号から
こま落とし量を算出し、このこま落とし量のnフレーム
間の平均値から音声信号の遅延量を演算し、この遅延量
をカウンタ部12にセットすることにより、音声遅延部
11による音声信号の遅延時間を前記こま落とし量に対
応して変化させることにより、即ち、こま落とし量が多
く映像信号が遅延している場合は音声信号の遅延時間を
長くし、逆にこま落とし量が少なく映像信号が遅延して
いない場合は音声信号の遅延時間を短くすることによ
り、画質や画像の変化が大きい場合にも、映像信号の遅
延に合わせて音声信号の遅延量も変化させることがで
き、常に映像と音声を合わせることができる。
According to this embodiment, the frame drop amount is calculated from the received video signal, the delay amount of the audio signal is calculated from the average value of the frame drop amount over n frames, and the delay amount is calculated by the counter unit 12. By changing the delay time of the audio signal by the audio delay unit 11 in accordance with the amount of frame drop, that is, when the amount of frame drop is large and the video signal is delayed, the delay of the audio signal is delayed. If the video signal is not delayed by increasing the amount of time drop and conversely, by shortening the delay time of the audio signal, even if there is a large change in image quality or image, it is possible to match the delay of the video signal. The delay amount of the audio signal can also be changed, and the video and audio can always be matched.

【0025】図5は請求項4の発明のテレビ会議装置の
他の実施例を示したブロック図である。31はテレビカ
メラ、32は入力フレームメモリ、33は画像切取制御
系を構成するアドレスカウンタ制御部、34は同制御系
を構成する切取画像位置指定部、35−1〜35−3は
画像を拡大縮小する拡大縮小部、36は画像の背景デー
タを記憶する背景メモリ、37は出力フレームメモリ、
38はアドレスカウンタ制御部、39は合成位置指定
部、40は画像圧縮伸張装置、41はモニタ、42は伝
送路である。このうち入力フレームメモリ32から出力
フレームメモリ37までの間で、画像の切り出し、切り
出した画像の拡大縮小及び画像合成が行われる。
FIG. 5 is a block diagram showing another embodiment of the video conference apparatus of the invention of claim 4. Reference numeral 31 is a television camera, 32 is an input frame memory, 33 is an address counter control section which constitutes an image cut control system, 34 is a cut image position designation section which constitutes the control system, and 35-1 to 35-3 are enlarged images. Enlargement / reduction unit for reducing, 36 is a background memory for storing image background data, 37 is an output frame memory,
38 is an address counter control unit, 39 is a composite position designation unit, 40 is an image compression / expansion device, 41 is a monitor, and 42 is a transmission path. Among these, between the input frame memory 32 and the output frame memory 37, the cutout of the image, the enlargement / reduction of the cutout image, and the image combination are performed.

【0026】次に本実施例の動作について説明する。テ
レビカメラ31で写した会議の様子を示す1フレーム分
の画像データが入力フレームメモリ32に記憶される。
この入力フレームメモリ32内の画像データは図示され
ないモニタに写し出されるため、利用者は送りたい画像
部分をキーボードやマウス等で前記モニタの画面に対し
て指定すると、この画像指定情報が切取画像位置指定部
34に入力される。切取画像位置指定部34は前記切取
指定情報によって読出アドレスを発生する水平及び垂直
カウンタのスタートのロード値を決定し、これに基づい
てアドレスカウンタ制御部33を制御して、入力フレー
ムメモリ32から前記指定された画像部分を読み出し
て、拡大縮小部35−1〜35−3に出力する。切取画
像位置指定部34は切り出す画像部分が複数ある時、前
記切出数分だけアドレスカウンタ制御部33を制御し
て、入力フレームメモリの読み出しアドレスを制御す
る。
Next, the operation of this embodiment will be described. One frame of image data showing the state of the conference captured by the television camera 31 is stored in the input frame memory 32.
Since the image data in the input frame memory 32 is displayed on a monitor (not shown), when the user designates the image portion to be sent on the screen of the monitor with a keyboard or a mouse, this image designation information designates the cut image position. It is input to the unit 34. The cut-out image position designation unit 34 determines the start load value of the horizontal and vertical counters that generate the read address according to the cut-out designation information, and controls the address counter control unit 33 based on this to determine the load value from the input frame memory 32. The designated image portion is read and output to the scaling units 35-1 to 35-3. When there are a plurality of image parts to be cut out, the cut-out image position specifying part 34 controls the address counter control part 33 by the number of cut-outs to control the read address of the input frame memory.

【0027】拡大縮小部35−1〜35−3は前記入力
フレームメモリ32から切り出された画像部分の拡大縮
小を行うが、この拡大縮小はライン変換や画素変換によ
り入力された画像の垂直方向と水平方向について行われ
る。図6は垂直方向の拡大縮小処理を行うライン数増減
ブロック図である。入力フレームメモリ32から切り出
された画像データはそのまま係数演算部63により演算
された係数を付加されて、加算器66に入力されるデー
タと、1ラインメモリ61に一旦記憶し、このメモリ6
1から1ライン後に読み出して係数演算部64により係
数が付加されて加算器66に入力されるデータと、1ラ
インメモリ61から出力された1ラインの画像データを
1ラインメモリ62に一旦記憶しておき、このメモリ6
2から1ライン後に読み出して係数演算部65により係
数が付加された後、加算器66に入力されるデータとが
ある。これにより、加算器66は遅れなしのデータ、1
ライン遅れのデータ、2ライン遅れのデータを演算する
ことによって垂直方向の画像データのライン数を増減し
て、画像の垂直方向の拡大又は縮小を行う。こうして得
られた拡大又は縮小された画像データを出力フレームメ
モリ37の指定された位置に書き込まれる。垂直方向の
拡大縮小は図6に示したような2個のラインメモリを用
いて行うが、水平方向の拡大縮小はDフリップフロップ
を2つ用いることにより、遅れなしのデータ、1画素遅
れのデータ、2画素遅れのデータを作成し、これらデー
タを演算して画素数を増減することにより行われる。
The enlarging / reducing units 35-1 to 35-3 perform enlarging / reducing of the image portion cut out from the input frame memory 32. This enlarging / reducing is performed in the vertical direction of the image input by line conversion or pixel conversion. It is performed in the horizontal direction. FIG. 6 is a block diagram of increasing / decreasing the number of lines for performing the enlargement / reduction processing in the vertical direction. The image data cut out from the input frame memory 32 is added with the coefficient calculated by the coefficient calculation unit 63 as it is, and is temporarily stored in the 1-line memory 61 together with the data input to the adder 66.
Data that is read one line after one, added with a coefficient by the coefficient calculation unit 64 and input to the adder 66, and one line of image data output from the one line memory 61 are temporarily stored in the one line memory 62. Okay, this memory 6
There is data to be input to the adder 66 after being read out after one line from 2 and added with the coefficient by the coefficient calculation unit 65. As a result, the adder 66 outputs data without delay, 1
By calculating the line delay data and the two line delay data, the number of lines of the image data in the vertical direction is increased or decreased to enlarge or reduce the image in the vertical direction. The enlarged or reduced image data thus obtained is written in a designated position in the output frame memory 37. Vertical scaling is performed by using two line memories as shown in FIG. 6, but horizontal scaling is performed by using two D flip-flops so that data without delay and data with one pixel delay are provided. This is performed by creating data with a delay of 2 pixels and calculating the data to increase or decrease the number of pixels.

【0028】ところで、上記した拡大縮小処理が終了す
るまでに、背景メモリ36に記憶されている背景画像デ
ータを予め出力フレームメモリ37に書き込んでおくと
共に、利用者は拡大縮小部35から入力される画像デー
タの嵌め込みたい位置を合成位置指定部39にマウス等
で指定しておく。この場合も図示されないモニタに出力
フレームメモリ37内の1画面分の画像が表示されてお
り、このモニタに対して前記嵌め込みたい位置の指定を
行うものとする。これにより、合成位置指定部39は書
込アドレス用の水平及び垂直カウンタのスタートロード
値を決定して、アドレスカウンタ制御部38を制御する
ことにより、利用者が指定した位置に前記画像データを
書き込むためのアドレスを出力フレームメモリ37に出
力する。これにより、拡大縮小部35から出力される画
像データが前記アドレスによって出力フレームメモリ3
7内の指定した位置に書き込まれて、画像合成が行われ
る。尚、アドレスカウンタ制御部38は合成する画像分
だけの書き込みアドレスを発生して、拡大縮小部35か
ら送られてくる該当の画像データを利用者により指定さ
れた各位置に順次書き込む。
By the way, the background image data stored in the background memory 36 is written in the output frame memory 37 in advance and the user is input from the enlargement / reduction unit 35 by the time the above-mentioned enlargement / reduction processing is completed. The position where the image data is to be fitted is designated in the composite position designation unit 39 with a mouse or the like. In this case as well, an image for one screen in the output frame memory 37 is displayed on a monitor (not shown), and the position to be fitted is specified on this monitor. As a result, the composite position designation unit 39 determines the start load values of the horizontal and vertical counters for the write address, and controls the address counter control unit 38 to write the image data at the position designated by the user. To output to the output frame memory 37. As a result, the image data output from the enlarging / reducing unit 35 is output to the output frame memory 3 by the address.
The data is written in a designated position in 7 and image synthesis is performed. The address counter control unit 38 generates write addresses for only the images to be combined, and sequentially writes the corresponding image data sent from the enlarging / reducing unit 35 to each position designated by the user.

【0029】上記のような出力フレームメモリ37に対
する画像データの書き込みが終了すると、出力フレーム
メモリ37から垂直スキャンで画像データが読み出さ
れ、読み出された画像データが画像圧縮伸張装置40に
送られる。これと同時に、背景メモリ36内の背景デー
タを出力フレームメモリ37にオーバーライトで書き込
んで、次のフレームの準備に取りかかる。
When the writing of the image data into the output frame memory 37 as described above is completed, the image data is read from the output frame memory 37 by vertical scanning, and the read image data is sent to the image compression / expansion device 40. . At the same time, the background data in the background memory 36 is overwritten in the output frame memory 37 to prepare for the next frame.

【0030】図7は上記した出力フレームメモリ37に
おける画像合成の過程を示した図であるが、出力フレー
ムメモリ37内の画像データをモニタ画面に写した場合
の画面図を用いて説明する。背景メモリ36内の画像デ
ータを出力フレームメモリ37に書き込みむと、ステッ
プ701のように画面は背景だけとなる。この背景画像
データを格納している出力フレームメモリ37に切り出
し画像1をオーバーライトすると、ステップ702のよ
うになる。更に出力フレームメモリ37に切出画像2を
オーバーライトすると、ステップ703のようになり、
更に切出画像3を同様にオーバーライトすると、ステッ
プ704のようになる。その後、出力フレームメモリ3
7から合成画像データを読み出すと、ステップ705の
ような画面データが読み出され、これが画像圧縮伸張装
置40により画像圧縮されて伝送路42上に送出され
る。出力フレームメモリ37には再び背景メモリ36か
らの背景画像データが書き込まれ、ステップ701に戻
る。
FIG. 7 is a diagram showing a process of image composition in the output frame memory 37 described above, which will be described with reference to a screen diagram when image data in the output frame memory 37 is displayed on a monitor screen. When the image data in the background memory 36 is written in the output frame memory 37, the screen is only the background as in step 701. When the cut-out image 1 is overwritten in the output frame memory 37 which stores this background image data, step 702 is performed. Further, when the cutout image 2 is overwritten on the output frame memory 37, step 703 is performed,
When the cutout image 3 is overwritten in the same manner, step 704 is performed. After that, output frame memory 3
When the composite image data is read from 7, the screen data as in step 705 is read, and the image data is compressed by the image compression / expansion device 40 and sent to the transmission path 42. The background image data from the background memory 36 is written in the output frame memory 37 again, and the process returns to step 701.

【0031】本実施例によれば、合成して送信する画像
データを任意に指定でき、且つ指定した画像データ部分
を拡大又は縮小して、これを送信画像の任意の部分に合
成して送信することができるため、被合成画像と合成画
像の境界を自由に設定することができると共に、利用者
は嵌め込みたい部分に上記した任意の画像を自在に嵌め
込むことができ、画像合成の自由度を著しく向上させる
ことができる。これにより、自局から相手局に本当に伝
送したい内容を伝える事ができる。又、伝送画像の拡大
縮小により、画像の重要性を表現することができる。
尚、カメラ入力では蛍光灯のフリッカ等で新たに情報が
発生してしまうことがあるが、本例では背景メモリ36
を使っているので、フリッカ等で新たに情報を生じさせ
ない利点があり、その分をフレーム数の増加に割り当て
ることができる。
According to the present embodiment, the image data to be combined and transmitted can be arbitrarily designated, and the designated image data portion can be enlarged or reduced to be combined with an arbitrary portion of the transmitted image and transmitted. Since it is possible to freely set the boundary between the image to be combined and the combined image, the user can freely insert the above-mentioned arbitrary image into the portion to be inserted, and the degree of freedom of image combination is increased. It can be significantly improved. With this, it is possible to inform the other station of the content that the user really wants to transmit. Further, the importance of the image can be expressed by scaling the transmission image.
In addition, although information may be newly generated due to flicker of a fluorescent lamp or the like at the camera input, in this example, the background memory 36 is used.
Since there is used, there is an advantage that new information is not generated due to flicker, and that amount can be allocated to the increase in the number of frames.

【0032】[0032]

【発明の効果】以上記述した如く本発明のテレビ会議装
置によれば、映像信号の遅延量に合わせて音声信号の遅
延量を変化させることにより、画質や画像の変化に対し
て常に映像と音声の出力タイミングを合わせることがで
き、又、画像と画像の境界を自由に変えて画像合成を行
なうことができる。
As described above, according to the video conference apparatus of the present invention, by changing the delay amount of the audio signal in accordance with the delay amount of the video signal, the video and the audio are constantly changed with respect to the image quality and the change of the image. The output timing can be matched, and the image composition can be performed by freely changing the boundary between the images.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のテレビ会議装置の一実施例を示したブ
ロック図。
FIG. 1 is a block diagram showing an embodiment of a video conference device of the present invention.

【図2】図1に示したこま落とし演算部、平均値演算部
及び遅延部演算部の詳細例を示したブロック図。
FIG. 2 is a block diagram showing a detailed example of a top drop calculating unit, an average value calculating unit, and a delay unit calculating unit shown in FIG.

【図3】図2の動作を説明するタイムチャート。FIG. 3 is a time chart explaining the operation of FIG.

【図4】図1及び図2に示した遅延量演算部の演算特性
図。
FIG. 4 is a calculation characteristic diagram of the delay amount calculation unit shown in FIGS. 1 and 2.

【図5】本発明のテレビ会議装置の他の実施例を示した
ブロック図。
FIG. 5 is a block diagram showing another embodiment of the video conference apparatus of the present invention.

【図6】図5に示した拡大縮小部の垂直方向のライン数
増減構成例を示したブロック図。
6 is a block diagram showing a configuration example of increasing / decreasing the number of lines in the vertical direction of the enlargement / reduction unit shown in FIG.

【図7】図5の装置における画像合成の過程例を説明す
る図。
FIG. 7 is a diagram illustrating an example of a process of image synthesis in the apparatus of FIG.

【図8】従来のテレビ会議装置の一例を示したブロック
図。
FIG. 8 is a block diagram showing an example of a conventional video conference apparatus.

【図9】従来の画像合成方法を説明する説明図。FIG. 9 is an explanatory diagram illustrating a conventional image synthesizing method.

【図10】従来の画像合成方法で合成された画像例を示
した図。
FIG. 10 is a diagram showing an example of an image combined by a conventional image combining method.

【符号の説明】[Explanation of symbols]

1…データ分離部 2…誤り補正部 3…入力バッファ部 4…可変長復号
化部 5…逆量子化部 6…逆DCT部 7…フレームメモリ部 8…ループフィ
ルタ部 9…逆フォーマット変換部 10、16…D
/A変換部 11…音声遅延部 12…カウンタ
部 13…PCM用音声復号化部 14…広帯域用
音声復号化部 15…切換部 17…同期信号
発生部 18…こま落とし演算部 19…平均値演
算部 20…遅延量演算部 21…比較部 31…テレビカメラ 32…入力フレ
ームメモリ 33、38…アドレスカウンタ制御部 34…切取画像
位置指定部 35−1〜35−3…拡大縮小部 36…背景メモ
リ 37…出力フレームメモリ 39…合成位置
指定部 40…画像圧縮伸張装置 41…モニタ 42…伝送路
DESCRIPTION OF SYMBOLS 1 ... Data separation part 2 ... Error correction part 3 ... Input buffer part 4 ... Variable length decoding part 5 ... Inverse quantization part 6 ... Inverse DCT part 7 ... Frame memory part 8 ... Loop filter part 9 ... Inverse format conversion part 10 , 16 ... D
/ A conversion unit 11 ... Voice delay unit 12 ... Counter unit 13 ... PCM voice decoding unit 14 ... Wideband voice decoding unit 15 ... Switching unit 17 ... Synchronization signal generating unit 18 ... Cover dropping calculation unit 19 ... Average value calculation Part 20 ... Delay amount calculation part 21 ... Comparison part 31 ... Television camera 32 ... Input frame memory 33, 38 ... Address counter control part 34 ... Cut image position designation part 35-1 to 35-3 ... Enlargement / reduction part 36 ... Background memory 37 ... Output frame memory 39 ... Compositing position designation unit 40 ... Image compression / expansion device 41 ... Monitor 42 ... Transmission path

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 伝送線路上の多重化された映像信号と音
声信号を受信して両信号を分離した後、分離した各信号
に受信処理を行うテレビ会議装置において、受信した映
像信号の遅延量を検出する検出手段と、この検出手段に
よって検出された遅延量に対応して前記音声信号の遅延
時間を変化させる遅延手段とを具備したことを特徴とし
たテレビ会議装置。
1. A video conferencing apparatus that receives a multiplexed video signal and audio signal on a transmission line, separates the two signals, and then performs a reception process on each separated signal. The video conferencing apparatus is provided with a detecting means for detecting the delay time, and a delay means for changing the delay time of the audio signal in accordance with the delay amount detected by the detecting means.
【請求項2】 前記検出手段は受信映像信号のこま落し
量を演算し、このこま落し量に基づいて前記遅延量を算
出することを特徴とした請求項1記載のテレビ会議装
置。
2. The video conferencing apparatus according to claim 1, wherein the detecting means calculates a dropout amount of the received video signal, and calculates the delay amount based on the dropout amount.
【請求項3】 前記遅延手段は受信音声信号のレベルが
一定時間以上所定値以下であると、前記遅延量を固定値
にすることを特徴とした請求項1又は2記載のテレビ会
議装置。
3. The video conference apparatus according to claim 1, wherein the delay means sets the delay amount to a fixed value when the level of the received audio signal is equal to or more than a predetermined time and equal to or less than a predetermined value.
【請求項4】 映像信号に画像合成を行って送信する機
能を有するテレビ会議装置において、1画面分の映像信
号の任意の部分を指定する第1の指定手段と、この第1
の指定手段によって指定された映像信号部分を切り出す
切出手段と、1画面分の非合成映像信号の中の任意の部
分を指定する第2の指定手段と、前記切出手段によって
切り出された映像信号を第2の指定手段によって指定さ
れた部分に合成する合成手段とを具備したことを特徴と
するテレビ会議装置。
4. A video conferencing apparatus having a function of performing image synthesis on a video signal and transmitting the first video signal, a first designating means for designating an arbitrary part of the video signal for one screen, and
Cutting-out means for cutting out the video signal portion designated by the designating means, second designation means for designating an arbitrary portion of the non-composite video signal for one screen, and the video cut-out by the clipping means. A video conference apparatus comprising: a synthesizing unit that synthesizes a signal into a portion designated by the second designating unit.
【請求項5】 前記切出手段によって切り出した映像信
号部分に拡大又は縮小処理を施す拡大縮小手段を具備し
たことを特徴とする請求項4記載のテレビ会議装置。
5. The video conference apparatus according to claim 4, further comprising enlarging / reducing means for enlarging or reducing the video signal portion cut out by the cutting means.
【請求項6】 前記被合成映像信号を1画面分保持する
記憶手段を具備したことを特徴とする請求項4又は5記
載のテレビ会議装置。
6. The video conference apparatus according to claim 4, further comprising a storage unit that holds the combined video signal for one screen.
JP32812193A 1993-12-24 1993-12-24 Video conference equipment Withdrawn JPH07184182A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32812193A JPH07184182A (en) 1993-12-24 1993-12-24 Video conference equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32812193A JPH07184182A (en) 1993-12-24 1993-12-24 Video conference equipment

Publications (1)

Publication Number Publication Date
JPH07184182A true JPH07184182A (en) 1995-07-21

Family

ID=18206721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32812193A Withdrawn JPH07184182A (en) 1993-12-24 1993-12-24 Video conference equipment

Country Status (1)

Country Link
JP (1) JPH07184182A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6637001B1 (en) 2000-08-30 2003-10-21 Matsushita Electric Industrial Co., Ltd. Apparatus and method for image/voice transmission

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6637001B1 (en) 2000-08-30 2003-10-21 Matsushita Electric Industrial Co., Ltd. Apparatus and method for image/voice transmission

Similar Documents

Publication Publication Date Title
KR100195357B1 (en) Aspect ratio control for picture overlay
CA2241457C (en) High definition television for simultaneously displaying plural images contained in broadcasting signals of mutually different broadcasting systems
JP3617573B2 (en) Format conversion circuit and television receiver including the format conversion circuit
KR100209850B1 (en) Displaying an interlaced video signal with a noninterlaced video signal
KR100191408B1 (en) Vertical reset generation system
WO2004057529A2 (en) Region-based image processor
JP2915676B2 (en) Video signal recording / reproducing device
JPH0372796A (en) Television signal processing unit
JP3522273B2 (en) Adaptive letterbox detector
EP0979005B1 (en) Image decoder
JP3594596B2 (en) Letterbox display control
US20020056138A1 (en) Sampling frequency converter, sampling frequency conversion method, video signal processor, and video signal processing method
JPH07184182A (en) Video conference equipment
JP3559758B2 (en) Video compression / expansion equipment
KR0160158B1 (en) Independent horizontal panning for side-by-side pictures
JP3430156B2 (en) Sampling frequency conversion device, sampling frequency conversion method, video signal processing device, and video signal processing method
JPH08129375A (en) Video size corrector
KR100229292B1 (en) Automatic letterbox detection
JP2911133B2 (en) Time compression device for HDTV receiver
JP3716239B2 (en) Video signal receiving apparatus and video signal display apparatus
JPH1141489A (en) Video signal display device
EP0343732A2 (en) Method and apparatus for introducing a pan and scan feature to high definition television systems
JP2006180091A (en) Apparatus and method of compositing content
JPH0793738B2 (en) Video signal format converter
KR100209849B1 (en) Horizontal panning for wide screen tv

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010306