JP2001045495A - Image compositing device - Google Patents

Image compositing device

Info

Publication number
JP2001045495A
JP2001045495A JP21849299A JP21849299A JP2001045495A JP 2001045495 A JP2001045495 A JP 2001045495A JP 21849299 A JP21849299 A JP 21849299A JP 21849299 A JP21849299 A JP 21849299A JP 2001045495 A JP2001045495 A JP 2001045495A
Authority
JP
Japan
Prior art keywords
frame
intra
screen
data
video conference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP21849299A
Other languages
Japanese (ja)
Inventor
Norio Suzuki
典生 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Engineering Ltd
Original Assignee
NEC Engineering Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Engineering Ltd filed Critical NEC Engineering Ltd
Priority to JP21849299A priority Critical patent/JP2001045495A/en
Publication of JP2001045495A publication Critical patent/JP2001045495A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image composite device for a multiple place video conference system that obtains a composite image with a simple configuration in order to decode an encoded signal transmitted from many places to prepare a composite image and to transmit to each terminal. SOLUTION: An encoding system such as H. 261 can easily construct the composite quasi-moving image between small-scale devices by fetching only intra-frame encoded data, smoothing intra-frame encoded data from each video conference terminal 6 in a buffer memory 3 to be subjected to time division multiplexing and decoding an image compositing with the intra-frame encoded data as one signal string because the encoding system has a mode in which encoding is performed by combining intra-frame encoding and intra-frame prediction coding and intra-frame encoding is transmitted in the ratio of once in tens of frames.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画面合成装置、特に
多地点テレビ会議制御装置(Multipoint ControlUnit :
MCU)において多地点の合成画面を得るのに好適な画面
合成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a screen synthesizing apparatus, in particular, a multipoint control unit (Multipoint Control Unit).
The present invention relates to a screen synthesizing apparatus suitable for obtaining a multipoint synthesized screen in an MCU.

【0002】[0002]

【従来の技術】情報化時代にあっては、時間が重要なフ
ァクタであり、多地点をテレビ回線で結んで会議を行う
多地点テレビ会議システムが急速に普及している。この
システムの導入により、時間及び経費を大幅に短縮又は
低減することが可能になる。
2. Description of the Related Art In the information age, time is an important factor, and a multipoint video conference system in which a multipoint is connected via a television line to conduct a conference is rapidly spreading. With the introduction of this system, it is possible to significantly reduce or reduce time and expenses.

【0003】画像符号化伝送装置端末を用いて多地点テ
レビ会議を行う場合、各端末と多地点制御装置(MCU)
でシステムが構成されるが、端末で全参加地点の画面を
見ることができれば、全体の様子を把握するのに便利で
あり、円滑なテレビ会議が可能になる。全地点を見る為
には、MCUで、各端末からの符号化伝送信号を復号化し
て、復号した画像信号から合成画面を作り、この合成画
面を符号化して各端末へ符号化伝送する必要がある。こ
の復号化処理及び合成処理を行う為には、復号化装置と
画面を縮小する為の画面縮小回路が合成画面数に対応し
て必要となるので、装置規模が大きくなる傾向があっ
た。
[0003] When a multi-point video conference is performed using an image coding transmission apparatus terminal, each terminal is connected to a multi-point control unit (MCU).
However, if the screens of all the participating points can be viewed on the terminal, it is convenient to grasp the whole situation, and a smooth video conference can be realized. In order to view all points, it is necessary for the MCU to decode the encoded transmission signal from each terminal, create a composite screen from the decoded image signal, encode this composite screen, and encode and transmit it to each terminal. is there. In order to perform the decoding process and the synthesizing process, a decoding device and a screen reduction circuit for reducing the screen are required in accordance with the number of synthesized screens, so that the device scale tends to be large.

【0004】この為に、画面合成機能としては、画面合
成した画像信号を見るメリットに対して装置規模の拡大
によるコスト上昇というデメリットのバランスがとりに
くい。多地点参加でテレビ会議を行った場合に、多地点
の合成画面を常時見るよりは、話者(発信者)/議長/
所望地点等の各画像を選択することの方が実質的に多く
利用される。多地点の合成画面は、地点数が増加するに
つれて各地点の画面は小さくなる。全体の概要を知るに
は合成画面は有効であるが、ある特定画面を詳細に見よ
うとすると、小さすぎてしまい、必要な1つの画面を選
択して表示する必要がある。
For this reason, it is difficult for the screen combining function to balance the disadvantage of viewing the image signal with the combined screen with the disadvantage of increasing the cost due to an increase in the scale of the apparatus. When conducting a video conference with multipoint participation, the speaker (sender) / chairperson /
Selecting each image, such as a desired point, is used substantially more. In the multi-point composite screen, the screen at each point becomes smaller as the number of points increases. Although the composite screen is effective for knowing the general outline, it is too small to view a specific screen in detail, and it is necessary to select and display one required screen.

【0005】1例として、16地点の合成画面をMCUで
作るには、各端末からの信号を復号化する為に16個の
復号化装置及び16個の画面縮小回路が必要となり、回
路規模は非常に大きくなる。合成画面を全体概要の表示
機能として用いるには、これら16地点の画像は準静止
画等でもよいが、その為には別の画像情報を送信する為
の符号化機能を余分に追加する必要があり、ITU-TのH3
20等の標準仕様に基づいて構成されたシステムでは実
現できない。
[0005] As an example, in order to create a 16-point composite screen using an MCU, 16 decoding devices and 16 screen reduction circuits are required to decode signals from each terminal. Very large. In order to use the composite screen as a display function of the general outline, these 16-point images may be quasi-still images, but for this purpose, it is necessary to add an additional encoding function for transmitting different image information. Yes, ITU-T H3
It cannot be realized by a system configured based on standard specifications such as 20.

【0006】そこで、MCUの画面合成手法として、いく
つかの手法が提案されている。例えば、特開平10−2
00872号公報の「多地点テレビ会議制御装置及び画
面合成符号化方法」には、合成画面の画質の劣化を抑制
する多地点テレビ会議制御装置(MCU)を開示してい
る。その為の技術手段として、各復号化装置からの復号
化情報を比較して、画像の劣化の目立ち難さを相対的な
段階に分け、それを合成符号化制御信号として符号化部
へ供給する。符号化部は、バッファメモリの占有量に応
じて符号化を行う際に、合成符号化制御信号に従って量
子化特性を変更する。
Therefore, several techniques have been proposed as screen composition techniques for MCUs. For example, JP-A-10-2
Japanese Patent Application Publication No. 00872 discloses a multipoint video conference control device (MCU) that suppresses deterioration of the image quality of a composite screen in “Multipoint Video Conference Control Device and Screen Composition Coding Method”. As technical means therefor, decoding information from each decoding device is compared, the inconspicuousness of image deterioration is divided into relative stages, and this is supplied to a coding unit as a combined coding control signal. . The encoding unit changes the quantization characteristic according to the combined encoding control signal when encoding is performed according to the occupation amount of the buffer memory.

【0007】この従来技術のブロック図を図8に示す。
複数のテレビ会議端末63−1〜63−n、ネットワー
ク62及びMCU69より構成される。MCU69は、データ
交換部64、複数の復号化部65−1〜65−n、画像
合成部66、合成符号化制御部68及び符号化部67を
含んでいる。各テレビ会議端末63からネットワーク6
2を経てMCU69のデータ交換部64に入力された信号
は、選択された復号化部65に送られ、復号化されて画
像信号を出力する。画像合成部66では、供給される選
択信号により選択された画像について画面合成が行われ
る。合成した画像信号を符号化部67へ供給し、合成符
号化制御部68からの制御信号に従って量子化特性を適
応的に変化させて合成画面を符号化して出力する。この
出力は、データ交換部64及びネットワーク62を経て
テレビ会議端末63へ合成画面の送信を行う。
FIG. 8 shows a block diagram of this prior art.
It comprises a plurality of video conference terminals 63-1 to 63-n, a network 62 and an MCU 69. The MCU 69 includes a data exchange unit 64, a plurality of decoding units 65-1 to 65-n, an image combining unit 66, a combined encoding control unit 68, and an encoding unit 67. Network 6 from each video conference terminal 63
The signal input to the data exchange unit 64 of the MCU 69 through the second unit 2 is sent to the selected decoding unit 65, and is decoded to output an image signal. In the image synthesizing unit 66, screen synthesis is performed on the image selected by the supplied selection signal. The combined image signal is supplied to the coding unit 67, and the quantization screen is adaptively changed in accordance with the control signal from the combining and coding control unit 68 to code and output the combined screen. This output transmits a composite screen to the video conference terminal 63 via the data exchange unit 64 and the network 62.

【0008】また、特開平10−313453号公報の
「異速度間での多地点テレビ会議接続方法及びシステ
ム」には、多画面合成を用いた多地点テレビ会議におい
て、異速度間の相互通信を簡単な構成で比較的安価に、
各端末の転送レートの設定作業を不要とする技術を開示
する。その為に、MCU内で転送レートの異なる各端末か
らの映像を各々復号化器で復号し、間引きして合成した
後に複数の符号化器において各転送レートで符号化して
各端末へ送信する。受信した映像の転送レートを自動的
に検出して符号化及び復号化する。画面合成は、各端末
からの信号を各々復号する復号化器で復号した画像を画
像合成器により合成する。
Japanese Patent Laid-Open Publication No. Hei 10-313453 discloses a "method and system for connecting a multipoint video conference between different speeds" in a multipoint videoconference using multi-screen synthesis. Relatively inexpensive with a simple configuration,
A technology that eliminates the need for setting a transfer rate of each terminal is disclosed. For this purpose, in the MCU, video from each terminal having a different transfer rate is decoded by a decoder, decimated and synthesized, and then encoded at a plurality of encoders at each transfer rate and transmitted to each terminal. The transfer rate of the received video is automatically detected and encoded and decoded. In the screen synthesis, an image decoded by a decoder that decodes a signal from each terminal is synthesized by an image synthesizer.

【0009】更に、特開平4−317285号公報の
「映像信号多重復号化装置」は、多地点から送られて来
る映像符号化データを画面合成回路を用いて1つの画面
に合成した後、可変長復号化を行うことにより、1つの
可変長復号化回路で多地点からの映像信号を再生するこ
とを開示する。その構成ブロック図を図9に示す。即
ち、この装置は、デジタル/アナログ変換器(D/A)9
7、フレームメモリ(FM)95、加算回路94、可変長
復号化回路(VLDEC)93、画面合成回路98、複数の
受信バッファメモリ(BM)92a〜92d及び複数の受信
回路91a〜91dより構成される。
Further, the "video signal multiplex decoding apparatus" disclosed in Japanese Patent Application Laid-Open No. Hei 4-317285 combines video coded data sent from multiple points into one screen using a screen synthesis circuit, and then changes the data. It discloses that a single variable-length decoding circuit reproduces video signals from multiple points by performing long decoding. FIG. 9 shows a block diagram of the configuration. That is, this device is a digital / analog converter (D / A) 9
7, a frame memory (FM) 95, an adder circuit 94, a variable length decoding circuit (VLDEC) 93, a screen synthesizing circuit 98, a plurality of receiving buffer memories (BM) 92a to 92d, and a plurality of receiving circuits 91a to 91d. You.

【0010】複数の符号化データ受信回路91a〜91d
で受信した映像符号化データが各々対応するBM92a〜
92dに一時的に蓄積される。画面合成回路98は、BM
92a〜92dからフレーム位相を合わせて複数地点から
供給される映像符号化データを読出し、複数の画面を合
成して、1画面分の映像符号化データに変換する。この
際に、複数地点から送られて来るブロック数の総和が出
力画面のブロック数より多い場合には、余分なブロック
データを削除する。他方、少ない場合には、ダミーブロ
ックデータを挿入し、合成画面のブロック数と出力画面
のブロック数を一致させる。画面合成回路98からの合
成画面符号化データは、可変長復号化回路93で差分情
報に変換され、更に加算回路94で前フレームの再生映
像データと加算され、現フレームの映像が再生され、D
/A97に供給されアナログ信号に変換される。再生さ
れた映像データは、次のフレームの画像を再生する為
に、フレームメモリ95に蓄積される。
[0010] A plurality of encoded data receiving circuits 91a to 91d
The video coded data received at BM92a ~
92d is temporarily stored. The screen synthesizing circuit 98
The coded video data supplied from a plurality of points is read out from 92a to 92d with the same frame phase, and a plurality of screens are synthesized and converted into coded video data for one screen. At this time, if the total number of blocks sent from a plurality of points is larger than the number of blocks on the output screen, the extra block data is deleted. On the other hand, if the number is small, dummy block data is inserted, and the number of blocks in the composite screen matches the number of blocks in the output screen. The synthesized screen coded data from the screen synthesis circuit 98 is converted into difference information by a variable length decoding circuit 93, added to the reproduced video data of the previous frame by an addition circuit 94, and the video of the current frame is reproduced.
/ A 97 to be converted into an analog signal. The reproduced video data is stored in the frame memory 95 in order to reproduce the image of the next frame.

【0011】更にまた、特開平9−149332号公報
の「マルチ画面作成装置」は、装置規模が小さく且つ安
価となるマルチ画面作成装置を開示している。その構成
を示すブロック図を図10に示す。即ち、多重デジタル
信号が入力される入力端子121、分離回路122、I
ピクチャ検出回路123、デコード回路124、マルチ
画面作成回路125、制御回路126及び表示画面12
7より構成される。ここで、分離回路122は、複数の
圧縮されたデジタル映像信号を多重化して伝送される多
重デジタル信号からN個のデジタル映像信号を順次分離
する。検出回路123は、分離回路122により分離さ
れたN個のデジタル映像信号から、フレーム内符号化さ
れた部分のみを検出する。デコード回路124は、検出
回路123により検出されたN個のフレーム内符号化さ
れた部分を順次デコードする。このデコード回路124
によりデコードされたN個の映像信号を表示領域がN個に
分割された表示画面127上の各領域A〜Dに圧縮して表
示するよう制御回路126で制御している。
Furthermore, Japanese Patent Application Laid-Open No. 9-149332 discloses a "multi-screen creation device" which discloses a multi-screen creation device that is small in size and inexpensive. FIG. 10 is a block diagram showing the configuration. That is, the input terminal 121 to which the multiplex digital signal is input, the separation circuit 122,
Picture detection circuit 123, decode circuit 124, multi-screen creation circuit 125, control circuit 126, and display screen 12
7. Here, the separation circuit 122 multiplexes a plurality of compressed digital video signals and sequentially separates N digital video signals from a multiplexed digital signal transmitted. The detection circuit 123 detects only an intra-frame coded portion from the N digital video signals separated by the separation circuit 122. The decoding circuit 124 sequentially decodes the coded portions in the N frames detected by the detection circuit 123. This decoding circuit 124
The control circuit 126 controls the N video signals decoded by the control circuit 126 to compress and display the N video signals into the respective areas A to D on the display screen 127 where the display area is divided into N.

【0012】[0012]

【発明が解決しようとする課題】上述した従来技術1乃
至4には、いくつかの問題点がある。先ず従来例1及び
2にあっては、多地点テレビ会議システムの各端末から
全地点の様子を見るには、MCUで各地点の画像の復号
化データを各々復号化し、画面合成した後に、符号化し
て各地点に符号化信号を送信する構成である。従って、
MCUで各地点の画像を復号化する為に地点数分の復号
化装置が必要となり、装置が大規模且つ高価となる。
The above-mentioned prior arts 1 to 4 have several problems. First, in Conventional Examples 1 and 2, in order to see the state of all points from each terminal of the multipoint video conference system, the MCU decodes the decoded data of the image at each point, synthesizes the screens, And transmits the encoded signal to each point. Therefore,
In order to decode an image at each point by the MCU, decoding apparatuses for the number of points are required, and the apparatus becomes large-scale and expensive.

【0013】また、上述した従来技術3では、受信バッ
ファメモリ92からの信号を画面合成回路98で合成し
た信号で復号化することにより、可変長復号化回路9
3、加算回路94及びフレームメモリ95を1つの処理
回路で構成できる。しかし、画面合成方式がn地点から
の映像符号化データを読出し、n個の画面を合成して1
画面分の映像符号化データに変換する。この際に、n地
点から送られて来るブロック数の総和が出力画面のブロ
ック数と一致させる為に送信側で予め画面のサイズを縮
小しておく必要がある。その為に、例えば通常サイズで
送られて来た4つの画面を各々縦横1/2に縮小して4
画面を合成して1つの画面とする如き、画面合成ができ
ず、各画面を縦横1/2の大きさに切取る為に、画面に
欠けが生じるという問題がある。また、ブロックデータ
の増減で画面を調整する方法は符号化方式がフレーム間
方式の場合にのみ有効であり、テレビ会議端末の方式で
汎用的な標準方式であるH.261等の予測方式には動き
補償予測方式が用いられるので、ブロックを削除すると
正しく復号化できない。
In the above-mentioned prior art 3, the signal from the reception buffer memory 92 is decoded by the signal synthesized by the screen synthesizing circuit 98, so that the variable length decoding circuit 9 is decoded.
3. The addition circuit 94 and the frame memory 95 can be constituted by one processing circuit. However, the screen combining method reads video coded data from the n point and combines n screens to obtain 1
It is converted into video encoded data for the screen. At this time, it is necessary to reduce the size of the screen on the transmitting side in advance so that the total number of blocks sent from the n point matches the number of blocks on the output screen. For this purpose, for example, each of the four screens sent in the normal size is reduced to half in length and width, and
There is a problem that the screens cannot be combined such that the screens are combined into one screen, and the screens are cut off to half the size in the vertical and horizontal directions, so that the screen is chipped. Also, the method of adjusting the screen by increasing or decreasing the block data is effective only when the encoding method is the inter-frame method, and the prediction method such as H.261 which is a general standard method of the video conference terminal is used in the prediction method. Since the motion compensation prediction method is used, if the block is deleted, decoding cannot be performed correctly.

【0014】更にまた、上述した従来技術4をMCU制御
装置に適用するには、各端末からMCUへ送信されて来た
圧縮されたデジタル信号を一旦多重化して多重デジタル
信号として適用することになる。しかし、この従来技術
では、多重デジタル信号からN個のデジタル映像信号を
順番にデコードする為に、N個の画面を1回リフレッシ
ュする迄の時間が長くかかることになり、各地点の様子
をよく見ることができない。例えば、テレビ会議装置の
送信端末では、伝送効率を上げる為にエラー回復の為の
リフレッシュとしてフレーム内符号化を行うには最低1
〜2秒の周期となる。そして、N=16地点の多地点で
会議を行った場合には、1個のフレームを検出するのが
平均0.5〜1秒とすると、合成画面が得られる平均周
期は8〜16秒の時間がかかるので、合成画面は静止画
に近く、MCUの合成画面としては不適切である。
Furthermore, in order to apply the above-mentioned prior art 4 to an MCU control device, a compressed digital signal transmitted from each terminal to the MCU is once multiplexed and applied as a multiplexed digital signal. . However, in this conventional technique, it takes a long time to refresh the N screens once because the N digital video signals are decoded in order from the multiplexed digital signal. I can't see it. For example, in a transmission terminal of a video conference apparatus, at least one frame is required to perform intra-frame encoding as a refresh for error recovery in order to increase transmission efficiency.
周期 2 second period. Then, when a conference is held at N = 16 multipoints, if one frame is detected at an average of 0.5 to 1 second, the average period at which a synthesized screen is obtained is 8 to 16 seconds. Since it takes time, the composite screen is close to a still image, and is unsuitable as an MCU composite screen.

【0015】本発明の目的は、多地点から送られて来た
符号化信号を復号化して合成画面を作って各端末に送信
する為に、簡単な構成で準動画の合成画面が得られる多
地点テレビ会議システム用の画面合成装置を提供するこ
とである。
An object of the present invention is to decode a coded signal sent from multiple points to form a composite screen and transmit it to each terminal. It is an object of the present invention to provide a screen synthesizing device for a point teleconference system.

【0016】[0016]

【課題を解決するための手段】前述の課題を解決するた
め、本発明による画面合成装置は、次のような特徴的な
構成を採用している。
In order to solve the above-mentioned problems, a screen synthesizing apparatus according to the present invention employs the following characteristic configuration.

【0017】(1)複数のテレビ会議端末を有し、該各
テレビ会議端末でフレーム内符号化とフレーム間符号化
の両モードを有する符号化方式で画像信号を符号化した
信号を受信して合成画面を作成する画面合成装置におい
て、前記各テレビ会議端末からのフレーム内符号化デー
タのみを分離するデータ分離部と、該分離部で分離され
たデータを平滑化するバッファメモリと、該バッファメ
モリの出力をフレーム内復号化するフレーム内復号化部
と、該フレーム内復号化部からの合成画面を作成する画
面合成部とを備える画面合成装置。
(1) Having a plurality of video conference terminals, each of the video conference terminals receiving a signal obtained by coding an image signal by an encoding method having both intra-frame coding and inter-frame coding modes In a screen synthesizing apparatus for creating a synthesized screen, a data separation unit for separating only intra-frame encoded data from each of the video conference terminals, a buffer memory for smoothing the data separated by the separation unit, and a buffer memory A screen synthesizing apparatus, comprising: an intra-frame decoding unit for intra-frame decoding of the output of the above; and a screen synthesizing unit for creating a synthesized screen from the intra-frame decoding unit.

【0018】(2)前記テレビ会議端末で所望周期毎に
フレーム内符号化を行う制御部を備える上記(1)の画
面合成装置。
(2) The screen synthesizing apparatus according to the above (1), further comprising a control unit for performing intra-frame encoding at a desired cycle in the video conference terminal.

【0019】(3)前記テレビ会議端末からのフレーム
内符号化データを時分割多重化して単一フレーム内復号
化部でフレーム内復号化を行う復号化部と、多重化され
た再生画像信号を帯域制限及び再標本化する単一画面縮
小手段とを備える上記(1)の画面合成装置。
(3) A decoding unit for performing time-division multiplexing on the intra-frame coded data from the video conference terminal and performing intra-frame decoding by a single intra-frame decoding unit; The screen synthesizing apparatus according to the above (1), further comprising a single screen reducing unit for performing band limitation and resampling.

【0020】(4)前記各テレビ会議端末からの符号化
データからフレーム内符号化データを時分割多重化処理
で分離する単一データ分離回路から成るデータ分離部
と、前記バッファメモリをアドレス空間区分して1つの
メモリで構成するバッファメモリとを有する上記(1)
の画面合成装置。
(4) A data separation unit comprising a single data separation circuit for separating intra-frame coded data from the coded data from each of the video conference terminals by time-division multiplexing processing, and the buffer memory is divided into address spaces. (1) having a buffer memory composed of one memory
Screen synthesis device.

【0021】(5)前記バッファメモリに1フレームの
フレーム内符号化データを蓄積される順番に優先順位を
つけて復号化を行う制御部を有する上記(1)の画面合
成装置。
(5) The picture synthesizing apparatus according to the above (1), further comprising a control section for assigning a priority to the order in which the intraframe encoded data of one frame is stored in the buffer memory and performing decoding.

【0022】(6)前記フレーム内符号化データに識別
信号符号化データを多重化する識別信号発生部と、多重
化信号を復号化して得られる復号画像信号から前記識別
信号を検出して各フレームの再生画像を該当する画面の
合成位置に書込む画面合成部を有する上記(5)の画面
合成装置。
(6) An identification signal generating section for multiplexing the identification signal encoded data with the intra-frame encoded data, and detecting each of the identification signals from a decoded image signal obtained by decoding the multiplexed signal, for each frame. The screen synthesizing apparatus according to the above (5), further comprising a screen synthesizing unit for writing the reproduced image in the corresponding screen synthesizing position.

【0023】(7)送信側の画像信号の一部に識別信号
を加算してフレーム内符号化する手段を有するテレビ会
議端末と、受信側においてフレーム内符号化データを復
号した復号画像信号から前記識別信号を検出し、各フレ
ームの再生画像を該当する画面の合成位置に書込む画面
合成手段とを有する上記(5)の画面合成装置。
(7) A video conference terminal having means for adding an identification signal to a part of an image signal on the transmitting side and performing intra-frame encoding, and a decoded image signal obtained by decoding intra-frame encoded data on the receiving side. The screen synthesizing apparatus according to the above (5), further comprising: a screen synthesizing unit that detects an identification signal and writes a reproduced image of each frame at a synthesizing position of the corresponding screen.

【0024】[0024]

【発明の実施の形態】以下、本発明による画面合成装置
の好適実施形態例の構成及び動作を参照して詳細に説明
する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A preferred embodiment of a screen synthesizing apparatus according to the present invention will be described below in detail with reference to the configuration and operation thereof.

【0025】先ず図1は、本発明の画面合成装置の第1
実施形態例のブロック図である。この画面合成装置は、
複数のテレビ会議端末6a〜6d、ネットワーク7及びMC
U8より構成される。また、MCU8は、データ交換部1、
複数のデータ分離部2a〜2d、複数のバッファメモリ3
a〜3d、符号化部5、フレーム内復号化部32及び画像
合成部33を含んでいる。
First, FIG. 1 shows a first embodiment of the screen synthesizing apparatus according to the present invention.
It is a block diagram of an example of an embodiment. This screen composition device
Plurality of video conference terminals 6a to 6d, network 7 and MC
It is composed of U8. The MCU 8 includes a data exchange unit 1,
A plurality of data separation units 2a to 2d, a plurality of buffer memories 3
a to 3d, an encoding unit 5, an intra-frame decoding unit 32, and an image synthesizing unit 33.

【0026】複数(図1の例では4台)のテレビ会議端
末6a〜6dは、ネットワーク7を介してMCU8に接続さ
れている。各テレビ会議端末6は、例えばITU-T H.3
20に準拠しており、例えばITU-T H.261に準拠す
る符号化方式及び復号化方式を採用している。また、各
テレビ会議端末6は、画像信号を符号化(圧縮符号化)
し、端末データとしてネットワークへ送出する。H.26
1の符号化では、フレーム内符号化(I)とフレーム間
予測符号化(P)の符号化モードを有する。通常は、フ
レーム間予測符号化で行われるが、端末の切替え選択時
の復号開始、伝送路エラー時の復号開始の初期化の為
に、フレーム内符号化が必要であり、適当な周期(例え
ば1秒に1回)毎にフレーム内符号化を行って符号化デ
ータを送出する。
A plurality of (four in the example of FIG. 1) video conference terminals 6 a to 6 d are connected to the MCU 8 via the network 7. Each video conference terminal 6 is, for example, ITU-T H.3.
20. For example, an encoding system and a decoding system based on ITU-T H.261 are adopted. Each video conference terminal 6 encodes (compresses and encodes) the image signal.
Then, the data is transmitted to the network as terminal data. H.26
The coding 1 has coding modes of intra-frame coding (I) and inter-frame prediction coding (P). Normally, this is performed by inter-frame predictive coding. However, intra-frame coding is required to initialize decoding when terminal switching is selected and decoding start when a transmission path error occurs. Intra-frame encoding is performed every one second) and encoded data is transmitted.

【0027】多地点テレビ会議制御装置(MCU)8は、
ネットワーク7に送出された各テレビ会議端末6からの
端末画像データをデータ交換部1によって受信し、各テ
レビ会議端末6に対応するデータ分離部2へ供給する。
画面合成を行わない場合には、端末画像データは復号化
されず、そのまま交換して所望のテレビ会議端末6への
送信データとしてネットワーク7へ送り出される。
The multipoint video conference controller (MCU) 8
The terminal image data from each video conference terminal 6 transmitted to the network 7 is received by the data exchange unit 1 and supplied to the data separation unit 2 corresponding to each video conference terminal 6.
When the screen synthesis is not performed, the terminal image data is not decoded, but is exchanged as it is and sent out to the network 7 as transmission data to the desired video conference terminal 6.

【0028】データ分離部2は、端末画像データ列から
符号化モードの切替わりの先頭を検出する機能を有し、
端末画像データの中からフレーム内符号化データとフレ
ーム間予測符号化データとを分離し、フレーム内符号化
データのみをバッファメモリ3へ供給する。各端末毎に
対応したバッファメモリ3は、蓄積したフレーム内符号
化データを所定の順番にフレーム内復号化部32へ供給
する。また、データ分離部2で検出されたフレーム内符
号化圧縮データは、バッファメモリ3に供給され、各バ
ッファメモリ3は、1フレームの画面をフレーム内符号
化した圧縮データを蓄積する容量を有する。n個(例え
ばn=16)のバッファメモリ3には、該当する端末の
画像の1フレーム毎のフレーム内符号化データが約1秒
の周期で順次書込まれる。バッファメモリ3の読出し
は、フレーム内復号化部32の処理制御の要求に依り、
n個のバッファメモリ3から順に選択されて読出され、
フレーム内復号化部32へ供給される。あるバッファメ
モリ3で読出された後、次の読出しまでの間に、バッフ
ァメモリ3にフレーム内符号化圧縮データが蓄えられて
いない場合には、読飛ばされ、信号なしの状態で出力さ
れる。
The data separation section 2 has a function of detecting the head of switching of the encoding mode from the terminal image data sequence,
The intra-frame coded data and the inter-frame prediction coded data are separated from the terminal image data, and only the intra-frame coded data is supplied to the buffer memory 3. The buffer memory 3 corresponding to each terminal supplies the accumulated intra-frame encoded data to the intra-frame decoding unit 32 in a predetermined order. The intra-frame coded compressed data detected by the data separation unit 2 is supplied to a buffer memory 3, and each buffer memory 3 has a capacity to store compressed data obtained by intra-frame coding of one frame screen. In the n (for example, n = 16) buffer memories 3, the intra-frame coded data for each frame of the image of the corresponding terminal is sequentially written at a cycle of about 1 second. Reading of the buffer memory 3 depends on the processing control request of the intra-frame decoding unit 32.
sequentially selected and read from the n buffer memories 3;
It is supplied to the intra-frame decoding unit 32. If the intra-frame coded compressed data is not stored in the buffer memory 3 after being read by a certain buffer memory 3 until the next reading, the data is skipped and output without a signal.

【0029】フレーム内復号化部32は、H.261のテ
レビ会議端末6の有する符号化方式のうち、フレーム内
符号化方式(I)のモードのみを復号する機能を有し、
バッファメモリ3から供給されたフレーム内符号化圧縮
データを復号して、復号画像信号を得て、画像合成部3
3へ供給される。
The intra-frame decoding unit 32 has a function of decoding only the mode of the intra-frame encoding system (I) among the encoding systems of the H.261 video conference terminal 6,
The intra-frame coded compressed data supplied from the buffer memory 3 is decoded to obtain a decoded image signal.
3.

【0030】標準NTSCのテレビ信号(画像信号)は、1
秒間に30フレームの信号から構成される。通常の復号
化装置の信号処理速度は、通常30フレーム/秒以上で
あり、フレーム内符号化部の処理速度も同等以上であ
る。この為に、約1秒間に1回のフレーム内符号化を行
うようにテレビ会議端末6の符号化部の設定を行った場
合、30地点からのフレーム内符号化データを多重化す
ると、1秒間に30フレーム分の信号となるが、この程
度であればフレーム内復号化部32は十分処理できる。
The standard NTSC television signal (image signal) is 1
It is composed of 30 frames of signal per second. The signal processing speed of a normal decoding device is usually 30 frames / second or more, and the processing speed of the intra-frame encoding unit is equal to or more than that. For this reason, when the encoding unit of the video conference terminal 6 is set to perform the intra-frame encoding once per second, if the intra-frame encoded data from 30 points is multiplexed, it takes 1 second. In this case, a signal corresponding to 30 frames is obtained, but with this degree, the intra-frame decoding unit 32 can sufficiently process the signal.

【0031】画像合成部33は、各テレビ会議端末6か
ら送られて来たフレーム内符号化で取込まれた画像信号
を、所望の画面数を選択し、所望のサイズに縮小し、所
望の合成画面となるように、順番に並べて合成フレーム
メモリ(図示せず)に一旦蓄積してから符号化部5へ供
給する。符号化部5は、テレビ会議端末6の符号化部と
同じ符号化の機能を有しており、フレーム内符号化とフ
レーム間予測符号化の符号化モードを適応的に切替え
て、画像合成部33から供給された合成画像信号を符号
化して、符号化データをデータ交換部1へ供給する。
The image synthesizing unit 33 selects the desired number of screens, reduces the size of the image signal captured by the intra-frame encoding sent from each video conference terminal 6 to a desired size, and The images are arranged in order and temporarily stored in a synthesized frame memory (not shown) so as to form a synthesized screen, and then supplied to the encoding unit 5. The encoding unit 5 has the same encoding function as the encoding unit of the video conference terminal 6, and adaptively switches the encoding mode between intra-frame encoding and inter-frame predictive encoding, and The composite image signal supplied from 33 is encoded, and the encoded data is supplied to the data exchange unit 1.

【0032】データ交換部1は、各テレビ会議端末6か
ら送られて来る制御信号に基づいて、各テレビ会議端末
6が所望する画像に対応する符号化データを選択してネ
ットワーク7へ送出する。各テレビ会議端末6に対し
て、各々合成画面が要求された場合には、画面合成信号
の符号化データを選択して送出する。あるテレビ会議端
末6の1画面の画像が要求された場合には、該当するテ
レビ会議端末6からの符号化データを選択して送出す
る。
The data exchange unit 1 selects coded data corresponding to an image desired by each video conference terminal 6 based on a control signal sent from each video conference terminal 6 and sends the coded data to the network 7. When a composite screen is requested for each of the video conference terminals 6, encoded data of a screen composite signal is selected and transmitted. When an image of one screen of a certain video conference terminal 6 is requested, the coded data from the corresponding video conference terminal 6 is selected and transmitted.

【0033】テレビ会議端末6は、ネットワーク7を介
して符号化データを受信し、復号化して復号信号を得
る。テレビ会議端末6では、全体の様子を知りたいと
き、合成画面の受信を選択する選択信号をMCU8へ送
る。合成画面中の個々の画面は、約1秒に1フレーム変
わる準動画であるが、全体の動きを知るには十分であ
る。全体の様子が判明した後、話者選択の画面を選択す
る。話者選択は、MCU8のデータ交換部1で、音声信号
に基づいて、テレビ会議に参加しているテレビ会議端末
6の中で発言中と思われる端末を推定して、この推定さ
れた1つのテレビ会議端末6の画面を自動的に選択し
て、符号化データをテレビ会議端末6に送信する。
The video conference terminal 6 receives the encoded data via the network 7 and decodes it to obtain a decoded signal. When the video conference terminal 6 wants to know the whole situation, it sends a selection signal to select the reception of the composite screen to the MCU 8. Each screen in the composite screen is a quasi-moving image that changes by one frame per second, but it is enough to know the entire movement. After the overall appearance is determined, a screen for speaker selection is selected. In the speaker selection, the data exchange unit 1 of the MCU 8 estimates, based on the voice signal, a terminal which is considered to be speaking among the video conference terminals 6 participating in the video conference, and this estimated one The screen of the video conference terminal 6 is automatically selected, and the encoded data is transmitted to the video conference terminal 6.

【0034】図3は、図1中のフレーム内復号化部32
の具体的なブロック図である。フレーム内復号化部32
は、可変長復号化部41及びフレーム内復号器42を備
え、H.261のフレーム内復号化処理を行う。通常のテ
レビ信号のフレーム数と同じである1秒間に30フレー
ムの画像を復号する処理速度を有している。図1中のバ
ッファメモリ3から供給される時分割多重化されたフレ
ーム内符号化データの多重化信号を順次復号化して、復
号した1フレーム毎の画像を出力する。復号画像は、1
フレーム毎に時分割の多重化の順番で各テレビ会議端末
6の画面が復号化されて出力される。
FIG. 3 shows an intra-frame decoding unit 32 shown in FIG.
It is a specific block diagram of. In-frame decoding unit 32
Comprises a variable-length decoding unit 41 and an intra-frame decoder 42, and performs H.261 intra-frame decoding. It has a processing speed of decoding an image of 30 frames per second, which is the same as the number of frames of a normal television signal. The multiplexed signal of the time-division multiplexed intra-frame encoded data supplied from the buffer memory 3 in FIG. 1 is sequentially decoded, and a decoded image for each frame is output. The decoded image is 1
The screen of each video conference terminal 6 is decoded and output in the order of time-division multiplexing for each frame.

【0035】次に、図4は、図1中の画像合成部33の
具体的なブロック図を示す。この画像合成部33は、帯
域制限フィルタ51、再標本化回路(リサンプラー)5
2及び合成フレームメモリ53より構成される。帯域制
限フィルタ(間引きフィルタ)51は、再標本化で画像
信号のサンプル数を間引いたときに折返し歪みが発生し
ないように、予め縦横方向の1/4の周波数となるよう
に帯域制限を行う。再標本化回路52は、帯域制限され
た信号を所望の縮小率になるように縦と横をそれぞれ1
/4に間引いて出力する。帯域制限フィルタ51と再標
本化回路52とで構成される画面縮小回路55は、所望
のサイズに間引いた画像信号を生成する。合成フレーム
メモリ53は、この間引かれた画像信号を、書込みアド
レスを制御して、各テレビ会議端末6の画面が合成画面
の所望の位置に配置されるように書込む。従って、合成
画面は、1フレーム毎に合成画面の中の各テレビ会議端
末6の画面が順に更新される。n=16の場合、1秒経
つと全てのテレビ会議端末6からの画面が更新される。
この合成された画面は、1秒間に30フレームの割合で
合成フレームメモリ53から読出される。
Next, FIG. 4 shows a specific block diagram of the image synthesizing section 33 in FIG. The image synthesizing unit 33 includes a band limiting filter 51, a resampling circuit (resampler) 5
2 and a composite frame memory 53. The band limiting filter (decimating filter) 51 performs band limiting in advance so as to have a frequency of 1/4 in the vertical and horizontal directions so that aliasing distortion does not occur when the number of samples of the image signal is reduced by resampling. The re-sampling circuit 52 vertically and horizontally converts the band-limited signal to a desired reduction ratio by one each.
The output is thinned out to / 4. A screen reduction circuit 55 composed of a band limiting filter 51 and a resampling circuit 52 generates an image signal thinned to a desired size. The composite frame memory 53 writes the thinned image signal so that the screen of each video conference terminal 6 is arranged at a desired position on the composite screen by controlling the write address. Therefore, the screen of each video conference terminal 6 in the composite screen is sequentially updated for each frame in the composite screen. When n = 16, the screens from all the video conference terminals 6 are updated after one second.
The combined screen is read from the combined frame memory 53 at a rate of 30 frames per second.

【0036】画像合成部33から読出された合成画面の
信号は、符号化部5へ供給され、H.261の符号化方式
で符号化された符号化データは、データ交換部1へ供給
される。データ交換部1は、各テレビ会議端末6から送
られて来る制御信号に基づいて、各テレビ会議端末6が
所望する画像に対応した符号化データを選択してネット
ワーク7へ送出する。
The signal of the composite screen read from the image compositing unit 33 is supplied to the encoding unit 5, and the encoded data encoded by the H.261 encoding method is supplied to the data exchange unit 1. . The data exchange unit 1 selects encoded data corresponding to an image desired by each video conference terminal 6 based on a control signal sent from each video conference terminal 6 and sends the encoded data to the network 7.

【0037】次に、図5にフレーム内符号化データの多
重化の様子を示す。各データ分離部2に供給される符号
化データ信号のうち、初めの4つのデータ分離部2に供
給される信号が図5中の信号a〜dで示される。「I」
は、フレーム内符号化のデータ、「P」は、フレーム間
符号化データを示す。「O」はデータがない場合を示
す。各データ分離部2でフレーム内符号化データが分離
され、各バッファメモリ3はフレーム内符号化データ
「I」を蓄積する。多重化信号yは、信号a、b、c及びdの
順に、フレーム内符号化のデータ「I」を順次選択し
て、多重化を行った多重化信号を得る。図5中、m+2
番目のフレーム周期のタイミングでは、次のフレーム内
符号化のデータがバッファメモリ3に蓄積されていない
ので、データなしを示す信号として、例えば「O」の信
号が多重化される。信号bのフレーム内符号化データIb
*は、次の周期まで待って多重化される。多重化信号y
は、フレーム内復号化部32に供給されてフレーム内復
号化が行われる。
Next, FIG. 5 shows how the coded data in the frame is multiplexed. Of the encoded data signals supplied to each data separation unit 2, the signals supplied to the first four data separation units 2 are indicated by signals a to d in FIG. "I"
Indicates intra-frame encoded data, and “P” indicates inter-frame encoded data. “O” indicates that there is no data. The intra-frame coded data is separated by each data separation unit 2, and each buffer memory 3 stores the intra-frame coded data "I". The multiplexed signal y obtains a multiplexed multiplexed signal by sequentially selecting intra-frame encoded data “I” in the order of the signals a, b, c, and d. In FIG. 5, m + 2
At the timing of the second frame cycle, since the data of the next intra-frame encoding is not stored in the buffer memory 3, for example, a signal of "O" is multiplexed as a signal indicating no data. Intraframe encoded data Ib of signal b
* Is multiplexed after waiting for the next cycle. Multiplexed signal y
Are supplied to the intra-frame decoding unit 32 to perform intra-frame decoding.

【0038】実際の符号化データは、各テレビ会議端末
6の違いや、時間的変動で、フレーム毎にデータ量が変
動する。また、フレーム間予測符号化「P」の場合よ
り、フレーム内符号化「I」の場合の方が情報量が多く
なるのが普通である。従って、図5で示す模式的な表示
では、簡単の為に全て同じ長さのデータブロックとして
いるが、実際には個々に異なる。
The amount of actual coded data varies from frame to frame due to differences between the TV conference terminals 6 and temporal variations. In addition, the amount of information is generally larger in the case of intra-frame encoding "I" than in the case of inter-frame prediction encoding "P". Therefore, in the schematic display shown in FIG. 5, all the data blocks have the same length for simplicity, but actually differ from each other.

【0039】次に、図2のブロック図を参照して、本発
明の画面合成装置の第2実施形態例を説明する。尚、図
1の画面合成装置の構成要素と同じ構成要素には同様の
参照符号を使用する。このMCU34は、データ交換部
1、複数のデータ分離部2a〜2d、フレーム内復号化部
32、画像合成部33及び符号化部5を含む点で、図1
のMCU8と同じである。但し、複数のデータ分離部2の
出力を、一括して単一のバッファメモリ31に供給する
ことを特徴とする。バッファメモリ31は、複数のチャ
ンネルのデータを並列処理する。1.5Mb/s程度のデ
ータレートであれば高速メモリ1個で16チャンネル分
のバッファメモリを時分割で並列処理可能である。
Next, a second embodiment of the screen synthesizing apparatus of the present invention will be described with reference to the block diagram of FIG. Note that the same reference numerals are used for the same components as those of the screen composition device of FIG. This MCU 34 includes a data exchange unit 1, a plurality of data separation units 2a to 2d, an intra-frame decoding unit 32, an image synthesizing unit 33, and an encoding unit 5 as shown in FIG.
MCU8. However, it is characterized in that the outputs of the plurality of data separation units 2 are collectively supplied to a single buffer memory 31. The buffer memory 31 processes data of a plurality of channels in parallel. If the data rate is about 1.5 Mb / s, the buffer memory for 16 channels can be processed in parallel by time division with one high-speed memory.

【0040】次に、フレーム内符号化圧縮データ信号の
多重化方法として、上述の如く各テレビ会議端末6毎に
順番に多重化してフレーム内復号化部32で復号する方
法では、取込みタイミングのずれで復号化が最大約1秒
遅れることになる。これを改善する為の第3実施形態例
のブロック図を図6に示す。このMCU85は、データ交
換部1、複数のデータ分離部2を有するデータ分離部8
01、複数のバッファメモリ81を有するバッファメモ
リ802、制御部82、フレーム内復号化部83、画像
合成部84及び符号化部5より構成される。
Next, as a method of multiplexing the intra-frame coded compressed data signal, as described above, in the method of sequentially multiplexing for each of the video conference terminals 6 and decoding by the intra-frame decoding unit 32, the shift of the acquisition timing Will delay decoding by up to about 1 second. FIG. 6 shows a block diagram of a third embodiment for improving this. The MCU 85 includes a data exchange unit 1 and a data separation unit 8 having a plurality of data separation units 2.
01, a buffer memory 802 having a plurality of buffer memories 81, a control unit 82, an intra-frame decoding unit 83, an image synthesizing unit 84, and an encoding unit 5.

【0041】データ交換部1、データ分離部2及び符号
化部5は、図1の対応要素と同様に動作する。バッファ
メモリ81は、データ分離部2から分離されたフレーム
内符号化データが1フレーム分蓄積されると、制御部8
2にバッファメモリ81を区別する為の番号と蓄積され
たことを示す状態信号を供給する。
The data exchange section 1, data separation section 2 and encoding section 5 operate in the same manner as the corresponding elements in FIG. When one frame of the intra-frame coded data separated from the data separation unit 2 is accumulated, the buffer memory 81 controls the control unit 8.
2 is supplied with a number for distinguishing the buffer memory 81 and a status signal indicating that the buffer memory 81 has been stored.

【0042】制御部82は、各バッファメモリ81から
供給される状態信号から、1フレームデータが蓄積され
た順番に優先順位を付けて、1フレーム毎に時分割多重
でバッファメモリ81から順番に読出してフレーム内復
号化部83へ供給するよう制御する。どのバッファメモ
リ81も1フレーム分のフレーム内符号化データを蓄積
していない場合は、データなしとして「0」のデータが
出力される。バッファメモリ81に1フレーム分のデー
タが蓄積されると直ちに復号化が行われるので、画像信
号が再生されるまでの遅延時間を少なくすることが可能
である。
The control unit 82 assigns priorities to the order in which one frame data is accumulated from the status signals supplied from the respective buffer memories 81, and sequentially reads out from the buffer memory 81 by time division multiplexing for each frame. To be supplied to the intra-frame decoding unit 83. If none of the buffer memories 81 has accumulated the intra-frame encoded data for one frame, data "0" is output as no data. Since the decoding is performed immediately after the data of one frame is accumulated in the buffer memory 81, the delay time until the image signal is reproduced can be reduced.

【0043】フレーム内復号化部83では、多重化され
た信号を1フレーム毎に順次復号化して、復号画像信号
を画像合成部84に供給する。データがない場合には、
復号化は行わない。画像合成部84では、画像信号を帯
域制限した後、リサンプルして所望のサイズに縮小す
る。制御部82は、縮小した画面がどのバッファメモリ
81の番号の画像か(即ちどのテレビ会議端末の画像
か)判るので、番号に対応した合成画面の位置のメモリ
アドレスを指定して縮小した画像信号データを合成フレ
ームメモリに書込むようにする。
The intra-frame decoding section 83 sequentially decodes the multiplexed signal for each frame, and supplies a decoded image signal to the image synthesizing section 84. If there is no data,
No decryption is performed. In the image synthesizing unit 84, after band-limiting the image signal, the image signal is resampled and reduced to a desired size. The control unit 82 knows which buffer memory 81 number the reduced screen image is (ie, which video conference terminal image), and therefore specifies the memory address of the combined screen position corresponding to the number, and reduces the reduced image signal. Write data to the composite frame memory.

【0044】この実施形態例では、フレーム内符号化圧
縮データが1フレーム分、蓄積されたところから優先的
に復号化を行うようにした為に、バッファメモリ81で
の遅延時間を少なくでき、画像信号の伝送遅延を少なく
することが可能である。
In this embodiment, since the decoding is performed preferentially from the point where the intra-frame coded compressed data has been accumulated for one frame, the delay time in the buffer memory 81 can be reduced, and Signal transmission delay can be reduced.

【0045】データ速度が384kb/sの場合、16の
テレビ会議端末分のデータ速度は384×16=6.1
44Mb/sとなる。この程度の速度であれば、データ分
離部801とバッファメモリ802は十分動作するの
で、各処理部を並列で個別に設けなくとも、これらデー
タ分離部801及びバッファメモリ802をそれぞれ1
個にまとめると、時分割で並列処理することにより、装
置の規模を更に小さくすることができる。この場合、時
分割多重処理で各テレビ会議端末からのデータを分離
し、バッファメモリは読出し/書込み独立のメモリで構
成され、アドレス空間で各バッファメモリ領域を分けて
使用する。また、フレーム内符号化で送る周期は約1秒
に制限する必要はなく、自由に設定可能である。周期が
短い場合又は合成画面数が多い場合、多重化されるフレ
ーム内符号化データは1秒間のフレーム枚数が30枚を
超える場合がある。この場合、フレーム内復号化部の処
理速度が間に合えば、そのまま復号化を行う。処理速度
が間に合わない場合には、適当なフレームのデータを間
引いて復号化を行う。
When the data rate is 384 kb / s, the data rate for 16 video conference terminals is 384 × 16 = 6.1.
44 Mb / s. At such a speed, the data separation unit 801 and the buffer memory 802 operate satisfactorily. Therefore, each of the data separation unit 801 and the buffer memory 802 can be stored in one unit without providing each processing unit in parallel.
When they are put together, the size of the apparatus can be further reduced by performing parallel processing in a time-division manner. In this case, the data from each video conference terminal is separated by time division multiplexing, and the buffer memory is composed of a read / write independent memory, and each buffer memory area is divided and used in the address space. In addition, the cycle sent in intra-frame encoding does not need to be limited to about 1 second, and can be set freely. When the period is short or when the number of combined screens is large, the number of frames of multiplexed intra-frame data per second may exceed 30 frames. In this case, if the processing speed of the intra-frame decoding unit is sufficient, the decoding is performed as it is. If the processing speed is not enough, decoding is performed by thinning out data of an appropriate frame.

【0046】フレーム内復号化部83を汎用のH.261
の復号器を用いて構成する場合、入力インタフェースが
H221のフレーム構成の伝送路インタフェースで且つ
データの平滑化を行うバッファメモリが入力側にある場
合、入力データがフレーム毎に各端末のフレーム内符号
化データが多重化されていると、復号器で復号化を行っ
た後に出力される再生画像信号が、どのテレビ会議端末
の再生画像信号か判定が困難となる。そこで、再生画像
信号の中に、どのテレビ会議端末の画像信号であるかを
区別する識別信号を画像信号の中に盛込み、復号器から
出力された再生画像信号からこの識別信号を検出して、
どのテレビ会議端末の画像信号かを判定するようにする
ことが考えられる。尚、識別信号の挿入方法は、送信側
のテレビ会議端末で画像信号に挿入するか、フレーム内
符号化データを多重化する時間の間に識別画面のデータ
を挿入することが考えられる。
The intra-frame decoding unit 83 is a general-purpose H.261
If the input interface is configured using the decoder of
In the case of a transmission line interface having a frame configuration of H221 and a buffer memory for smoothing data at the input side, if the input data is multiplexed with intra-frame encoded data of each terminal for each frame, the decoder It is difficult to determine which video conference terminal is the reproduced image signal output after decoding. Therefore, in the reproduced image signal, an identification signal for identifying which video conference terminal is the image signal is included in the image signal, and the identification signal is detected from the reproduced image signal output from the decoder,
It is conceivable to determine which video conference terminal is the image signal. As a method for inserting the identification signal, it is conceivable that the video conference terminal on the transmitting side inserts the identification signal into the image signal, or inserts the data of the identification screen during the time for multiplexing the intra-frame encoded data.

【0047】斯かる機能を付加した本発明の画面合成装
置の第4実施形態例を、図7のブロック図を参照して説
明する。この実施形態例のMCU90は、データ交換部
1、複数のデータ分離部2a〜2dを含むデータ分離部8
01、複数のバッファメモリ81a〜81dを含むバッフ
ァメモリ802、制御部82、多重化部86、復号化部
88、識別信号発生部87、識別信号検出部89、画像
合成部84及び符号化部5より構成される。
A fourth embodiment of the screen synthesizing apparatus according to the present invention to which such a function is added will be described with reference to the block diagram of FIG. The MCU 90 of this embodiment includes a data exchange unit 1, a data separation unit 8 including a plurality of data separation units 2a to 2d.
01, a buffer memory 802 including a plurality of buffer memories 81a to 81d, a control unit 82, a multiplexing unit 86, a decoding unit 88, an identification signal generation unit 87, an identification signal detection unit 89, an image synthesis unit 84, and an encoding unit 5. It is composed of

【0048】データ交換部1で各テレビ会議端末からの
信号を受信し、該当するデータ分離部2へデータを供給
する。データ分離部2では、フレーム内符号化データの
みを分離し、バッファメモリ81へ供給して蓄積する。
識別信号発生部87は、制御部82からの制御信号に基
づき、指定されたバッファメモリ81の番号を識別でき
る1フレームの画像信号をフレーム内符号化した圧縮デ
ータを発生して多重化部86へ供給する。識別用の1フ
レームの画像信号は、先頭に番号識別信号を入れて、残
りは固定値としておく。
The data exchange unit 1 receives a signal from each video conference terminal and supplies data to the corresponding data separation unit 2. The data separation unit 2 separates only the intra-frame coded data, supplies it to the buffer memory 81, and stores it.
The identification signal generating section 87 generates, based on the control signal from the control section 82, compressed data in which an image signal of one frame capable of identifying the number of the designated buffer memory 81 is intra-frame coded, and outputs the compressed data to the multiplexing section 86. Supply. In the image signal of one frame for identification, a number identification signal is inserted at the head, and the rest are fixed values.

【0049】多重化部86は、バッファメモリ81に1
フレームのフレーム内符号化データが蓄積された順番に
選択して取込む。この取込み前に識別信号発生部87か
ら該当するバッファメモリ81の番号を符号化した圧縮
データを先に取込み、データがバッファメモリ81の識
別番号データ、該当番号の画像信号のデータの順に交互
に多重化するようにする。また、多重化したデータが後
段の復号化部88でそのまま復号化できるように、所望
の符号化データのフレームに再構築する。復号化部88
は、汎用のH.261の復号化LSI(又はCPU)で構成さ
れ、符号化データを復号化して画像信号を再生して出力
する。
The multiplexing section 86 stores 1 in the buffer memory 81.
The frames are selected and taken in the order in which the intra-frame coded data are accumulated. Before this fetching, compressed data obtained by encoding the number of the corresponding buffer memory 81 is first fetched from the identification signal generating section 87, and the data are alternately multiplexed in the order of the identification number data of the buffer memory 81 and the data of the image signal of the corresponding number To be Also, the multiplexed data is reconstructed into a frame of desired coded data so that the multiplexed data can be directly decoded by the decoding unit 88 at the subsequent stage. Decoding section 88
Is composed of a general-purpose H.261 decoding LSI (or CPU), and decodes encoded data to reproduce and output an image signal.

【0050】識別信号検出部89は、再生画像信号から
識別番号を検出して画像合成部84へ供給する。画像合
成部84は、再生画像信号に対して識別信号が検出され
る毎に次の1フレームの画像を帯域制限して、所望のサ
イズに縮小した後、識別信号検出部89から供給された
識別番号の合成画面の位置に該当するメモリアドレスを
指定して書込む。
The identification signal detecting section 89 detects an identification number from the reproduced image signal and supplies it to the image synthesizing section 84. The image synthesizing unit 84 limits the band of the image of the next one frame every time the identification signal is detected from the reproduced image signal, reduces the image to a desired size, and then outputs the identification signal supplied from the identification signal detection unit 89. Specify the memory address corresponding to the position on the composite screen of the number and write.

【0051】符号化部5は、画像合成部84から供給さ
れる合成画面を符号化してデータ交換部1へ供給する。
合成画面を得る為に、既存の復号器を1つ用いて、多地
点の画面を復号化して合成した画像を構成することがで
き、装置規模を小さくする。データ分離器2は、処理を
時分割多重処理で行い、1つのデータ分離器801で構
成することが可能であること上述のとおりである。ま
た、バッファメモリ81は、メモリを複数領域に分割し
て使用することで1つのバッファメモリ802とするこ
とが可能である。
The encoding section 5 encodes the composite screen supplied from the image compositing section 84 and supplies it to the data exchange section 1.
In order to obtain a composite screen, an existing decoder can be used to decode a multi-point screen to form a composite image, thereby reducing the device scale. As described above, the data separator 2 can perform processing by time-division multiplexing and can be configured by one data separator 801. Further, the buffer memory 81 can be made into one buffer memory 802 by dividing the memory into a plurality of areas and using them.

【0052】以上、本発明による画面合成装置の好適実
施形態例の構成及び動作を説明した。しかし、本発明は
斯かる特定例のみに限定されるべきではなく、用途に応
じて種々の変形変更が可能であることは容易に理解でき
よう。
The configuration and operation of the preferred embodiment of the screen synthesizing apparatus according to the present invention have been described above. However, the present invention should not be limited to only such specific examples, and it can be easily understood that various modifications can be made depending on the application.

【0053】[0053]

【発明の効果】上述の説明から理解される如く、本発明
の画面合成装置によると、フレーム内符号データのみを
分離してバッファメモリで平滑化して、フレーム内符号
化圧縮データを多重化して復号化することにより、フレ
ーム内符号化データを取りこぼすことなく1つの復号化
部で復号でき、装置規模が小さく且つ準動画の合成画面
信号を各端末に送信することが可能である。また、フレ
ーム内符号化圧縮データのバッファメモリへの蓄積状況
を見て、蓄積されたフレームを優先的に復号処理するこ
とにより、フレーム内の画面を取りこぼすことなく復号
可能であるという実用上の顕著な効果を有する。
As will be understood from the above description, according to the picture synthesizing apparatus of the present invention, only intra-frame coded data is separated and smoothed by the buffer memory, and intra-frame coded compressed data is multiplexed and decoded. Thus, the decoding can be performed by one decoding unit without dropping the intra-frame encoded data, and the apparatus scale is small, and a synthesized screen signal of the quasi-moving image can be transmitted to each terminal. Also, by observing the accumulation state of the intra-frame compressed data in the buffer memory and performing preferential decoding processing on the accumulated frames, it is possible to perform decoding without dropping the screen in the frame. Has a remarkable effect.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による画面合成装置の第1実施形態例の
ブロック図である。
FIG. 1 is a block diagram of a first embodiment of a screen synthesizing apparatus according to the present invention.

【図2】本発明による画面合成装置の第2実施形態例の
ブロック図である。
FIG. 2 is a block diagram of a screen synthesizing apparatus according to a second embodiment of the present invention;

【図3】図1及び図2中のフレーム内復号化部の具体的
構成図である。
FIG. 3 is a specific configuration diagram of an intra-frame decoding unit in FIGS. 1 and 2;

【図4】図1及び図2中の画面合成部の具体的構成図で
ある。
FIG. 4 is a specific configuration diagram of a screen composition unit in FIGS. 1 and 2;

【図5】本発明における多重化の模式的例を示す図であ
る。
FIG. 5 is a diagram showing a schematic example of multiplexing in the present invention.

【図6】本発明による画面合成装置の第3実施形態例の
ブロック図である。
FIG. 6 is a block diagram of a third embodiment of the screen synthesizing apparatus according to the present invention.

【図7】本発明による画面合成装置の第4実施形態例の
ブロック図である。
FIG. 7 is a block diagram of a fourth embodiment of a screen synthesizing apparatus according to the present invention.

【図8】従来の画面合成装置の一例のブロック図であ
る。
FIG. 8 is a block diagram of an example of a conventional screen synthesizing apparatus.

【図9】従来の画面合成装置の他の例のブロック図であ
る。
FIG. 9 is a block diagram of another example of the conventional screen synthesizing apparatus.

【図10】従来の画面合成装置の更に他の例のブロック
図である。
FIG. 10 is a block diagram of still another example of the conventional screen synthesizing apparatus.

【符号の説明】 1 データ交換部 2 データ分離部 3、31、81 バッファメモリ 5 符号化部 6 テレビ会議端末 7 ネットワーク 8、34、85、90 多地点制御装置(MCU) 32、83 フレーム内復号化部 33、84 画像合成部 51 帯域制限フィルタ 52 再標本化回路 82 制御部 86 多重化部 87 識別信号発生部 89 識別信号検出部[Description of Signs] 1 Data exchange unit 2 Data separation unit 3, 31, 81 Buffer memory 5 Encoding unit 6 Video conference terminal 7 Network 8, 34, 85, 90 Multipoint control unit (MCU) 32, 83 In-frame decoding Multiplexing sections 33 and 84 image synthesis section 51 band limiting filter 52 resampling circuit 82 control section 86 multiplexing section 87 identification signal generation section 89 identification signal detection section

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】複数のテレビ会議端末を有し、該各テレビ
会議端末でフレーム内符号化とフレーム間符号化の両モ
ードを有する符号化方式で画像信号を符号化した信号を
受信して合成画面を作成する画面合成装置において、 前記各テレビ会議端末からのフレーム内符号化データの
みを分離するデータ分離部と、該分離部で分離されたデ
ータを平滑化するバッファメモリと、該バッファメモリ
の出力をフレーム内復号化するフレーム内復号化部と、
該フレーム内復号化部からの合成画面を作成する画面合
成部とを備えることを特徴とする画面合成装置。
1. A video conference terminal comprising a plurality of video conference terminals, wherein each of the video conference terminals receives and synthesizes a signal obtained by encoding an image signal by an encoding method having both intra-frame coding and inter-frame coding modes. In a screen synthesizing device for creating a screen, a data separation unit that separates only intra-frame encoded data from each of the video conference terminals, a buffer memory that smoothes data separated by the separation unit, An intra-frame decoding unit for intra-frame decoding the output;
A screen combining unit for creating a combined screen from the intra-frame decoding unit.
【請求項2】前記テレビ会議端末で所望周期毎にフレー
ム内符号化を行う制御部を備えることを特徴とする請求
項1に記載の画面合成装置。
2. The screen synthesizing apparatus according to claim 1, further comprising a control unit for performing intra-frame encoding at a desired cycle in said video conference terminal.
【請求項3】前記テレビ会議端末からのフレーム内符号
化データを時分割多重化して単一フレーム内復号化部で
フレーム内復号化を行う復号化部と、多重化された再生
画像信号を帯域制限及び再標本化する単一画面縮小手段
とを備えることを特徴とする請求項1に記載の画面合成
装置。
3. A decoding section for performing time-division multiplexing of intra-frame coded data from the video conference terminal and performing intra-frame decoding by a single intra-frame decoding section, and providing a multiplexed reproduced image signal with a band. 2. The screen synthesizing apparatus according to claim 1, further comprising: a single screen reduction unit for limiting and resampling.
【請求項4】前記各テレビ会議端末からの符号化データ
からフレーム内符号化データを時分割多重化処理で分離
する単一データ分離回路から成るデータ分離部と、前記
バッファメモリをアドレス空間区分して1つのメモリで
構成するバッファメモリとを有することを特徴とする請
求項1に記載の画面合成装置。
4. A data separation unit comprising a single data separation circuit for separating intra-frame coded data from coded data from each of the video conference terminals by time division multiplexing processing, and the buffer memory is divided into address spaces. 2. The screen synthesizing apparatus according to claim 1, further comprising: a buffer memory configured by one memory.
【請求項5】前記バッファメモリに1フレームのフレー
ム内符号化データを蓄積される順番に優先順位をつけて
復号化を行う制御部を有することを特徴とする請求項1
に記載の画面合成装置。
5. A control unit for performing decoding by assigning priorities to the order in which one frame of intra-frame encoded data is stored in the buffer memory.
Screen synthesizing apparatus according to 1.
【請求項6】前記フレーム内符号化データに識別信号符
号化データを多重化する識別信号発生部と、多重化信号
を復号化して得られる復号画像信号から前記識別信号を
検出して各フレームの再生画像を該当する画面の合成位
置に書込む画面合成部を有することを特徴とする請求項
5に記載の画面合成装置。
6. An identification signal generator for multiplexing identification signal encoded data with the intra-frame encoded data, detecting the identification signal from a decoded image signal obtained by decoding the multiplexed signal, and 6. The screen synthesizing apparatus according to claim 5, further comprising a screen synthesizing unit that writes a reproduced image at a synthesizing position of the corresponding screen.
【請求項7】送信側の画像信号の一部に識別信号を加算
してフレーム内符号化する手段を有するテレビ会議端末
と、受信側においてフレーム内符号化データを復号した
復号画像信号から前記識別信号を検出し、各フレームの
再生画像を該当する画面の合成位置に書込む画面合成手
段とを有することを特徴とする請求項5に記載の画面合
成装置。
7. A video conference terminal having means for adding an identification signal to a part of an image signal on a transmission side and performing intra-frame encoding, and a method for performing the identification based on a decoded image signal obtained by decoding intra-frame encoded data on a receiving side. 6. The screen synthesizing device according to claim 5, further comprising: a screen synthesizing unit that detects a signal and writes a reproduced image of each frame at a synthesizing position of the corresponding screen.
JP21849299A 1999-08-02 1999-08-02 Image compositing device Pending JP2001045495A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21849299A JP2001045495A (en) 1999-08-02 1999-08-02 Image compositing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21849299A JP2001045495A (en) 1999-08-02 1999-08-02 Image compositing device

Publications (1)

Publication Number Publication Date
JP2001045495A true JP2001045495A (en) 2001-02-16

Family

ID=16720789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21849299A Pending JP2001045495A (en) 1999-08-02 1999-08-02 Image compositing device

Country Status (1)

Country Link
JP (1) JP2001045495A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005094077A1 (en) * 2004-03-25 2005-10-06 Nec Corporation Multi-point conference system and multi-point conference device
WO2007007496A1 (en) * 2005-07-12 2007-01-18 Nec Corporation Multi-point conference system, multi-point conference method, and program
CN113630575A (en) * 2020-05-06 2021-11-09 上海游密信息科技有限公司 Method, system and storage medium for displaying multi-person online video conference image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09149332A (en) * 1995-11-27 1997-06-06 Sanyo Electric Co Ltd Device for generating multi-screen
JPH11164275A (en) * 1997-11-28 1999-06-18 Nec Corp Video conference controller, video conference control method and video conference control system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09149332A (en) * 1995-11-27 1997-06-06 Sanyo Electric Co Ltd Device for generating multi-screen
JPH11164275A (en) * 1997-11-28 1999-06-18 Nec Corp Video conference controller, video conference control method and video conference control system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005094077A1 (en) * 2004-03-25 2005-10-06 Nec Corporation Multi-point conference system and multi-point conference device
US7667729B2 (en) 2004-03-25 2010-02-23 Nec Corporation Multi-point conference system and multi-point conference device
WO2007007496A1 (en) * 2005-07-12 2007-01-18 Nec Corporation Multi-point conference system, multi-point conference method, and program
EP1909497A1 (en) * 2005-07-12 2008-04-09 NEC Corporation Multi-point conference system, multi-point conference method, and program
JPWO2007007496A1 (en) * 2005-07-12 2009-01-29 日本電気株式会社 Multipoint conference system, multipoint conference method and program
JP4952581B2 (en) * 2005-07-12 2012-06-13 日本電気株式会社 Multipoint conference system, multipoint conference method and program
US8253775B2 (en) 2005-07-12 2012-08-28 Nec Corporation Multipoint conference system, multipoint conference method, and program
EP1909497A4 (en) * 2005-07-12 2013-10-30 Nec Corp Multi-point conference system, multi-point conference method, and program
CN113630575A (en) * 2020-05-06 2021-11-09 上海游密信息科技有限公司 Method, system and storage medium for displaying multi-person online video conference image
CN113630575B (en) * 2020-05-06 2024-03-22 上海游密信息科技有限公司 Method, system and storage medium for displaying images of multi-person online video conference

Similar Documents

Publication Publication Date Title
US5995150A (en) Dual compressed video bitstream camera for universal serial bus connection
US6195116B1 (en) Multi-point video conferencing system and method for implementing the same
US7006575B2 (en) Picture and sound decoding apparatus picture and sound encoding apparatus and information transmission system
US5796957A (en) Network system and terminal apparatus
JP2004201339A (en) Receiver and its receiving method for analog and digital video modes
JP2001251595A (en) Video communication system, decoder circuit, video display system, encoder circuit and video data receiving method
JPH10257502A (en) Hierarchical image encoding method, hierarchical image multiplexing method, hierarchical image decoding method and device therefor
WO2022021519A1 (en) Video decoding method, system and device and computer-readable storage medium
JP2003158731A (en) Image delivery system, camera terminal, and receiving terminal
JPH0937243A (en) Moving image coder and decoder
JP2001054140A (en) Stereo video band compression coding method, decoding method and recording medium
JPH11122610A (en) Image coding method, image decoding method and system for them
US5760847A (en) Processing moving image data based on an arbitrarily designated frame
JP3632028B2 (en) Multi-channel video compression method and apparatus
JP2001045495A (en) Image compositing device
JP3586484B2 (en) Screen synthesis system and method for multipoint conference
JPH1169330A (en) Image communication equipment provided with automatic answering function
KR20100054586A (en) System and method for multiplexing stereoscopic high-definition video through gpu acceleration and transporting the video with light-weight compression and storage media having program source thereof
JPH08256315A (en) Multi-point simultaneous monitor control method
JPS62200883A (en) Graphic display device for electronic conference system
JP3191856B2 (en) Information storage output device
JPH10262228A (en) Communication system, multi-point controller and video information display method
JPH066781A (en) Multipoint moving image encoding and decoding device
KR980013375A (en) A receiver having analog and digital video modes and a receiver having analog and digital video modes and receiving method thereof,
JP4406623B2 (en) Video receiver

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060825