JP3586484B2 - Screen synthesis system and method for multipoint conference - Google Patents

Screen synthesis system and method for multipoint conference Download PDF

Info

Publication number
JP3586484B2
JP3586484B2 JP30497594A JP30497594A JP3586484B2 JP 3586484 B2 JP3586484 B2 JP 3586484B2 JP 30497594 A JP30497594 A JP 30497594A JP 30497594 A JP30497594 A JP 30497594A JP 3586484 B2 JP3586484 B2 JP 3586484B2
Authority
JP
Japan
Prior art keywords
screen
data
gob
signal
encoded data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP30497594A
Other languages
Japanese (ja)
Other versions
JPH07222131A (en
Inventor
典生 鈴木
Original Assignee
日本電気エンジニアリング株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気エンジニアリング株式会社 filed Critical 日本電気エンジニアリング株式会社
Priority to JP30497594A priority Critical patent/JP3586484B2/en
Publication of JPH07222131A publication Critical patent/JPH07222131A/en
Application granted granted Critical
Publication of JP3586484B2 publication Critical patent/JP3586484B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、複数のテレビ会議端末の各テレビ画面をデータ圧縮した符号化データで画面合成して、合成した符号化データを端末へ送出する多地点会議用画面合成システムおよび方法に関し、特に、符号化データの蓄積回路を簡素化し、復号器で画像を再生するまでの遅延時間を短縮した多地点会議用画面合成システムおよび方法に関する。
【0002】
【従来の技術】
従来、この種の多地点会議用画面合成システムでは、多地点制御装置(MCU)26が、図7に示されるように、例えば、4つの地点の各テレビ会議端末A〜Dから符号化された画面データを受け、合成多重化して各テレビ会議端末A〜Dへ送出する場合、端末A〜Dからの画面データが1画面分揃った時、符号化データの最小単位として規定されるGOB(Group Of Blocks)の単位で読み出して、1画面分の画像データを作成している。
【0003】
各テレビ会議端末A〜Dは符号器21a〜21dを有し、これら符号器21a〜21dが、テレビジョンの連続した画像信号、即ち、カメラ信号A〜Dを受け、受けた画像信号をITU−Tで標準化されたH.261方式に準拠した符号化手順により符号化し、音声、制御信号等と多重化して出力する。
【0004】
ここで、画面データの構造について説明する。画面データのフォーマットとして採用されるCIF(共通中間フォーマット)方式は、NTSC方式とPAL方式とに共通なフォーマットとして定められており、1画面(ピクチャ)を1フレームとして、GOB、マクロブロック、ブロックの順に階層構造を採用している。1フレームはGOBを6×2(縦×横)個集めたものであり、GOBは3×11のマクロブロックのデータから構成され、マクロブロックは2×2個のブロックで構成され、また、ブロックは8×8の画素から構成されている。
【0005】
フレーム、及びGOBは、ユニーク語からなる識別符号、モード符号等、必要な情報を付加され、符号化データとして形成される。マクロブロック、及びブロックは、アドレスを付加され、必要なビットデータだけで構成される。このように、GOBは、ユニーク語の識別符号を有するため、復号化する際、符号化された画像データのブロックの区切りを識別出来る最小の単位を構成している。また、縦と横とを各々1/2に解像度を落としたものがQCIF(4分共通中間フォーマット)方式として定められ、このQCIF方式では、1画面は3つのGOBによって構成されている。
【0006】
ここで、図示された各端末A〜Dの符号器21a〜21dは、QCIF方式により、1画面について3つのGOBを多地点制御装置(MCU)26に送出しているものとする。即ち、図8に示されるように、符号器21aからはGOBa1〜a3が送出され、他の各符号器21b〜21dからはGOBb1、b2、b3,〜d1、d2、d3、がそれぞれ送出されている。
【0007】
図7の多地点制御装置(MCU)26は、バッファメモリ22a〜22d、画面蓄積回路23、制御回路24、及び、合成多重化回路25を有している。バッファメモリ22a〜22dは、各符号器21a〜21dから出力された画像信号の符号化データを、1画面について3つずつのGOBa1〜a3、GOBb1〜b3、GOBc1〜c3、GOBd1〜d3を受け、一時記憶し蓄えておく。
【0008】
画面蓄積回路23は、各々のバッファメモリ22a〜22dに、1画面分,各々3つ、4端末に対する合計12のGOBの画面データが蓄えられたことを検出して制御回路24に通知する。この通知を受けた制御回路24からの制御信号に基き、、合成多重化回路25は、バッファメモリ22a〜22dから符号化データを最小単位のGOBで各3つずつ読み出し、図8に示されるように、QCIF方式の4画面のデータ、即ち、12個のGOBをCIF方式の1画面のフォーマットに並び変えて画面データを形成し出力する。この場合、各端末A〜Dから送られてくる符号化データは、合成多重化回路25から出力されるビットレートの1/4のビットレートである。
【0009】
【発明が解決しようとする課題】
上述したように、従来の多地点会議用画面合成システムでは、多地点制御装置(MCU)は、各端末A〜Dから受けるQCIF方式による4画面の全てを、バッファメモリに蓄積された後、CIF方式による1画面に合成多重化して出力している。この構成では、各端末A〜Dから送られてくる画面データは、同期がとれていないので、各々のバッファメモリに一時蓄積され、全バッファメモリに蓄積され、1フレーム分の画面データが揃った後、合成画面を形成する順序で逐次読み出すことが必要である。
【0010】
このため、送出が最も遅れた端末からの一画面データがバッファメモリに蓄えられるまでの間に、他の端末からの画面データがバッファメモリからオーバフローしないように、バッファメモリの記憶容量を十分大きくとっておく必要があり、バッファメモリの記憶容量が大きくなるという問題点がある。
【0011】
また、バッファメモリの記憶容量が大きく、バッファメモリにおける符号化データの出し入れに時間が多くかかるような場合等では、画面が送信端末で送出されてから受信側で4画面合成された復号信号を再生するまでの遅延時間が大きくなる。このような場合、画面を見ながら行う会議形態の画像伝送では、画面の遅延が大きくなる結果、相互の応答に遅れが目立つようになり、違和感が感じられて会議の円滑化を阻害するという問題点がある。
【0012】
本発明の課題は、各端末から画面データを受けて一時蓄積するバッファメモリの記憶容量の大きさを限定し、且つ、画面データの画面合成、及び送出による遅延時間を短縮出来る多地点会議用画面合成システムを提供することである。
【0013】
【課題を解決するための手段】
本発明による多地点会議用画面合成システムは、複数のテレビ会議端末から受ける各テレビ画面をデータ圧縮した符号化データで画面合成し、合成した符号化データを各端末が受けて画面表示する多地点会議用画面合成システムにおいて、
前記各端末でGOB(Group Of Blocks,画像信号の符号化データの最小単位)毎に発生する画像信号を受信し、受信する画像信号を前記GOB毎に蓄積するバッファメモリ手段と、
少なくとも1つの端末について、その端末のテレビ画面を構成するGOBが1画面分の画面データとして前記バッファメモリの所定箇所に揃っていることを判定し出力するGOB検出手段と、
この判定出力により画面合成を行うのに必要な順番に前記バッファメモリ手段から前記GOBを読み出し、読み出すべきGOBの符号化データが蓄積されていなければ蓄積されていないGOBの部分に符号化データ無しであることを示す符号化データGOB0を挿入して、合成画面の符号化データを合成多重化する合成多重化手段と、前記符号化データGOB0を挿入しても合成画面の符号化データのビットレートが伝送路のビットレートを超えないように各端末の符号器の出力ビットレートの合計を伝送路ビットレートより小さくしておくビットレート調整手段とを有する多地点制御装置を備え、かつ、前記各端末では、前記符号化データGOB0が含まれた符号化データを受信した際に受信した符号化データGOB0による増加分を補償した処理時間で復号化を行う復号化手段とを備えている。
【0014】
このように、多地点制御装置は画面の符号化データにおける未受信のGOB部分に符号化データGOB0を挿入するが、挿入した際でも伝送路のビットレートを超えないようにしているため、他方のこれを受信する各端末の復号化手段が受けた符号化データGOB0分を削除する処理時間を短縮またはスキップすることにより、各端末から画面データを受けて一時蓄積するバッファメモリの記憶容量の大きさが限定され、且つ、画面データの画面合成、及び送出による遅延時間が短縮される。
【0015】
すなわち、前記復号化手段、符号化データを受け、受けた符号化データから画像信号になる画面データを分離して出力する分離回路と、受けた画面データから変換係数の量子化データを分離して送出すると共に、GOB番号、動きベクトル等の信号を送出する可変長復号器と、当該可変長復号器から受けた前記GOB番号、動きベクトル等の信号を送出して、復号処理の制御を行う制御器と、前記可変長復号器から受けた量子化データを、逆量子化して元の量子化レベルの信号に伸長して送出する逆量子化器と、当該逆量子化器から受けた信号を逆離散コサイン変換して量子化された予測誤差信号を得て送出するIDCT(逆離散コサイン変換)器と、当該IDCT器からの予測誤差信号と別に生成する予測信号とを加算し、復号信号を得て送出する加算器と、前記制御器から受けた動きベクトルに応じて適応的に予測信号を求め、次の予測信号を予測出力する動き適応予測器と、前記加算器から受けた復号信号をほぼ1フレーム周期の遅延回路で遅延させ、遅延された信号を前記動き適応予測器へ送出するフレームメモリと、前記加算器から受けた復号信号をディジタル/アナログ変換して出力するD/A(ディジタル/アナログ)変換器とを備えることを特徴としている。
【0016】
【実施例】
次に、本発明について図面を参照して説明する。
【0017】
図1は本発明の一実施例を示す機能ブロック図である。図1に示された多地点会議用画面合成システムでは、従来例と同様に、画像信号の合成機能を図示して説明し、他の機能については省略する。図1に示される多地点制御装置(MCU)16は端末A〜Dに対応するバッファメモリ12a〜12d、GOB検出回路13、制御回路14、及び、合成多重化回路15を有し、制御回路14内にビットレート調整部18を有している。図1のMCU16が図7のMCUと相違する点は、GOB検出回路13が画面検出回路の代わりに設けられ、また、制御回路14内にビットレート調整部18が設けられていることである。
【0018】
画像を扱うデータ端末A〜Dでは、カメラ信号A〜Dが各々の符号器11a〜11dにより、画面データ化されると共に、QCIF方式でGOB単位にデータ圧縮符号化されて、伝送路へ送出される。
【0019】
各符号器11a〜11dから送出される1フレームの画面は、従来の技術で説明したように、3つのGOBに分割して符号化される。即ち、図2に示されるように、符号器11aからはGOBa1〜a3が送出され、各符号器11b〜11dからはGOBb1、b2、b3,〜d1、d2、d3がそれぞれ送出される。送出されるGOBa1〜a3はMCU16のバッファメモリ12aに一時記憶蓄積される。同様に、GOBb1、b2、b3,〜GOBd1、d2、d3は、バッファメモリ12b〜12dそれぞれに一時記憶蓄積される。
【0020】
MCU16のGOB検出回路13は、各バッファメモリ12a〜12dに対して画面のどこの位置のGOBが送られてきたかを検出する。バッファメモリ12a〜12dの1つ以上に3つのGOBによる1画面分の画面データが蓄積されると、GOB検出回路13は、制御回路14にGOB蓄積の検出信号を送る。制御回路14は、検出結果に基いて予め定められた周期で4つの画面データを1つの合成画面データに合成するための制御信号を合成多重化回路15に出力する。合成多重化回路15は、この制御信号にしたがってバッファメモリ12a〜12dからの4つの画面を合成し、多重化する処理を行い、合成多重化した信号を出力する。
【0021】
例えば、図2に示されるように、3つのバッファメモリ12a、12c、12dに各々1画面分のデータ、即ち、各々3つのGOBa1〜a3、c1〜c3、d1〜d3が蓄積された場合、合成多重化回路15は、バッファメモリ12a、12c、12dに蓄積されたデータを、制御回路14の制御にしたがってCIF方式の1フレームの画面に対応する順番に、GOB単位で読み出す。
【0022】
この場合、合成多重化回路15は、端末Bからの欠けた画面データを、“画面データ無し”、即ち、前の画面と同じである、“前の画面と変化無し”と判定して、3つのGOBb1〜GOBb3の代わりにGOB0のデータを強制的に作成し出力する。この結果、図2に示されるように、12個のGOBによって構成されるフォーマットがCIF方式のデータ列として合成され、合成多重化回路15によって出力される。
【0023】
上記したように、1画面が蓄積されていない場所のGOB0には、差分が“0”であることを示すGOBのデータが挿入され、送り出される。このため、各符号器11a〜11d毎のデータレートを合計したものは、挿入に際して追加されるデータ分だけ、合成多重化回路15の出力のレートより小さくしておく必要がある。即ち、符号器11a〜11dを同じ伝送レートで出力する場合は、各符号器の出力はMCU16の出力の伝送レートの1/4より小さなビットレートに設定しておくことになる。これらのビットレートは、制御回路14のビットレート調整部18に予め所定値を設定されてあってもよい。
【0024】
多地点会議を制御するMCU16の制御回路14は、画面合成を行う場合にビットレート調整部18を駆動して調整情報を得、必要に応じて端末A〜Dに制御信号を送って各符号器11a〜11dの送出ビットレートを設定する。
【0025】
各端末からの送出ビットレ−トを細かく設定して画面合成できる場合、動きの少い画面の端末には少いビットレートを、また、動きの多い画面の端末には多いビットレートを配分するように制御することもできる。
【0026】
また、各GOBにはヘッダが付けられている。このため、CIF方式の1画面のデータとして画面合成した各GOBのデータにも、送出するのに合せて新しいヘッダが付け替えられる。
【0027】
符号化されたデータは、フレーム毎に階層構造状に構成されて送られる。各フレームのデータは、フレームヘッダとそれに続くGOB毎に分割されるGOBデータとから構成される。前述のように、GOBは、CIFフレームの1/12に、また、QCIFフレームの1/3に相当する。
【0028】
復号器17は、MCU16の出力フレームを受け、GOB0の箇所を差分信号ゼロとして処理する。このため、復号器17の出力であるモニタ信号では、端末Bの画面は変化はせず、他の端末A、C、Dに関する画面だけが変化することになる。復号器17へ送られてきた画面データのGOBの数は、4つの符号器11a〜11dで発生するGOBの数に比べて、GOB0を含んでいる分だけ多くなっている。このため、復号器17は符号器11a〜11dより早い処理で復号化を行う必要がある。即ち、1フレームの画面毎の復号化の処理時間を速くするか、GOB0で差分信号ゼロのブロックの処理をスキップする方策が採られ、等価的に処理スピードを速くしている。復号器17の詳細については、後の図5に一実施例を示して説明する。
【0029】
次に、図1に図3を併せ参照して、他の合成多重化出力の具体例について説明する。この例では、端末A、B、C、Dの画面それぞれのQCIFフレームで、各バッファメモリ12a〜12d毎に画面の2/3、1/3、1/3、3/3のGOBの符号化データが蓄積されており、一つの端末Dからだけ、画面全部に対する3つのGOBd1〜d3がバッファメモリ11dに蓄積されたことを、GOB検出回路13で検出された場合が示されている。
【0030】
図3に示されるように、QCIFフレームにおけるGOBd1〜d3以外のフレームに蓄積中のGOBは、GOBa1、GOBa2、GOBb1、GOBc2の4つであるとする。また、このGOBデータを用いた画面合成上のCIFフレームは、蓄積されていないGOBの場所に、GOB0を挿入される。即ち、画面合成を開始して、CIFフレームの並び順にGOBのデータを読み出す際、各バッファメモリにGOBデータが蓄積されている場合には蓄積されているGOBが読み出され、蓄積されていない場合にはそのGOBのデータとしては差分信号が無しであることを示す符号GOB0が挿入される。
【0031】
このようにして、GOBのブロック毎に符号化データのまま画面合成が行われる。また、ヘッダもCIFフレームに合せて付け替えられる。この構成では、MCU16のバッファメモリ12a〜12dに蓄積されるGOBの数、及び滞留時間は最小で済み、この結果、バッファメモリ12a〜12dの記憶容量と、伝送遅延時間との短縮が可能となる。
【0032】
この場合、復号器17ではGOB0の箇所を差分信号ゼロとして復号処理される。復号画像信号をモニタで表示する際、強制的に差分信号をゼロにしたことにより、合成画面の部分画面において、画面の途中で復号化されたものが表示される。視覚的に目障りの場合は、復号化処理用のフレームメモリとは別に、出力用のフレームメモリを設けてもよい。
【0033】
この構成では、合成画面中の4つの各々の部分画面において、第3番目のGOBが送られてきて復号化され、3つのGOBが揃った時、その部分画面は出力用のフレームメモリに一時書込みされる。復号化装置が、部分画面を出力用のフレームメモリに一時書込みしたのち、出力表示するように構成されれば、各部分画面の表示がフレーム毎に切替わるように改善される。
【0034】
合成した画面で端末A、B、C、Dの画面が各々本来のフレームレートと若干前後してもその差は誤差の範囲と見なせる。各部分画面でGOBが3つ揃ったことの判定は、GOBの画面データに付加されている1フレームの内のどのGOBであるかを示す番号を検出して、各部分画面の第3番のGOBの番号か否かをチェックすることによって実施できる。
【0035】
次に、図4を参照して図1に示される復号器17の具体例について説明する。図示されるように、復号器17は、分離回路61、可変長復号器62、制御器63、逆量子化器64、IDCT(逆離散コサイン変換)器65、加算器66、動き適応予測器67、フレームメモリ68、及び、D/A(ディジタル/アナログ)変換器69を有する。
【0036】
復号器17では、分離回路61が符号化データを受け、受けた符号化データから画像信号になる画面データを分離して可変長復号器62に出力する。可変長復号器62は受けた画面データから変換係数の量子化データを分離して逆量子化器64へ送出すると共に、GOB番号、動きベクトル、モード信号等の信号を制御器63へ送出する。制御器63は、動きベクトル信号、GOB0の有無の信号等を動き適応予測器67、及びフレームメモリ68に送出して、復号処理の制御を行う。
【0037】
逆量子化器64は、可変長復号器62から受けた量子化データを逆量子化して元の量子化レベルの信号に伸長してIDCT器65へ送出する。IDCT器64は、受けた信号を逆離散コサイン変換して量子化された予測誤差信号を得て、加算器66へ送出する。加算器66は、IDCT器64からの予測誤差信号と、動き適応予測器67からの予測信号とを加算して復号信号を得、この復号信号をフレームメモリ68とD/A変換器69とへ送出する。
【0038】
動き適応予測器67は、送信側から送られてきた動きベクトルに応じて適応的に予測信号を求め、次の予測信号を出力する。フレームメモリ68は、受けた復号信号をおおよそ1フレーム周期の遅延回路で遅延させ、遅延された信号を動き適応予測器67へ送出する。
【0039】
この構成の復号器17は、受けたGOB0のブロックのデータを復号化処理せず、次のGOBの復号化動作に進む。フレームメモリ68は、GOBのブロック単位に任意のアドレスから復号画像信号を読み出すことをできるように構成されており、GOB0のブロックを飛ばして次のGOBのブロックの先頭から復号画像信号を読み出す。尚、ブロックの周辺の復号画像信号は、動き適応予測器67で、動きベクトルに応じた予測信号を出力するために必要であり、この復号画像信号も併せて読み出される。このために、フレームメモリは、GOBの先頭にある範囲だけ別に読出しが出来るように、二重にメモリを設けて並列に読出し出来るようにするか、または、フレーム周期の2倍の速さで読出し出来るように構成する。
【0040】
また、別の復号器では、復号のフレーム周期を速くして復号処理時間を短縮し、GOB0のブロックを差分信号“0”としてそのまま復号化することにより、GOB0ブロックの対策が出来る。
【0041】
次に図5は、本発明の第2の実施例を示すブロック図である。会議端末711〜714は、画像信号と音声信号とをそれぞれ符号化して多重化した符号化データを出力する従来の機能に加えて、図1でMCUに含まれていた復号器の機能を有する。また、多地点会議制御装置(MCU)79は図1のMCUから復号器を削除する一方、会議端末711〜714からのディジタル回線を接続する回線制御回路72を追加して備えた構成を有している。
【0042】
回線制御装置72は、一方で会議端末711〜714とディジタル回線を介して接続され、他方で画像データ分離回路731〜734への送出回線と、合成多重化回路75の出力とを接続して、会議参加回線の接続制御を行う。画像データ分離回路731〜734は、会議端末711〜714から受けた符号化データから音声データと分離され各々の画面データを出力する。
【0043】
分離された画面データは、GOB単位でバッファメモリ741〜744へ供給される。バッファメモリ741〜744、合成多重化回路75、GOB検出回路76、及び、制御回路77は、図1に示された同一名称のものと同一の機能を有する。即ち、GOB検出回路76はバッファメモリ741〜744におけるGOB蓄積の検出を行う。制御回路77は、画面合成の制御信号を合成多重化回路75に出力し、合成多重化回路75は、GOBデータがバッファメモリに届いていないブロックに、“そのブロックの画面データは無し”であることを示すGOB0の信号を挿入しつつ、4つの画面の画面データから1つの合成画面となるように合成した画面データによる画像信号を得る。
【0044】
MCU79を制御する制御部78は、図示されていない従来通りの経路による音声信号等の信号を合成多重化回路75によって多重化された符号化データを送受する回線制御回路72を制御する。回線制御回路72を通して回線制御回路72に与えられた符号化データは、制御部78の制御のもとに会議端末711〜714にそれぞれ設けられた復号化装置へ送られ、この復号化装置によって復号化される。この結果、4つの画面を1つの画面に合成された信号が各会議端末711〜714それぞれにおいて画面に出力される。
【0045】
次に、図6は6つの端末の画面を合成する場合の実施例を示しており、この実施例では、以下の説明からも明らかなように、遅延時間を短縮できる。
【0046】
図6には、6つの端末から送出されるQCIFフレームによる6画面それぞれからQCIFの3つのGOB(合計18)が取出されている。この例では、各端末からのQCIFフレームに含まれる3つのGOBの中、2つのGOBには有効な画面データが配置され、残りの1つのGOBには差分符号化データ“0”であるGOB0の信号が配置されたQCIFフレームが、各端末からMCUに送出されている。
【0047】
MCUでは、3つのGOBの中から有効な2つだけが取出され、6つの端末からの合計12のGOBが、順番に並べられ、1つのCIFフレームに形成されて送出される。MCUは、GOB単位で検出を行い、GOB単位でGOBデータがある箇所だけにこのGOBデータを配置し、他の箇所には、差分“0”のデータ、GOB0を挿入することによって、CIFフレームの画面を合成する。この構成によって、遅延時間が短縮出来る。
【0048】
上記説明では、QCIFフレームによる4つの画面(図1〜図3)、または、6つの画面(図6)が、CIFフレームの1つの合成画面に形成されている。しかし、合成画面でなく、ある端末の1画面を他の端末へそのまま送る場合は、MCUが、各端末からの要求に応じて切替え制御し、所望の端末からの符号化データをそのまま切替え選択して、送出してもよい。この場合、端末からの画像信号は、CIFフレームのモードに切替えられた画面データにより送出される。
【0049】
また、4画面合成表示と1画面表示との2つの要求がMCUにあった場合、MCUは、全ての端末からQCIFフレームのモードで画面データを受け、1画面表示の要求の端末へもQCIFフレームの画面データを送出してもよい。この場合、MCUは、QCIFフレームによる1画面ではなく、4画面のQCIFフレームによる合成画面データを端末に送出し、且つ、1画面を要求する受信側端末が所望の1画面を選択して表示する機能を有している。
【0050】
更に、1画面表示を要求された端末がCIFフレームによるモードで出力し、MCUが画面合成する構成でもよい。この場合は、CIFフレームによるモードの画面のGOBの箇所に強制的にブラックバー等に相当する符号化データを発生挿入させるか、または、直前のQCIFのデータを保存する等の構成が採用されてもよい。この、直前のQCIFのデータを保存する構成により1画面表示の画像の解像度を上げることが出来る。
【0051】
また、この構成では、端末において、CIFフレームからQCIFフレームに変換する必要がなく、ダミーデータの多重化処理はMCUで行うことになる。ダミーデータが入る領域であることを区別出来る信号のみをMCUで多重化すれば、受信側で復号した3画面の他に所望の合成画像信号を多重化して4画面合成の画面を表示することも可能である。
【0052】
音声信号については、図示されず、また、説明されていないが、音声信号は、従来どうりの方法により音声信号処理部で処理される。画像データ分離回路が音声データの分離機能を有する場合、分離された音声データは音声信号処理部に送出される。音声信号処理部は、各地点からの音声データから得た音声信号を加算合成する。加算合成された音声信号をそのまま各端末に分配すると、各端末では、自分が送出した音声信号がエコーとして戻ってくることになるので、発生する音声が耳障りになる。これを防止するため、音声信号処理部は、対応する各端末から送出されてきた音声信号それぞれを、加算合成された音声信号から減算して合成音声信号を求め、この合成音声信号を合成音声データに変換して、それぞれに対応する端末へ送出している。
【0053】
各合成音声データは、合成画面データと多重化され、符号化データとして、各端末に送られる。したがって、合成音声データと合成画面データとの多重化機能は、合成多重化回路にその機能を含めることもできる。
【0054】
実施例では省いているが、誤り訂正符号化等を行ったデータの場合、GOBの構造が見えないので、バッファメモリが、誤り訂正復号化したデータ列に作成し、画面多重でCIFのGOBデータ列に多重化してから誤り訂正符号化を行う必要がある。音声データも多重化されている場合は、音声のデータは別に分離して必要な処理を行う。
【0055】
以上説明したように、図1の実施例のバッファメモリ12a〜12dでは、端末毎に別々のメモリ構成で示してあるが、書込み、及び、読出しのスピードを速くすれば、1つのメモリ装置で、各々の端末に対応するメモリ領域を別々に定め、多重化したメモリ構成にすることが出来る。
【0056】
また、GOB単位で検出して合成し出力するため、いずれかの部分画面が1フレーム揃えばよく、更に、GOBが1つでもあれば合成して送り出すので、1フレーム分が揃うまで全てのGOBを蓄積しておく必要が無く、GOBの単位の遅延時間となり、更に、端末の符号器の最良のフレームレートの遅延時間までに短縮できる。また、バッファメモリ容量も、遅延時間が小さくできる分、小さな容量にすることができ、ハードウェアの規模も小さくできる。
【0057】
なお、上記では、GOB単位で合成する場合についてのみ説明したが、本発明では、GOBに代るデータ単位に合成する場合にも適用できる。
【0058】
【発明の効果】
以上説明したように本発明によれば、画面合成をGOB単位で合成し、画面データがない箇所には強制的に差分“0”のデータをGOB単位で挿入している。この構成によって、従来、画面が揃うのを待ってから画面合成を行う構成に比較して、MCUでの画面合成による遅延時間を短縮でき、また、バッファメモリの記憶容量も少なくできる多地点会議用画面合成システムを得ることができる。
【図面の簡単な説明】
【図1】本発明の一実施例を示す機能ブロック図である。
【図2】図1によって合成される一実施例を示す合成画面説明図である。
【図3】図1によって合成される別の実施例を示す合成画面説明図である。
【図4】図1の復号器の一実施例を示す機能ブロック図である。
【図5】本発明の別の実施例を示す機能ブロック図である。
【図6】図2、図3とは別の実施例をしめす合成画面説明図である。
【図7】従来の一例を示す機能ブロック図である。
【図8】図7によって合成される一例を示す合成画面説明図である。
【符号の説明】
A〜D 端末
11a〜11d 符号器
12a〜12d、741〜744 バッファメモリ
13、76 GOB検出回路
14、77 制御回路
15、75 合成多重化回路
16 多地点制御装置(MCU)
17 復号器
61 分離回路
62 可変長復号器
63 制御器
64 逆量子化器
65 IDCT(逆離散コサイン変換)器
66 加算器
67 動き適応予測器
68 フレームメモリ
69 D/A変換器
72 回線制御回路
78 制御部
79 多地点会議制御装置
711〜714 会議端末
731〜734 画像データ分離回路
[0001]
[Industrial applications]
The present invention relates to a multipoint conference screen synthesis system and method for synthesizing screens of coded data obtained by compressing respective TV screens of a plurality of video conference terminals with data and transmitting the synthesized coded data to the terminal. The present invention relates to a multipoint conference screen synthesizing system and method in which a storage circuit for coded data is simplified and a delay time until an image is reproduced by a decoder is reduced.
[0002]
[Prior art]
Conventionally, in this type of multipoint conference screen synthesizing system, as shown in FIG. 7, a multipoint control unit (MCU) 26 is coded from each of the video conference terminals A to D at four points, for example. When screen data is received, combined and multiplexed and transmitted to each of the video conference terminals A to D, when the screen data from the terminals A to D is completed for one screen, the minimum unit of the encoded dataDefined asGOB (Group Of Blocks)Unit ofAnd creates image data for one screen.
[0003]
Each of the video conference terminals A to D has encoders 21a to 21d. The encoders 21a to 21d receive continuous image signals of the television, that is, camera signals A to D, and convert the received image signals into ITU-D signals. H. standardized by H. H.261, and multiplexed with audio, control signals, etc., and output.
[0004]
Here, the structure of the screen data will be described. The CIF (Common Intermediate Format) system adopted as the format of screen data is defined as a format common to the NTSC system and the PAL system, and one screen (picture) is defined as one frame and GOB, macro block, and block are used. Hierarchical structure is adopted in order. One frame is a collection of 6 × 2 (vertical × horizontal) GOBs. The GOB is composed of 3 × 11 macroblock data, and the macroblock is composed of 2 × 2 blocks. Is composed of 8 × 8 pixels.
[0005]
The frame and the GOB are formed as encoded data by adding necessary information such as an identification code and a mode code made of a unique word. The macro block and the block have addresses added thereto and are composed of only necessary bit data. Since the GOB has the unique word identification code as described above, it constitutes a minimum unit that can identify a block segment of encoded image data when decoding. In addition, one in which the resolution in both the vertical and horizontal directions is reduced to 各 々 is defined as a QCIF (4-minute common intermediate format) system. In this QCIF system, one screen is composed of three GOBs.
[0006]
Here, it is assumed that the encoders 21a to 21d of the illustrated terminals A to D transmit three GOBs for one screen to the multipoint control unit (MCU) 26 by the QCIF method. That is, as shown in FIG. 8, GOBa1 to GO3 are transmitted from the encoder 21a, and GOBb1, b2, b3, to d1, d2, and d3 are transmitted from the other encoders 21b to 21d, respectively. I have.
[0007]
The multipoint control unit (MCU) 26 in FIG. 7 includes buffer memories 22 a to 22 d, a screen storage circuit 23, a control circuit 24, and a combining and multiplexing circuit 25. The buffer memories 22a to 22d receive the coded data of the image signals output from the encoders 21a to 21d for three GOBa1 to GO3, GOBb1 to b3, GOBc1 to c3, and GOBd1 to d3 for one screen, Temporarily memorize and store.
[0008]
The screen storage circuit 23 detects that the buffer memories 22a to 22d have stored the screen data of a total of 12 GOBs for three screens and four terminals for one screen, and notifies the control circuit 24 of the detection. Based on the control signal from the control circuit 24 receiving this notification, the combining and multiplexing circuit 25 reads out the coded data from the buffer memories 22a to 22d three by the minimum unit GOB, and as shown in FIG. Next, the screen data is formed and output by rearranging the data of four screens of the QCIF system, that is, 12 GOBs into the format of one screen of the CIF system. In this case, the coded data sent from each of the terminals A to D has a bit rate of 1 / of the bit rate output from the combining and multiplexing circuit 25.
[0009]
[Problems to be solved by the invention]
As described above, in the conventional multipoint conference screen synthesizing system, the multipoint control unit (MCU) stores all four screens of the QCIF system received from the terminals A to D in the buffer memory, The data is synthesized and multiplexed on one screen according to the system and output. In this configuration, since the screen data sent from each of the terminals A to D is not synchronized, the screen data is temporarily stored in each buffer memory, stored in all the buffer memories, and the screen data for one frame is prepared. Thereafter, it is necessary to sequentially read out the images in the order of forming the composite screen.
[0010]
For this reason, the storage capacity of the buffer memory is set large enough so that screen data from other terminals does not overflow from the buffer memory until one screen data from the terminal whose transmission is delayed most is stored in the buffer memory. Therefore, there is a problem that the storage capacity of the buffer memory becomes large.
[0011]
Further, in the case where the storage capacity of the buffer memory is large and it takes a long time to take in and out the coded data in the buffer memory, etc., the decoded signal obtained by combining the four screens on the receiving side after the screen is transmitted by the transmitting terminal is reproduced. The delay time before the operation becomes longer. In such a case, in the image transmission in the form of a conference in which the user looks at the screen, the delay of the screen becomes large, and the mutual response becomes noticeable. There are points.
[0012]
An object of the present invention is to provide a screen for a multipoint conference in which the size of the storage capacity of a buffer memory for temporarily storing screen data received from each terminal can be limited, and a delay time due to screen synthesis and transmission of screen data can be reduced. It is to provide a synthesis system.
[0013]
[Means for Solving the Problems]
The screen synthesizing system for a multipoint conference according to the present invention synthesizes each TV screen received from a plurality of video conference terminals with encoded data obtained by data compression, and synthesizes the encoded data.Each terminalIs displayed on the screenScreen synthesis system for multipoint conferenceAt
SaidOn each terminalGOB(Group Of Blocks, The smallest unit of encoded data of the image signal), and receives the received image signal for each GOB.Buffer memory means for storing;
For at least one terminal, the GOB constituting the television screen of the terminal is equivalent to one screen.As screen dataOf the buffer memoryGOB detection means for judging and outputting that it is aligned with a predetermined location;
The GOB is read out from the buffer memory means in the order necessary for performing the screen composition based on the determination output,GOB to readEncoded dataAccumulatedIf notIn the part of GOB that is not storedA multiplexing means for inserting coded data GOB0 indicating that there is no coded data and for multiplexing the coded data of the combined screen, and encoding the combined screen even if the coded data GOB0 is inserted; Ensure that the data bit rate does not exceed the transmission path bit rateSum of the output bit rates of the encoders of each terminalAnd a multi-point control device having bit rate adjusting means for keeping the bit rate smaller than the transmission line bit rate, and in each of the terminals, when receiving the encoded data including the encoded data GOB0, Decoding means for decoding in a processing time in which an increase due to the encoded data GOB0 is compensated.
[0014]
As described above, the multipoint control apparatus inserts the coded data GOB0 into the unreceived GOB portion of the coded data on the screen. However, even when the coded data GOB0 is inserted, it does not exceed the bit rate of the transmission path. By reducing or skipping the processing time for deleting the encoded data GOB0 received by the decoding means of each terminal receiving this, the size of the storage capacity of the buffer memory for receiving and temporarily storing the screen data from each terminal Is limited, and the delay time due to screen composition and transmission of screen data is reduced.
[0015]
Ie, The decoding meansIsA separating circuit for receiving encoded data, separating and outputting screen data that becomes an image signal from the received encoded data, separating and transmitting quantized data of transform coefficients from the received screen data, and A variable-length decoder for transmitting a signal such as a motion vector, a controller for transmitting a signal such as the GOB number and the motion vector received from the variable-length decoder and controlling decoding processing, A dequantizer that dequantizes the quantized data received from the decoder to expand the signal to the original quantization level and sends the signal, and an inverse discrete cosine transform of the signal received from the dequantizer to perform quantization. An IDCT (Inverse Discrete Cosine Transform) unit for obtaining and transmitting a coded prediction error signal, an adder for adding a prediction signal generated separately from the prediction error signal from the IDCT unit and obtaining and transmitting a decoded signal; , The system A motion adaptive predictor that adaptively obtains a prediction signal according to the motion vector received from the adder and predicts and outputs the next prediction signal, and delays a decoded signal received from the adder by a delay circuit having a period of substantially one frame. A frame memory for sending a delayed signal to the motion adaptive predictor, and a D / A (digital / analog) converter for digital / analog converting and outputting a decoded signal received from the adder.Is characterized bying.
[0016]
【Example】
Next, the present invention will be described with reference to the drawings.
[0017]
FIG. 1 is a functional block diagram showing one embodiment of the present invention. In the screen synthesizing system for a multipoint conference shown in FIG. 1, the image signal synthesizing function is illustrated and described as in the conventional example, and other functions are omitted. A multipoint control unit (MCU) 16 shown in FIG. 1 includes buffer memories 12a to 12d corresponding to terminals A to D, a GOB detection circuit 13, a control circuit 14, and a multiplexing / multiplexing circuit 15. A bit rate adjusting unit 18 is provided therein. The MCU 16 in FIG. 1 differs from the MCU in FIG. 7 in that a GOB detection circuit 13 is provided instead of a screen detection circuit, and a bit rate adjustment unit 18 is provided in the control circuit 14.
[0018]
In the data terminals A to D which handle images, the camera signals A to D are converted into screen data by the respective encoders 11a to 11d, and are also subjected to data compression encoding in GOB units by the QCIF method and transmitted to the transmission path. You.
[0019]
A screen of one frame transmitted from each of the encoders 11a to 11d is divided into three GOBs and encoded as described in the related art. That is, as shown in FIG. 2, GOBa1 to aBa are transmitted from the encoder 11a, and GOBb1, b2, b3, to d1, d2, and d3 are transmitted from the encoders 11b to 11d, respectively. The transmitted GOBa1-a3 are temporarily stored in the buffer memory 12a of the MCU 16. Similarly, GOBb1, b2, b3 to GOBd1, d2, d3 are temporarily stored and stored in the buffer memories 12b to 12d, respectively.
[0020]
The GOB detection circuit 13 of the MCU 16 detects where on the screen the GOB has been sent to each of the buffer memories 12a to 12d. When screen data for one screen by three GOBs is accumulated in one or more of the buffer memories 12a to 12d, the GOB detection circuit 13 sends a GOB accumulation detection signal to the control circuit 14. The control circuit 14 outputs a control signal for synthesizing the four screen data to one synthesized screen data at a predetermined cycle based on the detection result to the synthesis multiplexing circuit 15. The combining and multiplexing circuit 15 combines the four screens from the buffer memories 12a to 12d according to the control signal, performs a multiplexing process, and outputs a combined and multiplexed signal.
[0021]
For example, as shown in FIG. 2, when data for one screen, that is, three GOBa1 to a3, c1 to c3, and d1 to d3, respectively, are stored in three buffer memories 12a, 12c, and 12d, respectively. The multiplexing circuit 15 reads the data stored in the buffer memories 12a, 12c, and 12d in GOB units in an order corresponding to one frame of the CIF system under the control of the control circuit 14.
[0022]
In this case, the combining and multiplexing circuit 15 determines the missing screen data from the terminal B as "no screen data", that is, "there is no change from the previous screen," which is the same as the previous screen. The data of GOB0 is forcibly created and output in place of the two GOBb1 to GOBb3. As a result, as shown in FIG. 2, a format composed of 12 GOBs is combined as a data stream of the CIF system, and output by the combining and multiplexing circuit 15.
[0023]
As described above, GOB data indicating that the difference is “0” is inserted into GOB0 at a place where one screen is not accumulated, and sent out. Therefore, the sum of the data rates of the encoders 11a to 11d needs to be lower than the output rate of the combining and multiplexing circuit 15 by the amount of data added at the time of insertion. That is, when the encoders 11a to 11d output at the same transmission rate, the output of each encoder is set to a bit rate smaller than 1/4 of the transmission rate of the output of the MCU 16. These bit rates may be set to predetermined values in the bit rate adjusting unit 18 of the control circuit 14 in advance.
[0024]
The control circuit 14 of the MCU 16, which controls the multipoint conference, drives the bit rate adjustment unit 18 to obtain adjustment information when performing screen synthesis, and sends control signals to the terminals A to D as necessary to transmit each encoder. The transmission bit rates of 11a to 11d are set.
[0025]
If the bit rate transmitted from each terminal can be set finely and screen composition can be performed, allocate a small bit rate to terminals with a screen with little motion and allocate a high bit rate to a terminal with a screen with lots of motion. Can also be controlled.
[0026]
Each GOB is provided with a header. For this reason, a new header is also added to the data of each GOB screen-synthesized as one screen data of the CIF system in accordance with the transmission.
[0027]
The encoded data is sent in a hierarchical structure for each frame. The data of each frame includes a frame header and GOB data that is divided for each GOB. As described above, the GOB is equivalent to 1/12 of the CIF frame and 1/3 of the QCIF frame.
[0028]
The decoder 17 receives the output frame of the MCU 16 and processes the location of GOB0 as the difference signal zero. Therefore, the monitor signal output from the decoder 17 does not change the screen of the terminal B, but changes only the screens related to the other terminals A, C, and D. The number of GOBs of the screen data sent to the decoder 17 is larger than the number of GOBs generated by the four encoders 11a to 11d by the amount including GOB0. For this reason, it is necessary for the decoder 17 to perform the decoding with a faster process than the encoders 11a to 11d. That is, measures are taken to shorten the processing time of decoding for each frame of one frame, or to skip the processing of the block with zero difference signal in GOB0, thereby equivalently increasing the processing speed. The details of the decoder 17 will be described with reference to FIG.
[0029]
Next, another specific example of the combined multiplexed output will be described with reference to FIGS. In this example, in the QCIF frames of the screens of the terminals A, B, C, and D, GOB encoding of 2/3, 1/3, 1/3, and 3/3 of the screen is performed for each of the buffer memories 12a to 12d. A case is shown in which the GOB detection circuit 13 detects that data has been accumulated and that only one terminal D has accumulated three GOBs d1 to d3 for the entire screen in the buffer memory 11d.
[0030]
As shown in FIG. 3, it is assumed that the GOBs accumulated in frames other than GOBd1 to GOBd3 in the QCIF frame are GOBa1, GOBa2, GOBb1, and GOBc2. In addition, GOB0 is inserted at a location of a GOB that is not stored in the CIF frame on the screen synthesis using the GOB data. That is, when screen synthesis is started and GOB data is read out in the order of arrangement of CIF frames, if GOB data is stored in each buffer memory, the stored GOB is read out and if GOB data is not stored Is inserted with a code GOB0 indicating that there is no difference signal as the GOB data.
[0031]
In this way, screen synthesis is performed for each GOB block without changing the encoded data. Also, the header is replaced according to the CIF frame. In this configuration, the number of GOBs stored in the buffer memories 12a to 12d of the MCU 16 and the residence time are minimized, and as a result, the storage capacities of the buffer memories 12a to 12d and the transmission delay time can be reduced. .
[0032]
In this case, the decoder 17 performs the decoding process by setting the location of GOB0 as the difference signal zero. When the decoded image signal is displayed on the monitor, the difference signal is forcibly set to zero, so that the decoded partial image of the combined screen is displayed in the middle of the screen. If the image is visually unsightly, a frame memory for output may be provided separately from the frame memory for decoding.
[0033]
In this configuration, in each of the four partial screens in the composite screen, the third GOB is transmitted and decoded, and when the three GOBs are completed, the partial screen is temporarily written to the frame memory for output. Is done. If the decoding device is configured to temporarily write the partial screen in the output frame memory and then output and display, the display of each partial screen is improved so as to be switched for each frame.
[0034]
Even if the screens of the terminals A, B, C, and D are slightly different from the original frame rates in the combined screens, the difference can be regarded as an error range. The determination that three GOBs are completed in each partial screen is performed by detecting the number indicating which GOB in one frame added to the screen data of the GOB, and determining the third GOB of each partial screen. This can be implemented by checking whether the number is a GOB number.
[0035]
Next, a specific example of the decoder 17 shown in FIG. 1 will be described with reference to FIG. As illustrated, the decoder 17 includes a separation circuit 61, a variable length decoder 62, a controller 63, an inverse quantizer 64, an IDCT (inverse discrete cosine transform) unit 65, an adder 66, and a motion adaptive predictor 67. , A frame memory 68, and a D / A (digital / analog) converter 69.
[0036]
In the decoder 17, the separation circuit 61 receives the encoded data, separates screen data that becomes an image signal from the received encoded data, and outputs the screen data to the variable length decoder 62. The variable length decoder 62 separates the quantized data of the transform coefficient from the received screen data and sends out the same to the inverse quantizer 64, and sends out signals such as a GOB number, a motion vector, and a mode signal to the controller 63. The controller 63 sends a motion vector signal, a signal indicating the presence or absence of GOB0, and the like to the motion adaptive predictor 67 and the frame memory 68 to control decoding processing.
[0037]
The inverse quantizer 64 inversely quantizes the quantized data received from the variable length decoder 62, decompresses the quantized data to a signal of the original quantization level, and sends the signal to the IDCT unit 65. The IDCT unit 64 obtains a quantized prediction error signal by performing an inverse discrete cosine transform on the received signal, and sends it to the adder 66. The adder 66 adds the prediction error signal from the IDCT unit 64 and the prediction signal from the motion adaptive predictor 67 to obtain a decoded signal, and sends the decoded signal to the frame memory 68 and the D / A converter 69. Send out.
[0038]
The motion adaptive predictor 67 adaptively obtains a prediction signal according to the motion vector transmitted from the transmission side, and outputs the next prediction signal. The frame memory 68 delays the received decoded signal by a delay circuit having a period of about one frame, and sends the delayed signal to the motion adaptive predictor 67.
[0039]
The decoder 17 having this configuration does not perform decoding processing on the received data of the GOB0 block, and proceeds to the decoding operation of the next GOB. The frame memory 68 is configured to be able to read the decoded image signal from an arbitrary address in GOB block units, and skips the GOB0 block and reads the decoded image signal from the beginning of the next GOB block. Note that the decoded image signal around the block is necessary for the motion adaptive predictor 67 to output a predicted signal corresponding to the motion vector, and the decoded image signal is also read out. For this purpose, the frame memory is provided with a double memory so that data can be read out separately only in a range at the head of the GOB so that data can be read out in parallel, or read out at twice the frame period. Configure as possible.
[0040]
In another decoder, the countermeasure for the GOB0 block can be taken by shortening the decoding processing time by increasing the decoding frame period and decoding the GOB0 block as the difference signal “0” as it is.
[0041]
Next, FIG. 5 is a block diagram showing a second embodiment of the present invention. The conference terminals 711 to 714 have a decoder function included in the MCU in FIG. 1 in addition to the conventional function of encoding and multiplexing the image signal and the audio signal and outputting coded data. The multipoint conference control unit (MCU) 79 has a configuration in which a decoder is deleted from the MCU of FIG. 1 and a line control circuit 72 for connecting digital lines from the conference terminals 711 to 714 is additionally provided. ing.
[0042]
The line control device 72 is connected to the conference terminals 711 to 714 via a digital line on the one hand, and connects a transmission line to the image data separation circuits 731 to 734 and the output of the combining and multiplexing circuit 75 on the other hand, Perform connection control of the conference participation line. The image data separation circuits 731 to 734 separate the encoded data received from the conference terminals 711 to 714 from audio data, and output respective screen data.
[0043]
The separated screen data is supplied to the buffer memories 741 to 744 in GOB units. The buffer memories 741 to 744, the combining and multiplexing circuit 75, the GOB detection circuit 76, and the control circuit 77 have the same functions as those having the same names shown in FIG. That is, the GOB detection circuit 76 detects GOB accumulation in the buffer memories 741 to 744. The control circuit 77 outputs a control signal for screen synthesis to the synthesis multiplexing circuit 75, and the synthesis multiplexing circuit 75 indicates "there is no screen data for that block" for a block whose GOB data has not reached the buffer memory. While inserting the GOB0 signal indicating that the image signal is obtained, an image signal based on screen data synthesized from the screen data of the four screens into one synthesized screen is obtained.
[0044]
A control unit 78 that controls the MCU 79 controls a line control circuit 72 that transmits and receives coded data obtained by multiplexing a signal such as an audio signal through a conventional path (not shown) by a combining and multiplexing circuit 75. The encoded data provided to the line control circuit 72 through the line control circuit 72 is sent to decoding devices provided in the conference terminals 711 to 714 under the control of the control unit 78, and is decoded by the decoding device. Be converted to As a result, a signal obtained by combining the four screens into one screen is output to each of the conference terminals 711 to 714.
[0045]
Next, FIG. 6 shows an embodiment in which the screens of the six terminals are combined. In this embodiment, the delay time can be reduced as will be apparent from the following description.
[0046]
In FIG. 6, three GOBs (18 in total) of QCIF are extracted from each of six screens based on QCIF frames transmitted from six terminals. In this example, of the three GOBs included in the QCIF frame from each terminal, valid screen data is arranged in two GOBs and GOB0 of differentially encoded data “0” is assigned to the remaining one GOB. The QCIF frame in which the signal is arranged is transmitted from each terminal to the MCU.
[0047]
In the MCU, only two valid GOBs are taken out of the three GOBs, and a total of 12 GOBs from the six terminals are arranged in order and transmitted in one CIF frame. The MCU performs detection in GOB units, arranges this GOB data only in a location where GOB data exists in GOB units, and inserts data “0” with a difference “0” and GOB0 in other locations to thereby obtain the CIF frame. Combine screens. With this configuration, the delay time can be reduced.
[0048]
In the above description, four screens (FIGS. 1 to 3) or six screens (FIG. 6) based on the QCIF frame are formed on one composite screen of the CIF frame. However, when one screen of a certain terminal is sent to another terminal as it is, instead of a composite screen, the MCU performs switching control according to a request from each terminal, and switches and selects encoded data from a desired terminal as it is. May be sent. In this case, the image signal from the terminal is transmitted by the screen data switched to the CIF frame mode.
[0049]
When two requests, that is, four-screen combined display and one-screen display, are received by the MCU, the MCU receives screen data from all terminals in the QCIF frame mode, and sends the QCIF frame to the terminal that has requested one-screen display. May be transmitted. In this case, the MCU sends the synthesized screen data of the QCIF frame of four screens to the terminal instead of the one screen of the QCIF frame, and the receiving terminal that requests the one screen selects and displays the desired one screen. Has a function.
[0050]
Further, a configuration may be adopted in which the terminal requested to display one screen outputs the image in the mode based on the CIF frame, and the MCU synthesizes the screen. In this case, a configuration is adopted in which coded data corresponding to a black bar or the like is forcibly generated and inserted into the GOB portion of the screen of the mode in the CIF frame mode, or the data of the immediately preceding QCIF is stored. Is also good. With this configuration for storing the data of the immediately preceding QCIF, the resolution of the image displayed on one screen can be increased.
[0051]
In this configuration, the terminal does not need to convert the CIF frame to the QCIF frame, and the multiplexing process of the dummy data is performed by the MCU. If only a signal that can be distinguished as an area where dummy data is contained is multiplexed by the MCU, a desired composite image signal can be multiplexed in addition to the three screens decoded on the receiving side to display a four-screen composite screen. It is possible.
[0052]
Although the audio signal is not shown or described, the audio signal is processed by the audio signal processing unit by a conventional method. When the image data separation circuit has a sound data separation function, the separated sound data is sent to the sound signal processing unit. The audio signal processing unit adds and synthesizes audio signals obtained from audio data from each point. If the added and synthesized audio signal is distributed to each terminal as it is, each terminal returns the transmitted audio signal as an echo, so that the generated sound is annoying. To prevent this, the audio signal processing section obtains a synthesized audio signal by subtracting each of the audio signals transmitted from the corresponding terminals from the added and synthesized audio signal, and converts the synthesized audio signal into synthesized audio data. And sends it to the corresponding terminal.
[0053]
Each synthesized voice data is multiplexed with synthesized screen data and sent to each terminal as encoded data. Therefore, the function of multiplexing the synthesized voice data and the synthesized screen data can be included in the synthesis multiplexing circuit.
[0054]
Although omitted in the embodiment, in the case of data subjected to error correction coding or the like, since the structure of the GOB is not visible, the buffer memory creates an error correction decoded data sequence, and performs GOF data of CIF by screen multiplexing. It is necessary to perform error correction coding after multiplexing into columns. If the audio data is also multiplexed, the audio data is separated and the necessary processing is performed.
[0055]
As described above, in the buffer memories 12a to 12d of the embodiment of FIG. 1, different memory configurations are shown for each terminal. However, if the writing and reading speeds are increased, one memory device can be used. A memory area corresponding to each terminal can be separately determined to have a multiplexed memory configuration.
[0056]
In addition, since detection and synthesis in GOB units are performed and output, any one of the partial screens need only be aligned with one frame. Further, if even one GOB is synthesized and transmitted, all GOBs are output until one frame is aligned. Does not need to be stored, the delay time is in the unit of GOB, and can be further reduced to the delay time of the best frame rate of the encoder of the terminal. Also, the buffer memory capacity can be reduced to the extent that the delay time can be reduced, and the hardware scale can be reduced.
[0057]
In the above description, only the case of combining in GOB units has been described, but the present invention can be applied to the case of combining in data units instead of GOB.
[0058]
【The invention's effect】
As described above, according to the present invention, screen composition is performed in units of GOB, and data having a difference “0” is forcibly inserted in units of GOB where there is no screen data. With this configuration, the delay time due to the screen synthesis by the MCU can be reduced and the storage capacity of the buffer memory can be reduced, as compared with the conventional configuration in which the screen synthesis is performed after the screens are aligned. A screen composition system can be obtained.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing one embodiment of the present invention.
FIG. 2 is an explanatory view of a combined screen showing an embodiment combined with FIG. 1;
FIG. 3 is an explanatory view of a combined screen showing another embodiment combined with FIG. 1;
FIG. 4 is a functional block diagram showing one embodiment of the decoder of FIG. 1;
FIG. 5 is a functional block diagram showing another embodiment of the present invention.
FIG. 6 is an explanatory view of a composite screen showing another embodiment different from FIGS. 2 and 3;
FIG. 7 is a functional block diagram showing an example of the related art.
FIG. 8 is an explanatory diagram of a composite screen showing an example of the composition performed by FIG. 7;
[Explanation of symbols]
AD terminal
11a to 11d encoder
12a-12d, 741-744 Buffer memory
13,76 GOB detection circuit
14,77 control circuit
15, 75 synthesis multiplexing circuit
16 Multipoint control unit (MCU)
17 Decoder
61 Separation circuit
62 Variable Length Decoder
63 controller
64 inverse quantizer
65 IDCT (Inverse Discrete Cosine Transformer)
66 adder
67 Motion Adaptive Predictor
68 frame memory
69 D / A converter
72 Line control circuit
78 Control unit
79 Multipoint conference controller
711-714 Conference terminal
731 to 734 Image data separation circuit

Claims (10)

複数のテレビ会議端末から受ける各テレビ画面をデータ圧縮した符号化データで画面合成し、合成した符号化データを各端末が受けて画面表示する多地点会議用画面合成システムにおいて、
前記各端末でGOB(Group Of Blocks,画像信号の符号化データの最小単位)毎に発生する画像信号を受信し、受信する画像信号を前記GOB毎に蓄積するバッファメモリ手段と、
少なくとも1つの端末について、その端末のテレビ画面を構成するGOBが1画面分の画面データとして前記バッファメモリの所定箇所に揃っていることを判定し出力するGOB検出手段と、
この判定出力により画面合成を行うのに必要な順番に前記バッファメモリ手段から前記GOBを読み出し、読み出すべきGOBの符号化データが蓄積されていなければ蓄積されていないGOBの部分に符号化データ無しであることを示す符号化データGOB0を挿入して、合成画面の符号化データを合成多重化する合成多重化手段と、前記符号化データGOB0を挿入しても合成画面の符号化データのビットレートが伝送路のビットレートを超えないように各端末の符号器の出力ビットレートの合計を伝送路ビットレートより小さくしておくビットレート調整手段とを有する多地点制御装置を備え、かつ、前記各端末では、前記符号化データGOB0が含まれた符号化データを受信した際に受信した符号化データGOB0による増加分を補償した処理時間で復号化を行う復号化手段とを備えることを特徴とする多地点会議用画面合成システム。
In a multipoint conference screen synthesis system in which each TV screen received from a plurality of video conference terminals is screen-synthesized with coded data obtained by data compression, and the synthesized coded data is received by each terminal and displayed on a screen,
The GOB in each terminal and a buffer memory means for storing received image signals generated for each (Group Of Blocks, the smallest unit of the encoded data of the image signal), the received image signal to each of the GOB,
GOB detection means for judging and outputting that at least one terminal has GOBs constituting a television screen of the terminal as screen data for one screen at a predetermined location in the buffer memory ,
None encoded data portion of the GOB which a sequentially reads the GOB from said buffer memory means, the encoded data of the GOB to be read is not stored if it is not accumulated required to perform screen synthesized by the judgment output A multiplexing means for inserting coded data GOB0 indicating that the coded data GOB0 is inserted, and multiplexing the coded data of the synthesized screen, and a bit rate of the coded data of the synthesized screen even when the coded data GOB0 is inserted. A multi-point control device having bit rate adjustment means for keeping the sum of the output bit rates of the encoders of each terminal smaller than the transmission line bit rate so as not to exceed the transmission line bit rate, and The terminal compensates for an increase due to the encoded data GOB0 received when the encoded data including the encoded data GOB0 is received. Multipoint conference screen synthesis system, characterized in that it comprises a decoding means for performing decoding processing time.
請求項1において、多地点制御装置は、前記端末とディジタル回線で接続し各端末との間でディジタル信号を授受し、会議参加回線を接続制御する回線制御手段と、当該回線制御手段を介して端末から受けたディジタル信号から画像信号になる画像データを取出し、この画像信号になる画像データを前記GOBごとに送出する画像データ分離手段とを更に備え、前期バッファメモリ手段は前記GOBごとに符号化データを前記画像データ分離手段から受けて蓄積することを特徴とする多地点会議用画面合成システム。The multipoint control device according to claim 1, wherein the multipoint control device is connected to the terminal via a digital line, transmits / receives a digital signal to / from each terminal, and controls connection of a conference participation line , and the line control unit. Image data separating means for extracting image data which becomes an image signal from the digital signal received from the terminal and transmitting the image data which becomes the image signal for each GOB , wherein the buffer memory means encodes for each GOB. A screen synthesizing system for a multipoint conference, wherein data is received from the image data separating means and stored. 請求項1において、前記復号化手段が、符号化データを受け、受けた符号化データから画像信号になる画面データを分離して出力する分離回路と、受けた画面データから変換係数の量子化データを分離して送出すると共に、GOB番号、動きベクトル等の信号を送出する可変長復号器と、当該可変長復号器から受けた前記GOB番号、動きベクトル等の信号を送出して、復号処理の制御を行う制御器と、前記可変長復号器から受けた量子化データを、逆量子化して元の量子化レベルの信号に伸長して送出する逆量子化器と、当該逆量子化器から受けた信号を逆離散コサイン変換して量子化された予測誤差信号を得て送出するIDCT(逆離散コサイン変換)器と、当該IDCT器からの予測誤差信号と別に生成する予測信号とを加算し、復号信号を得て送出する加算器と、前記制御器から受けた動きベクトルに応じて適応的に予測信号を求め、次の予測信号を予測出力する動き適応予測器と、前記加算器から受けた復号信号をほぼ1フレーム周期の遅延回路で遅延させ、遅延された信号を前記動き適応予測器へ送出するフレームメモリと、前記加算器から受けた復号信号をディジタル/アナログ変換して出力するD/A(ディジタル/アナログ)変換器とを備えることを特徴とする多地点会議用画面合成システム。2. A separating circuit according to claim 1, wherein said decoding means receives the encoded data, separates and outputs screen data which becomes an image signal from the received encoded data, and a quantized data of a transform coefficient from the received screen data. And a variable-length decoder for transmitting a signal such as a GOB number and a motion vector, and a signal for the GOB number and the motion vector received from the variable-length decoder. A controller that performs control, an inverse quantizer that inversely quantizes the quantized data received from the variable-length decoder, expands the signal to the original quantization level, and sends out the signal. IDCT (inverse discrete cosine transform) unit for obtaining and sending a quantized prediction error signal by performing an inverse discrete cosine transform on the resulting signal, and a prediction signal generated separately from the prediction error signal from the IDCT unit, Decryption And a motion adaptive predictor that adaptively obtains a prediction signal according to the motion vector received from the controller, and predictively outputs the next prediction signal, and a decoding device that receives the signal from the adder. A frame memory for delaying the signal by a delay circuit having a period of substantially one frame, and transmitting the delayed signal to the motion adaptive predictor; And a (digital / analog) converter. 請求項3において、前記フレームメモリは、GOBの先頭にある範囲だけ別に読み出し出来る、二重メモリを設けられていることを特徴とする多地点会議用画面合成システム。4. The multipoint conference screen synthesizing system according to claim 3, wherein the frame memory is provided with a dual memory that can be separately read out only in a range at the head of a GOB. 請求項3において、前記フレームメモリは、フレーム周期の2倍の早さで読み出すことによって、受信した符号化データGOB0のブロックを読み飛ばして次のGOBの先頭にある範囲だけ別に読み出すことを特徴とする多地点会議用画面合成システム。4. The method according to claim 3, wherein the frame memory reads out the block of the received encoded data GOB0 by reading the frame at twice as fast as the frame period, and reads out only the range at the head of the next GOB separately. Screen synthesis system for multipoint meetings. 請求項3において、前記フレームメモリは、復号のフレーム周期を早くして、GOB0のブロックを差分信号“0”としてそのまま復号化することにより受信した符号化データGOB0による増加分を補償することを特徴とする多地点会議用画面合成システム。4. The frame memory according to claim 3, wherein the frame memory compensates for an increase due to the received encoded data GOB0 by increasing the decoding frame cycle and decoding the GOB0 block as a differential signal "0" as it is. Screen synthesis system for multi-point meetings. 請求項1において、各端末がQCIF(4分共通中間フォーマット)方式の3つの前記GOBにおける最後の1つを前記GOB0として形成した符号化データを送出し、当該符号化データを受けた前記合成多重化回路が6つの端末に対してCIF方式による1つの画面を形成することを特徴とする多地点会議用画面合成システム。2. The composite multiplex according to claim 1, wherein each terminal transmits encoded data in which the last one of the three GOBs of the QCIF (Quarterly Common Intermediate Format) system is formed as the GOB0, and receives the encoded data. A multi-point conference screen synthesizing system, wherein the conversion circuit forms one screen by the CIF method for six terminals. 複数のテレビ会議端末の各テレビ画面をデータ圧縮した符号化データで画面合成して、合成した符号化データを各端末へ送出する多地点会議用画面合成方法において、
前記各端末でGOB(Group Of Blocks,画像信号の符号化データの最小単位)毎に発生する画像信号を受信し、受信した画像信号を前記GOB毎に蓄積するバッファメモリを備え、少なくとも1つの端末についてその端末のテレビ画面を構成するGOBが1テレビ画面分の画面データとして前記バッファメモリの所定箇所に揃っていることを判定し出力し、この判定出力により画面合成を行うのに必要な順番に前記バッファメモリから前記GOBを読み出し、読み出すべきGOBの符号化データが蓄積されていなければ蓄積されていないGOBの部分に符号化データ無しであることを示す符号化データGOB0を挿入して合成画面の符号化データを合成多重化して送信することにより、一括伝送する一画面分の符号化データの伝送ビットレート以内に収まるように小さく抑え、前記各端末では、前記符号化データGOB0が含まれた符号化データを受信した際に、受信した符号化データGOB0の増加分を補償した処理時間で復号化することを特徴とする多地点会議用画面合成方法。
In a multipoint conference screen synthesizing method of synthesizing each TV screen of a plurality of video conference terminals with coded data obtained by compressing data and sending out the synthesized coded data to each terminal ,
A buffer memory that receives an image signal generated for each GOB (Group Of Blocks, minimum unit of coded data of the image signal) in each terminal, and stores the received image signal for each GOB; It is determined that GOBs constituting the television screen of the terminal are aligned in a predetermined location of the buffer memory as screen data for one television screen, and the GOBs are output in the order necessary for performing the screen synthesis by this determination output. The GOB is read from the buffer memory, and if the encoded data of the GOB to be read is not accumulated, the encoded data GOB0 indicating that there is no encoded data is inserted into the portion of the GOB which is not accumulated, and By synthesizing and multiplexing the coded data and transmitting it, the coded data of one screen Kept as small fall within transmission bit rate, in each terminal, when receiving the encoded data the encoded data GOB0 is included, the decoding processing time that compensates the increase in the encoded data GOB0 received A method for synthesizing a screen for a multipoint conference, characterized in that:
請求項8において、符号化データGOB0の前記増加分はより速い復号化処理により補償することを特徴とする多地点会議用画面合成方法。9. The multipoint conference screen synthesizing method according to claim 8, wherein the increment of the encoded data GOB0 is compensated by faster decoding processing. 請求項8において、前記符号化データGOB0の増加分は符号化データGOB0のスキップ処理により補償することを特徴とする多地点会議用画面合成方法。9. The multipoint conference screen synthesizing method according to claim 8, wherein an increase in the encoded data GOB0 is compensated by skipping the encoded data GOB0.
JP30497594A 1993-12-10 1994-12-08 Screen synthesis system and method for multipoint conference Expired - Fee Related JP3586484B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30497594A JP3586484B2 (en) 1993-12-10 1994-12-08 Screen synthesis system and method for multipoint conference

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-310712 1993-12-10
JP31071293 1993-12-10
JP30497594A JP3586484B2 (en) 1993-12-10 1994-12-08 Screen synthesis system and method for multipoint conference

Publications (2)

Publication Number Publication Date
JPH07222131A JPH07222131A (en) 1995-08-18
JP3586484B2 true JP3586484B2 (en) 2004-11-10

Family

ID=26564113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30497594A Expired - Fee Related JP3586484B2 (en) 1993-12-10 1994-12-08 Screen synthesis system and method for multipoint conference

Country Status (1)

Country Link
JP (1) JP3586484B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100238085B1 (en) * 1997-05-20 2000-01-15 Samsung Electronics Co Ltd Video split board of mcu
KR100275930B1 (en) * 1998-02-25 2000-12-15 강상훈 Video sever which combines up to 4video streams into a single video stream to enable desktop video conferencing
KR100330162B1 (en) * 2000-04-11 2002-03-28 윤종용 Multi source interface circuit
JP3913726B2 (en) * 2003-10-30 2007-05-09 株式会社リコー Multipoint video conference control device and multipoint video conference system
NO320115B1 (en) * 2004-02-13 2005-10-24 Tandberg Telecom As Device and method for generating CP images.
JPWO2022137324A1 (en) * 2020-12-22 2022-06-30

Also Published As

Publication number Publication date
JPH07222131A (en) 1995-08-18

Similar Documents

Publication Publication Date Title
KR100213048B1 (en) Receiver having analog and digital video mode and receiving method thereof
US5995150A (en) Dual compressed video bitstream camera for universal serial bus connection
EP1323308B1 (en) Delay reduction for transmission and processing of video data
JP3395166B2 (en) Integrated video decoding system, frame buffer, encoded stream processing method, frame buffer allocation method, and storage medium
JPH0654322A (en) System for controlling picture data adaption in tv conference using multi-spot controller
US5801777A (en) Device and method for decoding digital video data
US6188727B1 (en) Simplicity HDTV video decoder and its decoding method
JP3586484B2 (en) Screen synthesis system and method for multipoint conference
US20040071212A1 (en) System and method for decreasing end-to-end-delay during video conferencing session
JP4171940B2 (en) Transmission device, reception device, transmission method, and reception method
JP2573177B2 (en) Graphic display device in electronic conference system
KR100213056B1 (en) Receiver having analog and digital video mode and receiving method thereof
US6904093B1 (en) Horizontal/vertical scanning frequency converting apparatus in MPEG decoding block
JP3078990B2 (en) Low delay mode image decoding method
JP2002016921A (en) Moving picture encoding device and decoding device
JP4184223B2 (en) Transcoder
JP2001045495A (en) Image compositing device
JPH0846973A (en) Picture communicating equipment and system
JPH0294886A (en) Method and device for coding and decoding video signal
JPH08237599A (en) Inter-frame band compression signal switching circuit
JP2002094996A (en) Receiver
JP2002094949A (en) Video information reproducing device and repoducing method
JP3750217B2 (en) Video encoding transmission device
JP2003299036A (en) Image decoder, image decoding method, program and medium
JPH08149464A (en) Image decoder provided with frame rate conversion function

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040809

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070813

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080813

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080813

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080813

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080813

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090813

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees