JP3655363B2 - Information communication system and center station - Google Patents

Information communication system and center station Download PDF

Info

Publication number
JP3655363B2
JP3655363B2 JP21858295A JP21858295A JP3655363B2 JP 3655363 B2 JP3655363 B2 JP 3655363B2 JP 21858295 A JP21858295 A JP 21858295A JP 21858295 A JP21858295 A JP 21858295A JP 3655363 B2 JP3655363 B2 JP 3655363B2
Authority
JP
Japan
Prior art keywords
image
encoding
information
encoding method
communication system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21858295A
Other languages
Japanese (ja)
Other versions
JPH0965312A (en
Inventor
理 岡田
重信 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP21858295A priority Critical patent/JP3655363B2/en
Publication of JPH0965312A publication Critical patent/JPH0965312A/en
Application granted granted Critical
Publication of JP3655363B2 publication Critical patent/JP3655363B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えば異なる地点に複数の端末局を設けてTV会議などを行うときに利用される情報通信システムおよびセンター局に関する。
【0002】
【従来の技術】
近年、通信技術の進歩に伴い、離れた場所にいながら会議を行うことができる遠隔会議システム(以下TV会議システムと称す)の普及が進んでいる。
【0003】
このようなTV会議システムにおいて、例えば2地点間などで動画像の通信を行う場合は、図10に示すように、ある地点の端末701とそこから離れた他の地点の端末702とを上り回線および下り回線などを有する通信回線703により接続して構成し、このような2地点間の動画像通信は、同じ符号化方式を用いて同じ伝送速度で伝送する、いわゆる対称通信制御を行うのが一般的である。
【0004】
この場合、端末701から端末702への通信と、端末702から端末701への通信は、共に同じ符号化方式A、同じ伝送速度(B bps)が用いられている。
【0005】
また図11に示すように、3地点以上を接続して多地点間会議を行う場合は、異なる3地点に配置した各端末705、706、707とセンター局704とを各通信回線708、709、710にて接続し、センター局704が各端末705、706、707からの画像情報を中継するよう構成する。
【0006】
この場合、センター局704と各端末局705、706、707との間の画像通信は、各通信回線708、709、710の上り回線と下り回線とで伝送速度に多少の違いが生まれる可能性はあるものの、同じ符号化方式を用いて通信するのが一般的である。
【0007】
ところで、この場合、各端末705、706、707は、上り回線を利用してそれぞれ1端末分の画面情報を伝送すればよいのに対して、センター局704は、下り回線を利用して複数の端末分の画面情報を生成し、それぞれの通信回線に伝送する必要がある。
【0008】
このため、下り回線の伝送速度(C bps)に比べて上り回線(B bps)の伝送速度が速くなることがある。この場合、TV会議などでは、それぞれの地点の端末705、706、707に画像や音声がずれて伝達されるため、会話が不自然になることがあった。
【0009】
一般に、TV会議システムの画像符号化方式の国際標準としては、H.261 (ITU-T Rec.H.261)という方式があるが、今まで他の標準方式がなかったため、異なる符号化方式との接続をほとんど考慮する必要がなかった。
【0010】
しかし、近年、ディジタルCATV網の普及によって、このようなCATVにおいては、下り回線の符号化には高品質な画像を符号化する新しい国際標準方式として、MPEG2(ISO/IEC 13818-2 | ITU-T Rec. H.262)が利用されるようになってきた。
【0011】
このCATVの加入者が、それぞれの端末を利用してTV会議を行う場合、下り回線では、MPEG2用の復号器を持っていることからMPEG2方式を利用するのが最も自然である。他の方式を採用すれば、その方式の復号器を新たに設置する必要がある。
【0012】
一方、上り回線は、下り回線と同じ符号化方式、すなわちMPEG2方式で画像情報を伝送するのが自然である。
【0013】
しかし、MPEG2用の符号化器は、非常に高価であり、また上り回線の伝送速度は一般に下り回線より非常に遅く、MPEG2では効率がよくないという問題があった。
【0014】
このような場合に、上り回線の符号化方式として、下り回線に合わせたMPEG2を採用すると、上り回線に高価でしかも効率のよくないMPEG2用の符号化器を設置することになり、また上り回線に合わせて下り回線にH.261方式を採用すると、新たにH.261用の復号器が必要となり、MPEG2用の復号器と二重投資となってしまう。いずれにしろ、効率のよくない符号化器もしくは復号器が必要となり、設備投資および情報伝送などの効率が低下する。
【0015】
【発明が解決しようとする課題】
このように上述した従来の情報通信システムでは、上り回線と下り回線とに同じ方式を採用している場合、各回線に伝送される情報の負荷量の違いから情報が到着する時間が異なり、特にTV会議などを行っている場合は、会話が不自然になるという問題があった。
【0016】
また上り回線と下り回線で異なる符号化方式を採用した場合でも、従来は上り回線または下り回線のいずれか一方に効率のよくない符号化方式が採用せざるをおえず、情報伝送の効率が悪いという問題があった。
【0017】
本発明はこのような課題を解決するためになされたもので、情報伝送の効率を向上すると共に、より自然な形で情報通信を行うことのできる情報通信システムおよびセンター局を提供することを目的としている。
【0018】
【課題を解決するための手段】
上述した目的を達成するために、請求項1記載の発明は、上り下りの各回線を有する伝送路上に少なくとも一つのセンター局と複数の端末局とを接続してなる情報通信システムにおいて、前記センター局は、前記各端末局により第1の符号化方式で符号化され、前記上り回線を通じて伝送されてきた各画像情報を受信して復号する画像復号手段と、前記画像復号手段により復号された各画像情報を一つの画像に合成する画像合成手段と、前記画像合成手段により合成された画像情報を第2の符号化方式で符号化する画像符号化手段と、前記画像符号化手段により前記第2の符号化方式で符号化された画像情報を前記下り回線を利用して前記各端末局に伝送する情報伝送手段とを具備し、前記各端末局は、自局から伝送する画像情報を取得する画像取得手段と、前記画像取得手段により取得された画像情報を前記第1の符号化方式で符号化する画像符号化手段と、前記画像符号化手段により符号化された画像情報を前記上り回線を通じて前記センター局に伝送する情報伝送手段と、前記センター局により前記第2の符号化方式で符号化され、前記下り回線を通じて伝送されてきた画像情報を受信して復号する画像復号手段と、前記画像復号手段により復号された画像情報を表示する表示手段とを具備している。
【0020】
さらに請求項記載の情報通信システムは、請求項1記載の情報通信システムにおいて、前記センター局の前記情報伝送手段が、前記複数の端末局に対して画像情報を一斉に送出する同報通信手段を具備したことを特徴としている。
【0021】
請求項記載の発明の情報通信システムは、請求項1記載の情報通信システムにおいて、前記センター局の画像符号化手段は、前記上り回線で用いられている前記第1の符号化方式で符号化されたデータの持つ特徴量を可変長復号によって抽出し、前記下り回線で用いられる第2の符号化方式の特徴量に変換し、この第2の符号化方式で可変長符号化して伝送データを生成することを特徴としている。
さらに請求項記載の情報通信システムは、請求項記載の情報通信システムにおいて、前記センター局の画像符号化手段は、前記第1の符号化方式において量子化特性値が偶数のときに量子化復号値を奇数に修正する場合、前記第2の符号化方式において量子化復号値が奇数となるような量子化特性値を与え、量子化復号値が前記第1の符号化方式における量子化復号値と等しくなるように前記第2の符号化方式における量子化値を決定することを特徴としている。
【0022】
また請求項記載の発明の情報通信システムは、請求項記載の情報通信システムにおいて、前記センター局の画像符号化手段は、前記第1の符号化方式でループ内フィルタが適用されているマクロブロックに対して、前記第2の符号化方式で動きベクトルの値を、半画素分だけずらした値に変更することを特徴としている。
さらに請求項記載の発明の情報通信システムは、請求項記載の情報通信システムにおいて、前記センター局の画像符号化手段は、前記動きベクトルの値を半画素分だけずらす場合、フレーム単位もしくはフィールド単位で左上、右下、左下、右上の順に変更することを特徴としている。
請求項7記載のセンター局は、複数の端末局に、上り下りの各回線を有する伝送路を介して接続されたセンター局において、各端末局により第1の符号化方式で符号化され、前記上り回線を通じて伝送されてきた各画像情報を受信して復号する画像復号手段と、前記画像復号手段により復号された各画像情報を一つの画像に合成する画像合成手段と、前記画像合成手段により合成された画像情報を第2の符号化方式で符号化する画像符号化手段と、前記画像符号化手段により前記第2の符号化方式で符号化された画像情報を前記下り回線を利用して前記各端末局に伝送する情報伝送手段とを具備したことを特徴としている。
【0023】
上記発明では、上り下り回線それぞれに最適な符号化方式を採用し、複数の端末局からの画像情報を中継するセンター局は、各端末局からの画像情報の符号化方式の変換を行い、下り回線に一画面に合成した画像情報を同報通信にて伝送する。
【0024】
したがって、上り下りそれぞれの回線を中継して各端末局に届けられる画像情報に到着時間の差が少なくなり、よい自然な形でTV会議などを行えるようになる。
【0025】
すなわち、上り回線および下り回線にそれぞれ最適な符号化方式を採用したことにより、ネットワークに適合し効率よく情報通信を行うことができる。
【0026】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して詳細に説明する。
【0027】
図1は本発明に係る情報通信システムの一つの実施の形態であるTV会議システムの概略図である。
【0028】
図1に示すように、このTV会議システムは、複数の端末101、102、103、104とセンター局10とが伝送路としての通信回線1を介して接続して構成されている。通信回線1は、上り方向の回線(上り回線)と下り方向の回線(下り回線)とを有している。センター局10から各端末101、102、103、104へは第2の符号化方式であるMPEG2方式などにより下り回線を通じて動画像データが伝送される一方、各端末101、102、103、104からセンター局10へは第1の符号化方式であるH.261方式などにより、上り回線を通じて動画像データが伝送されるものである。
【0029】
センター局10は、通信回線1から受信したH.261ビットストリームをMPEG2ビットストリームに変換するビットストリーム変換部11と、変換後の各MPEG2ビットストリームを一画面に統合するように合成する画像合成部12とから構成されている。
【0030】
端末101は、自局の会議参加者を撮像するカメラ131と、このカメラ131で撮像した会議参加者の画像データをH.261ビットストリームに符号化し通信回線1に送出する符号化器(ENC)111と、通信回線1から受信したMPEG2ビットストリームを復号する復号器(DEC)121と、この復号器121により復号された画像を表示するモニタ141とから構成されている。なお端末101以外の端末102、103、104は、端末101と同様に構成されているのでそれぞれの構成の説明は省略する。
【0031】
図2に示すように、ビットストリーム変換部11は、通信回線1を通じてセンター局10に受信されたH.261ビットストリームを動画像データに復号するH.261復号器201と、復号された動画像データをMPEG2ビットストリームに符号化するMPEG2符号化器202とから構成されている。
【0032】
図3に示すように、画像合成部12は、各MPEG2ビットストリームをそれぞれ動画像データに復号する複数の復号器301、301、302、303、304と、これら復号器301、301、302、303、304により復号された動画像データの画面を一画面上に再配置処理する画面再配置部305と、この画面再配置部305により再配置された一画面のデータをMPEG2ビットストリームに符号化し通信回線1に送出する符号化器306とから構成されている。
次に、このTV会議システムの動作を説明する。
【0033】
まず、このTV会議システムにおいて、複数の端末101、102、103、104からの情報をセンター局10が中継して各端末101、102、103、104へ伝送する場合について説明する。
【0034】
この場合、各端末101、102、103、104に接続されたカメラ131、132、133、134で撮影された映像は、各端末内の符号化器111、112、113、114でH.261ビットストリームに符号化される。符号化されたデータは、通信回線1を通してセンター局10に伝送される。
【0035】
センター局10に送られてきた各H.261ビットストリームのデータは、ビットストリーム変換部11内のH.261復号器201で復号された後、MPEG2符号化器202でMPEG2ビットストリームに符号化され画像合成部12に出力される。
【0036】
画像合成部12では、MPEG2ビットストリームが各復号器301、301、302、303、304によってそれぞれ動画像データに復号されて、画面再配置部305にて各動画像データが一画面の動画像データとして再配置(合成)される。そして再配置された一画面の動画像データは、符号化器306によりMPEG2ビットストリームに符号化され、再び通信回線1(下り回線)を通して各端末101、102、103、104に伝送される。
【0037】
通信回線1を通じて各端末101、102、103、104に送られたデータは、それぞれの内部の復号器121、122、123、124でMPEG2ビットストリームから動画像データに復号され、それぞれのモニタ141、142、143、144の表示画面上に一画面が4分割された動画像として表示される。このようにこの実施形態のTV会議システムによれば、通信回線1の上り回線にはH.261方式を、下り回線にはMPEG2方式を利用してデータ伝送する。これによってそれぞれの回線の画像データに適した符号化方式でデータ通信が可能になる。例えばセンター局側にH.261→MPEG2のビットストリーム変換部11や、画面合成部12などを設けることにより、変換されたデータが上り・下りの各回線に時間差なくスムーズに伝送されるようになり、データ伝送時間の遅延などが少なくなり、そのネットワークに各符号化方式が適合し、動画像データの伝送効率がよくなり、より自然な形でTV会議を行うことができる。
【0038】
以下、上記TV会議システムの他の実施形態について説明する。
【0039】
図2に示したビットストリーム変換部11の構成例は、至って簡単ではあるが、復号後に再び符号化するので情報が損失することがあり、このため画質の劣化が発生する。また復号・符号化の処理に多くの時間を費やすため、情報伝送が遅延しがちになる。
【0040】
そこで、ビットストリーム変換部11を、図4に示すように、H.261の可変長復号器VLD401と、データ再構築部402と、MPEG2の可変長符号化器VLC403とからなるビットストリーム変換部41とすることにより、情報の損失がなるべく発生しないように可変長復号のみを行った状態で画像情報の変換を行うようにもできる。
【0041】
この場合、入力されたH.261ビットストリームは、H.261のVLD401で可変長復号され、ビットストリームの持つ情報が抽出される。H.261とMPEG2の符号化方式は細部では異なるものの基本的な方式は同一であるので、データ再構築部402によってH.261符号化方式の持つ情報を解析してMPEG2符号化方式の持つ情報に変換される。なお上記データ再構築部402により再構築(変換)される情報は、例えばスタートコードなどのヘッダ情報、動きベクトル情報およびDCT係数成分情報などである。スタートコードやマクロブロックの位置指定などは、MPEG2のコードに変換する。動きベクトル情報は、MPEG2が半画素対応であるので値が倍になる。DCT係数成分は量子化特性値に応じて変換する。変換された情報はMPEG2の可変長符号化器VLC403で可変長符号化されて、MPEG2ビットストリームが出力される。
【0042】
このようにこの実施形態のTV会議システムによれば、逆DCT処理や動き補償処理を行わず、可変長復号(VLD)のみを行った状態でデータ変換を行うので、情報の損失が少なく、遅延時間も少なくし、より自然な形でTV会議を行うことができる。
【0043】
また、図3に示した画像合成部12の構成例は、至って簡単ではあるが、復号後に再び符号化するので、画質の劣化や遅延時間が発生してしまう。
【0044】
そこで、画像合成部12を、図5に示すように、可変長復号器(VLD)501、502、503、504と、可変データ変換部505と、可変長符号化器(VLC)506とからなる画像合成部52とすることにより、可変長復号のみを行った状態で画像情報の再構築(変換)を行うことができる。
【0045】
この場合、画像合成部52に入力された各ビットストリームは、可変長復号器(VLD)501、502、503、504で可変長復号され、ビットストリームの持つ情報が抽出される。抽出された情報は、可変データ変換部505で新しく画像データが配置される位置に合わせて位置情報が変換され、符号化される順にデータが並べ替えられる(ビットストリーム再構築)。
【0046】
この情報は、可変長符号化器(VLC)506で可変長符号化され、MPEG2ビットストリームが出力される。
【0047】
このようにこの実施形態のTV会議システムによれば、逆DCT処理や動き補償処理を行わず、可変長復号のみを行った状態で画像情報の変換(ビットストリーム再構築)を行うので、情報の損失が少なく、遅延時間も少なくすることができる。
【0048】
ところで、H.261方式とMPEG2方式との間では、完全なデータ変換を行うことはできない。
【0049】
データ変換を行う技術としては、ループ内フィルタや逆量子化処理がある。
【0050】
H.261方式では、動き補償によるブロック歪率を低減するために、図6に示すような係数特性を有するフィルタを適用するモードがあるが、MPEG2方式ではフィルタを適用することができない。このフィルタは、符号化処理のループの中にあるので、この誤差による復号画像の乱れは時間と共に大きくなる。
【0051】
この誤差を小さくする方法として、MPEG2の半画素予測を利用する。
【0052】
例えばMPEG2方式における動きベクトルの値を、図7(a)の“×”印で示すように、左上に半画素づつずらすことによって、図8に示すようなフィルタ特性を適用すると同等の効果を得ることができる。
【0053】
そして、さらに動きベクトルの値を、図7(b)〜図7(d)のように順にずらして行くことによって、平均的には、図6に示したフィルタ係数に近似させることができる。
【0054】
また、H.261方式における逆量子化処理の場合、逆量子化値(REC)は、量子化特性値(QUANT)と、量子化代表値(LEVEL)から、次の式で与えられる。
【0055】
QUANTが奇数の場合、
REC=QUANT×(2×LEVEL+1) ;LEVEL>0
REC=QUANT×(2×LEVEL−1) ;LEVEL<0
QUANTが偶数の場合、
REC=QUANT×(2×LEVEL+1)−1 ;LEVEL>0
REC=QUANT×(2×LEVEL−1)+1 ;LEVEL<0
一方、MPEG2方式の場合、逆量子化値(F)は、量子化代表値(QF)と量子化特性値(QS)と量子化マトリクスによる値(W)は、次の式で与えられる。
【0056】
F=((2×QF+1)×W×QS/32) ;QF>0
F=((2×QF−1)×W×QS/32) ;QF<0
したがって、QUANTが奇数の場合は、
QF=LEVEL、QS=QUANT×32/W
とすることで、RECとFとを一致させることができるが、QUANTが偶数の場合は、単純には一致させることができない。
【0057】
そこで、この場合、MPEG2方式のエスケープ符号化などを利用して

Figure 0003655363
とすることで、FをRECに近似させることができる。
【0058】
このような考え方で、図4に示したビットストリーム変換部41の形態と、図5に示した画像合成部52の形態とを合わせて新たなセンター局を実現した場合、ビットストリーム変換器41と画像合成部52の間に可変長復号器(VLD)と可変長符号化器(VLC)とが重複することになる。
【0059】
そこで、ビットストリーム変換部41と画像合成部52とからVLDとVLCとを一つづつ省略した形で新たなセンター局60を構成することができる。
【0060】
図9に示すように、このセンター局60は、可変長復号器601、602、603、604と、符号化方式変換部611、612、613、614と、配置変換部605と、可変長符号化器(VLC)606とから構成される。
【0061】
この場合、センター局60に入力された各H.261ビットストリームは、それぞれのH.261の可変長復号器601、602、603、604で可変長復号され、ビットストリームの持つ情報が抽出される。抽出された情報は、各符号化方式変換部611、612、613、614でMPEG2情報に変換され、さらに配置変換部605で新しく配置される位置に合わせて位置情報の変換および並べかえなどが行われる。この情報はMPEG2の可変長符号化器(VLC)606で可変長符号化され、MPEG2ビットストリームが出力される。
【0062】
この実施形態のTV会議システムによれば、ビットストリーム変換部11と画像合成部12とからVLDとVLCとを一つづつ省略した形でセンター局10を構成し、上記同様の符号化方式の変換処理を行うことができる。
【0063】
なお、本発明は上述した実施形態のみに限定されるものではない。
【0064】
上述した実施形態では、上り回線にH.261、下り回線にMPEG2の各方式を適用したが、これ以外に最適な符号化方式があれば、それを適用してもよい。
【0065】
また上述した実施形態では、上り回線の符号化方式はすべて同一としていたが、上り回線の符号化方式は複数あっても構わない。この場合、センター局には、各上り回線毎に適応した復号器または可変長復号器を用意すればよい。
【0066】
さらに上述した実施形態では、下り回線の各端末にすべて同一のビットストリームを出力しているが、各端末毎に異なるビットストリームを出力してもよい。この場合、出力するビットストリームの数だけ画面配置変換のための出力機能部を用意し、可変長符号化すればよい。これにより、端末毎に異なる映像を受信することができる。また可変長符号化器の前段に符号化方式変換器を挿入することで、端末毎に異なる符号化方式のビットストリームを伝送することもできる。
【0067】
【発明の効果】
以上説明したように本発明によれば、センター局では、上り回線および下り回線それぞれに効率のよい最適な符号化方式で情報の変換が行われるので、各端末局間の通信を効率よく行うことができる。
【0068】
またセンター局では、複数の画像情報を一画面に合成して下り回線に一斉に伝送するので、上り回線側と情報の到着時間差が少なくなるので、各端末局間でTV会議などを行う上では、画像の動きに遅延がなくなり、より自然な形で会話することができる。
【図面の簡単な説明】
【図1】本発明に係る一つの実施の形態であるTV会議システムの構成を示すブロック図である。
【図2】図1のTV会議システムのビットストリーム変換部を示すブロック図である。
【図3】図1のTV会議システムの画像合成部を示すブロック図である。
【図4】図2のビットストリーム変換部の他の実施の形態を示すブロック図である。
【図5】図3の画像合成部の他の実施の形態を示すブロック図である。
【図6】H.261におけるループ内フィルタの係数を示す図である。
【図7】(a)〜(d)は、MPEG2方式の半画素予測による動きベクトルの値を示す図である。
【図8】H.261方式におけるループ内フィルタに近似させたMPEG2方式の半画素予測による係数を示す図である。
【図9】図4に示したビットストリーム変換部の形態と、図5に示した画像合成部の形態とを合わせて新たなセンター局を実現した場合の図である。
【図10】従来の2地点間のTV会議システムの構成を示すブロック図である。
【図11】従来の3地点間のTV会議システムの構成を示すブロック図である。
【符号の説明】
1…通信回線、10、60…センター局、11、41…ビットストリーム変換部、12、52…画像合成部、101、102、103、104…端末、111、121、131、141… H.261符号化器、121、122、123、124… MPEG2復号器、131、132、133、134…カメラ、141、142、143、144…モニタ。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information communication system and a center station used when, for example, a plurality of terminal stations are provided at different points to perform a TV conference or the like.
[0002]
[Prior art]
In recent years, with the advancement of communication technology, a remote conference system (hereinafter referred to as a TV conference system) capable of performing a conference while being at a distant place has been spreading.
[0003]
In such a TV conference system, for example, when moving image communication is performed between two points, as shown in FIG. 10, a terminal 701 at a certain point and a terminal 702 at another point far from the point 701 are uplinked. The video communication between the two points is performed by so-called symmetric communication control in which the same encoding method is used for transmission at the same transmission speed. It is common.
[0004]
In this case, both the communication from the terminal 701 to the terminal 702 and the communication from the terminal 702 to the terminal 701 use the same encoding method A and the same transmission rate (B bps).
[0005]
As shown in FIG. 11, when a multipoint conference is performed by connecting three or more points, the terminals 705, 706, and 707 and the center station 704 arranged at three different points are connected to the communication lines 708, 709, At 710, the center station 704 is configured to relay image information from the terminals 705, 706, and 707.
[0006]
In this case, in the image communication between the center station 704 and the terminal stations 705, 706, and 707, there is a possibility that a slight difference in the transmission speed between the uplink and the downlink of the communication lines 708, 709, and 710 may occur. However, it is common to communicate using the same encoding method.
[0007]
By the way, in this case, each terminal 705, 706, and 707 may transmit screen information for one terminal using the uplink, whereas the center station 704 uses a plurality of downlinks. It is necessary to generate screen information for the terminal and transmit it to each communication line.
[0008]
For this reason, the transmission rate of the uplink (B bps) may be faster than the transmission rate of the downlink (C bps). In this case, in a TV conference or the like, since the images and sounds are transmitted to the terminals 705, 706, and 707 at the respective points, the conversation may become unnatural.
[0009]
In general, as an international standard of an image encoding system for a TV conference system, H.264 Although there is a system called H.261 (ITU-T Rec. H.261), since there was no other standard system until now, it was hardly necessary to consider connection with different encoding systems.
[0010]
However, in recent years, with the spread of digital CATV networks, MPEG2 (ISO / IEC 13818-2 | ITU-) is a new international standard for encoding high-quality images in downlink CATV. T Rec. H.262) has been used.
[0011]
When a CATV subscriber performs a TV conference using each terminal, it is most natural to use the MPEG2 system because the downlink has a decoder for MPEG2. If another method is adopted, a decoder of that method needs to be newly installed.
[0012]
On the other hand, it is natural for the uplink to transmit image information by the same encoding method as that of the downlink, that is, the MPEG2 method.
[0013]
However, the encoder for MPEG2 is very expensive, and the transmission speed of the uplink is generally much slower than that of the downlink, and MPEG2 is not efficient.
[0014]
In such a case, if MPEG2 adapted to the downlink is adopted as the uplink encoding method, an expensive and inefficient MPEG2 encoder is installed on the uplink, and the uplink is also provided. H. When the H.261 system is adopted, H.264 is newly added. A decoder for H.261 is required, which is a double investment with a decoder for MPEG2. In any case, an inefficient encoder or decoder is required, and the efficiency of capital investment and information transmission is reduced.
[0015]
[Problems to be solved by the invention]
As described above, in the conventional information communication system described above, when the same method is adopted for the uplink and the downlink, the time for arrival of information differs depending on the load amount of information transmitted to each line, When conducting a TV conference or the like, there is a problem that the conversation becomes unnatural.
[0016]
Also, even when different encoding methods are used for the uplink and the downlink, it is necessary to use an inefficient encoding method for either the uplink or the downlink, and the information transmission efficiency is poor. There was a problem.
[0017]
The present invention has been made to solve such problems, and it is an object of the present invention to provide an information communication system and a center station that can improve information transmission efficiency and perform information communication in a more natural manner. It is said.
[0018]
[Means for Solving the Problems]
In order to achieve the above-described object, the invention according to claim 1 is an information communication system in which at least one center station and a plurality of terminal stations are connected on a transmission line having uplink and downlink lines. station, the encoded with the first encoding method by the terminal stations, and an image decoding means for receiving and decoding the image information transmitted via the uplink, each decoded by the image decoding unit an image synthesizing means for synthesizing the image information into one image, and the image encoding means for encoding the images information synthesized by said image synthesizing means in the second encoding method, the second by the image encoding means Information transmission means for transmitting image information encoded by the encoding method 2 to each terminal station using the downlink, and each terminal station obtains image information transmitted from the own station. Do An image acquisition unit; an image encoding unit that encodes the image information acquired by the image acquisition unit by the first encoding method; and image information encoded by the image encoding unit via the uplink. Information transmission means for transmitting to the center station, image decoding means for receiving and decoding image information encoded by the center station using the second encoding method and transmitted via the downlink, and the image Display means for displaying the image information decoded by the decoding means.
[0020]
Further, the information communication system according to claim 2 is the information communication system according to claim 1, wherein the information transmission means of the center station simultaneously transmits image information to the plurality of terminal stations. It is characterized by comprising.
[0021]
An information communication system according to a third aspect of the present invention is the information communication system according to the first aspect, wherein the image encoding means of the center station is encoded by the first encoding method used in the uplink. The feature quantity of the data is extracted by variable-length decoding, converted to the feature quantity of the second encoding method used in the downlink, and the transmission data is variable-length encoded by this second encoding scheme. It is characterized by generating.
The information communication system according to claim 4 is the information communication system according to claim 3 , wherein the image encoding means of the center station performs quantization when the quantization characteristic value is an even number in the first encoding method. When the decoded value is corrected to an odd number, a quantization characteristic value is given such that the quantized decoded value becomes an odd number in the second coding scheme, and the quantized decoded value is quantized decoding in the first coding scheme. The quantization value in the second encoding method is determined to be equal to the value.
[0022]
An information communication system according to a fifth aspect of the present invention is the information communication system according to the third aspect , wherein the image encoding means of the center station is a macro to which an in-loop filter is applied in the first encoding method. For the block, the value of the motion vector is changed to a value shifted by a half pixel by the second encoding method.
Further, an information communication system according to a sixth aspect of the present invention is the information communication system according to the fifth aspect , wherein the image encoding means of the center station shifts the value of the motion vector by half a pixel or a field unit or field. It is characterized by changing in order of upper left, lower right, lower left, and upper right in units.
The center station according to claim 7, wherein the center station is connected to a plurality of terminal stations via a transmission line having uplink and downlink lines, and is encoded by each terminal station using a first encoding method, Image decoding means for receiving and decoding each image information transmitted through the uplink, image composition means for synthesizing each image information decoded by the image decoding means into one image, and composition by the image composition means Image encoding means for encoding the image information obtained by the second encoding method; and image information encoded by the image encoding means by the second encoding method using the downlink And an information transmission means for transmitting to each terminal station.
[0023]
In the above invention, an optimum encoding method is adopted for each uplink and downlink, and the center station that relays image information from a plurality of terminal stations converts the encoding method of image information from each terminal station, The image information combined on one screen is transmitted by broadcast communication.
[0024]
Therefore, the difference in arrival time is reduced in the image information delivered to each terminal station via the upstream and downstream lines, and a TV conference or the like can be performed in a good natural form.
[0025]
That is, by adopting optimum encoding methods for the uplink and downlink, respectively, it is possible to perform information communication efficiently in conformity with the network.
[0026]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0027]
FIG. 1 is a schematic diagram of a video conference system which is an embodiment of an information communication system according to the present invention.
[0028]
As shown in FIG. 1, this video conference system is configured by connecting a plurality of terminals 101, 102, 103, 104 and a center station 10 via a communication line 1 as a transmission path. The communication line 1 has an uplink line (uplink) and a downlink line (downlink). Video data is transmitted from the center station 10 to the terminals 101, 102, 103, and 104 through the downlink by the MPEG2 system that is the second encoding system, while the terminals 101, 102, 103, and 104 are connected to the center. To the station 10, the first encoding method H.264 is used. The moving image data is transmitted through the uplink by the H.261 system or the like.
[0029]
The center station 10 receives the H.264 received from the communication line 1. The bit stream converting unit 11 converts a 261 bit stream into an MPEG2 bit stream, and an image combining unit 12 combines the converted MPEG2 bit streams so as to be integrated into one screen.
[0030]
The terminal 101 includes a camera 131 that captures the conference participants of the local station, and image data of the conference participants captured by the camera 131 as H.264. An encoder (ENC) 111 that encodes a 261 bit stream and sends it to the communication line 1; a decoder (DEC) 121 that decodes the MPEG2 bit stream received from the communication line 1; and an image decoded by the decoder 121. It is comprised from the monitor 141 which displays. Since the terminals 102, 103, and 104 other than the terminal 101 are configured in the same manner as the terminal 101, description of each configuration is omitted.
[0031]
As shown in FIG. 2, the bit stream converter 11 receives the H.264 received by the center station 10 through the communication line 1. H.261 decoding a bitstream into moving image data A 261 decoder 201 and an MPEG2 encoder 202 that encodes the decoded moving image data into an MPEG2 bit stream.
[0032]
As shown in FIG. 3, the image composition unit 12 includes a plurality of decoders 301, 301, 302, 303, 304 for decoding each MPEG2 bit stream into moving image data, and these decoders 301, 301, 302, 303. , 304 is a screen rearrangement unit 305 for rearranging the screen of the moving image data on one screen, and the one-screen data rearranged by the screen rearrangement unit 305 is encoded into an MPEG2 bit stream for communication. The encoder 306 is sent to the line 1.
Next, the operation of this video conference system will be described.
[0033]
First, in this TV conference system, a case where the center station 10 relays information from a plurality of terminals 101, 102, 103, and 104 and transmits the information to each terminal 101, 102, 103, and 104 will be described.
[0034]
In this case, video captured by the cameras 131, 132, 133, and 134 connected to the terminals 101, 102, 103, and 104 is converted into H.264 by the encoders 111, 112, 113, and 114 in each terminal. It is encoded into a 261 bit stream. The encoded data is transmitted to the center station 10 through the communication line 1.
[0035]
Each H.C. sent to the center station 10. The data of the H. 261 bit stream is stored in the H.264 in the bit stream converter 11. After being decoded by the H.261 decoder 201, the MPEG2 encoder 202 encodes the MPEG2 bit stream and outputs it to the image composition unit 12.
[0036]
In the image synthesizing unit 12, the MPEG2 bit stream is decoded into moving image data by the respective decoders 301, 301, 302, 303, and 304, and each moving image data is converted into moving image data of one screen by the screen rearranging unit 305. Are rearranged (synthesized) as The rearranged moving picture data of one screen is encoded into an MPEG2 bit stream by the encoder 306, and transmitted again to the terminals 101, 102, 103, and 104 through the communication line 1 (downlink).
[0037]
The data sent to each of the terminals 101, 102, 103, 104 via the communication line 1 is decoded from the MPEG2 bit stream into moving image data by the respective internal decoders 121, 122, 123, 124, and the respective monitors 141, One screen is displayed as a moving image divided into four on the display screens 142, 143, and 144. Thus, according to the TV conference system of this embodiment, the H. Data transmission is performed using the H.261 system and the MPEG2 system on the downlink. As a result, data communication can be performed with an encoding method suitable for the image data of each line. For example, H. By providing the bit stream converting unit 11 of 261 → MPEG2, the screen synthesizing unit 12, and the like, the converted data can be smoothly transmitted to the upstream and downstream lines without time difference, and the data transmission time is delayed. Therefore, each encoding method is adapted to the network, the transmission efficiency of moving image data is improved, and a TV conference can be held in a more natural form.
[0038]
Hereinafter, other embodiments of the TV conference system will be described.
[0039]
The configuration example of the bit stream conversion unit 11 shown in FIG. 2 is very simple, but information may be lost because it is encoded again after decoding, which causes deterioration in image quality. In addition, since a lot of time is spent on decoding and encoding processing, information transmission tends to be delayed.
[0040]
Therefore, as shown in FIG. By using the bit stream conversion unit 41 including a variable length decoder VLD 401 of H.261, a data reconstruction unit 402, and a variable length encoder VLC 403 of MPEG2, only variable length decoding is performed so that loss of information does not occur as much as possible. It is also possible to convert the image information in a state where the operation is performed.
[0041]
In this case, the input H.P. The 261 bit stream is H.264. The variable length decoding is performed by the H.261 VLD 401, and information held in the bit stream is extracted. H. Although the basic scheme is the same although the encoding schemes of H. 261 and MPEG2 differ in detail, the data reconstruction unit 402 performs H.264 encoding. Information of the H.261 encoding system is analyzed and converted to information of the MPEG2 encoding system. The information reconstructed (converted) by the data restructuring unit 402 is header information such as a start code, motion vector information, DCT coefficient component information, and the like. The start code and macro block position designation are converted into MPEG2 codes. The value of the motion vector information is doubled because MPEG2 is half pixel compatible. The DCT coefficient component is converted according to the quantization characteristic value. The converted information is variable length encoded by the MPEG2 variable length encoder VLC 403, and an MPEG2 bit stream is output.
[0042]
As described above, according to the video conference system of this embodiment, data conversion is performed in a state where only variable length decoding (VLD) is performed without performing inverse DCT processing or motion compensation processing. The video conference can be held in a more natural way with less time.
[0043]
In addition, the configuration example of the image composition unit 12 shown in FIG. 3 is very simple, but since it is encoded again after decoding, image quality degradation and delay time occur.
[0044]
Therefore, the image synthesis unit 12 includes variable length decoders (VLD) 501, 502, 503, and 504, a variable data conversion unit 505, and a variable length encoder (VLC) 506, as shown in FIG. By using the image composition unit 52, it is possible to reconstruct (convert) image information in a state where only variable-length decoding is performed.
[0045]
In this case, each bit stream input to the image composition unit 52 is variable-length decoded by variable-length decoders (VLD) 501, 502, 503, and 504, and information held in the bit stream is extracted. The extracted information is converted by the variable data conversion unit 505 according to the position where the image data is newly arranged, and the data is rearranged in the order of encoding (bit stream reconstruction).
[0046]
This information is variable length encoded by a variable length encoder (VLC) 506 and an MPEG2 bit stream is output.
[0047]
Thus, according to the video conference system of this embodiment, image information conversion (bit stream reconstruction) is performed in a state where only variable-length decoding is performed without performing inverse DCT processing or motion compensation processing. Loss is small and delay time can be reduced.
[0048]
H. Complete data conversion cannot be performed between the H.261 system and the MPEG2 system.
[0049]
As a technique for performing data conversion, there are an in-loop filter and an inverse quantization process.
[0050]
H. In the H.261 system, there is a mode in which a filter having coefficient characteristics as shown in FIG. 6 is applied in order to reduce the block distortion rate due to motion compensation, but in the MPEG2 system, a filter cannot be applied. Since this filter is in the loop of the encoding process, the disturbance of the decoded image due to this error increases with time.
[0051]
As a method of reducing this error, MPEG2 half-pixel prediction is used.
[0052]
For example, by moving the value of the motion vector in the MPEG2 system by half a pixel to the upper left as shown by the “x” mark in FIG. 7A, the same effect can be obtained by applying the filter characteristics as shown in FIG. be able to.
[0053]
Further, by shifting the value of the motion vector in order as shown in FIGS. 7B to 7D, the filter coefficients shown in FIG. 6 can be approximated on average.
[0054]
H. In the case of the inverse quantization process in the H.261 system, the inverse quantization value (REC) is given by the following equation from the quantization characteristic value (QUANT) and the quantization representative value (LEVEL).
[0055]
If QUANT is odd,
REC = QUANT × (2 × LEVEL + 1); LEVEL> 0
REC = QUANT × (2 × LEVEL-1); LEVEL <0
If QUANT is an even number,
REC = QUANT × (2 × LEVEL + 1) −1; LEVEL> 0
REC = QUANT × (2 × LEVEL-1) +1; LEVEL <0
On the other hand, in the case of the MPEG2 system, the inverse quantization value (F) is given by the following expression as the quantization representative value (QF), the quantization characteristic value (QS), and the value (W) based on the quantization matrix.
[0056]
F = ((2 × QF + 1) × W × QS / 32); QF> 0
F = ((2 × QF−1) × W × QS / 32); QF <0
Therefore, if QUANT is an odd number,
QF = LEVEL, QS = QUANT × 32 / W
By doing so, REC and F can be matched, but when QUANT is an even number, they cannot simply be matched.
[0057]
Therefore, in this case, using MPEG2 system escape encoding, etc.
Figure 0003655363
By doing so, F can be approximated to REC.
[0058]
With this concept, when the form of the bit stream converter 41 shown in FIG. 4 and the form of the image composition unit 52 shown in FIG. 5 are combined to realize a new center station, the bit stream converter 41 and The variable length decoder (VLD) and the variable length encoder (VLC) overlap between the image synthesis units 52.
[0059]
Therefore, a new center station 60 can be configured by omitting VLD and VLC one by one from the bit stream conversion unit 41 and the image composition unit 52.
[0060]
As shown in FIG. 9, the center station 60 includes variable length decoders 601, 602, 603, and 604, encoding scheme conversion units 611, 612, 613, and 614, an arrangement conversion unit 605, and variable length encoding. Unit (VLC) 606.
[0061]
In this case, each H.P. Each H.261 bit stream is an H.264 bit stream. The variable length decoders 601, 602, 603, and 604 perform variable length decoding, and information included in the bit stream is extracted. The extracted information is converted into MPEG2 information by each of the encoding method conversion units 611, 612, 613, and 614, and further, the location information is converted and rearranged in accordance with the newly arranged position by the arrangement conversion unit 605. . This information is variable length encoded by an MPEG2 variable length encoder (VLC) 606, and an MPEG2 bit stream is output.
[0062]
According to the video conference system of this embodiment, the center station 10 is configured by omitting one VLD and one VLC from the bit stream converting unit 11 and the image synthesizing unit 12, and converting the same encoding method as described above. Processing can be performed.
[0063]
In addition, this invention is not limited only to embodiment mentioned above.
[0064]
In the embodiment described above, H. 261, each scheme of MPEG2 is applied to the downlink, but if there is an optimal encoding scheme other than this, it may be applied.
[0065]
In the above-described embodiment, the uplink coding scheme is the same, but there may be a plurality of uplink coding schemes. In this case, the center station may be provided with a decoder or variable length decoder adapted for each uplink.
[0066]
Furthermore, in the above-described embodiment, the same bit stream is output to each terminal on the downlink, but a different bit stream may be output for each terminal. In this case, as many output function units for screen layout conversion as the number of bit streams to be output may be prepared, and variable length encoding may be performed. Thereby, a different video can be received for each terminal. Also, by inserting an encoding method converter before the variable length encoder, it is possible to transmit bit streams of different encoding methods for each terminal.
[0067]
【The invention's effect】
As described above, according to the present invention, in the center station, information is converted by an efficient and optimal coding scheme for each of the uplink and downlink, so that communication between the terminal stations can be performed efficiently. Can do.
[0068]
In addition, since the center station combines a plurality of pieces of image information on a single screen and transmits them simultaneously to the downlink, the difference in arrival time between the information on the uplink and the information is reduced. , There is no delay in the movement of the image, you can talk more naturally.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a video conference system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a bit stream conversion unit of the TV conference system of FIG. 1;
3 is a block diagram showing an image composition unit of the TV conference system of FIG. 1. FIG.
FIG. 4 is a block diagram showing another embodiment of the bit stream conversion unit of FIG. 2;
FIG. 5 is a block diagram showing another embodiment of the image composition unit in FIG. 3;
FIG. FIG. 26 is a diagram illustrating coefficients of an in-loop filter in H.261.
FIGS. 7A to 7D are diagrams illustrating motion vector values based on MPEG2 half-pixel prediction.
FIG. It is a figure which shows the coefficient by the half pixel prediction of the MPEG2 system approximated to the filter in the loop in a H.261 system.
9 is a diagram in the case where a new center station is realized by combining the form of the bit stream conversion unit shown in FIG. 4 and the form of the image composition unit shown in FIG.
FIG. 10 is a block diagram showing a configuration of a conventional video conference system between two points.
FIG. 11 is a block diagram illustrating a configuration of a conventional video conference system between three points.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Communication line 10, 60 ... Center station, 11, 41 ... Bit stream conversion part, 12, 52 ... Image composition part, 101, 102, 103, 104 ... Terminal, 111, 121, 131, 141 ... H.261 Encoder 121, 122, 123, 124 ... MPEG2 decoder, 131, 132, 133, 134 ... Camera, 141, 142, 143, 144 ... Monitor.

Claims (7)

上り下りの各回線を有する伝送路上に少なくとも一つのセンター局と複数の端末局とを接続してなる情報通信システムにおいて、
前記センター局は、
前記各端末局により第1の符号化方式で符号化され、前記上り回線を通じて伝送されてきた各画像情報を受信して復号する画像復号手段と、
前記画像復号手段により復号された各画像情報を一つの画像に合成する画像合成手段と、
前記画像合成手段により合成された画像情報を第2の符号化方式で符号化する画像符号化手段と、
前記画像符号化手段により前記第2の符号化方式で符号化された画像情報を前記下り回線を利用して前記各端末局に伝送する情報伝送手段とを具備し、
前記各端末局は、
自局から伝送する画像情報を取得する画像取得手段と、
前記画像取得手段により取得された画像情報を前記第1の符号化方式で符号化する画像符号化手段と、
前記画像符号化手段により符号化された画像情報を前記上り回線を通じて前記センター局に伝送する情報伝送手段と、
前記センター局により前記第2の符号化方式で符号化され、前記下り回線を通じて伝送されてきた画像情報を受信して復号する画像復号手段と、
前記画像復号手段により復号された画像情報を表示する表示手段と
を具備したことを特徴とする情報通信システム。
In an information communication system in which at least one center station and a plurality of terminal stations are connected on a transmission line having uplink and downlink lines,
The center station
Image decoding means for receiving and decoding each piece of image information encoded by each terminal station using the first encoding method and transmitted through the uplink;
Image combining means for combining each image information decoded by the image decoding means into one image;
And image encoding means for encoding images information synthesized by said image synthesizing means in the second encoding method,
Information transmission means for transmitting the image information encoded by the image encoding means by the second encoding method to each terminal station using the downlink,
Each terminal station is
Image acquisition means for acquiring image information transmitted from the own station;
Image encoding means for encoding the image information acquired by the image acquisition means by the first encoding method;
Information transmission means for transmitting the image information encoded by the image encoding means to the center station via the uplink;
Image decoding means for receiving and decoding image information encoded by the center station using the second encoding method and transmitted via the downlink;
An information communication system comprising display means for displaying the image information decoded by the image decoding means.
請求項1記載の情報通信システムにおいて、
前記センター局の前記情報伝送手段が、前記複数の端末局に対して画像情報を一斉に送出する同報通信手段を具備したことを特徴とする情報通信システム。
The information communication system according to claim 1,
An information communication system , wherein the information transmission means of the center station comprises broadcast communication means for simultaneously sending image information to the plurality of terminal stations .
請求項1記載の情報通信システムにおいて、
前記センター局の画像符号化手段は、前記上り回線で用いられている前記第1の符号化方式で符号化されたデータの持つ特徴量を可変長復号によって抽出し、前記下り回線で用いられる第2の符号化方式の特徴量に変換し、この第2の符号化方式で可変長符号化して伝送データを生成することを特徴とする情報通信システム。
The information communication system according to claim 1,
The image encoding means of the center station extracts the feature amount of the data encoded by the first encoding method used in the uplink by variable length decoding, and uses it in the downlink. 2. An information communication system, wherein the transmission data is generated by converting into feature quantities of the second encoding scheme and variable-length encoding using the second encoding scheme .
請求項記載の情報通信システムにおいて、
前記センター局の画像符号化手段は、
前記第1の符号化方式において量子化特性値が偶数のときに量子化復号値を奇数に修正する場合、前記第2の符号化方式において量子化復号値が奇数となるような量子化特性値を与え、量子化復号値が前記第1の符号化方式における量子化復号値と等しくなるように前記第2の符号化方式における量子化値を決定することを特徴とする情報通信システム。
The information communication system according to claim 3 ,
The image encoding means of the center station is
When the quantized decoded value is modified to an odd number when the quantized characteristic value is an even number in the first encoding method, the quantized characteristic value is an odd number in the second encoding method. And determining a quantized value in the second encoding method so that the quantized decoded value becomes equal to the quantized decoded value in the first encoding method .
請求項記載の情報通信システムにおいて、
前記センター局の画像符号化手段は、
前記第1の符号化方式でループ内フィルタが適用されているマクロブロックに対して、前記第2の符号化方式で動きベクトルの値を、半画素分だけずらした値に変更することを特徴とする情報通信システム。
The information communication system according to claim 3 ,
The image encoding means of the center station is
For a macroblock to which an in-loop filter is applied in the first encoding method, the value of a motion vector is changed to a value shifted by half a pixel in the second encoding method. Information communication system.
請求項記載の情報通信システムにおいて、
前記センター局の画像符号化手段は、
前記動きベクトルの値を半画素分だけずらす場合、フレーム単位もしくはフィールド単位で左上、右下、左下、右上の順に変更することを特徴とする情報通信システム。
The information communication system according to claim 4 , wherein
The image encoding means of the center station is
An information communication system, wherein when the value of the motion vector is shifted by a half pixel, the motion vector is changed in order of upper left, lower right, lower left, and upper right in frame units or field units .
複数の端末局に、上り下りの各回線を有する伝送路を介して接続されたセンター局において、In a center station connected to a plurality of terminal stations via a transmission path having upstream and downstream lines,
各端末局により第1の符号化方式で符号化され、前記上り回線を通じて伝送されてきた各画像情報を受信して復号する画像復号手段と、Image decoding means for receiving and decoding each image information encoded by each terminal station using the first encoding method and transmitted through the uplink;
前記画像復号手段により復号された各画像情報を一つの画像に合成する画像合成手段とImage synthesizing means for synthesizing each image information decoded by the image decoding means into one image; ,
前記画像合成手段により合成された画像情報を第2の符号化方式で符号化する画像符号化手段と、Image encoding means for encoding the image information combined by the image combining means by a second encoding method;
前記画像符号化手段により前記第2の符号化方式で符号化された画像情報を前記下り回線を利用して前記各端末局に伝送する情報伝送手段とInformation transmission means for transmitting the image information encoded by the image encoding means by the second encoding method to each of the terminal stations using the downlink;
を具備したことを特徴とするセンター局。A center station characterized by comprising:
JP21858295A 1995-08-28 1995-08-28 Information communication system and center station Expired - Fee Related JP3655363B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21858295A JP3655363B2 (en) 1995-08-28 1995-08-28 Information communication system and center station

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21858295A JP3655363B2 (en) 1995-08-28 1995-08-28 Information communication system and center station

Publications (2)

Publication Number Publication Date
JPH0965312A JPH0965312A (en) 1997-03-07
JP3655363B2 true JP3655363B2 (en) 2005-06-02

Family

ID=16722218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21858295A Expired - Fee Related JP3655363B2 (en) 1995-08-28 1995-08-28 Information communication system and center station

Country Status (1)

Country Link
JP (1) JP3655363B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1215892A1 (en) * 2000-12-18 2002-06-19 BRITISH TELECOMMUNICATIONS public limited company Television transmission system
KR100548383B1 (en) 2003-07-18 2006-02-02 엘지전자 주식회사 Digital video signal processing apparatus of mobile communication system and method thereof
JP4928604B2 (en) * 2007-04-17 2012-05-09 パナソニック株式会社 Communications system

Also Published As

Publication number Publication date
JPH0965312A (en) 1997-03-07

Similar Documents

Publication Publication Date Title
JP4295441B2 (en) Video communication system, decoder circuit, video display system, encoder circuit, and video data receiving method
US5617142A (en) Method and apparatus for changing the compression level of a compressed digital signal
EP0618734B1 (en) Picture signal processing
US7469012B2 (en) System and method for transcoding entropy-coded bitstreams
JP2795420B2 (en) Method and apparatus and system for compressing digitized video signal
US5623312A (en) Compressed-domain bit rate reduction system
CA2156180C (en) Method and apparatus for transcoding a digitally compressed high definition television bitstream to a standard definition television bitstream
US5446498A (en) Scaling interlaced images for encoding and decoding of digital video signals of multiple scanning standards
EP1725042A1 (en) Fade frame generating for MPEG compressed video data
EP0644695A2 (en) Spatially scalable video encoding and decoding
US6614845B1 (en) Method and apparatus for differential macroblock coding for intra-frame data in video conferencing systems
US20010016010A1 (en) Apparatus for receiving digital moving picture
NZ329781A (en) Video transcoder with compensation for drift between transcoder input and output
US6526100B1 (en) Method for transmitting video images, a data transmission system and a multimedia terminal
JP3655363B2 (en) Information communication system and center station
JP2820630B2 (en) Image decoding device
Okubo Video codec standardization in CCITT study group XV
Gaggioni et al. Digital video transmission and coding for the broadband ISDN
JPH10262228A (en) Communication system, multi-point controller and video information display method
Delogne et al. Compatible coding of digital interlaced HDTV
JPH07107464A (en) Picture encoding device and decoding device
JPH09130798A (en) Information synthesis device and method
JPH0846928A (en) Picture encoding pre-processor
JP4196085B2 (en) Video signal encoding apparatus and video conference system using the same
JP2000165857A (en) Hierarchical moving picture evaluation device and moving picture communication system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050303

LAPS Cancellation because of no payment of annual fees