JP3431373B2 - マルチメディア通信システムのための符号化領域画像複合化 - Google Patents

マルチメディア通信システムのための符号化領域画像複合化

Info

Publication number
JP3431373B2
JP3431373B2 JP28426795A JP28426795A JP3431373B2 JP 3431373 B2 JP3431373 B2 JP 3431373B2 JP 28426795 A JP28426795 A JP 28426795A JP 28426795 A JP28426795 A JP 28426795A JP 3431373 B2 JP3431373 B2 JP 3431373B2
Authority
JP
Japan
Prior art keywords
video
output
dct
processor
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP28426795A
Other languages
English (en)
Other versions
JPH08237621A (ja
Inventor
ヤン リー
ジオフリー ハスケル バリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AT&T Corp
Original Assignee
AT&T Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AT&T Corp filed Critical AT&T Corp
Publication of JPH08237621A publication Critical patent/JPH08237621A/ja
Application granted granted Critical
Publication of JP3431373B2 publication Critical patent/JP3431373B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は一般的にはマルチメディ
ア通信システム、より詳細には、マルチメディア通信シ
ステムとの関連で使用されるためのビデオ処理技法に関
する。
【0002】
【従来の技術】ビデオ複合化は、複数のビデオシーケン
スを単一のビデオシーケンスを形成するために同時的に
処理する一つの技法である。この単一のビデオシーケン
スの各フレームは複数の多重ウインドウに編成される。
複数の多重ウインドウのおのおのは複数の多重ビデオシ
ーケンスの特定の一つに対応する複数のフレームを含
む。ビデオ複合技法は、マルチメディア通信の分野、特
に、マルチポイントマルチメディア会議システムの場合
のように、マルチポイント通信が関係する分野に対し
て、広範な用途を持つ。マルチポイントマルチメディア
会議においては、一群のエンドポイントの間でマルチポ
イント接続及びマルチパーティ会議呼を確立するため
に、通常、“ブリッジ”或は“マルチポイント制御ユニ
ット(MCU)が使用される。大雑把には、MCUは、
一群のエンドポイントデバイスの間に通信を提供するた
めに複数の任意の構成にて選択的に相互接続される複数
の通信ポートを含むコンピュータ制御されたデバイスで
ある。典型的なMCUは、各エンドポイントデバイスに
向けられた或はこれからのビデオ、音響、及び(幾つか
のケースにいおては)データを処理し、ルーティングす
るように装備される。
【0003】MCUは、MCUのビデオ処理機能に基づ
いて、“switched presence (交換存在)”か、或は
“continuous presence (連続存在)”のいずれかに分
類される。“switched presence (交換存在)”MCU
においては、“会議の司会者”の制御下に置かれるべき
であると特に指定されたエンドポイントデバイスによっ
て選択されるビデオ信号が、その会議に参加している全
てのエンドポイントデバイスにブロードカストされる。
別の場合として、“switched presence (交換存在)”
MCUは、各エンドポイントデバイスから受信される信
号のおのおののレベルを調べることによって、会議に参
加している全てのエンドポイントデバイスに送信される
べき特定のビデオ信号を選択する。ただし、“switched
presence(交換存在)”MCUは、ビデオ処理機能を
含まない点に注意する。つまり、MCUは、より限定さ
れた意味においては、ビデオ交換機能のみを遂行する。
従って、ある与えられた瞬間において、ある与えられた
会議に参加している各エンドポイントデバイスは、“会
議の司会者”によって使用される特に指定されたエンド
ポイントデバイスからのビデオ画像を表示するか、或
は、別の場合として、各エンドポイントデバイスは、現
在話している参加者によって使用されているエンドポイ
ントデバイスからのビデオ画像を表示する。
【0004】現存のMCUは、ビデオ信号を交換する設
備のみを持ち、交換に加えての他の機能を実行できない
ために、各エンドポイントデバイスは、他のエンドポイ
ントデバイスと通信を行なうために同一のビデオ転送速
度を使用することを要求される。現在の技術水準のMC
Uについては、ITU Document H. 243 、“Proceduresfo
r Establishing Communication Between Three or More
Audiovisual Terminals Using Digital Channels up t
o 2 Mbps ”、March 1933、及びITU DocumentH.231、
“Multipoint Control Units for Audiovisual Systems
Using DigitalChannels up to 2 Mbps”、March 1993
において説明されている。
【0005】“continuous presence (連続存在)”M
CUにおいては、MCUによって複数のビデオ複合技法
が使用される。これらビデオ複合技法は、複数のビデオ
流の選択、処理、及び結合を提供する。ここで、各ビデ
オ流は、一つの対応するエンドポイントデバイスから来
る。このようにして、複数の会議参加者からのビデオ情
報が単一のビデオ流に結合される。こうして結合された
ビデオ流は、次に、その会議に参加している全てのエン
ドポイントデバイスにブロードカストされる。このよう
な会議は、各会議参加者を他の全ての会議参加者が同時
に見ることができるために、“continuous presence
(連続存在)”会議と称される。現在、ITUによって
組織された調査班が、“continuous presence (連続存
在)”MCUの標準化に関して従事しているところであ
る。
【0006】“continuous presence (連続存在)”M
CUに対するビデオ複合機能を提供するために幾つかの
技法が開発されている。最も率直な技法は、トランスコ
ーディング法(transcoding method)と称される方法で
あるが、この方法は、複数の入力ビデオビット流を復号
する過程を含む。これら複数のビット流が画素領域に復
号され、次に、複数のビデオビット流からのビデオフレ
ームが画素領域において結合され、一つの統合されたビ
デオフレームが形成される。次に、この統合されたビデ
オフレームが分配(伝送)のために再び符号化される。
【0007】
【発明が解決しようとする課題】ビデオ複合機能を提供
するためにもう一つの技法がBellcoreによって開発され
ている。ビット流領域混合と称される。この技法は、I
TU H.261標準に準拠するシステムの背景内にお
いてのみ有効である。ビット流領域混合は、画像表現に
関して動作し、直角セグメント化として知られているプ
ロセスを活用する。このアプローチの問題点は、これが
複数のエンドポイントデバイスの非対称的な動作を要求
するために、現存の端末設備と互換性を持たないことで
ある。さらには、MCU内のビット流ミキサが受動(パ
シブ)であるために、こうして結合されたビット流は、
H.261標準において規定されているHRD要件に違
反する可能性がある。
【0008】一つの現在の技術水準のビデオ複合化に対
するアプローチにおいては、特別に設備されたビデオ端
末が使用される。各ビデオ端末は、ビデオチャネルを2
−4個のサブチャネルに分割し、出ビデオビット流をこ
れらチャネルの一つにのみ伝送するように設備される。
これらサブチャネルの全ては、同一のビット速度、同一
の画像フォーマット、及び同一の最大フレーム速度を使
用する。MCUは、それが各端末から受信するサブチャ
ネルを多重分離するための回路、これらサブチャネルを
適当にルーティングするための回路、及び各端末への伝
送の前にこれらサブチャネルを再多重化するための回路
を必要とする。各端末は復号及び表示のために最高4つ
までのサブチャネルを受信するビデオ受信機を含む。こ
の方法の長所は、これが最小の挿入遅延を持つことであ
る。ただし、この長所は、現存のビデオ端末にかなりの
程度の修正が要求され、この要件によって完全に相殺さ
れてしまう。
【0009】
【課題を解決するための手段】複数の源からのビデオ情
報を複数の長方形領域を持つビデオ画像を得るために処
理するためのビデオ複合化技法について開示される。各
長方形領域は複数のビデオ源の特定の一つからのビデオ
情報を表示する。各ビデオ源からのビデオ情報は、入り
デジタルビット流の形式を持つ。第一のビデオ源からの
デジタルビット流は第一のビット速度を持ち、第二のビ
デオ源からのデジタルビット流は第二のビット速度を持
ち、ここで第一のビット速度は、第二のビット速度と同
一であってもなくてもよい。これら入りデジタルビット
流は速度整合回路に供給されるが、この速度整合回路は
全ての入りデジタルビット流を一つの共通のビット速度
に変換する。速度整合回路の出力は、同期及びマルチプ
レクサ回路に供給されるが、この同期及びマルチプレク
サ回路は特定のデジタルビット流からのビデオ情報を複
合ビデオ画像の対応する長方形領域内に置く。
【0010】
【実施例】本発明のビデオ複合技法が実質的にITU
H.261標準に準拠する動作環境の背景内で説明され
る。つまり、ビデオ構成システムの入力及び出力は、I
TU−T文書 "Recommendation H.261, Video Codec fo
r Audiovisiual Servicesat px64 kbits/s"、May 1992
、及び "Description of Reference Model 8"、June9、1
989 において規定されている符号化フォーマットを使用
して圧縮符号化されたビデオビット流から成る。本発明
は、単に解説の目的のためにH.261標準の背景内で
説明されるものであり、ここに開示される技法は、H.
261標準に準拠しない動作環境の背景内でも有効であ
ることを理解されるべきである。
【0011】図1は符号化領域ビデオ複合化システムの
ハードウエアブロック図を示す。このシステムへの入力
は、第一、第二、第三、第四の符号化されたビデオビッ
ト流101、102、103、104であり、これら
は、おのおの、対応する伝送速度、R1、R2、R3、
R4 kbit/sec を持つ。システムの出力信号150は、
符号化されたビデオビット流であり、これは、これら入
力の任意の一つと等しい伝送速度を持つ。出力速度は、
R kbit/sec と表記される。入力は、ビデオ情報を表わ
し、上で参照されたH.261標準において説明されて
いるQCIFとして知られているフォーマットにて符号
化されている。出力は、これもH.261標準において
説明されているCIFとして知られるフォーマットにて
符号化される。出力ビデオビット流は、4つの入力ビデ
オシーケンスの複合された信号を表わす複合ビデオ信号
である。符号化されたビデオビット流は、H.261標
準に記述される符号化アルゴリズムによって圧縮され、
次に、H.261構文に従って符号化されたビデオ信号
の二進表現である。
【0012】図2及び3は、H.261標準に従ってビ
デオ情報を表現するための一例としての符号化フォーマ
ットを説明するデータ構造である。図2に示されるよう
に、ビデオ情報は複数のフレーム201、203、20
5、207、209、211、213、215、21
7、219、221から成る。これらフレームのおのお
のは、画素配列の形式にて、二次元ビデオ画像の表現を
含む。ある与えられたフレームは時間軸上の特定の瞬間
のビデオ画像を表わすために、動画を表わすために複数
のフレームが使用される。これら複数のフレームが一体
となって一つの動くビデオ画像を構成する。
【0013】各フレームは、イントラフレーム符号化
(I)及び予測符号化(P)と称される二つのタイプの
圧縮アルゴリズムのいずれかの一つに従って圧縮され
る。例えば、フレーム201と211はイントラフレー
ム符号化(I)を使用して圧縮され、フレーム203、
205、207、209、213、215、217、2
19、221は予測符号化を使用して圧縮される。図2
に示されるフレームのシーケンスは、二次元配列に配列
された複数のレベルを持つ符号化されたビデオシーケン
スの形式にてビデオ画像を表現するためのデータ構造を
確立し、ここで、各レベルは、一つの画素の値を表わ
す。この符号化されたビデオシーケンスは、符号化ビデ
オビット流と称される。
【0014】イントラフレーム符号化(I)が任意のフ
レーム、例えば、フレーム201に適用された場合は、
そのフレームは、I−指定フレーム(I-designated fra
me)と称され、一方、予測符号化(P)が任意のフレー
ム、例えば、フレーム205に適用された場合、そのフ
レームは、P−指定フレーム(P-designated frame)と
称される。
【0015】イントラフレーム符号化(I)圧縮プロセ
スにおいては、I−指定フレーム201が複数の画素ブ
ロックに分割される。ここで、各ブロックは、8×8画
素の配列から成る。次に、8×8画素ブロック内の画素
のおのおのに関して離散コサイン変換(以降、DCTと
称される)が、当業者において周知の手順に従って遂行
され、結果として、複数のDCT係数が生成される。そ
の後、これらDCT係数に関して、周知の量子化手続き
に従って、量子化が遂行される。これら量子化されたD
CT係数は、I−符号化されたフレーム201に対する
圧縮されたビデオ画像情報を構成する。
【0016】P−指定フレーム、例えば、フレーム20
5に関する予測符号化(P)は、以下のように行なわれ
る。つまり:1)P−指定フレームが複数のマクロブロ
ックに分割される。例えば、このフレームが複数の画素
配列を含み、おのおのの画素配列が16×16画素を持
つ場合(図2の251、252、253、254、25
7、258)、このブロックは、4つの隣接ブロックに
分割され、ここで、各ブロックは、8×8画素配列から
成る。16×16画素配列(輝度)と8×8画素ブロッ
ク(クロミナンス)及びと8×8画素ブロック(クロミ
ナンス)とが一体となってマクロブロック247が構成
される;2)ステップ(1)において生成されたマクロ
ブロックのおのおのに対して、ステップ(1)において
生成されたマクロブロック内の画像情報に最も類似する
画像情報を含むマクロブロックに対して最も最近起こっ
たフレーム(これは、P−指定フレームである場合も、
I−指定フレームである場合も考えられるが、ここでの
例においては、フレーム203である)が探索される;
3)ステップ(2)の前のI或はPフレーム内に発見さ
れたマクロブロックを現在圧縮されているPフレーム内
の類似するマクロブロックの位置に空間的に移行するた
めのモーションベクトルが生成される;4)これらモー
ションベクトルを使用して最も最近起こったフレームか
ら予測フレームが生成される;5)マクロブロックごと
に、圧縮中のPフレームから予測フレームを引くことに
よって、残留フレームのブロックが生成される。7)変
換された残留フレームのブロックの係数が量子化され
る。そして;8)量子化された残留係数とモーションベ
クトルを連結することによって圧縮ビデオ信号が形成さ
れる。
【0017】イントラフレーム符号化(I)画像におい
ては、全てのマクロブロックがイントラ符号化される。
つまり、全てのマクロブロックが、前のI−或はP−フ
レーム内のマクロブロックを参照することなしに、符号
化される。予測符号化(P)画像においては、マクロブ
ロックは、イントラ符号化されることも、インタ符号化
することもあり得る。
【0018】伝送のための符号化されたビデオビット流
を形成するためには、圧縮された画像情報、並びに、他
の情報、例えば、モーションベクトルが、特定のコード
語を使用して符号化される。これらコード語が次に、階
層化されたデータ構造に多重化され、こうして最終的な
ビット流が形成される。H.261のような環境内にお
いては、符号化されたビット流は、階層フォーマットに
編成されるが、この構造が図3に示される。
【0019】図2において、フレーム201、203、
205、207、209、211、213、215、2
17、219、221のシーケンスは、符号化ビデオビ
ット流を形成する。このビット流は、動くビデオ画像
(つまり、動画)を形成するように処理することができ
る符号化されたフレームの連続表現として概念化するこ
とができる。フレームの典型的なシーケンスは、IPP
P..PIPPP...であり、ここで、Iは、イント
ラ符号化されたフレームを示し、Pは予測符号化された
フレームを示す。各フレーム221に対して、そのフレ
ームを表わす符号化ビット流は、見出し263と符号化
されたデータ265を含む。各見出し263は、開始コ
ード及びおのおののフレーム(つまり、画像)に関する
データを含む。H.261システム環境内においては、
見出し情報の多くは同期の目的に使用される。例えば、
フレーム221に対するフレーム(画素)層において、
見出し263は、画素開始コード(PCS)欄267、
画素番号(TR)欄269、画素タイプ(PTYPE)欄27
1、PEI欄273、及びPSPARE欄274を含む。PE
I欄273及びPSPARE欄274は、将来の用途に対して
要求されると思われる追加の情報を収容する目的で設計
されている。
【0020】画素データは、グループのブロック(GO
B)223、225、227、229、231、23
3、235、237、239、241、243、及び2
45にセグメント化される。一つのGOB(例えば、G
OB229)は、符号化されたI−フレーム(CIF)
221の十二分の一から成る。従ってGOB229は、
符号化されたI−フレーム画像の面積の四分の一の三分
の一を含むものと概念化することができる。一つの符号
化されたI−フレーム画素の四分の一によって表わされ
る面積は、QCIF(one-quarter of a coded I-frame
picture)として頭文字にて示される。従って、一つの
CIFフレーム221内には、12個のGOB223、
225、227、229、231、233、235、2
37、239、241、243、245が存在し、一つ
のQCIFフレーム内には、3つのGOBが存在する。
CIF/QCIF画素内のGOBのこれらの配置が図2
及び3に示される。
【0021】各GOBは見出し欄291及びこれに続く
マクロブロックデータ欄298を含む。見出し欄291
は、GOB開始コード(GBSC)欄292、グループ番号
(GN)欄293、グループタイプ(GTYPE)欄294、
GOB量子化子(GQUANT) 欄295、及びGEI欄29
6とGSPARE欄297の形式での予備情報欄を含む。各G
OB229は、33個のマクロブロック、例えば、“マ
クロブロック24”(参照番号247)及び“マクロブ
ロック25”(参照番号249)を含む。一つのGOB
内のマクロブロックの配列が図2に示される。
【0022】各マクロブロックは、見出し欄275、及
びこれに続くブロックデータ欄277を含む。見出し欄
275は、マクロブロックアドレス(MBA)欄27
9、ブロックタイプ情報(MTYPE)欄281、量子化子タ
イプ(MQUANT) 欄283、モーションベクトル(MV
D)欄285、及び符号化ブロックパターン(CBP)
欄287を含む。各マクロブロック247のブロックデ
ータ欄277は、4つの輝度ブロックY1(参照番号2
51)、Y2(参照番号252)、Y3(参照番号25
3)、Y4(参照番号254)、一つのクロミナンスブ
ロックU(参照番号257)、及び一つのクロミナンス
ブロックV(参照番号259)を含む6つのブロックか
ら成る。輝度ブロックU(参照番号257)の内容の一
例が図2に示される。このブロックは、8×8の画素配
列を含み、ここでは、全ての画素が黒の輝度値を持つ。
【0023】一つのブロックは、それに対して離散コサ
イン変換(DCT)を遂行されるべき一つの画素の行列
(配列)、例えば、8×8画素の配列を表わす。これら
の画素の配列は、画素配列係数(AC)の行列によって
表わされる。変換された係数(TCOEFF) 301(図3)
は、最初に発生したDCT係数、及びこれに続く、おの
おのの画素配列係数(AC)から成る。後者は、それら
の重要度の順番に並べられる。一例としてのブロックデ
ータ欄277(図3)内のDCT及びAC係数の配列が
図4に示される。ブロックデータ欄277(図3)は、
変換係数 (TCOEFF) 301及び次々と発生するデータの
ブロックのおのおのの終端の所に付加されるブロック終
端コード(EOB)303から成る。
【0024】図1に戻り、第一、第二、第三、第四の入
力信号101、102、103、104は、おのおの、
R kbits/secの伝送速度を持つ符号化されたH.261
ビデオビット流を表わす。これら入力信号は、それぞ
れ、対応する受信バッファ105、106、107、1
08によって緩衝される。おのおののビデオ多重デコー
ダ(VMD)109、110、111、112は、おの
おののバッファからビット流を読み出し、これらビデオ
ビット流を処理する。VMD109、110、111、
112は、当業者に周知のタイプの専用のハードウエア
構成を使用して製造することができる。別の方法とし
て、デジタル信号プロセッサ(DSP)を使用してVM
D109、110、111、112を構成することもで
きるが、この場合は、これらDSPにVMDの機能を実
現するソフトウエアがロードされる。DSPと共に使用
するための適当なソフトウエアの選択は、当業者に周知
の事項である。
【0025】VMD109、110、111、112が
どの方法によって実現されるかには関係なく、各VMD
は、デコーダとデマルチプレクサとの組合わせとして概
念化することができる。VDM109が入り符号化ビデ
オビット流を受信すると、これは、このビット流を多重
分離し、ビット流内に符号化された見出し情報を復号
し、圧縮されたビデオ情報、つまり、ビデオデータを回
復する。各VMD109の出力は、3つの部分、つま
り:(1)量子化されたDCT(離散コサイン変換)係
数、(2)量子化情報、及び(3)オプションとしての
モーションベクトルから成る。
【0026】VMD109の場合は、第一の出力113
はDCT係数及び量子化パラメータを提供し、第二の出
力114はモーションベクトルを提供する。ここで、こ
の第一及び第二の出力113、114は、第一の入力信
号101から得られる。同様にして、VMD110の場
合は、第一の出力115はDCT係数及び量子化パラメ
ータを提供し、第二の出力116はモーションベクトル
を提供する。ここでは、第一及び第二の出力115、1
16は第二の入力信号から得られる。同様にして、VM
D111は第一の出力117及び第二の出力118を持
ち、第一の出力117はDCT係数及び量子化パラメー
タを表わし、第二の出力118はモーションベクトルを
表わす。ここでは、第一及び第二の出力は第三の入力信
号103から得られる。VMD112は第一の出力11
9及び第二の出力120を持ち、第一の出力119はD
CT係数及び量子化パラメータを表わし、第二の出力1
20はモーションベクトルを表わす。ここでは、第一及
び第二の出力119、120は第四の入力104から得
られる。
【0027】第一の出力113、115、117、11
9はおのおののDCT処理ユニット121、122、1
23、124に結合される。遅延時間及び計算の複雑さ
を低減するために、モーション推定技法は採用されな
い。つまり、第二の出力114、116、118、12
0から得られたモーションベクトルは、おのおののビデ
オ多重コーダ(VME)129、130、131、13
2の第一の入力端子に直接に供給される。VME12
9、130、131、132は、それぞれ、新たなビデ
オビット流を生成する機能を遂行する。
【0028】DCT処理ユニット121、122、12
3、124は、そこで第一、第二、第三、第四の入力信
号101、102、103、104からのDCT係数が
さらに処理されるユニットである。各DCT処理ユニッ
ト121、122、123、124の所で生成されるデ
ータの量はおのおのの制御信号143、144、14
5、146によって制御される。これら制御信号は速度
制御ユニット141によって生成される。
【0029】各DCT処理ユニット121、122、1
23、124はおのおのの出力端子125、126、1
27、128を持つ。各出力端子125、126、12
7、128は、処理されたDCT係数を含む信号を提供
するが、これはおのおののVME129、130、13
1、132の第二の入力端子に結合される。各VME1
29、130、131、132の所で、処理されたDC
T係数及びモーションベクトルが符号化され、図3に示
される階層化された構造に多重化される。こうして、V
ME129、130、131、132によって生成され
た、符号化され、多重化された信号は、符号化ビット流
の形式で、おのおののバッファ133、134、13
5、136に送られる。
【0030】バッファ134、135、136、137
は、それぞれ、おのおののバッファ134、135、1
36、137内のメモリ位置の占拠率として定義される
バッファ状態を示すための回路を含む。占拠率は、ある
バッファ内の占拠されたメモリ位置の数と、このバッフ
ァ内のメモリ位置の総数との比率を表わす。各バッファ
133、134、135、136に対して、様々なデー
タ転送速度に対する占拠レベルが、おのおののバッファ
出力137、138、139、140に、バッファ状態
指示信号の形式にて運ばれる。バッファ出力137、1
38、139、140の所のバッファ状態指示信号は、
各DCT係数プロセッサ121、122、123、12
4によって生成される平均データ速度を調節するために
速度制御ユニット141に加えられる。
【0031】速度制御ユニット141は、DCT処理ユ
ニット121、122、123、124のおのおのに結
合される。速度制御ユニット141は、バッファ出力1
37、138、139、140からバッファ状態指示信
号を受信し、おのおののバッファ133、134、13
5、136の所のビデオビット流に対するフレーム当り
のビットの数を計算する。この計算は、出力伝送速度R
に基づいて各複合CIFフレームに対する総ビット数を
計算する。各複合CIFフレームに対する総ビット数が
さらに4つのQCIF画像間で分配されるが、これら
は、4つのDCT係数プロセッサ121、122、12
3、124の出力によって表わされる。
【0032】各QCIF画像に割り当てされたビットが
マクロブロック当りの目標ビット数を決定するために与
えられたフレーム内の全てのマクロブロックに分配され
る。マクロブロック当りの目標ビット数に基づいて、速
度制御ユニット141は、DCT係数プロセッサ12
1、122、123、124に対する信号線143、1
44、145、146上の対応する制御信号を生成す
る。これら制御信号の特性は、DCT係数プロセッサ1
21、122、123、124が、各マクロブロックに
対して生成された実際のビット数と、特定のDCTプロ
セッサ121、122、123、124によって達成さ
れるべきマクロブロック当りの目標ビット数との間の差
が、最小にされる、或は除去されるように選択される。
マクロブロック当りの目標ビット数は、必須ではない
が、各DCTプロセッサ121、122、123、12
4に対して、同一とされることに注意する。DCTプロ
セッサ121、122、123、124はVMD10
9、110、111、112から回復されたDCT係数
を受信し、さらにこれら係数を、おのおのの制御信号に
よって指定された適当な数の係数を生成するために処理
する。
【0033】以下の方法が、速度制御ユニット141の
制御下にてビットの総数を低減する目的で、DCT係数
を処理するの使用することができる。これら方法のおの
おのは、人によって知覚できる劣化が最小にされる、ビ
デオ品質の“グレースフル”な劣化を実現する。第一の
方法は、DCT係数ゼロ化と称され、第二の方法は、D
CT係数の再量子化と称され、第三の方法は、第一の方
法と第二の方法の組合わせから成る。第一の方法におい
ては、DCT係数が様々な係数の重要度に基づいて複数
のグループに分割される。DCT係数は、一般には、二
次元配列に編成され、この編成においては、配列の左上
の隅に近い配列エントリが、配列の右下の隅に近い配列
と比較して、低い周波数要素を含むという事実があるた
めに、様々なDCT係数の重要度は知られている。つま
り、より低い周波数要素は、より重要であり、より高い
周波数要素はより重要でない。速度制御回路141によ
って信号線143、144、145、146上に生成さ
れた出力に基づいて、各DCT係数プロセッサの最も重
要でないグループの係数がゼロにセットされる。ここ
で、信号線143、144、145、146上の制御信
号は、複数の特定の重要なグループの指標のデジタル表
現から構成することも、或は、単に、マクロブロック内
のDCT係数の中の次にゼロにセットされるべき係数の
指標から構成することもできる。幾つかのDCT係数を
強制的にゼロにすることによって、DCT係数プロセッ
サ107によって生成されるデータの量を、速度制御回
路141によって適当に制御することができる。
【0034】DCT係数の典型的な分割が図10に図解
される。DCT係数は二次元配列1000に構成され、
ブロックデータ欄277(図3)に格納される。この二
次元配列1000(図5)は、8個の行及び8個の列を
含む。この配列内の各エントリは、特定のエントリグル
ープ、例えば、グループ1006、グループ1007、
或はグループ1008に対応する。これらグループは、
そこに含まれるエントリの重要度に基づいて分けられ
る。各グループは重要度レベルの特定のレンジに準拠す
るエントリを含む。これら重要度のレベルは、特定のエ
ントリが削除された場合、あるフレーム内の全体として
のビデオ画像の品質がどの程度劣化するかの相対的な程
度と関係する。図10の例においては、グループ100
6は最も重要なグループであり、重要度の高いレベルを
持つエントリを含む。グループ1007は重要度の中間
のレベルを持つエントリを含み、グループ1008は、
ビデオ画像の全体としての品質に対して最も低い重要度
を持つエントリを含む。
【0035】DCT係数を処理する第二の方法は再量子
化である。各VMD109、110、111、112の
第一の出力113、115、117、119の所の出力
信号は、二つの要素、つまり、量子化されたDCT係
数、及び量子化パラメータを含む。DCT係数に対する
値を決定するためには、以下のようにして、量子化され
たDCT係数に対して逆量子化動作が遂行される。つま
り、まず、{xK i、i=0、1、2、..63、K−
1、2、3、4}が各DCT係数プロセッサKの量子化
されたDCT係数であり;{yi 、i=0、1、...
63}が各DCT係数プロセッサKの所の再構成された
DCT係数であるものと想定される。ここで、QK pは
量子化パラメータを表わす。この想定の下で、H.26
1に類似する環境との関連で、I−符号化モードにて、
再構成されたDC係数y0 が以下の関係を使用して計算
される。
【数1】
【0036】次に、残りの係数が以下の式を使用して計
算される。
【数2】
【0037】ここで、Iモードにおける{i=1、
2、...63}及びPモードにおける{i=0、
1、...63}、及び符号(w)関数は以下のように
定義される。
【数3】
【0038】各DCT係数プロセッサ121、122、
123、124(図1)によって生成されるデータの量
を制御するために、速度制御ユニットは、マクロブロッ
ク当りの目標ビットに基づいて適当な量子化パラメータ
knew を計算し、これらパラメータをDCT係数を
再量子化するためにDCT係数プロセッサ121、12
2、123、124に送る。{zK i、i=0、1、..
63、K=1、2、3、4}を新たな量子化されたDC
T係数、QKnew を速度制御回路141から得られる
新たな量子化パラメータであるものと想定する。次に、
新たな量子化DCT係数が以下によって決定される。
【数4】
【0039】ここで、z0 はI−符号化マクロブロック
のDC係数である。残りの係数は以下によって得られ
る。
【数5】 ここで、{i=1、...63}はイントラ符号化マク
ロブロックを表わし、{i=0、1、...、63}は
インタ符号化マクロブロックを表わし、K=1、2、
3、4は各DCT係数プロセッサ121、122、12
3、124に対応する。
【0040】ビデオビット速度整合のための第三の方法
を、ここに開示される一つの好ましい実施例との関連で
採用することができる。この第三の方法は、第一及び第
二の方法の様々な機能の組合わせとしての全ての方法を
含む。第一と第二の方法をどのように組合わせるかは与
えられたシステムの特定の用途によって決定される。第
一と第二の方法の一例としての組合わせとして、DCT
係数の分割を使用してイントラ符号化されたマクロブロ
ックを処理し、次に、再量子化を使用してインタ符号化
されたマクロブロックを処理するプロセスが考えられ
る。
【0041】DCT係数プロセッサ121、122、1
23、124は上に説明される3つの異なるスキームを
実現できるように設備されており、また、低いビット速
度における速度の低減が要求される場合、及びイントラ
符号化されたフレームに対しては満足できるが、速い速
度でビデオ情報を伝送するエンドポイントデバイスと遅
い速度にてこのビデオ情報を復号する別のエンドポイン
トデバイスの間には、不整合、つまり、“ドリフト”が
発生する。この不整合は、ビデオ符号器がビデオ復号器
よりも速いビット速度にて動作することを要求されるこ
とに起因する。この不整合は全てのインタ符号化された
フレームに発生し、イントラ符号化されたフレームが定
期的にビデオビット流に挿入されない限り、時間ととも
に累積される傾向がある。この不整合の累積を制御する
ための不整合修正要素を持つ改良されたDCTプロセッ
サが図9に示される。
【0042】図9は図1の離散コサイン変換(DCT)
プロセッサに対する一例としての構造を説明するハード
ウエアブロック図である。図9のハードウエア構成は、
上で図1との関連で説明されたDCT係数プロセッサ、
並びに、他の現在の技術水準のシステム、例えば、“Lo
w Bitrate Coding(LBC) for Videophone ”、文書
番号LBC−94−166という標題のITU−T文書
において記述されるシステムに対する改良である。IT
U文書において記述されている一つの実現は、一つのモ
ーション補償予測記憶デバイス及び二つの変換動作、つ
まり:純変換動作及び逆変換動作を利用する。この実現
の主要な目的は、ビデオ符号器とビデオ復号器との間の
“ドリフト”、つまり、不整合の修正である。
【0043】ここに開示される一つの好ましい実施例に
よると、上の節において説明される二つの変換動作が不
要となる。つまり、ここで開示される方法においては、
当業者において一般的に理解されている“モーション補
償”及び“転送領域”という言葉を使用するならば、モ
ーション補償は、“転送領域”において遂行される。図
9に示されるように、この実施例の一つの特徴は、予測
フレーム記憶デバイス903の画像メモリ内に格納され
るドリフト誤差信号が完全な精度にて格納される必要が
ないことである。より具体的には、画像メモリ内には、
変換係数の少数の低周波数要素を保持することのみが必
要とされる。この方法では、比較的少数の係数のみがモ
ーション補償プロセスにおいて扱われ、また、変換動作
は必要とされないために、ここに開示される実施例の実
現は、番号LBC−94−166として識別される上に
参照のITU−T文書において記述されるシステムと比
較してかなり簡素化される。
【0044】ここに開示される簡素化されたシステムが
図9を参照しながら以下に説明される。改良されたDC
T(離散コサイン変換)プロセッサ121が示される
が、これは、逆量子化器901、量子化器902、及び
予測フレーム記憶デバイス903を含む。逆量子化器9
01は、VMD109(図1)の第一の出力113から
入力ビット流を受ける。逆量子化器901の出力は総和
器904の第一の入力に結合され、この出力は、また、
減算器906の第一の入力にも結合される。総和器90
4の出力は量子化器902の第一の入力に供給される。
量子化器902の第二の入力は信号線143に接続され
るが、信号線143は速度制御回路141(図1)に結
合される。
【0045】量子化器902(図9)の出力は減算器9
06の第二の入力に供給される。減算器906の出力は
総和器905の第一の入力に接続される。総和器905
の出力は予測フレーム記憶デバイス903の第一の入力
に結合され、予測フレーム記憶デバイス903の第二の
入力はVMD109(図1)の第二の出力に接続され
る。予測フレーム記憶デバイス903の出力は、総和器
904の第二の入力に供給されるが、この出力は、総和
器905の第二の入力にも供給される。
【0046】逆量子化器901、量子化器902、総和
器904、905、及び減算器906は、当業者に周知
のシステム要素である。これら項目に対しては従来の要
素を使用することができる。予測フレーム記憶デバイス
903については、このデバイスは、一つ或はそれ以上
のビデオフレームに対応する情報を格納するためのビデ
オバッファ、ランダムアクセスメモリデバイス、及びバ
ッファとランダムアクセスメモリの動作を制御するため
のマイクロプロセッサを含む。このマイクロプロセッサ
は、後に予測フレーム記憶デバイス903との関連で説
明されるステップを遂行するために設計されたソフトウ
エアプログラムを実行するように装備される。
【0047】図9のハードウエア構成は以下のように動
作する。R1のビット速度を持つ入力ビデオビット流が
VMD109(図1)の第一の出力105から逆量子化
器901(図9)の入力に流れるものと想定する。DC
T係数プロセッサ121(図1及び9)の一つの目的
は、変換係数を表わす出力信号を生成することにある。
DCT係数プロセッサ107が始動された初期の状態に
おいては、VMD109とVME129(図1)との間
にはドリフトは存在しない。従って、初期の動作時にお
いては、逆量子化器901は、変換係数を含む出力信号
を提供するが、この信号は、そのまま変化されずに総和
器904を通過して、量子化器902に送られる。
【0048】量子化器902の動作は、速度制御回路1
41(図1)からの信号線143上の信号によって、図
1のバッファ133の出力の所に要求される出力ビット
速度を持つ信号が提供されるように制御される。量子化
器902(図11)の出力はDCT係数プロセッサの出
力125を表わすことに注意する。この出力125が、
次に、VME129(図1)によって、再符号化され、
モーションベクトル及び量子化情報と多重化される。V
ME129は、次に、こうして、再符号化され、多重化
された信号を送信バッファ133に送る。この信号はバ
ッファ133内に蓄積され、その後、同期及びマルチプ
レクサ147(図1)の所で、同期及び多重化される。
送信バッファ133の満杯度、或はバッファ記憶位置占
拠の比率が、量子化器902に対する量子化レベルを制
御するために使用される。
【0049】次に、逆量子化器901の出力が量子化器
902の出力と等しくないものと想定する。ここで、逆
量子化器901の出力は“A”と称され、量子化器90
2の出力は“B”と称される。この想定においては、B
−Aの誤差が画像データに加えられる。Edと称される
この誤差は、画像データから図9のシステムによって減
算される。始動当初においては、Edはゼロであり、こ
のデータは、総和器905を修正されないままで通過
し、予測フレーム記憶デバイス903に至る。典型的に
は、少数の低周波数係数のみが減算器906に供給さ
れ、従って、Edは、再量子化に起因する実際のドリフ
ト誤差の単に近似にすぎない。次のビデオフレームの再
符号化の際に、Edは、前のフレームのドリフト誤差に
おおむね等しい。モーション補償予測の際に、予測フレ
ーム記憶デバイス903は、VMD109(図1)の第
二の出力114上のモーションベクトルを使用して、変
位されたドリフト誤差信号を出力する。この誤差信号
は、DCT係数プロセッサ出力15、及び要求される出
力ビット速度にてビットを受信する送信バッファの所に
送られる。修正をしない場合は、このドリフト誤差は、
時間とともに累積され、最後には、許容できないシステ
ム性能を与えることとなる。
【0050】ドリフト誤差累積の問題を改善するため
に、前のフレームのモーション補償されたドリフト誤差
Edが、量子化器902による再量子化の前に、現在の
フレームの信号Aに加えられる。量子化器902が非常
に少ない誤差を導入する場合は、この方法によってドリ
フト誤差累積問題は完全に解決されることとなる。ただ
し、量子化器902は、有限量の誤差を導入するため
に、ドリフトは、部分的に修正されるのみであり、従っ
て、減算器906の出力は、通常は、ゼロとはならな
い。従って、総和器905は、現在のフレームからのド
リフト誤差を前のフレームからの近似の累積ドリフト誤
差に加えて、現在のフレームに対する近似の累積ドリフ
ト誤差Edを生成する。
【0051】予測フレーム記憶デバイス903は、少数
の(つまり、N個の)補償された係数を計算するのみで
よい。ビデオデータのイントラブロックに対しては、予
測フレーム記憶デバイス903は、Edをゼロにセット
するようにプログラムされていることに注意する。ここ
に開示される本発明による方法を実現するために要求さ
れる計算の数は、現存の画素領域のモーション補償を使
用するプロセスを遂行するために要求される計算の数と
比較して非常に少なくてすむ。追加の長所として、ここ
に開示される方法は、現存の従来の技術による方法と比
較してかなり少ないメモリ空間を要求する。
【0052】前述のように、速度制御ユニット141
は、4つの制御信号143、144、145、146を
生成するが、これら信号は、各DCTプロセッサ12
1、122、123、124によって生成されるデータ
の量を制御する働きを持つ。従って、制御信号が変化さ
れると、複合出力ビデオビット流も変化する。入力ビデ
オビットR1、R2、R3、R4が異なる場合は、速度
制御ユニットは、適当な複合出力を生成するために、各
DCT係数プロセッサ121、122、123、124
を制御するために異なる制御信号を生成する必要があ
る。説明の目的で、二つの動作モードが定義される。第
一の動作モードにおいては、各入力速度R1、R2、R
3、R4及び要求される出力速度Rに従って、速度制御
ユニット141が適当な量の帯域幅を各DCT係数プロ
セッサ121、122、123、124に割り当てる。
これらの入力速度が同一であるような、つまり、R1=
R2=R3=R4=Rである特別のケースにおいては、
速度制御ユニット141は、等しい量の帯域幅を各DC
Tプロセッサ121、122、123、124に割り当
てる。このケースにおいては、信号線143、144、
145、146に加えられる制御信号は同一である。従
って、各CTプロセッサ121、122、123、12
4によって生成される総ビット数は同一であるか或は非
常に近い。最終複合画像(CIF)内の各四分の一のフ
レーム速度及び画質は同一である。
【0053】第二の動作モードにおいては、入力ビデオ
速度はR1=R2=R3=R4=Rであり、少なくとも
一つのDCTプロセッサ121に第一の量の帯域幅が割
り当てられ、残りのDCTプロセッサ122、123、
124の少なくとも一つに第二の量の帯域幅が割り当て
られるが、ここで、第一の帯域幅の量と第二の帯域幅の
量は等しくない。このモードは、幾つかの参加者が、動
画ではなく、静止画像、例えば、図面から成るビデオデ
ータを送信することを望むような会議の動作環境におい
て特に有効である。
【0054】静止画を表わす入力信号には大きな量の帯
域幅を割り当てる必要がないために、速度制御ユニット
141は、これら入力には、少しの帯域幅を割り当て、
同時に、動くビデオ画像のビット流を運ぶ入力信号には
より多くの帯域幅を割り当てる。これら動作モードは、
会議参加者の一人によって選択され(つまり、“司会者
制御され”)、制御プロセッサ840からの信号線14
2上に受信される信号を介して与えられたエンドポイン
トデバイスから速度制御ユニット141に供給される。
【0055】図4は上の節で説明された二つの動作モー
ドに対する制御手順を説明する流れ図である。このプロ
グラムは、ブロック401から開始され、ここで、速度
制御ユニット141(図1)が信号線142上の信号を
介してホスト制御ユニットから出力ビット速度及び要求
される一つ或は複数の動作モードを得る。また、ブロッ
ク401において、速度制御ユニット114(図1)
は、ホスト制御ユニットによって指定される動作モード
によって決定される一連の動作を実行する。例えば、R
out1、R out2、R out3、R out4がこれらビデオビット流
の目標フレーム速度としてのF out1、F out2、F out3、
F out4を持つ4つの処理されたビデオビット流に対する
目標ビット速度であるものと想定する。これらビット流
は、4つの処理されたQCIFビデオビット流の形式を
持つことに注意する。上に説明された第一の動作モード
が選択された場合は、ブロック401の所に示される初
期化の段階で、速度制御ユニット141は、以下のステ
ップを遂行する。つまり: (1)4つの処理されたビデオビット流に対する目標ビ
ット速度を指定するステップ。ここで、R out1=R out2
=R out3=R out4=R/4とされる; (2)R/4に従って、最大出力フレーム速度、R out1
=R out2=R out3=R out4を決定するステップ。ここ
で、R out1=R out2=R out3=R out4=R/4とされ
る; (3)R out1=R out2=R out3=R out4を信号線142
を介して対応するエンドポイントデバイスに、これらエ
ンドポイントデバイスが指定された最大フレーム速度に
て動作するようにするために送るステップ; (4)平均 bits per QCIF frameを計算するステッ
プ。この計算には以下の式が使用される;
【数6】 (5)4つの出力バッファをB 0/4 の初期バッファ満杯
度(メモリ位置占拠率)にて初期化するステップ; (6)ビデオ入力の第一のフレームに対して、目標 bit
s per QCIF frameを指定するステップ。ここで、
【数7】 であり、Kは、最大フレーム速度及び初期バッファ満杯
度B 0/4に基づいて選択される定数である; (7)マクロブロック当りの目標ビット数を計算するス
テップ;
【数8】 (8)目標 bits per mblkに従って、それぞれ、信号線
143、144、145、146の所の制御信号を指定
するステップ;マクロブロック処理段階402におい
て、DCT係数プロセッサ121、122、123、1
24は、以下のステップを遂行する。つまり: (1)第一の入力113、115、117、119(図
1)からマクロブロックを得るステップ; (2)速度制御ユニット141からバッファ出力14
3、144、145、146上に制御信号を得るステッ
プ; (3)ステップ(2)において得られた制御信号に従っ
てDCT係数を処理するステップ;(DCTゼロ化方法
がDCT係数プロセッサP内で使用される場合は、この
制御信号は、係数サイズ等であり、一方、再量子化方法
が使用される場合は、この制御信号は量子化パラメータ
である。)
【0056】次に、ブロック403において、一つのマ
クロブロックの処理が完了した後に、速度制御ユニット
141が、各バッファに対する新たな状態を、バッファ
出力143、144、145、146上の制御信号を得
ることによって得る。これら出力に基づいて、速度制御
ユニット141が制御信号を更新する。この更新を遂行
するためのステップには以下が含まれる。つまり: (1)各バッファからある与えられたマクロブロック内
で使用されているビットの総数を得るステップ。これ
が、bit per mblkとして指定される; (2)各DCTプロセッサに対して、bits per mblkの
目標数とbits per mblkの実際の数との間の差を計算す
るステップ;
【数9】 (3)以下に基づいて、速度制御ユニットの所の制御信
号、制御線143、144、145、146の制御信
号、バッファ出力143、144、145、146の所
の制御信号を更新するステップ;つまり;
【0057】差が0より大きな場合は、制御信号を、対
応するDCTプロセッサがDCT係数をバッファ出力の
所でより多くのビットが生成されるように処理するよう
に調節するステップ;差が0より小さな場合は、制御信
号を、対応するDCTプロセッサがDCT係数をバッフ
ァ出力の所により少ないビットが生成されるように処理
するように調節するステップ;それ以外の場合は、制御
信号の変更は行なわれない。
【0058】各マクロブロックの処理の終の所で、マク
ロブロックカウンタが、フレームが終了したか否か確か
めるために、マクロブロックの総数についてチェックさ
れる。フレームが終了した場合は、速度制御ユニット1
41がフレームパラメータの更新を開始する。ブロック
405の所で、速度制御ユニット141は以下のステッ
プを遂行する。つまり; (1)各バッファに対してバッファ状態を得るステッ
プ; (2)各QCIFフレームによって使用されるビットの
総数を得るステップ;(複合CIFフレームによって使
用されるビット数は、4つのQCIFフレームの各々に
よって使用されるビット数の総和となる); (3)目標バッファ満杯度に基づいて、次の複合CIF
フレームに対する目標ビット数を計算するステップ;
(各QCIFフレームに対するビットは、次の複合CI
Fフレームに対する目標ビット数を4で割った値に等し
い)。ここで、各QCIFフレーム内のマクロブロック
当りのビット数は以下のように与えられる:
【数10】 (4)各マクロブロックに対する目標ビット数に基づい
て、次のフレームの最初のマクロブロックに対する制御
信号の特性を決定するステップ。
【0059】フレームパラメータの更新を終えると、D
CTプロセッサは次のフレームを処理できる状態とな
る。受信バッファ内にそれ以上のビットが存在しない場
合は、図4の手続きは終了する。存在する場合は、速度
制御ユニット141は、信号線142から動作モードを
指定する信号を得る。動作モードが前に指定されたモー
ドから変更された場合は、図4に説明される全手続きが
ブロック401において再開される;そうでない場合
は、プログラムは、ブロック402の所のマクロブロッ
ク処理に復帰する。
【0060】上で述べられた第二の動作モードが指定さ
れた場合は、速度制御ユニット141は、第一の動作モ
ードとの関連で説明されたのとは異なる手続きを遂行す
る。これら異なる手続きについて以下に述べられる。説
明の目的のために、入力信号101は会議の話し手の完
全な動画ビデオを運び、一方、入力信号102、10
3、104は、おのおの、静止画像に対応するビデオ情
報を運ぶものと想定する。すると、図4に示される手続
きのように、速度制御ユニット141は、ブロック40
6の初期化の段階において、以下のステップを遂行す
る。つまり: (1)R/4に基づいて、最大フレーム速度 F out2、
F out3、F out4を指定するステップ;
【数11】 (2)Rに基づいて、最大フレーム速度 F out1を指定
するステップ; (3)フレーム速度 Fout1、Fout2 、Fout3 、Fout4 を
対応するエンドポイントデバイスに、信号線142上の
信号を介して、これらエンドポイントデバイスが指定さ
れた最大フレーム速度を使用して動作するように送るス
テップ; (4)バッファ133を初期バッファ満杯度B1 にて初
期化するステップ; (5)処理された入力信号102、103、104に対
する最初のフレームの目標ビットを計算するステップ;
【数12】 ここで、Kは最大フレーム速度 F out に基づいて選択
される定数である。目標 bits per mblkは、式、目標 b
its per mblk=目標 bits per frame total number of
mblkによって与えられる; (6)目標 bits per mblkに従って制御信号144、1
45、146の特性を指定するステップ; (7)処理された入力101に対する最初のフレームの
目標ビットを計算するステップ:
【数13】 ここで、Kは、最大フレーム速度 F out1と初期バッフ
ァ満杯度B1 に基づいて選択された定数である。ここ
で、目標 bits per mblkは、
【数14】 によって与えられる; (8)目標 bits per mblkに従って、制御信号143の
特性を指定するステップ。
【0061】マクロブロック処理段階の後に、DCT係
数プロセッサはブロック407に説明される手続きを遂
行するか、或は、ブロック408に説明される手続きを
遂行する。ブロック407の手続きを遂行するか、或は
ブロック408の手続きを遂行するかの選択は、現在の
フレームが最初のフレームであるか否かによる。最初の
フレームである場合は、ブロック407が遂行され;そ
うでない場合は、ブロック408が遂行される。ブロッ
ク407の手続きは、ブロック402、403、404
に規定されるステップを遂行することから成る。最初の
フレームが終了すると、速度制御ユニット141は、ブ
ロック409においてフレームパラメータの更新を開始
する。速度制御ユニットは、ブロック409において以
下のステップを遂行する: (1)バッファ出力137の所のバッファ状態を得るス
テップ; (2)各QCIFフレームによって使用される総ビット
を得るステップ(複合フレームによって使用される総ビ
ット数は、4つのQCIFフレームによって使用される
ビット数の総和であることに注意する); (3)バッファ出力137の所のバッファの状態及び最
初の複合CIFフレームによって使用されるビット数に
基づいて、次の複合CIFフレームに対する目標ビット
数を計算するステップ; (4)各QCIFフレームによって使用されるべきビッ
ト数を割り当てるステップ;ここで、入力信号101に
対しては、QCIFに対するビット数は以下の通りであ
る:
【数15】 従って、101QCIFフレーム内の各マクロブロック
に対する目標ビットは、
【数16】 によって与えられる; (5)各マクロブロックに対する目標ビットに基づい
て、制御線143上の制御信号の特性を決定するステッ
プ; (6)信号線144、145、146上の制御信号を出
力115、117、11から得られた全てのDCT係数
をクリアするようにセットするステップ。ここでは、出
力138、139、140上の信号がバッファ134、
135、136がクリアされるようにセットされる。
【0062】図4に再び戻り、現在のフレームが最初の
フレームでない場合は、DCT係数プロセッサはブロッ
ク408内のステップを実行する。ブロック408にお
いて、DCT処理ユニット121は、ブロック402、
403、404の所の上に説明されたステップを実行
し、DCT処理ユニット122、123、124は、以
下のステップを遂行する: (1)制御信号144、145、146を得るステッ
プ; (2)全ての入りDCT係数をゼロにセットするステッ
プ; (3)138、139、140を介してバッファ13
4、135、136をクリアするステップ; (4)ブロック404の所の上で説明されたステップを
遂行するステップ。一つのフレームの処理を終えると、
速度制御ユニットはブロック410においてフレームパ
ラメータの更新を開始する。ブロック410内のステッ
プには以下が含まれる: (1)バッファ137の所のバッファ状態を得るステッ
プ; (2)入力信号101に対応するQCIFフレームによ
って使用される総ビット数を得るステップ; (3)複合CIFフレームによって使用されるビット数
を計算するステップ。これは、入力信号101に対応す
るQCIFフレームによって使用されるビット数を3つ
のGOB見出しによって使用されるビット数に加えるこ
とによって得られる。 (4)バッファ出力137の所のバッファ状態及び目標
バッファ満杯度に基づいて、次の複合CIFフレームに
対する目標ビットを計算するステップ;入力信号101
に対応するQCIF内で使用されるべき目標ビット数は
以下によって与えられることに注意する:
【数17】 従って、101QCIFフレーム内の各マクロブロック
に対する目標ビット数は
【数18】 によって与えられる; (5)各マクロブロックに対する目標ビット数に基づい
て、制御信号143に対する適当な信号を生成する。
【0063】フレームパラメータの更新が終了すると、
DCTプロセッサは、新たなフレームに対する準備が整
う。バッファ内に追加のデータが存在しない場合は、こ
の手続きは終了する。そうでない場合は、速度制御ユニ
ット141は信号線142から動作モードを得る。動作
モードが変更されてない場合は、ブロック401から全
手続きが再開され;変更されている場合は、ブロック4
11に戻る。
【0064】同期及び多重化ユニット147は、バッフ
ァ出力133、134、135、136から4つの処理
された入力ビット流を受信する。同期及び多重化ユニッ
ト147は、次に、これらビット流を、新たな複合ビデ
オビット流150を形成するために同期及び多重化す
る。詳細なブロック図及びバッファ出力133、13
4、135、136とマルチプレクサの出力150との
間の対応する関係が図5に示される。
【0065】図5に示されるように、同期及びマルチプ
レクサユニット147は、スイッチャ500、マルチプ
レクサプロセッサ501、及びバッファ502から成
る。信号線148上の制御信号は、スイッチャ500の
動作を、スイッチャが時間軸上の第一の瞬間において第
一の入力バッファにスイッチし、時間軸上の第二の瞬間
においては第二の入力バッファにスイッチするように制
御する。これら信号線は、要求される動作モード(“動
作モード”という用語は上で定義された通りである)を
入力するためのユーザインタフェース手段を含むエンド
ポイントデバイスに結合される。マルチプレクサプロセ
ッサ501は、これら入力データを信号線148を介し
て得られた動作モードに基づいて処理し、次に、こうし
て処理されたデータをバッファ502に送る。
【0066】図6は図5の同期及びマルチプレクサユニ
ット147によって実行される手続きを説明する流れ図
である。図6に示されるように、第一の動作モード(上
に定義)が使用される場合は、マルチプレクサプロセッ
サ501(図5)は、ブロック601に説明されるステ
ップに基づいて入力データを処理する。第二の動作モー
ドが使用される場合は、マルチプレクサプロセッサ50
1は、ブロック602内に説明されるステップに基づい
て入力データを処理する。
【0067】ブロック601の所で遂行されるステップ
には以下が含まれる: (1)バッファ出力133から最初のGOBのデータを
アップローディングするステップ; (2)ステップ(1)のデータをバッファ502(図
5)にダウンローディングするステップ; (3)バッファ出力から最初のGOBのデータをアップ
ローディングするステップ; (4)GN=2にリセットするステップ; (5)ステップ(4)において修正されたデータをバッ
ファ502にダウンローディングするステップ; (6)バッファ出力133から第二のGOBのデータを
アップローディングするステップ; (7)ステップ(6)のデータをバッファ502にダウ
ンローディングするステップ; (8)バッファ出力134から第二のGOBのデータを
アップローディングするステップ; (9)GN=4にリセットするステップ; (10)ステップ(8)及び(9)のデータをバッファ
502にダウンローディングするステップ; (11)バッファ出力133から第三のGOBのデータ
をアップローディングするステップ; (12)ステップ11のデータをバッファ502にダウ
ンローディングするステップ; (13)バッファ出力134から第三のGOBのデータ
をアップローディングするステップ; (14)GN=6にリセットするステップ; (15)ステップ13及び14のデータをバッファ50
2にダウンローディングするステップ; (16)バッファ出力135から最初のGOBのデータ
をアップローディングするステップ; (17)GN=7にリセットするステップ; (18)ステップ16及び17のデータをバッファ50
2にダウンローディングするステップ; (19)バッファ出力136から最初のGOBのデータ
をアップローディングするステップ; (20)GN=8にリセットするステップ; (21)ステップ19及び20のデータをバッファ50
2にダウンローディングするステップ; (22)バッファ出力135からの第二のGOBのデー
タをアップローディングするステップ; (23)GN=9にセットするステップ; (24)ステップ22及び23のデータをバッファ50
2にダウンローディングするステップ; (25)バッファ出力136からの第二のGOBのデー
タをアップローディングするステップ; (26)GN=10にリセットするステップ; (27)ステップ25及び26のデータをバッファ50
2にダウンローディングするステップ; (28)バッファ出力135からの第三のGOBのデー
タをアップローディングするステップ; (29)GN=11にリセットするステップ; (30)ステップ28及び29のデータをバッファ50
2にダウンローディングするステップ; (31)バッファ出力136からの第三のGOBのデー
タをアップローディングするステップ; (32)GN=12にリセットするステップ; (33)ステップ31及び32のデータをバッファ50
2にダウンローディングするステップ。
【0068】ブロック601が実行された後に、プログ
ラムはブロック602に進む。ブロック602内のステ
ップには以下が含まれる: (1)入力データがビデオの第一のフレームを表わす場
合は、ブロック601の手続きが実行される;そうでな
い場合は以下のステップが実行される: (2)バッファ出力133からの最初のGOBのデータ
をアップローディングし、このデータをバッファ502
にダウンローディングするステップ; (3)GN=2を持つGOB見出しを生成し、このデー
タをバッファ502にダウンローディングするステッ
プ; (4)バッファ出力133からの第二のGOBのデータ
をアップローディングし、このデータをバッファ502
にダウンローディングするステップ; (5)GN=4を持つGOB見出しを生成し、このデー
タをバッファ502にダウンローディングするステッ
プ; (6)バッファ出力133からの第三のGOBのデータ
をアップローディングし、このデータをバッファ502
にダウンローディングするステップ; (7)それぞれ、GN=6、7、8、9、10、11、
12を持つGOB見出しを生成し、このデータをバッフ
ァ502にダウンローディングするステップ。
【0069】図7はビデオ複合化システムの一つの代替
実施例を説明するハードウエアブロック図である。この
システムは、第一、第二、第三、第四の入力701、7
02、703、704を持つが、これらは、図1との関
連で説明された入力信号と類似する入力信号を符号化ビ
デオビット流の形式にて受信する。出力710の所の出
力信号は、R kbits/sのビット速度を持つ符号化された
ビデオビット流である。第一、第二、第三、第四の入力
701、702、703、704の所の信号は、各々の
バッファ705、706、707、708を使用して緩
衝され、その後、同期及びマルチプレクサユニット70
9に供給される。同期及びマルチプレクサユニット70
4の所で、これら第一、第二、第三、第四の入力70
1、702、703、704の所の信号が出力710の
所の一つの出力信号に結合される。これら信号が結合さ
れる方法は、信号線723上の動作モード信号によって
決定される。この信号は同期及びマルチプレクサユニッ
ト709に対する要求される動作モードを指定する。例
えば、この信号は、4つの入力701、702、70
3、704を同一の割合にて結合して出力710の所に
一つの出力信号を形成するような動作モードを指定する
こともできる。これら4つの入力701、702、70
3、704は、おのおの、QCIFフォーマットを持
つ。出力710の所の信号は、R1+R2+R3+R4
kbits/sの伝送速度を持つ4つのQCIF信号が複合化
されたものである。R kbits/sの出力伝送速度を整合す
るために、出力710の所の信号がビデオ伝送速度低減
システム740に送られる。ビデオ伝送速度低減システ
ム740は、ビデオマルチプレックスデコーダ(VM
D)711、DCT係数プロセッサ714、ビデオマル
チプレックスエンコーダ(VME)716、送信バッフ
ァ718、及び速度制御ユニット720を含む。ビデオ
伝送速度低減システム740の機能及び動作の詳細に関
しては、本発明の出願と同一の日付にて同一の出願者名
にて出願された“Video Transmission Rate Matching f
or Multimedia Communications Systems”という名称の
上に参照された特許出願において説明されている。
【0070】同期及びマルチプレクサユニット709
は、制御信号148がバッファ705、706、70
7、708からアップローディングされたデータと置換
されるのを別として、図1の参照番号147との関連で
説明されたそれと事実上同一である。
【0071】図1及び7に示されるビデオ複合化システ
ムは、例えば、汎用マイクロプロセッサ、デジタル信号
プロセッサ(例えば、AT&T DSP3210或はA
T&TDSP1610)、及び/或はプログラマブルビ
デオ処理チップ(例えば、当業者においてITT VC
Pチップとして知られている集積回路)を使用して実現
することができる。
【0072】本発明によるビデオ処理を使用するマルチ
メディアシステム マルチメディア会議の背景における本発明に対する様々
な典型的な用途について解説するために、図8は、ここ
に開示される符号化領域ビデオ複合技法を具現するビデ
オプロセッサを使用するマルチメディアシステムを示
す。図8には、マルチメディア会議システム800のシ
ステムアーキテクチュアを図解するブロック図が示され
る。この会議システムは、MCU810、ISDN網8
04、複数のエンドポイントデバイス、例えば、第一の
エンドポイントデバイス801、第二のエンドポイント
デバイス802、及び第三のエンドポイントデバイス8
03を含む。
【0073】エンドポイントデバイス801、802、
803はISDN網804を介してMCU810に結合
される。これらエンドポイントデバイス801、80
2、803は、一つ或はそれ以上のユーザインタフェー
スデバイスを含む。各インタフェースデバイスは、一つ
の入力手段、一つの出力手段、或は一つの出力手段と組
合わせられた入力手段を含む。出力手段は、音響、ビデ
オ、或はデータを表わすマルチメディア電子信号を、実
際の音響、ビデオ、或はデータに変換するように設計さ
れる。入力手段は、音響、ビデオ、及び/或はデータ入
力を受信して、これら入力を音響、ビデオ、及び/或は
データを表わす電子信号に変換するように設計される。
ユーザインタフェースデバイスの幾つかの例としては、
ビデオディスプレ、キーボード、マイクロホン、スピー
カ、及びビデオカメラ等を挙げることができる。
【0074】エンドポイントデバイス801、802、
803は現存のマルチメディア通信プロトコル、例え
ば、ISDNを使用して通信するように設計される。エ
ンドポイントデバイスマルチメディア通信プロトコル
は、エンドポイントデバイスユーザへのマルチメディア
流(音響、ビデオ、及び/或はデータ情報を表わす電子
信号)の提供を制御する。エンドポイントデバイスが、
双方向的に、マルチメディア情報の送信及び受信の両方
を行なうように機能することも、或は、別の方法とし
て、エンドポイントデバイスが、単方向に、マルチメデ
ィア情報の受信は行なうが送信は行なわないように、或
はマルチメディア情報の送信は行なうが受信は行なわな
いように機能することも考えられる。
【0075】適当なエンドポイントデバイスの一例とし
て、ITU-T H.320 オーディオビジュアル端末を用いるこ
とができるが、ただし、デジタルマルチメディア流を受
信し、これをユーザに提供する能力を持つデバイスであ
ればどんなデバイスでもエンドポイントデバイスとして
使用することが可能である。H.320-コンパティブルなエ
ンドポイントの一つの特定の製品例として、AT&T-GIS V
istiumがある。
【0076】MCU810は、コンピュータ制御された
デバイスであり、これは、複数の通信ポート、例えば、
第一の通信ポート870及び第二の通信ポート872を
持ち、これら通信ポートは、一群のエンドデバイス80
1、802、803の間に通信を提供するように様々な
方法に選択的に相互接続される。図8のシステムは、二
つの通信ポートを示すが、これは、単に解説の目的でこ
のように示されたものであり、都合の良い任意の数の通
信ポートを使用することができる。MCU810は、さ
らに、制御プロセッサ840、音響プロセッサ841、
ビデオプロセッサ842、データプロセッサ843、及
び共通内部スイッチ819を含む。各通信ポートは網イ
ンタフェース、デマルチプレクサ、及びマルチプレクサ
を含む。例えば、第一の通信ポート870は網インタフ
ェース811、デマルチプレクサ813、及びマルチプ
レクサ822を含む。
【0077】MCU810は、解説の目的上、二つの通
信ポート870、872を持つように示されるが、MC
U810は、実際には、都合の良い任意の数の通信ポー
トを含むことができる。N個のポートを持つMCU81
0の場合は、N個の網インタフェース、一つの制御プロ
セッサ、一つの音響プロセッサ、一つのビデオプロセッ
サ、及び一つのデータプロセッサが存在する。各プロセ
ッサに対して、N個のデマルチプレクサから入るN個の
入力信号及びN個のマルチプレクサに出るN個の出力信
号が存在する。従って、MCU810は、N−ポートM
CUとして概念化することができるが、ここでは、二つ
の通信ポート870、872のみが明示的に示される。
【0078】図8に示されるように、第一の通信ポート
870は網インタフェース811、デマルチプレクサ8
13、及びマルチプレクサ812を含む。網インタフェ
ース811は、ISDN網804によって使用される標
準の回線信号符号化法とMCU810によって使用され
るP×64 kbps H.221信号との間の変換機能を提
供する回路である。網インタフェース811は、出力ポ
ート812を含むが、これはH.221信号の形式にて
出力を提供するために使用される。H.221信号は、
実際には、複数の異なるタイプの情報(音響、ビデオ、
データ、制御)が多重化された信号であり;従って、網
インタフェース811は、入りMCUH.221信号を
多重分離デバイス、例えば、デマルチプレクサ813に
送らなければならない。同様に、網インタフェース81
1は、マルチプレクサ822からのH.221信号を受
信するように設計された入力ポート823を持つ。マル
チプレクサ822は、一つの特定のエンドポイントデバ
イスに伝送されるべき複数の個別に処理された信号を結
合する。
【0079】デマルチプレクサ813は、網インタフェ
ース811から受信された入りマルチメディア信号を4
つの成分、つまり:制御情報を表わす電子信号から成る
第一の成分814;音響情報を表わす電子信号から成る
第二の成分815;ビデオ情報を表わす電子信号から成
る第三の成分;及びデータを表わす第四の成分に分離す
る。これら第一、第二、第三、第四の成分814、81
5、816、817は、デマルチメディア813の出力
を構成し、これらは、共通内部スイッチ819に結合さ
れる。
【0080】マルチプレクサ822は共通内部スイッチ
819からの複数の入りマルチメディア信号成分、例え
ば、制御を表わす第一の成分818、音響を表わす第二
の成分891、ビデオを表わす第三の成分820、及び
データを表わす第四の成分821を受信する。マルチプ
レクサ822は、これら第一、第二、第三、第四の成分
818、891、820、821を単一のマルチメディ
ア信号流に統合し、これら信号流は網インタフェース8
22に結合される。網インタフェース811は、これら
マルチメディア信号流を特定のエンドポイントデバイス
801、802、803にルートする。第二の通信ポー
ト872に関しては、これら4つの出力成分は、制御を
表わす第一の成分824、音響を表わす第二の成分82
5、ビデオを表わす第三の成分826、及びデータを表
わす第四の成分827から成る。第二の通信ポート87
2内のマルチプレクサへの4つの成分は、制御を表わす
第一の成分828、音響を表わす第二の成分829、ビ
デオを表わす第三の成分830、及びデータを表わす第
四の成分831から成る。
【0081】共通内部スイッチ819は複数の電子スイ
ッチ、バッファ、及び/或は増幅器を含み、これらが制
御プロセッサ840の制御下に置かれる。共通内部スイ
ッチ819は、音響を表わす電子信号を混合及び交換す
るための音響プロセッサ842に結合される。共通内部
スイッチ918は、さらに、それぞれ、ビデオとデータ
を表わす電子信号を混合及び交換するために、ビデオプ
ロセッサ842とデータプロセッサ843にも結合され
る。従って、共通内部スイッチ819は、結果として、
各通信ポート870、872から4つの出力成分を受信
し、これら出力成分をMCU810内のおのおののプロ
セッサ(制御プロセッサ840、音響プロセッサ84
1、ビデオプロセッサ842、及び/或はデータプロセ
ッサ843)の選択された一つにルートする。同様にし
て、共通内部スイッチ819は、MCU810内の各プ
ロセッサの出力成分を受信し、これら出力を各通信ポー
ト870のマルチプレクサ822にルートする。
【0082】共通内部スイッチ819は、制御プロセッ
サ840からの出力制御信号を信号線851を通じて受
信し、入力制御信号を制御線850を通じて制御プロセ
ッサ840に提供する。共通内部スイッチ819は音響
プロセッサ841からの音響信号を信号線853を通じ
て受信し、入力音響信号を制御線852を通じて音響プ
ロセッサ841に提供する。共通内部スイッチ819は
ビデオプロセッサ842からの出力ビデオ信号を信号線
855を通じて受信し、出力ビデオ信号を信号線845
を通じてビデオプロセッサ842に提供する。共通内部
スイッチ819はデータプロセッサ843からの出力デ
ータ信号を信号線857を通じて受信し、入力データ信
号を信号線856を通じてデータプロセッサ843に提
供する。制御プロセッサ840は、制御信号を信号線8
44を通じて、音響プロセッサ841、ビデオプロセッ
サ842、及びデータプロセッサ843に提供する。
【0083】ISDN網804は信号線805を通じて
MCU810に接続される。MCU810内において、
信号線805は、第一と第二の通信ポート870、87
2に並列に接続される。例えば、第一の通信ポート87
0の場合は、信号線805は網インタフェース811に
接続される。網インタフェース811は信号線812を
通じてデマルチプレクサ813に結合される。この網イ
ンタフェース811は、また、信号線823を通じてマ
ルチプレクサ822にも結合される。信号線812はデ
マルチプレクサ813の入力端子に結合され、信号線8
23はマルチプレクサ822の出力端子に結合される。
【0084】音響プロセッサ841は、音響信号を処理
するためのソフトウエア及びハードウエアを含む。この
処理としては、音響信号の交換、音響信号の混合、或は
両者が含まれる。音響混合の場合は、音響プロセッサ8
41への入力信号は、MCU810の通信ポート87
0、872の全てからの音響出力信号から成る総和音響
信号である。N−ポートMCU810の場合は、この信
号は、各通信ポート870、872内のデマルチプレク
サからのN個の音響信号を含む。
【0085】音響信号を混合するために、音響プロセッ
サ841は、各音響入力を復号し、復号化によって得ら
れた信号を線形的に加えて、これら線形総和を再符号化
する。各エンドポイントデバイスに対して、この線形総
和は、各エンドポイントデバイスにそのエンドポイント
デバイスに特有の音響情報を提供するために、追加の処
理ステップを施される。これら追加の処理ステップに
は、例えば、以下の任意のステップ、つまり:ある与え
られたエンドポイントデバイスに対する出力総和がその
エンドポイントの入力を排除するようにするステップ;
総和がその現在或は最近の値があるしきい値を超える入
力を含むようにするステップ;或はその総和を“司会者
(chair )”と称される人によって使用される特別に指
定されたエンドポイントデバイスから制御し、これによ
って、通常、司会者コントロール(chair control )と
して知られる機能を提供するステップ等が含まれる。従
って、音響プロセッサ841の出力は、N個の処理され
た音響信号の形式を持つ。
【0086】音響交換の場合は、音響プロセッサ841
への入力信号は、制御プロセッサ840から受信される
制御信号に基づいて、与えられた通信ポート870或は
872から選択された単一の音響信号である。音響交換
のみを伴う本発明の実施例こにおいては音響処理は遂行
されない。音響入力が、全ての他の音響プロセッサ84
1の出力に、自動的に、或は手操作による制御下でブロ
ードカストされる。データプロセッサ843は、当業者
に“ブロードカスト(broadcast )”或は“MLP”と
して知られている一つ或は両方に機能を実現するための
ハードウエア及びソフトウエア手段を含む。各タイプの
ブロードカストデータに対して、データ入力が、一時に
一つのエンドポイントデバイスのみから受理される。従
って、データプロセッサ843への入力信号は、通信ポ
ート870、872の一つからの出力データである。こ
のデータ出力はこれらデータを受信する特定のエンドポ
イントデバイスの能力に従って制御プロセッサ840に
よって決定される他のエンドポイントデバイスにブロー
ドカストされる。この特定のエンドポイントデバイスの
能力は、おのおののエンドポイントデバイスのメモリユ
ニット(RAM或はROM)内に格納される能力コード
によって示される。画像複合化に対して選択されたエン
ドポイントデバイスの場合は、制御処理ユニット840
は、それらの能力コードを、通信リンクの出力伝送速度
に基づいて新たな最大フレーム速度を指定することによ
って修正し、この新たな能力コードを、4つの選択され
たエンドポイントに、これらがビデオビット流を適当な
最大フレーム速度にて生成することができるように送信
する。これらエンドポイントデバイスのいずれからも特
別な要件が受信されない場合は、制御プロセッサ840
は、動作モードをモード1(第一のモード)にセットす
る。
【0087】制御プロセッサ840は、マルチメディア
会議を通じての音響、ビデオ、データ及び制御信号の適
切なルーティング、交換、フォーマット及びタイミング
を決定する責任を持つ。制御プロセッサ840は各エン
ドポイントデバイスから一つ或はそれ以上の容量コード
を取り出す。容量コードは、エンドポイントデバイスの
RAM及び/或はROM内に格納されるが、これらは、
そのエンドポイントデバイスに対する音響、ビデオ、デ
ータ、及び/或は制御信号の容量を指定する。制御プロ
セッサ840は、あるマルチメディア会議に参加してい
る全てのN個のエンドポイントデバイスから容量コード
を取り出す。これら容量コードは、MCU810内のメ
モリユニット(RAM)内に、制御プロセッサ840が
全てのエンドポイントデバイスに対して適切に会議を管
理することができるように格納される。このメモリ装置
は、例えば、制御プロセッサ840と関連するランダム
アクセスメモリ(RAM)デバイスとして実現される。
容量コードを取り出すと、MUC810は、それら容量
コードをN個の通信ポート870、872のおのおの
に、各エンドポイントデバイス801、802、803
がMCU810によって決定された、それら特定のエン
ドポイントデバイス801、802、803に適当なビ
ット速度にてMCU810と通信を開始できるように送
信する。
【0088】制御プロセッサ840は、会議参加者によ
ってエンドポイントデバイス801、802、803の
ユーザインタフェース内に入れられた入力を受信する。
これら入力は、司会者制御コマンド及びH.221標準
に準拠するビット流内に埋込まれたコマンドの形式を持
つ。エンドポイントデバイスからのコマンドは、それぞ
れ、音響、ビデオ、及びデータプロセッサ841、84
2、843への適当なビット流の分配を確保するため
に、音響プロセッサ841内の音響ミキサへの入力の所
で適当な音響復号アルゴリズムが使用されるのを確保す
るために、及び任意の入りデータがデータプロセッサ8
43内のデータブロードカストユニット或はMLPプロ
セッサに送られることを確保するために、制御プロセッ
サ840にルートされる。
【0089】制御プロセッサ840は、また、それぞ
れ、音響、ビデオ、及びデータプロセッサ841、84
2、843から各マルチプレクサ822、834へのビ
ット流の交換を制御し、音響プロセッサ841の音響ミ
キサ内で使用される音響符号化アルゴリズム、及び音響
ミキサからの各出力の所で使用されるアルゴリズムを指
定する。これらビット流は、共通内部スイッチ819に
よって、制御プロセッサ840の制御下で、様々なプロ
セッサ841、842、843に向けて或はこれからル
ートされる。
【0090】本発明の画像複合技法を具現するビデオプ
ロセッサ842は、共通内部スイッチ819から受信さ
れるビデオ信号を処理する。この処理としては、ビデオ
の交換、ビデオの混合、或はこの両方が考えられる。ビ
デオの交換においては、ビデオプロセッサ842はスイ
ッチ819から一つの選択されたビデオ信号を受信し、
このビデオ信号をある与えられたマルチメディア会議に
参加する幾つかの或は全ての他のエンドポイントデバイ
スに送信する。ビデオの選択は、自動的に行なうこと
も、或は、手動による制御下でおこなうことも考えられ
る。例えば、音響プロセッサ841及びビデオプロセッ
サ842を制御プロセッサ840によって、現在アクテ
ィブな音響を持つエンドポイントデバイス(つまり、所
定の音響振幅しきい値以上の音響信号をMCU810に
提供する“現在の話者”によって使用されるエンドポイ
ントデバイス)が前にアクティブな音響を持ったエンド
ポイントデバイス(つまり、“前の話者”によって使用
されたエンドポイントデバイス)の画像を受信し、他の
全てのエンドポイントデバイスは、現在の話者の画像を
受信するように自動的に制御することもできる。
【0091】スプリアスな音響に起因する次第に頻繁化
するビデオ画像の変化を回避するために、ビデオプロセ
ッサ842によって実現されるビデオ交換に、時間遅延
を導入することも可能である。音響交換の場合と同様
に、ビデオ交換を“司会者”と称される人によって使用
される特別に指定されたエンドポイントデバイスから直
接に制御することも可能である。ビデオプロセッサ84
2内の遅延と音響プロセッサ841内の遅延とが、かな
りの(人によって知覚できる程度の)量だけ異なる場合
は、補償のための遅延が適当なビット流内にリップ同期
を保持するために挿入される。
【0092】ビデオ混合の場合は、ビデオプロセッサ8
42は、スイッチャ819から4つの選択されたビデオ
ビット流を受信し、これら4つのビット流を、図1の画
像複合化システム100、或は、ビデオ処理ユニット内
に埋込まれた図7のシステム700を使用して、一つの
ビデオビット流に複合(化)する。この複合ビット流8
55は共通内部スイッチ819に供給される。スイッチ
819を通じて、この複合信号は、制御処理ユニット8
40の制御下において、それらの対応する通信ポートを
介して適当なエンドポイントデバイスにスイッチされ
る。
【図面の簡単な説明】
【図1】ここに開示される一つの好ましい実施例に従う
ビデオ複合化装置のブロック図である。
【図2】ITU H.261 標準に準拠する信号の符号化フォー
マットを表わす絵図である。
【図3】ITU H.261 標準に準拠する信号の符号化フォー
マットを表わす絵図である。
【図4】ここに開示される好ましい実施例に従うビデオ
複合(化)方法を説明する流れ図である。
【図5】同期及び多重化ユニットのハードウエアブロッ
ク図である。
【図6】図5のシステムによって使用される同期及び多
重化手続きを説明する流れ図である。
【図7】ここに開示される好ましい実施例に従って構成
されたビデオ複合化システムを説明するハードウエアブ
ロック図である。
【図8】図7のビデオプロセッサに対する一例としての
ハードウエア構成を示すブロック図である。
【図9】図1の離散コサイン変換(DCT)に対する一
例としての構造を説明するハードウエアブロック図であ
る。
【図10】DCT係数の分割の一例を説明するデータ構
造の図である。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 バリン ジオフリー ハスケル アメリカ合衆国 07724 ニュージャー シィ,ティントン フォールズ,グレン ウッド ドライヴ 82 (56)参考文献 特開 平4−207287(JP,A) 特開 平4−49789(JP,A) 特開 平1−94786(JP,A) 特開 平4−54089(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 7/14 - 7/15 H04N 7/24 - 7/68

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】 圧縮領域において、4つまでの符号化さ
    れたビデオ入力ビットストリームを1つの複合ビデオ出
    力ビットストリームへ統合する圧縮領域ビデオ複合シス
    テムであって、 (a)4つまでの符号化されたビデオ入力ビットストリ
    ームにビット速度低減を選択的に適用して、対応する低
    減ビット速度を各々が有するビット速度低減ビデオビッ
    トストリームの集合を生成するビット速度低減デバイス
    と、 (b)ビット速度低減ビデオビットストリームを複合ビ
    デオ出力ビットストリームに結合する複合デバイスから
    なり、該複合ビデオ出力ビットストリームは低減ビット
    速度の総和と等しいビット転送速度を有しており、 該ビット速度低減デバイスは、4つまでの符号化された
    ビデオ入力ビットストリームのいずれかに速度低減を選
    択的に適用して、所望のビット伝送速度を有する複合ビ
    デも出力ビットストリームを提供するものであり、該シ
    ステムはさらに、 (c)対応する4つまでの符号化ビデオ入力ビットスト
    リームを受信する4つまでのバッファと、 (d)4つまでの符号化されたビデオ入力ビットストリ
    ームを同期し、そして4つまでの符号化ビデオ入力ビッ
    トストリームを1つの圧縮された複合ビデオ出力ビット
    ストリームへ多重化する同期多重化デバイスと、 (e)4つまでの符号化ビデオ入力ビットストリームの
    各々に対応する送信速度低減システムとからなり、該送
    信速度低減システムは、第1の転送速度を有する第1の
    圧縮ビデオビットストリームを第2の転送速度を有する
    第2の圧縮ビデオビットストリームへ変換するものであ
    り、該第2の転送速度は該第1の転送速度よりも遅いも
    のであり、該送信速度低減システムは、 (i)第1のビデオストリームを多重分離し復号化し
    て、(a)第1のビデオビットストリームに対するデジ
    タル化された複数の周波数成分を表す量子化DCT係数
    マイクロブロックと、(b)マイクロブロックの各々に
    対する垂直離散と水平離散を特定するモーションベクト
    ル対と、(c)圧縮されたビデオ画像と、圧縮ビデオ画
    像同期情報と、圧縮ビデオ画像の各マイクロブロックま
    たはマイクロブロック群の位置に対する開始点を特定す
    るヘッダ情報とを生成するビデオ多重デコーダと、 (ii)該ビデオ多重デコーダから量子化DCT係数マイ
    クロブロックを受信し、該速度制御プロセッサから量子
    化情報を受信して、該ビデオ多重デコーダから受信した
    量子化DCT係数マイクロブロックの係数の数よりも少
    ない数のDCT係数を含む、処理されたDCT係数マイ
    クロブロックの集合を生成するDCT係数プロセッサ
    と、 (iii)該DCT係数プロセッサから得た量子化DCT
    係数マイクロブロックを符号化し、該DCT係数プロセ
    ッサから得たモーションベクトルを符号化し、そして符
    号化したモーションベクトルと符号化したDCT係数マ
    イクロブロックとでヘッダ情報を多重化して第2の圧縮
    されたビデオビットストリームを生成するビデオ多重エ
    ンコーダとからなり、該圧縮領域ビデオ複合システムは
    さらに、 (iv)4つまでの該DCT係数プロセッサに対する制御
    情報を提供する中央速度制御プロセッサとからなり、該
    速度制御プロセッサは、該4つまでのDCT係数プロセ
    ッサに対して新しい量子化情報を生成するプロセッサか
    らなり、新しい量子化情報は、ビデオ送信バッファに残
    る有効ビットの数を特定する送信バッファ状態値と複合
    ビデオ出力ビットストリームに対する所望のビット速度
    とに従って生成されることを特徴とするシステム。
  2. 【請求項2】 請求項1に記載のシステムにおいて、該
    4つまでのDCT係数プロセッサの各々はさらに、 (a)該ビデオ多重デコーダからの量子化情報と量子化
    DCT係数との受信に応動して、量子化情報に従って、
    再構築されたDCT係数の形式で出力を生成する第1の
    逆量子化器と、 (b)再構築されたDCT係数と帰還DCT誤り信号と
    を受信して、該速度制御プロセッサから得た新しい量子
    化情報に従って、再量子化されたDCT係数を生成する
    量子化器と、 (c)再量子化されたDCT係数を受信して、新しい量
    子化情報に基づいて再構築されたDCT係数を生成する
    第2の逆量子化器と、 (d)複数のDCT係数ブロックを含むフレームを記録
    する、予測フレーム記録デバイスと、 (e)該ビデオ多重デコーダから複数のモーションベク
    トル対を受信して、モーションベクトル対を処理して、
    モーションベクトル対のそれぞれが対応するDCT係数
    ブロックで整列するよう処理するモーションベクトルプ
    ロセッサと、 (f)該第1の逆量子化器の出力と該フレーム記録デバ
    イスの出力からの帰還DCT誤り信号とを加算して総和
    を生成し、以前生じたフレームに対する基準を組み入れ
    る内部符号化の符号化モードを使用するときには生成し
    た総和を量子化器の入力へ印可する、該第1の逆量子化
    器の出力と該フレーム記録デバイスの出力と該量子化器
    の入力とに結合された第1の総和デバイスと、 (g)該第1の逆量子化器の出力から該第2の逆量子化
    器の出力を差し引いてDCT誤り信号を生成し、該DC
    T誤り信号を第3の総和デバイスの入力へ印可する、該
    第1の逆量子化器と該第2の逆量子化器とに結合された
    第2の総和デバイスと、 (h)DCT誤り信号に対するモーション補償を実行す
    る、該第2の総和デバイスと該フレーム記録デバイスと
    に結合された第3の総和デバイスとからなることを特徴
    とするシステム。
  3. 【請求項3】 (i)対応する入力ビット転送速度を有す
    る複数の符号化ビデオ入力ビットストリームから情報を
    記録する入力バッファと、(ii)符号化されたビデオ入力
    ビットストリームのビット転送速度を選択的に低減す
    る、バッファの集合に結合されたビット速度低減デバイ
    スと、(iii)ビット速度低減ビデオビットストリームを
    複合ビデオ出力ビットストリームと結合する複合デバイ
    スと、(iv)対応する符号化ビデオ入力ビットストリーム
    に各々が結合された複数のDCT係数プロセッサと、
    (v)複合デバイスと結合された、複数のメモリ位置を含
    む複数の送信バッファとを含む、圧縮領域ビデオ複合シ
    ステムで用いられる中央速度制御プロセッサであって、 (a)複数の符号化ビデオ入力にビット速度低減を選択
    的に適用して、対応する速度低減ビット速度を各々が有
    するビット速度低減ビデオビットストリームを生成して
    所望のビット転送速度を有する複合ビデオ出力ビットス
    トリームを提供する、複数の制御信号を生成する中央信
    号発生器を含み、所望のビット転送速度はビット速度低
    減ビデオビットストリームの総和と実質的に等しいもの
    であり、さらに、 (b)複数の送信バッファのロードされたメモリ位置の
    相対数を監視する、複数の送信バッファに結合された監
    視デバイスを含み、ロードされたメモリ位置の相対数は
    送信バッファ状態値を示すものであり、 該中央速度制御プロセッサは、該複数のDCT係数プロ
    セッサに対して制御情報を提供し、該速度制御プロセッ
    サは該複数のDCT係数プロセッサに対して新しい量子
    化情報を生成し、そして、新しい量子化情報は、送信バ
    ッファに残る有効ビットの数を特定する送信バッファ状
    態値と、複合ビデオ出力ビットストリームに対する所望
    のビット速度とに従って生成されることを特徴とするプ
    ロセッサ。
JP28426795A 1994-11-01 1995-11-01 マルチメディア通信システムのための符号化領域画像複合化 Expired - Lifetime JP3431373B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/332,985 US5629736A (en) 1994-11-01 1994-11-01 Coded domain picture composition for multimedia communications systems
US08/332985 1994-11-01

Publications (2)

Publication Number Publication Date
JPH08237621A JPH08237621A (ja) 1996-09-13
JP3431373B2 true JP3431373B2 (ja) 2003-07-28

Family

ID=23300761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28426795A Expired - Lifetime JP3431373B2 (ja) 1994-11-01 1995-11-01 マルチメディア通信システムのための符号化領域画像複合化

Country Status (5)

Country Link
US (1) US5629736A (ja)
EP (1) EP0711080A3 (ja)
JP (1) JP3431373B2 (ja)
KR (1) KR100311943B1 (ja)
CA (1) CA2159847C (ja)

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5416520A (en) * 1993-11-30 1995-05-16 Intel Corporation Multiple encoder output buffer apparatus for differential coding of video information
US5861919A (en) * 1995-12-18 1999-01-19 Divicom Dynamic rate optimization for an ensemble of video encoders
US6091768A (en) * 1996-02-21 2000-07-18 Bru; Bernard Device for decoding signals of the MPEG2 type
US5959660A (en) * 1996-08-26 1999-09-28 Hybrid Networks, Inc. Subchannelization scheme for use in a broadband communications system
US5969750A (en) * 1996-09-04 1999-10-19 Winbcnd Electronics Corporation Moving picture camera with universal serial bus interface
JPH10303877A (ja) * 1996-09-05 1998-11-13 Matsushita Electric Ind Co Ltd 送信装置と受信装置とこれらを用いた伝送システム及び送信方法と受信方法とこれらを用いた伝送方法
KR100211055B1 (ko) * 1996-10-28 1999-07-15 정선종 내용기반으로 분할된 영상객체들의 스케러블 전송방법
US6859495B1 (en) 1996-10-31 2005-02-22 Mitsubishi Electric Research Laboratories, Inc. Digital video format converter and method therefor
US6144698A (en) * 1996-10-31 2000-11-07 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Digital video decoder and method of decoding a digital video signal
AU7947501A (en) * 1996-10-31 2002-01-03 Sensormatic Electronics Corporation Intelligent video information management system
US5917958A (en) * 1996-10-31 1999-06-29 Sensormatic Electronics Corporation Distributed video data base with remote searching for image data features
US5986709A (en) * 1996-11-18 1999-11-16 Samsung Electronics Co., Ltd. Adaptive lossy IDCT for multitasking environment
US6005620A (en) * 1997-01-31 1999-12-21 Hughes Electronics Corporation Statistical multiplexer for live and pre-compressed video
US6084910A (en) * 1997-01-31 2000-07-04 Hughes Electronics Corporation Statistical multiplexer for video signals
US6097435A (en) * 1997-01-31 2000-08-01 Hughes Electronics Corporation Video system with selectable bit rate reduction
US6078958A (en) * 1997-01-31 2000-06-20 Hughes Electronics Corporation System for allocating available bandwidth of a concentrated media output
US6091455A (en) * 1997-01-31 2000-07-18 Hughes Electronics Corporation Statistical multiplexer for recording video
US6188436B1 (en) 1997-01-31 2001-02-13 Hughes Electronics Corporation Video broadcast system with video data shifting
JPH10304334A (ja) * 1997-04-25 1998-11-13 Canon Inc 通信方法、通信装置、送信装置、受信装置、通信システム、及び記憶媒体
US5847760A (en) * 1997-05-22 1998-12-08 Optibase Ltd. Method for managing video broadcast
US6680976B1 (en) * 1997-07-28 2004-01-20 The Board Of Trustees Of The University Of Illinois Robust, reliable compression and packetization scheme for transmitting video
WO1999005602A1 (en) * 1997-07-28 1999-02-04 Zhigang Chen A robust, reliable compression and packetization scheme for transmitting video
US6862320B1 (en) * 1997-10-23 2005-03-01 Mitsubishi Denki Kabushiki Kaisha Image decoder, image encoder, image communication system, and encoded bit stream converter
JP3860323B2 (ja) * 1997-10-27 2006-12-20 三菱電機株式会社 画像復号化装置、画像復号化方法
JPH11196414A (ja) * 1997-11-06 1999-07-21 Thomson Broadcast Syst コード化されたビデオデータを処理する装置及びその装置を使用したプログラムを配布するシステム
JP3206530B2 (ja) * 1997-11-28 2001-09-10 日本ビクター株式会社 動画像符号化装置、動画像復号化装置、動画像符号化方法及び動画像復号化方法
US6208640B1 (en) 1998-02-27 2001-03-27 David Spell Predictive bandwidth allocation method and apparatus
US6532262B1 (en) * 1998-07-22 2003-03-11 Matsushita Electric Industrial Co., Ltd. Coding method and apparatus and recorder
US6618507B1 (en) * 1999-01-25 2003-09-09 Mitsubishi Electric Research Laboratories, Inc Methods of feature extraction of video sequences
US6628839B1 (en) * 1999-02-23 2003-09-30 Matsushita Electric Industrial Co., Ltd. Image coding system converting apparatus, image coding system converting method, and recording medium
US6463414B1 (en) * 1999-04-12 2002-10-08 Conexant Systems, Inc. Conference bridge processing of speech in a packet network environment
US6879634B1 (en) 1999-05-26 2005-04-12 Bigband Networks Inc. Method and system for transmitting media streams over a variable bandwidth network
EP1067798A3 (en) * 1999-06-30 2005-11-30 Media Glue Corporation Apparatus, method and computer program product for transcoding a coded moving picture sequence
US6721957B1 (en) 1999-08-16 2004-04-13 Georgia Tech Research Corporation System and method for maximizing bandwidth efficiency in a digital video program stream
JP4331835B2 (ja) * 1999-09-22 2009-09-16 パナソニック株式会社 画像データ伝送方法
US7116717B1 (en) * 1999-12-15 2006-10-03 Bigband Networks, Inc. Method and system for scalable representation, storage, transmission and reconstruction of media streams
US6300973B1 (en) 2000-01-13 2001-10-09 Meir Feder Method and system for multimedia communication control
US6493386B1 (en) * 2000-02-02 2002-12-10 Mitsubishi Electric Research Laboratories, Inc. Object based bitstream transcoder
US6490320B1 (en) * 2000-02-02 2002-12-03 Mitsubishi Electric Research Laboratories Inc. Adaptable bitstream video delivery system
EP1126710A1 (en) * 2000-02-15 2001-08-22 Telefonaktiebolaget L M Ericsson (Publ) A method and an apparatus for video mixing of bit streams
AU2001280073A1 (en) * 2000-08-15 2002-02-25 Polycom Israel Ltd. Delay reduction for transmission and processing of video data
EP1371231A1 (en) * 2001-03-12 2003-12-17 Robert Bosch Gmbh Method of multiplexing a number of video signals with a compressor
US7590178B2 (en) 2001-03-12 2009-09-15 Robert Bosch Gmbh Method of multiplexing a number of video signals with a compressor
KR20030009669A (ko) * 2001-07-23 2003-02-05 삼성전자주식회사 다채널 영상 부호화기 및 그 부호화 방법
EP1296520B1 (en) * 2001-09-14 2010-10-27 Polycom Israel Ltd. Method and system for multimedia video processing
GB2384932B (en) * 2002-01-30 2004-02-25 Motorola Inc Video conferencing system and method of operation
JP4029630B2 (ja) * 2002-02-27 2008-01-09 ソニー株式会社 インタリーブ処理装置とインタリーブ処理方法及びインタリーブ処理プログラム
JP2004007066A (ja) * 2002-05-30 2004-01-08 Kddi Corp 画像伝送装置
AU2002368039A1 (en) * 2002-06-19 2004-01-06 Siemens Aktiengesellschaft Method and device for preparing the transfer of image sequences by a channel which is modifiable within a given time
US8204079B2 (en) * 2002-10-28 2012-06-19 Qualcomm Incorporated Joint transmission of multiple multimedia streams
US7266147B2 (en) 2003-03-31 2007-09-04 Sharp Laboratories Of America, Inc. Hypothetical reference decoder
US7054281B2 (en) * 2003-05-02 2006-05-30 Thomson Licensing Multi-channel tuner using a discrete cosine transform
US7292638B2 (en) * 2003-05-02 2007-11-06 Thomson Licensing Transform-based alias cancellation multi-channel tuner
US7697608B2 (en) * 2004-02-03 2010-04-13 Sony Corporation Scalable MPEG video/macro block rate control
US20050169369A1 (en) * 2004-02-03 2005-08-04 Sony Corporation Scalable MPEG video/macro block rate control
US7692683B2 (en) * 2004-10-15 2010-04-06 Lifesize Communications, Inc. Video conferencing system transcoder
JP4407472B2 (ja) * 2004-10-29 2010-02-03 ソニー株式会社 符号化及び復号装置並びに符号化及び復号方法
US7873983B2 (en) * 2004-11-23 2011-01-18 Palo Alto Research Center Incorporated Method and apparatus for controlling an experiential data stream in a social space
US7882530B2 (en) * 2004-11-23 2011-02-01 Palo Alto Research Center Incorporated Method, apparatus, and program products for socially synchronizing an experiential data stream
WO2006076220A2 (en) * 2005-01-10 2006-07-20 Swagelok Company Carburization of ferrous-based shape memory alloys
US8194707B2 (en) * 2005-02-28 2012-06-05 Broadcom Corporation Method and system for dynamically allocating video multiplexing buffer based on queuing theory
US20060248210A1 (en) * 2005-05-02 2006-11-02 Lifesize Communications, Inc. Controlling video display mode in a video conferencing system
US9426387B2 (en) 2005-07-01 2016-08-23 Invention Science Fund I, Llc Image anonymization
US20070005423A1 (en) * 2005-07-01 2007-01-04 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Providing promotional content
US8203609B2 (en) * 2007-01-31 2012-06-19 The Invention Science Fund I, Llc Anonymization pursuant to a broadcasted policy
US9065979B2 (en) 2005-07-01 2015-06-23 The Invention Science Fund I, Llc Promotional placement in media works
US20070005651A1 (en) * 2005-07-01 2007-01-04 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Restoring modified assets
US8732087B2 (en) * 2005-07-01 2014-05-20 The Invention Science Fund I, Llc Authorization for media content alteration
US20080013859A1 (en) * 2005-07-01 2008-01-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Implementation of media content alteration
US9583141B2 (en) 2005-07-01 2017-02-28 Invention Science Fund I, Llc Implementing audio substitution options in media works
US9092928B2 (en) 2005-07-01 2015-07-28 The Invention Science Fund I, Llc Implementing group content substitution in media works
US8126938B2 (en) * 2005-07-01 2012-02-28 The Invention Science Fund I, Llc Group content substitution in media works
US9230601B2 (en) 2005-07-01 2016-01-05 Invention Science Fund I, Llc Media markup system for content alteration in derivative works
US7555021B2 (en) * 2005-10-05 2009-06-30 The United States Of America As Represented By The Secretary Of The Navy Digital multi-source multi-destination video multiplexer and crossbar device
US8773494B2 (en) 2006-08-29 2014-07-08 Microsoft Corporation Techniques for managing visual compositions for a multimedia conference call
US20080101410A1 (en) * 2006-10-25 2008-05-01 Microsoft Corporation Techniques for managing output bandwidth for a conferencing server
US8750385B2 (en) * 2006-12-20 2014-06-10 Thomson Research Funding Video data loss recovery using low bit rate stream in an IPTV system
US9215512B2 (en) 2007-04-27 2015-12-15 Invention Science Fund I, Llc Implementation of media content alteration
US20080316295A1 (en) * 2007-06-22 2008-12-25 King Keith C Virtual decoders
US8139100B2 (en) * 2007-07-13 2012-03-20 Lifesize Communications, Inc. Virtual multiway scaler compensation
US8326075B2 (en) * 2008-09-11 2012-12-04 Google Inc. System and method for video encoding using adaptive loop filter
US8514265B2 (en) * 2008-10-02 2013-08-20 Lifesize Communications, Inc. Systems and methods for selecting videoconferencing endpoints for display in a composite video image
US20100110160A1 (en) * 2008-10-30 2010-05-06 Brandt Matthew K Videoconferencing Community with Live Images
US8643695B2 (en) * 2009-03-04 2014-02-04 Lifesize Communications, Inc. Videoconferencing endpoint extension
US8456510B2 (en) * 2009-03-04 2013-06-04 Lifesize Communications, Inc. Virtual distributed multipoint control unit
US8350891B2 (en) * 2009-11-16 2013-01-08 Lifesize Communications, Inc. Determining a videoconference layout based on numbers of participants
US8781004B1 (en) 2011-04-07 2014-07-15 Google Inc. System and method for encoding video using variable loop filter
US8780996B2 (en) 2011-04-07 2014-07-15 Google, Inc. System and method for encoding and decoding video data
US8780971B1 (en) 2011-04-07 2014-07-15 Google, Inc. System and method of encoding using selectable loop filters
US8885706B2 (en) 2011-09-16 2014-11-11 Google Inc. Apparatus and methodology for a video codec system with noise reduction capability
US9131073B1 (en) 2012-03-02 2015-09-08 Google Inc. Motion estimation aided noise reduction
US9344729B1 (en) 2012-07-11 2016-05-17 Google Inc. Selective prediction signal filtering
US10102613B2 (en) 2014-09-25 2018-10-16 Google Llc Frequency-domain denoising
US11170260B2 (en) 2019-11-14 2021-11-09 Alibaba Group Holding Limited Techniques for determining importance of encoded image components for artificial intelligence tasks
US11403783B2 (en) 2019-11-14 2022-08-02 Alibaba Group Holding Limited Techniques to dynamically gate encoded image components for artificial intelligence tasks
US11366979B2 (en) 2019-11-14 2022-06-21 Alibaba Group Holding Limited Using selected components of frequency domain image data in artificial intelligence tasks

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3582330D1 (de) * 1985-10-10 1991-05-02 Itt Ind Gmbh Deutsche Fernsehempfaenger mit mehrfach-bildwiedergabe.
DE3702220A1 (de) * 1987-01-26 1988-08-04 Pietzsch Ibp Gmbh Verfahren und einrichtung zur darstellung eines gesamtbildes auf einem bildschirm eines bildschirmgeraetes
JPH01180153A (ja) * 1988-01-11 1989-07-18 Nec Corp テレビ会議用伝送速度制御方式
JPH01280977A (ja) * 1988-03-31 1989-11-13 Toshiba Corp テレビジョンシステムの子画面表示方法及びその装置
US4975771A (en) * 1989-02-10 1990-12-04 Kassatly Salim A Method and apparatus for TV broadcasting
JPH02235492A (ja) * 1989-03-09 1990-09-18 Mitsubishi Electric Corp 多地点間テレビ会議方式
KR910013904A (ko) * 1989-12-21 1991-08-08 강진구 Hd 스크린을 이용한 pop 재생 tv
US5227875A (en) * 1990-08-20 1993-07-13 Kabushiki Kaisha Toshiba System for transmitting encoded image data with quick image expansion and contraction
JPH04168893A (ja) * 1990-10-31 1992-06-17 Nec Corp 多地点テレビ会議端末装置
US5159447A (en) * 1991-05-23 1992-10-27 At&T Bell Laboratories Buffer control for variable bit-rate channel
JPH04365278A (ja) * 1991-06-13 1992-12-17 Matsushita Electric Ind Co Ltd 多画面表示回路
DE69225034T2 (de) * 1991-08-13 1998-08-13 Canon Kk Einrichtung zur Bildübertragung
US5216503A (en) * 1991-12-24 1993-06-01 General Instrument Corporation Statistical multiplexer for a multichannel image compression system
GB9200269D0 (en) * 1992-01-08 1992-02-26 Thomson Consumer Electronics Programmable pop for wide screen television
JPH06141321A (ja) * 1992-10-22 1994-05-20 Nippon Telegr & Teleph Corp <Ntt> 映像表示方式
JPH06141311A (ja) * 1992-10-23 1994-05-20 Arumetsukusu:Kk テレビ会議電話システム
JPH06217019A (ja) * 1993-01-20 1994-08-05 Nec Commun Syst Ltd 多地点tv会議方式

Also Published As

Publication number Publication date
JPH08237621A (ja) 1996-09-13
US5629736A (en) 1997-05-13
EP0711080A2 (en) 1996-05-08
CA2159847A1 (en) 1996-05-02
EP0711080A3 (en) 1999-04-07
CA2159847C (en) 2000-02-01
KR100311943B1 (ko) 2001-12-28
KR960020530A (ko) 1996-06-17

Similar Documents

Publication Publication Date Title
JP3431373B2 (ja) マルチメディア通信システムのための符号化領域画像複合化
US5687095A (en) Video transmission rate matching for multimedia communication systems
EP0719055B1 (en) Video transmission rate matching for multimedia communication systems
US7352809B2 (en) System and method for optimal transmission of a multitude of video pictures to one or more destinations
US6757005B1 (en) Method and system for multimedia video processing
US7646736B2 (en) Video conferencing system
US6285661B1 (en) Low delay real time digital video mixing for multipoint video conferencing
JP4921488B2 (ja) スケーラブルなビデオ符号化を用いて、またスケーラブルなテレビ会議サーバを複合してテレビ会議を行うためのシステムおよび方法
US5764277A (en) Group-of-block based video signal combining for multipoint continuous presence video conferencing
US6535240B2 (en) Method and apparatus for continuously receiving frames from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels
AU2002355089A1 (en) Method and apparatus for continuously receiving frames from a pluarlity of video channels and for alternatively continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels
Lei et al. Video bridging based on H. 261 standard
EP1296520B1 (en) Method and system for multimedia video processing
JPH07298231A (ja) 多地点動画像通信システム、その制御装置及び動画像通信端末
Chen et al. Continuous presence video bridging based on H. 261 standard
JPH09247644A (ja) 多地点制御装置およびテレビ会議通信端末装置
JPH0918846A (ja) 多地点間通信装置
JPH07115627A (ja) 画像通信端末装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030414

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090523

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100523

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100523

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term