JP2013009409A - ビデオ符号化方法 - Google Patents

ビデオ符号化方法 Download PDF

Info

Publication number
JP2013009409A
JP2013009409A JP2012182890A JP2012182890A JP2013009409A JP 2013009409 A JP2013009409 A JP 2013009409A JP 2012182890 A JP2012182890 A JP 2012182890A JP 2012182890 A JP2012182890 A JP 2012182890A JP 2013009409 A JP2013009409 A JP 2013009409A
Authority
JP
Japan
Prior art keywords
frame
virtual
bit stream
image
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012182890A
Other languages
English (en)
Other versions
JP5398887B2 (ja
Inventor
Kerem Caglar
カグラー ケレム
Hannuksela Miska
ハンヌクセラ ミスカ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conversant Wireless Licensing SARL
Original Assignee
Core Wiresless Licensing SARL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Core Wiresless Licensing SARL filed Critical Core Wiresless Licensing SARL
Publication of JP2013009409A publication Critical patent/JP2013009409A/ja
Application granted granted Critical
Publication of JP5398887B2 publication Critical patent/JP5398887B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/34Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/37Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability with arrangements for assigning different transmission priorities to video input data or to video coded data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/631Multimode Transmission, e.g. transmitting basic layers and enhancement layers of the content over different transmission paths or transmitting with different error corrections, different keys or with different transmission protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server
    • H04N21/6379Control signals issued by the client directed to the server or network components directed to server directed to encoder, e.g. for requesting a lower encoding rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6583Acknowledgement

Abstract

【課題】ビットストリームを発生するためにビデオ信号を符号化する方法を提供する。
【解決手段】第1完全フレームを再構成するための、高優先度および低優先度情報に優先順位付けられた情報を含むビット・ストリームの第1部分を形成し、第1完全フレームを符号化するステップと、第1完全フレームの低優先度情報の少なくともいくつかが存在しない場合、第1完全フレームの高優先度情報を使用して構成された第1完全フレームの1つのバージョンに基づき第1仮想フレームを画定するステップと、第2完全フレームの再構成において使用するための情報を含むビットストリームの第2部分を形成して第2完全フレームを符号化し、第2完全フレームを、第1完全フレームおよびビットストリームの第2部分に含まれる情報に基づかず、第1仮想フレームおよびビットストリームの第2部分に含まれる情報に基づき完全に再構成することができるようにするステップとを含む。
【選択図】図18

Description

本発明は、データ伝送に関し、特に、ビデオなどの画像シーケンスを表すデータの伝送に関連しているが、それに限定されない。本発明は、セルラ電気通信システムのエア・インターフェース上のような、データの誤りおよび損失が起き易いリンク上での伝送に特に適している。
過去数年の間にインターネットを通じて入手できるマルチメディア・コンテンツの量がかなり増加してきている。携帯端末に対するデータ配信レートが、そのような端末がマルチメディア・コンテンツを検索することができるのに十分に高くなっているので、インターネットからのそのような検索を提供することが待望されている。高速データ配信システムの一例は、計画されているGSMフェーズ2+の汎用パケット無線サービス(GPRS)である。
本明細書で使用されているマルチメディアという用語は音声および画像の両方、音声のみ、および画像のみを含む。音声は発話および音楽を含む。
インターネットにおいては、マルチメディア・コンテンツの伝送はパケットベースである。インターネットを通してのネットワーク・トラヒックは、インターネット・プロトコル(IP)と呼ばれる転送プロトコルに基づいている。IPは、1つの場所から別の場所へのデータ・パケットの転送に関係している。このプロトコルによって中間ゲートウェイを通してのパケットのルーティングが容易になる。すなわち、それによって同じ物理ネットワーク内で直接には接続されていないマシン(すなわち、ルータ)にデータを送信することができる。IP層によって転送されるデータのユニットは、IPデータグラムと呼ばれる。IPによって提供される配信サービスはコネクションレスである。すなわち、IPデータグラムは互いに無関係にインターネット上で転送される。任意の特定の接続に対してゲートウェイ内でリソースが永久的に拘束されないので、ゲートウェイはバッファ空間または他のリソースが不足していることのためにデータグラムを捨てなければならない場合があり得る。それ故、IPによって提供される配信サービスは保証されたサービスというよりはむしろ最善の努力のサービスである。
インターネットのマルチメディアは、通常、ユーザ・データグラム・プロトコル(UDP)、転送制御プロトコル(TCP)またはハイパーテキスト転送プロトコル(HTTP)を使用してストリーム化される。UDPはデータグラムが受信されたことをチェックせず、欠落したデータグラムを再送信せず、また、データグラムが送信されたのと同じ順序で受信されることを保証しない。UDPはコネクションレスである。TCPは、データグラムが受信されたことをチェックし、欠落したデータグラムを再送信する。TCPは、また、データグラムが送信されたのと同じ順序で受信されることを保証する。TCPは接続指向型である。
十分な品質のマルチメディア・コンテンツが確実に配信されるようにするために、TCPのような信頼性の高いネットワーク接続上で提供されるようにし、受信したデータが誤りのないものであって正しい順序で確実に受信されるようにすることができる。喪失したか、あるいは劣化しているプロトコル・データ・ユニットは再送信される。
場合によっては、喪失したデータの再送信が転送プロトコルによって処理されず、ある高レベルのプロトコルによって処理される場合がある。そのようなプロトコルは、マルチメディア・ストリームのうちの最も重要な喪失した部分を選択し、それらの再送信を要求することができる。たとえば、その最も重要な部分をそのストリームの他の部分の予測のために使用することができる。
マルチメディア・コンテンツは、通常、ビデオを含む。効率よく送信されるようにするために、ビデオは圧縮されることが多い。したがって、ビデオ伝送システムにおいて重要なパラメータは圧縮効率である。もう1つの重要なパラメータは、伝送誤りに対する許容度である。これらのパラメータのいずれかにおける改善は他のパラメータに悪い影響を及ぼす傾向があり、したがって、ビデオ伝送システムは、この2つが適当にバランスしている必要がある。
図1は、ビデオ伝送システムを示す。このシステムは、圧縮されていないビデオ信号を所望のビットレートに圧縮し、それにより、符号化されて圧縮されたビデオ信号を発生するソース・コーダと、符号化されて圧縮されたビデオ信号を復号して圧縮されていないビデオ信号に再構成するソース・デコーダを含む。ソース・コーダは、波形コーダとエントロピー・コーダとを含む。波形コーダは喪失し易いビデオ信号の圧縮を実行し、エントロピー・コーダは、その波形コーダの出力をバイナリ・シーケンスに損失なしに変換する。そのバイナリ・シーケンスがソース・コーダからトランスポート・コーダへ送られ、トランスポート・コーダは、圧縮されたビデオを適当な転送プロトコルに従ってカプセル化し、次に、それを、トランスポート・デコーダおよびソース・デコーダを備えている受信機に送信する。データは、伝送チャネル上でトランスポート・デコーダにトランスポート・コーダによって送信される。また、トランスポート・コーダは、他の方法で圧縮されたビデオを操作することもできる。たとえば、データをインターリーブして変調することができる。トランスポート・デコーダによって受信した後、そのデータはソース・デコーダに渡される。ソース・デコーダは、波形デコーダとエントロピー・デコーダとを備える。トランスポート・デコーダおよびソース・デコーダは、逆の操作を実行して表示のために再構成されたビデオ信号を得る。また、受信機は送信機にフィードバックを供給することもできる。たとえば、受信機は、正しく受信された伝送データ・ユニットのレートを知らせることができる。
ビデオ・シーケンスは、一連の静止画像から構成されている。ビデオ・シーケンスはその冗長な部分および視覚的に無関係な部分を減らすことによって圧縮される。ビデオ・シーケンスにおける冗長性は、空間的、時間的、およびスペクトル的な冗長性として分類することができる。空間的冗長性は同じ画像内の隣接しているピクセル間の相関を指す。時間的冗長性は、前の画像の中に現れているオブジェクトが現在の画像の中に現れる可能性があることを指す。スペクトル的冗長性は画像の異なるカラー成分間の相関を指す。
時間的冗長性は、現在の画像と前の画像(参照画像またはアンカー画像と呼ばれる)との間の相対的な動きを記述する動き補正データを生成することによって減らすことができる。実効的に、現在の画像は前の画像からの予測として形成され、これが実行される技法は、一般に、動き補償型予測または動き補償と呼ばれる。1つの画像を別の画像から予測することの他に、1つの画像内の部分または領域をその画像内の他の部分または領域から予測することができる。
ビデオ・シーケンスの冗長性を減らすことだけでは十分なレベルの圧縮は通常は得られない。したがって、ビデオ・エンコーダは、また、本質的にはあまり重要でないビデオ・シーケンスの部分の品質を犠牲にしようとする。さらに、符号化されたビデオ・ストリームの冗長性は、圧縮パラメータおよび係数の効率的な無損失符号化によって減らされる。その主な技法は可変長符号を使用する方法である。
ビデオ圧縮方法は、通常、時間的冗長性削減を利用するかどうか(すなわち、それらが予測されるかどうか)に基づいて画像を区別する。図2について説明すると、時間的冗長性削減方法を利用しない圧縮画像は、通常、INTRAまたはIフレームと呼ばれる。INTRAフレームは空間的および時間的に伝搬することによるパケット喪失の効果を防止するためにしばしば導入される。同報通信の場合、INTRAフレームによって新しい受信機がストリームの復号を開始することができる。すなわち、「アクセス・ポイント」を提供する。ビデオ符号化システムは、通常、n秒ごとまたはnフレームごとに周期的にINTRAフレームを挿入することができる。また、画像内容が大きく変化し、前の画像からの時間的予測が成功する可能性が低いか、あるいは圧縮効率の面で望ましい場合に、自然のシーン・カットにおいてINTRAフレームを利用するのも有利である。
時間的冗長性削減方法を利用する圧縮画像は、通常、INTERフレームまたはPフレームと呼ばれる。動き補償を採用しているINTERフレームは、十分に正確な画像の再構成ができるほど正確ではないので、空間的に圧縮された予測誤差画像も各INTERフレームに関連付けられている。これは現在のフレームとその予測との間の差を表す。
多くのビデオ圧縮方式は、また、時間的に双方向に予測したフレームも導入する。それは、一般に、B画像またはBフレームと呼ばれている。Bフレームは、アンカー(IまたはP)フレーム・ペア間に挿入され、図2に示されているように、アンカー・フレームの1つまたは両方のいずれかから予測される。Bフレームは、それ自身ではアンカー・フレームとしては使用されない。すなわち、他のフレームはそれらから決して予測されることはなく、画像の表示レートを増加させることにより認識される画像の品質を向上させるためだけに使用される。それら自身がアンカー・フレームとして使用されることは決してないので、それらをそれ以降のフレームの復号に影響することなしに落とすことができる。これによって、ビデオ・シーケンスを伝送ネットワークの帯域幅の制約に従って、あるいは異なるデコーダ機能による異なるレートで復号することができる。
INTRAフレームから予測された時間的に予測された(PまたはB)画像シーケンスが後に続くINTRAフレームを説明するために画像のグループ(GOP)という用語が使用される。
種々の国際ビデオ符号化規格が開発されている。一般に、これらの規格は、圧縮されたビデオ・シーケンスを表すために使用されるビット・ストリームのシンタックスを定義し、そのビット・ストリームが復号される方法を定義する。1つのそのような規格H.263は、国際電気通信連合(ITU)によって開発された推奨規格である。現在、2つのバージョンのH.263がある。バージョン1は、1つのコア・アルゴリズムおよび4つの任意の符号化モードから構成されている。H.263バージョン2は、12のネゴシエート可能な符号化モードを提供するバージョン1の拡張版である。現在開発中のH.263バージョン3は、2つの新しい符号化モードおよび一組の追加の補助的エンハンスメント情報の符号ポイントを含むことが意図されている。
H.263によれば、画像は、輝度成分(Y)および2つの色差(クロミナンス)成分(CおよびC)として符号化される。クロミナンス成分は、輝度成分と比較して両方の座標軸に沿って半分の空間分解能にサンプルされる。輝度データおよび空間的に部分サンプルされたクロミナンス・データがマクロブロック(MB)にアセンブルされる。通常、1つのマクロブロックは、16×16ピクセルの輝度データおよび空間的に対応している8×8ピクセルのクロミナンス・データを含む。
符号化された各画像は対応している符号化されたビット・ストリームと同様に、4つの層を備えた階層構造に配列され、4つの層は、トップからボトムへ、画像層、画像セグメント層、マクロブロック(MB)層およびブロック層である。画像セグメント層は、ブロック層またはスライス層のグループのいずれであってもよい。
画像層データは、画像の領域全体および画像データの復号に影響するパラメータを含む。画像層データはいわゆる画像ヘッダ内に配置されている。
デフォルトによって、各画像はブロックのグループに分割される。ブロックのグループ(GOB)は、通常、16個のシーケンシャル・ピクセル・ラインを含む。各GOBに対するデータは、任意のGOBヘッダと、その後に続くマクロブロックに対するデータとを含む。
任意のスライス構造モードが使用される場合、各画像はGOBの代わりにスライスに分割される。各スライスに対するデータは、スライス・ヘッダとその後に続くマクロブロックに対するデータとを含む。
スライスは、符号化された画像内の領域を画定する。通常、その領域は、通常の走査順のいくつかのマクロブロックである。同じ符号化された画像内のスライス境界にまたがる予測依存性はない。しかし、時間的予測は、一般に、H.263の付属書類R(独立セグメント・デコーディング)が使用されていない限り、スライス境界にまたがる可能性がある。スライスは、画像データの他の部分(画像ヘッダを除く)から独立に復号することができる。結果として、スライス構造型モードを使用することによってパケットが喪失し易いネットワーク、いわゆるパケット喪失の多いパケットベースのネットワークにおいて誤りに対する許容力を改善することができる。
画像、GOBおよびスライス・ヘッダは同期化符号から開始される。他の符号語または符号語の有効な組合せが同期化符号と同じビット・パターンを形成する可能性はない。それ故、同期化符号を使用してビット・ストリームの誤り検出およびビット誤り後の再同期化を行うことができる。ビット・ストリームに対して同期化符号が多く使用されるほど、誤りに強い符号化となる。
各GOBまたはスライスはマクロブロックに分割される。すでに説明したように、マクロブロックは16×16ピクセルの輝度データと、空間的に対応している8×8ピクセルのクロミナンス・データを含む。すなわち、1つのMBは、4つの8×8ブロックの輝度データと、空間的に対応している2つの8×8ブロックのクロミナンス・データとを含む。
1つのブロックは、8×8ピクセルの輝度またはクロミナンスのデータを含む。ブロック層のデータは一様に量子化された離散コサイン変換係数から構成され、それらはジグザグの順序で走査され、ランレングス・エンコーダによって処理され、ITU−T勧告H.263の中で詳細に説明するように、可変長符号で符号化される。
符号化されたビット・ストリームの1つの有用な性質はスケーラビリティである。以下において、ビットレート・スケーラビリティが説明される。ビットレート・スケーラビリティという用語は、圧縮されたシーケンスが異なるデータ・レートで復号される機能を指す。ビットレート・スケーラビリティを持つように符号化された圧縮シーケンスは、帯域幅が異なるチャネル上でストリーム化することができ、異なる受信端末においてリアルタイムで復号および再生することができる。
スケーラブル・マルチメディアは、通常、データの階層的層の中に順序付けられる。ベース層は、ビデオ・シーケンスのようなマルチメディア・データの個々の表現を含み、エンハンスメント層はベース層に追加して使用することができるリファインメント・データを含んでいる。エンハンスメント層がベース層に追加されるたびに、マルチメディア・クリップの品質は漸進的に改善される。スケーラビリティは多くの種々の形式を取ることができる。それらは、時間的スケーラビリティ、信号対雑音比(SNR)スケーラビリティおよび空間的スケーラビリティを含むが、これらに限定されない。それらは以下に詳細に説明する。
スケーラビリティは、セルラ通信ネットワークにおけるインターネットおよび無線チャネルのような不均一な誤りを生じ易い環境に対して望ましい性質である。この性質は、ビットレート、表示分解能、ネットワークのスループットおよびデコーダの複雑性における制約などの制限に対抗するために望ましい。
マルチポイントおよび同報通信などのマルチメディア用途においては、ネットワークのスループットにおける制約は符号化の時点では予見されない。それ故、スケーラブル・ビット・ストリームを形成するようにマルチメディア・コンテンツを符号化することが有利である。図3に、IPマルチキャスティングにおいて使用されているスケーラブル・ビット・ストリームの一例を示す。各ルータ(R1〜R3)は、ビット・ストリームをその機能に従って取り除くことができる。この例においては、サーバSは、少なくとも3つのビットレート、すなわち、120kbit/s、60kbit/s、および28kbit/sにスケールすることができるマルチメディア・クリップを有している。ビット・ストリームのできるだけ少ない数のコピーがネットワークで生成されるように、同じビット・ストリームが複数のクライアントに対して同時に配信されるマルチキャスト伝送の場合、1つのビットレート・スケーラブル・ビット・ストリームを送信することがネットワークの帯域幅の観点から有利である。
シーケンスがダウンロードされてそれぞれ処理能力が異なる種々の装置において再生される場合、ビット・ストリームの一部分だけを復号することによってビデオ・シーケンスのより低い品質の表示を供給するように処理能力の比較的低い装置においてビットレートのスケーラビリティを使用することができる。処理能力の高い装置は、完全な品質でそのシーケンスを復号して再生することができる。さらに、ビットレート・スケーラビリティは、ビデオ・シーケンスのより低い品質の表示を復号するために必要な処理能力が、完全な品質のシーケンスを復号するときよりも低いことを意味する。これは計算的スケーラビリティの1つの形式とみなすことができる。
ビデオ・シーケンスがストリーミング・サーバに予め格納されていて、そのサーバが、たとえば、ネットワークでの混雑を避けるためにビット・ストリームとして送信されるビットレートを一時的に減らす必要がある場合、そのサーバが使用可能なビット・ストリームを依然として送信しながら、ビット・ストリームのビットレートを減らすことができる場合に有利である。これは、通常、ビットレート・スケーラブル符号化を使用して実現される。
スケーラビリティは、また、層型の符号化がトランスポートの優先順位付けと組み合わされているトランスポート・システムにおける誤りに対する許容力を改善するためにも使用することができる。トランスポートの優先順位付けという用語は、トランスポートにおける異なる品質のサービスを提供するメカニズムを記述するために使用される。これらは種々のチャネル誤り/喪失レートを提供する不等誤差防止、および異なる遅延/喪失の条件をサポートするための種々の優先順位の割当てを含む。たとえば、スケーラブルに符号化されたビット・ストリームのベース層を、高度な誤差防止の伝送チャネルを通して配信し、一方、エンハンスメント層をより誤りの生じ易いチャネルにおいて送信することができる。
スケーラブル・マルチメディア符号化に伴う1つの問題点は、非スケーラブル符号化の場合より圧縮効率が悪くなることである。高品質のスケーラブル・ビデオ・シーケンスは、一般に、対応している品質の非スケーラブル単層ビデオ・シーケンスより多くの帯域幅を必要とする。しかし、この一般的な規則に対する例外が存在する。たとえば、Bフレームはそれ以降の符号化された画像の品質に悪影響を及ぼすことなしに、圧縮されたビデオ・シーケンスからBフレームをドロップさせることができるので、それらは時間的スケーラビリティの1つの形式を提供しているとみなすことができる。すなわち、たとえば、PフレームとBフレームとを交互に含んでいる時間的に予測された画像シーケンスを形成するように圧縮されたビデオ・シーケンスのビットレートを、そのBフレームを取り除くことによって減らすことができる。これは圧縮されたシーケンスのフレーム・レートを減らす効果を有する。したがって、時間的スケーラビリティという用語で呼ばれる。多くの場合、Bフレームを使用することによって、特に高いフレーム・レートにおける符号化効率を改善することができ、したがって、Pフレームに加えてBフレームを含んでいる圧縮されたビデオ・シーケンスは、等価な品質の符号化されたPフレームだけを使用したシーケンスより高い圧縮効率を示す可能性がある。しかし、Bフレームによって提供された圧縮性能における改善は、計算がより複雑になり、メモリをより多く必要とするという犠牲において達成される。また、追加的な遅延も導入される。
図4に、信号対雑音比(SNR)のスケーラビリティを示す。SNRのスケーラビリティはマルチレート・ビット・ストリームの生成を含む。それによって元の画像とその再構成画像との間の符号化の誤差、あるいは差を回復することができる。これはエンハンスメント層において差分画像を符号化するためにより細かい量子化を使用することによって実現される。この追加の情報によって総合的な再生画像のSNRが向上する。
空間的スケーラビリティによって、種々の表示要件/制約に適合するマルチ分解能ビット・ストリームを生成することができる。図5に、空間的にスケーラブルな構造を示す。それはSNRスケーラビリティによって使用されたのと類似のものである。空間的スケーラビリティにおいては、基準層であるエンハンスメント層によって基準として使用される再構成された層のアップサンプルされたバージョンと元の画像のより高い分解能のバージョンとの間の符号化損失を回復するために使用される。たとえば、基準層の分解能が、4分の1共通中間フォーマット(QCIF)である場合は、176×144ピクセルであり、エンハンスメント層の分解能が共通中間フォーマット(CIF)の352×288ピクセルである場合、基準層の画像を、エンハンスメント層の画像がそれから適切に予測できるように、それに従ってスケールしなければならない。H.263によれば、分解能は垂直方向のみ、水平方向のみ、あるいは1つのエンハンスメント層に対する垂直および水平方向の両方において2倍だけ増加する。複数のエンハンスメント層があり、それぞれが前の層の分解能より画像分解能を増加させるようにすることができる。基準層の画像をアップサンプルするために使用される補間フィルタが、H.263において明示的に定義されている。基準層からエンハンスメント層へのアップサンプリング・プロセスは別として、空間的にスケールされた画像の処理およびシンタックスはSNRスケール型画像のそれらと同じである。空間的スケーラビリティによって空間的分解能がSNRのスケーラビリティに比べて増加する。
SNRスケーラビリティまたは空間的スケーラビリティのいずれにおいても、エンハンスメント層の画像はEIまたはEP画像と呼ばれる。エンハンスメント層の画像が基準層におけるINTRA画像から上方向に予測される場合、エンハンスメント層の画像はエンハンスメントI(EI)画像と呼ばれる。基準層の画像の予測が不完全であるときのいくつかのケースにおいては、その画像の静止部分のオーバコーディングがエンハンスメント層において発生する可能性があり、過剰なビットレートが必要となる。この問題を避けるために、順方向の予測がエンハンスメント層において許される。前のエンハンスメント層の画像から順方向に予測した画像または基準層内の予測した画像から上方向に予測した画像は、エンハンスメントP(EP)画像と呼ばれる。上方向および順方向に予測した画像の両方の平均を計算することによって、EP画像に対する双方向予測オプションが提供される。基準層の画像からのEI画像およびEP画像の上方向予測は、運動ベクトルが不要であることを意味する。EP画像に対する順方向予測の場合には、運動ベクトルが必要である。
H.263のスケーラビリティ・モード(付属書類O)は、時間的、SNR、および空間的スケーラビリティ機能をサポートするシンタックスを規定している。
従来のSNRスケーラビリティ符号化での1つの問題は、ドリフティングと呼ばれている問題である。ドリフティングとは、伝送誤りの影響を指す。誤りによって生じる目に見えるアーティファクトは、その誤りが発生した画像から時間的にドリフトする。動き補償を使用することによって、目に見えるアーティファクトの領域が画像から画像へと増加する可能性がある。スケーラブル符号化の場合には、目に見えるアーティファクトは、また、下位のエンハンスメント層から上位層へもドリフトする。ドリフティングの影響は図7を参照して説明することができる。図7は、スケーラブル符号化において使用される従来の予測関係を示している。エンハンスメント層内で誤りまたはパケット喪失が発生すると、それは画像のグループ(GOP)の終りにまで伝搬する。何故なら、その画像は互いにシーケンスにおいて予測されているからである。さらに、エンハンスメント層はベース層に基づいているので、ベース層内の誤りによってエンハンスメント層内に誤りが生じる。また、予測はエンハンスメント層間でも発生するので、それ以降の予測したフレームの上位層において重大なドリフティングの問題が発生する可能性がある。それ以降で誤りを訂正するためにデータを送信するための十分な帯域幅があっても、デコーダは、その予測チェーンが新しいGOPの開始を表している別のINTRA画像によって再初期化されるまでその誤りを除去することができない。
この問題に対処するために、細粒度スケーラビリティ(FGS)と呼ばれる形式のスケーラビリティが開発されている。FGSにおいては、低品質のベース層がハイブリッド予測ループを使用して符号化され、(追加の)エンハンスメント層が再構成されたベース層と元のフレームとの間に符号化された残差を漸進的に伝える。FGSは、たとえば、MPEG4視覚標準化の中で提案されている。
図6に、細粒度スケーラブル符号化における予測関係の一例を示す。細粒度スケーラブル・ビデオ符号化方式においては、ベース層のビデオが誤りまたはパケット喪失を最小化するためによく制御されたチャネル(たとえば、誤差防止の程度が高いチャネル)において送信される。それは最小のチャネル帯域幅に適合するようにベース層が符号化されるように行われる。この最小の帯域幅は、動作中に発生するか、あるいは遭遇する可能性のある最も小さい帯域幅である。予測フレームにおけるすべてのエンハンスメント層は、基準フレーム内のベース層に基づいて符号化される。それ故、1つのフレームのエンハンスメント層における誤りは、それ以降の予測したフレームのエンハンスメント層においてドリフティングの問題を発生させず、符号化方式はチャネルの状態に対して適合させることができる。しかし、予測は常に低い品質のベース層に基づいているので、FGS符号化の符号化効率は、H.263の付属書類Oにおいて提供されている方式のような従来のSNRスケーラビリティ方式ほどは良くないか、あるいは場合によってはずっと悪い。
FGS符号化および従来の層型スケーラビリティ符号化の両方の利点を組み合わせるために、図8に示されているハイブリッド符号化方式が提案され、それは漸進的FGS(PFGS)と呼ばれている。留意すべき2つのポイントがある。先ず第一に、PFGSにおいては、符号化効率を維持するために同じ層からできるだけ多くの予測が使用される。第二に、予測経路は常に基準フレームにおける下位層からの予測を使用して誤り回復およびチャネル適応を可能にしている。第1のポイントは、所与のビデオ層に対して動きの予測ができるだけ正確であり、それ故、符号化効率を確実に維持することである。第2のポイントは、ドリフティングをチャネルの混雑、パケット喪失またはパケット誤りのケースにおいて確実に削減することである。この符号化構造を使用すれば、エンハンスメント層のデータにおける喪失/誤りパケットを再送信する必要はない。何故なら、エンハンスメント層を数フレーム間にわたって徐々に、自動的に再構成することができるからである。
図8では、フレーム2が、フレーム1の偶数層(すなわち、ベース層および第2の層)から予測されている。フレーム3はフレーム2の奇数層(すなわち、第1および第3の層)から予測されている。順に、フレーム4はフレーム3の偶数層から予測されている。この奇数/偶数の予測パターンが継続する。共通の基準層まで戻って参照する層の数を記述するために、グループ深さという用語が使用される。図8は、グループ深さが2の場合を例示している。グループ深さは変更することができる。深さが1であった場合、その状況は図7に示されている従来のスケーラビリティ方式と本質的には同等である。深さが層の合計数に等しい場合、その方式は、図6に示されているFGS法と同じになる。それ故、図8に示されている漸進的FGS符号化方式は、前の技法の両方の利点、たとえば、符号化効率が高いこと、および誤り回復力が高いことを提供する妥協方式を提供する。
PFGSは、インターネット上または無線チャネル上でのビデオ伝送に対して適用されるときに利点を提供する。大きなドリフティングを発生させずにチャネルの利用できる帯域幅に対して符号化されたビット・ストリームを適合させることができる。図9は、ビデオ・シーケンスがベース層および3つのエンハンスメント層を有しているフレームによって表されている状況における漸進的細粒度スケーラビリティによって提供される帯域幅適合特性の一例を示している。太い一点鎖線は、実際に送信されるビデオ層を追跡している。フレーム2において、帯域幅の大幅な減少がある。送信機(サーバ)は、これに対して高位のエンハンスメント層(層2および3)を表しているビットをドロップすることによって反応する。フレーム2の後、帯域幅がある程度増加し、送信機は2つのエンハンスメント層を表している追加のビットを送信することができる。フレーム4が送信される時までに、利用できる帯域幅がさらに増加され、ベース層およびすべてのエンハンスメント層の送信を再び行うための十分な容量が提供される。これらの動作は、ビデオのビット・ストリームの再符号化および再送信をいずれも必要としない。ビデオ・シーケンスの各フレームのすべての層が効率的に符号化され、1つのビット・ストリーム内に埋め込まれている。
上記従来技術のスケーラブル符号化技法は、符号化されたビット・ストリームの1つの解読に基づいている。すなわち、デコーダはその符号化されたビット・ストリームを一度だけ解読し、再構成された画像を発生する。再構成されたI画像およびP画像が動き補償のための参照画像として使用される。
一般に、時間的基準を使用するための上記方法においては、予測基準は符号化される画像に対して、あるいはその領域に対してできるだけ時間的および空間的に近い。しかし、予測符号化は伝送誤りによって影響される可能性が高い。何故なら、1つの誤りが、その誤りを含んでいる後続の予測画像チェーンの中に現れるすべての画像に影響するからである。したがって、伝送誤りに対してビデオ伝送システムをより頑健なものにするための代表的な方法は、予測チェーンの長さを減らす方法である。
空間的、SNRおよびFGSの各スケーラビリティ技法のすべては、バイト数の面で比較的短いクリティカル予測経路を作る方法を提供する。クリティカル予測経路は、ビデオ・シーケンスの内容の許容できる表示を得るために復号される必要のあるビット・ストリームの部分である。ビットレート・スケーラブル符号化においては、そのクリティカル予測経路はGOPのベース層である。層型ビット・ストリーム全体ではなく、そのクリティカル予測経路だけを適切に保護するのが便利である。しかし、FGS符号化と同様に、従来の空間的およびSNRのスケーラビリティ符号化は圧縮効率を減らすことに留意されたい。さらに、それらは送信機が符号化時にビデオ・データを階層化する方法を決定することが必要である。
予測経路を短くするために、時間的に対応しているINTERフレームの代わりにBフレームを使用することができる。しかし、連続したアンカー・フレーム間の時間が比較的長い場合、Bフレームを使用することによって圧縮効率の低下が生じる。この状況においては、Bフレームは互いに時間的に離れたアンカー・フレームから予測され、したがって、Bフレームおよびそれらが予測される元の基準フレームは類似性が低く予測される。これは不十分に予測されたBフレームを発生し、その結果、関連付けられた予測誤差フレームを符号化するためにより多くのビットが必要となる。さらに、アンカー・フレーム間の時間的距離が増加するので、連続したアンカー・フレームは類似性がより低くなる。再び、これによって予測されたアンカー画像が劣化し、そして関連付けられた予測誤差画像を符号化するためにより多くのビットが必要となる。
図10は、Pフレームの時間的予測において、一般的に使用される方式を示す。簡略化のために、図10においてはBフレームは考慮されていない。
INTERフレームの予測基準を選択することができる場合(たとえば、H.263の参照画像選択モードの場合のように)、現在のフレームをそれが自然番号順において直前のもの以外のフレームから予測することによって予測経路を短くすることができる。これは図11に示されている。しかし、参照画像選択をビデオ・シーケンスにおける誤りの時間的伝搬を減らすために使用することができるが、それはまた圧縮効率を減らす効果も有する。
ビデオ冗長符号化(VRC)として周知の技法が、パケット交換網におけるパケットの喪失に応答してビデオ品質の優雅な劣化を提供するために提案されている。VRCの原理は、画像シーケンスを2つまたはそれ以上のスレッドに分割し、すべての画像がラウンドロビン方式でそのスレッドの1つに対して割り当てられるようにする。各スレッドは独立に符号化される。一定の間隔で、すべてのスレッドが、個々のスレッドの少なくとも1つから予測される、いわゆる同期フレームに収束する。この同期フレームから、新しいスレッド・シリーズが開始される。所与のスレッド内のフレーム・レートは全体のフレーム・レートより結果として低くなり、2スレッドの場合には半分、3スレッドの場合は3分の1などとなる。これによって相当な符号化ペナルティが生じる。何故なら、1つのスレッド内の画像間の動きに関連する変化を表すために、通常、同じスレッド内の連続した画像間の一般的にもっと大きな差およびもっと長い運動ベクトルが必要となるためである。図12は、2つのスレッドおよびスレッド当たり3つのフレームの場合のVRCの動作を示す。
たとえば、パケット喪失のためにVRC符号化されたビデオ・シーケンスにおいてスレッドの1つが損傷した場合でも、残りのスレッドは無傷のままである可能性があり、したがって、次の同期フレームを予測するためにそれらを使用することができる。損傷したスレッドの復号を継続することができ、それによる画像の劣化は僅かである。あるいはその復号を停止させることができ、それはフレーム・レートの削減につながる。しかし、スレッドが程よく短い場合、両方の形の劣化は非常に短時間持続するだけ、すなわち、次の同期フレームに達するまでである。図13に、2つのスレッドのうちの1つが損傷しているときのVRCの動作を示す。
同期フレームは常に、損傷していないスレッドから予測される。このことは、送信されるINTRA画像の数を少なく保つことができることを意味する。何故なら、一般に、完全な再同期化は不要であるからである。正しい同期フレームの構造は、2つの同期フレーム間のすべてのスレッドが損傷した場合にのみ妨げられる。この状況においては、VRCを採用していないケースの場合と同様に、次のINTRA画像が正しく復号されるまで、目障りなアーティファクトが続く。
現在、任意の「参照画像選択」モード(付属書類N)がイネーブルされている場合に、VRCをITU−T H.263ビデオ符号化規格(バージョン2)と一緒に使用することができる。しかし、他のビデオ圧縮方法にVRCを組み込むことに大きな障害はない。
Pフレームの逆方向予測も予測チェーンを短くする1つの方法として提案されている。これは図14に示されている。図14は、ビデオ・シーケンスのうちの少数の連続フレームを示している。点AにINTRAフレーム(I1)を符号化されたビデオ・シーケンス内に挿入すべきであるという要求をビデオ・エンコーダが受信する。この要求は、たとえば、シーン・カット、または遠隔受信機からのフィードバックとして受信されたINTRAフレーム更新要求に反応して、INTRAフレーム要求、周期的なINTRAフレームのリフレッシュ動作の結果として発生する可能性がある。一定の期間後、別のシーン・カット、INTRAフレーム要求、または周期的INTRAフレーム・リフレッシュ動作が発生する(点B)。最初のシーン・カット、INTRAフレーム要求、または周期的INTRAフレーム・リフレッシュ動作の直後にINTRAフレームを挿入するのではなく、エンコーダは2つのINTRAフレーム要求間のほぼ中間の時点にINTRAフレーム(I1)を挿入する。最初のINTRAフレーム要求とINTRAフレームI1との間のフレーム(P2およびP3)は、シーケンス内で逆方向に予測され、予測チェーンの原点としてI1を使用している他のフレームからINTERフォーマットで予測される。INTRAフレームI1と第2のINTRAフレーム要求との間の残りのフレーム(P4およびP5)は、従来の方法によりINTERフォーマットで順方向に予測される。
この方法の利点は、フレームP5の復号を可能にするためにどれだけ多くのフレームが正常に送信されなければならないかを考えることによって知ることができる。図15に示されているような従来のフレームの順序が使用される場合、P5の復号を正しく行うには、I1、P2、P3、P4およびP5が正しく送信されて復号される必要がある。図14に示されている方法においては、P5を正常に復号するためには、I1、P4およびP5だけが正しく送信されて復号されればよい。すなわち、この方法は従来のフレームの順序および予測を採用している方法と比較してP5が正しく復号される確実性がより大きくなる。
しかし、逆方向に予測されたINTERフレームは、I1が復号される前には復号することができないことに留意されたい。結果として、シーン・カットとそれに続くINTRAフレームとの間の時間より長い初期バッファリング遅延が、再生における一時休止を防ぐために必要である。
図16は、TML−4に対する現在の勧告によって修正されたテスト・モデル(TML)TML−3に基づいたITU−T H.26L勧告に従って動作するビデオ通信システム10を示す。システム10は、送信機側12と受信機側14とを備えている。このシステムには双方向の送信および受信の装備がなされているので、送信側および受信側12および14は、送信および受信の両方の機能を実行することができ、相互に交換可能であることを理解されたい。システム10は、ビデオ符号化(VCL)と、ネットワーク・アウェアネスを伴うネットワーク適応層(NAL)とを含む。「ネットワーク・アウェアネス」という用語は、NALがそのネットワークに適合するためのデータの配置が採用できることを意味する。VCLは復号機能以外に、波形符号化およびエントロピー符号化の両方を含む。圧縮されたビデオ・データが伝送されているとき、NALはその符号化されたビデオ・データをサービス・データ・ユニット(パケット)内にパケット化し、そのユニットはチャネル上での伝送のためにトランスポート・コーダに渡される。圧縮されたビデオ・データを受信すると、NALはチャネル上での伝送後のトランスポート・デコーダから受信されたサービス・データ・ユニットからの符号化されたビデオ・データを非パケット化する。NALは、ビデオのビット・ストリームを画像タイプおよび動き補正情報などの画像データの復号および再生に対して、より重要な他のデータから別に符号化されたブロック・データおよび予測誤差係数に区画化することができる。
VCLの主なタスクは、効率的な方法でビデオ・データを符号化することである。しかし、すでに説明したように、効率的に符号化されたデータに対して誤りが悪影響を及ぼし、したがって、可能な誤りのいくつかのアウェアネスが含められる。VCLは予測符号化チェーンを中断し、誤りの発生および伝搬に対して補正するための対策を講じる。これは以下のことによって行うことができる。
i).INTRAフレームおよびINTRA符号化マクロブロックを導入することによって時間的予測チェーンを中断する。
ii).運動ベクトルの予測がスライス境界内にある独立のスライス符号化モードへ切り換えることによって誤りの伝搬を中断させる。
iii).たとえば、フレームについての適応型算術符号化なしで、独立に復号することができる可変長符号を導入する。
iv).伝送チャネルの利用可能なビットレートにおける変化に迅速に反応し、パケット喪失が発生しにくいように符号化されたビデオのビット・ストリームのビットレートを適応させる。
さらに、VCLはネットワークにおけるサービスの品質(QoS)メカニズムをサポートするために優先度クラスを識別する。
通常、ビデオ符号化方式は、伝送されるビット・ストリーム内の符号化されたビデオ・フレームまたは画像を記述する情報を含む。この情報はシンタックス要素の形式を取る。シンタックス要素は、その符号化方式の中で同様な機能を備えている符号語または符号語のグループである。シンタックス要素は優先度クラスに分類される。シンタックス要素の優先度クラスは、他のクラスに対するその符号化および復号依存性に従って画定される。復号依存性は、時間的予測、空間的予測の使用および可変長符号化の使用の結果として生じる。優先度クラスを画定するための一般的な規則は以下の通りである。
1.シンタックス要素Aを、シンタックス要素Bの知識なしで正しく復号することができ、シンタックス要素Bは、シンタックス要素Aの知識なしでは正しく復号できない場合、シンタックス要素Aの優先度はシンタックス要素Bより高い。
2.シンタックス要素AおよびBが独立に復号できる場合、各シンタックス要素の画像品質に及ぼす影響の度合いがその優先度クラスを決定する。
シンタックス要素と、伝送誤りに起因するシンタックス要素における誤りまたはシンタックス要素の喪失の効果との間の依存性を、図17に示されているように依存性ツリーとして視覚化することができる。図17は、現在のH.26Lテスト・モデルの各種のシンタックス要素間の依存性を示している。誤っているか、あるいは欠落しているシンタックス要素は、同じブランチ内にあって依存性ツリーの根元からさらに離れているシンタックス要素の復号にのみ影響する。したがって、ツリーの根元に近いシンタックス要素が復号された画像の品質に及ぼす影響は、それより低い優先度クラス内のシンタックス要素より大きい。
通常、優先度クラスは、フレームごとのベースで画定される。スライス・ベースの画像符号化モードが使用されている場合、優先度クラスに対するシンタックス要素の割当てにおける何らかの調整が実行される。
図17をさらに詳細に参照すると、現在のH.26Lテスト・モデルにはクラス1(最高優先度)からクラス10(最低優先度)までの範囲にある10個の優先度クラスがあることが分かる。以下は各優先度クラス内のシンタックス要素の要約と、各シンタックス要素によって伝えられる情報の簡単な概要である。
クラス1:PSYNC、PTYPE:PSYNC、PTYPEのシンタックス要素を含んでいる。
クラス2:MB_TYPE、REF_FRAME:1つのフレーム内のすべてのマクロブロック・タイプおよび基準フレームのシンタックス要素を含んでいる。INTRA画像/フレームの場合、このクラスは要素を含んでいない。
クラス3:IPM:INTRA予測モードのシンタックス要素を含んでいる。
クラス4:MVD、MACC:運動ベクトルおよび動きの精度のシンタックス要素(TML−2)を含んでいる。INTRA画像/フレームの場合、このクラスは要素を含んでいない。
クラス5:CBP−Intra:1つのフレーム内のINTRAマクロブロックに対して割り当てられたすべてのCBPシンタックス要素を含んでいる。
クラス6:LUM_DC¥Intra、CHR_DC−Intra:INTRA−MB内のすべてのブロックに対するすべてのDC輝度係数およびすべてのDCクロミナンス係数を含んでいる。
クラス7:LUM_AC−Intra、CHR_AC−Intra:INTRA−MB内のすべてのブロックに対するすべてのAC輝度係数およびすべてのACクロミナンス係数を含んでいる。
クラス8:CBP−Inter、1つのフレーム内のINTER−MBに対して割り当てられているすべてのCBPシンタックス要素を含んでいる。
クラス9:LUM_DC−Inter、CHR_DC−Inter:INTER−MB内の各ブロックの第1の輝度係数およびすべてのブロックのDCクロミナンス係数を含んでいる。
クラス10:LUM_AC−Inter、CHR_AC−Inter:INTER−MB内のすべてのブロックの残りの輝度係数およびクロミナンス係数を含んでいる。
NALの主なタスクは、基底にあるネットワークに適合する優先度クラス内に含まれているデータを最適の方法で送信することである。したがって、基底にある各ネットワークまたはネットワークのタイプに対してユニークなデータ・カプセル化の方法が提示されている。NALは以下のタスクを実行する。
1.識別されたシンタックス要素クラス内に含まれているデータをサービス・データ・ユニット(パケット)にマップする。
2.結果のサービス・データ・ユニット(パケット)を基底にあるネットワークに適合する方法で転送する。
NALは誤差防止メカニズムも提供することができる。
圧縮されたビデオ画像を異なる優先度クラスに対して符号化するために使用されるシンタックス要素の優先順位付けによって、基底にあるネットワークに対する適合が簡単になる。ネットワークがサポートしている優先度メカニズムはシンタックス要素の優先順位付けから特に利点を得る。特に、シンタックス要素の優先順位付けは以下の場合に使用するとき、特に有利である。
i).IPにおける優先度の方法(資源予約プロトコル(RVSP)など)
ii).汎用移動電話システム(UMTS)などの第三世代の移動通信ネットワークにおけるサービスの品質(QoS)メカニズム
iii).H.223マルチメディア通信のためのマルチプレキシング・プロトコルの付属書類CまたはD
iv).基底にあるネットワークにおいて提供される不等誤差防止
異なるデータ/電気通信ネットワークは実質的に異なる特性を通常備えている。たとえば、各種のパケット・ベースのネットワークは、最小および最大のパケット長を採用するプロトコルを使用する。いくつかのプロトコルはデータ・パケットの正しい順序での配信を保証するが、他のプロトコルは保証しない。したがって、2つ以上のクラスに対するデータを1つのデータ・パケットに併合すること、あるいは所与のいくつかのデータ・パケット間で所与の優先度のクラスを表しているデータを分割することが必要に応じて適用される。
圧縮されたビデオ・データを受信しているとき、VCLはネットワークおよび伝送のプロトコルを使用することによって、ある種のクラスおよび特定のフレームに対する優先度が高いすべてのクラスを識別することができ、そしてそれを正しく受信したこと、すなわち、ビット誤りなしで受信したこと、そしてすべてのシンタックス要素の長さが正しいことをチェックする。
符号化されたビデオのビット・ストリームは基底にあるネットワークおよび使用中のアプリケーションに依存して各種の方法でカプセル化されている。以下に、いくつかのカプセル化方式の例を示す。
〔H.324(回線交換型テレビ電話)〕
H.324のトランスポート・コーダ、すなわち、H.223は、その最大のサービス・データ・ユニット・サイズが254バイトである。通常、これは画像全体を搬送するには不十分であり、したがって、VCLは1つの画像を複数の区画に分割できるので、各区画は1つのサービス・データ・ユニットに適合する。符号語は、通常、それらのタイプに基づいて区画にグループ化される。すなわち、同じタイプの符号語が同じ区画にまとめられる。区画の符号語(およびバイト)の順序は重要度の降順に配列される。ビット誤りがビデオ・データを搬送しているH.223のサービス・データ・ユニットに影響する場合、デコーダはそのパラメータの可変長符号化のために同期の復号を失う可能性があり、そのサービス・データ・ユニット内のデータの残りの部分を復号することができなくなる。しかし、最も重要なデータはサービス・データ・ユニットの先頭に現れるので、デコーダは画像内容の劣化した表示を生成することができる可能性がある。
〔IPテレビ電話〕
歴史的な理由のために、IPパケットの最大サイズは約1500バイトである。以下の2つの理由のために、できるだけ大きいIPパケットを使用することが有利である。
1. ルータなどのIPネットワーク要素は過剰なIPトラヒックのために混雑状態となり、内部バッファのオーバフローを発生する可能性がある。そのバッファは、通常、パケット指向型である。すなわち、それらはいくつかの個数のパケットを含んでいる可能性がある。したがって、ネットワークの混雑を回避するために、頻繁に生成される小さいパケットではなく、ほとんど生成されない大きいパケットを使用することが望ましい。
2. 各IPパケットはヘッダ情報を含んでいる。リアルタイムのビデオ通信のために使用される代表的なプロトコルの組合せ、すなわち、RTP/UDT/IPは、パケット当たり40バイトのヘッダ部分を含む。回線交換型低帯域幅のダイヤルアップ・リンクが、IPネットワークに接続するときにしばしば使用されている。小さいパケットが使用されている場合、低ビットレートのリンクにおいてはパケット化のオーバヘッドが大きくなる。
画像のサイズおよび複雑性に依存して、INTER符号化ビデオ画像は1つのIPパケットに適合するために十分少ない数のビットを含むことができる。
IPネットワークにおいて不等誤差防止を提供するための多くの方法がある。これらのメカニズムは、パケットの二重化、順方向誤り訂正(FEC)パケット、差別化サービス、すなわち、ネットワーク内のある種のパケットに対して優先権を与えるサービス、統合サービス(RSVPプロトコル)を含む。通常、これらのメカニズムは重要度が似ているデータを1つのパケット内にカプセル化する必要がある。
〔IPビデオ・ストリーミング〕
ビデオ・ストリーミングは非対話型アプリケーションであるので、エンド・ツー・エンドの遅延の条件は厳しくない。結果として、そのパケット化方式は複数の画像からの情報を利用することができる。たとえば、データは上記のようにIPテレビ電話の場合に類似した方法で分類することができるが、複数の画像からの重要度が高いデータが同じパケット内にカプセル化される。
代わりに、各画像または画像のスライスをそれ自身のパケット内にカプセル化することができる。最も重要なデータがそのパケットの先頭に現れるようにデータの区画化が適用される。順方向誤り訂正(FEC)パケットは既に送信された一組のパケットから計算される。FECのアルゴリズムは、それがそのパケットの先頭に現れているある個数のバイトだけを保護するように選択される。受信端において、通常のデータ・パケットが喪失していた場合、FECパケットを使用してその喪失したデータ・パケットの先頭を訂正することができる。この方法はA. H. Li, J. D. Villasenor、"A generic Uneven Level Protection (ULP) proposal for Annex I of H.323"(H.323の付属書類Iに対する一般不等レベル保護(ULP)提案)、ITU−T、SG16、Question 15、ドキュメントQ15−J−61、16−May−2000の中で提案されている。
第1の態様によれば、本発明は、ビット・ストリームを発生するためにビデオ信号を符号化するための方法を提供する。前記方法は、第1の完全フレームを再構成するための、高優先度および低優先度情報に優先順位付けられている情報を含むビット・ストリームの第1の部分を形成することにより、第1の完全フレームを符号化するステップと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを画定するステップと、第2の完全フレームの再構成において使用するための情報を含むビット・ストリームの第2の部分を形成することにより第2の完全フレームを符号化し、第2の完全フレームを、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて完全に再構成することができるようにするステップとを含む。
好適には、前記方法は、また、第2の完全フレームの情報を高優先度情報および低優先度情報に優先順位付けるステップと、第2の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第2の完全フレームの高優先度情報を使用して構成された第2の完全フレームの1つのバージョンに基づいて第2の仮想フレームを画定するステップと、第2の完全フレームおよびビット・ストリームの第3の部分に含まれる情報に基づいて第3の完全フレームが完全に再構成できるように、第3の完全フレームの再構成において使用するための情報を含むビット・ストリームの第3の部分を形成することにより第3の完全フレームを符号化するステップとを含む。
第2の態様によれば、本発明は、ビット・ストリームを発生するためにビデオ信号を符号化するための方法を提供する。前記方法は、第1の完全フレームを再構成するための、高優先度および低優先度情報に優先順位付けられている情報を含むビット・ストリームの第1の部分を形成することにより、第1の完全フレームを符号化するステップと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを画定するステップと、第2の完全フレームの再構成において使用するための情報を含むビット・ストリームの第2の部分を形成することにより第2の完全フレームを符号化し、前記情報が高優先度情報および低優先度情報に優先順位付けられていて、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2のフレームが完全に再構成されるように第2のフレームが符号化されるステップと、第2の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第2の完全フレームの高優先度情報を使用して構成された第2の完全フレームの1つのバージョンに基づいて第2の仮想フレームを画定するステップと、第2の完全フレームから予測され、ビット・ストリームの第3の部分を形成することによりシーケンス内で第2の完全フレームに続く第3の完全フレームを符号化し、ビット・ストリームは第3の完全フレームの再構成において使用するための情報を含み、第3の完全フレームを第2の完全フレームおよび、ビット・ストリームの第3の部分に含まれる情報に基づいて完全に再構成できるようにするステップとを含む。
第1の仮想フレームは、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、ビット・ストリームの第1の部分の高優先度情報を使用し、そして予測基準として前の仮想フレームを使用して構成することができる。他の仮想フレームは、前の仮想フレームに基づいて構成することができる。したがって、仮想フレームのチェーンを提供することができる。
完全フレームは表示できる画像を形成することができるという意味で完全である。これは仮想フレームに対しては必ずしも成立する必要はない。
第1の完全フレームは、INTRA符号化された完全フレームであってよい。その場合、ビット・ストリームの第1の部分は、INTRA符号化の完全フレームの完全再構成のための情報を含む。
第1の完全フレームは、INTER符号化の完全フレームであってよい。その場合、ビット・ストリームの第1の部分は、完全基準フレームまたは仮想基準フレームであることができる基準フレームに関してINTER符号化の完全フレームの再構成のための情報を含む。
1つの実施形態においては、本発明は、スケーラブル符号化方法である。この場合、仮想フレームはスケーラブル・ビット・ストリームのベース層であるとして解釈することができる。
本発明のもう1つの実施形態においては、2つ以上の仮想フレームが第1の完全フレームの情報から画定され、上記2つ以上の各仮想フレームは、第1の完全フレームの異なる高優先度情報を使用して画定されている。
本発明のさらにもう1つの実施形態においては、2つ以上の仮想フレームが第1の完全フレームの情報から画定され、上記2つ以上の各仮想フレームは、第1の完全フレームの情報の異なる優先順位付けを使用して形成された第1の完全フレームの異なる高優先度情報を使用して画定される。
好適には、完全フレームの再構成のための情報が、その完全フレームを再構成する際のその重要性に従って高優先度および低優先度情報に優先順位付けられる。
完全フレームはスケーラブル・フレーム構造のベース層であってよい。
前のフレームを使用して完全フレームを予測しているとき、そのような予測ステップにおいて、完全フレームを前の完全フレームに基づいて予測することができ、それ以降の予測ステップにおいて、完全フレームを仮想フレームに基づいて予測することができる。この方法で、予測のベースは予測ステップごとに変化する可能性がある。その変化は、所定のベースで、あるいは符号化されたビデオ信号が送信されるリンクの品質などの他のファクタによって時々刻々決定されることによって発生する可能性がある。本発明の1つの実施形態においては、その変化は受信デコーダから受信された要求によって開始される。
仮想フレームは、高優先度情報を使用し、低優先度情報を故意に使用せずに形成されるものであることが好ましい。仮想フレームは表示されないことが好ましい。代わりに、それが表示される場合、それは完全フレームに対する代わりのものとして使用される。これはその完全フレームが伝送誤りのために利用できない場合にあり得る。
本発明によって、時間的予測経路を短縮しているとき、符号化効率を改善することができる。本発明は、さらに、ビデオ信号の再構成のための情報を搬送しているビット・ストリームにおけるデータの喪失または劣化からの結果として生じる劣化に対して符号化されたビデオ信号の回復力を増加させる効果を有する。
情報は符号語を含むことが好ましい。
仮想フレームは、高優先度情報から構成されるか、あるいは画定されるだけではなく、いくつかの低優先度情報から構成されるか、あるいは画定される可能性もある。
仮想フレームは、仮想フレームの順方向予測を使用して前の仮想フレームから予測することができる。他の方法として、あるいは追加として、仮想フレームは仮想フレームの逆方向予測を使用してそれ以降の仮想フレームから予測することができる。INTERフレームの逆方向予測は、図14に関連して説明してきた。この原理は仮想フレームに対して容易に適用できることを理解することができるだろう。
順方向予測フレームを使用して、完全フレームを前の完全フレームまたは仮想フレームから予測することができる。他の方法として、あるいは追加として、逆方向予測を使用して完全フレームをそれ以降の完全フレームまたは仮想フレームから予測することができる。
仮想フレームが高優先度情報によって画定されているだけでなく、いくつかの低優先度情報によっても画定されている場合、その仮想フレームを、その高優先度情報および低優先度情報の両方を使用して復号することができ、さらに別の仮想フレームに基づいて予測することができる。
仮想フレームに対するビット・ストリームの復号は、完全フレームに対するビット・ストリームの復号において使用されるものとは異なるアルゴリズムを使用することができる。仮想フレームを復号するための複数のアルゴリズムがあり得る。特定のアルゴリズムの選択はビット・ストリーム内で知らせることができる。
低優先度情報が存在しない場合、それをデフォルト値で置き換えることができる。そのデフォルト値の選択は変わる可能性があり、正しい選択はビット・ストリーム内で知らされる。
第3の態様によれば、本発明は、ビデオ信号を発生するためにビット・ストリームを復号するための方法を提供する。前記方法は、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先順位付けられている情報を含むビット・ストリームの第1の部分から第1の完全フレームを復号するステップと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを画定するステップと、第1の仮想フレームを、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するステップとを含む。
好適には、前記方法は、また、第2の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第2の完全フレームの高優先度情報を使用して構成された第2の完全フレームの1つのバージョンに基づいて第2の仮想フレームを画定するステップと、第2の完全フレームおよびビット・ストリームの第3の部分に含まれる情報に基づいて第3の完全フレームを予測するステップとを含むことが好ましい。
第4の態様によれば、本発明は、ビデオ信号を発生するためにビット・ストリームを復号するための方法を提供する。前記方法は、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含むビット・ストリームの第1の部分から第1の完全フレームを復号するステップと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを画定するステップと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するステップと、第2の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第2の完全フレームの高優先度情報を使用して構成された第2の完全フレームの1つのバージョンに基づいて第2の仮想フレームを画定するステップと、第2の完全フレームおよびビット・ストリームの第3の部分に含まれる情報に基づいて第3の完全フレームを予測するステップとを含む。
第1の仮想フレームは、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、ビット・ストリームの第1の部分の高優先度情報を使用して、そして予測基準として前の仮想フレームを使用して構成することができる。他の仮想フレームは前の仮想フレームに基づいて構成することができる。完全フレームは、仮想フレームから復号することができる。完全フレームは仮想フレームの予測チェーンから復号することができる。
第5の態様によれば、本発明は、ビット・ストリームを発生するためにビデオ信号を符号化するためのビデオ・エンコーダを提供する。前記エンコーダは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先順位付けられている情報を含む第1の完全フレームのビット・ストリームの第1の部分を形成するための完全フレーム・エンコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて少なくとも第1の仮想フレームを画定する仮想フレーム・エンコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備える。
完全フレーム・エンコーダはフレーム予測器を含むことが好ましい。
本発明の1つの実施形態において、エンコーダはデコーダに対して信号を送信して、1つのフレームに対してビット・ストリームのどの部分が、伝送誤りまたは喪失の場合に全品質の画像を置き換えるための受け入れ可能な画像を発生するのに十分であるかを示す。そのシグナリングはビット・ストリーム内に含められるか、あるいはビット・ストリームとは別に伝送されるようにすることができる。
そのシグナリングをフレームに対して適用するのではなく、画像の一部分、たとえば、スライス、ブロック、マクロブロックまたはブロックのグループに対して適用することができる。もちろん、その方法全体を画像セグメントに対して適用することができる。
シグナリングは、複数の画像のうちのどの画像が完全な品質の画像を置き換えるために受け入れ可能な画像を発生するのに十分であるかを示すことができる。
本発明の1つの実施形態においては、そのエンコーダは信号をデコーダに送信して、仮想フレームを構成するための方法を示すことができる。その信号は1つのフレームに対する情報の優先順位付けを示すことができる。
その本発明のさらにもう1つの実施形態によれば、エンコーダは信号をデコーダに送信して、実際の参照画像が喪失したか、あるいは劣化し過ぎていた場合に使用される仮想予備参照画像を構成する方法を示すことができる。
第6の態様によれば、本発明は、ビデオ信号を発生するためにビット・ストリームを復号するためのデコーダを提供する。前記デコーダは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先順位付けられている情報を含むビット・ストリームの第1の部分から第1の完全フレームを復号するための完全フレーム・デコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して第1の完全フレームのビット・ストリームの第1の部分から第1の仮想フレームを形成するための仮想フレーム・デコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備える。
完全フレーム・デコーダはフレーム予測器を含むことが好ましい。
低優先度情報が仮想フレームの構成において使用されないので、そのような低優先度情報が喪失しても仮想フレームの構成には悪影響を及ぼさない。
参照画像選択の場合には、完全フレームを格納するためのマルチフレーム・バッファと仮想フレームを格納するためのマルチフレーム・バッファとを、エンコーダおよびデコーダに備えることができる。
好適には、別のフレームを予測するために使用される基準フレームを、たとえば、エンコーダ、デコーダ、またはその両方によって選択することができる。基準フレームの選択は各フレーム、画像セグメント、スライス、マクロブロック、ブロックまたはどんな部分画像要素に対しても別々に行うことができる。基準フレームはアクセス可能であるか、あるいはエンコーダの中およびデコーダの中の両方において発生することができる任意の完全フレーム、あるいは仮想フレームであってよい。
この方法で、各完全フレームは1つの仮想フレームに制限されず、完全フレームに対するビット・ストリームを分類するための方法がそれぞれ異なっているいくつかの異なる仮想フレームに関連付けられていてもよい。ビット・ストリームを分類するためのこれらの異なる方法は、動き補償のための異なる基準(仮想または完全)画像および/またはビット・ストリームの高優先度部分を復号する異なる方法であってよい。
デコーダからエンコーダに対してフィードバックを提供されることが好ましい。
そのフィードバックは1つまたはそれ以上の指定された画像の符号語に関係する指示の形式であってよい。その指示は符号語が受信されたこと、受信されなかったこと、あるいは損傷された状態で受信されたことを示す。これによってエンコーダは以降のフレームの動き補正された予測において使用される予測基準を、完全フレームから仮想フレームへ変更することができる。他の方法としては、その指示によって、受信されなかった、あるいは損傷した状態で受信された符号語をエンコーダに再送信させることができる。その指示は1つの画像中のある領域の内部の符号語、あるいは複数の画像中のある領域の内部の符号語を指定することができる。
第7の態様によれば、本発明は、ビデオ信号をビット・ストリームに符号化するため、およびビット・ストリームをビデオ信号に復号するためのビデオ通信システムを提供する。前記システムはエンコーダとデコーダとを備える。エンコーダは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含む第1の完全フレームのビット・ストリームの第1の部分を形成するための完全フレーム・エンコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを画定する仮想フレーム・エンコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備え、デコーダは、ビット・ストリームの第1の部分から第1の完全フレームを復号するための完全フレーム・デコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して、ビット・ストリームの第1の部分から第1の仮想フレームを形成するための仮想フレーム・デコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備える。
完全フレーム・エンコーダはフレーム予測器を含むことが好ましい。
第8の態様によれば、本発明は、ビット・ストリームを発生するためにビデオ信号を符号化するためのビデオ・エンコーダを含んでいるビデオ通信端末を提供する。前記ビデオ・エンコーダは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含む第1の完全フレームのビット・ストリームの第1の部分を形成するための完全フレーム・エンコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて少なくとも第1の仮想フレームを画定する仮想フレーム・エンコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備える。
完全フレーム・エンコーダはフレーム予測器を含むことが好ましい。
第9の態様によれば、本発明は、ビデオ信号を発生するためにビット・ストリームを復号するためのデコーダを含んでいるビデオ通信端末を提供する。デコーダは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含むビット・ストリームの第1の部分から第1の完全フレームを復号するための完全フレーム・デコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して、第1の完全フレームのビット・ストリームの第1の部分から第1の仮想フレームを形成するための仮想フレーム・デコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備える。
完全フレーム・デコーダはフレーム予測器を含むことが好ましい。
第10の態様によれば、本発明は、ビット・ストリームを発生するためにビデオ信号を符号化するためのビデオ・エンコーダとしてコンピュータを動作させるためのコンピュータ・プログラムを提供する。前記プログラムは、第1の完全フレームの完全再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含むビット・ストリームの第1の部分を形成することにより、第1の完全フレームを符号化するためのコンピュータ実行可能コードと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを画定するためのコンピュータ実行可能コードと、第2の完全フレームの再構成のための情報を含むビット・ストリームの第2の部分を形成し、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームが再構成されるようにする、第2の完全フレームを符号化するためのコンピュータ実行可能コードとを含む。
第11の態様によれば、本発明は、ビデオ信号を発生するためにビット・ストリームを復号するためのビデオ・エンコーダとしてコンピュータを動作させるためのコンピュータ・プログラムを提供する。前記プログラムは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含むビット・ストリームの部分から第1の完全フレームを復号するためのコンピュータ実行可能コードと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを画定するためのコンピュータ実行可能コードと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのコンピュータ実行可能コードとを含む。
好適には、第10および11の態様のコンピュータ・プログラムは、データ記憶媒体上に格納されていることが好ましい。これは携帯用のデータ記憶媒体または装置内のデータ記憶媒体であってよい。上記装置は、携帯機器、たとえば、ラップトップ・コンピュータ、携帯情報端末または携帯電話であってよい。
本発明において「フレーム」という場合、それはフレームの部分、たとえば、1つのフレーム内のスライス、ブロックおよびMBを含むことも意図している。
PFGSと比較して、本発明はより良い圧縮効率を提供する。これはより柔軟なスケーラビリティの階層を備えているからである。PFGSと本発明とが同じ符号化方式の中で存在することが可能である。この場合、本発明はPFGSのベース層の下で動作する。
本発明は仮想フレームの概念を導入する。それはビデオ・エンコーダにおいて作り出される符号化された情報の最重要部分を使用して構成される。この場合、「最重要」という用語は、フレームの正しい再構成に最も強く影響する圧縮されたビデオ・フレームの符号化表示の中の情報を指す。たとえば、ITU−T勧告H.263に従う圧縮されたビデオ・データの符号化において使用されるシンタックス要素の場合には、符号化されたビット・ストリーム内の最重要情報はシンタックス要素間の復号の関係を画定している依存性の根元により近いシンタックス要素を含むと考えることができる。すなわち、更なるシンタックス要素の復号を可能にするために正しく復号されなければならないシンタックス要素を、圧縮されたビデオ・フレームの符号化された表示における最重要/高優先度情報を表すものと考えることができる。
仮想フレームを使用することによって、符号化されたビット・ストリームの誤り回復力を高める正しい方法が提供される。特に、本発明は動き補償型予測を実行する新しい方法を導入し、その中で仮想フレームを使用して発生された代わりの予測経路が使用される。すでに説明した従来技術の方法においては、完全フレームのみ、すなわち、1つのフレームに対する完全符号化情報を使用して再構成されたビデオ・フレームだけが動き補償のための基準として使用されることに留意されたい。本発明による方法においては、仮想フレームのチェーンが符号化されたビデオ・フレームのより高い重要な情報を使用して構成され、チェーンの内部の動き補償型予測と一緒に使用される。仮想フレームを含んでいる予測経路が符号化されたビデオ・フレームの完全情報を使用する従来の予測経路に対して追加的に用意されている。「完全」という用語は、ビデオ・フレームの再構成において使用するために利用できる情報全体の使用を指すことに留意されたい。
問題のビデオ符号化方式がスケーラブル・ビット・ストリームを発生する場合、「完全」という用語はスケーラブル構造の所与の層に対して提供されるすべての情報を使用することを意味する。さらに、仮想フレームは一般に表示されることが意図されていないことに留意されたい。ある状況においては、それぞれの構成において使用される情報の種類に依存して、仮想フレームは表示に対しては不適切であるか、あるいは表示を行うことはできない場合がある。他の状況においては、仮想フレームは表示に適しているか、あるいは表示できるが、いずれにおいても表示はされず、上記の一般的な用語においてすでに説明したように、動き補償型予測の代わりの手段を提供するためだけに使用される。本発明の他の実施形態においては、仮想フレームを表示することができる。また、異なる種類の仮想フレームの構成を可能にするために異なる方法でビット・ストリームからの情報を優先順位化することができることにも留意されたい。
本発明による方法は、上記従来技術の誤り回復法と比較して多くの利点を有している。たとえば、I0、P1、P2、P3、P4、P5およびP6のフレームのシーケンスを形成するように符号化されている画像のグループ(GOP)を考えると、本発明に従って実施されるビデオ・エンコーダは、INTRAフレームI0から始まる予測チェーンにおいて動き補償型予測を使用してINTERフレームP1、P2およびP3を符号化するようにプログラムすることができる。同時に、エンコーダは一組の仮想フレームI0',P1',P2'およびP3'を発生する。仮想INTRAフレームI0'は、I0を表している高優先度情報を使用して構成され、同様に、仮想INTERフレームP1',P2'およびP3'は完全INTERフレームP1、P2およびP3の高優先度情報をそれぞれ使用して構成され、そして仮想INTRAフレームI0'から始まる動き補償型予測チェーンに形成される。この例においては、仮想フレームは表示されることが意図されてはおらず、そしてエンコーダはそれがフレームP4に達すると、その動き予測基準が完全フレームP3ではなく、仮想フレームP3'として選定されるようにプログラムされている。それ以降のフレームP5およびP6が次にそれぞれの予測基準として完全フレームを使用してP4から予測チェーンの中に符号化される。
この方法は、たとえば、H.263によって提供されている基準フレーム選択モードに似ているように見える可能性がある。しかし、本発明による方法においては、代わりの基準フレーム、すなわち、仮想フレームP3'が従来の参照画像選択方式に従って使用されたことになる代わりの基準フレーム(たとえば、P2)より、フレームP4の予測において使用されることになったであろう基準フレーム(すなわち、フレームP3)にずっとよく似ている。これは、P3'がP3そのものを記述する符号化情報のサブセット、すなわち、フレームP3の復号のために最も重要な情報から実際に構成されることを思い出すことによって容易に正当化することができる。この理由のために、従来の参照画像選択が使用された場合に期待されるより予測誤差の少ない情報が仮想基準フレームの使用に関して必要となる可能性がある。この方法で、本発明は従来の参照画像選択方法に比べて圧縮効率の向上を提供する。
また、予測基準として完全フレームの代わりに仮想フレームを周期的に使用するようにビデオ・エンコーダがプログラムされていた場合、ビット・ストリームに影響する伝送誤りによって生じた受信デコーダにおける目に見えるアーティファクトの累積および伝搬が削減されるか、あるいは防止される確率が高いことに留意されたい。
実効的に、本発明による仮想フレームを使用する方法は、動き補償型予測における予測経路の短縮方法の1つである。上記の予測方式の例においては、フレームP4は、仮想フレームI0'から始まり仮想フレームP1',P2'およびP3'を通って進行する予測チェーンを使用して予測される。「フレーム数に関しての」予測経路の長さは、フレームI0、P1、P2およびP3が使用されることになる従来の動き補償型予測方式の場合と同じであり、P4の誤りのない再構成を保証するために正しく受信されなければならない「ビットの数」は、I0'からP3'までの予測チェーンが、P4の予測において使用される場合に少なくなる。
エンコーダから送信されたビット・ストリームにおける情報の喪失または劣化のために、ある程度の視覚的歪みを伴っている特定のフレーム、たとえば、P2だけを受信側のデコーダが再構成できる場合、デコーダはエンコーダに対して、シーケンス内の次のフレーム、たとえば、P3を仮想フレームP2'に関して符号化するように要求することができる。P2を表している低優先度情報の中に誤りが発生した場合、P2'に関してP3を予測することはシーケンス内のP3およびそれ以降のフレームに対する伝送誤りの伝搬を制限するか、あるいは防止する効果を有する。したがって、予測経路の完全な再初期化の必要性、すなわち、INTRAフレームの更新に対する要求および送信が減少する。これは、INTRA更新要求に応答して完全INTRAフレームの送信がデコーダにおける再構成されたビデオ・シーケンスの表示における望ましくない一時休止につながる可能性がある低ビットレートのネットワークにおいて大きな利点を有する。
上記の利点は本発明による方法が、デコーダに送信されるビット・ストリームの不等誤差防止と組み合わせて使用された場合にさらに高められる可能性がある。「不等誤差防止」という用語は、ここでは符号化されたフレームの関連低優先度情報より、ビット・ストリーム内の誤り回復の程度が高い符号化されたビデオ・フレームの高優先度情報を提供する方法を意味するために使用されている。たとえば、不等誤差防止は、高優先度情報のパケットが喪失しにくいような方法で、高優先度情報および低優先度情報を含むパケットの送信を必要とする可能性がある。したがって、本発明の方法と一緒に不等誤差防止が使用されるとき、ビデオ・フレームの再構成のためにより高い優先度の/より重要な情報が、より正確に受信される可能性がある。結果として、仮想フレームを構成するために必要なすべての情報が誤りなしで受信される確率が高い。したがって、本発明の方法と一緒に不等誤差防止を使用することによって、符号化されたビデオ・シーケンスの誤り回復力がさらに向上することは明らかである。より詳細に説明すると、動き補償型予測に対する基準として仮想フレームを周期的に使用するようにビデオ・エンコーダがプログラムされているとき、仮想基準フレームの誤りのない再構成のために必要なすべての情報がデコーダにおいて正しく受信される確率が高い。したがって、仮想基準フレームから予測された完全フレームが誤りなしで構成される可能性がより高くなる。
また、本発明によって受信されたビット・ストリームの重要度の高い部分が再構成され、ビット・ストリームの重要度の低い部分の喪失または劣化を隠すために使用されるようにすることもできる。これは受け入れ可能な再構成された画像を発生するのにフレームに対するビット・ストリームのどの部分が十分であるかを指定している指示をエンコーダがデコーダに送信することができるようにすることによって実現される。この受け入れ可能な再構成を、伝送誤りまたは喪失の場合に完全な品質の画像を置き換えるために使用することができる。デコーダに対してこの表示を提供するために必要なシグナリングをビデオのビット・ストリームそのものの中に含めるか、あるいは、たとえば、制御チャネルを使用してビデオのビット・ストリームとは別にデコーダに送信することができる。その指示によって提供される情報を使用して、デコーダは、表示のために受け入れ可能な画像を得るために、そのフレームに対する高重要度部分を復号し、低重要度部分をデフォルト値で置き換える。同じ原理を部分画像(スライスなど)に対して、そして複数の画像に対して適用することもできる。この方法で、本発明はさらに誤り隠蔽が明示的な方法で制御されるようにすることもできる。
もう1つの誤り隠蔽の方法においては、実際の参照画像が喪失したか、あるいは劣化して使えなくなった場合に、エンコーダは動き補償型予測のための基準フレームとして使用することができる予備の仮想参照画像を構成する方法の指示をデコーダに提供することができる。
本発明はさらに、従来技術のスケーラビリティ技法より柔軟な新しいタイプのSNRスケーラビリティとして分類することもできる。しかし上記のように、本発明によれば、動き補償型予測のために使用される仮想フレームは、シーケンスの中に現れている未圧縮の画像内容を必ずしも表す必要はない。他方、既知のスケーラビリティ技法においては、動き補償型予測において使用される参照画像はビデオ・シーケンス内の対応している元の(すなわち、未圧縮の)画像を表現する。従来のスケーラビリティ方式におけるベース層とは違って、仮想フレームは表示されることが意図されていないので、デコーダは表示のために許容できる仮想フレームを構成する必要はない。結果として、本発明によって実現される圧縮効率は単層符号化方式に近くなる。
本発明を、添付の図面を参照しながら以下に記述するが、これは単なる例示としてのものにすぎない。
図1乃至17は、上記説明したものである。
本発明を、エンコーダによって実行される符号化手順を示す図18および19、およびエンコーダに対応するデコーダによって実行される復号手順を示す図20を参照して、一組の手順的ステップとして以下により詳しく説明する。図18乃至20に示す手順的ステップは、図16に従ってビデオ伝送システムに実施することができる。
先ず最初に、図18および19によって示されている符号化手順を説明する。初期化のフェーズにおいて、エンコーダはフレーム・カウンタを初期化し(ステップ110)、完全基準フレーム・バッファを初期化し(ステップ112)、仮想基準フレーム・バッファを初期化する(ステップ114)。次にエンコーダは、生の、すなわち、符号化されていない、ビデオ・データを、ビデオ・カメラなどのソースから受信する(ステップ116)。そのビデオ・データはライブ・フィードから発することができる。エンコーダは、現在のフレームの符号化において使用されるべき符号化モード、すなわち、それがINTRAフレームまたはINTERフレームのいずれであるかを示す符号化モードの指示を受信する(ステップ118)。その指示はプリセット符号化方式から来る可能性がある(ブロック120)。その指示はシーン・カット検出器が備えられている場合は、そこからオプションとして来るか(ブロック122)、あるいはデコーダからのフィードバックとして(ブロック124)来る可能性がある。次に、エンコーダは、現在のフレームをINTRAフレームとして符号化するかどうかを決定する(ステップ126)。
その決定が「YES」であった場合、(決定128)、現在のフレームはINTRAフレームのフォーマットで圧縮されたフレームを形成するように符号化される(ステップ130)。
その決定が「NO」であった場合(決定132)、エンコーダはINTERフレーム・フォーマットで現在のフレームを符号化する際の基準として使用されるべきフレームの指示を受信する(ステップ134)。これは所定の符号化方式の結果として決定することができる(ブロック136)。本発明のもう1つの実施形態においては、これはデコーダからのフィードバックによって制御することができる(ブロック138)。これについては後で説明する。識別された基準フレームは完全フレームまたは仮想フレームである可能性があり、したがって、エンコーダは仮想基準が使用されるべきかどうかを決定する(ステップ140)。
仮想基準フレームが使用される場合、それは仮想基準フレーム・バッファから呼び出される(ステップ142)。仮想基準が使用されない場合、完全基準フレームが完全フレーム・バッファから呼び出される(ステップ144)。次に、現在のフレームが生のビデオ・データおよび選択された基準フレームを使用してINTERフレーム・フォーマットで符号化される(ステップ146)。これは完全基準フレームおよび仮想基準フレームがそれぞれのバッファ内に存在することを予め想定している。エンコーダが初期化に続いて第1のフレームを送信している場合、これは、通常、INTRAフレームであり、したがって、基準フレームは使用されない。一般的に、INTRAフォーマットでフレームが符号化されているときは常に基準フレームは不要である。
現在のフレームがINTRAフレーム・フォーマットまたはINTERフレーム・フォーマットのいずれに符号化されているかにかかわらず、次のステップが適用される。符号化されたフレーム・データが優先順位付けられ(ステップ148)、INTERフレームまたはINTRAフレームの符号化のいずれであるかに依存して、特定の優先順位付けが使用されている。その優先順位付けは、符号化されるある画像の再構成に対してそれがどの程度本質的であるかに基づいてデータを低優先度データおよび高優先度データに分割する。このように分割されると、ビット・ストリームが送信のために形成される。ビット・ストリームの形成において、適切なパケット化の方法が使用される。任意の適当なパケット化方式を使用することができる。次にビット・ストリームがデコーダに送信される(ステップ152)。現在のフレームが最後のフレームであった場合、この時点でその手順を終了する(ブロック156)ための決定が行われる(ステップ154)。
現在のフレームがINTER符号化されたフレームであって、シーケンス内の最後のフレームではない場合、現在のフレームを表している符号化された情報が、そのフレームの完全な再構成を形成するために低優先度および高優先度のデータの両方を使用して関連の基準フレームに基づいて復号される(ステップ157)。次に、その完全な再構成が完全基準フレーム・バッファ内に格納される(ステップ158)。現在のフレームを表している符号化された情報が、次に、仮想フレームの再構成を形成するために高優先度データだけを使用して関連の基準フレームに基づいて復号される(ステップ160)。次に、仮想フレームの再構成が仮想基準フレーム・バッファ内に格納される(ステップ162)。他の方法としては、現在のフレームがINTRA符号化フレームであって、シーケンス内の最後のフレームではない場合、基準フレームを使用せずにステップ157および160において適切な復号が実行される。その手順的ステップの組が再びステップ116から始まり、次のフレームが次に符号化されてビット・ストリーム内に形成される。
本発明の1つの代替実施形態においては、上記ステップの順序は異なっている可能性がある。たとえば、初期化のステップは完全基準フレームの再構成および仮想基準フレームの再構成のステップで可能なように、任意の都合のよい順序で発生することができる。
1つの基準から予測されているフレームを説明してきたが、本発明のもう1つの実施形態においては、2つ以上の基準フレームを使用して特定のINTER符号化フレームを予測することができる。これは完全INTERフレームに対して、および仮想INTERフレームに対しての両方に適用される。すなわち、本発明の代替実施形態においては、完全INTER符号化フレームは複数の完全基準フレームまたは複数の仮想基準フレームを有している可能性がある。仮想INTERフレームは複数の仮想基準フレームを有している可能性がある。さらに、1つまたは複数の基準フレームの選択は、符号化される画像の各画像セグメント、マクロブロック、ブロックまたは部分要素ごとに別々に/独立に行うことができる。基準フレームは、エンコーダの中およびデコーダの中の両方においてアクセスできるか、あるいは発生することができる任意の完全フレームまたは仮想フレームであってよい。いくつかの状況においては、Bフレームのケースのように、2つ以上の基準フレームが同じ画像領域に関連付けられ、符号化されるべき領域を予測するために1つの補間様式が使用される。さらに、各完全フレームを、その完全フレームの符号化された情報を分類する異なる方法および/または動き補償のための異なる基準(仮想または完全)画像および/またはビット・ストリームの高優先度部分を復号する異なる方法を使用して構成されたいくつかの異なる仮想フレームに関連付けることができる。
そのような実施形態においては、複数の完全および仮想基準フレーム・バッファがエンコーダおよびデコーダの中に用意されている。
ここで、図20によって示されている復号手順を参照する。初期化段階において、デコーダは、仮想基準フレーム・バッファ(ステップ210)、通常の基準フレーム・バッファ(ステップ211)およびフレーム・カウンタ(ステップ212)を初期化する。次に、デコーダは圧縮された現在のフレームに関連しているビット・ストリームを受信する(ステップ214)。次に、デコーダは現在のフレームがINTERフレーム・フォーマットまたはINTRAフレーム・フォーマットのいずれであるかを判定する(ステップ216)。これは、たとえば、画像ヘッダの中で受信された情報から判定することができる。
現在のフレームがINTRAフレーム・フォーマットであった場合、それはINTRAフレームの完全再構成を形成するために完全ビット・ストリームを使用して復号される(ステップ218)。現在のフレームが最後のフレームであった場合、手順を終了する(ステップ222)ための決定が行われる(ステップ220)。現在のフレームが最後のフレームではないと仮定して、現在のフレームを表しているビット・ストリームが仮想フレームを形成するために高優先度データを使用して復号される(ステップ224)。その新しく構成された仮想フレームが、次に、仮想基準フレーム・バッファ内に格納され(ステップ240)、そこからそれ以降の完全および/または仮想フレームの再構成に関係して使用するためにそれが呼び出される。
現在のフレームがINTERフレーム・フォーマットであった場合、エンコーダにおいてその予測において使用される基準フレームが識別される(ステップ226)。その基準フレームは、たとえば、エンコーダからデコーダへ送信されたビット・ストリーム内に存在するデータによって識別することができる。その識別された基準は完全フレームまたは仮想フレームである可能性がある。したがって、デコーダは仮想基準が使用されるべきであるかどうかを決定する(ステップ228)。
仮想基準が使用される場合、それは仮想基準フレーム・バッファから呼び出される(ステップ230)。それ以外の場合、完全基準フレームは完全基準フレーム・バッファから呼び出される(ステップ232)。これは、通常の、および仮想基準フレームがそれぞれのバッファ内に存在すると予め想定する。デコーダが初期化に続いて第1のフレームを受信しているとき、これは、通常、INTRAフレームであり、したがって、基準フレームは使用されない。一般に、INTRAフォーマットで符号化されたフレームが復号されるときは常に基準フレームは不要である。
現在の(INTER)フレームが次に完全受信ビット・ストリームおよび識別された基準フレームを予測基準として使用して再構成され(ステップ234)、新しく復号されたフレームが完全基準フレーム・バッファ内に格納され(ステップ242)、それを以降のフレームの再構成に関係して使用するために呼び出すことができる。
現在のフレームが最後のフレームである場合、その手順を終了する(ステップ222)ための決定が行われる(ステップ236)。現在のフレームが最後のフレームでないと仮定して、現在のフレームを表しているビット・ストリームが、仮想基準フレームを形成するために高優先度データを使用して復号される(ステップ238)。この仮想基準フレームは次に仮想基準フレーム・バッファ内に格納され(ステップ240)、そこから仮想基準フレームを、それ以降の完全フレームおよび/または仮想フレームの再構成に関連して使用するために呼び出すことができる。
仮想フレームを構成するための高優先度情報の復号は、そのフレームの完全表示を復号するときに使用されるのと同じ復号手順に従う必要は必ずしもないことに留意されたい。たとえば、仮想フレームを表している情報には存在しない低優先度情報を、その仮想フレームを復号することができるようにするためにデフォルト値で置き換えることができる。
上記のように、本発明の1つの実施形態においては、エンコーダにおいて基準フレームとして使用するための完全フレームまたは仮想フレームの選択はデコーダからのフィードバックに基づいて実行される。
図21は、このフィードバックを提供するために図20の手順を変更する追加のステップを示している。図21の追加のステップは図20のステップ214と216との間に挿入される。図20はすでに詳細に説明したので、この追加のステップだけをここで説明する。
圧縮された現在のフレームに対するビット・ストリームが受信されると(ステップ214)、デコーダはそのビット・ストリームが正しく受信されたかどうかをチェックする(ステップ310)。これは一般的な誤りチェックを含み、その後にその誤りの影響度に依存したより多くの特定のチェックが続く。そのビット・ストリームが正しく受信されていた場合、その復号のプロセスは直接にステップ216へ進行することができる。そこでデコーダは現在のフレームがINTRAフレーム・フォーマットで符号化されているか、INTERフレーム・フォーマットで符号化されているかを、図20に関連して説明したように判定する。
ビット・ストリームが正しく受信されていなかった場合、デコーダは次に画像ヘッダを復号することができるかどうかを判定する(ステップ312)。できない場合、デコーダはエンコーダを含んでいる送信側の端末に対してINTRAフレーム更新要求を送出し(ステップ314)、手順はステップ214へ戻る。他の方法としては、INTRAフレーム更新要求を送出する代わりに、デコーダはそのフレームに対するデータのすべてが喪失したことを示すことができ、エンコーダは喪失したフレームを動き補償において参照しないように、この指示に対して反応することができる。
デコーダが画像ヘッダを復号することができる場合、デコーダは高優先度データを復号することができるかどうかを判定する(ステップ316)。できない場合、ステップ314が実行され、手順はステップ214へ戻る。
デコーダが高優先度データを復号することができる場合、それは低優先度データを復号することができるかどうかを判定する(ステップ318)。できない場合、デコーダはエンコーダを含んでいる送信側の端末に現在のフレームの低優先度データではなく、高優先度データに関して予測される次のフレームを符号化するように指示する(ステップ320)。次に、手順はステップ214へ戻る。したがって、本発明によれば、エンコーダに対するフィードバックとして新しいタイプの指示が提供される。特定の実施の詳細によれば、その指示は1つまたはそれ以上の指定された画像の符号語に関連している情報を提供することができる。その指示は受信された符号語、受信されなかった符号語を示すことができるか、あるいは受信されなかった符号語以外に受信された符号語の両方に関する情報を提供することができる。代わりに、その指示は誤りの性質を指定せずに、あるいはどの符号語が影響されたかを指定せずに、誤りが現在のフレームに対する低優先度情報の中で発生したことを示しているビットまたは符号語の形式を単純に取ることができる。
上記指示は、符号化の方法のブロック138に関連して上記フィードバックを提供する。デコーダからの指示を受信すると、エンコーダは、現在のフレームに基づいた仮想基準フレームに関してビデオ・シーケンス内の次のフレームを符号化すべきであることを知る。
上記手順は、エンコーダが次のフレームを符号化する前にそのフィードバック情報を受信することができる十分に短い遅延がある場合に提供される。そうでない場合、特定のフレームの低優先度部分が喪失したことの指示を送信することが好ましい。次に、エンコーダは自分が符号化しようとしている次のフレーム内の低優先度情報を使用しない方法でこの指示に対して反応する。すなわち、エンコーダは、予測チェーンが喪失した低優先度部分を含まない仮想フレームを発生する。
仮想フレームに対するビット・ストリームの復号は、完全フレームに対するビット・ストリームを復号するために使用されるビット・ストリームとは異なるアルゴリズムを使用することができる。本発明の1つの実施形態においては、複数のそのようなアルゴリズムが提供され、特定の仮想フレームを復号するための正しいアルゴリズムの選択がビット・ストリーム内で知らされる。低優先度情報が存在しない場合、それは仮想フレームの復号を可能にするためにいくつかのデフォルト値によって置き換えられるようにすることができる。デフォルト値の選択は変わる可能性があり、正しい選択が、たとえば、前のパラグラフの中で参照した指示を使用することによって、ビット・ストリーム内で知らされるようにすることができる。
図18乃至21の手順を適切なコンピュータ・プログラム・コードの形式で実施することができ、汎用のマイクロプロセッサまたは専用のディジタル信号プロセッサ(DSP)上で実行することができる。
図18乃至21の手順は、符号化および復号に対してフレームごとの方法を使用するが、本発明の他の実施形態においては、実質的にその同じ手順を画像セグメントに対して適用することができることに留意されたい。たとえば、その方法はブロックのグループに対して、スライスに対して、マクロブロックまたはブロックに対して適用することができる。一般に、本発明はブロックのグループ、スライス、マクロブロックおよびブロックだけでなく、任意の画像セグメントに対して適用することができる。
簡略化のために、本発明の方法を使用したBフレームの符号化および復号は説明されなかった。しかし、当業者なら、この方法をBフレームの符号化および復号をカバーするように拡張できることは明らかであるだろう。さらに、本発明の方法はビデオ冗長符号化を採用しているシステムにも適用することができる。すなわち、同期フレームを本発明の実施形態に含めることもできる。仮想フレームが同期フレームの予測の中で使用される場合、その一次表現(すなわち、対応している完全フレーム)が正しく受信された場合にデコーダが特定の仮想フレームを発生する必要はない。たとえば、使用されているスレッドの数が2より大きいときには、同期フレームの他のコピーに対する仮想基準フレームを形成する必要もない。
本発明の1つの実施形態においては、ビデオ・フレームは少なくとも2つのサービス・データ・ユニット(すなわち、パケット)、1つは高重要度、他の1つは低重要度のものの中にビデオ・フレームがカプセル化される。H.26Lが使用されている場合、その低重要度パケットは、たとえば、符号化されたブロック・データおよび予測誤差係数を含むことができる。
図18乃至21において、仮想フレームを形成するために高優先度情報を使用することによってフレームを復号することが記載されている(ブロック160、224および238参照)。本発明の1つの実施形態においては、これは以下のように2つのステージにおいて実際に実行することができる。
1)第1のステージにおいては、1つのフレームの時間的ビット・ストリーム表現が、高優先度情報および、低優先度情報に対するデフォルト値を含んで生成される。
2)第2のステージにおいては、時間的ビット・ストリーム表現が通常復号される。すなわち、すべての情報が利用できるときに実行される復号と同じ方法で行われる。
この方法は本発明の1つの実施形態だけを表していることを理解されたい。何故なら、デフォルト値の選択を調整することができ、仮想フレームに対する復号アルゴリズムは完全フレームを復号するために使用されるのと同じでない可能性があるからである。
各完全フレームから生成することができる仮想フレームの数に対して特に制限はないことに留意されたい。したがって、図18乃至20に関して説明された本発明の実施形態は、仮想フレームの1つのチェーンが生成される1つの可能性だけを表す。本発明の1つの好適な実施形態においては、仮想フレームの複数のチェーンが生成され、各チェーンは異なる方法、たとえば、完全フレームからの異なる情報を使用して発生された仮想フレームを含んでいる。
本発明の1つの好適な実施形態においては、ビット・ストリームのシンタックスは、エンハンスメント層が提供されていない単層の符号化において使用されたシンタックスに似ていることをさらに留意されたい。さらに、仮想フレームは一般には表示されないので、本発明によるビデオ・エンコーダを、問題の仮想基準フレームに関してそれ以降のフレームを符号化し始めるときに1つの仮想基準フレームを発生する方法を決定することができるように実施することができる。すなわち、エンコーダは前のフレームのビット・ストリームを柔軟に使用することができ、フレームをそれらが送信された後であっても符号語の異なる組合せに分割することができる。どの符号語が特定のフレームに対する高優先度情報に属しているかを示している情報を、仮想予測フレームが発生するときに送信することができる。従来技術においては、ビデオ・エンコーダはフレームを符号化している間に、そのフレームの階層型の分割を選定し、その情報が対応しているフレームのビット・ストリーム内で送信される。
図22は、INTRA符号化フレームI0およびINTER符号化フレームP1、P2およびP3を含んでいるビデオ・シーケンスのセクションの復号をグラフィック形式で示している。この図は、図20および図21に関連して説明した手順の効果を示すために提供されており、それから分かるように、トップ・ロウ、ミドル・ロウおよびボトム・ロウを含む。トップ・ロウは再構成されて表示されるフレーム(すなわち、完全フレーム)に対応し、ミドル・ロウは各フレームに対するビット・ストリームに対応し、ボトム・ロウは生成される仮想予測基準フレームに対応する。矢印は、再構成された完全フレームおよび仮想基準フレームを生成するために使用される入力ソースを示す。この図を参照して、フレームI0が対応しているビット・ストリームI0 B−Sから生成され、完全フレームP1に対する受信されたビット・ストリームと一緒に動き補償基準としてフレームI0を使用して再構成されることが分かる。同様に、仮想フレームI0'はフレームI0に対応するビット・ストリームの一部分から生成され、人工的なフレームP1'がP1に対するビット・ストリームの一部分と一緒に動き補償型予測に対する基準としてI0'を使用して生成される。完全フレームP2および仮想フレームP2'はそれぞれフレームP1およびP1'から動き補償型予測を使用して同様な方法で生成される。より詳しく言えば、完全フレームP2は受信されたビット・ストリームP1 B−Sの情報と一緒に動き補償型予測に対する基準としてP1を使用して生成され、一方、仮想フレームP2'はビット・ストリームP1 B−Sの一部分と一緒に、基準フレームとして仮想フレームP1'を使用して構成される。本発明によれば、P3は動き補償基準として仮想フレームP2'を使用し、P3に対するビット・ストリームを使用して生成される。フレームP2は動き補償基準としては使用されない。
図22から、1つのフレームおよびその仮想フレームが、利用できるビット・ストリームの異なる部分を使用して復号されることは明らかである。完全フレームは利用できるビット・ストリームのすべてを使用して構成され、一方、仮想フレームはそのビット・ストリームの一部分だけを使用する。仮想フレームが使用する部分はフレームを復号する際に最も重要であるビット・ストリームの部分である。さらに、仮想フレームが使用する部分は伝送のための誤りに対して最も頑健に保護されており、正しく送信されて受信される確率が最も高いものであることが好ましい。この方法で、本発明は予測符号化チェーンを短縮することができ、そして最も重要な部分およびあまり重要でない部分を使用することによって生成される動き補償基準に基づくのではなく、ビット・ストリームの最も重要な部分から生成される仮想動き補償基準フレームに基づいてフレームを予測する。
データを高優先度および低優先度に分ける必要がない状況がある。たとえば、1つの画像に関連しているデータ全体が1つのパケット内に適合することができる場合、そのデータを分離しない方が好ましい場合がある。この場合、データ全体を仮想フレームからの予測において使用することができる。図22を参照すると、この特定の実施形態においては、フレームP1'が仮想フレームI0'からの予測によって、そしてP1に対するビット・ストリーム情報のすべてを復号することによって構成される。その再構成された仮想フレームP1'はフレームP1に等価ではない。何故なら、フレームP1に対する予測基準がI0であり、一方、フレームP1'に対する予測基準がI0'だからである。したがって、P1'はこのケースにおいても仮想フレームであり、それは高優先度および低優先度に優先順位付けられていない情報を有しているフレーム(P1)から予測される。
本発明の1つの実施形態をここで図23を参照して説明する。この実施形態においては、動きのデータおよびヘッダのデータがビデオ・シーケンスから生成されるビット・ストリーム内の予測誤差データから分離されている。動きのデータおよびヘッダのデータは、動きパケットと呼ばれる伝送パケット内にカプセル化され、予測誤差データは予測誤差パケットと呼ばれる伝送パケット内にカプセル化されている。これはいくつかの連続して符号化された画像に対して行われる。動きパケットは優先度が高く、それらは可能であって必要であるときにはいつでも再送信される。何故なら、デコーダが動きデータを正しく受信する場合には誤り隠蔽の方法がベターだからである。また、動きパケットを使用することは圧縮効率を改善する効果もある。図23に示されている例においては、エンコーダは動きおよびヘッダのデータをPフレーム1〜3から分離し、その情報から動きパケット(M1〜3)を形成する。Pフレーム1〜3に対する予測誤差データは別の予測誤差パケット(PE1,PE2,PE3)内で伝送される。動き補償基準としてI1を使用する他に、エンコーダはI1およびM1〜3に基づいて仮想フレームP1',P2'およびP3'を生成する。すなわち、エンコーダは、I1および予測フレームP1、P2、およびP3の動き部分を復号し、P2'がP1'から予測され、P3'がP2'から予測されるようにする。次に、P3'がフレームP4に対する動き補償基準として使用される。この実施形態においては、仮想フレームP1',P2'およびP3'は予測誤差データを含んでいないので、ゼロ予測誤差(ZPE)フレームと呼ばれる。
図18乃至21の手順がH.26Lに適用されるとき、画像はそれらが画像ヘッダを含むように符号化される。画像ヘッダの中に含まれている情報は、上記分類方式における高優先度情報である。何故なら、画像ヘッダなしでは、画像全体を復号することができないからである。各画像ヘッダは画像タイプ(Ptype)フィールドを含んでいる。本発明によれば、画像が1つまたはそれ以上の仮想基準フレームを使用するかどうかを示すための特定の1つの値が含まれている。Ptypeフィールドの値が1つまたはそれ以上の仮想基準フレームが使用されることを示している場合、その画像ヘッダには基準フレームを発生するための方法に関する情報も提供されている。本発明の他の実施形態においては、使用されるパケット化の種類に依存して、この情報をスライス・ヘッダ、マクロブロック・ヘッダおよび/またはブロック・ヘッダの中に含めることができる。さらに、所与のフレームの符号化に関して複数の基準フレームが使用される場合、その基準フレームのうちの1つまたはそれ以上が仮想フレームであってよい。次のシグナリング方式が使用される。
1.基準フレームを発生するために過去のビット・ストリームのどのフレームが使用されるかの指示が、送信されるビット・ストリーム内に提供される。2つの値が送信される。1つは予測のために使用される時間的に最近の画像に対応し、そしてもう1つは予測のために使用される時間的に最も以前の画像に対応する。当業者であれば、図18乃至20に示されている符号化および復号手順をこの指示を使用するように適当に変更できることは明らかであるだろう。
2.仮想フレームを発生するためにどの符号化パラメータが使用されるかの指示。ビット・ストリームは予測のために使用される最低優先度クラスの指示を搬送することができる。たとえば、ビット・ストリームがクラス4に対応している指示を搬送する場合、その仮想フレームはクラス1、2、3、および4に属しているパラメータから形成される。本発明の代替実施形態においては、もっと一般的な方式が使用され、その中で仮想フレームを構成するために使用される各クラスが個々に示される。
図24は本発明によるビデオ伝送システム400を示す。このシステムは通信用のビデオ端末402および404を含む。この実施形態においては、端末間の通信が示されている。もう1つの実施形態においては、システムは端末からサーバへ、あるいはサーバから端末への通信のために構成することができる。システム400はビット・ストリームの形式でのビデオ・データの双方向伝送を可能にすることが意図されているが、ビデオ・データの一方向伝送だけを可能にすることもできる。簡略化のために、図24に示されているシステム400においては、ビデオ端末402は、送信側の(符号化)ビデオ端末であり、ビデオ端末404は受信側の(復号)ビデオ端末である。
送信側のビデオ端末402は、エンコーダ410とトランシーバ412とを含む。エンコーダ410は、完全フレーム・エンコーダ414と、仮想フレーム・コンストラクタ416と、完全フレームを格納するためのマルチフレーム・バッファ420と、仮想フレームを格納するためのマルチフレーム・バッファ422とを含む。
完全フレーム・エンコーダ414は、完全フレームの符号化された表現を形成し、それはそれ以降の完全再構成のための情報を含んでいる。したがって、完全フレーム・エンコーダ414は図18および19のステップ118乃至146およびステップ150を実行する。より詳細に説明すると、完全フレーム・エンコーダ414はINTRAフォーマット(例えば、図18のステップ128および130に従って)またはINTERフォーマットのいずれかにおいて完全フレームを符号化することができる。特定のフォーマット(INTRAまたはINTER)にフレームを符号化するための決定は、図18のステップ120、122および/または124においてエンコーダに対して提供される情報に従って行われる。INTERフォーマットで符号化される完全フレームの場合、完全フレーム・エンコーダ414は動き補償型予測のための基準として完全フレーム(図18のステップ144および146による)、または仮想基準フレーム(図18のステップ142および146による)のいずれかを使用することができる。
本発明の1つの実施形態においては、完全フレーム・エンコーダ414は所定の方式に従って動き補償型予測のために完全または仮想基準フレームを選択することができる(図18のステップ136による)。他の好適な実施形態においては、完全フレーム・エンコーダ414は、さらに、以降の完全フレームの符号化において仮想基準フレームが使用されるべきであることを指定している指示を受信側のエンコーダからのフィードバックとして受信することができる(図18のステップ138による)。完全フレーム・エンコーダはローカルの復号機能も含み、図19のステップ157に従って完全フレームの再構成されたバージョンを形成する。それは図19のステップ158に従ってマルチフレーム・バッファ420内に格納する。したがって、復号された完全フレームは、ビデオ・シーケンスにおけるそれ以降のフレームの動き補償型予測に対する基準フレームとして使用するのに利用できるようになる。
仮想フレーム・コンストラクタ416は、図19のステップ160および162に従って、完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、完全フレームの高優先度情報を使用して構成された完全フレームの1つのバージョンとして仮想フレームを画定する。より詳しく言えば、仮想フレーム・コンストラクタは低優先度情報のうちの少なくともいくつかが存在しない場合に、完全フレームの高優先度情報を使用して完全フレーム・エンコーダ414によって符号化されたフレームを復号することによって仮想フレームを形成する。次に、その仮想フレームをマルチフレーム・バッファ422の中に格納する。したがって、その仮想フレームはビデオ・シーケンス内のそれ以降のフレームの動き補償型予測に対する基準フレームとして使用するのに利用できるようになる。
エンコーダ410の1つの実施形態によれば、完全フレームの情報は完全フレーム・エンコーダ414において図19のステップ148に従って優先順位付けられる。1つの代替実施形態によれば、図19のステップ148による優先順位付けは仮想フレーム・コンストラクタ416によって実行される。フレームに対する符号化された情報の優先順位付けに関する情報がデコーダに送信される本発明の実施形態においては、各フレームに対する情報の優先順位付けは完全フレーム・エンコーダまたは仮想フレーム・コンストラクタ416のいずれかによって発生する可能性がある。フレームに対する符号化された情報の優先順位付けが完全フレーム・エンコーダ414によって実行される実施例においては、完全フレーム・エンコーダ414はデコーダ404に対するそれ以降の伝送のための優先順位情報を形成することも担当する。同様に、フレームに対する符号化情報の優先順位付けが仮想フレーム・コンストラクタ416によって実行される実施形態においては、仮想フレーム・コンストラクタ416はデコーダ404に対する伝送のために優先順位付け情報を形成することも担当する。
受信側のビデオ端末404はデコーダ423とトランシーバ424とを含む。デコーダ423は完全フレーム・デコーダ425と、仮想フレーム・デコーダ426と、完全フレームを格納するためのマルチフレーム・バッファ430と、仮想フレームを格納するためのマルチフレーム・バッファ432とを含む。
完全フレーム・デコーダ425は完全フレームの完全再構成のための情報を含んでいるビット・ストリームから完全フレームを復号する。完全フレームはINTRAまたはINTERフォーマットのいずれかで符号化されている可能性がある。したがって、完全フレーム・デコーダは図20のステップ216、218およびステップ226乃至234を実行する。完全フレーム・デコーダは新しく再構成された完全フレームを図20のステップ242に従って、動き補償型予測基準フレームとして将来使用するためにマルチフレーム・バッファ430の中に格納する。
仮想フレーム・デコーダ426は、そのフレームがINTRAまたはINTERフォーマットのどれで符号化されているかに依存して、図20のステップ224または238に従って完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、完全フレームの高優先度情報を使用して完全フレームのビット・ストリームから仮想フレームを形成する。さらに、仮想フレーム・デコーダは、その新しく復号された仮想フレームを図20のステップ240に従って、動き補償型予測基準フレームとして将来使用するためにマルチフレーム・バッファ432の中に格納する。
本発明の1つの実施形態によれば、ビット・ストリームの情報は送信側の端末402のエンコーダ410の中で使用されたのと同じ方式に従って、仮想フレーム・デコーダ426の中でビット・ストリームの情報が優先順位付けられる。1つの代替実施形態においては、受信側の端末404は完全フレームの情報を優先順位付けるためにエンコーダ410の中で使用された優先順位付けの方式の指示を受信する。この指示によって提供された情報が次に仮想フレーム・デコーダ426によって使用され、エンコーダ410の中で使用される優先順位付けが決定され、その後、仮想フレームが形成される。
ビデオ端末402は符号化されたビット・ストリーム434を発生し、それがトランシーバ412によって送信され、適切な伝送媒体上でトランシーバ424によって受信される。本発明の1つの実施形態においては、その伝送媒体は無線通信システムにおけるエア・インターフェースである。トランシーバ424はトランシーバ412に対してフィードバック436を送信する。このフィードバックの性質についてはすでに説明されている。
ZPEフレームを利用したビデオ伝送システム500の動作を以下に説明する。図25に、システム500を示す。システム500は、送信端末510と複数の受信端末512(そのうちの1つだけが示されている)を有し、それらが伝送チャネルまたはネットワーク上で通信する。送信端末510は、エンコーダ514と、パケタイザ516と送信機518とを含む。それはまた、TX−ZPEデコーダ520も含む。各受信端末512は、受信機522と、デパケタイザ524と、デコーダ526とを含む。また、それらはそれぞれRX−ZPEデコーダ528も含む。
エンコーダ514は、未圧縮のビデオを符号化して、圧縮されたビデオ画像を形成する。パケタイザ516は、圧縮されたビデオ画像を伝送用パケット内にカプセル化する。それはエンコーダから得られた情報を再編成することができる。また、動き補償のための予測誤差データを含まないビデオ画像(ZPEビット・ストリームと呼ばれる)も出力する。TX−ZPEデコーダ520は、ZPEビット・ストリームを復号するために使用される通常のビデオ・デコーダである。送信機518は、伝送チャネルまたはネットワーク上でパケットを配信する。受信機522は、伝送チャネルまたはネットワークからパケットを受信する。デパケタイザ524は、伝送パケットを非パケット化し、圧縮されたビデオ画像を生成する。伝送中にいくつかのパケットが喪失していた場合、デパケタイザ524は、圧縮されたビデオ画像の中の喪失を隠そうとする。さらに、デパケタイザ524は、ZPEビット・ストリームを出力する。デコーダ526は、圧縮されたビデオ・ビット・ストリームから画像を再構成する。RX−ZPEデコーダ528は、ZPEビット・ストリームを復号するために使用される通常のビデオ・デコーダである。
エンコーダ514は、パケタイザ516が予測基準として使用されるべきZPEフレームを要求した時以外は普通に動作する。次に、エンコーダ514は、デフォルトの動き補償参照画像を、TX−ZPEデコーダ520によって配信されるZPEフレームへ変更する。さらに、エンコーダ514は、圧縮されたビット・ストリーム内で、たとえば、その画像の画像タイプの中でのZPEフレームの使用を知らせる。
デコーダ526は、ビット・ストリームがZPEフレーム信号を含んでいるときを除いて普通に動作する。次に、デコーダ526は、デフォルトの動き補償参照画像をRX−ZPEデコーダ528によって配信されるZPEフレームへ変更する。
本発明の性能を現在のH.26L勧告の中で規定されている参照画像選択に対して比較して示す。3つの一般に利用できるテスト・シーケンス、すなわち、Akiyo、Coastguard、およびForemanが比較される。そのシーケンスの分解能は、QCIFであり、輝度画像のサイズが176×144ピクセルであり、プロミナンス画像のサイズが88×72ピクセルである。AkiyoおよびCoastguardは、30フレーム/秒で捕捉され、一方、Foremanのフレーム・レートは25フレーム/秒である。そのフレームは、ITU−T勧告H.263に従ってエンコーダによって符号化された。異なる方法を比較するために、一定のターゲット・フレーム・レート(10フレーム/秒)および一定個数の画像量子化パラメータが使用された。スレッド長Lは、動きパケットのサイズが1400バイトより少ないように選択された(すなわち、1つのスレッドに対する動きデータが1400バイトより少ない)。
ZPE−RPSのケースは、フレームI1,M1−L,PE1,PE2,...,PEL、P(L+1)(ZPE1−Lから予測された)、P(L+2),...,を有し、一方、通常のRPSのケースは、フレームI1,P1,P2,...、PL,P(L+1)(I1から予測された),P(L+2)を有する。2つのシーケンスの中で符号化が異なっている唯一のフレームは、P(L+1)であったが、両方のシーケンスにおけるこのフレームの画像品質は、一定量子化ステップを使用したがために同様であった。以下の表はその結果を示している。
Figure 2013009409
この結果のビットレート増加の列から、ゼロ予測誤差フレームは、参照画像選択が使用されたときに圧縮効率を改善することが分かる。
本発明の特定の実施例および実施形態が説明されてきた。当業者なら、本発明は上記実施形態の詳細には制限されず、本発明の特性から離れることなしに同等な手段を使用した他の実施形態において実施できることは明らかである。本発明の範囲は、添付の特許請求の範囲によってのみ制限される。
ビデオ伝送システムを示す。 INTER(P)画像の予測および双方向に予測される(B)画像を示す。 IPのマルチキャスティング・システムを示す。 SNRスケーラブル画像を示す。 空間的スケーラブル画像を示す。 細粒度スケーラブル符号化における予測の関係を示す。 スケーラブル符号化において使用される従来の予測関係を示す。 漸進的細粒度スケーラブル符号化における予測関係を示す。 漸進的細粒度スケーラビリティにおけるチャネル適応を示す。 従来の時間的予測を示す。 参照画像選択を使用した予測経路の短縮を示す。 ビデオ冗長符号化を使用した予測経路の短縮を示す。 損傷したスレッドを処理しているビデオ冗長符号化を示す。 INTRAフレームの再配置およびINTERフレームの逆方向予測の適用による予測経路の短縮を示す。 INTRAフレームに続く従来のフレーム予測関係を示す。 ビデオ伝送システムを示す。 H.26L TML−4テスト・モデルにおけるシンタックス要素の依存性を示す。 本発明による符号化の手順を示す。(その1) 本発明による符号化の手順を示す。(その2) 本発明による復号手順を示す。 図20の復号手順の変形を示す。 本発明によるビデオ符号化方法を示す。 本発明による別のビデオ符号化方法を示す。 本発明によるビデオ伝送システムを示す。 ZPE画像を利用したビデオ伝送システムを示す。
本発明は、データ伝送に関し、特に、ビデオなどの画像シーケンスを表すデータの伝送に関連しているが、それに限定されない。本発明は、セルラ電気通信システムのエア・インターフェース上のような、データの誤りおよび損失が起き易いリンク上での伝送に特に適している。
過去数年の間にインターネットを通じて入手できるマルチメディア・コンテンツの量がかなり増加してきている。携帯端末に対するデータ配信レートが、そのような端末がマルチメディア・コンテンツを検索することができるのに十分に高くなっているので、インターネットからのそのような検索を提供することが待望されている。高速データ配信システムの一例は、計画されているGSMフェーズ2+の汎用パケット無線サービス(GPRS)である。
本明細書で使用されているマルチメディアという用語は音声および画像の両方、音声のみ、および画像のみを含む。音声は発話および音楽を含む。
インターネットにおいては、マルチメディア・コンテンツの伝送はパケットベースである。インターネットを通してのネットワーク・トラヒックは、インターネット・プロトコル(IP)と呼ばれる転送プロトコルに基づいている。IPは、1つの場所から別の場所へのデータ・パケットの転送に関係している。このプロトコルによって中間ゲートウェイを通してのパケットのルーティングが容易になる。すなわち、それによって同じ物理ネットワーク内で直接には接続されていないマシン(すなわち、ルータ)にデータを送信することができる。IP層によって転送されるデータのユニットは、IPデータグラムと呼ばれる。IPによって提供される配信サービスはコネクションレスである。すなわち、IPデータグラムは互いに無関係にインターネット上で転送される。任意の特定の接続に対してゲートウェイ内でリソースが永久的に拘束されないので、ゲートウェイはバッファ空間または他のリソースが不足していることのためにデータグラムを捨てなければならない場合があり得る。それ故、IPによって提供される配信サービスは保証されたサービスというよりはむしろ最善の努力のサービスである。
インターネットのマルチメディアは、通常、ユーザ・データグラム・プロトコル(UDP)、転送制御プロトコル(TCP)またはハイパーテキスト転送プロトコル(HTTP)を使用してストリーム化される。UDPはデータグラムが受信されたことをチェックせず、欠落したデータグラムを再送信せず、また、データグラムが送信されたのと同じ順序で受信されることを保証しない。UDPはコネクションレスである。TCPは、データグラムが受信されたことをチェックし、欠落したデータグラムを再送信する。TCPは、また、データグラムが送信されたのと同じ順序で受信されることを保証する。TCPは接続指向型である。
十分な品質のマルチメディア・コンテンツが確実に配信されるようにするために、TCPのような信頼性の高いネットワーク接続上で提供されるようにし、受信したデータが誤りのないものであって正しい順序で確実に受信されるようにすることができる。喪失したか、あるいは劣化しているプロトコル・データ・ユニットは再送信される。
場合によっては、喪失したデータの再送信が転送プロトコルによって処理されず、ある高レベルのプロトコルによって処理される場合がある。そのようなプロトコルは、マルチメディア・ストリームのうちの最も重要な喪失した部分を選択し、それらの再送信を要求することができる。たとえば、その最も重要な部分をそのストリームの他の部分の予測のために使用することができる。
マルチメディア・コンテンツは、通常、ビデオを含む。効率よく送信されるようにするために、ビデオは圧縮されることが多い。したがって、ビデオ伝送システムにおいて重要なパラメータは圧縮効率である。もう1つの重要なパラメータは、伝送誤りに対する許容度である。これらのパラメータのいずれかにおける改善は他のパラメータに悪い影響を及ぼす傾向があり、したがって、ビデオ伝送システムは、この2つが適当にバランスしている必要がある。
図1は、ビデオ伝送システムを示す。このシステムは、圧縮されていないビデオ信号を所望のビットレートに圧縮し、それにより、符号化されて圧縮されたビデオ信号を発生するソース・コーダと、符号化されて圧縮されたビデオ信号を復号して圧縮されていないビデオ信号に再構成するソース・デコーダを含む。ソース・コーダは、波形コーダとエントロピー・コーダとを含む。波形コーダは喪失し易いビデオ信号の圧縮を実行し、エントロピー・コーダは、その波形コーダの出力をバイナリ・シーケンスに損失なしに変換する。そのバイナリ・シーケンスがソース・コーダからトランスポート・コーダへ送られ、トランスポート・コーダは、圧縮されたビデオを適当な転送プロトコルに従ってカプセル化し、次に、それを、トランスポート・デコーダおよびソース・デコーダを備えている受信機に送信する。データは、伝送チャネル上でトランスポート・デコーダにトランスポート・コーダによって送信される。また、トランスポート・コーダは、他の方法で圧縮されたビデオを操作することもできる。たとえば、データをインターリーブして変調することができる。トランスポート・デコーダによって受信した後、そのデータはソース・デコーダに渡される。ソース・デコーダは、波形デコーダとエントロピー・デコーダとを備える。トランスポート・デコーダおよびソース・デコーダは、逆の操作を実行して表示のために再構成されたビデオ信号を得る。また、受信機は送信機にフィードバックを供給することもできる。たとえば、受信機は、正しく受信された伝送データ・ユニットのレートを知らせることができる。
ビデオ・シーケンスは、一連の静止画像から構成されている。ビデオ・シーケンスはその冗長な部分および視覚的に無関係な部分を減らすことによって圧縮される。ビデオ・シーケンスにおける冗長性は、空間的、時間的、およびスペクトル的な冗長性として分類することができる。空間的冗長性は同じ画像内の隣接しているピクセル間の相関を指す。時間的冗長性は、前の画像の中に現れているオブジェクトが現在の画像の中に現れる可能性があることを指す。スペクトル的冗長性は画像の異なるカラー成分間の相関を指す。
時間的冗長性は、現在の画像と前の画像(参照画像またはアンカー画像と呼ばれる)との間の相対的な動きを記述する動き補正データを生成することによって減らすことができる。実効的に、現在の画像は前の画像からの予測として形成され、これが実行される技法は、一般に、動き補償型予測または動き補償と呼ばれる。1つの画像を別の画像から予測することの他に、1つの画像内の部分または領域をその画像内の他の部分または領域から予測することができる。
ビデオ・シーケンスの冗長性を減らすことだけでは十分なレベルの圧縮は通常は得られない。したがって、ビデオ・エンコーダは、また、本質的にはあまり重要でないビデオ・シーケンスの部分の品質を犠牲にしようとする。さらに、符号化されたビデオ・ストリームの冗長性は、圧縮パラメータおよび係数の効率的な無損失符号化によって減らされる。その主な技法は可変長符号を使用する方法である。
ビデオ圧縮方法は、通常、時間的冗長性削減を利用するかどうか(すなわち、それらが予測されるかどうか)に基づいて画像を区別する。図2について説明すると、時間的冗長性削減方法を利用しない圧縮画像は、通常、INTRAまたはIフレームと呼ばれる。INTRAフレームは空間的および時間的に伝搬することによるパケット喪失の効果を防止するためにしばしば導入される。同報通信の場合、INTRAフレームによって新しい受信機がストリームの復号を開始することができる。すなわち、「アクセス・ポイント」を提供する。ビデオ符号化システムは、通常、n秒ごとまたはnフレームごとに周期的にINTRAフレームを挿入することができる。また、画像内容が大きく変化し、前の画像からの時間的予測が成功する可能性が低いか、あるいは圧縮効率の面で望ましい場合に、自然のシーン・カットにおいてINTRAフレームを利用するのも有利である。
時間的冗長性削減方法を利用する圧縮画像は、通常、INTERフレームまたはPフレームと呼ばれる。動き補償を採用しているINTERフレームは、十分に正確な画像の再構成ができるほど正確ではないので、空間的に圧縮された予測誤差画像も各INTERフレームに関連付けられている。これは現在のフレームとその予測との間の差を表す。
多くのビデオ圧縮方式は、また、時間的に双方向に予測したフレームも導入する。それは、一般に、B画像またはBフレームと呼ばれている。Bフレームは、アンカー(IまたはP)フレーム・ペア間に挿入され、図2に示されているように、アンカー・フレームの1つまたは両方のいずれかから予測される。Bフレームは、それ自身ではアンカー・フレームとしては使用されない。すなわち、他のフレームはそれらから決して予測されることはなく、画像の表示レートを増加させることにより認識される画像の品質を向上させるためだけに使用される。それら自身がアンカー・フレームとして使用されることは決してないので、それらをそれ以降のフレームの復号に影響することなしに落とすことができる。これによって、ビデオ・シーケンスを伝送ネットワークの帯域幅の制約に従って、あるいは異なるデコーダ機能による異なるレートで復号することができる。
INTRAフレームから予測された時間的に予測された(PまたはB)画像シーケンスが後に続くINTRAフレームを説明するために画像のグループ(GOP)という用語が使用される。
種々の国際ビデオ符号化規格が開発されている。一般に、これらの規格は、圧縮されたビデオ・シーケンスを表すために使用されるビット・ストリームのシンタックスを定義し、そのビット・ストリームが復号される方法を定義する。1つのそのような規格H.263は、国際電気通信連合(ITU)によって開発された推奨規格である。現在、2つのバージョンのH.263がある。バージョン1は、1つのコア・アルゴリズムおよび4つの任意の符号化モードから構成されている。H.263バージョン2は、12のネゴシエート可能な符号化モードを提供するバージョン1の拡張版である。現在開発中のH.263バージョン3は、2つの新しい符号化モードおよび一組の追加の補助的エンハンスメント情報の符号ポイントを含むことが意図されている。
H.263によれば、画像は、輝度成分(Y)および2つの色差(クロミナンス)成分(CおよびC)として符号化される。クロミナンス成分は、輝度成分と比較して両方の座標軸に沿って半分の空間分解能にサンプルされる。輝度データおよび空間的に部分サンプルされたクロミナンス・データがマクロブロック(MB)にアセンブルされる。通常、1つのマクロブロックは、16×16ピクセルの輝度データおよび空間的に対応している8×8ピクセルのクロミナンス・データを含む。
符号化された各画像は対応している符号化されたビット・ストリームと同様に、4つの層を備えた階層構造に配列され、4つの層は、トップからボトムへ、画像層、画像セグメント層、マクロブロック(MB)層およびブロック層である。画像セグメント層は、ブロック層またはスライス層のグループのいずれであってもよい。
画像層データは、画像の領域全体および画像データの復号に影響するパラメータを含む。画像層データはいわゆる画像ヘッダ内に配置されている。
デフォルトによって、各画像はブロックのグループに分割される。ブロックのグループ(GOB)は、通常、16個のシーケンシャル・ピクセル・ラインを含む。各GOBに対するデータは、任意のGOBヘッダと、その後に続くマクロブロックに対するデータとを含む。
任意のスライス構造モードが使用される場合、各画像はGOBの代わりにスライスに分割される。各スライスに対するデータは、スライス・ヘッダとその後に続くマクロブロックに対するデータとを含む。
スライスは、符号化された画像内の領域を規定する。通常、その領域は、通常の走査順のいくつかのマクロブロックである。同じ符号化された画像内のスライス境界にまたがる予測依存性はない。しかし、時間的予測は、一般に、H.263の付属書類R(独立セグメント・デコーディング)が使用されていない限り、スライス境界にまたがる可能性がある。スライスは、画像データの他の部分(画像ヘッダを除く)から独立に復号することができる。結果として、スライス構造型モードを使用することによってパケットが喪失し易いネットワーク、いわゆるパケット喪失の多いパケットベースのネットワークにおいて誤りに対する許容力を改善することができる。
画像、GOBおよびスライス・ヘッダは同期化符号から開始される。他の符号語または符号語の有効な組合せが同期化符号と同じビット・パターンを形成する可能性はない。それ故、同期化符号を使用してビット・ストリームの誤り検出およびビット誤り後の再同期化を行うことができる。ビット・ストリームに対して同期化符号が多く使用されるほど、誤りに強い符号化となる。
各GOBまたはスライスはマクロブロックに分割される。すでに説明したように、マクロブロックは16×16ピクセルの輝度データと、空間的に対応している8×8ピクセルのクロミナンス・データを含む。すなわち、1つのMBは、4つの8×8ブロックの輝度データと、空間的に対応している2つの8×8ブロックのクロミナンス・データとを含む。
1つのブロックは、8×8ピクセルの輝度またはクロミナンスのデータを含む。ブロック層のデータは一様に量子化された離散コサイン変換係数から構成され、それらはジグザグの順序で走査され、ランレングス・エンコーダによって処理され、ITU−T勧告H.263の中で詳細に説明するように、可変長符号で符号化される。
符号化されたビット・ストリームの1つの有用な性質はスケーラビリティである。以下において、ビットレート・スケーラビリティが説明される。ビットレート・スケーラビリティという用語は、圧縮されたシーケンスが異なるデータ・レートで復号される機能を指す。ビットレート・スケーラビリティを持つように符号化された圧縮シーケンスは、帯域幅が異なるチャネル上でストリーム化することができ、異なる受信端末においてリアルタイムで復号および再生することができる。
スケーラブル・マルチメディアは、通常、データの階層的層の中に順序付けられる。ベース層は、ビデオ・シーケンスのようなマルチメディア・データの個々の表現を含み、エンハンスメント層はベース層に追加して使用することができるリファインメント・データを含んでいる。エンハンスメント層がベース層に追加されるたびに、マルチメディア・クリップの品質は漸進的に改善される。スケーラビリティは多くの種々の形式を取ることができる。それらは、時間的スケーラビリティ、信号対雑音比(SNR)スケーラビリティおよび空間的スケーラビリティを含むが、これらに限定されない。それらは以下に詳細に説明する。
スケーラビリティは、セルラ通信ネットワークにおけるインターネットおよび無線チャネルのような不均一な誤りを生じ易い環境に対して望ましい性質である。この性質は、ビットレート、表示分解能、ネットワークのスループットおよびデコーダの複雑性における制約などの制限に対抗するために望ましい。
マルチポイントおよび同報通信などのマルチメディア用途においては、ネットワークのスループットにおける制約は符号化の時点では予見されない。それ故、スケーラブル・ビット・ストリームを形成するようにマルチメディア・コンテンツを符号化することが有利である。図3に、IPマルチキャスティングにおいて使用されているスケーラブル・ビット・ストリームの一例を示す。各ルータ(R1〜R3)は、ビット・ストリームをその機能に従って取り除くことができる。この例においては、サーバSは、少なくとも3つのビットレート、すなわち、120kbit/s、60kbit/s、および28kbit/sにスケールすることができるマルチメディア・クリップを有している。ビット・ストリームのできるだけ少ない数のコピーがネットワークで生成されるように、同じビット・ストリームが複数のクライアントに対して同時に配信されるマルチキャスト伝送の場合、1つのビットレート・スケーラブル・ビット・ストリームを送信することがネットワークの帯域幅の観点から有利である。
シーケンスがダウンロードされてそれぞれ処理能力が異なる種々の装置において再生される場合、ビット・ストリームの一部分だけを復号することによってビデオ・シーケンスのより低い品質の表示を供給するように処理能力の比較的低い装置においてビットレートのスケーラビリティを使用することができる。処理能力の高い装置は、完全な品質でそのシーケンスを復号して再生することができる。さらに、ビットレート・スケーラビリティは、ビデオ・シーケンスのより低い品質の表示を復号するために必要な処理能力が、完全な品質のシーケンスを復号するときよりも低いことを意味する。これは計算的スケーラビリティの1つの形式とみなすことができる。
ビデオ・シーケンスがストリーミング・サーバに予め格納されていて、そのサーバが、たとえば、ネットワークでの混雑を避けるためにビット・ストリームとして送信されるビットレートを一時的に減らす必要がある場合、そのサーバが使用可能なビット・ストリームを依然として送信しながら、ビット・ストリームのビットレートを減らすことができる場合に有利である。これは、通常、ビットレート・スケーラブル符号化を使用して実現される。
スケーラビリティは、また、層型の符号化がトランスポートの優先順位付けと組み合わされているトランスポート・システムにおける誤りに対する許容力を改善するためにも使用することができる。トランスポートの優先順位付けという用語は、トランスポートにおける異なる品質のサービスを提供するメカニズムを記述するために使用される。これらは種々のチャネル誤り/喪失レートを提供する不等誤差防止、および異なる遅延/喪失の条件をサポートするための種々の優先順位の割当てを含む。たとえば、スケーラブルに符号化されたビット・ストリームのベース層を、高度な誤差防止の伝送チャネルを通して配信し、一方、エンハンスメント層をより誤りの生じ易いチャネルにおいて送信することができる。
スケーラブル・マルチメディア符号化に伴う1つの問題点は、非スケーラブル符号化の場合より圧縮効率が悪くなることである。高品質のスケーラブル・ビデオ・シーケンスは、一般に、対応している品質の非スケーラブル単層ビデオ・シーケンスより多くの帯域幅を必要とする。しかし、この一般的な規則に対する例外が存在する。たとえば、Bフレームはそれ以降の符号化された画像の品質に悪影響を及ぼすことなしに、圧縮されたビデオ・シーケンスからBフレームをドロップさせることができるので、それらは時間的スケーラビリティの1つの形式を提供しているとみなすことができる。すなわち、たとえば、PフレームとBフレームとを交互に含んでいる時間的に予測された画像シーケンスを形成するように圧縮されたビデオ・シーケンスのビットレートを、そのBフレームを取り除くことによって減らすことができる。これは圧縮されたシーケンスのフレーム・レートを減らす効果を有する。したがって、時間的スケーラビリティという用語で呼ばれる。多くの場合、Bフレームを使用することによって、特に高いフレーム・レートにおける符号化効率を改善することができ、したがって、Pフレームに加えてBフレームを含んでいる圧縮されたビデオ・シーケンスは、等価な品質の符号化されたPフレームだけを使用したシーケンスより高い圧縮効率を示す可能性がある。しかし、Bフレームによって提供された圧縮性能における改善は、計算がより複雑になり、メモリをより多く必要とするという犠牲において達成される。また、追加的な遅延も導入される。
図4に、信号対雑音比(SNR)のスケーラビリティを示す。SNRのスケーラビリティはマルチレート・ビット・ストリームの生成を含む。それによって元の画像とその再構成画像との間の符号化の誤差、あるいは差を回復することができる。これはエンハンスメント層において差分画像を符号化するためにより細かい量子化を使用することによって実現される。この追加の情報によって総合的な再生画像のSNRが向上する。
空間的スケーラビリティによって、種々の表示要件/制約に適合するマルチ分解能ビット・ストリームを生成することができる。図5に、空間的にスケーラブルな構造を示す。それはSNRスケーラビリティによって使用されたのと類似のものである。空間的スケーラビリティにおいては、基準層であるエンハンスメント層によって基準として使用される再構成された層のアップサンプルされたバージョンと元の画像のより高い分解能のバージョンとの間の符号化損失を回復するために使用される。たとえば、基準層の分解能が、4分の1共通中間フォーマット(QCIF)である場合は、176×144ピクセルであり、エンハンスメント層の分解能が共通中間フォーマット(CIF)の352×288ピクセルである場合、基準層の画像を、エンハンスメント層の画像がそれから適切に予測できるように、それに従ってスケールしなければならない。H.263によれば、分解能は垂直方向のみ、水平方向のみ、あるいは1つのエンハンスメント層に対する垂直および水平方向の両方において2倍だけ増加する。複数のエンハンスメント層があり、それぞれが前の層の分解能より画像分解能を増加させるようにすることができる。基準層の画像をアップサンプルするために使用される補間フィルタが、H.263において明示的に定義されている。基準層からエンハンスメント層へのアップサンプリング・プロセスは別として、空間的にスケールされた画像の処理およびシンタックスはSNRスケール型画像のそれらと同じである。空間的スケーラビリティによって空間的分解能がSNRのスケーラビリティに比べて増加する。
SNRスケーラビリティまたは空間的スケーラビリティのいずれにおいても、エンハンスメント層の画像はEIまたはEP画像と呼ばれる。エンハンスメント層の画像が基準層におけるINTRA画像から上方向に予測される場合、エンハンスメント層の画像はエンハンスメントI(EI)画像と呼ばれる。基準層の画像の予測が不完全であるときのいくつかのケースにおいては、その画像の静止部分のオーバコーディングがエンハンスメント層において発生する可能性があり、過剰なビットレートが必要となる。この問題を避けるために、順方向の予測がエンハンスメント層において許される。前のエンハンスメント層の画像から順方向に予測した画像または基準層内の予測した画像から上方向に予測した画像は、エンハンスメントP(EP)画像と呼ばれる。上方向および順方向に予測した画像の両方の平均を計算することによって、EP画像に対する双方向予測オプションが提供される。基準層の画像からのEI画像およびEP画像の上方向予測は、運動ベクトルが不要であることを意味する。EP画像に対する順方向予測の場合には、運動ベクトルが必要である。
H.263のスケーラビリティ・モード(付属書類O)は、時間的、SNR、および空間的スケーラビリティ機能をサポートするシンタックスを規定している。
従来のSNRスケーラビリティ符号化での1つの問題は、ドリフティングと呼ばれている問題である。ドリフティングとは、伝送誤りの影響を指す。誤りによって生じる目に見えるアーティファクトは、その誤りが発生した画像から時間的にドリフトする。動き補償を使用することによって、目に見えるアーティファクトの領域が画像から画像へと増加する可能性がある。スケーラブル符号化の場合には、目に見えるアーティファクトは、また、下位のエンハンスメント層から上位層へもドリフトする。ドリフティングの影響は図7を参照して説明することができる。図7は、スケーラブル符号化において使用される従来の予測関係を示している。エンハンスメント層内で誤りまたはパケット喪失が発生すると、それは画像のグループ(GOP)の終りにまで伝搬する。何故なら、その画像は互いにシーケンスにおいて予測されているからである。さらに、エンハンスメント層はベース層に基づいているので、ベース層内の誤りによってエンハンスメント層内に誤りが生じる。また、予測はエンハンスメント層間でも発生するので、それ以降の予測したフレームの上位層において重大なドリフティングの問題が発生する可能性がある。それ以降で誤りを訂正するためにデータを送信するための十分な帯域幅があっても、デコーダは、その予測チェーンが新しいGOPの開始を表している別のINTRA画像によって再初期化されるまでその誤りを除去することができない。
この問題に対処するために、細粒度スケーラビリティ(FGS)と呼ばれる形式のスケーラビリティが開発されている。FGSにおいては、低品質のベース層がハイブリッド予測ループを使用して符号化され、(追加の)エンハンスメント層が再構成されたベース層と元のフレームとの間に符号化された残差を漸進的に伝える。FGSは、たとえば、MPEG4視覚標準化の中で提案されている。
図6に、細粒度スケーラブル符号化における予測関係の一例を示す。細粒度スケーラブル・ビデオ符号化方式においては、ベース層のビデオが誤りまたはパケット喪失を最小化するためによく制御されたチャネル(たとえば、誤差防止の程度が高いチャネル)において送信される。それは最小のチャネル帯域幅に適合するようにベース層が符号化されるように行われる。この最小の帯域幅は、動作中に発生するか、あるいは遭遇する可能性のある最も小さい帯域幅である。予測フレームにおけるすべてのエンハンスメント層は、基準フレーム内のベース層に基づいて符号化される。それ故、1つのフレームのエンハンスメント層における誤りは、それ以降の予測したフレームのエンハンスメント層においてドリフティングの問題を発生させず、符号化方式はチャネルの状態に対して適合させることができる。しかし、予測は常に低い品質のベース層に基づいているので、FGS符号化の符号化効率は、H.263の付属書類Oにおいて提供されている方式のような従来のSNRスケーラビリティ方式ほどは良くないか、あるいは場合によってはずっと悪い。
FGS符号化および従来の層型スケーラビリティ符号化の両方の利点を組み合わせるために、図8に示されているハイブリッド符号化方式が提案され、それは漸進的FGS(PFGS)と呼ばれている。留意すべき2つのポイントがある。先ず第一に、PFGSにおいては、符号化効率を維持するために同じ層からできるだけ多くの予測が使用される。第二に、予測経路は常に基準フレームにおける下位層からの予測を使用して誤り回復およびチャネル適応を可能にしている。第1のポイントは、所与のビデオ層に対して動きの予測ができるだけ正確であり、それ故、符号化効率を確実に維持することである。第2のポイントは、ドリフティングをチャネルの混雑、パケット喪失またはパケット誤りのケースにおいて確実に削減することである。この符号化構造を使用すれば、エンハンスメント層のデータにおける喪失/誤りパケットを再送信する必要はない。何故なら、エンハンスメント層を数フレーム間にわたって徐々に、自動的に再構成することができるからである。
図8では、フレーム2が、フレーム1の偶数層(すなわち、ベース層および第2の層)から予測されている。フレーム3はフレーム2の奇数層(すなわち、第1および第3の層)から予測されている。順に、フレーム4はフレーム3の偶数層から予測されている。この奇数/偶数の予測パターンが継続する。共通の基準層まで戻って参照する層の数を記述するために、グループ深さという用語が使用される。図8は、グループ深さが2の場合を例示している。グループ深さは変更することができる。深さが1であった場合、その状況は図7に示されている従来のスケーラビリティ方式と本質的には同等である。深さが層の合計数に等しい場合、その方式は、図6に示されているFGS法と同じになる。それ故、図8に示されている漸進的FGS符号化方式は、前の技法の両方の利点、たとえば、符号化効率が高いこと、および誤り回復力が高いことを提供する妥協方式を提供する。
PFGSは、インターネット上または無線チャネル上でのビデオ伝送に対して適用されるときに利点を提供する。大きなドリフティングを発生させずにチャネルの利用できる帯域幅に対して符号化されたビット・ストリームを適合させることができる。図9は、ビデオ・シーケンスがベース層および3つのエンハンスメント層を有しているフレームによって表されている状況における漸進的細粒度スケーラビリティによって提供される帯域幅適合特性の一例を示している。太い一点鎖線は、実際に送信されるビデオ層を追跡している。フレーム2において、帯域幅の大幅な減少がある。送信機(サーバ)は、これに対して高位のエンハンスメント層(層2および3)を表しているビットをドロップすることによって反応する。フレーム2の後、帯域幅がある程度増加し、送信機は2つのエンハンスメント層を表している追加のビットを送信することができる。フレーム4が送信される時までに、利用できる帯域幅がさらに増加され、ベース層およびすべてのエンハンスメント層の送信を再び行うための十分な容量が提供される。これらの動作は、ビデオのビット・ストリームの再符号化および再送信をいずれも必要としない。ビデオ・シーケンスの各フレームのすべての層が効率的に符号化され、1つのビット・ストリーム内に埋め込まれている。
上記従来技術のスケーラブル符号化技法は、符号化されたビット・ストリームの1つの解読に基づいている。すなわち、デコーダはその符号化されたビット・ストリームを一度だけ解読し、再構成された画像を発生する。再構成されたI画像およびP画像が動き補償のための参照画像として使用される。
一般に、時間的基準を使用するための上記方法においては、予測基準は符号化される画像に対して、あるいはその領域に対してできるだけ時間的および空間的に近い。しかし、予測符号化は伝送誤りによって影響される可能性が高い。何故なら、1つの誤りが、その誤りを含んでいる後続の予測画像チェーンの中に現れるすべての画像に影響するからである。したがって、伝送誤りに対してビデオ伝送システムをより頑健なものにするための代表的な方法は、予測チェーンの長さを減らす方法である。
空間的、SNRおよびFGSの各スケーラビリティ技法のすべては、バイト数の面で比較的短いクリティカル予測経路を作る方法を提供する。クリティカル予測経路は、ビデオ・シーケンスの内容の許容できる表示を得るために復号される必要のあるビット・ストリームの部分である。ビットレート・スケーラブル符号化においては、そのクリティカル予測経路はGOPのベース層である。層型ビット・ストリーム全体ではなく、そのクリティカル予測経路だけを適切に保護するのが便利である。しかし、FGS符号化と同様に、従来の空間的およびSNRのスケーラビリティ符号化は圧縮効率を減らすことに留意されたい。さらに、それらは送信機が符号化時にビデオ・データを階層化する方法を決定することが必要である。
予測経路を短くするために、時間的に対応しているINTERフレームの代わりにBフレームを使用することができる。しかし、連続したアンカー・フレーム間の時間が比較的長い場合、Bフレームを使用することによって圧縮効率の低下が生じる。この状況においては、Bフレームは互いに時間的に離れたアンカー・フレームから予測され、したがって、Bフレームおよびそれらが予測される元の基準フレームは類似性が低く予測される。これは不十分に予測されたBフレームを発生し、その結果、関連付けられた予測誤差フレームを符号化するためにより多くのビットが必要となる。さらに、アンカー・フレーム間の時間的距離が増加するので、連続したアンカー・フレームは類似性がより低くなる。再び、これによって予測されたアンカー画像が劣化し、そして関連付けられた予測誤差画像を符号化するためにより多くのビットが必要となる。
図10は、Pフレームの時間的予測において、一般的に使用される方式を示す。簡略化のために、図10においてはBフレームは考慮されていない。
INTERフレームの予測基準を選択することができる場合(たとえば、H.263の参照画像選択モードの場合のように)、現在のフレームをそれが自然番号順において直前のもの以外のフレームから予測することによって予測経路を短くすることができる。これは図11に示されている。しかし、参照画像選択をビデオ・シーケンスにおける誤りの時間的伝搬を減らすために使用することができるが、それはまた圧縮効率を減らす効果も有する。
ビデオ冗長符号化(VRC)として周知の技法が、パケット交換網におけるパケットの喪失に応答してビデオ品質の優雅な劣化を提供するために提案されている。VRCの原理は、画像シーケンスを2つまたはそれ以上のスレッドに分割し、すべての画像がラウンドロビン方式でそのスレッドの1つに対して割り当てられるようにする。各スレッドは独立に符号化される。一定の間隔で、すべてのスレッドが、個々のスレッドの少なくとも1つから予測される、いわゆる同期フレームに収束する。この同期フレームから、新しいスレッド・シリーズが開始される。所与のスレッド内のフレーム・レートは全体のフレーム・レートより結果として低くなり、2スレッドの場合には半分、3スレッドの場合は3分の1などとなる。これによって相当な符号化ペナルティが生じる。何故なら、1つのスレッド内の画像間の動きに関連する変化を表すために、通常、同じスレッド内の連続した画像間の一般的にもっと大きな差およびもっと長い運動ベクトルが必要となるためである。図12は、2つのスレッドおよびスレッド当たり3つのフレームの場合のVRCの動作を示す。
たとえば、パケット喪失のためにVRC符号化されたビデオ・シーケンスにおいてスレッドの1つが損傷した場合でも、残りのスレッドは無傷のままである可能性があり、したがって、次の同期フレームを予測するためにそれらを使用することができる。損傷したスレッドの復号を継続することができ、それによる画像の劣化は僅かである。あるいはその復号を停止させることができ、それはフレーム・レートの削減につながる。しかし、スレッドが程よく短い場合、両方の形の劣化は非常に短時間持続するだけ、すなわち、次の同期フレームに達するまでである。図13に、2つのスレッドのうちの1つが損傷しているときのVRCの動作を示す。
同期フレームは常に、損傷していないスレッドから予測される。このことは、送信されるINTRA画像の数を少なく保つことができることを意味する。何故なら、一般に、完全な再同期化は不要であるからである。正しい同期フレームの構造は、2つの同期フレーム間のすべてのスレッドが損傷した場合にのみ妨げられる。この状況においては、VRCを採用していないケースの場合と同様に、次のINTRA画像が正しく復号されるまで、目障りなアーティファクトが続く。
現在、任意の「参照画像選択」モード(付属書類N)がイネーブルされている場合に、VRCをITU−T H.263ビデオ符号化規格(バージョン2)と一緒に使用することができる。しかし、他のビデオ圧縮方法にVRCを組み込むことに大きな障害はない。
Pフレームの逆方向予測も予測チェーンを短くする1つの方法として提案されている。これは図14に示されている。図14は、ビデオ・シーケンスのうちの少数の連続フレームを示している。点AにINTRAフレーム(I1)を符号化されたビデオ・シーケンス内に挿入すべきであるという要求をビデオ・エンコーダが受信する。この要求は、たとえば、シーン・カット、または遠隔受信機からのフィードバックとして受信されたINTRAフレーム更新要求に反応して、INTRAフレーム要求、周期的なINTRAフレームのリフレッシュ動作の結果として発生する可能性がある。一定の期間後、別のシーン・カット、INTRAフレーム要求、または周期的INTRAフレーム・リフレッシュ動作が発生する(点B)。最初のシーン・カット、INTRAフレーム要求、または周期的INTRAフレーム・リフレッシュ動作の直後にINTRAフレームを挿入するのではなく、エンコーダは2つのINTRAフレーム要求間のほぼ中間の時点にINTRAフレーム(I1)を挿入する。最初のINTRAフレーム要求とINTRAフレームI1との間のフレーム(P2およびP3)は、シーケンス内で逆方向に予測され、予測チェーンの原点としてI1を使用している他のフレームからINTERフォーマットで予測される。INTRAフレームI1と第2のINTRAフレーム要求との間の残りのフレーム(P4およびP5)は、従来の方法によりINTERフォーマットで順方向に予測される。
この方法の利点は、フレームP5の復号を可能にするためにどれだけ多くのフレームが正常に送信されなければならないかを考えることによって知ることができる。図15に示されているような従来のフレームの順序が使用される場合、P5の復号を正しく行うには、I1、P2、P3、P4およびP5が正しく送信されて復号される必要がある。図14に示されている方法においては、P5を正常に復号するためには、I1、P4およびP5だけが正しく送信されて復号されればよい。すなわち、この方法は従来のフレームの順序および予測を採用している方法と比較してP5が正しく復号される確実性がより大きくなる。
しかし、逆方向に予測されたINTERフレームは、I1が復号される前には復号することができないことに留意されたい。結果として、シーン・カットとそれに続くINTRAフレームとの間の時間より長い初期バッファリング遅延が、再生における一時休止を防ぐために必要である。
図16は、TML−4に対する現在の勧告によって修正されたテスト・モデル(TML)TML−3に基づいたITU−T H.26L勧告に従って動作するビデオ通信システム10を示す。システム10は、送信機側12と受信機側14とを備えている。このシステムには双方向の送信および受信の装備がなされているので、送信側および受信側12および14は、送信および受信の両方の機能を実行することができ、相互に交換可能であることを理解されたい。システム10は、ビデオ符号化(VCL)と、ネットワーク・アウェアネスを伴うネットワーク適応層(NAL)とを含む。「ネットワーク・アウェアネス」という用語は、NALがそのネットワークに適合するためのデータの配置が採用できることを意味する。VCLは復号機能以外に、波形符号化およびエントロピー符号化の両方を含む。圧縮されたビデオ・データが伝送されているとき、NALはその符号化されたビデオ・データをサービス・データ・ユニット(パケット)内にパケット化し、そのユニットはチャネル上での伝送のためにトランスポート・コーダに渡される。圧縮されたビデオ・データを受信すると、NALはチャネル上での伝送後のトランスポート・デコーダから受信されたサービス・データ・ユニットからの符号化されたビデオ・データを非パケット化する。NALは、ビデオのビット・ストリームを画像タイプおよび動き補正情報などの画像データの復号および再生に対して、より重要な他のデータから別に符号化されたブロック・データおよび予測誤差係数に区画化することができる。
VCLの主なタスクは、効率的な方法でビデオ・データを符号化することである。しかし、すでに説明したように、効率的に符号化されたデータに対して誤りが悪影響を及ぼし、したがって、可能な誤りのいくつかのアウェアネスが含められる。VCLは予測符号化チェーンを中断し、誤りの発生および伝搬に対して補正するための対策を講じる。これは以下のことによって行うことができる。
i).INTRAフレームおよびINTRA符号化マクロブロックを導入することによって時間的予測チェーンを中断する。
ii).運動ベクトルの予測がスライス境界内にある独立のスライス符号化モードへ切り換えることによって誤りの伝搬を中断させる。
iii).たとえば、フレームについての適応型算術符号化なしで、独立に復号することができる可変長符号を導入する。
iv).伝送チャネルの利用可能なビットレートにおける変化に迅速に反応し、パケット喪失が発生しにくいように符号化されたビデオのビット・ストリームのビットレートを適応させる。
さらに、VCLはネットワークにおけるサービスの品質(QoS)メカニズムをサポートするために優先度クラスを識別する。
通常、ビデオ符号化方式は、伝送されるビット・ストリーム内の符号化されたビデオ・フレームまたは画像を記述する情報を含む。この情報はシンタックス要素の形式を取る。シンタックス要素は、その符号化方式の中で同様な機能を備えている符号語または符号語のグループである。シンタックス要素は優先度クラスに分類される。シンタックス要素の優先度クラスは、他のクラスに対するその符号化および復号依存性に従って規定される。復号依存性は、時間的予測、空間的予測の使用および可変長符号化の使用の結果として生じる。優先度クラスを規定するための一般的な規則は以下の通りである。
1.シンタックス要素Aを、シンタックス要素Bの知識なしで正しく復号することができ、シンタックス要素Bは、シンタックス要素Aの知識なしでは正しく復号できない場合、シンタックス要素Aの優先度はシンタックス要素Bより高い。
2.シンタックス要素AおよびBが独立に復号できる場合、各シンタックス要素の画像品質に及ぼす影響の度合いがその優先度クラスを決定する。
シンタックス要素と、伝送誤りに起因するシンタックス要素における誤りまたはシンタックス要素の喪失の効果との間の依存性を、図17に示されているように依存性ツリーとして視覚化することができる。図17は、現在のH.26Lテスト・モデルの各種のシンタックス要素間の依存性を示している。誤っているか、あるいは欠落しているシンタックス要素は、同じブランチ内にあって依存性ツリーのルートからさらに離れているシンタックス要素の復号にのみ影響する。したがって、ツリーのルートに近いシンタックス要素が復号された画像の品質に及ぼす影響は、それより低い優先度クラス内のシンタックス要素より大きい。
通常、優先度クラスは、フレームごとのベースで規定される。スライス・ベースの画像符号化モードが使用されている場合、優先度クラスに対するシンタックス要素の割当てにおける何らかの調整が実行される。
図17をさらに詳細に参照すると、現在のH.26Lテスト・モデルにはクラス1(最高優先度)からクラス10(最低優先度)までの範囲にある10個の優先度クラスがあることが分かる。以下は各優先度クラス内のシンタックス要素の要約と、各シンタックス要素によって伝えられる情報の簡単な概要である。
クラス1:PSYNC、PTYPE:PSYNC、PTYPEのシンタックス要素を含んでいる。
クラス2:MB_TYPE、REF_FRAME:1つのフレーム内のすべてのマクロブロック・タイプおよび基準フレームのシンタックス要素を含んでいる。INTRA画像/フレームの場合、このクラスは要素を含んでいない。
クラス3:IPM:INTRA予測モードのシンタックス要素を含んでいる。
クラス4:MVD、MACC:運動ベクトルおよび動きの精度のシンタックス要素(TML−2)を含んでいる。INTRA画像/フレームの場合、このクラスは要素を含んでいない。
クラス5:CBP−Intra:1つのフレーム内のINTRAマクロブロックに対して割り当てられたすべてのCBPシンタックス要素を含んでいる。
クラス6:LUM_DC¥Intra、CHR_DC−Intra:INTRA−MB内のすべてのブロックに対するすべてのDC輝度係数およびすべてのDCクロミナンス係数を含んでいる。
クラス7:LUM_AC−Intra、CHR_AC−Intra:INTRA−MB内のすべてのブロックに対するすべてのAC輝度係数およびすべてのACクロミナンス係数を含んでいる。
クラス8:CBP−Inter、1つのフレーム内のINTER−MBに対して割り当てられているすべてのCBPシンタックス要素を含んでいる。
クラス9:LUM_DC−Inter、CHR_DC−Inter:INTER−MB内の各ブロックの第1の輝度係数およびすべてのブロックのDCクロミナンス係数を含んでいる。
クラス10:LUM_AC−Inter、CHR_AC−Inter:INTER−MB内のすべてのブロックの残りの輝度係数およびクロミナンス係数を含んでいる。
NALの主なタスクは、基底にあるネットワークに適合する優先度クラス内に含まれているデータを最適の方法で送信することである。したがって、基底にある各ネットワークまたはネットワークのタイプに対してユニークなデータ・カプセル化の方法が提示されている。NALは以下のタスクを実行する。
1.識別されたシンタックス要素クラス内に含まれているデータをサービス・データ・ユニット(パケット)にマップする。
2.結果のサービス・データ・ユニット(パケット)を基底にあるネットワークに適合する方法で転送する。
NALは誤差防止メカニズムも提供することができる。
圧縮されたビデオ画像を異なる優先度クラスに対して符号化するために使用されるシンタックス要素の優先順位付けによって、基底にあるネットワークに対する適合が簡単になる。ネットワークがサポートしている優先度メカニズムはシンタックス要素の優先順位付けから特に利点を得る。特に、シンタックス要素の優先順位付けは以下の場合に使用するとき、特に有利である。
i).IPにおける優先度の方法(資源予約プロトコル(RVSP)など)
ii).汎用移動電話システム(UMTS)などの第三世代の移動通信ネットワークにおけるサービスの品質(QoS)メカニズム
iii).H.223マルチメディア通信のためのマルチプレキシング・プロトコルの付属書類CまたはD
iv).基底にあるネットワークにおいて提供される不等誤差防止
異なるデータ/電気通信ネットワークは実質的に異なる特性を通常備えている。たとえば、各種のパケット・ベースのネットワークは、最小および最大のパケット長を採用するプロトコルを使用する。いくつかのプロトコルはデータ・パケットの正しい順序での配信を保証するが、他のプロトコルは保証しない。したがって、2つ以上のクラスに対するデータを1つのデータ・パケットに併合すること、あるいは所与のいくつかのデータ・パケット間で所与の優先度のクラスを表しているデータを分割することが必要に応じて適用される。
圧縮されたビデオ・データを受信しているとき、VCLはネットワークおよび伝送のプロトコルを使用することによって、ある種のクラスおよび特定のフレームに対する優先度が高いすべてのクラスを識別することができ、そしてそれを正しく受信したこと、すなわち、ビット誤りなしで受信したこと、そしてすべてのシンタックス要素の長さが正しいことをチェックする。
符号化されたビデオのビット・ストリームは基底にあるネットワークおよび使用中のアプリケーションに依存して各種の方法でカプセル化されている。以下に、いくつかのカプセル化方式の例を示す。
〔H.324(回線交換型テレビ電話)〕
H.324のトランスポート・コーダ、すなわち、H.223は、その最大のサービス・データ・ユニット・サイズが254バイトである。通常、これは画像全体を搬送するには不十分であり、したがって、VCLは1つの画像を複数の区画に分割できるので、各区画は1つのサービス・データ・ユニットに適合する。符号語は、通常、それらのタイプに基づいて区画にグループ化される。すなわち、同じタイプの符号語が同じ区画にまとめられる。区画の符号語(およびバイト)の順序は重要度の降順に配列される。ビット誤りがビデオ・データを搬送しているH.223のサービス・データ・ユニットに影響する場合、デコーダはそのパラメータの可変長符号化のために同期の復号を失う可能性があり、そのサービス・データ・ユニット内のデータの残りの部分を復号することができなくなる。しかし、最も重要なデータはサービス・データ・ユニットの先頭に現れるので、デコーダは画像内容の劣化した表示を生成することができる可能性がある。
〔IPテレビ電話〕
歴史的な理由のために、IPパケットの最大サイズは約1500バイトである。以下の2つの理由のために、できるだけ大きいIPパケットを使用することが有利である。
1. ルータなどのIPネットワーク要素は過剰なIPトラヒックのために混雑状態となり、内部バッファのオーバフローを発生する可能性がある。そのバッファは、通常、パケット指向型である。すなわち、それらはいくつかの個数のパケットを含んでいる可能性がある。したがって、ネットワークの混雑を回避するために、頻繁に生成される小さいパケットではなく、ほとんど生成されない大きいパケットを使用することが望ましい。
2. 各IPパケットはヘッダ情報を含んでいる。リアルタイムのビデオ通信のために使用される代表的なプロトコルの組合せ、すなわち、RTP/UDT/IPは、パケット当たり40バイトのヘッダ部分を含む。回線交換型低帯域幅のダイヤルアップ・リンクが、IPネットワークに接続するときにしばしば使用されている。小さいパケットが使用されている場合、低ビットレートのリンクにおいてはパケット化のオーバヘッドが大きくなる。
画像のサイズおよび複雑性に依存して、INTER符号化ビデオ画像は1つのIPパケットに適合するために十分少ない数のビットを含むことができる。
IPネットワークにおいて不等誤差防止を提供するための多くの方法がある。これらのメカニズムは、パケットの二重化、順方向誤り訂正(FEC)パケット、差別化サービス、すなわち、ネットワーク内のある種のパケットに対して優先権を与えるサービス、統合サービス(RSVPプロトコル)を含む。通常、これらのメカニズムは重要度が似ているデータを1つのパケット内にカプセル化する必要がある。
〔IPビデオ・ストリーミング〕
ビデオ・ストリーミングは非対話型アプリケーションであるので、エンド・ツー・エンドの遅延の条件は厳しくない。結果として、そのパケット化方式は複数の画像からの情報を利用することができる。たとえば、データは上記のようにIPテレビ電話の場合に類似した方法で分類することができるが、複数の画像からの重要度が高いデータが同じパケット内にカプセル化される。
代わりに、各画像または画像のスライスをそれ自身のパケット内にカプセル化することができる。最も重要なデータがそのパケットの先頭に現れるようにデータの区画化が適用される。順方向誤り訂正(FEC)パケットは既に送信された一組のパケットから計算される。FECのアルゴリズムは、それがそのパケットの先頭に現れているある個数のバイトだけを保護するように選択される。受信端において、通常のデータ・パケットが喪失していた場合、FECパケットを使用してその喪失したデータ・パケットの先頭を訂正することができる。この方法はA. H. Li, J. D. Villasenor、"A generic Uneven Level Protection (ULP) proposal for Annex I of H.323"(H.323の付属書類Iに対する一般不等レベル保護(ULP)提案)、ITU−T、SG16、Question 15、ドキュメントQ15−J−61、16−May−2000の中で提案されている。
第1の態様によれば、本発明は、ビット・ストリームを発生するためにビデオ信号を符号化するための方法を提供する。前記方法は、第1の完全フレームを再構成するための、高優先度および低優先度情報に優先順位付けられている情報を含むビット・ストリームの第1の部分を形成することにより、第1の完全フレームを符号化するステップと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを規定するステップと、第2の完全フレームの再構成において使用するための情報を含むビット・ストリームの第2の部分を形成することにより第2の完全フレームを符号化し、第2の完全フレームを、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて完全に再構成することができるようにするステップとを含む。
好適には、前記方法は、また、第2の完全フレームの情報を高優先度情報および低優先度情報に優先順位付けるステップと、第2の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第2の完全フレームの高優先度情報を使用して構成された第2の完全フレームの1つのバージョンに基づいて第2の仮想フレームを規定するステップと、第2の完全フレームおよびビット・ストリームの第3の部分に含まれる情報に基づいて第3の完全フレームが完全に再構成できるように、第3の完全フレームの再構成において使用するための情報を含むビット・ストリームの第3の部分を形成することにより第3の完全フレームを符号化するステップとを含む。
第2の態様によれば、本発明は、ビット・ストリームを発生するためにビデオ信号を符号化するための方法を提供する。前記方法は、第1の完全フレームを再構成するための、高優先度および低優先度情報に優先順位付けられている情報を含むビット・ストリームの第1の部分を形成することにより、第1の完全フレームを符号化するステップと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを規定するステップと、第2の完全フレームの再構成において使用するための情報を含むビット・ストリームの第2の部分を形成することにより第2の完全フレームを符号化し、前記情報が高優先度情報および低優先度情報に優先順位付けられていて、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2のフレームが完全に再構成されるように第2のフレームが符号化されるステップと、第2の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第2の完全フレームの高優先度情報を使用して構成された第2の完全フレームの1つのバージョンに基づいて第2の仮想フレームを規定するステップと、第2の完全フレームから予測され、ビット・ストリームの第3の部分を形成することによりシーケンス内で第2の完全フレームに続く第3の完全フレームを符号化し、ビット・ストリームは第3の完全フレームの再構成において使用するための情報を含み、第3の完全フレームを第2の完全フレームおよび、ビット・ストリームの第3の部分に含まれる情報に基づいて完全に再構成できるようにするステップとを含む。
第1の仮想フレームは、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、ビット・ストリームの第1の部分の高優先度情報を使用し、そして予測基準として前の仮想フレームを使用して構成することができる。他の仮想フレームは、前の仮想フレームに基づいて構成することができる。したがって、仮想フレームのチェーンを提供することができる。
完全フレームは表示できる画像を形成することができるという意味で完全である。これは仮想フレームに対しては必ずしも成立する必要はない。
第1の完全フレームは、INTRA符号化された完全フレームであってよい。その場合、ビット・ストリームの第1の部分は、INTRA符号化の完全フレームの完全再構成のための情報を含む。
第1の完全フレームは、INTER符号化の完全フレームであってよい。その場合、ビット・ストリームの第1の部分は、完全基準フレームまたは仮想基準フレームであることができる基準フレームに関してINTER符号化の完全フレームの再構成のための情報を含む。
1つの実施形態においては、本発明は、スケーラブル符号化方法である。この場合、仮想フレームはスケーラブル・ビット・ストリームのベース層であるとして解釈することができる。
本発明のもう1つの実施形態においては、2つ以上の仮想フレームが第1の完全フレームの情報から規定され、上記2つ以上の各仮想フレームは、第1の完全フレームの異なる高優先度情報を使用して規定されている。
本発明のさらにもう1つの実施形態においては、2つ以上の仮想フレームが第1の完全フレームの情報から規定され、上記2つ以上の各仮想フレームは、第1の完全フレームの情報の異なる優先順位付けを使用して形成された第1の完全フレームの異なる高優先度情報を使用して規定される。
好適には、完全フレームの再構成のための情報が、その完全フレームを再構成する際のその重要性に従って高優先度および低優先度情報に優先順位付けられる。
完全フレームはスケーラブル・フレーム構造のベース層であってよい。
前のフレームを使用して完全フレームを予測しているとき、そのような予測ステップにおいて、完全フレームを前の完全フレームに基づいて予測することができ、それ以降の予測ステップにおいて、完全フレームを仮想フレームに基づいて予測することができる。この方法で、予測のベースは予測ステップごとに変化する可能性がある。その変化は、所定のベースで、あるいは符号化されたビデオ信号が送信されるリンクの品質などの他のファクタによって時々刻々決定されることによって発生する可能性がある。本発明の1つの実施形態においては、その変化は受信デコーダから受信された要求によって開始される。
仮想フレームは、高優先度情報を使用し、低優先度情報を故意に使用せずに形成されるものであることが好ましい。仮想フレームは表示されないことが好ましい。代わりに、それが表示される場合、それは完全フレームに対する代わりのものとして使用される。これはその完全フレームが伝送誤りのために利用できない場合にあり得る。
本発明によって、時間的予測経路を短縮しているとき、符号化効率を改善することができる。本発明は、さらに、ビデオ信号の再構成のための情報を搬送しているビット・ストリームにおけるデータの喪失または劣化からの結果として生じる劣化に対して符号化されたビデオ信号の回復力を増加させる効果を有する。
情報は符号語を含むことが好ましい。
仮想フレームは、高優先度情報から構成されるか、あるいは規定されるだけではなく、いくつかの低優先度情報から構成されるか、あるいは規定される可能性もある。
仮想フレームは、仮想フレームの順方向予測を使用して前の仮想フレームから予測することができる。他の方法として、あるいは追加として、仮想フレームは仮想フレームの逆方向予測を使用してそれ以降の仮想フレームから予測することができる。INTERフレームの逆方向予測は、図14に関連して説明してきた。この原理は仮想フレームに対して容易に適用できることを理解することができるだろう。
順方向予測フレームを使用して、完全フレームを前の完全フレームまたは仮想フレームから予測することができる。他の方法として、あるいは追加として、逆方向予測を使用して完全フレームをそれ以降の完全フレームまたは仮想フレームから予測することができる。
仮想フレームが高優先度情報によって規定されているだけでなく、いくつかの低優先度情報によっても規定されている場合、その仮想フレームを、その高優先度情報および低優先度情報の両方を使用して復号することができ、さらに別の仮想フレームに基づいて予測することができる。
仮想フレームに対するビット・ストリームの復号は、完全フレームに対するビット・ストリームの復号において使用されるものとは異なるアルゴリズムを使用することができる。仮想フレームを復号するための複数のアルゴリズムがあり得る。特定のアルゴリズムの選択はビット・ストリーム内で知らせることができる。
低優先度情報が存在しない場合、それをデフォルト値で置き換えることができる。そのデフォルト値の選択は変わる可能性があり、正しい選択はビット・ストリーム内で知らされる。
第3の態様によれば、本発明は、ビデオ信号を発生するためにビット・ストリームを復号するための方法を提供する。前記方法は、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先順位付けられている情報を含むビット・ストリームの第1の部分から第1の完全フレームを復号するステップと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを規定するステップと、第1の仮想フレームを、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するステップとを含む。
好適には、前記方法は、また、第2の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第2の完全フレームの高優先度情報を使用して構成された第2の完全フレームの1つのバージョンに基づいて第2の仮想フレームを規定するステップと、第2の完全フレームおよびビット・ストリームの第3の部分に含まれる情報に基づいて第3の完全フレームを予測するステップとを含むことが好ましい。
第4の態様によれば、本発明は、ビデオ信号を発生するためにビット・ストリームを復号するための方法を提供する。前記方法は、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含むビット・ストリームの第1の部分から第1の完全フレームを復号するステップと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを規定するステップと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するステップと、第2の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第2の完全フレームの高優先度情報を使用して構成された第2の完全フレームの1つのバージョンに基づいて第2の仮想フレームを規定するステップと、第2の完全フレームおよびビット・ストリームの第3の部分に含まれる情報に基づいて第3の完全フレームを予測するステップとを含む。
第1の仮想フレームは、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、ビット・ストリームの第1の部分の高優先度情報を使用して、そして予測基準として前の仮想フレームを使用して構成することができる。他の仮想フレームは前の仮想フレームに基づいて構成することができる。完全フレームは、仮想フレームから復号することができる。完全フレームは仮想フレームの予測チェーンから復号することができる。
第5の態様によれば、本発明は、ビット・ストリームを発生するためにビデオ信号を符号化するためのビデオ・エンコーダを提供する。前記エンコーダは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先順位付けられている情報を含む第1の完全フレームのビット・ストリームの第1の部分を形成するための完全フレーム・エンコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて少なくとも第1の仮想フレームを規定する仮想フレーム・エンコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備える。
完全フレーム・エンコーダはフレーム予測器を含むことが好ましい。
本発明の1つの実施形態において、エンコーダはデコーダに対して信号を送信して、1つのフレームに対してビット・ストリームのどの部分が、伝送誤りまたは喪失の場合に全品質の画像を置き換えるための受け入れ可能な画像を発生するのに十分であるかを示す。そのシグナリングはビット・ストリーム内に含められるか、あるいはビット・ストリームとは別に伝送されるようにすることができる。
そのシグナリングをフレームに対して適用するのではなく、画像の一部分、たとえば、スライス、ブロック、マクロブロックまたはブロックのグループに対して適用することができる。もちろん、その方法全体を画像セグメントに対して適用することができる。
シグナリングは、複数の画像のうちのどの画像が完全な品質の画像を置き換えるために受け入れ可能な画像を発生するのに十分であるかを示すことができる。
本発明の1つの実施形態においては、そのエンコーダは信号をデコーダに送信して、仮想フレームを構成するための方法を示すことができる。その信号は1つのフレームに対する情報の優先順位付けを示すことができる。
その本発明のさらにもう1つの実施形態によれば、エンコーダは信号をデコーダに送信して、実際の参照画像が喪失したか、あるいは劣化し過ぎていた場合に使用される仮想予備参照画像を構成する方法を示すことができる。
第6の態様によれば、本発明は、ビデオ信号を発生するためにビット・ストリームを復号するためのデコーダを提供する。前記デコーダは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先順位付けられている情報を含むビット・ストリームの第1の部分から第1の完全フレームを復号するための完全フレーム・デコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して第1の完全フレームのビット・ストリームの第1の部分から第1の仮想フレームを形成するための仮想フレーム・デコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備える。
完全フレーム・デコーダはフレーム予測器を含むことが好ましい。
低優先度情報が仮想フレームの構成において使用されないので、そのような低優先度情報が喪失しても仮想フレームの構成には悪影響を及ぼさない。
参照画像選択の場合には、完全フレームを格納するためのマルチフレーム・バッファと仮想フレームを格納するためのマルチフレーム・バッファとを、エンコーダおよびデコーダに備えることができる。
好適には、別のフレームを予測するために使用される基準フレームを、たとえば、エンコーダ、デコーダ、またはその両方によって選択することができる。基準フレームの選択は各フレーム、画像セグメント、スライス、マクロブロック、ブロックまたはどんな部分画像要素に対しても別々に行うことができる。基準フレームはアクセス可能であるか、あるいはエンコーダの中およびデコーダの中の両方において発生することができる任意の完全フレーム、あるいは仮想フレームであってよい。
この方法で、各完全フレームは1つの仮想フレームに制限されず、完全フレームに対するビット・ストリームを分類するための方法がそれぞれ異なっているいくつかの異なる仮想フレームに関連付けられていてもよい。ビット・ストリームを分類するためのこれらの異なる方法は、動き補償のための異なる基準(仮想または完全)画像および/またはビット・ストリームの高優先度部分を復号する異なる方法であってよい。
デコーダからエンコーダに対してフィードバックを提供されることが好ましい。
そのフィードバックは1つまたはそれ以上の指定された画像の符号語に関係する指示の形式であってよい。その指示は符号語が受信されたこと、受信されなかったこと、あるいは損傷された状態で受信されたことを示す。これによってエンコーダは以降のフレームの動き補正された予測において使用される予測基準を、完全フレームから仮想フレームへ変更することができる。他の方法としては、その指示によって、受信されなかった、あるいは損傷した状態で受信された符号語をエンコーダに再送信させることができる。その指示は1つの画像中のある領域の内部の符号語、あるいは複数の画像中のある領域の内部の符号語を指定することができる。
第7の態様によれば、本発明は、ビデオ信号をビット・ストリームに符号化するため、およびビット・ストリームをビデオ信号に復号するためのビデオ通信システムを提供する。前記システムはエンコーダとデコーダとを備える。エンコーダは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含む第1の完全フレームのビット・ストリームの第1の部分を形成するための完全フレーム・エンコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを規定する仮想フレーム・エンコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備え、デコーダは、ビット・ストリームの第1の部分から第1の完全フレームを復号するための完全フレーム・デコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して、ビット・ストリームの第1の部分から第1の仮想フレームを形成するための仮想フレーム・デコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備える。
完全フレーム・エンコーダはフレーム予測器を含むことが好ましい。
第8の態様によれば、本発明は、ビット・ストリームを発生するためにビデオ信号を符号化するためのビデオ・エンコーダを含んでいるビデオ通信端末を提供する。前記ビデオ・エンコーダは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含む第1の完全フレームのビット・ストリームの第1の部分を形成するための完全フレーム・エンコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて少なくとも第1の仮想フレームを規定する仮想フレーム・エンコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備える。
完全フレーム・エンコーダはフレーム予測器を含むことが好ましい。
第9の態様によれば、本発明は、ビデオ信号を発生するためにビット・ストリームを復号するためのデコーダを含んでいるビデオ通信端末を提供する。デコーダは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含むビット・ストリームの第1の部分から第1の完全フレームを復号するための完全フレーム・デコーダと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して、第1の完全フレームのビット・ストリームの第1の部分から第1の仮想フレームを形成するための仮想フレーム・デコーダと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのフレーム予測器とを備える。
完全フレーム・デコーダはフレーム予測器を含むことが好ましい。
第10の態様によれば、本発明は、ビット・ストリームを発生するためにビデオ信号を符号化するためのビデオ・エンコーダとしてコンピュータを動作させるためのコンピュータ・プログラムを提供する。前記プログラムは、第1の完全フレームの完全再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含むビット・ストリームの第1の部分を形成することにより、第1の完全フレームを符号化するためのコンピュータ実行可能コードと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを規定するためのコンピュータ実行可能コードと、第2の完全フレームの再構成のための情報を含むビット・ストリームの第2の部分を形成し、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームが再構成されるようにする、第2の完全フレームを符号化するためのコンピュータ実行可能コードとを含む。
第11の態様によれば、本発明は、ビデオ信号を発生するためにビット・ストリームを復号するためのビデオ・エンコーダとしてコンピュータを動作させるためのコンピュータ・プログラムを提供する。前記プログラムは、第1の完全フレームの再構成のために、高優先度情報および低優先度情報に優先付けられている情報を含むビット・ストリームの部分から第1の完全フレームを復号するためのコンピュータ実行可能コードと、第1の完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、第1の完全フレームの高優先度情報を使用して構成された第1の完全フレームの1つのバージョンに基づいて第1の仮想フレームを規定するためのコンピュータ実行可能コードと、第1の完全フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいてではなく、第1の仮想フレームおよびビット・ストリームの第2の部分に含まれる情報に基づいて第2の完全フレームを予測するためのコンピュータ実行可能コードとを含む。
好適には、第10および11の態様のコンピュータ・プログラムは、データ記憶媒体上に格納されていることが好ましい。これは携帯用のデータ記憶媒体または装置内のデータ記憶媒体であってよい。上記装置は、携帯機器、たとえば、ラップトップ・コンピュータ、携帯情報端末または携帯電話であってよい。
本発明において「フレーム」という場合、それはフレームの部分、たとえば、1つのフレーム内のスライス、ブロックおよびMBを含むことも意図している。
PFGSと比較して、本発明はより良い圧縮効率を提供する。これはより柔軟なスケーラビリティの階層を備えているからである。PFGSと本発明とが同じ符号化方式の中で存在することが可能である。この場合、本発明はPFGSのベース層の下で動作する。
本発明は仮想フレームの概念を導入する。それはビデオ・エンコーダにおいて作り出される符号化された情報の最重要部分を使用して構成される。この場合、「最重要」という用語は、フレームの正しい再構成に最も強く影響する圧縮されたビデオ・フレームの符号化表示の中の情報を指す。たとえば、ITU−T勧告H.263に従う圧縮されたビデオ・データの符号化において使用されるシンタックス要素の場合には、符号化されたビット・ストリーム内の最重要情報はシンタックス要素間の復号の関係を規定している依存性のルートにより近いシンタックス要素を含むと考えることができる。すなわち、更なるシンタックス要素の復号を可能にするために正しく復号されなければならないシンタックス要素を、圧縮されたビデオ・フレームの符号化された表示における最重要/高優先度情報を表すものと考えることができる。
仮想フレームを使用することによって、符号化されたビット・ストリームの誤り回復力を高める正しい方法が提供される。特に、本発明は動き補償型予測を実行する新しい方法を導入し、その中で仮想フレームを使用して発生された代わりの予測経路が使用される。すでに説明した従来技術の方法においては、完全フレームのみ、すなわち、1つのフレームに対する完全符号化情報を使用して再構成されたビデオ・フレームだけが動き補償のための基準として使用されることに留意されたい。本発明による方法においては、仮想フレームのチェーンが符号化されたビデオ・フレームのより高い重要な情報を使用して構成され、チェーンの内部の動き補償型予測と一緒に使用される。仮想フレームを含んでいる予測経路が符号化されたビデオ・フレームの完全情報を使用する従来の予測経路に対して追加的に用意されている。「完全」という用語は、ビデオ・フレームの再構成において使用するために利用できる情報全体の使用を指すことに留意されたい。
問題のビデオ符号化方式がスケーラブル・ビット・ストリームを発生する場合、「完全」という用語はスケーラブル構造の所与の層に対して提供されるすべての情報を使用することを意味する。さらに、仮想フレームは一般に表示されることが意図されていないことに留意されたい。ある状況においては、それぞれの構成において使用される情報の種類に依存して、仮想フレームは表示に対しては不適切であるか、あるいは表示を行うことはできない場合がある。他の状況においては、仮想フレームは表示に適しているか、あるいは表示できるが、いずれにおいても表示はされず、上記の一般的な用語においてすでに説明したように、動き補償型予測の代わりの手段を提供するためだけに使用される。本発明の他の実施形態においては、仮想フレームを表示することができる。また、異なる種類の仮想フレームの構成を可能にするために異なる方法でビット・ストリームからの情報を優先順位化することができることにも留意されたい。
本発明による方法は、上記従来技術の誤り回復法と比較して多くの利点を有している。たとえば、I0、P1、P2、P3、P4、P5およびP6のフレームのシーケンスを形成するように符号化されている画像のグループ(GOP)を考えると、本発明に従って実施されるビデオ・エンコーダは、INTRAフレームI0から始まる予測チェーンにおいて動き補償型予測を使用してINTERフレームP1、P2およびP3を符号化するようにプログラムすることができる。同時に、エンコーダは一組の仮想フレームI0',P1',P2'およびP3'を発生する。仮想INTRAフレームI0'は、I0を表している高優先度情報を使用して構成され、同様に、仮想INTERフレームP1',P2'およびP3'は完全INTERフレームP1、P2およびP3の高優先度情報をそれぞれ使用して構成され、そして仮想INTRAフレームI0'から始まる動き補償型予測チェーンに形成される。この例においては、仮想フレームは表示されることが意図されてはおらず、そしてエンコーダはそれがフレームP4に達すると、その動き予測基準が完全フレームP3ではなく、仮想フレームP3'として選定されるようにプログラムされている。それ以降のフレームP5およびP6が次にそれぞれの予測基準として完全フレームを使用してP4から予測チェーンの中に符号化される。
この方法は、たとえば、H.263によって提供されている基準フレーム選択モードに似ているように見える可能性がある。しかし、本発明による方法においては、代わりの基準フレーム、すなわち、仮想フレームP3'が従来の参照画像選択方式に従って使用されたことになる代わりの基準フレーム(たとえば、P2)より、フレームP4の予測において使用されることになったであろう基準フレーム(すなわち、フレームP3)にずっとよく似ている。これは、P3'がP3そのものを記述する符号化情報のサブセット、すなわち、フレームP3の復号のために最も重要な情報から実際に構成されることを思い出すことによって容易に正当化することができる。この理由のために、従来の参照画像選択が使用された場合に期待されるより予測誤差の少ない情報が仮想基準フレームの使用に関して必要となる可能性がある。この方法で、本発明は従来の参照画像選択方法に比べて圧縮効率の向上を提供する。
また、予測基準として完全フレームの代わりに仮想フレームを周期的に使用するようにビデオ・エンコーダがプログラムされていた場合、ビット・ストリームに影響する伝送誤りによって生じた受信デコーダにおける目に見えるアーティファクトの累積および伝搬が削減されるか、あるいは防止される確率が高いことに留意されたい。
実効的に、本発明による仮想フレームを使用する方法は、動き補償型予測における予測経路の短縮方法の1つである。上記の予測方式の例においては、フレームP4は、仮想フレームI0'から始まり仮想フレームP1',P2'およびP3'を通って進行する予測チェーンを使用して予測される。「フレーム数に関しての」予測経路の長さは、フレームI0、P1、P2およびP3が使用されることになる従来の動き補償型予測方式の場合と同じであり、P4の誤りのない再構成を保証するために正しく受信されなければならない「ビットの数」は、I0'からP3'までの予測チェーンが、P4の予測において使用される場合に少なくなる。
エンコーダから送信されたビット・ストリームにおける情報の喪失または劣化のために、ある程度の視覚的歪みを伴っている特定のフレーム、たとえば、P2だけを受信側のデコーダが再構成できる場合、デコーダはエンコーダに対して、シーケンス内の次のフレーム、たとえば、P3を仮想フレームP2'に関して符号化するように要求することができる。P2を表している低優先度情報の中に誤りが発生した場合、P2'に関してP3を予測することはシーケンス内のP3およびそれ以降のフレームに対する伝送誤りの伝搬を制限するか、あるいは防止する効果を有する。したがって、予測経路の完全な再初期化の必要性、すなわち、INTRAフレームの更新に対する要求および送信が減少する。これは、INTRA更新要求に応答して完全INTRAフレームの送信がデコーダにおける再構成されたビデオ・シーケンスの表示における望ましくない一時休止につながる可能性がある低ビットレートのネットワークにおいて大きな利点を有する。
上記の利点は本発明による方法が、デコーダに送信されるビット・ストリームの不等誤差防止と組み合わせて使用された場合にさらに高められる可能性がある。「不等誤差防止」という用語は、ここでは符号化されたフレームの関連低優先度情報より、ビット・ストリーム内の誤り回復の程度が高い符号化されたビデオ・フレームの高優先度情報を提供する方法を意味するために使用されている。たとえば、不等誤差防止は、高優先度情報のパケットが喪失しにくいような方法で、高優先度情報および低優先度情報を含むパケットの送信を必要とする可能性がある。したがって、本発明の方法と一緒に不等誤差防止が使用されるとき、ビデオ・フレームの再構成のためにより高い優先度の/より重要な情報が、より正確に受信される可能性がある。結果として、仮想フレームを構成するために必要なすべての情報が誤りなしで受信される確率が高い。したがって、本発明の方法と一緒に不等誤差防止を使用することによって、符号化されたビデオ・シーケンスの誤り回復力がさらに向上することは明らかである。より詳細に説明すると、動き補償型予測に対する基準として仮想フレームを周期的に使用するようにビデオ・エンコーダがプログラムされているとき、仮想基準フレームの誤りのない再構成のために必要なすべての情報がデコーダにおいて正しく受信される確率が高い。したがって、仮想基準フレームから予測された完全フレームが誤りなしで構成される可能性がより高くなる。
また、本発明によって受信されたビット・ストリームの重要度の高い部分が再構成され、ビット・ストリームの重要度の低い部分の喪失または劣化を隠すために使用されるようにすることもできる。これは受け入れ可能な再構成された画像を発生するのにフレームに対するビット・ストリームのどの部分が十分であるかを指定している指示をエンコーダがデコーダに送信することができるようにすることによって実現される。この受け入れ可能な再構成を、伝送誤りまたは喪失の場合に完全な品質の画像を置き換えるために使用することができる。デコーダに対してこの表示を提供するために必要なシグナリングをビデオのビット・ストリームそのものの中に含めるか、あるいは、たとえば、制御チャネルを使用してビデオのビット・ストリームとは別にデコーダに送信することができる。その指示によって提供される情報を使用して、デコーダは、表示のために受け入れ可能な画像を得るために、そのフレームに対する高重要度部分を復号し、低重要度部分をデフォルト値で置き換える。同じ原理を部分画像(スライスなど)に対して、そして複数の画像に対して適用することもできる。この方法で、本発明はさらに誤り隠蔽が明示的な方法で制御されるようにすることもできる。
もう1つの誤り隠蔽の方法においては、実際の参照画像が喪失したか、あるいは劣化して使えなくなった場合に、エンコーダは動き補償型予測のための基準フレームとして使用することができる予備の仮想参照画像を構成する方法の指示をデコーダに提供することができる。
本発明はさらに、従来技術のスケーラビリティ技法より柔軟な新しいタイプのSNRスケーラビリティとして分類することもできる。しかし上記のように、本発明によれば、動き補償型予測のために使用される仮想フレームは、シーケンスの中に現れている未圧縮の画像内容を必ずしも表す必要はない。他方、既知のスケーラビリティ技法においては、動き補償型予測において使用される参照画像はビデオ・シーケンス内の対応している元の(すなわち、未圧縮の)画像を表現する。従来のスケーラビリティ方式におけるベース層とは違って、仮想フレームは表示されることが意図されていないので、デコーダは表示のために許容できる仮想フレームを構成する必要はない。結果として、本発明によって実現される圧縮効率は単層符号化方式に近くなる。
本発明を、添付の図面を参照しながら以下に記述するが、これは単なる例示としてのものにすぎない。
図1乃至17は、上記説明したものである。
本発明を、エンコーダによって実行される符号化手順を示す図18および19、およびエンコーダに対応するデコーダによって実行される復号手順を示す図20を参照して、一組の手順的ステップとして以下により詳しく説明する。図18乃至20に示す手順的ステップは、図16に従ってビデオ伝送システムに実施することができる。
先ず最初に、図18および19によって示されている符号化手順を説明する。初期化のフェーズにおいて、エンコーダはフレーム・カウンタを初期化し(ステップ110)、完全基準フレーム・バッファを初期化し(ステップ112)、仮想基準フレーム・バッファを初期化する(ステップ114)。次にエンコーダは、生の、すなわち、符号化されていない、ビデオ・データを、ビデオ・カメラなどのソースから受信する(ステップ116)。そのビデオ・データはライブ・フィードから発することができる。エンコーダは、現在のフレームの符号化において使用されるべき符号化モード、すなわち、それがINTRAフレームまたはINTERフレームのいずれであるかを示す符号化モードの指示を受信する(ステップ118)。その指示はプリセット符号化方式から来る可能性がある(ブロック120)。その指示はシーン・カット検出器が備えられている場合は、そこからオプションとして来るか(ブロック122)、あるいはデコーダからのフィードバックとして(ブロック124)来る可能性がある。次に、エンコーダは、現在のフレームをINTRAフレームとして符号化するかどうかを決定する(ステップ126)。
その決定が「YES」であった場合、(決定128)、現在のフレームはINTRAフレームのフォーマットで圧縮されたフレームを形成するように符号化される(ステップ130)。
その決定が「NO」であった場合(決定132)、エンコーダはINTERフレーム・フォーマットで現在のフレームを符号化する際の基準として使用されるべきフレームの指示を受信する(ステップ134)。これは所定の符号化方式の結果として決定することができる(ブロック136)。本発明のもう1つの実施形態においては、これはデコーダからのフィードバックによって制御することができる(ブロック138)。これについては後で説明する。識別された基準フレームは完全フレームまたは仮想フレームである可能性があり、したがって、エンコーダは仮想基準が使用されるべきかどうかを決定する(ステップ140)。
仮想基準フレームが使用される場合、それは仮想基準フレーム・バッファから呼び出される(ステップ142)。仮想基準が使用されない場合、完全基準フレームが完全フレーム・バッファから呼び出される(ステップ144)。次に、現在のフレームが生のビデオ・データおよび選択された基準フレームを使用してINTERフレーム・フォーマットで符号化される(ステップ146)。これは完全基準フレームおよび仮想基準フレームがそれぞれのバッファ内に存在することを予め想定している。エンコーダが初期化に続いて第1のフレームを送信している場合、これは、通常、INTRAフレームであり、したがって、基準フレームは使用されない。一般的に、INTRAフォーマットでフレームが符号化されているときは常に基準フレームは不要である。
現在のフレームがINTRAフレーム・フォーマットまたはINTERフレーム・フォーマットのいずれに符号化されているかにかかわらず、次のステップが適用される。符号化されたフレーム・データが優先順位付けられ(ステップ148)、INTERフレームまたはINTRAフレームの符号化のいずれであるかに依存して、特定の優先順位付けが使用されている。その優先順位付けは、符号化されるある画像の再構成に対してそれがどの程度本質的であるかに基づいてデータを低優先度データおよび高優先度データに分割する。このように分割されると、ビット・ストリームが送信のために形成される。ビット・ストリームの形成において、適切なパケット化の方法が使用される。任意の適当なパケット化方式を使用することができる。次にビット・ストリームがデコーダに送信される(ステップ152)。現在のフレームが最後のフレームであった場合、この時点でその手順を終了する(ブロック156)ための決定が行われる(ステップ154)。
現在のフレームがINTER符号化されたフレームであって、シーケンス内の最後のフレームではない場合、現在のフレームを表している符号化された情報が、そのフレームの完全な再構成を形成するために低優先度および高優先度のデータの両方を使用して関連の基準フレームに基づいて復号される(ステップ157)。次に、その完全な再構成が完全基準フレーム・バッファ内に格納される(ステップ158)。現在のフレームを表している符号化された情報が、次に、仮想フレームの再構成を形成するために高優先度データだけを使用して関連の基準フレームに基づいて復号される(ステップ160)。次に、仮想フレームの再構成が仮想基準フレーム・バッファ内に格納される(ステップ162)。他の方法としては、現在のフレームがINTRA符号化フレームであって、シーケンス内の最後のフレームではない場合、基準フレームを使用せずにステップ157および160において適切な復号が実行される。その手順的ステップの組が再びステップ116から始まり、次のフレームが次に符号化されてビット・ストリーム内に形成される。
本発明の1つの代替実施形態においては、上記ステップの順序は異なっている可能性がある。たとえば、初期化のステップは完全基準フレームの再構成および仮想基準フレームの再構成のステップで可能なように、任意の都合のよい順序で発生することができる。
1つの基準から予測されているフレームを説明してきたが、本発明のもう1つの実施形態においては、2つ以上の基準フレームを使用して特定のINTER符号化フレームを予測することができる。これは完全INTERフレームに対して、および仮想INTERフレームに対しての両方に適用される。すなわち、本発明の代替実施形態においては、完全INTER符号化フレームは複数の完全基準フレームまたは複数の仮想基準フレームを有している可能性がある。仮想INTERフレームは複数の仮想基準フレームを有している可能性がある。さらに、1つまたは複数の基準フレームの選択は、符号化される画像の各画像セグメント、マクロブロック、ブロックまたは部分要素ごとに別々に/独立に行うことができる。基準フレームは、エンコーダの中およびデコーダの中の両方においてアクセスできるか、あるいは発生することができる任意の完全フレームまたは仮想フレームであってよい。いくつかの状況においては、Bフレームのケースのように、2つ以上の基準フレームが同じ画像領域に関連付けられ、符号化されるべき領域を予測するために1つの補間様式が使用される。さらに、各完全フレームを、その完全フレームの符号化された情報を分類する異なる方法および/または動き補償のための異なる基準(仮想または完全)画像および/またはビット・ストリームの高優先度部分を復号する異なる方法を使用して構成されたいくつかの異なる仮想フレームに関連付けることができる。
そのような実施形態においては、複数の完全および仮想基準フレーム・バッファがエンコーダおよびデコーダの中に用意されている。
ここで、図20によって示されている復号手順を参照する。初期化段階において、デコーダは、仮想基準フレーム・バッファ(ステップ210)、通常の基準フレーム・バッファ(ステップ211)およびフレーム・カウンタ(ステップ212)を初期化する。次に、デコーダは圧縮された現在のフレームに関連しているビット・ストリームを受信する(ステップ214)。次に、デコーダは現在のフレームがINTERフレーム・フォーマットまたはINTRAフレーム・フォーマットのいずれであるかを判定する(ステップ216)。これは、たとえば、画像ヘッダの中で受信された情報から判定することができる。
現在のフレームがINTRAフレーム・フォーマットであった場合、それはINTRAフレームの完全再構成を形成するために完全ビット・ストリームを使用して復号される(ステップ218)。現在のフレームが最後のフレームであった場合、手順を終了する(ステップ222)ための決定が行われる(ステップ220)。現在のフレームが最後のフレームではないと仮定して、現在のフレームを表しているビット・ストリームが仮想フレームを形成するために高優先度データを使用して復号される(ステップ224)。その新しく構成された仮想フレームが、次に、仮想基準フレーム・バッファ内に格納され(ステップ240)、そこからそれ以降の完全および/または仮想フレームの再構成に関係して使用するためにそれが呼び出される。
現在のフレームがINTERフレーム・フォーマットであった場合、エンコーダにおいてその予測において使用される基準フレームが識別される(ステップ226)。その基準フレームは、たとえば、エンコーダからデコーダへ送信されたビット・ストリーム内に存在するデータによって識別することができる。その識別された基準は完全フレームまたは仮想フレームである可能性がある。したがって、デコーダは仮想基準が使用されるべきであるかどうかを決定する(ステップ228)。
仮想基準が使用される場合、それは仮想基準フレーム・バッファから呼び出される(ステップ230)。それ以外の場合、完全基準フレームは完全基準フレーム・バッファから呼び出される(ステップ232)。これは、通常の、および仮想基準フレームがそれぞれのバッファ内に存在すると予め想定する。デコーダが初期化に続いて第1のフレームを受信しているとき、これは、通常、INTRAフレームであり、したがって、基準フレームは使用されない。一般に、INTRAフォーマットで符号化されたフレームが復号されるときは常に基準フレームは不要である。
現在の(INTER)フレームが次に完全受信ビット・ストリームおよび識別された基準フレームを予測基準として使用して再構成され(ステップ234)、新しく復号されたフレームが完全基準フレーム・バッファ内に格納され(ステップ242)、それを以降のフレームの再構成に関係して使用するために呼び出すことができる。
現在のフレームが最後のフレームである場合、その手順を終了する(ステップ222)ための決定が行われる(ステップ236)。現在のフレームが最後のフレームでないと仮定して、現在のフレームを表しているビット・ストリームが、仮想基準フレームを形成するために高優先度データを使用して復号される(ステップ238)。この仮想基準フレームは次に仮想基準フレーム・バッファ内に格納され(ステップ240)、そこから仮想基準フレームを、それ以降の完全フレームおよび/または仮想フレームの再構成に関連して使用するために呼び出すことができる。
仮想フレームを構成するための高優先度情報の復号は、そのフレームの完全表示を復号するときに使用されるのと同じ復号手順に従う必要は必ずしもないことに留意されたい。たとえば、仮想フレームを表している情報には存在しない低優先度情報を、その仮想フレームを復号することができるようにするためにデフォルト値で置き換えることができる。
上記のように、本発明の1つの実施形態においては、エンコーダにおいて基準フレームとして使用するための完全フレームまたは仮想フレームの選択はデコーダからのフィードバックに基づいて実行される。
図21は、このフィードバックを提供するために図20の手順を変更する追加のステップを示している。図21の追加のステップは図20のステップ214と216との間に挿入される。図20はすでに詳細に説明したので、この追加のステップだけをここで説明する。
圧縮された現在のフレームに対するビット・ストリームが受信されると(ステップ214)、デコーダはそのビット・ストリームが正しく受信されたかどうかをチェックする(ステップ310)。これは一般的な誤りチェックを含み、その後にその誤りの影響度に依存したより多くの特定のチェックが続く。そのビット・ストリームが正しく受信されていた場合、その復号のプロセスは直接にステップ216へ進行することができる。そこでデコーダは現在のフレームがINTRAフレーム・フォーマットで符号化されているか、INTERフレーム・フォーマットで符号化されているかを、図20に関連して説明したように判定する。
ビット・ストリームが正しく受信されていなかった場合、デコーダは次に画像ヘッダを復号することができるかどうかを判定する(ステップ312)。できない場合、デコーダはエンコーダを含んでいる送信側の端末に対してINTRAフレーム更新要求を送出し(ステップ314)、手順はステップ214へ戻る。他の方法としては、INTRAフレーム更新要求を送出する代わりに、デコーダはそのフレームに対するデータのすべてが喪失したことを示すことができ、エンコーダは喪失したフレームを動き補償において参照しないように、この指示に対して反応することができる。
デコーダが画像ヘッダを復号することができる場合、デコーダは高優先度データを復号することができるかどうかを判定する(ステップ316)。できない場合、ステップ314が実行され、手順はステップ214へ戻る。
デコーダが高優先度データを復号することができる場合、それは低優先度データを復号することができるかどうかを判定する(ステップ318)。できない場合、デコーダはエンコーダを含んでいる送信側の端末に現在のフレームの低優先度データではなく、高優先度データに関して予測される次のフレームを符号化するように指示する(ステップ320)。次に、手順はステップ214へ戻る。したがって、本発明によれば、エンコーダに対するフィードバックとして新しいタイプの指示が提供される。特定の実施の詳細によれば、その指示は1つまたはそれ以上の指定された画像の符号語に関連している情報を提供することができる。その指示は受信された符号語、受信されなかった符号語を示すことができるか、あるいは受信されなかった符号語以外に受信された符号語の両方に関する情報を提供することができる。代わりに、その指示は誤りの性質を指定せずに、あるいはどの符号語が影響されたかを指定せずに、誤りが現在のフレームに対する低優先度情報の中で発生したことを示しているビットまたは符号語の形式を単純に取ることができる。
上記指示は、符号化の方法のブロック138に関連して上記フィードバックを提供する。デコーダからの指示を受信すると、エンコーダは、現在のフレームに基づいた仮想基準フレームに関してビデオ・シーケンス内の次のフレームを符号化すべきであることを知る。
上記手順は、エンコーダが次のフレームを符号化する前にそのフィードバック情報を受信することができる十分に短い遅延がある場合に提供される。そうでない場合、特定のフレームの低優先度部分が喪失したことの指示を送信することが好ましい。次に、エンコーダは自分が符号化しようとしている次のフレーム内の低優先度情報を使用しない方法でこの指示に対して反応する。すなわち、エンコーダは、予測チェーンが喪失した低優先度部分を含まない仮想フレームを発生する。
仮想フレームに対するビット・ストリームの復号は、完全フレームに対するビット・ストリームを復号するために使用されるビット・ストリームとは異なるアルゴリズムを使用することができる。本発明の1つの実施形態においては、複数のそのようなアルゴリズムが提供され、特定の仮想フレームを復号するための正しいアルゴリズムの選択がビット・ストリーム内で知らされる。低優先度情報が存在しない場合、それは仮想フレームの復号を可能にするためにいくつかのデフォルト値によって置き換えられるようにすることができる。デフォルト値の選択は変わる可能性があり、正しい選択が、たとえば、前のパラグラフの中で参照した指示を使用することによって、ビット・ストリーム内で知らされるようにすることができる。
図18乃至21の手順を適切なコンピュータ・プログラム・コードの形式で実施することができ、汎用のマイクロプロセッサまたは専用のディジタル信号プロセッサ(DSP)上で実行することができる。
図18乃至21の手順は、符号化および復号に対してフレームごとの方法を使用するが、本発明の他の実施形態においては、実質的にその同じ手順を画像セグメントに対して適用することができることに留意されたい。たとえば、その方法はブロックのグループに対して、スライスに対して、マクロブロックまたはブロックに対して適用することができる。一般に、本発明はブロックのグループ、スライス、マクロブロックおよびブロックだけでなく、任意の画像セグメントに対して適用することができる。
簡略化のために、本発明の方法を使用したBフレームの符号化および復号は説明されなかった。しかし、当業者なら、この方法をBフレームの符号化および復号をカバーするように拡張できることは明らかであるだろう。さらに、本発明の方法はビデオ冗長符号化を採用しているシステムにも適用することができる。すなわち、同期フレームを本発明の実施形態に含めることもできる。仮想フレームが同期フレームの予測の中で使用される場合、その一次表現(すなわち、対応している完全フレーム)が正しく受信された場合にデコーダが特定の仮想フレームを発生する必要はない。たとえば、使用されているスレッドの数が2より大きいときには、同期フレームの他のコピーに対する仮想基準フレームを形成する必要もない。
本発明の1つの実施形態においては、ビデオ・フレームは少なくとも2つのサービス・データ・ユニット(すなわち、パケット)、1つは高重要度、他の1つは低重要度のものの中にビデオ・フレームがカプセル化される。H.26Lが使用されている場合、その低重要度パケットは、たとえば、符号化されたブロック・データおよび予測誤差係数を含むことができる。
図18乃至21において、仮想フレームを形成するために高優先度情報を使用することによってフレームを復号することが記載されている(ブロック160、224および238参照)。本発明の1つの実施形態においては、これは以下のように2つのステージにおいて実際に実行することができる。
1)第1のステージにおいては、1つのフレームの時間的ビット・ストリーム表現が、高優先度情報および、低優先度情報に対するデフォルト値を含んで生成される。
2)第2のステージにおいては、時間的ビット・ストリーム表現が通常復号される。すなわち、すべての情報が利用できるときに実行される復号と同じ方法で行われる。
この方法は本発明の1つの実施形態だけを表していることを理解されたい。何故なら、デフォルト値の選択を調整することができ、仮想フレームに対する復号アルゴリズムは完全フレームを復号するために使用されるのと同じでない可能性があるからである。
各完全フレームから生成することができる仮想フレームの数に対して特に制限はないことに留意されたい。したがって、図18乃至20に関して説明された本発明の実施形態は、仮想フレームの1つのチェーンが生成される1つの可能性だけを表す。本発明の1つの好適な実施形態においては、仮想フレームの複数のチェーンが生成され、各チェーンは異なる方法、たとえば、完全フレームからの異なる情報を使用して発生された仮想フレームを含んでいる。
本発明の1つの好適な実施形態においては、ビット・ストリームのシンタックスは、エンハンスメント層が提供されていない単層の符号化において使用されたシンタックスに似ていることをさらに留意されたい。さらに、仮想フレームは一般には表示されないので、本発明によるビデオ・エンコーダを、問題の仮想基準フレームに関してそれ以降のフレームを符号化し始めるときに1つの仮想基準フレームを発生する方法を決定することができるように実施することができる。すなわち、エンコーダは前のフレームのビット・ストリームを柔軟に使用することができ、フレームをそれらが送信された後であっても符号語の異なる組合せに分割することができる。どの符号語が特定のフレームに対する高優先度情報に属しているかを示している情報を、仮想予測フレームが発生するときに送信することができる。従来技術においては、ビデオ・エンコーダはフレームを符号化している間に、そのフレームの階層型の分割を選定し、その情報が対応しているフレームのビット・ストリーム内で送信される。
図22は、INTRA符号化フレームI0およびINTER符号化フレームP1、P2およびP3を含んでいるビデオ・シーケンスのセクションの復号をグラフィック形式で示している。この図は、図20および図21に関連して説明した手順の効果を示すために提供されており、それから分かるように、トップ・ロウ、ミドル・ロウおよびボトム・ロウを含む。トップ・ロウは再構成されて表示されるフレーム(すなわち、完全フレーム)に対応し、ミドル・ロウは各フレームに対するビット・ストリームに対応し、ボトム・ロウは生成される仮想予測基準フレームに対応する。矢印は、再構成された完全フレームおよび仮想基準フレームを生成するために使用される入力ソースを示す。この図を参照して、フレームI0が対応しているビット・ストリームI0 B−Sから生成され、完全フレームP1に対する受信されたビット・ストリームと一緒に動き補償基準としてフレームI0を使用して再構成されることが分かる。同様に、仮想フレームI0'はフレームI0に対応するビット・ストリームの一部分から生成され、人工的なフレームP1'がP1に対するビット・ストリームの一部分と一緒に動き補償型予測に対する基準としてI0'を使用して生成される。完全フレームP2および仮想フレームP2'はそれぞれフレームP1およびP1'から動き補償型予測を使用して同様な方法で生成される。より詳しく言えば、完全フレームP2は受信されたビット・ストリームP1 B−Sの情報と一緒に動き補償型予測に対する基準としてP1を使用して生成され、一方、仮想フレームP2'はビット・ストリームP1 B−Sの一部分と一緒に、基準フレームとして仮想フレームP1'を使用して構成される。本発明によれば、P3は動き補償基準として仮想フレームP2'を使用し、P3に対するビット・ストリームを使用して生成される。フレームP2は動き補償基準としては使用されない。
図22から、1つのフレームおよびその仮想フレームが、利用できるビット・ストリームの異なる部分を使用して復号されることは明らかである。完全フレームは利用できるビット・ストリームのすべてを使用して構成され、一方、仮想フレームはそのビット・ストリームの一部分だけを使用する。仮想フレームが使用する部分はフレームを復号する際に最も重要であるビット・ストリームの部分である。さらに、仮想フレームが使用する部分は伝送のための誤りに対して最も頑健に保護されており、正しく送信されて受信される確率が最も高いものであることが好ましい。この方法で、本発明は予測符号化チェーンを短縮することができ、そして最も重要な部分およびあまり重要でない部分を使用することによって生成される動き補償基準に基づくのではなく、ビット・ストリームの最も重要な部分から生成される仮想動き補償基準フレームに基づいてフレームを予測する。
データを高優先度および低優先度に分ける必要がない状況がある。たとえば、1つの画像に関連しているデータ全体が1つのパケット内に適合することができる場合、そのデータを分離しない方が好ましい場合がある。この場合、データ全体を仮想フレームからの予測において使用することができる。図22を参照すると、この特定の実施形態においては、フレームP1'が仮想フレームI0'からの予測によって、そしてP1に対するビット・ストリーム情報のすべてを復号することによって構成される。その再構成された仮想フレームP1'はフレームP1に等価ではない。何故なら、フレームP1に対する予測基準がI0であり、一方、フレームP1'に対する予測基準がI0'だからである。したがって、P1'はこのケースにおいても仮想フレームであり、それは高優先度および低優先度に優先順位付けられていない情報を有しているフレーム(P1)から予測される。
本発明の1つの実施形態をここで図23を参照して説明する。この実施形態においては、動きのデータおよびヘッダのデータがビデオ・シーケンスから生成されるビット・ストリーム内の予測誤差データから分離されている。動きのデータおよびヘッダのデータは、動きパケットと呼ばれる伝送パケット内にカプセル化され、予測誤差データは予測誤差パケットと呼ばれる伝送パケット内にカプセル化されている。これはいくつかの連続して符号化された画像に対して行われる。動きパケットは優先度が高く、それらは可能であって必要であるときにはいつでも再送信される。何故なら、デコーダが動きデータを正しく受信する場合には誤り隠蔽の方法がベターだからである。また、動きパケットを使用することは圧縮効率を改善する効果もある。図23に示されている例においては、エンコーダは動きおよびヘッダのデータをPフレーム1〜3から分離し、その情報から動きパケット(M1〜3)を形成する。Pフレーム1〜3に対する予測誤差データは別の予測誤差パケット(PE1,PE2,PE3)内で伝送される。動き補償基準としてI1を使用する他に、エンコーダはI1およびM1〜3に基づいて仮想フレームP1',P2'およびP3'を生成する。すなわち、エンコーダは、I1および予測フレームP1、P2、およびP3の動き部分を復号し、P2'がP1'から予測され、P3'がP2'から予測されるようにする。次に、P3'がフレームP4に対する動き補償基準として使用される。この実施形態においては、仮想フレームP1',P2'およびP3'は予測誤差データを含んでいないので、ゼロ予測誤差(ZPE)フレームと呼ばれる。
図18乃至21の手順がH.26Lに適用されるとき、画像はそれらが画像ヘッダを含むように符号化される。画像ヘッダの中に含まれている情報は、上記分類方式における高優先度情報である。何故なら、画像ヘッダなしでは、画像全体を復号することができないからである。各画像ヘッダは画像タイプ(Ptype)フィールドを含んでいる。本発明によれば、画像が1つまたはそれ以上の仮想基準フレームを使用するかどうかを示すための特定の1つの値が含まれている。Ptypeフィールドの値が1つまたはそれ以上の仮想基準フレームが使用されることを示している場合、その画像ヘッダには基準フレームを発生するための方法に関する情報も提供されている。本発明の他の実施形態においては、使用されるパケット化の種類に依存して、この情報をスライス・ヘッダ、マクロブロック・ヘッダおよび/またはブロック・ヘッダの中に含めることができる。さらに、所与のフレームの符号化に関して複数の基準フレームが使用される場合、その基準フレームのうちの1つまたはそれ以上が仮想フレームであってよい。次のシグナリング方式が使用される。
1.基準フレームを発生するために過去のビット・ストリームのどのフレームが使用されるかの指示が、送信されるビット・ストリーム内に提供される。2つの値が送信される。1つは予測のために使用される時間的に最近の画像に対応し、そしてもう1つは予測のために使用される時間的に最も以前の画像に対応する。当業者であれば、図18乃至20に示されている符号化および復号手順をこの指示を使用するように適当に変更できることは明らかであるだろう。
2.仮想フレームを発生するためにどの符号化パラメータが使用されるかの指示。ビット・ストリームは予測のために使用される最低優先度クラスの指示を搬送することができる。たとえば、ビット・ストリームがクラス4に対応している指示を搬送する場合、その仮想フレームはクラス1、2、3、および4に属しているパラメータから形成される。本発明の代替実施形態においては、もっと一般的な方式が使用され、その中で仮想フレームを構成するために使用される各クラスが個々に示される。
図24は本発明によるビデオ伝送システム400を示す。このシステムは通信用のビデオ端末402および404を含む。この実施形態においては、端末間の通信が示されている。もう1つの実施形態においては、システムは端末からサーバへ、あるいはサーバから端末への通信のために構成することができる。システム400はビット・ストリームの形式でのビデオ・データの双方向伝送を可能にすることが意図されているが、ビデオ・データの一方向伝送だけを可能にすることもできる。簡略化のために、図24に示されているシステム400においては、ビデオ端末402は、送信側の(符号化)ビデオ端末であり、ビデオ端末404は受信側の(復号)ビデオ端末である。
送信側のビデオ端末402は、エンコーダ410とトランシーバ412とを含む。エンコーダ410は、完全フレーム・エンコーダ414と、仮想フレーム・コンストラクタ416と、完全フレームを格納するためのマルチフレーム・バッファ420と、仮想フレームを格納するためのマルチフレーム・バッファ422とを含む。
完全フレーム・エンコーダ414は、完全フレームの符号化された表現を形成し、それはそれ以降の完全再構成のための情報を含んでいる。したがって、完全フレーム・エンコーダ414は図18および19のステップ118乃至146およびステップ150を実行する。より詳細に説明すると、完全フレーム・エンコーダ414はINTRAフォーマット(例えば、図18のステップ128および130に従って)またはINTERフォーマットのいずれかにおいて完全フレームを符号化することができる。特定のフォーマット(INTRAまたはINTER)にフレームを符号化するための決定は、図18のステップ120、122および/または124においてエンコーダに対して提供される情報に従って行われる。INTERフォーマットで符号化される完全フレームの場合、完全フレーム・エンコーダ414は動き補償型予測のための基準として完全フレーム(図18のステップ144および146による)、または仮想基準フレーム(図18のステップ142および146による)のいずれかを使用することができる。
本発明の1つの実施形態においては、完全フレーム・エンコーダ414は所定の方式に従って動き補償型予測のために完全または仮想基準フレームを選択することができる(図18のステップ136による)。他の好適な実施形態においては、完全フレーム・エンコーダ414は、さらに、以降の完全フレームの符号化において仮想基準フレームが使用されるべきであることを指定している指示を受信側のエンコーダからのフィードバックとして受信することができる(図18のステップ138による)。完全フレーム・エンコーダはローカルの復号機能も含み、図19のステップ157に従って完全フレームの再構成されたバージョンを形成する。それは図19のステップ158に従ってマルチフレーム・バッファ420内に格納する。したがって、復号された完全フレームは、ビデオ・シーケンスにおけるそれ以降のフレームの動き補償型予測に対する基準フレームとして使用するのに利用できるようになる。
仮想フレーム・コンストラクタ416は、図19のステップ160および162に従って、完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、完全フレームの高優先度情報を使用して構成された完全フレームの1つのバージョンとして仮想フレームを規定する。より詳しく言えば、仮想フレーム・コンストラクタは低優先度情報のうちの少なくともいくつかが存在しない場合に、完全フレームの高優先度情報を使用して完全フレーム・エンコーダ414によって符号化されたフレームを復号することによって仮想フレームを形成する。次に、その仮想フレームをマルチフレーム・バッファ422の中に格納する。したがって、その仮想フレームはビデオ・シーケンス内のそれ以降のフレームの動き補償型予測に対する基準フレームとして使用するのに利用できるようになる。
エンコーダ410の1つの実施形態によれば、完全フレームの情報は完全フレーム・エンコーダ414において図19のステップ148に従って優先順位付けられる。1つの代替実施形態によれば、図19のステップ148による優先順位付けは仮想フレーム・コンストラクタ416によって実行される。フレームに対する符号化された情報の優先順位付けに関する情報がデコーダに送信される本発明の実施形態においては、各フレームに対する情報の優先順位付けは完全フレーム・エンコーダまたは仮想フレーム・コンストラクタ416のいずれかによって発生する可能性がある。フレームに対する符号化された情報の優先順位付けが完全フレーム・エンコーダ414によって実行される実施例においては、完全フレーム・エンコーダ414はデコーダ404に対するそれ以降の伝送のための優先順位情報を形成することも担当する。同様に、フレームに対する符号化情報の優先順位付けが仮想フレーム・コンストラクタ416によって実行される実施形態においては、仮想フレーム・コンストラクタ416はデコーダ404に対する伝送のために優先順位付け情報を形成することも担当する。
受信側のビデオ端末404はデコーダ423とトランシーバ424とを含む。デコーダ423は完全フレーム・デコーダ425と、仮想フレーム・デコーダ426と、完全フレームを格納するためのマルチフレーム・バッファ430と、仮想フレームを格納するためのマルチフレーム・バッファ432とを含む。
完全フレーム・デコーダ425は完全フレームの完全再構成のための情報を含んでいるビット・ストリームから完全フレームを復号する。完全フレームはINTRAまたはINTERフォーマットのいずれかで符号化されている可能性がある。したがって、完全フレーム・デコーダは図20のステップ216、218およびステップ226乃至234を実行する。完全フレーム・デコーダは新しく再構成された完全フレームを図20のステップ242に従って、動き補償型予測基準フレームとして将来使用するためにマルチフレーム・バッファ430の中に格納する。
仮想フレーム・デコーダ426は、そのフレームがINTRAまたはINTERフォーマットのどれで符号化されているかに依存して、図20のステップ224または238に従って完全フレームの低優先度情報のうちの少なくともいくつかが存在しない場合に、完全フレームの高優先度情報を使用して完全フレームのビット・ストリームから仮想フレームを形成する。さらに、仮想フレーム・デコーダは、その新しく復号された仮想フレームを図20のステップ240に従って、動き補償型予測基準フレームとして将来使用するためにマルチフレーム・バッファ432の中に格納する。
本発明の1つの実施形態によれば、ビット・ストリームの情報は送信側の端末402のエンコーダ410の中で使用されたのと同じ方式に従って、仮想フレーム・デコーダ426の中でビット・ストリームの情報が優先順位付けられる。1つの代替実施形態においては、受信側の端末404は完全フレームの情報を優先順位付けるためにエンコーダ410の中で使用された優先順位付けの方式の指示を受信する。この指示によって提供された情報が次に仮想フレーム・デコーダ426によって使用され、エンコーダ410の中で使用される優先順位付けが決定され、その後、仮想フレームが形成される。
ビデオ端末402は符号化されたビット・ストリーム434を発生し、それがトランシーバ412によって送信され、適切な伝送媒体上でトランシーバ424によって受信される。本発明の1つの実施形態においては、その伝送媒体は無線通信システムにおけるエア・インターフェースである。トランシーバ424はトランシーバ412に対してフィードバック436を送信する。このフィードバックの性質についてはすでに説明されている。
ZPEフレームを利用したビデオ伝送システム500の動作を以下に説明する。図25に、システム500を示す。システム500は、送信端末510と複数の受信端末512(そのうちの1つだけが示されている)を有し、それらが伝送チャネルまたはネットワーク上で通信する。送信端末510は、エンコーダ514と、パケタイザ516と送信機518とを含む。それはまた、TX−ZPEデコーダ520も含む。各受信端末512は、受信機522と、デパケタイザ524と、デコーダ526とを含む。また、それらはそれぞれRX−ZPEデコーダ528も含む。
エンコーダ514は、未圧縮のビデオを符号化して、圧縮されたビデオ画像を形成する。パケタイザ516は、圧縮されたビデオ画像を伝送用パケット内にカプセル化する。それはエンコーダから得られた情報を再編成することができる。また、動き補償のための予測誤差データを含まないビデオ画像(ZPEビット・ストリームと呼ばれる)も出力する。TX−ZPEデコーダ520は、ZPEビット・ストリームを復号するために使用される通常のビデオ・デコーダである。送信機518は、伝送チャネルまたはネットワーク上でパケットを配信する。受信機522は、伝送チャネルまたはネットワークからパケットを受信する。デパケタイザ524は、伝送パケットを非パケット化し、圧縮されたビデオ画像を生成する。伝送中にいくつかのパケットが喪失していた場合、デパケタイザ524は、圧縮されたビデオ画像の中の喪失を隠そうとする。さらに、デパケタイザ524は、ZPEビット・ストリームを出力する。デコーダ526は、圧縮されたビデオ・ビット・ストリームから画像を再構成する。RX−ZPEデコーダ528は、ZPEビット・ストリームを復号するために使用される通常のビデオ・デコーダである。
エンコーダ514は、パケタイザ516が予測基準として使用されるべきZPEフレームを要求した時以外は普通に動作する。次に、エンコーダ514は、デフォルトの動き補償参照画像を、TX−ZPEデコーダ520によって配信されるZPEフレームへ変更する。さらに、エンコーダ514は、圧縮されたビット・ストリーム内で、たとえば、その画像の画像タイプの中でのZPEフレームの使用を知らせる。
デコーダ526は、ビット・ストリームがZPEフレーム信号を含んでいるときを除いて普通に動作する。次に、デコーダ526は、デフォルトの動き補償参照画像をRX−ZPEデコーダ528によって配信されるZPEフレームへ変更する。
本発明の性能を現在のH.26L勧告の中で規定されている参照画像選択に対して比較して示す。3つの一般に利用できるテスト・シーケンス、すなわち、Akiyo、Coastguard、およびForemanが比較される。そのシーケンスの分解能は、QCIFであり、輝度画像のサイズが176×144ピクセルであり、プロミナンス画像のサイズが88×72ピクセルである。AkiyoおよびCoastguardは、30フレーム/秒で捕捉され、一方、Foremanのフレーム・レートは25フレーム/秒である。そのフレームは、ITU−T勧告H.263に従ってエンコーダによって符号化された。異なる方法を比較するために、一定のターゲット・フレーム・レート(10フレーム/秒)および一定個数の画像量子化パラメータが使用された。スレッド長Lは、動きパケットのサイズが1400バイトより少ないように選択された(すなわち、1つのスレッドに対する動きデータが1400バイトより少ない)。
ZPE−RPSのケースは、フレームI1,M1−L,PE1,PE2,...,PEL、P(L+1)(ZPE1−Lから予測された)、P(L+2),...,を有し、一方、通常のRPSのケースは、フレームI1,P1,P2,...、PL,P(L+1)(I1から予測された),P(L+2)を有する。2つのシーケンスの中で符号化が異なっている唯一のフレームは、P(L+1)であったが、両方のシーケンスにおけるこのフレームの画像品質は、一定量子化ステップを使用したがために同様であった。以下の表はその結果を示している。
Figure 2013009409
この結果のビットレート増加の列から、ゼロ予測誤差フレームは、参照画像選択が使用されたときに圧縮効率を改善することが分かる。
本発明の特定の実施例および実施形態が説明されてきた。当業者なら、本発明は上記実施形態の詳細には制限されず、本発明の特性から離れることなしに同等な手段を使用した他の実施形態において実施できることは明らかである。本発明の範囲は、添付の特許請求の範囲によってのみ制限される。
ビデオ伝送システムを示す。 INTER(P)画像の予測および双方向に予測される(B)画像を示す。 IPのマルチキャスティング・システムを示す。 SNRスケーラブル画像を示す。 空間的スケーラブル画像を示す。 細粒度スケーラブル符号化における予測の関係を示す。 スケーラブル符号化において使用される従来の予測関係を示す。 漸進的細粒度スケーラブル符号化における予測関係を示す。 漸進的細粒度スケーラビリティにおけるチャネル適応を示す。 従来の時間的予測を示す。 参照画像選択を使用した予測経路の短縮を示す。 ビデオ冗長符号化を使用した予測経路の短縮を示す。 損傷したスレッドを処理しているビデオ冗長符号化を示す。 INTRAフレームの再配置およびINTERフレームの逆方向予測の適用による予測経路の短縮を示す。 INTRAフレームに続く従来のフレーム予測関係を示す。 ビデオ伝送システムを示す。 H.26L TML−4テスト・モデルにおけるシンタックス要素の依存性を示す。 本発明による符号化の手順を示す。(その1) 本発明による符号化の手順を示す。(その2) 本発明による復号手順を示す。 図20の復号手順の変形を示す。 本発明によるビデオ符号化方法を示す。 本発明による別のビデオ符号化方法を示す。 本発明によるビデオ伝送システムを示す。 ZPE画像を利用したビデオ伝送システムを示す。

Claims (1)

  1. デコーダの動作方法であって:
    高優先度または低優先度に優先度が定められているシンタックス要素の第1の組によって記述される、第1の符号化ビデオフレームを受信することと;
    前記第1の組の前記シンタックス要素のうち前記高優先度を有するもののみによって形成され、前記低優先度を有するものは意図的に使われないようにして形成された、第1の符号化仮想ビデオフレームを受信することと;
    前記シンタックス要素の前記第1の組の全てを利用して、第1の基準フレームを復号すると共に、該復号した前記第1の基準フレームをデータ記憶媒体へ保存することと;
    前記第1の組の前記シンタックス要素のうち前記高優先度を有するもののみを利用して、第2の基準フレームを復号すると共に、該復号した前記第2の基準フレームを前記データ記憶媒体へ保存すること、ただし前記第2の基準フレームの復号を、前記第1の符号化ビデオフレームおよび前記第1の符号化仮想ビデオフレームの送信者から提供される情報に基づいて選択されるアルゴリズムによって行なうことと;
    を含む、方法。
JP2012182890A 2000-08-21 2012-08-22 ビデオ符号化方法 Expired - Lifetime JP5398887B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FI20001847 2000-08-21
FI20001847A FI120125B (fi) 2000-08-21 2000-08-21 Kuvankoodaus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002522206A Division JP5115677B2 (ja) 2000-08-21 2001-08-21 ビデオ符号化方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2012264969A Division JP5483774B2 (ja) 2000-08-21 2012-12-04 ビデオ符号化方法
JP2012264970A Division JP5468670B2 (ja) 2000-08-21 2012-12-04 ビデオ符号化方法

Publications (2)

Publication Number Publication Date
JP2013009409A true JP2013009409A (ja) 2013-01-10
JP5398887B2 JP5398887B2 (ja) 2014-01-29

Family

ID=8558929

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2002522206A Expired - Fee Related JP5115677B2 (ja) 2000-08-21 2001-08-21 ビデオ符号化方法
JP2012182890A Expired - Lifetime JP5398887B2 (ja) 2000-08-21 2012-08-22 ビデオ符号化方法
JP2012264970A Expired - Fee Related JP5468670B2 (ja) 2000-08-21 2012-12-04 ビデオ符号化方法
JP2012264969A Expired - Fee Related JP5483774B2 (ja) 2000-08-21 2012-12-04 ビデオ符号化方法
JP2014012059A Pending JP2014131297A (ja) 2000-08-21 2014-01-27 ビデオ符号化方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2002522206A Expired - Fee Related JP5115677B2 (ja) 2000-08-21 2001-08-21 ビデオ符号化方法

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2012264970A Expired - Fee Related JP5468670B2 (ja) 2000-08-21 2012-12-04 ビデオ符号化方法
JP2012264969A Expired - Fee Related JP5483774B2 (ja) 2000-08-21 2012-12-04 ビデオ符号化方法
JP2014012059A Pending JP2014131297A (ja) 2000-08-21 2014-01-27 ビデオ符号化方法

Country Status (8)

Country Link
US (3) US20020071485A1 (ja)
EP (1) EP1314322A1 (ja)
JP (5) JP5115677B2 (ja)
KR (1) KR100855643B1 (ja)
CN (2) CN1478355A (ja)
AU (1) AU2001279873A1 (ja)
FI (1) FI120125B (ja)
WO (1) WO2002017644A1 (ja)

Families Citing this family (179)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6956902B2 (en) * 2001-10-11 2005-10-18 Hewlett-Packard Development Company, L.P. Method and apparatus for a multi-user video navigation system
US20030076858A1 (en) * 2001-10-19 2003-04-24 Sharp Laboratories Of America, Inc. Multi-layer data transmission system
JP4549610B2 (ja) * 2001-11-08 2010-09-22 ソニー株式会社 通信システム、通信方法、送信装置および方法、受信装置および方法、並びにプログラム
JP2005512400A (ja) * 2001-11-30 2005-04-28 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー データ伝送
US7158508B2 (en) * 2001-12-21 2007-01-02 Lucent Technologies Inc. Setting up calls over circuit and packet-switched resources on a network
US6996173B2 (en) * 2002-01-25 2006-02-07 Microsoft Corporation Seamless switching of scalable video bitstreams
US20030151753A1 (en) * 2002-02-08 2003-08-14 Shipeng Li Methods and apparatuses for use in switching between streaming video bitstreams
KR100926845B1 (ko) * 2002-02-01 2009-11-13 파나소닉 주식회사 동화상 복호화 방법, 동화상 복호화 장치 및 데이터 기억 매체
JP4150951B2 (ja) * 2002-02-19 2008-09-17 ソニー株式会社 動画配信システム、動画配信装置および方法、並びにプログラム
US7483487B2 (en) * 2002-04-11 2009-01-27 Microsoft Corporation Streaming methods and systems
US20030202590A1 (en) * 2002-04-30 2003-10-30 Qunshan Gu Video encoding using direct mode predicted frames
US20040057465A1 (en) * 2002-09-24 2004-03-25 Koninklijke Philips Electronics N.V. Flexible data partitioning and packetization for H.26L for improved packet loss resilience
AU2003237289A1 (en) * 2002-05-29 2003-12-19 Pixonics, Inc. Maintaining a plurality of codebooks related to a video signal
EP1547382A4 (en) * 2002-07-16 2013-10-30 Nokia Corp METHOD FOR DIRECT ACCESS AND UNIQUE IMAGE REFRESHING IN VIDEO CODING
US7251241B1 (en) * 2002-08-21 2007-07-31 Cisco Technology, Inc. Devices, softwares and methods for predicting reconstruction of encoded frames and for adjusting playout delay of jitter buffer
US7426306B1 (en) * 2002-10-24 2008-09-16 Altera Corporation Efficient use of keyframes in video compression
MXPA05008405A (es) * 2003-02-18 2005-10-05 Nokia Corp Metodo de descodificacion de imagen.
BRPI0407527B1 (pt) 2003-02-18 2019-04-02 Nokia Technologies Oy Método para armazenar dados de mídia em buffer, método para decodificar o fluxo de imagem codificado em um decodificador, sistema, dispositivo de transmissão, dispositivo de recepção, sinal, módulo para recepção de fluxo de imagem codificado, processador, codificador e decodificador.
US20070121719A1 (en) * 2003-09-29 2007-05-31 Koninklijke Philips Electronicss N.V. System and method for combining advanced data partitioning and fine granularity scalability for efficient spatiotemporal-snr scalability video coding and streaming
DE10353793B4 (de) * 2003-11-13 2012-12-06 Deutsche Telekom Ag Verfahren zur Verbesserung der Wiedergabequalität bei paketorientierter Übertragung von Audio-/Video-Daten
US20070097987A1 (en) * 2003-11-24 2007-05-03 Rey Jose L Feedback provision using general nack report blocks and loss rle report blocks
US20050201471A1 (en) * 2004-02-13 2005-09-15 Nokia Corporation Picture decoding method
US7296205B2 (en) * 2004-02-18 2007-11-13 Nokia Corporation Data repair
US20050201462A1 (en) * 2004-03-09 2005-09-15 Nokia Corporation Method and device for motion estimation in scalable video editing
US7764737B2 (en) * 2004-03-31 2010-07-27 Sony Corporation Error recovery for multicast of multiple description coded video using restart
US20050249281A1 (en) * 2004-05-05 2005-11-10 Hui Cheng Multi-description coding for video delivery over networks
US8010652B2 (en) * 2004-05-07 2011-08-30 Nokia Corporation Refined quality feedback in streaming services
KR100679011B1 (ko) * 2004-07-15 2007-02-05 삼성전자주식회사 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치
US9201599B2 (en) * 2004-07-19 2015-12-01 Marvell International Ltd. System and method for transmitting data in storage controllers
DE102004038110B3 (de) * 2004-08-05 2005-12-29 Siemens Ag Verfahren zum Codieren und Decodieren, sowie Codier- und Decodiervorrichtung zur Videocodierung
DE102004041664A1 (de) * 2004-08-27 2006-03-09 Siemens Ag Verfahren zum Codieren und Decodieren, sowie Codier- und Decodiervorrichtung zur Videocodierung
US9124907B2 (en) * 2004-10-04 2015-09-01 Nokia Technologies Oy Picture buffering method
WO2006044370A1 (en) * 2004-10-13 2006-04-27 Thomson Licensing Method and apparatus for complexity scalable video encoding and decoding
JP4394558B2 (ja) * 2004-10-14 2010-01-06 富士通マイクロエレクトロニクス株式会社 画像処理装置、画像処理方法および画像処理プログラム
DE102004056447A1 (de) * 2004-11-23 2006-05-24 Siemens Ag Codierverfahren und Decodierverfahren, sowie Codiervorrichtung und Decodiervorrichtung
DE102004061906A1 (de) * 2004-12-22 2006-07-13 Siemens Ag Bildencodierverfahren, sowie dazugehöriges Bilddecodierverfahren, Encodiervorrichtung und Decodiervorrichtung
US8514929B2 (en) * 2005-01-05 2013-08-20 Creative Technology Ltd Combined audio/video/USB device
US7970049B2 (en) * 2005-01-05 2011-06-28 Creative Technology Ltd Method and apparatus for encoding video in conjunction with a host processor
US8780957B2 (en) * 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
US8311088B2 (en) * 2005-02-07 2012-11-13 Broadcom Corporation Method and system for image processing in a microprocessor for portable video communication devices
US9197912B2 (en) * 2005-03-10 2015-11-24 Qualcomm Incorporated Content classification for multimedia processing
ES2336824T3 (es) * 2005-03-10 2010-04-16 Qualcomm Incorporated Arquitectura de decodificador para gestion de errores optimizada en flujo continuo multimedia.
US8693540B2 (en) * 2005-03-10 2014-04-08 Qualcomm Incorporated Method and apparatus of temporal error concealment for P-frame
US7925955B2 (en) * 2005-03-10 2011-04-12 Qualcomm Incorporated Transmit driver in communication system
US20090129467A1 (en) * 2005-04-08 2009-05-21 Agency For Science, Technology And Research Method for Encoding at Least One Digital Picture, Encoder, Computer Program Product
KR100703774B1 (ko) * 2005-04-13 2007-04-06 삼성전자주식회사 인트라 코딩을 선택적으로 적용하여 인트라 bl 예측모드의 비디오 신호를 인코딩 및 디코딩하는 방법 및 장치
WO2006109985A1 (en) * 2005-04-13 2006-10-19 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding video signals in intra-base-layer prediction mode by selectively applying intra-coding
US9043724B2 (en) 2005-04-14 2015-05-26 Tektronix, Inc. Dynamically composed user interface help
US8032719B2 (en) 2005-04-14 2011-10-04 Tektronix International Sales Gmbh Method and apparatus for improved memory management in data analysis
US8194739B2 (en) * 2005-08-26 2012-06-05 Thomson Licensing Trick play using temporal layering
JP2009507450A (ja) * 2005-09-07 2009-02-19 ヴィドヨ,インコーポレーテッド 高信頼性基本層トランクに関するシステムおよび方法
US8229983B2 (en) 2005-09-27 2012-07-24 Qualcomm Incorporated Channel switch frame
US8879635B2 (en) * 2005-09-27 2014-11-04 Qualcomm Incorporated Methods and device for data alignment with time domain boundary
US8670437B2 (en) 2005-09-27 2014-03-11 Qualcomm Incorporated Methods and apparatus for service acquisition
WO2007044556A2 (en) * 2005-10-07 2007-04-19 Innovation Management Sciences, L.L.C. Method and apparatus for scalable video decoder using an enhancement stream
US8948260B2 (en) * 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US8654848B2 (en) 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
US20070206117A1 (en) * 2005-10-17 2007-09-06 Qualcomm Incorporated Motion and apparatus for spatio-temporal deinterlacing aided by motion compensation for field-based video
US20070171280A1 (en) * 2005-10-24 2007-07-26 Qualcomm Incorporated Inverse telecine algorithm based on state machine
US20070097205A1 (en) * 2005-10-31 2007-05-03 Intel Corporation Video transmission over wireless networks
JP2009518981A (ja) 2005-12-08 2009-05-07 ヴィドヨ,インコーポレーテッド ビデオ通信システムでのエラー回復力およびランダムアクセスのためのシステムおよび方法
FR2895172A1 (fr) * 2005-12-20 2007-06-22 Canon Kk Procede et dispositif de codage d'un flux video code suivant un codage hierarchique, flux de donnees, procede et dispositif de decodage associes
US8436889B2 (en) 2005-12-22 2013-05-07 Vidyo, Inc. System and method for videoconferencing using scalable video coding and compositing scalable video conferencing servers
KR20080089633A (ko) * 2006-01-09 2008-10-07 노키아 코포레이션 스케일러블 비디오 부호화에서 에러 회복 모드 결정
WO2007081140A1 (en) * 2006-01-09 2007-07-19 Lg Electronics Inc. Inter-layer prediction method for video signal
US7852853B1 (en) * 2006-02-07 2010-12-14 Nextel Communications Inc. System and method for transmitting video information
US8665967B2 (en) * 2006-02-15 2014-03-04 Samsung Electronics Co., Ltd. Method and system for bit reorganization and packetization of uncompressed video for transmission over wireless communication channels
US8693538B2 (en) * 2006-03-03 2014-04-08 Vidyo, Inc. System and method for providing error resilience, random access and rate control in scalable video communications
US9131164B2 (en) * 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
US20070237234A1 (en) * 2006-04-11 2007-10-11 Digital Vision Ab Motion validation in a virtual frame motion estimator
MX2008013185A (es) * 2006-05-03 2008-10-21 Ericsson Telefon Ab L M Metodo y aparato para la reconstruccion de medios a partir de una representacion de medios.
US8363724B2 (en) * 2006-07-11 2013-01-29 Thomson Licensing Methods and apparatus using virtual reference pictures
CA2662812C (en) 2006-09-29 2014-02-11 Vidyo, Inc. System and method for multipoint conferencing with scalable video coding servers and multicast
WO2008042874A2 (en) * 2006-10-03 2008-04-10 Qualcomm Incorporated Method and apparatus for processing primary and secondary synchronization signals for wireless communication
WO2008053029A2 (en) * 2006-10-31 2008-05-08 Gottfried Wilhelm Leibniz Universität Hannover Method for concealing a packet loss
US20090180546A1 (en) * 2008-01-09 2009-07-16 Rodriguez Arturo A Assistance for processing pictures in concatenated video streams
US8416859B2 (en) * 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US20080115175A1 (en) * 2006-11-13 2008-05-15 Rodriguez Arturo A System and method for signaling characteristics of pictures' interdependencies
US8875199B2 (en) 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8873932B2 (en) 2007-12-11 2014-10-28 Cisco Technology, Inc. Inferential processing to ascertain plural levels of picture interdependencies
WO2008061164A2 (en) 2006-11-14 2008-05-22 Qualcomm Incorporated Systems and methods for channel switching
JP2010510725A (ja) * 2006-11-15 2010-04-02 クゥアルコム・インコーポレイテッド チャネル切り替えフレームを用いたアプリケーションのシステム及び方法
US8175041B2 (en) * 2006-12-14 2012-05-08 Samsung Electronics Co., Ltd. System and method for wireless communication of audiovisual data having data size adaptation
KR100884400B1 (ko) * 2007-01-23 2009-02-17 삼성전자주식회사 영상처리장치 및 그 방법
US8553757B2 (en) * 2007-02-14 2013-10-08 Microsoft Corporation Forward error correction for media transmission
WO2008126059A2 (en) * 2007-04-17 2008-10-23 Nokia Corporation Feedback based scalable video coding
US8958486B2 (en) 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
US8804845B2 (en) 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US20090103635A1 (en) * 2007-10-17 2009-04-23 Peshala Vishvajith Pahalawatta System and method of unequal error protection with hybrid arq/fec for video streaming over wireless local area networks
CN101420609B (zh) * 2007-10-24 2010-08-25 华为终端有限公司 视频编码、解码方法及视频编码器、解码器
US8416858B2 (en) * 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
WO2009113924A1 (en) * 2008-03-12 2009-09-17 Telefonaktiebolaget Lm Ericsson (Publ) Device and method for adaptation of target rate of video signals
US8176524B2 (en) 2008-04-22 2012-05-08 Samsung Electronics Co., Ltd. System and method for wireless communication of video data having partial data compression
FR2932050B1 (fr) * 2008-06-03 2010-05-21 Canon Kk Procede et dispositif de transmission de donnees video
WO2009152450A1 (en) 2008-06-12 2009-12-17 Cisco Technology, Inc. Picture interdependencies signals in context of mmco to assist stream manipulation
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US8705631B2 (en) 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
JP5197238B2 (ja) * 2008-08-29 2013-05-15 キヤノン株式会社 映像送信装置、その制御方法、および制御方法を実行するプログラム
US8385404B2 (en) * 2008-09-11 2013-02-26 Google Inc. System and method for video encoding using constructed reference frame
US8326075B2 (en) 2008-09-11 2012-12-04 Google Inc. System and method for video encoding using adaptive loop filter
US8804821B2 (en) * 2008-09-26 2014-08-12 Microsoft Corporation Adaptive video processing of an interactive environment
US20100091841A1 (en) * 2008-10-07 2010-04-15 Motorola, Inc. System and method of optimized bit extraction for scalable video coding
KR101590633B1 (ko) 2008-11-11 2016-02-02 삼성전자주식회사 슬라이스 단위로 분할된 동영상을 처리하는 동영상 부호화/복호화장치 및 동영상 부호화/복호화방법
US8761266B2 (en) * 2008-11-12 2014-06-24 Cisco Technology, Inc. Processing latticed and non-latticed pictures of a video program
CN101754001B (zh) * 2008-11-29 2012-07-04 华为技术有限公司 视频数据优先级确定方法、装置和系统
FR2939593B1 (fr) * 2008-12-09 2010-12-31 Canon Kk Procede et dispositif de codage video
KR101155587B1 (ko) * 2008-12-19 2012-06-19 주식회사 케이티 전송에러 복원을 위한 장치 및 방법
US20100199322A1 (en) * 2009-02-03 2010-08-05 Bennett James D Server And Client Selective Video Frame Pathways
US8909806B2 (en) * 2009-03-16 2014-12-09 Microsoft Corporation Delivering cacheable streaming media presentations
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
EP2257073A1 (en) * 2009-05-25 2010-12-01 Canon Kabushiki Kaisha Method and device for transmitting video data
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US8184142B2 (en) * 2009-06-26 2012-05-22 Polycom, Inc. Method and system for composing video images from a plurality of endpoints
KR101712098B1 (ko) * 2009-09-04 2017-03-03 삼성전자 주식회사 구문 요소에 기초한 비트스트림 생성 방법 및 장치
US8213506B2 (en) * 2009-09-08 2012-07-03 Skype Video coding
US9237387B2 (en) 2009-10-06 2016-01-12 Microsoft Technology Licensing, Llc Low latency cacheable media streaming
GB2476271B (en) * 2009-12-17 2015-09-02 Skype Coding data streams
CN101753270B (zh) * 2009-12-28 2013-04-17 杭州华三通信技术有限公司 一种编码发送方法和装置
US20110222837A1 (en) * 2010-03-11 2011-09-15 Cisco Technology, Inc. Management of picture referencing in video streams for plural playback modes
KR20110124161A (ko) * 2010-05-10 2011-11-16 삼성전자주식회사 계층 부호화 영상의 송수신 방법 및 장치
US8503528B2 (en) 2010-09-15 2013-08-06 Google Inc. System and method for encoding video using temporal filter
WO2012050832A1 (en) 2010-09-28 2012-04-19 Google Inc. Systems and methods utilizing efficient video compression techniques for providing static image data
CA2810899C (en) 2010-10-05 2016-08-09 General Instrument Corporation Coding and decoding utilizing adaptive context model selection with zigzag scan
US9532059B2 (en) 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
CN102026001B (zh) * 2011-01-06 2012-07-25 西安电子科技大学 基于运动信息的视频帧重要性评估方法
EP2686849A1 (en) * 2011-03-18 2014-01-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Frame element length transmission in audio coding
US8938001B1 (en) 2011-04-05 2015-01-20 Google Inc. Apparatus and method for coding using combinations
US8780996B2 (en) 2011-04-07 2014-07-15 Google, Inc. System and method for encoding and decoding video data
US9154799B2 (en) 2011-04-07 2015-10-06 Google Inc. Encoding and decoding motion via image segmentation
US8780971B1 (en) 2011-04-07 2014-07-15 Google, Inc. System and method of encoding using selectable loop filters
US8781004B1 (en) 2011-04-07 2014-07-15 Google Inc. System and method for encoding video using variable loop filter
US8638854B1 (en) 2011-04-07 2014-01-28 Google Inc. Apparatus and method for creating an alternate reference frame for video compression using maximal differences
US8989256B2 (en) 2011-05-25 2015-03-24 Google Inc. Method and apparatus for using segmentation-based coding of prediction information
US8891616B1 (en) 2011-07-27 2014-11-18 Google Inc. Method and apparatus for entropy encoding based on encoding cost
US9264717B2 (en) * 2011-10-31 2016-02-16 Qualcomm Incorporated Random access with advanced decoded picture buffer (DPB) management in video coding
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
US9503222B2 (en) * 2011-12-08 2016-11-22 Qualcomm Technologies, Inc. Differential formatting between normal and retry data transmission
LT2811745T (lt) * 2012-01-30 2018-12-10 Samsung Electronics Co., Ltd. Būdas ir aparatas vaizdo kodavimui ir dekodavimui hierarchinių duomenų vieneto pagrindu, apimantys kvantinio parametro prognozę
AU2013215198A1 (en) * 2012-01-31 2014-08-28 Vid Scale, Inc. Reference picture set (RPS) signaling for scalable high efficiency video coding (HEVC)
US8930601B2 (en) * 2012-02-27 2015-01-06 Arm Limited Transaction routing device and method for routing transactions in an integrated circuit
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
US11039138B1 (en) 2012-03-08 2021-06-15 Google Llc Adaptive coding of prediction modes using probability distributions
CA2870680C (en) 2012-04-16 2019-11-26 Samsung Electronics Co., Ltd. Method and apparatus for determining reference picture set of image
WO2013162980A2 (en) 2012-04-23 2013-10-31 Google Inc. Managing multi-reference picture buffers for video data coding
US9609341B1 (en) 2012-04-23 2017-03-28 Google Inc. Video data encoding and decoding using reference picture lists
US20130287100A1 (en) * 2012-04-30 2013-10-31 Wooseung Yang Mechanism for facilitating cost-efficient and low-latency encoding of video streams
US9014266B1 (en) 2012-06-05 2015-04-21 Google Inc. Decimated sliding windows for multi-reference prediction in video coding
US9781447B1 (en) 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
US9774856B1 (en) 2012-07-02 2017-09-26 Google Inc. Adaptive stochastic entropy coding
JP5885604B2 (ja) * 2012-07-06 2016-03-15 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
US9118744B2 (en) * 2012-07-29 2015-08-25 Qualcomm Incorporated Replacing lost media data for network streaming
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US9167268B1 (en) 2012-08-09 2015-10-20 Google Inc. Second-order orthogonal spatial intra prediction
US9344742B2 (en) 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9369732B2 (en) 2012-10-08 2016-06-14 Google Inc. Lossless intra-prediction video coding
MX355266B (es) * 2012-12-17 2018-04-12 Thomson Licensing Canales digitales robustos.
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
US9509998B1 (en) 2013-04-04 2016-11-29 Google Inc. Conditional predictive multi-symbol run-length coding
US9756331B1 (en) 2013-06-17 2017-09-05 Google Inc. Advance coded reference prediction
US9392288B2 (en) 2013-10-17 2016-07-12 Google Inc. Video coding using scatter-based scan tables
US9179151B2 (en) 2013-10-18 2015-11-03 Google Inc. Spatial proximity context entropy coding
US9489387B2 (en) * 2014-01-15 2016-11-08 Avigilon Corporation Storage management of data streamed from a video source device
US10567765B2 (en) 2014-01-15 2020-02-18 Avigilon Corporation Streaming multiple encodings with virtual stream identifiers
GB2524726B (en) * 2014-03-25 2018-05-23 Canon Kk Image data encapsulation with tile support
US9591316B2 (en) * 2014-03-27 2017-03-07 Intel IP Corporation Scalable video encoding rate adaptation based on perceived quality
WO2016002493A1 (ja) * 2014-06-30 2016-01-07 ソニー株式会社 ファイル生成装置および方法、並びにコンテンツ再生装置および方法
US9716889B2 (en) * 2014-12-09 2017-07-25 Sony Corporation Intra and inter-color prediction for Bayer image coding
US10798396B2 (en) * 2015-12-08 2020-10-06 Samsung Display Co., Ltd. System and method for temporal differencing with variable complexity
US10142243B2 (en) 2016-09-12 2018-11-27 Citrix Systems, Inc. Systems and methods for quality of service reprioritization of compressed traffic
JP7104485B2 (ja) * 2018-02-20 2022-07-21 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 変動する解像度をサポートしかつ/または領域単位パッキングを効率的に処理するピクチャ/ビデオコーディング
CN110658979B (zh) * 2018-06-29 2022-03-25 杭州海康威视系统技术有限公司 一种数据重构方法、装置、电子设备及存储介质
US11490140B2 (en) 2019-05-12 2022-11-01 Amimon Ltd. System, device, and method for robust video transmission utilizing user datagram protocol (UDP)
CN112449190A (zh) * 2019-09-05 2021-03-05 曙光网络科技有限公司 一种并发视频会话ipb帧图像组的解码方法
CN111953983A (zh) * 2020-07-17 2020-11-17 西安万像电子科技有限公司 视频编码方法及装置
US11503323B2 (en) 2020-09-24 2022-11-15 Tencent America LLC Method and apparatus for inter-picture prediction with virtual reference picture for video coding
CN114490671B (zh) * 2022-03-31 2022-07-29 北京华建云鼎科技股份公司 一种客户端同屏的数据同步系统
CN115348456B (zh) * 2022-08-11 2023-06-06 上海久尺网络科技有限公司 视频图像处理方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07170514A (ja) * 1993-07-13 1995-07-04 At & T Corp ビデオ信号多層符号化と復号化装置
JPH07212761A (ja) * 1994-01-17 1995-08-11 Toshiba Corp 階層符号化装置及び階層復号化装置
JPH08251596A (ja) * 1995-03-10 1996-09-27 Toshiba Corp 動画像符号化/復号化装置
JPH11150730A (ja) * 1997-07-09 1999-06-02 Hyundai Electron Ind Co Ltd 下層と現在層のモードを利用した伸縮型二進映像符号化/復号化方法及び装置
JP2000201351A (ja) * 1998-11-02 2000-07-18 Samsung Electronics Co Ltd ビデオコ―ディング及びデコ―ディング方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5130993A (en) * 1989-12-29 1992-07-14 Codex Corporation Transmitting encoded data on unreliable networks
JP3029914B2 (ja) * 1992-02-10 2000-04-10 富士通株式会社 画像の階層的符号化/復号化装置
JPH06237451A (ja) * 1993-02-10 1994-08-23 Hitachi Ltd 動画通信方式および端末装置
JPH06292171A (ja) * 1993-03-31 1994-10-18 Canon Inc 画像再生装置
JP3356337B2 (ja) * 1993-10-04 2002-12-16 ソニー株式会社 画像処理装置及び画像処理方法
US5515377A (en) * 1993-09-02 1996-05-07 At&T Corp. Adaptive video encoder for two-layer encoding of video signals on ATM (asynchronous transfer mode) networks
CA2127151A1 (en) * 1993-09-21 1995-03-22 Atul Puri Spatially scalable video encoding and decoding
DE19524688C1 (de) * 1995-07-06 1997-01-23 Siemens Ag Verfahren zur Dekodierung und Kodierung eines komprimierten Videodatenstroms mit reduziertem Speicherbedarf
DE19531004C2 (de) * 1995-08-23 1997-09-04 Ibm Verfahren und Vorrichtung zur wahrnehmungsoptimierten Übertragung von Video- und Audio-Daten
JP3576660B2 (ja) * 1995-09-29 2004-10-13 株式会社東芝 画像符号化装置および画像復号化装置
US6094453A (en) * 1996-10-11 2000-07-25 Digital Accelerator Corporation Digital data compression with quad-tree coding of header file
US6043846A (en) * 1996-11-15 2000-03-28 Matsushita Electric Industrial Co., Ltd. Prediction apparatus and method for improving coding efficiency in scalable video coding
KR100221324B1 (ko) * 1996-12-26 1999-09-15 전주범 에이티이엠망에서의 카운터 연동에 의해 정의되는 연결별 프레임을 이용한 동적우선순위 큐 서비스장치
KR100221319B1 (ko) * 1996-12-26 1999-09-15 전주범 에이티이엠망에서의 카운터 연동에 의해 정의되는 연결별 프레임을 이용한 분산제어방식 고정우선순위 큐 서비스장치
KR100221318B1 (ko) * 1996-12-26 1999-09-15 전주범 에이티이엠망에서의 카운터 연동에 의해 정의되는 연결별 프레임을 이용한 고정우선순위 큐 서비스장치 및그 서비스방법
KR100221317B1 (ko) * 1996-12-26 1999-09-15 전주범 에이티이엠망에서의 카운터 연동에 의해 정의되는 연결별 프레임을 이용한 동적우선순위 큐 서비스장치 및 그 서비스방법
JPH10257502A (ja) * 1997-03-17 1998-09-25 Matsushita Electric Ind Co Ltd 階層画像符号化方法、階層画像多重化方法、階層画像復号方法及び装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07170514A (ja) * 1993-07-13 1995-07-04 At & T Corp ビデオ信号多層符号化と復号化装置
JPH07212761A (ja) * 1994-01-17 1995-08-11 Toshiba Corp 階層符号化装置及び階層復号化装置
JPH08251596A (ja) * 1995-03-10 1996-09-27 Toshiba Corp 動画像符号化/復号化装置
JPH11150730A (ja) * 1997-07-09 1999-06-02 Hyundai Electron Ind Co Ltd 下層と現在層のモードを利用した伸縮型二進映像符号化/復号化方法及び装置
JP2000201351A (ja) * 1998-11-02 2000-07-18 Samsung Electronics Co Ltd ビデオコ―ディング及びデコ―ディング方法

Also Published As

Publication number Publication date
JP5398887B2 (ja) 2014-01-29
FI120125B (fi) 2009-06-30
JP2013081217A (ja) 2013-05-02
JP5468670B2 (ja) 2014-04-09
CN1801944B (zh) 2012-10-03
JP5483774B2 (ja) 2014-05-07
WO2002017644A1 (en) 2002-02-28
KR100855643B1 (ko) 2008-09-03
CN1478355A (zh) 2004-02-25
FI20001847A0 (fi) 2000-08-21
CN1801944A (zh) 2006-07-12
AU2001279873A1 (en) 2002-03-04
US20020071485A1 (en) 2002-06-13
EP1314322A1 (en) 2003-05-28
KR20030027958A (ko) 2003-04-07
FI20001847A (fi) 2002-02-22
US20140105286A1 (en) 2014-04-17
US20060146934A1 (en) 2006-07-06
JP2004507942A (ja) 2004-03-11
JP2014131297A (ja) 2014-07-10
JP5115677B2 (ja) 2013-01-09
JP2013081216A (ja) 2013-05-02

Similar Documents

Publication Publication Date Title
JP5468670B2 (ja) ビデオ符号化方法
JP2004507942A5 (ja)
KR100891150B1 (ko) 데이터 전송
JP5341629B2 (ja) ピクチャ復号化方法
Wenger Video redundancy coding in H. 263+
TWI396445B (zh) 媒體資料的傳送/接收方法、編碼器、解碼器、儲存媒體、用於編碼/解碼圖像之系統、電子設備及傳送裝置、以及用於解碼圖像之接收裝置
JP4982024B2 (ja) ビデオ符号化方法
US20060262790A1 (en) Low-delay video encoding method for concealing the effects of packet loss in multi-channel packet switched networks
JP2004507178A (ja) ビデオ信号符号化方法
JP2005522115A (ja) データストリーミングシステムのためのデータ構造
Wang et al. RFC 6184: RTP Payload Format for H. 264 Video

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131022

R150 Certificate of patent or registration of utility model

Ref document number: 5398887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term