JP5913542B2 - 動画像符号化のための方法および構成 - Google Patents

動画像符号化のための方法および構成 Download PDF

Info

Publication number
JP5913542B2
JP5913542B2 JP2014249599A JP2014249599A JP5913542B2 JP 5913542 B2 JP5913542 B2 JP 5913542B2 JP 2014249599 A JP2014249599 A JP 2014249599A JP 2014249599 A JP2014249599 A JP 2014249599A JP 5913542 B2 JP5913542 B2 JP 5913542B2
Authority
JP
Japan
Prior art keywords
input
data
video stream
encoded
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014249599A
Other languages
English (en)
Other versions
JP2015084559A5 (ja
JP2015084559A (ja
Inventor
ジヤン−フランソワ・マツク
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2015084559A publication Critical patent/JP2015084559A/ja
Publication of JP2015084559A5 publication Critical patent/JP2015084559A5/ja
Application granted granted Critical
Publication of JP5913542B2 publication Critical patent/JP5913542B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、動画像符号化のための方法に関する。
音声ストリームまたはビデオストリームなどのマルチメディアストリームの符号化は文献に広く記載されており、いくつかの規格によって標準化されている。ほとんどの動画像符号化規格は、より低いビットレートでのビデオ信号または音声信号の送信を可能にするために開発された高度な圧縮技術について記載しており、一般に、ビデオストリームのシンタックス(syntax)および復号処理のみを指定する。符号化処理そのものは標準化されていないが、ほとんどの既存の符号化器は、処理の大半が符号化関連シンタックス要素を計算することからなるおおよそ同じ参照アーキテクチャに従う。これらは、残余データではなく、イントラ符号化された、それぞれのインター符号化されたマクロブロックのための、イントラ予測モードそれぞれの動きベクトルなどを含む、スライス内の各マクロブロックのスライスヘッダおよびヘッダデータを含むことがあるシンタックス要素を含む。たとえばH.264/AVC動画像符号化規格では、これらのシンタックス要素はカテゴリ2のシンタックス要素と示され、したがって、基礎をなす符号化ストリームの符号化構造を説明するためのシンタックス要素のみを含むが、画素値に関するさらなる情報はない。
ほとんどの従来の符号化器は、さらに、受信した入力ビデオデータから、およびこれらの計算された符号化関連シンタックス要素から、予測された画素ブロックのシーケンスを構築する。これらの予測された画素ブロックは、たとえば入力ビデオストリームの対応するブロックからこれらを減算するかまたはこれらから入力ビデオストリームの対応するブロックを減算することによって処理され、それによって残余画素ブロックのシーケンスを得る。この残余画素ブロックのシーケンスは、通常、処理済みの残余画素データのシーケンスを得るために、さらに変換され、量子化される。たとえばH.264符号化器では、これらの処理済みの残余画素データは、カテゴリ3および4のシンタックス要素に相当する。
これらの処理済みの残余画素データはさらに、符号化関連シンタックス要素と共に、結合されたエントロピー符号化ステップに供される。その結果得られる、符号化済みの残余画素データと符号化済みの符号化関連シンタックス要素を結合することにより、従来の符号化済みのビデオストリームが形成される。
このような符号化方法が普及しているが、符号化器は入力ストリームごとに符号化構造関連シンタックス要素を計算する必要があり、それには大量の処理作業が必要であるので、大量の処理能力が必要とされることに変わりはない。
J.S.McVeighおよびS.−W.Wu、「Partial closed loop versus open loop motion estimation for HDTV compression」、International Journal of Imaging Systems and Technology、第5巻、第4号、1994年、268−275ページ
本発明の目的は、必要な処理能力がより少なく、符号化器の能力効率の向上をもたらす、少なくとも1つのビデオストリームを符号化するための代替の符号化方法について説明することである。
本発明によれば、この目的は、前記少なくとも1つの入力ビデオストリームを受信するステップと、予測された画素ブロックのシーケンスを構築するステップと、処理済みの残余画素データのシーケンスを得るために、前記予測された画素ブロックのシーケンスおよび前記少なくとも1つの入力ビデオストリームの対応するブロックを処理するステップとを含み、
前記予測された画素ブロックのシーケンスが、参照入力データからの入力符号化構造データから構築され、前記入力符号化構造データが、さらに、前記処理済みの残余画素データと共に結合されたエントロピー符号化ステップに供され、それによって少なくとも1つの符号化済みのビデオストリームを得る方法によって達成される。
このようにして、入力符号化構造が単に導出または抽出できる参照入力データを提供し、それから予測された画素ブロックを構築することによって、簡単かつ改良された方法が得られる。これは、この符号化構造が符号化器自体によって計算される必要がなくなり、その代わりに符号化器に直接的に提供されるか、または簡単な抽出または導出を可能にする形で提供されるかのいずれかとなるからである。
結合されたエントロピー符号化ステップは、入力符号化構造および処理済みの残余データのエントロピー符号化ステップと、これに続く、符号化済みの符号化構造と符号化済みの残余データの結合されたステップを含んでもよいし、入力符号化構造と処理済みの残余データの結合されたステップと、これに続く、結合された入力符号化構造および処理済みの残余データのエントロピー符号化ステップを含んでもよいし、このようなアクションの一部の考えられ得る結合からなる他の任意のシーケンスを含んでもよい。
残余画素ブロックの処理は、前記予測された画素ブロックと前記少なくとも1つの入力ビデオストリームの対応するブロックとの差分から残余画素ブロックのシーケンスを生成するステップと、前記残余画素ブロックのシーケンスを変換および量子化し、それによって、前記処理済みの残余画素データのシーケンスを得るステップとを含むことができる。
あるいは、残余画素ブロックの処理は、前記予測された画素ブロック(PPB1、PPB2)と前記少なくとも1つの入力ビデオストリーム(IV1、IV2)の対応するブロックとの差分から残余画素ブロックのシーケンスを生成するステップと、前記処理済みの残余画素データのシーケンスを得るために、残余画素ブロックをフィルタ処理するステップとを含むことができる。
いくつかの実施形態では、参照入力データは、前記参照入力データをエントロピー復号することによって入力符号化構造データが前記参照入力データから導出されるように、符号化済みの入力符号化構造データを含む。
さらに別の変形実施形態は、少なくとも1つの入力ビデオストリームの構成データを入力符号化構造データと比較するステップをさらに含み、データが一致しない場合、前記少なくとも1つの入力ビデオストリームがさらに前処理され、それによって、残余画素ブロックが前記予測された画素ブロックと前記少なくとも1つの更新済みのビデオストリームの対応するブロックとの差分から決定されるように、少なくとも1つの更新済みの入力ビデオストリームを生成する。
これにより、説明の部分でさらに説明されるように、これらの任意選択の構成データが入力ビデオストリーム内に含まれるいくつかの場合では、符号化処理をさらに改良することができる。
さらなる代替方法は、前記予測された画素ブロックの構築中にさらに使用するための、処理済みの残余画素ブロックの逆量子化および逆変換の追加のステップを含む。
これにより、符号化の精度をさらに向上させることができる。
方法は、参照符号化済みのストリームから参照入力データを生成するステップをさらに含むことができる。
この参照符号化済みのストリームは、参照ビデオ入力ストリームを従来の方法で符号化することによって得られることができる。
さらに別の代替方法では、少なくとも1つの入力ストリームは、このような参照ビデオストリームおよび何らかの入力修正データから生成されることができる。これは、1つの参照ストリームからの1つの符号化構造が、このような参照ストリームとそれぞれの入力修正データの結合によってこの参照ストリームから導出された大量のストリームを符号化するために共通して使用できるという利点を有する。結果として得られるこのようなビデオストリームごとに、完全な符号化処理が実施されなければならない従来技術による方法とは対照的に、この方法では、符号化されなければならない参照ストリームは1つのみであり、その符号化構造は、この単一の参照ストリームから導出されるすべてのビデオストリームの符号化に再使用されることができる。これによって、かなりの量の符号化処理能力が節約され、符号化済みのストリームの可能な伝送中には、大量の伝送帯域幅も節約される。結果として得られるこれらの符号化済みのストリームが格納されなければならない場合、必要とされる記憶容量も低減される。
いくつかのビデオストリームを並列で符号化するためのさらに別の変形法では、これらのストリームのうちの1つが参照ストリームとして選択でき、次に、符号化構造がこの参照ストリームから決定され、他のビデオストリームを符号化するためにさらに再使用される。
この場合も、この変形形態は、これらのビデオストリームのそれぞれを別個に符号化する従来技術による解決策に対して処理能力を減少させるという利点を有する。帯域幅および記憶容量の減少という類似の考慮すべき事柄は、前の変形形態と同様に有効である。
本発明は、前述の方法を実施するための符号化器、装置、および構成にも関する。
他の実施形態は、添付の特許請求の範囲に記載される。
特許請求の範囲において使用される用語「結合される(coupled)」は、直接的な接続のみに限定されると解釈されるべきではないことに留意されたい。したがって、表現「デバイスBに結合されたデバイスA」の範囲は、デバイスAの出力がデバイスBの入力に直接的に接続されるデバイスまたはシステムに限定されるべきではない。これは、Aの出力とBの入力の間に経路が存在し、その経路は他のデバイスまたは手段を含む経路であってよいことを意味する。
特許請求の範囲で使用される用語「を備える、を含む(comprising)」は、その後に列挙される手段に限定されると解釈されるべきではないことに留意されたい。したがって、表現「手段AとBとを備えるデバイス」の範囲は、構成要素AおよびBのみからなるデバイスに限定されるべきではない。これは、本発明に関しては、デバイスの関連する構成要素がAおよびBだけであることを意味する。
以下の一実施形態の説明を添付の図面と併せ読めば、本発明の上記およびその他の目的および特徴がより明らかとなり、本発明そのものが最もよく理解されるであろう。
従来技術による符号化器の一実施形態の基本的スキームを示す図である。 本発明による符号化器の一実施形態を示す図である。 本発明による符号化器の一実施形態を示す図である。 本発明による符号化器の一実施形態を示す図である。 本発明による符号化器の一実施形態を示す図である。 本発明による符号化器の別の実施形態を示す図である。 複数の入力ビデオを受信する、本発明による符号化器の他の実施形態を示す図である。 複数の入力ビデオを受信する、本発明による符号化器の他の実施形態を示す図である。 本発明による符号化器の別の実施形態を示す図である。 前の図2から5の実施形態に対する入力として使用され得る参照入力データIREFを生成するための装置の一実施形態Aを示す図である。 図6aに示す装置であるが、たとえばH.264規格による符号化済みのビットストリームが追加のデータ分割機能を使用する特定の場合のための装置の特定の実施形態Bを示す図である。 図5に示す装置Aの一実施形態と図4bに示される符号化器などの符号化器の一実施形態とを含む第1の構成A1の一実施形態を示す図である。 図7に示される第1の構成A1を備える第2の構成A2そのものの一実施形態を示す図である。 図8に示される第2の構成A2を備える第3の構成A3の一実施形態を示す図である。 図7に示される第1の構成A1を備える第4の構成A4の一実施形態を示す図である。 このような第4の構成の代替実施形態A4bを示す図である。
以下は、本発明の原理を例示するに過ぎないことに注目されたい。したがって、本明細書において明示的に説明または図示されていなくても本発明の原理を実施する種々の構成を当業者が考案できることは理解されるであろう。本明細書において記載されるすべての例および条件付きの表現は、主に、本発明の原理と、技術の進歩に対して本発明者が貢献する発想とを読者が理解する助けとなるための教育的な目的となることのみが明確に意図されており、具体的に記載したそれらの例および条件に限定されることなく解釈されるべきである。さらに、本発明の原理、態様、および実施形態、ならびに本発明の具体例に関して述べている本明細書のすべての記載は、本発明の構造的等価物および機能的等価物のいずれをも包含することが意図されている。加えて、そのような等価物は、現在知られている等価物、ならびに将来開発される等価物、すなわち構造に関係なく同じ機能を実施する、開発されるあらゆる要素のいずれをも含むことが意図されている。
本明細書におけるいずれのブロック図も本発明の原理を実施する例示的な回路の概念図を表すことが当業者には理解されよう。同様に、あらゆるフローチャート、流れ図、状態遷移図、擬似コードなどが、コンピュータまたはプロセッサが明示的に示されているかどうかを問わず、コンピュータ可読媒体で実質的に表され、したがってこのようなコンピュータまたはプロセッサにより実行される種々の処理を表すことが理解されるであろう。
本明細書を通して、表記「入力ビデオストリーム」および「出力ビデオストリーム」が、リアルストリーミングビデオの形態を有することができるが(格納された)データファイルに関連することもできる入力データおよび出力データ、またはこれらのあらゆる結合を指すことも理解されよう。したがって、本明細書に記載される実施形態は、オンラインとオフラインの両方でのこれらのビデオデータの符号化およびそれらのあらゆる結合を指す。
本発明による符号化器の実施形態について説明する前に、H.264の従来技術による符号化方法について簡単に説明する。この規格によれば、各ビデオフレームは、それによりさらに分割され、それぞれが16×16画素のブロックであるマクロブロックレベルで符号化される。
マクロブロックは、スライスにグループ化され、並列化または誤り耐性を可能にすることができる。マクロブロックごとに、符号化済みのビットストリームは、第1に、そのマクロブロックの予測を、既に復号済みのマクロブロックに基づいてどのように計算するかを復号器に知らせるデータと、第2に、マクロブロックの画素値を再構成するために復号されて予測に追加される残余データとを含む。各マクロブロックは、マクロブロックの予測が現在のスライス内の再構成済みのマクロブロックに基づいて形成される「イントラ予測」モードか、またはマクロブロックの予測が、参照フレームと呼ばれる既に復号済みのフレームの画素のブロックに基づいて形成される「インター予測」モードのいずれかで符号化される。イントラ予測符号化モードは、現在のスライス内で空間的予測を適用する。このモードでは、符号化されるマクロブロックは、既に符号化され、復号され、および再構成された、現在のスライス内の近傍のサンプルから予測される。イントラ予測モードで符号化されるマクロブロックは、Iタイプのマクロブロックと呼ばれる。インター予測符号化モードは、時間的予測に基づく。このモードでは、符号化されるマクロブロックは、前の参照フレームおよび/または将来の参照フレーム内のサンプルから予測される。インター予測モードで符号化されるマクロブロックは、各サブブロックが単一の参照フレームから予測される場合はPタイプのマクロブロックとすることができ、または各サブブロックが1つまたは2つの参照フレームから予測される場合はBタイプのマクロブロックとすることができる。
デフォルトのH.264の挙動は、ラスタスキャン順(すなわち左から右に線を走査する)にマクロブロックをスライスにグループ化することである。しかし、H.264規格では、さらに、柔軟なマクロブロック順序(以下ではFMOと略される)と呼ばれる別の機能が導入された。FMOは、1つのビデオフレームを複数のスライスグループに分割し、各スライスグループは1組のマクロブロックを含む。このマクロブロックは非連続的な位置にあってよく、フレーム内のどこにあってもよい。
伝送(transport)に関しては、各スライスは、ネットワーク抽象レイヤ(以下ではNALと略される)の1つのユニット内で、デフォルトのモードを使用して伝送されることができる。しかし、H.264/AVC規格には、さらに、スライスの伝送中の誤り耐性を向上させるために、いくつかのNALユニットにまたがる各スライスのデータ分割という追加の機能が記載されている。
いくつかのパーティションにまたがる1つのスライスのデータ分割を行うこの機能によれば、1つのスライスの符号化済みの内容は、3つのNALユニット、すなわちNALユニットパーティションA、NALユニットパーティションB、およびNALユニットパーティションCにわたって分散されることになる。この規格によれば、NALユニットパーティションAは、残余データでないスライス関連シンタックス要素のすべてを表す、そのスライスのカテゴリ2のシンタックス要素を含む。これらのカテゴリ2のシンタックス要素は、イントラ符号化された、それぞれインター符号化されたマクロブロックのための、イントラ予測モードそれぞれの動きベクトルなどを含む、スライス内の各マクロブロックのスライスヘッダおよびヘッダデータを含む。NALユニットパーティションBは、イントラ予測符号化が使用された場合に、対象となるスライスのマクロブロックのイントラ符号化済みの残余データであるカテゴリ3のシンタックス要素を含み、NALユニットパーティションCは、インター符号化が使用された場合に、インター符号化済みの残余データであるカテゴリ4のシンタックス要素を含む。
H.264規格によれば、このデータ分割メカニズムは、復号器復号動作の瞬時リフレッシュ(IDR)ピクチャのスライスを除く、ストリームのいずれのスライスにも適用されることができる。IDRピクチャは、イントラ符号化済みのスライスのみからなり、かつすべての前の参照ピクチャがストリームの以降のピクチャにおけるインターフレーム予測で使用されなくなることを保証するピクチャである。IDRピクチャは、通常、符号化済みのストリームへのアクセスポイントを提供するために、または誤り耐性を増加させるために使用される。
これらのNALユニットは、さらに、元のフレームが表示のために再構成されることを可能にするように、受信したパケットを再び復号するための復号器を含む受信機に向けたネットワーク上での伝送のために、パケットにカプセル化される。
データ分割を使用しない出力ストリームの場合は、符号化規格によって規定されるように、所与のスライスのカテゴリ2、3、および4のシンタックス要素は、同じNALユニットにグループ化される。したがって、同じNALユニットにおいて、符号化構造に関係するシンタックス要素と残余データに関係するシンタックス要素が混在する。データ分割を使用する出力ビットストリームの場合は、所与のスライスでは、カテゴリ2、3、および4のシンタックス要素はそれぞれ、パーティションAのNALユニット、パーティションBのNALユニット、およびパーティションCのNALユニットとそれぞれ識別される異なるNALユニットに入れられる。したがって、符号化済みの残余画素データは、パーティションBのNALユニットおよびパーティションCのNALユニットに含まれ、符号化済みのカテゴリ2のシンタックス要素はパーティションAに含まれる。
図1は、典型的な従来技術による動画像符号化器の主な構成要素を示す。入力ビデオストリームは、未加工の入力ビデオデータ、すなわち画素の色値そのもの、ならびに場合によっては、水平方向および垂直方向の画素数で表現されるフレームサイズ、フレームレート、たとえばYUVまたはRGBの色空間、たとえばYUVが使用される場合に4:2:0または4:4:4と表現されるクロマサンプリングのタイプなどのいくつかの追加入力データを含む。一方、この入力ビデオストリームは、符号化そのものに関連するシンタックス要素を提供するなどのために符号化の判定を行うように構成された「符号化の判定を行う」と示されるモジュールに転送される。H.264ではカテゴリ2のシンタックス要素とも示される、これらのシンタックス要素は、典型的には、シーケンスおよびピクチャのパラメータセット、スライスおよびマクロブロックのヘッダ、ならびにビデオの既に復号済みの部分に基づいて画素データのイントラ予測およびインター予測をどのように構築するかについて後で復号器に知らせるすべての情報のようなデータを含む。これらのシンタックス要素は、さらに、符号化済みのシンタックス要素を提供する、エントロピー符号化と似たような名前のブロックでエントロピー符号化される。他方、入力ビデオストリームは、予測構築モジュールによって提供される予測された画素ブロックと入力ビデオからの対応するブロックとの差分を決定するためのユニットにも転送される。図1で「予測を構築する」と示されるこの予測構築モジュール自体は、これらのシンタックス要素からの予測された画素ブロックの生成を可能にするために、「符号化の判定を行う」モジュールに結合される。
次に、その結果生成される残余画素ブロックが、処理済みの残余画素データを生成するなどのために、変換および量子化と似たような名前のモジュールでさらに変換されて量子化される。
H.264符号化器では、これらの残余画素データは、カテゴリ3および4のシンタックス要素に相当する。
ほとんどの従来技術による符号化器では、ブロックの変換および量子化の計算は順方向に実施されるが、通常は、図1のフィードバックによって示されるように逆方向でも実施される。これらのフィードバックステップは、通常、予測を行う目的で符号化器が同じ組の復号済みのフレームを復号器として必ず使用するために追加される。このような符号化器は、「クローズドループ」符号化器と呼ばれる。この反対は「オープンループ」符号化器であり、これらのフィードバックステップは存在しない。
従来技術による符号化器間での主な差別化要因は、通常、その基盤となる符号化構造を生成するために符号化の判定を行う方法である。その理由は、これが、フレームのタイプ、スライシング、イントラ予測対インター予測の選択、イントラ予測モードの選択、および動きベクトルの計算などを意味するからである。したがって、これらのステップは、一般に、「符号化の判定を行う」ブロック内で実施され、通常、符号化器の複雑さが著しく増す。
符号化に関連するシンタックス要素ならびに符号化済みの残余画素データの両方は、最終的に、入力ビデオストリームから単一の符号化済みのビデオストリームを生成するためにエントロピー符号化されることができる。この結合されたエントロピー符号化(combined entropy encoding)は、通常エントロピー符号化器と結合器Cとを備えるモジュールで実施される。エントロピー符号化は、シンタックス要素ならびに残余画素ブロックの両方を圧縮するための演算を含むものとして理解されたい。これらの演算は、たとえばH.264規格で規定されるような、予測符号化ステップ、可変長符号化(指数ゴロム、CAVLC)ステップ、または算術符号化(CABAC)ステップを含む。これは、シンタックス要素と残余画素ブロックの結合の前または後に実施されることができる。図1に示される実施形態では、エントロピー符号化は結合の前に実施されるが、従来技術による他の符号化器では、この順番は逆である。
H.264符号化器では、この結合されたステップは、前に説明したように、NALユニットへのパケット化をさらに含むことができる。
従来技術によるこれらのかなり複雑な符号化器に対して、本発明による符号化器の一実施形態が図2aに示されている。この実施形態E1は、入力ビデオストリームを受信するための第1の入力端子IN1を含み、したがって、入力ビデオストリームはリアルストリームであってよいが、前に説明したように格納されたファイルであってもよい。この入力ビデオはIV1と示される。図1に関して説明したように、この入力ビデオは、画素の色値そのもの、ならびに場合によっては、水平方向および垂直方向の画素数で表現されるフレームサイズ、フレームレート、たとえばYUVまたはRGBの色空間、たとえばYUVが使用される場合に4:2:0または4:4:4と表現されるクロマサンプリングのタイプなどのいくつかの追加の入力データなどの、同じ未加工のビデオデータを含むことができる。この実施形態E1は、PPB1と示される予測された画素ブロックのシーケンスを構築し、前記予測された画素ブロックのシーケンスを、到来するビデオストリームの対応するブロックと共に処理するようにさらに構成される。実施形態E1では、この処理は、予測された画素ブロックからおよび到来するビデオストリームの対応するブロックからの、RPB1と示される残余画素ブロックのシーケンスの生成と、処理済みの残余画素データのシーケンスを得るための残余画素ブロックの変換および量子化とを含む。しかし、予測された画素ブロックおよび入力ビデオストリームの対応するブロックから処理済みの残余画素データを得るための他の方法が可能である。従来技術による符号化器との違いは、この実施形態E1はここで、IREFと示される参照入力データを受信するための、INRefと示される追加の入力端子を備え、IREFから、IESDと示される入力符号化構造データが導出または取得されることである。図2aの実施形態では、IREFは、入力されたIREFがIESDを得るためにさらなる処理に供される必要がないように、このような入力符号化構造を含んでいるに過ぎない。この入力符号化構造データは次に、予測された画素ブロックの構築に使用されるが、これにより、前に説明した従来技術による符号化器の複雑さと比較して複雑さがかなり低減する。符号化構造は、予測画素ブロックが解釈される基礎となる追加の入力と見なされるので、従来技術による「符号化の判定を行う」ブロックで実施されるビデオシーケンスの詳細な解析は必要なくなる。それによって、符号化処理の複雑さが著しく低減される。
図2aに示されるように、残余画素ブロックRPB1は、フィルタ処理ステップまたは変換および量子化ステップにさらに供されることができる。次に、処理済みの残余画素データQRPD1が、入力符号化構造データIESDと共に、CEEと示される結合されたエントロピー符号化モジュールに提供される。CEEは、図2aの実施形態では、後に結合されたモジュールCが続くエントロピー符号化モジュールを備える。ただし、CEEの他の実施形態が可能であり、後にエントロピー符号化モジュールが続く結合されたモジュールを備えてもよいし、エントロピー符号化がたとえばデータの別個の部分に対して順次または並列に実施される場合、このようなモジュールのシーケンスまたはセットを備えてもよい。
図1に関して前に言及したように、エントロピー符号化は、シンタックス要素ならびに残余画素ブロックの両方を圧縮するための演算を含むものとして理解されたい。これらの演算は、たとえばH.264規格で規定されるような、予測符号化ステップ、可変長符号化(指数ゴロム、CAVLC)ステップ、または算術符号化(CABAC)ステップを含む。これは、符号化構造データと残余画素ブロックの結合の前または後に実施されることができる。
処理済みの残余画素データのエントロピー符号化は、ERPD1と示される符号化済みの残余画素データを生じ、入力符号化済みの構造データIESDのエントロピー符号化は、EIESDと示される符号化済みの入力符号化済みの構造データを生じる。両者の結合により、符号化済みの出力ビデオストリームIV1が最終的に得られる。
参照入力データIREFは、データのストリームとして、または単独のデータファイルとして、またはこれらの結合として提供されることができる。このような参照入力データの例も、本明細書の後述の段落で提示され、説明される。
さらに、本明細書で説明されるすべての実施形態では、すべての図面において「バッファリングされた画素データ」で示されるバッファへの画素データの格納およびこのバッファからの画素データの提供を制御するために、適切なバッファ管理回路および制御が存在することが理解されることに注目されたい。バッファ管理技術は当業者によく知られており、これらの技術は本発明の実施形態を理解するためには必要でないので、これらの制御モジュールは、不必要に図面を複雑にしないようにするために図示されない。
前述のように、符号化済みのビデオストリームEV1を最終的に得るための入力ビデオストリームIV1の符号化のすべてのステップは、単一のプロセッサによって実施されることもできる。
図1の従来技術による符号化器と比較すると、図2aの実施形態は、逆量子化および逆変換の復号フィードバックループをもはや備えていない。このオープンループアーキテクチャは、復号器における品質変動をもたらすことがあるが、符号化が十分に高いビットレート/品質動作点で実施されるとき、品質に対する影響は小さいことが示されている(たとえばJ.S.McVeighおよびS.−W.Wu、「Partial closed loop versus open loop motion estimation for HDTV compression」、International Journal of Imaging Systems and Technology、第5巻、第4号、1994年、268−275ページを参照されたい)。さらに、インターフレーム予測連鎖(inter−frame prediction chain)を破壊するので、ビットストリームに定期的に挿入されるIDRピクチャは、符号化側および復号側で使用される参照フレームの再同期点として使用されることもでき、したがって、連続するフレームにわたる品質変動の伝播を制限する。
図2bおよび図2cは、符号化器E2およびE3といういくつかの変形実装形態を示す。この両方の実施形態では、参照入力データIREFは、EIESDと示される、符号化済みの形態をとる入力符号化構造を含み、したがって、IREFは、予測された画素ブロックの構築に使用できる入力符号化構造データIESDを得るためにエントロピー復号されなければならない。両方の変形形態では、このエントロピー復号は、EDIと示されるモジュールによって実施される。復号済みの入力符号化構造データIESDは、図2cの実施形態に示されるように、処理済みの残余画素データQRPD1と共に追加の結合されたエントロピー符号化に供されてもよく、または符号化済みの符号化入力構造EIESDを含む参照データは、図2bの実施形態に示されるように、このような結合されたエントロピー符号化モジュールCEEの結合されたモジュールCに直接に提供されることができる。
図2dは、代替の結合されたエントロピー符号化モジュールCEEを有する一実施形態E4を示す。したがって、まず、入力符号化構造データIESDが処理済みの残余画素ブロックQRPB1と結合されてから、結合されたデータのエントロピー符号化を行うことができる。
図3は、逆量子化および逆変換というフィードバックステップを実施するためのモジュールを有する符号化器E5の一実施形態を示す。これらは、等価な復号済みの残余画素ブロックを生成するように構成され、この復号済みの残余画素ブロックは、次に、予測された画素ブロックPPBに追加され、復号済みの画素データDPDを生成し、DPDは一時的にバッファリングまたは格納される。図3のこのクローズドループの実施形態は、品質変動をさらに防ぐので、図2a−図2cのオープンループの実施形態より堅牢である。
図4aおよび図4bは、それぞれの入力端子IN1およびIN2で受信されるIV1およびIV2と示される2つの入力ビデオストリームを符号化するための符号化器の実施形態を示す。図4aに示される実施形態E6では、参照入力データIREFは、入力符号化構造データIESDを得るために最初にエントロピー復号されるべきエントロピー符号化済みの入力構造データEIESDを含む。このデータは、入力ビデオストリームIV1とIV2の両方のための予測された画素ブロックの構築に共通して使用され、それから抽出された量子化パラメータも共通して使用される。ビデオストリームIV1およびIV2のためのそれぞれの符号化済みの残余画素データERPD1およびERPD2は、それぞれの出力端子OUT1およびOUT2に提供する目的でそれぞれの符号化済みの出力ビデオストリームEV1およびEV2を得るなどのために、それぞれの結合されたモジュールC1およびC2において入力符号化構造データIESDと結合される。
図4bに示される実施形態E7では、参照入力データIREFは、符号化されていない入力符号化構造データIESDを含み、したがってIESDは、さらに復号しなくても容易に使用されることができる。図2aの実施形態E1と同様に、この入力符号化構造IESDは、それぞれの符号化済みの残余画素データERPD1およびERPD2と結合される前にエントロピー符号化される必要がある。しかし、結合されたエントロピー符号化モジュールCEEの他の実施形態では、エントロピー符号化と結合の順序を逆転させてもよい。
入力ビデオストリームごとに符号化の判定を事前に行わなければならず、かつ、それから予測された画素ブロックが構築可能な従来技術の状況と比較して、説明した実施形態E1からE7は、入力符号化構造が外部から提供され、それぞれの入力ビデオストリームの予測された画素ブロックを構築するために共通して使用されるということによって著しく簡略化されている。
参照入力データIREFは、たとえば既に符号化済みのビデオストリームから推測または導出可能な符号化構造を含むこともできるし、入力ビデオストリーム構造の先験的知識に基づくデータを含むこともできる。何らかの形態で入力符号化構造データを含む参照入力データの生成については、後述の段落で説明する。
図5に示される実施形態E8などのいくつかの実施形態では、符号化品質は、任意選択で入力ビデオストリーム内に含まれるビデオメタデータのすべてまたは一部が入力符号化構造データと一致するかどうかの確認をまず実施することによってさらに改善されることができる。比較されるべきメタデータは、たとえば水平方向および垂直方向の画素数で表現されるフレームサイズ、フレームレート、色空間、クロマサンプリングのタイプ、および符号化されるべき入力ビデオシーケンスのフレームの数などの構成データを含むことができる。これらのデータが入力ビデオストリームに存在する場合、これらのデータは、好ましくは、IREFによって提供される入力符号化構造データに埋め込まれるデータに類似していなければならない。そうでない場合、これらの制約を満たすために、空間スケーリング、色空間変換、クロマフォーマット変換、およびフレームレートの変換、またはいくつかのサブシーケンスにおける細分化(fractioning)(いずれもよく知られている最新技術による)などの特殊な前処理演算は、今まで通り前処理ステップとして入力ビデオストリームIV1に対して行われることができる。したがって、実施形態E8は、入力ビデオストリームIV1内で提供されるこれらの構成パラメータまたはその一部が入力符号化構造データと矛盾しないことを検証するように構成された、「比較」と示される比較モジュールを備える。この実施形態は、このようなメタデータが提供される場合に好ましいことがあり、そうでない場合は符号化器の前述の実施形態も使用できることに注目されたい。構成データが入力符号化構造データと一致する場合、たとえば図2a−図2dの実施形態に示されるように、入力ビデオストリームは、さらに符号化される。そうでない場合、「前処理」と示される追加の前処理モジュールが使用される。この前処理モジュールでは、入力ビデオストリームが、まず、前処理済みまたは更新済みのビデオストリームを得るために前述の最新の変換を使用して画素領域で前処理され、次に、図2a−図2dに示される他の演算に投入される。図5に示される実施形態では、比較モジュールから前処理モジュールへの矢印によって示される制御信号c1は、プリプロセッサに、入力ビデオIV1に対してこれらの演算を実施するかどうかを通知する。前処理が必要とされない場合、したがってこれは入力ビデオストリームがこのような構成データのいずれも含まない場合でもあり得るが、プリプロセッサは、したがって、入力ビデオストリームを出力するだけである。前処理が必要な場合は、それに応じて前処理が実施される。前処理済みのビデオストリームまたは元のビデオストリームそのもののいずれかを表すこの前処理モジュールからの出力は、UIV1と示される。この更新済みのビデオストリームからの更新済みの画素データは、次に、予測された画素ブロックPPB1を構築するために、入力符号化構造データと共に使用される。
もちろん、この変形法を実現するための多数の他の実施形態が可能である。
前述のように、本発明による符号化器の実施形態は、符号化済みのまたは符号化されていない符号化構造入力データを含む参照入力データに対し機能することができ、入力INRefにおいて、参照データIREFが既に符号化されているかどうかを確認するために、さらに解析に基づいてIREFから適切な符号化構造IESDを選択、抽出、または導出するために、いくつかの追加の解析手段を備えてもよい。
性能をさらに向上させるために、入力参照ストリームIREFがI_PCMマクロブロックを含まないことが推奨される場合がある。これはまた、これらの特定の符号化器実施形態では、追加の解析および補正モジュールによって必要に応じて確認および補正されることができる。当業者であれば、このようなモジュールを用意することができる。
本発明による符号化器のさらに別の実施形態は、前述の実施形態のうちの1つを、図1に関して説明したような最新の符号化メカニズムと結合させることができる。一例として、このような一実施形態は、スライスごとに、たとえば図3に関して説明した方法によりそのスライスの残余データをまず計算し、そのスライスの予測された画素ブロックに加えた後、フィードバックステップによって計算された、得られた復号済みのスライスを、入力ビデオ内の同じスライスと比較するように構成されることができる。たとえばピーク信号対雑音比(PSNR)を使用して測定された、元のスライスに対する復号済みのスライスの品質が特定のしきい値を下回る場合、元のスライスは、品質のより優れた符号化済みのスライスを生じる新しい符号化構造を計算するために、図1の符号化器などの最新の符号化器にリダイレクトされることができる。この場合、そのスライスのための出力符号化構造は、入力として提供された符号化構造ではなく、この新しい符号化構造からなる。最新の符号化器と前の実施形態に示される符号化器の間のこの切り換えの判定は、より粗い粒度たとえばフレームレベルもしくはシーケンスレベルにおいて、または、より細かい粒度たとえばマクロブロックレベルにおいて、行われることもできることに留意されたい。後者の場合、マクロブロックの符号化構造が修正されると、同じスライス内のそれ以降のすべてのマクロブロックでは、この修正されたマクロブロックに依存するすべてのシンタックス要素も再計算および再符号化される必要があることに留意されたい。これは、たとえば量子化パラメータQP、動きベクトル、およびイントラ符号化モードの予測符号化により、またはコンテキストベースの適応型符号化方式により符号化されるシンタックス要素のためのコンテキストの変化により、生じることがある。
符号化構造データを含む参照入力データIREFは、多数の方法で生成され、符号化器に提供されることができる。本明細書では、3つの可能性について説明するが、多くの他の可能性を想定することが可能である。
第1の可能性は、以前に符号化済みの参照ビデオストリームの符号化構造データを使用することである。好ましくは、この参照ストリームの空間的および時間的な構造が、符号化されるべき1つまたは複数のビデオストリームの空間的および時間的な構造と類似していなければならない。しかし、そうでない場合であっても、入力ビデオストリームの符号化は、機能上の問題が発生することなく依然として行われることができ、圧縮率またはPSNR忠実度(fidelity)が最適でないことがあり得る。このような符号化済みの参照ビデオストリームEVREFから符号化構造データを導出するための装置Aの一実施形態が図6aに示されている。この装置Aは、この符号化済みの参照ビデオストリームEVREFを受信し、さらにエントロピー復号するように構成され、さらに符号化済みのデータをパースまたは解析し、その結果、フィルタは、その後、符号化構造に関するシンタックス要素を残余画素データから分離するなどのために、これらのすべてのシンタックス要素を抽出することができる。パーシングまたは解析は、フィルタそのものによって実施されることもでき、したがって、このための別個のモジュールは示されていない。次に、このようにフィルタ処理された入力符号化構造データまたはストリームIESDが、前に説明した符号化器の実施形態のための入力参照データIREFとして容易に使用されることができる。任意選択で、これらのデータのこのような圧縮または符号化が他の目的で必要である場合、入力符号化構造データIESDは、エントロピー符号化の追加のステップによって再び圧縮されることができる。その結果得られるデータは、EIESDと示される。
図6bは、以前に符号化済みの参照ビデオストリームEVREFhから参照入力データIREFを導出するために使用するのに適切なこのような装置のための代替実施形態Bを示す。この以前の符号化は、たとえばH.264規格による追加のデータ分割機能を使用して実施された。以前にデータ分割を行っているので、符号化済みの参照ビデオストリームEVREFhは、NALパーティションBおよびCからNALパーティションAのパケットを分離するために、NALユニットレベルでフィルタ処理されるだけでよい。フィルタ演算の前にエントロピー復号が必要とされないが、NALユニットAパーティションは、EIESDhと示される符号化済みの入力符号化構造データを依然として含んでいることに注目されたい。したがって、参照入力データIREFは、符号化済みの入力符号化構造データを含み、この符号化済みの入力符号化構造データは、好ましくは次に、図2bおよび図2cに示される符号化器などの符号化器の実施形態に提供される。これは、これらの符号化器が、IREFから入力符号化構造データIESDを導出するための追加のエントロピー復号器を備えているからである。
別の可能性は、符号化されるべき入力ビデオストリームの構造の先験的知識から入力符号化構造データIESDを直接的にさらに作成することである。この知識そのものは、符号化済みのビデオを使用する応用例に関連する。たとえば、このような応用例が、たとえば明確に定義された窓において画素がどのようにピクチャにグループ化されるか、およびこれらのグループがそれ以降のピクチャ内でどのように空間的に変化するかに関する何らかの知識を既に提供する場合、この情報は、応用例によって与えられるビデオモデルの精度に応じてビデオストリームそのものの圧縮に使用できる符号化構造データまたはストリームに容易に変換されることができる。これは、所与の応用例でビデオが均等色の背景上を移動するロゴであると仮定される単純な例によって説明されることができる。さらに、このロゴは、画像の縁と平行な矩形の形状を有し、16の倍数である幅と高さとを有すると仮定される。さらに、ピクチャ内におけるロゴの経時的な変位が知られており、ロゴは、どの時点においても、完全な(full)マクロブロックにまたがるように位置すると仮定されるが、これは、16の倍数である寸法が仮定されているので可能である。最後に、ロゴは第1行のマクロブロックまたは第1列のマクロブロックを決して覆わないと仮定される。したがって、ロゴまたは背景色そのものとは無関係に、ビデオ構造のこの仮定される知識をこの符号化構造に次のように変換する符号化構造データが生成されることができる:
− 第1のピクチャでは、第1(左上)のマクロブロック色の背景色を背景の残りに伝播するためにイントラ符号化モードが使用され、ロゴによって覆われるセットマクロブロックでは、任意のイントラ符号化モードおよびQP値が使用される。ロゴの画素値が前もって知られていないので、この段階では、ロゴマクロブロックの圧縮効率は低い可能性が高い。
− 以降のピクチャでは、前のピクチャに対するロゴの動きが知られており、常に16の倍数と表現できるので、各マクロブロックは、完全に、背景またはロゴの初期マクロブロックのうち1つのいずれかの中にある。したがって、各マクロブロック全体に対して単一のP−スライスおよびすべての動きベクトルが前もって計算できるので、第2のフレームからの各フレームは符号化されることができる。
本発明による符号化器の実施形態は、多数の応用例を有する。第1の応用例は図7に示されており、符号化済みの参照ストリームEVREFに基づいて1つまたはいくつかの入力ビデオストリームIV1およびIV2を符号化するための構成A1を示す。この参照符号化済みのストリームは、まず、これから参照入力符号化構造IESDを抽出するための図5に示される装置の一実施形態に提供される。IESDは、たとえば図4bに示される符号化器などの符号化器E7の一実施形態に入力参照データIREFとして提供される。図4bに関して説明したように、この符号化器の実施形態は、IV1およびIV2に対するそれぞれの符号化済みの残余データを生成するように構成され、その後、それぞれの符号化済みの出力ビデオストリームIV1およびIV2を生成および提供するなどのために、符号化済みの残余データを符号化済みの入力符号化構造とそれぞれ結合させる。
別の応用例は、第2の構成A2を示す図8に示されており、第2の構成A2は、前の段落で説明した第1の構成A1と、ETと示される追加の従来の符号化器とを含む。この従来技術による従来の符号化器は、従来技術による符号化方法により参照ビデオストリームまたは参照ビデオデータVREFを符号化し、符号化済みの参照ビデオストリームEVREFを第1の構成A1に提供するように構成される。A1は、次に、2つの入力ビデオストリームIV1およびIV2を符号化し、それぞれEV1およびEV2と示される符号化済みの出力ストリームを最終的に提供することができる。
図9は、前の図に示される第2の構成の一実施形態A2そのものを組み込む、第3の構成の一実施形態A3を示す。この第3の構成は、参照入力ビデオストリームVREF、ならびにそれぞれデルタ1およびデルタ2と示されるそれぞれの入力修正データ入力を受信するように構成される。これらの軽微な修正は、画素レベルで参照ストリームVREFに追加または結合されると、それぞれの入力ビデオストリームIV1およびIV2となる。デルタ1およびデルタ2は、IV1およびIV2において導出するなどのためにVREFの画素値をどのように変更するかを説明すると考えられることができる。典型的には、デルタ1およびデルタ2は、VREFのどの画素の位置が修正されるべきかおよびIV1およびIV2を得るためにVREFの対応する画素値がどのように変更されるべきかを説明する、事前に指定された形式による命令のリストを含むことができる。これらの命令は、たとえば、修正されるべきVREFの画素のリストとして表現されてよく、このリストでは、このような画素ごとに、たとえば元の画素値に追加される(またはこれから減算される)べき画素値によって、または元の画素値と置換する必要がある新しい画素値によって、修正が説明される。あるいは、他のいくつかの場合では、画素の位置は、リストより簡潔な方法で表現されることができる。たとえば、修正されるべき画素が、画像の辺と平行な辺を有する方形領域にグループ化されている場合、それらの画素の位置は、その方形の左上および右下の画素の位置によって説明されることができる。同様に、さらに別の場合では、画素値を修正する命令は、何らかの画素範囲またはフレーム全体に対して適用されるべきコントラスト、照度などの変化に関連する情報をフィルタ処理する何らかの全体像として表現でき、または、定義された画素範囲を、その画素範囲に一致する解像度を有する所与の動画像または静止画像で置換することを意味してもよい。この動画像または画像のデータはまた、その場合、デルタ1またはデルタ2に含まれる。前述の可能性の結合も可能である。このような状況は、たとえば、たとえば小さなロゴ、ピクチャインピクチャ(PiP)ビデオ、またはアニメーション化されたオブジェクトが元のビデオシーケンスの上に個別に追加される軽度のパーソナライゼーションの応用例で生じ、元のビデオシーケンスはこの場合、参照ビデオストリームと考えられることができる。その結果生成されるビデオストリームIV1およびIV2は、参照ストリームVREFと大きく異なることはないので、EVREFからの符号化構造IESDは、生成されるIV1およびIV2ビデオストリームを符号化するために効率的な圧縮を提供することに変わりはない可能性が高い。
変形の応用例は、たとえば何らかの商標名またはロゴの外観を見えないようにするためのビデオシーンの小さな一部の追加またはマスキングに関する。どのような参照入力ビデオであるかに応じて、デルタは、参照ビデオがロゴを含まない場合はロゴ、または別のロゴなどの何らかの隠蔽情報、または他の場合ではロゴを明示的に見えないようにするためにロゴが存在した画素値をどのように隠すかを詳細に示す命令のいずれかを含む。
ウォータマーキングは、画素領域に適用できる軽度かつ原理上は視覚的に知覚できない修正の別の例である。たとえばIPTVのシナリオでは、ウォータマーキングによって、セットトップボックスで受信されたビデオストリームに基づいて加入者を一意に識別することが可能である。しかし、この場合は、加入者ごとにパーソナライズされたバージョンのビデオストリームを再符号化することは必要でない。少なくともバージョンを使用することにより、個々のストリームのパーソナライゼーションは、一意の時間的なパターンに従ってあるバージョンから別のバージョンに切り換えることによって得られることができる。IDRピクチャは、そのような切り換え点の当然の候補である。
図10aおよび図10bは、さらに、別の応用例を実現するための第4の構成の実施形態A4およびA4bをそれぞれ示す。この構成は、複数の入力ビデオストリームを受信するように構成される。図10aおよび図10bに示される両方の実施形態では、簡単にするため、かつ不必要に図面を複雑にしないようにするために、2つの入力ビデオストリームIV1およびIV2のみが示されているが、この構成はまた、3つ以上の入力ビデオストリームを受信するのに特に適している。これらの実施形態は、入力ビデオストリームのうち1つを参照ストリームとして選択するために、Sと示される選択モジュールを備え、この参照ストリームは、次に、従来の符号化器ETによって従来の方法で符号化される。示された両方の実施形態では、第1の入力ビデオIV1が参照ストリームとして選択される。EV1Tと示される参照符号化済みのストリームは、次に、他のストリームIV2のように、第1の構成A1に提供される。図10bの実施形態では、符号化済みの参照ストリームEV1Tは、構成の出力符号化済みのストリームEV1として直接的に提供される。図10aの実施形態では、EV1Tはまた、本明細書で説明する方法に従ってモジュールCEEで結合されたエントロピー符号化に再び供される前に、エントロピー復号される。
このような第4の構成の実施形態は、たとえばステレオビューまたはマルチビューの映像の圧縮に使用されることができる。たとえば立体視に基づく3次元映像または自由視点映像を使用する応用例では、典型的には、同じ物体またはシーンのいくつかのビューを取り込まなければならない。たとえば、立体視では、2つの映像は、典型的には、互いに非常に近い。広範囲の視点にわたる複数のビデオストリームを取り込むとき、種々のストリームは、典型的には、互いに近い視点を有するストリームのクラスタにグループ化されることができる。近い視点を有する2つ以上のビデオストリームを格納または伝送するとき、従来技術による方法では、種々のビューを個別に圧縮および格納/伝送し、その結果、複雑さおよび格納/伝送コストは符号化されるべきビューの数に対して直線的に変化するので、コストは高額になる。この第4の構成は、まずビデオストリームのうち1つのみを符号化し、次に選択された符号化済みのストリームの符号化構造を再使用して、他のビデオストリームを効率的に符号化するステップを含む代替形態を提供する。これにより、後者のストリームの符号化の複雑さが大幅に減少し、すべてのストリームが格納/伝送媒体上で同じ符号化構造を共有することが可能になる。特に、NALユニットAパーティションが共有できるH.264の応用例では、これは、非常にコスト効果の高い解決策である。
本発明の原理を特定の装置に関して上記で説明してきたが、本明細書は例として挙げられているに過ぎず、添付の特許請求の範囲において定義される本発明の範囲を限定するものではないことを明確に理解されたい。

Claims (17)

  1. 少なくとも1つのビデオストリーム(IV1、IV2)を符号化するための方法であって、
    前記少なくとも1つの入力ビデオストリーム(IV1、IV2)を受信するステップと、
    予測された画素ブロックのシーケンス(PPB1、PPB2)を構築するステップと、
    処理済みの残余画素データのシーケンス(QRPD1、QRPD2)を得るために、前記予測された画素ブロックのシーケンス(PPB1、PPB2)および前記少なくとも1つの入力ビデオストリーム(IV1、IV2)の対応するブロックを処理するステップと
    を含み、
    前記予測された画素ブロックのシーケンス(PPB1、PPP2)が、参照入力データ(IREF)からの入力符号化構造データ(IESD)から構築され、前記入力符号化構造データが符号化構造データを含むが、残余画素データを含まず、前記入力符号化構造データ(IESD)が、さらに、前記処理済みの残余画素データ(QRPD1、QRPD2)と共に結合されたエントロピー符号化ステップに供され、それによって少なくとも1つの符号化済みのビデオストリーム(EV1、EV2)を得る、方法。
  2. 前記処理が、前記予測された画素ブロック(PPB1、PPB2)と前記少なくとも1つの入力ビデオストリーム(IV1、IV2)の対応するブロックとの差分から残余画素ブロックのシーケンス(RPB1、RPB2)を生成するステップと、前記残余画素ブロックのシーケンス(RPB1、RPB2)を変換および量子化し、それによって、前記処理済みの残余画素データのシーケンス(QRPD1、QRPD2)を得るステップとを含む、請求項1に記載の方法。
  3. 前記参照入力データ(IREF)をエントロピー復号することによって入力符号化構造データ(IESD)が前記参照入力データ(IREF)から導出されるように、前記参照入力データ(IREF)が、符号化済みの入力符号化構造データ(EIESD)を含む、請求項1または2のいずれかに記載の方法。
  4. 前記少なくとも1つの入力ビデオストリーム(IV1)の構成データを前記入力符号化構造データ(IESD)と比較するステップをさらに含み、データが一致しない場合、前記少なくとも1つの入力ビデオストリーム(IV1)がさらに前処理され、それによって、残余画素ブロックが前記予測された画素ブロック(PPB1)と前記少なくとも1つの更新済みのビデオストリームの対応するブロックとの差分から決定されるように、少なくとも1つの更新済みの入力ビデオストリーム(UIV1)を生成する、請求項1から3のいずれかに記載の方法。
  5. 前記参照入力データ(IREF)を符号化済みの参照ビデオストリーム(EVREF、EVREFh)から抽出するステップをさらに含む、請求項1から4のいずれかに記載の方法。
  6. 前記符号化済みの参照ビデオストリーム(EVREF)を提供するために、参照ビデオストリーム(VREF)を符号化するステップをさらに含む、請求項5に記載の方法。
  7. 前記少なくとも1つの入力ビデオストリーム(IV1、IV2)が、前記参照ビデオストリーム(VREF)および入力修正データ(デルタ1、デルタ2)から生成される、請求項6に記載の方法。
  8. 複数のビデオストリーム(IV1、IV2)を符号化するための方法であって、前記符号化済みの参照ビデオストリームを得るためにさらに符号化される前記参照ビデオストリーム(VREF)として前記ビデオストリーム(IV1、IV2)のうちの1つを選択し、それによって他のビデオストリームが請求項5に従ってさらに符号化されるステップを含む、方法。
  9. 少なくとも1つのビデオストリーム(IV1、IV2)を符号化するための符号化器(E1−E8)であって、前記少なくとも1つの入力ビデオストリーム(IV1、IV2)を受信するための少なくとも1つの入力端子(IN1、IN2)を含み、予測された画素ブロックのシーケンス(PPB1、PPB2)を構築し、前記予測された画素ブロックのシーケンス(PPB1、PPB2)および前記少なくとも1つの入力ビデオストリーム(IV1、IV2)の対応するブロックを処理し、それによって処理済みの残余画素データのシーケンス(QPRD1、QPRD2)を得るようにさらに構成され、
    参照入力データ(IREF)を受信するための追加の入力端子(INRef)をさらに含み、前記参照入力データ(IREF)からの入力符号化構造データ(IESD)から前記予測された画素ブロックのシーケンス(PPB1、PPB2)を構築し、前記入力符号化構造データが符号化構造データを含むが、残余画素データを含まず、前記参照入力データ(IREF)を前記処理済みの残余画素データ(QPRD1、QPRD2)と結合してエントロピー符号化し、それによって、自らの少なくとも1つの出力端子(OUT1、OUT2)に提供するための少なくとも1つの符号化済みのビデオストリーム(EV1、EV2)を生成するようにさらに構成された、符号化器。
  10. エントロピー符号化器と結合器(C;C1、C2)とをさらに備える、請求項9に記載の符号化器(E1−E8)。
  11. 前記予測された画素ブロック(PPB1、PPB2)と前記少なくとも1つの入力ビデオストリーム(IV1、IV2)の対応するブロックとの差分から残余画素ブロックのシーケンス(RPB1、RPB2)を生成することによって、前記予測された画素ブロック(PPB1、PPB2)および前記少なくとも1つの入力ビデオストリーム(IV1、IV8)の対応するブロックを処理し、前記残余画素ブロックのシーケンス(RPB1、RPB2)を変換および量子化し、それによって前記処理済みの残余画素データのシーケンス(QRPD1、QRPD2)を得るようにさらに構成される、請求項9または10に記載の符号化器(E1−E8)。
  12. 前記参照入力データ(IREF)が、符号化済みの入力符号化構造データ(EIESD)を含み、前記符号化器(E2)が、前記入力符号化構造データ(IESD)を生成する目的で前記参照入力データ(IREF)をエントロピー復号するためのエントロピー復号器(ED1)をさらに備える、請求項9に記載の符号化器(E2、E3、E4、Ε6)。
  13. 前記少なくとも1つの入力ビデオストリーム(IV1)の構成データを前記入力符号化構造データ(IESD)と比較し、データが一致しない場合、前記少なくとも1つの入力ビデオストリーム(IV1)を前処理し、それによって、前記残余画素ブロック(PPB1)が前記予測された画素ブロックと前記少なくとも1つの更新済みの入力ビデオストリーム(UIV1)の対応するブロックとの差分から決定されるように少なくとも1つの更新済みの入力ビデオストリーム(UIV1)を生成するようにさらに構成される、請求項9から11のいずれかに記載の符号化器(E8)。
  14. 請求項9から13に記載の符号化器(E1−E8)と、前記符号化器(E1−E8)に提供するための符号化済みの参照ビデオストリーム(EVREF、EVREFh)から前記参照入力データ(IREF)を抽出するように構成された装置(A、B)とを含む、第1のシステム(A1)。
  15. 請求項14に記載の第1のシステム(A1)と、参照ビデオストリーム(VREF)を符号化して、そのようにして得られた符号化済みの参照ストリーム(EVREF)を前記第1のシステム(A1)に提供するなどするための符号化器(ET)とを備える、第2のシステム(A2)。
  16. 請求項15に記載の第2のシステム(A2)を備え、前記入力参照ビデオストリーム(VREF)から、および前記第2のシステム(A2)に提供するための入力修正データ(デルタ1、デルタ2)から、前記少なくとも1つの入力ビデオストリーム(IV1、IV2)を生成するための少なくとも1つのビデオ結合手段(VCM1、VCM2)を備える、第3のシステム(A3)。
  17. 複数の入力ビデオストリーム(IV1、IV2)を受信するように構成された第4のシステム(A4;A4b)であって、前記複数の入力ビデオストリーム(IV1、IV2)のうちの一方の入力ビデオストリーム(IV1)を参照ビデオストリームとして選択するための選択手段(S)を備え、前記参照ビデオストリームを符号化し、それによって、前記第4のシステム(A4、A4b)の第1の出力に提供する目的で、および前記第4のシステム内に備えられた請求項14に記載の第1のシステム(A1)に提供する目的で、符号化済みの参照ビデオストリーム(EV1)を生成するための符号化器(ET)をさらに備え、前記第1のシステムが、前記複数の入力ビデオストリーム(IV1、IV2)のうちの他方の入力ビデオストリーム(IV2)を符号化して、他の符号化済みのビデオストリーム(EV2)を前記第4のシステム(A4、A4b)の他の出力に提供するようにさらに構成されている、第4のシステム(A4;A4b)。
JP2014249599A 2009-12-21 2014-12-10 動画像符号化のための方法および構成 Active JP5913542B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP09290985.2 2009-12-21
EP09290985A EP2355510A1 (en) 2009-12-21 2009-12-21 Method and arrangement for video coding

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012545267A Division JP2013515416A (ja) 2009-12-21 2010-12-20 動画像符号化のための方法および構成

Publications (3)

Publication Number Publication Date
JP2015084559A JP2015084559A (ja) 2015-04-30
JP2015084559A5 JP2015084559A5 (ja) 2015-09-10
JP5913542B2 true JP5913542B2 (ja) 2016-04-27

Family

ID=41682014

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012545267A Pending JP2013515416A (ja) 2009-12-21 2010-12-20 動画像符号化のための方法および構成
JP2014249599A Active JP5913542B2 (ja) 2009-12-21 2014-12-10 動画像符号化のための方法および構成

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012545267A Pending JP2013515416A (ja) 2009-12-21 2010-12-20 動画像符号化のための方法および構成

Country Status (6)

Country Link
US (1) US20120269265A1 (ja)
EP (1) EP2355510A1 (ja)
JP (2) JP2013515416A (ja)
KR (1) KR101353214B1 (ja)
CN (1) CN102783148B (ja)
WO (1) WO2011076722A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2805511T3 (pl) 2012-01-20 2019-09-30 Sun Patent Trust Sposoby i urządzenie do kodowania i dekodowania wideo przy użyciu predykcji wektora ruchu w czasie
MX2013008942A (es) 2012-02-03 2013-09-12 Panasonic Corp Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
EP2824920A4 (en) 2012-03-06 2016-02-17 Panasonic Ip Corp America VIDEO CODING METHOD, VIDEO CODING METHOD, VIDEO COORDING DEVICE, VIDEO CODING DEVICE AND VIDEO CODING / DECODING DEVICE
FR2990814B1 (fr) * 2012-05-18 2014-05-16 Assistance Tech Et Etude De Materiels Electroniques Procede et systeme de traitement pour generer au moins deux flux video compresses
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07327242A (ja) * 1994-05-31 1995-12-12 Sanyo Electric Co Ltd 立体動画像圧縮符号化装置及び立体動画像復号再生装置
JPH0993583A (ja) * 1995-09-27 1997-04-04 Nec Corp 画像信号符号化装置
JP3519594B2 (ja) * 1998-03-03 2004-04-19 Kddi株式会社 ステレオ動画像用符号化装置
CA2265089C (en) * 1998-03-10 2007-07-10 Sony Corporation Transcoding system using encoding history information
JP2001186543A (ja) * 1999-12-24 2001-07-06 Sanyo Electric Co Ltd データ符号化装置及び復号化装置
JP3963296B2 (ja) * 1999-12-27 2007-08-22 株式会社Kddi研究所 動画像の伝送レート変換装置
JP2001218213A (ja) * 2000-01-31 2001-08-10 Mitsubishi Electric Corp 画像信号変換符号化装置
JP3812269B2 (ja) * 2000-02-24 2006-08-23 日本ビクター株式会社 動画像符号化装置及びその方法
KR100397511B1 (ko) * 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
KR100481732B1 (ko) * 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
EP1365592A3 (en) * 2002-05-20 2005-02-09 Broadcom Corporation System, method, and apparatus for decoding flexibly ordered macroblocks
US8311095B2 (en) * 2002-07-17 2012-11-13 Onmobile Global Limited Method and apparatus for transcoding between hybrid video codec bitstreams
JP4240283B2 (ja) * 2002-10-10 2009-03-18 ソニー株式会社 復号装置及び復号方法
CN1204757C (zh) * 2003-04-22 2005-06-01 上海大学 一种立体视频流编码/解码器及其立体视频编解码系统
US7310371B2 (en) * 2003-05-30 2007-12-18 Lsi Corporation Method and/or apparatus for reducing the complexity of H.264 B-frame encoding using selective reconstruction
US7606308B2 (en) * 2003-09-07 2009-10-20 Microsoft Corporation Signaling macroblock mode information for macroblocks of interlaced forward-predicted fields
KR100987775B1 (ko) * 2004-01-20 2010-10-13 삼성전자주식회사 영상의 3차원 부호화 방법
KR100888962B1 (ko) * 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
WO2006062377A1 (en) * 2004-12-10 2006-06-15 Electronics And Telecommunications Research Institute Apparatus for universal coding for multi-view video
KR101199498B1 (ko) * 2005-03-31 2012-11-09 삼성전자주식회사 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이기록된 기록 매체
JP4874578B2 (ja) * 2005-06-13 2012-02-15 三菱電機株式会社 画像符号化装置
CN101253774B (zh) * 2005-07-18 2011-04-06 韩国电子通信研究院 使用视角时间参考图像缓冲器的预测编码/解码装置及使用其的方法
US8045618B2 (en) * 2005-08-05 2011-10-25 Lsi Corporation Method and apparatus for MPEG-2 to VC-1 video transcoding
US8155194B2 (en) * 2005-08-05 2012-04-10 Lsi Corporation Method and apparatus for MPEG-2 to H.264 video transcoding
WO2007024072A1 (en) * 2005-08-22 2007-03-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding multiview video
KR100728009B1 (ko) * 2005-08-22 2007-06-13 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
KR100667830B1 (ko) * 2005-11-05 2007-01-11 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
JP2007180981A (ja) * 2005-12-28 2007-07-12 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法、及び画像符号化プログラム
KR20080096768A (ko) * 2006-02-06 2008-11-03 톰슨 라이센싱 사용 가능한 움직임 정보를 비디오 인코딩을 위한 움직임추정 예측자로서 재사용하는 방법 및 장치
US20070201554A1 (en) * 2006-02-24 2007-08-30 Samsung Electronics Co., Ltd. Video transcoding method and apparatus
US8320450B2 (en) * 2006-03-29 2012-11-27 Vidyo, Inc. System and method for transcoding between scalable and non-scalable video codecs
US8179969B2 (en) * 2006-08-18 2012-05-15 Gwangju Institute Of Science And Technology Method and apparatus for encoding or decoding frames of different views in multiview video using global disparity
US8428142B2 (en) * 2007-03-05 2013-04-23 Stmicroelectronics International N.V. System and method for transcoding data from one video standard to another video standard
SI3264780T1 (sl) * 2007-04-18 2020-08-31 Dolby International Ab Kodirni sistemi, pri katerih se uporablja dodatni niz sekvenčnih parametrov za skalabilno kodiranje videa ali večpogledno kodiranje
BRPI0810517A2 (pt) * 2007-06-12 2014-10-21 Thomson Licensing Métodos e aparelho suportando estrutura de sintaxe de vídeo de multipasso para dados de seção
JP5346076B2 (ja) * 2008-04-25 2013-11-20 トムソン ライセンシング 奥行きを用いた視点間スキップモード
US20100118982A1 (en) * 2008-10-24 2010-05-13 Chanchal Chatterjee Method and apparatus for transrating compressed digital video

Also Published As

Publication number Publication date
KR20120096591A (ko) 2012-08-30
EP2355510A1 (en) 2011-08-10
KR101353214B1 (ko) 2014-01-21
JP2015084559A (ja) 2015-04-30
WO2011076722A1 (en) 2011-06-30
US20120269265A1 (en) 2012-10-25
CN102783148B (zh) 2017-02-08
JP2013515416A (ja) 2013-05-02
CN102783148A (zh) 2012-11-14

Similar Documents

Publication Publication Date Title
JP7257535B2 (ja) 変換スキップモードとブロック差分パルスコード変調の改善された残差コーディング
JP7267302B2 (ja) ビデオ符号化のための方法、機器及びコンピュータ・プログラム
KR102435382B1 (ko) 디코더 측 mv 도출 및 리파인먼트를 위한 개선
KR102660119B1 (ko) 비디오 인코더, 비디오 디코더 및 방법
US10291934B2 (en) Modified HEVC transform tree syntax
US20140056356A1 (en) Method and apparatus for efficient signaling of weighted prediction in advanced coding schemes
JP5947218B2 (ja) 複数のビデオストリームを結合符号化するための方法および構成
JP7343669B2 (ja) Vvcにおける色変換のための方法及び機器
KR20140120891A (ko) 효율적인 변환 유닛 인코딩을 위한 방법 및 장치
JP5913542B2 (ja) 動画像符号化のための方法および構成
KR20210088700A (ko) 비디오 코딩을 위한 방법 및 장치
US11317105B2 (en) Modification of picture parameter set (PPS) for HEVC extensions
CN110784711A (zh) 生成用于视频序列编码或解码的合并候选列表的方法、装置
KR20210145805A (ko) 비디오 코딩 방법 및 장치
JP5768180B2 (ja) 画像復号方法及び画像復号装置
JP7357678B2 (ja) ビデオ復号のための方法、装置、およびプログラム
JP2023542029A (ja) 低ビット精度のニューラルネットワーク(nn)に基づくクロスコンポーネント予測のための方法、機器、及びコンピュータプログラム
JP2023542332A (ja) 倍率を有するdnnに基づくクロスコンポーネント予測のためのコンテンツ適応型オンライントレーニング
KR20220160667A (ko) 분리된 변환 분할
CN112887737B (zh) 用于hevc扩展处理的条件解析扩展语法
JP5885886B2 (ja) 画像解析装置及び画像解析方法
JP7383038B2 (ja) ビデオコーディングのための方法、装置及びプログラム
JP6463907B2 (ja) 符号化装置、復号装置及びこれらのプログラム
Sreedhar Multiview Video Coding for Virtual Reality

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160401

R150 Certificate of patent or registration of utility model

Ref document number: 5913542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250