JP2022528529A - ビデオコーディング技術の時間的処理 - Google Patents

ビデオコーディング技術の時間的処理 Download PDF

Info

Publication number
JP2022528529A
JP2022528529A JP2021558488A JP2021558488A JP2022528529A JP 2022528529 A JP2022528529 A JP 2022528529A JP 2021558488 A JP2021558488 A JP 2021558488A JP 2021558488 A JP2021558488 A JP 2021558488A JP 2022528529 A JP2022528529 A JP 2022528529A
Authority
JP
Japan
Prior art keywords
temporal
decoder
level
frame
tile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021558488A
Other languages
English (en)
Other versions
JPWO2020188272A5 (ja
Inventor
グイド メアルディ
イヴァン ダンジャノヴィック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
V Nova International Ltd
Original Assignee
V Nova International Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB1903844.7A external-priority patent/GB201903844D0/en
Priority claimed from GBGB1904014.6A external-priority patent/GB201904014D0/en
Priority claimed from GBGB1904492.4A external-priority patent/GB201904492D0/en
Priority claimed from GBGB1905325.5A external-priority patent/GB201905325D0/en
Application filed by V Nova International Ltd filed Critical V Nova International Ltd
Publication of JP2022528529A publication Critical patent/JP2022528529A/ja
Publication of JPWO2020188272A5 publication Critical patent/JPWO2020188272A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • H04N19/45Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder performing compensation of the inverse transform mismatch, e.g. Inverse Discrete Cosine Transform [IDCT] mismatch
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

第1の出力ビデオおよび1つ以上のさらなる符号化ストリーム(416、428)を受信し、1つ以上のさらなる符号化ストリームのそれぞれのフレームを復号して、残存部分のそれぞれのセットを導出し、残存部分のセットを第1の出力ビデオと組み合わせて(470)、再構成された出力ビデオ(448)を生成するように構成されたデコーダ(400)。各フレームは、複数のタイルに分割され、各タイルは、複数のブロックに分割される。それぞれのフレームを復号するために、デコーダは、1つ以上のさらなる符号化ストリームから残存部分の予備セットを取得し(440、446)、時間的バッファ(432)を使用して時間的予測のセットを導出し、時間的予測のセットを残存部分の予備セットと組み合わせる(468)ように構成される。デコーダは、フレームレベルで、タイルレベルで、およびブロックレベルでの時間的予測のセットの値のゼロ化を提供するように構成される。【選択図】図4A

Description

本発明は、ビデオコーディング技術に使用するための方法、装置、コンピュータプログラム、およびコンピュータ可読媒体に関する。
信号の圧縮および解凍は、多くの既知のシステムで考慮されている。多くのタイプの信号、例えば、ビデオは、例えば、データ通信ネットワークを介して送信するために圧縮および符号化され得る。そのような信号が復号されるとき、信号の質のレベルを高めること、および/または元の信号に含まれる情報の可能な限り多くを復元することが望まれ得る。
いくつかの既知のシステムは、スケーラブルな符号化技術を利用している。スケーラブルな符号化は、例えば、デコーダの能力および利用可能な帯域幅に応じて、1つ以上の異なる品質レベルで信号の再構成を可能にする情報と共に信号を符号化することを含む。
スケーラブルな符号化システムの信号の再構成には、いくつかの考慮事項がある。このような考慮の1つは、エンコーダおよび/またはデコーダが情報を効率的に処理する能力である。エンコーダおよび/またはデコーダが情報を処理する効率は、エンコーダおよび/またはデコーダの性能レベルの要因であり得る。
本発明の様々な態様は、添付の特許請求の範囲に記載されている。
さらなる特徴および利点は、添付の図面を参照して行われる、例としてのみ与えられる以下の説明から明らかになるであろう。
本明細書の例による符号化プロセスを示す概略図である。 本明細書の例による復号プロセスを示す概略図である。 各々、本明細書の例による符号化プロセスを示す概略図である。 各々、本明細書の例による復号プロセスを示す概略図である。
本明細書に記載されるのは、ハイブリッド後方互換性コーディング技術である。
本明細書に記載される例は、異なるビデオコーディングフォーマット、基本コーデック(例えば、AVC、HEVC、または任意の他の現在もしくは将来のコーデック)をコーディングデータの少なくとも2つの拡張レベルと組み合わせる、柔軟性があり、適応可能であり、高効率であり、かつ計算上安価なコーディングフォーマットを提供する。
符号化スキームの一般的な構造は、基本コーデックで符号化されたダウンサンプリングソース信号を使用し、基本コーデックの復号出力に第1のレベルの補正データを追加して、補正ピクチャを生成し、次いで、補正ピクチャのアップサンプリングバージョンにさらなるレベルの拡張データを追加するものである。
このため、ストリームは、基本ストリームおよび拡張ストリームと考えられる。典型的には、基本ストリームは、ハードウェアデコーダによって復号可能であると予想される一方、拡張ストリームは、好適な消費電力を伴うソフトウェア処理実装に適していると予想されることに留意されたい。
この構造は、複数の自由度を生み出し、多くの状況への柔軟性および適応性を可能にし、オーバー・ザ・トップ(OTT)送信、ライブストリーミング、ライブ超高精細度(UHD)ブロードキャストなど、多くのユースケースに好適なコーディングフォーマットとなる。
基本コーデックの復号された出力は視聴を目的としていないが、それはより低解像度の完全に復号されたビデオであるため、出力を既存のデコーダと互換性があり、好適であると考えられる場合には、より低解像度の出力としても使用可能である。
コーデックフォーマットは、最小限の数の単純なコーディングツールを使用する。相乗的に組み合わせると、それらは基本コーデックで符号化されたフル解像度の画像と比較して視覚品質の改善を提供すると同時に、それらの使用方式に柔軟性を生じさせることができる。
図1は、第1の例のエンコーダ100を示している。図示された成分は、対応する符号化プロセスのステップとしても実装されてもよい。
エンコーダ100では、入力されたフル解像度ビデオ102が処理されて、様々な符号化ストリームを生成する。第1の符号化ストリーム(符号化基本ストリーム110)は、基本エンコーダ106(例えば、AVC、HEVC、または任意の他のコーデック)に入力ビデオのダウンサンプリングバージョンを供給することによって生成され、このバージョンは、入力ビデオ102をダウンサンプリングする(104)ことによって生成される。第2の符号化ストリーム(符号化レベル1ストリーム116)は、再構成された基本コーデックビデオと入力ビデオのダウンサンプリングバージョンとの間の差112を取ることによって取得された残存部分に符号化動作114を適用することによって生成される。再構成された基本コーデックビデオは、基本デコーダ108で基本エンコーダ106の出力を復号することによって取得される。第3の符号化ストリーム(符号化レベル2ストリーム128)は、再構成された基本コーディングビデオの補正バージョンと入力ビデオ102との間のアップサンプリングバージョンとの差124を取ることによって取得された残存部分を処理する(126)ことによって生成される。再構成された基本コーデックビデオの補正バージョンは、再構成された基本コーデックビデオ120と、復号動作118を符号化レベル1ストリーム116に適用することによって取得された残存部分とを組み合わせることによって取得される。
レベル1符号化動作114は、以下にさらに説明するように、時間的処理を適用するために使用され得る任意選択のレベル1時間的バッファ130で動作する。レベル2符号化動作126はまた、任意選択のレベル2時間的バッファ132で動作し、これは、以下にさらに説明するように、時間的処理を適用するために使用されてもよい。レベル1時間的バッファ130およびレベル2時間的バッファ132は、時間的選択成分134の制御下で動作してもよい。時間的選択成分134は、入力ビデオ102およびダウンサンプリング104の出力のうちの1つ以上を受信して、時間モードを選択することができる。これについては、後の例でより詳細に説明する。
図2は、第1の例のデコーダ200を示す。図示された成分は、対応する復号プロセスのステップとしても実装されてもよい。デコーダは、図1のエンコーダ100などのエンコーダによって生成された3つのストリーム(符号化基本ストリーム210、符号化レベル1ストリーム216、および符号化レベル2ストリーム228)を、さらなる復号情報を含むヘッダ236と共に受信する。符号化基本ストリーム210は、エンコーダで使用される基本デコーダに対応する基本デコーダ208によって復号され、その出力は、符号化レベル1ストリーム216を復号する(240)ことによって取得された復号残存部分と組み合わされる(238)。組み合わされたビデオは、アップサンプリングされ(242)、さらに、符号化レベル2ストリーム228に復号動作246を適用することによって取得された復号残存部分244と組み合わされる。
図3Aおよび図3Bは、第2の例示的なエンコーダ300、380の異なる変形例を示す。第2の例示的なエンコーダ300、380は、図1の第1の例示的なエンコーダ100の実装を含み得る。図3Aおよび図3Bの例では、ストリームの符号化ステップは、ステップがどのように実行され得るかの例を提供するためにより詳細に展開される。図3Aは、第2のレベルの拡張プロセス、すなわち、レベル2符号化に関してのみ提供される時間的予測を伴う第1の変形例を示している。図3Bは、拡張の両方のレベル(すなわち、レベル1および2)で実行される時間的予測を伴う第2の変形例を示している。
基本ストリーム310は、図1を参照して説明するように、プロセスによって実質的に作成される。換言すれば、入力ビデオ302は、ダウンサンプリングされる(304)(すなわち、ダウンサンプリング動作304が、ダウンサンプリング入力ビデオを生成するために入力ビデオ302に適用される)。次いで、入力ビデオ302をダウンサンプリングする(304)ことによって取得されたダウンサンプリングビデオは、第1の基本エンコーダ306を使用して符号化される(すなわち、符号化動作がダウンサンプリング入力ビデオに適用され、第1のエンコーダまたは基本エンコーダ306を使用して符号化された基本ストリーム310を生成する)。好ましくは、第1のエンコーダまたは基本エンコーダ306は、ハードウェア復号に好適なコーデックである。符号化基本ストリーム310は、基本レイヤまたは基本レベルと呼ばれることがある。
上述したように、拡張ストリームは、2つのストリームを含んでもよい。拡張の第1のレベル(本明細書では「レベル1」として説明される)は、補正ピクチャを生成するために基本ストリームの復号バージョンと組み合わせることができる補正データのセットを提供する。この第1の拡張ストリームは、符号化レベル1ストリーム316として図1および図3に示されている。拡張ストリームは、拡張エンコーダによって生成され得る。拡張エンコーダは、符号化基本ストリーム310を生成するために使用される基本エンコーダ306とは異なってもよい。
符号化レベル1ストリーム316を生成するために、符号化基本ストリーム310は、基本デコーダ308を使用して復号される(すなわち、復号動作が、復号基本ストリームを生成するために、符号化基本ストリーム310に適用される)。次に、復号基本ストリームと、入力ビデオ302をダウンサンプリング(304)によって取得されたダウンサンプリング入力ビデオとの差312が作成される(すなわち、減算動作312がダウンサンプリング入力ビデオおよび復号基本ストリームに適用されて、第1のセットの残存部分を生成する)。ここで、残存部分(residual)という用語は、当該技術分野で既知である、すなわち、参照フレームと所望のフレームとの間の誤差と同様の様式で使用される。ここで、参照フレームは復号基本ストリームであり、所望のフレームはダウンサンプリング入力ビデオである。したがって、第1の拡張レベルで使用される残存部分は、復号基本ストリームを基本符号化動作で使用されたダウンサンプリング入力ビデオに「補正」するため、補正ビデオと見なすことができる。
その後、差312は、符号化レベル1ストリーム316を生成するように符号化される(すなわち、符号化動作は、第1の拡張ストリーム316を生成するために第1のセットの残存部分に適用される)。
図3Aおよび図3Bの例示的な実装では、符号化動作は、いくつかのステップを含み、それらの各ステップは、任意選択かつ好ましく、特定の利点を提供する。
図3において、ステップは、変換ステップ336、量子化ステップ338、およびエントロピー符号化ステップ340を含む。
図示されていないが、いくつかの例では、符号化プロセスは、残存部分ランク付けモードが選択されているかどうかを識別する。残存部分モードが選択されている場合、残存部分ランク付けステップが実行され得る(すなわち、残存部分のランク付け動作が、ランク付けされた残存部分のセットを生成するために残存部分の第1のステップに対して実行され得る)。ランク付け残存部分のセットは、すべての残存部分が第1の拡張ストリーム316(または補正ストリーム)に符号化されないようにフィルタリングされ得る。
次いで、第1のセットの残存部分、またはランク付けもしくはフィルタリングされた第1のセットの残存部分は、符号化レベル1ストリーム316を生成するために、変換(336)、量子化(338)、およびエントロピー符号化(340)される(すなわち、変換動作336は、変換された残存部分のセットを生成するためにランク付けモードが選択されるか否かに応じて、第1のセットの残存部分またはフィルタリングされた第1のセットの残存部分に適用され、量子化動作338は、量子化残存部分のセットを生成するために、変換された残存部分のセットに適用され、エントロピー符号化動作340は、第1のレベルの拡張ストリーム316を生成するために、量子化された残存部分のセットに適用される)。好ましくは、エントロピー符号化動作340は、ハフマン符号化動作または実行長符号化動作、またはその両方であってもよい。任意選択で、ランク付け動作の効果を補正するために、制御動作(図には示されていない)を量子化された残存部分のセットに適用してもよい。
上述したように、拡張ストリームは、第1のレベルの拡張316および第2のレベルの拡張328を含んでもよい。第1のレベルの拡張316は、補正ストリームと考えてもよい。第2のレベルの拡張328は、補正ストリームを元の入力ビデオに変換するさらなるレベルの拡張と見なされてもよい。
さらなるレベルの拡張328は、復号レベル1ストリームのアップサンプリングバージョンと入力ビデオ302との間の差324である、さらなる残存部分のセットを符号化することによって作成される。
図3において、量子化された(または制御された)残存部分のセットは、ブロック解除フィルタ(図に示されていない)が任意選択的に適用されて復号された第1のセットの残存部分を生成する前に、逆量子化(342)および逆変換される(344)(すなわち、逆量子化動作342は、量子化された第1のセットの残存部分に適用されて脱量子化された第1のセットの残存部分を生成し、逆変換動作344は、脱量子化された第1のセットの残存部分に適用されて変換解除された第1のセットの残存部分を生成し、ブロック解除フィルタ動作は任意選択で、変換解除された第1のセットの残存部分に適用されて復号された第1のセットの残存部分を生成する)。ブロック解除フィルタステップは、適用される変換336に応じて任意選択であり、加重マスクを、変換解除された344の第1のセットの残存部分の各ブロックに適用することを含む。
復号基本ストリームは、復号された第1のセットの残存部分と組み合わされる(320)(すなわち、復号された基本ストリームと復号された第1のセットの残存部分との合計動作320は、再作成された第1のストリームを生成するために実行される)。図3Aおよび図3Bに示すように、その組み合わせは、次いで、アップサンプリングされる(322)(すなわち、アップサンプリング動作322が再作成された第1のストリームに適用され、アップサンプリング再作成ストリームを生成する)。
次いで、アップサンプリングストリームを、さらなる残存部分のセットを作成する入力ビデオ302と比較する(すなわち、差の動作324がアップサンプリング再作成ストリームに適用されて、さらなる残存部分のセットを生成する)。次いで、さらなる残存部分のセットは、符号化レベル2拡張ストリーム328として符号化される(すなわち、符号化動作は、次いで、さらなる残存部分のセットに適用されて、符号化されたさらなる拡張ストリーム328を生成する)。
符号化レベル1ストリーム316と同様に、レベル2残存部分に適用される符号化は、いくつかのステップを含み得る。図3Aは、時間的予測(以下でさらに説明する)、変換348、量子化350、およびエントロピー符号化352としてのステップを示す。
図示されていないが、いくつかの例では、符号化プロセスは、残存部分ランク付けモードが選択されているかどうかを識別する。残存部分モードが選択されている場合、残存部分ランク付けステップが実行され得る(すなわち、残存部分ランク付け動作がさらなる残存部分のセットに対して実行されて、さらなるランク付けされた残存部分のセットを生成し得る)。さらなるランク付けされた残存部分のセットは、すべての残存部分がさらなる拡張ストリーム328に符号化されないようにフィルタリングされ得る。
さらなる残存部分のセットまたはさらなるランク付けされた残存部分のセットは、続いて変換される(348)(すなわち、変換動作348は、さらなるランク付けされた残存部分のセットに対して実行されて、さらなる変換された残存部分のセットを生成する)。図示するように、変換動作348は、アップサンプリング322の前に、再作成された第1のストリームから導出された予測係数または予測平均を利用し得る。さらなる情報は以下のとおりである。
図3Aは、時間的予測がレベル2の符号化プロセスの一部として実行される第2の例示的なエンコーダ300の変形例を示す。時間的予測は、時間的選択成分334およびレベル2時間的バッファ332を使用して実行される。時間的選択成分334は、以下でより詳細に説明するように時間的処理モードを決定し、それに応じてレベル2時間的バッファ332の使用を制御し得る。例えば、時間的処理が実行されない場合、時間的選択成分334は、レベル2時間的バッファ332の内容が0に設定されるべきであることを示し得る。図3Bは、時間的予測がレベル1およびレベル2符号化プロセスの両方の一部として実行される第2の例示的なエンコーダ380の変形例を示している。図3Bにおいて、レベル1時間的バッファ330は、レベル2時間的バッファ332に加えて提供される。図示されていないが、レベル1で時間的処理が実行されるが、レベル2ではないさらなる変形例も可能である。
時間的予測が選択されると、図3Aまたは図3Bの第2の例のエンコーダ300、380は、適切な時間的バッファから導出された係数の対応するセットを減算することによって、係数(すなわち、変換成分によって出力される変換残存部分)をさらに修正してもよい。対応する係数のセットは、前のフレームから導出される同じ空間領域(例えば、フレーム内に位置する同じコーディング単位)の係数のセット(例えば、前のフレームの同じ領域の係数)を含み得る。これらの係数は、時間的バッファから導出されてもよく、またはそれ以外の方法で取得されてもよい。時間的バッファから取得される係数は、本明細書では時間的係数と呼ばれ得る。減算は、第3の減算成分354および356(それぞれのレベル2および1に対する)などの減算成分によって適用されてもよい。この時間的予測ステップは、後の例に関してさらに説明される。要約すると、時間的予測が適用されるとき、符号化された係数は、ストリームのフレームと他のフレームとの間の差に対応する。他のフレームは、ストリーム内の先行または後続のフレーム(またはフレーム内のブロック)であってもよい。したがって、アップサンプリング再作成ストリームと入力ビデオとの間の残存部分を符号化する代わりに、符号化プロセスは、ストリーム内の変換されたフレームと変換されたフレームの残存部分との間の差を符号化し得る。このように、エントロピーを減少させることができる。時間的予測は、制御情報に基づいてコーディング単位のグループ(本明細書では「タイル」と呼ばれる)に対して選択的に適用されてもよく、デコーダにおける時間的予測の適用は、符号化ストリーム(例えば、ヘッダ内)と共に追加の制御情報を送信することによって適用されてもよい。
図3Aおよび図3Bに示すように、時間的予測がアクティブであるとき、各変換された係数は、以下のようになり得る:
Figure 2022528529000002
(式中、時間的バッファは、前のフレームと関連付けられているデータを記憶し得る)。時間的予測は、1つのカラー平面に対して、または複数のカラー平面に対して実行されてもよい。一般に、減算は、フレームの要素が変換された係数を表し、変換が特定のコーディング単位サイズ(例えば、2×2または4×4)によって特定のnに対して適用される、ビデオの「フレーム」に対する要素ごとの減算として適用され得る。時間的予測(例えば上記のデルタ)から生じる差は、後続のフレームに対して使用するためにバッファ内に記憶され得る。したがって、実際には、時間的予測にもたらされる残存部分は、バッファに関する係数の残存部分である。図3Aおよび図3Bは、変換動作後に実行される時間的予測を示しているが、量子化動作後に実行されてもよい。これは、レベル2逆量子化成分358および/またはレベル1逆量子化成分360を適用する必要性を回避し得る。したがって、図3Aおよび図3Bに示すように、および上述したように、符号化プロセスを実行した後の第2の例示的なエンコーダ300、380の出力は、符号化基本ストリーム310および1つ以上の拡張ストリームであり、これは、好ましくは、第1のレベルの拡張に対する符号化レベル1ストリーム316、およびさらなるまたは第2のレベルの拡張に対する符号化レベル2ストリーム328を含む。
図4Aおよび図4Bは、第2の例示的なデコーダ400、480のそれぞれの変形例を示す。第2の例示的なデコーダ400、480の変形例は、それぞれ、図2の第1の例示的なデコーダ200に対応するように実装され得る。明確に識別可能であるように、復号ステップおよび成分は、復号がどのように実行され得るかの一例を提供するために、より詳細に展開される。図3Aおよび図3Bと同様に、図4Aは、第2のレベル(すなわち、レベル2)に対してのみ時間的予測が使用される変形例を示しており、図4Bは、両方のレベル(すなわち、レベル1および2)において時間的予測が使用される変形例を示している。前述のように、さらなる変形例が想定され(例えば、レベル1であるが、レベル2ではない)、構成の形態は、シグナリング情報を使用して制御され得る。
図4Bの例に示すように、復号プロセスにおいて、デコーダ480は、ヘッダ436(例えば、グローバル構成データ、ピクチャ構成データ、および他のデータブロックを含有する)を解析し、それらのヘッダ436に基づいてデコーダを構成し得る。入力ビデオを再作成するために、デコーダ400、480は、基本ストリーム410、第1の拡張ストリーム416、およびさらなる拡張ストリーム428の各々を復号してもよい。ストリームのフレームは、同期されてもよく、次いで組み合わされて、復号ビデオ448を導出してもよい。
各復号プロセスでは、拡張ストリームは、残存部分のセットを再作成するために、エントロピー復号450、452、逆量子化454、456、および逆変換458、460のステップを受けてもよい。
図4Aおよび図4Bの復号プロセスは、第1のレベルの拡張を表すエントロピー復号された量子化された係数のアレイを取り出し、L-1残存部分のアレイを出力することを含む。この場合、エントロピー復号された量子化された係数は、符号化L-1ストリーム416にエントロピー復号動作450を適用することによって得られる。図4Aおよび図4Bの復号プロセスは、基本デコーダ408の出力のサンプルのアレイを取り出すことをさらに含む。図4Aおよび図4Bの復号プロセスは、エントロピー復号された量子化された係数のアレイに脱量子化プロセス454を適用して、脱量子化された係数のセットを導出し、変換プロセス458を脱量子化された係数のセットに適用し、任意選択で、フィルタプロセス(図4Aおよび図4Bには示されていない)を適用して、第1のレベルの拡張を表すL-1残存部分のアレイを出力することをさらに含み、これは、残存部分の予備セットと呼ばれることがある。この場合、脱量子化プロセス454は、符号化レベル1ストリーム416のフレームのそれぞれのブロックのためのエントロピー復号された量子化された係数に適用され、変換プロセス458(逆変換動作と呼ばれることがある)は、フレームのそれぞれのブロックに対する脱量子化プロセス454の出力に適用される。図4Aおよび図4Bの復号プロセスは、次いで、L-1残存部分のアレイ462を基本デコーダ408の出力のサンプルのアレイと組み合わせることによって、ピクチャを再作成することをさらに含む。図4Aおよび図4Bの復号プロセスは、シグナリングされたパラメータに従って、所定の変換プロセスのセットから変換プロセス458を適用することを含む。例えば、変換プロセス458は、2×2コーディング単位または4×4コーディング単位に適用されてもよい。コーディング単位は、本明細書では、アレイ内の要素のブロック、この場合はL-1残存部分のアレイと呼ばれてもよい。
図4Aおよび図4Bの復号プロセスは、さらなるレベルの拡張を表すエントロピー復号された量子化された係数のアレイを取り出し、残存部分のアレイを出力することを含む。図4Aおよび図4Bに示される復号プロセスにおいて、さらなるレベルの拡張は、第2のレベルの拡張であり、残存部分出力のアレイは、L-2残存部分のアレイである。図4Aおよび図4Bの方法は、さらなるレベルの拡張を表すエントロピー復号された量子化された係数のアレイに対応する第1のレベルの拡張のL-1残存部分のアレイを取り出すことをさらに含む。図4Aおよび図4Bの方法は、第1のレベルの拡張の残存部分のアレイにアップサンプリングプロセス464を適用することをさらに含む。図4Aおよび図4Bでは、アップサンプリングプロセス464が、第1のレベルの拡張のL-1残存部分のアレイおよび基本デコーダ408の出力の対応するサンプルのアレイの組み合わせに適用される。
図4Aおよび図4Bでは、アップサンプリングプロセス464は、修正されたアップサンプリングプロセスであり、修正子が残存部分に追加される。修正子を追加するステップは、変換プロセス460の一部として実行されてもよい。あるいは、変換プロセス460は、線形変換を含むため、図4Aおよび図4Bに示すように、修正子を追加するステップは、修正されたアップサンプリングプロセス464の一部として実行されてもよい。したがって、修正子を追加するステップは、残存部分の修正をもたらす。修正は、フレーム内の残存部分の場所に基づいて実行され得る。修正は、所定の値であってもよい。
図4Aでは、時間的予測は、レベル2の復号中に適用される。図4Aの例では、時間的予測は、時間的予測成分466によって制御される。この変形例では、ストリームから時間的予測成分466への矢印によって示されるように、時間的予測の制御情報が符号化レベル2ストリーム428から抽出される。図4Bに示すような他の実装形態では、時間的予測のための制御情報は、例えば、ヘッダ436内で、符号化レベル2ストリーム428とは別個に送信されてもよい。時間的予測成分466は、レベル2の時間的バッファ432の使用を制御し、例えば、後の例を参照して説明するように、時間的モードを決定し、時間的更新を制御してもよい。時間的バッファ432の内容は、残存部分の前のフレームに関するデータに基づいて更新されてもよい。時間的バッファ432が適用されるとき、バッファの内容は、第2のセットの残存部分に追加される(468)。図4Aでは、時間的バッファ432の内容は、レベル2復号成分446(図4Aでは、エントロピー復号452、逆量子化456、および逆変換460を実装する)の出力に追加される(468)。他の例では、時間的バッファの内容は、中間復号データの任意のセットを表してもよく、したがって、追加468は、適切な段階で時間的バッファの内容を適用するように適切に移動されてもよい(例えば、時間的バッファが脱量子化された係数段階で適用される場合、追加468は、逆変換460の前に位置してもよい)。次いで、時間的に補正された第2のセットの残存部分をアップサンプリング464の出力と組み合わせて(470)、復号ビデオ448を生成する。復号ビデオ448は、レベル1空間解像度よりも高くてもよいレベル2空間解像度にある。第2のセットの残存部分は、(視認可能な)アップサンプリングされた再構成されたビデオに補正を適用し、補正は細かいディテールを追加し、線および機能のシャープネスを向上させる。
変換プロセス458、460は、シグナリングされたパラメータに従って、所定の変換プロセスのセットから選択されてもよい。例えば、変換プロセス460は、L-2残存部分のアレイ内の要素の2×2ブロック、またはL-2残存部分のアレイ内の要素の4×4ブロックに適用されてもよい。
図4Bは、第2の例示的なデコーダ480の変形例を示す。この場合、時間的予測制御データは、ヘッダ436から時間的予測成分466によって受信される。時間的予測成分466は、レベル1およびレベル2の時間的予測の両方を制御するが、他の例では、必要に応じて、両方のレベルに対して別個の制御成分が提供されてもよい。図4Bは、レベル2復号成分446の出力に468を追加した再構成された第2のセットの残存部分が、次のフレームのためにレベル2時間的バッファ432に記憶されるようにフィードバックされ得る方法を示している(フィードバックは、明確にするために図4Aから省略されている)。また、上記のレベル2時間的バッファ432と同様の様式で動作するレベル1時間的バッファ430も示され、バッファのフィードバックループがこの図に示される。レベル1時間的バッファ430の内容は、合計472を介してレベル1残存部分処理パイプラインに追加される。ここでも、この合計472の位置は、時間的予測が適用される場所に応じて、レベル1残存部分処理パイプラインに沿って変化し得る(例えば、それが変換された係数空間に適用される場合、それはレベル1逆変換成分458の前に位置してもよい)。
図4Bは、時間的制御情報がデコーダにシグナリングされ得る2つの方式を示している。第1の方式は、上述したように、ヘッダ436を介している。代替または追加のシグナリング経路として使用され得る第2の方式は、残存部分自体内で符号化されるデータを介している。図4Bは、データ474がHHの変換された係数に符号化され得るため、エントロピー復号452に続いて抽出され得る場合を示している。このデータ474は、レベル2の残存部分処理パイプラインから抽出され、時間的予測成分466に渡されてもよい。
各拡張ストリームまたは両方の拡張ストリームは、ネットワーク抽象化層ユニット(NALU)のセットを使用して、1つ以上の拡張ビットストリームにカプセル化されてもよい。NALUは、拡張を正しい基本再構成フレームに適用するために、拡張ビットストリームをカプセル化することを意味する。NALUは、例えば、拡張が適用されなければならない基本デコーダ再構成フレームビットストリームを含むNALUへの参照インデックスを含んでもよい。このようにして、拡張は、基本ストリームに同期されてもよく、各ビットストリームのフレームは、復号された出力ビデオを生成するように組み合わされる(すなわち、拡張レベルの各フレームの残存部分は、基本復号ストリームのフレームと組み合わされる)。ピクチャのグループは、複数のNALUを表してもよい。
各フレームは、異なるカラー成分を表す3つの異なる平面で構成されてもよく、例えば、3チャネルYUVビデオの各成分は、異なる平面を有してもよい。次いで、各平面は、所与のレベルの拡張に関連する残存部分データを有してもよく、例えば、Y平面は、レベル1残存部分データのセットおよびレベル2残存部分データのセットを有してもよい。特定の場合、例えば、モノクロ信号については、1つの平面のみが存在してもよく、その場合、用語フレームおよび平面は、互換的に使用されてもよい。レベル-1残存部分データおよびレベル-2残存部分データは、以下のように分割されてもよい。残存部分データはブロックに分割され、ブロックのサイズは使用される変換のサイズに依存する。ブロックは、例えば、2×2方向分解変換を使用する場合は要素の2×2ブロックであり、4×4方向分解変換を使用する場合は要素の4×4ブロックである。タイルは、フレームの領域(例えば、正方形領域であり得るM×N領域)を覆うブロックのグループである。タイルは、例えば要素の32×32のタイルである。したがって、符号化ストリーム内の各フレームは、複数のタイルに分割されてもよく、複数のタイルの各タイルは、複数のブロックに分割されてもよい。カラービデオに対して、各フレームは、複数の平面に分割されてよく、各平面は、複数のタイルに分割され、複数のタイルの各タイルは、複数のブロックに分割される。
処理成分またはツールのセットが、プロセス全体を通して拡張ストリーム(または入力ビデオ102、302)の各々にどのように適用され得るかを上記に記載した。以下は、図1~図4に示すように、全体的なプロセス内のツールおよびその機能の各々の概要を提供する。
ダウンサンプリングプロセス104、304は、基本エンコーダ106、306によって符号化されるダウンサンプリングされたビデオを生成するために入力ビデオ102、302に適用される。ダウンサンプリング104、304は、垂直方向および水平方向の両方で行われてもよく、または代替的に、水平方向のみで行われてもよい。
L-1符号化動作114への入力は、基本デコーダ108、308の復号出力と、入力ビデオ102、302をダウンサンプリングする(104、304)ことによって取得されたダウンサンプリングビデオとの間の差112、312を取ることによって取得されるL-1残存部分を含む。次いで、L-1残存部分は、以下にさらに記載されるように、変換(336)、量子化(338)、および符号化(340)される。変換336は、変換係数(すなわち、変換されたL-1残存部分)を出力する。
変換プロセス336において使用され得る2タイプの変換が存在する。いずれも、予測平均を適用する段階の後に残る残存部分に直接適用される小さなカーネルを利用する。
第1の変換は、残存部分の2×2ブロックに適用される2×2カーネルを有する。得られる係数は次のようになる。
Figure 2022528529000003
第2の変換は、残存部分の4×4ブロックに適用される4×4カーネルを有する。得られる係数は次のようになる。
Figure 2022528529000004
ダウンサンプリングおよび/またはアップサンプリングが水平方向でのみ実行される場合(例えば、特定の要素が0に設定されている場合)、好適に適合された変換も適用され得る。例えば、上記の例の行列に例示されるように、ハダマード変換が使用される場合、復号または逆変換は、同じ行列を使用してもよく、例えば、ハダマード行列は、それら自身の逆行列である。この場合、例えば、M×Nブロックに関連する残存部分Rの(M×N)×1アレイは、R=H*Cを使用して、係数Cの対応する(M×N)×1アレイからデコーダで導出されてもよく、式中、Hは、上に示されるハダマード行列のうちの1つに等しい。
次いで、線形量子化器を使用して、係数を量子化する(338)。線形量子化器は、可変サイズのデッドゾーンを使用してもよい。線形量子化器は、量子化ステップおよび非中心化脱量子化オフセットと比較して、異なるサイズのデッドゾーンを使用してもよい。
量子化された係数は、エントロピーコーダを使用して符号化される(340)。エントロピーコーディング340には2つのスキームがある。第1のスキームでは、量子化された係数は、Run-Length-Encoder(RLE)を使用して符号化される。第2のスキームでは、量子化された係数は、まずRLEを使用して符号化され、次に、符号化された出力は、ハフマンエンコーダを使用して処理される。これは、典型的には変換残存部分で見出される0sの長いストリームを、RLEで有益に符号化してもよく、次いで、ハフマンエンコーダを使用して、異なる周波数の量子化された値(例えば、残存部分の分布およびその線形変換された値のために値が増加するにつれて減少した数を有することが多い)をさらに有益に符号化してもよい。
残存モード(RM)が選択されている場合、L-1残存部分は、どの残存部分が変換され(336)、符号化されるべきかを決定するために、さらにランク付けおよび選択される。好ましくは、これは、エントロピー符号化340の前に予め形成される。
L-1符号化のために時間的選択モードが選択される場合、エンコーダは、レベル1時間的バッファ130、330から導出される対応する係数、すなわち、以下に記載される時間的予測を減算することによって、係数をさらに修正する。
L-1復号動作118への入力は、L-1符号化残存部分を含み、これらは、エントロピーデコーダ450、脱量子化器454、および逆変換モジュール458を通して渡される。これらのモジュールによって実行される動作は、上述したモジュールによって実行される逆動作である。
時間的選択モードがL-1符号化のために選択されている場合、残存部分は、レベル1時間的バッファ130、330から同じ位置にある残存部分から部分的に予測されてもよい。同じ位置にある残存部分は、本明細書では時間的予測と呼ばれ得る。
4×4変換が使用される場合、復号残存部分は、ブロック解除フィルタモジュールに供給され得る。ブロック解除フィルタは、重みを指定することができるマスクを適用することによって、変換残存部分の各ブロック上で動作する。マスクの一般的な構造は次のとおりである。
Figure 2022528529000005
式中、0≦α≦1および0≦β≦1である
復号された(および、該当する場合、ブロック解除された)L-1残存部分および基本復号ビデオの組み合わせ(120、320)からの出力は、アップサンプリング再構成ビデオを生成するためにアップサンプリングされる(122、322)。アップサンプリングは、選択可能であってもよく、バイトストリーム内でシグナリングされてもよい。
L-2符号化動作126への入力は、アップサンプリングされた再構成ビデオと入力ビデオ102、302との間の差124、324を取ることによって取得されるL-2残存部分を含む。次いで、L-2残存部分は、以下にさらに記載されるように、変換(348)、量子化(350)、および符号化(352)される。変換348、量子化350、および符号化352は、L-1符号化114に関して説明したのと同じ様式で実行される。L-1符号化114を参照して説明されるように、変換348は、変換係数(すなわち、変換されたL-2残存部分)を出力する。RMが選択されている場合、L-2残存部分は、どの残存部分が変換され、符号化されるべきかを決定するために、さらにランク付けおよび選択される。L-2符号化動作126は、以下に記載されるように、2つの追加のプロセスをさらに含み得る。
予測される係数モードが選択されている場合、エンコーダは、変換された係数C00(例えば、2×2変換の「平均」または「A」係数)をさらに修正する。2×2変換を使用する場合、C00は、変換された残存部分のブロックが予測されるアップサンプリングされた残存部分の値を減算することによって修正される。4×4変換を使用する場合、C00は、変換された残存部分のブロックが予測される4つのアップサンプリングされた残存部分の平均値を減算することによって修正される。
L-2符号化のために時間的選択モードが選択される場合、エンコーダは、上述したように、レベル2の時間的バッファ132、332から導出される対応する係数を減算することによって、係数をさらに修正する。
L-2復号動作246、446への入力は、符号化されたL-2残存部分を含む。L-2残存部分の復号プロセスは、エントロピーデコーダ452、脱量子化器456、および逆変換モジュール460を通して渡される。これらのモジュールによって実行される動作は、上述したモジュールによって実行される逆動作である。時間的選択モードがL-2符号化のために選択されている場合、残存部分は、レベル2の時間的バッファ132、332から同じ位置にある残存部分から部分的に予測されてもよい。同じ位置にある残存部分は、本明細書では時間的予測と呼ばれ得る。
修正されたアップサンプリングプロセス242、464は、2つのステップを含み、第2のステップは、デコーダによって受信された信号に依存する。第1のステップでは、復号された(および該当する場合、ブロック解除された)L-1残存部分および基本復号ビデオ208、408(L-1再構成ビデオ)の組み合わせ238、462は、アップサンプリング再構成ビデオを生成するためにアップサンプリングされる。予測された係数モードが選択されている場合、第2のステップが実装される。特に、アップサンプリング再構成ビデオにおける2×2ブロックが導出されたL-1再構成値における要素の値は、アップサンプリング再構成ビデオにおける前記2×2ブロックに追加される。
上記を通じて、ビットストリームという用語は、必要に応じて、ストリームまたはバイテストリームまたはNALUストリームによって置き換えられてもよい。
図4Aおよび図4Bを参照すると、以下の例は、レベル2復号中に適用される時間的予測プロセスに関する。しかしながら、以下の時間的予測プロセスが、レベル1復号中に追加的または代替的に適用され得ることを理解されたい。
この例では、デコーダ400、480は、ピクチャを復号するときに時間的予測を使用すべきかどうかを指定するtemporal_enabledパラメータを受信するように構成されている。temporal_enabledパラメータは、時間的処理が有効であることを示す第1の値を有する第1のパラメータとして本明細書において参照されてもよい。この場合、temporal_enabledパラメータは、デコーダ400、480が、時間的バッファ432の内容から導出される時間的予測の値を更新することができるかどうかを示す。temporal_enabledパラメータの値は、1ビットのビット長を有し得る。この例では、値1は、ピクチャを復号するときに時間的予測が使用されることを指定し、値0は、ピクチャを復号するときに時間的予測が使用されないことを指定する。temporal_enabledパラメータは、上述の符号化ストリームと関連付けられているピクチャのグループに対して1回受信されてもよく、ピクチャのグループは、コーディングビデオストリーム内の連続したピクチャの集合である。
この例では、デコーダ400、480は、時間的バッファ432がフレームに対して更新されるべきかどうかを指定するtemporal_refresh_bitパラメータを受信するように構成されている。フレームが複数の平面を含む場合、更新は、フレーム内のすべての平面(すなわち、平面を含むフレーム)に適用されてもよい。時間的バッファ432を更新することは、時間的バッファ432からゼロに値を設定することを含んでもよい。このようにして、時間的バッファ432の内容が第2のセットの残存部分に追加される場合468、第2のセットの残存部分は、時間的バッファ432が適用されなかった場合と同様に変更されない。temporal_refresh_bitパラメータの値は、1ビットのビット長を有し得る。この例では、値1は、時間的バッファ432がフレームに対して更新されるべきであることを指定し、値0は、時間的バッファ432がフレームに対して更新されるべきでないことを示す。temporal_refresh_bitパラメータは、コード化されたビデオストリーム内の各ピクチャに対して1回受信されてもよい。temporal_enabledパラメータおよびtemporal_refresh_bitパラメータは、上述したように、例えばヘッダ436を介してデコーダにシグナリングされる時間的な制御情報の中に構成されてもよい。
この例では、変数temporal_enabledが1に等しく、temporal_refresh_bitが0に等しい場合、以下で指定されているように、時間的予測プロセスが呼び出される。
呼び出された時間的予測プロセスへの入力は次のとおりである。
・ 現在のピクチャの左上のルマまたはクロマサンプルに対して現在のルマまたはクロマ変換ブロックの左上のサンプルを指定する位置(xTbP、yTbP)。(xTbP、yTbP)は、変換係数がどの平面に属するかに応じて、ルマまたはクロマ平面のいずれかに関連することができる。
・ 現在の変換ブロックのサイズを指定するパラメータnTbS。例えば、上述の変換プロセスで2×2方向分解変換を使用するべきである場合はnTbS=2であり、4×4方向分解変換プロセスを使用するべきである場合はnTbS=4である。
・ 要素のタイルを復号するときに時間的タイル予測を使用するかどうかを指定するパラメータtemporal_tile_intra_signalling_enabled。パラメータtemporal_tile_intra_signalling_enabledは、本明細書では、第3の値を有する第3のパラメータと呼ばれ得る。temporal_tile_intra_signalling_enabledパラメータの値は、1ビットのビット長を有し得る。この例では、temporal_tile_intra_signalling_enabledパラメータの値が1に等しい場合、タイル時間的予測プロセスが有効になる。temporal_tile_intra_signalling_enabledパラメータは、上述した符号化ストリームと関連付けられたピクチャのグループに対して1回受信されてもよい。temporal_tile_intra_signalling_enabledパラメータは、デコーダ、例えばヘッダ436にシグナリングされる時間的制御情報に含まれてもよい。このパラメータは、タイルに関連する時間的シグナリングが提供され得るかどうかを示してもよく、シグナリングは、以下に記載されるように係数値内(すなわち、「内部」またはデータ内)にカプセル化される。このパラメータが1に設定されている場合、タイル内の第1のブロックは、タイルに対する時間的更新信号を伝達してもよい(例えば、第1のブロック内の係数値を伝達してもよい)。
・ 要素TransCoeffQ[x][y]を有するエントロピー復号された量子化された係数のブロックを含む、サイズ(nTbS)×(nTbS)のアレイTransCoeffQ。
このプロセスの出力は、修正されたTransCoeffQ係数の(nTbS)×(nTbS)アレイ、および要素tempPredSamples[x][y]を有する(nTbS)×(nTbS)tempPredSamplesである。tempPredSamplesのアレイは、時間的バッファ432を使用して導出された時間的予測のセットを表す。
この例では、以下の順序付けられたステップが適用される。
1.パラメータtemporal_tile_intra_signalling_enabledが1に等しい場合、要素のタイルを復号するときに、時間的タイル予測プロセスが使用される。時間的タイル予測プロセスでは、xTbP>>5が0に等しい場合、yTbP>>5は0に等しく(式中、「x>>y」は、x×yの2進数の補数表現の算術右シフトである)、TransCoeffQ[nTbs-1][0]&0x1は1に等しく(式中、「&」は、ビット単位の「and」演算子を表す)、タイル化された時間的更新プロセスは、位置(xTbP、yTbP)をその入力として呼び出される。右シフトは、連続したタイルの要素をスキップすることを可能にし、例えば、32×32のタイルは、25の長さおよび幅を有し、この場合、ゼロに等しい5ビットのシフトは、現在の位置が32の倍数であり、したがって、タイルの第1のブロックに関連することを示している。この場合、次いで、タイル内の第1のブロックは、タイルの時間的更新をシグナリングするために使用される。タイル化された時間的更新プロセスの出力は、位置(xTbP、yTbP)のタイルのtemporalBufferの内容がゼロに設定されていることである。この例では、temporalBufferは、時間的予測の値を導出することができる現在のフレームではない第2のフレームと関連付けられているデータを記憶する時間的バッファ432を表す。したがって、第2のフレームは、ストリーム内の先行または後続のフレームであってもよい。TransCoeffQ[nTbS-1][0]&0x1は、対応するブロックに対する時間的バッファ432から導出される時間的予測のセットの値が更新されるべきであるかどうかを示す値を有する現在の変換ブロックのパラメータである。この場合、パラメータは変換係数値内で「搬送」される。ビット値が1(例えば0.0×1)の「&」(すなわち、論理的な「and」)演算は、任意の非ゼロ値を1の出力ビット値に単純に変換する(任意のゼロ値はゼロのままである)。一般に、TransCoeffQ[nTbS-1][0]&0x1パラメータは、時間的シグナリングを提供する第2の値を有する第2のパラメータとして本明細書において参照されてもよく、この場合、所与のタイルと関連付けられている時間的バッファ432内の値が更新されるべきであるかどうかを示している。この場合、パラメータはタイル更新を示すために使用され、以下の例では、ブロック更新を示すために使用される。更新は、対応するタイルまたはブロックの値をゼロに設定することを含み得る。この例では、TransCoeffQ[nTbS-1][0]&0x1パラメータの値は、1ビットのビット長を有し、1の値は、時間的バッファ432内の値が更新されるべきであることを示している。時間的タイル予測プロセスでは、時間的バッファ432のタイルに対して、タイル内のブロックに対するパラメータTransCoeffQ[nTbS-1][0]&0x1を受信することに応答して、タイル化された時間的更新プロセスが実行される。言い換えると、デコーダは、タイル内の指定されたブロックのためのパラメータTransCoeffQ[nTbS-1][0]&0x1(第2のパラメータ)を受信することに応答して、タイルに対する時間的バッファ432を更新するように構成されている。このように、タイルの更新は、タイル内の他のすべてのブロックに対して別々に更新をシグナリングする必要なしに、タイル内の単一のブロック内のパラメータによってシグナリングされ得る。したがって、この例では、デコーダは、以下のケース2において)、デコーダがブロックに対する時間的予測の値を更新するべきであることを示す第2の値を有する第2のパラメータ(TransCoeffQ[nTbS-1][0]&0x1)と、第2の値を有する指定されたブロックに対する第2のパラメータを受信することが、タイルと関連付けられている時間的バッファ432内の値が更新されるべきであることを示すことを示す第3の値を有する第3のパラメータ(temporal_tile_intra_signalling_enabled)との両方を受信することに応答して、タイルの時間的予測の値を更新するように構成されている。パラメータTransCoeffQ[nTbS-1][0]&0x1は、この時間的制御情報がエントロピー復号452の後に抽出され得るように、符号化された残存部分自体内で符号化されたデータを介してデコーダにシグナリングされ得る時間制御情報の例である。例えば、このパラメータ(第2のパラメータ)は、ブロックの係数のセットのうちの1つから取得されてもよい。
2.時間的タイル予測プロセスが発生しない場合、TransCoeffQ[nTbs-1][0]&0x1が0に等しい場合、tempPredSamples[x][y]=temporalBuffer[xTbP+x][yTbP+y]で、xとyが[0、nTbS-1]の範囲にある。それ以外の場合、tempPredSample[x][y]はすべて0に設定される。このようにして、各それぞれのブロックに対して、時間的バッファ432から導出されたそれぞれのブロックについての時間的予測の値は、それぞれのブロックに対する1つ以上の符号化ストリーム(この場合はL-2符号化ストリーム)からのデータから第2のパラメータ(TransCoeffQ[nTbS-1][0]&0x1パラメータ)を取得することに応答して更新される。それぞれのブロックの第2のパラメータが、それぞれのブロックに対する時間的シグナリングを提供する第2の値を有すると決定することに応答して、それぞれのブロックに対する時間係数の値が更新される。この場合、更新は、それぞれのブロックに対する時間的予測の値をゼロに設定することを伴う。この場合、各ブロックの時間的予測の値のセットの更新は、各ブロックについて個別に示される。それ以外の場合では、TransCoeffQ[nTbS-1][0]&0x1が0に等しい場合、時間的バッファ432は更新されず、それぞれのブロックに対する時間的予測のセットの値は、それぞれのブロックに対する時間的バッファ432から導出される。
3.TransCoeffQ[nTbs-1][0]の値は、TransCoeffQ[nTbs-1][0]>>1に設定されている。TransCoeffQ[nTbs-1][0]のバイナリ値が0または1の場合、この演算は後続の演算(例えば、後の逆変換)の変換係数値を0に設定する。これは、シグナリングに使用される1の値がブロック内の画像アーチファクトに変換されないことを意味する(残存部分の0の値は変化しない)。
サイズ(nTbS)×(nTbS)のアレイtempPredSamplesは、(nTbS)×(nTbS)アレイresSamplesに追加され、resSamplesアレイは、位置(xTbP、yTbP)でtemporalBufferに記憶される。この例では、resSamplesは第2のセットの残存部分を表し、tempPredSamplesは時間的予測のセットを表し、上記のように、例えば、デコーダで受信された時間的シグナリングに依存して、時間的バッファ432の内容から導出され得る。このようにして、時間的処理が有効になり、これがブロックレベルで適用されるようにシグナリングされる場合、時間的バッファ432の内容は、第2のセットの残存部分に追加され(468)、時間的に修正された第2のセットの残存部分を生成し、次いで、時間的バッファ432に記憶される。
本明細書の例では、時間的バッファから導出される時間的予測のセットは、時間的予測を実行するために、複数のブロックの各ブロックに対する残存部分のセットと組み合わされる。例えば、これは、ブロックのそれぞれの要素の予備残存部分のセットのそれぞれの予備残存部分要素を取得することと、要素と関連付けられているそれぞれの時間的予測を取得することと、を伴い、時間的予測は、特定の場合にゼロに設定されてもよく、または時間的バッファの内容から導出されてもよく、これは次に、デコーダで受信される特定の時間的シグナリングによってゼロにされてもよい。次いで、それぞれの予備残存部分要素は、ブロックの時間的予測と組み合わせて、下位レベル(例えば、レベル1および基本レベル)からのアップサンプリングされた再構成信号と組み合わせるための再構成残存部分値(例えば、レベル2の残存部分値)のセットを出力し得る。
本明細書に記載の例では、デコーダ400、480は、フレームレベル、タイルレベル、およびブロックレベルの3つのレベルでの時間的予測のセットの値のゼロ化を提供するように構成されている。例えば、上述のtemporal_refresh_bitは、フレームレベルでの時間的バッファ432の更新(例えば、時間的バッファ値のゼロ化)を指示するために使用されてもよく、例えば、完全なフレームに関連する時間的バッファ内のすべての値がゼロに設定される。次いで、これは、時間的予測値のゼロ化を提供してもよく、ここでこれらの値は、後に時間的バッファ432から導出される。ブロックレベルでは、時間的予測値が時間的バッファ432から導出されるべきか、またはゼロに設定されるべきかを示す時間的シグナリングは、変換係数値(例えば、逆変換の前の4×4変換についてのHHなどの係数の値)内で行われてもよい。タイルレベルでは、temporal_tile_intra_signalling_enabledなどのパラメータを使用して、タイル内の1つのブロックに対するブロックレベルシグナリングが、タイルに対する時間的バッファ432の更新を指示するために使用されるべきであることを示してもよく、すなわち、タイル内の1つのブロックに対するブロックレベルシグナリングがタイルレベルシグナリングになる。時間的バッファ432が更新されると、時間的バッファ内の値が0に設定され、次いで、同じタイル内の後続のブロックについて、ブロックレベルシグナリングに関係なく、時間的バッファから適用される値がゼロになることを意味する。
このアプローチは、時間的バッファ432の更新に対する柔軟性を提供する。例えば、時間的バッファ432は、第1のフレームのフレームレベルで、および第2のフレームの少なくとも1つのタイルのタイルレベルで更新されてもよく、時間的予測は、第3のフレームの少なくとも1つのブロックのブロックレベルでゼロ化されてもよい。ブロックレベルでは、時間的予測のゼロ化は、時間的バッファ432をゼロ化することと同等の動作と見なすことができ、両方の動作は、0の値を有する要素が加算468で適用されることをもたらす。例えば、デコーダ400、480は、フレームの第1のタイルに対する時間的バッファ432の値を更新し、同じフレームの第2のタイルの第1のブロックに対する時間的予測に対してゼロを適用する一方で、第2のタイルの第2のブロックに対する時間的予測の非ゼロ値を適用するように構成されてもよい。
本明細書に記載される復号プロセスでは、復号ビデオを生成することは、ブロックごとに実行されてもよい。このようにして、復号ビデオのフレーム内の要素のブロックを生成することは、以前に生成された復号ビデオの同じフレーム内の要素の別のブロックを使用することなく実行することができる。このため、時間的予測プロセスは、フレーム内の要素の各ブロックに対する時間的予測プロセスを順次実行するのとは対照的に、フレーム内の要素のすべてのブロックに対して並行して実行されてもよい。
さらなる実施例を以下に記載する。
いくつかのさらなる例は、符号化ストリームが組み合わされて入力ビデオを再構成することができるように、入力ビデオを複数の符号化ストリームに符号化する方法に関し、この方法は、フル解像度の入力ビデオを受信することと、フル解像度の入力ビデオをダウンサンプリングして、ダウンサンプリングビデオを作成することと、第1のコーデックを使用してダウンサンプリングビデオを符号化して、基本符号化ストリームを作成することと、符号化ビデオからビデオを再構成して、再構成ビデオを生成することと、再構成ビデオを入力ビデオと比較することと、比較に基づいて1つ以上のさらなる符号化ストリームを作成することと、を含む。再構成ビデオと比較した入力ビデオは、ダウンサンプリングビデオであってもよい。
例示的な方法によれば、再構成ビデオを入力ビデオと比較することは、再構成ビデオをダウンサンプリングビデオと比較して、第1のセットの残存部分を作成することを含み、1つ以上のさらなる符号化ストリームを作成することは、第1のセットの残存部分を符号化して、第1のレベルの符号化ストリームを作成することを含む。
再構成ビデオと比較した入力ビデオは、フル解像度の入力ビデオであってもよく、再構成ビデオはアップサンプリングされてもよい。
例示的な方法によれば、再構成ビデオを入力ビデオと比較することは、再構成ビデオをアップサンプリングして、アップサンプリング再構成ビデオを生成することと、アップサンプリング再構成ビデオをフル解像度の入力ビデオと比較して、第2のセットの残存部分を作成することと、を含み、1つ以上のさらなる符号化ストリームを作成することは、第2の差を符号化して第2のレベルの符号化ストリームを作成することと、を含む。
したがって、ある例では、方法は、上に定義された例示的方法に従って、基本符号化ストリーム、第1のレベルの符号化ストリーム、および第2のレベルの符号化ストリームを生成することができる。第1のレベルの符号化ストリームおよび第2のレベルの符号化ストリームの各々は、符号化基本ストリームを強化するためにデコーダによって使用される拡張データを含み得る。
例示的な方法によれば、第1のセットの残存部分を符号化するステップは、残存部分のセットに変換を適用して、係数のセットを作成することと、係数に量子化演算を適用して、量子化された係数のセットを作成することと、符号化動作を量子化された係数に適用することと、を含む。
例示的な方法によれば、第2のセットの残存部分を符号化するステップは、第2のセットの残存部分に変換を適用して、係数のセットを作成することと、係数に量子化演算を適用して、量子化された係数のセットを作成することと、符号化演算を量子化された係数に適用することと、を含む。
第1および/または第2のセットの残存部分を符号化するための変換は、例えば、離散コサイン変換またはウェーブレット変換であり得る。代替の例では、変換は、要素のブロックを方向性成分に分解する(例えば、2×2カーネルまたは4×4カーネルを使用する)小さな変換であってもよい。例えば、2×2カーネルは、ハダマード変換であってもよい。変換の詳細は、例えば、参照により本明細書に組み込まれるPCT/EP2013/059847またはPCT/GB2017/052632に見出すことができる。さらなる例では、エンコーダは、使用される異なる変換の間、例えば、2×2カーネルと4×4カーネルとの間で選択されてもよい。これにより、残存部分の符号化方式のさらなる柔軟性が可能になる。変換の選択は、変換されるデータの分析に基づいていてもよい。
第1のセットの残存部分および第2のセットの残存部分は、それらに適用される異なる変換を有してもよく、選択は、プロセス中に予め決定されるか、または選択されてもよい。使用される変換は、ヘッダ内でシグナリングされてもよい。
第1および/または第2のセットの残存部分を符号化するための量子化は、例えば、線形量子化であってもよい。線形量子化器は、可変サイズのデッドゾーンを使用してもよい。符号化動作は、例えばエントロピーエンコーダであってもよく、実行長符号化および/またはハフマン符号化を含んでもよい。
残存部分は、2つのビデオまたはフレームの差であってもよい。
第1のセットの残存部分を符号化するステップは、第1のセットの残存部分の事前分析に基づいて第1のセットの残存部分をランク付けすることと、変換および符号化される残存部分のサブセットを選択することと、を含み得る。
ある例では、方法は、第1のセットの残存部分を分析することと、分析に基づいて、以下のステップを実行すること、または実行しないことのいずれかを含む。第1のセットの残存部分をランク付けすることと、変換および符号化される残存部分のサブセットを選択すること。
ある例では、方法は、第1のセットの残存部分を分析することと、第1のセットの残存部分をランク付けすることと、変換および符号化される残存部分のサブセットを選択することとを含み、その結果、ランク付けおよび/または選択するステップは、分析に基づいて差別的に実行される。
例示的な方法によれば、変換を適用するステップは、第1のセットの残存部分の残存部分の選択されたサブセットに対して実行される。
第2のセットの残存部分を符号化するステップは、第2のセットの残存部分の事前分析に基づいて第2のセットの残存部分をランク付けすることと、変換および符号化される残存部分のサブセットを選択することと、を含み得る。
ある例では、方法は、第2のセットの残存部分を分析することと、分析に基づいて、以下のステップを実行すること、または実行しないことのいずれかを含む。第2のセットの残存部分をランク付けすること、および/または変換および符号化される残存部分のサブセットを選択すること。
ある例では、方法は、第2のセットの残存部分を分析することと、第2のセットの残存部分をランク付けすることと、変換および符号化される残存部分のサブセットを選択することとを含み、その結果、ランク付けおよび/または選択するステップは、分析に基づいて差別的に実行される。
例示的な方法によれば、変換を適用するステップは、第2のセットの残存部分の残存部分の選択されたサブセットに対して実行される。
符号化ストリームは、復号を容易にするために符号化プロセスの態様を示すパラメータを含む1つ以上のヘッダを伴ってもよい。例えば、ヘッダは、使用されるコーデック、適用される変換、適用される量子化、および/または他の復号パラメータを含み得る。
特定の例では、量子化のステップは、変換される係数および/またはデータ、例えば残存部分データの分析に基づいて量子化を適合させることを含み得る。特定の例では、量子化ステップで使用される分布は、適合されてもよい。
第1のセットの残存部分を符号化するステップは、時間的バッファから時間的係数のセットを導出することと、係数のセットから時間的係数のセットを減算することと、を含み得る。
第2のセットの残存部分を符号化するステップは、時間的バッファから時間的係数のセットを導出することと、係数のセットから時間的係数のセットを減算することと、を含み得る。
ランク付けおよび選択のステップが残存部分データに適用され得る方法、時間的係数を減算するステップが実行され得る方法、および量子化が適応され得る方法が上述された。これらのステップの各々は、入力ビデオ、ダウンサンプリングビデオ、再構成ビデオ、アップサンプリングビデオ、または上記の任意の組み合わせの分析に基づいて、エンコーダの全体的なパフォーマンスを改善するために、予め決定され、選択的に適用されてもよく、または適用されてもよい。ステップは、所定の規則のセットに基づいて選択的に適用されてもよく、またはパフォーマンスの分析またはフィードバックに基づいて決定的に適用されてもよい。
ある例の方法によれば、第1のコーデックは、ハードウェアベースのコーデックであり、好ましくは、第1のコーデックは、AVC、HEVC、AV1、VP8、またはVP9である。
例示的な方法は、基本符号化ストリームを送信することをさらに含む。
例示的な方法は、第1のレベルの符号化ストリームを送信することをさらに含む。
例示的な方法は、第2のレベルの符号化ストリームを送信することをさらに含む。
いくつかのさらなる例は、複数の符号化ストリームを再構成された出力ビデオに復号する方法であって、第1の基本符号化ストリームを受信することと、第1のコーデックに従って第1の基本符号化ストリームを復号して、第1の出力ビデオを生成することと、1つ以上のさらなる符号化ストリームを受信することと、1つ以上のさらなる符号化ストリームを復号して、残存部分のセットを生成することと、残存部分のセットを第1のビデオと組み合わせて、復号ビデオを生成することと、を含む、方法に関する。
ある例では、方法は、ヘッダから複数の復号パラメータを取り出すことを含む。復号パラメータは、どの手順ステップが符号化プロセスに含まれたかを示し得る。
ある例では、1つ以上のさらなる符号化ストリームを復号して、残存部分のセットを生成するステップは、エントロピー復号動作を適用するステップと、脱量子化動作を適用するステップと、逆変換動作を適用して、残存部分のセットを生成するステップと、を含む。
ある例では、1つ以上のさらなる符号化ストリームを復号して、残存部分のセットを生成するステップは、時間的バッファからの同じ位置にある残存部分に基づいて残存部分のサブセットを予測することを含む。
ある例では、方法は、第1のレベルの符号化ストリームを受信することと、第2のレベルの符号化ストリームを受信することと、を含み得る。この例では、1つ以上のさらなる符号化ストリームを復号して、残存部分のセットを生成するステップは、第1のレベルの符号化ストリームを復号して、第1のセットの残存部分を導出するステップと、残存部分のセットを第1のビデオと組み合わせて、復号ビデオを生成するステップと、第1のセットの残存部分を第1の出力ビデオと組み合わせて、第2の出力ビデオを生成するステップと、第2の出力ビデオをアップサンプリングしてアップサンプリングした第2の出力ビデオを生成するステップと、第2のレベルの符号化ストリームを復号して、第2のセットの残存部分を導出するステップと、第2のセットの残存部分を第2の出力ビデオと組み合わせて、再構成された出力ビデオを生成するステップと、を含む。
ある例では、第2の出力ビデオをアップサンプリングして、アップサンプリングされた第2の出力ビデオを生成するステップは、アップサンプリングされた第2の出力ビデオ内のブロックがアップサンプリングされた第2の出力ビデオ内の対応するブロックに導出された第1のセットの残存部分内の要素の値を追加することを含む。ブロックは、2×2ブロックであってもよい。この追加ステップは、所定の値またはヘッダに含まれる信号に基づいて選択的に実行されてもよい。
ある例では、第1のレベルの符号化ストリームを復号して、第1のセットの残存部分を導出するステップは、エントロピー復号動作を適用することと、脱量子化動作を適用することと、逆変換動作を適用して、第1のセットの残存部分を生成することと、を含む。
この例では、第1のレベルの符号化ストリームを復号して、第1のセットの残存部分を導出するステップは、残存部分のブロックにマスクを適用するように構成されたブロック解除フィルタを適用することを含む。マスクは、所定の重みのセットに従って重み付けされてもよい。
ある例では、第2のレベルの符号化ストリームを復号して、第2のセットの残存部分を導出するステップは、エントロピー復号動作を適用することと、脱量子化動作を適用することと、逆変換動作を適用して、第2のセットの残存部分を生成することと、を含む。
逆変換動作は、上で定義された動作の逆動作であってもよく、または実質的に鏡像化された動作であってもよい。すなわち、2×2ブロックまたは4×4ブロック変換が選択的に適用されてもよい。変換は、復号方法によって検出されてもよく、またはヘッダ内でシグナリングされてもよい。
2×2変換が使用される場合、係数は、変換された残存部分のブロックが予測される、残存部分の値を追加することによって修正され得る。4×4変換を使用する場合、係数は4つの残存部分の平均値を追加することによって修正されることになる。
方法は、再構成出力を表示または出力することをさらに含み得る。
ある例では、複数の符号化ストリームを再構成された出力ビデオに復号する方法は、符号化拡張ストリームを受信することと、符号化拡張ストリームを復号して、残存部分のセットを導出することと、復号拡張ストリームから残存部分の予備セットのセットを取得することと、時間的バッファを使用して時間的予測のセットを導出することと、時間的予測のセットを予備残存部分のセットに追加して、処理された残存部分のセット(例えば、レベル2の残存部分)を出力することと、を含む。この例では、複数の符号化ストリームを再構成された出力ビデオに復号する方法はまた、第1の出力ビデオを受信することであって、第1の出力ビデオが基本レベルの符号化ストリームに適用される基本デコーダの出力を含む、受信することと、より低いレベルに関連するさらなる符号化拡張ストリームを受信することと、さらなる符号化拡張ストリームを復号して、さらなる残存部分のセットを導出し、さらなる残存部分のセットを第1の出力ビデオと組み合わせて、第2の出力ビデオを生成することと、第2の出力ビデオをアップサンプリングして、アップサンプリングされた第2の出力ビデオを生成することと、処理された残存部分のセットをアップサンプリングされた第2の出力ビデオと組み合わせて、再構成された出力ビデオを生成することと、を含む。
ある例では、符号化拡張ストリームを復号して、予備残存部分のセットを導出することは、エントロピー復号動作を適用することと、脱量子化動作を適用することと、変換動作を適用して、予備残存部分のセットを生成することと、を含む。
ある例では、さらなる符号化拡張ストリームを復号して、さらなる残存部分のセットを導出することは、さらなる符号化拡張ストリームからさらなる予備残存部分のセットを取得することと、第2の時間的バッファを使用してさらなる時間的予測のセットを導出することと、さらなる予備残存部分のセットにさらなる時間的予測のセットを追加して、さらなる(レベル1)残存部分のセットを出力することと、を含む。
ある例では、さらなる符号化拡張ストリーム(すなわち、レベル1ストリーム)を復号して、さらなる残存部分のセット(すなわち、レベル1残存部分)を導出することは、エントロピー復号動作を適用することと、脱量子化動作を適用することと、変換動作を適用して、さらなる残存部分のセットを生成することと、を含む。これらの実施例に記載されているような時間的処理は、本明細書に記載されている拡張レベルの各々に同様にかつ選択的に適用されてもよい。
本明細書に記載される特定の例は、1つ以上の符号化ストリームと関連付けられている時間的処理に関する。デコーダは、時間的バッファを使用して時間処理を適用するように構成されてもよい。
デコーダは、複数の符号化ストリームを再構成された出力ビデオに復号するように構成されてもよい。デコーダは、第1の出力ビデオを受信するように構成されてもよく、第1の出力ビデオは、基本レベルの符号化ストリームに適用される基本デコーダの出力を含む。デコーダは、1つ以上のさらなる符号化ストリームを受信するように構成され得る。デコーダは、1つ以上のさらなる符号化ストリームのそれぞれのフレームを復号して、それぞれの残存部分のセットを導出するように構成され得る。
いくつかの例では、それぞれのフレームの各フレームは、複数のタイルに分割され得る。各タイルは、複数のブロックに分割され得る。
他の場合には、それぞれのフレームの各フレームは、複数の平面に分割され得る。各面は、複数のタイルに分割され得る。複数のタイルの各タイルは、複数のブロックに分割され得る。
デコーダはまた、残存部分のセットを第1の出力ビデオと組み合わせて、再構成された出力ビデオを生成するように構成され得る。それぞれのフレームを復号するために、デコーダは、複数のブロックの各ブロックに対して、1つ以上のさらなる符号化ストリームから残存部分の予備セットを取得するように構成され得る。それぞれのフレームを復号するために、デコーダは、時間的バッファを使用して時間的予測のセットを導出するように構成され得る。それぞれのフレームを復号するために、デコーダは、時間的予測のセットを残存部分の予備セットと組み合わせて、第1の出力ビデオとの組み合わせのためのデータを出力するように構成され得る。
デコーダは、時間的予測のセットの値を選択的にゼロ化するために提供するように構成されてもよい。デコーダは、それぞれのフレームのうちの少なくとも1つについて、フレームレベルでの時間的予測のセットの値のゼロ化を提供するように構成され得る。デコーダは、複数のタイルのうちの少なくとも1つに対して、タイルレベルで時間的予測のセットの値のゼロ化を提供するように構成され得る。デコーダは、複数のブロックのうちの少なくとも1つに対して、ブロックレベルで値のゼロ化を提供するように構成され得る。
デコーダは、複数のブロックのそれぞれの残存部分要素を取得するように構成され得る。デコーダは、それぞれの残存部分要素の各々に対する時間的バッファから時間的予測のセットのそれぞれの時間的予測を導出するように構成され得る。
デコーダは、時間的バッファの少なくとも一部分を更新することによって時間的予測のセットの値をゼロ化するように構成され得る。いくつかのさらなる例は、データセットを、ヘッダおよびペイロードを含む符号化データセットに符号化するための装置に関する。以上のステップに従って、入力ビデオを符号化するように構成された装置。装置は、上記態様のいずれか1つに記載の方法を実行するように構成されたプロセッサを備え得る。
いくつかのさらなる例は、データセットを、ヘッダおよびペイロードを含むデータセットからの再構成ビデオに復号するための装置に関する。以上のステップに従って、出力ビデオを復号するように構成された装置。装置は、上記態様のいずれか1つに記載の方法を実行するように構成されたプロセッサを備え得る。
エンコーダおよびデコーダもまた提供され得る。
いくつかのさらなる例は、プロセッサによって実行されたときに、プロセッサに上記の態様の方法のいずれか1つを実行させるコンピュータ可読媒体に関する。
上記の実施形態は、例示的な例として理解されるべきである。さらなる実施形態が想定される。任意の1つの実施形態に関連して記載される任意の特徴が、単独で、または記載される他の特徴と組み合わせて使用され得、また、実施形態の任意の他の1つ以上の特徴、または実施形態の任意の他の任意の組み合わせと組み合わせて使用され得ることを理解されたい。さらに、上記に記載されていない等価物および修正は、添付の特許請求の範囲の範囲内で用いられ得る。

Claims (21)

  1. 複数の符号化ストリームを再構成された出力ビデオに復号するように構成されたデコーダであって、前記デコーダが、
    第1の出力ビデオを受信することであって、前記第1の出力ビデオが、基本レベル符号化ストリームに適用される基本デコーダの出力を含む、受信することと、
    1つ以上のさらなる符号化ストリームを受信することと、
    前記1つ以上のさらなる符号化ストリームのそれぞれのフレームを復号して、それぞれの残存部分のセットを導出することであって、前記それぞれのフレームの各フレームが、複数のタイルに分割されており、前記複数のタイルの各タイルが、複数のブロックに分割されている、復号して導出することと、
    前記残存部分のセットを前記第1の出力ビデオと組み合わせて、前記再構成された出力ビデオを生成することと、を行うように構成されており、
    それぞれのフレームを復号するために、前記デコーダが、
    前記複数のブロックの各ブロックに対して、前記1つ以上のさらなる符号化ストリームから残存部分の予備セットを取得することと、
    時間的バッファを使用して時間的予測のセットを導出することと、
    前記時間的予測のセットを前記残存部分の予備セットと組み合わせて、前記第1の出力ビデオとの組み合わせのためのデータを出力することと、を行うように構成されており、
    前記デコーダが、前記それぞれのフレームのうちの少なくとも1つに対してフレームレベルで、前記複数のタイルのうちの少なくとも1つに対してタイルレベルで、および前記複数のブロックのうちの少なくとも1つに対してブロックレベルで、前記時間的予測のセットの値のゼロ化を提供するように構成されている、デコーダ。
  2. 前記デコーダが、前記再構成された出力ビデオ内のフレームからの要素の第1のブロックを、前記再構成された出力ビデオ内の前記フレームからの要素の第2のブロックを使用することなく、生成するように構成されている、請求項1に記載のデコーダ。
  3. 前記デコーダが、
    前記複数のブロックのうちのブロックのそれぞれの残存要素を取得することと、
    前記それぞれの残存要素の各々に対して、前記時間的バッファから前記時間的予測のセットのそれぞれの時間的予測を導出することと、を行うように構成されている、請求項1または2に記載のデコーダ。
  4. 前記デコーダが、前記1つ以上のさらなる符号化ストリームにエントロピー復号動作を適用することと、前記それぞれのブロックに脱量子化動作を適用すること、および前記それぞれのブロックに逆変換動作を適用することによって、前記残存部分の予備セットを取得することと、を行うようにさらに構成されている、請求項1~3のいずれか一項に記載のデコーダ。
  5. 前記デコーダが、前記時間的バッファの少なくとも一部分を更新することによって、前記時間的予測のセットの前記値をゼロ化するように構成されている、請求項1~4のいずれか一項に記載のデコーダ。
  6. 前記デコーダは、時間的処理が有効化されていることを示す第1の値を有する第1のパラメータを受信することに応答して、前記時間的予測の前記値をゼロ化するように構成されている、請求項1~5のいずれか一項に記載のデコーダ。
  7. 前記第1のパラメータの前記第1の値のビット長が、1ビットである、請求項6に記載のデコーダ。
  8. 前記第1のパラメータが、前記複数の符号化ストリームと関連付けられているピクチャのグループに対して1回受信される、請求項6または請求項7に記載のデコーダ。
  9. 前記デコーダが、前記複数のブロックの各それぞれのブロックに対して、前記1つ以上のさらなる符号化ストリームからのデータから第2のパラメータを取得することと、
    前記それぞれのブロックの前記第2のパラメータが、前記それぞれのブロックに時間的シグナリングを提供する第2の値を有すると決定することに応答して、前記複数のブロックの前記それぞれのブロックの前記時間的予測の前記値をゼロに設定することと、を行うように構成されている、請求項1~8のいずれか一項に記載のデコーダ。
  10. 前記デコーダが、前記複数のタイルのうちの1つのタイルに対する前記時間的バッファを、前記タイル内の指定されたブロックのための前記第2のパラメータを受信することに応答して、更新するように構成されている、請求項1~9のいずれか一項に記載のデコーダ。
  11. 前記デコーダは、前記第2の値を有する前記第2のパラメータと、前記第2の値を有する前記指定されたブロックのための前記第2のパラメータを受信することが、前記タイルと関連付けられた前記時間的バッファ内の値が更新されるべきであることを示す第3の値を有する第3のパラメータとの両方を受信することに応答して、前記タイルと関連付けられた前記時間的バッファの前記値を更新するように構成されている、請求項10に記載のデコーダ。
  12. 前記第3のパラメータの前記第3の値のビット長が、1ビットである、請求項11に記載のデコーダ。
  13. 前記第3のパラメータが、前記複数の符号化ストリームと関連付けられているピクチャのグループに対して1回受信される、請求項11または請求項12に記載のデコーダ。
  14. 前記デコーダが、前記それぞれのフレームのうちの1つのフレームの第1のタイルに対する前記時間的バッファの値を更新することと、第2のタイルの第2のブロックに対する前記時間的予測のセットの値をゼロにすることなく、前記フレームの前記第2のタイルの第1のブロックに対する前記時間的予測のセットの前記値をゼロにすることと、を行うように構成されている、請求項1~13のいずれか一項に記載のデコーダ。
  15. 前記デコーダが、入力ビデオから導出されたデータと前記基本レベル符号化ストリームから導出されたデータとの比較から生成された残存部分データを受信するように構成された拡張デコーダを含み、前記1つ以上のさらなる符号化ストリームが、前記第1の出力ビデオへの適用のための残存部分データの1つ以上のさらなるセットを再構成するために復号可能である、符号化残存部分データを含む、請求項1~14のいずれか一項に記載のデコーダ。
  16. 前記拡張デコーダが、前記基本デコーダとは異なる、請求項1~15のいずれか一項に記載のデコーダ。
  17. 前記1つ以上のさらなる符号化ストリームの第1のフレームに対する残存部分のセットを復号するための変換係数のセットが、前記第1のフレームに対する前記変換係数のセットと、前記第1のフレームとは異なる前記1つ以上のさらなる符号化ストリームの第2のフレームに対するさらなる変換係数のセットとの間の差を表す、請求項1~16のいずれか一項に記載のデコーダ。
  18. 前記それぞれのフレームの各フレームが、複数の平面に分割され、前記複数の平面の各平面が、複数のタイルに分割され、前記複数のタイルの各タイルが、複数のブロックに分割されている、請求項1~17のいずれか一項に記載のデコーダ。
  19. 複数の符号化ストリームを再構成された出力ビデオに復号する方法であって、前記方法が、
    第1の出力ビデオを受信することであって、前記第1の出力ビデオが、基本レベル符号化ストリームに適用される基本デコーダの出力を含む、受信することと、
    1つ以上のさらなる符号化ストリームを受信することと、
    前記1つ以上のさらなる符号化ストリームのそれぞれのフレームを復号して、それぞれの残存部分のセットを導出することであって、前記それぞれのフレームの各フレームが、複数のタイルに分割されており、前記複数のタイルの各タイルが、複数のブロックに分割されている、復号して導出することと、
    前記残存部分のセットを前記第1の出力ビデオと組み合わせて、前記再構成された出力ビデオを生成することと、を含み、
    前記復号することが、
    前記複数のブロックの各ブロックに対して、前記1つ以上のさらなる符号化ストリームから予備残存部分のセットを取得することと、
    時間的バッファを使用して時間的予測のセットを導出することと、
    前記時間的予測のセットを前記予備残存部分のセットと組み合わせることと、をさらに含み、
    前記復号することが、フレームレベルで前記それぞれのフレームのうちの少なくとも1つに対して、タイルレベルで前記複数のタイルのうちの少なくとも1つに対して、およびブロックレベルで前記複数のブロックのうちの少なくとも1つに対して、前記時間的予測のセットの値のゼロ化を行うことを含む、方法。
  20. 前記再構成された出力ビデオ内のフレームからの要素の第1のブロックを、前記再構成された出力ビデオ内の前記フレームからの要素の第2のブロックを使用することなく、生成することを含む、請求項19に記載の方法。
  21. 前記復号することが、
    前記フレームレベルで、時間的処理が有効化されているかどうかを示す第1のパラメータを受信することと、
    前記ブロックレベルで、前記時間的バッファが使用されるべきであるかどうかを示す第2のパラメータを受信することと、
    前記タイルレベルで、前記第2のパラメータが前記タイルのための時間的シグナリングとして取られるべきであるどうかを示す第3のパラメータを受信することと、を含み、
    前記導出することが、前記第1、第2、および第3のパラメータによって指示される、請求項19または請求項20に記載の方法。
JP2021558488A 2019-03-20 2020-03-18 ビデオコーディング技術の時間的処理 Pending JP2022528529A (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
GBGB1903844.7A GB201903844D0 (en) 2019-03-20 2019-03-20 A method of encoding and decoding a video
GB1903844.7 2019-03-20
GBGB1904014.6A GB201904014D0 (en) 2019-03-23 2019-03-23 Video coding technology
GB1904014.6 2019-03-23
GBGB1904492.4A GB201904492D0 (en) 2019-03-29 2019-03-29 Video coding technology
GB1904492.4 2019-03-29
GBGB1905325.5A GB201905325D0 (en) 2019-04-15 2019-04-15 Video coding technology
GB1905325.5 2019-04-15
PCT/GB2020/050693 WO2020188272A1 (en) 2019-03-20 2020-03-18 Temporal processing for video coding technology

Publications (2)

Publication Number Publication Date
JP2022528529A true JP2022528529A (ja) 2022-06-14
JPWO2020188272A5 JPWO2020188272A5 (ja) 2023-03-29

Family

ID=69770937

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021558488A Pending JP2022528529A (ja) 2019-03-20 2020-03-18 ビデオコーディング技術の時間的処理
JP2021558489A Pending JP2022528403A (ja) 2019-03-20 2020-03-19 ビデオ符号化における残差の量子化

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021558489A Pending JP2022528403A (ja) 2019-03-20 2020-03-19 ビデオ符号化における残差の量子化

Country Status (12)

Country Link
US (4) US20220159250A1 (ja)
EP (4) EP3942818A1 (ja)
JP (2) JP2022528529A (ja)
KR (2) KR20220003509A (ja)
CN (4) CN113994689A (ja)
AU (2) AU2020244264A1 (ja)
BR (2) BR112021018469A2 (ja)
CA (2) CA3133943A1 (ja)
GB (6) GB2617304B (ja)
MX (2) MX2021011337A (ja)
WO (4) WO2020188237A1 (ja)
ZA (1) ZA202107043B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114616830A (zh) * 2019-11-07 2022-06-10 英特尔公司 超高分辨率视频内容的异构实时流送和解码
GB2601368B (en) * 2020-11-27 2023-09-20 V Nova Int Ltd Video decoding using post-processing control
GB2621248A (en) * 2020-11-27 2024-02-07 V Nova Int Ltd Video encoding using pre-processing
GB202107036D0 (en) 2021-05-17 2021-06-30 V Nova Int Ltd Secure decoder and secure decoding methods
GB2607123B (en) 2021-10-25 2023-10-11 V Nova Int Ltd Enhancement decoding implementation and method
GB2614763B (en) 2022-03-29 2024-05-01 V Nova Int Ltd Upsampling filter for applying a predicted average modification
CN116156170B (zh) * 2023-04-24 2024-04-16 北京中星微人工智能芯片技术有限公司 数据流的发送方法、装置、电子设备和存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6044757A (en) * 1998-12-18 2000-04-04 Mason; Marvin Gene Removable end cover for cylinder shaped food rolls
US7035473B1 (en) * 2000-03-01 2006-04-25 Sharp Laboratories Of America, Inc. Distortion-adaptive visual frequency weighting
US7403660B2 (en) * 2003-04-30 2008-07-22 Nokia Corporation Encoding picture arrangement parameter in picture bitstream
US20070195887A1 (en) * 2004-09-29 2007-08-23 Comer Mary L Method and apparatus for reduced resolution update video coding and decoding
KR100703749B1 (ko) * 2005-01-27 2007-04-05 삼성전자주식회사 잔차 재 추정을 이용한 다 계층 비디오 코딩 및 디코딩방법, 이를 위한 장치
US20070025441A1 (en) * 2005-07-28 2007-02-01 Nokia Corporation Method, module, device and system for rate control provision for video encoders capable of variable bit rate encoding
US8153863B2 (en) * 2007-03-23 2012-04-10 New York University Transgenic plants expressing GLK1 and CCA1 having increased nitrogen assimilation capacity
JP5504336B2 (ja) * 2009-05-05 2014-05-28 テレフオンアクチーボラゲット エル エム エリクソン(パブル) スケーラブルビデオ符号化方法、符号器及びコンピュータプログラム
WO2012148883A1 (en) * 2011-04-25 2012-11-01 Dolby Laboratories Licensing Corporation Non-linear vdr residual quantizer
DK3300370T3 (da) * 2012-02-29 2019-05-20 Sony Corp Anordning og fremgangsmåde til billedbehandling
ES2907510T3 (es) * 2012-05-14 2022-04-25 V Nova Int Ltd Descomposición de datos residuales durante la codificación, decodificación y reconstrucción de señales en una jerarquía escalonada
US9102227B2 (en) * 2012-07-30 2015-08-11 Mcmaster University Electro-mechanical double-rotor compound hybrid transmission
IN2015DN02130A (ja) * 2012-09-27 2015-08-14 Dolby Lab Licensing Corp
GB2509703B (en) * 2013-01-04 2016-09-14 Canon Kk Method and apparatus for encoding an image into a video bitstream and decoding corresponding video bitstream using enhanced inter layer residual prediction
EP3468191A1 (en) 2013-04-15 2019-04-10 V-Nova International Ltd Hybrid backward-compatible signal encoding and decoding
US10283032B2 (en) * 2015-10-07 2019-05-07 Samsung Display Co., Ltd. Integrated circuit for nonlinear data encoding
CN109417621A (zh) * 2016-07-04 2019-03-01 索尼公司 图像处理装置及方法
GB2552353B (en) * 2016-07-20 2022-04-20 V Nova Int Ltd Apparatuses, methods, computer programs and computer-readable media
GB2553556B (en) 2016-09-08 2022-06-29 V Nova Int Ltd Data processing apparatuses, methods, computer programs and computer-readable media
EP3516876A4 (en) * 2016-10-14 2020-07-22 MediaTek Inc. METHOD AND DEVICE FOR SMOOTHING A FILTER FOR THE REMOVAL OF RING ARTIFACTS
GB2573486B (en) * 2017-12-06 2022-12-21 V Nova Int Ltd Processing signal data using an upsampling adjuster
MX2021011013A (es) * 2019-03-11 2021-11-12 Huawei Tech Co Ltd Un codificador, un decodificador y métodos correspondientes.
GB2618718B (en) * 2019-03-20 2024-03-13 V Nova Int Ltd Low complexity enhancement video coding
US20220329802A1 (en) * 2019-07-05 2022-10-13 V-Nova International Limited Quantization of residuals in video coding

Also Published As

Publication number Publication date
GB202311262D0 (en) 2023-09-06
GB2596970B (en) 2023-09-13
GB2599509B (en) 2023-08-23
CA3133767A1 (en) 2020-09-24
CN113994689A (zh) 2022-01-28
KR20220003510A (ko) 2022-01-10
GB202114967D0 (en) 2021-12-01
GB2596968B (en) 2023-08-09
EP3942818A1 (en) 2022-01-26
WO2020188272A1 (en) 2020-09-24
GB2617777A (en) 2023-10-18
CA3133943A1 (en) 2020-09-24
BR112021018469A2 (pt) 2021-11-23
EP3942806A1 (en) 2022-01-26
GB2599509A (en) 2022-04-06
KR20220003509A (ko) 2022-01-10
US20220217345A1 (en) 2022-07-07
ZA202107043B (en) 2023-10-25
EP3942816A1 (en) 2022-01-26
GB2596969A (en) 2022-01-12
AU2020244267A1 (en) 2021-10-14
CN114270854A (zh) 2022-04-01
GB2596968A (en) 2022-01-12
CN114009027A (zh) 2022-02-01
GB2617777B (en) 2024-03-13
GB2617304B (en) 2024-04-03
CN113994687A (zh) 2022-01-28
GB2596969B (en) 2023-09-27
US20220159289A1 (en) 2022-05-19
GB202114970D0 (en) 2021-12-01
BR112021018470A2 (pt) 2021-11-23
EP3942814A1 (en) 2022-01-26
JP2022528403A (ja) 2022-06-10
MX2021011337A (es) 2021-12-10
GB202114966D0 (en) 2021-12-01
GB2617304A (en) 2023-10-04
US20220217372A1 (en) 2022-07-07
WO2020188242A1 (en) 2020-09-24
MX2021011333A (es) 2021-12-10
GB202114971D0 (en) 2021-12-01
US20220159250A1 (en) 2022-05-19
AU2020244264A1 (en) 2021-10-14
WO2020188237A1 (en) 2020-09-24
GB2596970A (en) 2022-01-12
GB202311254D0 (en) 2023-09-06
WO2020188282A1 (en) 2020-09-24
EP3942814B1 (en) 2024-05-01

Similar Documents

Publication Publication Date Title
EP3942813B1 (en) Temporal signalling for video coding technology
JP2022528529A (ja) ビデオコーディング技術の時間的処理
US10652576B2 (en) Features of base color index map mode for video and image coding and decoding
US10791333B2 (en) Video encoding using hierarchical algorithms
RU2648592C2 (ru) Управляющие данные для набора мозаичных фрагментов с ограничениями движения
KR20020014770A (ko) 코드화된 신호를 분리 및 합병하는 방법과 그 장치 및컴퓨터 프로그램 제품
KR20120028843A (ko) 계층적 영상 부호화/복호화 방법 및 장치
US20210329246A1 (en) Architecture for signal enhancement coding
US20080008241A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
US20070223573A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
US20070242747A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
US20190075327A1 (en) Video encoding method, video decoding method, video encoding device, video decoding device, and program
JP2018032913A (ja) 映像符号化装置、プログラム及び方法、並びに、映像復号装置、プログラム及び方法、並びに、映像伝送システム
CN113286152A (zh) 视频解码方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240304