JP2022510354A - ビデオ符号化における隣接ブロックの利用可能性のための方法および装置 - Google Patents

ビデオ符号化における隣接ブロックの利用可能性のための方法および装置 Download PDF

Info

Publication number
JP2022510354A
JP2022510354A JP2021531405A JP2021531405A JP2022510354A JP 2022510354 A JP2022510354 A JP 2022510354A JP 2021531405 A JP2021531405 A JP 2021531405A JP 2021531405 A JP2021531405 A JP 2021531405A JP 2022510354 A JP2022510354 A JP 2022510354A
Authority
JP
Japan
Prior art keywords
block
prediction mode
current block
prediction
adjacent block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021531405A
Other languages
English (en)
Inventor
シャオジョン・シュ
シャン・リュウ
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2022510354A publication Critical patent/JP2022510354A/ja
Priority to JP2023084821A priority Critical patent/JP2023111920A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Figure 2022510354000001
本開示の態様は、ビデオ符号化/復号化のための方法および装置を提供する。いくつかの例では、ビデオ復号化のための装置は処理回路を含む。処理回路は、符号化されたビデオシーケンスの一部である現在の符号化されたピクチャ内の現在のブロックの予測情報を復号化する。予測情報は、現在のブロックに使用される第1の予測モードを示す。処理回路は、現在のブロックに隣接し、かつ現在のブロックの前に再構築された隣接ブロックが第1の予測モードを使用するかどうかを決定する。次に、処理回路は、隣接ブロックが第1の予測モードを使用するという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入する。最後に、処理回路は、第1の予測モードの予測子リストに従って、現在のブロックを再構築する。

Description

参照による組み込み
本開示は、2019年4月25日に出願された米国特許出願第16/394,071号「METHODS FOR NEIGHBORING BLOCK AVAILABILITY OF INTRA BLOCK COPY PREDICTION MODE」の優先権の利益を主張し、上記特許出願は、2019年2月6日に出願された米国仮出願第62/704,053号「METHODS FOR NEIGHBORING BLOCK AVAILABILITY OF INTRA BLOCK COPY PREDICTION MODE」の優先権の利益を主張する。上記出願の開示全体は、参照によりその全体が本明細書に組み込まれる。
本開示は、一般にビデオ符号化に関連する実施形態を説明する。
本明細書で提供される背景説明は、本開示の文脈を一般的に提示することを目的としている。ここで名前が挙げられている発明者の仕事は、この背景セクションに記載されている範囲で、出願時に先行技術として適格とならない可能性のある記載の側面は、本開示に対する先行技術として明示的にも暗黙的にも認められない。
ビデオの符号化と復号化は、動き補償によるインターピクチャ予測を使用して実行され得る。非圧縮デジタルビデオは、一連のピクチャを含むことができ、各ピクチャは、例えば、1920x1080の輝度サンプルおよび関連するクロミナンスサンプルの空間寸法を有する。一連のピクチャは、例えば毎秒60枚または60 Hzの固定または可変のピクチャレート(非公式にはフレームレートとも呼ばれる)を有することができる。非圧縮ビデオは、重要なビットレート要件を有する。例えば、サンプルあたり8ビットの1080p60 4:2:0ビデオ(60 Hzフレームレートで1920x1080の輝度サンプル解像度)は、1.5 Gbit/sに近い帯域幅を必要とする。このようなビデオを1時間使用するには、600Gバイトを超える記憶スペースが必要である。
ビデオの符号化と復号化の目的の1つは、圧縮によって入力ビデオ信号の冗長性を減らすことである。圧縮は、前述の帯域幅または記憶スペースの要件を、場合によっては2桁以上低減するのに役立つ。可逆圧縮と非可逆圧縮の両方、およびそれらの組み合わせを使用することができる。可逆圧縮とは、圧縮された元の信号から元の信号の正確なコピーを再構築できる技術を指す。非可逆圧縮を使用する場合、再構築された信号は元の信号と同一ではない場合があるが、元の信号と再構築された信号との間の歪みは十分に小さいため、再構築された信号は目的の用途に役立つ。ビデオの場合、非可逆圧縮が広く採用されている。許容される歪みの量は、用途によって異なり、例えば、特定の消費者向けストリーミング用途のユーザは、テレビ配信用途のユーザよりも高い歪みを許容する場合がある。達成可能な圧縮比は、許容可能な/容認可能な歪みが大きいほど、圧縮比が高くなり得ることを反映することができる。
ビデオエンコーダおよびデコーダは、例えば、動き補償、変換、量子化、およびエントロピー符号化を含む、いくつかの広いカテゴリーからの技術を利用することができる。
ビデオコーデック技術は、イントラ符号化と呼ばれる技術を含むことができる。イントラ符号化では、サンプル値は、以前に再構築された参照ピクチャからのサンプルまたは他のデータを参照せずに表される。一部のビデオコーデックでは、ピクチャはサンプルのブロックに空間的に分割される。サンプルのすべてのブロックがイントラモードで符号化されている場合、そのピクチャはイントラピクチャであり得る。イントラピクチャおよび独立したデコーダリフレッシュピクチャなどのそれらの派生物は、デコーダの状態をリセットするために使用でき、したがって、符号化されたビデオビットストリームおよびビデオセッションの最初のピクチャとして、または静止画像として使用することができる。イントラブロックのサンプルを変換することができ、変換係数はエントロピー符号化の前に量子化することができる。イントラ予測は、変換前のドメインのサンプル値を最小化する技法である。場合によっては、変換後のDC値が小さく、AC係数が小さいほど、エントロピー符号化後のブロックを表すために特定の量子化ステップサイズで必要なビットが少なくなる。
例えば、MPEG-2世代の符号化技術から知られているような従来のイントラ符号化は、イントラ予測を使用しない。しかしながら、いくつかの新しいビデオ圧縮技術は、例えば、周囲のサンプルデータおよび/または空間的に隣接し復号化順序で先行するデータのブロックの符号化/復号化中に取得されたメタデータから試みる技術を含む。このような技術は、以降「イントラ予測」技術と呼ばれる。少なくともいくつかの場合では、イントラ予測は再構築中の現在のピクチャからの参照データのみを使用し、参照ピクチャからは使用しないことに留意されたい。
イントラ予測には様々な形式があり得る。そのような技術のうちの2つ以上が所与のビデオ符号化技術で使用され得る場合、使用される技術は、イントラ予測モードで符号化され得る。場合によっては、モードはサブモードおよび/またはパラメータを有することができ、それらを個別に符号化することも、モードコードワードに含めることもできる。特定のモード/サブモード/パラメータの組み合わせに使用するコードワードは、イントラ予測による符号化効率の向上に影響を与える可能性があり、コードワードをビットストリームに変換するために使用されるエントロピー符号化技術も影響を及ぼす。
イントラ予測の特定のモードがH.264で導入され、H.265で改良され、ジョイント探索モデル(JEM)、多用途ビデオ符号化(VVC)、ベンチマークセット(BMS)などの新しい符号化技術でさらに改良された。予測子ブロックは、既に利用可能なサンプルに属する隣接するサンプル値を使用して形成され得る。隣接するサンプルのサンプル値は、方向に従って予測子ブロックにコピーされる。使用時の方向への参照は、ビットストリームで符号化され得、またはそれ自体で予測されてもよい。
図1Aを参照すると、右下に示されているのは、H.265の33の可能な予測子方向から知られている9つの予測子方向のサブセットである(35のイントラモードの33の角度モードに対応する)。矢印が収束する点(101)は、予測されるサンプルを表す。矢印は、サンプルが予測される方向を表している。例えば、矢印(102)は、サンプル(101)が、水平から45度の角度で右上の1つまたは複数のサンプルから予測されることを示す。同様に、矢印(103)は、サンプル(101)が、水平から22.5度の角度で、サンプル(101)の左下にある1つまたは複数のサンプルから予測されることを示す。
引き続き図1Aを参照すると、左上に4x4サンプルの正方形のブロック(104)が描かれている(破線の太字の線で示されている)。正方形のブロック(104)は、それぞれが「S」でラベル付けされた16個のサンプル、Y次元でのその位置(例えば、行インデックス)、およびX次元でのその位置(例えば、列インデックス)を含む。例えば、サンプルS21は、Y次元(上から)の2番目のサンプルであり、X次元の1番目(左から)のサンプルである。同様に、サンプルS44は、Y次元とX次元の両方でブロック(104)の4番目のサンプルである。ブロックのサイズは4x4サンプルなので、S44は右下にある。同様の番号付けスキームに従った参照サンプルがさらに示されている。参照サンプルは、ブロック(104)に対するR、そのY位置(例えば、行インデックス)およびX位置(列インデックス)でラベル付けされている。H.264とH.265の両方で、予測サンプルは再構築中のブロックに隣接しており、したがって、負の値を使用する必要はない。
イントラピクチャ予測は、信号の予測方向に応じて、隣接するサンプルから参照サンプル値をコピーすることで機能することができる。例えば、符号化されたビデオビットストリームに、このブロックについて、矢印(102)と一致する予測方向を示すシグナリングが含まれていると仮定する。すなわち、サンプルは、1つまたは複数の予測サンプルから右上へ、水平から45度の角度で予測される。その場合、サンプルS41、S32、S23、およびS14は、同じ参照サンプルR05から予測される。次に、サンプルS44が参照サンプルR08から予測される。
特定の場合には、参照サンプルを計算するために、特に方向が45度で均等に割り切れない場合には、複数の参照サンプルの値を、例えば補間によって組み合わせることができる。
ビデオ符号化技術が発展するにつれて、可能な方向の数が増加した。H.264(2003年)では、9つの異なる方向を表すことができた。これはH.265(2013年)では33に増加し、JEM/VVC/BMSは、開示時点で最大65の方向をサポートすることができる。最も可能性の高い方向を特定するための実験が行われ、エントロピー符号化の特定の技術を使用して、それらの可能性のある方向を少数のビットで表し、可能性の低い方向に対する特定のペナルティを受け入れる。さらに、方向自体は、隣接する、既に復号化されたブロックで使用される隣接する方向から予測できる場合がある。
図1Bは、時間と共に増加する予測方向の数を説明するために、JEMによる65のイントラ予測方向を示す概略図(105)を示す。
方向を表す符号化されたビデオビットストリーム内のイントラ予測方向ビットのマッピングは、ビデオ符号化技術ごとに異なる可能性があり、例えば、予測方向からイントラ予測モード、コードワード、最も可能性の高いモードを含む複雑な適応スキーム、および同様の技法への単純な直接マッピングにまで及ぶ可能性がある。しかし、すべての場合において、特定の他の方向よりもビデオコンテンツで発生する可能性が統計的に低い特定の方向が存在することができる。ビデオ圧縮の目標は冗長性の低減であるため、これらの可能性の低い方向は、適切に機能するビデオ符号化技術では、可能性の高い方向よりも多くのビットで表される。
動き補償は非可逆圧縮技術である可能性があり、以前に再構築されたピクチャまたはその一部(参照ピクチャ)からのサンプルデータのブロックが、動きベクトル(以降、MV)によって示される方向に空間的にシフトされた後に、新しく再構築されたピクチャまたはピクチャ部分の予測に使用される。場合によっては、参照ピクチャは現在再構築中のピクチャと同じであり得る。MVは、2つの次元XとY、または3つの次元を有することができ、3番目は使用中の参照ピクチャを示す(後者は間接的に時間次元にすることができる)。
いくつかのビデオ圧縮技術では、サンプルデータの特定の領域に適用可能なMVは、他のMVから、例えば、再構築中の領域に空間的に隣接し、復号化の順にそのMVに先行するサンプルデータの別の領域に関連するMVから予測することができる。そうすることで、MVの符号化に必要なデータ量を大幅に削減できるため、冗長性が排除され、圧縮率が向上する。例えば、カメラから導出された入力ビデオ信号(ナチュラルビデオと呼ばれる)を符号化する際には、単一のMVが適用される領域よりも大きな領域が同じ方向に動く可能性が統計的に高いため、MV予測が有効に機能することができ、したがって、場合によっては、隣接領域のMVから導出された同様の動きベクトルを使用して予測することができる。その結果、特定の領域で検出されたMVは、周囲のMVから予測されたMVと類似または同一であり、エントロピー符号化後に、MVを直接符号化する場合に使用されるビット数よりも少ないビット数で表すことができる。場合によっては、MV予測は、元の信号(すなわち、サンプルストリーム)から導出された信号(すなわち、MV)の可逆圧縮の一例になり得る。その他の場合、例えば、周囲のいくつかのMVから予測子を計算するときの丸め誤差のために、MV予測自体が損失を被る可能性がある。
様々なMV予測メカニズムがH.265/HEVC(ITU-T Rec.H.265、「High Efficiency Video Coding」、2016年12月)に記載されている。H.265が提供する多くのMV予測メカニズムのうち、ここで説明するのは、以降「空間マージ」と呼ばれる技法である。
図1Cを参照すると、現在のブロック(111)は、空間的にシフトされた同じサイズの前のブロックから予測可能であることが動き検索プロセス中にエンコーダによって見いだされたサンプルを含むことができる。そのMVを直接符号化する代わりに、1つまたは複数の参照ピクチャに関連付けられたメタデータから、例えば、A0、A1、およびB0、B1、B2(それぞれ112~116)と表記された5つの周辺サンプルのいずれかに関連付けられたMVを使用して、最も新しい(復号化の順で)参照ピクチャからMVを導き出すことができる。H.265では、MV予測は、隣接ブロックが使用しているのと同じ参照ピクチャからの予測子を使用することができる。
本開示の態様は、ビデオ符号化/復号化のための方法および装置を提供する。いくつかの例では、ビデオ復号化のための装置は、受信回路および処理回路を含む。
処理回路は、符号化されたビデオシーケンスの一部である現在の符号化されたピクチャ内の現在のブロックの予測情報を復号化するように構成される。予測情報は、現在のブロックに使用される第1の予測モードを示す。処理回路は、現在のブロックに隣接し、かつ現在のブロックの前に再構築された隣接ブロックが第1の予測モードを使用するかどうかを決定する。次に、処理回路は、隣接ブロックが第1の予測モードを使用するという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入する。最後に、処理回路は、第1の予測モードの予測子リストに従って、現在のブロックを再構築する。
本開示の一態様によれば、隣接ブロックが第1の予測モードとは異なる第2の予測モードを使用するという決定に応答して、処理回路は、第2の予測モードがイントラ予測モードであるかどうかを決定するようにさらに構成される。次に、処理回路は、第2の予測モードがイントラ予測モードではないという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入する。
一実施形態では、処理回路は、隣接ブロックが現在のブロックと同じスライスにあるかどうかを決定する。スライスは、ラスタースキャン順序のブロックのグループであり、スライス内のブロックのグループは、同じ予測モードを使用する。隣接ブロックが現在のブロックと同じスライスにあるという決定に応答して、処理回路は、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入する。
一実施形態では、処理回路は、隣接ブロックが現在のブロックと同じタイルにあるか、または同じタイルグループにあるかを決定する。タイルはピクチャの領域であり、並行して独立して処理される。タイルグループはタイルのグループであり、タイルのグループ間で同じヘッダを共有することができる。隣接ブロックが現在のブロックと同じタイルまたは同じタイルグループにあるという決定に応答して、処理回路は、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入する。
一実施形態では、処理回路は、隣接ブロックが現在のブロックとオーバーラップするかどうかを決定する。隣接ブロックが現在のブロックとオーバーラップしないという決定に応答して、処理回路は、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入する。
一実施形態では、第1の予測モードは、イントラブロックコピー予測モードおよびインター予測モードのうちの少なくとも一方を含む。
一実施形態では、隣接ブロックからの予測情報は、ブロックベクトルおよび動きベクトルのうちの少なくとも一方を含む。ブロックベクトルは、隣接ブロックと現在のブロックの間のオフセットを示し、隣接ブロックがイントラブロックコピー予測モードで符号化されている場合に現在のブロックを予測するために使用される。動きベクトルは、隣接ブロックがインター予測モードで符号化されている場合に現在のブロックを予測するために使用される。
本開示の態様はまた、ビデオ復号化のためのコンピュータによって実行されると、コンピュータにビデオ復号化のための方法を実行させる命令を記憶する、非一時的なコンピュータ可読媒体を提供する。
開示された主題のさらなる特徴、性質、および様々な利点は、以下の詳細な説明および添付の図面からより明らかになるであろう。
イントラ予測モードの例示的なサブセットの概略図である。 例示的なイントラ予測方向の図である。 一例における現在のブロックおよびその周囲の空間マージ候補の概略図である。 一実施形態による通信システムの簡略化されたブロック図の概略図である。 一実施形態による通信システムの簡略化されたブロック図の概略図である。 一実施形態によるデコーダの簡略化されたブロック図の概略図である。 一実施形態によるエンコーダの簡略化されたブロック図の概略図である。 別の実施形態によるエンコーダのブロック図である。 別の実施形態によるデコーダのブロック図である。 一実施形態によるイントラブロックコピー予測モードの例示的な図である。 一実施形態による、イントラブロックコピー予測モードの有効な検索範囲における例示的な更新プロセスを示す図である。 一実施形態による、イントラブロックコピー予測モードの有効な検索範囲における例示的な更新プロセスを示す図である。 一実施形態による、イントラブロックコピー予測モードの有効な検索範囲における例示的な更新プロセスを示す図である。 一実施形態による、イントラブロックコピー予測モードの有効な検索範囲における例示的な更新プロセスを示す図である。 本開示の一実施形態による例示的なプロセスを概説するフローチャートである。 一実施形態によるコンピュータシステムの概略図である。
図2は、本開示の一実施形態による通信システム(200)の簡略化されたブロック図を示す。通信システム(200)は、例えば、ネットワーク(250)を介して互いに通信することができる複数の端末装置を含む。例えば、通信システム(200)は、ネットワーク(250)を介して相互接続された端末装置(210)および(220)の第1のペアを含む。図2の例では、端末装置(210)および(220)の第1のペアは、データの一方向送信を実行する。例えば、端末装置(210)は、ネットワーク(250)を介して他の端末装置(220)に送信するために、ビデオデータ(例えば、端末装置(210)によってキャプチャされたビデオピクチャのストリーム)を符号化することができる。符号化されたビデオデータは、1つまたは複数の符号化されたビデオビットストリームの形態で送信することができる。端末装置(220)は、ネットワーク(250)から符号化されたビデオデータを受信し、符号化されたビデオデータを復号化してビデオピクチャを回復し、回復されたビデオデータに従ってビデオピクチャを表示することができる。一方向データ送信は、メディアサービングアプリケーションなどで一般的であり得る。
別の例では、通信システム(200)は、例えばビデオ会議中に発生する可能性のある符号化されたビデオデータの双方向送信を実行する端末装置(230)および(240)の第2のペアを含む。データの双方向送信のために、一例では、端末装置(230)および(240)の各端末装置は、ネットワーク(250)を介して端末装置(230)および(240)の他の端末装置に送信するためのビデオデータ(例えば、端末装置によってキャプチャされるビデオピクチャのストリーム)を符号化することができる。端末装置(230)および(240)の各端末装置はまた、端末装置(230)および(240)の他の端末装置によって送信された符号化されたビデオデータを受信することができ、符号化されたビデオデータを復号化してビデオピクチャを回復することができ、回復されたビデオデータに従って、アクセス可能なディスプレイ装置でビデオピクチャを表示することができる。
図2の例では、端末装置(210)、(220)、(230)、および(240)は、サーバ、パーソナルコンピュータ、およびスマートフォンとして示され得るが、本開示の原理は、そのように限定されない場合がある。本開示の実施形態は、ラップトップコンピュータ、タブレットコンピュータ、メディアプレーヤ、および/または専用のビデオ会議機器を用いた用途を見いだす。ネットワーク(250)は、例えば有線(配線)および/または無線通信ネットワークを含む、端末装置(210)、(220)、(230)および(240)間で符号化されたビデオデータを伝達する任意の数のネットワークを表す。通信ネットワーク(250)は、回線交換および/またはパケット交換チャネルでデータを交換することができる。代表的なネットワークには、電気通信ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク、および/またはインターネットが含まれる。本説明の目的のために、ネットワーク(250)のアーキテクチャおよびトポロジーは、本明細書で以下に説明されない限り、本開示の動作にとって重要ではない可能性がある。
図3は、開示された主題のアプリケーションの例として、ストリーミング環境におけるビデオエンコーダおよびビデオデコーダの配置を示している。開示された主題は、例えば、ビデオ会議、デジタルテレビ、CD、DVD、メモリスティックなどを含むデジタルメディアへの圧縮ビデオの保存を含む、他のビデオ対応アプリケーションに等しく適用することができる。
ストリーミングシステムは、ビデオソース(301)、例えばデジタルカメラを含むことができるキャプチャサブシステム(313)を含むことができ、例えば、圧縮されていないビデオピクチャのストリーム(302)を作成する。一例では、ビデオピクチャのストリーム(302)は、デジタルカメラによって撮影されたサンプルを含む。符号化されたビデオデータ(304)(または符号化されたビデオビットストリーム)と比較して高いデータボリュームを強調するために太い線で描かれているビデオピクチャのストリーム(302)は、ビデオソース(301)に結合されたビデオエンコーダ(303)を含む電子デバイス(320)によって処理することができる。ビデオエンコーダ(303)は、ハードウェア、ソフトウェア、またはそれらの組み合わせを含むことができ、以下により詳細に説明するように、開示された主題の態様を可能にするかまたは実装する。ビデオピクチャのストリーム(302)と比較してより低いデータボリュームを強調するために細い線として描かれる符号化されたビデオデータ(304)(または符号化されたビデオビットストリーム(304))は、将来の使用のためにストリーミングサーバ(305)に記憶することができる。図3のクライアントサブシステム(306)および(308)などの1つまたは複数のストリーミングクライアントサブシステムは、ストリーミングサーバ(305)にアクセスして、符号化されたビデオデータ(304)のコピー(307)および(309)を検索することができる。クライアントサブシステム(306)は、例えば、電子デバイス(330)内にビデオデコーダ(310)を含むことができる。ビデオデコーダ(310)は、符号化されたビデオデータの着信コピー(307)を復号化し、ディスプレイ(312)(例えば、ディスプレイ画面)または他のレンダリングデバイス(図示せず)上でレンダリングできるビデオピクチャ(311)の発信ストリームを作成する。いくつかのストリーミングシステムでは、符号化されたビデオデータ(304)、(307)、および(309)(例えば、ビデオビットストリーム)は、特定のビデオ符号化/圧縮標準規格に従って符号化することができる。これらの標準規格の例には、ITU-T勧告H.265が含まれる。一例では、開発中のビデオ符号化標準規格は、非
公式に多用途ビデオ符号化(VVC)として知られている。開示された主題は、VVCの文脈で使用され得る。
電子デバイス(320)および(330)は、他の構成要素(図示せず)を含むことができることに留意されたい。例えば、電子デバイス(320)は、ビデオデコーダ(図示せず)を含むことができ、電子デバイス(330)は、ビデオエンコーダ(図示せず)も含むことができる。
図4は、本開示の一実施形態によるビデオデコーダ(410)のブロック図を示す。ビデオデコーダ(410)は、電子デバイス(430)に含まれ得る。電子デバイス(430)は、受信器(431)(例えば、受信回路)を含むことができる。ビデオデコーダ(410)は、図3の例のビデオデコーダ(310)の代わりに使用することができる。
受信器(431)は、ビデオデコーダ(410)によって復号化される1つまたは複数の符号化されたビデオシーケンスを受信することができ、同じまたは別の実施形態では、一度に1つの符号化されたビデオシーケンスであり、各符号化されたビデオシーケンスの復号化は、他の符号化されたビデオシーケンスから独立している。符号化されたビデオシーケンスは、チャネル(401)から受信することができ、チャネル(401)は、符号化されたビデオデータを記憶する記憶装置へのハードウェア/ソフトウェアリンクであってもよい。受信器(431)は、他のデータ、例えば、符号化されたオーディオデータおよび/または補助データストリームと共に符号化されたビデオデータを受信することができ、これらは、それぞれの使用エンティティ(図示せず)に転送され得る。受信器(431)は、符号化されたビデオシーケンスを他のデータから分離することができる。ネットワークジッタに対抗するために、バッファメモリ(415)は、受信器(431)とエントロピーデコーダ/パーサ(420)(以下、「パーサ(420)」)との間に結合され得る。特定のアプリケーションでは、バッファメモリ(415)はビデオデコーダ(410)の一部である。他のものでは、それはビデオデコーダ(410)の外側にあってもよい(図示せず)。また、ビデオデコーダ(410)の外部には、ネットワークジッタに対抗するためのバッファメモリ(図示せず)があり、さらにビデオデコーダ(410)の内部には、プレイアウトのタイミングに対応するための別のバッファメモリ(415)があってもよい。受信器(431)が十分な帯域幅および制御可能性のストア/フォワードデバイスから、または等同期ネットワークからデータを受信しているとき、バッファメモリ(415)は必要ないか、または小さくてもよい。インターネットなどのベストエフォート型のパケットネットワークで使用するためには、バッファメモリ(415)が必要になることがあり、比較的大きくすることができ、有利には適応的なサイズにすることができ、少なくとも部分的にビデオデコーダ(410)の外部のオペレーティングシステムまたは同様の要素(図示せず)に実装されてもよい。
ビデオデコーダ(410)は、符号化されたビデオシーケンスからシンボル(421)を再構築するためのパーサ(420)を含むことができる。それらのシンボルのカテゴリーは、ビデオデコーダ(410)の動作を管理するために使用される情報、および潜在的に、図4に示されていたように、電子デバイス(430)の不可欠な部分ではないが、電子デバイス(430)に結合することができるレンダリングデバイス(412)(例えば、ディスプレイ画面)などのレンダリングデバイスを制御するための情報を含む。レンダリングデバイスの制御情報は、補足拡張情報(SEIメッセージ)またはビデオユーザビリティ情報(VUI)パラメータセットフラグメント(図示せず)の形式であってもよい。パーサ(420)は、受信された符号化されたビデオシーケンスを構文解析/エントロピー復号化することができる。符号化されたビデオシーケンスの符号化は、ビデオ符号化技術または標準規格に従うことができ、可変長符号化、ハフマン符号化、文脈感度の有無にかかわらず算術符号化などを含む様々な原理に従うことができる。パーサ(420)は、グループに対応する少なくとも1つのパラメータに基づいて、符号化されたビデオシーケンスから、ビデオデコーダ内のピクセルのサブグループの少なくとも1つのサブグループパラメータのセットを抽出することができる。サブグループは、ピクチャのグループ(GOP)、ピクチャ、タイル、スライス、マクロブロック、符号化ユニット(CU)、ブロック、変換ユニット(TU)、予測ユニット(PU)などを含むことができる。パーサ(420)はまた、変換係数、量子化パラメータ値、動きベクトルなどの符号化されたビデオシーケンス情報から抽出することができる。
パーサ(420)は、シンボル(421)を作成するために、バッファメモリ(415)から受信されたビデオシーケンスに対してエントロピー復号化/構文解析操作を実行することができる。
シンボル(421)の再構築は、符号化されたビデオピクチャまたはその一部のタイプ(例えば、インターおよびイントラピクチャ、インターおよびイントラブロック)、および他の要因に応じて、複数の異なるユニットを含むことができる。どのユニットがどのように関与するかは、パーサ(420)によって符号化されたビデオシーケンスから構文解析されたサブグループ制御情報によって制御することができる。パーサ(420)と以下の複数のユニットとの間のそのようなサブグループ制御情報の流れは、明確にするために図示していない。
既に述べた機能ブロックを超えて、ビデオデコーダ(410)は、以下に説明するように、概念的にいくつかの機能ユニットに細分することができる。商業的制約の下で動作する実際の実施態様では、これらのユニットの多くは互いに密接に相互作用し、少なくとも部分的には互いに統合することができる。しかしながら、開示された主題を説明するために、以下の機能ユニットへの概念的な細分化が適切である。
第1のユニットはスケーラ/逆変換ユニット(451)である。スケーラ/逆変換ユニット(451)は、量子化された変換係数、ならびに使用する変換、ブロックサイズ、量子化係数、量子化スケーリング行列などを含む制御情報を、パーサ(420)からシンボル(421)として受け取る。スケーラ/逆変換ユニット(451)は、アグリゲータ(455)に入力することができるサンプル値を含むブロックを出力することができる。
場合によっては、スケーラ/逆変換(451)の出力サンプルは、イントラ符号化されたブロックに関係することができる。すなわち、以前に再構築されたピクチャからの予測情報を使用していないが、現在のピクチャの以前に再構築された部分からの予測情報を使用することができるブロックである。そのような予測情報は、イントラピクチャ予測ユニット(452)によって提供することができる。場合によっては、イントラピクチャ予測ユニット(452)は、現在のピクチャバッファ(458)からフェッチされた周囲の既に再構築された情報を使用して、再構築中のブロックと同じサイズおよび形状のブロックを生成する。現在のピクチャバッファ(458)は、例えば、部分的に再構築された現在のピクチャおよび/または完全に再構築された現在のピクチャをバッファする。アグリゲータ(455)は、場合によっては、サンプルごとに、イントラ予測ユニット(452)が生成した予測情報を、スケーラ/逆変換ユニット(451)によって提供される出力サンプル情報に追加する。
他の場合には、スケーラ/逆変換ユニット(451)の出力サンプルは、インター符号化され、潜在的に動き補償されたブロックに関係することができる。そのような場合、動き補償予測ユニット(453)は、参照ピクチャメモリ(457)にアクセスして、予測に使用されるサンプルをフェッチすることができる。ブロックに関係するシンボル(421)に従ってフェッチされたサンプルを動き補償した後に、これらのサンプルは、アグリゲータ(455)によって、スケーラ/逆変換ユニット(451)の出力(この場合、残差サンプルまたは残差信号と呼ばれる)に追加され、出力サンプル情報を生成することができる。動き補償予測ユニット(453)が予測サンプルをフェッチする参照ピクチャメモリ(457)内のアドレスは、例えばX、Y、および参照ピクチャ成分を有することができるシンボル(421)の形で動き補償予測ユニット(453)に利用可能な動きベクトルによって制御することができる。動き補償はまた、サブサンプルの正確な動きベクトルが使用されているときに参照ピクチャメモリ(457)からフェッチされたサンプル値の補間、および動きベクトル予測メカニズムなどを含むことができる。
アグリゲータ(455)の出力サンプルは、ループフィルタユニット(456)において様々なループフィルタリング技術の対象となり得る。ビデオ圧縮技術は、符号化されたビデオシーケンス(符号化されたビデオビットストリームとも呼ばれる)に含まれるパラメータによって制御され、パーサ(420)からシンボル(421)としてループフィルタユニット(456)に利用可能となるループ内フィルタ技術を含むことができるが、しかし、符号化されたピクチャまたは符号化されたビデオシーケンスの前の(復号化順で)部分の復号化中に取得されたメタ情報、および以前に再構築およびループフィルタリングされたサンプル値に応答することもできる。
ループフィルタユニット(456)の出力は、レンダリングデバイス(412)に出力され得るだけでなく、将来のインターピクチャ予測で使用するために参照ピクチャメモリ(457)に記憶され得るサンプルストリームであってもよい。
特定の符号化されたピクチャは、完全に再構築されると、将来の予測のための参照ピクチャとして使用できる。例えば、現在のピクチャに対応する符号化ピクチャが完全に再構築され、その符号化ピクチャが(例えば、パーサ(420)によって)参照ピクチャとして識別されると、現在のピクチャバッファ(458)は参照ピクチャメモリ(457)の一部となり、次の符号化ピクチャの再構築を開始する前に、新しい現在のピクチャバッファを再割り当てすることができる。
ビデオデコーダ(410)は、ITU-T Rec.H.265などの標準規格における所定のビデオ圧縮技術に従って復号化操作を実行することができる。符号化されたビデオシーケンスは、符号化されたビデオシーケンスがビデオ圧縮技術または標準規格の構文とビデオ圧縮技術または標準規格で文書化されたプロファイルの両方に準拠するという意味で、使用されているビデオ圧縮技術または標準規格によって指定された構文に準拠することができる。具体的には、プロファイルは、ビデオ圧縮技術または標準規格で使用可能なすべてのツールから、そのプロファイルで使用できる唯一のツールとして特定のツールを選択することができる。また、コンプライアンスのために必要なのは、符号化されたビデオシーケンスの複雑さが、ビデオ圧縮技術または標準規格のレベルによって定義された範囲内にあることである。場合によっては、レベルによって、最大ピクチャサイズ、最大フレームレート、最大再構築サンプルレート(例えば、1秒あたりのメガサンプル数で測定)、最大参照ピクチャサイズなどが制限される。レベルによって設定される制限は、場合によっては、仮想参照デコーダ(HRD)の仕様と、符号化されたビデオシーケンスで通知されるHRDバッファ管理のメタデータによってさらに制限され得る。
一実施形態では、受信器(431)は、符号化されたビデオと共に追加の(冗長な)データを受信することができる。追加のデータは、符号化されたビデオシーケンスの一部として含まれてもよい。追加のデータは、データを適切に復号化するため、および/または元のビデオデータをより正確に再構築するために、ビデオデコーダ(410)によって使用され得る。追加のデータは、例えば、時間的、空間的、または信号ノイズ比(SNR)強化層、冗長スライス、冗長ピクチャ、前方誤り訂正コードなどの形式をとることができる。
図5は、本開示の一実施形態によるビデオエンコーダ(503)のブロック図を示す。ビデオエンコーダ(503)は、電子デバイス(520)に含まれている。電子デバイス(520)は、送信器(540)(例えば、送信回路)を含む。ビデオエンコーダ(503)は、図3の例のビデオエンコーダ(303)の代わりに使用することができる。
ビデオエンコーダ(503)は、ビデオエンコーダ(503)によって符号化されるビデオ画像をキャプチャすることができるビデオソース(501)(図5の例では電子デバイス(520)の一部ではない)からビデオサンプルを受信することができる。別の例では、ビデオソース(501)は、電子デバイス(520)の一部である。
ビデオソース(501)は、ビデオエンコーダ(503)によって符号化されるソースビデオシーケンスを、任意の適切なビット深度(例えば:8ビット、10ビット、12ビット、...)、任意の色空間(例えば:BT.601 Y CrCB、RGB、...)、および任意の適切なサンプリング構造(例えば:Y CrCb 4:2:0、Y CrCb 4:4:4)であり得るデジタルビデオサンプルストリームの形で提供することができる。メディアサービングシステムでは、ビデオソース(501)は、以前に準備されたビデオを記憶する記憶装置であってもよい。ビデオ会議システムでは、ビデオソース(501)は、ローカル画像情報をビデオシーケンスとしてキャプチャするカメラであってもよい。ビデオデータは、順番に見たときに動きを与える複数の個別のピクチャとして提供することができる。ピクチャ自体は、ピクセルの空間配列として編成することができ、各ピクセルは、使用時のサンプリング構造、色空間などに応じて、1つまたは複数のサンプルを含むことができる。当業者は、ピクセルとサンプルとの間の関係を容易に理解することができる。以下の説明はサンプルに焦点を当てている。
一実施形態によれば、ビデオエンコーダ(503)は、リアルタイムで、またはアプリケーションによって必要とされる他の任意の時間制約の下で、ソースビデオシーケンスのピクチャを符号化して、符号化されたビデオシーケンス(543)に圧縮することができる。適切な符号化速度を強制することは、コントローラ(550)の1つの機能である。いくつかの実施形態では、コントローラ(550)は、以下に説明するように他の機能ユニットを制御し、他の機能ユニットに機能的に結合される。明確にするために、結合は図示していない。コントローラ(550)によって設定されるパラメータは、レート制御関連パラメータ(ピクチャスキップ、量子化器、レート歪み最適化技術のラムダ値など)、ピクチャサイズ、ピクチャグループ(GOP)レイアウト、および最大動きベクトル検索範囲などを含むことができる。コントローラ(550)は、特定のシステム設計のために最適化されたビデオエンコーダ(503)に関係する他の適切な機能を有するように構成することができる。
いくつかの実施形態では、ビデオエンコーダ(503)は、符号化ループで動作するように構成される。過剰に単純化した説明として、一例では、符号化ループは、ソースコーダ(530)(例えば、符号化される入力ピクチャと、参照ピクチャとに基づいて、シンボルストリームなどのシンボルを作成する責任を負う)と、ビデオエンコーダ(503)に埋め込まれた(ローカル)デコーダ(533)と、を含むことができる。デコーダ(533)は、(リモート)デコーダも作成するのと同様の方法で、シンボルを再構築してサンプルデータを作成する(シンボルと符号化されたビデオビットストリームとの間の圧縮は、開示された主題で考慮されるビデオ圧縮技術において無損失であるため)。再構築されたサンプルストリーム(サンプルデータ)は、参照ピクチャメモリ(534)に入力される。シンボルストリームの復号化は、デコーダの場所(ローカルまたはリモート)に関係なくビット正確な結果をもたらすため、参照ピクチャメモリ(534)のコンテンツも、ローカルエンコーダとリモートエンコーダとの間でビット正確である。言い換えると、エンコーダの予測部分は、復号化中に予測を使用するときにデコーダが「見る」のとまったく同じサンプル値を参照ピクチャサンプルとして「見る」。参照ピクチャの同期性(および、例えばチャネルエラーのために同期性を維持できない場合は結果として生じるドリフト)のこの基本原理は、一部の関連技術でも使用されている。
「ローカル」デコーダ(533)の動作は、図4に関連して上で既に詳細に説明されているビデオデコーダ(410)などの「リモート」デコーダの動作と同じであり得る。しかし、図4も簡単に参照すると、シンボルが利用可能であり、エントロピーコーダ(545)およびパーサ(420)による符号化されたビデオシーケンスへのシンボルの符号化/復号化は無損失である可能性があるため、バッファメモリ(415)およびパーサ(420)を含む、ビデオデコーダ(410)のエントロピー復号化部分は、ローカルデコーダ(533)に完全に実装されていなくてもよい。
この時点で行うことができる観察は、デコーダに存在する構文解析/エントロピー復号化以外のデコーダ技術も、対応するエンコーダに実質的に同一の機能形式で必ず存在する必要があるということである。このため、開示された主題はデコーダ動作に焦点を合わせている。エンコーダ技術の説明は、包括的に説明されているデコーダ技術の逆であるため、省略できる。特定の領域でのみ、より詳細な説明が必要であり、以下に提供される。
動作中、いくつかの例では、ソースコーダ(530)は、「参照ピクチャ」として指定されたビデオシーケンスからの1つまたは複数の以前に符号化されたピクチャを参照して入力ピクチャを予測的に符号化する動き補償された予測符号化を実行することができる。このようにして、符号化エンジン(532)は、入力ピクチャのピクセルブロックと、入力ピクチャへの予測参照として選択され得る参照ピクチャのピクセルブロックとの間の差を符号化する。
ローカルビデオデコーダ(533)は、ソースコーダ(530)によって作成されたシンボルに基づいて、参照ピクチャとして指定され得るピクチャの符号化されたビデオデータを復号化することができる。符号化エンジン(532)の動作は、有利には、損失プロセスであってもよい。符号化されたビデオデータがビデオデコーダ(図5には示さず)で復号化され得る場合、再構築されたビデオシーケンスは、典型的には、いくつかのエラーを伴うソースビデオシーケンスのレプリカであってもよい。ローカルビデオデコーダ(533)は、参照ピクチャに対してビデオデコーダによって実行され得る復号化プロセスを複製し、再構築された参照ピクチャを参照ピクチャキャッシュ(534)に記憶することができる。このようにして、ビデオエンコーダ(503)は、遠端ビデオデコーダによって取得される再構築された参照ピクチャとして共通の内容を有する再構築された参照ピクチャのコピーをローカルに記憶することができる(送信エラーがない)。
予測器(535)は、符号化エンジン(532)の予測検索を実行することができる。すなわち、符号化される新しいピクチャについて、予測器(535)は、新しいピクチャのための適切な予測基準として役立ち得る(候補となる参照ピクセルブロックとしての)サンプルデータ、または参照ピクチャの動きベクトル、ブロック形状などの特定のメタデータについて、参照ピクチャメモリ(534)を検索することができる。予測器(535)は、適切な予測参照を見つけるために、サンプルブロックとピクセルブロックごとに動作することができる。場合によっては、予測器(535)によって得られた検索結果によって決定されるように、入力ピクチャは、参照ピクチャメモリ(534)に記憶された複数の参照ピクチャから引き出された予測参照を有することができる。
コントローラ(550)は、例えば、ビデオデータを符号化するために使用されるパラメータおよびサブグループパラメータの設定を含む、ソースコーダ(530)の符号化操作を管理することができる。
前述のすべての機能ユニットの出力は、エントロピーコーダ(545)でエントロピー符号化を受けることができる。エントロピーコーダ(545)は、ハフマン符号化、可変長符号化、算術符号化などの技術に従ってシンボルを可逆圧縮することにより、様々な機能ユニットによって生成されたシンボルを符号化されたビデオシーケンスに変換する。
送信器(540)は、エントロピーコーダ(545)によって作成された符号化されたビデオシーケンスをバッファリングして、符号化されたビデオデータを記憶するであろう記憶装置へのハードウェア/ソフトウェアリンクであり得る通信チャネル(560)を介した送信の準備をすることができる。送信器(540)は、ビデオコーダ(503)からの符号化されたビデオデータを、送信される他のデータ、例えば、符号化されたオーディオデータおよび/または補助データストリーム(ソースは図示せず)とマージすることができる。
コントローラ(550)は、ビデオエンコーダ(503)の動作を管理することができる。符号化中に、コントローラ(550)は、各符号化ピクチャに特定の符号化ピクチャタイプを割り当てることができ、これは、それぞれのピクチャに適用され得る符号化技術に影響を及ぼすことができる。例えば、ピクチャは多くの場合、次のピクチャタイプのいずれかとして割り当てられる。
イントラピクチャ(Iピクチャ)は、予測のソースとしてシーケンス内の他のピクチャを使用せずに符号化および復号化され得るものであり得る。一部のビデオコーデックでは、例えば独立デコーダリフレッシュ(“IDR”)ピクチャなど、様々なタイプのイントラピクチャを考慮している。当業者は、Iピクチャのそれらの変形およびそれらのそれぞれの用途および特徴を知っている。
予測ピクチャ(Pピクチャ)は、各ブロックのサンプル値を予測するために、最大で1つの動きベクトルおよび参照インデックスを使用するイントラ予測またはインター予測を使用して符号化および復号化され得るものであり得る。
双方向予測ピクチャ(Bピクチャ)は、各ブロックのサンプル値を予測するために最大2つの動きベクトルおよび参照インデックスを使用するイントラ予測またはインター予測を使用して符号化および復号化され得るものであり得る。同様に、複数の予測ピクチャは、単一のブロックの再構築のために3つ以上の参照ピクチャと関連するメタデータを使用することができる。
ソースピクチャは、通常、空間的に複数のサンプルブロック(例えば、それぞれ4x4、8x8、4x8、または16x16サンプルのブロック)に分割され、ブロックごとに符号化され得る。ブロックは、ブロックのそれぞれのピクチャに適用される符号化割り当てによって決定されるように、他の(既に符号化された)ブロックを参照して予測的に符号化され得る。例えば、Iピクチャのブロックは、非予測的に符号化され得るか、またはそれらは、同じピクチャの既に符号化されたブロックを参照して予測的に符号化され得る(空間予測またはイントラ予測)。Pピクチャのピクセルブロックは、空間予測を介して、または以前に符号化された1つの参照ピクチャを参照する時間予測を介して、予測的に符号化され得る。Bピクチャのブロックは、空間予測を介して、または以前に符号化された1つまたは2つの参照ピクチャを参照する時間予測を介して、予測的に符号化され得る。
ビデオエンコーダ(503)は、ITU-T Rec.H.265などの所定のビデオ符号化技術または標準規格に従って符号化操作を実行することができる。その操作において、ビデオエンコーダ(503)は、入力ビデオシーケンスにおける時間的および空間的冗長性を利用する予測符号化操作を含む、様々な圧縮操作を実行することができる。したがって、符号化されたビデオデータは、使用されているビデオ符号化技術または標準規格によって指定された構文に準拠することができる。
一実施形態では、送信器(540)は、符号化されたビデオと共に追加のデータを送信することができる。ソースコーダ(530)は、符号化されたビデオシーケンスの一部としてそのようなデータを含むことができる。追加データは、時間的/空間的/SNR拡張層、冗長なピクチャおよびスライスなどの他の形式の冗長なデータ、SEIメッセージ、VUIパラメータセットフラグメントなどを含むことができる。
ビデオは、時間的シーケンスで複数のソースピクチャ(ビデオピクチャ)としてキャプチャされ得る。イントラピクチャ予測(多くの場合、イントラ予測と略される)は、特定のピクチャの空間的相関を利用し、インターピクチャ予測は、ピクチャ間の(時間的またはその他の)相関を利用する。一例では、現在のピクチャと呼ばれる、符号化/復号化中の特定のピクチャがブロックに分割される。現在のピクチャのブロックが、以前に符号化され、まだバッファリングされているビデオの参照ピクチャの参照ブロックに類似している場合、現在のピクチャのブロックは、動きベクトルと呼ばれるベクトルによって符号化することができる。動きベクトルは、参照ピクチャ内の参照ブロックを指し、複数の参照ピクチャが使用されている場合、参照ピクチャを識別する第3の次元を有することができる。
いくつかの実施形態では、双方向予測技術をインターピクチャ予測に使用することができる。双方向予測技術によれば、第1の参照ピクチャおよび第2の参照ピクチャなどの2つの参照ピクチャは、両方ともビデオ内の現在のピクチャよりも復号化順序が先である(しかし、表示順ではそれぞれ過去および将来であり得る)が使用される。現在のピクチャ内のブロックは、第1の参照ピクチャ内の第1の参照ブロックを指す第1の動きベクトルと、第2の参照ピクチャ内の第2の参照ブロックを指す第2の動きベクトルによって符号化することができる。ブロックは、第1の参照ブロックと第2の参照ブロックの組み合わせによって予測することができる。
さらに、マージモード技術をインターピクチャ予測に使用して、符号化効率を向上させることができる。
本開示のいくつかの実施形態によれば、インターピクチャ予測およびイントラピクチャ予測などの予測は、ブロックの単位で実行される。例えば、HEVC標準規格によれば、一連のビデオピクチャのピクチャは圧縮のために符号化ツリーユニット(CTU)に分割され、ピクチャのCTUは同じサイズ(64x64ピクセル、32x32ピクセル、16x16ピクセルなど)になる。一般に、CTUには3つの符号化ツリーブロック(CTB)が含まれる。これらは1つの輝度CTBおよび2つの彩度CTBである。各CTUは、1つまたは複数の符号化ユニット(CU)に再帰的にクアッドツリー分割され得る。例えば、64x64ピクセルのCTUは、64x64ピクセルの1つのCU、32x32ピクセルの4つのCU、または16x16ピクセルの16のCUに分割され得る。一例では、各CUが分析されて、CUの予測タイプ(例えば、インター予測タイプまたはイントラ予測タイプ)が決定される。CUは、時間的および/または空間的な予測可能性に応じて、1つまたは複数の予測ユニット(PU)に分割される。一般に、各PUには、輝度予測ブロック(PB)と2つの彩度PBが含まれる。一実施形態では、コーディング(符号化/復号化)における予測操作は、予測ブロックの単位で実行される。予測ブロックの例として輝度予測ブロックを使用すると、予測ブロックは、8x8ピクセル、16x16ピクセル、8x16ピクセル、16x8ピクセルなどのピクセルについての値(例えば、輝度値)の行列を含む。
図6は、本開示の別の実施形態によるビデオエンコーダ(603)を示す。ビデオエンコーダ(603)は、一連のビデオピクチャ内の現在のビデオピクチャ内のサンプル値の処理ブロック(例えば、予測ブロック)を受信し、処理ブロックを符号化されたビデオシーケンスの一部である符号化されたピクチャに符号化するように構成される。一例では、ビデオエンコーダ(603)は、図3の例のビデオエンコーダ(303)の代わりに使用される。
HEVCの例では、ビデオエンコーダ(603)は、8x8サンプルの予測ブロックなどの処理ブロックのサンプル値の行列を受信する。ビデオエンコーダ(603)は、処理ブロックが、例えば、レート歪み最適化を使用して、イントラモード、インターモード、または双方向予測モードを使用して最適に符号化されるかどうかを決定する。処理ブロックがイントラモードで符号化される場合、ビデオエンコーダ(603)は、イントラ予測技術を使用して、処理ブロックを符号化されたピクチャに符号化することができ、処理ブロックがインターモードまたは双方向予測モードで符号化される場合、ビデオエンコーダ(603)は、インター予測または双方向予測技術をそれぞれ使用して、処理ブロックを符号化されたピクチャに符号化することができる。特定のビデオ符号化技術では、マージモードは、予測子の外側の符号化された動きベクトル成分の利点なしに、動きベクトルが1つまたは複数の動きベクトル予測子から導出されるインターピクチャ予測サブモードである。特定の他のビデオ符号化技術では、対象ブロックに適用可能な動きベクトル成分が存在する場合がある。一例では、ビデオエンコーダ(603)は、処理ブロックのモードを決定するためのモード決定モジュール(図示せず)などの他の構成要素を含む。
図6の例では、ビデオエンコーダ(603)は、図6に示すように一緒に結合された、インターエンコーダ(630)、イントラエンコーダ(622)、残差計算器(623)、スイッチ(626)、残差エンコーダ(624)、汎用コントローラ(621)、およびエントロピーエンコーダ(625)を含む。
インターエンコーダ(630)は、現在のブロック(例えば、処理ブロック)のサンプルを受信し、ブロックを参照ピクチャ内の1つまたは複数の参照ブロック(例えば、前のピクチャと後のピクチャのブロック)と比較し、インター予測情報(例えば、インター符号化技術による冗長情報の記述、動きベクトル、マージモード情報)を生成し、任意の適切な技術を使用して、インター予測情報に基づいてインター予測結果(例えば、予測ブロック)を計算するように構成される。いくつかの例では、参照ピクチャは、エンコードされたビデオ情報に基づいて復号化される復号化された参照ピクチャである。
イントラエンコーダ(622)は、現在のブロック(例えば、処理ブロック)のサンプルを受信し、場合によっては、ブロックを同じピクチャに既に符号化されているブロックと比較し、変換後に量子化された係数を生成し、場合によってはイントラ予測情報(例えば、1つまたは複数のイントラ符号化技法によるイントラ予測方向情報)も生成するように構成される。一例では、イントラエンコーダ(622)はまた、同じピクチャ内のイントラ予測情報および参照ブロックに基づいて、イントラ予測結果(例えば、予測ブロック)を計算する。
汎用コントローラ(621)は、汎用制御データを決定し、汎用制御データに基づいてビデオエンコーダ(603)の他の構成要素を制御するように構成される。一例では、汎用コントローラ(621)は、ブロックのモードを決定し、モードに基づいてスイッチ(626)に制御信号を提供する。例えば、モードがイントラモードである場合、汎用コントローラ(621)は、スイッチ(626)を制御して、残差計算器(623)によって使用するためのイントラモード結果を選択し、エントロピーエンコーダ(625)を制御して、イントラ予測情報を選択し、イントラ予測情報をビットストリームに含め、また、モードがインターモードの場合、汎用コントローラ(621)は、スイッチ(626)を制御して、残差計算器(623)が使用するインター予測結果を選択し、エントロピーエンコーダ(625)を制御して、インター予測情報を選択し、ビットストリームにインター予測情報を含める。
残差計算器(623)は、受信したブロックと、イントラエンコーダ(622)またはインターエンコーダ(630)から選択された予測結果との間の差(残差データ)を計算するように構成される。残差エンコーダ(624)は、残差データに基づいて動作し、残差データを符号化して変換係数を生成するように構成される。一例では、残差エンコーダ(624)は、残差データを空間領域から周波数領域に変換し、変換係数を生成するように構成される。次に、変換係数は、量子化された変換係数を取得するために量子化処理の対象となる。様々な実施形態では、ビデオエンコーダ(603)はまた、残差デコーダ(628)を含む。残差デコーダ(628)は、逆変換を実行し、復号化された残差データを生成するように構成される。復号化された残差データは、イントラエンコーダ(622)およびインターエンコーダ(630)によって適切に使用することができる。例えば、インターエンコーダ(630)は、復号化された残差データおよびインター予測情報に基づいて復号化されたブロックを生成することができ、イントラエンコーダ(622)は、復号化された残差データおよびイントラ予測情報に基づいて復号化されたブロックを生成することができる。復号化されたブロックは、復号化されたピクチャを生成するために適切に処理され、復号化されたピクチャは、メモリ回路(図示せず)にバッファリングされ、いくつかの例では参照ピクチャとして使用され得る。
エントロピーエンコーダ(625)は、符号化されたブロックを含むようにビットストリームをフォーマットするように構成される。エントロピーエンコーダ(625)は、HEVC規格などの適切な標準規格に従って様々な情報を含むように構成される。一例では、エントロピーエンコーダ(625)は、一般的な制御データ、選択された予測情報(例えば、イントラ予測情報またはインター予測情報)、残差情報、およびビットストリーム内の他の適切な情報を含むように構成される。開示された主題によれば、インターモードまたは双方向予測モードのいずれかのマージサブモードでブロックを符号化する場合、残差情報がないことに留意されたい。
図7は、本開示の別の実施形態によるビデオデコーダ(710)を示す。ビデオデコーダ(710)は、符号化されたビデオシーケンスの一部である符号化されたピクチャを受信し、符号化されたピクチャを復号化して再構築されたピクチャを生成するように構成される。一例では、ビデオデコーダ(710)は、図3の例のビデオデコーダ(310)の代わりに使用される。
図7の例では、ビデオデコーダ(710)は、図7に示すように一緒に結合された、エントロピーデコーダ(771)、インターデコーダ(780)、残差デコーダ(773)、再構築モジュール(774)、およびイントラデコーダ(772)を含む。
エントロピーデコーダ(771)は、符号化されたピクチャから、符号化されたピクチャを構成する構文要素を表す特定のシンボルを再構築するように構成され得る。そのようなシンボルは、例えば、ブロックが符号化されるモード(例えば、イントラモード、インターモード、双方向予測モード、後の2つはマージサブモードまたは別のサブモードなど)、イントラデコーダ(772)またはインターデコーダ(780)によってそれぞれ予測に使用される特定のサンプルまたはメタデータを識別できる予測情報(例えば、イントラ予測情報またはインター予測情報など)、例えば、量子化された変換係数などの形式の残差情報などを含むことができる。一例では、予測モードがインター予測モードまたは双方向予測モードである場合、インター予測情報がインターデコーダ(780)に提供され、予測タイプがイントラ予測タイプである場合、イントラ予測情報がイントラデコーダ(772)に提供される。残差情報は、逆量子化の対象とすることができ、残差デコーダ(773)に提供される。
インターデコーダ(780)は、インター予測情報を受信し、インター予測情報に基づいてインター予測結果を生成するように構成される。
イントラデコーダ(772)は、イントラ予測情報を受信し、イントラ予測情報に基づいて予測結果を生成するように構成される。
残差デコーダ(773)は、逆量子化を実行して非量子化変換係数を抽出し、非量子化変換係数を処理して残差を周波数領域から空間領域に変換するように構成される。残差デコーダ(773)はまた、特定の制御情報(量子化パラメータ(QP)を含むため)を必要とし得、その情報は、エントロピーデコーダ(771)によって提供され得る(これは、少量の制御情報のみであり得るため、データパスは示されていない)。
再構築モジュール(774)は、空間領域において、残差デコーダ(773)によって出力された残差と、(場合によってはインター予測モジュールまたはイントラ予測モジュールによって出力された)予測結果とを組み合わせて、再構築されたブロックを形成するように構成されており、このブロックは、再構築されたピクチャの一部であってもよく、ひいては再構築されたビデオの一部であってもよい。視覚的品質を改善するために、非ブロック化操作などの他の適切な操作を実行できることに留意されたい。
ビデオエンコーダ(303)、(503)、および(603)、およびビデオデコーダ(310)、(410)、および(710)は、任意の適切な技法を使用して実装できることに留意されたい。一実施形態では、ビデオエンコーダ(303)、(503)、および(603)、およびビデオデコーダ(310)、(410)、および(710)は、1つまたは複数の集積回路を使用して実装することができる。別の実施形態では、ビデオエンコーダ(303)、(503)、および(503)、およびビデオデコーダ(310)、(410)、および(710)は、ソフトウェア命令を実行する1つまたは複数のプロセッサを使用して実装することができる。
一般に、ブロックベースの補償は異なるピクチャに基づいている。このようなブロックベースの補償は、動き補償と呼ばれることがある。しかし、ブロック補償は、同じピクチャ内の以前に再構築された領域から実行できる。このようなブロック補償は、イントラピクチャブロック補償、現在のピクチャ参照(CPR)、またはイントラブロックコピー(IBC)と呼ばれる場合がある。
IBC予測モードでは、いくつかの実施形態では、同じピクチャ内の現在のブロックと参照ブロックとの間のオフセットを示す変位ベクトルは、ブロックベクトル(BV)と呼ばれる。参照ブロックは、現在のブロックの前に既に再構築されていることに留意されたい。さらに、並列処理の場合、タイル/スライス境界または波面ラダー形状境界にある参照領域は、使用可能な参照ブロックとしての使用から除外される場合がある。これらの制約により、ブロックベクトルは、動き補償において任意の値(xまたはy方向のいずれかで正または負)になり得る動きベクトルとは異なる場合がある。
図8は、本開示の一実施形態による、イントラブロックコピー予測モードの実施形態を示す。図8において、灰色のブロックはブロックが既に復号化されていることを示し、白色のブロックはブロックが復号化されていないか、または復号化中であることを示す。したがって、現在のピクチャ(800)では、ブロックベクトル(802)は、現在のブロック(801)から参照ブロック(803)を指している。現在のブロック(801)は再構築中であり、参照ブロック(803)は既に再構築されている。
いくつかの実施形態によれば、ブロックベクトルの符号化は、明示的または暗黙的のいずれかであり得る。明示的モードでは、ブロックベクトルとブロックベクトルの予測子の違いが通知される。暗黙モードでは、マージモードでの動きベクトル予測と同様の方法で、ブロックベクトルの予測子からブロックベクトルが復元される。ブロックベクトルの解像度は、一実施形態では整数位置に制限することができるが、別の実施形態では分数位置を指すことができる場合がある。
いくつかの実施形態によれば、ブロックレベルでのIBC予測モードの使用は、ブロックレベルフラグ(IBCフラグと呼ばれる)または参照インデックスのいずれかを使用して通知され得る。参照インデックス手法を使用する場合、現在復号化されているピクチャは、参照ピクチャリストの最後の位置に配置される参照ピクチャとして扱われる。この参照ピクチャは、復号化されたピクチャバッファ(DPB)内の他の時間参照ピクチャと一緒に管理することもできる。
さらに、IBC予測モードにはいくつかの変形例がある。いくつかの例では、参照ブロックは、現在のブロックを予測するために使用される前に、水平または垂直に反転され、これは、反転されたIBC予測モードと呼ばれることがある。他の例では、MxN符号化ブロック内の各補償ユニットは、Mx1または1xNラインであり、これは、ラインベースのIBC予測モードと呼ばれることがある。
現在のVVCでは、IBC予測モードの検索範囲は現在のCTU内に制限されている。いくつかの実施形態では、IBC予測モードで参照サンプルを記憶するためのメモリは、1CTUサイズ(例えば、4つの64x64領域)である。例えば、メモリにはサンプルの4つの64x64領域が記憶され、サンプルの1つの64x64領域は現在再構築されたサンプルであってもよく、他の3つの64x64領域は参照サンプルであってもよい。
いくつかの実施形態では、IBC予測モードの有効な検索範囲は、メモリを変更せずに(すなわち、64x64領域に対して1CTUサイズ)、現在のCTUの左側のCTUのいくつかの部分に拡張することができる。例えば、更新プロセスは、このような効果的な検索範囲で使用できる。
図9A~図9Dは、本開示の実施形態による、IBC予測モードの有効な検索範囲(すなわち、イントラピクチャブロック補償)を使用する更新プロセスの実施形態を示す。更新プロセスは、CTUサイズのメモリ内の4つの64x64ブロック領域の各々について、64x64輝度サンプルベースで行うことができ、左CTUからの同一領域の参照サンプルは、現在のCTUの同一領域のブロックのいずれかが符号化中または符号化済みになるまで、現在のCTUの符号化ブロックを予測するために使用することができる。
このプロセス中に、いくつかの実施形態では、左側のCTUからの記憶された参照サンプルは、現在のCTUからの再構築されたサンプルで更新される。図9A~図9Dにおいて、灰色のブロックは既に再構築されたブロックを示し、白色のブロックは再構築されていないブロックを示し、縦縞およびテキスト「Curr」を有するブロックは、現在の符号化/復号化ブロックを示す。また、各図において、左4ブロック(911)~(914)は左CTU(910)に属し、右4ブロック(901)~(904)は現在のCTU(900)に属している。
左側のCTU(910)の4つのブロック(911)~(914)のすべてが既に再構築されていることに留意されたい。したがって、メモリは、最初に、左側のCTU(910)からの参照サンプルのこれら4つのブロックすべてを記憶し、次に、現在のCTU(900)からの同じ領域内の現在のブロックで左側のCTU(910)からの参照サンプルのブロックを更新する。
例えば、図9Aでは、現在のCTU(900)内の現在のブロック(901)は再構築中であり、現在のブロック(901)の左側のCTU(910)内の同じ場所にあるブロックはブロック(911)である。同じ場所にあるブロック(911)は、現在のブロック(901)が現在のCTU(900)内に配置されている領域と同じ左側のCTU(910)の領域内にある。このように、同じ場所にあるブロック(911)の参照サンプルを記憶するメモリ領域は、現在のブロック(901)の再構築されたサンプルを記憶するように更新され、同じ場所にあるブロック(911)の参照サンプルがメモリに記憶されていないことを示すために、図9Aの同じ場所にあるブロック(911)に「X」がマークされる。
同様に、図9Bでは、現在のCTU(900)内の現在のブロック(902)は再構築中であり、現在のブロック(902)の左側のCTU(910)内の同じ場所にあるブロックはブロック(912)である。同じ場所にあるブロック(912)は、現在のブロック(902)が現在のCTU(900)に配置されている領域と同じ左側のCTU(910)の領域にある。このように、同じ場所にあるブロック(912)の参照サンプルを記憶するメモリ領域は、現在のブロック(902)の再構築されたサンプルを記憶するように更新され、同じ場所にあるブロック(912)の参照サンプルがメモリに記憶されていないことを示すために、図9Bの同じ場所にあるブロック(912)に「X」がマークされる。
図9Cでは、現在のCTU(900)内の現在のブロック(903)は再構築中であり、現在のブロック(903)の左側のCTU(910)内の同じ場所にあるブロックはブロック(913)である。同じ場所にあるブロック(913)は、現在のブロック(903)が現在のCTU(900)に配置されている領域と同じ左側のCTU(910)の領域にある。このように、同じ場所にあるブロック(913)の参照サンプルを記憶するメモリ領域は、現在のブロック(903)の再構築されたサンプルを記憶するように更新され、同じ場所にあるブロック(913)の参照サンプルがメモリに記憶されていないことを示すために、図9Cの同じ場所にあるブロック(913)に「X」がマークされる。
図9Dでは、現在のCTU(900)内の現在のブロック(904)は再構築中であり、現在のブロック(904)の左側のCTU(910)内の同じ場所にあるブロックはブロック(914)である。同じ場所にあるブロック(914)は、現在のブロック(904)が現在のCTU(900)に配置されている領域と同じ左側のCTU(910)の領域にある。このように、同じ場所にあるブロック(914)の参照サンプルを記憶するメモリ領域は、現在のブロック(904)の再構築されたサンプルを記憶するように更新され、同じ場所にあるブロック(914)の参照サンプルがメモリに記憶されていないことを示すために、図9Cの同じ場所にあるブロック(914)に「X」がマークされる。
いくつかの実施形態によれば、イントラ予測モードでは、隣接ブロックが存在し、現在の符号化ブロックの前に再構築されている場合、隣接ブロックを現在の符号化ブロックの予測子として使用することができる。いくつかの実施形態では、隣接ブロックが存在し、現在の符号化ブロックの前に既に再構築されていることを除いて、隣接ブロックがイントラ予測モードで符号化されていない場合、インター予測モードでは、隣接ブロックを現在の符号化ブロックの予測子として使用することができる。
しかし、イントラブロックコピー予測モードが含まれ、イントラ予測モードまたはインター予測モードとは異なる別個のモードと見なされる場合、隣接ブロックの利用可能性がより複雑になるため、隣接ブロックの利用可能性をチェックするための適切な方法を開発する必要がある。これに関して、本開示の実施形態は、現在の符号化ブロックに対する隣接ブロックの利用可能性を効率的にチェックする方法を提示する。
IBC予測モードのブロックベクトル予測子リスト(マージリストの場合も、ブロックベクトル差分符号化の場合も)が動きベクトル予測子リスト(マージリストの場合も、動きベクトル差分符号化の場合も)とは別に構築される場合、いくつかの実施形態では、隣接ブロックの関連情報を現在の符号化ブロックの予測子として使用できるかどうかを判断するために、均一な隣接利用可能性チェック条件を使用する。
いくつかの実施形態によれば、隣接ブロックが現在のブロックと同じ予測モードで符号化されている場合には、隣接ブロックを使用して現在のブロックを予測することができる。
一実施形態では、現在のブロックがIBC予測モードで符号化される場合、IBC予測モードで符号化された隣接ブロックを使用して、現在のブロックを予測することができる。隣接ブロックが利用可能であると判断されると(以下でさらに詳しく指定するように)、隣接ブロックからの予測情報(ブロックベクトルなど)がIBC予測モードの予測子リストに含まれる。
別の実施形態では、現在のブロックがインター予測モードで符号化される場合、インター予測モードで符号化された隣接ブロックを使用して、現在のブロックを予測することができる。隣接ブロックが利用可能であると判断されると(以下でさらに詳細に指定)、隣接ブロックからの予測情報(動きベクトル、参照インデックス、予測方向など)がインター予測モードの予測子リストに含まれる。
別の実施形態では、現在のブロックがイントラ予測モードで符号化される場合、イントラ予測モードで符号化された隣接ブロックを使用して、現在のブロックを予測することができる。隣接ブロックが利用可能であると判断されると(以下でさらに詳細に指定されるように)、隣接ブロックからの予測情報がイントラ予測モードの予測子リストに含まれる。
いくつかの実施形態では、隣接ブロックの利用可能性の判断は、2つのステップに分割することができる。第1のステップは、復号化順序をチェックすることを含む。一例では、隣接ブロックが現在のブロックと比較して異なるスライス、タイル、またはタイルグループにある場合、隣接ブロックは現在のブロックを予測するために利用できないと判断される。スライスは、ラスタースキャン順序のブロックのグループであってもよく、スライス内のブロックのグループは、同じ予測モードを使用してもよい。タイルはピクチャの領域であってもよく、並行して独立して処理されてもよい。タイルグループは、タイルのグループであってもよく、タイルのグループ間で同じヘッダを共有してもよい。別の例では、隣接ブロックが現在のブロックの前に再構築されない場合には、隣接ブロックは、現在のブロックを予測するために利用できないと判断される。
第1のステップが完了した後(例えば、隣接ブロックが復号化順序に関して利用可能であると判断された後)、第2のステップが隣接ブロックに適用されて、隣接ブロックの予測利用可能性をチェックする。一例では、隣接ブロックが現在のブロックとオーバーラップする(例えば、隣接ブロックが現在のブロックの前に完全に構築されていない、隣接ブロックの少なくとも1つのサンプルが現在のブロックの前に構築されていない)場合には、隣接ブロックは現在のブロックの予測に利用できないと判断される。別の例では、隣接ブロックが現在のブロックとは異なる予測モードで符号化されている場合には、隣接ブロックは現在のブロックの予測に利用できないと判断される。
いくつかの実施形態によれば、隣接ブロックがIBC予測モードで符号化され、現在のブロックがインター予測モードで符号化される場合には、隣接ブロックを使用して現在のブロックを予測することができる。
いくつかの実施形態によれば、隣接ブロックがインター予測モードで符号化され、現在のブロックがIBC予測モードで符号化される場合には、隣接ブロックを使用して現在のブロックを予測することができる。
上記の決定の両方において、いくつかの実施形態によれば、隣接ブロックは、それがイントラ予測モードで符号化されているかどうかがチェックされる。隣接ブロックがイントラ予測モードで符号化されている場合には、隣接ブロックは現在のブロックを予測するために利用できないと判断される。さらに、隣接ブロックの他のいくつかの条件もチェックされる(例えば、隣接ブロックの復号化順序)。一例では、隣接ブロックが現在のブロックと比較して異なるスライス、タイル、またはタイルグループにある場合、隣接ブロックは現在のブロックを予測するために利用できないと判断される。スライスは、ラスタースキャン順序のブロックのグループであってもよく、スライス内のブロックのグループは、同じ予測モードを使用してもよい。タイルはピクチャの領域であってもよく、並行して独立して処理されてもよい。タイルグループは、タイルのグループであってもよく、タイルのグループ間で同じヘッダを共有してもよい。別の例では、隣接ブロックが現在のブロックの前に再構築されない場合には、隣接ブロックは、現在のブロックを予測するために利用できないと判断される。別の例では、隣接ブロックが現在のブロックとオーバーラップする場合には、隣接ブロックは、現在のブロックを予測するために利用できないと判断される。別の例では、隣接ブロックが現在のブロックとは異なる予測モードで符号化されている場合には、隣接ブロックは現在のブロックの予測に利用できないと判断される。
現在のブロックの予測子として隣接ブロックの利用可能性をチェックする方法に加えて、本開示の実施形態は、IBC予測モードで現在のブロックを再構築するために使用される非ブロック化フィルタの境界強度を決定する方法を含む。現在のブロックが再構築中の場合、非ブロック化フィルタを使用して、復号化されたブロック間の境界の鋭いエッジを平滑化することにより、視覚品質と予測パフォーマンスを向上させることができ、境界強度は、非ブロック化フィルタが使用する強度レベルを示すために使用される。一実施形態では、「0」の強度レベルは、非ブロック化フィルタが実行されないことを示すことができ、「1」の強度レベルは、非ブロック化フィルタが実行されることを示すことができる。別の実施形態では、3つ以上の強度レベル、例えば、低強度レベル、中強度レベル、および高強度レベルが使用される。異なる強度レベルで非ブロック化フィルタを実行することにより、現在のブロックは異なる視覚的品質を有することができる。
IBC予測モードでは、輝度成分と彩度成分は別々の符号化ツリー構造で符号化される。彩度CUはサブブロックモードで動作することができる。例えば、彩度CUのサブブロックは、サブブロックの同じ場所にある輝度位置から導出することができ、したがって、異なるサブブロックは、異なるブロックベクトルを有することができる。したがって、本開示の実施形態によれば、いくつかの方法を使用して、非ブロック化フィルタが彩度CUに対して実行されるときの非ブロック化フィルタの境界強度を決定することができる。
いくつかの実施形態によれば、非ブロック化フィルタは、彩度CUのサブブロック境界で実行され、サブブロック境界での境界強度(BS)は、サブブロック境界に関連する2つの符号化サブブロックのそれぞれの彩度ブロックベクトルの差を評価することによって決定される。一実施形態では、それぞれのブロックベクトルの水平成分(または垂直成分)の差の絶対値が、整数の輝度サンプル単位で1以上(同じ意味の別の表現では、1/4の輝度サンプル単位で4)であれば、非ブロック化フィルタを実行する。それ以外の場合、非ブロック化フィルタは実行されない。
いくつかの実施形態によれば、非ブロック化フィルタは、彩度CUのサブブロック境界、または4x4ブロック境界のいずれか大きい方で実行される。一実施形態では、彩度CUのサブブロックサイズが2x2のサイズである場合には、非ブロック化フィルタは、一部の2x2サブブロック境界では実行されず、代わりに、4x4グリッド境界の各々で実行される。これらの4x4境界の場合、境界での境界強度(BS)は、サブブロック境界に関連する2つの符号化サブブロックのそれぞれのブロックベクトル間の差を評価することによって決定することができる。それぞれのブロックベクトルの水平(または垂直)成分間の絶対差が整数輝度サンプルの単位で1以上(または同じ意味の別の式:1/4輝度サンプルの単位で4)以上の場合には、非ブロック化フィルタが実行される。それ以外の場合、非ブロック化フィルタは実行されない。
図10は、本開示の一実施形態による例示的なプロセス(1000)を概説するフローチャートを示す。プロセス(1000)は、再構築中のブロックの予測ブロックを生成するために、予測モード(インター/イントラ/IBCなど)で符号化されたブロックの再構築に使用することができる。様々な実施形態では、プロセス(1000)は、端末装置(210)、(220)、(230)および(240)の処理回路、ビデオエンコーダ(303)の機能を実行する処理回路、ビデオデコーダ(310)の機能を実行する処理回路、ビデオデコーダ(410)の機能を実行する処理回路、イントラ予測モジュール(452)の機能を実行する処理回路、ビデオエンコーダ(503)の機能を実行する処理回路、予測器(535)の機能を実行する処理回路、イントラエンコーダ(622)の機能を実行する処理回路、およびイントラデコーダ(772)の機能を実行する処理回路などの処理回路によって実行される。いくつかの実施形態では、プロセス(1000)はソフトウェア命令で実装され、したがって、処理回路がソフトウェア命令を実行すると、処理回路がプロセス(1000)を実行する。
プロセス(1000)は、一般に、ステップ(S1010)で開始することができ、プロセス(1000)は、符号化されたビデオシーケンスの一部である現在の符号化されたピクチャ内の現在のブロックの予測情報を復号化する。予測情報は、第1の予測モードが現在のブロックに使用されていることを示している。第1の予測モードは、イントラ、インター、またはIBC予測モードのうちの1つであり得る。
プロセス(1000)はステップ(S1020)に進み、プロセス(1000)は、現在のブロックに隣接し、現在のブロックの前に再構築される隣接ブロックが第1の予測モードを使用するかどうかを決定する。
プロセス(1000)はステップ(S1030)に進み、プロセス(1000)は、隣接ブロックが第1の予測モードを使用するという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入する。
プロセス(1000)はステップ(S1040)に進み、プロセス(1000)は、第1の予測モードの予測子リストに従って現在のブロックを再構築する。
現在のブロックを再構築した後に、プロセス(1000)は終了する。
上記の技術は、コンピュータ可読命令を使用してコンピュータソフトウェアとして実装され、1つまたは複数のコンピュータ可読媒体に物理的に記憶され得る。例えば、図11は、開示された主題の特定の実施形態を実施するのに適したコンピュータシステム(1100)を示している。
コンピュータソフトウェアは、任意の適切なマシンコードまたはコンピュータ言語を用いてコード化することができ、それはアセンブリ、コンパイル、リンクなどのメカニズムの対象となり、1つまたは複数のコンピュータ中央処理装置(CPU)、グラフィックス処理ユニット(GPU)などによって、直接に、または解釈、マイクロコード実行などを通じて実行され得る命令を含むコードを作成することができる。
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲームデバイス、モノのインターネットデバイスなどを含む、様々なタイプのコンピュータまたはその構成要素上で実行され得る。
コンピュータシステム(1100)について図11に示す構成要素は、本質的に例示的なものであり、本開示の実施形態を実施するコンピュータソフトウェアの使用範囲または機能に関する限定を示唆することを意図するものではない。また、構成要素の構成は、コンピュータシステム(1100)の例示的な実施形態に示す構成要素のいずれか1つまたは組み合わせに関連する依存性または要件を有すると解釈されるべきではない。
コンピュータシステム(1100)は、特定のヒューマンインターフェース入力デバイスを含むことができる。このようなヒューマンインターフェース入力デバイスは、例えば、触覚入力(キーストローク、スワイプ、データグローブの動きなど)、音声入力(声、拍手など)、視覚入力(ジェスチャなど)、嗅覚入力(図示せず)を通して1人または複数の人間のユーザによる入力に応答することができる。ヒューマンインターフェースデバイスは、音声(スピーチ、音楽、環境音など)、画像(スキャンされた画像、静止画像カメラで撮影した写真画像など)、ビデオ(2次元ビデオ、立体ビデオを含む3次元ビデオなど)などの、必ずしも人間の意識的な入力に直接関係しない特定の媒体をキャプチャするためにも使用することができる。
入力ヒューマンインターフェースデバイスは、キーボード(1101)、マウス(1102)、トラックパッド(1103)、タッチスクリーン(1110)、データグローブ(図示せず)、ジョイスティック(1105)、マイク(1106)、スキャナ(1107)、カメラ(1108)のうちの1つまたは複数(それぞれ1つのみ描かれている)を含むことができる。
コンピュータシステム(1100)はまた、特定のヒューマンインターフェース出力デバイスを含むことができる。そのようなヒューマンインターフェース出力デバイスは、例えば、触覚出力、音、光、および嗅覚/味覚を通して、1人または複数の人間のユーザの感覚を刺激することができる。そのようなヒューマンインターフェース出力デバイスは、触覚出力デバイス(例えば、タッチスクリーン(1110)、データグローブ(図示せず)、またはジョイスティック(1105)による触覚フィードバックであるが、入力デバイスとして機能しない触覚フィードバックデバイスもあり得る)、オーディオ出力デバイス(スピーカ(1109)、ヘッドホン(図示せず)など)、視覚出力デバイス(CRT画面、LCD画面、プラズマ画面、OLED画面を含む画面(1110)などであって、それぞれタッチスクリーン入力機能の有無にかかわらず、触覚フィードバック機能の有無にかかわらず、その一部は、2次元の視覚出力または立体出力などの手段による3次元以上の出力を出力することが可能であり得る、仮想現実メガネ(図示せず)、ホログラフィックディスプレイ、スモークタンク(図示せず))、ならびにプリンタ(図示せず)を含むことができる。
コンピュータシステム(1100)はまた、CD/DVDなどの媒体(1121)を備えたCD/DVD ROM/RW(1120)を含む光学媒体、サムドライブ(1122)、リムーバブルハードドライブまたはソリッドステートドライブ(1123)、テープおよびフロッピーディスクなどのレガシー磁気媒体(図示せず)、セキュリティドングル(図示せず)などの特殊なROM/ASIC/PLDベースのデバイスなどの、人間がアクセス可能な記憶装置およびその関連媒体を含むことができる。
当業者はまた、現在開示されている主題に関連して使用される「コンピュータ可読媒体」という用語は、伝送媒体、搬送波、または他の一時的な信号を含まないことを理解されたい。
コンピュータシステム(1100)はまた、1つまたは複数の通信ネットワークへのインターフェースを含むことができる。ネットワークは、例えば、無線、有線、光であり得る。ネットワークはさらに、ローカル、広域、メトロポリタン、車両および産業、リアルタイム、遅延耐性などであり得る。ネットワークの例は、イーサネットなどのローカルエリアネットワーク、無線LAN、GSM、3G、4G、5G、LTEなどを含むセルラーネットワーク、ケーブルTV、衛星TV、地上波放送TVなどを含むTV有線または無線の広域デジタルネットワーク、CANBusを含む車両および産業用などを含む。特定のネットワークは通常、特定の汎用データポートまたはペリフェラルバス(1149)(例えば、コンピュータシステムのUSBポート(1100))に接続された外部ネットワークインターフェースアダプタを必要とし、他のものは、一般に、以下に説明するようにシステムバスに接続することによってコンピュータシステム(1100)のコアに統合される(例えば、PCコンピュータシステムへのイーサネットインターフェースまたはスマートフォンコンピュータシステムへのセルラーネットワークインターフェース)。これらのネットワークのいずれかを使用して、コンピュータシステム(1100)は他のエンティティと通信することができる。このような通信は、単一方向、受信のみ(例えば、テレビ放送)、単一方向の送信のみ(例えば、CANbusから特定のCANbusデバイスへ)、または双方向、例えば、ローカルまたはワイドエリアデジタルネットワークを使用する他のコンピュータシステムに対して行うことができる。上記のように、特定のプロトコルおよびプロトコルスタックをこれらのネットワークとネットワークインターフェースのそれぞれで使用することができる。
前述のヒューマンインターフェースデバイス、ヒューマンアクセス可能な記憶装置、およびネットワークインターフェースは、コンピュータシステム(1100)のコア(1140)に取り付けることができる。
コア(1140)には、1つまたは複数の中央処理装置(CPU)(1141)、グラフィックス処理ユニット(GPU)(1142)、フィールドプログラマブルゲートエリア(FPGA)(1143)の形態の特殊なプログラム可能な処理ユニット、および特定のタスク(1144)のためのハードウェアアクセラレータなどを含むことができる。これらのデバイスは、読み取り専用メモリ(ROM)(1145)、ランダムアクセスメモリ(1146)、ユーザがアクセスできない内部ハードドライブ、SSDなどの内部大容量記憶装置(1147)と共にシステムバス(1148)を介して接続され得る。一部のコンピュータシステムでは、システムバス(1148)に1つまたは複数の物理プラグの形態でアクセスして、追加のCPU、GPUなどによる拡張を可能にすることができる。周辺装置は、コアのシステムバス(1148)に直接接続することも、ペリフェラルバス(1149)を介して接続することもできる。ペリフェラルバスのアーキテクチャには、PCI、USBなどが含まれる。
CPU(1141)、GPU(1142)、FPGA(1143)、およびアクセラレータ(1144)は、組み合わせて前述のコンピュータコードを構成することができる特定の命令を実行することができる。そのコンピュータコードは、ROM(1145)またはRAM(1146)に記憶され得る。移行データはRAM(1146)に記憶することもできるが、永続データは、例えば内部大容量記憶装置(1147)に記憶することができる。メモリデバイスのいずれかへの高速な記憶および読み出しは、1つまたは複数のCPU(1141)、GPU(1142)、大容量記憶装置(1147)、ROM(1145)、RAM(1146)などに密接に関連するキャッシュメモリを使用することで可能になり得る。
コンピュータ可読媒体は、様々なコンピュータで実施される操作を実行するためのコンピュータコードをその上に有することができる。媒体およびコンピュータコードは、本開示の目的のために特別に設計および構築されたものであり得るか、またはそれらは、コンピュータソフトウェア技術のスキルを有する人々に周知で利用可能な種類のものであり得る。
一例として、限定するものではないが、アーキテクチャ(1100)を有するコンピュータシステム、具体的にはコア(1140)は、プロセッサ(CPU、GPU、FPGA、アクセラレータなどを含む)が、1つまたは複数の有形のコンピュータ可読媒体に具現化されたソフトウェアを実行する結果として、機能性を提供することができる。このようなコンピュータ可読媒体は、上記で紹介したユーザアクセス可能な大容量記憶装置、ならびにコア内部大容量記憶装置(1147)またはROM(1145)などの非一時的な性質のコア(1140)の特定の記憶装置に関連する媒体であり得る。本開示の様々な実施形態を実施するソフトウェアは、そのようなデバイスに記憶され、コア(1140)によって実行され得る。コンピュータ可読媒体は、特定の必要性に応じて、1つまたは複数のメモリデバイスまたはチップを含むことができる。ソフトウェアは、コア(1140)および具体的にはその中のプロセッサ(CPU、GPU、FPGAなどを含む)に、RAM(1146)に記憶されたデータ構造を定義すること、およびソフトウェアによって定義されたプロセスに従ってそのようなデータ構造を変更することを含む、本明細書に記載された特定のプロセスまたは特定のプロセスの特定の部分を実行させることができる。加えて、または代替として、コンピュータシステムは、回路(例えば、アクセラレータ(1144))にハードワイヤードまたはその他の方法で具現化されたロジックの結果として機能性を提供することができ、それは、本明細書に記載された特定のプロセスまたは特定のプロセスの特定の部分を実行するために、ソフトウェアの代わりに、またはソフトウェアと共に動作することができる。必要に応じて、ソフトウェアへの言及にはロジックを含めることができ、その逆も可能である。コンピュータ可読媒体への言及は、必要に応じて、実行のためのソフトウェアを記憶する回路(集積回路(IC)など)、実行のためのロジックを具現化する回路、またはその両方を包含することができる。本開示は、ハードウェアとソフトウェアの任意の適切な組み合わせを包含する。
本開示はいくつかの例示的な実施形態を説明しているが、本開示の範囲内にある変更、置換、および様々な代替均等例が存在する。したがって、当業者は、本明細書に明示的に示されていないかまたは記載されていないが、開示の原理を具現化し、したがってその趣旨および範囲内にある多数のシステムおよび方法を考案することができることが理解されよう。
(1)デコーダにおけるビデオ復号化のための方法は、符号化されたビデオシーケンスの一部である現在の符号化されたピクチャ内の現在のブロックの予測情報を復号化するステップであって、予測情報は現在のブロックに使用される第1の予測モードを示す、ステップと、現在のブロックに隣接し、かつ現在のブロックの前に再構築された隣接ブロックが第1の予測モードを使用するかどうかを決定するステップと、隣接ブロックが第1の予測モードを使用するという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するステップと、第1の予測モードの予測子リストに従って、現在のブロックを再構築するステップと、を含む。
(2)特徴(1)の方法は、隣接ブロックが第1の予測モードとは異なる第2の予測モードを使用するという決定に応答して、第2の予測モードがイントラ予測モードであるかどうかを決定するステップと、第2の予測モードがイントラ予測モードではないという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するステップと、をさらに含む。
(3)特徴(1)の方法は、隣接ブロックが現在のブロックと同じスライスにあるかどうかを決定するステップであって、スライスはラスタースキャン順序のブロックのグループであり、スライス内のブロックのグループは同じ予測モードを使用する、ステップと、隣接ブロックが現在のブロックと同じスライスにあるという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するステップと、をさらに含む。
(4)特徴(1)の方法は、隣接ブロックが現在のブロックと同じタイルにあるか、または同じタイルグループにあるかを決定するステップであって、タイルはピクチャの領域であり、かつ並行して独立して処理され、タイルグループはタイルのグループであり、かつタイルのグループ間で同じヘッダを共有する、ステップと、隣接ブロックが現在のブロックと同じタイルまたは同じタイルグループにあるという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するステップと、をさらに含む。
(5)特徴(1)の方法は、隣接ブロックが現在のブロックとオーバーラップするかどうかを決定するステップと、隣接ブロックが現在のブロックとオーバーラップしないという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するステップと、をさらに含む。
(6)特徴(1)の方法であって、第1の予測モードは、イントラブロックコピー予測モードおよびインター予測モードのうちの少なくとも一方を含む。
(7)特徴(6)の方法であって、隣接ブロックからの予測情報は、ブロックベクトルおよび動きベクトルのうちの少なくとも一方を含み、ブロックベクトルは、隣接ブロックと現在のブロックとの間のオフセットを示し、隣接ブロックがイントラブロックコピー予測モードで符号化されている場合に現在のブロックを予測するために使用され、動きベクトルは、隣接ブロックがインター予測モードで符号化されている場合に現在のブロックを予測するために使用される。
(8)処理回路を含む装置であって、処理回路は、符号化されたビデオシーケンスの一部である現在の符号化されたピクチャ内の現在のブロックの予測情報を復号化し、予測情報は現在のブロックに使用される第1の予測モードを示し、現在のブロックに隣接し、かつ現在のブロックの前に再構築された隣接ブロックが第1の予測モードを使用するかどうかを決定し、隣接ブロックが第1の予測モードを使用するという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入し、第1の予測モードの予測子リストに従って、現在のブロックを再構築するように構成される。
(9)特徴(8)の装置であって、処理回路は、隣接ブロックが第1の予測モードとは異なる第2の予測モードを使用するという決定に応答して、第2の予測モードがイントラ予測モードであるかどうかを決定し、第2の予測モードがイントラ予測モードではないという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するようにさらに構成される。
(10)特徴(8)の装置であって、処理回路は、隣接ブロックが現在のブロックと同じスライスにあるかどうかを決定し、スライスはラスタースキャン順序のブロックのグループであり、スライス内のブロックのグループは同じ予測モードを使用し、隣接ブロックが現在のブロックと同じスライスにあるという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するようにさらに構成される。
(11)特徴(8)の装置であって、処理回路は、隣接ブロックが現在のブロックと同じタイルにあるか、または同じタイルグループにあるかを決定し、タイルはピクチャの領域であり、かつ並行して独立して処理され、タイルグループはタイルのグループであり、かつタイルのグループ間で同じヘッダを共有し、隣接ブロックが現在のブロックと同じタイルまたは同じタイルグループにあるという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するようにさらに構成される。
(12)特徴(8)の装置であって、処理回路は、隣接ブロックが現在のブロックとオーバーラップするかどうかを決定し、隣接ブロックが現在のブロックとオーバーラップしないという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するようにさらに構成される。
(13)特徴(8)の装置であって、第1の予測モードは、イントラブロックコピー予測モードおよびインター予測モードのうちの少なくとも一方を含む。
(14)特徴(13)の装置であって、隣接ブロックからの予測情報は、ブロックベクトルおよび動きベクトルのうちの少なくとも一方を含み、ブロックベクトルは、隣接ブロックと現在のブロックとの間のオフセットを示し、隣接ブロックがイントラブロックコピー予測モードで符号化されている場合に現在のブロックを予測するために使用され、動きベクトルは、隣接ブロックがインター予測モードで符号化されている場合に現在のブロックを予測するために使用される。
(15)少なくとも1つのプロセッサによって実行可能なプログラムを記憶する非一時的なコンピュータ可読記憶媒体であって、プログラムは、符号化されたビデオシーケンスの一部である現在の符号化されたピクチャ内の現在のブロックの予測情報を復号化するステップであって、予測情報は現在のブロックに使用される第1の予測モードを示す、ステップと、現在のブロックに隣接し、かつ現在のブロックの前に再構築された隣接ブロックが第1の予測モードを使用するかどうかを決定するステップと、隣接ブロックが第1の予測モードを使用するという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するステップと、第1の予測モードの予測子リストに従って、現在のブロックを再構築するステップと、を実行する。
(16)特徴(15)の非一時的なコンピュータ可読記憶媒体であって、記憶するプログラムは、隣接ブロックが第1の予測モードとは異なる第2の予測モードを使用するという決定に応答して、第2の予測モードがイントラ予測モードであるかどうかを決定するステップと、第2の予測モードがイントラ予測モードではないという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するステップと、をさらに実行する。
(17)特徴(15)の非一時的なコンピュータ可読記憶媒体であって、記憶するプログラムは、隣接ブロックが現在のブロックと同じスライスにあるかどうかを決定するステップであって、スライスはラスタースキャン順序のブロックのグループであり、スライス内のブロックのグループは同じ予測モードを使用する、ステップと、隣接ブロックが現在のブロックと同じスライスにあるという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するステップと、をさらに実行する。
(18)特徴(15)の非一時的なコンピュータ可読記憶媒体であって、記憶するプログラムは、隣接ブロックが現在のブロックと同じタイルにあるか、または同じタイルグループにあるかを決定するステップであって、タイルはピクチャの領域であり、かつ並行して独立して処理され、タイルグループはタイルのグループであり、かつ同じヘッダを共有する、ステップと、隣接ブロックが現在のブロックと同じタイルまたは同じタイルグループにあるという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するステップと、をさらに実行する。
(19)特徴(15)の非一時的なコンピュータ可読記憶媒体であって、記憶するプログラムは、隣接ブロックが現在のブロックとオーバーラップするかどうかを決定するステップと、隣接ブロックが現在のブロックとオーバーラップしないという決定に応答して、隣接ブロックからの予測情報を第1の予測モードの予測子リストに挿入するステップと、をさらに実行する。
(20)特徴(15)の非一時的なコンピュータ可読記憶媒体であって、第1の予測モードは、イントラブロックコピー予測モードおよびインター予測モードのうちの少なくとも一方を含む。
付録A:略語
AMVP:高度な動きベクトル予測
ASIC:特定用途向け集積回路
BMS:ベンチマークセット
BV:ブロックベクトル
CANBus:コントローラエリアネットワークバス
CD:コンパクトディスク
CPR:現在のピクチャ参照
CPU:中央処理装置
CRT:ブラウン管
CTB:符号化ツリーブロック
CTU:符号化ツリーユニット
CU:符号化ユニット
DPB:デコーダピクチャバッファ
DVD:デジタルビデオディスク
FPGA:フィールドプログラマブルゲートエリア
GOP:ピクチャグループ
GPU:グラフィックス処理ユニット
GSM:モバイル通信のためのグローバルシステム
HEVC:高効率ビデオ符号化
HRD:仮想参照デコーダ
IBC:イントラブロックコピー
IC:集積回路
JEM:共同探索モデル
LAN:ローカルエリアネットワーク
LCD:液晶ディスプレイ
LTE:長期的進化
MV:動きベクトル
OLED:有機発光ダイオード
PB:予測ブロック
PCI:周辺機器相互接続
PLD:プログラマブルロジックデバイス
PU:予測ユニット
RAM:ランダムアクセスメモリ
ROM:読み取り専用メモリ
SCC:画面コンテンツ符号化
SEI:補足拡張情報
SNR:信号ノイズ比
SSD:ソリッドステートドライブ
TU:変換ユニット
USB:ユニバーサルシリアルバス
VUI:ビデオユーザビリティ情報
VVC:多用途ビデオ符号化
101 サンプル
102 矢印
103 矢印
104 ブロック
105 概略図
111 ブロック
200 通信システム
210 端末装置
220 端末装置
230 端末装置
250 ネットワーク
301 ビデオソース
302 ビデオピクチャのストリーム
303 ビデオエンコーダ
304 符号化されたビデオデータ
305 ストリーミングサーバ
306 クライアントサブシステム
307 着信コピー
310 ビデオデコーダ
311 ビデオピクチャ
312 ディスプレイ
313 キャプチャサブシステム
320 電子デバイス
330 電子デバイス
401 チャネル
410 ビデオデコーダ
412 レンダリングデバイス
415 バッファメモリ
420 エントロピーデコーダ/パーサ
421 シンボル
430 電子デバイス
431 受信器
451 スケーラ/逆変換ユニット
452 イントラピクチャ予測ユニット
453 動き補償予測ユニット
455 アグリゲータ
456 ループフィルタユニット
457 参照ピクチャメモリ
458 ピクチャバッファ
501 ビデオソース
503 ビデオエンコーダ
520 電子デバイス
530 ソースコーダ
532 符号化エンジン
533 ローカルデコーダ
534 参照ピクチャメモリ
535 予測器
540 送信器
543 符号化されたビデオシーケンス
545 エントロピーコーダ
550 コントローラ
560 通信チャネル
603 ビデオエンコーダ
621 汎用コントローラ
622 イントラエンコーダ
623 残差計算器
624 残差エンコーダ
625 エントロピーエンコーダ
626 スイッチ
628 残差デコーダ
630 インターエンコーダ
710 ビデオデコーダ
771 エントロピーデコーダ
772 イントラデコーダ
773 残差デコーダ
774 再構築モジュール
780 インターデコーダ
800 現在のピクチャ
801 現在のブロック
802 ブロックベクトル
803 参照ブロック
900 符号化ツリーユニット(CTU)
901 現在のブロック
902 現在のブロック
903 現在のブロック
904 現在のブロック
910 符号化ツリーユニット(CTU)
911 同じ場所にあるブロック
912 同じ場所にあるブロック
913 同じ場所にあるブロック
914 同じ場所にあるブロック
1000 プロセス
1100 コンピュータシステム
1101 キーボード
1102 マウス
1103 トラックパッド
1105 ジョイスティック
1106 マイク
1107 スキャナ
1108 カメラ
1109 スピーカ
1110 タッチスクリーン
1121 媒体
1122 サムドライブ
1123 ソリッドステートドライブ
1140 コア
1143 フィールドプログラマブルゲートエリア(FPGA)
1144 アクセラレータ
1145 読み取り専用メモリ(ROM)
1146 ランダムアクセスメモリ
1147 大容量記憶装置
1148 システムバス
1149 ペリフェラルバス

Claims (20)

  1. デコーダにおけるビデオ復号化のための方法であって、
    符号化されたビデオシーケンスの一部である現在の符号化されたピクチャ内の現在のブロックの予測情報を復号化するステップであって、前記予測情報は前記現在のブロックに使用される第1の予測モードを示す、ステップと、
    前記現在のブロックに隣接し、かつ前記現在のブロックの前に再構築された隣接ブロックが前記第1の予測モードを使用するかどうかを決定するステップと、
    前記隣接ブロックが前記第1の予測モードを使用するという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの予測子リストに挿入するステップと、
    前記第1の予測モードの前記予測子リストに従って、前記現在のブロックを再構築するステップと、
    を含む方法。
  2. 前記隣接ブロックが前記第1の予測モードとは異なる第2の予測モードを使用するという決定に応答して、
    前記第2の予測モードがイントラ予測モードであるかどうかを決定するステップと、
    前記第2の予測モードが前記イントラ予測モードではないという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するステップと、
    をさらに含む、請求項1に記載の方法。
  3. 前記隣接ブロックが前記現在のブロックと同じスライスにあるかどうかを決定するステップであって、前記スライスはラスタースキャン順序のブロックのグループであり、前記スライス内の前記ブロックのグループは同じ予測モードを使用する、ステップと、
    前記隣接ブロックが前記現在のブロックと前記同じスライスにあるという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するステップと、
    をさらに含む、請求項1に記載の方法。
  4. 前記隣接ブロックが前記現在のブロックと同じタイルにあるか、または同じタイルグループにあるかを決定するステップであって、前記タイルは前記ピクチャの領域であり、かつ並行して独立して処理され、前記タイルグループはタイルのグループであり、かつ前記タイルのグループ間で同じヘッダを共有する、ステップと、
    前記隣接ブロックが前記現在のブロックと前記同じタイルまたは前記同じタイルグループにあるという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するステップと、
    をさらに含む、請求項1に記載の方法。
  5. 前記隣接ブロックが前記現在のブロックとオーバーラップするかどうかを決定するステップと、
    前記隣接ブロックが前記現在のブロックとオーバーラップしないという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するステップと、
    をさらに含む、請求項1に記載の方法。
  6. 前記第1の予測モードは、イントラブロックコピー予測モードおよびインター予測モードのうちの少なくとも一方を含む、請求項1に記載の方法。
  7. 前記隣接ブロックからの前記予測情報は、ブロックベクトルおよび動きベクトルのうちの少なくとも一方を含み、前記ブロックベクトルは、前記隣接ブロックと前記現在のブロックとの間のオフセットを示し、前記隣接ブロックがイントラブロックコピー予測モードで符号化されている場合に前記現在のブロックを予測するために使用され、前記動きベクトルは、前記隣接ブロックがインター予測モードで符号化されている場合に前記現在のブロックを予測するために使用される、請求項6に記載の方法。
  8. 符号化されたビデオシーケンスの一部である現在の符号化されたピクチャ内の現在のブロックの予測情報を復号化し、前記予測情報は前記現在のブロックに使用される第1の予測モードを示し、
    前記現在のブロックに隣接し、かつ前記現在のブロックの前に再構築された隣接ブロックが前記第1の予測モードを使用するかどうかを決定し、
    前記隣接ブロックが前記第1の予測モードを使用するという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの予測子リストに挿入し、
    前記第1の予測モードの前記予測子リストに従って、前記現在のブロックを再構築するように構成された処理回路を含む装置。
  9. 前記処理回路は、
    前記隣接ブロックが前記第1の予測モードとは異なる第2の予測モードを使用するという決定に応答して、
    前記第2の予測モードがイントラ予測モードであるかどうかを決定し、
    前記第2の予測モードが前記イントラ予測モードではないという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するようにさらに構成された、請求項8に記載の装置。
  10. 前記処理回路は、
    前記隣接ブロックが前記現在のブロックと同じスライスにあるかどうかを決定し、前記スライスはラスタースキャン順序のブロックのグループであり、前記スライス内の前記ブロックのグループは同じ予測モードを使用し、
    前記隣接ブロックが前記現在のブロックと前記同じスライスにあるという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するようにさらに構成された、請求項8に記載の装置。
  11. 前記処理回路は、前記隣接ブロックが前記現在のブロックと同じタイルにあるか、または同じタイルグループにあるかを決定し、前記タイルは前記ピクチャの領域であり、かつ並行して独立して処理され、前記タイルグループはタイルのグループであり、かつ前記タイルのグループ間で同じヘッダを共有し、
    前記隣接ブロックが前記現在のブロックと前記同じタイルまたは前記同じタイルグループにあるという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するようにさらに構成された、請求項8に記載の装置。
  12. 前記処理回路は、
    前記隣接ブロックが前記現在のブロックとオーバーラップするかどうかを決定し、
    前記隣接ブロックが前記現在のブロックとオーバーラップしないという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するようにさらに構成された、請求項8に記載の装置。
  13. 前記第1の予測モードは、イントラブロックコピー予測モードおよびインター予測モードのうちの少なくとも一方を含む、請求項8に記載の装置。
  14. 前記隣接ブロックからの前記予測情報は、ブロックベクトルおよび動きベクトルのうちの少なくとも一方を含み、前記ブロックベクトルは、前記隣接ブロックと前記現在のブロックとの間のオフセットを示し、前記隣接ブロックがイントラブロックコピー予測モードで符号化されている場合に前記現在のブロックを予測するために使用され、前記動きベクトルは、前記隣接ブロックがインター予測モードで符号化されている場合に前記現在のブロックを予測するために使用される、請求項13に記載の装置。
  15. 符号化されたビデオシーケンスの一部である現在の符号化されたピクチャ内の現在のブロックの予測情報を復号化するステップであって、前記予測情報は前記現在のブロックに使用される第1の予測モードを示す、ステップと、
    前記現在のブロックに隣接し、かつ前記現在のブロックの前に再構築された隣接ブロックが前記第1の予測モードを使用するかどうかを決定するステップと、
    前記隣接ブロックが前記第1の予測モードを使用するという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの予測子リストに挿入するステップと、
    前記第1の予測モードの前記予測子リストに従って、前記現在のブロックを再構築するステップと、
    を実行するために少なくとも1つのプロセッサによって実行可能なプログラムを記憶する非一時的なコンピュータ可読記憶媒体。
  16. 前記記憶するプログラムは、
    前記隣接ブロックが前記第1の予測モードとは異なる第2の予測モードを使用するという決定に応答して、
    前記第2の予測モードがイントラ予測モードであるかどうかを決定するステップと、
    前記第2の予測モードが前記イントラ予測モードではないという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するステップと、をさらに実行する、請求項15に記載の非一時的なコンピュータ可読記憶媒体。
  17. 前記記憶するプログラムは、
    前記隣接ブロックが前記現在のブロックと同じスライスにあるかどうかを決定するステップであって、前記スライスはラスタースキャン順序のブロックのグループであり、前記スライス内の前記ブロックのグループは同じ予測モードを使用する、ステップと、
    前記隣接ブロックが前記現在のブロックと前記同じスライスにあるという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するステップと、をさらに実行する、請求項15に記載の非一時的なコンピュータ可読記憶媒体。
  18. 前記記憶するプログラムは、
    前記隣接ブロックが前記現在のブロックと同じタイルにあるか、または同じタイルグループにあるかを決定するステップであって、前記タイルは前記ピクチャの領域であり、かつ並行して独立して処理され、前記タイルグループはタイルのグループであり、かつ同じヘッダを共有する、ステップと、
    前記隣接ブロックが前記現在のブロックと前記同じタイルまたは前記同じタイルグループにあるという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するステップと、をさらに実行する、請求項15に記載の非一時的なコンピュータ可読記憶媒体。
  19. 前記記憶するプログラムは、
    前記隣接ブロックが前記現在のブロックとオーバーラップするかどうかを決定するステップと、
    前記隣接ブロックが前記現在のブロックとオーバーラップしないという決定に応答して、前記隣接ブロックからの予測情報を前記第1の予測モードの前記予測子リストに挿入するステップと、をさらに実行する、請求項15に記載の非一時的なコンピュータ可読記憶媒体。
  20. 前記第1の予測モードは、イントラブロックコピー予測モードおよびインター予測モードのうちの少なくとも一方を含む、請求項15に記載の非一時的なコンピュータ可読記憶媒体。
JP2021531405A 2019-02-06 2020-01-06 ビデオ符号化における隣接ブロックの利用可能性のための方法および装置 Pending JP2022510354A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023084821A JP2023111920A (ja) 2019-02-06 2023-05-23 ビデオ符号化における隣接ブロックの利用可能性のための方法および装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962704053P 2019-02-06 2019-02-06
US62/704,053 2019-02-06
US16/394,071 2019-04-25
US16/394,071 US11595662B2 (en) 2019-02-06 2019-04-25 Method and apparatus for neighboring block availability in video coding
PCT/US2020/012379 WO2020163029A1 (en) 2019-02-06 2020-01-06 Method and apparatus for neighboring block availability in video coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023084821A Division JP2023111920A (ja) 2019-02-06 2023-05-23 ビデオ符号化における隣接ブロックの利用可能性のための方法および装置

Publications (1)

Publication Number Publication Date
JP2022510354A true JP2022510354A (ja) 2022-01-26

Family

ID=71836964

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021531405A Pending JP2022510354A (ja) 2019-02-06 2020-01-06 ビデオ符号化における隣接ブロックの利用可能性のための方法および装置
JP2023084821A Pending JP2023111920A (ja) 2019-02-06 2023-05-23 ビデオ符号化における隣接ブロックの利用可能性のための方法および装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023084821A Pending JP2023111920A (ja) 2019-02-06 2023-05-23 ビデオ符号化における隣接ブロックの利用可能性のための方法および装置

Country Status (6)

Country Link
US (2) US11595662B2 (ja)
EP (1) EP3763124A4 (ja)
JP (2) JP2022510354A (ja)
KR (2) KR20240017104A (ja)
CN (2) CN115834878A (ja)
WO (1) WO2020163029A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11019359B2 (en) * 2019-01-15 2021-05-25 Tencent America LLC Chroma deblock filters for intra picture block compensation
CA3130472A1 (en) 2019-02-24 2020-08-27 Beijing Bytedance Network Technology Co., Ltd. Independent coding of palette mode usage indication
CN117459744A (zh) 2019-07-20 2024-01-26 北京字节跳动网络技术有限公司 调色板模式使用指示的条件相关编解码
CN114145013B (zh) * 2019-07-23 2023-11-14 北京字节跳动网络技术有限公司 调色板模式编解码的模式确定
WO2021018166A1 (en) 2019-07-29 2021-02-04 Beijing Bytedance Network Technology Co., Ltd. Scanning order improvements for palette mode coding
US11979560B2 (en) * 2021-08-25 2024-05-07 Tencent America LLC Intra block copy with an adaptive local reference range
WO2023055220A1 (ko) * 2021-10-01 2023-04-06 주식회사 윌러스표준기술연구소 참조 픽쳐를 기초로 인트라 예측 모드를 결정하는 비디오 신호 처리 방법 및 이를 위한 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160373756A1 (en) * 2015-06-16 2016-12-22 Futurewei Technologies, Inc. Advanced Coding Techniques For High Efficiency Video Coding (HEVC) Screen Content Coding (SCC) Extensions
JP2018530249A (ja) * 2015-10-02 2018-10-11 クアルコム,インコーポレイテッド イントラブロックコピーマージモードおよび利用できないibc参照領域のパディング

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2192786A1 (en) 2008-11-27 2010-06-02 Panasonic Corporation Frequency domain filters for video coding
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
CN103220506B (zh) * 2012-01-19 2015-11-25 华为技术有限公司 一种编解码方法和设备
US9615086B2 (en) * 2013-02-06 2017-04-04 Research & Business Foundation Sungkyunkwan University Method and apparatus for intra prediction
AU2013403224B2 (en) * 2013-10-14 2018-10-18 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
US9756354B2 (en) * 2014-03-17 2017-09-05 Qualcomm Incorporated Block vector predictor for intra block copying
US10432928B2 (en) * 2014-03-21 2019-10-01 Qualcomm Incorporated Using a current picture as a reference for video coding
WO2015180014A1 (en) * 2014-05-26 2015-12-03 Mediatek Singapore Pte. Ltd. An improved merge candidate list construction method for intra block copy
WO2015188332A1 (en) * 2014-06-11 2015-12-17 Mediatek Singapore Pte. Ltd. A default vector selection method for block copy vector prediction in video compression
US10027981B2 (en) * 2014-09-01 2018-07-17 Hfi Innovation Inc. Method of intra picture block copy for screen content and video coding
KR102131142B1 (ko) * 2015-01-29 2020-07-07 브이아이디 스케일, 인크. 인트라-블록 카피 검색
WO2016175550A1 (ko) 2015-04-27 2016-11-03 엘지전자 주식회사 비디오 신호의 처리 방법 및 이를 위한 장치
US20170099490A1 (en) * 2015-10-02 2017-04-06 Qualcomm Incorporated Constrained intra-prediction for block copy mode
US10587873B2 (en) * 2015-10-13 2020-03-10 Lg Electronics Inc. Method and apparatus for encoding and decoding video signal
US11563938B2 (en) 2016-02-15 2023-01-24 Qualcomm Incorporated Geometric transforms for filters for video coding
US10764576B2 (en) 2016-05-04 2020-09-01 Microsoft Technology Licensing, Llc Intra-picture prediction using non-adjacent reference lines of sample values
CN116708782A (zh) * 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
US11503315B2 (en) * 2016-08-19 2022-11-15 Lg Electronics Inc. Method and apparatus for encoding and decoding video signal using intra prediction filtering
CN109587479B (zh) * 2017-09-29 2023-11-10 华为技术有限公司 视频图像的帧间预测方法、装置及编解码器
TWI731358B (zh) * 2018-06-29 2021-06-21 大陸商北京字節跳動網絡技術有限公司 改進的時域運動向量預測推導
KR20230159640A (ko) * 2018-07-06 2023-11-21 엘지전자 주식회사 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020089822A1 (en) * 2018-10-31 2020-05-07 Beijing Bytedance Network Technology Co., Ltd. Overlapped block motion compensation with derived motion information from neighbors
US11184633B2 (en) * 2018-11-27 2021-11-23 Qualcomm Incorporated Simplification of history-based motion vector prediction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160373756A1 (en) * 2015-06-16 2016-12-22 Futurewei Technologies, Inc. Advanced Coding Techniques For High Efficiency Video Coding (HEVC) Screen Content Coding (SCC) Extensions
JP2018530249A (ja) * 2015-10-02 2018-10-11 クアルコム,インコーポレイテッド イントラブロックコピーマージモードおよび利用できないibc参照領域のパディング

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RICKARD SJOBERG, ET AL.: ""AHG17: Picture header NAL unit type"", DOCUMENT: JVET-M0377-V2, vol. JVET-M0377 (version 2), JPN6023001399, 11 January 2019 (2019-01-11), pages 1 - 8, ISSN: 0004969405 *
村上 篤道(外2名)編, 「高効率映像符号化技術 HEVC/H.265とその応用」, vol. 第1版, JPN6022026098, 25 February 2013 (2013-02-25), JP, pages 74 - 77, ISSN: 0004807981 *

Also Published As

Publication number Publication date
EP3763124A4 (en) 2021-11-10
EP3763124A1 (en) 2021-01-13
CN115834878A (zh) 2023-03-21
CN113396590B (zh) 2022-09-27
CN113396590A (zh) 2021-09-14
WO2020163029A1 (en) 2020-08-13
KR102630792B1 (ko) 2024-01-30
US11595662B2 (en) 2023-02-28
US20230171411A1 (en) 2023-06-01
KR20210079363A (ko) 2021-06-29
KR20240017104A (ko) 2024-02-06
US20200252621A1 (en) 2020-08-06
JP2023111920A (ja) 2023-08-10

Similar Documents

Publication Publication Date Title
JP2022020694A (ja) 映像復号化のための方法、装置及びコンピュータ・プログラム
JP7358487B2 (ja) イントラ画像ブロック補償のためのデコードされたブロックベクトルの変換
KR102487359B1 (ko) 비디오 코딩을 위한 방법 및 장치
WO2020027988A1 (en) Constraints on coding unit partition
KR102630792B1 (ko) 비디오 코딩에서 이웃 블록 가용성을 위한 방법 및 장치
KR20200118896A (ko) 비디오 코딩을 위한 방법 및 장치
JP2022521516A (ja) ビデオコーディングのための方法およびコンピュータプログラム
JP2022517114A (ja) ビデオ復号用の方法、装置およびプログラム
JP2021518091A (ja) ビデオ符号化のための方法並びにその装置及びコンピュータプログラム
JP7476367B2 (ja) ビデオをデコードするための方法、装置及びプログラム
JP2023010892A (ja) イントラ予測モードとブロック差分パルスコード変調モードとの間の相互作用のための方法および装置
JP2022515850A (ja) 統合位置依存予測組み合わせプロセスを使用するデコードのための方法、装置およびコンピュータ・プログラム
JP2022552381A (ja) ビデオ復号の方法、装置、およびコンピュータプログラム
JP2022522683A (ja) ビデオコーディングのための方法並びにその、装置およびコンピュータプログラム
JP2024024054A (ja) ビデオコーディングのための方法および装置
JP2023158110A (ja) ビデオ復号方法、ビデオ復号装置、コンピュータプログラム、およびビデオ符号化方法
JP7395771B2 (ja) テンプレートマッチングベースのイントラ予測
JP7048773B2 (ja) ビデオ符号化の方法および装置
JP7189370B2 (ja) Cuに基づく補間フィルタ選択のシグナリング
JP2022521259A (ja) ビデオ符号化のための方法、装置およびコンピュータ・プログラム
JP2024509231A (ja) イントラ予測の融合に関する修正
JP7378631B2 (ja) ビデオ符号化のための方法および装置
JPWO2021207026A5 (ja)
JP7250153B2 (ja) 動画符号化のための方法、装置及びコンピュータプログラム
JP7412443B2 (ja) 非線形ループフィルタリングのための方法および装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230523

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230605

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230810