JP7199552B2 - ビデオコーディングのためのルーマ依存クロマ残差スケーリングの設定 - Google Patents

ビデオコーディングのためのルーマ依存クロマ残差スケーリングの設定 Download PDF

Info

Publication number
JP7199552B2
JP7199552B2 JP2021542565A JP2021542565A JP7199552B2 JP 7199552 B2 JP7199552 B2 JP 7199552B2 JP 2021542565 A JP2021542565 A JP 2021542565A JP 2021542565 A JP2021542565 A JP 2021542565A JP 7199552 B2 JP7199552 B2 JP 7199552B2
Authority
JP
Japan
Prior art keywords
video
block
video block
current
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021542565A
Other languages
English (en)
Other versions
JP2022518909A (ja
Inventor
ザン,リー
ザン,カイ
リュウ,ホンビン
シュイ,ジィジォン
ワン,ユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Priority claimed from PCT/CN2020/074141 external-priority patent/WO2020156530A1/en
Publication of JP2022518909A publication Critical patent/JP2022518909A/ja
Application granted granted Critical
Publication of JP7199552B2 publication Critical patent/JP7199552B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)

Description

本特許文献は、ビデオ処理技術、デバイス、及びシステムに関する。
ビデオ圧縮の進歩にかかわらず、デジタルビデオは依然として、インターネット及び他のデジタル通信ネットワーク上で最大バンド幅使用を占める。ビデオを受信及び表示することが可能なユーザデバイスの接続数が増えるにつれて、デジタルビデオ利用のためのバンド幅需要は成長し続けることが予期される。
デジタルビデオ処理に、具体的には、ビデオ処理のためのインループ再成形(in-loop reshaping ILR)に関するデバイス、システム、及び方法が、記載される。記載されている方法は、既存のビデオ処理規格(例えば、High Efficiency Video Coding(HEVC))及び将来のビデオ処理規格の両方又はビデオコーデックを含むビデオプロセッサに適用されてよい。
1つの代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、第1の領域又は第2の領域でサンプルに基づいて動き情報精緻化プロセスを実行するステップと、動き情報精緻化プロセスの結果に基づいて変換を実行するステップとを含み、変換中に、サンプルは、精緻化されていない動き情報を用いて第1の領域で第1の予測ブロックから現在のビデオブロックについて取得され、少なくとも第2の予測ブロックが、再構成ブロックを決定するために使用される精緻化された動き情報を用いて第2の領域で生成され、現在のビデオブロックの再構成されたサンプルは、少なくとも第2の予測ブロックに基づいて生成される。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換中に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて再構成され、且つ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、コーディングツールが、ビデオのビデオリージョン内のサンプルの第1の組と、現在のビデオブロックの参照ピクチャ内のサンプルの第2の組に少なくとも基づいて導出されるパラメータを用いて、変換中に適用され、第1のサンプルの領域と第2のサンプルの領域とは、整列される。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオリージョンの現在のビデオブロックについて、前のビデオリージョンのコーディングモードについての1つ以上のパラメータに基づいて現在のビデオブロックのコーディングモードについてのパラメータを決定するステップと、決定に基づいてビデオのコーディングされた表現を生成するよう現在のビデオブロックに対してコーディングを実行するステップとを含み、コーディングモードについてのパラメータは、ビデオのコーディングされた表現におけるパラメータセットに含まれ、コーディングを実行するステップは、第1の領域での現在のビデオブロックの表現を第2の領域での現在のビデオブロックの表現へ変換することを含み、コーディングモードを用いてコーディングを実行している間に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、コーディングモードについてのパラメータ情報を含むパラメータセットを含むビデオのコーディングされた表現を受け取るステップと、コーディングされた表現からビデオの現在のビデオリージョンの現在のビデオブロックを生成するために、パラメータ情報を使用することによって、コーディングされた表現の復号化を実行するステップとを含み、コーディングモードについてのパラメータ情報は、前のビデオリージョンのコーディングモードについての1つ以上のパラメータに基づき、コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換は、第1の領域で又は第1の領域とは異なる第2の領域でフィルタリング操作を予測ブロックに適用することを含む。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換中に、最終的な再構成ブロックが現在のビデオブロックに対して決定され、一時再構成ブロックが、予測法を用いて生成され、第2の領域で表される。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオのビデオリージョンの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされるところのコーディングモードを使用し、コーディングされた表現におけるパラメータセットは、コーディングモードについてのパラメータ情報を有する。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、クロマブロックであるビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換中に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、変換は、現在のビデオブロックの1つ以上のクロマ成分に順方向再成形(forward reshaping)プロセス及び/又は逆方向再成形(inverse reshaping)プロセスを適用することを更に含む。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオクロマブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換の実行は、ルールに基づいて、ルーマ依存クロマ残差スケーリング(luma-dependent chroma residue scaling,LCRS)が有効又は無効にされるかどうかを決定し、決定に基づいて現在のビデオクロマブロックを再構成することを含む。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、現在のビデオブロックの1つ以上の係数値に基づいて、コーディングモードの使用を無効化すべきかどうかを決定するステップと、決定に基づいて変換を実行するステップとを含み、コーディングモードを使用した変換中に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、仮想パイプラインデータユニット(virtual pipeline data unit,VPDU)を超えるビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、現在のビデオブロックをリージョンに分割するステップと、各リージョンに別々にコーディングモードを適用することによって変換を実行するステップとを含み、コーディングモードを適用することによる変換中に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、現在のビデオブロックのサイズ又は色フォーマットに基づいて、コーディングモードの使用を無効化すべきかどうかを決定するステップと、決定に基づいて変換を実行するステップとを含み、コーディングモードを使用した変換中に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされるところのコーディングモードを使用し、コーディングされた表現における少なくとも1つのシンタックス要素は、コーディングモードの利用の指示及びリシェーパモデルの指示を与える。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが無効にされることを決定するステップと、決定に基づいて順方向再成形及び/又は逆方向再成形を条件付きでスキップするステップとを含み、コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオのビデオリージョンの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、複数の順方向再成形及び/又は複数の逆方向再成形が、ビデオリージョンに対して再成形モードで適用される。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、代表サンプル値の少なくともパレットが現在のビデオブロックに使用されるパレットモードを用いて変換を実行するステップとを含み、コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、代表サンプル値の少なくともパレットが現在のビデオブロックをコーディングするために使用されるパレットモードで現在のビデオブロックがコーディングされることを決定するステップと、決定により、コーディングモードを無効にすることによって変換を実行するステップとを含み、コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、ルーマに依存してスケーリングされるクロマ残差に基づいて構成される。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップであり、変換は、第1のコーディングモードと、代表サンプル値の少なくともパレットが現在のビデオブロックをコーディングするために使用されるパレットコーディングモードとを使用する、ステップと、パレットコーディングモードを使用せずにコーディングされるビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップとを含み、第2のビデオブロックの変換は第1のコーディングモードを使用し、第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、第1のコーディングモードは、第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、現在のビデオブロックを含むピクチャを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピーモードを用いて変換を実行するステップとを含み、コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、現在のビデオブロックをコーディングするために現在のビデオブロックを含むビデオフレームを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピー(intra block copy,IBC)モードで現在のビデオブロックがコーディングされることを決定するステップと、決定により、コーディングモードを無効にすることによって変換を実行するステップとを含み、コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップであり、変換は、現在のビデオブロックを含むビデオフレームを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピーモードと、第1のコーディングモードとを使用する、ステップと、イントラブロックコピーモードを使用せずにコーディングされるビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップとを含み、第2のビデオブロックの変換は、第1のコーディングモードを使用し、第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、第1のコーディングモードは、第1のビデオブロック及び第2のビデオブロックに異なる方法で適用される。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、ブロックベースのデルタパルス符号変調(block-based delta pulse code modulation,BDPCM)モードを用いて変換を実行するステップとを含み、コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、ブロックベースのデルタパルス符号変調(BDPCM)モードを用いて現在のビデオブロックがコーディングされることを決定するステップと、決定により、コーディングモードを無効にすることによって変換を実行するステップとを含み、コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップであり、第1のビデオブロックの変換は、第1のコーディングモードと、ブロックベースのデルタパルス符号変調(BDPCM)モードとを使用する、ステップと、ビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップとを含み、第2のビデオブロックは、BDPCMモードを使用せずにコーディングされ、第2のビデオブロックの変換は、第1のコーディングモードを使用し、第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、第1のコーディングモードは、第1のビデオブロック及び第2のビデオブロックに異なる方法で適用される。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードを用いて変換を実行するステップとを含み、コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードで現在のビデオブロックがコーディングされることを決定するステップと、決定により、コーディングモードを無効にすることによって変換を実行するステップとを含み、コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップであり、第1のビデオブロックの変換は、第1のコーディングモードと、現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードとを使用する、ステップと、ビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップとを含み、第2のビデオブロックは、変換スキップモードを使用せずにコーディングされ、第2のビデオブロックの変換は、第1のコーディングモードを使用し、第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、第1のコーディングモードは、第1のビデオブロック及び第2のビデオブロックに異なる方法で適用される。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、変換及び変換領域量子化を適用せずに現在のビデオブロックがコーディングされるイントラパルス符号変調モードを用いて変換を実行するステップとを含み、コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、変換及び変換領域量子化を適用せずに現在のビデオブロックがコーディングされるイントラパルス符号変調モードで現在のビデオブロックがコーディングされることを決定するステップと、決定により、コーディングモードを無効にすることによって変換を実行するステップとを含み、コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップであり、第1のビデオブロックの変換は、第1のコーディングモードと、現在のビデオブロックが変換及び変換領域量子化を適用せずにコーディングされるイントラパルス符号変調モードとを使用する、ステップと、ビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップとを含み、第2のビデオブロックは、イントラパルス符号変調モードを使用せずにコーディングされ、第2のビデオブロックの変換は、第1のコーディングモードを使用し、第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、第1のコーディングモードは、第1のビデオブロック及び第2のビデオブロックに異なる方法で適用される。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、変換及び量子化なしで現在のビデオブロックが可逆コーディングされる改良型トランスクワント-バイパスモード(modified transquant-bypass mode)を用いて変換を実行するステップとを含み、コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、変換及び量子化を適用なしで現在のビデオブロックが可逆コーディングされるトランスクワント-バイパスモードで現在のビデオブロックがコーディングされることを決定するステップと、決定により、コーディングモードを無効にすることによって変換を実行するステップとを含み、コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップであり、第1のビデオブロックの変換は、第1のコーディングモードと、現在のビデオブロックが変換及び量子化なしで可逆コーディングされるトランスクワント-バイパスモードとを使用する、ステップと、ビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップとを含み、第2のビデオブロックは、トランスクワント-バイパスモードを使用せずにコーディングされ、第2のビデオブロックの変換は、第1のコーディングモードを使用し、第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、第1のコーディングモードは、第1のビデオブロック及び第2のビデオブロックに異なる方法で適用される。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、コーディングモードに使用される情報は、適応ループフィルタリング(adaptive loop filtering,ALF)パラメータを運ぶために使用されるシーケンスパラメータセット(sequence parameter set,SPS)、ビデオパラメータセット(video parameter set,VPS)、ピクチャパラメータセット(picture parameter set,PPS)、又は適応パラメータセット(adaptation parameter set,APS)とは異なるパラメータセットでシグナリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、コーディングモードに使用される情報は、適応ループフィルタリング(ALF)情報とともに適応パラメータセット(APS)でシグナリングされ、コーディングモードに使用される情報及びALF情報は、1つのNALユニットに含まれる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオのビデオリージョンの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、コーディングモードに使用される情報は、適応ループフィルタリング(ALF)情報をシグナリングするために使用される第2タイプの適応パラメータセット(APS)とは異なる第1タイプのAPSでシグナリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオのビデオリージョンの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、ビデオリージョンは、ビデオを処理するために使用される特定のタイプのデータ構造の前にシグナリングされるパラメータセット又は適応パラメータセットを参照することを認められず、特定のタイプのデータ構造は、ビデオリージョンの前にシグナリングされる。
他の代表的な態様において、開示されている技術は、ビデオ処理の方法を提供するために使用されてよい。この方法は、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行するステップを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、ビデオを処理するために使用されるパラメータを含むパラメータセットのシンタックス要素は、コンフォーマンスビットストリーム(conformance bitstream)において予め定義された値を有する。
他の代表的な態様において、上記の方法は、プロセッサ実行可能のコードの形で具現され、コンピュータ可読プログラム媒体に記憶される。
他の代表的な態様において、上記の方法を実行するよう構成され又は動作可能であるデバイスが、開示される。デバイスは、この方法を実装するようプログラムされているプロセッサを含んでよい。
他の代表的な態様において、ビデオデコーダ装置が、本明細書で記載されている方法を実装してもよい。
開示されている技術の上記及び他の態様及び特徴は、図面、明細書及び特許請求の範囲で更に詳細に説明される。
マージ候補リストを構成する例を示す。 空間候補の位置の例を示す。 空間マージ候補の冗長性検査を受ける候補対の例を示す。 現在のブロックのサイズ及び形状に基づく第2予測ユニット(PU)の位置の例を示す。 現在のブロックのサイズ及び形状に基づく第2予測ユニット(PU)の位置の例を示す。 時間マージ候補に対する動きベクトルスケーリングの例を示す。 時間マージ候補の候補位置の例を示す。 複合双予測マージ候補を生成する例を示す。 動きベクトル予測候補を構成する例を示す。 空間動きベクトル候補に対する動きベクトルスケーリングの例を示す。 コーディングユニット(CU)に対して適応時間動きベクトル予測(ATMVP)を使用した動き予測の例を示す。 空間時間動きベクトル予測(STMVP)アルゴリズムによって使用されるサブブロック及び隣接ブロックを伴ったコーディングユニット(CU)の例を示す。 照度補償(IC)パラメータを導出するための隣接サンプルの例を示す。 単純化された4パラメータアフィンモデルの例を示す。 単純化された6パラメータアフィンモデルの例を示す。 サブブロックごとのアフィン動きベクトル(MVF)の例を示す。 4パラメータアフィンモデルの例を示す。 6パラメータアフィンモデルの例を示す。 遺伝によるアフィン候補に対するAF_INTERのための動きベクトル予測の例を示す。 構成されたアフィン候補に対するAF_INTERのための動きベクトル予測の例を示す。 AF_MERGEモードのための候補ブロックの例を示す。 AF_MERGEモードのためのCPMV予測子導出の例を示す。 アフィンマージモードのための候補位置の例を示す。 UMVE探索プロセスの例を示す。 UMVE探索プロセスの例を示す。 バイラテラルテンプレートマッチングに基づくデコーダ側動きベクトル精緻化(DMVR)の例を示す。 再成形を伴う復号化フローのフローチャートの例を示す。 バイラテラルフィルタで利用される隣接サンプルの例を示す。 重み計算で利用される2つのサンプルをカバーするウィンドウの例を示す。 スキャンパターンの例を示す。 インターモード復号化プロセスの例を示す。 インターモード復号化プロセスの他の例を示す。 再構成後フィルタを伴ったインターモード復号化プロセスの例を示す。 再構成後フィルタを伴ったインターモード復号化プロセスの他の例を示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 例となるビデオ処理方法のフローチャートを示す。 本開示で記載される視覚媒体復号化又は視覚媒体符号化技術を実装するためのハードウェアプラットフォームの例を示す。 本開示で記載される視覚媒体復号化又は視覚媒体符号化技術を実装するためのハードウェアプラットフォームの例を示す。
より高い解像度のビデオの需要の高まりにより、ビデオ処理方法及び技術は、現在のテクノロジにおいて至る所に存在している。ビデオコーデックは、通常は、デジタルビデオを圧縮又は圧縮解除する電子回路又はソフトウェアを含み、より高いコーディング効率をもたらすよう改善され続けている。ビデオコーデックは、非圧縮ビデオを圧縮されたフォーマットに変換し、又はその逆も同様である。ビデオ品質と、ビデオを表すために使用される(ビットレートによって決定された)データの量と、符号化及び復号化アルゴリズムの複雑さと、データ損失及び誤りに対する敏感さと、編集の容易さと、ランダムアクセスと、エンド間遅延(レイテンシ)との間には、複雑な関係が存在する。圧縮されたフォーマットは、通常は,標準のビデオ圧縮仕様、例えば、HEVC(High Efficiency Video Coding)規格(H.265又はMPEG-H Part2としても知られている。)、完成されるべきVVC(Versatile Video Coding)規格、あるいは、他の現在及び/又は将来のビデオコーディング規格に従う。
開示されている技術の実施形態は、圧縮性能を改善するために既存のビデオコーディング規格(例えば、HEVC、H.265)及び将来の規格に適用されてよい。セクション見出しは、説明の読みやすさを改善するために本明細書中で使用されており、本開示又は実施形態(及び/又は実施)を夫々のセクションに限定するものでは決してない。
[1.HEVC/H.265でのインター予測の例]
ビデオコーディング規格は、長年にわたって大いに改善してきており、現在では、高いコーディング効率をもたらし、より高い解像度をサポートする。HEVC及びH.265などの最近の規格は、時間予測及び変換コーディングが利用されるハイブリッドビデオコーディング構造に基づく。
[1.1 予測モードの例]
夫々のインター予測されたPU(prediction unit)は、1つ又は2つの参照ピクチャリストについての動きパラメータを有している。いくつかの実施形態で、動きパラメータは、動きベクトル及び参照ピクチャインデックスを含む。他の実施形態で、2つの参照ピクチャリストの一方の利用は、inter_pred_idcを用いてシグナリングされてもよい。更なる他の実施形態で、動きベクトルは、予測子に対する差分として明示的にコーディングされてもよい。
CUがスキップモードでコーディングされる場合に、1つのPUがCUと関連付けられ、有意な残差係数、コーディングされた動きベクトル差分、又は参照ピクチャインデックスは存在しない。マージモードが指定され、これによって、現在のPUの動きパラメータは、空間及び時間候補を含む隣接PUから取得される。マージモードは、スキップモードだけでなく、如何なるインター予測されたPUEにも適用可能である。マージモードに対する代替手段は、動きパラメータの明示的な伝送であり、動きベクトル(より厳密に言えば、動きベクトル予測子と比較した動きベクトル差分(motion vector differences,MVD))、各参照ピクチャリストの対応する参照ピクチャインデックス、及び参照ピクチャリスト利用が、各PUごとに明示的にシグナリングされる。このようなモードは、本明細書では高度動きベクトル予測(advanced motion vector prediction,AMVP)と呼ばれる。
2つの参照ピクチャリストの一方が使用されるべきであることをシグナリングが示す場合に、PUは、サンプルの1つのブロックから生成される。これは「片予測」と呼ばれる。片予測は、Pスライス及びBスライスの両方について利用可能である。
両方の参照ピクチャリストが使用されるべきであることをシグナリングが示す場合に、PUは、サンプルの2つのブロックから生成される。これは「双予測」と呼ばれる。双予測は、Bスライスについてのみ利用可能である。
参照ピクチャリスト
HEVCでは、インター予測という用語が、現在の復号化されているピクチャ以外の参照ピクチャのデータ要素(例えば、サンプル値又は動きベクトル)から導出された予測を表すために使用される。同様に、H.264/AVCでは、ピクチャは、複数の参照ピクチャから予測され得る。インター予測のために使用される参照ピクチャは、1つ以上の参照ピクチャリストに編成される。参照インデックスは、リスト内のどの参照ピクチャが予測信号を生成するために使用されるべきであるかを識別する。
単一の参照ピクチャリストList0は、Pスライスのために使用され、2つの参照リストList0及びList1は、Bスライスのために使用される。留意されるべきは、List0/1に含まれる参照ピクチャは、捕捉/表示順序に関して過去及び未来のピクチャからであってよい点である。
[1.1.1 マージモードの候補を構成する実施形態]
PUがマージモードを用いて予測される場合に、merge candidates list(マージ候補リスト)内のエントリを指し示すインデックスは、ビットストリームからパースされ、動き情報を読み出すために使用される。このリストの構成は、次のステップの連続に従って手短に述べられ得る:
ステップ1:初期候補の導出
ステップ1.1:空間候補の導出
ステップ1.2:空間候補に対する冗長性検査
ステップ1.3:時間候補の導出
ステップ2:追加候補の挿入
ステップ2.1:双予測候補の生成
ステップ2.2:ゼロ動き候補の挿入
図1は、上述されたステップの連続に基づきマージ候補リストを構成する例を示す。初期マージ候補の導出のために、最大4つのマージ候補が、5つの異なった位置にある候補の中から選択される。時間マージ候補の導出のために、最大1つのマージ候補が、2つの候補の中から選択される。PUごとの一定数の候補がデコーダで考えられているので、候補の数が、スライスヘッダでシグナリングされているマージ候補の最大数(MaxNumMergeCand)に達しない場合には、追加候補が生成される。候補の数は一定であるから、最良のマージ候補のインデックスは、トランケーテッドユーナリー二値化(truncated unary binarization,TU)を用いて符号化される。CUのサイズが8に等しい場合に、現在のCUの全てのPUは、2N×2N予測ユニットのマージ候補リストと同一である単一のマージ候補リストを共有する。
[1.1.2 空間マージ候補の構成]
空間マージ候補の導出において、最大4つのマージ候補が、図2に表されている位置にある候補の中から選択される。導出の順序は、A、B、B、A、及びBである。位置Bは、位置A、B、B、AのいずれかのPU(それが他のスライス又はタイルに属するために)利用可能でないか、あるいは、イントラコーディングされている場合にのみ検討される。位置Aでの候補が加えられた後、残りの候補の追加は冗長性検査を受ける。これは、同じ動き情報を有する候補が、コーディング効率が改善されるようにリストから外されることを確かにする。
計算複雑性を低減するために、上記の冗長性検査において、可能性がある全ての候補対が検討されるわけではない。代わりに、図3で矢印で結ばれた対が検討され、候補は、冗長検査のために使用された対応する候補が同じ動き情報を有していない場合にのみリストに加えられる。そっくり同じ動き情報の他のソースは、2N×2Nとは異なるパーティションに関連した「第2PU」である。例として、図4A及び4Bは、夫々、N×2N及び2N×Nの場合について、第2PUを表す。現在のPUがN×2Nとしてパーティション化される場合に、位置Aでの候補はリスト構成のために考慮に入れられない。いくつかの実施形態において、この候補を加えることは、同じ動き情報を有する2つの予測ユニットを生じる可能性があり、これは、コーディングユニット内でただ1つのPUを有するには冗長である。同様に、位置Bは、現在のPUが2N×Nとしてパーティション化される場合に考慮に入れられない。
[1.1.3 時間マージ候補の構成]
このステップでは、ただ1つの候補がリストに加えられる。特に、この時間マージ候補の導出において、スケーリングされた動きベクトルは、所与の参照ピクチャリスト内で現在のピクチャとのPOC差が最小であるピクチャに属する同一位置(co-located)PUに基づいて導出される。同一位置PUの導出のために使用される参照ピクチャリストは、スライスヘッダで明示的にシグナリングされる。
図5は、時間マージ候補のスケーリングされた動きベクトルの導出の例を(破線として)示し、スケーリングされた動きベクトルは、POC距離tb及びtdを用いて同一位置PUの動きベクトルからスケーリングされている。tbは、現在のピクチャの参照ピクチャと現在のピクチャとの間のPOC距離であると定義され、tdは、同一位置ピクチャの参照ピクチャと同一位置ピクチャとの間のPOC差であると定義される。時間マージ候補の参照ピクチャインデックスは、ゼロに等しくセットされる。Bスライスについては、2つの動きベクトル(1つは参照ピクチャリスト0用であり、もう1つは参照ピクチャリスト1用である)が取得され、双予測マージ候補を生成するよう結合される。
参照フレームに属する同一位置PU(Y)では、時間的候補の位置が、図6に表されているように、候補C及びCの間で選択される。位置CにあるPUが利用可能でないか、イントラコーディングされているか、あるいは、現在のCTUの外にある場合に、位置Cが使用される。そうでない場合には、位置Cが時間マージ候補の導出において使用される。
[1.1.4 更なるタイプのマージ候補の構成]
空間及び時間マージ候補に加えて、2つの更なるタイプのマージ候補、すなわち、複合双予測マージ候補及びゼロマージ候補が存在する。複合双予測マージ候補は、空間及び時間マージ候補を利用することによって生成される。複合双予測マージ候補は、Bスライスにのみ使用される。複合双予測マージ候補は、最初の候補の第1参照ピクチャリスト動きパラメータを他の第2参照ピクチャリスト動きパラメータと組み合わせることによって生成される。これら2つのタプルが異なった動き仮説(hypotheses)をもたらす場合に、それらは新しい双予測候補を形成することになる。
図7は、個のプロセスの例を表し、mvL0及びrefIdxL0又はmvL1及びrefIdx1を有する原リスト(左側にある710)内の2つの候補が、最終的なリスト(右側にある720)に加えられる複合双予測マージ候補を生成するために使用される。これらの追加マージ候補を生成するために考えられる組み合わせに関して多数の規則がある。
ゼロ動き候補は、マージ候補リスト内の残りのエントリを満たして、MaxNumMergeCand容量に達するよう挿入される。これらの候補は、ゼロ空間変位と、ゼロから始まって、新しいゼロ動き候補がリストに加えられるたびに増える参照ピクチャインデックスとを有している。これらの候補によって使用される参照フレームの数は、一方向予測及び双方向予測の夫々について1及び2である。いくつかの実施形態では、これらに候補に対しては冗長性検査が実行されない。
[1.2 高度動きベクトル予測(AMVP)の実施形態]
AMVPは、動きパラメータの明示的な伝送のために使用される隣接PUとの動きベクトルの空間時間相関を利用する。それは、左及び上にある時間的に隣接したPU位置の利用可能性を最初に確認し、冗長な候補を除いて、候補リストを一定の長さにするようゼロベクトルを加えることによって、動きベクトル候補リストを構成する。次いで、エンコーダは、候補リストから最良の予測子を選択し、選択された候補を示す対応するインデックスを送信することができる。同様に、マージインデックスシグナリングにより、最良の動きベクトル候補のインデックスは、トランケーテッドユーナリーを用いて符号化される。この場合に符号化される最大値は2である(図8を参照)。以下のセクションでは、動きベクトル予測候補の導出プロセスに関する詳細が提供される。
[1.2.1 AMVP候補を導出する例]
図8は、動きベクトル予測候補の導出プロセスを要約し、各参照ピクチャリストについて入力としてrefidxを用いて実施されてよい。
動きベクトル予測では、2つのタイプの動きベクトル候補、すなわち、空間動きベクトル候補及び時間動きベクトル候補、が考えられている。空間動きベクトル候補導出については、2つの動きベクトル候補が、先に図2に示されたように5つの異なった位置にある各PUの動きベクトルに基づいて最終的に導出される。
時間動きベクトル候補導出については、2つの異なった同一位置の位置に基づいて導出される2つの候補から、1つの動きベクトル候補が選択される。空間時間候補の第1リストが生成された後、リスト内の重複した動きベクトル候補が除かれる。潜在的な候補の数が2よりも多い場合には、関連する参照ピクチャリスト内の参照ピクチャインデックスが1よりも大きい動きベクトル候補は、リストから除かれる。空間時間動きベクトル候補の数が2よりも少ない場合には、追加のゼロ動きベクトル候補がリストに加えられる。
[1.2.2 空間動きベクトル候補の構成]
空間動きベクトル候補の導出において、先に図2に示されたような位置(これらの位置は、動きマージのそれらと同じである)にあるPUから導出される5つの潜在的な候補から、最大2つの候補が考えられる。現在のPUの左側の導出順序は、A、A及びスケーリングされたA、スケーリングされたAと定義される。現在のPUの上側の導出順序は、B、B、B、スケーリングされたB、スケーリングされたB、スケーリングされたBと定義される。夫々の側について、従って、動きベクトル候補として使用され得る4つの場合が存在し、2つの場合は、空間スケーリングを使用することを必要とされず、他の2つの場合には、空間スケーリングが使用される。4つの異なる場合は、次のように簡単に述べられる。
・空間スケーリングなし
(1)同じ参照ピクチャリスト、かつ同じ参照ピクチャインデックス(同じPOC)
(2)異なる参照ピクチャリスト、しかし同じ参照ピクチャ(同じPOC)
・空間スケーリング
(3)同じ参照ピクチャリスト、しかし異なる参照ピクチャ(異なるPOC)
(4)異なる参照ピクチャリスト、かつ異なる参照ピクチャ(異なるPOC)
空間スケーリングなしの場合が最初に確認され、その後に空間スケーリングが続く。空間スケーリングは、参照ピクチャリストにかかわらず隣接PUの参照ピクチャと現在のPUのそれとの間でPOCが異なる場合に考えられる。左の候補の全てのPUが利用不可能であるか、又はイントラコーディングされている場合に、上の動きベクトルのスケーリングが、左及び上のMV候補の並列導出を助けるよう可能にされる。そうでない場合には、空間スケーリングは、上の動きベクトルに対して認められないい。
図9に示されるように、空間スケーリングの場合については、隣接PUの動きベクトルは、時間スケーリングの場合と同じようにしてスケーリングされる。主な違いは、現在のPUの参照ピクチャリスト及びインデックスが入力として与えられる点であり、実際のスケーリングプロセスは時間スケーリングのそれと同じである。
[1.2.3 時間動きベクトル候補の構成]
参照ピクチャインデックス導出は別として、時間マージ候補の導出のための全てのプロセスは、空間動きベクトル候補の導出(図6の例で示される)の場合と同じである。いくつかの実施形態において、参照ピクチャインデックスはデコーダへシグナリングされる。
[2.JEMにおける新しいインター予測方法の例]
いくつかの実施形態において、将来のビデコーディング技術は、JEM(Joint Exploration Model)として知られている参照ソフトウェアを用いて探求されている。JEMでは、サブブロックベースの予測が、アフィン予測、代替時間動きベクトル予測(Alternative Temporal Motion Vector Prediction,ATMVP)、空間時間動きベクトル予測(Spatial-Temporal Motion Vector Prediction,STMVP)、双方向オプティカルフロー(bi-directional optical flow,BIO)、フレームレートアップコンバージョン(Frame-Rate Up Conversion,FRUC)、局所適応動きベクトル分割(Locally Adaptive Motion Vector Resolution,LAMVR)、オーバーラップブロック動き補償(Overlapped Block Motion Compensation,OBMC)、局所照度補償(Local Illumination Compensation,LIC)、及びデコーダ側動きベクトル精緻化(Decoder side Motion Vector Refinement,DMVR)などのいくつかのコーディングツールで導入されている。
[2.1 サブCUベースの動きベクトル予測の例]
四分木プラス二分木(quadtrees plus binary trees,QTBT)によるJEMでは、各CUは、予測方向ごとに多くてもひと組の動きパラメータを有することができる。いくつかの実施形態において、2つのサブCUレベル動きベクトル予測方法が、大きいCUをサブCUに分割し、大きいCUの全てのサブCUについて動き情報を導出することによって、エンコーダにおいて考えられている。代替時間動きベクトル予測(ATMVP)方法は、各CUが、同一位置の参照ピクチャにある現在のCUよりも小さい複数のブロックから複数の組の動き情報をフェッチすることを可能にする。空間時間動きベクトル予測(STMVP)方法では、サブCUの動きベクトルは、時間動きベクトル予測子及び空間隣接動きベクトルを使用することによって再帰的に導出される。いくつかの実施形態において、サブCU動き予測のためのより正確な運動場を保つために、参照フレームのための動き圧縮は無効にされてもよい。
[2.1.1 ATMVPの例]
ATMVP方法では、時間動きベクトル予測(Temporal Motion Vector Prediction,TMVP)方法が、現在のCUよりも小さいブロックから複数の組の動き情報(動きベクトル及び参照インデックスを含む)をフェッチすることによって、変更される。
図10は、CU1000に対するATMVP動き予測プロセスの例を示す。ATMVP方法は、2つのステップでCU1000内のサブCU1001の動きベクトルを予測する。最初のステップは、時間ベクトルにより参照ピクチャ1050内の対応するブロック1051を識別することである。参照ピクチャ1050は、モーションソースピクチャ(motion source picture)とも呼ばれる。第2のステップは、現在のCU1000をサブCU1001に分け、各サブCUに対応するブロックから各サブCUの動きベクトル及び参照インデックスを取得することである。
最初のステップで、参照ピクチャ1050及び対応するブロックは、現在のCU1000の空間隣接ブロックの動き情報によって決定される。隣接ブロックの反復的な走査プロセスを回避するために、現在のCU1000のマージ候補リスト内の最初のマージ候補が使用される。最初の利用可能な動きベクトル及びその関連する参照インデックスが、時間ベクトルと、モーションソースピクチャへのインデックスとであるようセットされる。このようにして、対応するブロックは、TMVPと比較して、より正確に識別され得る。ここで、対応するブロック(時々、同一位置ブロックと呼ばれる)は、現在のCUに対して右下又は中心位置に常にある。
第2のステップで、サブCU1051の対応するブロックは、モーションソースピクチャ1050の時間ベクトルによって、現在のCUの座標にその時間ベクトルを加えることによって識別される。各サブCUについて、その対応するブロック(例えば、中心サンプルをカバーする最小モーショングリッド)の動き情報が、当該サブCUの動き情報を導出するために使用される。対応するN×Nブロックの動き情報が識別された後、それは、HEVCのTMVPと同じように、現在のサブCUの動きベクトル及び参照インデックスに変換される。このとき、動きスケーリング及び他のプロシージャが適用される。例えば、デコーダは、低遅延条件(例えば、現在のピクチャの全ての参照ピクチャのPOCが現在のピクチャのPOCよりも小さい)が満足されるかどうかを確認し、場合により、各サブCUについて動きベクトルMVy(例えば、Xは0又は1に等しく、Yは1-Xに等しい)を予測するために動きベクトルMVx(例えば、参照ピクチャリストXに対応する動きベクトル)を使用する。
[2.1.2 STMVPの例]
STMVP方法では、サブCUの動きベクトルは、ラスタ走査順序に従って、再帰的に導出される。図11は、4つのサブブロックを有する1つのCUを、隣接するブロックとともに示す。4つの4×4サブCU A(1101)、B(1102)、C(1103)及びD(1104)を含む8×8CUを考える。現在のフレームの隣接する4×4ブロックは、a(1111)、b(1112)、c(1112)及びd(1114)と表記される。
サブCU Aの動き導出は、その2つの空間近傍を識別することによって開始する。第1近傍は、サブCU A(1101)の上にあるN×Nブロック(ブロックc 1113)である。このブロックc(1113)が利用不可能であるか、又はイントラコーディングされている場合に、サブCU A(1101)の上にある他のN×Nブロックが確認される(ブロックc 1113から始まって、左から右へ)。第2近傍は、サブCU A(1101)の左にあるブロック(ブロックb 1112)である。ブロックb(1112)が利用不可能であるか、又はイントラコーディングされている場合に、サブCU A(1101)の左にある他のブロックが確認される(ブロックb 1112から始まって、上から下へ)。各リストについて隣接ブロックから取得された動き情報は、所与のリストについての第1参照フレームにスケーリングされる。次に、サブブロックA(1101)の時間動きベクトル予測子(TMVP)が、HEVCで定められているTMVP導出の同じプロシージャに従うことによって、導出される。位置D(1104)での同一位置ブロックの動き情報は、それに応じてフェッチされスケーリングされる。最後に、動き情報を取り出しスケーリングした後、全ての利用可能な動きベクトルは、参照リストごとに別々に平均化される。平均化された動きベクトルは、現在のサブCUの動きベクトルとして割り当てられる。
[2.1.3 サブCU動き予測モードシグナリングの例]
いくつかの実施形態において、サブCUモードは、追加のマージ候補として使用可能であり、モードをシグナリングするために追加のシンタックス要素は必要とされない。2つの追加マージ候補が、ATMVPモード及びSTMVPモードを表すために各CUのマージ候補に加えられる。他の実施形態において、ATMVP及びSTMVPが使用可能であることをシーケンスパラメータセットが示す場合には、最大7つのマージ候補が使用され得る。追加マージ候補の符号化ロジックは、HMにおけるマージ候補の場合と同じである。これは、P又はBスライス内の各CUについて、2つ以上のRDチェックが2つの追加マージ候補のために必要とされる可能性があることを意味する。いくつかの実施形態、例えば、JEMでは、マージインデックスの全ビンが、CABAC(Context-based Adaptive Binary Arithmetic Coding))によってコンテキストコーディングされる。他の実施形態、例えば、HEVCでは、最初のビンのみがコンテキストコーディングされ、残りのビンは、コンテキストバイパスコーディングされる。
[2.2 JEMにおけるLICの例]
局所照度補償(LIC)は、スケーリング係数a及びオフセットbを用いて、照度変化のための線形モデルに基づく。そして、それは、各インターモードコーディングされたコーディングユニット(CU)について適応的に有効又は無効にされる。
LICがCUに適用される場合に、最小二乗誤差法が、現在のCUの隣接サンプル及びそれらの対応する参照サンプルを使用することによってパラメータa及びbを導出するために用いられる。より具体的には、図12に表されるように、CUのサブサンプリング(2:1サブサンプリング)された隣接サンプル及び参照ピクチャ内の対応するサンプル(現在のCU又はサブCUの動き情報によって識別される)が使用される。
[2.1.1 予測ブロックの導出]
ICパラメータは、各予測方向について別々に導出され適用される。予測方向ごとに、第1の予測ブロックが、複合された動き情報により生成され、次いで、時間予測ブロックが、LICモデルを適用することによって取得される。その後に、2つの時間予測ブロックが、最終的な予測ブロックを導出するために利用される。
CUがマージモードでコーディングされる場合に、LICフラグは、マージモードでの動き情報コピーと同じようにして、隣接ブロックからコピーされる。そうでない場合には、LICフラグは、LICが適用されるか否かを示すよう当該CUについてシグナリングされる。
LICがピクチャに使用可能である場合に、追加のCUレベルRDチェックが、LICがCUに適用されるか否かを決定するために必要である。LICがCUに使用可能である場合に、平均除去絶対差分和(Mean-Removed Sum of Absolute Difference,MR-SAD)及び平均除去絶対アダマール変換差分和(Mean-Removed Sum of Absolute Hadamard-Transformed Difference,MR-SATD)が、SAD及びSATDの代わりに、整数ペル動き探索及び分数ペル動き探索のために夫々使用される。
符号化複雑性を低減するために、以下の符号化スキームがJEMでは適用される:現在のピクチャとその参照ピクチャとの間に明らかな照度変化がない場合には、ピクチャ全体に対してLICは無効にされる。この状況を識別するために、現在のピクチャ及び現在のピクチャのあらゆる参照ピクチャのヒストグラムがエンコーダで計算される。現在のピクチャと現在のピクチャのあらゆる参照ピクチャとの間のヒストグラム差が所与の閾値よりも小さい場合に、LICは現在のピクチャに対して無効にされ、そうでない場合には、LICは現在のピクチャに対して有効にされる。
[2.3 VVCにおけるインター予測法の例]
MVDをシグナリングするための適応動きベクトル差分解(AMVR)、アフィン予測モード、三角予測モード(Triangular Prediction Mode,TPM)、ATMVP、一般化された双予測(Generalized Bi-Prediction,GBI)、双予測オプティカルフロー(BIO)などの、インター予測の改善のためのいくつかの新しいコーディングツールが存在する。
[2.3.1 VVCにおけるコーディングブロック構造の例]
VVCでは、四分木/二分木/多分木(QT/BT/TT)構造が、ピクチャを正方形又は長方形ブロックに分割するために採用されている。QT/BT/TTに加えて、別のツリー(別名、デュアルコーディングツリー)も、Iフレームに対してVVCでは採用されている。別のツリーによれば、コーディングブロック構造は、ルーマ成分及びクロマ成分について別々にシグナリングされる。
[2.3.2 適応動きベクトル差分解の例]
いくつかの実施形態において、(PUの動きベクトルと予測された動きベクトルとの間の)動きベクトル差分(MVD)は、スライスヘッダにおいてuse_integer_my_flagが0に等しいときに4分の1ルーマサンプルの単位でシグナリングされる。JEMでは、局所適応動きベクトル分解(LAMVR)が紹介されている。JEMでは、MVDは、4分の1ルーマサンプル、整数ルーマサンプル、又は4ルーマサンプルの単位でコーディングされ得る。MVD分解は、コーディングユニット(CU)レベルで制御され、MVD分解フラグは、少なくとも1つの非ゼロMVD成分を有している各CUについて条件付きでシグナリングされる。
少なくとも1つの非ゼロMVD成分を有するCUについては、4分の1ルーマサンプルMV精度がCUで使用されるかどうかを示すために、第1フラグがシグナリングされる、第1グラフ(1に等しい)が、4分の1ルーマサンプルMV精度が使用されないことを示す場合に、整数ルーマサンプルMV精度又は4ルーマサンプルMV精度が使用されるかどうかを示すために、他のフラグがシグナリングされる。
CUの第1MVD分解フラグがゼロであるか、あるいは、CUに対してコーディングされない(つまり、CU内の全てのMVDがゼロである)場合に、そのCUに対しては、4分の1ルーマサンプルMV分解が使用される。CUが整数ルーマサンプルMV精度又は4ルーマサンプルMVDがゼロ精度を使用する場合に、そのCUのAMVP候補リスト内のMVPは、対応する精度に丸められる。
[2.3.3 アフィン動き補償予測の例]
HEVCでは、並進運動モデル(translation motion model)しか動き補償予測(Motion Compensation Prediction,MCP)のために適用されない。しかし、カメラ及び対象物は、多くの種類の動き、例えば、ズームイン/アウト、回転、射影運動、及び他の不規則な動きを有する可能性がある。VVCでは、簡単化されたアフィン変換動き補償予測が4パラメータアフィンモデル及び6パラメータアフィンモデルにより適用される。図13A及び13Bに示されるように、ブロックのアフィン運動場は、(変数a、b、e及びfを使用する4パラメータアフィンモデルでは)2つ又は(変数a、b、c、d、e及びfを使用する6パラメータアフィンモデルでは)3つのの制御点動きベクトルによって夫々記述される。
ブロックの動きベクトル場(Motion Vector Field,MVF)は、4パラメータアフィンモデル及び6パラメータアフィンモデルにより夫々、次の式によって記述される:
Figure 0007199552000001
ここで、(mv ,mv )は、左上角の制御点の(CP)動きベクトルであり、(mv ,mv )は、右上角の制御点の動きベクトルであり、(mv ,mv )は、左下角の制御点の動きベクトルであり、(x,y)は、現在のブロック内の左上サンプルに対する代表点の座標を表す。CP動きベクトルは、シグナリング(アフィンAMVPモードと同様)されるか、あるいは、オン・ザ・フライで導出(アフィンモードと同様)されてよい。w及びhは、現在のブロックの幅及び高さである。実際に、分割は、丸め演算付き右シフトによって実施される。VTMでは、代表点は、サブブロックの中心位置であるよう定義され、例えば、現在のブロック内の左上サンプルに対するサブブロックの左上角の座標が(xs,ys)である場合に、代表点の座標は、(xs+2,ys+2)であるよう定義される。各サブブロック(例えば、VTMでは4×4)について、代表点は、そのサブブロック全体の動きベクトルを導出するために利用される。
図15は、ブロック1300のサブブロックごとのアフィンMVFの例を示し、動き補償予測を更に簡単にするために、サブブロックベースのアフィン変換予測が適用される。各M×Nサブブロックの動きベクトルを導出するために、各サブブロックの中心サンプルの動きベクトルは、式(1)及び(2)に従って計算され、動きベクトル分数精度(例えば、JEMでは、1/16)に丸められ得る。次いで、動き補償補間フィルタが、導出された動きベクトルにより各サブブロックの予測を生成するために適用される。1/16ペルのための補間フィルタがアフィンモードによって導入される。MCPの後、各サブブロックの高精度動きベクトルは、丸められ、通常の動きベクトルと同じ精度としてセーブされる。
[2.3.3.1 アフィン予測のシグナリングの例]
並進運動モデルと同様に、アフィンモデルによるサイド情報をシグナリングするための2つのモードもある。それらは、AFFINE_INTERモード及びAFFINE_MERGEモードである。
[2.3.3.2 AF_INTERモードの例]
幅及び高さの両方が8よりも大きいCUについては、AF_INTERモードが適用され得る。CUレベルでのアフィンフラグは、AF_INTERモードが使用されるかどうかを示すためにビットストリームでシグナリングされる。このモードで、各参照ピクチャリスト(List0又はList1)について、アフィンAMVP候補リストは、次の順序で3つのタイプのアフィン動き予測子により構成され、各候補は、現在のブロックの推定されたCPMVを含む。エンコーダ側で見つけられた最良のCPMV(例えば、図17のmv、mv、mv)と推定されたCPMVとの差がシグナリングされる。更には、推定されたCPMVが導出されるアフィンAMVP候補のインデックスが更にシグナリングされる。
1)遺伝による(つまり、引き継がれた)アフィン動き予測子
検査順序は、HEVC AMVPリスト構成における空間MVPのそれと同様である。最初に、現在のブロックと同じ参照ピクチャを有し、アフィンコーディングされている{A1,A0}内の最初のブロックから、左側の遺伝的アフィン動き予測子が導出される。第2に、現在のブロックと同じ参照ピクチャを有し、アフィンコーディングされている{B1,B0,B2}内の最初のブロックから、上側の遺伝的アフィン動き予測子が導出される。5つのブロックA1、A0、B1、B0、B2は、図16に表されている。
隣接するブロックがアフィンモードでコーディングされていると分かると、隣接するブロックをカバーするコーディングユニットのCPMVは、現在のブロックのCPMVの予測子を導出するために使用される。例えば、A1が非アフィンモードでコーディングされ、A0が4パラメータアフィンモードでコーディングされる場合に、左側の遺伝的アフィンMV予測子はA0から導出されることになる。この場合に、図18Bで左上CPMVについてはMV 及び右上CPMVについてはMV によって表されている、A0をカバーするCUのCPMVは、現在のブロックの左上位置(座標(x0,y0)を有する)、右上位置(座標(x1,y1)を有する)及び右下位置(座標(x2,y2)を有する)についてMV 、MV 、MV によって表される現在のブロックの推定されたCPMVを導出するために利用される。
2)構成されたアフィン動き予測子
構成されたアフィン動き予測子は、同じ参照ピクチャを有している、図17に示されるような隣接するインターコーディングされたブロックから導出される制御点動きベクトル(CPMV)から成る。現在のアフィン動きモデルが4パラメータアフィンである場合に、CPMVの数は2であり、そうではなく、現在のアフィン動きモデルが6パラメータアフィンである場合に、CPMVの数は3である。左上CPMV
〔外1〕
Figure 0007199552000002
(以降、バーmv)は、現在のブロックと同じ参照ピクチャを有している、インターコーディングされているグループ{A,B,C}内の最初のブロックでのMVによって、導出される。右上CPMV
〔外2〕
Figure 0007199552000003
(以降、バーmv)は、現在のブロックと同じ参照ピクチャを有している、インターコーディングされているグループ{D,E}内の最初のブロックでのMVによって、導出される。左下CPMV
〔外3〕
Figure 0007199552000004
(以降、バーmv)は、現在のブロックと同じ参照ピクチャを有している、インターコーディングされているグループ{F,G}内の最初のブロックでのMVによって、導出される。
- 現在のアフィン動きモデルが4パラメータアフィンである場合に、構成されたアフィン動き予測子は、バーmv及びバーmvの両方が求められる、つまり、バーmv及びバーmvが現在のブロックの左上位置(座標(x0,y0)を有する)及び右上位置(座標(x1,y1)を有する)についての推定されたCPMVとして使用される場合にのみ、候補リストに挿入される。
- 現在のアフィン動きモデルが6パラメータアフィンである場合に、構成されたアフィン動き予測子は、バーmv、バーmv、及びバーmvが全て求められる、つまり、バーmv、バーmv、及びバーmvが現在のブロックの左上位置(座標(x0,y0)を有する)、右上位置(座標(x1,y1)を有する)及び右下位置(座標(x2,y2)を有する)についての推定されたCPMVとして使用される場合にのみ、候補リストに挿入される。
構成されたアフィン動き予測子が候補リストに挿入する場合に、プルーニングプロセスは適用されない。
3)通常のAMVP動き予測子
以下は、アフィン動き予測の数が最大値に達するまで適用される。
1)利用可能である場合に全てのCPMVをバーmvに等しくセットすることによってアフィン動き予測子を導出する。
2)利用可能である場合に全てのCPMVをバーmvに等しくセットすることによってアフィン動き予測子を導出する。
3)利用可能である場合に全てのCPMVをバーmvに等しくセットすることによってアフィン動き予測子を導出する。
4)利用可能である場合に全てのCPMVをHEVC TMVPに等しくセットすることによってアフィン動き予測子を導出する。
5)全てのCPMVをゼロMVにセットすることによってアフィン動き予測子を導出する。
留意されるべきは、
〔外4〕
Figure 0007199552000005
(以降、バーmv)は、構成されたアフィン動きでは既に導出されている点である。
AF_INTERモードでは、4又は6パラメータアフィンモードが使用される場合に、2又は3つの制御点が必要とされるので、2又は3つのMVDが、図15A及び15Bに示されるように、それらの制御点に対してコーディングされる必要がある。既存の実施では、MVは次のように導出されてよく、例えば、それは、mvdからmvd及びmvdを予測する。
Figure 0007199552000006
ここで、バーmv、mvd及びmvは、図15Bに示されるように、夫々、左上ピクセル(i=0)、右上ピクセル(i=1)、又は左下ピクセル(i=2)の予測された動きベクトル、動きベクトル差分及び動きベクトルである。いくつかの実施形態において、2つの動きベクトル(例えば、mvA(xA,yA)及びmvB(xB,yB))の追加は、別々に2つの成分の和に等しい。例えば、newMV=mvA+mvBは、newMVの2つの成分が夫々、(xA+xB)及び(yA+yB)にセットされることを暗示する。
[2.3.3.3 AF_MERGEモードの例]
CUがAF_MERGEモードで適用される場合に、それは、有効な隣接する再構成されたブロックからアフィンモードによりコーディングされた最初のブロックを得る。そして、候補ブロックの選択順序は、図18Aに示されるように、左から、上、右上、左下、左上へである(順にA、B、C、D、Eによって表される)。例えば、隣接する左下ブロックが、図18BでA0によって表されるように、アフィンモードでコーディングされる場合に、ブロックAを含む隣接するCU/PUの左上角、右上角、及び左下角の制御点(CP)動きベクトルmv 、mv 及びmv がフェッチされる。そして、現在のCU/PU上の左上角/右上/左下の動きベクトルmv 、mv 及びmv (6パラメータアフィンモデルのためにのみ使用される)は、mv 、mv 及びmv に基づいて計算される。留意されるべきは、VTM-2.0では、現在のブロックがアフィンコーディングされている場合に、左上角に位置するサブブロック(例えば、VTMでは、4×4ブロック)は、mv0を保存し、右上角にあるサブブロックは、mv1を保存する。現在のブロックが6パラメータアフィンモデルでコーディングされる場合には、左下角にあるサブブロックは、mv2を保存し、そうでない(4パラメータアフィンモデルによる)場合には、LBはmv2’を保存する。他のサブブロックは、MCのために使用されるMVを保存する。
現在のCUのCPMV v0及びv1が式(1)及び(2)のアフィン動きモデルに従って計算された後、現在のCUのMVFが生成され得る。現在のCUがAF_MERGEモードでコーディングされているかどうかを識別するために、アフィンモードでコーディングされている少なくとも1つの隣接ブロックがある場合に、アフィンフラグがビットストリームでシグナリングされ得る。
いくつかの実施形態(例えば、JVET-L0142及びJVET-L0632)において、アフィンマージ候補リストは、次のステップで構成されてよい。
1)遺伝によるアフィン候補の挿入
遺伝によるアフィン候補(inherited affine candidate)とは、候補が、その有効な隣接するアフィンコーディングされたブロックのアフィン動きモデルから導出されることを意味する。最大2つの遺伝的アフィン候補が、隣接ブロックのアフィン動きモデルから導出され、候補リストに挿入される。左側予測子については、走査順序は{A0,A1}であり、上側予測子については、走査順序は{B0,B1,B2}である。
2)構成されたアフィン候補の挿入
アフィンマージ候補リスト内の候補の数がMaxNumAffineCand(この構成では5にセットされる)に満たない場合には、構成されたアフィン候補が候補リストに挿入される。構成されたアフィン候補とは、候補が、各制御点の隣接動き情報を結合することによって構成されることを意味する。
a)制御点の動き情報は、最初に、図19に示されている指定された空間近傍及び時間近傍から導出される。CPk(k=1,2,3,4)は、k番目の制御点を表す。A0、A1、A2、B0、B1、B2及びB3は、CPk(k=1,2,3)を予測するための空間的位置である。Tは、CP4を予測するための時間的位置である。
CP1、CP2、CP3及びCP4の座標は、夫々、(0,0)、(W,0)、(H,0)及び(W,H)であり、ここで、W及びHは、現在のブロックの幅及び高さである。
各制御点の動き情報は、次の優先順序に従って取得される:
CP1については、チェック優先度はB2→B3→A2である。B2は、それが利用可能である場合に使用される。そうではない場合に、B3が利用可能であるならば、B3が使用される。B2及びB3の両方が利用不可能である場合には、A2が使用される。3つ全ての候補が利用不可能である場合には、CP1の動き情報は取得不可能である。
CP2については、チェック優先度はB1→B0である。
CP3については、チェック優先度はA1→A0である。
CP4については、Tが使用される。
b)第2に、制御点の組み合わせが、アフィンマージ候補を構成するために使用される。
I.3つの制御点の動き情報が、6パラメータアフィン候補を構成するために必要とされる。3つの制御点は、次の4つの組み合わせ({CP1,CP2,CP4},{CP1,CP2,CP3},{CP2,CP3,CP4},{CP1,CP3,CP4})のうちの1つから選択され得る。組み合わせ{CP1,CP2,CP3}、{CP2,CP3,CP4}、{CP1,CP3,CP4}は、左上、右上、及び左下制御点によって表される6パラメータ運動モデルへ変換されることになる。
II.2つの制御点の動きベクトルが、4パラメータアフィン候補を構成するために必要とされる。2つの制御点は、次の6つの組み合わせ({CP1,CP4},{CP2,CP3},{CP1,CP2},{CP2,CP4},{CP1,CP3},{CP3,CP4})のうちの1つから選択され得る。組み合わせ{CP1,CP4}、{CP2,CP3}、{CP2,CP4}、{CP1,CP3}、{CP3,CP4}は、左上及び右上制御点によって表される4パラメータ運動モデルへ変換されることになる。
III.構成されたアフィン候補の組み合わせは、次の順序:{CP1,CP2,CP3},{CP1,CP2,CP4},{CP1,CP3,CP4},{CP2,CP3,CP4},{CP1,CP2},{CP1,CP3},{CP2,CP3},{CP1,CP4},{CP2,CP4},{CP3,CP4}として候補リストに挿入される。
i.組み合わせの参照リストX(Xは0又は1である。)については、制御点の中で最大利用率を有する参照インデックスが、リストXの参照インデックスとして選択され、差分参照ピクチャを指し示す動きベクトルはスケーリングされることになる。
候補が導出された後、同じ候補がリストに挿入されているかどうかをチェックするために、完全プルーニングプロセスが実行される。同じ候補が存在する場合には、導出された候補は捨てられる。
3)ゼロ動きベクトルによるパディング
アフィンマージ候補リスト内の候補の数が5よりも少ない場合に、リストが一杯になるまで、ゼロ参照インデックスを有するゼロ動きベクトルが候補リストに挿入される。
より具体的には、サブブロックマージ候補リストについて、4パラメータマージ候補は、MVが(0,0)にセットされ、予測方向がリスト0からの片予測(Pスライスの場合)及び双予測(Bスライスの場合)にセットされる。
[2.3.4 動きベクトル差分によるマージ(MMVD)の例]
JVET-L0054では、究極の動きベクトル表示(Ultimate Motion Vector Expression,UMVE)(動きベクトル差分によるマージ(Merge mode with Motion Vector Difference,MMVD)としても知られている)が提示されている。UMVEは、提案されている動きベクトル表示法によりスキップ又はマージのどちらかのモードに使用される。
UMVEは、VVCでの通常のマージ候補リストに含まれているものと同じくマージ候補を再利用する。マージ候補の中から、基本候補が選択可能であり、提案されている動きベクトル表示法によって更に拡張される。
UMVEは、新しい動きベクトル差分(MVD)表現法を提供し、その表現法では、開始点、運動の大きさ、及び運動方向が、MVDを表すために使用される。
この提案されている技術は、マージ候補リストをそのまま使用する。しかし、デフォルトのマージタイプ(MRG_TYPE_DEFAULT_N)である候補しか、UMVEの拡張のために考慮されない。
基本候補インデックスは開始点を定義する。基本候補インデックスは、次のように、リスト内の候補の中で最良の候補を示す:
Figure 0007199552000007
基本候補の数が1に等しい場合には、基本候補IDXはシグナリングされない。
距離インデックスは動きの大きさの情報である。距離インデックスは、開始点情報からの予め定義された距離を示す。予め定義された距離は次の通りである:
Figure 0007199552000008
方向インデックスは、開始点に対するMVDの方向を表す。方向インデックスは、以下で示されるように、4つの方向を表すことができる。
Figure 0007199552000009
いくつかの実施形態において、UMVEフラグは、スキップフラグ及びマージフラグを送った直後にシグナリングされる。スキップ及びマージフラグが真である場合に、UMVEフラグはパースされる。UMVEフラグが1に等しい場合に、UMVEシンタックスはパースされる。しかし、1でない場合には、AFFINEフラグがパースされる。AFFINEフラグが1に等しい場合には、それはアフィンモードである。しかし、1でない場合には、スキップ/マージインデックスが、VTMのスキップ/マージモードについてパースされる。
UMVE候補のための追加のラインバッファは不要である。ソフトウェアのスキップ/マージ候補は基本候補として直接使用されるからである。入力されたUMVEインデックスを用いて、MVの補完は、動き補償の直前に決定される。このため、長いラインバッファを保持する必要はない。
現在の一般的なテスト条件では、マージ候補リスト内の第1又は第2マージ候補のどちらかが、基本候補として選択され得る。
[2.3.5 デコーダ側動きベクトル精緻化(DMVR)の例]
双予測動作では、1つのブロック領域の予測のために、リスト0の動きベクトル(MV)及びリスト1のMVを用いて夫々形成された2つの予測ブロックが、単一の予測信号を形成するよう結合される。デコーダ側動きベクトル精緻化(DMVR)法では、双予測の2つの動きベクトルは更に精緻化される。
JEM設計では、動きベクトルは、バイラテラルテンプレートマッチングプロセスによって精緻化される。バイラテラルテンプレートマッチングは、精緻化されたMVを追加の動き情報の伝送なしで取得するために、バイラテラルテンプレートと参照ピクチャ内の再構成サンプルとの間でひずみベースの探索を実行するようデコーダで適用される。一例が図22に表されている。バイラテラルテンプレートは、図22に示されるように、夫々リスト0の初期MV0及びリスト1のMV1からの2つの予測ブロックの加重結合(すなわち、平均)として生成される。テンプレートマッチング動作は、生成されたテンプレートと参照ピクチャ内の(初期予測ブロックの周りの)サンプル領域との間のコスト指標を計算することから成る。2つの参照ピクチャの夫々について、最小テンプレートコストをもたらすMVは、元のMVを置換するためのそのリストの更新されたMVと見なされる。JEMでは、9つのMV候補がリストごとに探索される。9つのMVは、元のMVと、水平若しくは垂直のどちらか一方の方向又は両方の方向において元もMVに対して1ルーマサンプルだけオフセットされた8つの周囲MVとを含む。最終的に、2つの新しいMV、すなわち、図22に示されるMV0’及びMV1’が、最終的な双予測結果を生成するために使用される。絶対差分和(SAD)がコスト指標として使用される。1つの周囲MVによって生成された予測ブロックのコストを計算する場合に、(整数ペルに)丸められたMVが、実際には、実際のMVの代わりに予測ブロックを取得するために使用される点に留意されたい。
DMVRのプロセスを更に簡単にするために、JVET-M0147は、JEMでの設計に対するいくつかの変更を提案した。より具体的には、VTM-4.0に対する採用されたDMVR(まもなくリリースされる)は、次の主な特徴を備えている:
○リスト0とリスト1との間の(0.0)位置SADでの早期終了
○DMVRのブロックサイズW×H>=64&&H>=8
○CUサイズ>16×16のDMVRについてCUを複数の16×16サブブロックに分割
○参照ブロックサイズ(W+7)×(H+7)(ルーマについて)
○25ポイントのSADベースの整数ペル探索(すなわち、(+-)2絞り探索範囲、単一ステージ)
○双線形補間に基づいたDMVR
○バイラテラルマッチングを可能にするための、リスト0とリスト1との間のMVDミラーリング
○“パラメトリック誤差表現方程式(Parametric error surface equation)”に基づいたサブペル精緻化
○(必要な場合に)参照ブロックパディングを備えたルーマ/クロマMC
○MC及びTMVPにのみ使用される精緻化されたMV
[2.3.6 複合イントラ-インター予測(CIIP)の例]
JVET-L0100では、多重仮説(multi-hypothesis)予測が提案されており、複合イントラ-インター予測(combined intra and inter prediction)は、多重仮説を生成するための1つの方法である。
多重仮説予測がイントラモードを改善するために適用される場合に、多重仮説予測は、1つのイントラ予測と1つのマージインデックス化予測とを組み合わせる。マージCUでは、1つのフラグが、フラグが真である場合にイントラ候補リストからイントラモードを選択するために、マージモードについてシグナリングされる。ルーマ成分については、イントラ候補リストは、DC、プレーナー、水平、及び垂直モードを含む4つのイントラ予測モードから導出され、イントラ候補リストのサイズは、ブロック形状に応じて3又は4であることができる。CU幅がCU高さの2倍よりも大きい場合に、水平モードはイントラモードリストから除かれ、CU高さがCU幅の2倍よりも大きい場合に、垂直モードはイントラリストモードから除かれる。イントラモードインデックスによって選択された1つのイントラ予測モード、及びマージインデックスによって選択された1つのマージインデックス化予測は、加重平均を用いて組み合わされる。クロマ成分については、余分のシグナリングによらずに、常にDMが適用される。予測を組み合わせるための重みは、次の通りに説明される。DC又はプレーナーモードが選択されるか、あるいは、CB幅又は高さが4よりも小さい場合に、等しい重みが適用される。CB幅及び高さが4以上であるようなCBについては、水平/垂直モードが選択される場合に、1つのCBが最初に、垂直方向/水平方向に、4つの等しい面積の領域に分けられる。iが1から4であり、(w_intra,w_inter)=(6,2)、(w_intra,w_inter)=(5,3)、(w_intra,w_inter)=(3,5)、及び(w_intra,w_inter)=(2,6)であるとして、(w_intra,w_inter)と表される各重みセットは、対応する領域に適用されることになる。(w_intra,w_inter)は、参照サンプルに最も近い領域用であり、(w_intra,w_inter)は、参照サンプルから最も遠い領域用である。次いで、組み合わされた予測は、2つの重み付けされた予測を合計し、3ビット右シフトすることによって、計算され得る。更に、予測子のイントラ仮説のためのイントラ予測モードは、次の隣接CUの参照のためにセーブされ得る。
[2.4 JVET-M0427でのインループ再成形(ILR)]
インループ再成形(in-loop reshaping,ILR)の基本的な考えは、元の(第1の領域の)信号(予測/再構成信号)を第2の領域(再成形された領域)に変換することである。
インループルーマリシェーパは、一対の参照テーブル(LUT)として実装されるが、2つのLUTのうちの一方しかシグナリングされる必要がなく、他方は、シグナリングされたLUTから計算可能である。各LUTは、1次元、10ビット、1024エントリのマッピングテーブル(1D-LUT)である。一方のLUTは、前方(forward)LUT(FwdLUT)であり、入力されたルーマコード値Yを変更後の値Y:Y=FwdLUT[Y]にマッピングする。他方のLUTは、後方(inverse)LTU(InvLUT)であり、変更後のコード値Y
〔外5〕
Figure 0007199552000010
にマッピングする(
〔外6〕
Figure 0007199552000011
は、Yの再構成値を表す。)。
[2.4.1 区分線形(PWL)モデル]
いくつかの実施形態において、区分線形(piece-wise linear,PWL)は、次のように実装される。
x1、x2を2つの入力ピボット点とし、y1、y2を1つの区分のそれらの対応する出力ピボット点とする。x1からx2の間にあるいずれかの入力値xに対する出力値yは、次の式によって補間され得る:

y=((y2-y1)/(x2-x1))×(x-x1)+y1
固定点実施では、式は:

y=((m×x+2FP_PREC-1)>>FP_PREC)+c

と書き直され得る。ここで、mはスカラーであり、cはオフセットであり、FP_PRECは、精度を指定する定数値である。
CE-12ソフトウェアでは、PWLモデルが、1024エントリFwdLUT及びInvLUTマッピングテーブルを再計算するために使用されるが、PWLモデルは、LUTを再計算せずにオン・ザ・フライで同じマッピング値を計算する実施も可能にすることに留意されたい。
[2.4.2 テストCE12-2]
[2.4.2.1 ルーマ再成形]
インループルーマ再成形のテスト2(すなわち、提案中のCE12-2)は、インタースライス再構成におけるブロックごとのイントラ予測の復号化レイテンシも取り除く、より複雑度の低いパイプラインを提供する。イントラ予測は、インター及びイントラスライスの両方について再成形領域で実行される。
イントラ予測は、スライスタイプにかかわらず、常に再成形領域で実行される。そのような配置によれば、イントラ予測は、前のUT再構成が行われた直後に開始することができる。そのような配置はまた、スライス依存である代わりに、イントラモードのための統合されたプロセスを提供することもできる。図23は、モードに基づいたCE12-2複合プロセスのブロック図を示す。
CE12-2はまた、CE12-1の32区分PWLモデルの代わりに、ルーマ及びクロマ残差スケーリングについて16区分の区分線形(PWL)モデルを試験する。
CE12-2におけるインループルーマリシェーパによるインタースライス再構成(薄緑色の陰付きブロックは、再成形領域での信号を示す:ルーマ残差、予測されたイントラルーマ、及び再構成されたイントラルーマ)。
[2.4.2.2 ルーマ依存クロマ残差スケーリング(LCRS)]
ルーマ依存クロマ残差スケーリング(luma-dependent chroma residue scaling,LCRS)は、固定点整数演算により実装される乗法プロセスである。クロマ残差スケーリングは、ルーマ信号とクロマ信号との相互作用を補償する。クロマ残差スケーリングは、TUレベルで適用される。より具体的には、次が適用される:
○イントラについては、再構成されたルーマが平均化される。
○インターについては、予測ルーマが平均化される。
平均は、PWLモデル内でインデックスを識別するために使用される。インデックスは、スケーリング係数cScaleInvを識別する。クロマ残差は、その数を乗じられる。
クロマスケーリング係数は、再構成されたルーマ値よりもむしろ、前方マッピングされた予測されたルーマ値から計算される。
[2.4.2.3 ILRサイド情報のシグナリング]
パラメータは、(現在のところ)タイルグループヘッダで送信される(ALFと同様)。それらは、伝えられるところによると、40~100ビットを要する。タイルグループは、ピクチャを表す他の方法であることができる。次の表は、JVET-L1001のバージョン9に基づく。追加されたシンタックスは、イタリック体で強調表示されている。
Figure 0007199552000012
Figure 0007199552000013
Figure 0007199552000014
Figure 0007199552000015
Figure 0007199552000016
[2.4.2.4 ILRの利用]
エンコーダ側で、各ピクチャ(又はタイルグループ)は、最初に、再成形領域に変換される。そして、全てのコーディングプロセスは、再成形領域で実行される。イントラ予測については、隣接ブロックは再成形領域にある。インター予測については、参照ブロック(復号化ピクチャバッファから、元の領域から生成される)が、最初に、再成形領域に変換される。次いで、残差が生成され、ビットストリーム内にコーディングされる。
ピクチャ(又はタイルグループ)全体が符号化/復号化を終えた後、再成形領域内のサンプルは元の領域に変換され、次いで、デブロッキングフィルタ及び他のフィルタ適用される。
予測信号に対する順方向再成形は、次の場合に無効にされる:
○現在のブロックがイントラコーディングされている
○現在のブロックがCPR(current picture referencing)(イントラブロックコピー(IBC)の別名でも知られている)としてコーディングされている
○現在のブロックが、複合インター-イントラモード(CIIP)としてコーディングされており、順方向再成形が、イントラ予測ブロックに対して無効にされている。
[JVET-N0805]
タイルグループヘッダでILRサイド情報をシグナリングしないように、JVET-N0805では、それらおAPSでシグナリングすることが提案されている。それは、次の主な考えを含む:
- 任意に、SPSでLMCSパラメータを送る。LMCSは、関連するビデオコーディング規格で定義されているクロマスケーリングによるルーママッピング(luma mapping with chroma scaling,LMCS)技術を参照する。
- ALFおよびLMCSパラメータに対してAPSタイプを定義する。各APSは1つのタイプしか有さない。
- LMCSツールが有効にされる場合に、LMCS aps_idの有無を示すようTGHにフラグを有する。シグナリングされない場合には、SPSパラメータが使用される。
*ツールが有効にされる場合に参照される有効なものを常に有するためにセマンティック制約を追加する必要がある。
[2.5.2.5.1 JVET-M1001(VVCワーキングドラフト4)の上の提案された設計の実装]
以下で、提案されている変更は、イタリック体で示される。
Figure 0007199552000017
Figure 0007199552000018
Figure 0007199552000019
[2.4.2.6 JVET-N0138]
この寄与は、ALFパラメータに加えてリシェーパモデルパラメータの運搬のための適応パラメータセット(adaptation parameter set,APS)の拡張された利用を提案する。最後の会議で、ALFパラメータは、複数のタイルグループでのパラメータの不必要な冗長シグナリングを回避することによるコーディング効率改善のために、タイルグループヘッダの代わりにAPSによって運ばれることが、決定されている。同じ理由に基づいて、タイルグループヘッダの代わりに、APSによってリシェーパモデルパラメータを運ぶことが提案される。APS内のパラメータのタイプ(少なくともALS又はリシェーパモデルかどうか)を識別するために、APSタイプ情報が、APS IDとともにAPSシンタックスで必要とされる。
以下で、提案されている変更は、イタリック体で示される。
Figure 0007199552000020
[2.5 仮想パイプラインデータユニット(VPDU)]
仮想パイプラインデータユニット(virtual pipeline data unit,VPDU)は、ピクチャ内の重なり合わないM×M-ルーマ(L)/N×N-クロマ(C)ユニットとして定義される。ハードウェアデコーダで、連続したVPDUは、同時に複数のパイプライン段によって処理され、異なる段は異なるVPDUを同時に処理する。VPDUサイズは、ほとんどのパイプライン段でバッファサイズに大体比例するので、VPDUサイズを小さく保つことは、非常に重要であると言える。HEVCハードウェアデコーダで、VPDUサイズは最大変換ブロック(TB)サイズにセットされる。最大TBサイズを32×32-L/16×16-C(HEVCと同様)から64×64-L/32×32-C(現在のVVCと同様)に広げることは、HEVCと比較して予想通りに4倍のVPDUサイズ(64×64-L/32×32-C)をもたらすコーディング利得をもたらすことができる。しかし、四分木(QT)コーディングユニット(CU)パーティション化に加えて、三分木(TT)及び二分木(BT)が、更なるコーディング利得を達成するためにVVCでは採用され、TT及びBT分割は、再帰的に128×128-L/64×64-Cコーディングツリーブロック(CTU)に適用され得る。これは、HEVCと比較して16倍のVPDUサイズ(128×128-L/64×64-C)をもたらすと言われている。
VVCの現在の設計では、VPDUは、64×64-L/32×32-Cとして定義されている。
[2.6 適応パラメータセット]
適応パラメータセット(adaptation parameter set,APS)は、ALFパラメータを運ぶためにVVCで採用される。タイルグループヘッダは、ALFが有効にされる場合に条件付きで存在するaps_idを含む。APSは、aps_id及びALFパラメータを含む。新しいNUT(AVC及びHEVCで見られるようなNALユニットタイプ)値が(JVET-M0132から)APSに対して割り当てられる。VTM-4.0での一般的なテスト条件(表示される)については、aps_id=0を使用して、各ピクチャとともにAPSを送信することが提案されている。差し当たり、APS IDの範囲は、0から31となり、APSはピクチャにわたって共有可能である(ピクチャ内の異なるタイルグループでは異なってもよい)。ID値は、存在する場合に固定長符号化されるべきである。ID値は、同じピクチャ内の異なるコンテンツで再利用され得ない。
[2.7 関連ツール]
[2.7.1 拡散フィルタ(DF)]
JVET-L0157では、拡散フィルタ(diffusion filter)が提案されており、CUのイントラ/インター予測信号は、拡散フィルタによって更に変更されてもよい。
一様拡散フィルタ。一様拡散フィルタは、以下で定義されるように、hとして又はhIVとして与えられる固定マスクにより予測信号をたたみ込むことによって実現される。予測信号自体に加えて、ブロックの左及び上にある再構成されたサンプルの1ラインが、フィルタ処理された信号のための入力として使用され、それらの再構成された信号の使用は、インターブロックでは回避され得る。
predを、イントラ又は動き補償された予測によって取得された所与のブロックでの予測信号とする。フィルタの境界値を扱うために、予測信号は、予測信号predextに拡張される必要がある。この拡張された予測は、2つの方法で形成可能である。
中間ステップとして、ブロックの左及び上にある再構成されたサンプルの1ラインが予測信号に加えられ、次いで、結果として得られた信号が全ての方向でミラーリングされる。あるいは、予測信号自体しか、全ての方向でミラーリングされない。後者の拡張は、インターブロックのために使用される。この場合に、予測信号自体しか、拡張された予測predextのための入力を有さない。
フィルタhが使用されるべきである場合には、上記の境界拡張を用いて、予測信号predをh×predで置換することが提案される。ここで、フィルタマスクhは、
Figure 0007199552000021
として与えられる。
フィルタhIVが使用されるべきである場合には、予測信号をhIV×predで置換することが提案される。ここで、フィルタhIVは、

IV=h×h×h×h

として与えられる。
指向性拡散フィルタ。信号適応拡散フィルタを使用する代わりに、指向性フィルタ、すなわち、水平フィルタhhor及び垂直フィルタhverが使用され、これらは依然として、固定マスクを有している。より厳密には、前のセクションのマスクhに対応する一様拡散フィルタリングが、単純に、垂直方向又は水平方向に沿ってしか適用されないよう制限される。垂直フィルタは、予測信号に固定フィルタマスクを適用することによって実現される:
Figure 0007199552000022
水平フィルタは、転置マスクを使用することによって実現される:

hor=h ver
[2.7.2 バイラテラルフィルタ(BF)]
バイラテラルフィルタは、JVET-L0406で提案されており、それは常に、非ゼロ変換係数及び17よりも大きいスライス量子化パラメータを有するルーマブロックに適用される。従って、バイラテラルフィルタの利用をシグナリングする必要はない。バイラテラルフィルタは、適用される場合に、逆変換の直後の復号されたサンプルに対して実行される。更には、フィルタパラメータ、すなわち、重みは、コーディングされた情報から明示的に導出される。
フィルタリングプロセスは:
Figure 0007199552000023
として定義される。ここで、P0,0は、現在のサンプルの強さであり、P’0,0は、現在のサンプルの変更後の強さであり、Pk,0及びWは、夫々、k番目の隣接サンプルについての強さ及び重みパラメータである。1つの現在サンプル及びその4つの隣接サンプル(すなわち、K=4)の例が図24に表されている。
より具体的には、k番目の隣接サンプルに関連した重みW(x)は、次のように定義される:
Figure 0007199552000024
ここで、
Figure 0007199552000025
ここで、σは、コーディングモード及びコーディングブロックサイズに依存する。記載されているフィルタリングプロセスは、並列処理を可能にするために、イントラコーディングされたブロックに、及びTUが更に分割される場合に、インターコーディングされたブロックに適用される。
ビデオ信号の統計特性をより良く捕らえ、フィルタの性能を改善するために、式(2)から得られた重み関数は、ブロックパーティション化(最小サイズ)のパラメータ及びコーディングモードに依存するように、表4で一覧にされているように、σパラメータによって調整されている。
Figure 0007199552000026
コーディング性能を更に改善するために、TUが分割されない場合のインターコーディングされたブロックについては、現在のサンプルとその隣接サンプルの1つとの間の強さの差は、現在のサンプル及び隣接するサンプルをカバーする2つのウィンドウ間の代表的な強さの差によって置換される。従って、フィルタリングプロセスの式は:
Figure 0007199552000027
に改められる。ここで、Pk,m及びP0,mは、夫々、Pk,0及びP0,0を中心とするウィンドウ内のm番目のサンプル値を表す。この提案では、ウィンドウサイズは3×3にセットされる。P2,0及びP0,0をカバーする2つのウィンドウの例は、図25に表されている。
[2.7.3 アダマール変換領域フィルタ(HF)]
JVET-K0068では、1次元アダマール変換領域でのインループフィルタが、再構成の後にCUレベルで適用され、乗算のなし実装を有している。提案されているフィルタは、予め定義された条件を満足する全てのCUブロックに適用され、フィルタパラメータは、コーディングされた情報から導出される。
提案されているフィルタリングは、4×4ブロックを除き、スライス量子化パラメータが17よりも大きい場合に、非ゼロ変換係数を有するルーマ再構成ブロックに常に適用される。フィルタパラメータは、コーディングされた情報から明示的に導出される。提案されているフィルタは、適用される場合に、逆変換直後の復号されたサンプルに対して実行される。
再構成されたブロックからの各ピクセルについて、ピクセル処理は次のステップを有する:
○スキャンパターンに従って現在のものを含む処理ピクセル周囲の4つの隣接ピクセルをスキャンする
○読み出されたピクセルの4ポイントアダマール変換
○次の式
Figure 0007199552000028
に基づくスペクトルフィルタリング
ここで、(i)は、アダマールスペクトルにおけるスペクトル成分のインデックスであり、R(i)は、インデックスに対応する再構成されたピクセルのスペクトル成分であり、σは、次の式:
Figure 0007199552000029
を用いてコーデック量子化パラメータQPから導出するフィルタリングパラメータである。
スキャンパターンの例は、図26に示されており、Aは、現在のピクセルであり、{B,C,D}は、現在のCU内にある。
[既存の実施の欠点]
既存のILR実施では、次の欠点が存在することがある。
1)タイルグループヘッダでのILRサイド情報のシグナリングは、必要とするビットが多すぎるということで、適切でない。更には、異なるピクチャ/タイルグループの間の予測は認められない。従って、タイルグループごとにILRのサイド情報が伝送される必要があり、このことは、特に低解像度の場合に、低ビットレートでコーディング損失を生じさせる可能性がある。
2)ILRとDMVR(又は他の新たに導入されたコーディングツール)との間の相互作用は不明である。例えば、ILRは、原信号を再成形領域に変換するようインター予測信号に適用され、復号された残差は再成形領域にある。一方で、DMVRも、1つのブロックの動きベクトルを精緻化するために予測信号に依存する。元の領域又は再成形領域でDMVRを適用すべきかどうかは不明である。
3)ILRとスクリーンコンテンツコーディングツール、例えば、パレット、B-DPCM、IBC、変換スキップ、変換量子化バイパス(transquant-bypass)、I-PCMモードとの間の相互作用は明確でない。
4)ルーマ依存クロマ残差スケーリングがILRで使用される。従って、ハードウェア設計にとって有益でない追加の遅延(ルーマとクロマとの間の依存性による)が導入される。
5)VPDUの目標は、他の64×64正方領域の処理を開始する前に、1つの64×64正方領域の処理の完了を保証することである。しかし、ILRの設計によれば、クロマがルーマの予測信号に依存するということで、VPDUの違反を引き起こす可能性があるILRの利用に対する制限はない。
6)1つのCUで全てのゼロ係数が発生した場合に、予測ブロック及び再構成ブロックは、依然として、順方向及び逆方向再成形プロセスを実行する。このことは、計算複雑性を浪費する。
7)JVET-N0138では、ILR情報をAPSでシグナリングすることが提案されている。いくつかの新しい問題がこの解決法によって引き起こされる可能性がある。例えば、2種類のAPSが設計されるが、ILRについてシグナリングされるadaptation_parameter_set_idは、ILR情報を含まないAPSを参照することがある。同様に、適応ループフィルタリング(ALF)についてシグナリングされるadaptation_parameter_set_idは、ALF情報を含まないAPSを参照することがある。
[4.ビデオコーディングのためのインループ再成形の例示的な方法]
目下開示されている技術の実施形態は、既存の実施の欠点を解消し、それによって、より高いコーディング効率をビデオコーディングにもたらす。開示されている技術に基づいたインループ再成形の方法は、既存のビデオコーディング規格及び将来のビデオコーディング規格の両方を強化することができ、様々な実施について記載されている以下の例で説明される。以下で提供される開示されている技術の例は、一般概念を説明しており、限定と解釈されるよう意図されない。例において、明示的に反対のことを示さない限りは、それらの例で記載されている様々な特徴は組み合わされてもよい。留意されるべきは、提案されている技術のいくつかは、既存の候補リスト構成プロセスに適用されてもよい点である。
本明細書中で、デコーダ側動きベクトル導出(DMVD)は、ブロック/サブブロック動き情報を導出又は精緻化するよう動き推定を実行するDMVR及びFRUC、並びにサンプルごとの動き精緻化を実行するBIOのような方法を含む。様々な例(例1から42)は、以下の番号付きリストで与えられる。
1.DMVRのようなDMVD技術での動き情報精緻化プロセスは、再成形領域での情報に依存してよい。
a.一例で、元の領域で参照ピクチャから生成された予測ブロックは、動き情報精緻化に使用される前に、最初に、再成形領域に変換されてよい。
i.代替的に、更には、コスト計算(例えば、SAD、MR-SAD)/勾配計算が再成形領域で実行される。
ii.代替的に、更には、動き情報が精緻化された後、再成形プロセスは、精緻化された動き情報により生成された予測ブロックについて無効にされる。
b.代替的に、DMVRのようなDMVD技術での動き情報精緻化プロセスは、元の領域での情報に依存してよい。
i.DMVDプロセスは、元の領域での予測ブロックにより呼び出されてよい。
ii.一例で、動き情報精緻化の後、精緻化された動き情報により取得された予測ブロック、又は最終的な予測ブロック(例えば、2つの予測ブロックの加重平均)が、最終的な再構成ブロックを生成するために再成形領域に更に変換されてよい。
iii.代替的に、更には、動き情報が精緻化された後、再成形プロセスは、精緻化された動き情報により生成された予測ブロックについて無効にされる。
2.現在のタイル/タイルグループ/ピクチャ内のサンプル及び局所照度補償(LIC)パラメータを導出するために利用された参照ピクチャから導出されたサンプルの領域(元の領域又は再成形領域のどちらか)をそろえることが提案される。
a.一例で、再成形領域が、LICパラメータを導出するために利用される。
i.代替的に、更には、サンプル(例えば、参照ピクチャ内の参照サンプル(補間の有無によらず)及び参照サンプルの隣接/非隣接サンプル(補間の有無によらない))は、LICパラメータを導出するために使用される前に、最初に、再成形領域に変換されてよい。
b.一例で、元の領域が、LICパラメータを導出するために利用される。
i.代替的に、更には、(例えば、現在のタイルグループ/ピクチャ/タイル内の)現在のブロックの空間的に隣接した/隣接していないサンプルは、LICパラメータを導出するために使用される前に、最初に、元の領域に変換されてよい。
c.LICパラメータが1つの領域で導出される場合に、予測ブロックの同じ領域が、LICパラメータをその予測ブロックに適用するときに使用されるべきである。
i.一例で、上記a.が呼び出される場合に、参照ブロックは再成形領域に変換されてよく、LICモデルは、再成形された参照ブロックに適用される。
ii.一例で、上記b.が呼び出される場合に、参照ブロックは元の領域のままであり、LICモデルは、元の領域での参照ブロックに適用される。
d.一例で、LICモデルは、再成形領域での予測ブロックに適用される(例えば、予測ブロックは、最初に、順方向再成形により再成形領域に変換される)。
e.一例で、LICモデルは、最初に、元の領域での予測ブロックに適用され、その後に、LICを適用された予測ブロックに依存した最終的な予測ブロックが、次いで、再成形領域に(例えば、順方向再成形により)変換され、再構成ブロックを導出するために利用されてよい。
f.上記の方法は、空間的に隣接した/隣接していないサンプル及び参照ピクチャ内の参照サンプルの両方に依存する他のコーディングツールに拡張されてもよい。
3.予測ブロックに適用されるフィルタ(例えば、拡散フィルタ(DF))については、フィルタは、元の領域での予測ブロックに適用される。
a.代替的に、更には、その後に、再構成ブロックを生成するために、フィルタ処理された予測信号に再成形が適用される。
b.インターコーディングのためのプロセスの例は、図27に表されている。
c.代替的に、フィルタは、再成形領域での予測信号に適用される。
i.代替的に、更には、再成形は、最初に予測ブロックに適用され、その後に、フィルタリング方法が、再構成ブロックを生成するために、再成形された予測ブロックに更に適用されてもよい。
ii.インターコーディングのためのプロセスの例は、図28に表されている。
d.フィルタパラメータは、ILRが有効にされるか否かに依存してもよい。
4.再構成ブロックに適用されるフィルタ(例えば、バイラテラルフィルタ(BF)、アダマール変換領域フィルタ(HF))については、フィルタは、再成形領域ではなく、元の領域での再構成ブロックに適用される。
a.代替的に、更には、再成形領域での再構成ブロックは、最初に元の領域変換され、その後に、フィルタは、適用され、再構成ブロックを生成するために利用されてよい。
b.インターコーディングのためのプロセスの例は、図29に表されている。
c.代替的に、フィルタは、再成形領域での再構成ブロックに適用されてもよい。
i.代替的に、更には、逆方向再成形を適用する前に、フィルタが最初に適用されてもよい。その後に、フィルタ処理された再構成ブロックは、次いで、元の領域に変換されてよい。
ii.インターコーディングのためのプロセスの例は、図30に表されている。
d.フィルタパラメータは、ILRが有効にされるか否かに依存してもよい。
5.再成形領域で(例えば、イントラ/インター又は他の種類の予測方法後に)再構成ブロックに適用され得るフィルタリングプロセスを適用することが提案される。
a.一例で、デブロッキングフィルタ(DBF)プロセスが再成形領域で実行される。この場合に、逆方向再成形は、DBFの前に適用されない。
i.この場合に、DBFパラメータは、再成形が適用されるか否かに応じて異なってもよい。
ii.一例で、DBFプロセスは、再成形が有効にされるか否かに依存してもよい。
1.一例で、この方法は、DBFが元の領域で呼び出されるときに適用される。
2.代替的に、この方法は、DBFが再成形領域で呼び出されるときに適用される。
b.一例で、サンプル適応オフセット(SAO)フィルタリングプロセスが再成形領域で実行される。この場合に、逆方向再成形は、SAOの前に適用されない。
c.一例で、適応ループフィルタ(ALF)フィルタリングプロセスが再成形領域で実行される。この場合に、逆方向再成形は、ALFの前に適用されない。
d.代替的に、更には、逆方向再成形は、DBFの後にブロックに適用されてもよい。
e.代替的に、更には、逆方向再成形は、SAOの後にブロックに適用されてもよい。
f.代替的に、更には、逆方向再成形は、ALFの後にブロックに適用されてもよい。
g.上記のフィルタリング方法は、他の種類のフィルタリング方法で置換されてもよい。
6.タイルグループヘッダの代わりに新しいパラメータセット(例えば、ILR APS)でILRパラメータをシグナリングすることが提案される。
a.一例で、タイルグループヘッダはaps_idを含んでよい。代替的に、更には、aps_idは、ILRが有効にされる場合に条件付きで存在する。
b.一例で、ILR APSは、aps_id及びILRパラメータを含む。
c.一例で、新しいNUT(AVC及びHEVCで見られるようなNALユニットタイプ)値が、ILR APSに割り当てられる。
d.一例で、ILR APS ID値の範囲は、0からM(例えば、M=2K-1)である。
e.一例で、ILR APSは、ピクチャにわたって共有されてよい(ピクチャ内の異なるタイルグループで異なってもよい)。
f.一例で、ID値は、存在する場合に固定長符号化されてもよい。代替的に、それは、指数ゴロム(exponential-Golomb,EG)コーディング、トランケーテッドユーナリー又は他の二値化方法によりコーディングされてもよい。
g.一例で、ID値は、同じピクチャ内の異なるコンテンツにより再利用され得ない。
h.一例で、ILR APS及びALFパラメータのためのAPSは、同じNUTを共有してもよい。
i.代替的に、ILRパラメータは、ALFパラメータのための現在のAPSで運ばれてもよい。この場合に、ILR APSについて述べている上記の方法は、現在のAPSで置換されてよい。
j.代替的に、ILRパラメータは、SPS/VPS/PPS/シーケンスヘッダ/ピクチャヘッダで運ばれてもよい。
k.一例で、ILRパラメータは、リシェーパモデル情報、ILR方法の利用、クロマ残差スケーリング係数を含んでよい。
l.代替的に、更には、ILRパラメータは、1つの例で(例えば、APSで)シグナリングされてよく、かつ/あるいは、ILRの利用は、第2レベルで(例えば、タイルグループヘッダで)更にシグナリングされてもよい。
m.代替的に、更には、予測コーディングは、異なるAPSインデックスでILRパラメータをコーディングするよう適用されてもよい。
7.ルーマ依存クロマ残差スケーリング(LCRS)をクロマブロックに適用する代わりに、ルーマとクロマとの間の依存性を除くよう順方向/逆方向再成形プロセスをクロマブロックに適用することが提案される。
a.一例で、1つのM区分の区分線形(PWL)モデル及び/又は順方向/逆方向参照テーブルが、1つのクロマ成分に利用されてよい。代替的に、2つのPWLモデル及び/又は順方向/逆方向参照テーブルが、2つのクロマ成分をコーディングするために夫々利用されてもよい。
b.一例で、クロマのPWLモデル及び/又は順方向/逆方向参照は、ルーマのPWLモデル及び/又は順方向/逆方向参照テーブルから導出されてもよい。
i.一例で、クロマのPWLモデル/参照テーブルを更にシグナリングする必要ない。
c.一例で、クロマのPWLモデル/順方向/逆方向参照テーブルは、SPS/VPS/APS/PPS/シーケンスヘッダ/ピクチャヘッダ/タイルグループヘッダ/タイルヘッダ/CTU行/CTUのグループ/リージョンでシグナリングされてもよい。
8.一例で、1つのピクチャ/タイルグループのILRパラメータをシグナリングする方法は、前にコーディングされたピクチャ/タイルグループのILRパラメータに依存してよい。
a.例えば、1つのピクチャ/タイルグループのILRパラメータは、1つ又は複数の前にコーディングされたピクチャ/タイルグループのILRパラメータによって予測されてよい。
9.特定のブロック寸法/時間レイヤ/タイルグループタイプ/ピクチャタイプ/コーディングモード/動き情報の特定のタイプについてルーマ依存クロマ残差スケーリング(LCRS)を無効にすることが提案される。
a.一例で、順方向/逆方向再成形プロセスがルーマブロックに適用される場合でさえ、LCRSは、対応するクロマブロックに適用されなくてもよい。
b.代替的に、順方向/逆方向再成形プロセスがルーマブロックに適用されない場合でさえ、LCRSは、対応するクロマブロックに依然として適用されてもよい。
c.一例で、LCRSは、交差成分線形モデル(cross-component linear model,CCLM)モードが適用される場合に使用されない。CCLMモードはLM、LM-A及びLM-Lを含む。
d.一例で、LCRSは、交差成分線形モデル(CCLM)モードが適用されない場合に使用されない。CCLMモードはLM、LM-A及びLM-Lを含む。
e.一例で、コーディングされたルーマブロックが1つのVPDU(例えば、64×64)を超える場合。
i.一例で、ルーマブロックサイズがM×Hよりも小さいサンプル、例えば、16又は32又は64ルーマサンプルを含む場合に、LCRSは許されない。
ii.代替的に、ルーマブロックの幅及び/又は高さの最小サイズがXよりも小さいか又は大きくない場合に、LCRSは許されない。一例で、Xは8にセットされる。
iii.代替的に、ルーマブロックの幅及び/又は高さの最小サイズがX以上である場合に、LCRSは許されない。一例で、Xは8にセットされる。
iv.代替的に、ルーマブロックの幅>th1又は>=th1かつ/あるいはルーマブロックの高さ>th2又は>=2である場合に、LCRSは許されない。一例で、th1及び/又はth2は8にセットされる。
1.一例で、th1及び/又はth2は128にセットされる。
2.一例で、th1及び/又はth2は64にセットされる。
v.代替的に、ルーマブロックの幅<th1又は<=th1かつ/あるいはルーマブロックの高さth2<又は<=th2である場合に、LCRSは許されない。一例で、th1及び/又はth2は8にセットされる。
10.ILR(順方向再成形プロセス及び/又は逆方向再成形プロセス)を無効にすべきかどうかは、係数に依存してよい。
a.一例で、1つのブロックが全てのゼロ係数でコーディングされる場合に、予測ブロックに適用される順方向再成形のプロセスはスキップされる。
b.一例で、1つのブロックが全てのゼロ係数でコーディングされる場合に、再構成ブロックに適用される逆方向再成形のプロセスはスキップされる。
c.一例で、1つのブロックが、特定の位置にあるただ1つの非ゼロ係数(例えば、1つのブロックの左上位置にあるDC係数、1つのブロック内の左上コーディンググループにある係数)でコーディングされる場合に、予測ブロックに適用される順方向再成形及び/又は再構成ブロックに適用される逆方向再成形のプロセスはスキップされる。
d.一例で、1つのブロックがたったM(例えば、M=1)個の非ゼロ係数でコーディングされる場合に、予測ブロックに適用される順方向再成形及び/又は再構成ブロックに適用される逆方向再成形のプロセスはスキップされる。
11.コーディングされたブロックが1つのVPDUを超える場合に仮想パイプラインデータユニット(VPDU)にILR適用リージョンを分けることが提案される。各適用リージョン(例えば、64×64の最大サイズを有する)は、ILR操作のための個別的CUと見なされる。
a.一例で、ブロックの幅>th1又は>=th1かつ/あるいはブロックの高さ>th2又は>=th2である場合に、それは、幅<th1又は<=th1かつ/あるいは高さ<th2又は<=th2を有するサブブロックに分けられてよく、ILRは、サブブロックごとに実行されてよい。
i.一例で、サブブロックは、同じ幅及び/又は高さを有してよい。
ii.一例で、右境界及び/又は下境界にあるものを除いたサブブロックは、同じ幅及び/又は高さを有してよい。
iii.一例で、左境界及び/又は上境界にあるものを除いたサブブロックは、同じ幅及び/又は高さを有してよい。
b.一例で、ブロックのサイズ(すなわち、幅×高さ)>th3又は>=th3である場合に、それは、サイズ<th3又は<=th3を有するサブブロックに分けられてよく、ILRは、サブブロックごとに実行されてよい。
i.一例で、サブブロックは、同じサイズを有してよい。
ii.一例で、右境界及び/又は下境界にあるものを除いたサブブロックは、同じサイズを有してよい。
iii.一例で、左境界及び/又は上境界にあるものを除いたサブブロックは、同じサイズを有してよい。
c.代替的に、ILRの利用は、特定のブロック寸法にのみ制限される。
i.一例で、コーディングされたブロックが1つのVPDU(例えば、64×64)を超える場合に、ILRは許されない。
ii.一例で、ブロックサイズがM×Hよりも小さいサンプル、例えば、16又は32又は64ルーマサンプルを含む場合に、ILRは許されない。
iii.代替的に、ブロックの幅及び/又は高さの最小サイズがXよりも小さいか又は大きくない場合に、ILRは許されない。一例で、Xは8にセットされる。
iv.代替的に、ブロックの幅及び/又は高さの最小サイズがX以上である場合に、ILRは許されない。一例で、Xは8にセットされる。
v.代替的に、ブロックの幅>th1又は>=th1かつ/あるいはブロックの高さ>th2又は>=th2である場合に、ILRは許されない。一例で、th1及び/又はth2は8にセットされる。
1.一例で、th1及び/又はth2は128にセットされる。
2.一例で、th1及び/又はth2は64にセットされる。
vi.代替的に、ブロックの幅<th1又は<=th1かつ/あるいはブロックの高さth2<又は<=th2である場合に、ILRは許されない。一例で、th1及び/又はth2は8にセットされる。
12.上記の方法(例えば、ILRを無効にすべきかどうか及び/又はLCRSを無効にすべきかどうか及び/又はクロマコーディングのためにPWL/参照テーブルをシグナリングすべきかどうか)は、4:4:4/4:2:0などの色フォーマットに依存してよい。
13.ILRを有効にする指示(例えば、tile_group_reshaper_enable_flag)は、提示されているリシェーパモデルの指示(例えば、tile_group_reshaper_model_present_flag)の条件下でコーディングされてよい。
a.代替的に、tile_group_reshaper_model_present_flagが、tile_group_reshaper_enable_flagの条件下でコーディングされてもよい。
b.代替的に、tile_group_reshaper_model_present_flag及びtile_group_reshaper_enable_flagを含む2つのシンタックス要素のうちの一方しかコーディングされなくてもよい。他方のシンタックス要素の値は、シグナリングされ得る一方に等しくセットされる。
14.異なるクリッピング方法が、予測信号及び再構成プロセスに適用されてよい。
a.一例で、適応的にクリッピングする方法が適用されてよく、クリップされるべき最大値及び最小値は、再成形領域で定義されてよい。
b.一例で、適応的にクリッピングする方法は、再成形領域での予測信号に適用されてよい。
c.代替的に、更には、固定クリッピング(例えば、ビットデプスに従う)が、再構成ブロックに適用されてもよい。
15.フィルタパラメータ(例えば、DF、BF、HFで使用されるもの)は、ILRが有効にされるか否かに依存してよい。
16.パレットモードでコーディングされたブロックについては、ILRは、無効にされるか、又は異なるように適用される、ことが提案される。
a.一例で、ブロックがパレットモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
b.代替的に、ブロックがパレットモードでコーディングされている場合に、異なる再成形及び逆方向再成形が適用されてもよい。
17.代替的に、ILRが適用される場合に、パレットモードは異なるようにコーディングされてよい。
a.一例で、ILRが適用される場合に、パレットモードは元の領域でコーディングされてよい。
b.代替的に、ILRが適用される場合に、パレットモードは再成形領域でコーディングされてよい。
c.一例で、ILRが適用される場合に、パレット予測子が元の領域でシグナリングされてよう。
d.代替的に、パレット予測子は、再成形領域でシグナリングされてもよい。
18.IBCモードでコーディングされたブロックについては、ILRは、無効にされるか、又は異なるように適用される、ことが提案される。
a.一例で、ブロックがIBCモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
b.代替的に、ブロックがIBCモードでコーディングされている場合に、異なる再成形及び逆方向再成形が適用されてもよい。
19.代替的に、ILRが適用される場合に、IBCは異なるようにコーディングされてよい。
a.一例で、ILRが適用される場合に、IBCモードは元の領域で実行されてよい。
b.代替的に、ILRが適用される場合に、IBCモードは再成形領域で実行されてもよい。
20.B-DPCMモードでコーディングされたブロックについては、ILRは、無効にされるか、又は異なるように適用される、ことが提案される。
a.一例で、ブロックがB-DPCMモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
b.代替的に、ブロックがB-DPCMモードでコーディングされている場合に、異なる再成形及び逆方向再成形が適用される。
21.代替的に、ILRが適用される場合に、B-DPCMモードは異なるようにコーディングされてよい。
a.一例で、ILRが適用される場合に、B-DPCMは元の領域で実行されてよい。
b.代替的に、ILRが適用される場合に、B-DPCMは再成形モードで実行されてもよい。
22.変換スキップモードでコーディングされたブロックについては、ILRは、無効にされるか、又は異なるように適用される、ことが提案される。
a.一例で、ブロックが変換スキップモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
b.代替的に、ブロックが変換スキップモードでコーディングされている場合に、異なる再成形及び逆方向再成形は適用されてよい。
23.代替的に、ILRが適用される場合に、変換スキップモードは異なるようにコーディングされてよい。
a.一例で、ILRが適用される場合に,変換スキップは元の領域で実行されてよい。
b.代替的に、ILRが適用される場合に、変換スキップは再成形領域で実行されてもよい。
24.I-PCMモードでコーディングされたブロックについては、ILRは、無効にされるか、又は異なるように適用される、ことが提案される。
a.一例で、ブロックがパレットモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
b.代替的に、ブロックがパレットモードでコーディングされている場合に、異なる再成形及び逆方向再成形が適用されてもよい。
25.代替的に、ILRが適用される場合に、I-PCMモードは異なるようにコーディングされてもよい。
a.一例で、ILRが適用される場合に、I-PCMモードは元の領域でコーディングされてよい。
b.代替的に、ILRが適用される場合に、I-PCMモードは再成形領域でコーディングされてもよい。
26.変換量子化バイパスモードでコーディングされたブロックについては、ILRは、無効にされるか、又は異なるように適用される、ことが提案される。
a.一例で、ブロックが変換量子化バイパスモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
27.代替的に、ブロックが変換量子化バイパスモードでコーディングされている場合に、異なる再成形及び逆方向再成形が適用される。
28.上記の箇条書きについて、ILRが無効にされる場合に、順方向再成形及び/又は逆方向再成形プロセスはスキップされてよい。
a.代替的に、予測及び/又は再構成及び/又は残差信号は元の領域にある。
b.代替的に、予測及び/又は再構成及び/又は残差信号は再成形領域にある。
29.多数の再成形/逆再成形機能(例えば、多重PWLモデル)が、1つのピクチャ/1つのタイルグループ/1つのVPDU/1つのリージョン/1つのCTU行/多数のCUをコーディングするために可能にされてよい。
a.多数の機能から選択する方法は、ブロック寸法/コーディングモード/ピクチャタイプ/低遅延検査フラグ/動き情報/参照ピクチャ/ビデオコンテンツ、などに依存してよい。
b.一例で、複数組のILRサイド情報(例えば、再成形/逆方向再成形機能)は、SPS/VPS/PPS/シーケンスヘッダ/ピクチャヘッダ/タイルグループヘッダ/タイルヘッダ/リージョン/VPDU/などごとにシグナリングされてよい。
i.代替的に、更には、ILRサイド情報の予測コーディングが利用されてもよい。
c.一例で、1よりも多いaps_idが、PPS/ピクチャヘッダ/タイルグループヘッダ/タイルヘッダ/リージョン/VPDU/などでシグナリングされてもよい。
30.一例で、再成形情報は、VPS、SPS、PPS、又はAPS以外の新しいシンタックスセットでシグナリングされる。例えば、再成形情報は、inloop_reshapingu_parameter_set()(IRPS又はその他名称)と表される組でシグナリングされる。
a.例となるシンタックス設計は、以下の通りである。追加されたシンタックスは、イタリック体で強調表示される。
Figure 0007199552000030
b.例となるシンタックス設計は、以下の通りである。追加されたシンタックスは、イタリック体で強調表示される。
Figure 0007199552000031
31.一例で、IRL情報は、APSでALF情報とともにシグナリングされる。
a.例となるシンタックス設計は、以下の通りである。追加されたシンタックスは、イタリック体で強調表示される。
Figure 0007199552000032
b.一例で、1つのtile_group_aps_idは、タイルグループが参照するAPSのadaptation_paramter_set_idを示すようタイルグループヘッダでシグナリングされる。現在のタイルグループについてのALF情報及びILR情報は両方とも、指定されたAPSでシグナリングされる。
i.例となるシンタックス設計は、以下の通りである。追加されたシンタックスは、イタリック体で強調表示される。
Figure 0007199552000033
32.一例で、ILR情報及びALF情報は、異なるAPSでシグナリングされる。
a.第1のID(tile_group_aps_id_alfと呼ばれてもよい)は、タイルグループが参照する第1APSの第1のadaptation_paramter_set_idを示すようタイルグループヘッダでシグナリングされる。現在のタイルグループについてのALF情報は、指定された第1APSでシグナリングされる。
b.第2のID(tile_group_aps_id_irpsと呼ばれてもよい)は、タイルグループが参照する第2APSの第2のadaptation_paramter_set_idを示すようタイルグループヘッダでシグナリングされる。現在のタイルグループについてのILR情報は、指定された第2APSでシグナリングされる。
c.一例で、第1APSは、コンフォーマンスビットストリーム(conformance bitstream)でALF情報を有するべきである。
d.一例で、第2APSは、コンフォーマンスビットストリームでILR情報を有するべきである。
e.例となるシンタックス設計は、以下の通りである。追加されたシンタックスは、イタリック体で強調表示される。
Figure 0007199552000034
33.一例で、adaptation_paramter_set_idを指定されているいくつかのAPSは、ALF情報を有するべきである。他の例として、adaptation_paramter_set_idを指定されているいくつかのAPSは、ILR情報を有するべきである。
a.例えば、2Nに等しいadaptation_paramter_set_idを有するAPSは、ALF情報を有するべきである。Nは任意の整数である。
b.例えば、2N+1に等しいadaptation_paramter_set_idを有するAPSは、ILR情報を有するべきである。Nは任意の整数である。
c.例となるシンタックス設計は、以下の通りである。追加されたシンタックスは、イタリック体で強調表示される。
Figure 0007199552000035
i.例えば、2×tile_group_aps_id_alfは、タイルグループが参照するだいいちAPSの第1のadaptation_paramter_set_idを示す。現在のタイルグループについてのALF情報は、指定された第1APSでシグナリングされる。
ii.例えば、2×tile_group_aps_id_irps+1は、タイルグループが参照する第2APSの第2のadaptation_paramter_set_idを示す。現在のタイルグループについてのILR情報は、指定された第2APSでシグナリングされる。
34.一例で、タイルグループは、現在のタイルグループの前にシグナリングされる、指定されたタイプのネットワーク抽象レイヤ(NAL)ユニットの前にシグナリングされたAPS(又はIRPS)を参照することができない。
a.一例で、タイルグループは、現在のタイルグループの前にシグナリングされる、指定されたタイプのタイルグループの前にシグナリングされたAPS(又はIRPS)を参照することができない。
b.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、SPSの前にシグナリングされたAPS(又はIRPS)を参照することができない。
c.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、PPSの前にシグナリングされたAPS(又はIRPS)を参照することができない。
d.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、アクセスユニットデリミタ(access unit delimiter,AUD)NALの前にシグナリングされたAPS(又はIRPS)を参照することができない。
e.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、エンド・オブ・ビットストリーム(end of bitstream,EoB)NALの前にシグナリングされたAPS(又はIRPS)を参照することができない。
f.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、エンド・オブ・シーケンス(end of sequence,EoS)NALの前にシグナリングされたAPS(又はIRPS)を参照することができない。
g.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、即時復号化リフレッシュ(instantaneous decoding refresh,IDR)NALの前にシグナリングされたAPS(又はIRPS)を参照することができない。
h.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、クリーンランダムアクセス(clean random access,CRA)NALの前にシグナリングされたAPS(又はIRPS)を参照することができない。
i.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、イントラランダムアクセスポイント(intra random access point,IRAP)の前にシグナリングされたAPS(又はIRPS)を参照することができない。
j.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、Iタイルグループ(又はピクチャ、又はスライス)の前にシグナリングされたAPS(又はIRPS)を参照することができない。
k.IDF-P1903237401H及びIDF-P1903234501Hで開示されている方法も、ILR情報がAPS又はIRPSで運ばれる場合に適用可能である。
35.コンフォーマンスビットストリームは、インループ再成形方法が1つのビデオデータユニット(例えば、シーケンスなど)について有効にされる場合に、デフォルトモデルなどのデフォルトのILRパラメータが定義されるべきであることを満足すべきである。
a.sps_lmcs_default_model_present_flagは、sps_lmcs_enabled_flagが1にセットされる場合に1にセットされるべきである。
b.デフォルトパラメータは、デフォルトモデル存在フラグ(例えば、sps_lmcs_default_model_present_flag)の代わりに、ILR有効化フラグの条件下で偽なリングされてよい。
c.各タイルグループについて、デフォルトモデル利用フラグ(例えば、tile_group_lmcs_use_default_model_flag)は、SPSデフォルトモデル利用フラグを参照せずにシグナリングされてよい。
d.コンフォーマンスビットストリームは、ILRの対応するAPSタイプにILR情報がなく、1つのビデオデータユニット(例えば、タイルグループ)がILR技術を使用するよう強いられる場合に、デフォルトモデルが利用されるべきであることを満足すべきである。
e.代替的に、コンフォーマンスビットストリームは、ILRの対応するAPSタイプにILR情報がなく、1つのビデオデータユニット(例えば、タイルグループ)がILR技術を使用するよう強いられる(例えば、tile_group_lmcs_enable_flagが1に等しい)場合に、デフォルトモデルを使用する指示は真であるべきであり、例えば、tile_group_lmcs_use_default_model_flagは1であるべきである。
f.デフォルトのILRパラメータ(例えば、デフォルトモデル)がビデオデータユニット(例えば、SPS)で送信されるべきであることが、制約される。
i.代替的に、更には、デフォルトのILRパラメータは、ILRの利用を示すSPSフラグが真である場合に送信されるべきである。
g.ビデオデータユニット(例えば、SPS)で送信される少なくとも1つのILR APSが存在することが、制約される。
i.一例で、少なくとも1つのILR APSは、デフォルトのILRパラメータ(例えば、デフォルトモデル)を含む。
36.デフォルトのILRパラメータは、1つのフラグによって示されてよい。このフラグが、デフォルトのILRパラメータが利用されることを伝える場合に、ILRデータを更に送信する必要はない。
37.デフォルトのILRパラメータは、それがシグナリングされない場合に予め定義されてよい。例えば、デフォルトのILRパラメータは、識別マッピングに対応してよい。
38.時間レイヤ情報は、例えば、ILR APSで、ILRパラメータとともにシグナリングされてよい。
a.一例で、時間レイヤインデックスがlmcs_data()でシグナリングされてよい。
b.一例で、時間レイヤインデックス-1がlmcs_data()でシグナリングされてよい。
c.代替的に、更には、1つのタイルグループ/タイルを符号化/復号化する場合に、より小さい又は等しい時間レイヤインデックスに関連付けられているILR APSを参照することは制限される。
d.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より小さい時間レイヤインデックスに関連付けられているILR APSを参照することは制限される。
e.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より大きい時間レイヤインデックスに関連付けられているILR APSを参照することは制限される。
f.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より大きい又は等しい時間レイヤインデックスに関連付けられているILR APSを参照することは制限される。
g.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、等しい時間レイヤインデックスに関連付けられているILR APSを参照することは制限される。
h.一例で、上記の制限が適用されるかどうかは、デコーダへシグナリングされるか又はデコーダによって推測され得る1つの情報に依存してよい。
39.時間レイヤ情報は、例えば、ALF APSで、ALF情報とともにシグナリングされてよい。
a.一例で、時間レイヤインデックスがalf_data()でシグナリングされてよい。
b.一例で、時間レイヤインデックス-1がalf_data()でシグナリングされてよい。
c.代替的に、更には、1つのタイルグループ/タイル又は1つのタイルグループ/タイル内の1つのCTUを符号化/復号化する場合に、より小さい又は等しい時間レイヤインデックスに関連付けられているALF APSを参照することは制限される。
d.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より小さい時間レイヤインデックスに関連付けられているALF APSを参照することは制限される。
e.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より大きい時間レイヤインデックスに関連付けられているALF APSを参照することは制限される。
f.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より大きい又は等しい時間レイヤインデックスに関連付けられているALF APSを参照することは制限される。
g.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、等しい時間レイヤインデックスに関連付けられているALF APSを参照することは制限される。
h.一例で、上記の制限が適用されるかどうかは、デコーダへシグナリングされるか又はデコーダによって推測され得る1つの情報に依存してよい。
40.一例で、原サンプルと再成形されたサンプルとの間の再成形マッピングは、肯定的関係でなくもてよく、すなわち、1つの、より大きい値は、より小さい値にマッピングされることを許されない。
a.例えば、原サンプルと再成形サンプルとの間の再成形マッピングは、否定的関係であってよく、2つの値の場合に、元の領域内のより大きい値は、再成形領域内のより小さい値にマッピングされてよい。
41.コンフォーマンスビットストリームにおいて、シンタックス要素aps_params_typeは、0及び1などの、いくつかの予め定義された値であることしか許されない。
a.他の例では、0及び7であることしか許されない。
42.一例で、デフォルトのILR情報は、ILRが適用される(例えば、sps_lmcs_enabled_flagが真である)場合にシグナリングされるべきである。
[5.開示されている技術の実施例]
いくつかの実施形態において、tile_group_reshaper_enable_flagは、tile_group_reshaper_model_present_flagが有効にされる場合に条件付きで存在する。追加されたシンタックスは、イタリック体で強調表示される。
Figure 0007199552000036
Figure 0007199552000037
JVET-N0805上の実施形態#2。追加されたシンタックスは、イタリック体で強調表示される。
Figure 0007199552000038
Figure 0007199552000039
Figure 0007199552000040
クロマスケーリングによるルーママッピング(LMCS)のデータシンタックス
Figure 0007199552000041
上述された例は、以下で説明される方法、例えば、ビデオデコーダ又はビデオエンコーダで実装され得る図31A乃至39Eに示される方法に関連して、組み込まれてよい。
図31Aは、ビデオ処理のための例示的な方法のフローチャートを示す、方法3110は、ステップ3112で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、第1の領域又は第2の領域でサンプルに基づいて動き情報精緻化プロセスを実行することを含む。方法3120は、ステップ3114で、動き情報精緻化プロセスの結果に基づいて変換を実行することを含む。いくつかの実施において、変換中に、サンプルは、精緻化されていない動き情報を用いて第1の領域で第1の予測ブロックから現在のビデオブロックについて取得され、少なくとも第2の予測ブロックが、再構成ブロックを決定するために使用される精緻化された動き情報を用いて第2の領域で生成され、現在のビデオブロックの再構成されたサンプルは、少なくとも第2の予測ブロックに基づいて生成される。
図31Bは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3120は、ステップ3122で、第2の領域での少なくとも1つの予測ブロックに基づいて現在のビデオブロックを再構成することを含む。いくつかの実施において、変換中に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。いくつかの実施において、コーディングツールは、ビデオのビデオリージョン内のサンプルの第1の組と、現在のビデオブロックの参照ピクチャ内のサンプルの第2の組とに少なくとも基づいて導出されるパラメータを用いて、変換中に適用される。いくつかの実施において、第1のサンプルの領域と第2のサンプルの領域とは、整列される。
図32Aは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3210は、ステップ3212で、ビデオの現在のビデオリージョンの現在のビデオブロックについて、前のビデオリージョンのコーディングモードについての1つ以上のパラメータに基づいて現在のビデオブロックのコーディングモードについてのパラメータを決定することを含む。方法3210は、ステップ3214で、決定に基づいてビデオのコーディングされた表現を生成するよう現在のビデオブロックに対してコーディングを実行することを更に含む。いくつかの実施において、コーディングモードについてのパラメータは、ビデオのコーディングされた表現におけるパラメータセットに含まれる。いくつかの実施において、コーディングの実行は、第1の領域での現在のビデオブロックの表現を第2の領域での現在のビデオブロックの表現へ変換することを有する。いくつかの実施において、コーディングモードを用いてコーディングを実行している間に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図32Bは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3220は、ステップ3222で、コーディングモードについてのパラメータ情報を含むパラメータセットを含むビデオのコーディングされた表現を受け取ることを含む。方法3220は、ステップ3224で、コーディングされた表現からビデオの現在のビデオリージョンの現在のビデオブロックを生成するために、パラメータ情報を使用することによって、コーディングされた表現の復号化を実行することを更に含む。いくつかの実施において、コーディングモードについてのパラメータ情報は、前のビデオリージョンのコーディングモードについての1つ以上のパラメータに基づく。いくつかの実施形態において、コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図32Cは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3230は、ステップ3232で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含む。いくつかの実施において、変換は、第1の領域で又は第1の領域とは異なる第2の領域でフィルタリング操作を予測ブロックに適用することを含む。
図32Dは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3240は、ステップ3242で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含む。いくつかの実施において、変換中に、最終的な再構成ブロックが現在のビデオブロックに対して決定される。いくつかの実施において、一時再構成ブロックが、予測法を用いて生成され、第2の領域で表される。
図33は、ビデオ処理のための例示的な方法のフローチャートを示す。方法3300は、ステップ3302で、ビデオのビデオリージョンの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされるところのコーディングモードを使用し、コーディングされた表現におけるパラメータセットは、コーディングモードについてのパラメータ情報を有する。
図34Aは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3410は、ステップ3412で、クロマブロックであるビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換中に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、変換は、現在のビデオブロックの1つ以上のクロマ成分に順方向再成形プロセス及び/又は逆方向再成形プロセスを適用することを更に含む。
図34Bは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3420は、ステップ3422で、ビデオの現在のビデオクロマブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換の実行は、ルールに基づいて、ルーマ依存クロマ残差スケーリング(LCRS)が有効又は無効にされるかどうかを決定し、決定に基づいて現在のビデオクロマブロックを再構成することを含む。
図35Aは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3510は、ステップ3512で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、現在のビデオブロックの1つ以上の係数値に基づいて、コーディングモードの使用を無効化すべきかどうかを決定することを含む。方法3510は、ステップ3514で、決定に基づいて変換を実行することを更に含む。いくつかの実施において、コーディングモードを使用した変換中に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図35Bは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3520は、ステップ3522で、ビデオの仮想パイプラインデータユニット(VPDU)を超えるビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、現在のビデオブロックをリージョンに分割することを含む。方法3520は、ステップ3524で、各リージョンに別々にコーディングモードを適用することによって変換を実行することを更に含む。いくつかの実施において、コーディングモードを適用することによる変換中に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図35Cは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3530は、ステップ3532で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、現在のビデオブロックのサイズ又は色フォーマットに基づいて、コーディングモードの使用を無効化すべきかどうかを決定することを含む。方法3530は、ステップ3534で、決定に基づいて変換を実行することを更に含む。いくつかの実施において、コーディングモードを使用した変換中に、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図35Dは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3540は、ステップ3542で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされるところのコーディングモードを使用し、コーディングされた表現における少なくとも1つのシンタックス要素は、コーディングモードの利用の指示及びリシェーパモデルの指示を与える。
図35Eは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3550は、ステップ3552で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが無効にされることを決定することを含む。方法3550は、ステップ3554で、決定に基づいて順方向再成形及び/又は逆方向再成形を条件付きでスキップすることを更に含む。いくつかの実施において、コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図35Fは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3560は、ステップ3562で、ビデオのビデオリージョンの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、複数の順方向再成形及び/又は複数の逆方向再成形が、ビデオリージョンに対して再成形モードで適用される。
図36Aは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3610は、ステップ3612で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定することを含む。方法3610は、ステップ3614で、代表サンプル値の少なくともパレットが現在のビデオブロックに使用されるパレットモードを用いて変換を実行することを更に含む。いくつかの実施において、コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図36Bは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3620は、ステップ3622で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、代表サンプル値の少なくともパレットが現在のビデオブロックをコーディングするために使用されるパレットモードで現在のビデオブロックがコーディングされることを決定することを含む。方法3620は、ステップ3624で、決定により、コーディングモードを無効にすることによって変換を実行することを更に含む。いくつかの実施において、コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、ルーマに依存してスケーリングされるクロマ残差に基づいて構成される。
図36Cは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3630は、ステップ3632で、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換は、第1のコーディングモードと、代表サンプル値の少なくともパレットが現在のビデオブロックをコーディングするために使用されるパレットコーディングモードとを使用する。方法3630は、ステップ3634で、パレットコーディングモードを使用せずにコーディングされるビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを更に含み、第2のビデオブロックの変換は第1のコーディングモードを使用する。第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。いくつかの実施において、第1のコーディングモードは、第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される。
図37Aは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3710は、ステップ3712で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定することを含む。方法3710は、ステップ3714で、現在のビデオブロックを含むピクチャを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピーモードを用いて変換を実行することを更に含む。コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図37Bは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3720は、ステップ3722で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、現在のビデオブロックをコーディングするために現在のビデオブロックを含むビデオフレームを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピー(intra block copy,IBC)モードで現在のビデオブロックがコーディングされることを決定することを含む。方法3720は、ステップ3724で、決定により、コーディングモードを無効にすることによって変換を実行することを更に含む。コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図37Cは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3730は、ステップ3732で、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換は、現在のビデオブロックを含むビデオフレームを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピーモードと、第1のコーディングモードとを使用する。方法3730は、ステップ3734で、イントラブロックコピーモードを使用せずにコーディングされるビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを更に含み、第2のビデオブロックの変換は、第1のコーディングモードを使用する。第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、第1のコーディングモードは、第1のビデオブロック及び第2のビデオブロックに異なる方法で適用される。
図38Aは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3810は、ステップ3812で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定することを含む。方法3810は、ステップ3814で、ブロックベースのデルタパルス符号変調(block-based delta pulse code modulation,BDPCM)モードを用いて変換を実行することを更に含む。コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図38Bは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3820は、ステップ3822で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、ブロックベースのデルタパルス符号変調(BDPCM)モードを用いて現在のビデオブロックがコーディングされることを決定することを含む。方法3820は、ステップ3824で、決定により、コーディングモードを無効にすることによって変換を実行することを更に含む。コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図38Cは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3830は、ステップ3832で、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、第1のビデオブロックの変換は、第1のコーディングモードと、ブロックベースのデルタパルス符号変調(BDPCM)モードとを使用する。方法3830は、ステップ3834で、ビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを更に含み、第2のビデオブロックは、BDPCMモードを使用せずにコーディングされ、第2のビデオブロックの変換は、第1のコーディングモードを使用する。第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、第1のコーディングモードは、第1のビデオブロック及び第2のビデオブロックに異なる方法で適用される。
図38Dは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3840は、ステップ3842で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定することを含む。方法3840は、ステップ3844で、現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードを用いて変換を実行することを更に含む。コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図38Eは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3850は、ステップ3852で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードで現在のビデオブロックがコーディングされることを決定することを含む。方法3850は、ステップ3854で、決定により、コーディングモードを無効にすることによって変換を実行することを更に含む。コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図38Fは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3860は、ステップ3862で、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、第1のビデオブロックの変換は、第1のコーディングモードと、現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードとを使用する。方法3860は、ステップ3864で、ビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを更に含み、第2のビデオブロックは、変換スキップモードを使用せずにコーディングされ、第2のビデオブロックの変換は、第1のコーディングモードを使用する。第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、第1のコーディングモードは、第1のビデオブロック及び第2のビデオブロックに異なる方法で適用される。
図38Gは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3870は、ステップ3872で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定することを含む。方法3870は、ステップ3874で、変換及び変換領域量子化を適用せずに現在のビデオブロックがコーディングされるイントラパルス符号変調モードを用いて変換を実行することを更に含む。コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図38Hは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3880は、ステップ3882で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、変換及び変換領域量子化を適用せずに現在のビデオブロックがコーディングされるイントラパルス符号変調モードで現在のビデオブロックがコーディングされることを決定することを含む。方法3880は、ステップ3884で、決定により、コーディングモードを無効にすることによって変換を実行することを更に含む。コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図38Iは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3890は、ステップ3892で、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、第1のビデオブロックの変換は、第1のコーディングモードと、現在のビデオブロックが変換及び変換領域量子化を適用せずにコーディングされるイントラパルス符号変調モードとを使用する。方法3890は、ステップ3894で、ビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを更に含み、第2のビデオブロックは、イントラパルス符号変調モードを使用せずにコーディングされ、第2のビデオブロックの変換は、第1のコーディングモードを使用する。第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、第1のコーディングモードは、第1のビデオブロック及び第2のビデオブロックに異なる方法で適用される。
図38Jは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3910は、ステップ3912で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定することを含む。方法3910は、ステップ3914で、変換及び量子化なしで現在のビデオブロックが可逆コーディングされる改良型トランスクワント-バイパスモード(modified transquant-bypass mode)を用いて変換を実行することを更に含む。コーディングモードで、現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図38Kは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3920は、ステップ3922で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換のために、変換及び量子化を適用なしで現在のビデオブロックが可逆コーディングされるトランスクワント-バイパスモードで現在のビデオブロックがコーディングされることを決定することを含む。方法3920は、ステップ3924で、決定により、コーディングモードを無効にすることによって変換を実行することを更に含む。コーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる。
図38Lは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3930は、ステップ3932で、ビデオの第1のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、第1のビデオブロックの変換は、第1のコーディングモードと、現在のビデオブロックが変換及び量子化なしで可逆コーディングされるトランスクワント-バイパスモードとを使用する。方法3930は、ステップ3934で、ビデオの第2のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを更に含み、第2のビデオブロックは、トランスクワント-バイパスモードを使用せずにコーディングされ、第2のビデオブロックの変換は、第1のコーディングモードを使用する。第1のコーディングモードがビデオブロックに適用される場合に、そのビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、第1のコーディングモードは、第1のビデオブロック及び第2のビデオブロックに異なる方法で適用される。
図39Aは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3940は、ステップ3942で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、コーディングモードに使用される情報は、適応ループフィルタリング(ALF)パラメータを運ぶために使用されるシーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)、ピクチャパラメータセット(PPS)、又は適応パラメータセット(APS)とは異なるパラメータセットでシグナリングされる。
図39Bは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3950は、ステップ3952で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、コーディングモードに使用される情報は、適応ループフィルタリング(ALF)情報とともに適応パラメータセット(APS)でシグナリングされ、コーディングモードに使用される情報及びALF情報は、1つのNALユニットに含まれる。
図39Cは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3960は、ステップ3962で、ビデオのビデオリージョンの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、コーディングモードに使用される情報は、適応ループフィルタリング(ALF)情報をシグナリングするために使用される第2タイプの適応パラメータセット(APS)とは異なる第1タイプのAPSでシグナリングされる。
図39Dは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3970は、ステップ3972で、ビデオのビデオリージョンの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、ビデオリージョンは、ビデオを処理するために使用される特定のタイプのデータ構造の前にシグナリングされるパラメータセット又は適応パラメータセットを参照することを認められず、特定のタイプのデータ構造は、ビデオリージョンの前にシグナリングされる。
図39Eは、ビデオ処理のための例示的な方法のフローチャートを示す。方法3980は、ステップ3982で、ビデオの現在のビデオブロックとビデオのコーディングされた表現との間の変換を実行することを含み、変換は、現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、ビデオを処理するために使用されるパラメータを含むパラメータセットのシンタックス要素は、コンフォーマンスビットストリームにおいて予め定義された値を有する。
図40Aは、ビデオ処理装置4000のブロック図である。装置4000は、本明細書で説明されている方法の1つ以上を実装するために使用されてよい。装置4000は、スマートフォン、タブレット、コンピュータ、インターネット・オブ・シングス(Internet of Things,IoT)受信器、などで具現されてよい。装置4000は、1つ以上のプロセッサ4002、1つ以上のメモリ4004、及びビデオ処理ハードウェア4006を含んでよい。プロセッサ4002は、本明細書で説明されている1つ以上の方法(図31A乃至39Eに示される方法を含むが、これらに限定されない)を実装するよう構成されてよい。メモリ(複数のメモリ)4004は、本明細書で説明されている方法及び技術を実装するために使用されるデータ及びコードを記憶するために使用されてよい。ビデオ処理ハードウェア4006は、ハードウェア回路で、本明細書で説明されているいくつかの技術を実装するために使用されてよい。
図40Bは、開示されている技術が実装され得るビデオ処理システムのブロック図の他の例である。図40Bは、本明細書で説明されている様々な技術が実装され得る、例となるビデオ処理システム4100を示すブロック図である。様々な実施は、システム4100のコンポーネントのいくつか又は全てを含んでよい。システム4100は、ビデオコンテンツを受け取る入力部4102を含んでよい。ビデオコンテンツは、生の又は圧縮されていないフォーマット、例えば、8又は10ビットマルチコンポーネントピクセル値で、受け取られてよく、あるいは、圧縮又は符号化されたフォーマットであってもよい。入力部4102は、ネットワーク・インターフェース、ペリフェラル・バス・インターフェース、又はストレージ・インターフェースに相当してよい。ネットワーク・インターフェースの例には、Ethernet(登録商標)、受動光学ネットワーク(Passive Optical Network,PON)、などのような優先インターフェース、及びWi-Fi又はセルラーインターフェースのような無線インターフェースがある。
システム4100は、本明細書で説明されている様々なコーディング又は符号化方法を実装し得るコーディングコンポーネント4104を含んでよい。コーディングコンポーネント4104は、ビデオのコーディングされた表現を生成するよう入力部4102からコーディングコンポーネント4104の出力部までのビデオの平均ビットレートを低減してよい。コーディング技術は、従って、時々、ビデオ圧縮又はビデオトランスコーディング技術と呼ばれる。コーディングコンポーネント4104の出力は、コンポーネント4106によって表されているように、記憶されるか、あるいは、通信接続を介して伝送されるかのどちらかであってよい。入力部4102で受け取られたビデオの記憶又は通信されたビットストリーム(又はコーディングされた)表現は、表示インターフェース4110へ送られるピクセル値又は表示可能なビデオを生成するためにコンポーネント4108によって使用されてよい。ビットストリーム表現から、ユーザが見ることができるビデオを生成するプロセスは、時々、ビデオ圧縮解除と呼ばれる。更に、特定のビデオ処理動作は「コーディング」動作又はツールと呼ばれるが、コーディングツール又は動作はエンコーダで使用され、コーディングの結果を判定させる対応する復号化ツール又は動作は、デコーダで実行されることになる。
ペリフェラル・バス・インターフェース又は表示インターフェースの例には、ユニバーサル・シリアル・バス(Universal Serial Bus,USB)又は高精細マルチメディアインターフェース(High Definition Multimedia Interface,HDMI(登録商標))などが含まれ得る。ストレージ・インターフェースの例には、SATA(Serial Advanced Technology Attachment)、PCI、IDEインターフェース、などがある。本明細書で説明されている技術は、携帯電話機、ラップトップ、スマートフォン、あるいは、デジタルデータ処理及び/又はビデオ表示を実行することが可能な他のデバイスのような様々な電子機器で具現されてよい。
いくつかの実施形態において、ビデオコーディング方法は、図40A又は図40Bに関連して説明されているハードウェアプラットフォーム上で実装される装置を用いて実装されてよい。
様々な技術及び実施形態は、次の箇条書きを用いて記載され得る。
第1の組の箇条は、例えば、例1及び2を含む、前のセクションでリストアップされた開示技術の特定の特徴及び態様について記載する。
1.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、第1の領域又は第2の領域でサンプルに基づいて動き情報精緻化プロセスを実行するステップと、
前記動き情報精緻化プロセスの結果に基づいて前記変換を実行するステップと
を有し、
前記変換中に、前記サンプルは、精緻化されていない動き情報を用いて前記第1の領域で第1の予測ブロックから前記現在のビデオブロックについて取得され、少なくとも第2の予測ブロックが、再構成ブロックを決定するために使用される精緻化された動き情報を用いて前記第2の領域で生成され、前記現在のビデオブロックの再構成されたサンプルは、前記少なくとも第2の予測ブロックに基づいて生成される、
方法。
2.箇条1の方法であって、
前記少なくとも第2の予測ブロックは、前記精緻化された動き情報を用いて前記第1の領域で参照ピクチャ内のサンプルから生成され、
前記第1の領域を前記第2の領域に変換する再形成プロセスが、前記少なくとも第2の予測ブロックに更に適用される、
方法。
3.箇条2の方法であって、
前記再形成プロセスの後に、前記第2の予測ブロックは、前記現在のビデオブロックの前記再構成されたサンプルを生成するために使用される前に前記第2の領域で前記表現に変換される、
方法。
4.箇条1の方法であって、
前記動き情報精緻化プロセスを実行するステップは、DMVD(decoder-side motion vector derivation)法に基づく、
方法。
5.箇条4の方法であって、
前記DMVD法は、DMVR(decoder-side motion vector refinement)又はFRUC(frame-rate up conversion)又はBIO(Bi-Directional Optical Flow)を有する、
方法。
6.箇条4の方法であって、
前記DMVD法でのコスト計算又は勾配計算は、前記第1の領域でサンプルに基づいて実行される、
方法。
7.箇条6の方法であって、
前記コスト計算は、絶対差分和(SAD)又は平均除去絶対差分和(MR-SAD)を有する、
方法。
8.箇条1の方法であって、
前記動き情報精緻化プロセスは、前記第1の領域での少なくとも前記第1の予測ブロック内のサンプルから前記第2の領域へ変換されるサンプルに基づいて実行され、
前記精緻化された動き情報が取得された後、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、且つ/あるいは、クロマ残差がルーマに依存してスケーリングされるコーディングモードは、少なくとも前記第2の予測ブロックについて無効にされる、
方法。
9.箇条4の方法であって、
前記動き情報精緻化プロセスは、前記第1の領域で少なくとも前記第1の予測ブロックに基づいて実行され、
前記動き情報精緻化プロセスは、前記第1の領域で前記第1の予測ブロックにより呼び出される、
方法。
10.箇条1の方法であって、
最終的な予測ブロックは、2つの第2の予測ブロックの加重和として生成され、
前記現在のビデオブロックの前記再構成されたサンプルは、前記最終的な予測ブロックに基づいて生成される、
方法。
11.箇条1の方法であって、
前記動き情報精緻化プロセスは、前記第1の領域で前記予測ブロックに基づいて実行され、
前記動き情報精緻化プロセスの実行後に、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて再構成され、且つ/あるいは、クロマ残差がルーマに依存してスケーリングされるコーディングモードは、前記少なくとも第2の予測ブロックについて無効にされる、
方法。
12.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換中に、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて再構成され、且つ/あるいは、クロマ残差は、ルーマに依存してスケーリングされ、
コーディングツールが、前記ビデオのビデオリージョン内のサンプルの第1の組と、前記現在のビデオブロックの参照ピクチャ内のサンプルの第2の組に少なくとも基づいて導出されるパラメータを用いて、前記変換中に適用され、
前記第1のサンプルの領域と前記第2のサンプルの領域とは、整列される、
方法。
13.箇条12の方法であって、
前記コーディングツールは、前記変換中に前記現在のビデオブロック内の照度変化の線形モデルを使用する局所照度補償(LIC)モデルを含み、
前記LICモデルは、前記パラメータに基づいて適用される、
方法。
14.箇条12の方法であって、
前記ビデオリージョンは、現在のタイル、タイルグループ、又はピクチャを含む、
方法。
15.箇条13の方法であって、
前記LICモデルは、前記第2の領域で予測ブロックに適用され、
前記サンプルの第1の組及び前記サンプルの第2の組は、前記第2の領域にある、
方法。
16.箇条13の方法であって、
参照ブロックが、前記第2の領域に変換され、
前記LICモデルは、前記第2の領域で予測ブロックに適用される、
方法。
17.箇条15の方法であって、
前記サンプルの第1の組及び前記サンプルの第2の組は、前記パラメータを導出するために使用される前に前記第2の領域に変換される、
方法。
18.箇条17の方法であって、
前記サンプルの第2の組は、参照ピクチャ内の参照サンプルと、前記参照サンプルの隣接及び/又は非隣接サンプルとを含む、
方法。
19.箇条13の方法であって、
前記LICモデルは、前記第1の領域で予測ブロックに適用され、
前記サンプルの第1の組及び前記サンプルの第2の組は、前記第1の領域にある、
方法。
20.箇条13の方法であって、
参照ブロックが前記第1の領域で保持され、
前記LICモデルは、前記第1の領域で予測ブロックに適用される、
方法。
21.箇条19の方法であって、
前記サンプルの第1の組は、前記パラメータを導出するために使用される前に前記第1の領域に変換される、
方法。
22.箇条21の方法であって、
前記サンプルの第1の組は、現在のビデオブロックの空間的に隣接する及び/又は隣接しないサンプルを含む、
方法。
23.箇条12の方法であって、
前記パラメータを導出するために使用される領域は、前記パラメータを予測ブロックに適用するために使用される、
方法。
24.箇条13の方法であって、
前記LICモデルは、前記第2の領域で予測ブロックに適用される、
方法。
25.箇条20又は21の方法であって、
前記LICモデルが前記第1の領域で前記予測ブロックに適用された後、前記予測ブロックに依存する最終的な予測ブロックは、前記第2の領域に変換される、
方法。
26.箇条1乃至25のうちいずれかの方法であって、
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
27.箇条26の方法であって、
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
28.箇条1乃至27のうちいずれかの方法であって、
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法
29.箇条1乃至27のうちいずれかの方法であって、
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
30.プロセッサと、命令を記憶している非一時的なメモリとを有する、ビデオシステム内の装置であって、
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至29のうちいずれか1つの方法を実施させる、
装置。
31.非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、
箇条1乃至29のうちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
第2の組の箇条は、例えば、例3~5、8及び15を含む、前のセクションでリストアップされた開示技術の特定の特徴及び態様について記載する。
1.ビデオ処理の方法であって、
ビデオの現在のビデオリージョンの現在のビデオブロックについて、前のビデオリージョンのコーディングモードについての1つ以上のパラメータに基づいて前記現在のビデオブロックのコーディングモードについてのパラメータを決定するステップと、
前記決定に基づいて前記ビデオのコーディングされた表現を生成するよう前記現在のビデオブロックに対してコーディングを実行するステップと
を有し、
前記コーディングモードについての前記パラメータは、前記ビデオの前記コーディングされた表現におけるパラメータセットに含まれ、
前記コーディングを実行するステップは、第1の領域での前記現在のビデオブロックの表現を第2の領域での前記現在のビデオブロックの表現へ変換することを含み、
前記コーディングモードを用いて前記コーディングを実行している間に、前記現在のビデオブロックは、前記第1の領域及び前記第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
2.ビデオ処理の方法であって、
コーディングモードについてのパラメータ情報を含むパラメータセットを含むビデオのコーディングされた表現を受け取るステップと、
前記コーディングされた表現から前記ビデオの現在のビデオリージョンの現在のビデオブロックを生成するために前記パラメータ情報を使用することによって前記コーディングされた表現の復号化を実行するステップと
を有し、
前記コーディングモードについての前記パラメータ情報は、前のビデオリージョンの前記コーディングモードについての1つ以上のパラメータに基づき、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
3.箇条1又は2の方法であって、
前記パラメータセットは、タイルグループヘッダとは異なる、
方法。
4.箇条1又は2の方法であって、
前記パラメータセットは、適応パラメータセット(APS)である、
方法。
5.箇条1又は2の方法であって、
前記現在のビデオリージョンは、前記ビデオのビデオピクチャの1つのタイル又は前記ビデオのビデオピクチャを有する、
方法。
6.箇条1又は2の方法であって、
前記前のビデオリージョンは、ピクチャの1つ以上のタイルを有する、
方法。
7.箇条1又は2の方法であって、
前記前のビデオリージョンは、前記ビデオの1つ以上のビデオピクチャを有する、
方法。
8.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、第1の領域で又は該第1の領域とは異なる第2の領域でフィルタリング操作を予測ブロックに適用することを含む、
方法。
9.箇条8の方法であって、
前記フィルタリング操作は、フィルタ処理された予測信号を生成するよう前記第1の領域で前記予測ブロックに対して実行され、
コーディングモードが、前記第2の領域にある再成形された予測信号を生成するよう前記フィルタ処理された予測信号に適用され、
前記現在のビデオブロックは、前記再成形された予測信号を用いて構成される、
方法。
10.箇条8の方法であって、
コーディングモードが、前記第2の領域にある再成形された予測信号を生成するよう、前記フィルタリング操作の適用より前に前記予測ブロックに適用され、
前記フィルタリング操作は、フィルタ処理された予測信号を生成するよう前記再成形された予測信号を用いて実行され、
前記現在のビデオブロックは、前記フィルタ処理された予測信号を用いて構成される、
方法。
11.箇条9又は10の方法であって、
前記コーディングモードで、前記現在のビデオブロックは、前記第1の領域及び前記第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
12.箇条8乃至11のうちいずれかの方法であって、
前記フィルタリング操作は、拡散フィルタを有する、
方法。
13.箇条8乃至11のうちいずれかの方法であって、
前記フィルタリング操作に関連したパラメータは、前記フィルタリング操作が前記第1の領域又は前記第2の領域でブロックに適用されるかどうかに依存する、
方法。
14.箇条8の方法であって、
前記変換は、
前記フィルタリング操作の適用前に、予測信号を得るよう前記現在のビデオブロックに動き補償予測を適用するステップと、
前記フィルタリング操作の適用後に、再成形された予測信号を生成するよう、前記予測信号に前記フィルタリング操作を適用することによって生成されたフィルタ処理された予測信号にコーディングモードを適用するステップと、
前記再成形された予測信号を用いて前記現在のビデオブロックを構成するステップと
を更に含む、
方法。
15.箇条8の方法であって、
前記変換は、
前記フィルタリング操作の適用前に、予測信号を得るよう前記現在のビデオブロックに動き補償予測を適用するステップと、
再成形された予測信号を生成するよう前記予測信号にコーディングモードを適用するステップと、
前記フィルタリング操作の適用後に、フィルタ処理された再成形された予測信号を用いて前記現在のビデオブロックを構成するステップであり、前記フィルタ処理された再成形された予測信号は、前記再成形された予測信号に前記フィルタリング操作を適用することによって生成される、ステップと
を更に含む、
方法。
16.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換中に、最終的な再構成ブロックが前記現在のビデオブロックに対して決定され、
一時再構成ブロックが、予測法を用いて生成され、第2の領域で表される、
方法。
17.箇条16の方法であって、
前記変換は、
予測信号を得るよう前記現在のビデオブロックに動き補償予測を適用するステップと、
前記一時再構成ブロックを生成するために使用される再成形された予測信号を生成するよう前記予測信号に順方向再成形を適用するステップと、
逆再構成ブロックを得るよう前記一時再構成ブロックに逆方向再成形を適用するステップと
を更に含み、
フィルタリングが、前記最終的な再構成ブロックを生成するよう前記逆再構成ブロックに適用される、
方法。
18.箇条16の方法であって、
前記変換は、
予測信号を得るよう前記現在のビデオブロックに動き補償予測を適用するステップと、
前記一時再構成ブロックを生成するために使用される再成形された予測信号を生成するよう前記予測信号に順方向再成形を適用するステップと、
前記最終的な再構成ブロックを得るよう逆再成形をフィルタ処理された再構成ブロック適用するステップと
を更に含み、
前記フィルタ処理された再構成ブロックは、前記一時再構成ブロックにフィルタリングを適用することによって生成される、
方法。
19.箇条16乃至18のうちいずれかの方法であって、
前記変換は、ルーマサンプルをお特定の値にマッピングするルーマ依存クロマ残差スケーリング(LMCS)プロセスを適用することを更に含む、
方法。
20.箇条16の方法であって、
フィルタが、第1の領域での前記一時再構成ブロックに適用され、
前記第2の領域での前記一時再構成ブロックは、最初に、前記フィルタの適用前に、逆再成形プロセスを用いて前記第1の領域に変換され、
前記最終的な再構成ブロックは、フィルタ処理された前記一時再構成ブロックに依存する、
方法。
21.箇条16の方法であって、
フィルタが、前記第2の領域での前記再構成ブロックに直接適用され、その後に、逆再生操作が、前記最終的な再構成ブロックを生成するよう適用される、
方法。
22.箇条20又は21の方法であって、
前記フィルタは、バイラテラルフィルタ(BF)又はアダマール変換領域フィルタ(HF)を有する、
方法。
23.箇条20又は21の方法であって、
前記フィルタは、デブロッキングフィルタ(DBF)プロセス、サンプル適応オフセット(SAO)フィルタリングプロセス、又は適応ループフィルタ(ALF)フィルタリングプロセスを有する、
方法。
24.箇条1乃至23のうちいずれか1つの方法であって、
前記フィルタリング操作又は前記フィルタに使用されるフィルタパラメータは、コーディングモードが前記現在のビデオブロックに対して有効にされるか否かに依存し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
25.箇条1乃至24のうちいずれかの方法であって、
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
26.箇条25の方法であって、
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
27.箇条8乃至26のうちいずれかの方法であって、
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法
28.箇条8乃至26のうちいずれかの方法であって、
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
29.プロセッサと、命令を記憶している非一時的なメモリとを有する、ビデオシステム内の装置であって、
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至28のうちいずれか1つの方法を実施させる、
装置。
30.非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、
箇条1乃至28のうちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
第3の組の箇条は、例えば、例6を含む、前のセクションでリストアップされた開示技術の特定の特徴及び態様について記載する。
1.ビデオ処理の方法であって、
ビデオのビデオリージョンの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記コーディングされた表現におけるパラメータセットは、コーディングモードについてのパラメータ情報を有する、
方法。
2.箇条1の方法であって、
前記パラメータセットは、タイルグループヘッダとは異なる、
方法。
3.箇条2の方法であって
前記パラメータセットは、適応パラメータセット(APS)である、
方法。
4.箇条3の方法であって、
コーディングモード情報についての前記APSは、LMCS(luma mapping with chroma scaling)APSと名付けられる、
方法。
5.箇条3の方法であって、
前記APSが前記現在のビデオブロックに利用されるための識別子は、前記ビデオの前記コーディングされた表現に含まれる、
方法。
6.箇条5の方法であって、
前記識別子が前記ビデオの前記コーディングされた表現に存在するかどうかは、前記コーディングモードが前記ビデオリージョンに対して有効にされるかどうかに依存する、
方法。
7.箇条3の方法であって、
前記パラメータセットは、前記APSの識別子を含む、
方法。
8.箇条1の方法であって、
NALユニットタイプ値が、前記パラメータセットに対して割り当てられる、
方法。
9.箇条1の方法であって、
前記パラメータセットの識別子は、0からMの間の範囲を有し、
Mは2-1である、
方法。
10.箇条1の方法であって、
前記パラメータセットは、前記ビデオのピクチャにわたって共有される、
方法。
11.箇条1の方法であって、
前記パラメータセットの識別子は、固定長コーディングされている値を有する、
方法。
12.箇条1の方法であって、
前記パラメータセットの識別子は、EG(exponential-golomb)符号、トランケーテッドユーナリー符号、又は二値化符号でコーディングされる、
方法。
13.箇条1の方法であって、
同じピクチャ内の2つのサブリージョンについて、前記パラメータセットは、2つの異なる値の識別子を有する、
方法。
14.箇条3の方法であって、
前記パラメータセット及び適応ループフィルタ(ALF)情報についての前記APSは、同じネットワーク抽象レイヤ(NAL)ユニットタイプ(NUT)を共有する、
方法。
15.箇条1の方法であって、
前記パラメータ情報は、適応ループフィルタ(ALF)情報についての現在のAPSにより運ばれる、
方法。
16.箇条1の方法であって、
前記パラメータ情報は、シーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)、ピクチャパラメータセット(PPS)、シーケンス、ヘッダ又はピクチャヘッダで運ばれる、
方法。
17.箇条1の方法であって、
前記パラメータ情報は、リシェーパモデル情報の指示、前記コーディングモードの利用、又はクロマ残差スケーリング係数、のうちの少なくとも1つを含む、
方法。
18.箇条1の方法であって、
前記パラメータ情報は、1つのレベルでシグナリングされる、
方法。
19.箇条1の方法であって、
前記パラメータ情報は、第2のレベルでシグナリングされる前記コーディングモードの利用を含む、
方法。
20.箇条18又は19の方法であって、
前記パラメータ情報は、APSでシグナリングされ、
前記コーディングモードの利用は、前記ビデオリージョンのレベルでシグナリングされる、
方法。
21.箇条1の方法であって、
前記パラメータ情報は、1つのレベルでパースされる、
方法。
22.箇条1の方法であって、
前記パラメータ情報は、第2のレベルでパースされる前記コーディングモードの利用を含む、
方法。
23.箇条21又は22の方法であって、
前記パラメータ情報は、APSでパースされ、
前記コーディングモードの利用は、前記ビデオリージョンのレベルでパースされる、
方法。
24.箇条1の方法であって、
予測コーディングが、異なるAPSインデックスで前記パラメータ情報をコーディングするよう適用される、
方法。
25.箇条1乃至24のうちいずれかの方法であって、
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
26.箇条25の方法であって、
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
27.箇条1乃至26のうちいずれかの方法であって、
前記ビデオリージョンは、ピクチャ又はタイルグループである、
方法。
28.箇条1乃至26のうちいずれかの方法であって、
前記ビデオリージョンのレベルは、ピクチャヘッダ又はタイルグループヘッダである、
方法。
29.箇条1乃至28のうちいずれかの方法であって、
前記第1の領域は、元の領域であり、
前記第2の領域は、再成形モデルに従ってルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
30.箇条29の方法であって、
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
31.箇条1乃至30のうちいずれかの方法であって、
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
32.箇条1乃至30のうちいずれかの方法であって、
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
33.プロセッサと、命令を記憶している非一時的なメモリとを有する、ビデオシステム内の装置であって、
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至32のうちいずれか1つの方法を実施させる、
装置。
34.非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、
箇条1乃至32のうちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
第4の組の箇条は、例えば、例7及び9を含む、前のセクションでリストアップされた開示技術の特定の特徴及び態様について記載する。
1.ビデオ処理の方法であって、
クロマブロックであるビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換中に、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、
前記変換は、前記現在のビデオブロックの1つ以上のクロマ成分に順方向再成形プロセス及び/又は逆方向再成形プロセスを適用することを更に含む、
方法。
2.箇条1の方法であって、
前記現在のビデオブロックの前記1つ以上のクロマ成分にルーマ依存クロマ残差スケーリング(LCRS)を適用しないようにするステップを更に含む方法。
3.箇条1の方法であって、
区分線形(PWL)モデル、前方参照テーブル、又は後方参照テーブルのうちの少なくとも1つが、クロマ成分のために利用される、
方法。
4.箇条3の方法であって、
前記クロマ成分のための前記PWLモデル、前記前方参照テーブル、及び前記後方参照テーブルは、夫々、対応するルーマ成分のPWLモデル、前方参照テーブル、及び後方参照テーブルから導出される、
方法。
5.箇条3の方法であって、
前記PWLモデルは、シーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)、適応パラメータセット(APS)、ピクチャパラメータセット(PPS)、シーケンスヘッダ、ピクチャヘッダ、タイルグループヘッダ、タイルヘッダ、コーディングツリーユニット(CTU)行、CTUのグループ、又はリージョンでシグナリングされる、
方法。
6.箇条3の方法であって、
前記前方参照テーブル及び前記後方参照テーブルは、シーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)、適応パラメータセット(APS)、ピクチャパラメータセット(PPS)、シーケンスヘッダ、ピクチャヘッダ、タイルグループヘッダ、タイルヘッダ、コーディングツリーユニット(CTU)行、CTUのグループ、又はリージョンでシグナリングされる、
方法。
7.ビデオ処理の方法であって、
ビデオの現在のビデオクロマブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換の実行は、ルールに基づいて、ルーマ依存クロマ残差スケーリング(LCRS)が有効又は無効にされるかどうかを決定し、該決定に基づいて前記現在のビデオクロマブロックを再構成することを含む、
方法。
8.箇条7の方法であって、
前記ルールは、前記LCRSが、特定のブロック寸法、時間レイヤ、タイルグループタイプ、ピクチャタイプ、コーディングモード、特定のタイプの動き情報に対して無効にされる、ことを定める、
方法。
9.箇条7の方法であって、
前記ルールは、前記LCRSがクロマブロックに対して無効にされる、ことを定め、
順方向及び/又は逆方向再成形プロセスが、対応するルーマブロックに適用される、
方法。
10.箇条7の方法であって、
前記ルールは、前記LCRSがクロマブロックに適用される、ことを定め、
順方向及び/又は逆方向再成形プロセスが、対応するルーマブロックに適用されない、
方法。
11.箇条7の方法であって、
前記ルールは、前記LCRSが、交差成分線形モデル(CCLM)を使用してコーディングされた前記現在のビデオクロマブロックに対して無効にされる、ことを定める、
方法。
12.箇条7の方法であって、
前記ルールは、前記LCRSが、交差成分線形モデル(CCLM)を用いてコーディングされていない前記現在のビデオクロマブロックに対して無効にされる、ことを定める、
方法。
13.箇条7の方法であって、
前記ルールは、前記LCRSを無効にすることが、仮想パイプラインデータユニット(VPDU)を超えるビデオブロックのサイズに基づく、ことを定める、
方法。
14.箇条13の方法であって、
前記LCRSは、前記ビデオブロックが、M×Hサンプルに満たないビデオサンプルを含む場合に、許可されない、
方法。
15.箇条13の方法であって、
前記LCRSは、前記ビデオブロックの幅及び/又は高さの最小サイズが特定の値以下である場合に、許可されない、
方法。
16.箇条13の方法であって、
前記LCRSは、前記ビデオブロックの幅及び/又は高さの最小サイズが特定の値以上である場合に、許可されない、
方法。
17.箇条15又は16の方法であって、
前記特定の値は8である、
方法。
18.箇条13の方法であって、
前記LCRSは、前記ビデオブロックの幅が第1の値以上である場合、及び/又は前記ビデオブロックの高さが第2の値以上である場合に、許可されない、
方法。
19.箇条13の方法であって、
前記LCRSは、前記ビデオブロックの幅が第1の値以下である場合、及び/又は前記ビデオブロックの高さが第2の値以下である場合に、許可されない、
方法。
20.箇条18又は19の方法であって、
前記第1の値又は前記第2の値の少なくとも1つは、8、64、又は128である、
方法。
21.箇条13乃至20のうちいずれかの方法であって、
前記ビデオブロックは、ルーマブロック又はクロマブロックである、
方法。
22.箇条1乃至21のうちいずれかの方法であって、
前記第1の領域は、元の領域であり、
前記第2の領域は、再成形モデルに従ってルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
23.箇条22の方法であって、
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
24.箇条1乃至23のうちいずれかの方法であって、
クロマ残差が、ビデオクロマブロックの再構成を導出するために使用される前に、クロマ残差をスケーリングすることを有するルーマ依存クロマ残差スケーリング操作を実行することによって、ルーマに依存してスケーリングされ、該スケーリングのパラメータは、ルーマサンプルから導出される、
方法。
25.箇条1乃至24のうちいずれかの方法であって、
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
26.箇条1乃至24のうちいずれかの方法であって、
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
27.プロセッサと、命令を記憶している非一時的なメモリとを有する、ビデオシステム内の装置であって、
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至26のうちいずれか1つの方法を実施させる、
装置。
28.非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、
箇条1乃至26のうちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
第5の組の箇条は、例えば、例10~14、28、29及び40を含む、前のセクションでリストアップされた開示技術の特定の特徴及び態様について記載する。
1.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、前記現在のビデオブロックの1つ以上の係数値に基づいて、コーディングモードの使用を無効化すべきかどうかを決定するステップと、
前記決定に基づいて前記変換を実行するステップと
を有し、
前記コーディングモードを使用する前記変換中に、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
2.箇条1の方法であって、
再成形プロセスが、
前記第1の領域でのサンプルに順方向再成形プロセスを選択的に適用し、それから、前記第1の領域のサンプルが前記第2の領域でのサンプルに変換されることと、
前記第2の領域でのサンプルに逆方向再成形プロセスを選択的に適用し、それから、前記第2の領域でのサンプルが前記第1の領域での表現に変換されることと
を有する、
方法。
3.箇条1又は2の方法であって、
再成形プロセスが、ルーマ依存クロマ残差スケーリングプロセスを選択的に適用することを更に有する、
方法。
4.箇条1乃至3のうちいずれかの方法であって、
前記決定するステップは、前記現在のビデオブロックが全てのゼロ係数でコーディングされるかどうかに基づく、
方法。
5.箇条2の方法であって、
前記順方向再成形プロセスは、前記現在のビデオブロックが全てのゼロ係数でコーディングされるかどうかに基づいてスキップされる、
方法。
6.箇条2の方法であって、
前記現在のビデオブロックは、全てのゼロ係数でコーディングされ、
前記逆方向再成形プロセスはスキップされる、
方法。
7.箇条3の方法であって、
前記現在のビデオブロックは、全てのゼロ係数でコーディングされ、
前記ルーマ依存クロマ残差スケーリングプロセスはスキップされる、
方法。
8.箇条1乃至3のうちいずれかの方法であって、
前記決定するステップは、前記現在のビデオブロックが、特定の位置にあるただ1つの非ゼロ係数でコーディングされるかどうかに基づく、
方法。
9.箇条2又は3の方法であって、
前記現在のビデオブロックは、特定の位置に位置するただ1つの非ゼロ係数でコーディングされ、
前記順方向再成形プロセス、前記逆方向再成形プロセス、又は前記ルーマ依存クロマ残差スケーリングプロセスの少なくとも1つは、スキップされる、
方法。
10.箇条1乃至3のうちいずれかの方法であって、
前記決定するステップは、前記現在のビデオブロックがM個の非ゼロ係数でコーディングされるかどうかに基づく、
方法。
11.箇条2又は3の方法であって、
前記現在のビデオブロックは、M個の非ゼロ係数でコーディングされ、
前記順方向再成形プロセス、前記逆方向再成形プロセス、又は前記ルーマ依存クロマ残差スケーリングプロセスの少なくとも1つは、スキップされる、
方法。
12.箇条11の方法であって、
Mは1である、
方法。
13.ビデオ処理の方法であって、
仮想パイプラインデータユニット(VPDU)を超えるビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、前記現在のビデオブロックをリージョンに分割するステップと、
各リージョンに別々にコーディングモードを適用することによって前記変換を実行するステップと
を有し、
前記コーディングモードを適用することによる前記変換中に、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
14.箇条13の方法であって、
各リージョンは、前記コーディングモードの個々のコーディングユニット(CU)に対応する、
方法。
15.箇条13の方法であって、
前記現在のビデオブロックの幅は、第1の値以上であり、
前記現在のビデオブロックは、前記第1の値以下である1つ以上の幅を有するサブブロックに分けられ、
前記コーディングモードは、各サブブロックに対して有効にされる、
方法。
16.箇条13の方法であって、
前記現在のビデオブロックの高さは、第2の値以上であり、
前記現在のビデオブロックは、前記第2の値以下である1つ以上の高さを有するサブブロックに分けられ、
前記コーディングモードは、各サブブロックに対して有効にされる、
方法。
17.箇条13の方法であって、
前記現在のビデオブロックのサイズは、第3の値以上であり、
前記現在のビデオブロックは、前記第3の値以下である1つ以上のサイズを有するサブブロックに分けられ、
前記コーディングモードは、各サブブロックに対して有効にされる、
方法。
18.箇条15乃至17のうちいずれかの方法であって、
前記サブブロックは、同じ幅又は同じ高さを有する、
方法。
19.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、前記現在のビデオブロックのサイズ又は色フォーマットに基づいて、コーディングモードの使用を無効化すべきかどうかを決定するステップと、
前記決定に基づいて前記変換を実行するステップと
を有し、
前記コーディングモードを使用する前記変換中に、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
20.箇条19の方法であって、
前記決定するステップは、仮想パイプラインデータユニット(VPDU)を超える前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
21.箇条19の方法であって、
前記決定するステップは、M×Hよりも少ない数のサンプルを含むサイズを有する前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
22.箇条19の方法であって、
前記決定するステップは、前記現在のビデオブロックの幅及び/又は高さの最小サイズが、整数であるX以下である場合に、前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
23.箇条19の方法であって、
前記決定するステップは、前記現在のビデオブロックの幅及び/又は高さの最小サイズが、整数であるX以上である場合に、前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
24.箇条22又は23の方法であって、
Xは8である、
方法。
25.箇条19の方法であって、
前記決定するステップは、前記現在のビデオブロックが、第1の値以上である幅及び/又は第2の値以上である高さを有する場合に、前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
26.箇条19の方法であって、
前記決定するステップは、前記現在のビデオブロックが、第1の値以下である幅及び/又は第2の値以下である高さを有する場合に、前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
27.箇条25又は26の方法であって、
前記第1の値又は前記第2の値の少なくとも1つは8である、
方法。
28.箇条19乃至27のうちいずれかの方法であって、
前記コーディングモードの無効化は、1)前記第1の領域でのサンプルを前記第2の領域に変換するための順方向再成形、2)前記第2の領域でのサンプルを前記第1の領域に変換するための逆方向再成形、3)ルーマ依存クロマ残差スケーリング、のうちの少なくとも1つを無効にすることを有する、
方法。
29.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記コーディングされた表現における少なくとも1つのシンタックス要素は、前記コーディングモードの利用の指示及びリシェーパモデルの指示を与える、
方法。
30.箇条29の方法であって、
前記コーディングモードの利用の指示は、前記リシェーパモデルの指示に基づいてコーディングされる、
方法。
31.箇条29の方法であって、
前記リシェーパモデルの指示は、前記コーディングモードの指示に基づいてコーディングされる、
方法。
32.箇条29の方法であって、
ただ1つのシンタックス要素のみがコーディングされる、
方法。
33.箇条1乃至32のうちいずれかの方法であって、
異なるクリッピング方法が、予測信号及び再構成信号に適用される、
方法。
34.箇条33の方法であって、
前記ビデオ内で異なるクリッピングパラメータを許す適応クリッピングが、前記予測信号に適用される、
方法。
35.箇条34の方法であって、
前記適応クリッピングのための最大値及び最小値は、前記第2の領域で定義される、
方法。
36.箇条33の方法であって、
固定クリッピングが前記再構成信号に適用される、
方法。
37.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが無効にされることを決定するステップと、
前記決定に基づいて順方向再成形及び/又は逆方向再成形を条件付きでスキップするステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
38.箇条37の方法であって、
予測信号、再構成信号、又は残差信号の少なくとも1つは、前記第1の領域にある、
方法。
39.箇条37の方法であって、
予測信号、再構成信号、又は残差信号の少なくとも1つは、前記第2の領域にある、
方法。
40.ビデオ処理の方法であって、
ビデオのビデオリージョンの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
複数の順方向再成形及び/又は複数の逆方向再成形が、前記ビデオリージョンに対して再成形モードで適用される、
方法。
41.箇条40の方法であって、
前記ビデオリージョンは、ピクチャ、タイルグループ、仮想パイプラインデータユニット(VPDU)、コーディングツリーユニット(CTU)、行、又は複数のコーディングユニットを含む、
方法。
42.箇条40又は41の方法であって、
前記複数の順方向再成形及び/又は前記複数の逆方向再成形をいかにして選択すべきかは、i)ブロック寸法若しくはビデオリージョン寸法、ii)前記現在のビデオブロックの若しくは前記ビデオリージョンのコーディングモード、iii)前記現在のビデオブロックの若しくは前記ビデオリージョンのピクチャタイプ、iv)前記現在のビデオブロックの若しくは前記ビデオリージョンの低遅延検査フラグ、v)前記現在のビデオブロックの若しくは前記ビデオリージョンの動き情報、vi)前記現在のビデオブロックの若しくは前記ビデオリージョンの参照ピクチャ、又はvii)前記現在のビデオブロックの若しくは前記ビデオリージョンのビデオコンテンツ、のうちの少なくとも1つに依存する、
方法。
43.前記変換中に、前記第1の領域でのサンプルは、前記第1の領域でのサンプルよりも値が小さい第2の領域でのサンプルにマッピングされる、
方法。
44.箇条1乃至43のうちいずれかの方法であって、
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
45.箇条44の方法であって、
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
46.箇条1乃至45のうちいずれかの方法であって、
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法
47.箇条1乃至45のうちいずれかの方法であって、
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
48.プロセッサと、命令を記憶している非一時的なメモリとを有する、ビデオシステム内の装置であって、
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至47のうちいずれか1つの方法を実施させる、
装置。
49.非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、
箇条1乃至47うちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
第6の組の箇条は、例えば、例16及び17を含む、前のセクションでリストアップされた開示技術の特定の特徴及び態様について記載する。
1.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
代表サンプル値の少なくともパレットが前記現在のビデオブロックに使用されるパレットモードを用いて前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
2.箇条1の方法であって、
前記代表サンプル値のパレットは、1)パレット予測子、又は2)エスケープサンプル、のうちの少なくとも1つを有する、
方法。
3.箇条1の方法であって、
前記代表サンプル値は、前記第1の領域での値を表す、
方法。
4.箇条1の方法であって、
前記代表サンプル値は、前記第2の領域での値を表す、
方法。
5.箇条1又は2の方法であって、
前記パレットモードで使用され、前記コーディングされた表現に含まれるパレット予測子は、前記第1の領域に又は前記第2の領域にある、
方法。
6.箇条1又は2の方法であって、
前記パレットモードで使用され、前記コーディングされた表現に含まれるエスケープサンプルは、前記第1の領域に又は前記第2の領域にある、
方法。
7.箇条1又は2の方法であって、
前記パレットモードで使用され、前記コーディングされた表現に含まれるパレット予測子及び/又はエスケープサンプルは、前記第2の領域にあり、
前記第2の領域での第1の再構成ブロックが最初に生成され、後続のブロックをコーディングするために利用される、
方法。
8.箇条7の方法であって、
改良型パレットモードで使用され、前記コーディングされた表現に含まれるパレット予測子及び/又はエスケープサンプルは、前記第2の領域にあり、
前記第1の領域での最終的な再構成ブロックは、前記第1の再構成ブロック及び逆方向再成形プロセスを用いて生成される、
方法。
9.箇条8の方法であって、
前記逆方向再成形プロセスは、デブロッキングフィルタプロセスの直前に呼び出される、
方法。
10.箇条1乃至9のうちいずれか1つの方法であって、
前記変換は、前記現在のビデオブロックの色成分に基づいて実行される、
方法。
11.箇条10の方法であって、
前記色成分はルーマ成分である、
方法。
12.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、代表サンプル値の少なくともパレットが前記現在のビデオブロックをコーディングするために使用されるパレットモードで前記現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、ルーマに依存してスケーリングされるクロマ残差に基づいて構成される、
方法。
13.箇条12の方法であって、
前記現在のビデオブロックが前記パレットモードでコーディングされる場合に、前記コーディングモードは無効にされる、
方法。
14.ビデオ処理の方法であって、
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記変換は、第1のコーディングモードと、代表サンプル値の少なくともパレットが前記現在のビデオブロックをコーディングするために使用されるパレットコーディングモードとを使用する、ステップと、
前記パレットコーディングモードを使用せずにコーディングされる前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックの前記変換は前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
15.箇条14の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
16.箇条14の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる再成形及び/又は異なる逆方向再成形機能を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
17.箇条1乃至11及び14乃至16のうちいずれかの方法であって、
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
18.箇条17の方法であって、
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
19.箇条1乃至18のうちいずれかの方法であって、
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
20.箇条1乃至18のうちいずれかの方法であって、
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
21.プロセッサと、命令を記憶している非一時的なメモリとを有する、ビデオシステム内の装置であって、
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至20のうちいずれか1つの方法を実施させる、
装置。
22.非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、
箇条1乃至20うちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
第7の組の箇条は、例えば、例18及び19を含む、前のセクションでリストアップされた開示技術の特定の特徴及び態様について記載する。
1.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
前記現在のビデオブロックを含むピクチャを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピーモードを用いて、前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
2.箇条1の方法であって、
前記予測ブロックは、前記第1の領域で生成される、
方法。
3.箇条1の方法であって、
残差ブロックが、前記第1の領域において前記コーディングされた表現で表される、
方法。
4.箇条1の方法であって、
前記予測ブロックは、前記第2の領域で生成される、
方法。
5.箇条1の方法であって、
残差ブロックが、前記第2の領域において前記コーディングされた表現で表される、
方法。
6.箇条4又は5の方法であって、
前記現在のビデオブロックの第1の構成ブロックは、前記第2の領域での前記残差ブロック及び前記予測ブロックの和に基づいて取得され、
前記第1の構成ブロックは、後続のビデオブロックと前記ビデオの前記コーディングされた表現との間の変換に利用される、
方法。
7.箇条4又は5の方法であって、
前記現在のビデオブロックの最終的な構成ブロックは、前記第1の構成ブロックを前記第2の領域から前記第1の領域に変換するよう前記第1の構成ブロックに適用される逆方向再成形に基づいて取得される、
方法。
8.箇条1乃至7のうちいずれか1つの方法であって、
前記変換は、前記現在のビデオブロックの色成分に基づいて実行される、
方法。
9.箇条8の方法であって、
前記色成分はルーマ成分である、
方法。
10.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、前記現在のビデオブロックをコーディングするために前記現在のビデオブロックを含むビデオフレームを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピー(IBC)モードで現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
11.箇条10の方法であって、
前記現在のビデオブロックは、前記IBCモードでコーディングされ、
前記コーディングモードは、無効にされる、
方法。
12.ビデオ処理の方法であって、
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記変換は、前記現在のビデオブロックを含むビデオフレームを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピーモードと、第1のコーディングモードとを使用する、ステップと、
前記イントラブロックコピーモードを使用せずにコーディングされる前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックの前記変換は、前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
13.箇条12の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
14.箇条12の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる順方向再成形及び/又は異なる逆方向再成形を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
15.箇条1乃至14のうちいずれかの方法であって、
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
16.箇条15の方法であって、
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
17.箇条1乃至16のうちいずれかの方法であって、
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
18.箇条1乃至16のうちいずれかの方法であって、
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
19.プロセッサと、命令を記憶している非一時的なメモリとを有する、ビデオシステム内の装置であって、
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至18のうちいずれか1つの方法を実施させる、
装置。
20.非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、
箇条1乃至18うちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
第8の組の箇条は、例えば、例20~27を含む、前のセクションでリストアップされた開示技術の特定の特徴及び態様について記載する。
1.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
ブロックベースのデルタパルス符号変調(BDPCM)モードを用いて前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
2.箇条1の方法であって、
前記現在のビデオブロックの予測ブロックは、前記第1の領域で生成される、
方法。
3.箇条1の方法であって、
前記現在のビデオブロックの残差ブロックは、第1の領域において前記コーディングされた表現で表される、
方法。
4.箇条1の方法であって、
前記現在のビデオブロックの予測ブロックは、前記第2の領域で生成される、
方法。
5.箇条1の方法であって、
前記現在のビデオブロックの残差ブロックは、前記第2の領域において前記コーディングされた表現で表される、
方法。
6.箇条4又は5の方法であって、
前記現在のビデオブロックの第1の構成ブロックは、前記第2の領域での前記残差ブロック及び前記予測ブロックの和に基づいて取得され、
前記第1の構成ブロックは、後続のビデオブロックと前記ビデオの前記コーディングされた表現との間の変換に利用される、
方法。
7.箇条4又は5の方法であって、
前記現在のビデオブロックの最終的な構成ブロックは、第1の構成ブロックを前記第2の領域から前記第1の領域に変換するよう前記第1の構成ブロックに適用される逆方向再成形に基づいて取得される、
方法。
8.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、ブロックベースのデルタパルス符号変調(BDPCM)モードを用いて前記現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
9.箇条8の方法であって、
前記現在のビデオブロックが前記BDPCMモードでコーディングされる場合に、前記コーディングモードは無効にされる、
方法。
10.ビデオ処理の方法であって、
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記第1のビデオブロックの前記変換は、第1のコーディングモードと、ブロックベースのデルタパルス符号変調(BDPCM)モードとを使用する、ステップと、
前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックは、前記BDPCMモードを使用せずにコーディングされ、前記第2のビデオブロックの前記変換は、前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
11.箇条10の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
12.箇条10の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる順方向再成形及び/又は異なる逆方向再成形を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
13.ビデオ処理の方法であって
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
前記現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードを用いて前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
14.箇条13の方法であって、
前記現在のビデオブロックの予測ブロックは、前記第1の領域で生成される、
方法。
15.箇条13の方法であって、
前記現在のビデオブロックの残差ブロックは、第1の領域において前記コーディングされた表現で表される、
方法。
16.箇条13の方法であって、
前記現在のビデオブロックの予測ブロックは、前記第2の領域で生成される、
方法。
17.箇条13の方法であって、
前記現在のビデオブロックの残差ブロックは、前記第2の領域において前記コーディングされた表現で表される、
方法。
18.箇条16又は17の方法であって、
前記現在のビデオブロックの第1の構成ブロックは、前記第2の領域での前記残差ブロック及び前記予測ブロックの和に基づいて取得され、
前記第1の構成ブロックは、後続のビデオブロックと前記ビデオの前記コーディングされた表現との間の変換に利用される、
方法。
19.箇条16又は17の方法であって、
前記現在のビデオブロックの最終的な構成ブロックは、第1の構成ブロックを前記第2の領域から前記第1の領域に変換するよう前記第1の構成ブロックに適用される逆方向再成形に基づいて取得される、
方法。
20.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、前記現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードで前記現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
21.箇条20の方法であって、
前記現在のビデオブロックが前記変換スキップモードでコーディングされる場合に、前記コーディングモードは無効にされる、
方法。
22.ビデオ処理の方法であって、
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記第1のビデオブロックの前記変換は、第1のコーディングモードと、前記現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードとを使用する、ステップと、
前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックは、前記変換スキップモードを使用せずにコーディングされ、前記第2のビデオブロックの前記変換は、前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
23.箇条22の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
24.箇条22の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる順方向再成形及び/又は異なる逆方向再成形を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
25.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
変換及び変換領域量子化を適用せずに前記現在のビデオブロックがコーディングされるイントラパルス符号変調モードを用いて前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
26.箇条25の方法であって、
前記現在のビデオブロックの予測ブロックは、前記第1の領域で生成される、
方法。
27.箇条25の方法であって、
前記現在のビデオブロックの残差ブロックは、第1の領域において前記コーディングされた表現で表される、
方法。
28.箇条25の方法であって、
前記現在のビデオブロックの予測ブロックは、前記第2の領域で生成される、
方法。
29.箇条25の方法であって、
前記現在のビデオブロックの残差ブロックは、前記第2の領域において前記コーディングされた表現で表される、
方法。
30.箇条28又は29の方法であって、
前記現在のビデオブロックの第1の構成ブロックは、前記第2の領域での前記残差ブロック及び前記予測ブロックの和に基づいて取得され、
前記第1の構成ブロックは、後続のビデオブロックと前記ビデオの前記コーディングされた表現との間の変換に利用される、
方法。
31.箇条28又は29の方法であって、
前記現在のビデオブロックの最終的な構成ブロックは、第1の構成ブロックを前記第2の領域から前記第1の領域に変換するよう前記第1の構成ブロックに適用される逆方向再成形に基づいて取得される、
方法。
32.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、変換及び変換領域量子化を適用せずに前記現在のビデオブロックがコーディングされるイントラパルス符号変調モードで前記現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
33.箇条32の方法であって、
前記現在のビデオブロックが前記イントラパルス符号変調モードでコーディングされる場合に、前記コーディングモードは無効にされる、
方法。
34.ビデオ処理の方法であって、
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記第1のビデオブロックの前記変換は、第1のコーディングモードと、前記現在のビデオブロックが変換及び変換領域量子化を適用せずにコーディングされるイントラパルス符号変調モードとを使用する、ステップと、
前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックは、前記イントラパルス符号変調モードを使用せずにコーディングされ、前記第2のビデオブロックの前記変換は、前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
35.箇条34の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
36.箇条34の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる順方向再成形及び/又は異なる逆方向再成形を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
37.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
変換及び量子化なしで前記現在のビデオブロックが可逆コーディングされる改良型トランスクワント-バイパスモードを用いて前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
38.箇条37の方法であって、
前記現在のビデオブロックの予測ブロックは、前記第1の領域で生成される、
方法。
39.箇条37の方法であって、
前記現在のビデオブロックの残差ブロックは、第1の領域において前記コーディングされた表現で表される、
方法。
40.箇条37の方法であって、
前記現在のビデオブロックの予測ブロックは、前記第2の領域で生成される、
方法。
41.箇条37の方法であって、
前記現在のビデオブロックの残差ブロックは、前記第2の領域において前記コーディングされた表現で表される、
方法。
42.箇条40又は41の方法であって、
前記現在のビデオブロックの第1の構成ブロックは、前記第2の領域での前記残差ブロック及び前記予測ブロックの和に基づいて取得され、
前記第1の構成ブロックは、後続のビデオブロックと前記ビデオの前記コーディングされた表現との間の変換に利用される、
方法。
43.箇条40又は41の方法であって、
前記現在のビデオブロックの最終的な構成ブロックは、第1の構成ブロックを前記第2の領域から前記第1の領域に変換するよう前記第1の構成ブロックに適用される逆方向再成形に基づいて取得される、
方法。
44.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、変換及び量子化を適用なしで前記現在のビデオブロックが可逆コーディングされるトランスクワント-バイパスモードで前記現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
45.箇条44の方法であって、
前記現在のビデオブロックが前記トランスクワント-バイパスモードでコーディングされる場合に、前記コーディングモードは無効にされる、
方法。
46.ビデオ処理の方法であって、
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記第1のビデオブロックの前記変換は、第1のコーディングモードと、前記現在のビデオブロックが変換及び量子化なしで可逆コーディングされるトランスクワント-バイパスモードとを使用する、ステップと、
前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックは、前記トランスクワント-バイパスモードを使用せずにコーディングされ、前記第2のビデオブロックの前記変換は、前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
47.箇条46の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
48.箇条46の方法であって、
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる順方向再成形及び/又は異なる逆方向再成形を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
49.箇条1乃至48のうちいずれか1つの方法であって、
前記変換は、前記現在のビデオブロックの色成分に基づいて実行される、
方法。
50.箇条49の方法であって、
前記色成分はルーマ成分である、
方法。
51.箇条1乃至50のうちいずれかの方法であって、
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
52.箇条51の方法であって、
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
53.箇条1乃至52のうちいずれかの方法であって、
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
54.箇条1乃至52のうちいずれかの方法であって、
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
55.プロセッサと、命令を記憶している非一時的なメモリとを有する、ビデオシステム内の装置であって、
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至54のうちいずれか1つの方法を実施させる、
装置。
56.非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、
箇条1乃至54うちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
第9の組の箇条は、例えば、例30~34及び41を含む、前のセクションでリストアップされた開示技術の特定の特徴及び態様について記載する。
1.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記コーディングモードに使用される情報は、適応ループフィルタリング(ALF)パラメータを運ぶために使用されるシーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)、ピクチャパラメータセット(PPS)、又は適応パラメータセット(APS)とは異なるパラメータセットでシグナリングされる、
方法。
2.箇条1の方法であって、
前記パラメータセットは、ピクチャにわたって共有される、
方法。
3.箇条1の方法であって、
前記パラメータセットは、前記パラメータセットの識別子又は前記パラメータセットの拡張データの存在を示すフラグのうちの少なくとも1つを含む1つ以上のシンタックス要素を含む、
方法。
4.箇条1の方法であって、
前記パラメータセットは、ピクチャ内のタイルグループについて特有である、
方法。
5.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記コーディングモードに使用される情報は、適応ループフィルタリング(ALF)情報とともに適応パラメータセット(APS)でシグナリングされ、
前記コーディングモードに使用される前記情報及び前記ALF情報は、1つのNALユニットに含まれる、
方法。
6.箇条5の方法であって、
前記APSの識別子は、タイルグループヘッダでシグナリングされる、
方法。
7.ビデオ処理の方法であって、
ビデオのビデオリージョンの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記コーディングモードに使用される情報は、適応ループフィルタリング(ALF)情報をシグナリングするために使用される第2タイプの適応パラメータセット(APS)とは異なる第1タイプのAPSでシグナリングされる、
方法。
8.箇条7の方法であって、
前記第2タイプのAPSの識別子は、前記ビデオリージョンのレベルでシグナリングされる、
方法。
9.箇条7の方法であって、
前記第1タイプのAPSの識別子は、前記ビデオリージョンのレベルでシグナリングされる、
方法。
10.箇条7の方法であって、
前記コーディングされた表現に含まれる前記第1タイプのAPSは、コンフォーマンスビットストリームに前記ALF情報を含める前記第2タイプのAPSを含む、
方法。
11.箇条7の方法であって、
前記コーディングされた表現に含まれる前記第2タイプのAPSは、コンフォーマンスビットストリームに前記コーディングモードに使用される前記情報を含める前記第1タイプのAPSを含む、
方法。
12.箇条7の方法であって、
前記第1タイプのAPS及び前記第2タイプのAPSは、異なる識別子と関連付けられる、
方法。
13.箇条12の方法であって、
前記第2タイプのAPSは、Nが整数であるとして、2Nに等しい識別子を有する、
方法。
14.箇条13の方法であって、
前記第1タイプのAPSは、Nが整数であるとして、2N+1に等しい識別子を有する、
方法。
ビデオ処理の方法であって、
ビデオのビデオリージョンの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記ビデオリージョンは、前記ビデオを処理するために使用される特定のタイプのデータ構造の前にシグナリングされるパラメータセット又は適応パラメータセットを参照することを認められず、
前記特定のタイプのデータ構造は、前記ビデオリージョンの前にシグナリングされる、
方法。
16.箇条15の方法であって、
前記データ構造は、ネットワーク抽象レイヤ(NAL)ユニット、タイルグループ、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、アクセスユニットデリミタNAL(AUD)、エンド・オブ・ビットストリームNAL(EoB)、エンド・オブ・シーケンスNAL(NAL)、瞬時復号化リフレッシュ(IDR)NAL、クリーンランダムアクセス(CRA)NAL、イントラランダムアクセスポイント(IRAP)アクセスユニット、Iタイルグループ、ピクチャ、又はスライス、のうちの少なくとも1つを含む、
方法。
17.ビデオ処理の方法であって、
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記ビデオを処理するために使用されるパラメータを含むパラメータセットのシンタックス要素は、コンフォーマンスビットストリームにおいて予め定義された値を有する、
方法。
18.箇条17の方法であって、
前記予め定義された値は0及び1である、
方法。
19.箇条17の方法であって、
前記予め定義された値は0及び7である、
方法。
20.箇条1乃至19のうちいずれかの方法であって、
前記ビデオリージョンは、タイルグループ、ピクチャ、スライス、又はタイル、のうちの少なくとも1つを有する、
方法。
21.箇条1乃至20のうちいずれかの方法であって、
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
22.箇条21の方法であって、
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
23.箇条1乃至22のうちいずれかの方法であって、
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
24.箇条1乃至22のうちいずれかの方法であって、
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
25.プロセッサと、命令を記憶している非一時的なメモリとを有する、ビデオシステム内の装置であって、
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至24のうちいずれか1つの方法を実施させる、
装置。
26.非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、
箇条1乃至24うちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
以上から、目下開示されている技術の具体的な実施形態は、説明のために本明細書で説明されているが、様々な変更が、本発明の範囲から逸脱せずに行われてよい、ことが認識される。従って、目下開示されている技術は、添付の特許請求の範囲による場合を除いて、限定されない。
本明細書で記載されている対象及び機能的動作の実施は、様々なシステムやデジタル電子回路で、又は本明細書で開示されている構造及びそれらの構造的同等物を含むコンピュータソフトウェア、ファームウェア、若しくはハードウェアで、又はそれらの1つ以上の組み合わせで実装可能である。本明細書で記載されている対象の実施は、1つ以上のコンピュータプログラム製品、すなわち、データ処理装置による実行のために又はデータ処理装置の動作を制御するために有形かつ非一時的なコンピュータ可読媒体に符号化されているコンピュータプログラム命令の1つ以上のモジュール、として実装可能である。コンピュータ可読媒体は、機械により読み出し可能な記憶デバイス、機械におり読み出し可能な記憶担体、メモリデバイス、機械により読み出し可能な伝搬信号をもたらす組成物、又はそれらの1つ以上の組み合わせであることができる。「データ処理ユニット」又は「データ処理装置」との用語は、例として、プログラム可能なプロセッサ、コンピュータ、又は複数のプロセッサ若しくはコンピュータを含む、データを処理する全ての装置、デバイス、及び機械を包含する。装置は、ハードウェアに加えて、問題となっているコンピュータプログラムのための実行環境を作り出すコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、又はそれらの1つ以上の組み合わせを構成するコード、を含むことができる。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、又はコードとしても知られる。)は、コンパイル済み又は解釈済みの言語を含む如何なる形式のプログラミング言語でも記述可能であり、それは、スタンドアロンプログラムとして又はコンピューティング環境における使用に適したモジュール、コンポーネント、サブルーチン、若しくは他のユニットとしてを含め、如何なる形式でもデプロイ可能である。コンピュータプログラムは、必ずしもファイルシステムにおけるファイルに対応しない。プログラムは、問題となっているプログラムに専用の単一のファイルで、又は複数の協調したファイル(例えば、1つ以上のモジュール、サブプログラム、又はコードの部分を保存するファイル)で、他のプログラム又はデータ(例えば、マークアップ言語文書で保存された1つ以上のスクリプト)を保持するファイルの部分において保存可能である。コンピュータプログラムは、1つのコンピュータで、あるいは、1つの場所に位置しているか、又は複数の場所にわたって分布しており、通信ネットワークによって相互接続されている複数のコンピュータで、実行されるようデプロイ可能である。
本明細書で記載されているプロセス及び論理フローは、入力データに作用して出力を生成することによって機能を実行するよう1つ以上のコンピュータプログラムを実行する1つ以上のプログラム可能なプロセッサによって実行可能である。プロセス及び論理フローはまた、専用のロジック回路、例えば、FPGA(Field Programmable Gate Array)又はASIC(Application-Specific Integrated Circuit)によっても実行可能であり、装置は、そのようなものとしても実装可能である。
コンピュータプログラムの実行に適したプロセッサは、例として、汎用のマイクロプロセッサ及び専用のマイクロプロセッサの両方、並びにあらゆる種類のデジタルコンピュータのいずれか1つ以上のプロセッサを含む。一般に、プロセッサは、リード・オンリー・メモリ若しくはランダム・アクセス・メモリ又はその両方から命令及びデータを受け取ることになる。コンピュータの必須の要素は、命令を実行するプロセッサと、命令及びデータを保存する1つ以上のメモリデバイスとである。一般に、コンピュータはまた、データを保存する1つ以上の大容量記憶デバイス、例えば、磁気、光学磁気ディスク、又は光ディスクを含むか、あるいは、そのような1つ以上の大容量記憶デバイスからのデータの受信若しくはそれへのデータの転送又はその両方のために動作可能に結合されることになる。しかし、コンピュータは、そのようなデバイスを有する必要はない。コンピュータプログラム命令及びデータを保存するのに適したコンピュータ可読媒体は、例として、半導体メモリデバイス、例えば、EPROM、EEPROM、及びフラッシュメモリデバイスを含む全ての形式の不揮発性メモリ、媒体及びメモリデバイスを含む。プロセッサ及びメモリは、専用のロジック回路によって強化されるか、あるいは、それに組み込まれ得る。
本明細書は、図面とともに、単に例示と見なされるよう意図され、ここで、例示とは、例を意味する。本明細書で使用されるように、「若しくは」、「又は」、「あるいは」の使用は、文脈中で別なふうに明示されない限りは、「及び/又は」、「かつ/あるいは」を含むよう意図される。
本明細書は、多数の詳細を含むが、それらは、あらゆる発明の又は請求される可能性があるものの範囲に対する限定としてではなく、むしろ、特定の発明の特定の実施形態に特有であり得る特徴の説明として解釈されるべきである。別々の実施形態に関連して本明細書に記載されている特定の特徴は、単一の実施形態と組み合わせても実装可能である。逆に、単一の実施形態に関連して記載されている様々な特徴はまた、複数の実施形態で別々に、又は何らかの適切なサブコンビネーションで実装可能である。更に、特徴は、特定の組み合わせで動作するものとして上述され、そのようなものとして最初に請求されることさえあるが、請求されている組み合わせからの1つ以上の特徴は、いくつかの場合に、その組み合わせから削除可能であり、請求されている組み合わせは、サブコンビネーション又はサブコンビネーションの変形に向けられてもよい。
同様に、動作は、特定の順序で図面において表されているが、これは、所望の結果を達成するために、そのような動作が、示されているその特定の順序で、又は順次的な順序で実行されること、あるいは、表されている全ての動作が実行されることを求めている、と理解されるべきではない。更に、本明細書に記載されている実施形態における様々なシステムコンポーネントの分離は、全ての実施形態でそのような分離を求めている、と理解されるべきではない。
ほんのわずかの実施及び例が説明されており、他の実施、強化及び変形は、本明細書で記載及び例示されているものに基づいて行われ得る。
[関連出願への相互参照]
願は、2019年2月1日付けで出願された国際特許出願第PCT/CN2019/074437号に対する優先権及びその利益を請求する、2020年2月2日付けで出願された国際特許出願第PCT/CN2020/074141号の国内段階である。上記の出願の全体の開示は、本願の開示の部分として参照により援用される。

Claims (18)

  1. ビデオデータを処理する方法であって、
    ビデオの現在のルーマビデオブロックと前記ビデオのビットストリームとの間の変換のために、前記現在のルーマビデオブロックの予測ルーマサンプルを生成するステップと、
    前記予測ルーマサンプルが、変更された予測ルーマサンプルを生成するよう、元の領域から再成形領域へ変換される順方向マッピングプロセスを、前記現在のルーマビデオブロックに対して実行するステップと、
    前記変更された予測ルーマサンプルに基づいて前記変換を実行するステップと
    を有し、
    前記現在のルーマビデオブロックに対応する現在のクロマビデオブロックに対して、該現在のクロマビデオブロックのクロマ残差サンプルにスケーリングプロセスを適用すべきかどうかは、前記現在のルーマビデオブロックの寸法に基づき、
    前記スケーリングプロセスで、前記クロマ残差サンプルは、前記現在のクロマビデオブロックを再構成するために使用される前に、スケーリングされ
    区分線形モデルが、前記順方向マッピングプロセス中に前記現在のルーマビデオブロックのサンプルを特定の値にマッピングするために使用され、
    前記区分線形モデルのスケール係数は、適応パラメータセットに含まれるシンタックス要素に基づいて決定される第1変数と、ビットデプスに基づいて決定される第2変数とに基づいて決定される
    方法。
  2. 前記スケーリングプロセスを適用すべきかどうかは、前記現在のルーマビデオブロックに含まれるルーマサンプルの数に基づく、
    請求項1に記載の方法。
  3. 前記スケーリングプロセスは、前記ルーマサンプルの数が第1特定値より少ない場合に無効にされる、
    請求項2に記載の方法。
  4. 前記ビデオの色フォーマットが4:2:2である場合に、前記第1特定値は16であり、あるいは、
    前記ビデオの色フォーマットが4:2:0である場合に、前記第1特定値は32である、
    請求項3に記載の方法。
  5. 前記スケーリングプロセスは、前記現在のルーマビデオブロックの幅又は高さが第2特定値よりも小さい場合に無効にされる、
    請求項1乃至4のうちいずれか一項に記載の方法。
  6. 前記ビデオの色フォーマットが4:2:0である場合に、前記第2特定値は8である、
    請求項5に記載の方法。
  7. 前記スケーリングプロセスを適用すべきかどうかは、前記現在のクロマビデオブロックが特定の時間レイヤ、特定のタイルグループタイプ、特定のピクチャタイプ、特定のコーディングモード、又は特定のタイプの動き情報を有しているかどうかに更に基づく、
    請求項1乃至6のうちいずれか一項に記載の方法。
  8. 前記スケーリングプロセスを適用すべきかどうかは、前記ビデオの色フォーマットが特定のフォーマットであるかどうかに更に基づく、
    請求項1乃至7のうちいずれか一項に記載の方法。
  9. 前記順方向マッピングプロセスは、前記現在のルーマビデオブロックが少なくとも1つの非ゼロ係数でコーディングされている場合に実行される、
    請求項1乃至8のうちいずれか一項に記載の方法。
  10. 前記現在のクロマビデオブロックが全てのゼロ係数でコーディングされていることに応答して、前記スケーリングプロセスはスキップされる、
    請求項1乃至9のうちいずれか一項に記載の方法。
  11. 前記順方向マッピングプロセスの逆の動作である逆方向マッピングプロセスが、前記現在のルーマビデオブロックを再構成した後に適用される、
    請求項1乃至10のうちいずれか一項に記載の方法。
  12. 前記区分線形モデルのシンタックス要素は、前記順方向マッピングプロセスの有効な使用の指示に基づいて存在する、
    請求項に記載の方法。
  13. 前記スケーリングプロセスのスケーリング係数は、再構成されたルーマサンプルに基づいて導出される、
    請求項1乃至12のうちいずれか一項に記載の方法。
  14. 前記変換は、前記現在のルーマビデオブロックを前記ビットストリームに符号化することを含む、
    請求項1乃至13のうちいずれか一項に記載の方法。
  15. 前記変換の実行は、前記現在のルーマビデオブロックを前記ビットストリームから復号することを含む、
    請求項1乃至13のうちいずれか一項に記載の方法。
  16. ビデオデータを処理する装置であって、
    プロセッサと、命令を記憶している非一時的なメモリとを有し、
    前記命令は、前記プロセッサによって実行されると、該プロセッサに、
    ビデオの現在のルーマビデオブロックと前記ビデオのビットストリームとの間の変換のために、前記現在のルーマビデオブロックの予測ルーマサンプルを生成させ、
    前記予測ルーマサンプルが、変更された予測ルーマサンプルを生成するよう、元の領域から再成形領域へ変換される順方向マッピングプロセスを、前記現在のルーマビデオブロックに対して実行させ、
    前記変更された予測ルーマサンプルに基づいて前記変換を実行させ、
    前記現在のルーマビデオブロックに対応する現在のクロマビデオブロックに対して、該現在のクロマビデオブロックのクロマ残差サンプルにスケーリングプロセスを適用すべきかどうかは、前記現在のルーマビデオブロックの寸法に基づき、
    前記スケーリングプロセスで、前記クロマ残差サンプルは、前記現在のクロマビデオブロックを再構成するために使用される前に、スケーリングされ
    区分線形モデルが、前記順方向マッピングプロセス中に前記現在のルーマビデオブロックのサンプルを特定の値にマッピングするために使用され、
    前記区分線形モデルのスケール係数は、適応パラメータセットに含まれるシンタックス要素に基づいて決定される第1変数と、ビットデプスに基づいて決定される第2変数とに基づいて決定される
    装置。
  17. プロセッサに、
    ビデオの現在のルーマビデオブロックと前記ビデオのビットストリームとの間の変換のために、前記現在のルーマビデオブロックの予測ルーマサンプルを生成させ、
    前記予測ルーマサンプルが、変更された予測ルーマサンプルを生成するよう、元の領域から再成形領域へ変換される順方向マッピングプロセスを、前記現在のルーマビデオブロックに対して実行させ、
    前記変更された予測ルーマサンプルに基づいて前記変換を実行させる
    命令を記憶しており、
    前記現在のルーマビデオブロックに対応する現在のクロマビデオブロックに対して、該現在のクロマビデオブロックのクロマ残差サンプルにスケーリングプロセスを適用すべきかどうかは、前記現在のルーマビデオブロックの寸法に基づき、
    前記スケーリングプロセスで、前記クロマ残差サンプルは、前記現在のクロマビデオブロックを再構成するために使用される前に、スケーリングされ
    区分線形モデルが、前記順方向マッピングプロセス中に前記現在のルーマビデオブロックのサンプルを特定の値にマッピングするために使用され、
    前記区分線形モデルのスケール係数は、適応パラメータセットに含まれるシンタックス要素に基づいて決定される第1変数と、ビットデプスに基づいて決定される第2変数とに基づいて決定される
    非一時的なコンピュータ可読記憶媒体。
  18. デオのビットストリームを記憶する方法であって、
    記ビデオの現在のルーマビデオブロックの予測ルーマサンプルを生成するステップと、
    前記予測ルーマサンプルが、変更された予測ルーマサンプルを生成するよう、元の領域から再成形領域へ変換される順方向マッピングプロセスを、前記現在のルーマビデオブロックに対して実行するステップと、
    前記変更された予測ルーマサンプルに基づいて前記ビットストリームを生成するステップと
    を有し、
    前記現在のルーマビデオブロックに対応する現在のクロマビデオブロックに対して、該現在のクロマビデオブロックのクロマ残差サンプルにスケーリングプロセスを適用すべきかどうかは、前記現在のルーマビデオブロックの寸法に基づき、
    前記スケーリングプロセスで、前記クロマ残差サンプルは、前記現在のクロマビデオブロックを再構成するために使用される前に、スケーリングされ
    区分線形モデルが、前記順方向マッピングプロセス中に前記現在のルーマビデオブロックのサンプルを特定の値にマッピングするために使用され、
    前記区分線形モデルのスケール係数は、適応パラメータセットに含まれるシンタックス要素に基づいて決定される第1変数と、ビットデプスに基づいて決定される第2変数とに基づいて決定される、
    方法
JP2021542565A 2019-02-01 2020-02-01 ビデオコーディングのためのルーマ依存クロマ残差スケーリングの設定 Active JP7199552B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2019074437 2019-02-01
CNPCT/CN2019/074437 2019-02-01
PCT/CN2020/074141 WO2020156530A1 (en) 2019-02-01 2020-02-01 Configuring luma-dependent chroma residue scaling for video coding

Publications (2)

Publication Number Publication Date
JP2022518909A JP2022518909A (ja) 2022-03-17
JP7199552B2 true JP7199552B2 (ja) 2023-01-05

Family

ID=77271633

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2021542565A Active JP7199552B2 (ja) 2019-02-01 2020-02-01 ビデオコーディングのためのルーマ依存クロマ残差スケーリングの設定
JP2021544569A Active JP7279172B2 (ja) 2019-02-01 2020-02-01 インループ再成形とインターコーディングツールとの間の相互作用
JP2021542161A Active JP7199550B2 (ja) 2019-02-01 2020-02-01 パラメータセットを使用したインループ再成形情報のシグナリング
JP2023077938A Pending JP2023095995A (ja) 2019-02-01 2023-05-10 インループ再成形とインターコーディングツールとの間の相互作用

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021544569A Active JP7279172B2 (ja) 2019-02-01 2020-02-01 インループ再成形とインターコーディングツールとの間の相互作用
JP2021542161A Active JP7199550B2 (ja) 2019-02-01 2020-02-01 パラメータセットを使用したインループ再成形情報のシグナリング
JP2023077938A Pending JP2023095995A (ja) 2019-02-01 2023-05-10 インループ再成形とインターコーディングツールとの間の相互作用

Country Status (11)

Country Link
US (4) US11343505B2 (ja)
EP (3) EP3900362A4 (ja)
JP (4) JP7199552B2 (ja)
KR (4) KR20240005124A (ja)
CN (5) CN113424543B (ja)
AU (1) AU2020214946B2 (ja)
BR (2) BR112021014620A2 (ja)
CA (2) CA3127136A1 (ja)
MX (2) MX2021008911A (ja)
SG (2) SG11202107760PA (ja)
ZA (2) ZA202105195B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020017910A1 (ko) * 2018-07-18 2020-01-23 한국전자통신연구원 지역 조명 보상을 통한 효과적인 비디오 부호화/복호화 방법 및 장치
MX2021008911A (es) 2019-02-01 2021-08-24 Beijing Bytedance Network Tech Co Ltd Se?alizacion de informacion de reformacion en bucle utilizando conjuntos de parametros.
WO2020156528A1 (en) 2019-02-01 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Filtering processes based on in-loop reshaping
WO2020176636A1 (en) * 2019-02-27 2020-09-03 Futurewei Technologies, Inc. Luma mapping with chroma scaling adaptation parameter set in video coding
CN113574889B (zh) 2019-03-14 2024-01-12 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
CN113632469B (zh) 2019-03-23 2022-12-13 北京字节跳动网络技术有限公司 默认的环内整形参数
KR20220002989A (ko) * 2019-04-25 2022-01-07 오피 솔루션즈, 엘엘씨 픽처 헤더 내의 글로벌 모션 벡터의 시그널링
WO2020256391A1 (ko) * 2019-06-18 2020-12-24 엘지전자 주식회사 영상 디코딩 방법 및 그 장치
KR20210158390A (ko) * 2019-06-20 2021-12-30 엘지전자 주식회사 루마 맵핑 및 크로마 스케일링 기반 비디오 또는 영상 코딩
CN114556918A (zh) 2019-10-12 2022-05-27 北京字节跳动网络技术有限公司 细化视频编解码工具的使用和信令
WO2022228420A1 (en) * 2021-04-27 2022-11-03 Beijing Bytedance Network Technology Co., Ltd. Method, device, and medium for video processing
US11622106B2 (en) * 2021-05-17 2023-04-04 Meta Platforms, Inc. Supporting multiple partition sizes using a unified pixel input data interface for fetching reference pixels in video encoders
US20230090025A1 (en) * 2021-09-22 2023-03-23 Alibaba Singapore Holding Private Limited Methods and systems for performing combined inter and intra prediction
US11968356B2 (en) 2022-03-16 2024-04-23 Qualcomm Incorporated Decoder-side motion vector refinement (DMVR) inter prediction using shared interpolation filters and reference pixels
US20240022732A1 (en) * 2022-07-13 2024-01-18 Tencent America LLC Weight derivation of multiple reference line for intra prediction fusion
WO2024037638A1 (en) * 2022-08-18 2024-02-22 Douyin Vision Co., Ltd. Method, apparatus, and medium for video processing

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017019818A1 (en) 2015-07-28 2017-02-02 Vid Scale, Inc. High dynamic range video coding architectures with multiple operating modes
WO2017165494A2 (en) 2016-03-23 2017-09-28 Dolby Laboratories Licensing Corporation Encoding and decoding reversible production-quality single-layer video signals
WO2019006300A1 (en) 2017-06-29 2019-01-03 Dolby Laboratories Licensing Corporation INTEGRATED IMAGE REMODELING AND VIDEO CODING

Family Cites Families (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5544284A (en) 1992-02-11 1996-08-06 Eastman Kodak Company Sequential product code quantization of digital color image
US20020145610A1 (en) 1999-07-16 2002-10-10 Steve Barilovits Video processing engine overlay filter scaler
US7412003B2 (en) 2003-09-17 2008-08-12 Texas Instruments Incorporated Transcoders and methods
EP2508000A1 (en) * 2009-12-04 2012-10-10 Thomson Licensing Methods and apparatus for improved chroma transforms for inter frames in video encoding and decoding
WO2011126272A2 (en) 2010-04-05 2011-10-13 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using dynamic-range transformation, and method and apparatus for decoding video by using dynamic-range transformation
US9094658B2 (en) 2010-05-10 2015-07-28 Mediatek Inc. Method and apparatus of adaptive loop filtering
US8630356B2 (en) 2011-01-04 2014-01-14 The Chinese University Of Hong Kong High performance loop filters in video compression
US9001883B2 (en) * 2011-02-16 2015-04-07 Mediatek Inc Method and apparatus for slice common information sharing
KR20140018873A (ko) * 2011-04-07 2014-02-13 엘지전자 주식회사 영상 정보 부호화 방법 및 복호화 방법
CA2823902C (en) * 2011-04-21 2018-03-27 Mediatek Inc. Method and apparatus for improved in-loop filtering
US9277228B2 (en) * 2011-07-18 2016-03-01 Qualcomm Incorporated Adaptation parameter sets for video coding
US9948938B2 (en) 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
US9083983B2 (en) 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
KR20130053645A (ko) 2011-11-15 2013-05-24 한국전자통신연구원 적응적 루프 필터를 이용한 비디오 부호화/복호화 방법 및 장치
US9451252B2 (en) 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
WO2013109505A2 (en) * 2012-01-19 2013-07-25 Vid Scale, Inc. Methods, apparatus and systems for signaling video coding adaptation parameters
JP5947405B2 (ja) 2012-02-01 2016-07-06 ノキア テクノロジーズ オーユー ビデオ符号化方法および装置
US9438905B2 (en) * 2012-04-12 2016-09-06 Futurewei Technologies, Inc. LM mode with uniform bit-width multipliers
GB2501125B (en) * 2012-04-13 2015-08-19 Canon Kk Method and device for providing adaptation parameters to a decoder
US8873872B1 (en) 2012-04-18 2014-10-28 Matrox Graphics Inc. Division of entropy coding in codecs
WO2013162454A1 (en) * 2012-04-24 2013-10-31 Telefonaktiebolaget L M Ericsson (Publ) Identifying a parameter set for decoding a multi-layer video representation
FI2869557T3 (fi) * 2012-06-29 2023-11-02 Electronics & Telecommunications Res Inst Menetelmä ja laite kuvien koodaamiseksi/dekoodaamiseksi
EP2904803A1 (en) 2012-10-01 2015-08-12 GE Video Compression, LLC Scalable video coding using derivation of subblock subdivision for prediction from base layer
EP2941868B1 (en) * 2013-01-07 2020-07-08 Nokia Technologies Oy Method and apparatus for video coding and decoding
US9491460B2 (en) 2013-03-29 2016-11-08 Qualcomm Incorporated Bandwidth reduction for video coding prediction
US10440365B2 (en) * 2013-06-28 2019-10-08 Velos Media, Llc Methods and devices for emulating low-fidelity coding in a high-fidelity coder
US9894357B2 (en) 2013-07-30 2018-02-13 Kt Corporation Image encoding and decoding method supporting plurality of layers and apparatus using same
JP2017501599A (ja) 2013-10-07 2017-01-12 ヴィド スケール インコーポレイテッド マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理
US10397607B2 (en) 2013-11-01 2019-08-27 Qualcomm Incorporated Color residual prediction for video coding
US10148895B2 (en) 2013-12-19 2018-12-04 Flir Systems Ab Generating a combined infrared/visible light image having an enhanced transition between different types of image information
TWI536811B (zh) 2013-12-27 2016-06-01 財團法人工業技術研究院 影像處理方法與系統、解碼方法、編碼器與解碼器
WO2015100522A1 (en) 2013-12-30 2015-07-09 Mediatek Singapore Pte. Ltd. Methods for inter-component residual prediction
US9948933B2 (en) 2014-03-14 2018-04-17 Qualcomm Incorporated Block adaptive color-space conversion coding
KR102494913B1 (ko) 2014-03-14 2023-02-06 브이아이디 스케일, 인크. 스크린 콘텐츠 코딩을 위한 팔레트 코딩
PT3324629T (pt) 2014-05-28 2019-10-08 Koninklijke Philips Nv Métodos e aparelhos para codificação de imagens hdr e métodos e aparelhos para utilização de tais imagens codificadas
AU2014202921B2 (en) * 2014-05-29 2017-02-02 Canon Kabushiki Kaisha Method, apparatus and system for de-blocking a block of video samples
US9948949B2 (en) 2014-06-20 2018-04-17 Qualcomm Incorporated Intra block copy block vector signaling for video coding
US9667829B2 (en) 2014-08-12 2017-05-30 Digimarc Corporation System and methods for encoding information for printed articles
GB2531005A (en) 2014-10-06 2016-04-13 Canon Kk Improved encoding process using a palette mode
WO2016057323A1 (en) 2014-10-06 2016-04-14 Huawei Technologies Co., Ltd. Improved palette mode in high efficiency video coding (hevc) screen content coding (scc)
CN104320671A (zh) 2014-11-13 2015-01-28 山东财经大学 一种基于h.264标准的在线视频转码方法
WO2016100424A1 (en) * 2014-12-19 2016-06-23 Mediatek Inc. Methods of palette based prediction for non-444 color format in video and image coding
US20170374384A1 (en) 2015-01-14 2017-12-28 Vid Scale, Inc. Palette coding for non-4:4:4 screen content video
US9591325B2 (en) 2015-01-27 2017-03-07 Microsoft Technology Licensing, Llc Special case handling for merged chroma blocks in intra block copy prediction mode
US9998742B2 (en) 2015-01-27 2018-06-12 Qualcomm Incorporated Adaptive cross component residual prediction
US20160234498A1 (en) * 2015-02-05 2016-08-11 Sharp Laboratories Of America, Inc. Methods and systems for palette table coding
US10057574B2 (en) 2015-02-11 2018-08-21 Qualcomm Incorporated Coding tree unit (CTU) level adaptive loop filter (ALF)
CN107439012B (zh) 2015-04-06 2018-09-25 杜比实验室特许公司 用于环内转换的方法、装置和计算机可读存储介质
EP3298785A4 (en) 2015-06-03 2019-02-13 MediaTek Inc. METHOD AND APPARATUS FOR RESOURCE SHARING BETWEEN INTRA BLOCK COPY MODE AND INTER-PREDICTION MODE IN VIDEO CODING SYSTEMS
GB2539211A (en) 2015-06-08 2016-12-14 Canon Kk Enhanced coding and decoding using intra block copy mode
WO2016197314A1 (en) * 2015-06-09 2016-12-15 Microsoft Technology Licensing, Llc Robust encoding/decoding of escape-coded pixels in palette mode
US10652588B2 (en) 2015-09-21 2020-05-12 Vid Scale, Inc. Inverse reshaping for high dynamic range video coding
US20170105014A1 (en) 2015-10-08 2017-04-13 Qualcomm Incorporated Luma-driven chroma scaling for high dynamic range and wide color gamut contents
KR20180058224A (ko) 2015-10-22 2018-05-31 엘지전자 주식회사 영상 코딩 시스템에서 모델링 기반 영상 디코딩 방법 및 장치
CN106937121B (zh) 2015-12-31 2021-12-10 中兴通讯股份有限公司 图像解码和编码方法、解码和编码装置、解码器及编码器
CN108605143A (zh) 2016-02-04 2018-09-28 联发科技股份有限公司 视频编码中的非局部自适应环内滤波器的方法和装置
US11032550B2 (en) 2016-02-25 2021-06-08 Mediatek Inc. Method and apparatus of video coding
US20170310969A1 (en) 2016-04-20 2017-10-26 Mediatek Inc. Image encoding method and apparatus with color space transform performed upon predictor and associated image decoding method and apparatus
CN109076219A (zh) * 2016-05-13 2018-12-21 夏普株式会社 图像解码装置以及图像编码装置
EP3244616A1 (en) 2016-05-13 2017-11-15 Thomson Licensing A method for encoding an input video comprising a luma component and two chroma components, the method comprising reshaping of said input video based on reshaping functions
JP6846442B2 (ja) * 2016-05-19 2021-03-24 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ画像のためのクロマ再構成
EP3459248A1 (en) 2016-05-19 2019-03-27 Dolby Laboratories Licensing Corporation Chroma reshaping for high dynamic range images
ES2935261T3 (es) * 2016-05-28 2023-03-03 Hfi Innovation Inc Método y aparato de codificación de modo de paleta para datos de video de color
CN113452999B (zh) 2016-07-22 2023-12-05 夏普株式会社 使用自适应分量缩放对视频数据进行编码的系统和方法
WO2018044803A1 (en) 2016-08-30 2018-03-08 Dolby Laboratories Licensing Corporation Real-time reshaping of single-layer backwards-compatible codec
EP3510772B1 (en) * 2016-09-09 2020-12-09 Dolby Laboratories Licensing Corporation Coding of high dynamic range video using segment-based reshaping
US10652575B2 (en) 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
JP6798015B2 (ja) 2016-09-30 2020-12-09 エルジー エレクトロニクス インコーポレイティド 画像コーディングシステムにおけるブロック分割及びイントラ予測方法並びに装置
EP3529986A1 (en) * 2016-12-23 2019-08-28 Huawei Technologies Co., Ltd. Low complexity mixed domain collaborative in-loop filter for lossy video coding
US10506230B2 (en) 2017-01-04 2019-12-10 Qualcomm Incorporated Modified adaptive loop filter temporal prediction for temporal scalability support
US11025903B2 (en) 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
US10694181B2 (en) 2017-01-27 2020-06-23 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity
US11310532B2 (en) * 2017-02-24 2022-04-19 Interdigital Vc Holdings, Inc. Method and device for reconstructing image data from decoded image data
US10735761B2 (en) 2017-05-19 2020-08-04 Mediatek Inc Method and apparatus of video coding
US10602180B2 (en) * 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
US20190007699A1 (en) 2017-06-28 2019-01-03 Futurewei Technologies, Inc. Decoder Side Motion Vector Derivation in Video Coding
US10757442B2 (en) 2017-07-05 2020-08-25 Qualcomm Incorporated Partial reconstruction based template matching for motion vector derivation
CN107360433B (zh) 2017-07-20 2020-06-19 北京奇艺世纪科技有限公司 一种帧间预测编码方法和装置
US20200322606A1 (en) 2017-10-24 2020-10-08 Sharp Kabushiki Kaisha Systems and methods for determining quantization parameter predictive values
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
KR102487032B1 (ko) 2018-02-14 2023-01-11 돌비 레버러토리즈 라이쎈싱 코오포레이션 레이트 왜곡 최적화를 이용한 비디오 코딩에서의 이미지 재성형
US10757428B2 (en) 2018-10-10 2020-08-25 Apple Inc. Luma and chroma reshaping of HDR video encoding
WO2020085235A1 (ja) 2018-10-22 2020-04-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2020086421A1 (en) 2018-10-25 2020-04-30 Interdigital Vc Holdings, Inc. Video encoding and decoding using block-based in-loop reshaping
US11122264B2 (en) 2018-12-06 2021-09-14 Qualcomm Incorporated Adaptive loop filter (ALF) coefficients in video coding
WO2020142186A1 (en) 2019-01-04 2020-07-09 Interdigital Vc Holdings, Inc. Inverse mapping simplification
MX2021008911A (es) 2019-02-01 2021-08-24 Beijing Bytedance Network Tech Co Ltd Se?alizacion de informacion de reformacion en bucle utilizando conjuntos de parametros.
WO2020156528A1 (en) 2019-02-01 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Filtering processes based on in-loop reshaping
CN113545064B (zh) * 2019-03-04 2024-05-10 阿里巴巴集团控股有限公司 用于处理视频内容的方法和装置及计算机可读存储介质
US10742972B1 (en) 2019-03-08 2020-08-11 Tencent America LLC Merge list construction in triangular prediction
CN113574889B (zh) 2019-03-14 2024-01-12 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
CN113632469B (zh) 2019-03-23 2022-12-13 北京字节跳动网络技术有限公司 默认的环内整形参数
US11388406B2 (en) * 2019-05-20 2022-07-12 Dolby Laboratories Licensing Corporation Piece-wise-linear mapping for in-loop reshaping in image coding
US11509938B2 (en) 2019-11-05 2022-11-22 Hfi Innovation Inc. Method and apparatus of signaling subpicture information in video coding
US20210168406A1 (en) 2019-11-29 2021-06-03 Tencent America LLC Signaling of video coding tools supporting various chroma formats
US11303914B2 (en) 2020-01-08 2022-04-12 Tencent America LLC Method and apparatus for video coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017019818A1 (en) 2015-07-28 2017-02-02 Vid Scale, Inc. High dynamic range video coding architectures with multiple operating modes
WO2017165494A2 (en) 2016-03-23 2017-09-28 Dolby Laboratories Licensing Corporation Encoding and decoding reversible production-quality single-layer video signals
WO2019006300A1 (en) 2017-06-29 2019-01-03 Dolby Laboratories Licensing Corporation INTEGRATED IMAGE REMODELING AND VIDEO CODING

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Taoran Lu, et al.,CE12: Mapping functions (test CE12-1 and CE12-2),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M0427-v2,13th Meeting: Marrakech, MA,2019年01月,pp.1-15
Taoran Lu, et al.,CE12-related: Universal low complexity reshaper for SDR and HDR video,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-L0247-v2,12th Meeting: Macao, CN,2018年10月,pp.1-10
Yan Ye, Jie Chen, and Ruling Liao,On luma mapping with chroma scaling,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0477-v3,14th Meeting: Geneva, CH,2019年03月,pp.1-3
Ye-Kui Wang, Hendry, and Jianle Chen,AHG17: On header parameter set (HPS),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M0132-v2,13th Meeting: Marrakech, MA,2019年01月,pp.1-4

Also Published As

Publication number Publication date
CN117768642A (zh) 2024-03-26
EP3906681A1 (en) 2021-11-10
JP2022518848A (ja) 2022-03-16
US11343505B2 (en) 2022-05-24
KR20240005124A (ko) 2024-01-11
JP2023095995A (ja) 2023-07-06
AU2020214946A1 (en) 2021-08-26
JP2022518909A (ja) 2022-03-17
CN113383547A (zh) 2021-09-10
KR20210118399A (ko) 2021-09-30
KR102617221B1 (ko) 2023-12-27
CN113396582A (zh) 2021-09-14
US20220030267A1 (en) 2022-01-27
SG11202107760PA (en) 2021-08-30
CN113424543A (zh) 2021-09-21
MX2021008911A (es) 2021-08-24
CA3128424C (en) 2024-04-16
JP7279172B2 (ja) 2023-05-22
ZA202105195B (en) 2023-01-25
US20230048864A1 (en) 2023-02-16
CA3127136A1 (en) 2020-08-06
MX2021008916A (es) 2021-08-24
AU2020214946B2 (en) 2023-06-08
EP3900344A1 (en) 2021-10-27
EP3900362A1 (en) 2021-10-27
US11558636B2 (en) 2023-01-17
US20210281876A1 (en) 2021-09-09
BR112021014620A2 (pt) 2021-10-05
ZA202105404B (en) 2023-01-25
US11394995B2 (en) 2022-07-19
EP3906681A4 (en) 2022-06-01
CN113366841A (zh) 2021-09-07
JP2022517683A (ja) 2022-03-09
JP7199550B2 (ja) 2023-01-05
KR20210118400A (ko) 2021-09-30
KR20210118401A (ko) 2021-09-30
CA3128424A1 (en) 2020-08-06
EP3900362A4 (en) 2022-03-02
EP3900344A4 (en) 2022-04-06
CN113396582B (zh) 2024-03-08
SG11202108207SA (en) 2021-08-30
BR112021014202A2 (pt) 2021-09-21
CN113424543B (zh) 2024-03-15
US20210314572A1 (en) 2021-10-07

Similar Documents

Publication Publication Date Title
JP7199552B2 (ja) ビデオコーディングのためのルーマ依存クロマ残差スケーリングの設定
AU2020213583B2 (en) Signaling of in-loop reshaping information using parameter sets
US20210321121A1 (en) Signaling and syntax for in-loop reshaping information
JP7277599B2 (ja) 映像処理におけるモデルベース再整形に対する制約
JP7417624B2 (ja) 適応ループフィルタリングパラメータセットに対する制限
RU2808682C2 (ru) Передача сигнализации с информацией о внутриконтурном переформировании с использованием набора параметров
RU2806282C2 (ru) Взаимодействие между внутриконтурным переформированием и инструментами для межкадрового кодирования
WO2020182219A1 (en) Signaling and syntax for in-loop reshaping information

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221220

R150 Certificate of patent or registration of utility model

Ref document number: 7199552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150