JP7529848B2 - 映像処理におけるモデルベース再整形に対する制約 - Google Patents

映像処理におけるモデルベース再整形に対する制約 Download PDF

Info

Publication number
JP7529848B2
JP7529848B2 JP2023075959A JP2023075959A JP7529848B2 JP 7529848 B2 JP7529848 B2 JP 7529848B2 JP 2023075959 A JP2023075959 A JP 2023075959A JP 2023075959 A JP2023075959 A JP 2023075959A JP 7529848 B2 JP7529848 B2 JP 7529848B2
Authority
JP
Japan
Prior art keywords
video
current
picture
image
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023075959A
Other languages
English (en)
Other versions
JP2023090865A (ja
Inventor
ザン,カイ
ザン,リー
リュウ,ホンビン
ワン,ユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2023090865A publication Critical patent/JP2023090865A/ja
Application granted granted Critical
Publication of JP7529848B2 publication Critical patent/JP7529848B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Color Television Systems (AREA)
  • Studio Circuits (AREA)

Description

この出願は、特願2021-551760の分割出願であり、それは、2019年3月8日に出願された国際特許出願第PCT/CN2019/077429号の優先権及び利益を主張するものである2020年3月9日に出願された国際特許出願PCT/CN2020/078388号に基づく。上記特許出願の全てをそれらの全体にてここに援用する。
この特許文書は、映像符号化技術、装置及びシステムに関する。
現在、より良い圧縮比を提供するため、又はより低い複雑さ若しくは並列化実装を可能にする映像符号化及び復号スキームを提供するために、現行のビデオコーデック技術の性能を向上させるための努力が進められている。産業界の専門家が最近、幾つかの新しい映像符号化ツールを提案しており、それらの有効性を判定するためのテストが現在進行中である。
デジタル映像符号化、特に、量子化ステップの信号伝達、及びブロックベースのインループ再整形(リシェイピング)の映像符号化における他のツールとの相互作用、に関連する装置、システム及び方法が記述される。これは、HEVCのような既存の映像符号化標準、又は成立される標準(バーサタイルビデオコーディング)に適用され得る。これは、将来の映像符号化標準又はビデオコーデックにも適用可能であり得る。
代表的な一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、映像の映像領域の複数の映像ユニットと該複数の映像ユニットの符号化表現との間での変換のために、該複数の映像ユニットによって共有される再整形モデル情報を決定するステップと、前記映像の符号化表現と前記映像との間で変換を実行するステップと、を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおいて映像サンプルを構築するための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供する。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間での変換のために、再整形モデル情報内の変数の値を前記映像のビット深度の関数として決定するステップと、該決定に基づいて前記変換を実行するステップと、を含み、前記再整形モデル情報は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能であり、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供する。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を含み、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける映像ユニットの表現に基づく映像領域の前記映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、初期化ルールに基づいて初期化されている。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間での変換のために、インループ再整形(ILR)を有効にすべきか無効にすべきかを決定するステップと、該決定に基づいて前記変換を実行するステップと、を含み、前記符号化表現は、1つ以上の映像領域の一部の前記ILRに適用可能な再整形モデル情報を含み、該再整形モデル情報は、第1のドメイン及び第2のドメインに基づく映像領域の再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記決定は、前記再整形モデル情報が初期化されない場合に前記ILRを無効にすると決定する。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を含み、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインに基づく映像領域の前記映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、前記映像領域が特定の符号化タイプを用いて符号化される場合にのみ前記符号化表現に含められる。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、映像の第1の映像領域と該第1の映像領域の符号化表現との間での変換のために、第2の映像領域からの再整形情報が前記変換に使用可能であるかをルールに基づいて決定するステップと、該決定に従って前記変換を実行するステップと、を含む。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、映像の現在映像領域と該現在映像領域の符号化表現との間で、前記現在映像領域が特定の符号化タイプを用いて符号化されるように、変換を実行するステップ、を含み、前記符号化表現は、映像領域レベルでの前記符号化表現内のフラグの値に条件付きで基づいて前記符号化表現内に再整形モデル情報を規定するフォーマットルールに準拠する。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を含み、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、許容最大ビンインデックスと前記再構成で使用される最大ビンインデックスとの間の差を規定する構文要素を含むパラメータセットを有し、前記パラメータはある範囲内にある。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を含み、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、前記再構成で使用される最大ビンインデックスを含むパラメータセットを有し、前記最大ビンインデックスは、前記再構成で使用される最小ビンインデックスと、符号なし整数であって前記最小ビンインデックスの後に信号伝達される構文要素と、の和に等しい第1の値として導出される。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を含み、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、絶対デルタコードワード値を規定する第2の構文要素を表すのに使用されるビット数を対応するビンから導出する第1の構文要素を含むパラメータセットを有し、前記第1の構文要素は、閾値よりも小さい値を持つ。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を含み、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、前記ILRで使用されるi番目のビンの傾きを表すi番目のパラメータであり、(i-1)番目のパラメータに基づく値を持つi番目のパラメータ、を含むパラメータセットを有し、iは正の整数である。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を含み、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記ILRに使用される前記再整形モデル情報は、信号伝達されないreshape_model_bin_delta_sign_CW[i]を含むパラメータセットを有し、RspDeltaCW[i]=reshape_model_bin_delta_abs_CW[i]は常に正の数である。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を含み、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、前記映像領域のカラーフォーマットに応じて前記スケーリングにルマ値を使用するためのパラメータinvAvgLumaを含むパラメータセットを有する。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、映像の現在映像ブロックと前記映像の符号化表現との間で変換を実行するステップ、を含み、前記変換は、再構成ピクチャルマサンプルを修正再構成ピクチャルマサンプルへと変換するピクチャ逆マッピングプロセスを含み、前記ピクチャ逆マッピングプロセスは、上限及び下限が互いに別々に設定されるクリッピングを含む。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を含み、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、Pivot[i]<=Tであるように制約されたピボット量を含むパラメータセットを有する。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を含み、前記符号化表現は、インループ再整形(ILR)に適用可能な情報を含むとともに、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするためのパラメータを提供し、クロマ量子化パラメータ(QP)が、各ブロック又は各変換ユニットに対して値が導出されるオフセットを有する。
代表的な他の一態様において、開示される技術は、映像処理のための方法を提供するために使用され得る。この方法は、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を含み、前記符号化表現は、インループ再整形(ILR)に適用可能な情報を含むとともに、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするためのパラメータを提供し、ルマ量子化パラメータ(QP)が、各ブロック又は各変換ユニットに対して値が導出されるオフセットを有する。
上で開示した方法のうちの1つ以上は、エンコーダ側の実装又はデコーダ側の実装とすることができる。
さらに、代表的な一態様において、プロセッサと、命令を有する非一時的なメモリと、を有する映像システム内の装置が開示される。前記命令は、前記プロセッサによって実行されると、前記プロセッサに、開示される方法のうちの1つ以上を実行させる。
また、非一時的なコンピュータ読み取り可能媒体に格納されたコンピュータプログラムプロダクトであって、開示される方法のうちの1つ以上を実行するためのプログラムコードを含むコンピュータプログラムプロダクトが開示される。
開示される技術の上述の及び他の態様及び特徴が、図面、明細書、及び特許請求の範囲に更に詳細に記載される。
マージ候補リストを構築することの一例を示している。 空間候補の位置の一例を示している。 空間マージ候補の冗長性検査にかけられる候補ペアの一例を示している。 図4A及び図4Bは、現在ブロックのサイズ及び形状に基づく第2の予測ユニット(PU)の位置の例を示している。 図4A及び図4Bは、現在ブロックのサイズ及び形状に基づく第2の予測ユニット(PU)の位置の例を示している。 時間マージ候補に対する動きベクトルスケーリングの一例を示している。 時間マージ候補についての候補位置の一例を示している。 結合双予測マージ候補を生成することの一例を示している。 動きベクトル予測候補を構築することの一例を示している。 空間動きベクトル候補に対する動きベクトルスケーリングの一例を示している。 代替的時間動きベクトル予測(ATMVP)を用いる動き予測の一例を示している。 空間時間動きベクトル予測の一例を示している。 局所照明補正パラメータを導出するための隣接サンプルの一例を示している。 4パラメータアフィンモデルに関連する図を示している。 6パラメータアフィンモデルに関連する図を示している。 サブブロックごとのアフィン動きベクトル場の一例を示している。 4パラメータアフィンモデルの一例を示している。 6パラメータアフィンモデルの一例を示している。 継承アフィン候補に対するアフィンインターモードのための動きベクトル予測の一例を示している。 構築アフィン候補に対するアフィンインターモードのための動きベクトル予測の一例を示している。 アフィンマージモードに関連する図を示している。 アフィンマージモードに関連する図を示している。 アフィンマージモードに関する候補位置の例を示している。 最終動きベクトル表現(UMVE)探索プロセスの一例を示している。 UMVE探索点の一例を示している。 デコーダ側動きベクトル精緻化(DMVR)の一例を示している。 再整形ステップを用いた復号のブロック図フローチャートを示している。 バイラテラルフィルタにおけるサンプルの例を示している。 重み計算に利用される被ウィンドウサンプルの例を示している。 走査パターン例を示している。 図27A及び27Bは、本文書に記載されるビジュアルメディア処理を実装するためのハードウェアプラットフォームの例のブロック図である。 図27A及び27Bは、本文書に記載されるビジュアルメディア処理を実装するためのハードウェアプラットフォームの例のブロック図である。 図28A-28Eは、開示される技術の一部実装に基づく映像処理のための方法例のフローチャートを示している。 図28A-28Eは、開示される技術の一部実装に基づく映像処理のための方法例のフローチャートを示している。 図28A-28Eは、開示される技術の一部実装に基づく映像処理のための方法例のフローチャートを示している。 図28A-28Eは、開示される技術の一部実装に基づく映像処理のための方法例のフローチャートを示している。 図28A-28Eは、開示される技術の一部実装に基づく映像処理のための方法例のフローチャートを示している。
1. HEVC/H.265における映像符号化
映像符号化標準は、主に、周知のITU-T及びISO/IEC標準の開発を通じて発展してきた。ITU-TがH.261及びH.263を作成し、ISO/IECがMPEG-1及びMPEG-4 Visualを作成出し、そして、これら2つの組織が共同で、H.262/MPEG-2 Video及びH.264/MPEG-4 AVC(Advanced Video Coding)及びH.265/HEVC標準を作成した。H.262以来、映像符号化標準は、時間予測に加えて変換符号化が利用されるハイブリッド映像符号化構造に基づいている。HEVCの先の将来の映像符号化技術を探求するため、2015年にVCEGとMPEGが共同でJVET(Joint Video Exploration Team)を設立した。それ以来、数多くの新しい方法が、JVETによって採用され、共同探索モデルJEM(Joint Exploration Model)と名付けられたリファレンスソフトウェアに入れられてきた。2018年4月には、HEVCと比較して50%のビットレート低減を目指すVVC標準に取り組むべく、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)との間でJVET(Joint Video Expert Team)を発足させた。VVCドラフトの最新版、すなわち、バーサタイルビデオコーディング(ドラフト2)は、http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/11_Ljubljana/wg11/JVET-K1001-v7.zipにて見つけることができ、VTMと呼ばれるVVCの最新リファレンスソフトウェアは、https://vcgit.hhi.fraunhofer.de/jvet/VVCSoftware_VTM/tags/VTM-2.1にて見つけることができる。
2.1 HEVC/H.265におけるインター予測
インター予測による各PUは、1つ又は2つの参照ピクチャリストに関する動きパラメータを有する。動きパラメータは、動きベクトル及び参照ピクチャインデックスを含む。2つの参照ピクチャリストのうちの1つの使用がまた、inter_pred_idcを用いて信号伝達され得る。動きベクトルは、予測子に対するデルタとして明示的に符号化され得る。
CUがスキップモードで符号化される場合、そのCUに1つのPUが関連付けられ、有意な残差係数は存在せず、符号化された動きベクトルデルタ又は参照ピクチャインデックスは存在しない。マージモードが規定されており、それによれば、現在PUに関する動きパラメータが、空間候補及び時間候補を含め、隣接するPUから取得される。マージモードは、スキップモードに対してだけでなく、任意のインター予測PUに適用されることができる。マージモードに代わるものは、動きパラメータの明示的な伝送であり、それにおいては、動きベクトル(より正確には、動きベクトル予測子と比較した動きベクトル差(MVD))、各参照ピクチャリストに関する対応する参照ピクチャインデックス、及び参照ピクチャリスト使用が、PUごとに明示的に信号伝達される。このようなモードを、この開示においては、アドバンスト動きベクトル予測(Advanced motion vector prediction;AMVP)と呼ぶ。
2つの参照ピクチャリストのうちの一方が使用されることを信号伝達が指し示すとき、そのPUは、1つのブロックのサンプルから生成される。これは、“片予測(uni-prediction)”と呼ばれている。片予測は、Pスライス及びBスライスの両方で利用可能である。
それら参照ピクチャリストの両方が使用されることを信号伝達が指し示すとき、そのPUは、2つのブロックのサンプルから生成される。これは、“双予測(bi-prediction)”と呼ばれている。双予測は、Bスライスでのみ利用可能である。
以下のテキストは、HEVCにて規定されるインター予測モードについての詳細を提供するものである。マージモードから説明を始めることとする。
2.1.1. 参照ピクチャリスト
HEVCにおいて、インター予測という用語は、現在復号されているピクチャ以外の参照ピクチャのデータ要素(例えば、サンプル値又は動きベクトル)から導出される予測を表記するために使用される。H.264/AVCにおいてと同様に、ピクチャは複数の参照ピクチャから予測されることができる。インター予測に使用される参照ピクチャは、1つ以上の参照ピクチャリストに編成される。予測信号を作成するためにリスト内の参照ピクチャのうちのどれが使用されるべきかを参照インデックスが特定する。
Pスライスには、List0なる単一の参照ピクチャリストが使用され、Bスライスには、List0及びList1なる2つの参照ピクチャリストが使用される。なお、List0/1に含まれる参照ピクチャは、キャプチャ/表示順に関して過去及び将来のピクチャからであり得る。
2.1.2. マージモード
2.1.2.1. マージモードに関する候補の導出
マージモードを使用してPUが予測されるとき、マージ候補リスト内のエントリを指すインデックスがビットストリームから構文解析され、動き情報を取り出すために使用される。このリストの構築は、HEVC標準に規定されており、以下の一連のステップに従って要約され得る:
・ ステップ1:初期候補導出
- ステップ1.1:空間候補導出
- ステップ1.2:空間候補に関する冗長性検査
- ステップ1.3:時間候補導出
・ ステップ2:追加候補挿入
- ステップ2.1:双予測候補の作成
- ステップ2.2:ゼロ動き候補の挿入
図1にも、これらのステップを概略的に示す。空間マージ候補導出のために、5つの異なる位置にある候補の中から最大4つのマージ候補が選択される。時間マージ候補導出のために、2つの候補の中から最大1つのマージ候補が選択される。デコーダで各PUに対して一定数の候補が仮定されるので、ステップ1から得られた候補の数が、スライスヘッダ内で信号伝達されるマージ候補の最大数(MaxNumMergeCand)に達しない場合、追加候補が生成される。候補の数は一定であるので、最良のマージ候補のインデックスが、truncated unary binarization(TU)を用いて符号化される。CUのサイズが8に等しい場合、現在CUの全てのPUが、2N×2N予測ユニットのマージ候補リストと同じものである単一のマージ候補リストを共有する。
以下にて、上述のステップに関連する処理を詳述する。
2.1.2.2. 空間候補導出
空間マ2ジ候補の導出では、図2に示す位置にある候補の中から最大4つのマージ候補が選択される。導出の順序はA、B、B、A、及びBである。位置Bは、位置A、B、B、AのうちのいずれかのPUが利用可能でない場合(例えば、それが別のスライス又はタイルに属するため)又はイントラコード化される場合にのみ考慮される。位置Aの候補が追加された後、残りの候補の追加は、符号化効率が向上されるように、同じ動き情報を有する候補がリストから除外されることを保証する冗長性検査にかけられる。計算複雑性を低減させるために、前述の冗長性検査では、可能な全ての候補ペアが考慮されるわけではない。その代わりに、図3の矢印で結び付けられたペアのみが考慮され、冗長性検査に使用される対応する候補が同じ動き情報を持たない場合にのみ、候補がリストに追加される。重複動き情報の別の発生源は、2N×2Nとは異なる分割に関連する“第2のPU”である。一例として、図4A及び4Bは、それぞれ、N×2N及び2N×Nの場合の第2のPUを示している。現在PUがN×2Nに分割されるとき、Aにある候補はリスト構築に考慮されない。実際、この候補を追加することは、同じ動き情報を有する2つの予測ユニットにつながることになり、それは、符号化ユニット内に1つのみのPUを有することには冗長である。同様に、現在PUが2N×Nに分割されるとき、位置Bは考慮されない。
2.1.2.3. 時間候補導出
このステップでは、1つの候補のみがリストに追加される。特に、この時間マージ候補の導出では、所与の参照ピクチャリスト内で現在ピクチャとのPOC差が最小であるピクチャに属するコロケートPUに基づいて、スケーリングされた動きベクトルが導出される。コロケートPUの導出に使用される参照ピクチャリストは、スライスヘッダ内で明示的に信号伝達される。時間マージ候補に関するスケーリングされた動きベクトルは、図5に点線で示すようにして得られ、それは、POC距離tb及びtdを用いて、コロケートPU(col_PU)の動きベクトルからスケーリングされるものであり、ここで、tbは、現在ピクチャ(curr_pic)の参照ピクチャ(curr_ref)と現在ピクチャとの間のPOC差であると定義され、tdは、コロケートピクチャ(col_pic)の参照ピクチャ(col_ref)とコロケートピクチャとの間のPOC差であると定義される。時間マージ候補の参照ピクチャインデックスは、ゼロに等しく設定される。スケーリングプロセスの実際の具現化はHEVC仕様書に定められている。Bスライスでは、一方が参照ピクチャリスト0に関し、他方が参照ピクチャリスト1に関するものである2つの動きベクトルが得られ、これらが組み合わされて、双予測マージ候補をなす。
参照フレームに属するコロケートPU(Y)では、図6に示すように、時間候補に関する位置が、候補C及びCの間で選択される。位置CのPUが利用可能でない、又はイントラ符号化される、又は現在符号化ツリーユニット(CTU a/k/a LCU、最大符号化ユニット)行の外側にある場合、位置Cが使用される。それ以外の場合には、位置Cが時間マージ候補の導出に使用される。
2.1.2.4. 追加候補挿入
空間及び時間マージ候補の他に、結合双予測マージ候補及びゼロマージ候補という2つの更なるタイプのマージ候補が存在する。結合双予測マージ候補は、空間及び時間マージ候補を利用することによって生成される。結合双予測マージ候補はBスライスのみに使用される。結合双予測候補は、当初候補の第1の参照ピクチャリスト動きパラメータを別のものの第2の参照ピクチャリスト動きパラメータと組み合わせることによって生成される。これら2つのタプルが異なる動き仮説を提供する場合、それらは新たな双予測候補を形成する。一例として、図7は、mvL0とrefIdxL0、又はmvL1とrefIdxL1、を有するものである元のリスト(左側)内の2つの候補を用いて、最終的なリスト(右側)に追加される結合双予測マージ候補が作成される場合を示している。これらの追加マージ候補を生成するために考慮される組み合わせに関するルールが数多く存在する。
マージ候補リストの残りのエントリを埋め、それ故にMaxNumMergeCand容量に達するように、ゼロ動き候補が挿入される。これらの候補は、ゼロの空間変位と、ゼロから始まり、新たなゼロ動き候補がリストに追加される度に増加する参照ピクチャインデックスと、を有する。最後に、これらの候補に対して冗長性検査は行われない。
2.1.3. AMVP
AMVPは、隣接PUとの動きベクトルの空間-時間相関を利用し、それが動きパラメータの明示的伝送に使用される。各参照ピクチャリストに対して、先ず、左上の時間的に隣接するPU位置の利用可能性を検査し、冗長候補を除去し、そして、ゼロベクトルを追加して候補リストを一定長さにすることによって、動きベクトル候補リストが構築される。そして、エンコーダは、候補リストから最良の予測子を選択し、選択した候補を指し示す対応するインデックスを送信することができる。同様に、マージインデックス信号伝達では、最良の動きベクトル候補のインデックスがtruncated unaryを用いて符号化される。この場合に符号化される最大値は2である(例えば、図8を参照)。以下のセクションにて、動きベクトル予測候補の導出プロセスの詳細を提供する。
2.1.3.1. AMVP候補の導出
図8は、動きベクトル予測候補に関する導出プロセスをまとめたものである。
動きベクトル予測では、空間動きベクトル候補及び時間動きベクトル候補の2種類の動きベクトル候補が考慮される。空間動きベクトル候補導出では、図2で示したような5つの異なる位置にある各PUの動きベクトルに基づいて、最終的に2つの動きベクトル候補が導出される。
時間動きベクトル候補導出では、2つの異なるコロケート位置に基づいて導出されるものである2つの候補から、1つの動きベクトル候補が選択される。空間-時間候補の第1のリストが作成された後、リスト内の重複した動きベクトル候補が除去される。可能性ある候補の数が2よりも多い場合、関連する参照ピクチャリスト内でその参照ピクチャインデックスが1よりも大きい動きベクトル候補がリストから削除される。空間-時間動きベクトル候補の数が2より少ない場合、追加のゼロ動きベクトル候補がリストに追加される。
2.1.3.2. 空間動きベクトル候補
空間動きベクトル候補の導出においては、図2で示したような位置にあるPUから導出されるものである5つの可能性ある候補の中の最大2つの候補が考慮され、それらの位置は動きマージの位置と同じである。現在PUの左側についての導出の順序が、A、A、及びスケーリングされたA、スケーリングされたAとして定められる。現在PUの上側についての導出の順序が、B、B、B、スケーリングされたB、スケーリングされたB、スケーリングされたBとして定められる。従って、各側について、動きベクトル候補として使用され得る4つのケースが存在し、2つのケースは空間スケーリングを使用する必要がなく、2つのケースでは空間スケーリングが使用される。それら4つの異なるケースは、以下のようにまとめられる:
・ 空間スケーリングなし
- (1)同一参照ピクチャリスト、且つ同一参照ピクチャインデックス(同一POC)
- (2)異なる参照ピクチャリスト、しかし、同一参照ピクチャ(同一POC)
・ 空間スケーリング
- (3)同一参照ピクチャリスト、しかし、異なる参照ピクチャ(異なるPOC)
- (4)異なる参照ピクチャリスト、且つ異なる参照ピクチャ(異なるPOC)
空間スケーリングなしのケースが最初に検査され、空間スケーリングが続く。空間スケーリングは、参照ピクチャリストにかかわらず、隣接PUの参照ピクチャと現在PUの参照ピクチャとの間でPOCが異なる場合に考慮される。左候補の全てのPUが利用可能でない又はイントラ符号化される場合、左及び上のMV候補の並列導出を助けるために、上の動きベクトルに対するスケーリングが可能にされる。それ以外の場合には、上の動きベクトルに対して空間スケーリングは可能にされない。
空間スケーリングプロセスでは、図9として示すように、隣接PUの動きベクトルが、時間スケーリングに関してと同様のやり方でスケーリングされる。主な違いは、参照ピクチャリスト及び現在PUのインデックスが入力として与えられることであり、実際のスケーリングプロセスは時間スケーリングのそれと同じである。
2.1.3.3. 時間動きベクトル候補
参照ピクチャインデックスの導出は別にして、時間マージ候補の導出のための全てのプロセスは、空間動きベクトル候補の導出に関してと同じである(図6を参照)。参照ピクチャインデックスがデコーダに信号伝達される。
2.2. JEMにおけるサブCUベース動きベクトル予測方法
QTBTを用いるJEMでは、各CUが、各予測方向に対して最大1セットの動きパラメータを持つことができる。エンコーダにおいて、大きなCUを複数のサブCUに分割し、大きなCUの全てのサブCUに対して動き情報を導出することによって、2つのサブCUレベルの動きベクトル予測方法が考慮される。代替的時間動きベクトル予測(alternative temporal motion vector prediction;ATMVP)法は、各CUが、コロケート参照ピクチャ内の現在CUよりも小さい複数のブロックから複数セットの動き情報をフェッチすることを可能にする。空間-時間動きベクトル予測(STMVP)法では、サブCUの動きベクトルが、時間動きベクトル予測子と空間隣接動きベクトルとを用いることによって再帰的に導出される。
サブCU動き予測のためにより正確な動き場を保存するために、参照フレームに対する動き圧縮が現在無効にされる。
2.2.1. 代替的時間動きベクトル予測
図10は、代替的時間動きベクトル予測(ATMVP)法の一例を示している。代替的時間動きベクトル予測(ATMVP)法では、動きベクトルの時間動きベクトル予測(temporal motion vector prediction;TMVP)が、現在CUよりも小さい複数のブロックから複数セットの動き情報(動きベクトル及び参照インデックスを含む)をフェッチすることによって修正される。サブCUは、正方形のN×Nブロックである(Nはデフォルトで4に設定される)。
ATMVPは、CU内の複数のサブCUの動きベクトルを2ステップで予測する。第1ステップは、いわゆる時間ベクトルを用いて参照ピクチャ内の対応するブロックを特定することである。参照ピクチャ1050は、モーションソースピクチャとも呼ばれる。第2ステップは、現在CU1000をサブCU1001へと分割し、各サブCUに対応するブロックから、各サブCUの動きベクトル及び参照インデックスを取得することである。
第1ステップにて、参照ピクチャ及び対応するブロックが、現在CUの空間隣接ブロックの動き情報によって決定される。隣接ブロックの繰り返し走査処理を回避するために、現在CUのマージ候補リスト内の最初のマージ候補が使用される。第1の利用可能な動きベクトル及びそれに関連する参照インデックスが、モーションソースピクチャへの時間ベクトル及びインデックスであるように設定される。斯くして、ATMVPでは、対応するブロックを、TMVPと比較して、より正確に特定することでき、対応するブロック(同一位置のブロックと呼ばれることもある)は常に現在CUに対して右下又は中央の位置にある。
第2ステップにて、現在CUの座標に時間ベクトルを足し合わせることによって、サブCUの対応するブロックが、モーションソースピクチャ内の時間ベクトルによって特定される。各サブCUについて、対応するブロック(中心サンプルをカバーする最小動きグリッド)の動き情報を用いて、そのサブCUに関する動き情報が導出される。対応するN×Nブロックの動き情報が特定された後、それが、HEVCのTMVPと同様にして、現在サブCUの動きベクトル及び参照インデックスに変換され、ここで、動きスケーリング及び他の手順が適用される。例えば、デコーダは、低遅延条件(すなわち、現在ピクチャの全ての参照ピクチャのPOCが、現在ピクチャのPOCよりも小さいこと)が満たされているかをチェックし、動きベクトルMVx(参照ピクチャリストXに対応する動きベクトル)を用いて、各サブCUに関する動きベクトルMVy(Xは0又は1に等しく、Yは1-Xに等しい)を予測し得る。
2.2.2. 空間-時間動きベクトル予測(STMVP)
この方法では、サブCUの動きベクトルが、ラスタ走査順に従って再帰的に導出される。図11は、この概念を示している。4つの4×4のサブCU A、B、C、及びDを含む8×8のCUを考える。現在フレーム内の隣接する4×4のブロックを、a、b、c、及びdとラベル付ける。
サブCU Aに対する動き導出は、それの2つの空間的に隣接するものを特定することによって開始する。隣接する第1のものは、サブCU Aの上のN×Nブロック(ブロックc)である。このブロックcが利用可能でない又はイントラ符号化される場合、サブCU Aの上の他のN×Nブロックが検査される(ブロックcから始めて左から右へ)。隣接する第2のものは、サブCU Aの左のブロック(ブロックb)である。ブロックbが利用可能でない又はイントラ符号化される場合、サブCU Aの左の他のブロックが検査される(ブロックbから始めて上から下へ)。各リストについてこれら隣接ブロックから得られた動き情報が、所与のリストについての最初の参照フレームに対してスケーリングされる。次に、サブブロックAの時間動きベクトル予測子(temporal motion vector predictor;TMVP)が、HEVCで規定されるのと同じTMVP導出手順に従うことによって導出される。位置Dのコロケートブロックの動き情報が、然るべくフェッチされてスケーリングされる。最後に、動き情報を取り出してスケーリングした後に、全ての利用可能な動きベクトル(最大3つ)が、各参照リストについて別々に平均化される。平均化された動きベクトルが、現在サブCUの動きベクトルとして割り当てられる。
2.2.3. サブCU動き予測モード信号伝達
サブCUモードは、追加のマージ候補として有効にされ、これらのモードを信号伝達するのに追加の構文要素は必要とされない。ATMVPモード及びSTMVPモードを表すために、各CUのマージ候補リストに2つの追加マージ候補が加えられる。シーケンスパラメータセットがATMVP及びSTMVPが有効にされることを指し示す場合に、最大7つのマージ候補が使用される。これら追加マージ候補の符号化論理は、HMにおけるマージ候補に関してと同じであり、これは、Pスライス又はBスライス内の各CUについて、2つの追加マージ候補に対して2つの更なるRD検査が必要とされることを意味する。
JEMでは、マージインデックスの全てのビンが、CABACによってコンテキスト符号化される。一方、HEVCでは、最初のビンのみがコンテキスト符号化され、残りのビンはコンテキストバイパス符号化される。
2.3. JEMにおける局所照明補償
局所照明補償(Local Illumination Compensation;LIC)は、スケーリング係数aとオフセットbを用いた、照明変化に関する線形モデルに基づく。また、それは、インターモード符号化される符号化ユニット(CU)ごとに適応的に有効又は無効にされる。
LICがCUに適用される場合、現在CUの隣接サンプル及びそれらの対応する参照サンプルを用いることによってパラメータa及びbを導出するために、最小二乗誤差法が採用される。より具体的には、図12に例示するように、CUのサブサンプリング(2:1サブサンプリング)された隣接サンプルと、参照ピクチャ内の対応するサンプル(現在CU又は現在サブCUの動き情報によって特定される)とが使用される。
2.3.1. 予測ブロックの導出
各予測方向について別々にICパラメータが導出されて適用される。各予測方向に対して、復号された動き情報を用いて第1の予測ブロックを生成され、次いで、LICモデルを適用することにより時間予測ブロックが取得される。その後、2つの時間予測ブロックを用いて最終的な予測ブロックが導出される。
CUがマージモードで符号化される場合、マージモードにおける動き情報コピーと同様のやり方で、LICフラグが隣接ブロックからコピーされ、それ以外の場合には、CUについて、LICが適用されるか否かを指し示すために、LICフラグが信号伝達される。
LICがピクチャに対して有効にされる場合、CUにLICが適用されるか否かを決定するために追加のCUレベルのRDチェックが必要とされる。LICがCUに対して有効にされる場合、整数ピクセル動き探索及び分数ピクセル動き探索のために、それぞれ、絶対差の平均除去和(mean-removed sum of absolute difference;MR-SAD)及び絶対アダマール変換差の平均除去和(mean-removed sum of absolute Hadamard-transformed difference;MR-SATD)が、SAD及びSATDの代わりに使用される。
符号化の複雑さを低減させるために、JEMでは符号化スキームが適用される:
・ 現在ピクチャとその参照ピクチャとの間に明白な照明変化がないときにはピクチャ全体に対してLICが無効にされる。この状況を特定するために、現在ピクチャのヒストグラム及び現在ピクチャの全ての参照ピクチャのヒストグラムがエンコーダで計算される。現在ピクチャと現在ピクチャの全ての参照ピクチャとの間でヒストグラム差が所与の閾値より小さい場合、現在ピクチャに対してLICが無効にされ、それ以外の場合には、現在ピクチャに対してLICが有効にされる。
2.4. VVCにおけるインター予測方法
例えば、MVDを信号伝達するための適応動きベクトル差レゾリューション(Adaptive motion vector difference resolution;AMVR)、アフィン予測モード、三角予測モード(TPM)、ATMVP、一般化双予測(GBI)、双方向オプティカルフロー(BIO)などの、インター予測改良のための新たな符号化ツールが幾つか存在する。
2.4.1. VVCにおける符号化ブロック構造
VVCでは、ピクチャを正方形又は長方形のブロックに分割するために、四分木/二分木/マルチツリー(QuadTree/BinaryTree/MulitpleTree;QT/BT/TT)構造が採用されている。
QT/BT/TTの他に、VVCではIフレーム用に別個のツリー(a.k.a.デュアルコーディングツリー)も採用されている。別個のツリーでは、ルマコンポーネントとクロマコンポーネントとについて別々に符号化ブロック構造が信号伝達される。
2.4.2. 適応動きベクトル差レゾリューション
HEVCでは、スライスヘッダ内でuse_integer_mv_flagが0に等しい場合に、(動きベクトルとPUの予測動きベクトルとの間の)動きベクトル差(MVD)が、1/4ルマサンプルの単位で信号伝達される。VVCでは、局所適応動きベクトルレゾリューション(AMVR)が導入されている。VVCにおいて、MVDは、1/4ルマサンプル、整数ルマサンプル、4ルマサンプル(すなわち、1/4ペル、1ペル、4ペル)の単位で符号化されることができる。このMVD分解能は、符号化ユニット(CU)レベルで制御され、MVD分解能フラグが、少なくとも1つの非ゼロのMVD成分を持つ各CUに対して条件付きで信号伝達される。
少なくとも1つの非ゼロのMVD成分を持つCUに対して、そのCUで1/4ルマサンプルMV精度が使用されるかを指し示すために、第1のフラグが信号伝達される。1/4ルマサンプルMV精度が使用されないことを第1のフラグ(1に等しい)が指し示す場合、整数ルマサンプルMV精度又は4ルマサンプルMV精度が使用されるかを指し示すために、別のフラグが信号伝達される。
CUの第1のMVD分解能フラグがゼロである又はCUに対して符号化されない(CU内の全てのMVDがゼロであることを意味する)場合、1/4ルマサンプルMV分解能がそのCUに対して使用される。CUが整数ルマサンプルMV精度又は4ルマサンプルMV精度を使用する場合、そのCUに関するAMVP候補リスト内のMVPは、対応する精度に丸められる。
2.4.3. アフィン動き補償予測
HEVCでは、動き補償予測(motion compensation prediction;MCP)に並進動きモデルのみが適用されている。一方、現実世界では、例えばズームイン/アウト、回転、遠近動作、及び他の不規則な動きといった、多くの種類の動きが存在する。VVCでは、4パラメータアフィンモデル及び6パラメータアフィンモデルを用いて、簡略化されたアフィン変換動き補償予測が適用されている。図13A及び13Bに示すように、ブロックのアフィン動き場が、4パラメータアフィンモデルでは2つの制御点動きベクトル(CPMV)、そして6パラメータアフィンモデルでは3つのCPMVによって記述される。
ブロックの動きベクトル場(motion vector field;MVF)は、4パラメータアフィンモデル(4つのパラメータが変数a、b、e及びfとして規定される)では式(1)、そして6パラメータアフィンモデル(6つのパラメータが変数a、b、c、d、e及びfとして規定される)では式(2)の次式:
Figure 0007529848000001
によって記述され、ここで、(mv ,mv )は、左上角の制御点の動きベクトルであり、(mv ,mv )は、右上角の制御点の動きベクトルであり、(mv ,mv )は左下角の制御点の動きベクトルであり、これら3つの動きベクトルの全てを制御点動きベクトル(CPMV)と呼び、(x,y)は、現在ブロック内の左上サンプルに対する代表点の座標を表し、(mv(x,y),mv(x,y))は、(x,y)にあるサンプルに関して導出される動きベクトルである。CP動きベクトルは、(アフィンAMVPモードにおいてのように)信号伝達されるか、あるいは、(アフィンマージモードにおいてのように)オンザフライで導出されるかし得る。w及びhは、現在ブロックの幅及び高さである。実際には、除算は、丸め演算を用いた右シフトによって実行される。VTMでは、代表点は、サブブロックの中心位置であると定められ、例えば、現在ブロック内の左上のサンプルに対するサブブロックの左上角の座標が(xs,ys)であるとき、代表点の座標は(xs+2,ys+2)であると定められる。各サブブロック(すなわち、VTMでは4×4)に対して、代表点を使用して、サブブロック全体の動きベクトルを導出する。
動き補償予測を更に単純化するために、サブブロックベースのアフィン変換予測が適用される。各M×Nサブブロック(現行VVCではM及びNはどちらも4に設定される)の動きベクトルを導出するため、図14に示すように、各サブブロックの中心サンプルの動きベクトルが、式(1)及び(2)に従って計算され、1/16の分数精度に丸められる。次いで、1/16ペル用の動き補償補間フィルタを適用して、導出された動きベクトルを有する各サブブロックの予測を生成する。1/16ペル用の補間フィルタはアフィンモードによって導入される。
MCPの後、各サブブロックの高精度動きベクトルが丸められ、通常動きベクトルと同じ精度で保存される。
2.4.3.1. アフィン予測の信号伝達
並進動きモデルと同様に、アフィン予測によるサイド情報を信号伝達することには、やはり2つのモードが存在する。それらは、AFFINE_INTERモード及びAFFINE_MERGEモードである。
2.4.3.2. AF_INTERモード
幅及び高さの両方が8よりも大きいCUに対して、AF_INTERモードを適用することができる。AF_INTERモードが使用されるかを指し示すために、CUレベルでのアフィンフラグがビットストリーム内で信号伝達される。
このモードでは、各参照ピクチャリスト(List0又はList1)に対して、アフィンAMVP候補リストが、3種類のアフィン動き予測子を以下の順に有して構築され、各候補が、現在ブロックの推定CPMVを含む。エンコーダ側で見出される最良のCPMV(例えば図17中のmv mv mvなど)と推定CPMVとの差が信号伝達される。加えて、それから推定CPMVが導出されたアフィンAMVP候補のインデックスが更に信号伝達される。
1) 継承(inherited)アフィン動き予測子
検査順序は、HEVC AMVPリスト構築における空間MVPのそれと同様である。第一に、左の継承アフィン動き予測子が、アフィン符号化され且つ現在ブロックにおいてと同じ参照ピクチャを持つ{A1,A0}内の最初のブロックから導出される。第二に、上の継承アフィン動き予測子が、アフィン符号化され且つ現在ブロックにおいてと同じ参照ピクチャを持つ{B1,B0,B2}内の最初のブロックから導出される。これら5つのブロックA1、A0、B1、B0、B2を図16に示す。
ある隣接ブロックがアフィンモードで符号化されることが分かると、その隣接ブロックをカバーする符号化ユニットのCPMVを用いて、現在ブロックのCPMVの予測子が導出される。例えば、A1が非アフィンモードで符号化され、A0が4パラメータアフィンモードで符号化される場合、左の継承アフィンMV予測子は、A0から導出されることになる。この場合、図18Bにおいて左上のCPMVに対してMV で表記し、右上のCPMVに対してMV で表記するような、A0をカバーするCUのCPMVを使用して、現在ブロックの左上位置(座標(x0,y0)を有する)、右上位置(座標(x1,y1)を有する)及び右下位置(座標(x2,y2)を有する)に対してMV 、MV 、MV で表記した、現在ブロックの推定CPMVが導出される。
2) 構築アフィン動き予測子
構築アフィン動き予測子は、同じ参照ピクチャを有した、図17に示すような隣接するインター符号化ブロックから導出される制御点動きベクトル(control-point motion vector;CPMV)で構成される。現在のアフィン動きモデルが4パラメータアフィンである場合、CPMVの数は2であり、そうでなく現在のアフィン動きモデルが6パラメータアフィンである場合、CPMVの数は3である。
左上CPMV:
Figure 0007529848000002
(バーmv、以下同様)
が、インター符号化され且つ現在ブロックにおいてと同じ参照ピクチャを持つグループ{A,B,C}内の最初のブロックにおけるMVによって導出される。右上CPMVであるバーmvが、インター符号化され且つ現在ブロックにおいてと同じ参照ピクチャを持つグループ{D,E}内の最初のブロックにおけるMVによって導出される。左下CPMVであるバーmvが、インター符号化され且つ現在ブロックにおいてと同じ参照ピクチャを持つグループ{F,G}内の最初のブロックにおけるMVによって導出される。
― 現在のアフィン動きモデルが4パラメータアフィンである場合、バーmv及びmvの両方が見出された場合にのみ、すなわち、現在ブロックの左上位置(座標(x0,y0)を有する)、右上位置(座標(x1,y1)を有する)に対する推定CPMVとして、バーmv及びmvが使用される場合にのみ、構築アフィン動き予測子が候補リストに挿入される。
― 現在のアフィン動きモデルが6パラメータアフィンである場合、バーmv、mv及びmvが全て見出された場合にのみ、すなわち、現在ブロックの左上位置(座標(x0,y0)を有する)、右上位置(座標(x1,y1)を有する)及び左下位置(座標(x2,y2)を有する)に対する推定CPMVとして、バーmv、mv及びmvが使用される場合にのみ、構築アフィン動き予測子が候補リストに挿入される。
構築アフィン動き予測子を候補リストに挿入するときに剪定プロセスは適用されない。
3) 通常AMVP動き予測子
アフィン動き予測子の数が最大値に達するまで、以下が適用される:
1) 利用可能である場合に全てのCPMVをバーmvに等しく設定することによって、アフィン動き予測子を導出する;
2) 利用可能である場合に全てのCPMVをバーmvに等しく設定することによって、アフィン動き予測子を導出する;
3) 利用可能である場合に全てのCPMVをバーmvに等しく設定することによって、アフィン動き予測子を導出する;
4) 利用可能である場合に全てのCPMVをHEVC TMVPに等しく設定することによって、アフィン動き予測子を導出する;
5) 全てのCPMVをゼロMVに設定することによって、アフィン動き予測子を導出する。
なお、バーmvは、構築アフィン動き予測子にて既に導出されている。
AF_INTERモードにおいて、4/6パラメータアフィンモードが使用されるとき、図15Aに示すように、2つ/3つの制御点が必要とされ、従って、それらの制御点に対して2つ/3つのMVDを符号化する必要がある。JVET-K0337において、MVを以下のように導出すること、すなわち、mvdからmvd及びmvdを予測することが提案されている:
Figure 0007529848000003
ここで、バーmv、mvd、及びmvは、それぞれ、予測動きベクトル、動きベクトル差、及び図15Bに示す左上ピクセル(i=0)、右上ピクセル(i=1)又は左下ピクセル(i=2)の動きベクトルである。留意されたいことには、2つの動きベクトル(例えば、mvA(xA,yA)及びmvB(xB,yB))の追加は、2つの成分の別々の足し合わせに等しく、すなわち、新MV=mvA+mvBであり、且つ新MVの2つの成分がそれぞれ(xA+xB)及び(yA+yB)に設定される。
2.4.3.3. AF_MERGEモード
AF_MERGEモードにおいてCUが適用されるとき、それは、有効な隣接再構成ブロックからアフィンモードで符号化された最初のブロックを取得する。そして、候補ブロックの選択順序は、図18Aに示すように、左から、上、右上、左下、左上(順に、A、B、C、D、Eで表記している)である。例えば、隣接左下ブロックが、図18BにおいてA0で表すようにアフィンモードで符号化される場合、ブロックAを含む隣接CU/PUの左上角、右上角、及び左下角の制御点(CP)動きベクトルmv 、mv 、及びmv がフェッチされる。そして、現在CU/PU上の左上/右上/左下角の動きベクトルmv 、mv 、及びmv (これは6パラメータアフィンモデルでのみ使用される)が、mv 、mv 、及びmv に基づいて算出される。なお、VTM-2.0では、現在ブロックがアフィン符号化される場合、左上角にあるサブブロック(例えば、VTMにおいて4×4ブロック)がmv0を格納し、右上角にあるサブブロックがmv1を格納する。現在ブロックが6パラメータアフィンモデルで符号化される場合、左下角にあるサブブロックがmv2を格納し、そうでない場合には(4パラメータアフィンモデルでは)、LBがmv2’を格納する。他のサブブロックは、MCに使用されるMVを格納する。
現在CUのCPMVであるmv 、mv 、及びmv が、単純化されたアフィン動きモデルの式(1)及び(2)に従って計算された後、現在CUのMVFが生成される。現在CUがAF_MERGEモードで符号化されるかを特定するために、少なくとも1つの隣接ブロックがアフィンモードで符号化される場合に、アフィンフラグをビットストリーム内で信号伝達することができる。
JVET-L0142及びJVET-L0632において、アフィンマージ候補リストは、以下のステップで構築され得る。
1) 継承アフィン候補を挿入する
継承アフィン候補は、その候補がそれの有効な隣接アフィン符号化ブロックのアフィン動きモデルから導出されることを意味する。最大2つの継承アフィン候補が、隣接ブロックのアフィン動きモデルから導出され、候補リストに挿入される。左の予測子について、走査順序は{A0,A1}であり、上の予測子について、走査順序は{B0,B1,B2}である。
2) 構築アフィン候補を挿入する
アフィンマージ候補リスト内の候補の数がMaxNumAffineCand(例えば、5)よりも少ない場合、構築アフィン候補が候補リストに挿入される。構築アフィン候補は、各制御点の隣接動き情報を組み合わせることによって構築される候補を意味する。
a)先ず、図19に示すように、制御点に関する動き情報が、特定の空間的に隣接するもの及び時間的に隣接するものから導出される。CPk(k=1,2,3,4)は、k番目の制御点を表す。A0、A1、A2、B0、B1、B2、及びB3は、CPk(k=1,2,3)を予測するための空間位置であり、Tは、CP4を予測するための時間位置である。
CP1、CP2、CP3、及びCP4の座標は、それぞれ、(0,0)、(W,0)、(H,0)、及び(W,H)であるり、ここで、W及びHは、現在ブロックの幅及び高さである。
各制御点の動き情報は、以下の優先順位に従って取得される:
- CP1について、検査優先度はB2→B3→A2である。B2が利用可能である場合、それが使用される。そうでなくB2が利用可能でない場合、B3が使用される。B2及びB3の両方が利用可能でない場合、A2が使用される。これら3つの候補が全て利用可能でない場合には、CP1の動き情報を得ることはできない;
- CP2について、検査優先度はB1->B0である;
- CP3について、検査優先度はA1->A0である;
- CP4については、Tが用いられる。
b)第二に、アフィンマージ候補を構築するために、制御点の組み合わせが使用される。
I. 6パラメータアフィン候補を構築するには、3つの制御点の動き情報が必要とされる。3つの制御点は、以下の4つの組み合わせ({CP1,CP2,CP4}、{CP1,CP2,CP3}、{CP2,CP3,CP4}、{CP1,CP3,CP4})のうちの1つから選択され得る。組み合わせ{CP1,CP2,CP3}、{CP2,CP3,CP4}、{CP1,CP3,CP4}が、左上、右上、左下の制御点によって表される6パラメータ動きモデルに変換されることになる。
II. 4パラメータアフィン候補を構築するには、2つの制御点の動き情報が必要とされる。2つの制御点は、2つの組み合わせ({CP1,CP2}、{CP1,CP3})のうちの1つから選択され得る。これら2つの組み合わせが、左上及び右上の制御点によって表される4パラメータ動きモデルに変換されることになる。
III. 構築アフィン候補の組み合わせは、次の順序で候補リストに挿入される:
{CP1,CP2,CP3}、{CP1,CP2,CP4}、{CP1,CP3,CP4}、{CP2,CP3,CP4}、{CP1,CP2}、{CP1,CP3}
i. 各組み合わせについて、各CPのリストXの参照インデックスが検査され、それらが全て同じである場合、この組み合わせはリストXに対して有効なCPMVを持つ。その組み合わせがリスト0及びリスト1の両方に対して有効なCPMVを持たない場合、この組み合わせは無効としてマークされう。そうでなければ、それは有効であり、CPMVがサブブロックマージリストに入れられる。
3) ゼロ動きベクトルでのパディング
アフィンマージ候補リスト内の候補の数が5未満である場合、リストがいっぱいになるまで、ゼロ参照インデックスを持つゼロ動きベクトルが候補リストに挿入される。
より具体的には、サブブロックマージ候補リストについて、MVを有する4パラメータマージ候補が(0,0)に設定され、予測方向がlist0(Pスライス)から片予測及び双予測(Bスライス)に設定される。
2.4.4. 動きベクトル差付きマージ(MMVD)
JVET-L0054では、最終動きベクトル表現(UMVE、これはMMVDとしても知られる)が提示されている。UMVEは、提案する動きベクトル表現法とともにスキップモード又はマージモードのいずれかに使用される。
UMVEは、VVCにおける通常のマージ候補リストに含まれるものと同じマージ候補を再利用する。マージ候補の中で、ベース候補を選択することができ、それが、提案する動きベクトル表現法によってさらに拡張される。
UMVEは、開始点と、動きの大きさと、動きの方向とを用いてMVDを表現する新たな動きベクトル差(MVD)表現法を提供する。
この提案する技術は、マージ候補リストをそのまま使用する。しかし、デフォルトのマージタイプ(MRG_TYPE_DEFAULT_N)の候補だけがUMVE拡張に関して検討される。
ベース候補インデックスが開始点を規定する。ベース候補インデックスは、次のとおり、リスト内の候補の中で最良の候補を指し示す。
Figure 0007529848000004
ベース候補の数が1に等しい場合、ベース候補IDXは信号伝達されない。
距離インデックスは、動きの大きさの情報である。距離インデックスは、開始点情報からの予め定められた距離を指し示す。予め定められた距離は次のとおりである。
Figure 0007529848000005
方向指数は、開始点に対するMVDの方向を表す。方向インデックスは、下に示す4つの方向を表すことができる。
Figure 0007529848000006
UMVEフラグは、スキップフラグ又はマージフラグを送信した直後に送信される。スキップフラグ又はマージフラグが真である場合、UMVEフラグが構文解析される。UMVEフラグが1に等しい場合、UMVE構文が構文解析される。しかし、1でない場合には、AFFINEフラグが構文解析される。AFFINEフラグが1に等しい場合、それはAFFINEモードである。しかし、1でない場合には、スキップ/マージインデックスがVTMのスキップ/マージモードのために構文解析される。
UMVE候補のための追加のラインバッファは必要でない。ソフトウェアのスキップ/マージ候補が直接的にベース候補として使用されるからである。入力UMVEインデックスを用いて、動き補償の直前にMVの補充が決定される。このために長いラインバッファを保持する必要はない。
現行の一般的なテスト条件では、マージ候補リスト内の最初のマージ候補又は2番目のマージ候補のいずれかがベース候補として選択され得る。
UMVEは、MV差付きマージ(Merge with MV Differences;MMVD)としても知られている。
2.4.5. デコーダ側動きベクトル精緻化(DMVR)
双予測演算では、1つのブロック領域の予測のために、list0の動きベクトル(MV)とlist1のMVとを用いて形成される2つの予測ブロックが結合されて単一の予測信号を形成する。デコーダ側動きベクトル精緻化(decoder-side motion vector refinement;DMVR)法においては、双予測の二つの動きベクトルが更に精緻化される。
JEM設計では、動きベクトルはバイラテラルテンプレートマッチングプロセスによって精緻化される。精緻化されたMVを追加の動き情報の伝送なし得るために、バイラテラルテンプレートと参照ピクチャ内の再構成サンプルとの間で歪ベース探索を実行するよう、デコーダにおいてバイラテラルテンプレートマッチングが適用される。一例を図22に示す。バイラテラルテンプレートは、図22に示すように、当初の、list0のMV0及びlist1のMV1からの、2つの予測ブロックの重み付けた結合(すなわち平均)として生成される。テンプレートマッチング演算は、生成されたテンプレートと参照ピクチャ内のサンプル領域(当初予測ブロック付近)との間のコスト指標を計算することからなる。2つの参照ピクチャの各々について、最小のテンプレートコストを生み出すMVが、元のMVを置き換えるためのそのリストの更新されたMVとみなされる。JEMでは、各リストに対して9つのMV候補が探索される。9つのMV候補は、元のMVと、元のMVに対して水平方向若しくは垂直方向のいずれか又は両方に1ルマサンプルのオフセットを有する8つの周囲のMVとを含む。最終的に、それら2つの新たなMV、すなわち、図22に示すMV0’及びMV1’が、最終的な双予測結果を生成するために使用される。絶対差の和(sum of absolute differences;SAD)がコスト指標として使用される。留意されたいことには、周囲の1つのMVによって生成される予測ブロックのコストを計算するとき、予測ブロックを得るために、実際には、実際のMVの代わりに(整数pelに)丸められたMVが使用される。
DMVRのプロセスを更に単純化するために、JVET-M0147はJEMにおける設計に幾つかの変更を提案した。より具体的には、VTM-4.0(間もなくリリースされる)に採用されたDMVR設計は、以下の主な特徴を有する:
・ list0とlist1との間での(0,0)位置SADを用いた早期終了
・ DMVR W×H>=64 && H>=8のブロックサイズ
・ CUサイズ>16×16のDMVRに対してCUを16×16のサブブロックに分割
・ (ルマについての)参照ブロックサイズ(W+7)×(H+7)
・ 25ポイントSADベース整数pel探索(すなわち、(±)2精緻化探索範囲、単一ステージ)
・ バイリニア補間ベースのDMVR
・ バイラテラルマッチングを可能にするlist0とlist1との間でのMVDミラーリング
・ “パラメトリック誤差表面方程式”ベースのサブペル精密化
・ 参照ブロックパディングを用いたルマ/クロマMC(必要な場合)
・ MC及びTMVPのみでの精緻化MVの使用
2.4.6. 結合イントラ・インター予測
JVET-L0100にて多重仮説(multi-hypothesis)予測が提案されており、それにおいては、結合イントラ・インター予測が、複数の仮説を生成するための1つの手法である。
イントラモードを改善するために多重仮説予測が適用される場合、多重仮説予測は、1つのイントラ予測と1つのマージインデックス予測とを組み合わせる。マージCU内で、マージモードに関して1つのフラグが信号伝達され、該フラグが真である場合にイントラ候補リストからイントラモードが選択される。ルマコンポーネントに対して、DC、プレーナ、水平、及び垂直モードを含む4つのイントラ予測モードからイントラ候補リストが導出され、イントラ候補リストのサイズは、ブロック形状に応じて3又は4とすることができる。CU幅がCU高さの2倍より大きい場合、水平モードがイントラモードリストから除外され、CU高さがCU幅の2倍より大きい場合、垂直モードがイントラモードリストから削除される。イントラモードインデックスによって選択された1つのイントラ予測モードと、マージインデックスによって選択された1つのマージインデックス予測とが、加重平均を用いて結合される。クロマコンポーネントに対しては、追加の信号伝達なしで常にDMが適用される。予測を結合するための重みは、以下のように記述される。DCモード若しくはプレーナモードが選択される場合、又はCB幅若しくは高さが4未満である場合、等しい重みが適用される。4以上のCB幅及び高さを有するCBに対しては、水平/垂直モードが選択される場合、先ず、1つのCBが垂直/水平に、4つの等面積の領域へと分割される。(w_intra,w_inter)と表記される各重みセットが、対応する領域に適用され、ここで、iは1から4までであり、(w_intra,w_inter)=(6,2)、(w_intra,w_inter)=(5,3)、(w_intra,w_inter)=(3,5)、及び(w_intra,w_inter)である。(w_intra,w_inter)が、参照サンプルに最も近い領域用であり、(w_intra,w_inter)が、参照サンプルから最も離れた領域用である。そして、これら2つの重み付けた予測を足し合わせて右に3ビットシフトすることによって、結合された予測を計算することができる。また、イントラ仮説の予測子についてのイントラ予測モードを、後続の隣接CUの参照のために保存することができる。
2.5. JVET-M0427におけるインループ再整形(ILR)
インループ再整形(in-loop reshaping;ILR)は、クロマスケーリング付きルママッピング(Luma Mapping with Chroma Scaling;LMCS)としても知られている。
インループ再整形(ILR)の基本的な考えは、元の(第1のドメイン内の)信号(予測/再構成信号)を第2のドメイン(再整形ドメイン)に変換することである。
インループルマリシェイパ(in-loop luma reshaper)が、一対のルックアップテーブル(LUT)として実装されるが、これら2つのLUTのうちの一方のみが信号伝達されればよい。何故なら、他方は、信号伝達されたLUTから計算されることができるからである。各LUTは一次元の、10ビットの、1024エントリマッピングテーブル(1D-LUT)である。一方のLUTは、入力ルマコード値Yを変更された値Y: Y=FwdLUT[Y ])にマッピングする順LUTであるFwdLUTである。他方のLUTは、変更されたコード値Yrを、
Figure 0007529848000007
にマッピングする逆LUTであるInvLUTである。なお、
Figure 0007529848000008
は、Yの再構成値を表す。
2.5.1 PWLモデル
概念的に、ピースワイズリニア(piece-wise linear;PWL)が以下のように実装される。
x1、x2を2つの入力ピボット点とし、y1、y2を1ピースの対応する出力ピボット点とする。x1とx2の間の任意の入力値xに対する出力値yを、次式:
y=((y2-y1)/(x2-x1))*(x-x1)+y1
によって補間することができる。
固定小数点実装にて、この式を:
y=((m*x+2FP_PREC-1)>>FP_PREC)+c
のように書き換えることができ、ここで、mはスカラであり、cはオフセットであり、FP_PRECは精度を規定する定数値である。
なお、CE-12ソフトウェアでは、PWLモデルは1024エントリのFwdLUT及びInvLUTマッピングテーブルを事前計算するために使用されるが、PWLモデルはまた、LUTを事前計算することなく、オンザフライで同じマッピング値を計算する実装も可能にする。
2.5.2. テストCE12-2
2.5.2.1. ルマ再整形
インループルマ再整形のテスト2(すなわち、提案書のCE12-2)は、インタースライス再構成におけるブロックごとのイントラ予測のための復号レイテンシも排除するいっそう低い複雑度のパイプラインを提供する。インタースライス及びイントラスライスの両方に対して、再整形されたドメイン(再整形ドメイン)内でイントラ予測が実行される。
イントラ予測は、スライスタイプに関係なく常に再整形ドメイン内で実行される。このような構成では、先行TUの再構成が行われた直後にイントラ予測を開始することができる。このような構成はまた、スライス依存であることに代えて、イントラモードに関する統一プロセスを提供することができる。図23は、モードに基づくCE12-2復号プロセスのブロック図を示すしている。
CE12-2はまた、CE12-1の32ピースPWLモデルに代えて、ルマ及びクロマの残差スケーリングについて16ピースのピースワイズリニア(PWL)モデルをテストする。
CE12-2におけるインループルマリシェイパを用いるインタースライス再構成(薄緑色のブロックが、再整形ドメインにおける信号:ルマ残差;予測されたイントラルマ;及び再構成されたイントラルマを示している)
2.5.2.2. ルマ依存クロマ残差スケーリング
ルマ依存クロマ残差スケーリングは、固定小数点整数演算で実装される乗法プロセスである。クロマ残差スケーリングは、クロマ信号とのルマ信号相互作用を補償する。クロマ残差スケーリングはTUレベルで適用される。より具体的には、以下が適用される:
- イントラの場合、再構成ルマが平均される。
- インターの場合、予測ルマが平均される。
その平均を用いて、PWLモデルにおけるインデックスを特定する。該インデックスはスケーリング係数cScaleInvを特定する。その数がクロマ残差に乗算される。
なお、クロマスケーリング係数は、再構成ルマ値ではなく、順マッピングされた予測ルマ値から計算される。
2.5.2.3. ILRサイド情報の信号伝達
パラメータは(現行では)タイルグループヘッダ(ALFと同様)内で送られる。伝えられているところでは、これらは40-100ビットを要する。
以下の表は、JVET-L1001の第9版に基づいている。追加される構文を、以下では、下線付きの太字のイタリック体で強調する。
7.3.2.1にて、シーケンスパラメータRBSP構文は次のように設定されることができる:
Figure 0007529848000009
Figure 0007529848000010
Figure 0007529848000011
7.3.3.1にて、ジェネラルタイルグループヘッダ構文を、次のように、下線付きの太字のイタリック体のテキストの挿入によって変更することがでる:
Figure 0007529848000012
Figure 0007529848000013
Figure 0007529848000014
新たな構文テーブルであるタイルグループリシェイパモデルを次のように追加することができる:
Figure 0007529848000015
ジェネラルシーケンスパラメータセットRBSPセマンティクスにおいて、以下のセマンティクスを追加することができる。
1に等しいsps_reshaper_enabled_flagは、符号化映像シーケンス(CVS)に対してリシェイパが使用されることを規定する。0に等しいsps_reshaper_enabled_flagは、CVSに対してリシェイパが使用されないことを規定する。
タイルグループヘッダ構文において、以下のセマンティクスを追加することができる。
1に等しいtile_group_reshaper_model_present_flagは、tile_group_reshaper_model()がタイルグループヘッダ内に存在することを規定する。0に等しいtile_group_reshaper_model_present_flagは、tile_group_reshaper_model()がタイルグループヘッダ内に存在しないことを規定する。tile_group_reshaper_model_present_flagが存在しないとき、それは0に等しいと推定される。
1に等しいtile_group_reshaper_enabled_flagは、現在タイルグループに対してリシェイパが有効にされることを規定する。0に等しいtile_group_reshaper_enabled_flagは、現在タイルグループに対してリシェイパが有効にされないことを規定する。tile_group_reshaper_enabled_flagが存在しないとき、それは0に等しいと推定される。
1に等しいtile_group_reshaper_chroma_residual_scale_flagは、現在タイルグループに対してクロマ残差スケーリングが有効にされることを規定する。0に等しいtile_group_reshaper_chroma_residual_scale_flagは、現在タイルグループに対してクロマ残差スケーリングが有効にされないことを規定する。tile_group_reshaper_chroma_residual_scale_flagが存在しないとき、それは0に等しいと推定される。
次のようにtile_group_reshaper_model()構文を追加することができる。
reshape_model_min_bin_idxは、リシェイパ構築プロセスで使用される最小ビン(又はピース)インデックスを規定する。reshape_model_min_bin_idxの値は、両端を含めて0からMaxBinIdxまでの範囲内とされる。MaxBinIdxの値は15に等しいとされる。
reshape_model_delta_max_bin_idxは、最大許容ビン(又はピース)インデックスMaxBinIdxから、リシェイパ構築プロセスで使用される最大ビンインデックスを差し引いたものを規定する。reshape_model_max_bin_idxの値は、MaxBinIdx-reshape_model_delta_max_bin_idxに等しく設定される。
reshaper_model_bin_delta_abs_cw_prec_minus1+1は、構文reshape_model_bin_delta_abs_CW[i]の表現に使用されるビット数を規定する。
reshape_model_bin_delta_abs_CW[i]は、i番目のビンについての絶対デルタコードワード値を規定する。
reshaper_model_bin_delta_sign_CW_flag[i]は、以下のように、reshape_model_bin_delta_abs_CW[i]の符号を規定する:
creshaper_model_bin_delta_sign_CW_flag[i]が0に等しい場合、対応する変数RspDeltaCW[i]が正の値である。
- それ以外の場合(reshaper_model_bin_delta_sign_CW_flag[i]が0に等しくない場合)、対応する変数RspDeltaCW[i]は負の値である。
reshape_model_bin_delta_sign_CW_flag[i]が存在しないとき、それは0に等しいと推定される。
変数RspDeltaCW[i]=(1-2*reshape_model_bin_delta_sign_CW[i])*reshape_model_bin_delta_abs_CW[i]である。
変数RspCW[i]は、次のステップのように導出される。
変数OrgCWが、(1<<BitDepthY)/(MaxBinIdx+1)に等しく設定される。
- reshaper_model_min_bin_idx<=i<=reshaper_model_max_bin_idxである場合、
RspCW[i]=OrgCW+RspDeltaCW[i];
- それ以外の場合、RspCW[i]=0。
RspCW[i]の値は、BitDepthYの値が10に等しい場合に、32から2*OrgCW-1までの範囲内とされる。
両端を含めて0からMaxBinIdx+1までの範囲内のiを持つ変数InputPivot[i]が、次のように導出される:
InputPivot[i]=i*OrgCW
両端を含めて0からMaxBinIdx+1までの範囲内のiを持つ変数ReshapePivot[i]と、両端を含めて0からMaxBinIdxまでの範囲内のiを持つ変数ScaleCoeff[i]及びInvScaleCoeff[i]とが、次のように導出される:
shiftY=14
ReshapePivot[0]=0;
for(i=0;i<=MaxBinIdx;i++){
ReshapePivot[i+1]=ReshapePivot[i]+RspCW[i]
ScaleCoef[i]=(RspCW[i]*(1<<shiftY)+(1<<(Log2(OrgCW)1)))>>(Log2(OrgCW))
if(RspCW[i]==0)
InvScaleCoeff[i]=0
else
InvScaleCoeff[i]=OrgCW*(1<<shiftY)/RspCW[i]
}
両端を含めて0からMaxBinIdxまでの範囲内のiを持つ変数ChromaScaleCoef[i]が、次のように導出される:
ChromaResidualScaleLut[64]={16384,16384,16384,16384,16384,16384,16384,8192,8192,8192,8192,5461,5461,5461,5461,4096,4096,4096,4096,3277,3277,3277,3277,2731,2731,2731,2731,2341,2341,2341,2048,2048,2048,1820,1820,1820,1638,1638,1638,1638,1489,1489,1489,1489,1365,1365,1365,1365,1260,1260,1260,1260,1170,1170,1170,1170,1092,1092,1092,1092,1024,1024,1024,1024};
shiftC=11
if(RspCW[i]==0)
ChromaScaleCoef[i]=(1<<shiftC)
Otherwise(RspCW[i]!=0),
ChromaScaleCoef[i]=ChromaResidualScaleLut[RspCW[i]>>1]
結合マージ・イントラ予測に関する重み付けサンプル予測プロセスに関連して、以下のテキストを追加することができる。追加を、下線を付けてマークする:
8.4.6.6 結合マージ・イントラ予測に関する重み付けサンプル予測プロセス
このプロセスへの入力は以下である:
- 現在符号化ブロックの幅cbWidth
- 現在符号化ブロックの高さcbHeight
- 2つの(cbWidth)×(cbHeight)配列preSamplesInter及びpredSamplesIntra
- イントラ予測モードpredModeIntra
- 色成分インデックスを規定する変数cIdx
このプロセスの出力は予測サンプル値の(cbWidth)×(cbHeight)配列presamplesCombである
変数bitDepthは次のように導出される:
- cIdxが0に等しい場合、bitDepthはBitDepthYに等しく設定される。
- それ以外の場合、bitDepthはBitDepthCに等しく設定される。
x=0..cbWidth-1及びy=0..cbHeight-1を持つ予測サンプルpredSamplesComb[x][y]が、次のように導出される:
- 重みwが、次のように導出される:
- predModeIntraがINTRA_ANGULAR50である場合、wは、nPosをyに等しくし且つnSizeをcbHeightに等しくして表4で規定される
- そうでなく、predModeIntraがINTRA_ANGULAR18である場合、wは、nPosをxに等しくし且つnSizeをcbWidthに等しくして表8-10で規定される
- それ以外の場合、wは4に設定される
cIdxが0に等しい場合、predsamplesInterが、次のように導出される:
tile_group_resharper_enabled_flagが1に等しい場合、
ShiftY=14
idxY=predSamplesInter[x][y]>>Log2(OrgCW)
predSamplesInter[x][y]=Clip1Y(ReshapePivot[idxY]
+(ScaleCoeff[idxY]*(predSamplesInter[x][y]InputPivot[idxY])
+(1<<(ShiftY-1))>>ShiftY (8-xxx)
それ以外の場合(tile_group_reshaper_enabled_flagが0に等しい)
predSamplesInter[x][y]=predSamplesInter[x][y]
- 予測サンプルpredSamplesComb[x][y]が、次のように導出される:
predSamplesComb[x][y]=(w*predSamplesIntra[x][y]+
(8-w)*predSamplesInter[x][y])>>3) (8-740)
Figure 0007529848000016
ピクチャ再構成プロセスに、下線付きで示す以下のテキストを追加することができる:
8.5.5 ピクチャ再構成プロセス
このプロセスへのインプットは以下である:
- 現在ピクチャコンポーネントの左上サンプルに対する現在ブロックの左上サンプルを規定する位置(xCurr,yCurr)
- それぞれ現在ブロックの幅及び高さを規定する変数nCurrSw及びnCurrSh
- 現在ブロックの色成分を規定する変数cIdx
- 現在ブロックの予測サンプルを規定する(nCurrSw)×(nCurrSh)配列predSamples
- 現在ブロックの残差サンプルを規定する(nCurrSw)×(nCurrSh)配列resSamples
色成分cIdxの値に応じて、以下の割り当てが行われる:
- cIdxが0に等しい場合、recSamplesは再構成ピクチャサンプル配列SLに対応し、関数clipCidx1はClip1Yに対応する
- そうでなく、cIdxが1に等しい場合、recSamplesは再構成クロマサンプル配列SCbに対応し、関数clipCidx1はClip1Cに対応する
- それ以外の場合(cIdxが2に等しい)、recSamplesは再構成クロマサンプル配列SCrに対応し、関数clipCidx1はClip1Cに対応する
tile_group_reshaper_enabled_flagの値が1に等しい場合、位置(xCurr,yCurr)にある再構成サンプル配列recSamplesの(nCurrSw)×(nCurrSh)ブロックが、8.5.5.1項に規定されたマッピングプロセスとして導出される。それ以外の場合、位置(xCurr,yCurr)にある再構成サンプル配列recSamplesの(nCurrSw)×(nCurrSh)ブロックは、次のように導出される:
recSamples[xCurr+i][yCurr+j]=clipCidx1(predSamples[i][j]+resSamples[i][j])
wth i=0..nCurrSw-1,j=0..nCurrSh-1 (8-xxx)
8.5.5.1 マッピングプロセス付きピクチャ再構成
この節は、マッピングプロセスを用いるピクチャ再構成を規定する。ルマサンプル値に関するマッピングプロセス付きピクチャ再構成が、8.5.5.1.1で規定される。クロマサンプル値に関するマッピングプロセス付きピクチャ再構成が、8.5.5.1.2で規定される。
8.5.5.1.1 ルマサンプル値に関するマッピングプロセス付きピクチャ再構成
このプロセスへの入力は以下である:
- 現在ブロックのルマ予測サンプルを規定する(nCurrSw)×(nCurrSh)配列predSamples
- 現在ブロックのルマ残差サンプルを規定する(nCurrSw)×(nCurrSh)配列resSamples
このプロセスの出力は以下である:
- (nCurrSw)×(nCurrSh)のマッピングされたルマ予測サンプル配列predMapSamples
- (nCurrSw)×(nCurrSh)の再構成ルマサンプル配列recSamples
predMapSamplesは、次のように導出される:
- If(CuPredMode[xCurr][yCurr]==MODE_INTRA)||(CuPredMode[xCurr][yCurr]==MODE_CPR)||(CuPredMode[xCurr][yCurr]==MODE_INTER&&mh_intra_flag[xCurr][yCurr])
predMapSamples[xCurr+i][yCurr+j]=predSamples[i][j] (8-xxx)
wth i=0..nCurrSw-1,j=0..nCurrSh-1
- それ以外の場合((CuPredMode[xCurr][yCurr]==MODE_INTER&&!mh_intra_flag[xCurr][yCurr]))、以下が適用される:
shiftY=14
idxY=predSamples[i][j]>>Log2(OrgCW)
predMapSamples[xCurr+i][yCurr+j]=ReshapePivot[idxY]
+(ScaleCoeff[idxY]*(predSamples[i][j]InputPivot[idxY])
+(1<<(shiftY-1)))>>shifty (8-xxx)
wth i=0..nCurrSw-1,j=0..nCurrSh-1
recSamplesは、次のように導出される:
recSamples[xCurr+i][yCurr+j]=Clip1Y(predMapSamples[xCurr+i][yCurr+j]+resSamples[i][j]])
with i=0..nCurrSw-1,j=0..nCurrSh-1 (8-xxx)
8.5.5.1.2 クロマサンプル値に関するマッピングプロセス付きピクチャ再構成
このプロセスへの入力は以下である:
- 現在ブロックのマッピングされたルマ予測サンプルを規定する(nCurrSw×2)×(nCurrSh×2)配列predMapSamples
- 現在ブロックのクロマ予測サンプルを規定する(nCurrSw)×(nCurrSh)配列predSamples
- 現在ブロックのクロマ残差サンプルを規定する(nCurrSw)×(nCurrSh)配列resSamples
このプロセスの出力は、再構成クロマサンプル配列recSamplesである
recSamplesは、次のように導出される:
- If(!tile_group_reshaper_chroma_residual_scale_flag||((nCurrSw)x(nCurrSh)<=4))
recSamples[xCurr+i][yCurr+j]=Clip1C(predSamples[i][j]+resSamples[i][j])
with i=0..nCurrSw-1,j=0..nCurrSh-1 (8-xxx)
- それ以外の場合(tile_group_reshaper_chroma_residual_scale_flag&&((nCurrSw)x(nCurrSh)>4))、以下が適用される:
変数varScaleが、次のように導出される:
1. invAvgLuma=Clip1Y((ΣiΣjpredMapSamples[(xCurr<<1)+i][(yCurr<<1)+j]
+nCurrSw*nCurrSh*2)/(nCurrSw*nCurrSh*4))
2. サンプル値の入力をinvAvgLumaとして8.5.6.2節で規定されるピースワイズ関数インデックスの特定を呼び出すことによって、変数idxYInvが導出される
3. varScale=ChromaScaleCoef[idxYInv]
recSamplesが、次のように導出される:
- tu_cbf_cIdx[xCurr][yCurr]が1に等しい場合、以下が適用される:
shiftC=11
recSamples[xCurr+i][yCurr+j]=ClipCidx1(predSamples[i][j]+Sign(resSamples[i][j])*((Abs(resSamples[i][j])*varScale+(1<<(shiftC-1)))>>shiftC))
with i=0..nCurrSw-1,j=0..nCurrSh-1 (8-xxx)
- それ以外の場合(tu_cbf_cIdx[xCurr][yCurr]が0に等しい)、
recSamples[xCurr+i][yCurr+j]=ClipCidx1(predSamples[i][j])
with i=0..nCurrSw-1,j=0..nCurrSh-1 (8-xxx)
8.5.6 ピクチャ逆マッピングプロセス
この節は、tile_group_reshaper_enabled_flagの値が1に等しい場合に呼び出される。入力は再構成ピクチャルマサンプル配列SLであり、出力は逆マッピングプロセス後の修正再構成ピクチャルマサンプル配列S’Lである
ルマサンプル値に関する逆マッピングプロセスが、8.4.6.1で規定される。
8.5.6.1 ルマサンプル値のピクチャ逆マッピングプロセス
このプロセスへの入力は、現在ピクチャの左上ルマサンプルに対するルマサンプル位置を規定するルマ位置(xP,yP)である
このプロセスの出力は、逆マッピングされたルマサンプル値invLumaSampleである
invLumaSampleの値は、以下の順序付けられたステップを適用することによって導出される:
1. ルマサンプル値の入力をSL[xP][yP]として8.5.6.2節で規定されるピースワイズ関数インデックスの特定を呼び出すことによって、変数idxYInvが導出される
2. reshapeLumaSampleの値が、次のように導出される:
shiftY=14
invLumaSample=
InputPivot[idxYInv]+(InvScaleCoeff[idxYInv]*(SL[xP][yP]ReshapePivot[idxYInv]
+(1<<(shiftY-1)))>>shifty (8-xx)
3. clipRange=((reshape_model_min_bin_idx>0)&&(reshape_model_max_bin_idx<MaxBinIdx));
- clipRangeが1に等しい場合、以下が適用される:
minVal=16<<(BitDepthY-8)
maxVal=235<<(BitDepthY-8)
invLumaSample=Clip3(minVal,maxVal,invLumaSample)
- それ以外の場合(clipRangeが0に等しい)、
invLumaSample=ClipCidx1(invLumaSample)
8.5.6.2 ルマコンポーネントに関するピースワイズ関数インデックスの特定
このプロセスへの入力はルマサンプル値Sである
このプロセスの出力は、サンプルSが属するピースを特定するインデックスidxSである。変数idxSは、次のように導出される:
for(idxS=0,idxFound=0;idxS<=MaxBinIdx;idxS++){
if((S<ReshapePivot[idxS+1]){
idxFound=1
break
}
}
なお、識別子idxSを見つけるための代わりの実装は、以下のとおりである:
if(S<ReshapePivot[reshape_model_min_bin_idx])
idxS=0
elseif(S>=ReshapePivot[reshape_model_max_bin_idx])
idxS=MaxBinIdx
else
idxS=findIdx(S,0,MaxBinIdx+1,ReshapePivot[])

functionidx=findIdx(val,low,high,pivot[]){
if(high-low<=1)
idx=low
else{
mid=(low+high)>>1
if(val<pivot[mid])
high=mid
else
low=mid
idx=findIdx(val,low,high,pivot[])
}
}
2.5.2.4. ILRの使用
エンコーダ側で、各ピクチャ(又はタイルグループ)が先ず再整形ドメインに変換される。そして、全ての符号化プロセスが再整形ドメインで実行される。イントラ予測では、隣接ブロックは再整形ドメイン内にあり、インター予測では、参照ブロック(復号ピクチャバッファから、元のドメインから生成される)が先ず再整形ドメインに変換される。次いで、残差が生成され、ビットストリームに符号化される。
全体ピクチャ(又はタイルグループ)が符号化/復号を終えた後、再整形ドメイン内のサンプルが元のドメインに変換され、そして、デブロッキングフィルタ及び他のフィルタが適用される。
以下の場合、予測信号への純再整形は無効にされる:
- 現在ブロックがイントラ符号化される、
- 現在ブロックがCPR(current picture referencing、イントラブロックコピーIBCとも呼ばれる)として符号化される、
- 現在ブロックが結合インター-イントラモード(CIIP)として符号化され、且つイントラ予測ブロックに対して順再整形が無効にされる。
2.6. 仮想パイプラインデータユニット(VPDU)
仮想パイプラインデータユニット(virtual pipeline data unit;VPDU)は、ピクチャ内の重なり合わないM×M-ルマ(L)/N×N-クロマ(C)ユニットとして定義される。ハードウェアデコーダにおいて、連続するVPDUが複数のパイプライン段によって同時に処理され、複数の異なる段が同時に異なるVPDUを処理する。VPDUサイズは、ほとんどのパイプライン段においてバッファサイズにおおよそ比例し、それ故に、VPDUサイズを小さく保つことが非常に重要であると言い得る。HEVCハードウェアデコーダでは、VPDUサイズは最大の変換ブロック(TB)サイズに設定される。最大TBサイズを(HEVCにおいてのように)32×32-L/16×16-Cから(現行VVCにおいてのように)64×64-L/32×32-Cに拡大すると、符号化利得をもたらすことができ、HEVCと比較して4倍のVPDUサイズ(64×64-L/32×32-C)とつながることが期待される。しかしながら、VVCでは、更なる符号化利得を達成するために、四分木(QT)符号化ユニット(CU)分割に加えて、三分木(TT)及び二分木(BT)が採用され、TT及びBT分割を128×128-L/64×64-C符号化ツリーブロック(CTU)に再帰的に適用することができ、これは、HEVCと比較して16倍のVPDUサイズ(128×128-L/64×64-C)につながると言える。
現行のVVC設計では、VPDUサイズは64×64-L/32×32-Cとして規定されている。
2.7. APS
VVCでは、ALFパラメータを運ぶために適応パラメータセット(Adaptation Parameter Set;APS)が採用される。タイルグループヘッダは、ALFが有効にされる場合に条件付きで存在するaps_idを含む。APSはaps_id及びALFパラメータを含む。(JVET-M0132から)APSに新たなNUT(AVC及びHEVCにおいてのように、NALユニットタイプ)値が割り当てている。VTM-4.0(登場予定)における共通テスト条件では、単に、aps_id=0を使用し且つ各ピクチャとともにAPSを送信することが提案されている。差し当たり、APS ID値の範囲は0..31となり、APSはピクチャ間で共有されることができる(そして、ピクチャ内の異なるタイルグループでは異なることができる)。このID値は、存在する場合、固定長で符号化されるべきである。同一ピクチャ内の異なるコンテンツでID値を再利用することはできない。
2.8. ポスト再構成フィルタ
2.8.1. 拡散フィルタ(DF)
JVET-L0157にて拡散フィルタが提案されており、それにおいては、CUのイントラ/インター予測信号が更に拡散フィルタによって変更され得る。
2.8.1.1. 均一拡散フィルタ
均一(Uniform)拡散フィルタは、予測信号を、以下に定義されるh又はhIVのいずれかとして与えられる固定マスクと畳み込むことによって実現される。
予測信号自体の他に、ブロックの左及び上の1ラインの再構成サンプルがフィルタリング信号の入力として使用され、ここで、これらの再構成サンプルの使用はインターブロックでは回避されることができる。
イントラ予測又は動き補償予測によって得られた所与のブロックについての予測信号をpredとする。フィルタの境界点を扱うために、予測信号を予測信号predextに拡張する必要がある。この拡張予測は、2つの手法のいずれか、すなわち、中間ステップとして、ブロックの左及び上の1ラインの再構成サンプルが予測信号に加算され、次いで、得られた信号が全ての方向にミラーリングされるか、予測信号自体だけが全ての方向にミラーリングされるか、のいずれかで形成されることができる。インターブロックでは後者の拡張が使用される。この場合、予測信号自体のみが拡張予測信号predextに対する入力を有する。
フィルタhIが使用される場合、前述の境界拡張を用いて、予測信号predを、
*pred
で置き換えることが提案される。ここで、フィルタマスクhは、
Figure 0007529848000017
として与えられる。
フィルタhIVが使用される場合、予測信号predを、
IV*pred
で置き換えることが提案される。ここで、フィルタマスクhIVは、
IV=h*h*h*h
として与えられる。
2.8.1.2. 方向拡散フィルタ
信号適応拡散フィルタを使用する代わりに、なおも固定マスクを持つ水平フィルタhhor及び垂直フィルタhverが使用される。より正確には、前節のマスクhに対応する均一拡散フィルタリングが、単純に、垂直方向に沿って又は水平方向に沿ってのいずれかのみで適用されるように制限される。垂直フィルタは、固定フィルタマスク:
Figure 0007529848000018
を予測信号に適用することによって実現され、水平フィルタは、転置マスクhhor=hver を使用することによって実現される。
2.8.2. バイラテラルフィルタ(BF)
JVET-L0406にてバイラテラルフィルタが提案されており、それは、非ゼロの変換係数と17より大きいスライス量子化パラメータとを持つルマブロックに常に適用される。従って、バイラテラルフィルタの使用を信号伝達する必要はない。バイラテラルフィルタは、適用される場合、逆変換の直後に復号サンプル上で実行される。加えて、フィルタパラメータすなわち重みは、符号化された情報から明示的に導出される。
フィルタリングプロセスは、
Figure 0007529848000019
として規定され、ここで、P0,0は現在サンプルの強度であり、P’0,0は現在サンプルの修正強度であり、Pk,0及びWは、それぞれ、k番目の隣接サンプルについての強度及び重み付けパラメータである。1つの現在サンプル及びその4つの隣接サンプル(すなわち、K=4)の一例を図24に示す。
より具体的には、k番目の隣接サンプルに関連付けられる重みW(x)は、
Figure 0007529848000020
のように規定され、ここで、
Figure 0007529848000021
であり、σは、符号化モード及び符号化ブロックサイズに依存する。記述されたフィルタリングプロセスは、イントラ符号化ブロックに適用されるとともに、TUが更に分割されるときにインター符号化ブロックに適用され、並列処理を可能にする。
映像信号の統計的特性をより良く捕捉し、フィルタの性能を向上させるために、式(2)から得られる重み関数が、符号化モード及びブロック分割のパラメータ(最小サイズ)に依存するものとして表5に一覧にしたσパラメータによって調整される。
Figure 0007529848000022
符号化性能を更に向上させるために、TUが分割されない場合のインター符号化ブロックに対して、現在サンプルとその隣接サンプルのうちの1つとの間の強度差が、現在サンプル及び隣接サンプルをカバーする2つのウィンドウ間の代表的な強度差によって置換される。従って、フィルタリングプロセスの式は:
Figure 0007529848000023
に改められ、ここで、Pk,m及びP0,mは、それぞれ、Pk,0及びP0,0を中心とするウィンドウ内のm番目のサンプルを表す。この提案では、ウィンドウサイズが3×3に設定される。P2,0及びP0,0をカバーする2つのウィンドウの一例を図25に示す。
2.8.3. アダマール変換ドメインフィルタ(HF)
JVET-K0068では、1Dアダマール変換ドメインにおけるインループフィルタが、再構成後にCUレベルで適用され、無乗算(乗算フリー)実装を有する。提案されるフィルタが、所定の条件を満たす全てのCUブロックに適用され、フィルタパラメータが、符号化された情報から導出される。
提案されるフィルタリングは、4×4ブロック及びスライス量子化パラメータが17より大きい場合を除き、非ゼロの変換係数を持つルマ再構成ブロックに常に適用される。フィルタパラメータは、符号化された情報から明示的に導出される。提案されるフィルタは、適用される場合に、逆変換直後の復号サンプル上で実行される。
再構成ブロックからの各ピクセルに対し、ピクセル処理は、以下のステップを有する:
・ 現在ピクセルを含む処理ピクセル周囲の4つの隣接ピクセルを走査パターンに従って走査する
・ 読み取ったピクセルの4点アダマール変換
・ 次式に基づくスペクトルフィルタリング:
Figure 0007529848000024
であり、ここで、(i)は、アダマールスペクトル内のスペクトル成分のインデックスであり、R(i)は、インデックスに対応する再構成ピクセルのスペクトル成分であり、σは、コーデック量子化パラメータQPから次式:
σ=2(1+0.126*(QP-27))
を用いて導出されるフィルタリングパラメータである。
走査パターンの例を図26に示す。
CU境界上にあるピクセルについて、必要な全てのピクセルが現在CU内にあることを確保するよう、走査パターンが調整される。
3. 既存実装の欠点
ILRの現行設計は、以下の問題を有する:
1. 再整形モデル情報がシーケンス内で信号伝達されていないのに、tile_group_reshaper_enable_flagが現在スライス(又はタイルグループ)において1に等しく設定されてしまうことが可能である。
2. 保存された再整形モデルが、参照として使用されることができないスライス(又はタイルグループ)に由来することがある。
3. 1つのピクチャが幾つかのスライス(又はタイルグループ)に分割され、各スライス(又はタイルグループ)が再整形モデル情報を信号伝達することがある。
4. 一部の値及び範囲(例えばRspCW[i]の範囲など)は、ビット深度が10に等しい場合にのみ規定される。
5. reshape_model_delta_max_bin_idxが十分に制約されていない。
6. reshaper_model_bin_delta_abs_cw_pre_minus1が十分に制約されていない。
7. ReshapePivot[i]が1<<BitDepth-1よりも大きいことがある。
8. 固定のクリッピングパラメータ(すなわち、0に等しい最小値及び(1<<BD)-1に等しい最大値)が、ILRの使用を考慮せずに使用される。ここで、BDはビット深度を示す。
9. クロマコンポーネントの再整形演算が、4:2:0カラーフォーマットのみを考慮している。
10. 各ルマ値が異なって再整形され得るルマコンポーネントとは異なり、クロマコンポーネントに対しては1つのファクタのみが選択されて使用される。追加の複雑さを低減させるために、そのようなスケーリングが量子化/逆量子化ステップに融合されることがある。
11. ピクチャ逆マッピングプロセスにおけるクリッピングが、上限及び下限を別々に考慮し得る。
12. reshaper_model_min_bin_idx<=i<=reshaper_model_max_bin_idxの範囲にないiについて、ReshapePivot[i]が適切に設定されない。
4. 実施形態例及び技術
以下に記載される詳細な実施形態は、一般的概念を説明するための例とみなされるべきである。これらの実施形態は狭義に解釈されるべきではない。さらに、これらの実施形態は、何らかのやり方で組み合わされることができる。
1. シーケンスを復号する前に再整形モデルが初期化されることが提案される。
a. あるいは、Iスライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。
b. あるいは、瞬時復号リフレッシュ(IDR)スライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。
c. あるいは、クリーンランダムアクセス(CRA)スライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。
d. あるいは、イントラランダムアクセスポイント(I-RAP)スライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。I-RAPスライス(又はピクチャ又はタイルグループ)は、IDRスライス(又はピクチャ又はタイルグループ)及び/又はCRAスライス(又はピクチャ又はタイルグループ)及び/又はブロークンリンクアクセス(BLA)スライス(又はピクチャ又はタイルグループ)を含み得る。
e. 再整形モデルを初期化することの一例において、OrgCWが(1<<BitDepthY)/(MaxBinIdx+1)に等しく設定され、i=0,1,…,MaxBinIdxに対して、ReshapePivot[i]=InputPivot[i]=i*OrgCWである。
f. 再整形モデルを初期化することの一例において、i=0,1,…,MaxBinIdxに対して、ScaleCoeff[i]=InvScaleCoeff[i]=1<<shiftYである。
g. 再整形モデルを初期化することの一例において、OrgCWが(1<<BitDepthY)/(MaxBinIdx+1)に等しく設定される。i=0,1,…,MaxBinIdxに対して、RspCW[i]=OrgCWである。
h. あるいは、デフォルトの再整形モデル情報が、シーケンスレベル(例えばSPS内でなど)又はピクチャレベル(例えばPPSにおいてなど)で信号伝達されてもよく、再整形モデルはデフォルトのものであるように初期化される。
i. あるいは、再整形モデルが初期化されない場合、ILRが無効にされるよう制約される。
2. 再整形モデル情報(例えばtile_group_reshaper_model()内の情報など)がIスライス(又はピクチャ又はタイルグループ)内でのみ信号伝達され得ることが提案される。
a. あるいは、再整形モデル情報(例えばtile_group_reshaper_model()内の情報など)がIDRスライス(又はピクチャ又はタイルグループ)内でのみ信号伝達され得る。
b. あるいは、再整形モデル情報(例えばtile_group_reshaper_model()内の情報など)がCRAスライス(又はピクチャ又はタイルグループ)内でのみ信号伝達され得る。
c. あるいは、再整形モデル情報(例えばtile_group_reshaper_model()内の情報など)がI-RAPスライス(又はピクチャ又はタイルグループ)内でのみ信号伝達され得る。I-RAPスライス(又はピクチャ又はタイルグループ)は、IDRスライス(又はピクチャ又はタイルグループ)及び/又はCRAスライス(又はピクチャ又はタイルグループ)及び/又はブロークンリンクアクセス(BLA)スライス(又はピクチャ又はタイルグループ)を含み得る。
d. あるいは、再整形モデル情報(例えばtile_group_reshaper_model()内の情報など)は、シーケンスレベル(例えばSPS内でなど)又はピクチャレベル(例えばPPSにおいてなど)又はAPSで信号伝達され得る。
3. 特定のピクチャタイプ(例えばIRAPピクチャなど)ではピクチャ/スライス/タイルグループからの再整形情報を利用することを禁止することが提案される。
a. 一例において、第1のスライス(又はピクチャ又はタイルグループ)の後且つ第2のスライス(又はピクチャ又はタイルグループ)の前にIスライス(又はピクチャ又はタイルグループ)が伝送される場合、又は第2のスライス(又はピクチャ又はタイルグループ)自体がIスライス(又はピクチャ又はタイルグループ)である場合、第1のスライス(又はピクチャ又はタイルグループ)で信号伝達される再整形モデル情報は、第2のスライス(又はピクチャ又はタイルグループ)によって使用されることができない。
b. あるいは、第1のスライス(又はピクチャ又はタイルグループ)の後且つ第2のスライス(又はピクチャ又はタイルグループ)の前にIDRスライス(又はピクチャ又はタイルグループ)が伝送される場合、又は第2のスライス(又はピクチャ又はタイルグループ)自体がIDRスライス(又はピクチャ又はタイルグループ)である場合、第1のスライス(又はピクチャ又はタイルグループ)で信号伝達される再整形モデル情報は、第2のスライス(又はピクチャ又はタイルグループ)によって使用されることができない。
c. あるいは、第1のスライス(又はピクチャ又はタイルグループ)の後且つ第2のスライス(又はピクチャ又はタイルグループ)の前にCRAスライス(又はピクチャ又はタイルグループ)が伝送される場合、又は第2のスライス(又はピクチャ又はタイルグループ)自体がCRAスライス(又はピクチャ又はタイルグループ)である場合、第1のスライス(又はピクチャ又はタイルグループ)で信号伝達される再整形モデル情報は、第2のスライス(又はピクチャ又はタイルグループ)によって使用されることができない。
d. あるいは、第1のスライス(又はピクチャ又はタイルグループ)の後且つ第2のスライス(又はピクチャ又はタイルグループ)の前にI-RAPスライス(又はピクチャ又はタイルグループ)が伝送される場合、又は第2のスライス(又はピクチャ又はタイルグループ)自体がI-RAPスライス(又はピクチャ又はタイルグループ)である場合、第1のスライス(又はピクチャ又はタイルグループ)で信号伝達される再整形モデル情報は、第2のスライス(又はピクチャ又はタイルグループ)によって使用されることができない。I-RAPスライス(又はピクチャ又はタイルグループ)は、IDRスライス(又はピクチャ又はタイルグループ)及び/又はCRAスライス(又はピクチャ又はタイルグループ)及び/又はブロークンリンクアクセス(BLA)スライス(又はピクチャ又はタイルグループ)を含み得る。
4. 一例において、Iスライス(又はピクチャ又はタイルグループ)内でフラグが信号伝達される。フラグがXである場合、このスライス(又はピクチャ又はタイルグループ)内で再整形モデル情報が信号伝達され、それ以外の場合、このスライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。例えば、X=0又は1である。
a. あるいは、IDRスライス(又はピクチャ又はタイルグループ)内でフラグが信号伝達される。フラグがXである場合、このスライス(又はピクチャ又はタイルグループ)内で再整形モデル情報が信号伝達され、それ以外の場合、このスライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。例えば、X=0又は1である。
b. あるいは、CRAスライス(又はピクチャ又はタイルグループ)内でフラグが信号伝達される。フラグがXである場合、このスライス(又はピクチャ又はタイルグループ)内で再整形モデル情報が信号伝達され、それ以外の場合、このスライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。例えば、X=0又は1である。
c. あるいは、I-RAPスライス(又はピクチャ又はタイルグループ)内でフラグが信号伝達される。フラグがXである場合、このスライス(又はピクチャ又はタイルグループ)内で再整形モデル情報が信号伝達され、それ以外の場合、このスライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。例えば、X=0又は1である。I-RAPスライス(又はピクチャ又はタイルグループ)は、IDRスライス(又はピクチャ又はタイルグループ)及び/又はCRAスライス(又はピクチャ又はタイルグループ)及び/又はブロークンリンクアクセス(BLA)スライス(又はピクチャ又はタイルグループ)を含み得る。
5. 一例において、1つのピクチャが幾つかのスライス(又はタイルグループ)に分割される場合、各スライス(又はタイルグループ)が同じ再整形モデル情報を共有すべきである。
a. 一例において、1つのピクチャが複数のスライス(又はタイルグループ)に分割される場合、最初のスライス(又はタイルグループ)のみが再整形モデル情報を信号伝達し得る。
6. 再整形に使用される変数は、ビット深度に応じて初期化、操作、及び制約されるべきである
a. 一例において、MaxBinIdx=f(BitDepth)であり、ここで、fは関数である。例えば、MaxBinIdx=4×2(BitDepth-8)-1である。
b.一例において、RspCW[i]は、g(BitDepth)から2×OrgCW-1までの範囲内にあるとされる。例えば、RspCW[i]は、8×2(BitDepth-8)から2×OrgCW-1までの範囲内にあるとされる。
7. 一例において、i=0,1,…,MaxBinIdxに対して、RspCW[i]が0に等しい場合、ScaleCoef[i]=InvScaleCoeff[i]=1である。
8. reshape_model_delta_max_bin_idxが、両端を含めて、0からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にあるべきであることが提案される。
a. あるいは、reshape_model_delta_max_bin_idxは、0からMaxBinIdxまでの範囲内にあるべきである。
b. 一例において、reshape_model_delta_max_bin_idxは、両端を含めて、0からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にクリッピングされる(切り取られる)。
c. 一例において、reshape_model_delta_max_bin_idxは、両端を含めて、0からMaxBinIdxまでの範囲内にクリッピングされる。
d. 一例において、reshaper_model_min_bin_idxは、reshaper_model_max_bin_idx以下でなければならない。
e. 一例において、reshaper_model_max_bin_idxは、両端を含めて、reshaper_model_min_bin_idxからMaxBinIdxまでの範囲内にクリッピングされる。
f. 一例において、reshaper_model_min_bin_idxは、両端を含めて、0からreshaper_model_max_bin_idxまでの範囲内にクリッピングされる。
g. 上の制約のうちの1つ又は一部は、コンフォーミングビットストリームによって要求され得る。
9. reshape_model_max_bin_idxがreshape_model_min_bin_idx+reshape_model_delta_maxmin_bin_idxに等しく設定されることが提案され、ここで、reshape_model_delta_maxmin_bin_idxは、符号なし整数であり、reshape_model_min_bin_idxの後に信号伝達される構文要素である。
b. 一例において、reshape_model_delta_maxmin_bin_idxは、両端を含めて、0からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にあるべきである。
c. 一例において、reshape_model_delta_maxmin_bin_idxは、両端を含めて、1からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にあるべきである。
d. 一例において、reshape_model_delta_maxmin_bin_idxは、両端を含めて、0からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にクリッピングされるべきである。
e. 一例において、reshape_model_delta_maxmin_bin_idxは、両端を含めて、1からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にクリッピングされるべきである。
f. 上の制約のうちの1つ又は一部は、コンフォーミングビットストリームによって要求され得る。
10. reshaper_model_bin_delta_abs_cw_pre_minus1が閾値Tより小さいべきであることが提案される。
a. 一例において、Tは例えば6又は7などの固定数とし得る。
b. 一例において、Tはビット深度に依存し得る。
c. 上の制約は、コンフォーミングビットストリームによって要求され得る。
11. RspCW[i]がRspCW[i-1]によって予測され得ること、すなわち、RspCW[i]=RspCW[i-1]+RspDeltaCW[i]であることが提案される。
a. 一例において、RspCW[i]は、reshaper_model_min_bin_idx<=i<=reshaper_model_max_bin_idxのときに、RspCW[i-1]によって予測され得る。
b. 一例において、iが0に等しいときに、RspCW[i]がOrgCWによって予測され、すなわち、RspCW[i]=OrgCW+RspDeltaCW[i]である。
c. 一例において、iがreshaper_model_min_bin_idxに等しいとき、RspCW[i]はOrgCWによって予測され、すなわち、RspCW[i]=OrgCW+RspDeltaCW[i]である。
12. reshape_model_bin_delta_sign_CW[i]が決して信号伝達されず、RspDeltaCW[i]=reshape_model_bin_delta_abs_CW[i]が常に正の数であることが提案される。
a. 一例において、RspCW[i]=MinV+RspDeltaCW[i]である。
i. 一例において、MinV=32である;
ii. 一例において、MinV=g(BitDepth)である。例えば、MinV=8*2(BitDepth-8)である。
13. invAvgLumaの計算は、カラーフォーマットに依存し得る。
a. 一例において、invAvgLuma=Clip1Y((ΣΣpredMapSamples[(xCurr<<scaleX)+i][(yCurr<<scaleY)+j]+((nCurrSw<<scaleX)*(nCurrSh<<scaleY)>>1))/((nCurrSw<<scaleX)*(nCurrSh<<scaleY)))であり、
i. 4:2:0フォーマットに対して、scaleX=scaleY=1であり;
ii. 4:4:4フォーマットに対して、scaleX=scaleY=0であり;
iii. 4:2:2フォーマットに対して、scaleX=1且つscaleY=0である。
14. ピクチャ逆マッピングプロセスが上限及び下限を別々に検討し得ることが提案される。
a. 一例において、invLumaSample=Clip3(minVal,maxVal,invLumaSample)であり,minVal,maxValは、異なる条件に従って計算される。
i. 例えば、reshape_model_min_bin_idx>0である場合、minVal=T1<<(BitDepth-8)であり;それ以外の場合、minVal=0であり;例えば、T1=16である。
ii. 例えば、reshape_model_max_bin_idx<MaxBinIdxである場合、maxVal=T2<<(BitDepth-8)であり;それ以外の場合、maxVal=(1<<BitDepth)-1であり;例えば、T2=235である。他の一例では、T2=40である。
15. ReshapePivot[i]がReshapePivot[i]<=Tとして制約されるべきであることが提案され、例えば、T=(1<<BitDepth)-1である。
a. 例えば、ReshapePivot[i+1]=min(ReshapePivot[i]+RspCW[i],T)である。
16. クロマコンポーネントについて各ピクセルドメイン残差値を再整形する代わりに、クロマQPオフセット(dChromaQpと表記)が各ブロック又は各TUに対して暗黙的に導出されてもよく、それがクロマQPに加算されてもよい。斯くして、クロマコンポーネントの再整形が、量子化/逆量子化プロセスに融合される。
a. 一例において、dChromaQpは、repLumaValと表記される代表的なルマ値に基づいて導出され得る。
b. 一例において、repLumaValは、ブロック又はTUの一部の又は全てのルマ予測値を用いて導出され得る。
c. 一例において、repLumaValは、ブロック又はTUの一部の又は全てのルマ再構成値を用いて導出され得る。
d. 一例において、repLumaValは、ブロック又はTUの一部の又は全てのルマ予測値又は再構成値の平均として導出され得る。
e. ReshapePivot[idx]<=repLumaVal<ReshapePivot[idx+1]と仮定して、InvScaleCoeff[idx]を用いてdChromaQpが導出され得る。
i. 一例において、dQpが、argmin abs(2^(x/6+shiftY)-InvScaleCoeff[idx])として選定されることができ、x=-N,…,Mである。例えば、N=M=63である。
ii. 一例において、dQpが、argmin abs(1-(2^(x/6+shiftY)/InvScaleCoeff[idx])として選定されることができ、x=-N,…,Mである。例えば、N=M=63である。
iii. 一例において、異なるInvScaleCoeff[idx]値に対して、dChromaQpが事前計算されてルックアップテーブルに格納され得る。
17. ルマコンポーネントについて各ピクセルドメイン残差値を再整形する代わりに、ルマQPオフセット(dQpと表記)が各ブロックに対して暗黙的に導出されて、ルマQPに加算されてもよい。斯くして、ルマコンポーネントの再整形が、量子化/逆量子化プロセスに融合される。
a. 一例において、dQpは、repLumaValと表記される代表的なルマ値に基づいて導出され得る。
b. 一例において、repLumaValは、ブロック又はTUの一部の又は全てのルマ予測値を用いて導出され得る。
c. 一例において、repLumaValは、ブロック又はTUの一部の又は全てのルマ予測値の平均として導出され得る。
d. idx=repLumaVal/OrgCWと仮定して、InvScaleCoeff[idx]を用いてdQpが導出され得る。
i. 一例において、dQpが、argmin abs(2^(x/6+shiftY)-InvScaleCoeff[idx])として選定されることができ、x=-N,…,Mである。例えば、N=M=63である。
ii. 一例において、dQpが、argmin abs(1-(2^(x/6+shiftY)/InvScaleCoeff[idx])として選定されることができ、x=-N,…,Mである。例えば、N=M=63である。
iii. 一例において、異なるInvScaleCoeff[idx]値に対して、dQpが事前計算されてルックアップテーブルに格納され得る。
この場合、dChromaQpがdQpに等しく設定され得る。
5. 開示される技術の実装例
図27Aは、映像処理装置2700のブロック図である。装置2700は、ここに記載される方法のうちの1つ以上を実装するために使用され得る。装置2700は、スマートフォン、タブレット、コンピュータ、モノのインターネット(IoT)受信器にて具現化され得る。装置2700は、1つ以上のプロセッサ2702、1つ以上のメモリ2704、及び映像処理ハードウェア2706を含み得る。(1つ以上の)プロセッサ2702は、本文書に記載される1つ以上の方法を実行するように構成され得る。(1つ以上の)メモリ2704は、ここに記載される方法及び技術を実行するのに使用されるデータ及びコードを格納するために使用され得る。映像処理ハードウェア2706は、本文書に記載される一部の技術をハードウェア回路にて実装するために使用されることができ、また、部分的に又は完全にプロセッサ2702(例えば、グラフィックスプロセッサコアGPU又は他の信号処理回路)の一部であってもよい。
図27Bは、開示される技術が実装され得る映像処理システムのブロック図の他の一例である。図27Bは、ここに開示される様々な技術が実装され得る映像処理システム4100の一例を示すブロック図である。様々な実装は、システム4100のコンポーネントの一部又は全てを含み得る。システム4100は、映像コンテンツを受信する入力4102を含み得る。映像コンテンツは、例えば8ビット又は10ビットのマルチコンポーネント(多成分)ピクセル値といった、ロー(未加工)又は未圧縮のフォーマットで受信されてもよいし、あるいは圧縮又は符号化されたフォーマットで受信されてもよい。入力4102は、ネットワークインタフェース、周辺バスインタフェース、又はストレージインタフェースを表し得る。ネットワークインタフェースの例は、イーサネット(登録商標)、パッシブ光ネットワーク(PON)などの有線インタフェース、及びWi-Fi(登録商標)若しくはセルラーインタフェースなどの無線インタフェースを含む。
システム4100は、本文書に記載される様々なコーディング又は符号化方法を実装し得る符号化コンポーネント4104を含み得る。符号化コンポーネント4104は、入力4102から符号化コンポーネント4104の出力まで映像の平均ビットレートを低減させて、映像の符号化表現を生成し得る。符号化技術は、それ故に、映像圧縮技術又は映像トランスコーディング技術と呼ばれることがある。符号化コンポーネント4104の出力は、格納されるか、コンポーネント4106によって表されるように接続されて通信を介して伝送されるかし得る。入力4102で受信された映像の格納又は通信されるビットストリーム(又は符号化)表現は、ディスプレイインタフェース4110に送られるピクセル値又は表示可能映像を生成するためにコンポーネント4108によって使用され得る。ビットストリーム表現からユーザが見ることができる映像を生成するプロセスは、映像解凍と呼ばれることがある。また、特定の映像処理操作が“符号化”の操作又はツールとして参照されることがあるが、理解されることには、符号化のツール又は操作はエンコーダで使用され、符号化の結果を裏返す対応する復号のツール又は操作がデコーダで実行されることになる。
周辺バスインタフェース又はディスプレイインタフェースの例は、ユニバーサルシリアルバス(USB)又は高精細マルチメディアインタフェース(HDMI(登録商標))又はディスプレイポート(Displayport)などを含み得る。ストレージインタフェースの例は、SATA(serial advanced technology attachment)、PCI、IDEインタフェースなどを含む。本文書に記載される技術は、例えば携帯電話、ラップトップ、スマートフォン、又はデジタルデータ処理及び/又は映像表示を実行することが可能な他の装置などの、種々のエレクトロニクス装置にて具現化され得る。
本文書において、用語“映像処理”は、映像符号化、映像復号、映像圧縮又は映像解凍を指し得る。例えば、映像圧縮アルゴリズムが、映像のピクセル表現から対応するビットストリーム表現への変換又はその逆の変換の間に適用され得る。現在映像ブロックのビットストリーム表現は、例えば、構文によって規定されるように、ビットストリーム内でコロケートにある又は異なるところに広がったビットに対応し得る。例えば、マクロブロックは、変換され符号化された誤差残差値に関して符号化されることができ、また、ビットストリーム内のヘッダ及び他のフィールド内のビットを使用して符号化されることができる。
理解されることには、開示される方法及び技術は、本文書に開示された技術の使用を可能にすることによって、例えばスマートフォン、ラップトップ、デスクトップ、及び類似の装置などの映像処理装置に組み込まれたビデオエンコーダ及び/又はデコーダの実施形態に有益となる。
図28Aは、映像処理の方法例2810に関するフローチャートである。方法2810は、ステップ2812にて、映像の映像領域の複数の映像ユニットと該複数の映像ユニットの符号化表現との間での変換のために、該複数の映像ユニットによって共有される再整形モデル情報を決定することを含む。方法2810は更に、ステップ2814にて、前記映像の符号化表現と前記映像との間で変換を実行することを含む。
図28Bは、映像処理の方法例2820に関するフローチャートである。方法2820は、ステップ2822にて、1つ以上の映像領域を有する映像の符号化表現と前記映像との間での変換のために、再整形モデル情報内の変数の値を前記映像のビット深度の関数として決定することを含む。方法2820は更に、ステップ2824にて、前記決定に基づいて前記変換を実行することを含む。
図28Cは、映像処理の方法例2830に関するフローチャートである。方法2830は、ステップ2832にて、1つ以上の映像領域を有する映像の符号化表現と前記映像との間での変換のために、インループ再整形(ILR)を有効にすべきか無効にすべきかを決定することを含む。方法2830は更に、ステップ2834にて、前記決定に基づいて前記変換を実行することを含む。一部の実装において前記決定は、前記再整形モデル情報が初期化されない場合に前記ILRを無効にすると決定する。
図28Dは、映像処理の方法例2840に関するフローチャートである。方法2840は、ステップ2842にて、映像の第1の映像領域と該第1の映像領域の符号化表現との間での変換のために、第2の映像領域からの再整形情報が前記変換に使用可能であるかをルールに基づいて決定することを含む。方法2840は更に、ステップ2844にて、前記決定に従って前記変換を実行することを含む。
図28Eは、映像処理の方法例2850に関するフローチャートである。方法2850は、ステップ2852にて、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行することを含む。一部の実装において、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含む。一部の実装において、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける映像ユニットの表現に基づく映像領域の前記映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供する。一部の実装において、前記再整形モデル情報は、初期化ルールに基づいて初期化されている。一部の実装において、前記再整形モデル情報は、前記映像領域が特定の符号化タイプを用いて符号化される場合にのみ前記符号化表現に含められる。一部の実装において、前記変換は、映像の現在映像領域と該現在映像領域の符号化表現との間で、前記現在映像領域が特定の符号化タイプを用いて符号化されるように実行され、前記符号化表現は、映像領域レベルでの前記符号化表現内のフラグの値に条件付きで基づいて前記符号化表現内に再整形モデル情報を規定するフォーマットルールに準拠する。
一部の実装において、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供する。一部の実装において、前記再整形モデル情報は、許容最大ビンインデックスと前記再構成で使用される最大ビンインデックスとの間の差を規定する構文要素を含むパラメータセットを有し、前記パラメータはある範囲内にある。一部の実装において、前記再整形モデル情報は、前記再構成で使用される最大ビンインデックスを含むパラメータセットを有し、前記最大ビンインデックスは、前記再構成で使用される最小ビンインデックスと、符号なし整数であって前記最小ビンインデックスの後に信号伝達される構文要素と、の和に等しい第1の値として導出される。
一部の実装において、前記再整形モデル情報は、絶対デルタコードワード値を規定する第2の構文要素を表すのに使用されるビット数を対応するビンから導出する第1の構文要素を含むパラメータセットを有し、前記第1の構文要素は、閾値よりも小さい値を持つ。一部の実装において、前記再整形モデル情報は、前記ILRで使用されるi番目のビンの傾きを表すi番目のパラメータであり、(i-1)番目のパラメータに基づく値を持つi番目のパラメータ、を含むパラメータセットを有し、iは正の整数である。一部の実装において、前記ILRに使用される前記再整形モデル情報は、信号伝達されないreshape_model_bin_delta_sign_CW[i]を含むパラメータセットを有し、RspDeltaCW[i]=reshape_model_bin_delta_abs_CW[i]は常に正の数である。一部の実装において、前記再整形モデル情報は、前記映像領域のカラーフォーマットに応じて前記スケーリングにルマ値を使用するためのパラメータinvAvgLumaを含むパラメータセットを有する。一部の実装において、前記変換は、再構成ピクチャルマサンプルを修正再構成ピクチャルマサンプルへと変換するピクチャ逆マッピングプロセスを含み、前記ピクチャ逆マッピングプロセスは、上限及び下限が互いに別々に設定されるクリッピングを含む。一部の実装において、前記再整形モデル情報は、Pivot[i]<=Tであるように制約されたピボット量を含むパラメータセットを有する。一部の実装において、クロマ量子化パラメータ(QP)が、各ブロック又は各変換ユニットに対して値が導出されるオフセットを有する。一部の実装において、ルマ量子化パラメータ(QP)が、各ブロック又は各変換ユニットに対して値が導出されるオフセットを有する。
様々な技術及び実施形態が、以下の項ベースの形式を用いて記述され得る。
第1組の項は、先行セクションに列挙された開示技術の特定の特徴及び態様を記述する。
1. ビジュアルメディア処理の方法であって、現在映像ブロックと、該現在映像ブロックのビットストリーム表現との間で変換を実行するステップ、を有し、前記変換の間に、インループ再整形ステップを用いて、該インループ再整形ステップに関連付けられたサイド情報に従って前記現在映像ブロックの表現を第1のドメインから第2のドメインに変換し、前記インループ再整形ステップは、再整形モデル情報に部分的に基づき、変換の間に、前記再整形モデル情報が、初期化ステップ、信号伝達ステップ、又は復号ステップのうちの1つ以上で使用される、方法。
2. 前記復号ステップは、Iスライス、Iピクチャ、若しくはIタイルグループに関する、項1に記載の方法。
3. 前記復号ステップは、瞬時復号リフレッシュ(IDR)スライス、IDRピクチャ、若しくはIDRタイルグループに関する、項1に記載の方法。
4. 前記復号ステップは、クリーンランダムアクセス(CRA)スライス、CRAピクチャ、若しくはCRAタイルグループに関する、項1に記載の方法。
5. 前記復号ステップは、イントラランダムアクセスポイント(I-RAP)スライス、I-RAPピクチャ、若しくはI-RAPタイルグループに関する、項1に記載の方法。
6. 前記I-RAPスライス、I-RAPピクチャ、若しくはI-RAPタイルグループは、IDRスライス、IDRピクチャ、若しくはIDRタイルグループ、CRAスライス、CRAピクチャ、若しくはCRAタイルグループ、又はブロークンリンクアクセス(BLA)スライス、BLAピクチャ、若しくはBLAタイルグループ、のうちの1つ以上を含むことができる、項1に記載の方法。
7. 前記初期化ステップは前記復号ステップに先立って行われる、項1乃至6のいずれか一項に記載の方法。
8. 前記初期化ステップは、OrgCW量を(1<<BitDepthY)/(MaxBinIdx+1)として設定することを含み、i=0,1,…,MaxBinIdxに対して、ReshapePivot[i]=InputPivot[i]=i*OrgCWOrgCWであり、BitDepthY、MaxBinIdx、及びReshapePivotは、前記再整形モデル情報に関連する量である、項1乃至7のいずれか一項に記載の方法。
9. 前記初期化ステップは、i=0,1,…,MaxBinIdxに対して、ScaleCoeff[i]=InvScaleCoeff[i]=1<<shiftYとして量を設定することを含み、ScaleCoef、InvScaleCoeff、及びshiftYは、前記再整形モデル情報に関連する量である、項1乃至7のいずれか一項に記載の方法。
10. 前記初期化ステップは、OrgCW量を(1<<BitDepthY)/(MaxBinIdx+1)として設定することを含み、i=0,1,…,MaxBinIdxに対して、RspCW[i]=OrgCWであり、OrgCW、BitDepthY、MaxBinIdx、及びRspCWは前記再整形モデル情報に関連する量である、項1乃至7のいずれか一項に記載の方法。
11. 前記初期化ステップは、前記再整形モデル情報をデフォルト値に設定することを含み、前記信号伝達ステップは、シーケンスパラメータセット(SPS)又はピクチャパラメータセット(PPS)に含められた前記デフォルト値を信号伝達することを含む、項1に記載の方法。
12. 前記再整形モデル情報が前記初期化ステップにおいて初期化されていないと決定したことを受けて、前記インループ再整形ステップを無効にするステップ、を更に有する項1に記載の方法。
13. 前記信号伝達ステップにおいて、前記再整形モデル情報は、Iスライス、Iピクチャ、若しくはIタイルグループ、IDRスライス、IDRピクチャ、若しくはIDRタイルグループ、イントラランダムアクセスポイント(I-RAP)スライス、I-RAPピクチャ、若しくはI-RAPタイルグループ、のいずれか内で信号伝達される、項1に記載の方法。
14. 前記I-RAPスライス、I-RAPピクチャ、若しくはI-RAPタイルグループは、IDRスライス、IDRピクチャ、若しくはIDRタイルグループ、CRAスライス、CRAピクチャ、若しくはCRAタイルグループ、又はブロークンリンクアクセス(BLA)スライス、BLAピクチャ、若しくはBLAタイルグループ、のうちの1つ以上を含むことができる、項1に記載の方法。
15. 前記信号伝達ステップは、シーケンスパラメータセット(SPS)又はピクチャパラメータセット(PPS)に含められた前記再整形モデル情報を信号伝達することを含む、項1に記載の方法。
16. ビジュアルメディア処理の方法であって、現在映像ブロックと、該現在映像ブロックのビットストリーム表現との間で変換を実行するステップであり、前記変換の間に、インループ再整形ステップを用いて、該インループ再整形ステップに関連付けられたサイド情報に従って前記現在映像ブロックの表現を第1のドメインから第2のドメインに変換し、前記インループ再整形ステップは、再整形モデル情報に部分的に基づき、変換の間に、前記再整形モデル情報が、初期化ステップ、信号伝達ステップ、又は復号ステップのうちの1つ以上で使用される、実行するステップと、前記再整形モデル情報が第1のピクチャ内で信号伝達されるとき、第2のピクチャにおける前記再整形モデル情報の使用を無効にするステップと、を有する方法。
17. 前記第1のピクチャの後且つ前記第2のピクチャの前に中間ピクチャが伝送される場合に、前記再整形モデル情報が前記第1のピクチャ内で信号伝達されるとき、前記第2のピクチャにおける前記再整形モデル情報の使用を無効にするステップ、を更に有する項16に記載の方法。
18. 前記第2のピクチャは、Iピクチャ、IDRピクチャ、CRAピクチャ、又はI-RAPピクチャである、項17に記載の方法。
19. 前記中間ピクチャは、Iピクチャ、IDRピクチャ、CRAピクチャ、又はI-RAPピクチャである、項17又は18に記載の方法。
20. 前記ピクチャはタイル又はグループを含む、項16乃至19のいずれか一項に記載の方法。
21. ビジュアルメディア処理の方法であって、現在映像ブロックと、該現在映像ブロックのビットストリーム表現との間で変換を実行するステップ、を有し、前記変換の間に、インループ再整形ステップを用いて、該インループ再整形ステップに関連付けられたサイド情報に従って前記現在映像ブロックの表現を第1のドメインから第2のドメインに変換し、前記インループ再整形ステップは、再整形モデル情報に部分的に基づき、変換の間に、前記再整形モデル情報が、初期化ステップ、信号伝達ステップ、又は復号ステップのうちの1つ以上で使用され、前記信号伝達ステップの間に、ピクチャ内でフラグを信号伝達することで、該フラグに基づいて、該ピクチャ内で前記再整形モデル情報が送信され、そうでなければ、該ピクチャが前記復号ステップで復号される前に前記再整形モデル情報が前記初期化ステップで初期化されるようにする、方法。
22. 前記ピクチャは、Iピクチャ、IDRピクチャ、CRAピクチャ、又はI-RAPピクチャである、項21に記載の方法。
23. 前記ピクチャがタイル又はグループを含む、項21又は22に記載の方法。
24. フラグが0又は1の値をとる、項21に記載の方法。
25. ビジュアルメディア処理の方法であって、現在映像ブロックと、該現在映像ブロックのビットストリーム表現との間で変換を実行するステップ、を有し、前記変換の間に、インループ再整形ステップを用いて、該インループ再整形ステップに関連付けられたサイド情報に従って前記現在映像ブロックの表現を第1のドメインから第2のドメインに変換し、前記インループ再整形ステップは、再整形モデル情報に部分的に基づき、変換の間に、前記再整形モデル情報が、初期化ステップ、信号伝達ステップ、又は復号ステップのうちの1つ以上で使用され、ピクチャを複数のユニットに分割する際、該複数ユニットの各々に付随する前記再整形モデル情報が同じである、方法。
26. ビジュアルメディア処理の方法であって、現在映像ブロックと、該現在映像ブロックのビットストリーム表現との間で変換を実行するステップ、を有し、前記変換の間に、インループ再整形ステップを用いて、該インループ再整形ステップに関連付けられたサイド情報に従って前記現在映像ブロックの表現を第1のドメインから第2のドメインに変換し、前記インループ再整形ステップは、再整形モデル情報に部分的に基づき、変換の間に、前記再整形モデル情報が、初期化ステップ、信号伝達ステップ、又は復号ステップのうちの1つ以上で使用され、ピクチャを複数のユニットに分割する際、前記再整形モデル情報は該複数のユニットのうちの最初のユニットでのみ信号伝達される、方法。
27. 前記ユニットはスライス又はタイルグループに相当する、項25又は26に記載の方法。
28. ビジュアルメディア処理の方法であって、現在映像ブロックと、該現在映像ブロックのビットストリーム表現との間で変換を実行するステップ、を有し、前記変換の間に、インループ再整形ステップを用いて、該インループ再整形ステップに関連付けられたサイド情報に従って前記現在映像ブロックの表現を第1のドメインから第2のドメインに変換し、前記インループ再整形ステップは、再整形モデル情報に部分的に基づき、変換の間に、前記再整形モデル情報が、初期化ステップ、信号伝達ステップ、又は復号ステップのうちの1つ以上で使用され、前記再整形モデル情報は、ビット深度値に基づいて操作される、方法。
29. 前記再整形モデル情報は、前記ビット深度値に関連するMaxBinIdx変数を含む、項28に記載の方法。
30. 前記再整形モデル情報は、前記ビット深度値に関連するRspCW変数を含む、項28に記載の方法。
30. 前記再整形モデル情報は、値において0から前記MaxBinIdx変数までの範囲のreshape_model_delta_max_bin_idx変数を含む、項29に記載の方法。
31. 前記再整形モデル情報は、0から始まってMaxBinIdx-reshape_model_min_bin_idxに一致する値までの範囲内に切り取られるreshape_model_delta_max_bin_idx変数を含み、reshape_model_min_bin_idxは、前記再整形モデル情報内の別の変数である、項29に記載の方法。
32. 前記再整形モデル情報は、0から始まってMaxBinIdx変数までの範囲内に切り取られるreshape_model_delta_max_bin_idx変数を含む、項29に記載の方法。
33. 前記再整形モデル情報は、reshaper_model_min_bin_idx変数及びreshaper_model_delta_max_bin_idx変数を含み、前記reshaper_model_min_bin_idx変数は前記reshaper_model_min_bin_idx変数よりも小さい、項29に記載の方法。
34. 前記再整形モデル情報は、reshaper_model_min_bin_idx変数及びreshaper_model_delta_max_bin_idx変数を含み、前記reshaper_model_max_bin_idxは、reshaper_model_min_bin_idxからMaxBinIdxまで変化する範囲内に切り取られる、項29に記載の方法。
35. 前記再整形モデル情報は、reshaper_model_min_bin_idx変数及びreshaper_model_delta_max_bin_idx変数を含み、前記reshaper_model_min_bin_idxは、0からreshaper_model_max_bin_idxまで変化する範囲内に切り取られる、項29に記載の方法。
36. 前記再整形モデル情報は、閾値よりも小さいreshaper_model_bin_delta_abs_cw_prec_minus1変数を含む、項29に記載の方法。
37. 前記閾値は固定数である、項36に記載の方法。
38. 前記閾値は前記ビット深度値に基づいている、項36に記載の方法。
39. 前記再整形モデル情報は、invAvgLuma=Clip1Y((ΣΣpredMapSamples[(xCurr<<scaleX)+i][(yCurr<<scaleY)+j]+((nCurrSw<<scaleX)*(nCurrSh<<scaleY)>>1))/((nCurrSw<<scaleX)*(nCurrSh<<scaleY)))として計算されるinvAvgLuma変数を含む、項28に記載の方法。
40. 4:2:0フォーマットに対して、scaleX=scaleY=1である、項28に記載の方法。
41. 4:4:4フォーマットに対して、scaleX=scaleY=1である、項28に記載の方法。
42. 4:2:2フォーマットに対して、scaleX=1且つscaleY=0である、項28に記載の方法。
43. 前記再整形モデル情報は、invLumaSample=Clip3(minVal,maxVal,invLumaSample)として計算されるinvLumaSample変数を含む、項28に記載の方法。
44. reshape_model_min_bin_idx>0である場合、minVal=T1<<(BitDepth-8)であり、それ以外の場合、minVal=0である、項43に記載の方法。
45. reshape_model_max_bin_idx<MaxBinIdxである場合、maxVal=T2<<(BitDepth-8)であり、それ以外の場合、maxVal=(1<<BitDepth)-1である、項43に記載の方法。
46. T1=16である、項44に記載の方法。
47. T2が235又は40の値をとる、項45に記載の方法。
48. 前記再整形モデル情報は、ReshapePivot[i]<=Tであるように制約されたReshapePivot量を含む、項28に記載の方法。
49. Tは、T=(1<<BitDepth)-1として計算されることができ、BitDepthはビット深度値に対応する、項48に記載の方法。
50. 前記映像処理はエンコーダ側の実装である、項1乃至49のいずれか一項に記載の方法。
51. 前記映像処理はデコーダ側の実装である、項1乃至49のいずれか一項に記載の方法。
52. プロセッサと、命令を有する非一時的なメモリと、を有する映像システム内の装置であって、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、項1乃至49のいずれか一項に記載の方法を実行させる、装置。
53. 非一時的なコンピュータ読み取り可能媒体に格納されたコンピュータプログラムプロダクトであって、項1乃至49のいずれか一項に記載の方法を実行するためのプログラムコードを含むコンピュータプログラムプロダクト。
第2組の項は、例えば例1乃至例7を含む先行セクションに列挙された開示技術の特定の特徴及び態様を記述する。
1. 映像処理方法であって、映像の映像領域の複数の映像ユニットと該複数の映像ユニットの符号化表現との間での変換のために、該複数の映像ユニットによって共有される再整形モデル情報を決定するステップと、前記映像の符号化表現と前記映像との間で変換を実行するステップと、を有し、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおいて映像サンプルを構築するための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供する、方法。
2. 前記複数の映像ユニットは、複数のスライス又は複数のタイルグループに対応する、項1に記載の方法。
3. 前記複数の映像ユニットは同一のピクチャに関連する、項2に記載の方法。
4. 前記再整形モデル情報は、前記複数の映像ユニットの前記符号化表現内に一度だけ存在する、項1に記載の方法。
5. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間での変換のために、再整形モデル情報内の変数の値を前記映像のビット深度の関数として決定するステップと、該決定に基づいて前記変換を実行するステップと、を有し、前記再整形モデル情報は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能であり、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供する、方法。
6. 前記変数は、前記ビット深度値に関連するMaxBinIdx変数を含む、項5に記載の方法。
7. 前記変数は、前記ビット深度値に関連するRspCW変数を含む、項5に記載の方法。
8. 前記変数RspCWは、映像領域の映像ユニットの再構成を導出するのに使用される変数ReshapePivotを導出するために使用される、項7に記載の方法。
9. 前記変数は、0からMaxBinIdxまでの範囲内にあるiについてRspCW[i]が0に等しい場合にInvScaleCoeff[i]=1<<shiftYを満たすInvScaleCoeff[i]を含み、ただし、shiftYは、精度を表す整数である、項5に記載の方法。
10. shiftYは11又は14である、項9に記載の方法。
11. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を有し、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける映像ユニットの表現に基づく映像領域の前記映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、初期化ルールに基づいて初期化されている、方法。
12. 前記再整形モデル情報の前記初期化は、前記映像のシーケンスを復号するのに先立って行われる、項11に記載の方法。
13. 前記再整形モデル情報の前記初期化は、i)イントラ(I)符号化タイプを用いて符号化される映像領域、ii)瞬時復号リフレッシュ(IDR)符号化タイプを用いて符号化される映像領域、iii)クリーンランダムアクセス(CRA)符号化タイプを用いて符号化される映像領域、又はiv)イントラランダムアクセスポイント(I-RAP)符号化タイプを用いて符号化される映像領域、のうちの少なくとも1つを復号するのに先立って行われる、項11に記載の方法。
14. 前記イントラランダムアクセスポイント(I-RAP)を用いて符号化される前記映像領域は、i)瞬時復号リフレッシュ(IDR)符号化タイプを用いて符号化される映像領域、ii)クリーンランダムアクセス(CRA)符号化タイプを用いて符号化される映像領域、及び/又はiii)ブロークンリンクアクセス(BLA)符号化タイプを用いて符号化される映像領域、のうちの少なくとも1つを含む、項13に記載の方法。
15. 前記再整形モデル情報の前記初期化は、OrgCW量を(1<<BitDepthY)/(MaxBinIdx+1)として設定することを含み、i=0,1,…,MaxBinIdxに対して、ReshapePivot[i]=InputPivot[i]=i*OrgCWOrgCWであり、BitDepthY、MaxBinIdx、及びReshapePivotは、前記再整形モデル情報に関連する量である、項11に記載の方法。
16. 前記再整形モデル情報の前記初期化は、i=0,1,…,MaxBinIdxに対して、ScaleCoeff[i]=InvScaleCoeff[i]=1<<shiftYとして量を設定することを含み、ScaleCoef、InvScaleCoeff、及びshiftYは、前記再整形モデル情報に関連する量である、項11に記載の方法。
17. 前記再整形モデル情報の前記初期化は、OrgCW量を(1<<BitDepthY)/(MaxBinIdx+1)として設定することを含み、i=0,1,…,MaxBinIdxに対して、RspCW[i]=OrgCWOrgCWは、i=0,1,…,MaxBinIdxに対して、(1<<BitDepthY)/(MaxBinIdx+1).RspCW[i]=OrgCWに等しく設定され、OrgCW、BitDepthY、MaxBinIdx、及びRspCWは前記再整形モデル情報に関連する量である、項11に記載の方法。
18. 前記再整形モデル情報の前記初期化は、前記再整形モデル情報をデフォルト値に設定することを含み、前記デフォルト値は、シーケンスパラメータセット(SPS)又はピクチャパラメータセット(PPS)に含められる、項11に記載の方法。
19. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間での変換のために、インループ再整形(ILR)を有効にすべきか無効にすべきかを決定するステップと、該決定に基づいて前記変換を実行するステップと、を有し、前記符号化表現は、1つ以上の映像領域の一部の前記ILRに適用可能な再整形モデル情報を含み、該再整形モデル情報は、第1のドメイン及び第2のドメインに基づく映像領域の再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記決定は、前記再整形モデル情報が初期化されない場合に前記ILRを無効にすると決定する、方法。
20. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を有し、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインに基づく映像領域の前記映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、前記映像領域が特定の符号化タイプを用いて符号化される場合にのみ前記符号化表現に含められる、方法。
21. 前記映像領域は、スライス又はピクチャ又はタイルグループであり、前記特定の符号化タイプは、イントラ(I)符号化タイプである、項20に記載の方法。
22. 前記映像領域は、スライス又はピクチャ又はタイルグループであり、前記特定の符号化タイプは、瞬時復号リフレッシュ(IDR)符号化タイプである、項20に記載の方法。
23. 前記映像領域は、スライス又はピクチャ又はタイルグループであり、前記特定の符号化タイプは、クリーンランダムアクセス(CRA)符号化タイプである、項20に記載の方法。
24. 前記映像領域は、スライス又はピクチャ又はタイルグループであり、前記特定の符号化タイプは、イントラランダムアクセスポイント(I-RAP)符号化タイプである、項20に記載の方法。
25. 前記イントラランダムアクセスポイント(I-RAP)符号化タイプを用いて符号化される前記介在映像領域は、i)瞬時復号リフレッシュ(IDR)符号化タイプを用いて符号化される映像領域、ii)クリーンランダムアクセス(CRA)符号化タイプを用いて符号化される映像領域、及び/又はiii)ブロークンリンクアクセス(BLA)符号化タイプを用いて符号化される映像領域、のうちの少なくとも1つを含む、項24に記載の方法。
26. 前記再整形モデル情報は、シーケンスレベル、ピクチャレベル、又は適応パラメータセット(APS)に含められる、項20に記載の方法。
27. 映像処理方法であって、映像の第1の映像領域と該第1の映像領域の符号化表現との間での変換のために、第2の映像領域からの再整形情報が前記変換に使用可能であるかをルールに基づいて決定するステップと、該決定に従って前記変換を実行するステップと、を有する方法。
28. 前記再整形情報は、第1のドメイン及び第2のドメインに基づく映像領域の映像ユニットの再構成のため、及び/又はクロマ映像ユニットのクロマ残差をスケーリングするために使用される、項27に記載の方法。
29. 前記ルールは、前記符号化表現が、前記第1の映像領域と前記第2の映像領域との間に、特定の符号化タイプを用いて符号化される介在映像領域を含む場合には、前記第1の映像領域による前記再整形モデル情報の使用を禁止する、項27に記載の方法。
30. 前記介在映像領域は、イントラ(I)符号化タイプを用いて符号化される、項29に記載の方法。
31. 前記介在映像領域は、瞬時復号リフレッシュ(IDR)符号化タイプを用いて符号化される、項29又は30に記載の方法。
32. 前記介在映像領域は、クリーンランダムアクセス(CRA)符号化タイプを用いて符号化される、項29乃至31のいずれかに記載の方法。
33. 前記介在映像領域は、イントラ・ランダム・アクセス・ポイント(I-RAP)符号化タイプを使用して符号化される、条項29~32のいずれかの方法。
34. 前記イントラランダムアクセスポイント(I-RAP)符号化タイプを用いて符号化される前記介在映像領域は、i)瞬時復号リフレッシュ(IDR)符号化タイプを用いて符号化される映像領域、ii)クリーンランダムアクセス(CRA)符号化タイプを用いて符号化される映像領域、及び/又はiii)ブロークンリンクアクセス(BLA)符号化タイプを用いて符号化される映像領域、のうちの少なくとも1つを含む、項33に記載の方法。
35. 前記第1の映像領域、前記第2の映像領域、及び/又は前記介在映像領域は、スライスに相当する、項27乃至34のいずれかに記載の方法。
36. 前記第1の映像領域、前記第2の映像領域、及び/又は前記介在映像領域は、ピクチャに相当する、項27乃至35のいずれかに記載の方法。
37. 前記第1の映像領域、前記第2の映像領域、及び/又は前記介在映像領域は、タイルグループに相当する、項27乃至36のいずれかに記載の方法。
38. 映像処理方法であって、映像の現在映像領域と該現在映像領域の符号化表現との間で、前記現在映像領域が特定の符号化タイプを用いて符号化されるように、変換を実行するステップ、を有し、前記符号化表現は、映像領域レベルでの前記符号化表現内のフラグの値に条件付きで基づいて前記符号化表現内に再整形モデル情報を規定するフォーマットルールに準拠する、方法。
39. 前記再整形モデル情報は、第1のドメイン及び第2のドメインに基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供する、項38に記載の方法。
40. 前記フラグの前記値が第1の値を持つ場合、前記再整形モデル情報が前記映像領域内で信号伝達され、それ以外の場合、前記再整形モデル情報は、前記映像領域を復号する前に初期化される、項38に記載の方法。
41. 前記第1の値は0又は1である、項38に記載の方法。
42. 前記映像領域は、スライス又はピクチャ又はタイルグループであり、前記特定の符号化タイプは、イントラ(I)符号化タイプである、項38に記載の方法。
43. 前記映像領域は、スライス又はピクチャ又はタイルグループであり、前記特定の符号化タイプは、瞬時復号リフレッシュ(IDR)符号化タイプである、項38に記載の方法。
44. 前記映像領域は、スライス又はピクチャ又はタイルグループであり、前記特定の符号化タイプは、クリーンランダムアクセス(CRA)符号化タイプである、項38に記載の方法。
45. 前記映像領域は、スライス又はピクチャ又はタイルグループであり、前記特定の符号化タイプは、イントラランダムアクセスポイント(I-RAP)符号化タイプである、項38に記載の方法。
46. 前記イントラランダムアクセスポイント(I-RAP)を用いて符号化される前記映像領域は、i)瞬時復号リフレッシュ(IDR)符号化タイプを用いて符号化される映像領域、ii)クリーンランダムアクセス(CRA)符号化タイプを用いて符号化される映像領域、及び/又はiii)ブロークンリンクアクセス(BLA)符号化タイプを用いて符号化される映像領域、のうちの少なくとも1つを含む、項45に記載の方法。
47. 前記変換の前記実行は、前記符号化表現から前記映像を生成することを含む、項1乃至46のいずれかに記載の方法。
48. プロセッサと、命令を有する非一時的なメモリと、を有する映像システム内の装置であって、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、項1乃至47のいずれか一項に記載の方法を実行させる、装置。
49. 非一時的なコンピュータ読み取り可能媒体に格納されたコンピュータプログラムプロダクトであって、項1乃至47のいずれか一項に記載の方法を実行するためのプログラムコードを含むコンピュータプログラムプロダクト。
第3組の項は、例えば例8及び9を含む先行セクションに列挙された開示技術の特定の特徴及び態様を記述する。
1. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を有し、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、許容最大ビンインデックスと前記再構成で使用される最大ビンインデックスとの間の差を規定する構文要素を含むパラメータセットを有し、前記パラメータはある範囲内にある、方法。
2. 前記構文要素は、0から、前記許容最大ビンインデックスと前記再構成で使用される最小ビンインデックスとの間の差までの範囲内にある、項1に記載の方法。
3. 前記構文要素は、0から前記許容最大ビンインデックスまでの範囲内にある、項1に記載の方法。
4. 前記許容最大ビンインデックスは15に等しい、項1乃至3のいずれかに記載の方法。
5. 前記構文要素は前記範囲内となるよう切り取られている、項1又は4に記載の方法。
6. 前記最小ビンインデックスは前記最大ビンインデックス以下である、項1に記載の方法。
7. 前記最大ビンインデックスは、前記最小ビンインデックスから前記許容最大ビンインデックスまでの範囲内となるよう切り取られている、項1に記載の方法。
8. 前記最小ビンインデックスは、0から前記最大ビンインデックスまでの範囲内となるよう切り取られている、項1に記載の方法。
9. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を有し、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、前記再構成で使用される最大ビンインデックスを含むパラメータセットを有し、前記最大ビンインデックスは、前記再構成で使用される最小ビンインデックスと、符号なし整数であって前記最小ビンインデックスの後に信号伝達される構文要素と、の和に等しい第1の値として導出される、方法。
10. 前記構文要素は、前記最大ビンインデックスと許容最大ビンインデックスとの間の差を規定する、項9に記載の方法。
11. 前記構文要素は、0から、前記許容最大ビンインデックスと前記最小ビンインデックスとの間の差に等しい第2の値までの範囲内にある、項10に記載の方法。
12. 前記構文要素は、1から、前記最小ビンインデックスと前記許容最大ビンインデックスとの間の差に等しい第2の値までの範囲内にある、項10に記載の方法。
13. 前記構文要素は前記範囲内となるよう切り取られている、項11又は12に記載の方法。
14. 前記パラメータセットの構文要素は、コンフォーマンスビットストリームにおける要求範囲内にある、項9に記載の方法。
15. 前記変換の前記実行は、前記符号化表現から前記映像を生成することを含む、項1乃至14のいずれかに記載の方法。
16. プロセッサと、命令を有する非一時的なメモリと、を有する映像システム内の装置であって、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、項1乃至15のいずれか一項に記載の方法を実行させる、装置。
17. 非一時的なコンピュータ読み取り可能媒体に格納されたコンピュータプログラムプロダクトであって、項1乃至15のいずれか一項に記載の方法を実行するためのプログラムコードを含むコンピュータプログラムプロダクト。
第4組の項は、例えば例10乃至例17を含む先行セクションに列挙された開示技術の特定の特徴及び態様を記述する。
1. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を有し、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、絶対デルタコードワード値を規定する第2の構文要素を表すのに使用されるビット数を対応するビンから導出する第1の構文要素を含むパラメータセットを有し、前記第1の構文要素は、閾値よりも小さい値を持つ、方法。
2. 前記第1の構文要素は、前記第2の構文要素を表すのに使用される前記ビット数と1との間の差を規定する、項1に記載の方法。
3. 前記閾値は固定値を持つ、項1に記載の方法。
4. 前記閾値は、その値がビット深度に依存する変数を持つ、項1に記載の方法。
5. 前記閾値は、BitDepth-1であり、BitDepthは前記ビット深度を表す、項4に記載の方法。
6. 前記第1の構文要素はコンフォーマンスビットストリームである、項1に記載の方法。
7. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を有し、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、前記ILRで使用されるi番目のビンの傾きを表すi番目のパラメータであり、(i-1)番目のパラメータに基づく値を持つi番目のパラメータ、を含むパラメータセットを有し、iは正の整数である、方法。
8. 前記i番目のパラメータは、reshaper_model_min_bin_idx<=i<=reshaper_model_max_bin_idxの場合に、前記(i-1)番目のパラメータから予測され、前記reshaper_model_min_bin_idx及び前記reshaper_model_max_bin_indexは、前記再構成で使用される最小ビンインデックス及び最大ビンインデックスを指し示す、項7に記載の方法。
9. 前記i番目のパラメータは、0に等しいiに対して、OrgCWから予測される、項7に記載の方法。
10. 前記i番目のパラメータは、前記再構成で使用される最小ビンインデックスを指し示すreshaper_model_min_bin_idxの値に等しいiに対して、別のパラメータから予測される、項7に記載の方法。
11. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を有し、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記ILRに使用される前記再整形モデル情報は、信号伝達されないreshape_model_bin_delta_sign_CW[i]を含むパラメータセットを有し、RspDeltaCW[i]=reshape_model_bin_delta_abs_CW[i]は常に正の数である、方法。
12. 変数CW[i]がMinVとRspDeltaCW[i]との和として計算される、項11に記載の方法。
13. MinVは32又はg(BitDepth)であり、BitDepthはビット深度値に対応する、項12に記載の方法。
14. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を有し、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、前記映像領域のカラーフォーマットに応じて前記スケーリングにルマ値を使用するためのパラメータinvAvgLumaを含むパラメータセットを有する、方法。
15. 前記invAvgLumaは、invAvgLuma=Clip1Y((ΣΣpredMapSamples[(xCurr<<scaleX)+i][(yCurr<<scaleY)+j]+(cnt>>1))/cntとして計算され、ただし、predMapSamplesは、再構成されたルマサンプルを表し、(xCurrY,yCurrY)は、現在ピクチャの左上のクロマサンプルに対する現在クロマ変換ブロックの左上クロマサンプルを表し、(i,j)は、前記invAvgLumaを導出することに関与するルマサンプルの現在クロマ変換ブロックの左上クロマサンプルに対する位置を表し、cntは、前記invAvgLumaを導出することに関与するルマサンプルの数を表す、項14に記載の方法。
16. 4:2:0フォーマットに対して、scaleX=scaleY=1である、項15に記載の方法。
17. 4:4:4フォーマットに対して、scaleX=scaleY=0である、項15に記載の方法。
18. 4:2:2フォーマットに対して、scaleX=1且つscaleY=0である、項15に記載の方法。
19. 映像処理方法であって、映像の現在映像ブロックと前記映像の符号化表現との間で変換を実行するステップ、を有し、前記変換は、再構成ピクチャルマサンプルを修正再構成ピクチャルマサンプルへと変換するピクチャ逆マッピングプロセスを含み、前記ピクチャ逆マッピングプロセスは、上限及び下限が互いに別々に設定されるクリッピングを含む、方法。
20. 前記修正再構成ピクチャルマサンプルは、invLumaSample=Clip3(minVal,maxVal,invLumaSample),minVal,maxValとして計算される値invLumaSampleを含む、項19に記載の方法。
21. 再構成で使用される最小ビンインデックスが0より大きい場合、minVal=T1<<(BitDepth-8)であり、それ以外の場合、minVal=0である、項20に記載の方法。
22. 再構成で使用される最大ビンインデックスが許容最大ビンインデックスより小さい場合、maxVal=T2<<(BitDepth-8)であり、それ以外の場合、maxVal=(1<<BitDepth)-1であり、bitDepthはビット深度値に対応する、項20に記載の方法。
23. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を有し、前記符号化表現は、前記1つ以上の映像領域の一部のインループ再整形(ILR)に適用可能な再整形モデル情報を含み、前記再整形モデル情報は、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするための情報を提供し、前記再整形モデル情報は、Pivot[i]<=Tであるように制約されたピボット量を含むパラメータセットを有する、方法。
24. Tは、T=(1<<BitDepth)-1として計算され、BitDepthはビット深度値に対応する、項23に記載の方法。
25. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を有し、前記符号化表現は、インループ再整形(ILR)に適用可能な情報を含むとともに、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするためのパラメータを提供し、クロマ量子化パラメータ(QP)が、各ブロック又は各変換ユニットに対して値が導出されるオフセットを有する、方法。
26. 前記オフセットは、代表ルマ値(repLumaVal)に基づいて導出される、項25に記載の方法。
27. 前記代表ルマ値は、ブロック又は変換ユニットのルマ予測値の一部又は全てを用いて導出される、項26に記載の方法。
28. 前記代表ルマ値は、ブロック又は変換ユニットのルマ再構成値の一部又は全てを用いて導出される、項26に記載の方法。
29. 前記代表ルマ値は、ブロック又は変換ユニットのルマ予測値又はルマ再構成値の一部又は全ての平均として導出される、項26に記載の方法。
30. ReshapePivot[idx]<=repLumaVal<ReshapePivot[idx+1]であり、InvScaleCoeff[idx]が、前記オフセットを導出するために使用される、項26に記載の方法。
31. ルマQPオフセットが、argmin abs(2^(x/6+shiftY)-InvScaleCoeff[idx])として選定され、x=-N,…,Mであり、N及びMは整数である、項30に記載の方法。
32. ルマQPオフセットが、argmin abs(1-(2^(x/6+shiftY)/InvScaleCoeff[idx])として選定され、x=-N,…,Mであり、N及びMは整数である、項30に記載の方法。
33. 異なるInvascaleCoeff[idx]値に対して、前記オフセットが事前計算されてルックアップテーブルに格納される、項30に記載の方法。
34. 映像処理方法であって、1つ以上の映像領域を有する映像の符号化表現と前記映像との間で変換を実行するステップ、を有し、前記符号化表現は、インループ再整形(ILR)に適用可能な情報を含むとともに、第1のドメイン及び第2のドメインにおける表現に基づく映像領域の映像ユニットの再構成のための及び/又はクロマ映像ユニットのクロマ残差をスケーリングするためのパラメータを提供し、ルマ量子化パラメータ(QP)が、各ブロック又は各変換ユニットに対して値が導出されるオフセットを有する、方法。
35. 前記オフセットは、代表ルマ値(repLumaVal)に基づいて導出される、項34に記載の方法。
36. 前記代表ルマ値は、ブロック又は変換ユニットのルマ予測値の一部又は全てを用いて導出される、項35に記載の方法。
37. 前記代表ルマ値は、ブロック又は変換ユニットのルマ予測値の一部又は全ての平均として導出される、項35に記載の方法。
38. idx=repLumaVal/OrgCWであり、InvScaleCoeff[idx]が、前記オフセットを導出するために使用される、項35に記載の方法。
39. 前記オフセットは、argmin abs(2^(x/6+shiftY)-InvScaleCoeff[idx])として選定され、x=-N,…,Mであり、N及びMは整数である、項38に記載の方法。
40. 前記オフセットは、argmin abs(1-(2^(x/6+shiftY)/InvScaleCoeff[idx])として選定され、x=-N,…,Mであり、N及びMは整数である、項38に記載の方法。
41. 異なるInvascaleCoeff[idx]値に対して、前記オフセットが事前計算されてルックアップテーブルに格納される、項38に記載の方法。
42. 前記変換の前記実行は、前記符号化表現から前記映像を生成することを含む、項1乃至41のいずれかに記載の方法。
43. プロセッサと、命令を有する非一時的なメモリと、を有する映像システム内の装置であって、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、項1乃至42のいずれか一項に記載の方法を実行させる、装置。
44. 非一時的なコンピュータ読み取り可能媒体に格納されたコンピュータプログラムプロダクトであって、項1乃至42のいずれか一項に記載の方法を実行するためのプログラムコードを含むコンピュータプログラムプロダクト。
開示される及びその他のソリューション、この文書に記述される例、実施形態、モジュール及び機能動作は、この文書に開示されている構造及びそれらに構造的に均等なものを含め、デジタル電子回路、又はコンピュータソフトウェア、ファームウェア、若しくはハードウェアにて、あるいはこれらのうちの1つ以上の組み合わせにて実施されることができる。開示される及びその他の実施形態は、1つ以上のコンピュータプログラムプロダクトとして実装されることができ、すなわち、データ処理装置による実行のための、又はデータ処理装置の動作を制御するための、コンピュータ読み取り可能媒体にエンコードされたコンピュータプログラム命令の1つ以上のモジュールとして実装されることができる。コンピュータ読み取り可能媒体は、機械読み取り可能記憶装置、機械読み取り可能記憶基板、メモリ装置、機械読み取り可能な伝搬信号を生じさせる物質の組成、又はそれらのうちの1つ以上の組み合わせとすることができる。用語“データ処理装置”は、例として、プログラマブルプロセッサ、コンピュータ、又は複数のプロセッサ若しくはコンピュータを含め、データを処理するあらゆる装置、デバイス、及び機械を包含する。装置は、ハードウェアに加えて、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、又はそれらのうちの1つ以上の組み合わせを構成するコードといった、問題としているコンピュータプログラムのための実行環境を作り出すコードを含むことができる。伝播される信号は、人工的に生成される信号であり、例えば、適切な受信器装置への伝送のために情報をエンコードするために生成される機械生成による電気信号、光信号、又は電磁信号である。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、又はコードとしても知られる)は、コンパイル型又はインタープリタ型の言語を含め、如何なる形態のプログラミング言語で記述されてもよく、また、スタンドアロンプログラムとして、又はコンピューティング環境での使用に適したモジュール、コンポーネント、サブルーチン、若しくは他のユニットとして、を含め、如何なる形態で展開されてもよい。コンピュータプログラムは、必ずしもファイルシステム内のファイルに対応するわけではない。プログラムは、他のプログラム若しくはデータを保持するファイルの一部(例えば、マークアップ言語文書に格納された1つ以上のスクリプト)に格納されてもよいし、問題としているプログラムに専用の単一ファイルに格納されてもよいし、あるいは、複数の連携ファイル(例えば、1つ以上のモジュール、サブプログラム、又はコードの部分を格納するファイル)に格納されてもよい。コンピュータプログラムは、1つのコンピュータ上で実行されるように展開されてもよいし、あるいは、一箇所に配置された、又は複数箇所に分散されて通信ネットワークによって相互接続された、複数のコンピュータ上で実行されるように展開されてもよい。
この文書に記載されるプロセス及び論理フローは、入力データについて演算して出力を生成することによって機能を実行するよう、1つ以上のコンピュータプログラムを実行する1つ以上のプログラマブルプロセッサによって実行されることができる。これらのプロセス及び論理フローはまた、例えばFPGA(フィールドプログラマブルゲートアレイ)又はASIC(特定用途向け集積回路)といった専用の論理回路によって実行されることもでき、また、装置も、そのような専用の論理回路として実装されることができる。
コンピュータプログラムの実行に適したプロセッサは、例として、汎用及び専用の双方のマイクロプロセッサ、及び任意の種類のデジタルコンピュータの任意の1つ以上のプロセッサを含む。一般に、プロセッサは、読み出し専用メモリ若しくはランダムアクセスメモリ又はこれらの両方から命令及びデータを受信する。コンピュータの必須要素は、命令を実行するためのプロセッサと、命令及びデータを格納する1つ以上のメモリデバイスである。一般に、コンピュータはまた、例えば磁気ディスク、磁気光ディスク、又は光ディスクといった、データを格納するための1つ以上の大容量ストレージ装置を含み、あるいは、大容量ストレージ装置からデータを受信したり、それにデータを転送したりするように動作的に結合される。しかしながら、コンピュータは、そのような装置を有する必要はない。コンピュータプログラム命令及びデータを格納するのに適したコンピュータ読み取り可能媒体は、例として、例えばEPROM、EEPROM、及びフラッシュメモリデバイスといった半導体メモリデバイス、例えば内部ハードディスク又はリムーバブルディスクといった磁気ディスク;光磁気ディスク;並びにCD ROM及びDVD-ROMディスクを含め、あらゆる形態の不揮発性メモリ、媒体及びメモリデバイスを含む。プロセッサ及びメモリは、専用の論理回路によって補われたり、それに組み込まれたりしてもよい。
この特許文書は数多くの詳細が含んでいるが、それらは、いずれかの主題又は特許請求され得るものの範囲についての限定として解釈されるべきでなく、むしろ、特定の技術の特定の実施形態に特有とし得る機構の説明として解釈されるべきである。別々の実施形態の文脈でこの特許文書に記載されている特定の複数の機構が、単一の実施形態にて組み合わせて実装されることもできる。逆に、単一の実施形態の文脈で説明されている種々の機構が、複数の実施形態にて別々に、又は何らかの好適なサブコンビネーションで実装されることもできる。さらには、複数の機構が、特定の組み合わせにて作用するものとして上述され、さらには当初はそのように特許請求されていることがあり得るが、場合によって、特許請求されている組み合わせからの1以上の機構を組み合わせから除くこともでき、また、特許請求されている組み合わせをサブコンビネーション又はサブコンビネーションのバリエーションへと導いてもよい。
同様に、図面には処理が特定の順序で示されるが、このことは、所望の結果を達成するために、それらの動作が図示される特定の順序で若しくは順番に実行されること、又は図示される全ての処理が実行されることを要求するものとして理解されるべきでない。また、この特許文書に記載されている実施形態における種々のシステムコンポーネントの分離は、全ての実施形態においてそのような分離を必要とするものとして理解されるべきでない。
ほんの少しの実装及び例を記載したのみであり、この特許文書に記載及び図示されているものに基づいて、他の実装、拡張及び変形が行われ得る。

Claims (19)

  1. 映像データを処理する方法であって、
    映像の映像領域の現在映像ユニットの現在クロマ映像ブロックと前記映像のビットストリームとの間での変換において、前記現在クロマ映像ブロックのクロマ残差サンプルに対してスケーリングプロセスが適用されることを決定するステップと、
    少なくとも1つのスケーリング係数に基づいて前記クロマ残差サンプルに対して前記スケーリングプロセスを適用することによって、前記変換を実行するステップと、
    を有し、
    前記スケーリングプロセスにおいて、前記クロマ残差サンプルが、前記現在クロマ映像ブロックを再構成するために使用される前にスケーリングされ、
    前記少なくとも1つのスケーリング係数は、平均化演算によって特定のルマサンプルを用いて導出される変数invAvgLumaに基づいて導出され、該変数invAvgLumaは、前記映像のカラーフォーマットに応じて計算される、
    方法。
  2. 前記スケーリングプロセスは第1のピースワイズリニアモデルに基づき、前記変数invAvgLumaが属するピースをインデックスが特定し、該インデックスに基づいて前記少なくとも1つのスケーリング係数が導出される、請求項1に記載の方法。
  3. 前記映像領域の前記現在映像ユニットのルマ映像ブロックに対し、
    1)前記ルマ映像ブロックについての順マッピングプロセスであり、前記ルマ映像ブロックの予測サンプルが元のドメインから再整形ドメインへと変換される、順マッピングプロセス、又は
    2)前記順マッピングプロセスの逆演算である逆マッピングプロセスであり、前記再整形ドメインにおける前記ルマ映像ブロックの再構成サンプルが前記元のドメインへと変換される、逆マッピングプロセス、
    のうちの少なくとも一方が実行される、請求項1に記載の方法。
  4. 前記順マッピングプロセスにおいて前記ルマ映像ブロックの前記予測サンプルを特定の値にマッピングするために第2のピースワイズリニアモデルが使用される、請求項3に記載の方法。
  5. 前記逆マッピングプロセスで生成された、前記元のドメインにおける前記ルマ映像ブロックの前記変換された再構成サンプルに、フィルタリングプロセスが適用される、請求項3に記載の方法。
  6. 前記第2のピースワイズリニアモデルについての第1の構文要素及び第2の構文要素が前記ビットストリームに含められ、前記第1の構文要素に1を足したものが、前記第2の構文要素の表現に使用されるビット数を規定し、前記第2の構文要素は、前記特定の値に関連付けられるものであるi番目のビンについての絶対デルタコードワード値を規定する、請求項4に記載の方法。
  7. 前記第1の構文要素の値は閾値よりも小さく、
    前記閾値はビット深度に依存する、
    請求項6に記載の方法。
  8. 前記第1のピースワイズリニアモデルは、順マッピングプロセスの逆演算である逆マッピングプロセスに使用され、前記逆マッピングプロセスで、再整形ドメインにおける前記映像領域のルマ映像ブロックの再構成サンプルが元のドメインへと変換され、前記ルマ映像ブロックに対する前記順マッピングプロセスで、前記ルマ映像ブロックの予測サンプルが前記元のドメインから前記再整形ドメインへと変換される、請求項2に記載の方法。
  9. 第3の構文要素及び第4の構文要素が前記ビットストリームに含められ、前記第3の構文要素は、最大許容ビンインデックスと前記順マッピングプロセスで使用される最大ビンインデックスとの間の差を規定し、前記第4の構文要素は、前記順マッピングプロセスで使用される最小ビンインデックスを規定する、請求項3に記載の方法。
  10. 前記第3の構文要素の値は、0から前記最大許容ビンインデックスまでの範囲内にあり、
    前記第4の構文要素の値は、前記順マッピングプロセスで使用される前記最大ビンインデックス以下であり、
    前記第4の構文要素の値は、0から前記順マッピングプロセスで使用される前記最大ビンインデックスまでの範囲内にあり、
    前記最大許容ビンインデックスは15に等しい、
    請求項9に記載の方法。
  11. 前記現在映像ユニットに対するコーディングツールのモデル情報が、前記ビットストリームに含められ、前記コーディングツールは、前記スケーリングプロセス、前記順マッピングプロセス、又は前記逆マッピングプロセスのうちの少なくとも1つを含み、
    前記現在映像ユニットを含む1つ以上の映像ユニットを前記映像領域が有することに応答して、前記1つ以上の映像ユニットの各々が、前記現在映像ユニットに対する前記コーディングツールの同じモデル情報を共有する、
    請求項4に記載の方法。
  12. 前記1つ以上の映像ユニットは、1つ以上のスライス、1つ以上のタイルグループ、1つ以上のコーディングツリーユニット、又は1つ以上のコーディングユニットに相当し、
    前記映像領域はピクチャであり、
    前記コーディングツールの使用フラグがシーケンスパラメータセットに含められる、
    請求項11に記載の方法。
  13. 前記コーディングツールのモデルは、前記第2のピースワイズリニアモデルを含み、前記第2のピースワイズリニアモデルの少なくとも1つの変数の値が、前記映像のビット深度に依存する、請求項11に記載の方法。
  14. 前記第2のピースワイズリニアモデルのi番目のピースワイズについてのコードワードの値の範囲が、前記映像のビット深度に依存し、前記i番目のピースワイズについての前記コードワードは前記特定の値に関連付けられ、
    前記i番目のピースワイズについての前記コードワードの前記値は、前記現在映像ユニットに対する前記コーディングツールの前記モデル情報に基づいて決定される、
    請求項11に記載の方法。
  15. 前記変換は、前記現在映像ユニットを前記ビットストリームへと符号化することを含む、請求項1に記載の方法。
  16. 前記変換は、前記ビットストリームから前記現在映像ユニットを復号することを含む、請求項1に記載の方法。
  17. プロセッサと、命令を有する非一時的なメモリと、を有する映像データを処理する装置であって、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
    映像の映像領域の現在映像ユニットの現在クロマ映像ブロックと前記映像のビットストリームとの間での変換において、前記現在クロマ映像ブロックのクロマ残差サンプルに対してスケーリングプロセスが適用されることを決定させ、
    少なくとも1つのスケーリング係数に基づいて前記クロマ残差サンプルに対して前記スケーリングプロセスを適用することによって、前記変換を実行させ、
    前記スケーリングプロセスにおいて、前記クロマ残差サンプルが、前記現在クロマ映像ブロックを再構成するために使用される前にスケーリングされ、
    前記少なくとも1つのスケーリング係数は、平均化演算によって特定のルマサンプルを用いて導出される変数invAvgLumaに基づいて導出され、該変数invAvgLumaは、前記映像のカラーフォーマットに応じて計算される、
    装置。
  18. 命令を格納した非一時的なコンピュータ読み取り可能記憶媒体であって、前記命令は、プロセッサに、
    映像の映像領域の現在映像ユニットの現在クロマ映像ブロックと前記映像のビットストリームとの間での変換において、前記現在クロマ映像ブロックのクロマ残差サンプルに対してスケーリングプロセスが適用されることを決定させ、
    少なくとも1つのスケーリング係数に基づいて前記クロマ残差サンプルに対して前記スケーリングプロセスを適用することによって、前記変換を実行させ、
    前記スケーリングプロセスにおいて、前記クロマ残差サンプルが、前記現在クロマ映像ブロックを再構成するために使用される前にスケーリングされ、
    前記少なくとも1つのスケーリング係数は、平均化演算によって特定のルマサンプルを用いて導出される変数invAvgLumaに基づいて導出され、該変数invAvgLumaは、前記映像のカラーフォーマットに応じて計算される、
    コンピュータ読み取り可能記憶媒体。
  19. 像のビットストリームを格納する方法であって
    前記映像の映像領域の現在映像ユニットの現在クロマ映像ブロックのクロマ残差サンプルに対してスケーリングプロセスが適用されることを決定するステップと、
    少なくとも1つのスケーリング係数に基づいて前記クロマ残差サンプルに対して前記スケーリングプロセスを適用することによって、前記ビットストリームを生成するステップと、
    前記ビットストリームを非一時的なコンピュータ読み取り可能記録媒体に格納するステップと、
    を有し、
    前記スケーリングプロセスにおいて、前記クロマ残差サンプルが、前記現在クロマ映像ブロックを再構成するために使用される前にスケーリングされ、
    前記少なくとも1つのスケーリング係数は、平均化演算によって特定のルマサンプルを用いて導出される変数invAvgLumaに基づいて導出され、該変数invAvgLumaは、前記映像のカラーフォーマットに応じて計算される、
    方法
JP2023075959A 2019-03-08 2023-05-02 映像処理におけるモデルベース再整形に対する制約 Active JP7529848B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN2019077429 2019-03-08
CNPCT/CN2019/077429 2019-03-08
JP2021551760A JP7277599B2 (ja) 2019-03-08 2020-03-09 映像処理におけるモデルベース再整形に対する制約
PCT/CN2020/078388 WO2020182092A1 (en) 2019-03-08 2020-03-09 Constraints on model-based reshaping in video processing

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021551760A Division JP7277599B2 (ja) 2019-03-08 2020-03-09 映像処理におけるモデルベース再整形に対する制約

Publications (2)

Publication Number Publication Date
JP2023090865A JP2023090865A (ja) 2023-06-29
JP7529848B2 true JP7529848B2 (ja) 2024-08-06

Family

ID=72427691

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2021551760A Active JP7277599B2 (ja) 2019-03-08 2020-03-09 映像処理におけるモデルベース再整形に対する制約
JP2021551761A Active JP7203241B2 (ja) 2019-03-08 2020-03-09 映像処理における再整形情報の信号伝達
JP2023075959A Active JP7529848B2 (ja) 2019-03-08 2023-05-02 映像処理におけるモデルベース再整形に対する制約

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2021551760A Active JP7277599B2 (ja) 2019-03-08 2020-03-09 映像処理におけるモデルベース再整形に対する制約
JP2021551761A Active JP7203241B2 (ja) 2019-03-08 2020-03-09 映像処理における再整形情報の信号伝達

Country Status (11)

Country Link
US (3) US11284084B1 (ja)
EP (2) EP3918800A4 (ja)
JP (3) JP7277599B2 (ja)
KR (2) KR20210135502A (ja)
CN (4) CN113545044A (ja)
AU (1) AU2020235190B2 (ja)
CA (1) CA3131286C (ja)
MX (1) MX2021010498A (ja)
SG (1) SG11202109150QA (ja)
WO (3) WO2020182091A1 (ja)
ZA (1) ZA202106351B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220150481A1 (en) * 2019-03-07 2022-05-12 Lg Electronics Inc. Video or image coding based on luma mapping with chroma scaling
WO2020182091A1 (en) 2019-03-08 2020-09-17 Beijing Bytedance Network Technology Co., Ltd. Reshaping model in video processing
AU2020260285B2 (en) 2019-04-18 2023-06-01 Beijing Bytedance Network Technology Co., Ltd. Restriction on applicability of cross component mode
BR112021019675A2 (pt) 2019-04-23 2021-12-07 Beijing Bytedance Network Tech Co Ltd Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador
CN117221558A (zh) 2019-05-08 2023-12-12 北京字节跳动网络技术有限公司 跨分量编解码的适用性条件
US11388406B2 (en) * 2019-05-20 2022-07-12 Dolby Laboratories Licensing Corporation Piece-wise-linear mapping for in-loop reshaping in image coding
CN113994679B (zh) 2019-06-21 2024-07-12 北京字节跳动网络技术有限公司 关于上下文编解码二进制位的数量的限制
KR20220024006A (ko) 2019-06-22 2022-03-03 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로마 잔차 스케일링을 위한 신택스 요소
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
JP7444970B2 (ja) 2019-08-20 2024-03-06 北京字節跳動網絡技術有限公司 デフォルトおよびユーザ定義のスケーリング行列の使用法
MX2022011798A (es) * 2020-03-27 2022-10-07 Beijing Dajia Internet Information Tech Co Ltd Metodos y dispositivos para escalacion residual que depende de la prediccion para codificacion de video.
WO2022129255A1 (en) 2020-12-15 2022-06-23 Feeltect Limited System and method for monitoring wound therapy

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017019818A1 (en) 2015-07-28 2017-02-02 Vid Scale, Inc. High dynamic range video coding architectures with multiple operating modes
WO2017165494A2 (en) 2016-03-23 2017-09-28 Dolby Laboratories Licensing Corporation Encoding and decoding reversible production-quality single-layer video signals
WO2019006300A1 (en) 2017-06-29 2019-01-03 Dolby Laboratories Licensing Corporation INTEGRATED IMAGE REMODELING AND VIDEO CODING
WO2020156529A1 (en) 2019-02-01 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Signaling of in-loop reshaping information using parameter sets

Family Cites Families (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5281752B2 (ja) 2007-02-28 2013-09-04 日本無機株式会社 フィルタパック及びそれを用いたエアフィルタ
EP2051524A1 (en) 2007-10-15 2009-04-22 Panasonic Corporation Image enhancement considering the prediction error
US9571856B2 (en) 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
WO2011126272A2 (en) * 2010-04-05 2011-10-13 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using dynamic-range transformation, and method and apparatus for decoding video by using dynamic-range transformation
EP3101897B1 (en) 2010-04-09 2021-10-20 Xylene Holding S.A. Moving image encoding device and method, moving image decoding device and method, bitstream
DK2559245T3 (en) 2010-04-13 2015-08-24 Ge Video Compression Llc Video Coding using multitræsunderinddeling Images
HUE036401T2 (hu) 2010-09-30 2018-07-30 Samsung Electronics Co Ltd Eljárás képek interpolálására simító interpolációs szûrõt felhasználva
WO2012090504A1 (en) 2010-12-28 2012-07-05 Panasonic Corporation Methods and apparatuses for coding and decoding video stream
US9565428B2 (en) 2011-06-20 2017-02-07 Mediatek Singapore Pte. Ltd. Method and apparatus of chroma intra prediction with reduced line memory
KR20130058524A (ko) 2011-11-25 2013-06-04 오수미 색차 인트라 예측 블록 생성 방법
JP5375938B2 (ja) 2011-12-14 2013-12-25 ソニー株式会社 復号装置及び方法
CN103227917B (zh) 2012-01-31 2016-12-14 华为技术有限公司 解码方法和装置
US9503702B2 (en) * 2012-04-13 2016-11-22 Qualcomm Incorporated View synthesis mode for three-dimensional video coding
CN104471940B (zh) 2012-04-16 2017-12-15 联发科技(新加坡)私人有限公司 色度帧内预测方法及装置
GB2501535A (en) 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
CN115052159A (zh) 2012-07-02 2022-09-13 韩国电子通信研究院 视频编码/解码方法和非暂时性计算机可读记录介质
US9516309B2 (en) 2012-07-09 2016-12-06 Qualcomm Incorporated Adaptive difference domain spatial and temporal reference reconstruction and smoothing
US9350899B2 (en) 2012-09-14 2016-05-24 Qualcomm Incorporated Methods and device for efficient resampling and resizing of digital images
AU2012232992A1 (en) 2012-09-28 2014-04-17 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding the transform units of a coding unit
GB2513111A (en) 2013-04-08 2014-10-22 Sony Corp Data encoding and decoding
US9503732B2 (en) 2013-04-10 2016-11-22 Arris Enterprises, Inc. Re-sampling with phase offset adjustment for luma and chroma to select filters in scalable video coding
EP3598751B1 (en) 2013-06-28 2024-04-10 Velos Media International Limited Methods and devices for emulating low-fidelity coding in a high-fidelity coder
US9648330B2 (en) * 2013-07-15 2017-05-09 Qualcomm Incorporated Inter-color component residual prediction
EP3056004A2 (en) 2013-10-11 2016-08-17 VID SCALE, Inc. High level syntax for hevc extensions
US9648332B2 (en) 2013-10-28 2017-05-09 Qualcomm Incorporated Adaptive inter-color component residual prediction
US10397607B2 (en) * 2013-11-01 2019-08-27 Qualcomm Incorporated Color residual prediction for video coding
WO2015100522A1 (en) 2013-12-30 2015-07-09 Mediatek Singapore Pte. Ltd. Methods for inter-component residual prediction
US9930348B2 (en) * 2014-03-14 2018-03-27 Qualcomm Incorporated Coefficient level coding in a video coding process
US10271052B2 (en) * 2014-03-14 2019-04-23 Qualcomm Incorporated Universal color-space inverse transform coding
US20180176588A1 (en) 2014-03-14 2018-06-21 Samsung Electronics Co., Ltd. Scalable video encoding/decoding method and apparatus
US10142642B2 (en) 2014-06-04 2018-11-27 Qualcomm Incorporated Block adaptive color-space conversion coding
US20150373343A1 (en) 2014-06-20 2015-12-24 Qualcomm Incorporated Representation format update in multi-layer codecs
US10200700B2 (en) * 2014-06-20 2019-02-05 Qualcomm Incorporated Cross-component prediction in video coding
JP2017531382A (ja) 2014-09-12 2017-10-19 ヴィド スケール インコーポレイテッド ビデオ符号化のための成分間相関解除
US9918105B2 (en) * 2014-10-07 2018-03-13 Qualcomm Incorporated Intra BC and inter unification
KR20200051831A (ko) 2014-10-28 2020-05-13 미디어텍 싱가폴 피티이. 엘티디. 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법
US9998742B2 (en) 2015-01-27 2018-06-12 Qualcomm Incorporated Adaptive cross component residual prediction
ES2872724T3 (es) * 2015-02-19 2021-11-02 Magic Pony Tech Limited Mejora de los datos visuales mediante el uso de redes neuronales actualizadas
GB201603144D0 (en) * 2016-02-23 2016-04-06 Magic Pony Technology Ltd Training end-to-end video processes
EP3281409B1 (en) * 2015-04-06 2019-05-01 Dolby Laboratories Licensing Corporation In-loop block-based image reshaping in high dynamic range video coding
WO2016199409A1 (en) 2015-06-07 2016-12-15 Sharp Kabushiki Kaisha Systems and methods for optimizing video coding based on a luminance transfer function or video color component values
WO2017053432A1 (en) 2015-09-21 2017-03-30 Vid Scale, Inc. Inverse reshaping for high dynamic range video coding
US20170105014A1 (en) 2015-10-08 2017-04-13 Qualcomm Incorporated Luma-driven chroma scaling for high dynamic range and wide color gamut contents
US10045023B2 (en) 2015-10-09 2018-08-07 Telefonaktiebolaget Lm Ericsson (Publ) Cross component prediction in video coding
US20170150156A1 (en) 2015-11-25 2017-05-25 Qualcomm Incorporated Illumination compensation with non-square predictive blocks in video coding
CA3013317A1 (en) * 2016-02-08 2017-08-17 Sharp Kabushiki Kaisha Systems and methods for transform coefficient coding
GB2548358A (en) * 2016-03-15 2017-09-20 Nokia Technologies Oy A method, an apparatus and a computer program product for coding a 360-degree panoramic images and video
JP6895645B2 (ja) 2016-03-25 2021-06-30 パナソニックIpマネジメント株式会社 信号依存型適応量子化を用いて動画像を符号化及び復号するための方法及び装置
US10708164B2 (en) * 2016-05-03 2020-07-07 Qualcomm Incorporated Binarizing secondary transform index
WO2017201139A1 (en) 2016-05-19 2017-11-23 Dolby Laboratories Licensing Corporation Chroma reshaping for high dynamic range images
ES2984654T3 (es) * 2016-05-19 2024-10-30 Dolby Laboratories Licensing Corp Remodelación de croma para imágenes de alto rango dinámico
WO2017206803A1 (en) 2016-05-28 2017-12-07 Mediatek Inc. Method and apparatus of current picture referencing for video coding
US10484712B2 (en) 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
CN109479133B (zh) 2016-07-22 2021-07-16 夏普株式会社 使用自适应分量缩放对视频数据进行编码的系统和方法
US10390015B2 (en) 2016-08-26 2019-08-20 Qualcomm Incorporated Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction
US10419757B2 (en) 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
EP3510772B1 (en) * 2016-09-09 2020-12-09 Dolby Laboratories Licensing Corporation Coding of high dynamic range video using segment-based reshaping
JP2018056685A (ja) 2016-09-27 2018-04-05 株式会社ドワンゴ 画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラム
CN116915985A (zh) 2016-10-04 2023-10-20 Lx 半导体科技有限公司 图像编码/解码方法和发送方法
US10477240B2 (en) 2016-12-19 2019-11-12 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding
US20180199062A1 (en) 2017-01-11 2018-07-12 Qualcomm Incorporated Intra prediction techniques for video coding
US11025903B2 (en) 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
US10694181B2 (en) 2017-01-27 2020-06-23 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity
EP3386198A1 (en) 2017-04-07 2018-10-10 Thomson Licensing Method and device for predictive picture encoding and decoding
WO2018236031A1 (ko) 2017-06-21 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
EP3425911A1 (en) * 2017-07-06 2019-01-09 Thomson Licensing A method and a device for picture encoding and decoding
KR20200051596A (ko) 2017-09-15 2020-05-13 소니 주식회사 화상 처리 장치 및 방법
JP2021010046A (ja) 2017-10-06 2021-01-28 シャープ株式会社 画像符号化装置及び画像復号装置
US20190116376A1 (en) 2017-10-12 2019-04-18 Qualcomm Incorporated Motion vector predictors using affine motion model in video coding
KR102435014B1 (ko) * 2018-02-14 2022-08-23 돌비 레버러토리즈 라이쎈싱 코오포레이션 레이트 왜곡 최적화를 이용한 비디오 코딩에서의 이미지 재성형
US11190790B2 (en) 2018-04-01 2021-11-30 Lg Electronics Inc. Parallel processing method for color component of video signal, and device therefor
CN109005408B (zh) 2018-08-01 2020-05-29 北京奇艺世纪科技有限公司 一种帧内预测方法、装置及电子设备
CN116347109A (zh) 2018-08-17 2023-06-27 北京字节跳动网络技术有限公司 一种处理视频数据的方法和装置
TWI824006B (zh) 2018-09-12 2023-12-01 大陸商北京字節跳動網絡技術有限公司 交叉分量線性建模中的下採樣
WO2020084512A1 (en) 2018-10-23 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Affine motion information derivation from neighboring block
CN117241017A (zh) 2018-11-05 2023-12-15 北京字节跳动网络技术有限公司 数字视频编解码的方法、设备和系统
WO2020094057A1 (en) 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Position based intra prediction
BR112021010428A2 (pt) 2018-12-07 2021-08-24 Beijing Bytedance Network Technology Co., Ltd. Método para processamento de vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador
CN118573896A (zh) 2018-12-31 2024-08-30 韩国电子通信研究院 图像编码/解码方法和设备以及存储比特流的记录介质
WO2020169101A1 (en) 2019-02-22 2020-08-27 Beijing Bytedance Network Technology Co., Ltd. Neighbouring sample selection for intra prediction
CN117499669A (zh) 2019-02-22 2024-02-02 华为技术有限公司 用于色度子块的仿射帧间预测的方法及装置
CN113491121B (zh) 2019-02-24 2022-12-06 北京字节跳动网络技术有限公司 对视频数据进行编解码的方法、设备及计算机可读介质
US11991373B2 (en) 2019-02-28 2024-05-21 Interdigital Vc Holdings, Inc. Method and device for picture encoding and decoding
EP3703366A1 (en) 2019-02-28 2020-09-02 InterDigital VC Holdings, Inc. Method and device for picture encoding and decoding
WO2020177702A1 (en) 2019-03-04 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Two-level signaling of filtering information in video processing
EP3935847A4 (en) * 2019-03-04 2022-12-07 Alibaba Group Holding Limited METHOD AND SYSTEM FOR PROCESSING VIDEO CONTENT
WO2020182091A1 (en) 2019-03-08 2020-09-17 Beijing Bytedance Network Technology Co., Ltd. Reshaping model in video processing
US12114000B2 (en) 2019-03-08 2024-10-08 Qualcomm Incorporated Combined residual coding in video coding
US20200288126A1 (en) 2019-03-08 2020-09-10 Qualcomm Incorporated Reshaping filter average calculation for video coding
CN113574889B (zh) 2019-03-14 2024-01-12 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
WO2020192633A1 (en) * 2019-03-25 2020-10-01 Mediatek Inc. Method and apparatus of the quantization matrix computation and representation for video coding
WO2020204413A1 (ko) 2019-04-03 2020-10-08 엘지전자 주식회사 복원 픽처를 수정하는 비디오 또는 영상 코딩
AU2020260285B2 (en) 2019-04-18 2023-06-01 Beijing Bytedance Network Technology Co., Ltd. Restriction on applicability of cross component mode
CN113711604B (zh) 2019-04-20 2023-10-27 北京字节跳动网络技术有限公司 视频编解码中色度和亮度语法元素的信令
BR112021019675A2 (pt) 2019-04-23 2021-12-07 Beijing Bytedance Network Tech Co Ltd Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador
CN111866510A (zh) 2019-04-30 2020-10-30 华为技术有限公司 视频序列的帧内预测方法及装置
CN117221558A (zh) 2019-05-08 2023-12-12 北京字节跳动网络技术有限公司 跨分量编解码的适用性条件
WO2020231139A1 (ko) 2019-05-16 2020-11-19 엘지전자 주식회사 루마 맵핑 및 크로마 스케일링 기반 비디오 또는 영상 코딩
US11388406B2 (en) * 2019-05-20 2022-07-12 Dolby Laboratories Licensing Corporation Piece-wise-linear mapping for in-loop reshaping in image coding
JP2021002780A (ja) 2019-06-21 2021-01-07 シャープ株式会社 動画像復号装置および動画像符号化装置
KR20220024006A (ko) 2019-06-22 2022-03-03 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로마 잔차 스케일링을 위한 신택스 요소
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
EP3981146A4 (en) 2019-07-11 2022-08-03 Beijing Bytedance Network Technology Co., Ltd. BITSTREAM CONFORMITY RESTRICTIONS FOR INTRA-BLOCK COPY IN VIDEO ENCODING
CN115668947A (zh) * 2020-04-02 2023-01-31 Lg电子株式会社 用信号通知hls的图像编码/解码方法和设备及存储比特流的计算机可读记录介质
US11601657B2 (en) * 2020-04-02 2023-03-07 Qualcomm Incorporated LUMA mapping with chroma scaling (LMCS) in video coding
US11375212B2 (en) * 2020-04-18 2022-06-28 Qualcomm Incorporated Flexible chroma processing for dynamic range adjustment
US20230214959A1 (en) * 2020-06-15 2023-07-06 Sony Group Corporation Information processing apparatus, information processing method, and information processing program
US12034910B2 (en) * 2020-06-18 2024-07-09 Lg Electronics Inc. Image encoding/decoding method and apparatus for signaling high level information for tool control based on color representation format, and computer-readable recording medium storing bitstream
EP4252418A4 (en) 2020-11-30 2024-05-22 Beijing Dajia Internet Information Technology Co., Ltd. CHROMACODING IMPROVEMENT WITH ADAPTIVE OFFSET OF CROSS-COMPONENT SAMPLES

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017019818A1 (en) 2015-07-28 2017-02-02 Vid Scale, Inc. High dynamic range video coding architectures with multiple operating modes
WO2017165494A2 (en) 2016-03-23 2017-09-28 Dolby Laboratories Licensing Corporation Encoding and decoding reversible production-quality single-layer video signals
WO2019006300A1 (en) 2017-06-29 2019-01-03 Dolby Laboratories Licensing Corporation INTEGRATED IMAGE REMODELING AND VIDEO CODING
WO2020156529A1 (en) 2019-02-01 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Signaling of in-loop reshaping information using parameter sets

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Taoran Lu, et al.,CE12: Mapping functions (test CE12-1 and CE12-2),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M0427-v2,13th Meeting: Marrakech, MA,2019年01月,pp.1-15
Taoran Lu, et al.,CE12-related: Universal low complexity reshaper for SDR and HDR video,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-L0247-v2,12th Meeting: Macao, CN,2018年10月,pp.1-10
Wade Wan, et al.,AHG17: Design for signallilng reshaper model,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0805-v2,14th Meeting: Geneva, CH,2019年03月,pp.1-6

Also Published As

Publication number Publication date
US11910020B2 (en) 2024-02-20
WO2020182091A1 (en) 2020-09-17
JP7277599B2 (ja) 2023-05-19
CN113545070B (zh) 2023-10-03
JP2023090865A (ja) 2023-06-29
JP2022522772A (ja) 2022-04-20
JP7203241B2 (ja) 2023-01-12
US20210321140A1 (en) 2021-10-14
AU2020235190A1 (en) 2021-09-16
CN113545044A (zh) 2021-10-22
CN113545049A (zh) 2021-10-22
BR112021016689A2 (pt) 2021-10-13
EP3912343A1 (en) 2021-11-24
KR20210135502A (ko) 2021-11-15
WO2020182092A1 (en) 2020-09-17
US11284084B1 (en) 2022-03-22
AU2020235190B2 (en) 2023-06-01
CN117119187A (zh) 2023-11-24
ZA202106351B (en) 2023-11-29
EP3912343A4 (en) 2022-07-20
EP3918800A4 (en) 2022-07-06
JP2022522771A (ja) 2022-04-20
WO2020182093A1 (en) 2020-09-17
KR102639936B1 (ko) 2024-02-22
EP3918800A1 (en) 2021-12-08
MX2021010498A (es) 2021-10-01
US20230276075A1 (en) 2023-08-31
CA3131286A1 (en) 2020-09-17
CN113545049B (zh) 2024-04-19
CA3131286C (en) 2024-06-18
SG11202109150QA (en) 2021-09-29
CN113545070A (zh) 2021-10-22
KR20210134314A (ko) 2021-11-09

Similar Documents

Publication Publication Date Title
JP7529848B2 (ja) 映像処理におけるモデルベース再整形に対する制約
JP7263529B2 (ja) デコーダ側精緻化ツールのサイズ選択アプリケーション
US11206406B1 (en) Two-level signaling of filtering information in video processing
CN113632469B (zh) 默认的环内整形参数
RU2812648C2 (ru) Способ и устройство для обработки данных видео и носитель для хранения информации

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240725

R150 Certificate of patent or registration of utility model

Ref document number: 7529848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150